DE102019006314A1 - Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren - Google Patents

Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren Download PDF

Info

Publication number
DE102019006314A1
DE102019006314A1 DE102019006314.7A DE102019006314A DE102019006314A1 DE 102019006314 A1 DE102019006314 A1 DE 102019006314A1 DE 102019006314 A DE102019006314 A DE 102019006314A DE 102019006314 A1 DE102019006314 A1 DE 102019006314A1
Authority
DE
Germany
Prior art keywords
pixel
projection
detected
image
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019006314.7A
Other languages
English (en)
Inventor
Kaoru MIYATA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Publication of DE102019006314A1 publication Critical patent/DE102019006314A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Eine Dreidimensionale-Geometrie-Messvorrichtung enthält: einen Projektionsteil 1, der das Projektionsbild auf ein zu messendes Objekt projiziert; einen Bilderfassungsteil 2, der ein erfasstes Bild erzeugt, indem das zu messende Objekt erfasst wird, auf das das Projektionsbild projiziert wird; einen Beziehungsidentifikationsteil 302, der eine Projektionspixelposition identifiziert, die Entsprechung bzw. Übereinstimmung mit einer erfassten Pixelposition hat, und einen Fehlerhafte-Pixel-Bestimmungsteil 303, der bestimmt, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf einer Positionsbeziehung zwischen einem Projektionslichtstrahl, der am Projektionsteil 1 beginnt und das Pixel an der Projektionspixelposition durchläuft, und einem erfassten Lichtstrahl, der am Bilderfassungsteil 2 beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Dreidimensionale-Geometrie-Messvorrichtung und ein Dreidimensionale-Geometrie-Messverfahren zum Messen einer dreidimensionalen Geometrie eines zu messenden Objekts.
  • STAND DER TECHNIK
  • Verfahren zum Messen eines zu messenden Objekts ohne jegliche Kontaktierung können zweifach unterteilt werden: eine passive Technik wie ein Stereoverfahren; und eine aktive Technik wie ein Triangulationsverfahren, ein Flugzeitverfahren und ein konfokales Verfahren. Von diesen wird das Triangulationsverfahren zunehmend in verschiedenen Bereichen wie Produktqualitätsmanagement und Reverse Engineering eingesetzt.
  • Ein Lichtmusterprojektionsverfahren verwendet das Prinzip des Triangulationsverfahren und führt eine Messung der dreidimensionalen (3D) Geometrie durch, indem ein Streifenmuster von einem Projektor auf das zu messende Objekt projiziert wird und dann das sich entlang der Geometrie des zu messenden Objekts ändernde Muster mit einer Kamera erfasst wird. Die ungeprüfte japanische Patentanmeldungsveröffentlichung Nr. 2009-094295 offenbart eine Messvorrichtung zum Messen einer Höhe einer elektronischen Komponente basierend auf einem erfassten Bild, das durch Abbilden einer optischen Schnittlinie erhalten wird, wenn Linienlicht auf die elektronische Komponente projiziert wird.
  • Da das Lichtmusterprojektionsverfahren in der Lage ist, einen größeren Bereich gleichzeitig zu messen, wenn ein Bild mit einer Mehrzahl von Streifenmustern auf das zu messende Objekt projiziert wird, ermöglicht es eine schnellere Messung der 3D-Geometrie.
  • ZUSAMMENFASSUNG DER ERFINDUNG DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Beim Lichtmusterprojektionsverfahren treten, wenn eine Oberfläche des zu messenden Objekts glänzend ist, Mehrfachreflexionen auf, das heißt, das vom Projektor projizierte Licht wird wiederholt von einer Oberfläche des zu messenden Objekts reflektiert. Aufgrund der Mehrfachreflexionen bestand das Problem, dass die Messgenauigkeit verringert wird.
  • Als Verfahren zum Verhindern der Mehrfachreflexionen wurden ein Verfahren zum Aufbringen eines Anti-Mehrfachreflexionssprays auf die Oberfläche des zu messenden Objekts, eine Maske, die einen Teil des vom Projektor projizierten Lichts in seinem Lichtweg abschneidet, und dergleichen eingesetzt. Bei dem Verfahren zum Aufbringen des Anti-Mehrfachreflexionssprays auf die Oberfläche des zu messenden Objekts bestand jedoch das Problem, dass die Anzahl der Arbeitsstunden zum Spülen zunahm. Ein weiteres Problem bestand darin, dass das Anti-Mehrfachreflexionsspray nicht in einer Umgebung angewendet werden kann, in der ein hohes Maß an Sauberkeit aufrechterhalten werden muss.
  • Ferner ist das Verfahren des Verwendens der Maske ist mit dem Problem verbunden, dass die Messzeit erhöht wird, da die Anzahl der Projektionen des Musters auf das zu messende Objekt erhöht werden muss, um einen Teil des projizierten Lichts vom Projektor abzuschneiden. Ferner bestand bei diesem Verfahren ein weiteres Problem darin, dass für jedes einzelne zu messende Objekt unterschiedliche Masken erstellt werden mussten. Zusätzlich zu den Mehrfachreflexionen bestand beispielsweise ein weiteres Problem darin, dass die Messgenauigkeit aufgrund von Unschärfe bzw. Verwischung eines Abbildungssystems an Kanten des zu messenden Objekts oder an Stellen, an denen die Leuchtdichteänderung groß ist, verringert wird.
  • Diese Erfindung konzentriert sich auf diese Punkte, und es ist eine Aufgabe der Erfindung, eine Dreidimensionale-Geometrie-Messvorrichtung und ein Dreidimensionale-Geometrie-Messverfahren bereitzustellen, die in der Lage sind, eine Verminderung der Messgenauigkeit, die durch Mehrfachreflexionen, Unschärfe des Abbildungssystems oder dergleichen verursacht wird, zu verhindern.
  • MITTEL ZUM LÖSEN DER PROBLEME
  • Eine Dreidimensionale-Geometrie-Messvorrichtung gemäß dem ersten Aspekt der vorliegenden Erfindung ist eine Dreidimensionale-Geometrie-Messvorrichtung, die eine dreidimensionale Geometrie eines zu messenden Objekts misst, indem auf das zu messende Objekt ein Projektionsbild mit einem Lichtmuster projiziert wird, bei dem sich die Leuchtdichte in Abhängigkeit von einer Position ändert, und enthält: einen Projektionsteil, der das Projektionsbild auf das zu messende Objekt projiziert; einen Bilderfassungsteil, der ein erfasstes Bild erzeugt, indem das zu messende Objekt erfasst wird, auf das das Projektionsbild projiziert wird; einen Beziehungsidentifikationsteil, der eine Projektionspixelposition identifiziert, die eine Position eines Pixels des Projektionsbildes ist, die Übereinstimmung bzw. Entsprechung mit einer erfassten Pixelposition hat, die eine Position eines Pixels des erfassten Bildes ist; und einen Fehlerhafte-Pixel-Bestimmungsteil, der bestimmt, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf einer Positionsbeziehung zwischen (i) einem Projektionslichtstrahl, der am Projektionsteil beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) einem erfassten Lichtstrahl, der am Bilderfassungsteil beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat. Die Dreidimensionale-Geometrie-Messvorrichtung kann ferner einen Geometrieidentifikationsteil enthalten, der die dreidimensionale Geometrie des zu messenden Objekts auf der Basis von Pixelwerten der erfassten Pixelpositionen identifiziert, wobei die Position des Pixels, das von dem Fehlerhafte-Pixel-Bestimmungsteil als das fehlerhafte Pixel bestimmt wird, ausgenommen ist.
  • Der Fehlerhafte-Pixel-Bestimmungsteil kann basierend auf einem Abstand zwischen dem erfassten Lichtstrahl und dem Projektionslichtstrahl bestimmen, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht. Der Fehlerhafte-Pixel-Bestimmungsteil kann (i) als eine erste dreidimensionale Position eine Position identifizieren, an der sich der die erfasste Pixelposition durchlaufende erfasste Lichtstrahl mit einer Projektionslichtstrahlebene in einer vorbestimmten Richtung schneidet, welche die Projektionspixelposition durchläuft, die Entsprechung mit der erfassten Pixelposition hat, (ii) als eine zweite dreidimensionale Position eine Position spezifizieren, an der sich der die Projektionspixelposition durchlaufende Projektionslichtstrahl mit der Ebene des erfassten Lichtstrahls in einer vorbestimmten Richtung schneidet, welche die erfasste Pixelposition durchläuft, und (iii) bestimmen, dass das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist, wenn ein Abstand zwischen der ersten dreidimensionalen Position und der zweiten dreidimensionalen Position größer als ein Schwellenwert ist.
  • Der Fehlerhafte-Pixel-Bestimmungsteil kann bestimmen, ob die erfasste Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf der Entsprechung zwischen (i) einer ersten Ebene, die durch drei oder mehr der ersten dreidimensionalen Positionen bestimmt wird, die drei oder mehr der erfassten Pixelpositionen innerhalb eines vorbestimmten Bereichs ab der erfassten Pixelposition entsprechen, und (ii) einer zweiten Ebene, die durch drei oder mehr der zweiten dreidimensionalen Positionen bestimmt ist, die drei oder mehr der erfassten Pixelpositionen entsprechen.
  • Der Geometrieidentifikationsteil kann die dreidimensionale Geometrie des zu messenden Objekts basierend auf dem Mittelwert dreidimensionaler Koordinaten der ersten dreidimensionalen Positionen und dem Mittelwert der zweiten dreidimensionalen Positionen identifizieren. Die Dreidimensionale-Geometrie-Messvorrichtung kann ferner einen Abnormalitätserfassungsteil enthalten, der Abstände zwischen den ersten dreidimensionalen Positionen und den zweiten dreidimensionalen Positionen erhält, um eine Abnormalität der Dreidimensionale-Geometrie-Messvorrichtung basierend auf einer statistischen Größe von Abständen zu erfassen, die für eine Mehrzahl von erfassten Pixelpositionen erhalten wurden.
  • Der Projektionsteil kann ein Projektionsbild, von dem alle Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die durch den Fehlerhafte-Pixel-Bestimmungsteil als fehlerhafte Pixel bestimmt wurden, aus der Mehrzahl von Pixeln ausgeschlossen sind, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projizieren, wenn der Fehlerhafte-Pixel-Bestimmungsteil bestimmt, dass ein Pixel an einer erfassten Pixelposition ein fehlerhaftes Pixel ist. Der Projektionsteil kann ein Projektionsbild, das nur die Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die durch den Fehlerhafte-Pixel-Bestimmungsteil als fehlerhafte Pixel bestimmt wurden, aus der Mehrzahl von Pixeln enthält, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projizieren, wenn der Fehlerhafte-Pixel-Bestimmungsteil bestimmt, dass ein Pixel an einer erfassten Pixelposition ein fehlerhaftes Pixel ist.
  • Der Projektionsteil kann ein Projektionsbild, welches das Lichtmuster enthält, das sich in einer ersten Richtung orthogonal zu einer Ebene erstreckt, die eine optische Achse des Bilderfassungsteils und eine optische Achse des Projektionsteils enthält, und ein Projektionsbild projizieren, welches das Lichtmuster enthält, das sich in einer zweiten Richtung parallel zu der Ebene erstreckt, welche die optische Achse des Bilderfassungsteils und die optische Achse des Projektionsteils enthält. Der Projektionsteil kann ein Projektionsbild enthaltend das Lichtmuster eines binären Bildes und ein Projektionsbild enthaltend das Lichtmuster mit einer sinusförmigen Leuchtdichteverteilung auf das zu messende Objekt projizieren. Der Projektionsteil kann sequentiell eine Mehrzahl von Projektionsbildern projizieren, welche die Lichtmuster enthalten, deren Streifenzyklus sich voneinander unterscheidet.
  • Ein Dreidimensionale-Geometrie-Messverfahren gemäß dem zweiten Aspekt der vorliegenden Erfindung ist ein Dreidimensionale-Geometrie-Messverfahren, das eine dreidimensionale Geometrie eines zu messenden Objekts durch Projizieren, auf das zu messende Objekt, eines Projektionsbilds enthaltend ein Lichtmuster, bei dem sich die Leuchtdichte in Abhängigkeit von einer Position in einer vorbestimmten Richtung ändert, misst, wobei das Verfahren Schritte umfasst: Projizieren des Projektionsbilds auf das zu messende Objekt durch einen Projektionsteil; Erzeugen, durch einen Bilderfassungsteil, eines erfassten Bildes durch Erfassen des zu messenden Objekts, auf welches das Projektionsbild projiziert wird; Identifizieren einer Projektionspixelposition, die eine Position eines Pixels des Projektionsbildes ist, die Übereinstimmung bzw. Entsprechung mit einer erfassten Pixelposition hat, die eine Position eines Pixels des erfassten Bildes ist; und Bestimmen, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf einer Positionsbeziehung zwischen (i) einem Projektionslichtstrahl, der am Projektionsteil beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) einem erfassten Lichtstrahl, der am Bilderfassungsteil beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat.
  • EFFEKT DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird ein Effekt des Verhindems einer Verringerung der Messgenauigkeit, die durch Mehrfachreflexionen, Unschärfe bzw. Verwischung des Abbildungssystems oder dergleichen verursacht wird, erzielt.
  • Figurenliste
    • 1A bis 1C veranschaulichen einen Umriss einer 3D-Geometriemessvorrichtung gemäß der ersten Ausführungsform.
    • 2A und 2B zeigen jeweils ein Projektionsbild, das ein Projektionsteil auf ein zu messendes Objekt projiziert.
    • 3 zeigt eine Konfiguration der 3D-Geometriemessvorrichtung.
    • 4A bis 4F zeigen jeweils Beispiele von Arten von Projektionsbildern, die ein Projektionssteuer- bzw. -regelteil projiziert.
    • 5A bis 5D zeigen jeweils Beispiele von Gradationslichtmustern mit sinusförmigen Leuchtdichteverteilungen.
    • 6 zeigt Beispiele von Gray-Codes, die binären Lichtmustern entsprechen, die in 4C bis 4F gezeigt sind.
    • 7A und 7B veranschaulichen jeweils Mehrfachreflexionen.
    • 8 zeigt einen Lichtweg von Direktreflexionslicht.
    • 9 zeigt einen Lichtweg von mehrfach reflektiertem Licht.
    • 10 veranschaulicht ein Verfahren zum Bestimmen eines fehlerhaften Pixels durch einen Fehlerhafte-Pixel-Bestimmungsteil.
    • 11 veranschaulicht ein weiteres Verfahren zum Bestimmen des fehlerhaften Pixels durch den Fehlerhafte-Pixel-Bestimmungsteil.
    • 12 veranschaulicht noch ein weiteres Verfahren zum Bestimmen des fehlerhaften Pixels durch den Fehlerhafte-Pixel-Bestimmungsteil.
    • 13 ist ein Flussdiagramm zum Veranschaulichen einer Prozedur eines Bestimmungsprozesses für fehlerhafte Pixel, der durch den Fehlerhafte-Pixel-Bestimmungsteil durchgeführt wird.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • <Erste Ausführungsform>
  • [Überblick einer 3D-Geometriemessvorrichtung 100]
  • 1A bis 1C veranschaulichen den Umriss bzw. Überblick einer 3D-Geometriemessvorrichtung 100 gemäß der ersten Ausführungsform. 1A zeigt eine Konfiguration der 3D-Geometriemessvorrichtung 100. Die 3D-Geometriemessvorrichtung 100 misst eine 3D-Geometrie des zu messenden Objekts, indem auf das zu messende Objekt ein Projektionsbild mit Lichtmustern projiziert wird, in denen sich die Leuchtdichte abhängig von einer Position in einer vorbestimmten Richtung ändert. Die Lichtmuster sind beispielsweise Streifenmuster. Details der Lichtmuster werden nachstehend beschrieben. Die 3D-Geometriemessvorrichtung 100 umfasst einen Projektionsteil 1, einen Bilderfassungsteil 2 und einen Steuer- bzw. Regelteil 3.
  • Der Projektionsteil 1 ist eine Projektionsvorrichtung mit einer Lichtquelle, wie einer Leuchtdiode oder einem Laser, einer Projektionslinse und einem Flüssigkristall, einem Mikrospiegel oder dergleichen. Der Projektionsteil 1 projiziert mehrere jeweils unterschiedliche Projektionsbilder, die Lichtmuster enthalten, auf eine Messfläche bzw. -oberfläche des zu messenden Objekts.
  • Der Bilderfassungsteil 2 ist eine Erfassungsvorrichtung, die eine Linse 21 und ein Abbildungselement 22, ein optisches Filter (nicht gezeigt) und dergleichen aufweist. Der Bilderfassungsteil 2 erzeugt mehrere erfasste Bilder, indem jeweils das zu messende Objekt erfasst wird, während die Projektionsbilder durch den Projektionsteil 1 sequentiell auf das zu messende Objekt projiziert werden. Der Bilderfassungsteil 2 ist so platziert, dass die optische Achse des Bilderfassungsteils 2 und die optische Achse des Projektionsteils 1 einen vorbestimmten Winkel bilden.
  • Der Steuer- bzw. Regelteil 3 misst eine Geometrie des zu messenden Objekts basierend auf den erfassten Bildern, die von dem Bilderfassungsteil 2 erzeugt werden. Der Steuer- bzw. Regelteil 3 kann beispielsweise durch einen Computer implementiert sein.
  • 1B und 1C zeigen jeweils ein Beispiel eines von dem Bilderfassungsteil 2 erzeugten erfassten Bildes, während der Projektionsteil 1 die Projektionsbilder auf das zu messende Objekt projiziert. Wie in 1B und 1C gezeigt projiziert der Projektionsteil 1 die Projektionsbilder mit Lichtmustern, in denen sich die Leuchtdichte in Abhängigkeit von einer Position in einer vorbestimmten Richtung ändert, auf ein Ziel zur Messung. 1B zeigt das von dem Bilderfassungsteil 2 erzeugte erfasste Bild, wenn der Projektionsteil 1 auf eine ebene Messfläche bzw. -oberfläche die Projektionsbilder projiziert, die Lichtmuster enthalten, die aus Lichtprojektionsbereichen, in denen Licht projiziert wird, und Nichtprojektionsbereichen bestehen, in denen Licht nicht projiziert wird. Die weißen Bereiche repräsentieren die Lichtprojektionsbereiche und die schwarzen Bereiche repräsentieren die Nichtprojektionsbereiche. Wenn die Messfläche keine Unregelmäßigkeiten aufweist, stimmen die Lichtmuster des von dem Bilderfassungsteil 2 erzeugten erfassten Bildes mit den Lichtmustern des Projektionsbildes überein.
  • 1C zeigt ein von dem Bilderfassungsteil 2 erzeugtes erfasstes Bild, wenn der Projektionsteil 1 die Lichtmuster auf eine Messfläche bzw. -oberfläche mit konvexen Abschnitten projiziert. In dem erfassten Bild von 1C ist das Bild eines Teils des Lichtmusters deformiert. In dem erfassten Bild ist das Bild des Lichtmusters um einen Betrag entsprechend der Höhe der konvexen Abschnitte deformiert. Daher kann die 3D-Geometriemessvorrichtung 100 die Geometrie des zu messenden Objekts messen, indem die Höhe jeder Stelle des konvexen Abschnitts basierend auf dem Ausmaß der Deformation in dem Lichtmusterbild in dem erfassten Bild identifiziert wird.
  • 2A und 2B zeigen jeweils ein Projektionsbild, das der Projektionsteil 1 auf ein zu messendes Objekt projiziert. 2A zeigt ein Beispiel eines sich in der ersten Richtung erstreckenden Lichtmusters und 2B zeigt ein Beispiel eines sich in der zweiten Richtung erstreckenden Lichtmusters. Der Projektionsteil 1, wie in 2A gezeigt, projiziert das Projektionsbild mit dem sich in der ersten Richtung erstreckenden Lichtmuster (dies kann nachstehend als vertikales Muster bezeichnet werden). Die erste Richtung ist eine Richtung orthogonal zu der optischen Achse des Projektionsteils 1 und orthogonal zu der optischen Achse des Bilderfassungsteils 2. Der Projektionsteil 1, wie in 2B gezeigt, kann das Projektionsbild mit dem sich in der zweiten Richtung erstreckenden Lichtmuster projizieren (dies kann nachstehend als horizontales Muster bezeichnet werden). Die zweite Richtung ist eine Richtung parallel zu einer Ebene, welche die optischen Achsen des Projektionsteils 1 und des Bilderfassungsteils 2 enthält.
  • Wenn das oben erwähnte Projektionsbild, das das Lichtmuster enthält, auf das zu messende Objekt projiziert wird, weicht das Lichtmuster in der Breitenrichtung gemäß der 3D-Geometrie des zu messenden Objekts ab, wie in 1C gezeigt. Zudem schwankt die Breite des Lichtmusters gemäß der 3D-Geometrie des zu messenden Objekts. Bei dem ersten erfassten Bild, das durch den Bilderfassungsteil 2 erzeugt wird, der das zu messende Objekt erfasst, während das Projektionsbild mit dem sich in der ersten Richtung erstreckenden Lichtmuster projiziert wird, stimmen (i) die Richtung, die der Abweichung zwischen der Richtung der optischen Achse entspricht des Projektionsteils 1 und der Richtung der optischen Achse des Bilderfassungsteils 2 entspricht, und (ii) die Richtung der Abweichung in der Breitenrichtung des Lichtmusters miteinander überein. Das heißt, (i) eine Richtung eines Bildes für ein Liniensegment, das durch Projizieren eines Liniensegments erzeugt wird, das den Startpunkt der optischen Achse des Projektionsteils 1 und einen Startpunkt des Bilderfassungsteils 2 auf eine bzw. einer Ebene verbindet, auf der das zu messende Objekt platziert ist, und (ii) die Richtung der Abweichung in der Breitenrichtung des Lichtmusters stimmen miteinander überein. Daher ist bei dem ersten erfassten Bild die Empfindlichkeit zum Erfassen der Abweichung des Lichtmusters in der Breitenrichtung und dergleichen hoch. Aus diesem Grund wird die Auflösung bei der Messung der 3D-Geometrie des zu messenden Objekts verbessert.
  • Bei dem zweiten erfassten Bild hingegen, das durch den Bilderfassungsteil 2 erzeugt wird, der das zu messende Objekt erfasst, während das Projektionsbild mit dem sich in der zweiten Richtung erstreckenden Lichtmuster projiziert wird, sind die der Abweichung zwischen der Richtung der optischen Achse des Projektionsteils 1 und der Richtung der optischen Achse des Bilderfassungsteils 2 entsprechende Richtung und die Richtung der Abweichung in der Breitenrichtung des Lichtmusters orthogonal zueinander. Das heißt, (i) die Richtung eines Bildes für das Liniensegment, das durch Projizieren des Liniensegments, das den Startpunkt des Projektionsteils 1 und den Startpunkt des Bilderfassungsteils 2 verbindet, auf die Ebene erzeugt wird, wo das zu messende Objekt platziert ist, und (ii) die Richtung der Abweichung in der Breitenrichtung des Lichtmusters sind orthogonal. Daher ist die Messauflösung des zweiten erfassten Bildes bei der Messung der 3D-Geometrie des zu messenden Objekts im Vergleich zu dem ersten erfassten Bild signifikant verringert, und die 3D-Geometriemessvorrichtung 100 kann die Geometrie nicht genau messen.
  • Die 3D-Geometriemessvorrichtung 100 identifiziert die 3D-Geometrie des zu messenden Objekts durch Analysieren des auf das zu messende Objekt projizierten Lichtmusters. Wenn jedoch die Oberfläche des zu messenden Objekts glänzend ist, bestand das Problem, dass die Messgenauigkeit aufgrund der Mehrfachreflexionen, die durch mehrfach reflektiertes projiziertes Licht vom Projektionsteil 1 verursacht werden, verringert wird. Zusätzlich zu Mehrfachreflexionen gab es beispielsweise das Problem, dass die Messgenauigkeit aufgrund von Unschärfe eines Abbildungssystems an Kanten des zu messenden Objekts oder an Stellen, an denen die Leuchtdichteänderung groß ist, verringert wird. Dabei wird eine Position des Pixels des Projektionsteils 1 als eine Projektionspixelposition bezeichnet, und eine Position des Pixels des Bilderfassungsteils 2 wird als eine erfasste Pixelposition bezeichnet. Wie nachstehend detailliert beschrieben wird, bestimmt die 3D-Geometriemessvorrichtung 100 basierend auf einer Positionsbeziehung zwischen (i) einem Projektionslichtstrahl, der am Projektionsteil beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) einem erfassten Lichtstrahl, der am Bilderfassungsteil beginnt und das Pixel an der erfassten Pixelposition durchläuft, ob ein Pixel des erfassten Bildes ein fehlerhaftes Pixel ist oder nicht, das von den Mehrfachreflexionen oder dergleichen beeinflusst wird.
  • 3 zeigt eine Konfiguration der 3D-Geometriemessvorrichtung 100. Die 3D-Geometriemessvorrichtung 100 enthält den Projektionsteil 1, den Bilderfassungsteil 2, den Steuer- bzw. Regelteil 3 und eine Speichereinheit 4. Die Speichereinheit 4 enthält ein Speichermedium mit einer Festplatte, einen Nur-LeseSpeicher (ROM), einen Direktzugriffsspeicher (RAM) und dergleichen. Die Speichereinheit 4 speichert Programme, die von dem Steuer- bzw. Regelteil 3 auszuführen sind. Der Steuer- bzw. Regelteil 3 ist beispielsweise eine zentrale Verarbeitungseinheit (CPU) und fungiert als ein Projektionssteuer- bzw. -regelteil 301, ein Beziehungsidentifikationsteil 302, ein Fehlerhafte-Pixel-Bestimmungsteil 303, ein Geometrieidentifikationsteil 304 und ein Abnormalitätserfassungsteil 305 durch Ausführen der in der Speichereinheit 4 gespeicherten Programme.
  • Der Projektionssteuer- bzw. -regelteil 301 erzeugt Steuer- bzw. Regelsignale zum Projizieren der Projektionsbilder, die Lichtmuster enthalten, auf das zu messende Objekt und gibt die erzeugten Steuer- bzw. Regelsignale in den Projektionsteil 1 ein. Der Projektionssteuer- bzw. -regelteil 301 steuert bzw. regelt eine Schaltung zum EIN/AUS-Schalten des Projektionsteils 1 für jedes Pixel, und somit ist der Projektionssteuer- bzw. -regelteil 301 in der Lage, einen Teil der Pixel des Projektionsteils 1 auf das zu messende Objekt zu projizieren. Nachfolgend werden Beispiele von Lichtmustern, die der Projektionssteuer- bzw. -regelteil 301 projiziert, unter Bezugnahme auf 4A bis 4F und 5A bis 5D erläutert.
  • [Typen von Lichtmustern]
  • 4A bis 4F zeigen jeweils Beispiele von Typen von Projektionsbildern, die der Projektionssteuer- bzw. -regelteil 301 projiziert. In 4A bis 4F stellen die schwarzen Bereiche Nichtprojektionsbereiche dar, in denen der Projektionsteil 1 kein Licht projiziert, und die weißen Bereiche stellen Lichtprojektionsbereiche dar, in denen der Projektionsteil 1 Licht projiziert.
  • 4A zeigt ein Standardmuster, mit dem Licht nicht auf einen Teil des zu messenden Objekts projiziert wird (d.h. ein vollständig schwarzes Muster). 4B zeigt ein Standardmuster, mit dem Licht auf das gesamte zu messende Objekt projiziert wird (d.h. ein vollständig weißes Muster). 4C bis 4F zeigen die binären Lichtmuster, die sich aus einem Lichtprojektionsbereich und einem Nichtprojektionsbereich zusammensetzen und in denen die für jedes Projektionsbild unterschiedlich breiten Streifen in der gleichen Richtung angeordnet sind. Die in 4A bis 4F gezeigten Lichtmuster entsprechen Gray-Codes und werden zum Identifizieren von Positionen von Pixeln in dem erfassten Bild verwendet. Details davon werden unten beschrieben.
  • 5A bis 5D zeigen jeweils Beispiele von Gradationslichtmustern mit sinusförmigen Leuchtdichteverteilungen, die von dem Projektionssteuer- bzw. - regelteil 301 auf das zu messende Objekt projiziert werden. Die Gradationslichtmuster sind Lichtmuster, bei denen sich die Leuchtdichte in Abhängigkeit von einer Position in einer vorbestimmten Richtung ändert. In dem Beispiel der Gradationslichtmuster von 5A bis 5D ändert sich die Leuchtdichte in sinusförmiger Weise von dem weißen Bereich zu dem schwarzen Bereich entlang der Breitenrichtung der Streifen. Intervalle zwischen den Streifen in den Gradationslichtmustern von 5A bis 5D sind konstant und die räumliche Frequenz der Streifen in den Gradationslichtmustern ist beispielsweise viermal so groß wie die räumliche Frequenz der binären Lichtmuster von 4F.
  • Die Gradationslichtmuster von 5A bis 5D unterscheiden sich dahingehend voneinander, dass sich die Phasen der Sinuswellen, welche die Leuchtdichteverteilung angeben, um 90 Grad voneinander unterscheiden und ihre Leuchtdichteverteilungen ansonsten gleich sind. In der vorliegenden Ausführungsform projiziert der Projektionssteuer- bzw. -regelteil 301 insgesamt zehn Projektionsbilder: zwei Standardmuster, die in 4A und 4B gezeigt sind, vier binäre Lichtmuster, die in 4C bis 4F gezeigt sind, und vier Gradationslichtmuster, die in 5A bis 5D gezeigt sind. Die in 5A bis 5D gezeigten Gradationslichtmuster zusammen mit den in 4A bis 4F gezeigten Lichtmustern werden zum Identifizieren der Positionen von Pixeln in dem erfassten Bild verwendet.
  • [Identifizieren eines Pixels des Projektionsbildes, das einem Pixel des erfassten Bildes entspricht]
  • Der Beziehungsidentifikationsteil 302 identifiziert die Projektionspixelposition, welche die Position des Pixels des Projektionsbildes ist, das Entsprechung mit der erfassten Pixelposition hat, welche die Position des Pixels des erfassten Bildes ist, indem Gradationsinformationen der Lichtmuster des erfassten Bildes analysiert werden. Wenn ein durch Erfassen eines Pixels A des Projektionsbildes erhaltenes Pixel ein Pixel B des erfassten Bildes ist, korrespondieren die Projektionspixelposition des Pixels A und die erfasste Pixelposition des Pixels B miteinander. Das Verfahren zum Identifizieren der Entsprechung zwischen den Pixeln des Projektionsbildes und des erfassten Bildes wird nachstehend beschrieben.
  • Wie oben beschrieben, entsprechen die in 4C bis 4F gezeigten binären Lichtmuster Gray-Codes. 6 zeigt Beispiele von Gray-Codes, die den in den 4C bis 4F gezeigten binären Lichtmustern entsprechen. Durch Verknüpfen von Nullen in den Gray-Codes mit den Nichtprojektionsbereichen und Einsen mit den Lichtprojektionsbereichen werden die in 4C bis 4F gezeigten binären Lichtmuster erzeugt.
  • Jede Position in der x-Richtung in 4A bis 4F und 6 wird durch einen Codewert dargestellt, der die Kombination der Zahlen 0 oder 1 an den jeweiligen Positionen in den Gray-Codes ist. Position 0 in 6 entspricht dem Codewert von „0000“, Position 1 entspricht dem Codewert von „0001“ und Position 15 entspricht dem Codewert von „1000“.
  • Der Bilderfassungsteil 2 erfasst das zu messende Objekt, während die in 4A und 4B gezeigten Standardmuster jeweils auf das zu messende Objekt in dem Projektionssteuer- bzw. -regelteil 301 projiziert werden. Der Beziehungsidentifikationsteil 302 berechnet für jedes Pixel einen Durchschnittswert von zwei erfassten Standardmustern als einen Medianwert. In ähnlicher Weise identifiziert der Beziehungsidentifikationsteil 302 im Hinblick auf die erfassten Bilder, während die binären Lichtmuster von 4C bis 4F auf das zu messende Objekt projiziert werden, die Codewerte von jeweiligen Pixeln durch Vergleichen der Leuchtdichtewerte der jeweiligen Pixel in vier erfassten Bildern mit entsprechenden Medianwerten. Durch Identifizieren der Codewerte kann der Beziehungsidentifikationsteil 302 identifizieren, welcher binäre Streifen an jeder Pixelposition innerhalb des in Richtung verschiedener Positionen projizierten binären Lichtmusters reflektiert wird. Der Beziehungsidentifikationsteil 302 identifiziert, an welcher Position von Position 0 bis Position 15 jedes in dem erfassten Bild enthaltene Pixel enthalten ist.
  • Ferner identifiziert der Beziehungsidentifikationsteil 302 jeweils die Phasen der Sinuswellen an der erfassten Pixelposition in dem erfassten Bild, wenn die Gradationslichtmuster mit sinusförmigen Leuchtdichteverteilungen auf das zu messende Objekt projiziert werden. Der Beziehungsidentifikationsteil 302 identifiziert eine Pixelposition des Projektionsbildes, die mit der Phase der identifizierten Sinuswelle übereinstimmt. Da die Gradationslichtmuster des Projektionsbildes Periodizität aufweisen, gibt es eine Vielzahl von Pixelpositionen des Projektionsbildes, die mit den identifizierten Phasen der Sinuswelle übereinstimmen.
  • Daher identifiziert der Beziehungsidentifikationsteil 302 eine Entsprechung zwischen Pixelpositionen des Projektionsbildes und Pixelpositionen des erfassten Bildes auf der Basis der Position, an der jedes Pixel enthalten ist, die auf der Basis der Codewerte des Gray-Codes identifiziert wird, die jeweiligen Pixeln des erfassten Bildes entsprechen, wenn die binären Lichtmuster von 4C bis 4F projiziert werden. Der Beziehungsidentifikationsteil 302 identifiziert eine Entsprechung zwischen den Pixeln des erfassten Bildes und den Pixeln des Projektionsbildes durch Auswählen einer Entsprechung, die in der identifizierten Position enthalten ist, auf der Basis der durch die binären Lichtmuster angegebenen Gray-Codes aus der Mehrzahl von Entsprechungen, die durch Analysieren der Gradationsinformationen der Gradationslichtmuster identifiziert werden. Wenn k(=1, 2) ein Index ist, der die erste und die zweite Richtung darstellt, identifiziert der Beziehungsidentifikationsteil 302 eine Koordinate eines entsprechenden Pixels (ip, jp) des Projektionsteils 1 für jedes Pixel (i, j) des Bilderfassungsteils 2 wie folgt.
  • ( i p , j p ) = ( p 1 I Λ P , 1 ( i , j ) 2 π ,   p 2 I Λ P ,2 ( i , j ) 2 π )
    Figure DE102019006314A1_0001
  • IAP,k(i, j), wobei k = 1, 2 ist, ist ein absoluter Phasenwert eines absoluten Phasenbildes eines erfassten Bildes, während das vertikale Muster und das horizontale Muster, die sinusförmige Leuchtdichteverteilungen aufweisen, projiziert werden. pk ist die Anzahl von Pixeln, die in einem Zyklus von Streifen des Lichtmusters des Projektionsteils 1 enthalten sind.
  • Anstelle der Verwendung des Projektionsbilds, das die in 4 gezeigten binären Lichtmuster enthält, kann der Beziehungsidentifikationsteil 302 das Projektionsbild verwenden, das die Gradationslichtmuster enthält. Der Beziehungsidentifikationsteil 302 kann dahingehend konfiguriert sein, eine Entsprechung zwischen dem Pixel des erfassten Bildes und dem Pixel des Projektionsbildes durch sequentielles Projizieren einer Mehrzahl von Projektionsbildern mit den Gradationslichtmustern mit sinusförmigen Leuchtdichteverteilungen und einem Streifenmuster, dessen Zyklen von Streifen von denen aus 5A bis 5D unterschiedlich sind, zusätzlich zu den Projektionsbildern mit den Gradationslichtmustern von 5A bis 5D zu identifizieren.
  • Beispielsweise kann der Projektionsteil 1 so konfiguriert sein, dass er eine Mehrzahl von Projektionsbildern mit den ersten periodischen Gradationslichtmustern projiziert, eine Mehrzahl von Projektionsbildern mit den zweiten periodischen Gradationslichtmustern projiziert, und eine Mehrzahl von Projektionsbildern mit den dritten periodische Gradationslichtmustern projiziert. In diesem Fall kann der Projektionsteil 1 die Geometrie des zu messenden Objekts identifizieren, indem das Projektionsbild mit den sinusförmigen Leuchtdichteverteilungen auf das zu messende Objekt projiziert wird. Ferner kann eine Mehrzahl von Projektionsbildern mit dem ersten bis dritten periodischen Gradationslichtmuster als die Gradationslichtmuster projiziert werden, die sich in der ersten und der zweiten Richtung erstrecken.
  • [Mehrfachreflexionen]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, ob das Pixel an der erfassten Pixelposition aufgrund von Mehrfachreflexionen oder dergleichen ein fehlerhaftes Pixel ist oder nicht. 7A und 7B veranschaulichen jeweils Mehrfachreflexionen. Wenn das zu messende Objekt glänzend ist und eine komplizierte Form aufweisen, kann vom Projektionsteil 1 emittiertes Licht in den Bilderfassungsteil 2 eintreten, nachdem es mehrmals auf der zu messenden Oberfläche reflektiert wurde. In diesem Fall tritt, wie in 7A gezeigt, das von dem Projektionsteil 1 emittierte Licht über zwei oder mehr Pfade in ein Pixel des Abbildungselements 22 ein.
  • Insbesondere enthält das in das Abbildungselement 22 eintretende Licht direktes Licht, das das vom Projektionsteil 1 emittierte Licht ist und das direkt in den Bilderfassungsteil 2 eintritt, nachdem es an der zu messenden Oberfläche gestreut und reflektiert wurde, und mehrfach reflektiertes Licht, das in den Bilderfassungsteil 2 eintritt, nachdem es mehreren Reflexionen ausgesetzt wurde. Infolgedessen kann in dem von dem Bilderfassungsteil 2 erfassten Bild ein Pixel, dessen Leuchtdichtewert Schwarz entspricht, wenn es kein mehrfach reflektiertes Licht gibt, einen Leuchtdichtewert aufweisen, der Weiß entspricht. Insbesondere ist es wahrscheinlich, dass eine Mehrfachreflexion auftritt, wenn das zu messende Objekt Metall oder dergleichen enthält, was wahrscheinlich eine zufällige Reflexion verursacht.
  • 7B zeigt ein Beispiel eines erfassten Bildes, das durch Mehrfachreflexionen beeinflusst wird. 7B entspricht 1C, aber aufgrund des Einflusses des mehrfach reflektierten Lichts weisen die schattierten Bereiche jedoch eine Leuchtdichte auf, die sich von der Leuchtdichte in 1 unterscheidet. Aufgrund des Einflusses des mehrfach reflektierten Lichts können zudem Verzerrungen oder dergleichen in der sinusförmigen Wellenform auftreten, die in den Leuchtdichteverteilungen der Gradationslichtmuster gezeigt ist.
  • [Bestimmen fehlerhafter Pixel]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf der Positionsbeziehung zwischen (i) dem Projektionslichtstrahl, der am Projektionsteil beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) dem erfassten Lichtstrahl, der am Bilderfassungsteil beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der erfassten Pixelposition hat. 8 und 9 sind Diagramme zur Erläuterung des Prinzips der Bestimmung fehlerhafter Pixel.
  • 8 zeigt einen Lichtweg von Direktreflexionslicht. Von einem optischen Zentrum O1 des Projektionsteils 1 emittiertes Licht passiert eine Projektionspixelposition A1 auf einer Bildebene des Projektionsteils 1 und streut und reflektiert an einer Position MP auf dem zu messenden Objekt. Das an der Position MP reflektierte Licht passiert eine erfasste Pixelposition B1 in einer Bildebene des Bilderfassungsteils 2.
  • 9 zeigt einen Lichtweg von mehrfach reflektiertem Licht. Es wird angenommen, dass Licht, das eine Projektionspixelposition A2 passiert, die sich von der Projektionspixelposition A1 auf der Bildebene des Projektionsteils 1 unterscheidet, zu mehrfach reflektiertem Licht wird, das an einer Mehrzahl von Positionen auf dem zu messenden Objekt reflektiert wird. Dieses mehrfach reflektierte Licht wird durch die dick gestrichelten Linien angezeigt. Das mehrfach reflektierte Licht passiert die erfasste Pixelposition B1 in der Bildebene des Bilderfassungsteils 2.
  • Wie in 8 gezeigt, im Fall des direkt reflektierten Lichts, das nur einmal von dem zu messenden Objekt reflektiert wird, kreuzen sich der Projektionslichtstrahl, der das Pixel der Projektionspixelposition A1 durchläuft, und der erfasste Lichtstrahl, der die erfasste Pixelposition B1 durchläuft, an einem Messpunkt MP auf dem zu messenden Objekt. Das Licht, das an der Projektionspixelposition A2 durch das Pixel tritt, erreicht die erfasste Pixelposition B1 aufgrund des Auftretens von Mehrfachreflexionen, die von den mehreren Positionen auf dem zu messenden Objekt reflektiert werden, aber wenn Mehrfachreflexionen nicht auftreten, erreicht das die Projektionspixelposition A2 durchlaufende Licht nicht die erfasste Pixelposition B1. Das heißt, wenn keine Mehrfachreflexionen auftreten, schneidet der Projektionslichtstrahl, der die Projektionspixelposition A2 durchläuft, nicht den erfassten Lichtstrahl, der die erfasste Pixelposition B1 durchläuft. Unter Verwendung dieser Eigenschaft bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, ob ein Pixel ein fehlerhaftes Pixel ist oder nicht.
  • 10 zeigt ein Verfahren zum Bestimmen des fehlerhaften Pixels durch den Fehlerhafte-Pixel-Bestimmungsteil 303. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert eine Positionsbeziehung zwischen dem Projektionslichtstrahl und dem erfassten Lichtstrahl wie folgt.
  • [Berechnung der 3D-Position an dem aufgenommenen Lichtstrahl]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert einen erfassten Lichtstrahl LB1 , der vom Bilderfassungsabschnitt 2 ausgeht und eine erfasste Pixelposition B1(i, j) durchläuft. Da die Ausrichtung des Bilderfassungsteils 2 konstant ist, wird der erfasste Lichtstrahl LB1 , der vom optischen Zentrum (O1 in FIG- 10) des Projektionsteils 1 ausgeht und die erfasste Pixelposition B1(i, j) durchläuft, eindeutig durch die Anordnung der Linse 21 bestimmt. Informationen zum Identifizieren des erfassten Lichtstrahls LB1 werden im Voraus in der Speichereinheit 4 gespeichert, und der Fehlerhafte-Pixel-Bestimmungsteil 303 liest die Informationen zum Identifizieren des erfassten Lichtstrahls LB1 aus der Speichereinheit 4 aus. Die Informationen zum Identifizieren des erfassten Lichtstrahls LB1 sind beispielsweise Informationen, die Richtungen gerader Linien mit dem optischen Zentrum des Projektionsteils 1 als Ursprung oder Koordinaten von Punkten auf den geraden Linien zeigen.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert eine Projektionslichtstrahlenebene in einer vorbestimmten Richtung, die eine Projektionspixelposition A2(ip, jp) durchverläuft, die durch den Beziehungsidentifikationsteil 302 dahingehend identifiziert wird, dass sie Entsprechung mit der erfassten Pixelposition B1 hat. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert insbesondere eine Projektionslichtstrahlenebene, die einem horizontalen Koordinatenwert ip der Projektionspixelposition A2(ip, jp) entspricht. Die Projektionspixelposition mit dem horizontalen Koordinatenwert ip liegt auf einer geraden Linie EF in der Bildebene des in 10 gezeigten Projektionsteils 1. Unter der Annahme, dass eine gerade Linie, die durch Projizieren der geraden Linie EF auf die Seite des zu messenden Objekts von dem optischen Zentrum O1 des Projektionsteils 1 als Startpunkt aus erhalten wird, eine gerade Linie E'F' ist, befindet sich ein Messpunkt MP an dem zu messenden Objekt, der der Projektionspixelposition mit dem horizontalen Koordinatenwert ip entspricht, in einer Projektionslichtstrahlenebene mit drei Punkten O1, E' und F'. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert als die erste 3D-Position B1' eine Position, an der sich die Projektionslichtstrahlenebene mit den drei Punkten O1, E' und F' und ein erfasster Lichtstrahl LB1 schneiden. Wenn keine Mehrfachreflexionen oder dergleichen auftreten, stimmt der erhaltene Schnittpunkt B1' ungefähr mit dem Messpunkt MP auf dem zu messenden Objekt überein, der der erfassten Pixelposition B1(i, j) entspricht.
  • [Berechnung einer 3D-Position auf dem Projektionslichtstrahl]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert einen Projektionslichtstrahl LA2 , der vom optischen Zentrum O1 des Projektionsteils 1 ausgeht und die Projektionspixelposition A2(ip, jp) des Projektionsteils 1 durchläuft. Da die Ausrichtung des Projektionsteils 1 konstant ist, wird der Projektionslichtstrahl LA2 , der vom optischen Zentrum O1 des Projektionsteils 1 ausgeht und die Projektionspixelposition A2(ip, jp) des Projektionsteils 1 durchläuft, eindeutig bestimmt. Informationen zum Identifizieren des Projektionslichtstrahls LA2 werden vorab in der Speichereinheit 4 gespeichert, und der Fehlerhafte-Pixel-Bestimmungsteil 303 liest die Informationen zum Identifizieren des Projektionslichtstrahls LA2 aus der Speichereinheit 4 aus. Die Informationen zum Identifizieren des Projektionslichtstrahls LA2 sind beispielsweise Informationen, die Richtungen gerader Linien mit dem optischen Zentrum O1' des Bilderfassungsteils 2 als Ursprung oder Koordinaten von Punkten auf den geraden Linien angeben.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert zudem eine erfasste Lichtstrahlenebene, welche die erfasste Pixelposition B1(i, j) in einer im Voraus spezifizierten Richtung durchläuft. Insbesondere identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 die erfasste Lichtstrahlenebene, die dem horizontalen Koordinatenwert i der erfassten Pixelposition B1(i, j) entspricht. Die erfasste Pixelposition mit dem horizontalen Koordinatenwert i liegt auf einer geraden Linie GH in der Bildebene des in 10 gezeigten Bilderfassungsteils 2. Der Punkt, an dem sich die erfassten Lichtstrahlen, welche die Mehrzahl von erfassten Pixelpositionen in der Bildebene des Bilderfassungsteils 2 durchlaufen, schneiden, ist mit O1' bezeichnet. Unter der Annahme, dass eine gerade Linie, die durch Projizieren der geraden Linie GH auf die Seite des zu messenden Objekts von O1' als Startpunkt aus erhalten wird, eine gerade Linie G'H' ist, befindet sich der Messpunkt MP auf dem zu messenden Objekt, der der erfassten Pixelposition mit dem horizontalen Koordinatenwert i entspricht, in einer Ebene des erfassten Lichtstrahls, welche drei Punkten O1', G' und H' enthält. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert als die zweite 3D-Position A2' eine Position, an der sich die Ebene des erfassten Lichtstrahls mit den drei Punkten O1', G' und H' und der Projektionslichtstrahl LA2 schneiden. Wenn keine Mehrfachreflexionen oder dergleichen auftreten, stimmt der erhaltene Schnittpunkt A2' ungefähr mit dem Messpunkt MP auf dem zu messenden Objekt überein, der der erfassten Pixelposition B1(i, j) entspricht.
  • [Vergleich zweier 3D-Positionen]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 vergleicht die erste 3D-Position B1' auf dem erfassten Lichtstrahl mit der zweiten 3D-Position A2' auf dem Projektionslichtstrahl, um zu bestimmen, ob das Pixel in dem erfassten Bild ein fehlerhaftes Pixel ist oder nicht. Wenn die erste 3D-Position B1' und die zweite 3D-Position A2' nicht durch Mehrfachreflexionen oder dergleichen beeinflusst werden, stimmen sie ungefähr miteinander überein. Wenn andererseits Mehrfachreflexionen oder dergleichen auftreten, wird die Differenz zwischen der ersten 3D-Position B1' und der zweiten 3D-Position A2' groß.
  • Wenn ein Abstand D zwischen der ersten 3D-Position B1' und der zweiten 3D-Position A2' wie in 10 gezeigt einen Schwellenwert überschreitet, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition B1 ein fehlerhaftes Pixel ist. Wenn hingegen der Abstand D zwischen der ersten 3D-Position B1' und der zweiten 3D-Position A2' gleich oder kleiner als der Schwellenwert ist, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition B1 kein fehlerhaftes Pixel ist. Der Schwellenwert ist beispielsweise eine statistische Größe eines Fehlers, der zwischen der ersten 3D-Position B1' und der zweiten 3D-Position A2' auftritt, wenn das Pixel an der erfassten Pixelposition B1 nicht durch Mehrfachreflexionen oder dergleichen beeinflusst wird.
  • Der Geometrieidentifikationsteil 304 kann die 3D-Position identifizieren, die der erfassten Pixelposition entspricht, indem drei Koordinatenwerte aus vier Koordinatenwerten verwendet werden, die in einer erfassten Pixelposition (i, j) und der identifizierten Projektionspixelposition (ip, jp) enthalten sind, die durch den Beziehungsidentifikationsteil 302 als mit der erfassten Pixelposition korrespondierend identifiziert werden. Die obige Prozedur ist äquivalent zum Vergleichen der 3D-Position, die aus der Kombination des Koordinatenwerts i, des Koordinatenwerts j und des Koordinatenwerts ip erhalten wird, mit der 3D-Position, die aus der Kombination des Koordinatenwerts i, des Koordinatenwerts ip und des Koordinatenwerts jp erhalten wird.
  • [Abstand zwischen erfasstem Lichtstrahl und Projektionslichtstrahl]
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 kann auf der Basis eines Abstands zwischen dem erfassten Lichtstrahl und dem Projektionslichtstrahl bestimmen, ob das Pixel an der Position des erfassten Pixels ein fehlerhaftes Pixel ist oder nicht. 11 veranschaulicht ein weiteres Verfahren zum Bestimmen des fehlerhaften Pixels durch den Fehlerhafte-Pixel-Bestimmungsteil 303. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert einen erfassten Lichtstrahl LB1, der die erfasste Pixelposition B1(i, j) des Bilderfassungsteils 2 durchläuft, und einen Projektionslichtstrahl LA2, der ein Projektionspixelposition A2(ip, jB1) durchläuft, die der Beziehungsidentifikationsteil 302 als mit der erfassten Pixelposition B1 korrespondierend identifiziert hat. Der Fehlerhafte-Pixel-Bestimmungsteil 303 berechnet den kürzesten Abstand D' zwischen dem erfassten Lichtstrahl und dem Projektionslichtstrahl.
  • Wenn der erhaltene kürzeste Abstand D' einen Referenzwert überschreitet, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition B1 das defekte Pixel ist. Wenn hingegen der erhaltene kürzeste Abstand D' gleich oder kleiner als der Referenzwert ist, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass die erfasste Pixelposition B1 kein fehlerhaftes Pixel ist. Der Referenzwert basiert beispielsweise auf einer statistischen Größe des kürzesten Abstands D', wenn das Pixel an der erfassten Pixelposition B1 nicht durch Mehrfachreflexionen oder dergleichen beeinflusst wird.
  • [Unter Verwendung einer Normalenlinie]
  • 12 veranschaulicht noch ein weiteres Verfahren zum Bestimmen des fehlerhaften Pixels durch den Fehlerhafte-Pixel-Bestimmungsteil 303. Der Fehlerhafte-Pixel-Bestimmungsteil 303 kann die Normalenlinie der Messfläche des zu messenden Objekts auf der Basis von Umgebungsinformationen der erfassten Pixelposition von Interesse berechnen und das fehlerhafte Pixel basierend auf der berechneten Normalenlinie bestimmen. Der Fehlerhafte-Pixel-Bestimmungsteil 303 wählt drei oder mehr erfasste Pixelpositionen B1 bis B3 innerhalb eines vorbestimmten Bereichs aus der erfassten Pixelposition von Interesse aus. Der vorbestimmte Bereich ist beispielsweise ein Bereich, der einige bis mehrere zehn erfasste Pixelpositionen in der Nähe der erfassten Pixelposition von Interesse umfasst. Durch das oben beschriebene Verfahren identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 die ersten 3D-Positionen B1' bis B3', die jeweils den ausgewählten erfassten Pixelpositionen B1 bis B3 entsprechen.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert eine erste Ebene, die durch die identifizierten ersten 3D-Positionen B1' bis B3' bestimmt wird. Wenn die drei erfassten Pixelpositionen B1 bis B3 ausgewählt werden, identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 die erste Ebene, die alle ersten 3D-Positionen B1 ‚bis B3‘ enthält. Wenn vier oder mehr erfasste Pixelpositionen innerhalb des vorbestimmten Bereichs der erfassten Pixelposition von Interesse ausgewählt werden, identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 vier oder mehr erste 3D-Positionen, die den ausgewählten erfassten Pixelpositionen entsprechen. Zum Beispiel identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 die erste Ebene dahingehend, dass die Summe von Quadraten von Abständen der identifizierten vier oder mehr ersten 3D-Positionen zu der ersten Ebene minimiert wird.
  • Auf die gleiche Weise identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 die zweiten 3D-Positionen, die jeweils drei oder mehr erfassten Pixelpositionen entsprechen. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert die zweite Ebene, die durch die identifizierten zweiten 3D-Positionen bestimmt wird. Die ersten 3D-Positionen B1' bis B3' befinden sich auf einer Verlängerungslinie, die erhalten wird, indem die erfassten Lichtstrahlen von dem Bilderfassungsteil 2, welche die ausgewählten erfassten Pixelpositionen B1 bis B3 durchlaufen, zu dem zu messenden Objekt verlängert werden, und die erste Ebene wird durch diese ersten 3D-Positionen B1' bis B3' bestimmt. Andererseits befinden sich die zweiten 3D-Positionen auf Verlängerungslinien, die erhalten werden, indem die Projektionslichtstrahlen von dem Projektionsteil 1, welche die Projektionspixelpositionen durchlaufen, die Entsprechung mit den ausgewählten erfassten Pixelpositionen B1 bis B3 haben, zu dem zu messenden Objekt verlängert werden, und die zweite Ebene wird durch diese zweiten 3D-Positionen bestimmt.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt auf der Basis der Entsprechung zwischen der ersten Ebene und der zweiten Ebene, ob die erfasste Pixelposition ein defektes Pixel ist oder nicht. Insbesondere vergleicht der Fehlerhafte-Pixel-Bestimmungsteil 303 die erste Normalenlinie, die durch die erste Ebene verläuft, mit der zweiten Normalenlinie, die durch die zweite Ebene verläuft. Zum Beispiel berechnet der Fehlerhafte-Pixel-Bestimmungsteil 303 zumindest eine Differenz von Neigung und Abstand zwischen der ersten Normalenlinie N, die durch den Schwerpunkt des Dreiecks verläuft, das aus den ersten 3D-Positionen B1' bis B3' zusammengesetzt ist, und der zweiten Normalenlinie (nicht gezeigt), die durch den Schwerpunkt des Dreiecks verläuft, das aus den zweiten 3D-Positionen zusammengesetzt ist.
  • Wenn die Differenz zwischen der Neigung der ersten Normalenlinie und der Neigung der zweiten Normalenlinie gleich oder kleiner als ein vorbestimmter Winkel ist oder der kürzeste Abstand zwischen der ersten Normalenlinie und der zweiten Normalenlinie gleich oder kleiner als ein vorbestimmter Abstand ist, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition von Interesse kein fehlerhaftes Pixel ist. Wenn hingegen die Neigungsdifferenz zwischen der ersten Normalenlinie und der zweiten Normalenlinie einen vorbestimmten Winkel überschreitet oder wenn der kürzeste Abstand zwischen der ersten Normalenlinie und der zweiten Normalenlinie den vorbestimmten Abstand überschreitet, bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition von Interesse ein fehlerhaftes Pixel ist.
  • Der vorbestimmte Winkel und der vorbestimmte Abstand werden vom Fachmann entsprechend der bei der 3D-Geometriemessung geforderten Messgenauigkeit bestimmt. Mit solchen Konfigurationen bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303 unter Berücksichtigung der umgebenden Pixel, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und daher kann die Genauigkeit der Bestimmung fehlerhafter Pixel verbessert werden.
  • [3D-Geometrie identifizieren]
  • Der Geometrieidentifikationsteil 304 identifiziert die 3D-Geometrie des zu messenden Objekts auf der Basis von Pixelwerten der erfassten Pixelpositionen mit Ausnahme der Position des Pixels, das durch den Fehlerhafte-Pixel-Bestimmungsteil 303 als fehlerhaftes Pixel bestimmt wurde. Der Geometrieidentifikationsteil 304 erhält die jeweiligen ersten 3D-Positionen, die durch den Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert wurden, für die Mehrzahl von erfassten Pixelpositionen des erfassten Bildes. Der Geometrieidentifikationsteil 304 identifiziert die 3D-Geometrie des zu messenden Objekts als ein Aggregat bzw. eine Gesamtheit der erhaltenen 3D-Positionen. Zu diesem Zeitpunkt enthält der Geometrieidentifikationsteil 304 nicht die ersten 3D-Positionen, die den erfassten Pixelpositionen entsprechen, die durch den Fehlerhafte-Pixel-Bestimmungsteil 303 in der 3D-Geometrie des zu messenden Objekts als fehlerhafte Pixel bestimmt wurden.
  • [Mitteln der ersten 3D-Position und der zweiten 3D-Position]
  • Der Geometrieidentifikationsteil 304 kann die 3D-Geometrie des zu messenden Objekts identifizieren, indem die jeweiligen 3D-Positionen erhalten werden, die durch den Fehlerhafte-Pixel-Bestimmungsteil 303 für die Mehrzahl von erfassten Pixelpositionen des erfassten Bildes identifiziert werden. Der Geometrieidentifikationsteil 304 kann die 3D-Geometrie des zu messenden Objekts auf der Basis des Mittelwerts der 3D-Koordinaten der ersten 3D-Positionen und des Mittelwerts der zweiten 3D-Positionen identifizieren.
  • Wenn ein Abstand zwischen der ersten 3D-Position und der zweiten 3D-Position für die Vielzahl von erfassten Pixelpositionen groß wird, besteht die Möglichkeit, dass nicht der Einfluss des mehrfach reflektierten Lichts oder dergleichen, sondern Fehler in einem Zustand des Projektionsteils 1 oder des Bilderfassungsteils 2 aufgetreten sind. Beispielsweise besteht die Möglichkeit, dass eine Abweichung in einer Positionsbeziehung zwischen dem Projektionsteil 1 und dem Bilderfassungsteil 2 aufgetreten ist. Daher kann der Abnormalitätserfassungsteil 305 unter Verwendung des folgenden Verfahrens erfassen, dass der Zustand des Projektionsteils 1 oder des Bilderfassungsteils 2 der 3D-Geometriemessvorrichtung 100 nicht geeignet ist.
  • Zuerst erhält der Abnormalitätserfassungsteil 305 den Abstand zwischen der ersten 3D-Position und der zweiten 3D-Position, der bzw. die der erfassten Pixelposition entspricht, von dem Fehlerhafte-Pixel-Bestimmungsteil 303. Der Abnormalitätserfassungsteil 305 erhält jeweilige Abstände zwischen der ersten 3D-Position und der zweiten 3D-Position für die Vielzahl von erfassten Pixelpositionen und berechnet eine statistische Größe, wie einen Mittelwert der erhaltenen Abstände.
  • Der Abnormalitätserfassungsteil 305 erfasst eine Abnormalität der 3D-Geometriemessvorrichtung 100 auf der Basis der erhaltenen statistischen Größe. Insbesondere diagnostiziert der Abnormalitätserfassungsteil 305 selbst, dass der Ausrichtungszustand des Projektionsteils 1 und des Bilderfassungsteils 2 der 3D-Geometriemessvorrichtung 100 nicht geeignet ist, wenn die erhaltene statistische Größe einen zulässigen Wert überschreitet. In diesem Fall zeigt der Abnormalitätserfassungsteil 305 auf einer Anzeigeeinheit (nicht gezeigt) eine Nachricht an, die angibt, dass eine Kalibrierung des Ausrichtungszustands des Projektionsteils 1 und des Bilderfassungsteils 2 durchgeführt werden muss. Unter Berücksichtigung der gewünschten Messgenauigkeit wird der zulässige Wert vom Fachmann bei Bedarf spezifiziert.
  • Wenn hingegen die erhaltene statistische Größe gleich oder kleiner als der zulässige Wert ist, diagnostiziert der Abnormalitätserfassungsteil 305 selbst, dass die Ausrichtungszustände des Projektionsteils 1 und des Bilderfassungsteils 2 der 3D-Geometriemessvorrichtung 100 geeignet sind. Mit solchen Konfigurationen kann der Abnormalitätserfassungsteil 305 selbst diagnostizieren, ob die Positionsbeziehung zwischen dem Projektionsteil 1 und dem Bilderfassungsteil 2 abweicht oder nicht, und so kann die Zuverlässigkeit der 3D-Geometriemessvorrichtung 100 verbessert werden.
  • [Bestimmungsprozesses für fehlerhafte Pixel]
  • 13 ist ein Flussdiagramm zum Darstellen einer Prozedur eines Bestimmungsprozesses für fehlerhafte Pixel, der von dem Fehlerhafte-Pixel-Bestimmungsteil 303 durchgeführt wird. Diese Prozedur beginnt beispielsweise, wenn ein Benutzer Anweisungen zum Messen der 3D-Geometrie des zu messenden Objekts unter Verwendung einer Bedientaste (nicht gezeigt) der 3D-Geometriemessvorrichtung 100 gibt.
  • Zunächst steuert bzw. regelt der Projektionssteuer- bzw. -regelteil 301 den Projektionsteil 1 dahingehend, das Projektionsbild auf das zu messende Objekt zu projizieren (S101). Als nächstes erfasst der Bilderfassungsteil 2 das zu messende Objekt, während das Projektionsbild auf das zu messende Objekt projiziert wird (S102). Der Beziehungsidentifikationsteil 302 identifiziert eine Projektionspixelposition, die Entsprechung bzw. Übereinstimmung mit der erfassten Pixelposition hat (S103).
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert einen erfassten Lichtstrahl LBK , der eine erfasste Pixelposition Bk(ik, jk), wobei k = 1, 2, ..., des Bilderfassungsteils 2 durchläuft und identifiziert eine Projektionslichtstrahlenebene entsprechend einem Koordinatenwert ipK , der einer der Koordinatenwerte der Projektionspixelposition Ak(ipk, jpk) ist, die durch den Beziehungsidentifikationsteil 302 als eine Position identifiziert wird, die Entsprechung mit der erfassten Pixelposition Bk hat. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert als die erste 3D-Position ak eine Position, an der sich die identifizierte Projektionslichtstrahlenebene und der erfasste Lichtstrahl LBk schneiden (S104).
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert einen Projektionslichtstrahl LAk , der dieselbe Projektionspixelposition Ak(ipk, jpk) durchläuft, und identifiziert eine erfasste Lichtstrahlebene, die einem Koordinatenwert ik entspricht, der einer der Koordinatenwerte der erfassten Pixelposition Bk(ik, jk) ist. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert als die zweite 3D-Position bk eine Position, an der sich die identifizierte Ebene des erfassten Lichtstrahls und der Projektionslichtstrahl LAk schneiden (S105).
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, ob ein Abstand zwischen (i) der ersten 3D-Position ak auf dem erfassten Lichtstrahl LBk und (ii) der zweiten 3D-Position bk auf dem Projektionslichtstrahl LAk den Schwellenwert überschreitet (S106). Wenn der Abstand zwischen der ersten 3D-Position ak und der zweiten 3D-Position bk den Schwellenwert überschreitet (JA in S106), bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition Bk ein fehlerhaftes Pixel ist (S107). Der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, ob noch Pixel der erfassten Pixelposition Bk vorhanden sind oder nicht, für die die Bestimmung, ob das Pixel fehlerhaft ist, nicht durchgeführt wurde (S108). Wenn der Fehlerhafte-Pixel-Bestimmungsteil 303 für alle Pixel der erfassten Pixelposition Bk bestimmt hat, ob es fehlerhafte Pixel gibt oder nicht (NEIN in S108), bestimmt der Geometrieidentifikationsteil 304 die 3D-Geometrie des zu messenden Objekts auf der Basis der Pixelwerte der erfassten Pixelposition Bk unter Ausschluss der Positionen der Pixel, die von dem Fehlerhafte-Pixel-Bestimmungsteil 303 als fehlerhafte Pixel bestimmt wurden (S109), und beendet die Verarbeitung.
  • Wenn der Abstand zwischen der ersten 3D-Position ak auf dem erfassten Lichtstrahl LBk und der zweiten 3D-Position bk auf dem Projektionslichtstrahl LAk bei der Bestimmung von Schritt S106 gleich oder kleiner als der Schwellenwert ist (NEIN in S106), bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, dass das Pixel an der erfassten Pixelposition Bk kein fehlerhaftes Pixel ist (S110), und fährt mit der Bestimmung von Schritt S108 fort. Wenn in der Bestimmung von Schritt S108 bestimmt wird, dass ein Pixel an der erfassten Pixelposition Bk verbleibt, für die die Bestimmung, ob das Pixel fehlerhaft ist, nicht durchgeführt wurde (Ja in S108), kehrt der Fehlerhafte-Pixel-Bestimmungsteil 303 zur Verarbeitung von Schritt S104 für eine weitere bzw. andere erfasste Pixelposition Bk zurück.
  • Gemäß der vorliegenden Ausführungsform bestimmt der Fehlerhafte-Pixel-Bestimmungsteil 303, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, auf der Basis der Positionsbeziehung zwischen (i) dem Projektionslichtstrahl, der vom Projektionsabschnitt 1 ausgeht und das Pixel an der Projektionspixelposition durchläuft, und (ii) dem erfassten Lichtstrahl, der von dem Bilderfassungsteil 2 ausgeht und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat. Mit solchen Konfigurationen kann der Fehlerhafte-Pixel-Bestimmungsteil 303 die Verringerung der Messgenauigkeit verhindern, die auftritt, wenn der Beziehungsidentifikationsteil 302 aufgrund von Mehrfachreflexionen fälschlicherweise die Projektionspixelposition identifiziert, die Entsprechung mit der erfassten Pixelposition hat. Außerdem kann der Fehlerhafte-Pixel-Bestimmungsteil 303 die Verringerung der Messgenauigkeit der 3D-Geometrie verhindern, die auftritt, wenn der Beziehungsidentifikationsabschnitt 302 die Entsprechung fälschlicherweise identifiziert, und zwar bedingt durch, abgesehen von den Mehrfachreflexionen, Unschärfe des Bilderfassungsabschnitts 2 an den Kanten des zu messenden Objekts oder an Stellen, an denen die Leuchtdichteänderung groß ist. Wie oben beschrieben, kann der Fehlerhafte-Pixel-Bestimmungsteil 303 Messfehler verhindern, die durch verschiedene Messdefekte verursacht werden.
  • [Prozess der erneuten Messung]
  • Da fehlerhafte Pixel häufig durch mehrfach reflektiertes Licht verursacht werden, ist es möglich, den Einfluss von mehrfach reflektiertem Licht durch Projizieren eines Projektionsbildes exklusive von Projektionspixeln an Positionen zu verhindern, die als fehlerhafte Pixel erfasst werden. Wenn der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, dass das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist, kann der Projektionssteuer- bzw. -regelteil 301 daher ein Projektionsbild (im Folgenden das erste ausgewählte Projektionsbild), von dem alle Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die von dem Fehlerhafte-Pixel-Bestimmungsteil 303 als fehlerhafte Pixel bestimmt wurden, aus der Vielzahl von Pixeln ausgeschlossen sind, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projizieren.
  • Der Beziehungsidentifikationsteil 302 identifiziert eine erfasste Pixelposition, die Entsprechung mit der Projektionspixelposition des ersten ausgewählten Projektionsbildes hat. Da die fehlerhaften Pixel durch mehrfach reflektiertes Licht beeinflusst werden können, verhindert der Projektionssteuer- bzw. -regelteil 301 den Einfluss des mehrfach reflektierten Lichts durch Projizieren des ersten ausgewählten Projektionsbilds, das keine fehlerhaften Pixel enthält. Daher kann der Beziehungsidentifikationsteil 302 die Entsprechung zwischen der Projektionspixelposition und der erfassten Pixelposition genauer identifizieren.
  • Es kann davon ausgegangen werden, dass das fehlerhafte Pixel aufgrund von Mehrfachreflexionen auftritt, indem die Projektionsbilder einschließlich einer Anzahl von Pixeln gleichzeitig auf das zu messende Objekt projiziert werden. Wenn der Fehlerhafte-Pixel-Bestimmungsteil 303 bestimmt, dass das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist, kann der Projektionssteuer- bzw. -regelteil 301 daher ein Projektionsbild (im Folgenden als das zweite ausgewählte Projektionsbild bezeichnet), das nur die Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die von dem Fehlerhafte-Pixel-Bestimmungsteil 303 als fehlerhafte Pixel bestimmt wurden, aus der Vielzahl von Pixeln enthalten, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projizieren und die Messung erneut durchführen, um die Anzahl an Pixeln zu reduzieren, die gleichzeitig projiziert werden sollen.
  • Der Beziehungsidentifikationsteil 302 identifiziert eine erfasste Pixelposition, die Entsprechung mit einer Projektionspixelposition des zweiten ausgewählten Projektionsbildes hat. Der Projektionssteuer- bzw. -regelteil 301 verringert die Anzahl von Pixeln, die gleichzeitig projiziert werden, verglichen mit dem Fall, in dem alle Projektionsbilder projiziert werden, indem das zweite ausgewählte Projektionsbild projiziert wird. Der Beziehungsidentifikationsteil 302 kann die Anzahl von Pixeln erhöhen, die zum Identifizieren der 3D-Geometrie des zu messenden Objekts verwendet werden, indem die Projektionspixelposition geschätzt wird, die Entsprechung mit der erfassten Pixelposition des Pixels hat, das von dem Fehlerhafte-Pixel-Bestimmungsteil 303 erneut als fehlerhaftes Pixel erfasst wird.
  • [Variationen]
  • In der obigen Ausführungsform projiziert der Projektionssteuer- bzw. -regelteil 301 Projektionsmuster für ein Raumcodierungsverfahren und ein Phasenverschiebungsverfahren als Projektionsmuster in der ersten Richtung und der zweiten Richtung. Das heißt, der Projektionssteuer- bzw. -regelteil 301 projiziert als Lichtmuster, die sinusförmige Leuchtdichteverteilungen zeigen, das Projektionsbild mit Lichtmustern, die sich in der ersten Richtung erstrecken, und das Projektionsbild mit Lichtmustern, die sich in der zweiten Richtung erstrecken, auf das zu messende Objekt. Der Projektionssteuer- bzw. -regelteil 301 projiziert auch als binäre Lichtmuster das Projektionsbild mit Lichtmustern, die sich in der ersten Richtung erstrecken, und das Projektionsbild mit Lichtmustern, die sich in der zweiten Richtung erstrecken, auf das zu messende Objekt.
  • Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Die Lichtmuster in der ersten Richtung und die Lichtmuster in der zweiten Richtung müssen nicht gleich sein. Beispielsweise kann der Projektionssteuer- bzw. -regelteil 301 nur die Projektionsmuster für das Phasenverschiebungsverfahren in Bezug auf die Projektionsmuster in der zweiten Richtung projizieren. In diesem Fall projiziert der Projektionssteuer- bzw. -regelteil 301 das Projektionsbild mit Lichtmustern, die sinusförmige Leuchtdichteverteilungen aufweisen, als Lichtmuster, die sich in der zweiten Richtung erstrecken, auf das zu messende Objekt und projiziert nicht das Projektionsbild mit binären Lichtmustern auf das zu messende Objekt.
  • Wenn der Projektionssteuer- bzw. -regelteil 301 die Projektionsmuster in der zweiten Richtung projiziert, erhält der Beziehungsidentifikationsteil 302 einen Phasenwert IRP,2(i, j). In diesem Fall kann der absolute Phasenwert IAP,2 der Projektionsmuster in der zweiten Richtung durch die folgende Gleichung unter Verwendung einer bestimmten unbekannten ganzen Zahl m und eines Phasenwerts IAP,2(i, j) ausgedrückt werden, und eine Mehrzahl von Kandidaten kann berücksichtigt werden.
  • I AP , 2 = 2 π m + I RP , 2 ( i , j ) ( a )
    Figure DE102019006314A1_0002
  • Es gibt eine Mehrzahl von Kandidaten für Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, wie in den nachstehenden Gleichungen gezeigt, wobei ip und jp(m) jeweils das ip-te Pixel vom linken Rand in der zweiten Richtung und das jp(m)-te Pixel von dem oberen Rand in der ersten Richtung zeigen.
  • ( i p , j p ( m ) ) = ( p 1 I AP , 1 ( i , j ) 2 π ,   p 2 I AP ,2 ( i , j , m ) 2 π )   ...  (b)
    Figure DE102019006314A1_0003
  • Da es hier eine Mehrzahl von Kandidaten für die Projektionspixelposition gibt, identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 eine Mehrzahl von zweiten 3D-Positionen. Da andererseits die Koordinatenwerte ip in der ersten Richtung der Projektionspixelposition in der Mehrzahl von Kandidaten gleich sind, identifiziert der Fehlerhafte-Pixel-Bestimmungsteil 303 eine erste 3D-Position. Der Fehlerhafte-Pixel-Bestimmungsteil 303 berechnet einen Wert von m, der die zweite 3D-Position angibt, die der ersten 3D-Position am nächsten liegt, die der gleichen erfassten Pixelposition unter den zweiten 3D-Positionen entspricht, die für die Mehrzahl von Kandidaten erhalten werden.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 kann bestimmen, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, indem er bestimmt, ob ein Abstand zwischen der ersten 3D-Position und der zweiten 3D-Position, die der ersten 3D-Position am nächsten liegt, einen Schwellwert überschreitet oder nicht. Mit solchen Konfigurationen kann der Projektionssteuer- bzw. -regelteil 301 die Anzahl von Lichtmustern, die auf das zu messende Objekt projiziert werden sollen, weiter reduzieren. Daher kann der Projektionssteuer- bzw. -regelteil 301 die Messzeit verkürzen.
  • Wenn die Lichtmuster in der zweiten Richtung projiziert werden, kann der Fehlerhafte-Pixel-Bestimmungsteil 303 die Mehrzahl von Kandidaten für die Projektionspixelposition eingrenzen, die Entsprechung mit der erfassten Pixelposition haben, um den Berechnungsbetrag zu reduzieren. Der Fehlerhafte-Pixel-Bestimmungsteil 303 identifiziert die zweite 3D-Position für jeden der Mehrzahl von Kandidaten. Indem im Voraus ein Bereich messbarer 3D-Positionen als ein Bereich definiert wird, den die zweite 3D-Position einnehmen kann, wird ein Bereich von m, der der Mehrzahl von Kandidaten entsprechen kann, eingegrenzt, und somit können die Kandidaten eingegrenzt werden.
  • Wenn beispielsweise Ebenen, die einen Bereich des messbaren 3D-Raums ausreichend abdecken, auf der nächst gelegenen Seite und auf der am weitesten entfernten Seite der 3D-Geometriemessvorrichtung 100 platziert werden, indem im Voraus Pixelwerte der jeweiligen Ebenen gemessen werden, auf die seitliche Lichtmuster projiziert werden, kann der Bereich von m berechnet werden, der der Mehrzahl von Kandidaten entspricht. Es ist zu beachten, dass, da sich die Pixelwerte der seitlichen Lichtmuster aufgrund eines Unterschieds in der Geometrie des zu messenden Objekts nicht stark ändern, der Vorteil besteht, dass der Bereich von m, der für die Pixel an den jeweiligen erfassten Pixelpositionen des Bilderfassungsteils 2 definiert ist, relativ klein wird.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 kann die gleiche Verarbeitung für andere Lichtmuster als die Lichtmuster in der zweiten Richtung durchführen, beispielsweise Lichtmuster in der ersten Richtung. Insbesondere im Fall der Lichtmuster in der zweiten Richtung kann der Fehlerhafte-Pixel-Bestimmungsteil Pixel 303 die Kandidaten durch Definieren des Bereichs von m unter Verwendung des oben beschriebenen Verfahrens stark eingrenzen, und daher kann die Verarbeitung vereinfacht werden.
  • In der obigen Erläuterung projiziert der Projektionssteuer- bzw. -regelteil 301 das Projektionsbild mit den sich in der ersten Richtung erstreckenden Lichtmustern und das Projektionsbild mit den sich in der zweiten Richtung erstreckenden Lichtmustern auf das zu messende Objekt. Die vorliegende Erfindung ist jedoch nicht auf das Beispiel des Projizierens der sich in der ersten Richtung und in der zweiten Richtung erstreckenden Lichtmuster beschränkt, und der Projektionssteuer- bzw. - regelteil 301 kann ein Projektionsbild projizieren, das Lichtmuster enthält, die durch Kombinieren von sich in beliebigen Richtungen erstreckenden Lichtmustern erhalten werden.
  • Der Projektionssteuer- bzw. -regelteil 301 kann auch dahingehend konfiguriert sein, die Verarbeitung der Projektion von Projektionsbildern mit Lichtmustern, die sich in einer anderen Richtung erstrecken, auf das zu messende Objekt zu wiederholen. Zum Beispiel projiziert der Projektionssteuer- bzw. -regelteil 301 sequentiell Projektionsbilder, die Lichtmuster enthalten, die sich in der ersten Richtung zur N-Richtung erstrecken (N ist die natürliche Zahl). Der Projektionssteuer- bzw. -regelteil 301 kann konfiguriert sein, das Projizieren der Projektionsbilder mit den Lichtmustern basierend auf einem Bereich fehlerhafter Pixel, die neu aus dem erfassten Bild erfasst werden, das durch Projizieren des Projektionsbilds mit den sich in der N-ten Richtung erstreckenden Lichtmustern erhalten wird, zu stoppen. Das heißt, der Projektionssteuer- bzw. -regelteil 301 kann konfiguriert sein, das Projizieren der Projektionsbilder mit den Lichtmustern zu stoppen, wenn ein Bereich von fehlerhaften Pixeln, die nicht aus dem erfassten Bild erfasst werden, in dem die sich in der ersten Richtung zu der (N-1)-ten Richtung erstreckenden Lichtmuster projiziert werden, aus den fehlerhaften Pixeln, die aus dem erfassten Bild erfasst werden, in dem das Projektionsbild mit den sich in der N-ten Richtung erstreckenden Lichtmustern projiziert wird, gleich oder kleiner als ein Schwellenwert ist. Der Schwellenwert ist beispielsweise ein Wert, der angibt, dass der Einfluss von mehrfach reflektiertem Licht ausreichend klein geworden ist.
  • Der Projektionssteuer- bzw. -regelteil 301 kann sequentiell eine Mehrzahl von Projektionsbildern projizieren, die Lichtmuster enthalten, deren Streifenzyklen sich voneinander unterscheiden. Beispielsweise kann der Projektionssteuer- bzw. -regelteil 301 das Projektionsbild mit den Lichtmustern, die sich in der ersten Richtung erstrecken, auf das zu messende Objekt projizieren und kann dann zusätzlich das Projektionsbild mit den Lichtmustern, die sich in der ersten Richtung erstrecken und unterschiedliche Zyklen aufweisen, auf das zu messende Objekt projizieren. Der Projektionssteuer- bzw. -regelteil 301 kann auch das Projektionsbild mit Lichtmustern, die sich in der zweiten Richtung erstrecken, auf das zu messende Objekt projizieren und kann dann zusätzlich das Projektionsbild mit Lichtmustern, die sich in der zweiten Richtung erstrecken und unterschiedliche Zyklen aufweisen, auf das zu messende Objekt projizieren. Wenn das Projektionsbild, das Lichtmuster mit den verschiedenen Zyklen enthält, projiziert wird, ändert sich die Phase des mehrfach reflektierten Lichts, das das direkte Licht überlappt. Aus diesem Grund kann der Fehlerhafte-Pixel-Bestimmungsteil 303 die Pixel, die durch das mehrfach reflektierte Licht beeinflusst werden, genauer erfassen.
  • In der obigen Beschreibung wurde auch das Beispiel des Falls erläutert, in dem der Projektionssteuer- bzw. -regelteil 301 jedes Projektionsbild unter Verwendung von Projektionslicht mit der gleichen Wellenlänge projiziert. Die vorliegende Erfindung ist jedoch nicht auf diesen Fall beschränkt. Beispielsweise kann der Projektionssteuer- bzw. -regelteil 301 eine Vielzahl von Projektionsbildern mit Lichtmustern, die sich in der ersten Richtung erstrecken, auf das zu messende Objekt unter Verwendung von Licht einer ersten Wellenlänge projizieren und ein Projektionsbild mit Lichtmustern, die sich in der zweiten Richtung erstrecken, auf das zu messende Objekt unter Verwendung von Licht einer zweiten Wellenlänge projizieren. Durch Anwenden bzw. Übernehmen dieser Konfiguration können das Projektionsbild mit den sich in der ersten Richtung erstreckenden Lichtmustern und das Projektionsbild mit den sich in der zweiten Richtung erstreckenden Lichtmustern gleichzeitig auf das zu messende Objekt projiziert werden und die Messdauer kann verringert. Der Schwellenwert kann in Bezug auf jede Wellenlänge geändert werden.
  • In der obigen Beschreibung wurde auch das Beispiel des Falls erläutert, in dem der Projektionssteuer- bzw. -regelteil 301 das Projektionsbild mit den Streifenmustern als die Lichtmuster projiziert. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, und beispielsweise kann der Projektionssteuer- bzw. -regelteil 301 ein Projektionsbild mit Schachbrettmustern als Lichtmuster projizieren. Der Projektionssteuer- bzw. -regelteil 301 kann ein Projektionsbild mit beliebigen Lichtmustern auf das zu messende Objekt projizieren, vorausgesetzt, der Beziehungsidentifikationsteil 302 kann eine Projektionspixelposition, die Entsprechung mit der erfassten Pixelposition hat, durch ein einzelnes Lichtmuster oder eine Mehrzahl von Lichtmustern identifizieren.
  • Der Fehlerhafte-Pixel-Bestimmungsteil 303 kann ein Bestimmungsergebnis dahingehend ausgeben, ob das Pixel ein fehlerhaftes Pixel ist oder nicht. Beispielsweise zeigt der Fehlerhafte-Pixel-Bestimmungsteil 303 das Bestimmungsergebnis auf einer Anzeige an oder überträgt das Bestimmungsergebnis an einen externen PC. Wenn der Fehlerhafte-Pixel-Bestimmungsteil 303 das Bestimmungsergebnis ausgibt, kann der Benutzer, der die Geometrie des zu messenden Objekts misst, das Bestimmungsergebnis überprüfen, und wenn der Benutzer bestimmt, dass die Messgenauigkeit eine gewünschte Genauigkeit nicht erreicht, kann die Messgenauigkeit durch erneutes Messen oder Ändern der Platzierungsposition des zu messenden Objekts verbessert werden.
  • Obwohl die vorliegende Erfindung unter Verwendung der oben beschriebenen Ausführungsformen beschrieben wurde, ist der technische Umfang der vorliegenden Erfindung nicht auf die in den obigen Ausführungsformen beschriebenen Bereiche beschränkt, und verschiedene Modifikationen und Änderungen können innerhalb des Umfangs des Wesens davon vorgenommen werden. Beispielsweise ist die spezifische Ausführungsform der Verteilung und Integration von Vorrichtungen nicht auf die oben beschriebene Ausführungsform beschränkt, und die gesamte oder ein Teil der Ausführungsform kann so konfiguriert sein, dass sie funktional oder physikalisch bzw. physisch verteilt und in willkürlichen Einheiten integriert ist. In den Ausführungsformen der vorliegenden Erfindung sind auch neue Ausführungsformen enthalten, die aus einer beliebigen Kombination mehrerer Ausführungsformen resultieren. Der durch die Kombination verursachte Effekt der neuen Ausführungsform ist derselbe wie der Effekt der ursprünglichen Ausführungsform.
  • Bezugszeichenliste
  • 1
    Projektionsteil
    2
    Bilderfassungsteil
    3
    Steuer- bzw. Regelteil
    4
    Speichereinheit
    21
    Linse
    22
    Abbildungselement
    100
    3D-Geometriemessvorrichtung
    301
    Projektionssteuer- bzw. -regelteil
    302
    Beziehungsidentifikationsteil
    303
    Fehlerhafte-Pixel-Bestimmungsteil
    304
    Geometrieidentifikationsteil
    305
    Abnormalitätserfassungsteil

Claims (13)

  1. Dreidimensionale-Geometrie-Messvorrichtung (100), die eine dreidimensionale Geometrie eines zu messenden Objekts misst, indem auf das zu messende Objekt ein Projektionsbild mit einem Lichtmuster projiziert wird, bei dem sich die Leuchtdichte in Abhängigkeit von einer Position ändert, wobei die Dreidimensionale-Geometrie-Messvorrichtung umfasst: einen Projektionsteil (1), der das Projektionsbild auf das zu messende Objekt projiziert; einen Bilderfassungsteil (2), der ein erfasstes Bild erzeugt, indem das zu messende Objekt erfasst wird, auf das das Projektionsbild projiziert wird; einen Beziehungsidentifikationsteil (302), der eine Projektionspixelposition identifiziert, die eine Position eines Pixels des Projektionsbildes ist, die Übereinstimmung bzw. Entsprechung mit einer erfassten Pixelposition hat, die eine Position eines Pixels des erfassten Bildes ist; und einen Fehlerhafte-Pixel-Bestimmungsteil (303), der bestimmt, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf einer Positionsbeziehung zwischen (i) einem Projektionslichtstrahl, der am Projektionsteil (1) beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) einem erfassten Lichtstrahl, der am Bilderfassungsteil (2) beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat.
  2. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 1, ferner umfassend: einen Geometrieidentifikationsteil (304), der die dreidimensionale Geometrie des zu messenden Objekts auf der Basis von Pixelwerten der erfassten Pixelpositionen identifiziert, wobei die Position des Pixels, das von dem Fehlerhafte-Pixel-Bestimmungsteil als das fehlerhafte Pixel bestimmt wird, ausgenommen ist.
  3. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 1 oder 2, wobei der Fehlerhafte-Pixel-Bestimmungsteil (303) basierend auf einem Abstand zwischen dem erfassten Lichtstrahl und dem Projektionslichtstrahl bestimmt, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht.
  4. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 2, wobei der Fehlerhafte-Pixel-Bestimmungsteil (303) (i) als eine erste dreidimensionale Position eine Position identifiziert, an der sich der die erfasste Pixelposition durchlaufende erfasste Lichtstrahl mit einer Projektionslichtstrahlebene in einer vorbestimmten Richtung schneidet, welche die Projektionspixelposition durchläuft, die Entsprechung mit der erfassten Pixelposition hat, (ii) als eine zweite dreidimensionale Position eine Position spezifiziert, an der sich der die Projektionspixelposition durchlaufende Projektionslichtstrahl mit der Ebene des erfassten Lichtstrahls in einer vorbestimmten Richtung schneidet, welche die erfasste Pixelposition durchläuft, und (iii) bestimmt, dass das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist, wenn ein Abstand zwischen der ersten dreidimensionalen Position und der zweiten dreidimensionalen Position größer als ein Schwellenwert ist.
  5. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 4, wobei der Fehlerhafte-Pixel-Bestimmungsteil (303) bestimmt, ob die erfasste Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf der Entsprechung zwischen (i) einer ersten Ebene, die durch drei oder mehr der ersten dreidimensionalen Positionen bestimmt wird, die drei oder mehr der erfassten Pixelpositionen innerhalb eines vorbestimmten Bereichs ab der erfassten Pixelposition entsprechen, und (ii) einer zweiten Ebene, die durch drei oder mehr der zweiten dreidimensionalen Positionen bestimmt ist, die drei oder mehr der erfassten Pixelpositionen entsprechen.
  6. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 4 oder 5, wobei der Geometrieidentifikationsteil (304) die dreidimensionale Geometrie des zu messenden Objekts basierend auf dem Mittelwert dreidimensionaler Koordinaten der ersten dreidimensionalen Positionen und dem Mittelwert der zweiten dreidimensionalen Positionen identifiziert.
  7. Dreidimensionale-Geometrie-Messvorrichtung (100) nach Anspruch 4 oder 5, ferner umfassend einen Abnormalitätserfassungsteil (305), der Abstände zwischen den ersten dreidimensionalen Positionen und den zweiten dreidimensionalen Positionen erhält, um eine Abnormalität der Dreidimensionale-Geometrie-Messvorrichtung (100) basierend auf einer statistischen Größe von Abständen zu erfassen, die für eine Mehrzahl von erfassten Pixelpositionen erhalten werden.
  8. Dreidimensionale-Geometrie-Messvorrichtung (100) nach einem der Ansprüche 1 bis 7, wobei der Projektionsteil (1) ein Projektionsbild, von dem alle Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die durch den Fehlerhafte-Pixel-Bestimmungsteil (303) als fehlerhafte Pixel bestimmt wurden, aus der Mehrzahl von Pixeln ausgeschlossen sind, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projiziert, wenn der Fehlerhafte-Pixel-Bestimmungsteil bestimmt, dass ein Pixel an einer erfassten Pixelposition ein fehlerhaftes Pixel ist.
  9. Dreidimensionale-Geometrie-Messvorrichtung (100) nach einem der Ansprüche 1 bis 8, wobei der Projektionsteil (1) ein Projektionsbild, das nur die Pixel an den Projektionspixelpositionen, die Entsprechung mit den erfassten Pixelpositionen haben, die durch den Fehlerhafte-Pixel-Bestimmungsteil (303) als fehlerhafte Pixel bestimmt wurden, aus der Mehrzahl von Pixeln enthält, die in dem Projektionsbild enthalten sind, auf das erneut zu messende Objekt projiziert, wenn der Fehlerhafte-Pixel-Bestimmungsteil (303) bestimmt, dass ein Pixel an einer erfassten Pixelposition ein fehlerhaftes Pixel ist.
  10. Dreidimensionale-Geometrie-Messvorrichtung (100) nach einem der Ansprüche 1 bis 9, wobei der Projektionsteil (1) ein Projektionsbild, welches das Lichtmuster enthält, das sich in einer ersten Richtung orthogonal zu einer Ebene erstreckt, die eine optische Achse des Bilderfassungsteils (2) und eine optische Achse des Projektionsteils (1) enthält, und ein Projektionsbild projiziert, welches das Lichtmuster enthält, das sich in einer zweiten Richtung parallel zu der Ebene erstreckt, welche die optische Achse des Bilderfassungsteils (2) und die optische Achse des Projektionsteils (1) enthält.
  11. Dreidimensionale-Geometrie-Messvorrichtung (100) nach einem der Ansprüche 1 bis 10, wobei der Projektionsteil (1) ein Projektionsbild enthaltend das Lichtmuster eines binären Bildes und ein Projektionsbild enthaltend das Lichtmuster mit einer sinusförmigen Leuchtdichteverteilung auf das zu messende Objekt projiziert.
  12. Dreidimensionale-Geometrie-Messvorrichtung (100) nach einem der Ansprüche 1 bis 11, wobei der Projektionsteil (1) sequentiell eine Mehrzahl von Projektionsbildern projiziert, welche die Lichtmuster enthalten, deren Streifenzyklus sich voneinander unterscheidet.
  13. Dreidimensionale-Geometrie-Messverfahren, das eine dreidimensionale Geometrie eines zu messenden Objekts durch Projizieren, auf das zu messende Objekt, eines Projektionsbilds enthaltend ein Lichtmuster, bei dem sich die Leuchtdichte in Abhängigkeit von einer Position ändert, misst, wobei das Verfahren Schritte umfasst: Projizieren des Projektionsbilds auf das zu messende Objekt durch einen Projektionsteil (1); Erzeugen, durch einen Bilderfassungsteil (2), eines erfassten Bildes durch Erfassen des zu messenden Objekts, auf welches das Projektionsbild projiziert wird; Identifizieren einer Projektionspixelposition, die eine Position eines Pixels des Projektionsbildes ist, die Übereinstimmung bzw. Entsprechung mit einer erfassten Pixelposition hat, die eine Position eines Pixels des erfassten Bildes ist; und Bestimmen, ob das Pixel an der erfassten Pixelposition ein fehlerhaftes Pixel ist oder nicht, und zwar basierend auf einer Positionsbeziehung zwischen (i) einem Projektionslichtstrahl, der am Projektionsteil beginnt und das Pixel an der Projektionspixelposition durchläuft, und (ii) einem erfassten Lichtstrahl, der am Bilderfassungsteil beginnt und das Pixel an der erfassten Pixelposition durchläuft, die Entsprechung mit der Projektionspixelposition hat.
DE102019006314.7A 2018-09-14 2019-09-06 Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren Pending DE102019006314A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018172951A JP7219034B2 (ja) 2018-09-14 2018-09-14 三次元形状測定装置及び三次元形状測定方法
JP2018-172951 2018-09-14

Publications (1)

Publication Number Publication Date
DE102019006314A1 true DE102019006314A1 (de) 2020-03-19

Family

ID=69646681

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019006314.7A Pending DE102019006314A1 (de) 2018-09-14 2019-09-06 Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren

Country Status (4)

Country Link
US (1) US10891746B2 (de)
JP (1) JP7219034B2 (de)
CN (1) CN110906884B (de)
DE (1) DE102019006314A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7530763B2 (ja) * 2020-08-06 2024-08-08 Towa株式会社 切断装置、及び、切断品の製造方法
JP7398749B2 (ja) * 2021-12-06 2023-12-15 国立大学法人東北大学 3次元形状計測方法及び3次元形状計測装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3800842B2 (ja) * 1998-12-28 2006-07-26 スズキ株式会社 三次元形状を計測する方法および装置並びに三次元形状計測用プログラムを記憶した記憶媒体
WO2005072265A2 (en) * 2004-01-22 2005-08-11 Wintriss Engineering Corporation Illumination system for material inspection
JP2005293075A (ja) * 2004-03-31 2005-10-20 Brother Ind Ltd 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
JP4611782B2 (ja) * 2005-03-28 2011-01-12 シチズンホールディングス株式会社 3次元形状測定方法及び測定装置
WO2006120759A1 (ja) * 2005-05-12 2006-11-16 Techno Dream 21 Co., Ltd. 3次元形状計測方法およびその装置
JP2008309551A (ja) * 2007-06-13 2008-12-25 Nikon Corp 形状測定方法、記憶媒体、および形状測定装置
JP5170622B2 (ja) * 2007-07-11 2013-03-27 株式会社ニコン 形状測定方法、プログラム、および形状測定装置
JP2009031150A (ja) * 2007-07-27 2009-02-12 Omron Corp 三次元形状計測装置、三次元形状計測方法、三次元形状計測プログラム、および記録媒体
JP2009094295A (ja) 2007-10-09 2009-04-30 Juki Corp 電子部品の高さ測定装置
JP2011237296A (ja) * 2010-05-11 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、及びプログラム
US8938099B2 (en) * 2010-12-15 2015-01-20 Canon Kabushiki Kaisha Image processing apparatus, method of controlling the same, distance measurement apparatus, and storage medium
US9857166B2 (en) * 2012-09-19 2018-01-02 Canon Kabushiki Kaisha Information processing apparatus and method for measuring a target object
JP6071363B2 (ja) * 2012-09-19 2017-02-01 キヤノン株式会社 距離計測装置及び方法
JP2014115108A (ja) * 2012-12-06 2014-06-26 Canon Inc 距離計測装置
JP2014115109A (ja) * 2012-12-06 2014-06-26 Canon Inc 距離計測装置及び方法
JP6193609B2 (ja) * 2013-04-19 2017-09-06 キヤノン株式会社 三次元形状計測装置、三次元形状計測方法
JP6338421B2 (ja) * 2014-03-31 2018-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム
US10482592B2 (en) * 2014-06-13 2019-11-19 Nikon Corporation Shape measuring device, structured object manufacturing system, shape measuring method, structured object manufacturing method, shape measuring program, and recording medium
JP6795993B2 (ja) * 2016-02-18 2020-12-02 株式会社ミツトヨ 形状測定システム、形状測定装置及び形状測定方法
EP3258211B1 (de) * 2016-06-17 2023-12-13 Hexagon Technology Center GmbH Bestimmung von reflektionseigenschaften eines objektes in bezug auf eine bestimmte optische messung
JP6658625B2 (ja) * 2017-03-08 2020-03-04 オムロン株式会社 3次元形状計測装置及び3次元形状計測方法
CN108507494A (zh) * 2018-03-07 2018-09-07 北京航空航天大学 一种能够抑制间接光照的三维形貌测量方法

Also Published As

Publication number Publication date
JP2020046229A (ja) 2020-03-26
US10891746B2 (en) 2021-01-12
CN110906884B (zh) 2023-02-24
JP7219034B2 (ja) 2023-02-07
CN110906884A (zh) 2020-03-24
US20200090356A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
DE102018004592A1 (de) Messapparat für dreidimensionale Geometrie und Messverfahren für dreidimensionale Geometrie
EP2105701B1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102017001366A1 (de) Geometrie-messsystem, geometrie-messapparat und geometrie-messverfahren
DE102016120026B4 (de) Messvorrichtung und Verfahren, Programm, Produktherstellungsverfahren, Kalibrierungsmarkierungselement, Verarbeitungsvorrichtung und Verarbeitungssystem
DE102012217240B4 (de) Vorrichtung zum Messen einer dreidimensionalen Form
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102019212099A1 (de) Optischer versatzmesser
DE102015113068B4 (de) Qualitätskontrollvorrichtung und Steuerverfahren für eine Qualitätskontrollvorrichtung
DE102015116047A1 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE4222804A1 (de) Einrichtung und verfahren zur automatischen visuellen pruefung elektrischer und elektronischer baueinheiten
DE102011086195B4 (de) Inspektionsverfahren
EP1718926A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
DE102011086467B4 (de) Verfahren zum untersuchen eines substrates
DE102017118767A1 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
DE102021100979A1 (de) Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien
EP2275989A1 (de) Stereoskopische 3D-Kamera
DE102019006314A1 (de) Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren
DE112018008035T5 (de) Dreidimensionale Messvorrichtung
EP2887010B1 (de) Verfahren und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten mit einem topometrischen Messverfahren sowie Computerprogramm hierzu
DE102012222505B4 (de) Verfahren zum Erfassen dreidimensionaler Daten eines zu vermessenden Objekts, Verwendung eines derartigen Verfahrens zur Gesichtserkennung und Vorrichtung zur Durchführung eines derartigen Verfahrens
DE102019201193A1 (de) Verfahren zur Detektion von topografischen Fehlern auf Oberflächen eines Bauteils
DE102020002357A1 (de) Messapparat für eine dreidimensionale geometrie und messverfahren für eine dreidimensionale geometrie
DE102017219217B4 (de) Masken für die Mikrolithographie, Verfahren zur Bestimmung von Kantenpositionen der Bilder der Strukturen einer derartigen Maske und System zur Durchführung eines derartigen Verfahrens
DE102015101693A1 (de) Optisches lnspektionssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed