DE112016003107T5 - Messvorrichtung zum messen der form eines zielobjekts, system und herstellungsverfahren - Google Patents

Messvorrichtung zum messen der form eines zielobjekts, system und herstellungsverfahren Download PDF

Info

Publication number
DE112016003107T5
DE112016003107T5 DE112016003107.6T DE112016003107T DE112016003107T5 DE 112016003107 T5 DE112016003107 T5 DE 112016003107T5 DE 112016003107 T DE112016003107 T DE 112016003107T DE 112016003107 T5 DE112016003107 T5 DE 112016003107T5
Authority
DE
Germany
Prior art keywords
target object
image
light
measuring device
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016003107.6T
Other languages
English (en)
Inventor
Yuya Nishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE112016003107T5 publication Critical patent/DE112016003107T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/0207Error reduction by correction of the measurement signal based on independently determined error sources, e.g. using a reference interferometer
    • G01B9/02071Error reduction by correction of the measurement signal based on independently determined error sources, e.g. using a reference interferometer by measuring path difference independently from interferometer

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

Eine Messvorrichtung enthält: ein optisches Projektionssystem; eine Beleuchtungseinheit; eine Abbildungseinheit, die konfiguriert ist, ein Zielobjekt, auf das Musterlicht durch das optische Projektionssystem projiziert wurde, abzubilden, und dadurch ein erstes Bild des Ziels durch das durch das Zielobjekt reflektierte Musterlicht aufzunehmen; und eine Verarbeitungseinheit, die konfiguriert ist, eine Information über die Form des Zielobjekts zu erhalten. Die Beleuchtungseinheit enthält Lichtemitter, die um eine optische Achse des optischen Projektionssystems symmetrisch in Bezug auf die optische Achse angebracht sind. Die Verarbeitungseinheit korrigiert das erste Bild unter Verwendung eines zweiten Bildes des Zielobjekts und erhält die Forminformation auf der Basis des korrigierten Bildes, wobei die Abbildungseinheit das Zielobjekt, das durch die Lichtemitter beleuchtet wird, abbildet, um das zweite Bild durch Licht, das von den Lichtemittern emittiert und durch das Zielobjekt reflektiert wird, aufzunehmen.

Description

  • Technisches Gebiet
  • Aspekte der vorliegenden Erfindung beziehen sich im Allgemeinen auf eine Messvorrichtung zum Messen der Form eines Zielobjekts, ein System, und ein Herstellverfahren.
  • Stand der Technik
  • Optische Messung ist als eine der Techniken zum Messen der Form eines Zielobjekts bekannt. Es gibt verschiedene Verfahren für eine optische Messung. Eine von ihnen ist ein Verfahren, das als Musterprojektion bezeichnet wird. In einem Musterprojektionsverfahren wird die Form eines Zielobjekts wie folgt gemessen. Ein vorbestimmtes Muster wird auf ein Zielobjekt projiziert. Ein Bild des Zielobjekts wird durch einen Abbildungsabschnitt aufgenommen. Ein Muster in dem aufgenommenen Bild wird erfasst. Auf der Basis des Prinzips der Triangulation wird eine Abstandsinformation an jeder Pixelposition berechnet, wodurch eine Information über die Form des Zielobjekts erhalten wird.
  • In dem Messverfahren wird die Koordinate von jeder Linie eines projizierten Musters auf der Basis der räumlichen Verteilungsinformation von Pixelwerten (der Menge an empfangenem Licht) in einem aufgenommenen Bild erfasst. Die räumliche Verteilungsinformation der Menge des empfangenen Lichts sind Daten, die Effekte einer Reflektivitätsverteilung enthalten, die von dem Muster und/oder einer Feinform usw. der Oberfläche des Zielobjekts herrühren. Deswegen tritt in einigen Fällen ein Erfassungsfehler beim Erfassen der Musterkoordinaten auf, oder es kann unmöglich sein, überhaupt eine Erfassung durchzuführen. Daraus resultiert eine geringe Präzision in der Information über die berechnete Form des Zielobjekts.
  • Das folgende Messverfahren wird in PTL 1 offenbart. Ein Bild zu der Zeit der Projektion des Musterlichts (im Weiteren als ”Musterprojektionsbild” bezeichnet) wird erhalten. Danach wird gleichförmiges Licht auf ein Zielobjekt unter Verwendung eines Flüssigkristallshutters angewendet, und ein Bild unter gleichförmiger Beleuchtung (im Weiteren als ”Graustufenbild”) wird erhalten. Unter der Verwendung des Graustufenbilds als Korrekturdaten wird eine Bildkorrektur durchgeführt, um so die Effekte der Reflektivitätsverteilung auf der Oberfläche des Zielobjekts von dem Musterprojektionsbild zu entfernen.
  • Das folgende Messverfahren wird in PTL 2 offenbart. Musterlicht und ein einheitliches Beleuchtungsbild werden auf das Zielobjekt angewendet. Die Polarisationsrichtung des Musterlichts und die Polarisationsrichtung des gleichförmigen Beleuchtungslichts sind um 90° voneinander verschieden. Abbildungseinrichtungen, die den jeweiligen Polarisationsrichtungen entsprechen, nehmen ein Musterprojektionsbild beziehungsweise ein Graustufenbild auf. Danach wird eine Bildverarbeitung zum Erhalten einer Abstandsinformation von einem Differenzbild, das für die Differenz zwischen den beiden indikativ ist, durchgeführt. In diesem Messverfahren sind der Zeitpunkt des Erhaltens des Musterprojektionsbilds und der Zeitpunkt des Erhaltens des Graustufenbilds die gleichen, und eine Korrektur zum Entfernen der Effekte einer Reflektivitätsverteilung auf der Oberfläche des Zielobjekts von dem Musterprojektionsbild wird durchgeführt.
  • In dem in PTL 1 offenbarten Messverfahren sind der Zeitpunkt des Erhaltens des Musterprojektionsbilds und der Zeitpunkt des Erhaltens des Graustufenbilds verschieden voneinander. In einigen vorstellbaren Verwendungen und Anwendungen einer Messvorrichtung wird eine Abstandsinformation erhalten, während sich entweder ein Zielobjekt oder der Abbildungsabschnitt einer Messvorrichtung oder beide bewegen. In solch einem Fall ändert sich die relative Position von ihnen von einer Zeit zur nächsten, was in einem Unterschied zwischen dem Blickpunkt zum Aufnehmen des Musterprojektionsbildes und dem Blickpunkt zum Aufnehmen des Graustufenbildes resultiert. Ein Fehler wird auftreten, wenn eine Korrektur unter Verwendung solcher Bilder basierend auf den verschiedenen Blickpunkten durchgeführt wird.
  • In dem Messverfahren, das in PTL 2 offenbart ist, werden das Musterprojektionsbild und das Graustufenbild zur selben Zeit unter Verwendung von polarisierten Strahlen, deren Polarisationsrichtungen voneinander um 90° verschieden sind, erhalten. Die Oberfläche eines Zielobjekts hat lokale Winkelvariationen aufgrund von Irregularitäten in der Feinform der Oberfläche des Zielobjekts (Oberflächenrauheit). Wegen der lokalen Winkelvariationen, unterscheidet sich eine Reflektivitätsverteilung auf der Oberfläche des Zielobjekts abhängig von der Richtung der Polarisation. Dies passiert deshalb, weil sich die Reflektivität von einfallendem Licht in Bezug auf den Einfallswinkel abhängig von der Richtung der Polarisation unterscheidet. Ein Fehler wird auftreten, wenn eine Korrektur unter Verwendung von Bildern aufgenommen wird, die eine Information basierend auf Reflektivitätsverteilungen, die voneinander verschieden sind, enthalten, durchgeführt wird.
  • Referenzen
  • Patentliteratur
    • PTL 1: japanische Patentoffenlegung Nr. 3-289505
    • PTL 2: japanische Patentoffenlegung Nr. 2002-213931
  • Zusammenfassung der Erfindung
  • Selbst in einem Fall, in dem die relative Position eines Zielobjekts und eines Abbildungsabschnitts sich ändert, machen es einige Aspekte der Erfindung möglich, einen Messfehler, der von der Oberflächenrauheit des Zielobjekts herrührt, zu reduzieren, wodurch die Form des Zielobjekts mit hoher Präzision gemessen wird.
  • Mit Bezug auf eine Messvorrichtung zum Messen der Form eines Zielobjekts ist ein Aspekt der Erfindung wie folgt: die Messvorrichtung weist auf: ein optisches Projektionssystem, eine Beleuchtungseinheit, eine Abbildungseinheit und eine Verarbeitungseinheit. Das optische Projektionssystem ist konfiguriert, Musterlicht auf das Zielobjekt zu projizieren. Die Beleuchtungseinheit ist konfiguriert, das Zielobjekt zu beleuchten. Die Abbildungseinheit ist konfiguriert, das Zielobjekt, auf das das Projektionslicht durch das optische Projektionssystem projiziert wird, abzubilden, um dadurch ein erstes Bild des Zielobjekts durch das Musterlicht, das durch das Zielobjekt reflektiert wird, zu erhalten. Die Verarbeitungseinheit ist konfiguriert, eine Information über die Form des Zielobjekts zu erhalten. Die Beleuchtungseinheit enthält mehrere Lichtemitter, die um eine optische Achse des optischen Projektionssystems symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems angebracht sind. Die Abbildungseinheit bildet das Zielobjekt, das durch die mehreren Lichtemitter beleuchtet wird, ab, um ein zweites Bild durch Licht, das von den mehreren Lichtemittern emittiert wird und durch das Zielobjekt reflektiert wird, aufzunehmen. Die Verarbeitungseinheit korrigiert das erste Bild unter Verwendung des zweiten Bilds des Zielobjekts und erhält die Information über die Form des Zielobjekts auf der Basis des korrigierten Bilds.
  • Weitere Merkmale der vorliegenden Erfindung werden von der folgenden Beschreibung von beispielhaften Ausführungsbeispielen mit Bezug auf die angehängten Zeichnungen offenbart.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine schematische Ansicht der Struktur einer Messvorrichtung nach dem ersten Ausführungsbeispiel.
  • 2A ist eine Ansicht eines Messszenarios gemäß dem ersten Ausführungsbeispiel.
  • 2B ist eine Ansicht eines Messszenarios gemäß einem zweiten Ausführungsbeispiel.
  • 3 ist eine Ansicht eines Projektionsmusters gemäß dem ersten Ausführungsbeispiel.
  • 4 ist eine Ansicht einer Graustufenbildbeleuchtungseinheit gemäß dem ersten Ausführungsbeispiel.
  • 5 ist eine Ansicht einer Graustufenbildbeleuchtungseinheit gemäß eines Variationsbeispiels des ersten Ausführungsbeispiels.
  • 6 ist ein Flussdiagramm einer Messung gemäß dem ersten Ausführungsbeispiel.
  • 7A ist ein Modelldiagramm der Feinform einer Oberfläche des Zielobjekts.
  • 7B ist ein Graph, der eine Beziehung zwischen dem Neigungswinkel des Zielobjekts und seiner Reflektivität zeigt.
  • 8 ist ein Diagramm, das eine Beziehung zwischen dem Winkel des Zielobjekts und einer Messvorrichtung illustriert.
  • 9 ist ein Graph, der eine Beziehung zwischen dem Einfallswinkel und einer Reflektivität zeigt.
  • 10 ist ein Diagramm, das eine Beziehung zwischen einer Beziehung zwischen dem Winkel der Oberfläche des Zielobjekts und einer Reflektivität zeigt.
  • 11 ist ein Flussdiagramm einer Prozedur gemäß dem zweiten Ausführungsbeispiel.
  • 12 ist ein Flussdiagramm einer Prozedur gemäß einem dritten Ausführungsbeispiel.
  • 13 ist eine schematische Ansicht der Struktur einer Messvorrichtung gemäß einem vierten Ausführungsbeispiel.
  • 14 ist ein Diagramm, das ein System mit der Messvorrichtung und einem Roboter illustriert.
  • Beschreibung von Ausführungsbeispielen
  • Mit Bezug auf die begleitenden Zeichnungen werden einige bevorzugte Ausführungsbeispiele der Erfindung nun erklärt. In jeder der Zeichnungen sind die gleichen Bezugszeichen den gleichen Bauteilen zugeordnet, um eine redundante Beschreibung zu vermeiden.
  • Erstes Ausführungsbeispiel
  • 1 ist eine schematische Ansicht der Struktur einer Messvorrichtung 100 gemäß einem Aspekt der Erfindung. Gestrichelte Linien repräsentieren Strahlen. Wie in 1 illustriert, enthält die Messvorrichtung 100 eine Abstandsabbildungsbeleuchtungseinheit 1, eine Graustufenbildbeleuchtungseinheit 2 (Beleuchtungsabschnitt), eine Abbildungseinheit 3 (Abbildungsabschnitt), und eine arithmetische Verarbeitungseinheit 4 (Verarbeitungsabschnitt). Für eine Forminformation (zum Beispiel eine dreidimensionale Form, eine zweidimensionale Form, Position und Orientierung, usw.) verwendet die Messvorrichtung 100 ein Musterprojektionsverfahren, um die Form eines Zielobjekts 5 (physikalisches Objekt) zu messen. Insbesondere werden ein Abstandsbild und ein Graustufenbild erhalten, und die Position und Orientierung des Zielobjekts 5 werden durch Durchführen eines Anpassens eines Modells unter Verwendung der zwei Bilder gemessen. Das oben erwähnte Abstandsbild ist ein Bild, das die dreidimensionale Information von Punkten auf der Oberfläche eines Zielobjekts repräsentiert, wobei jeder Pixel eine Tiefeninformation hat. Das oben erwähnte Graustufenbild ist ein Bild, das durch Abbilden des Zielobjekts unter gleichförmiger Beleuchtung erhalten wird. Das Modellanpassen wird auf einem im Vorhinein vorbereiteten CAD Modell des Zielobjekts 5 durchgeführt. Dieses basiert auf der Voraussetzung, dass die dreidimensionale Form des Zielobjekts 5 bekannt ist. Das Zielobjekt 5 ist zum Beispiel ein Metallteil oder ein optisches Bauteil.
  • Eine Beziehung zwischen der Messvorrichtung 100 und dem Zustand der Anordnung des Zielobjekts 5 ist in 2A und 2B illustriert. In dem Messszenario des vorliegenden Ausführungsbeispiels sind die Zielobjekte 5 im Wesentlichen in einem angeordneten Zustand auf einem flachen Trägertisch innerhalb der Messfläche, wie in 2A illustriert. Die Messvorrichtung 100 ist mit Bezug auf die obere Oberfläche der Zielobjekte 5 geneigt, um zu vermeiden, dass die optische Achse der Abstandbildbeleuchtungseinheit 1 und die optische Achse der Abbildungseinheit 3 unter der Bedingung einer regulären Reflektion sind. Die Lichtprojektionsachse repräsentiert die optische Achse eines optischen Projektionssystems 10, das später beschrieben wird. Die Abbildungsachse repräsentiert die optische Achse eines optischen Abbildungssystems, das später beschrieben wird.
  • Die Abstandsabbildungsbeleuchtungseinheit 1 enthält eine Lichtquelle 6, ein optisches Beleuchtungssystem 8, eine Maske 9, und das optische Projektionssystem 10. Die Lichtquelle 6 ist zum Beispiel eine Lampe. Die Lichtquelle 6 emittiert nichtpolarisiertes Licht, das eine Wellenlänge hat, die verschieden von der der Lichtquellen 7 der Graustufenbildbeleuchtungseinheit 2 ist, die später beschrieben wird. Die Wellenlänge des durch die Lichtquelle 6 emittierten Lichts ist λ1. Die Wellenlänge des durch die Lichtquelle 7 emittierten Lichts ist λ2. Das optische Beleuchtungssystem 8 ist ein optisches System zum gleichförmigen Anwenden des Lichtstrahls, der von der Lichtquelle 6 auf die Maske 9 emittiert wird (Musterlichtbildungsabschnitt). Die Maske 9 hat ein Muster, das auf das Zielobjekt 5 zu projizieren ist. Zum Beispiel wird ein vorbestimmtes Muster durch ein Plattieren eines Glassubstrats mit Chrom gebildet. Ein Beispiel des Musters der Maske 9 ist ein Punktlinienmuster, das durch Punkte (Identifikationsabschnitt) kodiert wird, wie in 3 illustriert. Die Punkte werden als weiße Linientrennungspunkte ausgedrückt. Das optische Projektionssystem 10 ist ein optisches System zum Bilden eines Bildes des Musters der Maske 9 auf dem Zielobjekt 5. Dieses optische System enthält eine Gruppe von Linsen, Spiegeln und Ähnlichem. Zum Beispiel ist es ein Bild bildendes System, das eine Einzelbildbildungsbeziehung hat, und hat eine optische Achse. Obwohl ein Verfahren zum Projizieren eines festen Maskenmusters in dem vorliegenden Ausführungsbeispiel beschrieben wird, ist der Bereich der Erfindung nicht darauf beschränkt. Musterlicht kann auf das Zielobjekt 5 unter Verwendung eines DLP Projektors oder eines Flüssigkristallprojektors projiziert (gebildet) werden.
  • Die Graustufenbildbeleuchtungseinheit 2 enthält mehrere Lichtquellen 7 (Lichtemitter), die Lichtquellen 7a bis 7l sind. Jede dieser Lichtquellen ist zum Beispiel eine LED und emittiert nichtpolarisiertes Licht. 4 ist eine Ansicht der Graustufenbildbeleuchtungseinheit 2, die entlang der Richtung der optischen Achse des optischen Projektionssystems 10 aufgenommen wurde. Wie in 4 illustriert, sind die mehreren Lichtquellen 7a bis 7l in einer Ringform mit Abständen um die optische Achse (die in einer Richtung senkrecht zu der Blattfläche der Figur läuft) des optischen Projektionssystems 10 der Abstandsbildbeleuchtungseinheit 1 angebracht. Die Lichtquellen 7a und 7g sind symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht. Die Lichtquellen 7b und 7h sind symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht. Das gleiche gilt für die Lichtquellen 7c und 7i, die Lichtquellen 7d und 7j, die Lichtquellen 7e und 7k, und die Lichtquellen 7f und 7l. In einem Fall, in dem die Lichtquelle eine LED ist, hat ihr lichtemittierender Teil eine gewisse Flächengröße. In solch einem Fall ist es zum Beispiel ideal, wenn das Zentrum des lichtemittierenden Teils an einer symmetrischen Anordnungsposition, die oben beschrieben wurde, ist. Weil die Lichtquellen 7 auf diese Weise angebracht sind, ist es möglich, das Zielobjekt von zwei Richtungen, die symmetrisch zueinander mit Bezug auf die optische Achse des optischen Projektionssystems 10 sind, zu beleuchten. Bevorzugt sollen die Lichtquellen 7a bis 71 dieselben Charakteristiken bezüglich einer Wellenlänge, Polarisation, Helligkeit und Lichtverteilung haben. Lichtverteilungscharakteristiken repräsentieren Differenzen in der Menge an Licht unter den Richtungen einer Emissionspropagation. Deswegen sollen die Lichtquellen 7a bis 7e bevorzugt Produkte derselben Modellnummer sein. Obwohl mehrere Lichtquellen in einer Ringform in 4 angebracht sind, ist der Bereich der Erfindung nicht auf eine solche Ringanordnung beschränkt. Es ist ausreichend, dass zwei Lichtquellen, die ein Paar ausmachen, mit einem gleichen Abstand von der optischen Achse des optischen Projektionssystems in einer Ebene senkrecht zu der optischen Achse sind. Zum Beispiel kann die Anordnungsform ein Quadrat sein, wie in 5 illustriert. Die Anzahl der Lichtquellen 7 ist nicht auf zwölf beschränkt. Es ist ausreichend, wenn es eine gerade Anzahl von Lichtquellen gibt, die Paare bilden.
  • Die Abbildungseinheit 3 enthält ein optisches Abbildungssystem 11, ein Wellenlängenteilungselement 12, und Bildsensoren 13 und 14. Die Abbildungseinheit 3 ist eine gemeinsam genutzte Einheit, die für Zwecke sowohl der Abstandsbildmessung als auch der Graustufenbildmessung verwendet wird. Das optische Abbildungssystem 11 ist ein optisches System zum Bilden eines Zielbildes auf dem Bildsensor 13, 14 durch Licht, das durch das Zielobjekt 5 reflektiert wird. Das Wellenlängenteilungselement 12 ist ein Element für eine optische Trennung der Lichtquelle 6 (λ1) und der Lichtquellen 7 (λ2). Zum Beispiel ist das Wellenlängenteilungselement 12 ein dichroitischer Spiegel. Das Wellenlängenteilungselement 12 ermöglicht es dem Licht der Lichtquelle 6 (λ1), durch es zu dem Bildsensor 13 hindurchzugehen und reflektiert das Licht der Lichtquellen 7 (λ2) hin zu dem Bildsensor 14. Der Bildsensor 13, 14 sind zum Beispiel ein CMOS Sensor oder CCD Sensor. Der Abbildungssensor 13 (erste Abbildungseinheit) ist ein Element, um ein Musterprojektionsbild aufzunehmen. Der Bildsensor 14 (zweite Abbildungseinheit) ist ein Element, um ein Graustufenbild aufzunehmen.
  • Die arithmetische Verarbeitungseinheit 4 ist ein allgemeiner Computer, der als eine Informationsverarbeitungsvorrichtung fungiert. Die arithmetische Verarbeitungseinheit 4 enthält einen Prozessor, wie zum Beispiel eine CPU, MPU, DSP und FPGA, und enthält einen Speicher, wie zum Beispiel ein DRAM.
  • 6 ist Flussdiagramm eines Messverfahrens. Als erstes wird nun eine Prozedur zum Erhalten eines Abstandsbildes erklärt. In der Abstandsbildbeleuchtungseinheit 1 wird der Strahl des Lichts, das von der Lichtquelle 6 emittiert wird, gleichförmig durch das optische Beleuchtungssystem 8 auf die Maske 9 angewendet, und Musterlicht, das von dem Muster der Maske 9 stammt, wird durch das optische Projektionssystem 10 auf das Zielobjekt 5 projiziert (S10). Aus einer Richtung, die verschieden von der der Abstandsbildbeleuchtungseinheit 1 ist, nimmt der Bildsensor 13 der Abbildungseinheit 3 das Zielobjekt 5, auf das das Musterlicht von der Abstandsbildbeleuchtungseinheit 1 projiziert wird, auf, wodurch ein Musterprojektionsbild (erstes Bild) erhalten wird (S11). Auf der Basis des Prinzips der Triangulation berechnet die arithmetische Verarbeitungseinheit 4 ein Abstandsbild (Information über die Form des Zielobjekts 5) aus dem erhaltenen Bild (S13). In dem vorliegenden Ausführungsbeispiel wird angenommen, dass die Vorrichtung die Position und Orientierung des Zielobjekts 5 misst, während sich ein Roboterarm bewegt, der mit einer Einheit bereitgestellt ist, die die Abstandsbildbeleuchtungseinheit 1, die Graustufenbildbeleuchtungseinheit 2 und die Abbildungseinheit 3 enthält. Der Roboterarm (Greifeinheit) greift das Zielobjekt und bewegt und/oder dreht es. Zum Beispiel, wie in 2A illustriert, ist eine Einheit, die die Abstandsbildbeleuchtungseinheit 1, die Graustufenbildbeleuchtungseinheit 2 und die Abbildungseinheit 3 der Messvorrichtung 100 enthält, bewegbar. Bevorzugt soll das Musterlicht, das auf das Zielobjekt 5 projiziert wird, von einem Muster stammen, mit dem es möglich ist, ein Abstandsbild aus einem einzelnen Musterprojektionsbild zu berechnen. Wenn ein Messverfahren, in dem ein Abstandsbild aus mehreren aufgenommenen Bildern berechnet wird, angewendet wird, ist es aufgrund einer Sichtfeldverschiebung, die in den aufgenommenen Bildern aufgrund der Bewegung des Roboterarms auftritt, unmöglich, ein Abstandsbild mit hoher Präzision zu messen. Ein Beispiel eines Musters, mit dem es möglich ist, ein Abstandsbild aus einem einzelnen Musterprojektionsbild zu berechnen, ist ein Punktlinienmuster, wie zum Beispiel dem in 3 illustrierten. Das Abstandsbild wird aus dem einzelnen aufgenommenen Bild durch Projizieren des Punktlinienmusters auf das Zielobjekt 5 und durch Entdecken von Korrespondenzen zwischen dem Projektionsmuster und dem aufgenommenen Bild auf der Basis der Punktpositionsbeziehung berechnet. Obwohl das Punktlinienmuster oben als das Projektionsmuster erwähnt wurde, ist der Bereich der Erfindung nicht darauf beschränkt. Irgendein anderes Projektionsmuster kann verwendet werden, solange es möglich ist, ein Abstandsbild aus einem einzelnen Musterprojektionsbild zu berechnen.
  • Als nächstes wird eine Prozedur zum Erhalten eines Graustufenbildes erklärt. In dem vorliegenden Ausführungsbeispiel werden Kanten, die der Kontur und Kantenlinien des Zielobjekts 5 entsprechen, aus einem Graustufenbild erfasst und die Kanten werden als Bildmerkmale zum Berechnen der Position und Orientierung des Zielobjekts 5 verwendet. Zunächst beleuchtet die Graustufenbildbeleuchtungseinheit 2 das Zielobjekt 5 (S14). Dieses Licht zum Beleuchten des Zielobjekts 5 hat zum Beispiel eine gleichförmige Lichtintensitätsverteilung. Als nächstes nimmt der Bildsensor 14 der Abbildungseinheit 3 das Zielobjekt 5 unter gleichförmiger Beleuchtung durch die Graustufenbildbeleuchtungseinheit 2 auf, wodurch ein Graustufenbild (zweites Bild) erhalten wird (S14). Für eine Kantenberechnung (S16), führt die arithmetische Verarbeitungseinheit 4 eine Kantenerfassungsverarbeitung unter Verwendung des erhaltenen Bildes durch.
  • In dem vorliegenden Ausführungsbeispiel werden der Aufnahmevorgang für ein Abstandsbild und der Aufnahmevorgang für ein Graustufenbild synchron miteinander durchgeführt. Deswegen werden die Beleuchtung des (die Projektion des Musterlichts auf das) Zielobjekt 5 durch die Abstandsbildbeleuchtungseinheit 1 und die gleichförmige Beleuchtung des Zielobjekts 5 durch die Graustufenbildbeleuchtungseinheit 2 zur gleichen Zeit durchgeführt. Der Bildsensor 13 nimmt das Zielobjekt 5, auf das das Musterlicht durch das optische Projektionssystem 10 projiziert wird, auf, um dadurch das erste Bild des Zielobjekts 5 durch das durch das Zielobjekt 5 reflektierte Musterlicht zu erhalten. Der Bildsensor 14 nimmt das Zielobjekt 5, das durch die mehreren Lichtquellen 7 erhellt wird, auf, um das zweite Bild des Zielobjekts 5 durch das durch das Zielobjekt 5 reflektierte Licht, nachdem es von den mehreren Lichtquellen 7 kommt, zu erhalten. Weil der Aufnahmevorgang für das Abstandsbild und der Aufnahmevorgang für das Graustufenbild synchron miteinander durchgeführt werden, ist es selbst in einer Situation, in der die relative Position des Zielobjekts 5 und der Abbildungseinheit 3 sich ändert, möglich, ein Erhalten eines Bildes basierend auf demselben Blickpunkt durchzuführen. Die arithmetische Verarbeitungseinheit 4 berechnet die Position und Orientierung des Zielobjekts 5 unter Verwendung der Berechnungsergebnisse von S13 und S16 (S17).
  • Bei der Berechnung des Abstandsbilds in S13 erfasst die arithmetische Verarbeitungseinheit 4 die Koordinate von jeder Linie des projizierten Musters auf der Basis der räumlichen Verteilungsinformation der Pixelwerte (der Menge an empfangenem Licht) in dem aufgenommenen Bild. Die räumliche Verteilungsinformation der Menge des empfangenen Lichts sind Daten, die die Effekte einer Reflektivitätsverteilung enthalten, die von dem Muster und/oder einer Feinform etc. der Oberfläche des Zielobjekts stammen. Deswegen tritt in einigen Fällen ein Erfassungsfehler in der Erfassung der Musterkoordinaten auf, oder es kann unmöglich sein, überhaupt eine Erfassung durchzuführen. Dies resultiert in einer geringen Präzision in der Information über die berechnete Form des Zielobjekts. Um dies zu vermeiden, korrigiert die arithmetische Verarbeitungseinheit 4 das erhaltene Bild, wodurch ein Fehler aufgrund der Effekte einer Reflektivitätsverteilung, der von dem Muster und/oder einer Feinform usw. der Oberfläche des Zielobjekts stammt, reduziert wird.
  • Die Reflektivitätsverteilung eines Zielobjekts wird nun erklärt. Als erstes werden mit Bezug auf 7A und 7B das Modell einer Reflektivitätsverteilung, die aus einer Feinform der Oberfläche eines Zielobjekts stammt, erklärt. In 7A repräsentiert die durchgezogene Linie die Feinform der Oberfläche eines Zielobjekts (Oberflächenrauheit). Die gestrichelte Linie repräsentiert den durchschnittlichen Neigungswinkel der Oberfläche des Zielobjekts. Wie in 7a illustriert, hat die Oberfläche des Zielobjekts lokale Winkelvariationen aufgrund von Irregularitäten in der Feinform der Oberfläche des Zielobjekts. Wenn man annimmt, dass die Winkelvariationen in einem Bereich von –α° bis +α° sind und das der durchschnittliche Neigungswinkel der Oberfläche des Zielobjekts β° ist, ist die Neigung der Oberfläche des Zielobjekts, die von einem Gebiet zum anderen variiert, innerhalb eines Bereichs von β – α° bis β + α°. 7B ist ein Graph, der eine Beziehung zwischen dem Neigungswinkel Θ des Zielobjekts und seiner Reflektivität R (Θ) zeigt. Der Ausdruck ”Reflektivität”, der hier erwähnt wird, bedeutet ein Verhältnis der Lichtmenge, die durch die Oberfläche eines Zielobjekts reflektiert wird und in eine bestimmte Richtung geht, zu der Menge von einfallendem Licht, das aus einer bestimmten Richtung kommt. Zum Beispiel kann die Reflektivität als ein Verhältnis der Lichtmenge, die an einer Abbildungseinheit nach einer Reflektion hin zu der Abbildungseinheit empfangen wird, zu der Menge an einfallendem Licht ausgedrückt werden. In einem Fall, in dem die Neigung der Oberfläche des Zielobjekts, die von einem Gebiet zum anderen variiert, innerhalb eines Bereichs von β – α° bis β + α° ist, wie oben beschrieben, variiert die Reflektivität von einem Gebiet zum anderen innerhalb eines Bereichs von R (β – α°) bis R(β + α°), was die Reflektivitätsverteilung von R(β – α) bis R(β + α°) bedeutet. Das heißt, die Reflektivitätsverteilung hängt von der Feinform der Oberfläche und der Winkelcharakteristik der Reflektivität ab.
  • 8 ist ein Diagramm, das eine Beziehung zwischen der optischen Achse des optischen Projektionssystems 10 und zwei Lichtquellen aus den Lichtquellen 7 der Graustufenbildbeleuchtungseinheit 2 illustriert, die als ein symmetrisches Paar mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht sind. 9 ist ein Graph, der eine Beziehung zwischen dem Einfallswinkel und einer Reflektivität zeigt. Weil die gepaarten Lichtquellen 7 symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht sind, wird das Zielobjekt 5 davon in zwei Richtungen, die mit Bezug auf die optische Achse des optischen Projektionssystems 10 symmetrisch sind, beleuchtet. Θ sei der Neigungswinkel des Zielobjekts 5. γ sei der Neigungswinkel, der durch das Liniensegment von der Lichtquelle 7 zu dem Zielobjekt 5 und der optischen Achse des optischen Projektionssystems 10 gebildet wird. Mit diesen Definitionen gilt in einem Gebiet, in dem die Winkelcharakteristiken der Reflektivität im Wesentlichen linear sind, wie in 9 illustriert, die folgende ungefähre Gleichung (1): R(θ) = (R(θ + γ) + R(θ – γ))/2 (1).
  • Das heißt, in dem Gebiet, in dem die Winkelcharakteristiken einer Reflektivität im Wesentlichen linear sind, sind die lokale Reflektivität (Reflektivitätsverteilung) für ein Musterprojektionsbild und eine lokale Reflektivität für ein Graustufenbild ungefähr gleich zueinander. Deswegen korrigiert (S12) die arithmetische Verarbeitungseinheit 4 das Musterprojektionsbild, das in S11 erhalten wird, unter Verwendung des Graustufenbilds, das in S15 erhalten wird, vor der Berechnung des Abstandsbildes in S13. Auf diese Weise ist es möglich, von dem Musterprojektionsbild die Effekte einer Reflektivitätsverteilung, die von der Feinform der Oberfläche des Zielobjekts stammt, zu entfernen. Als nächstes wird in S13 das Abstandsbild unter Verwendung des korrigierten Bildes berechnet. Deswegen ist es in der Berechnung des Abstandsbildes in S13 möglich, einen Fehler aufgrund der Effekte einer Reflektivitätsverteilung, die von dem Muster und/oder einer Feinform usw. der Oberfläche des Zielobjekts stammt, zu reduzieren. Dies ermöglicht es, mit hoher Präzision die Information über die Form des Zielobjekts zu erhalten.
  • Wenn sich die Lichtquellen 7 in einer Wellenlänge, Polarisation, Helligkeit und/oder Lichtverteilungscharakteristik voneinander unterscheiden, unterscheiden sich Reflektivität und die Menge an reflektiertem Licht wegen der Differenz in diesen Parametern, was in einer Differenz zwischen der Reflektivitätsverteilung eines Musterprojektionsbildes und der Reflektivitätsverteilung eines Graustufenbildes resultiert. Aus diesem Grund sollten die Lichtquellen 7 bevorzugt gleiche Wellenlänge, gleiche Polarisation, gleiche Helligkeit und gleiche Lichtverteilungscharakteristiken haben. Wenn sich die Lichtverteilungscharakteristiken von einer Lichtquelle zur anderen unterscheiden, unterscheidet sich die Winkelverteilung der Menge des einfallenden Lichts, die zur Oberfläche des Zielobjekts kommt. Folglich unterscheidet sich in solch einem Fall die Menge des reflektierten Lichts von einer Lichtquelle zur anderen aufgrund der Winkeldifferenz in einer Reflektivität.
  • Im Allgemeinen ist in der Winkelcharakteristik einer Reflektivität, wie in 10 illustriert, die Änderung einer Reflektivität gegenüber einem Winkel unter Bedingungen klein, die von den Bedingungen für eine reguläre Reflektion (Einfallswinkel: Null) abweichen. Deswegen zeigt sie im Wesentlichen Linearität mit Bezug auf den Einfallswinkel. Auf der anderen Seite ist unter Bedingungen nahe den Bedingungen für eine reguläre Reflektion die Änderung einer Reflektivität gegenüber einem Winkel groß, was bedeutet, dass die Linearität verloren geht (nichtlinear). Im Hinblick darauf bestimmt in dem vorliegenden Ausführungsbeispiel die arithmetische Verarbeitungseinheit 4, ob es ok ist, die Bildkorrektur auf der Basis der relativen Orientierung des Zielobjekts und der Messvorrichtung durchzuführen oder nicht. In dem vorliegenden Ausführungsbeispiel, wie in 2A illustriert, sind die Zielobjekte 5 im Wesentlichen in einem angeordneten Zustand auf einem flachen Trägertisch. Deswegen ist die relative Orientierung Θ des Zielobjekts und der Messvorrichtung im Voraus bekannt. Deswegen wird die relative Orientierung Θ des Zielobjekts und der Messvorrichtung mit einem vorbestimmten Winkelschwellenwert Θth verglichen, und eine Bildkorrektur wird durchgeführt, wenn die relative Orientierung größer als der vorbestimmte Winkel Θth ist. Der vorbestimmte Winkelschwellenwert Θth wird zum Beispiel auf der Basis einer Beziehung zwischen Winkel und dem Verhältnis einer Verbesserung in der Präzision als einem Ergebnis einer Bildkorrektur an dem Teil, bei dem die ungefähre Form des Zielobjekts bekannt ist, bestimmt, wobei die Messung durchgeführt wird, während das Zielobjekt gekippt wird. Der Winkel, bei dem der Effekt der Bildkorrektur im Wesentlichen null wird, wird als der Schwellenwert gesetzt. Das Verhältnis einer Verbesserung in der Präzision als einem Ergebnis einer Bildkorrektur ist ein Wert, der durch Teilen der Messpräzision nach der Korrektur durch die Messpräzision vor der Korrektur berechnet wird.
  • In dem vorliegenden Ausführungsbeispiel ist die relative Orientierung Θ des Zielobjekts und der Messvorrichtung größer als der Winkelschwellenwert Θth, weil die Messvorrichtung signifikant mit Bezug auf das Zielobjekt 5 geneigt ist. Deswegen wird eine Bildkorrektur durchgeführt. Die Bildkorrektur wird durch die arithmetische Verarbeitungseinheit 4 unter Verwendung eines Musterprojektionsbildes I1 (x, y) und eines Graustufenbildes I2 (x, y) durchgeführt. Ein korrigiertes Musterprojektionsbild I1' (x, y) wird unter Verwendung der folgenden Formel (2) berechnet: I1'(x, y) = I1(x, y)/I2(x, y) (2), wobei x, y Pixelkoordinatenwerte des Bildsensors bezeichnen.
  • Wie durch Formel (2) ausgedrückt wird, basiert die Korrektur auf einer Division in dem obigen Beispiel. Jedoch ist das Verfahren der Korrektur nicht auf eine Division beschränkt. Zum Beispiel kann die Korrektur auf einer Subtraktion basieren, wie in der folgenden Formel (3) ausgedrückt wird: I1'(x, y) = I1(x, y) – I2(x, y) (3).
  • In dem obigen Ausführungsbeispiel sind eine Lichtintensitätsverteilung für ein Musterprojektionsbild und eine Lichtintensitätsverteilung für ein Graustufenbild im Wesentlichen gleich zueinander, weil die Lichtquellen für eine Graustufenbildbeleuchtung symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht sind. Deswegen ist es möglich, dass Musterprojektionsbild unter Verwendung des Graustufenbilds einfach mit hoher Präzision zu korrigieren. Aus diesem Grund ist es selbst in einem Fall, in dem sich die relative Position des Zielobjekts und der Abbildungseinheit ändert, möglich, einen Messfehler aufgrund der Effekte einer Reflektivitätsverteilung, die von der Feinform der Oberfläche des Zielobjekts stammt, zu reduzieren. Deswegen ist es möglich, eine Information über die Form des Zielobjekts mit einer hohen Präzision zu erhalten.
  • Obwohl die Lichtquellen 7 symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht sind, ist eine strenge Symmetrie in dem Lichtquellenlayout nicht nötig, solange ein Fehler, der durch die Bildkorrektur auftritt, innerhalb eines vorbestimmten Toleranzbereichs ist. Das symmetrische Layout in dem vorliegenden Ausführungsbeispiel enthält solch ein Layout, das die Fehlertoleranz nicht überschreitet. Zum Beispiel kann das Zielobjekt 5 in zwei Richtungen, die asymmetrisch in Bezug auf die optische Achse des optischen Projektionssystems 10 innerhalb eines Bereichs, in dem eine Reflektivität in Bezug auf den Winkel der Oberfläche des Zielobjekts im Wesentlichen linear ist, ist, beleuchtet werden.
  • In dem illustrierten Beispiel der 14 wird angenommen, dass die Messvorrichtung 100 des vorliegenden Ausführungsbeispiels auf einem Roboterarm 300 in einem Objektgreifsteuerungssystem montiert ist. Die Messvorrichtung 100 misst die Position und Orientierung des Zielobjekts auf einem Trägertisch 350. Eine Steuerungseinheit 310 für den Roboterarm 300 steuert den Roboterarm 300 unter Verwendung des Resultats einer Messung der Position und Orientierung. Insbesondere greift, bewegt, und/oder dreht der Roboterarm 300 das Zielobjekt 5. Die Steuerungseinheit 310 enthält einen arithmetischen Prozessor, z. B. eine CPU, und eine Speichereinrichtung, zum Beispiel einen Speicher. Messdaten, die durch die Messvorrichtung 100 erhalten werden und/oder ein erhaltenes Bild können auf einer Anzeigeeinheit 320, z. B. einer Anzeigeeinrichtung, angezeigt werden.
  • Zweites Ausführungsbeispiel
  • Ein zweites Ausführungsbeispiel wird nun erklärt. Die Differenz zum vorgehenden ersten Ausführungsbeispiel liegt erstens in dem Messszenario und zweitens in dem Hinzufügen eines Bestimmungsverarbeitens bezüglich der Korrektur eines Fehlers, der von der Feinform der Oberfläche des Zielobjekts in dem Bildkorrekturschritt S12 herrührt. In dem ersten Ausführungsbeispiel wird angenommen, dass unter der Verwendung eines Bildes, das unter Bedingungen aufgenommen wird, in dem die Zielobjekte 5 im Wesentlichen in einem angeordneten Zustand sind, dass ganze Bild in S12 korrigiert wird. In dem Messszenario des vorliegenden Ausführungsbeispiels gibt es einen Stapel von Zielobjekten 5 in einem nichtangeordneten Zustand innerhalb eines Lagers, wie in 2B illustriert. In dem vorliegenden Ausführungsbeispiel unterscheidet sich eine Orientierung von einem Zielobjekt 5 zu einem anderen. Deswegen gibt es einen Fall, in dem die Messvorrichtung 100 in einer nahezu regulären Reflektionsorientierung mit Bezug auf die obere Oberfläche des Zielobjekts 5 ist. Deswegen gilt unter einigen Winkelbedingungen die ungefähre Gleichung (1), die oben beschrieben wurde, nicht. In solch einem Fall verschlechtert die Korrektur eines Fehlers, die von der Feinform der Oberfläche eines Zielobjekts stammt, wenn sie ausgeführt wird, die Messpräzision. Aus diesem Grund ist es für den Zweck des Messens der Position und Orientierung des Zielobjekts mit hoher Präzision besser, in dem aufgenommenen Bild die Korrektur nicht auf die Fläche anzuwenden, in der das Zielobjekt unter nahezu regulären Reflektionsbedingungen ist.
  • Im Hinblick darauf wird in dem vorliegenden Ausführungsbeispiel für jede Teilfläche in einem Bild in S12 bestimmt, ob eine Korrektur nötig ist oder nicht. Mit Bezug auf das Flussdiagramm von 11 wird nun eine Prozedur zum Realisieren des obigen intelligenten Korrekturverarbeitens erklärt. In dem vorliegenden Ausführungsbeispiel wird für jede Teilfläche in einem Bild bestimmt, ob die Korrektur eines Fehlers, die von der Feinform der Oberfläche des Zielobjekts stammt, auf der Basis der Beziehung zwischen dem Winkel der Oberfläche des Zielobjekts und einer Reflektivität in 10 und auf der Basis von Pixelwerten (Helligkeitswerten) in einem Musterprojektionsbild, einem Graustufenbild oder beidem nötig ist oder nicht.
  • Der Schritt 21 (S21) ist ein Prozess, in dem die arithmetische Verarbeitungseinheit 4 bestimmt, ob eine Korrektur auf der Basis der relativen Orientierung der Messvorrichtung und des Zielobjekts 5 nötig ist oder nicht (Messszenario). In dem Messszenario des vorliegenden Ausführungsbeispiels ist die relative Orientierung des Zielobjekts und der Messvorrichtung unbekannt, weil es einen Stapel von Zielobjekten 5 in einem nicht angeordneten Zustand innerhalb eines Lagers gibt. Deswegen bestimmt anders als in dem ersten Ausführungsbeispiel zu diesem Zeitpunkt die arithmetische Verarbeitungseinheit 4, dass die Korrektur der ganzen Fläche des Bildes nicht durchgeführt werden soll.
  • Der Schritt 22 (S22) ist ein Prozess, in dem die arithmetische Verarbeitungseinheit 4 die Daten einer Tabelle erhält, die eine Beziehung zwischen Pixelwerten (Helligkeitswerten) in einem Bild und dem Verhältnis einer Verbesserung einer Präzision als ein Ergebnis der Korrektur eines Fehlers, der von der Feinform einer Oberfläche des Zielobjekts stammt, zeigt. Die Tabellendaten können durch Durchführen einer Messung erhalten werden, während der Neigungswinkel des Zielobjekts in Bezug auf die Messvorrichtung geändert wird. Insbesondere wird die Tabelle durch Erhalten der Beziehung (Daten) zwischen den Pixelwerten in dem Musterprojektionsbild oder dem Graustufenbild und dem Verhältnis einer Verbesserung in einer Präzision als ein Ergebnis der Korrektur des Fehlers, der von der Feinform an dem Teil, an dem die ungefähre Form des Zielobjekts 5 bekannt ist, erzeugt. ”Das Verhältnis der Verbesserung einer Präzision als ein Ergebnis der Korrektur des Fehlers, der von der Feinform stammt, ist ein Wert, der durch Teilen der Messpräzision in der Form des Zielobjekts nach der Korrektur durch die Messpräzision der Form des Zielobjekts vor der Korrektur berechnet wird. Gemäß der Beziehung zwischen dem Oberflächenwinkel des Zielobjekts und der Reflektivität in 10 ist die Reflektivität niedrig unter Bedingungen, die von den Bedingungen einer regulären Reflektion (der Einfallswinkel: Null) abweichen, und die Reflektivität ist hoch unter Bedingungen nahe den Bedingungen für eine reguläre Reflektion. Es gibt im Wesentlichen Linearität in einer Beziehung des Einfallswinkels unter Bedingungen, die von den Bedingungen einer regulären Reflektion (der Einfallswinkel: Null) abweichen. Sie ist nichtlinear unter Bedingungen nahe den Bedingungen für eine reguläre Reflektion, und die Formeln (2) und (3) gelten nicht. Unter einer gegebenen konstanten luminösen Intensität entspricht die Reflektivität den Pixelwerten (Helligkeitswerten) in dem Bild. Deswegen wird die Präzisionsverbesserung nicht groß sein, wenn die Reflektivität (Pixelwert) größer als ein vorbestimmter Wert ist, jenseits dessen es keine Linearität zwischen dem Winkel und der Reflektivität gibt. Ein Präzisionsverbesserungseffekt wird groß sein, wenn die Reflektivität (Pixelwert) kleiner als der vorbestimmte Wert ist.
  • Der Schritt 23 (S23) ist ein Schritt, in dem die arithmetische Verarbeitungseinheit 4 aus der in Schritt S22 vorbereiteten Tabelle einen Schwellenwert der Pixelwerte (Helligkeitswerte) zum Bestimmen, ob die Korrektur nötig ist oder nicht, festlegt. Der Helligkeitsschwellenwert Ith ist zum Beispiel ein Helligkeitswert jenseits dessen kein Effekt zum Verbessern einer Präzision als ein Ergebnis der Korrektur eines Fehlers, der von der Feinform der Oberfläche eines Zielobjekts stammt, erwartet werden kann. Das heißt, es ist ein Helligkeitswert unter Winkelbedingungen, in dem das Verhältnis der Verbesserung einer Präzision eins ist. Es ist ausreichend, wenn die Schritte 22 und 23 einmal für jede Art von Teilen (Zielobjekten) durchgeführt werden. Sie können in den zweiten und weiteren Ausführungen in einem Fall einer wiederholten Messung derselben Art von Teilen ausgelassen werden.
  • Der Schritt 24 (S24) ist ein Prozess, bei dem die arithmetische Verarbeitungseinheit 4 die Daten des Graustufenbildes, das in S15 aufgenommen wurde, und die Daten des Musterprojektionsbildes, das in S11 aufgenommen wurde, erhält. Der Schritt 25 (S25) ist ein Prozess, in dem die arithmetische Verarbeitungseinheit 4 für jede Teilfläche in dem Musterprojektionsbild bestimmt, ob die Korrektur nötig ist oder nicht. In dem Prozess wird zuerst das Graustufenbild oder das Musterprojektionsbild in viele Teilflächen (zum Beispiel 2 × 2 Pixel) segmentiert. Als nächstes wird ein durchschnittlicher Pixelwert (durchschnittlicher Helligkeitswert) für jede der Teilflächen berechnet. Der durchschnittliche Pixelwert wird mit dem Helligkeitsschwellenwert, der in dem Schritt 23 berechnet wurde, verglichen. Jede Teilfläche, bei der der durchschnittliche Pixelwert kleiner als der Helligkeitsschwellenwert ist, wird als eine Fläche eingestellt, für die die Korrektur nötig ist (Korrekturfläche). Jede Teilfläche, bei der der durchschnittliche Pixelwert größer als der Helligkeitsschwellenwert ist, wird als eine Fläche eingestellt, für die die Korrektur nicht nötig ist. Obwohl in dem vorliegenden Ausführungsbeispiel ein Verfahren, das eine Segmentierung in Teilflächen zum Zweck des Glättens von Rauschen beschrieben wird, kann für jeden Pixel bestimmt werden, ob die Korrektur nötig ist oder nicht, ohne eine Flächensegmentierung.
  • Der Schritt 26 (S26) ist ein Prozess, in dem die arithmetische Verarbeitungseinheit 4 das Musterprojektionsbild unter Verwendung des Graustufenbilds korrigiert. Das Musterprojektionsbild wird unter Verwendung des Graustufenbilds für die Korrekturflächen, die in Schritt 25 festgelegt wurden, korrigiert. Die Korrektur wird auf der Basis der oben erwähnten Formeln (2) oder (3) durchgeführt.
  • Das Vorhergehende ist eine Beschreibung der Prozedur des Korrekturverarbeitens gemäß dem vorliegenden Ausführungsbeispiel. Mit dem vorliegenden Ausführungsbeispiel ist es für jede Teilfläche außer für die unter nahezu regulären Reflektionsbedingungen möglich, den Fehler aufgrund des Effekts einer Reflektivitätsverteilung, die aus der Feinform der Oberfläche des Zielobjekts stammt, wie in dem ersten Ausführungsbeispiel zu korrigieren, was in einer verbesserten Messpräzision resultiert. Weil ferner die Korrektur basierend auf den oben erwähnten Formeln (2) oder (3) nicht auf jede Teilfläche in dem Zielobjekt unter nahezu regulären Reflektionsbedingungen angewendet wird, ist es möglich, eine Reduktion der Präzision aufgrund der Korrektur zu verhindern. Weil eine Bildkorrektur nicht auf ein Ganzes sondern auf einen Teil der Flächen in dem aufgenommenen Musterprojektionsbild angewendet wird, insbesondere nur auf die Flächen, bei denen eine Verbesserung als ein Ergebnis der Korrektur erwartet werden kann, ist es möglich, die Form des Zielobjekts in ihrer Gesamtheit mit hoher Präzision zu berechnen.
  • Drittes Ausführungsbeispiel
  • Ein drittes Ausführungsbeispiel wird nun erklärt. Der Unterschied zu dem vorhergehenden zweiten Ausführungsbeispiel liegt in der Prozedur des Korrigierens eines Fehlers, der von der Feinform der Oberfläche eines Zielobjekts stammt. Deswegen wird nur der Unterschied hier erklärt. In dem zweiten Ausführungsbeispiel wird basierend auf der Basis der Pixelwerte des Musterprojektionsbildes oder der Pixelwerte des Graustufenbildes die Bestimmung für jede Teilfläche in dem Bild durchgeführt, ob die Korrektur nötig ist oder nicht. In dem vorliegenden Ausführungsbeispiel wird die Bestimmung auf der Basis der groben Orientierung des Zielobjekts, die aus dem Bild vor der Korrektur berechnet wird, durchgeführt.
  • Eine Prozedur gemäß dem vorliegenden Ausführungsbeispiel ist in 12 illustriert. Weil die Schritte 31, 34 und 37 (S31, S34 und S37) dieselben wie die Schritte 21, 24 beziehungsweise 26 des zweiten Ausführungsbeispiels sind, werden sie hier nicht erklärt.
  • Der Schritt 32 (S32) ist ein Prozess, in dem die Daten einer Tabelle, die eine Beziehung zwischen dem Neigungswinkel einer Oberfläche eines Zielobjekts und dem Verhältnis einer Verbesserung einer Präzision als ein Ergebnis der Korrektur eines Fehlers, der von der Feinstruktur der Oberfläche des Zielobjekts stammt, zeigt, erhalten werden. Die Tabelle wird durch Durchführen einer Messung erzeugt, während der Neigungswinkel des Zielobjekts in Bezug auf die Messvorrichtung geneigt wird, und durch Erhalten der Beziehung zwischen dem Neigungswinkel der Oberfläche des Zielobjekts und dem Verhältnis einer Verbesserung einer Präzision als ein Ergebnis der Korrektur des Fehlers, der aus der Feinform stammt, bei dem Teil, bei dem die ungefähre Form des Zielobjekts 5 bekannt ist, erzeugt. Das Verhältnis einer Verbesserung einer Präzision als ein Ergebnis der Korrektur des Fehlers, der von der Feinform der Oberfläche des Zielobjekts stammt, ist, wie in dem zweiten Ausführungsbeispiel, ein Wert, der durch Teilen der Messpräzision nach der Korrektur durch die Messpräzision vor der Korrektur berechnet wird. Gemäß der Beziehung zwischen dem Winkel der Oberfläche des Zielobjekts und der Reflektivität in 10 gibt es im Wesentlichen Linearität in Bezug auf den Einfallswinkel unter Bedingungen, die von den Bedingungen einer regulären Reflektion abweichen, während sie nichtlinear unter Bedingungen nahe den Bedingungen für eine reguläre Reflektion ist und die Formeln (2) und (3) nicht gelten. Unter den Bedingungen einer regulären Reflektion ist der Neigungswinkel der Oberfläche des Zielobjekts 0°. Je größer die Abweichung von den Bedingungen der regulären Reflektion ist, desto größer ist der Neigungswinkel der Oberfläche des Zielobjekts. Deswegen wird der Präzisionsverbesserungseffekt groß sein, wenn der Neigungswinkel der Oberfläche des Zielobjekts größer als ein vorbestimmter Schwellenwert ist, jenseits dessen es keine Linearität zwischen dem Winkel und der Reflektivität gibt. Ein Präzisionsverbesserungseffekt wird nicht groß sein, wenn der Neigungswinkel der Oberfläche des Zielobjekts kleiner als der vorbestimmte Schwellenwert ist.
  • Der Schritt 33 (S33) ist ein Prozess, bei dem ein Schwellenwert einer Orientierung (des Neigungswinkels) zum Bestimmen, ob die Korrektur nötig ist oder nicht aus der Tabelle, die in Schritt S32 vorbereitet wurde, festgelegt wird. Der Orientierungsschwellenwert Θth ist zum Beispiel ein Orientierungswert (der Neigungswinkel), jenseits dessen kein Effekt für eine Verbesserung der Präzision als ein Ergebnis der Korrektur eines Fehlers, der von der Feinform der Oberfläche eines Zielobjekts stammt, erwartet werden kann. Das heißt, es ist ein Orientierungswert, bei dem das Verhältnis der Verbesserung einer Präzision = 1. Es ist ausreichend, wenn die Schritte 32 und 33 einmal für jede Art von Teilen ausgeführt werden, wie in dem ersten Ausführungsbeispiel. Sie können in den zweiten und weiteren Ausführungen in einem Fall von wiederholten Messungen derselben Art von Teilen ausgelassen werden.
  • Der Schritt 35 (S35) ist ein Prozess, bei dem die ungefähre Orientierung des Zielobjekts berechnet wird. In diesem Prozess werden eine Gruppe von Abstandspunkten und Kanten aus dem Musterprojektionsbild und dem Graustufenbild, das in Schritt 34 erhalten wurde, berechnet, und eine Modellanpassung wird auf einem im Vorhinein vorbereiteten CAD Modell des Zielobjekts durchgeführt, wodurch die ungefähre Orientierung (ungefährer Neigungswinkel) des Zielobjekts berechnet wird. Die ungefähre Orientierung des Zielobjekts wird als eine im Voraus erhaltene Information über die Form des Zielobjekts verwendet. Der Schritt 36 (S36) ist ein Prozess, bei dem unter Verwendung der im Voraus erhaltenen Information über die Form des Zielobjekts für jede Teilfläche in dem Musterprojektionsbild bestimmt wird, ob die Korrektur nötig ist oder nicht. In diesem Prozess wird die Orientierung (der Neigungswinkel), der in dem Schritt 35 für jeden Pixel des Musterprojektionsbildes erhalten wird, mit dem Orientierungsschwellenwert verglichen, der in dem Schritt 33 festgelegt wurde. In dem Musterprojektionsbild wird jede Teilfläche, bei der die ungefähre Orientierung, die in S35 berechnet wird, größer als der Schwellenwert ist, als eine Fläche eingestellt, für die die Korrektur nötig ist (Korrekturfläche), und jede Teilfläche, bei der die ungefähre Orientierung, die in S35 berechnet wird, kleiner als der Schwellenwert ist, wird als eine Fläche eingestellt, für die die Korrektur nicht nötig ist.
  • Mit dem oben beschriebenen Ausführungsbeispiel ist es wie in dem zweiten Ausführungsbeispiel möglich, einen Messfehler, der von der Feinform der Oberfläche eines Zielobjekts stammt, mit hoher Präzision zu korrigieren, wobei eine Abnahme einer Präzision in dem Nahezu-regulären-Reflektionsgebiet verhindert wird.
  • Viertes Ausführungsbeispiel
  • Ein viertes Ausführungsbeispiel wird nun erklärt. Der Unterschied zu dem vorhergehenden ersten Ausführungsbeispiel liegt in der Graustufenbildbeleuchtungseinheit 2. Daher wird nur dieser Unterschied hier erklärt. In dem ersten Ausführungsbeispiel beleuchtet die Graustufenbildbeleuchtungseinheit 2 das Zielobjekt 5 durch direktes Licht, das von den Lichtquellen 7 kommt. In der vorhergehenden Struktur haben die Charakteristiken der Lichtquellen 7 einen signifikanten Einfluss auf die Charakteristik des Lichts zum Beleuchten des Zielobjekts 5 (Wellenlänge, Polarisation, Helligkeit, Lichtverteilungscharakteristiken).
  • Im Hinblick darauf, wird eine Diffusionsplatte 15 (Diffusionsbauteil) für eine optische Diffusion in dem vorliegenden Ausführungsbeispiel bereitgestellt, wie in 13 illustriert. Die Diffusionsplatte 15 ist zum Beispiel eine matte Glasplatte. 13 ist eine schematische Ansicht einer Messvorrichtung 200 gemäß dem vorliegenden Ausführungsbeispiel. Die gleichen Bezugszeichen sind den gleichen Bauteilen wie denen der Messvorrichtung 100, die in 1 illustriert ist, zugeordnet, um eine redundante Beschreibung zu vermeiden. In der Messvorrichtung 200 können die Lichtquellen 7 entweder symmetrisch oder asymmetrisch in Bezug auf die optische Achse des optischen Projektionssystems 10 angebracht sein. Das Licht, das von den Lichtquellen 7 in der Graustufenbildbeleuchtungseinheit 2 emittiert wird, wird an der Diffusionsplatte 15 in verschiedenen Richtungen diffundiert. Deswegen ist das Licht, das von der Diffusionsplatte 15 kommt, ähnlich einem kontinuierlichen Umfangsemissionsquellenlicht um die optische Achse des optischen Projektionssystems 10, das Musterlicht projiziert. Zusätzlich ist es möglich, eine Wellenlänge, Polarisation, Helligkeit, und Lichtverteilungscharakteristiken um die optische Achse des optischen Projektionssystems 10 kontinuierlich gleichzumachen. Deswegen ist es möglich, das Zielobjekt 5 von zwei Richtungen, die zueinander symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems 10 sind, zu beleuchten. γ sei der Winkel, der durch das Licht zum Beleuchten des Zielobjekts 5 und der optischen Achse des optischen Projektionssystems 10 gebildet wird. Mit dieser Definition gilt in einem Gebiet, in dem die Winkelcharakteristiken der Reflektivität im Wesentlichen linear sind, die ungefähre Gleichung (1). Deswegen sind eine lokale Reflektivitätsverteilung (Lichtintensitätsverteilung) für ein Musterprojektionsbild und eine lokale Reflektivitätsverteilung für ein Graustufenbild im Wesentlichen gleich zueinander. Durch Durchführen einer Bildkorrektur unter Verwendung der oben erwähnten Formeln (2) oder (3), ist es möglich, einen Fehler aufgrund der Effekte einer Reflektivitätsverteilung des Zielobjekts zu korrigieren.
  • Mit dem oben beschriebenen Ausführungsbeispiel ist es, wie in dem ersten Ausführungsbeispiel, möglich, einen Messfehler aufgrund der Effekte einer Reflektivitätsverteilung auf der Oberfläche eines Zielobjekts mit hoher Präzision selbst in einem Fall zu korrigieren, bei dem sich die relative Position des Zielobjekts und der Abbildungseinheit ändert.
  • Obwohl beispielhafte Ausführungsbeispiele oben beschrieben wurden, ist der Bereich der Erfindung nicht auf die beispielhaften Ausführungsbeispiele beschränkt. Er kann in verschiedenen Weisen innerhalb eines Bereichs modifiziert werden, der nicht von dem Wesentlichen der Erfindung abweicht. Zum Beispiel kann, obwohl in den vorliegenden Ausführungsbeispielen zwei Bildsensoren 13 und 14 zum Abbilden bereitgestellt sind, ein einzelner Sensor stattdessen bereitgestellt werden, der in der Lage ist, ein Abstandsbild und ein Graustufenbild zu erhalten. In solch einem Fall ist das Wellenlängenteilungselement 12 unnötig. Die vorhergehenden Ausführungsbeispiele können miteinander kombiniert werden. Obwohl das durch die Lichtquelle 6 und die Lichtquellen 7 emittierte Licht als nichtpolarisiertes Licht erklärt wurde, ist der Bereich der Erfindung nicht darauf beschränkt. Es kann linear polarisiertes Licht der gleichen Polarisationsrichtung sein. Es kann polarisiertes Licht sein, solange der Polarisationszustand derselbe ist. Die mehreren Lichtemitter können mechanisch durch ein Kopplungsbauteil, ein Stützbauteil oder ähnliches gekoppelt sein. Eine einzelne ringförmige Lichtquelle kann anstelle der mehreren Lichtquellen 7 angewendet werden. Die offenbarte Messvorrichtung kann auf eine Messvorrichtung angewendet werden, die eine Messung unter Verwendung einer Vielzahl von Roboterarmen mit Abbildungseinrichtungen durchführt, oder eine Messvorrichtung mit einer Abbildungseinheit, die auf einem fixierten Trägerbauteil bereitgestellt ist. Die Messvorrichtung kann auf einer fixierten Struktur und nicht auf einem Roboterarm montiert sein. Unter der Verwendung von Daten über die Form eines Zielobjekts, das durch die offenbarte Messvorrichtung gemessen wird, kann das Objekt verarbeitet werden, zum Beispiel maschinell bearbeitet, deformiert, oder zusammengesetzt werden, um einen Artikel, zum Beispiel ein optisches Teil oder eine Einrichtungseinheit, herzustellen.
  • Vorteile
  • Mit einigen Aspekten der Erfindung ist es selbst in einem Fall, in dem eine relative Position eines Zielobjekts und einer Abbildungseinheit sich ändert, möglich, einen Messfehler, der von der Oberflächenrauheit des Zielobjekts stammt, zu reduzieren, wodurch die Form des Zielobjekts mit hoher Präzision gemessen wird.
  • Während die vorliegende Erfindung mit Bezug auf beispielhafte Ausführungsbeispiele beschrieben wurde, versteht es sich, dass die Erfindung nicht auf die offenbarten beispielhaften Ausführungsbeispiele beschränkt ist. Dem Bereich der folgenden Patentansprüche ist die breiteste Interpretation zuzugestehen, sodass er alle solche Modifikationen und äquivalenten Strukturen und Funktionen umfasst.
  • Diese Anmeldung beansprucht den Nutzen der japanischen Patentanmeldung Nr. 2015-138158 , die am 9. Juli 2015 eingereicht wurde, und die hiermit durch Bezugnahme in Gänze einbezogen wird.

Claims (35)

  1. Messvorrichtung zum Messen einer Form eines Zielobjekts mit: einem optischen Projektionssystem, das konfiguriert ist, Musterlicht auf das Zielobjekt zu projizieren; einer Beleuchtungseinheit, die konfiguriert ist, das Zielobjekt zu beleuchten; einer Abbildungseinheit, die konfiguriert ist, das Zielobjekt, auf das das Musterlicht durch das optische Projektionssystem projiziert wird, abzubilden, wodurch ein erstes Bild des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht aufgenommen wird; und einer Verarbeitungseinheit, die konfiguriert ist, eine Information über die Form des Zielobjekts zu erhalten, wobei die Beleuchtungseinheit mehrere Lichtemitter enthält, die um eine optische Achse des optischen Projektionssystems symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems angebracht sind, wobei die Abbildungseinheit das Zielobjekt, das durch die mehreren Lichtemitter beleuchtet wird, abbildet, um ein zweites Bild durch Licht, das von den mehreren Lichtemittern emittiert und durch das Zielobjekt reflektiert wird, zu erhalten, wobei die Verarbeitungseinheit das erste Bild unter Verwendung des zweiten Bildes des Zielobjekts korrigiert und die Information über die Form des Zielobjekts auf der Basis des korrigierten Bildes erhält.
  2. Messvorrichtung zum Messen einer Form eines Zielobjekts mit: einem optischen Projektionssystem, das konfiguriert ist, Musterlicht auf das Zielobjekt zu projizieren; einer Beleuchtungseinheit, die konfiguriert ist, das Zielobjekt zu beleuchten; einer Abbildungseinheit, die konfiguriert ist, das Zielobjekt, auf das das Musterlicht, das durch das optische Projektionssystem projiziert wird, abzubilden, um dadurch ein erstes Bild des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht aufzunehmen; und einer Verarbeitungseinheit, die konfiguriert ist, eine Information über die Form des Zielobjekts zu erhalten, wobei die Beleuchtungseinheit enthält: mehrere Lichtemitter, die um eine optische Achse des optischen Projektionssystems angebracht sind, und ein Diffusionsbauteil, das konfiguriert ist, das Licht, das von den mehreren Lichtemittern emittiert wird, zu diffundieren, wobei die Abbildungseinheit das Zielobjekt, das durch Licht von dem Diffusionsbauteil beleuchtet wird, abbildet, um ein zweites Bild durch Licht, das von dem Diffusionsbauteil emittiert wird und durch das Zielobjekt reflektiert wird, aufzunehmen, wobei die Verarbeitungseinheit das erste Bild unter Verwendung eines zweiten Bildes des Zielobjekts korrigiert und die Information über die Form des Zielobjekts auf der Basis des korrigierten Bildes erhält.
  3. Messvorrichtung nach Anspruch 1, wobei die mehreren Lichtemitter Produkte derselben Modellnummer sind.
  4. Messvorrichtung nach Anspruch 2, wobei die mehreren Lichtemitter Produkte derselben Modellnummer sind.
  5. Messvorrichtung nach Anspruch 1, wobei die mehreren Lichtemitter dieselben Charakteristiken einer Wellenlänge, Polarisation, Helligkeit und Lichtverteilung haben.
  6. Messvorrichtung nach Anspruch 2, wobei die mehreren Lichtemitter dieselben Charakteristiken einer Wellenlänge, Polarisation, Helligkeit und Lichtverteilung haben.
  7. Messvorrichtung nach Anspruch 1, wobei die Verarbeitungseinheit einen Teil von mehreren Teilflächen des ersten Bildes korrigiert.
  8. Messvorrichtung nach Anspruch 2, wobei die Verarbeitungseinheit einen Teil von mehreren Teilflächen des ersten Bildes korrigiert.
  9. Messvorrichtung nach Anspruch 7, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes unter Verwendung eines Pixelwerts von entweder dem ersten Bild oder dem zweiten Bild oder beiden bestimmt, ob eine Korrektur nötig ist oder nicht.
  10. Messvorrichtung nach Anspruch 8 wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes unter Verwendung eines Pixelwerts von entweder dem ersten Bild oder dem zweiten Bild oder beiden bestimmt, ob eine Korrektur nötig ist oder nicht.
  11. Messvorrichtung nach Anspruch 9, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes durch Vergleichen des Pixelwerts in jeder der Teilflächen von entweder dem ersten Bild oder dem zweiten Bild oder beiden mit einem vorbestimmten Schwellenwert bestimmt, ob die Korrektur nötig ist oder nicht.
  12. Messvorrichtung nach Anspruch 10, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes durch Vergleichen des Pixelwerts in jeder der Teilflächen von entweder dem ersten Bild oder dem zweiten Bild oder beiden mit einem vorbestimmten Schwellenwert bestimmt, ob die Korrektur nötig ist oder nicht.
  13. Messvorrichtung nach Anspruch 7, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes unter Verwendung einer Information, die im Voraus über die Form des Zielobjekts erhalten wurde bestimmt, ob die Korrektur nötig ist oder nicht.
  14. Messvorrichtung nach Anspruch 8, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes unter Verwendung einer Information, die im Voraus über die Form des Zielobjekts erhalten wurde bestimmt, ob die Korrektur nötig ist oder nicht.
  15. Messvorrichtung nach Anspruch 13, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes durch Vergleichen eines Neigungswinkels in jedem Gebiet in der Form des Zielobjekts, wobei die Information darüber im Voraus erhalten wurde, mit einem vorbestimmten Schwellenwert bestimmt, ob die Korrektur nötig ist oder nicht.
  16. Messvorrichtung nach Anspruch 14, wobei die Verarbeitungseinheit für jede der Teilflächen des ersten Bildes durch Vergleichen eines Neigungswinkels in jedem Gebiet in der Form des Zielobjekts, wobei die Information darüber im Voraus erhalten wurde, mit einem vorbestimmten Schwellenwert bestimmt, ob die Korrektur nötig ist oder nicht.
  17. Messvorrichtung nach Anspruch 1, wobei die Abbildungseinheit enthält: eine erste Abbildungseinheit, die konfiguriert ist, das erste Bild des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht aufzunehmen, und eine zweite Abbildungseinheit, die konfiguriert ist, das zweite Bild des Zielobjekts durch Licht, das von den mehreren Lichtemittern emittiert und durch das Zielobjekt reflektiert wird, aufzunehmen, und wobei die erste Abbildungseinheit und die zweite Abbildungseinheit das Zielobjekt, das durch die Beleuchtungseinheit beleuchtet wird, abbilden, während das Musterlicht auf das Zielobjekt projiziert wird.
  18. Messvorrichtung nach Anspruch 2, wobei die Abbildungseinheit enthält: eine erste Abbildungseinheit, die konfiguriert ist, das erste Bild des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht aufzunehmen, und eine zweite Abbildungseinheit, die konfiguriert ist, das zweite Bild des Zielobjekts durch Licht, das von den mehreren Lichtemittern emittiert und durch das Zielobjekt reflektiert wird, aufzunehmen, und wobei die erste Abbildungseinheit und die zweite Abbildungseinheit das Zielobjekt, das durch die Beleuchtungseinheit beleuchtet wird, abbilden, während das Musterlicht auf das Zielobjekt projiziert wird.
  19. Messvorrichtung nach Anspruch 1, wobei die Abbildungseinheit ein Abbilden des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht und ein Abbilden des Zielobjekts durch Licht, das von der Beleuchtungseinheit emittiert wird und das Zielobjekt reflektiert wird, synchron miteinander durchführt.
  20. Messvorrichtung nach Anspruch 2, wobei die Abbildungseinheit ein Abbilden des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht und ein Abbilden des Zielobjekts durch Licht, das von der Beleuchtungseinheit emittiert wird und das Zielobjekt reflektiert wird, synchron miteinander durchführt.
  21. Messvorrichtung nach Anspruch 1, wobei ein Polarisationszustand des Musterlichts derselbe wie ein Polarisationszustand des Lichts von der Beleuchtungseinheit ist.
  22. Messvorrichtung nach Anspruch 2, wobei ein Polarisationszustand des Musterlichts derselbe wie ein Polarisationszustand des Lichts von der Beleuchtungseinheit ist.
  23. Messvorrichtung nach Anspruch 1, wobei eine Wellenlänge des Musterlichts verschieden von einer Wellenlänge des Lichts von der Beleuchtungseinheit ist.
  24. Messvorrichtung nach Anspruch 2, wobei eine Wellenlänge des Musterlichts verschieden von einer Wellenlänge des Lichts von der Beleuchtungseinheit ist.
  25. Messvorrichtung nach Anspruch 17, ferner mit: einem Wellenlängenteilungselement, wobei eine Wellenlänge des Musterlichts verschieden von einer Wellenlänge des Lichts, das von der Beleuchtungseinheit kommt, ist, wobei das Licht, das durch das Zielobjekt reflektiert wird, eine Wellenlängenteilung durch das Wellenlängenteilungselement erfährt, und wobei das Wellenlängenteilungselement Licht der Wellenlänge des Musterlichts hin zu der ersten Abbildungseinheit führt und Licht der Wellenlänge des Lichts, das von der Beleuchtungseinheit kommt, hin zu der zweiten Abbildungseinheit führt.
  26. Messvorrichtung nach Anspruch 18, ferner mit: einem Wellenlängenteilungselement, wobei eine Wellenlänge des Musterlichts verschieden von einer Wellenlänge des Lichts, das von der Beleuchtungseinheit kommt, ist, wobei das Licht, das durch das Zielobjekt reflektiert wird, eine Wellenlängenteilung durch das Wellenlängenteilungselement erfährt, und wobei das Wellenlängenteilungselement Licht der Wellenlänge des Musterlichts hin zu der ersten Abbildungseinheit führt und Licht der Wellenlänge des Lichts, das von der Beleuchtungseinheit kommt, hin zu der zweiten Abbildungseinheit führt.
  27. Messvorrichtung zum Messen einer Form eines Zielobjekts mit: einem optischen Projektionssystem, das konfiguriert ist, ein Musterlicht auf das Zielobjekt zu projizieren; einer Beleuchtungseinheit, die konfiguriert ist, das Zielobjekt zu beleuchten; einer Abbildungseinheit, die konfiguriert ist, das Zielobjekt, auf das das Musterlicht durch das optische Projektionssystem projiziert wird, abzubilden, um dadurch ein erstes Bild des Zielobjekts durch das durch das Zielobjekt reflektierte Musterlicht aufzunehmen; und einer Verarbeitungseinheit, die konfiguriert ist, eine Information über die Form des Zielobjekts zu erhalten, wobei die Beleuchtungseinheit konfiguriert ist, das Zielobjekt von zwei Richtungen mit einer optischen Achse des optischen Projektionssystems dazwischen zu beleuchten, wobei die Abbildungseinheit das Zielobjekt, das von den zwei Richtungen durch die Beleuchtungseinheit beleuchtet wird, abbildet, um ein zweites Bild durch Licht, das von der Beleuchtungseinheit emittiert und das Zielobjekt reflektiert wird, zu erhalten, wobei die Verarbeitungseinheit das erste Bild unter Verwendung des zweiten Bildes des Zielobjekts korrigiert und die Information über die Form des Zielobjekts auf der Basis des korrigierten Bildes erhält.
  28. Messvorrichtung nach Anspruch 27, wobei die Beleuchtungseinheit mehrere Lichtemitter enthält, die um die optische Achse des optischen Projektionssystems symmetrisch mit Bezug auf die optische Achse des optischen Projektionssystems angeordnet sind.
  29. Messvorrichtung nach Anspruch 27, wobei die Beleuchtungseinheit mehrere Lichtemitter, die um die optische Achse des optischen Projektionssystems angebracht sind, und ein Diffusionsbauteil, das konfiguriert ist, das Licht, das von den mehreren Lichtemittern emittiert wird, zu diffundieren, enthält.
  30. System zum Greifen und Bewegen eines physikalischen Objekts, mit: der Messvorrichtung nach Anspruch 1, die konfiguriert ist, eine Form eines Objekts zu messen; einer Greifeinheit, die konfiguriert ist, das Objekt zu greifen; und einer Steuerungseinheit, die konfiguriert ist, die Greifeinheit unter Verwendung eines Messergebnisses des Objekts durch die Messvorrichtung zu steuern.
  31. System zum Greifen und Bewegen eines physikalischen Objekts, mit: der Messvorrichtung nach Anspruch 2, die konfiguriert ist, eine Form eines Objekts zu messen; einer Greifeinheit, die konfiguriert ist, das Objekt zu greifen; und einer Steuerungseinheit, die konfiguriert ist, die Greifeinheit unter Verwendung eines Messergebnisses des Objekts durch die Messvorrichtung zu steuern.
  32. System zum Greifen und Bewegen eines physikalischen Objekts, mit: der Messvorrichtung nach Anspruch 27, die konfiguriert ist, eine Form eines Objekts zu messen; einer Greifeinheit, die konfiguriert ist, das Objekt zu greifen; und einer Steuerungseinheit, die konfiguriert ist, die Greifeinheit unter Verwendung eines Messergebnisses des Objekts durch die Messvorrichtung zu steuern.
  33. Verfahren zum Herstellen eines Artikels mit: einem Schritt des Messens einer Form eines Zielobjekts unter Verwendung der Messvorrichtung nach Anspruch 1; und einem Schritt des Verarbeitens des Zielobjekts unter Verwendung eines Messergebnisses des Zielobjekts durch die Messvorrichtung, um dadurch den Artikel herzustellen.
  34. Verfahren zum Herstellen eines Artikels mit: einem Schritt des Messens einer Form eines Zielobjekts unter Verwendung der Messvorrichtung nach Anspruch 2; und einem Schritt des Verarbeitens des Zielobjekts unter Verwendung eines Messergebnisses des Zielobjekts durch die Messvorrichtung, um dadurch den Artikel herzustellen.
  35. Verfahren zum Herstellen eines Artikels mit: einem Schritt des Messens einer Form eines Zielobjekts unter Verwendung der Messvorrichtung nach Anspruch 27; und einem Schritt des Verarbeitens des Zielobjekts unter Verwendung eines Messergebnisses des Zielobjekts durch die Messvorrichtung, um dadurch den Artikel herzustellen.
DE112016003107.6T 2015-07-09 2016-06-29 Messvorrichtung zum messen der form eines zielobjekts, system und herstellungsverfahren Withdrawn DE112016003107T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015-138158 2015-07-09
JP2015138158A JP6532325B2 (ja) 2015-07-09 2015-07-09 被計測物の形状を計測する計測装置
PCT/JP2016/003121 WO2017006544A1 (en) 2015-07-09 2016-06-29 Measurement apparatus for measuring shape of target object, system and manufacturing method

Publications (1)

Publication Number Publication Date
DE112016003107T5 true DE112016003107T5 (de) 2018-04-12

Family

ID=57684977

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016003107.6T Withdrawn DE112016003107T5 (de) 2015-07-09 2016-06-29 Messvorrichtung zum messen der form eines zielobjekts, system und herstellungsverfahren

Country Status (5)

Country Link
US (1) US20180195858A1 (de)
JP (1) JP6532325B2 (de)
CN (1) CN107850423A (de)
DE (1) DE112016003107T5 (de)
WO (1) WO2017006544A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018168757A1 (ja) * 2017-03-13 2020-01-09 キヤノン株式会社 画像処理装置、システム、画像処理方法、物品の製造方法、プログラム
US10726569B2 (en) * 2017-05-16 2020-07-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN107678038A (zh) * 2017-09-27 2018-02-09 上海有个机器人有限公司 机器人防碰撞方法、机器人以及存储介质
JP2020021105A (ja) * 2018-07-30 2020-02-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10883823B2 (en) * 2018-10-18 2021-01-05 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
JP7231433B2 (ja) * 2019-02-15 2023-03-01 株式会社キーエンス 画像処理装置
CN109959346A (zh) * 2019-04-18 2019-07-02 苏州临点三维科技有限公司 一种非接触式三维测量系统
CN112114322A (zh) * 2019-06-21 2020-12-22 广州印芯半导体技术有限公司 飞时测距装置及飞时测距方法
JP2021079468A (ja) * 2019-11-15 2021-05-27 川崎重工業株式会社 制御装置、制御システム、ロボットシステム及び制御方法
CN111750781B (zh) * 2020-08-04 2022-02-08 润江智能科技(苏州)有限公司 一种基于ccd的自动测试系统及其方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289505A (ja) * 1990-04-06 1991-12-19 Nippondenso Co Ltd 3次元形状測定装置
US5461417A (en) * 1993-02-16 1995-10-24 Northeast Robotics, Inc. Continuous diffuse illumination method and apparatus
JP3289505B2 (ja) * 1994-08-11 2002-06-10 アラコ株式会社 車両用シートのリクライニング装置
US6107637A (en) * 1997-08-11 2000-08-22 Hitachi, Ltd. Electron beam exposure or system inspection or measurement apparatus and its method and height detection apparatus
EP1213569B1 (de) * 2000-12-08 2006-05-17 Gretag-Macbeth AG Vorrichtung zur bildelementweisen Ausmessung eines flächigen Messobjekts
KR20100015475A (ko) * 2007-04-05 2010-02-12 가부시키가이샤 니콘 형상 측정 장치 및 형상 측정 방법
JP5014003B2 (ja) * 2007-07-12 2012-08-29 キヤノン株式会社 検査装置および方法
EP2396686A1 (de) * 2009-02-13 2011-12-21 Excelitas Technologies LED Solutions, Inc. Led-beleuchtungseinrichtung
TWI426296B (zh) * 2009-06-19 2014-02-11 Ind Tech Res Inst 利用光學偏極特性之三維顯微共焦量測系統與方法
DE102010030859B4 (de) * 2009-07-03 2019-01-24 Koh Young Technology Inc. Verfahren zum Untersuchen eines auf einem Substrat montierten Messobjektes
EP2508871A4 (de) * 2009-11-30 2017-05-10 Nikon Corporation Prüfvorrichtung, messverfahren für eine dreidimensionale form und herstellungsverfahren für eine struktur
EP2577733A1 (de) * 2010-05-27 2013-04-10 Osram Sylvania Inc. Leuchtdiodenlichtquelle mit ausschliesslich aus nitrid bestehenden leuchtdioden
CN103575234B (zh) * 2012-07-20 2016-08-24 德律科技股份有限公司 三维影像测量装置
JP5900806B2 (ja) * 2014-08-08 2016-04-06 ウシオ電機株式会社 光源装置およびプロジェクタ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019000097B4 (de) * 2018-10-15 2020-12-17 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11045948B2 (en) 2018-10-15 2021-06-29 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method
DE112019001256B3 (de) 2018-10-15 2022-08-18 Mujin, Inc. Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
US11839977B2 (en) 2018-10-15 2023-12-12 Mujin, Inc. Control apparatus, work robot, non-transitory computer-readable medium, and control method

Also Published As

Publication number Publication date
WO2017006544A1 (en) 2017-01-12
JP6532325B2 (ja) 2019-06-19
CN107850423A (zh) 2018-03-27
JP2017020874A (ja) 2017-01-26
US20180195858A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
DE112016003107T5 (de) Messvorrichtung zum messen der form eines zielobjekts, system und herstellungsverfahren
DE112013002321B4 (de) Bildverarbeitungsvorrichtung, Verfahren zum Steuern derselben, Programm und Prüfsystem
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE102015113051B4 (de) Messvorrichtung, Leiterplattenprüfvorrichtung und Verfahren zu deren Steuerung
DE102017001366A1 (de) Geometrie-messsystem, geometrie-messapparat und geometrie-messverfahren
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
CN106091986B (zh) 一种适用于光亮表面的三维测量方法
DE202016008925U1 (de) Dreidimensionale Formmessvorrichtung
DE102013014475B4 (de) Verfahren zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung, optisches Messverfahren und optische Messvorrichtung
DE102015116047A1 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
EP2865987B1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102009018464B4 (de) Optischer Sensor
CN112848281B (zh) 一种光固化3d打印机光补偿方法
CN112634375B (zh) 一种ai智能检测中的平面标定和三维重建方法
EP3711289A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
JP6074284B2 (ja) 帯状ゴム部材の形状測定方法及び形状測定装置
DE102019201193A1 (de) Verfahren zur Detektion von topografischen Fehlern auf Oberflächen eines Bauteils
EP3049757B1 (de) Fahrwerksvermessung bei umgebungslicht
JP2019120644A (ja) 表面検査装置、及び表面検査方法
DE102016116323A1 (de) Messgerät
DE102021121121A1 (de) Vorrichtung zur Ermittlung geometrischer Eigenschaften einer Oberfläche mittels polarisierten Lichts
EP3433669A1 (de) Verfahren und vorrichtung zur ermittlung von 3d-koordinaten zumindest eines vorbestimmten punktes eines objekts
EP3172528B1 (de) Verfahren zur kalibrierung eines lichtprojektors mit einer optischen korrektur
DE102018101995B3 (de) 6Vorrichtung zur Messung nach dem Lichtschnitt-Triangulationsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee