DE102006059132B4 - Dreidimensionales Bildmessverfahren - Google Patents

Dreidimensionales Bildmessverfahren Download PDF

Info

Publication number
DE102006059132B4
DE102006059132B4 DE102006059132A DE102006059132A DE102006059132B4 DE 102006059132 B4 DE102006059132 B4 DE 102006059132B4 DE 102006059132 A DE102006059132 A DE 102006059132A DE 102006059132 A DE102006059132 A DE 102006059132A DE 102006059132 B4 DE102006059132 B4 DE 102006059132B4
Authority
DE
Germany
Prior art keywords
light
filter
image
examination subject
examination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102006059132A
Other languages
English (en)
Other versions
DE102006059132A1 (de
Inventor
Kwang III Koh
Eun Hyoung Seong
Moon Young Jeon
Min Young Kim
Seung Jun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koh Young Technology Inc
Original Assignee
Koh Young Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020050123409A external-priority patent/KR100612932B1/ko
Priority claimed from KR1020050123412A external-priority patent/KR100612933B1/ko
Application filed by Koh Young Technology Inc filed Critical Koh Young Technology Inc
Publication of DE102006059132A1 publication Critical patent/DE102006059132A1/de
Application granted granted Critical
Publication of DE102006059132B4 publication Critical patent/DE102006059132B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird eine dreidimensionales (3D) Bildmessverfahren bereitgestellt, das ein Licht zu einer Oberfläche und einer anderen Oberfläche eines Messobjekts unter Verwendung einer Vielzahl von Leuchten und Filtern strahlen und somit einen Schattenbereich, der auftreten kann, wenn ein 3D-Bild gemessen wird, entfernen können. Die zugehörige 3D-Messvorrichtung umfasst einen XY-Tisch, einen Projektionsteil, der eine erste Leuchte und eine zweite Leuchte, die ein Licht erzeugen, eine Vielzahl von Projektionslinsen, die auf einer Oberfläche der ersten Leuchte beziehungsweise der zweiten Leuchte installiert sind, eine Gitterplatte, die zwischen den ersten und zweiten Leuchten und der Vielzahl der Projektionslinsen vorgesehen und mit einer Vielzahl von Gittern ausgebildet ist, und ein Projektionsteilbewegungsinstrument, das die Gitterplatte in eine vertikale Richtung zu einer Ausstrahlungsrichtung des von den ersten und zweiten Leuchten erzeugten Lichts bewegt, umfasst; einen Lichtpfadkonverter, der eine Vielzahl von Spiegeln, die auf einer Oberfläche des Projektionsteils vorgesehen und in vorbestimmten Intervallen voneinander beabstandet sind, ein erstes Filter und ein zweites Filter, die jeweiehen sind und die optischen Eigenschaften eines Lichts, das durch die Vielzahl der Spiegel hindurch gelaufen ist, einstellen und filtern, und eine dritte Leuchte, die zwischen dem ersten Filter und dem zweiten Filter angeordnet ist, um das Licht auf ein Untersuchungsobjekt hin zu strahlen, umfasst; und einen Bilderzeugungsteil, der ein drittes Filter, eine Abbildungslinse, die in einem oberen Teil des dritten Filters vorgesehen ist, um das Licht, das durch das dritte Filter hindurch gegangen ist, abzubilden, und eine Kamera, die in einem oberen Teil der Abbildungslinse vorgesehen ist, um ein Bild aufzunehmen, das durch die Abbildungslinse hindurch gegangen ist, umfasst.

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein dreidimensionales (3D) Bildmessverfahren und spezieller auf ein Verfahren, bei dem ein Licht auf eine Oberfläche und eine andere Oberfläche eines Messobjekts unter Verwendung einer Vielzahl von Leuchten und Filtern ausgesendet wird und somit ein Schattengebiet entfernt werden kann, das beim Messen eines 3D-Bildes auftreten kann.
  • Die DE 41 42 676 A1 lehrt ein Verfahren und eine Vorrichtung zur Vermessung von Objekten mittels projizierter Streifenmuster. Dies wird mittels einer Lichtquelle, einem Kollektor, einem Streifengitter, Umlenkprismen, eines Projektionsobjektives und eines Messkopfes realisiert. Das Gitter ist dabei verschiebbar gelagert. Dadurch lassen sich Objekte mittels auf das Messobjekt projizierter Streifenmuster optisch vermessen.
  • Die EP 0 379 079 A1 lehrt ebenfalls ein Verfahren und eine Vorrichtung zur Vermessung der Oberfläche eines Objektes mittels Projektion von Streifenmustern. Ein Objekt wird dabei mit einem Lichtbündel mit variierender Helligkeitsverteilung beleuchtet. Die Phasen der Helligkeitsverteilung werden moduliert und die Helligkeitswerte gespeichert. Die gespeicherten Daten werden zur Ermittlung von absoluten Höhen von zu vermessenden Objektpunkten ausgewertet.
  • Der Aufsatz von O. A. Skydan et al.: ”Technique for phase measurement and surface reconstruction by use of colored structured light”, Applied Optics, Vol. 41, No. 29, October 10, 2002, Seiten 6104–6117 offenbart ein Verfahren zur Messung und Oberflächen-Rekonstruktion unter Zuhilfenahme von farbigem Licht. Es werden dabei Masken genutzt, die auf 2-D-Daten basieren. Nach Beleuchtung mit Licht unterschiedlicher Farben werden die dadurch vermessenen Oberflächen miteinander rechnerisch kombiniert, um eine resultierende Oberfläche zu erhalten. Dabei werden die 2-D-Informationen der Masken ausgenutzt.
  • Die US 2002/0014577A1 offenbart eine dreidimensionale Bildmessvorrichtung mit einem Tisch, einem Projektionsteil und mehreren Leuchten, sowie mit einer Vielzahl von Projektionslinsen und einem Gitter sowie einem Lichtpfadkonverter und einem Bilderzeugungsteil. Mit dieser Vorrichtung lässt sich mittels zwei Projektoren eine Gitterprojektion auf das zu untersuchende Objekt sowie eine Gitterbewegung und eine Objektbewegung zur Durchführung eines 3-D-Bildmessverfahrens durchführen.
  • Nachfolgend wird eine konventionelle 3D-Bildmessvorrichtung unter Bezug auf 1 beschrieben.
  • Die 3D-Bildmessvorrichtung, die in 1 gezeigt ist, umfasst eine Projektionsvorrichtung 10, eine Bilderzeugungsvorrichtung 20, eine Steuervorrichtung 30 und eine Versatzmessvorrichtung 40. Jede Konfiguration davon wird beschrieben.
  • Zunächst umfasst die Projektionsvorrichtung 10 ein (nicht dargestelltes) Gitter, und ein Licht, das von der Projektionsvorrichtung 10 erzeugt wird, geht durch das Gitter hindurch und wird zu einer Oberfläche eines Messobjekts O projiziert. Wenn das Licht in einem gitterförmigen Muster auf eine Oberfläche des Messobjekts O gestrahlt wird, nimmt die Bilderzeugungsvorrichtung 20 davon ein Bild auf. Insbesondere nimmt die Bilderzeugungsvorrichtung 20 das Bild auf, das durch das projizierte Licht auf dem Messobjekt O ausgebildet wird, und überträgt das aufgenommene Bild an die Steuervorrichtung 30. Die Versatzmessvorrichtung 40 misst einen Versatz einer Distanz von der Bilderzeugungsvorrichtung 20 zum Messobjekts 0 und überträgt den gemessenen Versatz an die Steuervorrichtung 30. Die Steuervorrichtung 30 berechnet eine Versatzdistanz von der Bilderzeugungsvorrichtung 20 zum Messobjekt O unter Verwendung der übertragenen Versatzinformation von der Versatzmessvorrichtung 40, berechnet eine Höhe unter Verwendung des übertragenen Bildes von der Bilderzeugungsvorrichtung 20 und misst das 3D-Bild des Messobjekts O unter Verwendung der berechneten Höheninformation.
  • Wie oben beschrieben wurde, erfasst die konventionelle 3D-Bildmessvorrichtung ein Bild durch das Projizieren des Lichts auf nur eine Oberfläche eines Messobjekts und kann somit das Messobjekt durch einen Schatten, der auf einer anderen Oberfläche des Messobjekts ausgebildet wird, nicht präzise messen.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung wurde entwickelt, um die oben beschriebenen Probleme des Stands der Technik zu lösen, und somit liefert die vorliegende Erfindung ein 3D-Bildmessverfahren, das einen Schattenbereich durch das Aussenden eines Lichts in einem gitterförmigen Muster zu beiden Oberflächen eines Untersuchungsobjekts entfernen kann, ein transformiertes Bild durch das Untersuchungsobjekt erfasst und somit ein 3D-Bild misst.
  • Die vorliegende Erfindung liefert auch ein Verfahren, das die optischen Eigenschaften eines Lichts durch die Verwendung einer Vielzahl von Filtern ändern und somit ein präziseres Bild erfassen kann. Eine dazu geeignete 3D-Bildmessvorrichtung kann durch das Anwenden eines Lichtpfadkonverters auf die 3D-Bildmessvorrichtung kompakter konstruiert werden.
  • Kurze Beschreibung der Zeichnungen
  • Die obige Aufgabe und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung einer bevorzugten Ausführungsform in Verbindung mit den begleitenden Zeichnungen deutlich.
  • 1 ist ein Diagramm, das eine konventionelle 3D-Bildmessvorrichtung zeigt;
  • 2 ist eine perspektivische Ansicht, die eine 3D-Bildmessvorrichtung zur Durchführung der vorliegenden Erfindung zeigt;
  • 3 ist eine vergrößerte perspektivische Ansicht, die einen in 2 dargestellten XY-Tisch zeigt;
  • 4 ist eine perspektivische Ansicht, die einen in 2 dargestellten Projektionsteil zeigt;
  • 5 ist eine perspektivische Ansicht, die einen in 2 dargestellten Lichtpfadkonverter zeigt;
  • 6 ist eine perspektivische Ansicht, die ein anderes Beispiel des in 5 dargestellten Lichtpfadkonverters zeigt;
  • 7 ist eine perspektivische Ansicht, die einen in 2 dargestellten Bilderzeugungsteil zeigt;
  • 8 ist eine perspektivische Ansicht, die ein anderes Beispiel des in 7 dargestellten Bilderzeugungsteils zeigt;
  • 9 ist ein Blockdiagramm, das eine Konfiguration einer Vielzahl von Steuerteilen zeigt, die die in 2 dargestellte 3D-Bildmessvorrichtung steuern; und
  • 10 ist ein Blockdiagramm, das ein anderes Beispiel der in 9 dargestellten Vielzahl von Steuerteilen zeigt.
  • Detaillierte Beschreibung der Erfindung
  • Zur Durchführung des erfindungsgemäßen Verfahrens wird eine dreidimensionale (3D) Bilderzeugungsvorichtung bereitgestellt, die umfasst: einen XY-Tisch, der ein Basiselement aufweist, das mit einer Vielzahl von Identifikationsmarkierungen versehen ist; ein Projektionsteil, das eine erste Leuchte und eine zweite Leuchte, die ein Licht erzeugen, eine Vielzahl von Projektionslinsen, die auf einer Oberfläche der ersten Leuchte beziehungsweise der zweiten Leuchte installiert sind, eine Gitterplatte, die zwischen den ersten und zweiten Leuchten und der Vielzahl von Projektionslinsen vorgesehen und mit einer Vielzahl von Gittern ausgebildet ist, und ein Projektionsteilbewegungsinstrument, das die Gitterplatte in eine vertikale Richtung zu einer Ausstrahlungsrichtung des von den ersten und zweiten Leuchten erzeugten Lichts bewegt, umfasst; einen Lichtpfadkonverter, der eine Vielzahl von Spiegeln, die auf einer Oberfläche des Projektionsteils vorgesehen und in vorbestimmten Intervallen voneinander beabstandet sind, ein erstes Filter und ein zweites Filter, die jeweils in einem unteren Teil der Spiegel vorgesehen sind und die optischen Eigenschaften eines Lichts, das durch die Vielzahl der Spiegel hindurch gelaufen ist, einstellen und filtern, und eine dritte Leuchte, die zwischen dem ersten Filter und dem zweiten Filter angeordnet ist, um das Licht auf ein Untersuchungsobjekt hin zu strahlen, umfasst; und einen Bilderzeugungsteil, der ein drittes Filter, eine Abbildungslinse, die in einem oberen Teil des dritten Filters vorgesehen ist, um das Licht, das durch das dritte Filter hindurch gegangen ist, abzubilden, und eine Kamera, die in einem oberen Teil der Abbildungslinse vorgesehen ist, um ein Bild aufzunehmen, das durch die Abbildungslinse hindurch gegangen ist, umfasst.
  • Gemäß der vorliegenden Erfindung wird ein 3D-Bildmessverfahren bereitgestellt, umfassend: Aufbringen eines Lichts auf ein Untersuchungsobjekt mittels eines Beleuchtungsteils, und Aufnahme eines Bildes mittels einer Kamera, um einen Untersuchungsbereich des Untersuchungsobjektes zu bestimmen, Erfassen einer ersten Referenzphase und einer zweiten Referenzphase mittels eines Projektionsteils; wobei das Erfassen der ersten und zweiten Referenzphasen umfasst:
    Positionieren eines Basiselements; Projizieren eines ersten Lichts zum Basiselement über ein erstes Gitter und eine erste Projektionslinse mit einer vorbestimmten Anzahl von n Malen; Aufnehmen von ersten Bildern, die vom Basiselement über die Kamera mit Bezug zum ersten Licht reflektiert werden, während ein Gitterbewegungsstellglied eine vorbestimmte Zahl von Malen bewegt wird; Projizieren eines zweiten Lichts zum Basiselement über ein zweites Gitter und eine zweite Projektionslinse mit einer vorbestimmten Anzahl von n Malen; Aufnehmen von zweiten Bildern, die vom Basiselement über die Kamera mit Bezug zum zweiten Licht reflektiert werden, während ein Gitterbewegungsstellglied eine vorbestimmte Zahl von Malen bewegt wird; und Erfassung der ersten Referenzphase und der zweiten Referenzphase des Untersuchungsobjektes unter jeweils der Verwendung der ersten Bilder und der zweiten Bilder; Positionieren des Untersuchungsobjekts; Bewegung des Untersuchungsobjektes, wobei jedes mal, wenn das Untersuchungsobjekt bewegt wird,
    ein erstes Lichts zum Untersuchungsobjekt über ein erstes Gitter und eine erste Projektionslinse mit einer vorbestimmten Anzahl von n Malen projiziert wird, zum Aufnehmen von weiteren ersten Bildern, die vom Untersuchungsobjekt reflektiert werden, über die Kamera; und ein zweites Licht in Richtung des Untersuchungsobjektes über ein zweites Gitter und eine zweite Projektionslinse mit einer vorbestimmten Anzahl von n Malen projiziert wird; zum Aufnehmen von weiteren zweiten Bildern, die vom Untersuchungsobjekt reflektiert werden, über die Kamera; Messen einer ersten Phase und einer zweiten Phase des Untersuchungsobjekts unter Verwendung der jeweils aufgenommenen weiteren ersten und weiteren zweiten Bilder; Erfassen einer ersten 3D-Information des Untersuchungsobjekts unter Verwendung einer Differenz zwischen der ersten Referenzphase und der ersten Phase; Erfassen einer zweiten 3D-Information des Untersuchungsobjekts unter Verwendung einer Differenz zwischen der zweiten Referenzphase und der zweiten Phase; Berechnen eines 2D-Bildes in Bezug auf das Untersuchungsobjekt unter Verwendung eines mittleren Grauwertes jedes Bildpunktes der Kamera jedes der weiteren ersten Bilder, Ermitteln eines Schattenbereiches und eines hellen Bereiches unter Verwendung der berechneten 2D-Bilder; Erfassung einer endgültigen 3D-Information des Untersuchungsobjekts, wobei die endgültige 3D-Information des Untersuchungsobjekts als zweite 3D-Information des Untersuchungsobjekts in Bezug auf die zweite Leuchte erfasst wird, wenn die 3D-Information des Untersuchungsobjekts in Bezug auf die erste Leuchte dem Schattenbereich entspricht.
  • Nachfolgend werden Ausführungsformen der vorliegenden Erfindung unter Bezug auf die begleitenden Zeichnungen beschrieben.
  • 2 ist eine perspektivische Ansicht, die eine 3D-Bildmessvorrichtung zur Ausführung der vorliegenden Erfindung zeigt. Wie in 2 gezeigt ist, umfasst die Bildmessvorrichtung einen XY-Tisch 100, einen Projektionsteil 200, einen Lichtpfadkonverter 300, einen Bilderzeugungsteil 400, einen ersten Steuerteil 500 und einen zweiten Steuerteil 600 (siehe 9 und 10).
  • Wie in 3 gezeigt ist, umfasst der XY-Tisch 100 ein Basiselement 100 auf einer oberen Oberfläche. Eine erste Identifikationsmarkierung 112 und eine zweite Identifikationsmarkierung 114 sind auf einer oberen Fläche des Basiselements 100 ausgebildet. Es wird auch ein Untersuchungsobjekt 120 für eine 3D-Untersuchung in einem Zentrum des Basiselements 110 platziert. Weiterhin ist der XY-Tisch 100 so konstruiert, dass er sich in einer XY-Richtung durch einen ersten Motor 130 und einen zweiten Motor 140, die auf einer Seite beziehungsweise einer anderen Seite des XY-Tisches 100 installiert sind, bewegen kann.
  • Wie in 4 gezeigt ist, umfasst der Projektionsteil 200 eine erste Leuchte 210 und eine zweite Leuchte 212, die das Licht ausstrahlen. In diesem Fall sind die erste Leuchte 210 und die zweite Leuchte in einer vorbestimmten Distanz voneinander beabstandet. Auch sind ein erster Kondensor 220 und ein zweiter Kondensor 222 auf einer Oberfläche der ersten Leuchte 210 beziehungsweise der zweiten Leuchte 212 vorgesehen. In diesem Fall werden die erste Leuchte 210 und die zweite Leuchte 212 so gesteuert, dass sie durch eine Gitterbewegung und eine Lichtsteuervorrichtung 270 ausgewählt an und aus geschaltet werden. Es sind auch eine erste Projektionslinse 260 und eine zweite Projektionslinse 262 auf einer Oberfläche der ersten Leuchte 210 und der zweiten Leuchte 212 vorgesehen, und eine Gitterplatte 234 ist zwischen den ersten und zweiten Leuchten 210 und 212 und den ersten und zweiten Projektionslinsen 260 und 262 vorgesehen. In diesem Fall ist die Gitterplatte 234 mit einem ersten Gitter 230 und einem zweiten Gitter 232 versehen, wobei diese in einer Längsrichtung der Gitterplatte 234 in einem vorbestimmten Intervall voneinander beabstandet sind. Es ist auch ein Projektionsteilbewegungsinstrument auf einer Oberfläche der Gitterplatte 234, die das erste Gitter 230 und das zweite Gitter 232 einschließt, installiert.
  • Das Projektionsteilbewegungsinstrument umfasst eine Projektionsteillinearbewegungs-(LM)-Führung 240, die auf einer Oberfläche der Gitterplatte 234 installiert ist, eine Projektionsteil-LM-Schiene 242, die die Projektionsteil-LM-Führung 240 aufnimmt, und ein Gitterbewegungsstellglied 250, das in der Projektionsteil-LM-Führung 240 installiert ist, um die Projektionsteil-LM-Führung 240 zu bewegen. In diesem Fall wird das Gitterbewegungsstellglied 250 gemäß einer Steuerung der Gitterbewegungs- und Leuchtensteuervorrichtung 270 angetrieben. Auch die Projektionsteil-LM-Führung 240 bewegt sich in eine vorbestimmte Richtung (auf und ab) entlang der Projektionsteil-LM-Schiene 242 und bewegt somit die Gitterplatte 234. Insbesondere bewegt sich die Gitterplatte 234, da sie mit der Projektionsteil-LM-Führung 240 verbunden ist, in die vorbestimmte Richtung gemäß der Bewegung der Projektionsteil-LM-Führung 240.
  • Auch ist ein Rückkoppelungssensor 256 auf einer Oberfläche des Gitterbewegungsstellglieds 250 installiert, um eine Bewegungsposition des ersten Gitters 230 und des zweiten Gitters 232 zu erkennen. In diesem Fall umfassen repräsentative Beispiele des Rückkoppelungssensors 256 einen Dehnungsmesssensor, der einen unterschiedlichen Widerstandswert in Abhängigkeit vom Dehnen und Schrumpfen eines Materials aufweist, oder einen elektrostatischen Kapazitätssensor, der eine Differenz einer konzentrierten elektrischen Ladungsmenge gemäß einem Distanzintervall bestimmt.
  • Wie in 5 gezeigt ist, ist der Lichtpfadkonverter 300 auf einer Oberfläche des Projektionsteils 200 vorgesehen, um den Pfad des Lichts, das vom Projektionsteil 200 projiziert wird, zu konvertieren. In diesem Fall umfasst der Lichtpfadkonverter 300 einen ersten Spiegel 310 und einen zweiten Spiegel 312, die in einem vorbestimmten Intervall voneinander entfernt sind, um das Licht von der ersten Projektionslinse 260 und der zweiten Projektionslinse 262 zu reflektieren. Der erste Spiegel 310 und der zweite Spiegel 312 sind auch so installiert, dass sie zu einer horizontalen Richtung geneigt sind, und dass sie wünschenswerterweise in einem Winkel Von 45° geneigt sind. In Abhängigkeit von den Umständen können der erste Spiegel 310 und der zweite Spiegel 312 in einem unterschiedlichen Neigungswinkel installiert sein.
  • Das Licht, das durch den ersten Spiegel 310 und den zweiten Spiegel 312 hindurch gegangen ist, geht durch einen dritten Spiegel 320 und einen vierten Spiegel 322 hindurch, wodurch der Lichtpfad geändert wird. Somit wird das Licht, dessen Pfad geändert wurde, zum Untersuchungsobjekt 120 über ein erstes Filter 330 und ein zweites Filter 332 projiziert. Das erste Filter 330 und das zweite Filter 332 sind in einem unteren Teil eines dritten Spiegels 320 und eines vierten Spiegels 322 vorgesehen, filtern das Licht, das durch das erste Gitter 230 und das zweite Gitter 232 hindurch gegangen ist, und strahlen dann das gefilterte Licht zum Basiselement 110 oder strahlen das gefilterte Licht N-mal der Reihe nach zu einer Oberfläche und einer anderen Oberfläche des Untersuchungsobjekts 120. In diesem Fall sind der dritte Spiegel 320 und der vierte Spiegel 322 so installiert, dass sie gegen eine vertikale Richtung geneigt sind. In Abhängigkeit von der Forderung eines Benutzers kann der Neigungswinkel in einem Bereich von ungefähr 20° bis ungefähr 80° festgelegt werden.
  • Das erste Filter 330 und das zweite Filter 332 ändern die optischen Eigenschaften des Lichts, das zum Untersuchungsobjekt 120 gestrahlt wird, und sie verwenden somit ein Frequenzfilter, ein Farbfilter, ein Polarisationsfilter oder ein optisches Stärkeneinstellfilter (optical strength adjustment filter).
  • In diesem Fall verwendet das Frequenzfilter ein Ultraviolettstrahlen-Entfernungsfilter für das Entfernen einer Wellenlänge von weniger als 400 nm, und ein Infrarotstrahlen-Entfernungsfilter für das Entfernen einer Wellenlänge von weniger als 700 nm. Auch verwendet das Farbfilter ein Rotfilter, ein Grünfilter und ein Blaufilter, um dem hindurch tretenden Licht ein spezielles Frequenzband in einem sichtbaren Bereich zu verleihen. Wenn beispielsweise eine gedruckte Leiterplatte (PCB) untersucht wird, werden gewöhnlicherweise ein Rotfilter und ein Grünfilter, die einer Hintergrundfarbe der PCB entsprechen, verwendet. Insbesondere wird das Grünfilter für die PCB in Reihe mit einer roten Farbe verwendet, und das Rotfilter wird für die PCB in Reihe mit einer grünen Farbe verwendet. Auch das optische Stärkeneinstellfilter wird verwendet, um den Bereich der optischen Stärke in einem Bereich von ungefähr 50% bis 100% einzustellen, und es verwendet auch ein Neutraldichtefilter. Das Polarisationsfilter verwendet ein lineares Polarisationsfilter, um Effekte zu dämpfen, bei denen einfallendes Licht vom Untersuchungsobjekt 120 reflektiert und im Bilderzeugungsteil 400 abgebildet wird.
  • Das Licht, das zum Basiselement 110 oder dem Untersuchungsobjekt 20 gestrahlt wird, bildet ein Bild durch ein Gittermuster, das durch das Untersuchungsobjekt 10 transformiert wird. Das transformierte Gittermusterbild läuft durch die dritte Leuchte 340 in Form eines O-Rings hindurch. In diesem Fall sind eine Vielzahl von Leuchtdioden (LED) 342 in der dritten Leuchte 340 in vorbestimmten Intervallen voneinander entfernt vorgesehen. Es ist auch, wie in 6 gezeigt, eine Strahlaufspaltungsvorrichtung 360 über der dritten Leuchte 340, das heißt zwischen dem ersten Spiegel 310 und dem zweiten Spiegel 312 vorgesehen. Eine vierte Leuchte 350 ist weiter auf einer Seitenfläche der Strahlaufspaltungsvorrichtung 360 vorgesehen.
  • Die dritte Leuchte 340 entspricht einem indirekten Licht, das in Bezug auf eine optische Achse der Kamera 240 des Bilderzeugungsteils 400 geneigt ist und somit zu einem Objekt gestrahlt wird. Wenn somit die dritte Leuchte 340 verwendet wird, wenn die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 die Eigenschaft einer streuend reflektierenden Metalloberfläche besitzen, können die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 wirksam erkannt werden, wenn die erste und die zweite Identifikationsmarkierung 112 und 114 über die Kamera 420 betrachtet werden. Im Gegensatz dazu entspricht die vierte Leuchte 350 einen direkten Licht, das zu einem Objekt über die optische Achse und eine dynamische Achse der Kamera 420 gestrahlt wird. Wenn somit die vierte Leuchte 350 verwendet wird, wenn die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 die Eigenschaft einer reflektierenden Spiegelmetalloberfläche aufweisen, können die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 wirksam erkannt werden, wenn die ersten und die zweiten Identifikationsmarkierungen 112 und 114 über die Kamera 420 betrachtet werden.
  • Das Licht, das von der dritten Leuchte 320 erzeugt wird, wird zum Untersuchungsobjekt 120 mit einem vergleichsweise großen Neigungswinkel gestrahlt und dann auf der Oberfläche des Untersuchungsobjekts 120 reflektiert und in den Bilderzeugungsteil 400 eingegeben. Auch das Licht, das von der vierten Leuchte 350 erzeugt wird, erhält die optische Achse und die dynamische Achse des Bilderzeugungsteils 400 über die Strahlaufspaltvorrichtung 360. Das erzeugte Licht wird zum Untersuchungsobjekt 120 mit einem vergleichsweise schmalen Einfallswinkel gestrahlt und dann auf der Oberfläche des Untersuchungsobjekts 120 reflektiert und in den Bilderzeugungsteil 400 eingegeben. In diesem Fall kann der Einfallswinkel der dritten Leuchte 340 bei ungefähr 2° bis 35° liegen. Auch der Einfallswinkel der vierten Leuchte kann innerhalb von 10° liegen. In der vorliegenden Ausführungsform verwendet der Einfallswinkel der dritten Leuchte den Bereich von 5° bis 20°, und der Einfallswinkel der vierten Leuchte 350 verwendet einen Bereich innerhalb von 5°.
  • Die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 reflektieren verhältnismäßig gut das einfallende Licht und können klassifiziert werden in einen Typ mit der Eigenschaft einer hoch streuenden reflektierenden Metalloberfläche und einen Typ mit der Eigenschaft einer hoch spiegelnden Metalloberfläche gemäß dem Verarbeitungszustand der Oberfläche. In diesem Fall können die erste Identifikationsmarkierung 112 und die zweite Identifikationsmarkierung 114 aus einem Metallmaterial gemacht werden, dass die Eigenschaft aufweist, dass es Licht reflektiert statt Licht zu absorbieren, und sie können eine unterschiedliche Lichtreflexionseigenschaft in Abhängigkeit von der Oberflächenrauhigkeit der ersten und zweiten Identifikationsmarkierungen 112 und 114 aufweisen, wobei diese durch ein Ätzverfahren erzielt wird.
  • Im Fall einer größeren Oberflächenrauhigkeit wird das einfallende Licht auf der Metalloberfläche mehrere Male reflektiert, und dann wird das reflektierte Licht in verschiedene Richtungen gerichtet, unabhängig von der Richtung des einfallenden Lichts. Die oben beschriebene Eigenschaft wird als Metalloberfläche mit einer streuenden Reflexionseigenschaft bezeichnet. Im Gegensatz dazu erfährt im Fall einer minimalen Oberflächenrauhigkeit das einfallende Licht eine Reflexion an einer Spiegeloberfläche, wodurch ein Winkel, der aus einer vertikalen Normalen des einfallenden Lichts und der Oberfläche besteht, und des reflektierenden Lichts so ausgebildet ist, dass er identisch ist, und somit wird das einfallende Licht auf der Oberfläche reflektiert. Die oben beschriebene Eigenschaft wird als Metalloberfläche mit einer Spiegelflächeneigenschaft bezeichnet.
  • Wie in 7 gezeigt ist, ist im Bilderzeugungsteil 400 eine Abbildungslinse 410 unten an der Kamera 420 vorgesehen, und ein drittes Filter 402 ist unter der Abbildungslinse 410 vorgesehen. Somit wird im Bilderzeugungsteil 400 das transformierte Bild durch das dritte Filter 402 durch die Kamera 420 über die Abbildungslinse 410 aufgenommen. Das dritte Filter 402 dient zum Ändern der optischen Eigenschaften des Lichts, das vom Untersuchungsobjekt 410 reflektiert und in den Bilderzeugungsteil 400 eingegeben wird. Hier bezeichnet ”Ändern der optischen Eigenschaften des Lichts” einen Vorgang des Hindurchführens des Lichts durch das Begrenzen des Frequenzbereichs des Lichts, das durch ein entsprechendes Filter hindurch geht, Einstellen der optischen Stärke, Begrenzen der Polarisationsrichtung des Lichts oder Ändern der Polarisationseigenschaft des Lichts. Auch das dritte Filter 402 verwendet ein Frequenzfilter, ein Farbfilter, ein Polarisationsfilter oder ein optischen Stärkeeinstellungsfilter und dergleichen.
  • Gemäß einer nochmals anderen Ausführungsform, wie sie in 8 gezeigt ist, können die Abbildungslinse 410 und die Kamera 420 des Bilderzeugungsteils 400 beweglich vorgesehen sein. Insbesondere sind die Abbildungslinse 410 und die Kamera 420 an einem ersten Bilderzeugungsteilträgerelement 412 beziehungsweise einem zweiten Bilderzeugungsteilträgerelement 422 vorgesehen. Die ersten und zweiten Bilderzeugungsteilträgerelemente 412 und 422 sind in einer ersten Bilderzeugungsteil-LM-Führung 414 beziehungsweise einer zweiten Bilderzeugungsteil-LM-Führung 424 angeordnet. Ein dritter Motor 440 und ein vierter Motor 450 sind auf einer Oberfläche der ersten beziehungsweise zweiten Bilderzeugungsteil-LM-Führung 414 beziehungsweise 424 angeordnet. In diesem Fall sind die erste und die zweite Bilderzeugungsteil-LM-Führungen 414 beziehungsweise 424 auf einer Bilderzeugungsteil-LM-Schiene 430 angeordnet. Somit können die Abbildungslinse 410 und die Kamera 420 in eine vorbestimmte Position gemäß einer Operation des dritten Motors 440 und des vierten Motors 450 bewegt werden, und somit kann der Bilderzeugungsteil 400 eine Zoom-Funktion ausführen. In diesem Fall ist es wünschenswert, dass ein Filter, wie es oben beschrieben ist, für das dritte Filter 402 verwendet wird.
  • Eine Konfiguration einer Vielzahl von Steuerteilen 500, 550, 600 und 650, die allgemein einen Betrieb einer 3D-Bildmessvorrichtung zur Ausführung der vorliegenden Erfindung, die in der oben beschriebenen Weise konstruiert ist, steuern, wird unter Bezug auf die 9 und 10 beschrieben.
  • 9 zeigt eine Konfiguration einer Vielzahl von Steuerteilen 500, 550, 600 und 650, wenn der dritte Motor 440 und der vierte Motor 450 am Bilderzeugungsteil 400 nicht vorgesehen sind, und wenn die vierte Leuchte 350 am Lichtpfadkonverter 300 in der 3D-Bildmessvorrichtung gemäß einer Ausführungsform der beschriebenen Vorrichtung nicht vorgesehen ist. Auch 10 zeigt eine Konfiguration der Vielzahl von Steuerteilen 500, 550, 600 und 650, wenn der dritte Motor 440 und der vierte Motor 450 am Bilderzeugungsteil 400 vorgesehen sind, und die vierte Leuchte 350 am Lichtpfadkonverter 300 in der 3D-Bildmessvorrichtung gemäß einer anderen Ausführungsform der beschriebenen Vorrichtung vorgesehen ist. Die Konfiguration der Vielzahl von Steuerteilen 500, 550, 600 und 650 wird beschrieben.
  • Wie in den 9 und 10 gezeigt ist, umfasst die Vielzahl der Steuerteile 500, 550, 600 und 650 allgemein einen ersten Steuerteil 500, einen zweiten Steuerteil 600 und einen ersten Hilfssteuerteil 550 und einen zweiten Hilfssteuerteil 650.
  • Der erste Hilfssteuerteil 550 ist mit dem Projektionsteil 200 und dem Lichtpfadkonverter 300 verbunden, um jeweils das Gitterbewegungsstellglied 250 der Projektionsteils 200 anzusteuern und ausgewählt jede der ersten bis vierten Leuchten 210, 212, 340 und 350 an und aus zu schalten. Der zweite Hilfssteuerteil 650 ist mit dem XY-Tisch 100 verbunden, um den ersten Motor 130 und den zweiten Motor 140 des XY-Tisches 100 anzusteuern. Wenn das Bilderzeugungsteilbewegungsinstrument am Bilderzeugungsteil 400 vorgesehen ist, stellt der zweite Hilfssteuerteil 650 auch ein Intervall zwischen der Abbildungslinse 410 und der Kamera 420 ein oder er stellt eine Vergrößerung für die Zoom-Funktion ein, durch das Steuern des dritten Motors 440 und des vierten Motors 450, die die ersten und zweiten Bilderzeugungsteil-LM-Führungen 412 und 424 bewegen und somit die Abbildungslinse 410 und die Kamera 420 bewegen. Der zweite Steuerteil 600 ist auch mit dem zweiten Hilfssteuerteil 650 verbunden, um diesen zu steuern, und der erste Steuerteil 500 ist mit dem ersten Hilfssteuerteil 550 und dem zweiten Steuerteil 600 verbunden, um diese zu steuern.
  • Nachfolgend wird hier die Konfiguration der Vielzahl von Steuerteilen 500, 550, 600 und 650, die die oben beschriebenen Verbindungen aufweisen, beschrieben.
  • Der erste Steuerteil 500 umfasst eine Bildaufnahmekarte (Grabber) 280, eine serielle Kommunikationsvorrichtung 520 und eine erste zentrale Steuervorrichtung 530.
  • Die serielle Kommunikationsvorrichtung 520 ist für eine serielle Kommunikation mit dem ersten Hilfssteuerteil 550 vorgesehen und gibt somit ein erstes Hauptsteuersignal MAIN1_S an die Gitterbewegungs- und Leuchtensteuervorrichtung 270 und empfängt ein Positionssignal POS_S, das von der Gitterbewegungs- und Leuchtensteuervorrichtung 270 ausgegeben wird, und gibt das empfangene Positionssignal POS_S aus. Auch die erste zentrale Steuervorrichtung 530 empfängt das Positionssignal POS_S, das von der seriellen Kommunikationsvorrichtung 520 ausgegeben wird.
  • Wenn das Positionssignal POS_S empfangen wird, berechnet die erste zentrale Steuervorrichtung 530 eine Bewegungsposition der Gitterplatte 234 des Projektionsteils 200 unter Verwendung des empfangenen Positionssignals POS_S. Wenn eine Lichthelligkeit, ein Gitterbewegungsintervall und dergleichen festgelegt wird, erzeugt die erste zentrale Steuervorrichtung 530 das erste Hauptsteuersignal MAIN1_S, um ausgewählt die Gitterplatte 234, die das erste Gitter 230 und das zweite Gitter 232 einschließt, die auf dem Projektionsteil 200 vorgesehen sind, und den Lichtpfadkonverter 300, und die ersten bis dritten Leuchten 210, 212 und 340 oder die vierte Leuchte 350 zu steuern, und gibt das erzeugte erste Hauptsteuersignal MAIN1_S aus. Auch die erste zentrale Steuervorrichtung 530 erzeugt ein zweites Hauptsteuersignal MAIN2_S, um mindestens zwei der ersten bis vierten Motoren 130, 140, 440 und 450 zu aktivieren, und gibt das erzeugte zweite Hauptsteuersignal MAIN2_S aus.
  • Die Bildaufnahmekarte 280 ist mit dem Bilderzeugungsteil 400 verbunden und empfängt somit ein Bild, das vom Bilderzeugungsteil 400 ausgegeben wird, wandelt ein analoges Signal in ein digitales Signal, gibt das digitale Signal aus und erzeugt ein Leuchtenaktivierungssignal ENN, um ausgewählt die ersten bis vierten Leuchten 210, 212, 340 und 350 an und aus zu schalten. Wenn ein Triggersignal von der Gitterbewegungs- und Leuchtensteuervorrichtung 270 empfangen wird, steuert die Bildaufnahmekarte 280 den Bilderzeugungsteil, um ein Bild aufzunehmen und gibt das aufgenommene Bild an die erste zentrale Steuervorrichtung 530. Wenn das Bild von der Bildaufnahmekarte 280 empfangen wird, berechnet die erste zentrale Steuervorrichtung 530 eine Phase des Basiselements 110 oder des Untersuchungsobjekts 120 durch das Verwenden des empfangenen Bilds und sie berechnet auch eine 3D-Information des Untersuchungsobjekts 120 unter Verwendung der berechneten Phase.
  • Der erste Hilfssteuerteil 550, der das erste Hauptsteuersignal MAIN1_S empfängt, das vom ersten Steuerteil 500 ausgegeben wird, enthält eine Gitterbewegungsansteuerung 252 und die Gitterbewegungs- und Leuchtensteuervorrichtung 270.
  • Die Gitterbewegungsansteuerung 252 empfängt ein Bewegungssteuersignal MOVC_S, erzeugt ein Bewegungsansteuersignal MOVD_S, steuert somit das Gitterbewegungsstellglied 250 des Projektionsteils 200 an und empfängt das Positionssignal POS_S, das vom Rückkoppelungssensor 250 ausgegeben wird, und gibt das empfangene Positionssignal POS_S aus. Wenn das Positionssignal POS_S von der Gitterbewegungsansteuerung 252 empfangen wird, empfängt die Gitterbewegungs- und Leuchtensteuervorrichtung 270 das empfangene Positionssignal POS_S und überträgt dasselbe an die serielle Kommunikationsvorrichtung 520. Auch die Gitterbewegungs- und Leuchtensteuervorrichtung 270, die das Positionssignal POS_S überträgt, empfängt das erste Hauptsteuersignal MAIN1_S, erzeugt ein Bewegungssteuersignal MOVC_S und gibt das erzeugte Bewegungssteuersignal MOVC_S an die Gitterbewegungsansteuerung 252. Auch die Gitterbewegungs- und Leuchtensteuervorrichtung 270 empfängt das Lichtaktivierungssignal EEN, das von der Bildaufnahmekarte 28 ausgegeben wird, und schaltet somit ausgewählt die erste Leuchte 210 und die zweite Leuchte 212 des Projektionsteils 200 an oder aus oder schaltet ausgewählt die dritte Leuchte 340 und die vierte Leuchte 350 des Lichtpfadkonverters 300 an oder aus. Wenn mindestens eine der ersten bis vierten Leuchten 210, 212, 340 und 350 durch ein ausgewähltes Anschalten ausgewählt angeschaltet wird, wird ein Triggersignal erzeugt und an die Bildaufnahmekarte 280 ausgegeben. Wenn das Triggersignal empfangen wird, steuert die Bildaufnahmekarte 280 die Kamera 420 des Bilderzeugungsteils 400, um das Aufnehmen eines Bildes zu starten.
  • Der XY-Tisch 100 muss angesteuert werden, so dass die Kamera 420 das Basiselement 110 oder das Untersuchungsobjekt 120 messen kann. Der zweite Steuerteil 600 ist vorgesehen, um den XY-Tisch 100 zu steuern. Der zweite Steuerteil 600 kann sich mit dem ersten Steuerteil 500 unter Verwendung eines seriellen oder parallelen Kommunikationsprotokolls oder eines Übertragungssteuerprotokolls/Internet-Protokolls (TCP/IP) verbinden, und umfasst eine Motorsteuervorrichtung 610 und eine zweite zentrale Steuervorrichtung 630.
  • Die Motorsteuervorrichtung 610 empfängt die Motorrotationsinformation, erzeugt das Bewegungssteuersignal MOVC_S und gibt das erzeugte Bewegungssteuersignal MOVC_S an die ersten bis vierten Motoransteuerungen 132, 142, 442 und 452 aus. Auch die Motorsteuervorrichtung 610 empfängt das Positionssignal POS_S, das von jeder der ersten bis vierten Motoransteuerungen 132, 142, 442 und 452 ausgegeben wird, und gibt das empfangene Positionssignal POS_S aus. Eine zweite zentrale Steuervorrichtung 630 empfängt das Positionssignal POS_S, das von der Motorsteuervorrichtung 610 ausgegeben wird, und berechnet dadurch die Bewegungsposition des XY-Tisches 100, der vom ersten Motor 130 und dem zweiten Motor 140 zu bewegen ist, oder berechnet die Bewegungsposition der Abbildungslinse 410 und der Kamera 420 des Bilderzeugungsteil 400, die vom dritten Motor 440 und dem vierten Motor 450 zu bewegen sind. Auch die zweite zentrale Steuervorrichtung 630 empfängt ein zweites Hauptsteuersignal MAIN2_S, das von der ersten zentralen Steuervorrichtung 530 ausgegeben wird, und erzeugt Motorrotationsinformation und gibt diese aus, um den XY-Tisch 100 und die Abbildungslinse 410 und die Kamera 420 des Bilderzeugungsteils 400 zu bewegen.
  • Wie in 9 gezeigt ist, umfasst der zweite Hilfsteil 640, der das Bewegungssteuersignal MOVC_S, das von der Motorsteuervorrichtung 610 ausgegeben wird, empfängt, die erste Motoransteuerung 132 und die zweite Motoransteuerung 142. Insbesondere die ersten und zweiten Motoransteuerungen 132 und 142 empfangen das Bewegungssteuersignal MOVC_S und steuern die ersten und zweiten Motoren 130 beziehungsweise 140 des XY-Tisches 100 an. Auch die ersten und zweiten Motoransteuerungen 132 und 142 empfangen das Positionssignal POS_S, das an einen (nicht gezeigten) Kodiersensor ausgegeben wird, der in jedem der ersten und zweiten Motoren 130 und 140 installiert ist, und gibt das empfangene Positionssignal POS_S an die Motorsteuervorrichtung 610 aus.
  • Gemäß einer anderen Ausführungsform der beschriebenen Vorrichtung, wie sie in 10 gezeigt ist, umfasst der zweite Hilfssteuerteil 650 die ersten bis vierten Motoransteuerungen 132, 142, 442 und 452. In diesem Fall funktionieren die ersten und zweiten Motoransteuerungen 132 und 142 wie die ersten und zweiten Motoransteuerungen 132 und 142, die in 9 gezeigt sind. Auch die dritten und vierten Motoransteuerungen 442 und 452 empfangen das Positionssignal POS_S, das von jedem der dritten und vierten Motoren 440 und 450 ausgegeben wird, und geben das empfangene Positionssignal POS_S an die Motorsteuervorrichtung 610 aus. Die dritten und vierten Motoransteuerungen 442 und 452 empfangen das Bewegungssteuersignal MOVC_S, das von der Motorsteuervorrichtung 610 ausgegeben wird, und steuern somit die dritten und vierten Motoren 440 und 450 des Bilderzeugungsteils 400 an und stellen die Position der Abbildungslinse 410 und der Kamera 420 des Bilderzeugungsteils 400 ein, um die Vergrößerung der Kamera 420 für die Zoom-Funktion zu steuern.
  • Nachfolgend wird ein Verfahren zum Messen eines 3D-Bildes unter Verwendung der 3D-Bildmessvorrichtung, die in der oben beschriebenen Art konstruiert ist, beschrieben.
  • Zu Beginn ist das Basiselement 100 in einem Untersuchungsbereich I des XY-Tisches positioniert. Wenn das Basiselement 100 im Untersuchungsbereich I positioniert ist, wird die erste Leuchte 210 in einer Position, einem Winkel und mit einer Helligkeit, die von der Gitterbewegungs- und Leuchtensteuervorrichtung 270 vorbestimmt wird, angeschaltet. Wenn die erste Leuchte 210 angeschaltet ist, und ein Licht von der ersten Leuchte 210 erzeugt wird, wird das erzeugte Licht zum Basiselement 100 über das erste Gitter 230 und die erste Projektionslinse 260 des Projektionsteils 200 und den ersten Spiegel 310, den dritten Spiegel 320 und das erste Filter 330 der Lichtpfadkonverters 300 projiziert.
  • Als nächstes wird, wenn das Licht zum Basiselement 100 projiziert wird, ein Bild aufgenommen, während das Gitterbewegungsstellglied 250 eine vorbestimmte Anzahl von Malen bewegt wird. Wenn das Bild aufgenommen ist, wird eine Referenzphase in Bezug auf die erste Leuchte 210 unter Verwendung eines Bucket-Algorithmus erfasst. Während die Referenzphase in Bezug auf die erste Leuchte 210 erfasst wird, wird eine Referenzphase in Bezug auf die zweite Leuchte 212 durch das Einschalten des zweiten Lichts 212 und unter Verwendung des zweiten Gitters 232 und der zweiten Projektionslinse 262 des Projektionsteils 200 und des zweiten Spiegels 312, des vierten Spiegels 322 und des zweiten Filters 32 des Lichtpfadkonverters 300 erfasst.
  • Wenn die Referenzphase in Bezug auf die erste Leuchte 210 und die zweite Leuchte 212 erfasst wurde, wird das Untersuchungsobjekt 120 in einem vorbestimmten Teil des Basiselements 100 positioniert. Wenn das Untersuchungsobjekt 120 auf dem Basiselement 100 positioniert ist, wird das Untersuchungsobjekt durch das Anschalten der dritten Leuchte 340 und/oder der vierten Leuchte 350 auf eine Helligkeit, die von der Gitterbewegungs- und Leuchtensteuervorrichtung 270 vorbestimmt ist, und somit dem Messen einer Position der ersten Identifikationsmarkierung 112 und der zweiten Identifikationsmarkierung 114, das Prüfen einer Position des Untersuchungsobjekts 120 und das Begrenzen des Untersuchungsbereichs gemessen.
  • Wenn die Position des Untersuchungsobjekts geprüft ist, wird das Untersuchungsobjekt unter Verwendung des ersten Motors 130 und des zweiten Motors 140 bewegt. Jedes Mal, wenn das Untersuchungsobjekt 120 bewegt wird, wird ein Licht, das durch das Anschalten der ersten Leuchte 210 mit der Helligkeit, die durch die Gitterbewegungs- und Leuchtensteuervorrichtung 270 vorbestimmt ist, erzeugt wird, auf das Untersuchungsobjekt 120 über das erste Gitter 230 und die erste Projektionslinse 260 des Projektionsteils 200 und den ersten Spiegel 310, den dritten Spiegel 320 und das erste Filter 330 des Lichtpfadkonverters 300 projiziert.
  • Wenn das erzeugte Licht von der ersten Leuchte 210 zum Untersuchungsobjekt 120 projiziert wird, wird ein Bild, das vom Untersuchungsobjekt 120 reflektiert wird, über die Kamera 420 des Bilderzeugungsteils 400 und das dritte Filter 402 des Lichtpfadkonverters 300 aufgenommen. Wenn ein Gitterbild in Bezug auf die erste Leuchte 210 aufgenommen ist, wird eine Phase des Untersuchungsobjekts 120 unter Verwendung des aufgenommenen Bildes gemessen. Als nächstes wird eine 3D-Information des Untersuchungsobjekts 120 unter Verwendung einer Differenz zwischen der Referenzphase und der gemessenen Phase erfasst. Wenn die 3D-Information des Untersuchungsobjekts 120 in Bezug auf die erste Leuchte 210 erfasst ist, wird eine 3D-Information des Untersuchungsobjekts 120 in Bezug auf die zweite Leuchte 212 erfasst, unter Verwendung des Lichts, das von der zweiten Leuchte 212 erzeugt wird, über das zweite Gitter 232, die zweite Projektionslinse 262, den zweiten Spiegel 312, den vierten Spiegel 322 und das zweite Filter 332, unter Verwendung desselben Verfahrens wie bei der Verwendung des Lichts, das von der ersten Leuchte 210 erzeugt wird.
  • Wenn die 3D-Information des Untersuchungsobjekts 120 in Bezug auf die zweite Leuchte 212 erfasst ist, wird ein Blatt (sheet) eines 2D-Bildes in Bezug auf das Untersuchungsobjekt 120 ohne ein anderes Licht unter Verwendung eines mittleren Grauwerts jedes Bildpunkts der Kamera 420 jedes Bildes, das durch das erste Licht 210 erfasst wird und dem Herausfinden eines Schattenbereichs und eines hellen Bereichs unter Verwendung eines Grauhelligkeitswerts erfasst. Die endgültige 3D-Information des Untersuchungsobjekts 120 wird durch das Austauschen eines Teils, der dem Schattenbereich in Bezug auf die erste Leuchte 210 entspricht, mit der 3D-Information, die von der zweiten Leuchte 212 erfasst wurde, und der Verwendung der korrigierten 3D-Information unter Verwendung der zweiten Leuchte 212 erfasst.
  • Beim Aufnehmen des Bildes hängt die Zeit, wie lange es dauert, das Bild aufzunehmen, von der Bildaufnahmegeschwindigkeit der Kamera 420 ab. Somit wird, wenn das Bild aufgenommen wird, ein (nicht gezeigter) Belichtungsmesser der Kamera 420 für eine vorbestimmte Zeitdauer in der Kamera 420 belichtet. Auch die Belichtung wird durch eine Synchronisation mit einem Triggersignal gestartet. Insbesondere da das Starten der Belichtung aus dem Triggersignal bekannt ist, bewegt die Gitterbewegungs- und Leuchtensteuervorrichtung 270 ein Gitter, um ein gewünschtes Intervall durch das Empfangen des Triggersignals und das Vermeiden einer festgelegten Belichtungszeit.
  • Wenn das Bild über das dritte Filter 402 und die Kamera 420 des Bilderzeugungsteils 400 aufgenommen wird, so wird eine vorbestimmte Anzahl von Bilder durch das Einstellen des dritten Filters 402 des Lichtpfadkonverters 300 und der Abbildungslinse 410 und der Kamera 420 des Bilderzeugungsteils 400 aufgenommen, während das Gitterbewegungsstellglied 250 eine vorbestimmte Anzahl von Malen unter Verwendung des ersten Hauptsteuersignal MAIN1_S, das von der ersten zentralen Steuervorrichtung 530 ausgegeben wird, bewegt wird. Insbesondere wird, wie das in 8 gezeigt ist, die Position der Abbildungslinse 410 oder der Kamera 420 eingestellt, um die gewünschten Bilder aufzunehmen.
  • Auch wenn das aufgenommene Bild vom Aufnehmen des Bildes über das dritte Filter 402 und die Kamera 420 der Bilderzeugungsteils 400 nicht passend ist, so wird weiter eine Funktion der Einstellung einer aktuellen Vergrößerung durch das Einstellen der Position der Abbildungslinse 410 oder der Kamera 420 über den dritten Motor 440 und den vierten Motor 450 eingeschlossen. Durch die oben beschriebene Operation kann das gewünschte Bild durch das Einstellen der aktuellen Vergrößerung aufgenommen werden.
  • Effekt der Erfindung
  • Wie oben beschrieben ist, kann eine 3D-Bildmessvorrichtung ein 3D-Bild durch das ausgewählte Verwenden einer Vielzahl von Leuchten und der gleichzeitigen Verwendung einer Vielzahl von Filtern messen, obwohl eine optische Eigenschaft und eine geometrische Form eines Untersuchungsobjekts verschiedentlich transformiert wird.

Claims (1)

  1. 3D-Bildmessverfahren, umfassend: Aufbringen eines Lichts auf ein Untersuchungsobjekt mittels eines Beleuchtungsteils, und Aufnahme eines Bildes mittels einer Kamera, um einen Untersuchungsbereich des Untersuchungsobjektes zu bestimmen, Erfassen einer ersten Referenzphase und einer zweiten Referenzphase mittels eines Projektionsteils (200); wobei das Erfassen der ersten und zweiten Referenzphasen umfasst: Positionieren eines Basiselements (110); Projizieren eines ersten Lichts zum Basiselement (110) über ein erstes Gitter (230) und eine erste Projektionslinse (260) mit einer vorbestimmten Anzahl von n Malen; Aufnehmen von ersten Bildern, die vom Basiselement über die Kamera mit Bezug zum ersten Licht reflektiert werden, während ein Gitterbewegungsstellglied eine vorbestimmte Zahl von n Malen bewegt wird; Projizieren eines zweiten Lichts zum Basiselement (110) über ein zweites Gitter und eine zweite Projektionslinse mit einer vorbestimmten Anzahl von n Malen; Aufnehmen von zweiten Bildern, die vom Basiselement über die Kamera mit Bezug zum zweiten Licht reflektiert werden, während ein Gitterbewegungsstellglied eine vorbestimmte Zahl von n Malen bewegt wird; und Erfassung der ersten Referenzphase und der zweiten Referenzphase des Untersuchungsobjektes unter jeweils der Verwendung der ersten Bilder und der zweiten Bilder; Positionieren des Untersuchungsobjekts (120); Bewegung des Untersuchungsobjektes, wobei jedes mal, wenn das Untersuchungsobjekt bewegt wird, ein erstes Licht zum Untersuchungsobjekt (120) über ein erstes Gitter (230) und eine erste Projektionslinse (260) mit einer vorbestimmten Anzahl von n Malen projiziert wird, zum Aufnehmen von weiteren ersten Bildern, die vom Untersuchungsobjekt (120) reflektiert werden, über die Kamera (420); und ein zweites Licht in Richtung des Untersuchungsobjektes über ein zweites Gitter und eine zweite Projektionslinse mit einer vorbestimmten Anzahl von n Malen projiziert wird; zum Aufnehmen von weiteren zweiten Bildern, die vom Untersuchungsobjekt (120) reflektiert werden, über die Kamera (420); Messen einer ersten Phase und einer zweiten Phase des Untersuchungsobjekts (120) unter Verwendung der jeweils aufgenommenen weiteren ersten und weiteren zweiten Bilder; Erfassen einer ersten 3D-Information des Untersuchungsobjekts (120) unter Verwendung einer Differenz zwischen der ersten Referenzphase und der ersten Phase; Erfassen einer zweiten 3D-Information des Untersuchungsobjekts (120) unter Verwendung einer Differenz zwischen der zweiten Referenzphase und der zweiten Phase; Berechnen eines 2D-Bildes in Bezug auf das Untersuchungsobjekt (120) unter Verwendung eines mittleren Grauwertes jedes Bildpunktes der Kamera jedes der weiteren ersten Bilder, Ermitteln eines Schattenbereiches und eines hellen Bereiches unter Verwendung der berechneten 2D-Bilder; Erfassung einer endgültigen 3D-Information des Untersuchungsobjekts, wobei die endgültige 3D-Information des Untersuchungsobjekts (120) als zweite 3D-Information des Untersuchungsobjekts (120) in Bezug auf die zweite Leuchte (212) erfasst wird, wenn die 3D-Information des Untersuchungsobjekts (120) in Bezug auf die erste Leuchte (210) dem Schattenbereich entspricht.
DE102006059132A 2005-12-14 2006-12-14 Dreidimensionales Bildmessverfahren Active DE102006059132B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020050123409A KR100612932B1 (ko) 2005-12-14 2005-12-14 3차원 형상 측정장치 및 방법
KR10-2005-0123409 2005-12-14
KR10-2005-0123412 2005-12-14
KR1020050123412A KR100612933B1 (ko) 2005-12-14 2005-12-14 3차원 형상 측정장치 및 방법

Publications (2)

Publication Number Publication Date
DE102006059132A1 DE102006059132A1 (de) 2007-06-28
DE102006059132B4 true DE102006059132B4 (de) 2012-12-06

Family

ID=38109050

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006059132A Active DE102006059132B4 (de) 2005-12-14 2006-12-14 Dreidimensionales Bildmessverfahren

Country Status (3)

Country Link
US (2) US7830528B2 (de)
JP (3) JP2007163498A (de)
DE (1) DE102006059132B4 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830528B2 (en) * 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
DE102009005273A1 (de) 2009-01-20 2010-07-22 Mitja Jelusic Rückprojektionssystem, Verfahren zur Herstellung und Anwendung
DE102010029319B4 (de) * 2009-05-27 2015-07-02 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form und Verfahren dazu
JP5441840B2 (ja) * 2009-07-03 2014-03-12 コー・ヤング・テクノロジー・インコーポレーテッド 3次元形状測定装置
JP5256251B2 (ja) * 2009-07-03 2013-08-07 コー・ヤング・テクノロジー・インコーポレーテッド 測定対象物の検査方法
JP2011033507A (ja) * 2009-08-03 2011-02-17 Renesas Electronics Corp 3次元計測装置
US8855403B2 (en) * 2010-04-16 2014-10-07 Koh Young Technology Inc. Method of discriminating between an object region and a ground region and method of measuring three dimensional shape by using the same
KR101311251B1 (ko) 2010-11-12 2013-09-25 주식회사 고영테크놀러지 검사장치
US9230325B2 (en) * 2011-08-19 2016-01-05 University Of Rochester Three-dimensional model acquisition using planar mirrors
WO2013054814A1 (ja) * 2011-10-11 2013-04-18 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム
JP5709009B2 (ja) * 2011-11-17 2015-04-30 Ckd株式会社 三次元計測装置
WO2014083568A1 (en) 2012-12-02 2014-06-05 Segoma Ltd. Devices and methods for generating a 3d imaging dataset of an object
DE102014212231A1 (de) * 2014-06-25 2015-12-31 Dental Direkt GmbH Koordinatenmessgerät
CN104270591B (zh) * 2014-09-12 2018-04-06 深圳市索恩达电子有限公司 一种可调节成像图像的光栅投影器及其光学测量系统
FI126498B (en) * 2014-12-29 2017-01-13 Helmee Imaging Oy Optical measurement system
JP2017102637A (ja) * 2015-12-01 2017-06-08 キヤノン株式会社 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0379079A1 (de) * 1989-01-17 1990-07-25 Leica AG - Vorrichtung zur Vermessung der Oberfläche eines Objektes mittels Projektion von Streifenmustern
DE4007500A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE4027328A1 (de) * 1990-08-29 1992-03-05 Siemens Ag 3d-kamera zur erfassung von oberflaechenstrukturen, insbesondere fuer zahnmedizinische zwecke
DE4142676A1 (de) * 1991-12-21 1993-07-01 Zeiss Carl Fa Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster
US5636025A (en) * 1992-04-23 1997-06-03 Medar, Inc. System for optically measuring the surface contour of a part using more fringe techniques
DE19919584A1 (de) * 1999-04-29 2000-11-02 Klaus Koerner Verfahren und Anordnung zur 3D-Aufnahme
US20020014577A1 (en) * 1998-07-08 2002-02-07 Ppt Vision, Inc. Circuit for machine-vision system
US6496254B2 (en) * 1999-01-18 2002-12-17 Mydata Automation Ab Method and device for inspecting objects
JP2004309240A (ja) * 2003-04-04 2004-11-04 Olympus Corp 3次元形状測定装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56125606A (en) * 1980-03-07 1981-10-02 Hitachi Ltd Stereoscopic shape detector
US4606638A (en) * 1983-11-03 1986-08-19 Zygo Corporation Distance measuring interferometer and method of use
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
JPH076776B2 (ja) * 1990-09-20 1995-01-30 工業技術院長 ホットコイル巻取形状の検出装置
JP2952126B2 (ja) 1992-12-01 1999-09-20 キヤノン株式会社 ボンディングワイヤ検査装置
JP3428122B2 (ja) * 1994-03-10 2003-07-22 富士電機株式会社 三次元形状計測装置
JP3525964B2 (ja) 1995-07-05 2004-05-10 株式会社エフ・エフ・シー 物体の三次元形状計測方法
JPH11108633A (ja) * 1997-09-30 1999-04-23 Peteio:Kk 3次元形状計測装置及びそれを用いた3次元彫刻装置
CA2277855A1 (fr) 1999-07-14 2001-01-14 Solvision Methode et systeme de mesure de la hauteur des billes de soudure d'un circuit imprime
FI20001568A (fi) * 2000-06-30 2001-12-31 Thermo Radiometrie Oy Pinnan muotojen määrittäminen
JP4546635B2 (ja) 2000-10-24 2010-09-15 Juki株式会社 電子部品実装方法及び装置
JP2002168800A (ja) 2000-12-05 2002-06-14 Ckd Corp 外観検査装置
JP2002213931A (ja) * 2001-01-17 2002-07-31 Fuji Xerox Co Ltd 3次元形状計測装置および3次元形状計測方法
JP3977668B2 (ja) 2002-03-01 2007-09-19 ヤマハ発動機株式会社 部材載装機器
JP4090860B2 (ja) 2002-12-12 2008-05-28 オリンパス株式会社 3次元形状測定装置
JP3730222B2 (ja) 2003-01-27 2005-12-21 シーケーディ株式会社 三次元計測装置及び検査装置
KR100615576B1 (ko) 2003-02-06 2006-08-25 주식회사 고영테크놀러지 3차원형상 측정장치
JP2005233780A (ja) * 2004-02-19 2005-09-02 Olympus Corp 高さ測定方法及びその装置
US7830528B2 (en) * 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0379079A1 (de) * 1989-01-17 1990-07-25 Leica AG - Vorrichtung zur Vermessung der Oberfläche eines Objektes mittels Projektion von Streifenmustern
DE4007500A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE4027328A1 (de) * 1990-08-29 1992-03-05 Siemens Ag 3d-kamera zur erfassung von oberflaechenstrukturen, insbesondere fuer zahnmedizinische zwecke
DE4142676A1 (de) * 1991-12-21 1993-07-01 Zeiss Carl Fa Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster
US5636025A (en) * 1992-04-23 1997-06-03 Medar, Inc. System for optically measuring the surface contour of a part using more fringe techniques
US20020014577A1 (en) * 1998-07-08 2002-02-07 Ppt Vision, Inc. Circuit for machine-vision system
US6496254B2 (en) * 1999-01-18 2002-12-17 Mydata Automation Ab Method and device for inspecting objects
DE19919584A1 (de) * 1999-04-29 2000-11-02 Klaus Koerner Verfahren und Anordnung zur 3D-Aufnahme
JP2004309240A (ja) * 2003-04-04 2004-11-04 Olympus Corp 3次元形状測定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
O.A. Skydan et al.; "Technique for phase measurement and surface reconstruction by use of colored structured light"; Applied Optics, Vol. 41, No. 29, 10 October 2002, S. 6104 - 6117 *

Also Published As

Publication number Publication date
US20070133011A1 (en) 2007-06-14
JP2010078619A (ja) 2010-04-08
US7830528B2 (en) 2010-11-09
JP2007163498A (ja) 2007-06-28
US8319977B2 (en) 2012-11-27
JP5932734B2 (ja) 2016-06-08
US20110058181A1 (en) 2011-03-10
DE102006059132A1 (de) 2007-06-28
JP2013257340A (ja) 2013-12-26

Similar Documents

Publication Publication Date Title
DE102006059132B4 (de) Dreidimensionales Bildmessverfahren
DE102008017481B4 (de) Vorrichtung und Verfahren zur optischen 3D-Vermessung und zur Farbmessung
EP1386141B1 (de) Verfahren und vorrichtung zur berührungsfreien untersuchung eines gegenstandes, insbesondere hinsichtlich dessen oberflächengestalt
DE102015209402A1 (de) Vorrichtung zur optischen 3D-Vermessung eines Objekts
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
EP2863167B1 (de) Verfahren und Vorrichtung zur Messung der Ablenkung von Lichtstrahlen durch eine Objektstruktur oder ein Medium
WO2013171309A1 (de) Lichtmikroskop und verfahren zur bildaufnahme mit einem lichtmikroskop
DE102007007534B4 (de) Vorrichtung und Verfahren zum Formenmessen
DE102008040947A1 (de) 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
DE102008062995A1 (de) 3D-Kamera zur Raumüberwachung
DE102019205728A1 (de) Formmessvorrichtung und Formmessverfahren
DE102015209620A1 (de) Fokus-Erkennungseinheit und optische Vorrichtung
DE102008036275B4 (de) Verfahren zum Vermessen von Profilen mit optischen Sensoren
DE102017004428B4 (de) Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
WO1996023240A1 (de) Verfahren und vorrichtung zum aufnehmen eines objektes
EP2276999A1 (de) Optische anordnung zur beleuchtung eines messobjektes und interferometrische anordnung zur vermessung von flächen eines messobjektes
DE102007021964B4 (de) Verfahren und Vorrichtung zur dreidimensionalen Erfassung von Objektoberflächen
DE19749974C2 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
DE102017004429B4 (de) Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
DE3222915C1 (de) Helligkeitsregelung fuer Mikroskopieeinspiegelung
DE4210075A1 (de) Verfahren und Vorrichtung zur dreidimensionalen optischen Kontrolle der Geometrie spiegelnder Objekte
WO2019007698A1 (de) Digitale bestimmung der fokusposition
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE102012025551B3 (de) Verfahren und Vorrichtung zur ortsaufgelösten Neigungsmessung einer spiegelnden Oberfläche durch Beleuchtung mit einer Farbstruktur

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8128 New person/name/address of the agent

Representative=s name: ANWALTSKANZLEI GULDE HENGELHAUPT ZIEBIG & SCHNEIDE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130307

R082 Change of representative

Representative=s name: V. FUENER EBBINGHAUS FINCK HANO, DE

Representative=s name: PATRONUS IP PATENT- & RECHTSANWAELTE BERNHARD , DE

R082 Change of representative

Representative=s name: V. FUENER EBBINGHAUS FINCK HANO, DE