DE102013105828A1 - Hybrid sensor - Google Patents

Hybrid sensor Download PDF

Info

Publication number
DE102013105828A1
DE102013105828A1 DE201310105828 DE102013105828A DE102013105828A1 DE 102013105828 A1 DE102013105828 A1 DE 102013105828A1 DE 201310105828 DE201310105828 DE 201310105828 DE 102013105828 A DE102013105828 A DE 102013105828A DE 102013105828 A1 DE102013105828 A1 DE 102013105828A1
Authority
DE
Germany
Prior art keywords
light
field
illumination
structures
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201310105828
Other languages
English (en)
Inventor
Shyam P. Keshavmurthy
Chengchih Lin
David T. Wegryn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Perceptron Inc
Original Assignee
Perceptron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/492,065 external-priority patent/US9170097B2/en
Application filed by Perceptron Inc filed Critical Perceptron Inc
Publication of DE102013105828A1 publication Critical patent/DE102013105828A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/102Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources
    • G02B27/104Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources for use with scanning systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/60Systems using moiré fringes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein System und Verfahren wird bereitgestellt für das Abbilden eines Gegenstands innerhalb eines Sichtfeldes, Projizieren eines Beleuchtungsfeldes auf den Gegenstand innerhalb des Sichtfeldes und selektives Projizieren von Beleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfeldes. Dann können Bilddaten entsprechend dem Beleuchtungsfeld und den Beleuchtungsstrukturen empfangen werden und ein Merkmal des Gegenstands kann analysiert werden basierend auf dem Beleuchtungsfeld und den Beleuchtungsstrukturen.

Description

  • Bezug zu verwandten Anmeldungen
  • Dies Anmeldung ist eine „Continuation-in-part” der US Patentanmeldung No. 13/205,160, angemeldet am 8. August 2011, welche eine „Continuation-in-part” der US Patentanmeldung No. 12/416,463, angemeldet am 1. April 2009, ist und den Inhalt der US Provisional Anmeldung No. 61/072,607, angemeldet am 1. April 2008, beansprucht. Die Offenbarungen der voranstehend genannten Anmeldungen sind hierin durch Bezugnahme vollständig aufgenommen.
  • Hintergrund
  • 1. Erfindungsgebiet
  • Die vorliegende Offenbarung bezieht sich auf Laserprojektionssysteme und insbesondere auf Systeme und Verfahren zum Verwenden eines Feldprojektionssystems und eine adaptive Lichtvorrichtung.
  • 2. Beschreibung verwandter Fachgebiete
  • Strukturiertes Licht ist das Verfahren des Projizierens eines bekannten Musters von Pixeln (z. B. Gitternetze oder horizontale Streifen) auf eine Oberfläche. Die Deformation des bekannten Musters, wenn es auf der Oberfläche auftrifft, ermöglicht es Sensorsystemen, die Kontur der Oberfläche zu ermitteln (z. B. die Reichweite oder die Entfernung von Merkmalen). Beispielsweise kann strukturiertes Licht in dreidimensionalen (3D) Scannern mit strukturiertem Licht verwendet werden.
  • Mit Bezug auf 1 ist ein Lichtdetektions- und Entfernungsmesssystem (LIDAR) 10 gemäß dem Stand der Technik gezeigt. Das LIDAR System 10 misst die Kontur einer Oberfläche 16. Das System 10 beinhaltet eine Infrarot(IR)-Quelle 12, einen Lenkspiegel 14, einen Empfangsspiegel 18 und einen IR-Empfänger 20.
  • Die IR-Quelle 12 erzeugt einen IR-Lichtstrahl, der von dem Lenkspiegel 14 auf die Oberfläche 16 projiziert wird. Das von der Oberfläche 16 weg reflektierte IR-Licht wird von dem Empfangsspiegel 18 auf den IR-Empfänger 20 gerichtet. Der IR-Empfänger 20 kann dann eine Gray Abbildung erzeugen entsprechend einer Kontur der Oberfläche 16 basierend auf Phasendifferenzen zwischen dem projizierten IR-Licht und dem empfangenen IR-Licht.
  • Die hier bereitgestellte Hintergrundbeschreibung dient dem Zweck den Zusammenhang der Erfindung generell zu beschreiben. Arbeiten der derzeit benannten Erfinder, soweit die Arbeit in diesem Hintergrundabschnittes beschrieben ist, ebenso wie Aspekte der Beschreibung, die andererseits zum Anmeldezeitpunkt nicht als Stand der Technik bezeichnet werden dürfen, werden weder ausdrücklich noch stillschweigend als Stand der Technik gegenüber der vorliegenden Erfindung anerkannt.
  • Zusammenfassung
  • Ein System und Verfahren wird bereitgestellt zum Abbilden eines Gegenstands innerhalb eines Sichtfeldes, zum Projizieren eines Beleuchtungsfeldes auf den Gegenstand innerhalb des Sichtfeldes und zum selektiven Projizieren von Beleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfeldes. Dann können Bilddaten entsprechend dem Beleuchtungsfeld und den Beleuchtungsstrukturen empfangen werden und ein Merkmal des Gegenstands kann analysiert werden basierend auf dem Beleuchtungsfeld und den Beleuchtungsstrukturen.
  • Ein Sensorsystem mit strukturiertem Licht zum Messen einer Kontur einer Oberfläche beinhaltet ein Projektionssystem, ein Abbildungssystem und ein Steuermodul. Das Projektionssystem ist eingerichtet, um auf die Oberfläche entweder (i) einen Lichtpunkt, (ii) eine erste Vielzahl von Lichtpunkten, die eine Lichtlinie bilden, oder (iii) eine zweite Vielzahl von Lichtpunkten, die eine Vielzahl von Lichtlinien bilden, zu projizieren. Das Abbildungssystem ist eingerichtet zum selektiven Erfassen eines Bildes von der Oberfläche, wobei das Bild von der Oberfläche auf Licht basiert, das von der Oberfläche weg reflektiert wird. Das Steuermodul ist eingerichtet zum Koordinieren der Steuerung sowohl von dem Projektionssystem als auch dem Abbildungssystem, um das Sensorsystem mit strukturiertem Licht in einer der folgenden Betriebsarten zu betreiben: (i) einem Punkt-Modus, während dem das Projektionssystem den Lichtpunkt während einer ersten Zeitspanne projiziert und das Abbildungssystem für die erste Zeitspanne angeschaltet ist, (ii) einem Linien-Modus, wobei das Projektionssystem die erste Vielzahl von Lichtpunkten während einer zweiten Zeitspanne projiziert und das Abbildungssystem für die zweite Zeitspanne angeschaltet ist, und (iii) einem Flächen-Modus, wobei das Projektionssystem die zweite Vielzahl von Lichtpunkten während einer dritten Zeitspanne projiziert und das Abbildungssystem für die dritte Zeitspanne eingeschaltet ist.
  • Ein Sensorsystem mit strukturiertem Licht zum Messen eines Parameters eines Merkmals auf einer Oberfläche beinhaltet ein Projektionssystem, ein Abbildungssystem und ein Steuermodul. Das Projektionssystem ist eingerichtet zum Projizieren eines ersten Lichtmusters auf die Oberfläche, wobei das Projektionssystem ein Lichtsystem mit einer Vielzahl von Lichtquellen, ein Optiksystem und einen Satz von mikro-elektromechanischen System-(MEMS)-Spiegeln beinhaltet. Das Abbildungssystem ist eingerichtet zum selektiven Erfassen eines Bildes von der Oberfläche, wobei das Bild von der Oberfläche weg reflektiertes Licht beinhaltet, das bezeichnend für den Parameter des Merkmals ist. Das Steuermodul ist eingerichtet zum: (i) Erzeugen von Daten entsprechend dem erfassten Bild, (ii) Verarbeiten der erzeugten Daten zum Ermitteln des Parameters des Merkmals, und (iii) Steuern des Projektionssystems, um ein zweites Lichtmuster auf die Oberfläche zu projizieren, wobei das zweite Lichtmuster die ermittelten Parameter des Merkmals einem Anwender darstellt.
  • Eine Vorrichtung zum Messen einer Kontur einer Oberfläche beinhaltet ein Gehäuse, ein Abbildungslinsensystem innerhalb des Gehäuses, eine Bilderfassungsvorrichtung innerhalb des Gehäuses, einen Satz von mikro-elektromechanischen System-(MEMS)-Spiegeln innerhalb des Gehäuses und ein Steuermodul innerhalb des Gehäuses. Das Abbildungslinsensystem ist eingerichtet zum Fokussieren von Licht, das von der Oberfläche reflektiert wird, unter Verwendung zumindest einer Linse, wobei das Abbildungslinsensystem eine entsprechende Linsen-Fokusebene aufweist, und wobei das von der Oberfläche reflektierte Licht bezeichnend für die Kontur der Oberfläche ist. Die Bilderfassungsvorrichtung ist eingerichtet zum Erfassen des fokussierten Lichts und zum Erzeugen von Daten entsprechend dem erfassten Licht, wobei die Bilderfassungsvorrichtung eine entsprechende Bild-Fokusebene aufweist und wobei die Bild-Fokusebene nicht parallel zu der Linsen-Fokusebene ist. Der Satz von Mikro-MEMS-Spiegeln ist eingerichtet, um das fokussierte Licht auf die Bilderfassungsvorrichtung zu richten. Das Steuermodul ist eingerichtet zum Empfangen der Daten von der Bilderfassungsvorrichtung entsprechend dem erfassten Licht, zum Ermitteln einer Fokusqualität des erfassten Lichts basierend auf den empfangenen Daten, und zum Steuern des Satzes von MEMS-Spiegeln basierend auf der Fokusqualität, um eine Scheimpflug Neigungsbedingung zwischen der Linsen-Fokusebene und der Bild-Fokusebene aufrechtzuerhalten.
  • Weitere Anwendungsgebiete der vorliegenden Offenbarung werden offensichtlich durch die detaillierte Beschreibung, die Patentansprüche und die Zeichnungen. Die detaillierte Beschreibung und die spezifischen Beispiele sind nur zum Zwecke der Veranschaulichung gedacht und es ist nicht beabsichtigt, dass sie den Umfang der Offenbarung begrenzen.
  • Kurze Beschreibung der Zeichnungen
  • Die vorliegende Offenbarung kann anhand der detaillierten Beschreibung und den begleitenden Zeichnungen vollständiger verstanden werden, in denen:
  • 1 eine Prinzipdarstellung eines LIDAR Scansystems gemäß dem Stand der Technik ist;
  • 2 eine Prinzipdarstellung einer Scheimpflug Neigungsbedingung zwischen einer Linsenebene und einer Bildebene gemäß der vorliegenden Offenbarung ist;
  • 3A eine Prinzipdarstellung eines ersten beispielhaften Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung ist;
  • 3B ein Funktionsblockdiagramm eines zweiten beispielhaften Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung ist;
  • 4A bis 4B Prinzipdarstellungen sind, welche ein beispielhaftes Interferometer gemäß dem Stand der Technik bzw. ein beispielhaftes Interferometriesystem des Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung veranschaulichen;
  • 5A5B Prinzipdarstellung sind, welche beispielhafte Verfahren zur Verarbeitung eines Lochs bzw. einer Nut gemäß der vorliegenden Offenbarung veranschaulichen;
  • 6 ein Funktionsblockdiagramm eines beispielhaften Steuermoduls des Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung ist;
  • 7 ein Flussdiagramm eines beispielhaften Verfahrens zum Korrigieren eines Winkels des Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung ist;
  • 8A8B Flussdiagramme von beispielhaften Verfahren zum Kompensieren von Temperaturabweichungen des Konturerfassungssystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung sind;
  • 9 ein Flussdiagramm eines beispielhaften Verfahrens zum Betreiben des Konturerfassungssystems mit strukturiertem licht gemäß der vorliegenden Offenbarung ist;
  • 10 ein Funktionsblockdiagramm eines beispielhaften Sensorsystems mit strukturiertem Licht gemäß der vorliegenden Offenbarung ist;
  • 11A11C Zeitdiagramme für eine koordinierte Steuerung eines Projektionssystems und eines Abbildungssystems im Punkt-Modus, im Linien-Modus bzw. im Flächen-Modus gemäß der vorliegenden Offenbarung sind;
  • 12 ein Flussdiagramm eines beispielhaften Verfahrens für eine Leitsteuerung eines strukturierten Licht-Sensorsystems zum Betreiben in jeder der Betriebsarten Punkt-Modus, Linien-Modus und Flächen-Modus gemäß der vorliegenden Offenbarung ist;
  • 13 ein Blick auf eine beispielhafte Projektion eines Parameters eines Merkmals ist, sowohl ermittelt durch als auch dargestellt von einem Sensorsystem mit strukturiertem Licht, gemäß der vorliegenden Offenbarung;
  • 14 ein Flussdiagramm eines beispielhaften Verfahrens ist zum Ermitteln eines Parameters eines Merkmals auf einer Oberfläche unter Verwendung eines Sensorsystems mit strukturiertem Licht und zum Projizieren des ermittelten Parameters auf die Oberfläche unter Verwendung des Sensorsystems mit strukturiertem Licht;
  • 15 eine Darstellung einer beispielhaften Vorrichtung mit einem Gehäuse ist, das ein strukturiertes Licht-Sensorsystem beinhaltet, entsprechend der vorliegenden Offenbarung;
  • 16 ein Blockdiagramm eines Systems ist, das ein Weißlichtprojektionsmodul und ein adaptives Lichtvorrichtungsmodul beinhaltet;
  • 17 ein Fließdiagramm ist, das ein Verfahren zum Erfassen von Daten mit einem Feldprojektionssystem und einer adaptiven Lichtvorrichtung darstellt;
  • 18 eine Darstellung eines Interferenzenmusters mit übermäßiger Spiegelreflexion ist;
  • 19 ein typisches Laserfleckmuster für die Benutzung mit den Interferenzendaten von 18 ist;
  • 20 ein Interferenzenmuster typisch für ein Bild mit schlechter Streifenauflösung ist;
  • 21 ein Bild von Laserlinien ist, erzeugt in Antwort auf die Interferenzendaten von 20; und
  • 22 ein Blockdiagramm ist, welches einen Sensor und eine rekalibrierte adaptive Lichtvorrichtung darstellt.
  • Ausführliche Beschreibung
  • Die nachfolgende Beschreibung ist in erster Linie beispielhafter Natur und es ist nicht beabsichtigt die Offenbarung, den Anwendungsbereich oder die Anwendung in irgendeiner Weise zu beschränken. Zum Zwecke der Klarheit werden gleiche Bezugszeichen in den Zeichnungen verwendet, um ähnliche Elemente zu identifizieren. So wie hierin verwendet, soll die Aussage „zumindest eines von A, B und C” so ausgelegt werden, dass es ein logisches Oder bedeutet (A oder B oder C), wobei ein nicht-ausschließendes logisches Oder benutzt wird. Es versteht sich, dass die Schritte innerhalb eines Verfahrens in unterschiedlicher Reihenfolge ausgeführt werden können ohne die Prinzipien der vorliegenden Offenbarung abzuändern.
  • So wie hierin benutzt, kann der Begriff „Modul” sich beziehen auf, Teil sein von oder beinhalten eine anwendungsspezifische integrierte Schaltung (ASIC), einen elektronischen Schaltkreis, einen Prozessor (geteilt, fest zugeordnet oder Gruppe) und/oder Speicher (geteilt, fest zugeordnet oder Gruppe), der eine oder mehrere Software- oder Firmware-Programme ausführt, eine kombinatorische logische Schaltung und/oder andere geeignete Komponenten, welche die beschriebene Funktionalität bereitstellen.
  • Konventionelle Erfassungssysteme mit strukturiertem Licht haben eine limitierte Schärfentiefe. Mit anderen Worten können konventionelle Erfassungssysteme mit strukturiertem Licht bestimmte Konturen einer Oberfläche aufgrund der limitierten Erfassungstiefe nicht erfassen. Eine Scheimpflug Neigungsbedingung kann implementiert werden, um die Schärfentiefe zu erhöhen. Jedoch ist eine Scheimpflug Neigungsbedingung noch nicht in Erfassungssysteme mit strukturiertem Licht (d. h. Messsysteme) implementiert worden aufgrund von Beschränkungen beim Fokus der Linienvorrichtung über der gesamten Schärfentiefe des Erfassungssystems.
  • Mit Bezug auf 2 wird das Scheimpflug Prinzip veranschaulicht. Das Scheimpflug Prinzip ist eine geometrische Regel, die die Ausrichtung einer scharfen Fokusebene bzw. Schärfenebene 66 eines optischen Systems (Linse 60 und Bildgerät 62) beschreibt, wenn eine Linsenebene bzw. Objektivebene 61 nicht parallel zu einer Bildebene 63 ist. Die Bildebene 63 korrespondiert mit einem mikro-elektro-mechanischen System (MEMS)-Spiegel 64, der Licht von der Linse 60 auf das Bildgerät 62 reflektiert.
  • Mit anderen Worten, wenn eine schräge Tangente von der Bildebene 63 verlängert wird und eine andere von der Objektivebene 61 verlängert wird, treffen sie sich auf einer Linie, durch die ebenfalls eine Schärfeebene 66 verläuft. Beispielsweise kann mit dieser Bedingung ein ebener Gegenstand, der nicht parallel mit der Bildebene ist, vollständig scharf eingestellt sein. Deshalb kann der MEMS-Spiegel 64 eingestellt werden, um eine Bildschärfenbedingung auf dem Bildgerät 62 aufrechtzuerhalten. Beispielsweise kann der MEMS-Spiegel 64 auf einen abweichenden Winkel (dargestellt durch MEMS-Spiegel 65) eingestellt werden, um eine andere Schärfenebene 67 zu kompensieren.
  • Deshalb werden Systeme und Verfahren für die Konturerfassung mit strukturiertem Licht vorgestellt, welche eine vielfach-Pixel MEMS-Spiegelvorrichtung in den optischen Empfängerweg aufnehmen, um eine Scheimpflug Neigungsbedingung aufrechtzuerhalten. Die Systeme und Verfahren der vorliegenden Offenbarung ermöglichen es, dass jede Linie auf das Bildgerät in einem fokussierten Zustand gerichtet wird. Folglich kann eine Abbildungslinse mit geringerer Brennweite und mit größerer Apertur verwendet werden, wodurch das optische Signal gesteigert wird und eine präzisere Messtechnik ermöglicht wird.
  • Darüber hinaus erzeugen konventionelle Erfassungssysteme mit strukturiertem Licht keine dreidimensionalen (3D)-Daten zur Merkmalsextraktion und/oder Formmessung einer Oberflächenkontur. Mit anderen Worten erzeugen konventionelle Erfassungssysteme mit strukturiertem Licht lediglich eine zweidimensionales (2D)-Muster für den Vergleich mit einem original projizierten 2D-Muster.
  • Deshalb werden Systeme und Verfahren zur Konturerfassung mit strukturiertem Licht vorgestellt, welche die Erzeugung von 3D-Daten, Merkmalsextraktion und/oder Formmessung mit einbeziehen. Die Systeme und Verfahren der vorliegenden Offenbarung erzeugen 3D-Punktwolken, die für die Merkmalsextraktion/-verfolgung und/oder Formmessung verwendet werden können. Mit anderen Worten ermöglichen die Systeme und Verfahren der vorliegenden Offenbarung eine genauere Messtechnik, insbesondere in der z-Richtung (d. h. Konturtiefe). Ergänzend können die 3D-Punktwolken an externe Software für zusätzliches Modellieren und/oder Bearbeiten ausgegeben werden.
  • Mit Bezug auf 3A ist ein erstes beispielhaftes Ausführungsbeispiel des Konturerfassungssystems mit strukturiertem Licht 70 gemäß der vorliegenden Offenbarung gezeigt. Das Konturerfassungssystem mit strukturiertem Licht 70 ermittelt die Kontur einer Oberfläche 88. Das Konturerfassungssystem mit strukturiertem Licht 70 kann weiterhin das Steuermodul 72, einen Beschleunigungsmesser 74, ein Lichtsystem 76, ein erstes MEMS-Spiegelsystem 86, ein zweites MEMS-Spiegelsystem 90, ein Fokussierlinsensystem 92 und einen Bildgerät 94 beinhalten.
  • Das Lichtsystem 76 beinhaltet eine erste, zweite und dritte Lichtquelle 78, 80 und 82. In einem Ausführungsbeispiel sind die erste, zweite und dritte Lichtquelle 78, 80 und 82 Laser. Jedoch kann hervorgehoben werden, dass andere Lichtquellen zur Anwendung kommen können. Beispielsweise kann die erste, zweite und dritte Lichtquelle 78, 80 und 82 jeweils Licht mit einer verschiedenen Wellenlänge produzieren. In einem Ausführungsbeispiel können diese Wellenlängen den Farben rot, grün und blau entsprechen. Jedoch kann hervorgehoben werden, dass verschiedene Farben (d. h. verschiedene Wellenlängenbereiche) zur Anwendung kommen können.
  • Die ersten, zweiten und dritten Lichtquellen 78, 80 und 82 können zu einem koaxialen Lichtstrahl kombiniert werden. Das Lichtsystem 76 kann weiterhin ein Optiksystem 84 beinhalten, das ein Lichtmuster unter Verwendung der ersten, zweiten und dritten Lichtquellen 78, 80, 82 erzeugt. Beispielsweise kann in einem Ausführungsbeispiel das Optiksystem 84 holographische Beugungselemente, Strahlteiler und/oder Prismen beinhalten. Jedoch kann hervorgehoben werden, dass das Optiksystem 84 andere optische Elemente beinhalten kann. Die Elemente in dem Optiksystem 84 manipulieren das Licht (Versetzen, Teilen, Beugen, usw.) um das gewünschte Lichtmuster zu erzielen.
  • Weiterhin kann hervorgehoben werden, dass das Konturerfassungssystem mit strukturiertem Licht 70 ein zusätzliches Lichtsystem (nicht gezeigt) und ein Phasenschiebesystem {nicht gezeigt) zur Durchführung von Interferometrie auf der Oberfläche 88 beinhalten kann. Genauer gesagt kann das Konturerfassungssystem mit strukturiertem Licht 70 wechseln zwischen dem Projizieren eines Lichtmusters zu Merkmalsextraktions- und/oder Formvermessungszwecken und dem Projizieren von Interferenz-Lichtlinien (fringed lines of light) zur Messung der Ebenheit (d. h. Interferometrie).
  • Wie gezeigt projiziert das Konturerfassungssystem 70 zu Merkmalsextraktions- und/oder Formmessungszwecken ein erstes Lichtmuster auf die Oberfläche 88 und fokussiert und erfasst dann ein zweites Lichtmuster, das von der Oberfläche 88 reflektiert wird. Das zweite Lichtmuster ist bezeichnend für die Kontur der Oberfläche 88. Das Konturerfassungssystem 70 kann dann das fokussierte zweite Lichtmuster, das erfasst wurde, mit dem ersten Lichtmuster vergleichen, das auf die Oberfläche projiziert wurde. Genauer gesagt kann das Steuermodul 72 Unterschiede zwischen einem erwarteten ersten Lichtmuster und dem fokussierten zweiten Lichtmuster, das von der Oberfläche 88 reflektiert wird, ermitteln. Beispielsweise kann das Steuermodul 72 Phasenunterschiede zwischen dem zweiten Lichtmuster und dem ersten Lichtmuster ermitteln. Diese Unterschiede korrespondieren mit Merkmalen der Oberfläche 88 und definieren gemeinsam eine Kontur der Oberfläche.
  • Diese Merkmale können an externe Systeme ausgegeben werden für zusätzliche Weiterverarbeitung oder können von dem Steuermodul 72 gespeichert und/oder verfolgt werden. Mit anderen Worten kann das Steuermodul 72 kontinuierlich die Projektion des ersten Lichtmusters auf die Oberfläche 88 steuern basierend auf dem fokussierten zweiten Lichtmuster, das von der Oberfläche reflektiert wird (d. h. Rückmeldung bzw. Feedback), um Messungen von spezifischen Merkmalen zu verfeinern, die gemeinsam die Kontur der Oberfläche 88 ausmachen. Mit anderen Worten kann das Steuermodul 72 ein drittes Lichtmuster projizieren, das von dem ersten Lichtmuster verschieden ist. Beispielsweise kann das Steuermodul 72 einen Datenspeicher beinhalten, der Daten speichert entsprechend einer Vielzahl von verschiedenen Lichtmustern (d. h. Kalibrierungsdaten).
  • Mit Bezug auf 3B ist ein zweites beispielhaftes Ausführungsbeispiel des Konturerfassungssystems mit strukturiertem Licht 100 der vorliegenden Erfindung gezeigt. Das System 100 ermittelt eine Kontur einer Oberfläche 102. Das System 100 beinhaltet ein Steuermodul 104, ein Kalibrierungssensorsystem 106, ein Projektionssystem 108 und ein Abbildungssystem 110.
  • Das Kalibrierungssensorsystem 106 ermittelt verschiedene Kalibrierungsparameter, wie z. B. die Orientierung des Systems 100, eine globale Positionierung des Systems 100 und eine Temperatur des Systems 100. Das Erfassen der Orientierung und der globalen Positionierung des Systems 100 kann es dem Steuermodul 104 ermöglichen, die Einrichtezeit des Systems 100 zu reduzieren und die Einrichtegenauigkeiten in feststehenden Anlagen zu erhöhen. Darüber hinaus kann das Erfassen der Temperatur des Systems 100 ermöglichen, dass das Steuermodul 104 Temperaturabweichungen automatisch kompensiert.
  • In einem Ausführungsbeispiel beinhaltet das Kalibrierungssensorsystem 106 einen Beschleunigungsmesser 112, eine Vielzahl von adressierbaren IR-lichtemittierenden Dioden (LEDs) 114 und ein Thermoelement 116. Beispielsweise kann der Beschleunigungsmesser 112 ein Festkörper-Beschleunigungsmesser sein, der die Orientierung des Systems 100 mittels Messung der Neigung des Systems 100 relativ zu zwei Achsen bereitstellt. Beispielsweise können die IR LEDs 114 an vorbestimmten Positionen auf dem System 100 angeordnet sein und können folglich verwendet werden zum Ermitteln und Kalibrieren der Position des Systems 100 in einem externen Koordinatenraum (d. h. ein System aufweisend eine Vielzahl von verschiedenen Sensoren). Beispielsweise können die IR LEDs 114 die Positionsermittlung und Kalibrierung mittels einer handelsüblichen stereografischen Messvorrichtung ermöglichen. Darüber hinaus kann beispielsweise das Thermoelement 116 Temperaturinformationen bereitstellen, um zu ermöglichen, dass das System 100 Temperaturabweichungen automatisch kompensiert.
  • Das Projektionssystem 108 projiziert entweder ein erstes Lichtmuster oder Interferenz-Lichtlinien auf die Oberfläche 102 basierend auf Befehlen des Steuermoduls 104 (d. h. abhängig davon, ob Merkmale extrahiert werden, Gestaltungen gemessen werden oder Interferometrie durchgeführt wird). Das Projektionssystem 108 kann individuelle Lichtstrahlen auf die Oberfläche 102 projizieren oder das Projektionssystem 108 kann mehrere Lichtstrahlen zu einem koaxialen Lichtstrahl kombinieren, der auf die Oberfläche 102 projiziert wird. In einem Ausführungsbeispiel werden die mehreren Lichtstrahlen von Lasern hergestellt. Das Projektionssystem 108 kann ebenso die Farbe, Intensität und Muster des ersten Lichtmusters steuern, das auf die Oberfläche 102 projiziert wird.
  • In einem Ausführungsbeispiel beinhaltet das Projektionssystem 108 ein Lichtsystem 118, ein Interferometriesystem 120 und ein Lenkungs-MEMS-Spiegelsystem 122. Das Lichtsystem 118 kann verwendet werden zum Erzeugen eines Lichtmusters zur Projektion auf die Oberfläche 102 zur Merkmalsextraktion und/oder Formmessung durch das Steuermodul 104. Das Interferometriesystem 120 kann verwendet werden wie für die Interferometrie der Oberfläche 102. Genauer gesagt, kann das Interferometriesystem 120 verwendet werden zum Erzeugen von Interferenz-Lichtlinien auf der Oberfläche 102 zur Bestimmung der Ebenheit der Oberfläche.
  • Beispielsweise kann das Lichtsystem 118 weiterhin eine erste Lichtquelle (LS1) 124, eine zweite Lichtquelle (LS2) 126 und eine dritte Lichtquelle (LS3) 128 beinhalten. Es kann hervorgehoben werden, dass das Lichtsystem 118 alternativ weniger oder mehr Lichtquellen beinhalten kann als dargestellt (z. B. eine einzige Lichtquelle). Weiterhin können die Lichtquellen 124, 126, 128 zu einem einzigen koaxialen Lichtstrahl kombiniert werden. Beispielsweise können die Lichtquellen 124, 126, 128 amplitudenmodulierte Lichtquellen, pulsfrequenzmodulierte Lichtquellen und/oder wellenlängenmodulierte Lichtquellen sein. Außerdem können die Lichtquellen 124, 126 und 128 einem Wellenlängen-Dithering in Echtzeit unterzogen sein, um den Speckle-Effekt zu reduzieren, wenn auf die Oberfläche 102 projiziert wird.
  • Beispielsweise kann in einem Ausführungsbeispiel LS1 124 ein roter Laser sein, LS2 126 kann ein grüner Laser sein und LS3 kann ein blauer Laser 128 sein. Genauer gesagt kann der rote Laser 124 einen Laserstrahl erzeugen mit einer Wellenlänge entsprechend dem roten Licht (z. B. 600 bis 690 nm). Der grüne Laser 126 kann einen Laserstrahl erzeugen mit einer Wellenlänge entsprechend dem grünen Licht (z. B. 520 bis 600 nm). Der blaue Laser 128 kann einen Laserstrahl erzeugen mit einer Wellenlänge entsprechend dem blauen Licht (z. B. 450 bis 520 nm). Jedoch kann hervorgehoben werden, dass die Lichtquellen 124, 126, 128 andersfarbiges Licht erzeugen können (d. h. verschiedene Wellenlängenbereiche).
  • Außerdem kann das Lichtsystem 118 ein Optiksystem 130 beinhalten, um ein Lichtmuster unter Verwendung der Lichtquellen 124, 126, 128 zu erschaffen. Beispielsweise kann das Optiksystem 130 ein Muster erzeugen unter Verwendung holographischer Beugeelemente, elektro-optischer Elemente und/oder Strahlteiler. Außerdem kann beispielsweise das Optiksystem 130 Schmalbandfilter, Spiegel und/oder Prismen beinhalten.
  • In einem Ausführungsbeispiel kann der einzige (z. B. koaxiale) Lichtstrahl, der von dem Lichtsystem 118 erzeugt wird, ein Lichtpunkt-Raster sein. Mit anderen Worten kann der koaxiale Strahl individuelle rote, grüne und blaue Komponenten beinhalten. Folglich kann das Steuermodul 104 die Intensität und/oder Farbe des koaxialen Lichtstrahls steuern durch das Steuern der Intensitäten der Lichtquellen 124, 126, 128 des Lichtsystems 118. Beispielsweise kann das Steuermodul 104 die Intensität und/oder Farbe des koaxialen Lichtstrahls aufgrund einer Entfernung von der Oberfläche 102 bzw. einer Farbe der Oberfläche 102 steuern.
  • Genauer gesagt, kann in einem Ausführungsbeispiel das Steuermodul 104 eine Farbe des koaxialen Lichtstrahls steuern basierend auf einer Rückinformation, um diesen an die Farbe der Oberfläche 102 anzupassen. Das Einstellen der Farbe des projizierten Lichts, damit dieses an die Farbe der Oberfläche 102 angepasst ist, kann die Genauigkeit (d. h. die Auflösung) des Systems erhöhen. Folglich kann das Steuermodul 104 die drei Lichtquellen 124, 126 und 128 steuern zum Steuern der Farbe des koaxialen Lichtstrahls. Beispielsweise kann das Steuermodul 104 die Intensität der Lichtquelle 122 erhöhen (wo die Lichtquelle 122 Licht mit einer Wellenlänge produziert, die rotem Licht entspricht), um den Rotgehalt des koaxialen Lichtstrahls zu erhöhen. Folglich kann das Steuermodul 104 die resultierende Farbe des koaxialen Lichtstrahls steuern, der auf die Oberfläche 102 projiziert wird, basierend auf einer Rückinformation mittels des erfassten Lichts (das von der Oberfläche 102 weg reflektiert wird).
  • Obwohl das Lichtsystem 118 einen koaxialen Lichtstrahl erzeugen kann, kann hervorgehoben werden, dass das Lichtsystem 118 ebenso eine Vielzahl von Lichtstrahlen produzieren kann, die jeweils auf die Oberfläche 102 projiziert werden unter Verwendung einer Teilmenge von MEMS-Spiegeln von dem Lenkungs-MEMS-Spiegelsystem 122. Genauer gesagt kann in einem Ausführungsbeispiel der Lichtstrahl von LS1 124 auf die Oberfläche 102 projiziert werden unter Verwendung eines ersten Satzes von MEMS-Spiegeln von dem Lenkungs-MEMS-Spiegelsystem 122. Beispielsweise kann der Lichtstrahl von LS2 126 auf die Oberfläche 102 projiziert werden unter Verwendung eines zweiten Satzes von MEMS-Spiegeln von dem Lenkungs-MEMS-Spiegelsystem 122. Außerdem kann beispielsweise der Lichtstrahl von LS3 128 auf die Oberfläche 102 projiziert werden unter Verwendung eines dritten Satzes von MEMS-Spiegeln von dem Lenkungs-MEMS-Spiegelsystem 122.
  • Alternativ kann das Kontur-Erfassungssystems mit strukturiertem Licht 100 eine Interferometrie der Oberfläche 102 durchführen unter Verwendung des Interferometriesystems 120. Genauer gesagt kann ein Lichtsystem 132 (ein anderes als das Lichtsystem 118) einen Lichtstrahl erzeugen, der phasenverschoben ist durch das Phasenschiebesystem 134, und sowohl der originale Lichtstrahl als auch der phasenverschobene Lichtstrahl können auf die Oberfläche 102 projiziert werden mittels des Lenkungs-MEMS-Spiegelsystems 122. In einem Ausführungsbeispiel kann das Lichtsystem 132 eine einzige Lichtquelle beinhalten, so dass die zwei projizierten Lichtstrahlen in Phase verbleiben (nicht beinhaltend den erzeugten Versatz).
  • Beispielsweise kann das Phasenschiebesystem 134 in einem Ausführungsbeispiel eine Vielzahl von Strahlteilern und/oder Prismen beinhalten.
  • Wenn das System 100 Interferometrie durchführt, können die zwei projizierten Lichtstrahlen mit einem sehr kleinen Phasenunterschied (z. B. 10 Nanometern) auf der Oberfläche 102 als Interferenzen-Linien (fringed lines) erscheinen. Jedoch kann der Abstand zwischen den Interferenzen sich erhöhen mit einer Unregelmäßigkeit der Oberfläche 102. Mit andere Worten können auf einer ebenen Oberfläche die projizierten Lichtstrahlen als sehr nahe Interferenzen (oder ohne Interferenzenabstand) erscheinen, wohingegen auf einer sehr rauen (unregelmäßigen) Oberfläche die projizierten Lichtstrahlen als sehr breite Interferenzen erscheinen können.
  • Mit Bezug auf die 4A und 4B werden zwei verschiedene Interferometriesysteme gezeigt.
  • Mit Bezug auf 4A ist ein konventionelles Interferometer gezeigt. Eine Lichtquelle 50 projiziert einen Lichtstrahl auf einen Spiegel 51. Der Spiegel 51 reflektiert den Lichtstrahl durch einen Strahlteiler 152 (z. B. ein Prisma). Der Strahlteiler 152 teilt den Lichtstrahl in zwei versetzte Lichtstrahlen. Ein erster Strahl wird von einer ersten Oberfläche 153 weg reflektiert, die eine erste Entfernung vom Strahlteiler 152 ist. Ein zweiter Strahl wird von einer zweiten Oberfläche 154 weg reflektiert, die eine zweite Entfernung vom Strahlteiler 152 ist. Die zweite Entfernung ist größer als die erste Entfernung, wodurch eine Phasenverschiebung zwischen den zwei reflektierten Strahlen erzeugt wird. Beide reflektierten Lichtstrahlen werden dann (durch den Strahlteiler 152) zu einem Empfänger 155 geleitet. Beispielsweise kann der Empfänger 155 eine Oberfläche sein, die ein Interferenzenmuster anzeigt entsprechend einer Phasendifferenz zwischen den zwei reflektierten Strahlen.
  • Allerdings ist das herkömmliche Interferometer statisch (d. h. ortsfest) und kann folglich nur ein Interferenzenmuster auf einem kleinen ausgewählten Gebiet des Empfängers 155 (d. h. der Oberfläche) erzeugen. Folglich sind, um ein großes Gebiet (z. B. mehr als 100 Millimeter mal 100 Millimeter) abzudecken, mehrere Lichtquellen und mehrere hochauflösende Kameras erforderlich, wodurch sich die Systemgröße, die Komplexität und/oder die Kosten erhöhen.
  • Mit Bezug auf 4B ist ein beispielhaftes Ausführungsbeispiel des Interferometriesystems 120 entsprechend der vorliegenden Offenbarung genauer gezeigt. Eine Lichtquelle 160 projiziert einen Lichtstrahl auf einen MEMS-Spiegel 162. Beispielsweise kann die Lichtquelle 160 das Lichtsystem 132 sein und der MEMS-Spiegel 162 kann das Lenkungs-MEMS-Spiegelsystem 122 sein. Der MEMS-Spiegel 162 reflektiert den Lichtstrahl durch einen Strahlteiler 164. Beispielsweise kann der Strahlteiler 164 das Phasenschiebesystem 134 sein.
  • Der Strahlteiler 164 teilt den Lichtstrahl in zwei Strahlen und leitet einen Strahl durch und reflektiert den anderen Strahl unter Verwendung einer Vielzahl von Oberflächen, wodurch ein Phasenversatz zwischen den zwei Lichtstrahlen erzeugt wird. Diese zwei Lichtstrahlen werden dann auf eine Oberfläche 166 projiziert. Beispielsweise kann die Oberfläche 166 die Oberfläche 102 sein. Die zwei Lichtstrahlen können ein Interferenzenmuster erzeugen basierend auf einer Ebenheit der Oberfläche 166. Genauer gesagt kann eine unregelmäßigere Oberfläche einen breiteren Abstand zwischen den Interferenzen (fringes) beinhalten. Hingegen kann eine ebene Oberfläche einen engen (oder keinen) Abstand zwischen den Interferenzen beinhalten.
  • Aufgrund der präzisen Steuerung des MEMS-Spiegels 162 kann das Interferometriesystem größere Auflösungen als das herkömmliche Interferometer erzielen. Beispielsweise kann das Interferometriesystem 120 eine Auflösung von 5 Mikrometern in x- und z-Richtung haben. Außerdem kann das Interferometriesystem 120 den Spiegel 162 kontinuierlich einstellen, um die Abdeckung des projizierten Interferenzenmusters auf der Oberfläche 166 zu variieren. Beispielsweise kann das Interferenzenmuster in Echtzeit gelenkt werden, um ein Gebiet von 200 Millimeter mal 200 Millimeter abzudecken.
  • Erneut auf 3B Bezug nehmend projiziert das Lenkungs-MEMS-Spiegelsystem 122 den einen oder Lichtstrahlen (d. h. Muster oder Interferenzen), erzeugt von dem Lichtsystem 118 oder dem Interferometriesystem 120, auf die Oberfläche 102, wie voranstehend beschrieben. Beispielsweise kann das Steuermodul 104 das Lenkungs-MEMS-Spiegelsystem 122 steuern, um das Muster oder Interferenzen auf eine bestimmte Stelle auf der Oberfläche 102 zu projizieren.
  • In einem Ausführungsbeispiel kann das Steuermodul 104 das Optiksystem 130 steuern, um ein Muster von einer oder mehreren strukturierten Linien für die Projektion auf die Oberfläche 102 zu erzeugen. Genauer gesagt, kann das Steuermodul 104 eine Anzahl der strukturierten Linien, die Breiten der strukturierten Linien, den Abstand zwischen den strukturierten Linien, den Winkel der strukturierten Linien und/oder die Intensität der strukturierten Linien steuern. Außerdem kann das Steuermodul 104 das Optiksystem 130 steuern, um ein Muster von einer oder mehreren Formen für die Projektion auf die Oberfläche 102 zu erzeugen. Beispielsweise kann das Steuermodul 104 das Optiksystem 130 steuern, um Muster von Kreisen, konzentrischen Kreisen, Rechtecken und/oder n-seitigen Polygonen (N3) für die Projektion auf die Oberfläche 130 zu erzeugen.
  • Das Steuermodul 104 kann das projizierte Muster steuern basierend auf einem gemessenen Merkmal. Genauer gesagt, mit Bezug zu den 5A und 5B, werden zwei beispielhafte Verfahren zum Steuern des Musters entsprechend der vorliegenden Offenbarung gezeigt.
  • Mit Bezug auf 5A ist ein beispielhaftes Verfahren zum Bearbeiten eines Loches in einer Oberfläche gezeigt. Das Konturerfassungssystem mit strukturiertem Licht kann eine Vielzahl von Linien projizieren drehbar, um den Mittelpunkt des Lochs herum. Folglich kann das reflektierte Muster eine Vielzahl von diametral entgegengesetzten Punkten beinhalten, die der Kante des Lochs entsprechen. Dieses Verfahren ermöglicht eine genauerer Merkmalsextraktion und/oder Formmessung verglichen mit der bloßen Verwendung von vertikalen und/oder horizontalen Linien entsprechend dem Stand der Technik.
  • Mit Bezug auf 5B ist ein beispielhaftes Verfahren zum Bearbeiten einer Nut in einer Oberfläche gezeigt. Das Konturerfassungssystem mit strukturiertem Licht kann eine Vielzahl von horizontalen und vertikalen Linien entlang der Abmessungen der Nut projizieren. Folglich kann das reflektierte Muster eine Vielzahl von Punkten aufweisen, die die Kanten der Nut repräsentieren. Jedoch können abhängig von Herstellungstoleranzen, manche Nuten eher wie ein Loch erscheinen und können folglich ebenfalls entsprechend dem Verfahren von 5A bearbeitet werden.
  • Erneut auf 3B Bezug nehmend empfängt das Abbildungssystem 110 ein zweites Lichtmuster oder Interferenzen-Lichtlinien, die von der Oberfläche 102 reflektiert wird bzw. werden, und erfasst das empfangene Licht für eine Konturerfassung der Oberfläche 102 durch das Steuermodul 104. Das empfangene Licht kann verschieden sein von dem projizierten Licht aufgrund einer Kontur der Oberfläche 102. Beispielsweise kann die Oberfläche 102 eine Vielzahl von Merkmalen mit unterschiedlichen Tiefen beinhalten. Beispielsweise kann das Steuermodul 104 einen Abstand von der Oberfläche 102 bestimmen basierend auf der Phasendifferenz zwischen dem empfangenen Licht und dem projizierten Licht. Genauer gesagt, kann das Abbildungssystem 110 das reflektierte Licht empfangen, das reflektierte Licht neigen und/oder das reflektierte Licht fokussieren. Darüber hinaus kann das Abbildungssystem 110 dann das empfangene Licht erfassen und entsprechende Daten an das Steuermodul 104 für die Bearbeitung übertragen.
  • In einem Ausführungsbeispiel beinhaltet das Abbildungssystem 110 ein Empfangs-MEMS-Spiegelsystem 140, ein Fokussierlinsensystem 142 und ein Bilderfassungsmodul 144. Das Empfangs-MEMS-Spiegelsystem 140 empfängt das reflektierte Licht von der Oberfläche 102 und leitet das empfangene Licht zu dem Fokussierlinsensystem 142. Das Fokussierlinsensystem 142 kann eine oder mehrere Linsen beinhalten. Beispielsweise kann das Steuermodul 104 das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142 steuern, um eine Präzisions-Sensor-Zeige-Ausrichtung bereitzustellen.
  • Das Empfangs-MEMS-Spiegelsystem 140 kann ebenso das fokussierte Licht auf das Bilderfassungsmodul 144 neigen, um den Fokus zu maximieren durch das Aufrechterhalten der Scheimpflug Neigungsbedingung. Folglich kann beispielsweise in einem Ausführungsbeispiel eine Teilmenge des Empfangs-MEMS-Spiegelsystems 140 das empfangene Licht zu dem Fokussierlinsensystem 142 leiten, während eine verschiedene Teilmenge des Empfangs-MEMS-Spiegelsystems 140 das fokussierte Licht auf das Bilderfassungsmodul 144 neigt. Es kann hervorgehoben werden, dass alternativ beispielsweise zwei verschiedene Systeme von MEMS-Spiegeln realisiert sein können.
  • Das Steuermodul 104 steuert das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142, um eine Präzision zu erreichen, die Optik- und Bildbearbeitungsfähigkeiten ermöglicht, die für zukünftige Technologie verwendbar sind. Genauer gesagt, kann das Steuermodul 104 das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142 steuern, um die Scheimpflug Abbildungsbedingung durch Neigen des fokussierten Lichts auf das Bilderfassungsmodul 144 zu erzeugen.
  • Mit anderen Worten kann das Steuermodul 104 das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142 steuern, um ein Sichtfeld (FOV) des Bilderfassungsmoduls 144 zu vergrößern. Das Steuermodul 104 kann das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142 steuern, um die Schärfentiefe des Bilderfassungsmoduls 144 zu vergrößern. Außerdem kann das Steuermodul 104 das Empfangs-MEMS-Spiegelsystem 140 und das Fokussierlinsensystem 142 steuern, um eine Fokusbedingung aufrechtzuerhalten durch Steuern einer Länge eines Strahlenwegs zwischen dem Fokussierlinsensystem 142 und dem Bilderfassungsmodul 144.
  • Deshalb empfängt das Bilderfassungsmodul 144 das reflektierte Licht von der Oberfläche 102 mittels dem Empfangs-MEMS-Spiegelsystem 140 und dem Fokussierlinsensystem 142 (d. h. nach dem Fokussieren und/oder Neigen). Obwohl ein Bilderfassungsmodul 144 gezeigt ist, kann hervorgehoben werden, dass eine Vielzahl von Bilderfassungsmodulen 144 realisiert sein können. Beispielsweise kann jede der Vielzahl von Bilderfassungsmodulen 144 einen Teilbereich des reflektierten Lichts entsprechend einem Teilgebiet der Oberfläche 102 empfangen.
  • Das Bilderfassungsmodul 144 wandelt das fokussierte Licht in Daten um (z. B. Elektrizität). In einem Ausführungsbeispiel ist das Bilderfassungsmodul 144 ein Bildgerät mit ladungsgekoppelter Vorrichtung (CCD-Bildgerät). In einem anderen Ausführungsbeispiel ist das Bilderfassungsmodul 144 ein CMOS(Komplementär Metalloxid-Halbleiter)-Bildgert. Beispielsweise kann das CCD-Bildgerät eine höhere Auflösung erzielen als das CMOS-Bildgerät, während das CMOS-Bildgerät weniger Energie verbrauchen kann als das CCD-Bildgerät.
  • Das Bilderfassungsmodul 144 sendet die Daten zu dem Steuermodul 104 für das Einstellen des Brennpunkts und/oder für das Bearbeiten zum Bestimmen der Kontur der Oberfläche 102. Das Steuermodul 104 kann eine Fokusqualität des eingegangenen Lichts bestimmen durch Auswerten des Laserlinienprofils, das durch das Bildgerät erfasst wird. Für ein Gauss-Kurvenprofil wird der Fokus verbessert durch Maximieren des Maximalwerts und Minimieren der Breite der Laserlinie. Es ist wichtig, dass die dynamische Reichweite des Bildgeräts so ist, dass das Bild nicht gesättigt ist. Basierend auf der Fokusqualität steuert das Steuermodul 104 das Empfangs-MEMS-Spiegelsystem 140 (oder eine Untergruppe davon), um eine Scheimpflug Neigungsbedingung aufrechtzuerhalten. Dieses Verfahren kann in Echtzeit kontinuierlich wiederholt werden, um die Fokusqualität zu maximieren und damit die Scheimpflug Neigungsbedingung aufrechtzuerhalten.
  • Außerdem kann das Steuermodul 104 Merkmale der Oberfläche 102 umwandeln, extrahieren oder verfolgen. Außerdem kann das Steuermodul 104 Daten ausgeben für Oberflächengestaltungs- und/oder Inspektions-Software zum Modellieren und/oder zusätzlichen Bearbeiten. Darüber hinaus kann das Steuermodul 104 das Projektionssystem 108 und/oder das Abbildungssystem 110 basierend auf den extrahierten 3D Merkmalen einstellen. Mit anderen Worten kann beispielsweise das Steuermodul 104 eine Projektion des Lichtmusters oder der Interferenzen-Lichtlinien auf die Oberfläche 102 einstellen für eine präzisere Konturerfassung.
  • Mit Bezug auf 6 ist ein beispielhaftes Ausführungsbeispiel des Steuermoduls 104 gezeigt. Das Steuermodul 104 kann ein 2D-Bearbeitungsmodul 170, ein 2D-Extraktions/Segmentationsmodul 172, ein Koordinatentransformationsmodul 174, ein 3D-Merkmalsextraktionsmodul 176 und ein Merkmalspositions-Verfolgungsmodul 178 beinhalten.
  • Das 2D-Bearbeitungsmodul 170 empfängt Daten entsprechend dem projizierten Licht und dem reflektierten Licht. Genauer gesagt bestimmt das 2D-Bearbeitungsmodul Unterschiede zwischen den Daten von dem Bilderfassungsmodul 144 (das zweite Bild) und Daten entsprechend dem projizierten Licht (d. h. des Lichtmusters oder der Interferenzen-Linien). In einem Ausführungsbeispiel können die Daten entsprechend dem projizierten Licht in einem Datenspeicher in dem Steuermodul 104 gespeichert werden.
  • Das 2D-Extraktions/Segmentationsmodul 172 empfängt die bearbeiteten Daten von dem 2D-Bearbeitungsmodul 170. Das 2D-Extraktions/Segmentationsmodul 172 extrahiert Merkmale aus den 2D-Daten. Mit anderen Worten segmentiert das 2D-Extraktions/Segmentationsmodul 172 die bearbeiteten Daten in Segmente entsprechend den verschiedenen Merkmalen. Beispielsweise können die Segmente denjenigen Daten entsprechen, die vorbestimmte Merkmalsschwellwerte übersteigen.
  • Das Koordinatentransformationsmodul 174 empfängt die segmentierten Daten entsprechend den extrahierten Merkmalen. Das Koordinatentransformationsmodul 174 empfängt ebenfalls Sensor-Kalibrierungsdaten und Bewegungsvorrichtungs-/Werkzeug-Kalibrierungsdaten. Beispielsweise können die Sensorkalibrierungsdaten von dem Beschleunigungsmesser 112 erzeugt werden. Die Bewegungsvorrichtungs-/Werkzeug-Kalibrierungsdaten können vorbestimmte Kalibrierungsdaten sein, die in einem Datenspeicher gespeichert sind. Jedoch kann hervorgehoben werden, dass in einem Ausführungsbeispiel die Bewegungsvorrichtungs-/Werkzeug-Kalibrierungsdaten von einem Anwender eingegeben werden können.
  • Das Koordinatentransformationsmodul 174 transformiert Koordinaten des 2D-Segments in 3D-Koordinaten entsprechend den verschiedenen Merkmalen. Genauer gesagt bestimmt das Koordinatentransformationsmodul 174 die Tiefe von bestimmten Koordinaten (d. h. aufgrund der Scheimpflug Neigung). Beispielsweise kann das Koordinatentransformationsmodul 174 3D-Punktwolken erzeugen entsprechend jedem 2D-Segment. In einem Ausführungsbeispiel können die 3D-Punktwolken an externe 3D-Oberflächengestaltungs-Software geschickt werden zum Modellieren der 3D-Koordinaten.
  • Das 3D-Merkmalsextraktionsmodul 176 empfängt die 3D-Punktwolken. Das 3D-Merkmalsextraktionsmodul 176 extrahiert Merkmale aus den 3D-Punktwolken. Genauer gesagt kann das 3D-Merkmalsextraktionsmodul 176 bestimmen, welche Merkmale vorbestimmte Schwellwerte (z. B. das Maß der Oberflächenkrümmung) übersteigen und kann folglich die unangemessen hohen Merkmale extrahieren. Die extrahierten 3D-Merkmale können anders sein als die extrahierten 2D-Merkmale. Mit anderen Worten können einige der extrahierten 2D-Merkmale nicht berücksichtigt werden, nachdem sie in extrahierte 3D-Merkmale transformiert worden sind. In einem Ausführungsbeispiel können die extrahierten 3D-Merkmale an externe Inspektionssoftware gesendet werden für zusätzliche Berechnungen und/oder Verifikation der überhöhten Messungen der extrahierten 3D-Merkmale.
  • Das Merkmalspositions-Verfolgungsmodul 178 empfängt die extrahierten 3D-Merkmale. Das Merkmalspositions-Verfolgungsmodul 178 speichert die extrahierten 3D-Merkmale in einem Datenspeicher. Das Merkmalspositions-Verfolgungsmodul 178 kann ebenso das Lenkungs-MEMS-Spiegelmodul 122 und/oder das Empfangs-MEMS-Spiegelmodul 140 basierend auf den extrahierten 3D-Merkmalen einstellen. Mit anderen Worten kann das Merkmalspositions-Verfolgungsmodul 178 das System einstellen für eine präzisere Konturerfassung von einem oder mehreren der extrahierten 3D-Merkmale (z. B. einem Feedback basierten System). Dennoch wird, wenn das Merkmalspositions-Verfolgungsmodul 178 das Lenkungs-MEMS-Spiegelmodul 122 und/oder das Empfangs-MEMS-Spiegelmodul 140 einstellt, die Veränderung der Spiegelwinkel an das Koordinatentransformationsmodul 174 übermittelt für die Verwendung in zukünftigen Koordinatentransformations-Einsätzen.
  • Mit Bezug zu 7 beginnt ein beispielhaftes Verfahren zum Korrigieren eines Winkels des Konturerfassungssystems entsprechend der vorliegenden Offenbarung mit Schritt 200.
  • In Schritt 202 bestimmt das System, ob die Daten entsprechend einer Position in dem reflektierten Licht den Daten entsprechend einer Position in dem projizierten Licht gleichen. Wenn dies so ist, kehrt die Steuerung zu Schritt 202 zurück (d. h. es ist keine Kalibrierung notwendig). Wenn dies nicht so ist, fährt die Steuerung mit Schritt 204 fort.
  • In Schritt 204 misst das System eine Bewegung unter Verwendung eines Beschleunigungsmessers. Beispielsweise ermittelt das System einen Schwerkrafteffekt auf das System unter Verwendung des Beschleunigungsmessers, wie z. B. eine Neigung einer x-Achse und/oder einer y-Achse. In Schritt 206 stellt das System die Lenkungs-MEMS-Spiegel 122 und die Empfangs-MEMS-Spiegel 140 ein, um den ermittelten externen Effekt auf das System zu kompensieren. Die Steuerung kann dann zu Schritt 202 zurückkehren.
  • Mit Bezug auf die 8A bis 8B werden beispielhafte Verfahren für die Kompensation von Temperaturabweichungen des Konturerfassungssystems entsprechend der vorliegenden Offenbarung gezeigt.
  • Mit Bezug auf 8A beginnt ein beispielhaftes Verfahren zum Einstellen der Projektion aufgrund von Temperaturabweichungen mit Schritt 250. In Schritt 252 misst das System eine Temperatur des Projektionssystems. Beispielsweise kann die Temperatur durch die Thermofühler 116 erbracht werden.
  • In Schritt 254 ermittelt das System, ob die gemessene Temperatur verschieden ist von einer kalibrierten Temperatur. Beispielsweise kann die kalibrierte Temperatur eine von einer Vielzahl von vorbestimmten Temperaturen sein, die in einem Datenspeicher gespeichert sind. Wenn dies so ist, kann die Steuerung mit Schritt 256 weitermachen. Wenn dies nicht so ist, kann die Steuerung zu Schritt 252 zurückkehren.
  • In Schritt 254 kann das System die Lenkungs-MEMS-Spiegel 122 basierend auf der gemessenen Temperatur einstellen. Beispielsweise kann das System die Lenkungs-MEMS-Spiegel 122 basierend auf einer vordefinierten Beziehung (Funktion g) zwischen der MEMS-Spiegelposition (y) und der Temperatur (T) einstellen (z. B. y = g(T)). In einem Ausführungsbeispiel kann die Funktion (g) eine Vielzahl von Spiegelpositionen (y) und eine Vielzahl von entsprechenden Temperaturen (T) beinhalten, die in einem Datenspeicher gespeichert sind. Die Steuerung kann dann zu Schritt 252 zurückkehren.
  • Mit Bezug auf 8B beginnt ein beispielhaftes Verfahren zum Einstellen der (empfangenen) Abbildung aufgrund von Temperaturabweichungen mit Schritt 260. In Schritt 262 misst das System eine Temperatur des Abbildungssystems. Beispielsweise kann die Temperatur von den Thermofühlern 116 erbracht werden.
  • In Schritt 264 bestimmt das System, ob die gemessene Temperatur verschieden ist von einer kalibrierten Temperatur. Beispielsweise kann die kalibrierte Temperatur eine von einer Vielzahl von vorbestimmten Temperaturen sein, die in einem Datenspeicher gespeichert sind. Wenn dies so ist, kann die Steuerung mit Schritt 266 weitermachen. Wenn dies nicht so ist, kann die Steuerung zu Schritt 262 zurückkehren.
  • In Schritt 264 kann das System die Empfangs-MEMS-Spiegel 140 basierend auf der gemessenen Temperatur einstellen. Beispielsweise kann das System die Empfangs-MEMS-Spiegel 140 basierend auf einer vordefinierten Beziehung (Funktion f) zwischen der MEMS-Spiegelposition (x) und der Temperatur (T) einstellen (z. B. x = f(T)). In einem Ausführungsbeispiel kann die Funktion (f) eine Vielzahl von Spiegelpositionen (x) und eine Vielzahl von entsprechenden Temperaturen (T) beinhalten, die in einem Datenspeicher gespeichert sind. Die Regelung kann dann zu Schritt 252 zurückkehren.
  • Mit Bezug auf 9 beginnt ein beispielhaftes Verfahren zum Betreiben des Konturerfassungssystems mit strukturiertem Licht entsprechend der vorliegenden Offenbarung in Schritt 300. In Schritt 302 ermittelt das System, ob eine Merkmalsextraktion und/oder eine Formmessung durchgeführt werden soll oder ob eine Interferometrie durchgeführt werden soll. Wenn eine Merkmalsextraktion und/oder eine Formmessung durchgeführt werden soll, kann die Steuerung mit Schritt 304 weitermachen. Wenn eine Interferometrie durchgeführt werden soll, kann die Steuerung mit Schritt 314 weitermachen.
  • In Schritt 304 führt das System eine Kalibrierung basierend auf einer Sensor-Rückmeldung und/oder extrahierten Merkmalen oder Formmessungen (d. h. von vorangegangenen Arbeitsgängen) durch. Beispielsweise kann das System eine Farbe und/oder Intensität des projizierten Strahls, eine Positionierung der MEMS-Spiegel zur Projektion oder Abbildung, usw. kalibrieren.
  • In Schritt 306 erzeugt und projiziert das System ein erstes Lichtmuster auf eine Oberfläche zur Konturerfassung. Genauer gesagt, kann das System einen Lichtstrahl mit spezieller Farbe und/oder Intensität erzeugen und kann ein Muster, das eine oder mehrere Linien und/oder Formen beinhaltet, auf die Oberfläche projizieren.
  • In Schritt 308 empfängt das System Licht, das von der Oberfläche reflektiert wird, und lenkt das reflektierte Licht zum Erfassen. Genauer gesagt empfängt das System das reflektierte Licht, leitet das reflektierte Licht und neigt das reflektierte Licht, um den Fokus (d. h. Scheimpflug Neigung) des reflektierten Lichts für das Bildgerät zu maximieren.
  • In Schritt 310 erfasst das System das fokussierte Licht zu Verarbeitungszwecken. Beispielsweise kann das fokussierte Licht von einer CCD Kamera oder einer CMOS Kamera erfasst werden.
  • In Schritt 312 bearbeitet das System Daten entsprechend dem fokussierten Licht für eine Merkmalsextraktion und/oder Formmessung der Oberfläche. Außerdem kann das System die extrahierten Merkmale oder Formmessungen in einem Datenspeicher speichern und/oder Daten entsprechend der extrahierten Merkmale für externe Modellierung und/oder zusätzliche Bearbeitung ausgeben. Die Steuerung kann dann zu Schritt 302 zurückkehren.
  • In Schritt 314 führt das System eine Kalibrierung durch basierend auf einer Sensor-Rückmeldung und/oder extrahierten Merkmalen oder Formmessungen (d. h. von vorangegangenen Arbeitsgängen). Beispielsweise kann das System eine Farbe und/oder Intensität des projizierten Strahls, eine Positionierung der MEMS-Spiegel zur Projektion oder Abbildung, usw. kalibrieren.
  • In Schritt 316 erzeugt das System einen Lichtstrahl. Beispielsweise kann das System den Lichtstrahl unter Verwendung eines anderen Lichtsystems erzeugen, als für die Merkmalsextraktion und/oder Formmessung verwendet wird.
  • In Schritt 318 teilt und versetzt das System den Lichtstrahl, wodurch zwei Lichtstrahlen erzeugt werden mit einer kleinen Phasendifferenz (z. B. 10 nm). Beispielsweise kann der Lichtstrahl geteilt und versetzt werden unter Verwendung einer Vielzahl von Strahlteilern und/oder Prismen.
  • In Schritt 320 erfasst das System Interferenzen-Linien von Licht, das von der Oberfläche reflektiert wird. In Schritt 322 misst das System einen Abstand zwischen den Interferenzen und bestimmt eine Ebenheit der Oberfläche basierend auf dem Abstand. Beispielsweise kann eine ebenere Oberfläche einen kleineren Abstand zwischen den Interferenzen beinhalten. Die Steuerung kann dann zu Schritt 302 zurückkehren.
  • In Übereinstimmung mit anderen Merkmalen der vorliegenden Offenbarung wird ein Sensorsystem mit strukturiertem Licht vorgestellt, das für einen Betrieb in mehreren Betriebsarten konfiguriert ist. Genauer gesagt ist das Sensorsystem mit strukturiertem Licht konfiguriert, um in jeder der Betriebsarten (i) Punktmodus, (ii) Linienmodus und (iii) Flächenmodus zu arbeiten. Punktmodus bezieht sich auf eine Projektion und Abbildung von einem Lichtpunkt. Linienmodus bezieht sich auf eine Projektion und Abbildung einer ersten Vielzahl von Lichtpunkten, wobei die erste Vielzahl von Lichtpunkten eine Linie bildet. Flächenmodus bezieht sich auf die Projektion und Abbildung einer zweiten Vielzahl von Punkten, wobei die zweite Vielzahl von Punkten eine Vielzahl von Lichtlinien bildet, wobei die Vielzahl von Linien zusammen eine Fläche bildet. Das Sensorsystem mit strukturiertem Licht beinhaltet im Allgemeinen ein Projektionssystem, ein Abbildungssystem und ein Steuermodul. Das Sensorsystem mit strukturiertem Licht kann jedoch andere geeignete Komponenten beinhalten.
  • Das Projektionssystem ist eingerichtet, um auf eine Oberfläche entweder (i) einen Lichtpunkt oder (ii) eine Vielzahl von Lichtpunkten, die eine oder mehrere Lichtlinien bilden, zu projizieren, indem der Betrieb des Projektionssystems und des Abbildungssystems koordiniert wird. Beispielsweise kann das Steuermodul eine Einschaltdauer des Abbildungssystems (d. h. wie oft Bilder erfasst werden) steuern mit Bezug auf das Projektionssystem basierend auf der gewünschten Betriebsart. Obwohl beschrieben ist, dass das Steuermodul die Steuerung des Projektionssystems und des Abbildungssystems koordiniert, wird hervorgehoben, dass ebenso eine Steuerschaltung in dem Projektionssystem und/oder dem Abbildungssystem vorgesehen sein kann anstelle des Vorsehens eines Steuermoduls, wobei hierdurch eine ähnliche koordinierte Steuerung erzielt wird.
  • Bit Bezug auf 10 ist ein beispielhaftes Sensorsystem mit strukturiertem Licht 500 gezeigt. Wie voranstehend beschrieben ist das Sensorsystem mit strukturiertem Licht 500 eingerichtet, um in jeder der Betriebsarten (i) Punktmodus, (ii) Linienmodus und (iii) Flächenmodus zu arbeiten. Genauer gesagt, kann das Steuermodul 510 die Steuerung sowohl von dem Projektionssystem 520 als auch einem Abbildungssystem 530 koordinieren basierend auf einer gewünschten Betriebsart (Punkt, Linie oder Fläche). Die gewünschte Betriebsart kann von einem Anwender 540 eingegeben oder ausgewählt werden.
  • Außerdem kann mehr als ein Abbildungssystem 530 vorgesehen sein. Genauer gesagt können zwei oder mehr Abbildungssysteme 530 vorgesehen sein, um eine Sichtfeld (FOV) des Systems 500 zu vergrößern. Beispielsweise können zwei Abbildungssysteme 530 vorgesehen sein, wobei jedes einen FOV hat, der teilweise mit dem anderen überlappt, wodurch eine Gesamtscanbreite in der x-Richtung erhöht wird, wie in der US Patentanmeldung 12/943,344 mit gleichem Inhaber, angemeldet am 10. November 2010, offenbart ist, welche hierdurch durch Bezug aufgenommen ist.
  • Das Projektionssystem 520 kann eine oder mehrere Lichtquellen und ein MEMS-Spiegelsystem beinhalten. Die eine oder mehrere Lichtquellen erzeugen gemeinsam einen Lichtstrahl, der durch das MEMS-Spiegelsystem auf oder in die Nähe eines Merkmals 550 auf einer Oberfläche 560 gelenkt wird. Das Projektionssystem 520 kann weiterhin ein Optiksystem zur Manipulation des Lichtstrahls beinhalten. Licht von dem Projektionssystem 520 wird vorzugsweise bei einer sehr hohen Frequenz während eines Belichtungsarbeitsgangs des Abbildungssystems gescannt. Beispielsweise kann das Projektionssystem 520 Lichtimpulse bei einer vorgegebenen Frequenz erzeugen.
  • Die Scanngeschwindigkeit des Projektionssystems ist wesentlich schneller, z. B. 100-mal schneller, als der Belichtungsarbeitsgang, z. B. eine Verschlussgeschwindigkeit, des Abbildungssystems. Durch Verwendung einer Kombination von Scangeschwindigkeit und Verschlussgeschwindigkeit, kann das System 500 Punktdaten, Liniendaten, Daten von Mehrfachlinien oder Flächenbelichtung erhalten. Beispielsweise ist die Qualität einer Flächenbelichtung von ähnlicher Qualität wie sie durch Flutlichtquellen, wie z. B. LEDs erzielt wird. Der Vorteil dieses Belichtungsansatzes ist, dass er die Leistungsfähigkeit einer kalibrierten MEMS-Vorrichtung nutzt, die reproduzierbare präzise Bahnen ausführen kann. Folglich ist jede Position des MEMS-Spiegelsystems während des Scannens dem zugehörigen Steuermodul präzise bekannt und/oder wird dem zugehörigen Steuermodul berichtet.
  • Das Steuermodul 510 steuert das Projektionssystem 520, um entweder (i) einen Lichtpunkt oder (ii) eine Vielzahl von Lichtpunkten zu projizieren, wobei die Vielzahl von Lichtpunkten eine oder mehrere Lichtlinien bildet. Mit anderen Worten kann das Projektionssystem entweder (i) einen Lichtpunkt (Punktmodus), (ii) eine erste Vielzahl von Lichtpunkten, wobei die erste Vielzahl von Lichtpunkten eine Linie bildet (Linienmodus) oder (iii) eine zweite Vielzahl von Lichtpunkten, wobei die zweite Vielzahl von Lichtpunkten eine Vielzahl von Linien bildet (Flächenmodus) projizieren. In einigen Ausführungen kann die Vielzahl von Linien (Flächenmodus) eine Kombination sowohl von horizontaler/horizontalen Linie(n) und vertikaler/vertikalen Linie(n) beinhalten. Die Vielzahl von Linien können jedoch alle die gleiche Orientierung haben.
  • Das Steuermodul 510 kann eine von diesen drei Projektionen basierend auf der gewünschten Betriebsart befehlen. Jedoch steuert das Steuermodul 510 auch selektiv das Abbildungssystem 530 basierend auf der gewünschten Betriebsart. Beispielsweise kann das Steuermodul 510 eine Einschaltdauer des Abbildungssystems 530 basierend auf der gewünschten Betriebsart steuern (oder der befohlenen Betriebsart für das Projektionssystem 520), d. h. Punkt, Linie oder Vielfach-Linie (Fläche).
  • Im Punktmodus befiehlt das Steuermodul 510, dass das Projektionssystem 520 einen Lichtpunkt auf ein Merkmal 550 einer Oberfläche 560 projiziert. Der Punktmodus kann eine maximale Intensität bereitstellen während der Hintergrund reduziert wird. Beispielsweise kann der Punktmodus geeignet sein für dunkle, glänzende Oberflächen wie z. B. Verbundstrukturen, schwarze Farbe und ähnliches. 11A erläutert ein Beispiel von koordinierter Steuerung des Projektionssystems 520 und des Abbildungssystems 530 während des Punktmodus.
  • Wie gezeigt aktiviert das Steuermodul 510 das Abbildungssystem 530 (ein „high”-Zustand) für die Zeitspanne einer Punktprojektion durch das Projektionssystem 520 (ebenfalls ein „high”-Zustand). Mit anderen Worten kann eine Einschaltzeit des Abbildungssystems 530 ungefähr eine Projektionsperiode (oder -Impuls) sein, hierin nachfolgend als eine erste Projektionsperiode bezeichnet. Die Einschaltzeit für das Abbildungssystem 530 kann jedoch ebenso geringfügig größer als die erste Projektionsperiode sein, wobei sie sowohl den Beginn der Projektion als auch das Ende der Projektion überlappt (wie gezeigt).
  • Im Linienmodus befiehlt das Steuermodul 510 dem Projektionssystem 520 eine erste Vielzahl von Lichtpunkten (d. h. mehrere Projektionsimpulse), die eine Lichtlinie ausbilden, zu projizieren. Die erste Vielzahl von Punkten erstreckt sich quer über das Merkmal 550 der Oberfläche 560. Der Linienmodus kann eine 3D-Abbildung von Merkmalen bei maximaler Auflösung zur Verfügung stellen. Beispielsweise könnte, wenn sie mit effizienten Sub-Pixel Algorithmen kombiniert wird, die Abbildungsauflösung des Systems 500 verbessert werden, d. h. ein Abbildungssystem 530 mit feinerer Auflösung könnte vorgesehen werden. 11B erläutert ein Beispiel von koordinierter Steuerung des Projektionssystems 520 und des Abbildungssystems 530 während des Linienmodus.
  • Wie gezeigt schaltet das Steuermodul 510 das Abbildungssystem 530 für eine Zeitspanne einer Linienprojektion ein (d. h. eine Zeitspanne für das Projizieren von zwei oder mehr Lichtpunkten, die eine Linie bilden). Mit anderen Worten kann eine Einschaltzeit des Abbildungssystems 530 ungefähr zwei oder mehr Punktprojektionszeitspannen (oder -impulse) sein. Die Einschaltzeit für das Abbildungssystem 530 kann jedoch auch größer als die Linienprojektionszeitspanne (zwei oder mehr Punktprojektionszeitspannen) durch das Projektionssystem 520 sein, wobei sie sowohl den Beginn der Projektion als auch das Ende der Projektion überlappt (wie gezeigt).
  • Im Flächenmodus befiehlt das Steuermodul 510 dem Projektionssystem 520 auf das Merkmal 550 eine zweite Vielzahl von Lichtpunkten zu projizieren, die eine Vielzahl von Lichtlinien ausbilden. Wie voranstehend erwähnt, können in einigen Anwendungen die Vielzahl von Lichtlinien zumindest eine horizontale Lichtlinie und zumindest eine vertikale Lichtlinie (z. B. rechtwinklige Linien) beinhalten. Jede der Vielzahl von Lichtlinien kann jedoch eine gleiche Orientierung haben (z. B. parallele Linien). Andere Anzahlen von Linien und Winkelvorrichtungen können jedoch ebenso projiziert werden. Der Flächenmodus kann eine Abbildung von großen ebenen Flächen in einer einzigen Belichtung des Abbildungssystems 530 zur Verfügung stellen. 11C erläutert ein Beispiel einer koordinierten Steuerung des Projektionssystems 520 und des Abbildungssystems 530 während des Flächenmodus.
  • Wie gezeigt schaltet das Steuermodul 510 das Abbildungssystem 530 für eine Flächenprojektionszeitspanne ein (d. h. eine Zeitspanne zum Projizieren von vier oder mehr Lichtpunkten, die zwei oder mehr Lichtlinien ausbilden). Mit anderen Worten kann eine Einschaltzeit des Abbildungssystems 530 ungefähr vier oder mehr Punktprojektionszeitspannen (oder -impulse) betragen. Wie voranstehend beschrieben kann jedoch die Einschaltzeitspanne des Abbildungssystems 530 auch größer als die Flächenprojektionszeitspanne (vier oder mehr Punktprojektionszeitspannen) durch das Projektionssystem 520 sein, wobei sie sowohl den Beginn der Projektion als auch das Ende der Projektion überlappt (wie gezeigt).
  • Während die Linienprojektionszeitspanne und die Flächenprojektionszeitspanne mit Bezug auf die Punktprojektionszeitspanne definiert sind, kann außerdem davon ausgegangen werden, dass abhängig von einem Betriebszyklus oder Impulsfrequenz des Projektionssystems 520 während einer vorgegebenen Betriebsart die relativen Längen von jeder dieser Projektionszeitspannen variieren können. Mit anderen Worten kann das Abbildungssystem 530 eine Einschaltzeit für erste, zweite bzw. dritte Zeitspannen für den Punktmodus, Linienmodus bzw. Flächenmodus haben.
  • Bezug nehmend auf 12 beginnt ein beispielhaftes Verfahren für das Koordinieren eines Projektionssystems und eines Abbildungssystems zum Arbeiten in jeder der Betriebsarten (i) Punktmodus, (ii) Linienmodus und (iii) Flächenmodus bei 600. Bei 600 ermittelt das Steuermodul 510 die gewünschte Betriebsart. Wie voranstehend beschrieben kann die gewünschte Betriebsart durch einen Anwender eingegeben oder ausgewählt werden. Wenn der Punktmodus gewünscht wird, kann die Steuerung zu 604 weitergehen. Wenn der Linienmodus gewünscht wird, kann die Steuerung zu 608 weitergehen. Wenn der Flächenmodus gewünscht wird, kann die Steuerung zu 612 weitergehen.
  • Bei 604 kann das Steuermodul 510 (i) dem Projektionssystem 520 befehlen, einen Lichtpunkt auf das Merkmal 550 der Oberfläche 560 zu projizieren und (ii) dem Abbildungssystem 530 eine Einschaltzeit von ungefähr der (oder geringfügig größer als die) Punktprojektionszeitspanne befehlen. Die Steuerung kann dann zu 616 weitergehen.
  • Bei 608 kann das Steuermodul 510 (i) dem Projektionssystem 520 befehlen eine erste Vielzahl von Punkten, die eine Linie ausbilden, auf die Oberfläche 560 zu projizieren, die sich quer über das Merkmal 550 erstrecken, und (ii) dem Abbildungssystem 530 eine Einschaltzeit von ungefähr der (oder geringfügig größer als die) Linienprojektionszeitspanne (zwei oder mehr Punktprojektionszeitspannen) befehlen. Die Steuerung kann dann zu 616 weitergehen.
  • Bei 612 kann das Steuermodul 510 (i) dem Projektionssystem 520 befehlen auf die Oberfläche auf oder in der Nähe von dem Merkmal 550 eine zweite Vielzahl von Punkten zu projizieren, die eine Vielzahl von Lichtlinien ausbilden, und (ii) dem Abbildungssystem 530 eine Einschaltzeit von ungefähr der (oder geringfügig größer als die) Flächenprojektionszeitspanne (vier oder mehr Punktprojektionszeitspannen) befehlen. Die Steuerung kann dann zu 616 weitergehen.
  • Bei 616 kann das Steuermodul 510 einen Parameter des Merkmals 550 bestimmen, basierend auf den Daten, die vom Abbildungssystem 530 gesammelt worden sind. Der Parameter kann eine Abmessung oder andere geeignete Parameter beinhalten, die sich auf die Merkmalsabmessung beziehen. Beispielsweise können die anderen geeigneten Parameter eine Fläche, Tiefe oder Volumen beinhalten. Die Steuerung kann dann zu 600 zurückkehren.
  • Entsprechend anderen Merkmalen der vorliegenden Offenbarung wird ein Sensorsystem mit strukturiertem Licht präsentiert, das eingerichtet ist sowohl zum Ermitteln als auch zum Projizieren eines Parameters eines Merkmals auf einer Oberfläche. Genauer gesagt ist das Sensorsystem mit strukturiertem Licht eingerichtet, sowohl zum Ermitteln des Parameters eines Merkmals auf einer Oberfläche als auch dann zum Projizieren der Abmessung auf die Oberfläche. Das Sensorsystem mit strukturiertem Licht kann die Abmessung des Merkmals entsprechend den voranstehend beschriebenen Verfahren ermitteln. Der Parameter kann eine Abmessung, eine Ebenheit, eine Fläche oder ein Volumen beinhalten, aber ist nicht darauf beschränkt. Beispielsweise kann die Abmessung 2D-Messwerte sein wie z. B. die Breite, Höhe, Tiefe, der Radius, Durchmesser, Umfang usw.
  • Wieder auf 10 Bezug nehmend und wie voranstehend beschrieben, kann das Sensorsystem mit strukturiertem Licht 500 zuerst ein erstes Lichtmuster auf das Merkmal 550 auf der Oberfläche 560 projizieren. Das Abbildungssystem 530 kann dann ein Bild der Oberfläche 560 erfassen, wobei das erfasste Bild von der Oberfläche 560 weg reflektiertes Licht beinhaltet. Das Steuermodul 510 kann dann Daten erzeugen basierend auf dem erfassten Bild, d. h. das erfasste Bild digitalisieren und dann einen Parameter des Merkmals 550 basierend auf den erzeugten Daten ermitteln.
  • Nach dem Ermitteln des Parameters des Merkmals 550 kann das Sensorsystem mit strukturiertem Licht 500 dann ein zweites Lichtmuster auf die Oberfläche 560 projizieren. Anstelle der Projektion für Messzwecke kann jedoch das zweite Lichtmuster gesteuert werden, um den ermittelten Parameter auf der Oberfläche 560 abzubilden. Das Steuermodul 510 kann das Projektionssystem 520 steuern basierend auf dem ermittelten Parameter. Vielmehr kann das Steuermodul 510 das Projektionssystem 510 steuern, um das projizierte zweite Lichtmuster in eine lesbare Darstellung des ermittelten Parameters zu verarbeiten. Beispielsweise kann das zweite Lichtmuster Zahlen und/oder Messeinheiten beinhalten.
  • Nach dem Projizieren des ermittelten Parameters auf die Oberfläche 560 kann ein Anwender des Sensorsystems mit strukturiertem Licht 500 dann leicht den ermittelten Parameter von der Oberfläche 560 ablesen. Das Verwenden des gleichen Sensorsystems mit strukturiertem Licht 500, um den ermittelten Parameter dem Anwender mitzuteilen reduziert Kosten, die mit anderen Arten der Kommunikation mit dem Anwender, wie z. B. einem Bildschirm oder einem Computer, verbunden sind. Darüber hinaus kann das Projizieren des ermittelten Parameters des Merkmals 550 ein schnellerer Weg sein, dem Anwender die Messergebnisse mitzuteilen, weil der Anwender auf den gleichen allgemeinen Ort konzentriert bleiben kann (beispielsweise ohne zwischen dem Messen des Merkmals 550 und einem externen Bildschirm oder Computer hin- und herzuschauen).
  • 13 erläutert eine beispielhafte Ansicht 700 einer Projektion 710 eines ermittelten Parameters eines Merkmals 720 auf einer Oberfläche 730. Wie gezeigt stellt der projizierte Parameter 710 („2,54 cm”) einen Durchmesser des Loch/Ausschnittsmerkmals 720 dar. Wie voranstehend beschrieben kann jedoch der projizierte Parameter 710 andere Kombinationen von Zahlen und/oder Messeinheiten beinhalten. Obwohl der projizierte Parameter als über dem Merkmal 720 angeordnet dargestellt ist, kann der projizierte Parameter 710 ebenso an anderen geeigneten Stellen auf der Oberfläche 730 angeordnet sein.
  • Vielmehr kann der projizierte Parameter 710 alternativ links, rechts oder unter dem Merkmal 720 und ebenso entweder näher an oder weiter weg von dem Merkmal 720 angeordnet sein. Beispielsweise kann das Steuermodul 510 das Projektionssystem 520 steuern, um den ermittelten Parameter in oder innerhalb einer vordefinierten Entfernung von dem Merkmal 720 zu projizieren. Diese vordefinierte Entfernung könnte entweder vorbestimmt und in einem Speicher gespeichert oder durch den Anwender eingegeben werden. Darüber hinaus kann der Ort bezüglich des Merkmals 720 ebenso entweder vorbestimmt und in einem Speicher gespeichert oder durch den Anwender eingegeben werden.
  • Mit Bezug auf 14 beginnt ein beispielhaftes Verfahren zum Ermitteln und Projizieren einer Abmessung eines Merkmals auf eine Oberfläche bei 800. Bei 800 steuert das Steuermodul 510 das Projektionssystem 520, um ein erstes Lichtmuster auf oder in die Nähe eines Merkmals 550 der Oberfläche 560 zu projizieren. Bei 804 steuert das Steuermodul 510 das Abbildungssystem 530, um ein Bild der Oberfläche 530 zu erfassen, wobei das erfasste Bild Licht beinhaltet, das von der Oberfläche 560 weg reflektiert wird. Bei 808 erzeugt das Steuermodul 510 Daten basierend auf dem erfassten Bild. Bei 812 ermittelt das Steuermodul 510 einen Parameter des Merkmals 550 basierend auf den erzeugten Daten. Bei 816 steuert das Steuermodul 510 das Projektionssystem 520, um ein zweites Lichtmuster auf die Oberfläche 560 zur projizieren, wobei das zweite Lichtmuster den ermittelten Parameter einem Anwender anzeigt. Die Steuerung kann dann enden oder zu 800 für zusätzliche Arbeitsgänge zurückkehren.
  • Entsprechend anderen Merkmalen der vorliegenden Offenbarung wird eine Vorrichtung für das Messen einer Kontur einer Oberfläche präsentiert. Die Vorrichtung beinhaltet ein Gehäuse und eine Vielzahl von Komponenten eines Sensorsystems mit strukturiertem Licht angeordnet innerhalb des Gehäuses. Beispielsweise können die Komponenten innerhalb des Gehäuses das System 100 von 3B beinhalten. Die Komponenten angeordnet innerhalb des Gehäuses beinhalten im Allgemeinen jedoch folgendes: ein Abbildungslinsensystem, eine Bilderfassungsvorrichtung, einen ersten Satz von MEMS-Spiegeln und ein Steuermodul.
  • Das Abbildungslinsensystem ist eingerichtet, um von der Oberfläche reflektiertes Licht unter Verwendung von zumindest einer Linse zu fokussieren. Das Abbildungslinsensystem hat eine entsprechende Linsen-Fokussierebene. Das von der Oberfläche reflektierte Licht ist bezeichnend für die Kontur der Oberfläche. Die Bilderfassungsvorrichtung ist eingerichtet, um das fokussierte Licht zu erfassen und Daten entsprechend dem erfassten Licht zu erzeugen. Die Bilderfassungsvorrichtung hat eine entsprechende Bild-Fokussierebene, die nicht parallel zu der Linsen-Fokussierebene ist.
  • Der erste Satz von MEMS-Spiegeln ist eingerichtet, um das fokussierte Licht zu der Bilderfassungsvorrichtung zu lenken. Das Steuermodul ist eingerichtet zum (i) Empfangen der Daten von der Bilderfassungsvorrichtung entsprechend dem erfassten Licht, (ii) Bestimmen einer Fokusqualität des erfassten Lichts basierend auf den empfangenen Daten und (iii) Steuern des ersten Satzes von MEMS-Spiegeln basierend auf der Fokusqualität, um eine Scheimplug Neigungsbedingung zwischen der Linsen-Fokusebene und der Bild-Fokusebene aufrechtzuerhalten.
  • Bezug nehmend auf 15 ist eine beispielhafte Vorrichtung 900 gezeigt, die ein Gehäuse 904 und Komponenten eines Sensorsystems mit strukturiertem Licht angeordnet innerhalb des Gehäuses beinhaltet. Das Gehäuse 904 kann jedes der voranstehend beschriebenen, verschiedenen Ausführungsbeispiele des Sensorsystems mit strukturiertem Licht beinhalten. Darüber hinaus kann das Gehäuse 904 andere geeignete Komponenten beinhalten oder kann zusätzliche oder weniger Komponenten beinhalten als in den voranstehend hierin beschriebenen Ausführungsbeispielen. Wie voranstehend erwähnt kann das Gehäuse 904 im Allgemeinen jedoch das Folgende beinhalten: ein Abbildungslinsensystem, eine Bilderfassungsvorrichtung, einen ersten Satz von MEMS-Spiegeln und ein Steuermodul (alles innerhalb des Gehäuses 900 und deshalb nicht dargestellt).
  • Wie voranstehend beschrieben projiziert die Vorrichtung 900 ein Lichtmuster auf oder in die Nähe eines Merkmals 908 einer Oberfläche 912. Beispielsweise kann das Merkmal 908, wie gezeigt, ein Loch oder ein ähnlicher Ausschnitt sein. Die Vorrichtung 900 kann das Lichtmuster unter Verwendung eines Projektionssystems projizieren, das eine oder mehrere Lichtquellen, ein Optiksystem und ein erstes MEMS-Spiegelsystem beinhaltet. Die Vorrichtung 900 kann das Licht auf die Oberfläche 912 durch eine erste Öffnung 916 in der Vorrichtung 900 projizieren. Die Vorrichtung 900 kann dann von der Oberfläche 912 weg reflektiertes Licht (bezeichnend für das Merkmal 908) durch eine zweite Öffnung 920 empfangen.
  • Das Licht, das mittels der zweiten Öffnung empfangen wird, kann durch ein Abbildungssystem gelenkt und erfasst werden. Das Abbildungssystem kann ein zweites MEMS-Spiegelsystem beinhalten, ein Abbildungs-Linsensystem und eine Bilderfassungsvorrichtung. Ein Steuermodul innerhalb des Gehäuses 900 kann (i) eine Fokusqualität des erfassten Lichts bestimmen und (ii) den zweiten Satz von MEMS-Spiegeln steuern basierend auf der Fokusqualität zum Aufrechterhalten einer Scheimplug Neigungsbedingung zwischen einer Linsen-Fokusebene und einer Bild-Fokusebene. Das Steuermodul kann auch die Daten verarbeiten, um (einen) Parameter des Merkmals 908 zu ermitteln.
  • Nun auf 16 Bezug nehmend kann das in 38 beschriebene System so vorgesehen sein, dass es ein Feldprojektionssystem 109 beinhaltet. Das Feldprojektionssystem 109 kann in Verbindung mit dem Steuermodul 104 stehen. Das Feldprojektionssystem 109 kann ein Weißlicht-System sein. Das Weißlicht-System kann ein kodiertes Linienmuster erzeugen, wie z. B. ein Projektionssystem für Weißlicht-Moire-Interferenzen. Entsprechend kann das Feldprojektionssystem 109 eine Lichtquelle 160, wie z. B. eine Weißlichtquelle beinhalten. Die Lichtquelle 160 kann eine Halogen-Quelle sein, obwohl verschiedene andere Arten von Weißlicht emittierenden Technologien verwendet werden können. Das Feldprojektionsmodul 109 kann ein Linsensystem 162 beinhalten, eingerichtet zum Erzeugen eines im Allgemeinen einheitlichen Feldes mit einer geeigneten Divergenz für die zu messende Oberfläche 102. Des Weiteren kann das System eine Vielzahl von Gittern 164, 166 beinhalten. Das Lichtfeld kann durch ein erstes und zweites Gitter 164, 166 projiziert werden, um ein Schwebungsmuster zu erzeugen, das auf dem Bauteil als ein Moire-Interferenzenmuster gesehen werden kann. Darüber hinaus kann eine Phasenschiebevorrichtung 168 an einem oder mehreren der Gitter 164, 166 angebracht sein, um den Ort oder den Winkel der Gitter relativ zueinander zu ändern zum Erzeugen einer Phasenverschiebung des Moire-Interferenzenmusters, die auf die Oberfläche 102 projiziert wird. Ein oder mehrere Bilder können zu jeder Phasenposition gemacht werden. Die Helligkeit oder ein Graustufenwert an jeder Pixelposition kann analysiert werden für jede Phase des Moire-Interferenzenmusters, das auf dem Bauteil abgebildet wird. Je mehr verschiedene Phasen erfasst werden, umso besser kann die Software Systemabweichungen lösen.
  • In dieser Konfiguration beinhaltet das Abbildungssystem 110 ein Fokussierlinsensystem 142 und ein Bilderfassungsmodul 144. Das Fokussierlinsensystem 142 empfängt das reflektierte Licht von der Oberfläche 102 und lenkt das empfangene Licht zu dem Bilderfassungsmodul 144. Das Fokussierlinsensystem 142 kann eine oder mehrere Linsen beinhalten.
  • Des Weiteren kann das System auch ein zweites Abbildungssystem 111 beinhalten, beinhaltend ein Linsensystem 150 und ein Bilderfassungsmodul 152. Das Linsensystem 150 kann das von der Oberfläche 102 reflektierte Licht zu dem Bilderfassungsmodul 152 lenken, wo ein Bild von dem Muster von der Feldprojektionseinheit 109 oder der adaptiven Lichtvorrichtung 108 erfasst werden kann. Die adaptive Lichtvorrichtung kann ein Projektionssystem 108 sein wie mit Bezug auf 3B beschrieben, z. B. ein Lasersystem mit einem programmierbaren MEMS-Spiegel. Durch das Verwenden des ersten Abbildungssystems 110 zusammen mit dem zweiten Abbildungssystem 111 kann das System in einem Stereobetrieb arbeiten, um eine bessere Abdeckung bereitzustellen für Winkelabweichungen in der Oberfläche 102, ebenso wie um es zu ermöglichen, dass das System die Entfernung von dem System 100 zu der Oberfläche 102 besser auflöst basierend auf bekannten Triangulationsmethoden unter Verwendung des Sichtwinkels des ersten und zweiten Abbildungssystems 110, 111.
  • Nun auf 17 Bezug nehmend ist ein Verfahren gezeigt zum Erfassen von Daten unter Verwendung eines Feldprojektionssystems und einer adaptiven Lichtvorrichtung. Das Verfahren 1700 beginnt in Block 1710. In Block 1712 belichtet das Feldprojektionssystem ein Feld auf der Oberfläche 102 und führt eine Flächenerfassung durch, wie in Block 1712 angegeben. Das System kann ein Projektionssystem mit Weißlicht-Moiré-Interferenzen sein und als solches kann die Erfassung durchgeführt werden durch einen einziges Bildgerät oder mehrere Bildgeräte in einem Stereobetrieb. Weiterhin können mehrere Bilder während der Erfassung erfasst werden. Beispielsweise können mehrere Bilder erfasst werden, wobei jedes Bild eine verschiedene Phasenverschiebung des projizierten Moire-Interferenzenmusters erfasst. Entsprechend können 3D Tiefen-Daten aus den bei mehreren verschiedenen Phasen erfassten Bildern berechnet werden. Durch Analyse der Daten kann das System Flächen identifizieren mit zu geringen Daten aufgrund von Spiegelreflexionen, wie in Block 1714 angegeben. Beispielsweise kann die Helligkeit oder die Graustufe für jedes Pixel analysiert werden und wenn der Graustufenwert über einem gegebenen Schwellwert ist, kann es darauf hindeuten, dass Spiegelreflexionen von der Oberfläche empfangen werden. Spiegelreflexionen sättigen häufig die Pixel des Bildgeräts und deshalb kann keine Veränderung in der Helligkeit dieses Pixels wahrgenommen werden, wenn sich die Phase des Moire-Interferenzenmusters ändert. Ein Beispiel von Spiegelreflexion kann in 18 gesehen werden. Das Moire-Interferenzenmuster kann eine Vielzahl von alternierenden hellen Interferenzen 1812, 1816 und dunklen Interferenzen 1810, 1814, 1820 beinhalten. Eine Spiegelreflexionsgebiet 1830 kann als ein heller Fleck im Bild erscheinen. Der helle Fleck in dem Gebiet 1830 kann das Interferenzenmuster stören und kann nur ein geringe oder keine Änderung in der Helligkeit der Pixel verursachen, wenn die Phase des Interferenzenmusters sich ändert, weil die Pixel in dem Detektor in Sättigung oder nahe der Sättigung sein können.
  • Bezug nehmend auf 17 kann das System die adaptive Lichtvorrichtung programmieren, um ein Muster von Lichtflecken in den spiegelnden Flächen zu positionieren, wie in Block 1718 angegeben. Beispielsweise kann die adaptive Lichtvorrichtung eine Vielzahl von Laserflecken 1910 innerhalb der spiegelnden Fläche 1830 programmieren, wie in 19 gezeigt. Die Laserflecke 1910 können durch ein oder mehr Bilderfassungsmodule des Systems abgebildet werden, um die Entfernung von dem Sensor zu der Oberfläche des Werkstücks zu ermitteln unter Verwendung verschiedener Triangulations- oder Interferometrie-Techniken. Das Verwenden von kleinen Lichtflecken mit hoher Intensität von dem Laser der adaptiven Lichtvorrichtung liefert den Bilderfassungsmodulen einen weit größeren Rücklauf als verfügbar sein kann von dem Projektionsfeldmodul. Dies gilt insbesondere im Falle eines Weißlicht-Moire-Interferenzen-Projektors.
  • Erneut auf 17 Bezug nehmend kann das System Flächen identifizieren, wo zu wenig Daten verfügbar sind aufgrund eines schlechten Interferenzenkontrasts oder schlechter Interferenzenauflösung, wie in Block 1716 angegeben. In diesem Fall kann der Rücklauf von der Oberfläche sehr gering sein, möglicherweise an einer inneren Ecke eines Bauteils, wo die Geometrie keine einwandfreie Lieferung des projizierten Lichtfeldes erlaubt. Deshalb kann es geringe Unterschiede in der Helligkeit zwischen einem Pixel in der einen Phase des Moire-Interferenzenmusters und einer anderen Phase des Moire-Interferenzenmusters geben. Alternativ kann die Änderung in der Tiefe eines Gebiets der Oberfläche steil sein und deshalb treten viele Interferenzenwechsel über einer sehr kleinen Fläche auf. Somit kann das Bildgerät nicht in der Lage sein, die Phasenänderung angemessen aufzulösen. Ein Beispiel kann in 20 gesehen werden.
  • Ähnlich wie 18 beinhaltet 20 ein Weißlicht-Moire-Interferenzenmuster. Das Weißlicht-Moire-Interferenzenmuster beinhaltet alternierende helle Interferenzen 2010, 2014, 2018 und dunkle Interferenzen 2012, 2016. Das Bild beinhaltet ein Gebiet 2030 mit einer steilen Änderung in der Neigung der Oberfläche. Deshalb treten viele Interferenzenwechsel in einem sehr kleinen Gebiet des Bildes auf. Entsprechend können diese Gebiete identifiziert werden durch Schwellwertbildung der Differenz zwischen der Helligkeit an jedem Pixelort bei verschiedenen Phasen des Moire-Interferenzenmusters.
  • Wie in Block 1720 angegeben kann das Programm die adaptive Lichtvorrichtung nutzen, um ein strukturiertes Muster über den Gebieten mit schlechtem Interferenzenkontrast oder schlechter Interferenzenauflösung zu positionieren, um Daten in dem Gebiet 2030 zu erfassen. Die adaptive Lichtvorrichtung kann Laserlinien verwenden, die in einem parallelen Linienmuster projiziert werden. Das Linienmuster kann verwendet werden, um Daten in dem Gebiet 2030 unter Verwendung von Triangulations-Techniken zu erfassen. Diese Technik kann besser verstanden werden mit Bezug auf 21.
  • 21 erläutert eine Vielzahl von Laserlinien 2110, die in das Gebiet 2030 projiziert werden unter Verwendung der adaptiven Lichtvorrichtung. Die Laserlinien 2110 können so angeordnet sein, dass jede Linie im Allgemeinen rechtwinklig zu dem lokalen Interferenzenmuster in dem Gebiet 2030 ist oder in anderen Implementationen kann eine Reihe von parallelen Linien verwendet werden, wie gezeigt, wo die Reihe von Linien im Allgemeinen senkrecht zu den Interferenzen ist. Des Weiteren kann eine Vielzahl von Linienorientierungen in aufeinander folgenden Bildern verwendet werden, wenn eine zusätzliche Auflösung erforderlich ist.
  • Erneut auf 17 Bezug nehmend kann das System die Feldprojektionsdaten verwenden, z. B. von der Analyse des Moire-Interferenzenmusters, um die geometrischen Merkmale des Bauteils wie in Block 1722 angegeben zu identifizieren. Die geometrischen Merkmale können Löcher, Nuten, Ecken, Kanten und verschiedene andere geometrischen Merkmale des Bauteils beinhalten. Die Analyse zum Ermitteln der geometrischen Merkmale kann beinhalten ein Bewegen einer Kugel oder eines anderen Probenbehälters durch eine dreidimensionale Datenwolke extrahiert von den Feldprojektionsdaten und/oder den Daten der adaptiven Lichtvorrichtung. Die Daten in der Kugel können mit einer Vielzahl von vordefinierten Vorlagen verglichen werden, um zu bestimmen, ob das geometrische Merkmal entsprechend der Vorlage auf der Oberfläche identifiziert wird.
  • Des Weiteren kann die adaptive Lichtvorrichtung gesteuert werden, um ein strukturiertes Muster zu erzeugen basierend auf den identifizierten geometrischen Merkmalen der Oberfläche 102, wie in Block 1724 angegeben. Beispielsweise kann eine Linienstruktur erzeugt werden rechtwinklig zu Kanten einer Nut oder rechtwinklig zu einer im dem Bauteil ausgebildeten Kante oder Ecke. Diese geometrischen Merkmale können identifiziert werden basierend alleine aufgrund der Flächenermittlung oder aufgrund der Flächenermittlung zusätzlich zu anderen Ermittlungen wie mit Bezug auf Block 1718 und 1720 beschrieben.
  • Indes kann die mit Bezug auf Block 1710 bis 1724 beschriebene Technik angepasst für jedes Bauteil ausgeführt werden. Die Durchlaufzeit kann durch die erforderliche komplexe Analyse und vielen Bilder, die in dem oben beschriebenen Prozess verwendet werden, beeinträchtigt werden. Insofern können die Schritte 1710 bis 1724 als Teil eines Lernmodus des Systems verwendet werden. Insofern kann ein Ermittlungsmodel erzeugt werden wie in Block 1726 angegeben. Das Ermittlungsmodell kann die Flächenermittlung und eine oder mehrere Ermittlungen mit adaptiver Lichtvorrichtung beinhalten. Beispielsweise eine oder mehrere der Ermittlungen für das Sammeln von Daten in Spiegelbereichen, Sammeln von Daten in Flächen mit schlechtem Interferenzenkontrast oder schlechter Auflösung und das Sammeln von Daten basierend auf geometrischen Merkmalen. Alternativ kann die Flächenermittlung nur für den Lernmodus genutzt werden, während die Ermittlungen mit adaptiver Lichtvorrichtung nur für das Ermittlungsmodell zum Reduzieren der Durchlaufzeit während einer Laufzeitumgebung verwendet werden kann. In diesem Fall können eine oder mehrere der Ermittlungen mit adaptiver Lichtvorrichtung verwendet werden, die das strukturierte Muster basierend auf den geometrischen Merkmalen beinhalten. In Block 1728 kann das System ein manuelles Einstellen des Ermittlungsmodells ermöglichen. Die manuelle Einstellung kann es dem Anwender ermöglichen, Linien oder Lichtflecke von dem Muster, das von der adaptiven Lichtvorrichtung projiziert wird, graphisch hinzuzufügen, zu entfernen oder anzupassen. In Block 1730 kann das System das Ermittlungsmodell speichern, so dass das Ermittlungsmodell für Laufzeitausführung abgerufen werden kann. Das Verfahren endet in Block 1732. Darüber hinaus ist klar, dass das System eine Vielzahl von Ermittlungsmodellen speichern kann und ein bestimmtes Ermittlungsmodell eingestellt werden kann basierend auf der Bauteilkennung, welche durch das System erfasst wird. Die Bauteilkennung kann durch einen Barcode oder andere Sensormechanismen empfangen werden oder dem System mittels eines Bauteilverfolgungssystems übermittelt werden, das ein Bauteil durch den gesamten Herstellungsprozess verfolgt.
  • Zusätzlich oder alternativ zu dem Flächenprojektionssystem kann das System die adaptive Lichtvorrichtung verwenden, um die Oberfläche im Punktmodus zu scannen und Stereo Kameras, die synchronisiert arbeiten, verwenden, um eine ungefähre 3D-Oberfläche einer Szene zu erzeugen. Unter Verwendung der groben Punktwolke kann der Controller eine 3D-Oberfläche erzeugen. Das System kann dann die adaptive Lichtvorrichtung in den Linienmodus umschalten und die auf die Oberfläche projizierten Linien erfassen. Das System kann Datenpunkte auf der Oberfläche unter Verwendung von Triangulations-Methoden berechnen. Die 3D-Oberfläche, welche vorher im Punktmodus erfasst wurde, kann verwendet werden, um jede Tiefen-Degeneration zu beheben, wenn die Daten unter Verwendung der Linien ermittelt werden.
  • Die digitalisierte Szene kann dann statistisch analysiert werden, um nach Verbesserungen der Datenqualität zu suchen. Dies kann die oben beschriebene Form annehmen, wo eine Kugel oder ein anderes Volumen durch die 3D-Datenwolke bewegt wird. Verschiedene statistische Informationen können für jede Position des Volumens erhalten werden. Die adaptive Lichtvorrichtung kann gesteuert werden, um lokalisierte Flächen zu belichten für die Erfassung von Daten mit hoher Dichte, wo Daten spärlich sind oder wo geeignete Daten, die auf einer Vorlage basieren, für eine bestimmte Geometrie passen. Dies kann in der gleichen Art und Weise erfolgen, wie voranstehend beschrieben. Beispielsweise können Laser-Lichtflecken für Spiegelbereiche verwendet werden, Laserlinien können für Bereiche mit geringem Kontrast oder geneigte Bereiche verwendet werden. Des Weiteren können Lasermuster erzeugt werden basierend auf der identifizierten bestimmten Geometrie, beispielsweise durch Abgleich mit Vorlagen. Des Weiteren kann ein 3D-Registrierungs-Algorithmus angewandt werden, um Nicht-Überlapp-Themen zu minimieren und ein 3D-Oberflächengestaltungs-Algorithmus kann eine 3D NURB Oberfläche erzeugen aus der Punktwolke, die in irgendeinem Scenario erzeugt wurde. Die 3D NURB Oberfläche und/oder die Daten der Punktwolke können exportiert werden zu einer Analyse- oder Darstellungssoftware, die von einer dritten Partei zugeliefert werden kann.
  • Diese Vorrichtung könnte mit geringerer Distanzierung gebaut werden und somit für den tragbaren Markt dimensioniert sein.
  • Des Weiteren kann diese Vorrichtung IR-nahe, rote und blaue Laser mit einer Glasfaser-Kopplung verwenden, die auf die MEMS-Spiegeleinheit deuten, um verschiedene Modelle bereitzustellen.
  • Darüber hinaus kann diese Vorrichtung verwendet werden zur Erfassung einer großen Szene ohne signifikante Verluste in der Auflösung. Das beschriebene System erfordert keine Rück-Reflektoren oder Photogrammetrie-Ziele, um eine 3D Scene zu erfassen. Derzeitige Kamera- und Linsentechnologie ermöglichen es dieser Vorrichtung, den Fokus automatisch zu justieren und zu zoomen, um die Bildqualität zu verbessern. Eine Modulation des Lasers kann eine verbesserte Beleuchtung von verschiedenen Bauteilen ohne ein externes Eingreifen ermöglichen.
  • Des Weiteren kann, wie mit Bezug auf 22 erläutert, der Sensor unabhängig von der adaptiven Lichtvorrichtungseinheit befestigt werden. In diesem Scenario können ein oder mehrere Sensoren 2210, z. B. wie voranstehend mit Bezug auf die 16 beschrieben, bereitgestellt werden für das Inspizieren eines Bauteils 2214. Eine adaptive Lichtvorrichtung 2212, wie voranstehend beschrieben, kann ebenso für das Inspizieren desselben Bauteils bereitgestellt werden. Die adaptive Lichtvorrichtung 2212 kann unabhängig von dem einen oder den mehreren Sensoren 2210 befestigt werden. Die adaptive Lichtvorrichtung 2210 kann auch werkseitig kalibriert sein, um die Projektionswinkel in dem Projektionsraum vor der adaptiven Lichtvorrichtung 2210 abzubilden. Das Licht von der adaptiven Lichtvorrichtung kann auf das Bauteil 2214 projiziert werden und von dem einen oder den mehreren Sensoren 2210 empfangen werden. Jedoch würde die Beziehung zwischen der adaptiven Lichtvorrichtung 2212 und dem einen oder den mehreren Sensoren 2210 nicht bekannt sein aufgrund der unabhängigen Befestigung jeder Vorrichtung. Entsprechend können die adaptive Lichtvorrichtung 2212 und der eine oder die mehreren Sensoren 2210 berichtigt werden und eine Transformation kann bestimmt werden zwischen jedem von dem einen oder den mehreren Sensoren 2210 und der adaptiven Lichtvorrichtung 2212, indem eine bekannte Oberfläche, z. B. ein Kalibrierungsgegenstand, innerhalb des Projektionsfeldes der adaptiven Lichtvorrichtung 2212 und dem Sichtfeld von jedem des einen oder der mehreren Sensoren 2210 platziert wird. Die Transformation kann gespeichert werden und im Produktionsbetrieb verwendet werden, um die verschiedenen Bauteile zu messen, die durch das System inspiziert werden sollen. Dies kann insbesondere dann hilfreich sein, wenn die adaptive Lichtvorrichtung programmierbar ist und die Projektion innerhalb des Projektionsraums der adaptiven Lichtvorrichtung steuern kann, weil das Bearbeitungssystem in die Lage versetzt wird die projizierte Position in dem Raum der adaptiven Lichtvorrichtung aufzufinden und die Lichtprojektion in den Sensorraum zu transformieren, um den Ort der Oberfläche zu bestimmen entsprechend den beobachteten Wechselwirkungen mit der Oberfläche in dem Sensorraum.
  • Die breiten Lehren der Offenbarung können in einer Vielzahl von Arten angewandt werden. Deshalb soll der wahre Umfang der Erfindung, obwohl die Offenbarung bestimmte Beispiele beinhaltet, nicht darauf eingeschränkt werden, weil andere Modifikationen beim Anblick der Zeichnungen, der Beschreibung und der nachfolgenden Ansprüche offensichtlich werden.

Claims (22)

  1. Ein System zum Inspizieren eines Gegenstands, wobei das System umfasst: – zumindest ein Bildgerät eingerichtet zum Empfangen eines Bildes mit einem Sichtfeld, das den Gegenstand beinhaltet; – eine Feldprojektionsvorrichtung eingerichtet zum Projizieren eines Beleuchtungsfelds auf den Gegenstand innerhalb des Sichtfelds; – eine adaptive Lichtvorrichtung eingerichtet zum Projizieren von Beleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfelds; – einen Prozessor eingerichtet zum Empfangen von Bilddaten von dem Bildgerät entsprechend dem Beleuchtungsfeld und den Beleuchtungsstrukturen, wobei der Prozessor eingerichtet ist zum Analysieren eines Merkmals des Gegenstands basierend auf dem Beleuchtungsfeld und den Beleuchtungsstrukturen.
  2. Das System nach Patentanspruch 1, wobei das Beleuchtungsfeld ein Muster beinhaltet.
  3. Das System nach Patentanspruch 2, wobei das Muster ein kodiertes Linienmuster ist.
  4. Das System nach Patentanspruch 3, wobei das codierte Linienmuster ein Moiré-Interferenzenmuster ist.
  5. Das System nach Patentanspruch 1, wobei die adaptive Lichtvorrichtung eine Laserquelle ist.
  6. Das System nach Patentanspruch 5, wobei die Beleuchtungsstrukturen programmierbar sind.
  7. Das System nach Patentanspruch 1, wobei die adaptive Lichtvorrichtung eingerichtet ist zum dynamischen Projizieren der Beleuchtungsstrukturen auf den Gegenstand basierend auf einer Analyse des Beleuchtungsfelds.
  8. Das System nach Patentanspruch 7, wobei die adaptive Lichtvorrichtung eingerichtet ist zum Erzeugen eines Musters von einer oder mehreren Linien, um Daten in Bereichen zu erlangen, in denen die Daten vom Analysieren der Feldprojektion spärlich sind.
  9. Das System nach Patentanspruch 8, wobei die adaptive Lichtvorrichtung eingerichtet ist zum Erzeugen eines Musters von einem oder mehreren Punkten, um Daten in Bereichen zu erlangen, in denen die Daten vom Analysieren der Feldprojektion bestimmen, dass die Streuung der Feldprojektion eine Analyse des Beleuchtungsfeldes verhindert.
  10. Das System nach Patentanspruch 1, wobei der Prozessor eingerichtet ist zum Ermitteln einer Geometrie des Gegenstands.
  11. Das System nach Patentanspruch 1, wobei die Geometrie identifiziert wird basierend auf einer Analyse des Beleuchtungsfelds.
  12. Das System nach Patentanspruch 1, wobei die Geometrie identifiziert wird basierend auf einer Vielzahl von vordefinierten Vorlagen.
  13. Das System nach Patentanspruch 1, wobei die adaptive Lichtvorrichtung eingerichtet ist zum Projizieren der Strukturen auf den Gegenstand basierend auf der Geometrie.
  14. Das System nach Patentanspruch 1, wobei die Strukturen analysiert werden, um eine Vorlage für ein Merkmal des Gegenstands zu definieren.
  15. Ein Verfahren zum Inspizieren eines Gegenstands, wobei das Verfahren die Schritte umfasst: – Abbilden eines Gegenstands innerhalb eines Sichtfelds; – Projizieren eines Beleuchtungsfelds auf den Gegenstand innerhalb des Sichtfelds; – selektives Projizieren von Beleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfelds; – Empfangen von Bilddaten entsprechend des Beleuchtungsfelds und der Beleuchtungsstrukturen; – Analysieren eines Merkmals des Gegenstands basierend auf dem Beleuchtungsfeld und den Beleuchtungsstrukturen.
  16. Das System nach Patentanspruch 15, wobei das Beleuchtungsfeld ein Moiré-Interferenzenmuster beinhaltet und die Beleuchtungsstrukturen programmierbare Laserbeleuchtungsstrukturen sind.
  17. Das System nach Patentanspruch 15, weiterhin umfassend ein dynamisches Projizieren der Beleuchtungsstrukturen auf den Gegenstand basierend auf der Analyse des Beleuchtungsfelds.
  18. Das System nach Patentanspruch 15, weiterhin umfassend ein Bestimmen einer Geometrie des Gegenstands basierend auf einer Analyse des Beleuchtungsfelds und einer Vielzahl von vordefinierten Vorlagen.
  19. System zum Inspizieren eines Gegenstands, wobei das System umfasst: – ein erstes Bildgerät und ein zweites Bildgerät konfiguriert als Stereopaar, wobei jedes von dem ersten und zweiten Bildgerät eingerichtet ist zum Empfangen eines Bildes mit einem Sichtfeld, das den Gegenstand beinhaltet; – eine Feldprojektionsvorrichtung eingerichtet zum Projizieren eines Beleuchtungsfelds, das ein vorbestimmtes codiertes Lasermuster auf dem Gegenstand innerhalb des Sichtfelds von sowohl dem ersten als auch dem zweiten Bildgerät beinhaltet; – eine adaptive Lichtvorrichtung eingerichtet zum projizieren von programmierbaren Laserbeleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfelds von sowohl dem ersten als auch dem zweiten Bildgerät; – einen Prozessor eingerichtet zum Empfangen von Bilddaten von dem Bildgerät entsprechend dem Beleuchtungsfeld und den Beleuchtungsstrukturen, wobei der Prozessor eingerichtet ist zum Analysieren eines Merkmals des Gegenstands basierend auf dem Beleuchtungsfeld und den Beleuchtungsstrukturen, wobei der Prozessor eingerichtet ist zum Steuern der adaptiven Lichtvorrichtung, um die Beleuchtungsstrukturen auf den Gegenstand dynamisch zu projizieren basierend auf der Analyse des Beleuchtungsfelds.
  20. Das System nach Patentanspruch 19, wobei der Prozessor eingerichtet ist zum Ermitteln einer Geometrie des Gegenstands basierend auf einer Analyse des Beleuchtungsfelds und einer Vielzahl von vordefinierten Vorlagen.
  21. Das System nach Patentanspruch 20, wobei die adaptive Lichtvorrichtung eingerichtet ist zum Projizieren der Strukturen auf den Gegenstand basierend auf der Geometrie und die Strukturen analysiert werden, um eine Vorlage für ein Merkmal des Gegenstands zu definieren.
  22. Ein System zum Inspizieren eines Gegenstands mit: – zumindest einem Bildgerät eingerichtet zum Empfangen eines Bildes mit einem Sichtfeld, das einen Gegenstand beinhaltet; – eine adaptive Lichtvorrichtung eingerichtet zum Projizieren von Beleuchtungsstrukturen auf den Gegenstand innerhalb des Sichtfelds, wobei die adaptive Lichtvorrichtung unabhängig von dem zumindest einen Bildgerät montiert ist und nach dem Montieren kalibriert wird, um eine Transformation zwischen dem Raum des zumindest einen Bildgeräts und dem Raum der adaptiven Lichtvorrichtung zu ermitteln; – einen Prozessor eingerichtet zum Empfangen von Bilddaten von dem Bildgerät entsprechend den Beleuchtungsstrukturen, wobei der Prozessor eingerichtet ist zum Analysieren eines Merkmals des Gegenstands basierend auf den Beleuchtungsstrukturen und der Transformation.
DE201310105828 2012-06-08 2013-06-06 Hybrid sensor Ceased DE102013105828A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/492,065 US9170097B2 (en) 2008-04-01 2012-06-08 Hybrid system
US13/492,065 2012-06-08

Publications (1)

Publication Number Publication Date
DE102013105828A1 true DE102013105828A1 (de) 2013-12-12

Family

ID=49626009

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310105828 Ceased DE102013105828A1 (de) 2012-06-08 2013-06-06 Hybrid sensor

Country Status (2)

Country Link
CN (1) CN103486979A (de)
DE (1) DE102013105828A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015103255A1 (de) * 2014-12-15 2016-06-16 Test Research Inc. Optisches System und Bildkompensationsverfahren des optischen Geräts
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN110017795A (zh) * 2019-04-24 2019-07-16 中国科学院国家天文台南京天文光学技术研究所 一种用于镜面检验的相对式摆臂式轮廓仪及检测方法
WO2021263042A1 (en) * 2020-06-24 2021-12-30 Airmar Technology Corporation Software defined lighting
CN114167592A (zh) * 2018-01-15 2022-03-11 奥比中光科技集团股份有限公司 多功能照明模组
CN116593282A (zh) * 2023-07-14 2023-08-15 四川名人居门窗有限公司 一种基于结构光的玻璃抗冲击反应测试系统及方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3030066B1 (fr) * 2014-12-16 2017-12-22 Commissariat Energie Atomique Projecteur de lumiere structuree et scanner tridimensionnel comportant un tel projecteur
CA3018886C (en) * 2016-04-08 2020-10-27 Shining 3D Tech Co., Ltd. Three-dimensional measuring system and measuring method with multiple measuring modes
CN110542403A (zh) * 2019-09-19 2019-12-06 上海兰宝传感科技股份有限公司 一种mems测量传感器以及三角区域测量方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262803B1 (en) * 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
US6564166B1 (en) * 1999-10-27 2003-05-13 Georgia Tech Research Corporation Projection moiré method and apparatus for dynamic measuring of thermal induced warpage
US7454841B2 (en) * 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
WO2009124118A1 (en) * 2008-04-01 2009-10-08 Perceptron, Inc. Contour sensor incorporating mems mirrors

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015103255A1 (de) * 2014-12-15 2016-06-16 Test Research Inc. Optisches System und Bildkompensationsverfahren des optischen Geräts
US9686517B2 (en) 2014-12-15 2017-06-20 Test Research, Inc. Optical system and image compensating method of optical apparatus
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN114167592A (zh) * 2018-01-15 2022-03-11 奥比中光科技集团股份有限公司 多功能照明模组
CN114167592B (zh) * 2018-01-15 2023-10-27 奥比中光科技集团股份有限公司 多功能照明模组
CN110017795A (zh) * 2019-04-24 2019-07-16 中国科学院国家天文台南京天文光学技术研究所 一种用于镜面检验的相对式摆臂式轮廓仪及检测方法
WO2021263042A1 (en) * 2020-06-24 2021-12-30 Airmar Technology Corporation Software defined lighting
US20210404874A1 (en) * 2020-06-24 2021-12-30 Airmar Technology Corporation Software Defined Lighting
CN116593282A (zh) * 2023-07-14 2023-08-15 四川名人居门窗有限公司 一种基于结构光的玻璃抗冲击反应测试系统及方法
CN116593282B (zh) * 2023-07-14 2023-11-28 四川名人居门窗有限公司 一种基于结构光的玻璃抗冲击反应测试系统及方法

Also Published As

Publication number Publication date
CN103486979A (zh) 2014-01-01

Similar Documents

Publication Publication Date Title
DE102013105828A1 (de) Hybrid sensor
US9170097B2 (en) Hybrid system
US9143674B2 (en) Machine vision inspection system and method for performing high-speed focus height measurement operations
US8014002B2 (en) Contour sensor incorporating MEMS mirrors
CN107430772B (zh) 机器的运动测量系统以及用于操作运动测量系统的方法
DE69826753T2 (de) Optischer Profilsensor
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
WO2018103693A1 (zh) 一种三维轮廓的光学混合检测方法
US9013711B2 (en) Contour sensor incorporating MEMS mirrors
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE69628956T2 (de) Abtastvorrichtung und -verfahren
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2839238B1 (de) 3d-scanner mit fusionierten teilbildern
DE102017207176A1 (de) Autofokussystem für eine mit Hochgeschwindigkeit periodisch modulierte Linse mit variabler Brennweite
EP3819671B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
EP2728374A1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE102019205728A1 (de) Formmessvorrichtung und Formmessverfahren
WO2019238505A1 (de) Verfahren zur bestimmung des strahlverlaufs eines messstrahls einer interferometrischen messvorrichtung und messvorrichtung zur interferometrischen vermessung eines messobjekts
US8261989B2 (en) Method for generating image information
DE102021124535A1 (de) System und verfahren mit mehrpunkt-autofokus zur ausrichtung einer optischen achse eines optischen abschnitts senkrecht zu einer werkstückoberfläche
DE102008036275B4 (de) Verfahren zum Vermessen von Profilen mit optischen Sensoren
DE102019217321A1 (de) Auslenkungsmessvorrichtung
CN108700732A (zh) 用于确定物体的高度位置的方法
WO2013143882A1 (de) Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KINDERMANN, PETER, DIPL.-ING.UNIV., DE

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final