-
Die Erfindung betrifft ein Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds und eine Vorrichtung zur Durchführung eines derartigen Verfahrens.
-
Bei dem Verfahren wird die Oberfläche eines Objekts mit einer optischen Strahlung bestrahlt. Diese optische Strahlung kann in ihrer Intensität bereits moduliert sein oder durch den Speckle-Effekt auf der Oberfläche interferieren und somit in der Intensität modulieren. Die von der Oberfläche des Objekts reflektierte intensitätsmodulierte optische Strahlung wird von einem Bildsensor mit einer Vielzahl von Bildsensorelementen aufgenommen. Die Intensitätswerte der Bildsensorelemente des Bildsensors werden ausgewertet. Dabei wird durch Anwendung des Phasenschiebeverfahrens aus den Intensitätswerten der Bildsensorelemente die Phasenlage des intensitätsmodulierten optischen Strahlungsfelds bestimmt.
-
Die Beleuchtung von Objekten mit einer optischen Strahlung, die Intensitätsmodulation eines optischen Strahlungsfelds, die Aufnahme eines intensitätsmodulierten optischen Strahlungsfelds auf einem Bildsensor mit einer Vielzahl von Bildsensorelementen und die Bestimmung der Phasenlage des intensitätsmodulierten optischen Strahlungsfelds nach dem Phasenschiebeverfahren ist ein übliches Verfahren zur Bestimmung von Distanzänderungen und Verformungen von Oberflächen sowie zu deren dreidimensionaler Erfassung. Insbesondere werden Interferometrieverfahren und Shearografieverfahren zur Bestimmung von Distanzänderungen und Verformungen von Oberflächen angewendet. Streifenprojektionsverfahren werden zur dreidimensionalen Erfassung von Oberflächen angewendet. Allen Anwendungen liegt das Prinzip des Phasenschiebeverfahrens zugrunde, bei welchem die Phasenlage eines intensitätsmodulierten optischen Strahlungsfelds durch punktweise Intensitätsmessungen bestimmt wird. Bei dem Interferometrieverfahren erfolgt die Beleuchtung mit aufgeweitetem, kohärentem Laserlicht, welches auf rauen Oberflächen Speckle erzeugt. Bei den Streifenprojektionsverfahren wird das intensitätsmodulierte optische Strahlungsfeld beispielsweise durch ein Dia oder einen digitalen Flächenlichtmodulator erzeugt und durch eine Optik auf die Oberfläche projiziert.
-
Ein großes Problem bei der Beleuchtung von Objekten mit einer optischen Strahlung und der Bestimmung der Phasenlage eines intensitätsmodulierten optischen Strahlungsfelds nach dem Phasenschiebeverfahren aus den Intensitätswerten der Bildsensorelemente eines Bildsensors ist die Empfindlichkeit für die Reflexionseigenschaften des beleuchteten Objekts. Ursache hierfür sind beispielsweise mehrkomponentige Objekte mit nicht uniformer Albedo und/oder Objekte, deren Oberfläche die auftreffende Strahlung überwiegend gerichtet reflektieren. Bei Variationen in der Orientierung der Oberflächennormale zur Quelle der optischen Strahlung und der detektierenden Kamera, die den Bildsensor aufweist, kann es zu starken Schwankungen bei der Belichtung der Bildsensorelemente kommen.
-
Auf dem Bildsensor, dessen photoempfindlicher Bereich eine Vielzahl von Bildsensorelementen umfasst, wird zur Bilderzeugung in den einzelnen Bildsensorelementen die lokal auftreffende Lichtenergie in ein proportionales Ladungssignal umgewandelt. Das Ladungssignal wird in den jeweiligen Bildsensorelementen in entsprechenden Vorrichtungen zur Präservation der Ladung gespeichert. Da die maximale kapazitive Last dieser Speichervorrichtungen begrenzt ist (linear full well), ist auch der erfassbare dynamische Bereich, also das Verhältnis des Ladungssignals zum Detektorrauschen, limitiert. Idealerweise wird der Bildsensor so lange belichtet, also der Lichtenergie der vom Objekt reflektierten Strahlung ausgesetzt, bis das Verhältnis von detektierter kapazitiver Last zu dem Rauschen des Detektors sein Maximum erreicht. Wenn die Detektion der Lichtenergie für alle Bildsensorelemente mit einer identischen Belichtungszeit erfolgt, ergibt sich nur bei homogenen Reflexionseigenschaften des Objekts ein optimales Verhältnis von detektierter kapazitiver Last zum Detektorrauschen. Der Dynamikbereich des Bildsensors kann hierbei vollständig ausgenutzt werden.
-
Wenn allerdings der Dynamikbereich der auf die Bildsensorelemente auftreffenden Lichtenergie des Objekts den Dynamikbereich des Bildsensors übersteigt, kommt es aufgrund von Übersteuerung und/oder Untersteuerung des detektierten Signals zu einem Informationsverlust bei der Detektion des intensitätsmodulierten optischen Strahlungsfelds. Wenn Bildsensorelemente untersteuert werden, wenn also in bestimmten Bereichen des Bildsensors auf diese Bildsensorelemente relativ zur maximal detektierbaren kapazitiven Last zu wenig Lichtenergie trifft, verschwindet das Nutzsignal im Rauschen des Detektors. Umgekehrt tritt an übersteuerten Bildsensorelementen, an denen die Menge der Lichtenergie die maximal detektierbare kapazitive Last übersteigt, das sogenannte „Clipping” (auch als „whiteout” bezeichnet) auf. Dort geht das Bildsensorelement in Sättigung und erhält die größtmögliche Messgröße. Bei manchen Bildsensoren können darüber hinaus übersteuerte Bildsensorelemente benachbarte Bildsensorelemente derart beeinflussen, dass diese ebenfalls übersteuern (auch als „Ausfransen” bezeichnet).
-
Sowohl bei der Übersteuerung als auch bei der Untersteuerung von Bildsensorelementen kommt es zu einem Informationsverlust, der die korrekte Berechnung der Phasenlage beeinträchtigen oder unmöglich machen kann. Insbesondere bei Objekten mit stark variierenden Reflexionseigenschaften kann der Dynamikbereich des reflektierten Strahlungsfeldes den Dynamikbereich des Bildsensors deutlich übersteigen und somit die Phasenlage in den minderwertig ausgesteuerten Bereichen verfälschen.
-
Zur Lösung dieses Problems sind bereits verschiedene Vorschläge gemacht worden. So kann man zur Detektion von Szenen mit großem Dynamikbereich Bildsensoren verwenden, deren Verhältnis von erfasster Lichtenergie und Ausgangssignal nicht linear oder nur abschnittsweise linear verläuft. Beispielsweise können mit einem Sensor, der ein logarithmisches Verhältnis von erfasster Lichtenergie und Ausgangssignal aufweist, Szenen mit deutlich größerem Dynamikbereich erfasst werden. Allerdings hat eine Abweichung von einem rein linearen Verhältnis zwischen erfasster Lichtenergie und Ausgangssignal eine fehlerhafte Bestimmung der Phasenlage aus den Intensitätswerten der Bildsensorelemente nach dem Phasenschiebeverfahren zur Folge.
-
Ein weiterer Ansatz zur Lösung des beschriebenen Problems besteht in der Detektion des intensitätsmodulierten optischen Strahlungsfeldes mit mehreren Aufnahmen unterschiedlicher Belichtungszeit. Der Dynamikbereich der Szene kann auf diese Weise schrittweise erfasst werden. Aus der
US 5 309 243 A ist ein Verfahren zum Erweitern des Dynamikbereichs eines Bildsystems bekannt, bei dem Aufnahmen mit unterschiedlichen Belichtungszeiten in einem Speicher abgelegt werden. Da die unterschiedlich belichteten Aufnahmen zeitlich aufeinanderfolgend hergestellt werden müssen, ist dieses Verfahren allerdings zeitaufwendig und speicherintensiv. Die einzelnen Aufnahmen müssen vor einer etwaigen Verrechnung im Speicher der Kamera oder des Rechners gespeichert werden. Ferner können nur hinreichend statische Szenen erfasst werden.
-
Um den Informationsverlust bei der Detektion eines intensitätsmodulierten optischen Strahlungsfeldes zu vermeiden wurde ferner der Ansatz vorgeschlagen, den Dynamikbereich der Szene an den Dynamikbereich der Kamera anzupassen. Hierfür wird das optische Strahlungsfeld lokal an die Aussteuerung auf dem Bildsensor angepasst. Dies kann durch einen programmierbaren digitalen Flächenlichtmodulator erfolgen, dessen projizierte Intensität in der Weise angepasst wird, dass die von der Oberfläche des Objekts reflektierte, auf den Bildsensor einfallende Lichtenergie möglichst homogen auf den Bildsensor einfällt. Bei diesem Verfahren besteht allerdings ein hoher Zeitaufwand, da die Beleuchtungselemente des programmierbaren digitalen Flächenlichtmodulators den korrespondierenden detektierenden Bildsensorelementen der Kamera in einem iterativen, langwierigen Prozess zugeordnet werden müssen. Dieses und andere Verfahren haben dementsprechend eine relativ hohe Taktzeit zur Folge. Sie sind für den Online-Einsatz von Anwendungen mit einer intensitätsmodulierten optischen Strahlung in automatisierten oder teilautomatisierten Fertigungslinien nur bedingt oder gar nicht einsetzbar.
-
Aus der
DE 10 2007 031 774 A1 ist ein Verfahren zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen bekannt, bei dem das zu untersuchende Objekt mit strukturiertem, kohärentem oder teilkohärentem Licht beleuchtet wird. Dabei kann ein normiertes Bild aus zwei Zwischenbildern gewonnen werden, die nach unterschiedlichen Belichtungsschritten ausgelesen worden sind. Alle Bildsensorelemente werden nach zwei Verarbeitungsalgorithmen ausgewertet. Abschließend wird für jeden Bildpunkt entschieden, welcher Wert gewählt wird.
-
Die
EP 2 270 424 A1 offenbart einen optoelektronischen Sensor, der das Licht aus einem Erfassungsbereich mehrfach auswertet. Dazu werden unterschiedliche Lichtanteile separiert und auf verschiedenen Lichtpfaden von je einem Bildsensor aufgenommen.
-
Aus der
US 2011/0 285 982 A1 ist eine HDR-Kamera (High Dynamic Range-Camera) bekannt, bei der die Empfindlichkeit jedes Pixels eingestellt werden kann. Hierdurch ist es möglich, dass sich die Kamera pixelweise auf das einfallende Licht einstellt.
-
Die
US 2010/0 225 783 A1 offenbart ein Bildverarbeitungssystem, bei dem das von einer Linse gebündelte Licht von einem Strahlteiler in drei verschiedene Bilder aufgeteilt wird, die von drei Sensoren aufgenommen werden.
-
-
Die Vorveröffentlichung S. K. Nayar et al.: „High dynamic range imaging: spatially varying pixel exposures”; IEEE Conference on Computer Vision and Pattern Recognition, 2000, Proceedings, Vol. 1, S. 472–479, offenbart ein Bildverarbeitungssystem, bei dem jeweils vier Pixel ausgewertet werden, die eine verschiedene Empfindlichkeit aufweisen. Hierdurch kann ein HDR-Bild erzeugt werden.
-
Aus der
US 6 765 619 B1 ist ein Verfahren nach dem Oberbegriff des Anspruchs 1 bekannt.
-
Hiervon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren der eingangs angegebenen Art mit einem erhöhten Dynamikbereich durchzuführen und eine zur Durchführung eines derartigen Verfahrens geeignete Vorrichtung vorzuschlagen.
-
Erfindungsgemäß wird diese Aufgabe bei einem Verfahren der eingangs angegebenen Art durch die Merkmale des Anspruchs 1 gelöst. Bei dem Verfahren wird eine erste Teilmenge von Bildsensorelementen nach einem ersten Verarbeitungsalgorithmus ausgewertet. Eine zweite Teilmenge von Bildsensorelementen wird nach einem zweiten Verarbeitungsalgorithmus ausgewertet. Jeder Verarbeitungsalgorithmus kann aus einem oder mehreren Verarbeitungsschritten bestehen. Die Verarbeitungsalgorithmen unterscheiden sich voneinander.
-
Erfindungsgemäß sind die Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität des Objekts auf dem Bildsensor angeordnet. Um dies zu erreichen werden die Teilmengen von Bildsensorelementen in einem ersten Meßdurchlauf in Abhängigkeit von der Reflektivität der Oberfläche des Objekts angeordnet werden. Bei der Anordnung der Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität des Objekts ist es besonders vorteilhaft, wenn die Teilmengen von Bildsensorelementen nicht regelmäßig angeordnet sind und wenn diese Teilmengen insbesondere nach einer statistischen Verteilung angeordnet sind.
-
Die Bildsensorelemente sind vorzugsweise separat ansteuerbar. Vorteilhaft ist es, wenn die Verarbeitungsalgorithmen die Belichtungszeit als einzige oder eine von mehreren Eingangsgrößen umfassen. Dabei ist es vorteilhaft, wenn die Intensitätswerte der Bildsensorelemente über den Zeitraum der Belichtung, also über die Integrationsphase, mehrfach zerstörungsfrei ausgelesen werden können. Stattdessen oder zusätzlich können die Verarbeitungsalgorithmen die Verstärkung des Ladungssignals als einzige oder als eine von mehreren Eingangsgrößen umfassen.
-
Bei dem erfindungsgemäßen Verfahren wird das von dem Objekt reflektierte intensitätsmodulierte optische Strahlungsfeld von mindestens einem Bildsensor aufgenommen, der für das elektromagnetische Spektrum des projizierten Strahlungsfeldes empfindlich ist. Bei dieser Strahlung kann es sich um sichtbare Strahlung oder um nicht sichtbare Strahlung handeln. Das elektromagnetische Spektrum wird durch die verwendete Strahlungsquelle vorgegeben. Als Strahlungsquelle kann beispielsweise eine Bogenlampe, eine LED oder eine sonstige Laserstrahlquelle verwendet werden. Das Ausgangssignal, also die Intensitätswerte der Bildsensorelemente müssen sich hinreichend linear zu der erfassten Lichtenergie des Strahlungsfeldes verhalten, um Fehler bei der Berechnung der Phasenlage zu vermeiden.
-
Der Bildsensor kann Bestandteil einer Kamera sein, die weitere Bestandteile aufweisen kann, beispielsweise ein Gehäuse, ein Objektiv, eine Blende und/oder eine Steuereinrichtung. Die Bestrahlung der Oberfläche des Körpers kann durch einen Projektor erfolgen, der eine Lichtquelle und weitere Bestandteile enthalten kann, insbesondere ein Gehäuse und/oder ein Objektiv. Die Kamera und der Projektor können zur einer Aufnahmeeinheit zusammengefasst sein.
-
Vorteilhafte Weiterbildungen sind in den Unteransprüchen beschrieben.
-
Vorteilhaft ist es, wenn eine oder mehrere weitere Teilmengen von Bildsensorelementen nach einem oder mehreren weiteren Verarbeitungsalgorithmen ausgewertet werden. Der oder die weiteren Verarbeitungsalgorithmen können voneinander und von dem ersten und zweiten Verarbeitungsalgorithmus verschieden sein.
-
Nach einer vorteilhaften Weiterbildung wird die Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung bestrahlt. Die intensitätsmodulierte optische Strahlung kann durch eine Streifenprojektion erzeugt werden. Im Falle der Streifenprojektion ist die optische Strahlung, mit der die Oberfläche des Objekts bestrahlt wird, bereits in ihrer Intensität moduliert. Bei der Streifenprojektion kann die Erzeugung des intensitätsmodulierten optischen Strahlungsfelds durch einen Mustergenerator erzeugt werden, insbesondere durch ein Dia oder durch einen digitalen Flächenlichtmodulator wie beispielsweise ein Flüssigkristalldisplay oder ein Spiegelarray.
-
Nach einer weiteren vorteilhaften Weiterbildung wird die Oberfläche des Objekts mit einer aufgeweiteten, kohärenten, optischen Strahlung bestrahlt. Bekannte interferometrische Verfahren hierfür sind beispielsweise das ESPI-Verfahren (Electronic Speckle Pattern Interferometrie) oder das Shearographie-Verfahren. Bei den interferometrischen Verfahren erfolgt die Modulation der Intensität der optischen Strahlung durch den Speckle-Effekt von aufgeweitetem, kohärentem Laserlicht auf rauhen Oberflächen.
-
In beiden Fällen, also sowohl bei der Bestrahlung der Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung wie auch bei der Verwendung eines interferometrischen Verfahrens wird auf dem Bildsensor ein intensitätsmoduliertes, optisches Strahlungsfeld detektiert.
-
Vorteilhaft ist es, wenn die Bestimmung der Phasenlage durch ein räumliches Phasenschiebeverfahren erfolgt. Beim räumlichen Phasenschiebeverfahren wird die Phasenlage der intensitätsmodulierten optischen Strahlung durch Auswertung mehrerer, vorzugsweise benachbarter Bildsensorelemente bestimmt. Für die Auswertung ist lediglich eine Aufnahme erforderlich. Die Auswertung erfolgt auf der Grundlage der Intensitätswerte der Bildsensorelemente. Bei der Streifenprojektion wird die Oberfläche des Objekts mit einem intensitätsmodulierten optischen Strahlungsfeld bestrahlt. Das von der Oberfläche des Objekts reflektierte intensitätsmodulierte optische Strahlungsfeld wird von dem Bildsensor in einer Aufnahme erfasst und ausgewertet. Bei den interferometrischen Verfahren kann das räumliche Phasenschiebeverfahren durch ein zusätzliches Element im Strahlengang des Bildsensors realisiert werden, beispielsweise durch einen Glaskeil. Dieses zusätzliche Element bewirkt einen Unterschied der Phasenlage von benachbarten Bildsensorelementen, der durch die räumliche Auswertung dieser Bildsensorelemente bestimmt werden kann.
-
Nach einer weiteren vorteilhaften Weiterbildung erfolgt die Bestimmung der Phasenlage durch ein zeitliches Phasenschiebeverfahren. Bei dem zeitlichen Phasenschiebeverfahren wird die Phasenlage der Strahlung zeitlich sequentiell verschoben und für jedes Bildsensorelement aus den zeitlich aufeinanderfolgenden Aufnahmen bestimmt. Bei der Streifenprojektion kann das zeitliche Phasenschiebeverfahren dadurch realisiert werden, dass eine zeitlich sequentielle Verschiebung der Phasenlage durch die Projektionseinheit erfolgt. Die Verschiebung des projizierten Musters kann durch eine Änderung des für die Projektion verwendeten Dias, die Änderung des dargestellten Musters eines Flächenlichtmodulators oder die Verkippung eines Elements im Strahlengang der Projektionseinheit erfolgen. Bei dem interferometrischen Verfahren kann das zeitliche Phasenschiebeverfahren durch ein zeitlich sequentielles Verschieben und damit durch eine Weglängenänderung einer Referenzwelle gegenüber der vom Objekt reflektierten, unveränderten Welle realisiert werden. Dies kann durch einen Phasenschieber erfolgen, insbesondere durch einen Piezo-Phasenschieber.
-
Sowohl beim räumlichen Phasenschiebeverfahren als auch beim zeitlichen Phasenschiebeverfahren sind zur Bestimmung der Phasenlage jeweils mindestens drei Meßwerte erforderlich.
-
Vorteilhaft ist es, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor regelmäßig angeordnet sind.
-
Die Teilmengen von Bildsensorelementen können in Form von Zeilen, Spalten oder einer Schachbrettanordnung auf dem Bildsensor angeordnet sein. Eine Anordnung nach Art einer Schachbrettanordnung ist auch dann möglich, wenn mehr als zwei Teilmengen von Bildsensorelementen vorgesehen sind.
-
Es kann allerdings auch vorteilhaft sein, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor unregelmäßig angeordnet sind. Die Teilmengen von Bildsensorelementen können insbesondere nach einer statistischen Verteilung angeordnet sein.
-
Vorzugsweise unterscheiden sich die Verarbeitungsalgorithmen durch mindestens ein Kriterium. Die Verarbeitungsalgorithmen können sich insbesondere durch die Belichtungszeit (Exposure) und/oder die Verstärkung des Ladungssignals (Gain) unterscheiden.
-
Nach einer weiteren vorteilhaften Weiterbildung werden die Intensitätswerte benachbarter Bildsensorelemente verrechnet.
-
Die intensitätsmodulierte optische Strahlung kann von mehreren Bildsensoren aufgenommen werden. Die Sichtfelder der Bildsensoren können sich teilweise oder vollständig überlappen. Es ist allerdings auch möglich, dass sich die Sichtfelder der Bildsensoren nicht überlappen.
-
Bei einer Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens wird die Aufgabe der Erfindung durch die Merkmale des Anspruchs 12 gelöst. Die Vorrichtung umfasst einen Projektor zum Bestrahlen der Oberfläche eines Objekts mit einer optischen Strahlung, eine Kamera mit einem Bildsensor mit einer Vielzahl von Bildsensorelementen zum Aufnehmen des von der Oberfläche des Objekts reflektierten intensitätsmodulierten optischen Strahlungsfelds und eine Auswerteeinrichtung zum Auswerten der Intensitätswerte der Bildsensorelemente und zum Bestimmen der Phasenlage der intensitätsmodulierten optischen Strahlung, wobei auf dem Bildsensor eine erste Teilmenge von Bildsensorelementen und eine zweite Teilmenge von Bildsensorelementen separat ansteuerbar sind. Die Auswerteeinrichtung wertet die erste Teilmenge nach einem ersten Verarbeitungsalgorithmus aus und wertet die zweite Teilmenge nach einem zweiten Verarbeitungsalgorithmus aus, wobei sich die Verarbeitungsalgorithmen voneinander unterscheiden.
-
Erfindungsgemäß umfasst die Vorrichtung eine Auswerteeinrichtung zum Anordnen der Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität der Oberfläche des Objekts.
-
Vorteilhafte Weiterbildungen sind in den weiteren Unteransprüchen beschrieben.
-
Auf dem Bildsensor können eine oder mehrere weitere Teilmengen von Bildsensorelementen separat ansteuerbar sein.
-
Vorteilhaft ist es, wenn die Vorrichtung einen Projektor zum Bestrahlen der Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung aufweist, insbesondere einen Streifenlichtprojektor.
-
Nach einer weiteren vorteilhaften Weiterbildung weist die Vorrichtung einen Projektor zum Bestrahlen der Oberfläche des Objekts mit einer aufgeweiteten, kohärenten Strahlung, vorzugsweise mit einer Laserstrahlung auf. Mit der aufgeweiteten, kohärenten Strahlung kann ein Interferometrieverfahren durchgeführt werden.
-
Die Vorrichtung umfasst vorzugsweise eine Auswerteeinrichtung zum Bestimmen der Phasenlage durch ein räumliches Phasenschiebeverfahren. Stattdessen oder zusätzlich kann die Vorrichtung eine Auswerteeinrichtung zum Bestimmen der Phasenlage durch ein zeitliches Phasenschiebeverfahren umfassen.
-
Vorteilhaft ist es, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor regelmäßig angeordnet sind, insbesondere in Form von Zeilen, Spalten oder einer Schachbrettanordnung auf dem Bildsensor.
-
Nach einer weiteren vorteilhaften Weiterbildung sind die Teilmengen von Bildsensorelementen auf dem Bildsensor unregelmäßig angeordnet, insbesondere nach einer statistischen Verteilung.
-
Die Verarbeitungsalgorithmen können sich durch mindestens ein Kriterium unterscheiden, insbesondere durch die Belichtungszeit und/oder die Verstärkung des Ladungssignals (Gain).
-
Vorteilhaft ist es, wenn die Vorrichtung eine Auswerteeinrichtung zum Verrechnen der Intensitätswerte benachbarter Bildsensorelemente umfasst.
-
Nach einer weiteren vorteilhaften Weiterbildung umfasst die Vorrichtung eine Kamera mit mehreren Bildsensoren oder mehrere Kameras mit einem und/oder mehreren Bildsensoren.
-
Ausführungsbeispiele der Erfindung werden nachstehend anhand der beigefügten Zeichnung im einzelnen erläutert. In der Zeichnung zeigt
-
1 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds in einer schematischen Ansicht,
-
2 den Bildsensor der Vorrichtung gemäß 1 mit Teilmengen von Bildsensorelementen, die in einer Schachbrettanordnung angeordnet sind, in einer schematischen Ansicht,
-
3 eine Abwandlung des Bildsensors gemäß 2, bei dem die Teilmengen von Bildsensorelementen in Spalten angeordnet sind,
-
4 eine Abwandlung des Bildsensors gemäß 2 und 3, bei der die Teilmengen von Bildsensorelementen in Zeilen angeordnet sind,
-
5 den zeitlichen Verlauf der integrierten Ladung eines Bildsensorelements über der Zeit,
-
6 eine Abwandlung der Vorrichtung gemäß 1 mit zwei Kameras, deren Sichtfelder einander nicht überlappen,
-
7 eine weitere Abwandlung der Vorrichtung gemäß 1 mit zwei Kameras, deren Sichtfelder einander überlappen,
-
8 einen Bildsensor, bei dem die Teilmengen von Bildsensorelementen nach einer statistischen Verteilung angeordnet sind,
-
9 die Vorrichtung gemäß 1 mit einem anderen Objekt,
-
10 einen Bildsensor mit Teilmengen von Bildsensorelementen, die in Abhängigkeit von der Reflektivität des Objekts angeordnet sind,
-
11 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds nach dem ESPI-Verfahren und
-
12 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds nach dem Shearographie-Verfahren.
-
1 zeigt eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds mit einem Projektor 1, der die Oberfläche eines Objekts 2 mit einer intensitätsmodulierten optischen Strahlung bestrahlt, und einer Kamera 3 mit einem Bildsensor 4 zum Aufnehmen der von der Oberfläche des Objekts 2 reflektierten, intensitätsmodulierten optischen Strahlung. Der Bildsensor 4 weist eine Vielzahl von Bildsensorelementen 5 auf. Ferner ist eine Auswerteeinrichtung vorhanden (in der Zeichnung nicht dargestellt), die die Intensitätswerte der Bildsensorelemente 5 auswertet. Bei der Auswerteeinrichtung kann es sich um einen Computer handeln, insbesondere einen PC. Die Auswerteeinrichtung kann eine Eingabeeinrichtung aufweisen, insbesondere eine Tastatur, eine Maus und/oder ein Datenträger-Lesegerät, und/oder eine Ausgabeeinrichtung, insbesondere einen Bildschirm, einen Drucker und/oder ein Datenträger-Schreibgerät, und/oder einen Speicher zum Speichern der aufgenommenen und/oder der ausgewerteten Daten.
-
Aus 1 ist auch die Problematik einer überwiegend gerichtet reflektierenden Oberfläche bei variierender Orientierung der Oberflächennormale zur Quelle des intensitätsmodulierten optischen Strahlungsfeldes, das von dem Projektor 1 ausgeht, und zur detektierenden Kamera 3 ersichtlich. Bereiche der Oberfläche, deren überwiegend gerichtete Reflexion nicht auf den Bildsensor trifft, wie beispielsweise die Bereiche der Oberfläche, von denen die Strahlen 6, 7 ausgehen, erfordern eine längere Belichtungszeit als Bereiche der Oberfläche, deren überwiegend gerichtete Reflexion auf den Bildsensor trifft, beispielsweise der Bereich, von dem der Strahl 8 ausgeht. Wenn beide Fälle 6, 7; 8 vom Sichtfeld der Kamera 3 erfasst werden, ist der Dynamikbereich der von dem Objekt 2 reflektierten Strahlung, also der Dynamikbereich der Strahlung 6, 7 einerseits und der Strahlung 8 andererseits, größer als der Dynamikbereich des Bildsensors 4.
-
Um den Dynamikbereich des Bildsensors 4 zu erhöhen wird eine erste Teilmenge 9 von Bildsensorelementen 5 nach einem ersten Verarbeitungsalgorithmus ausgewertet und eine zweite Teilmenge 10 von Bildsensorelementen 5 nach einem zweiten, von dem ersten verschiedenen Verarbeitungsalgorithmus ausgewertet. Die Teilmengen 9, 10 von Bildsensorelementen 5 sind bei der Ausführungsform nach 2 regelmäßig angeordnet, nämlich in einer Schachbrettanordnung. Bei der Ausführungsform nach 3 sind die Teilmengen 9, 10 von Bildsensorelementen 5 ebenfalls regelmäßig angeordnet, und zwar als Spalten. Bei der Ausführungsform nach 4 sind die Teilmengen 9, 10 von Bildsensorelementen 5 ebenfalls regelmäßig angeordnet, und zwar als Zeilen.
-
Die Bildsensorelemente 5 des Bildsensors 4 sind separat ansteuerbar. Damit sind auch die Teilmengen 9, 10 von Bildsensorelementen 5 separat ansteuerbar. Jede Teilmenge 9, 10 beinhaltet weniger Bildsensorelemente 5 als der Bildsensor 4 insgesamt aufweist. Es ist auch möglich, dass eine Teilmenge nur ein einziges Bildsensorelement enthält. Aufgrund der separaten Ansteuerung der Teilmengen 9, 10 ist es möglich, für jede Teilmenge 9, 10 einen speziellen Verarbeitungsalgorithmus mit einem oder mehreren speziellen Verarbeitungsschritten durchzuführen.
-
Auf dem Bildsensor 4 können mehrere Teilmengen 9, 10 zeitlich unabhängig, also auch zeitgleich, mit abweichenden Verarbeitungsschritten adressiert werden. Als Bildsensor 4 wird vorzugsweise, aber nicht zwingend, ein in CMOS-Technik gefertigter, aktiver Pixelsensor (APS) verwendet. Durch die flexible Ansteuerung der Bildsensorelemente 5 kann die Bestimmung der Phasenlage aus den auf den Bildsensorelementen 5 des Bildsensors 4 detektierten Intensitätswerten nach dem Phasenschiebeverfahren sowohl in qualitativer als auch in zeitlicher Hinsicht verbessert werden.
-
Die Definition der Teilmengen 9, 10 auf dem Bildsensor 4 und die Festlegung der Verarbeitungsalgorithmen kann vor der ersten Belichtung des Bildsensors 4 erfolgen. Die Definition der Teilmengen und der Verarbeitungsalgorithmen kann dann über eine beliebige Anzahl von Belichtungszyklen beibehalten werden.
-
Die Definition der Verarbeitungsschritte der Verarbeitungsalgorithmen erfolgt derart, dass der detektierbare Dynamikbereich des Bildsensors 4 an dem Dynamikbereich des von dem Objekt 2 reflektierten intensitätsmodulierten optischen Strahlungsfeldes angepasst wird. Die Verarbeitungsschritte der Verarbeitungsalgorithmen unterscheiden sich durch mindestens ein Kriterium, beispielsweise die Belichtungszeit (Exposure) der Bildsensorelemente 5 und/oder die Verstärkung des Ladungssignals (Gain). Alle Bildsensorelemente 5 aller Teilmengen 9, 10 werden belichtet, ausgelesen und ausgewertet.
-
5 zeigt den zeitlichen Verlauf der integrierten Ladung L eines Bildsensorelements 5 über der Zeit t. Die Integration der Ladung beginnt zum Zeitpunkt t0. Sie endet zum Zeitpunkt t4. Zum Zeitpunkt t4 wird die Ladung wieder auf Null zurückgesetzt.
-
Die Ladung kann über den Zeitraum der Belichtung, also über die Integrationsphase zwischen den Zeitpunkten t0 und t4 mehrfach zerstörungsfrei ausgelesen werden. Sie kann beispielsweise zu den aufeinanderfolgenden Zeitpunkten t1, t2 und t3 ausgelesen werden.
-
Nach dem ersten Auswertealgorithmus für die erste Teilmenge von Bildsensorelementen 5 kann die Ladung beispielsweise zu dem Zeitpunkt t2 ausgelesen werden. Für die zweite Teilmenge von Bildsensorelementen 5 kann die Ladung beispielsweise zum Zeitpunkt t3 ausgelesen werden. Zum Zeitpunkt t2 ist die Ladung im Allgemeinen geringer als zum Zeitpunkt t3. Dementsprechend können für jede Teilmenge von Bildsensorelementen 5 Bildinformationen mit unterschiedlicher Belichtungszeit gewonnen werden. Die relativen Unterschiede der Auslesezeitpunkte spiegeln das Verhältnis der Belichtungszeiten wider. Durch die Verwendung des zerstörungsfreien Auslesens der Ladungen bei verschiedenen Teilmengen von Bildsensorelementen 5 kann der Dynamikbereich der Kamera dem Dynamikbereich des von der Oberfläche des Objekts 2 reflektierten intensitätsmodulierten optischen Strahlungsfeldes angepaßt werden.
-
Bei einer alternativen Ausführungsform des Verfahrens können die Intensitätswerte benachbarter Bildsensorelemente verrechnet werden. Gemäß der Darstellung in 2, 3 und 4 können die Intensitätswerte der Bildsensorelemente 11, 12, 13, 14 verrechnet werden. Aus den Intensitätswerten der Bildsensorelemente 11, 14, die zu der Teilmenge 10 gehören, und den Intensitätswerten der Bildsensorelemente 12, 13, die zu der Teilmenge 9 gehören, kann ein neuer Intensitätswert berechnet werden, der die vier Bildsensorelemente 11, 12, 13, 14 repräsentiert. Hierdurch kann der Dynamikbereich erweitert werden.
-
Es ist allerdings auch möglich, die Intensitätswerte von nur zwei Bildsensorelementen zu verrechnen. Beispielsweise können bei dem Bildsensor gemäß 3 die Bildsensorelemente 11 und 12 verrechnet werden sowie die Bildsensorelemente 14 und 13 verrechnet werden. Aus den Intensitätswerten der Bildsensorelemente 11, 12, die zu den Teilmengen 10, 9 gehören, kann ein neuer Intensitätswert berechnet werden, der diese beiden Bildsensorelemente 11, 12 repräsentiert. Aus den Intensitätswerten der Bildsensorelemente 14, 13, die zu den Teilmengen 10, 9 gehören, kann ein weiterer neuer Intensitätswert berechnet werden, der die beiden Bildsensorelemente 14, 13 repräsentiert.
-
Bei der in 6 gezeigten Ausführungsform ist eine weitere Kamera 15 vorhanden, die einen Bildsensor 4 aufweist. Das Sichtfeld 16 der ersten Kamera 3 und das Sichtfeld 17 der zweiten Kamera 15 überlappen sich nicht. Der von dem Projektor 1 ausgeleuchtete Bereich ist größer oder mindestens genauso groß wie die Sichtfelder 16, 17 der Kameras 3, 15.
-
Bei der Ausführungsform nach 7 sind ebenfalls zwei Kameras 3, 15 vorhanden. Hier überlappen sich die Sichtfelder 18 der ersten Kamera 3 und 19 der zweiten Kamera 15. Die Sichtfelder 18, 19 überlappen sich annähernd vollständig. Der von dem Projektor 1 ausgeleuchtete Bereich ist größer oder mindestens genauso groß wie die Sichtfelder 18, 19 der Kameras 3, 15.
-
8 zeigt einen Bildsensor 4, bei dem die Bildsensorelemente 5 unregelmäßig angeordnet sind, nämlich nach einer statistischen Verteilung.
-
9 zeigt die Vorrichtung gemäß 1 und ein Objekt 2, das aus mehreren im wesentlichen ebenen Bereichen besteht, nämlich einem ersten Bereich 20, einem zweiten Bereich 21 und einem dritten Bereich 22. Der erste Bereich 20 und der dritte Bereich 22 verlaufen parallel zueinander und im Abstand voneinander. Diese beiden Bereiche werden durch den zweiten Bereich 21 miteinander verbunden, der im Winkel zum ersten Bereich 20 und zum zweiten Bereich 22 verläuft. Mit der Bezugsziffer 23 ist die Hauptstreurichtung der vom ersten Teilbereich 20 reflektierten Strahlung bezeichnet, mit dem Bezugszeichen 24 die Hauptstreurichtung der vom zweiten Teilbereich 21 reflektierten Strahlung und mit dem Bezugszeichen 25 die Hauptstreurichtung der vom dritten Teilbereich 22 reflektierten Strahlung. Daraus wird ersichtlich, dass die Kamera 3 vom ersten Teilbereich 20 sehr viel Licht empfängt, dass die Kamera 3 vom zweiten Teilbereich 21 verhältnismäßig viel Licht empfängt und dass die Kamera 3 vom dritten Teilbereich 22 sehr wenig Licht empfängt.
-
In einem ersten Meßdurchlauf werden die Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität der Oberfläche des Objekts 2 angeordnet. Dies ist in 10 gezeigt. Die erste Teilmenge 9 von Bildsensorelementen besteht aus den ersten drei Spalten des Bildsensors. Diese Teilmenge 9 wird von dem ersten Teilbereich 20 des Objekts 2 bestrahlt. Die zweite Teilmenge 10 des Bildsensors 4 besteht aus den beiden anschließenden Spalten des Bildsensors 4. Diese zweite Teilmenge 10 wird vom zweiten Bereich 21 des Objekts 2 bestrahlt. Die dritte Teilmenge 26 besteht aus den anschließenden beiden Spalten des Bildsensors 4. Diese dritte Teilmenge 26 wird von dem dritten Bereich 22 des Objekts 2 bestrahlt. Die Teilmengen 9, 10, 26 von Bildsensorelementen sind in Abhängigkeit von der Reflektivität des Objekts 2 angeordnet.
-
11 zeigt eine Vorrichtung zum Detektieren eines optischen Strahlungsfelds nach dem ESPI-Verfahren. Die Vorrichtung umfasst eine Projektionseinheit 27 mit einer Laserlichtquelle, einen Strahlteiler 28, eine Zerstreuungsoptik 29, ein Objektiv mit einer Sammeloptik 30 und einer Apertur 31, einen weiteren Strahlteiler 32 und einen Bildsensor 33. Der von der Projektionseinheit 27 ausgehende Laserstrahl wird von dem Strahlteiler 28 teilweise durchgelassen und teilweise zu dem weiteren Strahlteiler 32 hin abgelenkt. Dieser abgelenkte Strahl bildet den Referenzstrahl 34. Der durch den Strahlteiler 28 hindurchtretende Teilstrahl läuft durch die Zerstreuungsoptik 29 und von dort auf die Oberfläche des Objekts 2. Von der Oberfläche des Objekts 2 gelangt die Strahlung durch die Sammeloptik 30, 31 und von dort durch den weiteren Strahlteiler 32 auf den Flächensensor 33. Ein Piezo-Phasenschieber 28' dient zum Verstellen des Strahlteilers 28. Alle Bestandteile der Vorrichtung sind in dem Gehäuse 34 untergebracht.
-
12 zeigt eine Vorrichtung zum Detektieren eines optischen Strahlungsfelds nach dem Shearographie-Verfahren. Die Vorrichtung umfasst einen Projektor 35 mit einer Laserlichtquelle und eine Kamera 36. Die Kamera 36 umfasst ein Gehäuse 37, in der ein Strahlteiler 38, ein Spiegel 39 mit einem Piezo-Phasenschieber, ein weiterer Spiegel 40, ein Objektiv mit einer Sammellinse 41 und einer Apertur 42 und ein Flächensensor 43 angeordnet sind. Der Spiegel 40 ist verkippbar, wobei der Kippwinkel mit 44 bezeichnet ist.
-
Durch die Erfindung wird ein Verfahren zur Detektion von intensitätsmodulierten optischen Strahlungsfeldern mit einer oder mehreren Kameras geschaffen, deren Bildsensoren Bildsensorelemente (Pixel) aufweisen, die separat ansteuerbar sind. Die separate Ansteuerung der Bildsensorelemente ermöglicht die Detektion des optischen intensitätsmodulierten Strahlungsfeldes mit einem im Vergleich zu konventionellen Bildsensoren größeren Dynamikbereich, wodurch die Überbelichtung und/oder Unterbelichtung von Bildsensorelementen vermieden werden kann. Die Detektion des optischen intensitätsmodulierten Strahlungsfeldes kann unabhängig von den Oberflächeneigenschaften des bestrahlten Objekts und/oder von dessen Oberflächenorientierung relativ zu der oder den Kameras erfolgen. In der Folge kann die Bestimmung der Phasenlage nach dem Phasenschiebeverfahren sowohl in qualitativer als auch in zeitlicher Hinsicht verbessert werden.