DE102012009151B4 - Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds - Google Patents

Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds Download PDF

Info

Publication number
DE102012009151B4
DE102012009151B4 DE102012009151.6A DE102012009151A DE102012009151B4 DE 102012009151 B4 DE102012009151 B4 DE 102012009151B4 DE 102012009151 A DE102012009151 A DE 102012009151A DE 102012009151 B4 DE102012009151 B4 DE 102012009151B4
Authority
DE
Germany
Prior art keywords
image sensor
sensor elements
intensity
optical radiation
modulated optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102012009151.6A
Other languages
English (en)
Other versions
DE102012009151A1 (de
Inventor
Thomas Mayer
Sebastian Oberndorfner
Andreas Weber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Optotechnik GmbH
Original Assignee
Steinbichler Optotechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Steinbichler Optotechnik GmbH filed Critical Steinbichler Optotechnik GmbH
Priority to DE102012009151.6A priority Critical patent/DE102012009151B4/de
Publication of DE102012009151A1 publication Critical patent/DE102012009151A1/de
Application granted granted Critical
Publication of DE102012009151B4 publication Critical patent/DE102012009151B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02094Speckle interferometers, i.e. for detecting changes in speckle pattern
    • G01B9/02095Speckle interferometers, i.e. for detecting changes in speckle pattern detecting deformation from original shape
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2290/00Aspects of interferometers not specifically covered by any group under G01B9/02
    • G01B2290/45Multiple detectors for detecting interferometer signals

Abstract

Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds, bei dem die Oberfläche eines Objekts (2) mit einer optischen Strahlung bestrahlt wird, ein intensitätsmoduliertes optisches Strahlungsfeld erzeugt wird, die intensitätsmodulierte optische Strahlung von einem Bildsensor (4) mit einer Vielzahl von Bildsensorelementen (5) aufgenommen wird und die Intensitätswerte der Bildsensorelemente (5) ausgewertet werden, wobei aus den Intensitätswerten der Bildsensorelemente (5) die Phasenlage des intensitätsmodulierten optischen Strahlungsfelds bestimmt, wobei eine erste Teilmenge (9) von Bildsensorelementen (5) nach einem ersten Verarbeitungsalgorithmus ausgewertet wird und eine zweite Teilmenge (10) von Bildsensorelementen (5) nach einem zweiten Verarbeitungsalgorithmus ausgewertet wird, wobei die Festlegung der Verarbeitungsalgorithmen vor der ersten Belichtung des Bildsensors (4) erfolgt, dadurch gekennzeichnet, dass die Teilmengen (9, 10, 26) von Bildsensorelementen (5) in einem ersten Meßdurchlauf in Abhängigkeit von der Reflektivität der Oberfläche des Objekts (2) angeordnet werden und dass anschließend das Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfels durchgeführt wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds und eine Vorrichtung zur Durchführung eines derartigen Verfahrens.
  • Bei dem Verfahren wird die Oberfläche eines Objekts mit einer optischen Strahlung bestrahlt. Diese optische Strahlung kann in ihrer Intensität bereits moduliert sein oder durch den Speckle-Effekt auf der Oberfläche interferieren und somit in der Intensität modulieren. Die von der Oberfläche des Objekts reflektierte intensitätsmodulierte optische Strahlung wird von einem Bildsensor mit einer Vielzahl von Bildsensorelementen aufgenommen. Die Intensitätswerte der Bildsensorelemente des Bildsensors werden ausgewertet. Dabei wird durch Anwendung des Phasenschiebeverfahrens aus den Intensitätswerten der Bildsensorelemente die Phasenlage des intensitätsmodulierten optischen Strahlungsfelds bestimmt.
  • Die Beleuchtung von Objekten mit einer optischen Strahlung, die Intensitätsmodulation eines optischen Strahlungsfelds, die Aufnahme eines intensitätsmodulierten optischen Strahlungsfelds auf einem Bildsensor mit einer Vielzahl von Bildsensorelementen und die Bestimmung der Phasenlage des intensitätsmodulierten optischen Strahlungsfelds nach dem Phasenschiebeverfahren ist ein übliches Verfahren zur Bestimmung von Distanzänderungen und Verformungen von Oberflächen sowie zu deren dreidimensionaler Erfassung. Insbesondere werden Interferometrieverfahren und Shearografieverfahren zur Bestimmung von Distanzänderungen und Verformungen von Oberflächen angewendet. Streifenprojektionsverfahren werden zur dreidimensionalen Erfassung von Oberflächen angewendet. Allen Anwendungen liegt das Prinzip des Phasenschiebeverfahrens zugrunde, bei welchem die Phasenlage eines intensitätsmodulierten optischen Strahlungsfelds durch punktweise Intensitätsmessungen bestimmt wird. Bei dem Interferometrieverfahren erfolgt die Beleuchtung mit aufgeweitetem, kohärentem Laserlicht, welches auf rauen Oberflächen Speckle erzeugt. Bei den Streifenprojektionsverfahren wird das intensitätsmodulierte optische Strahlungsfeld beispielsweise durch ein Dia oder einen digitalen Flächenlichtmodulator erzeugt und durch eine Optik auf die Oberfläche projiziert.
  • Ein großes Problem bei der Beleuchtung von Objekten mit einer optischen Strahlung und der Bestimmung der Phasenlage eines intensitätsmodulierten optischen Strahlungsfelds nach dem Phasenschiebeverfahren aus den Intensitätswerten der Bildsensorelemente eines Bildsensors ist die Empfindlichkeit für die Reflexionseigenschaften des beleuchteten Objekts. Ursache hierfür sind beispielsweise mehrkomponentige Objekte mit nicht uniformer Albedo und/oder Objekte, deren Oberfläche die auftreffende Strahlung überwiegend gerichtet reflektieren. Bei Variationen in der Orientierung der Oberflächennormale zur Quelle der optischen Strahlung und der detektierenden Kamera, die den Bildsensor aufweist, kann es zu starken Schwankungen bei der Belichtung der Bildsensorelemente kommen.
  • Auf dem Bildsensor, dessen photoempfindlicher Bereich eine Vielzahl von Bildsensorelementen umfasst, wird zur Bilderzeugung in den einzelnen Bildsensorelementen die lokal auftreffende Lichtenergie in ein proportionales Ladungssignal umgewandelt. Das Ladungssignal wird in den jeweiligen Bildsensorelementen in entsprechenden Vorrichtungen zur Präservation der Ladung gespeichert. Da die maximale kapazitive Last dieser Speichervorrichtungen begrenzt ist (linear full well), ist auch der erfassbare dynamische Bereich, also das Verhältnis des Ladungssignals zum Detektorrauschen, limitiert. Idealerweise wird der Bildsensor so lange belichtet, also der Lichtenergie der vom Objekt reflektierten Strahlung ausgesetzt, bis das Verhältnis von detektierter kapazitiver Last zu dem Rauschen des Detektors sein Maximum erreicht. Wenn die Detektion der Lichtenergie für alle Bildsensorelemente mit einer identischen Belichtungszeit erfolgt, ergibt sich nur bei homogenen Reflexionseigenschaften des Objekts ein optimales Verhältnis von detektierter kapazitiver Last zum Detektorrauschen. Der Dynamikbereich des Bildsensors kann hierbei vollständig ausgenutzt werden.
  • Wenn allerdings der Dynamikbereich der auf die Bildsensorelemente auftreffenden Lichtenergie des Objekts den Dynamikbereich des Bildsensors übersteigt, kommt es aufgrund von Übersteuerung und/oder Untersteuerung des detektierten Signals zu einem Informationsverlust bei der Detektion des intensitätsmodulierten optischen Strahlungsfelds. Wenn Bildsensorelemente untersteuert werden, wenn also in bestimmten Bereichen des Bildsensors auf diese Bildsensorelemente relativ zur maximal detektierbaren kapazitiven Last zu wenig Lichtenergie trifft, verschwindet das Nutzsignal im Rauschen des Detektors. Umgekehrt tritt an übersteuerten Bildsensorelementen, an denen die Menge der Lichtenergie die maximal detektierbare kapazitive Last übersteigt, das sogenannte „Clipping” (auch als „whiteout” bezeichnet) auf. Dort geht das Bildsensorelement in Sättigung und erhält die größtmögliche Messgröße. Bei manchen Bildsensoren können darüber hinaus übersteuerte Bildsensorelemente benachbarte Bildsensorelemente derart beeinflussen, dass diese ebenfalls übersteuern (auch als „Ausfransen” bezeichnet).
  • Sowohl bei der Übersteuerung als auch bei der Untersteuerung von Bildsensorelementen kommt es zu einem Informationsverlust, der die korrekte Berechnung der Phasenlage beeinträchtigen oder unmöglich machen kann. Insbesondere bei Objekten mit stark variierenden Reflexionseigenschaften kann der Dynamikbereich des reflektierten Strahlungsfeldes den Dynamikbereich des Bildsensors deutlich übersteigen und somit die Phasenlage in den minderwertig ausgesteuerten Bereichen verfälschen.
  • Zur Lösung dieses Problems sind bereits verschiedene Vorschläge gemacht worden. So kann man zur Detektion von Szenen mit großem Dynamikbereich Bildsensoren verwenden, deren Verhältnis von erfasster Lichtenergie und Ausgangssignal nicht linear oder nur abschnittsweise linear verläuft. Beispielsweise können mit einem Sensor, der ein logarithmisches Verhältnis von erfasster Lichtenergie und Ausgangssignal aufweist, Szenen mit deutlich größerem Dynamikbereich erfasst werden. Allerdings hat eine Abweichung von einem rein linearen Verhältnis zwischen erfasster Lichtenergie und Ausgangssignal eine fehlerhafte Bestimmung der Phasenlage aus den Intensitätswerten der Bildsensorelemente nach dem Phasenschiebeverfahren zur Folge.
  • Ein weiterer Ansatz zur Lösung des beschriebenen Problems besteht in der Detektion des intensitätsmodulierten optischen Strahlungsfeldes mit mehreren Aufnahmen unterschiedlicher Belichtungszeit. Der Dynamikbereich der Szene kann auf diese Weise schrittweise erfasst werden. Aus der US 5 309 243 A ist ein Verfahren zum Erweitern des Dynamikbereichs eines Bildsystems bekannt, bei dem Aufnahmen mit unterschiedlichen Belichtungszeiten in einem Speicher abgelegt werden. Da die unterschiedlich belichteten Aufnahmen zeitlich aufeinanderfolgend hergestellt werden müssen, ist dieses Verfahren allerdings zeitaufwendig und speicherintensiv. Die einzelnen Aufnahmen müssen vor einer etwaigen Verrechnung im Speicher der Kamera oder des Rechners gespeichert werden. Ferner können nur hinreichend statische Szenen erfasst werden.
  • Um den Informationsverlust bei der Detektion eines intensitätsmodulierten optischen Strahlungsfeldes zu vermeiden wurde ferner der Ansatz vorgeschlagen, den Dynamikbereich der Szene an den Dynamikbereich der Kamera anzupassen. Hierfür wird das optische Strahlungsfeld lokal an die Aussteuerung auf dem Bildsensor angepasst. Dies kann durch einen programmierbaren digitalen Flächenlichtmodulator erfolgen, dessen projizierte Intensität in der Weise angepasst wird, dass die von der Oberfläche des Objekts reflektierte, auf den Bildsensor einfallende Lichtenergie möglichst homogen auf den Bildsensor einfällt. Bei diesem Verfahren besteht allerdings ein hoher Zeitaufwand, da die Beleuchtungselemente des programmierbaren digitalen Flächenlichtmodulators den korrespondierenden detektierenden Bildsensorelementen der Kamera in einem iterativen, langwierigen Prozess zugeordnet werden müssen. Dieses und andere Verfahren haben dementsprechend eine relativ hohe Taktzeit zur Folge. Sie sind für den Online-Einsatz von Anwendungen mit einer intensitätsmodulierten optischen Strahlung in automatisierten oder teilautomatisierten Fertigungslinien nur bedingt oder gar nicht einsetzbar.
  • Aus der DE 10 2007 031 774 A1 ist ein Verfahren zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen bekannt, bei dem das zu untersuchende Objekt mit strukturiertem, kohärentem oder teilkohärentem Licht beleuchtet wird. Dabei kann ein normiertes Bild aus zwei Zwischenbildern gewonnen werden, die nach unterschiedlichen Belichtungsschritten ausgelesen worden sind. Alle Bildsensorelemente werden nach zwei Verarbeitungsalgorithmen ausgewertet. Abschließend wird für jeden Bildpunkt entschieden, welcher Wert gewählt wird.
  • Die EP 2 270 424 A1 offenbart einen optoelektronischen Sensor, der das Licht aus einem Erfassungsbereich mehrfach auswertet. Dazu werden unterschiedliche Lichtanteile separiert und auf verschiedenen Lichtpfaden von je einem Bildsensor aufgenommen.
  • Aus der US 2011/0 285 982 A1 ist eine HDR-Kamera (High Dynamic Range-Camera) bekannt, bei der die Empfindlichkeit jedes Pixels eingestellt werden kann. Hierdurch ist es möglich, dass sich die Kamera pixelweise auf das einfallende Licht einstellt.
  • Die US 2010/0 225 783 A1 offenbart ein Bildverarbeitungssystem, bei dem das von einer Linse gebündelte Licht von einem Strahlteiler in drei verschiedene Bilder aufgeteilt wird, die von drei Sensoren aufgenommen werden.
  • Aus der DE 10 2007 046 210 A1 ist ein ähnliches Bildverarbeitungssystem bekannt.
  • Die Vorveröffentlichung S. K. Nayar et al.: „High dynamic range imaging: spatially varying pixel exposures”; IEEE Conference on Computer Vision and Pattern Recognition, 2000, Proceedings, Vol. 1, S. 472–479, offenbart ein Bildverarbeitungssystem, bei dem jeweils vier Pixel ausgewertet werden, die eine verschiedene Empfindlichkeit aufweisen. Hierdurch kann ein HDR-Bild erzeugt werden.
  • Aus der US 6 765 619 B1 ist ein Verfahren nach dem Oberbegriff des Anspruchs 1 bekannt.
  • Hiervon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren der eingangs angegebenen Art mit einem erhöhten Dynamikbereich durchzuführen und eine zur Durchführung eines derartigen Verfahrens geeignete Vorrichtung vorzuschlagen.
  • Erfindungsgemäß wird diese Aufgabe bei einem Verfahren der eingangs angegebenen Art durch die Merkmale des Anspruchs 1 gelöst. Bei dem Verfahren wird eine erste Teilmenge von Bildsensorelementen nach einem ersten Verarbeitungsalgorithmus ausgewertet. Eine zweite Teilmenge von Bildsensorelementen wird nach einem zweiten Verarbeitungsalgorithmus ausgewertet. Jeder Verarbeitungsalgorithmus kann aus einem oder mehreren Verarbeitungsschritten bestehen. Die Verarbeitungsalgorithmen unterscheiden sich voneinander.
  • Erfindungsgemäß sind die Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität des Objekts auf dem Bildsensor angeordnet. Um dies zu erreichen werden die Teilmengen von Bildsensorelementen in einem ersten Meßdurchlauf in Abhängigkeit von der Reflektivität der Oberfläche des Objekts angeordnet werden. Bei der Anordnung der Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität des Objekts ist es besonders vorteilhaft, wenn die Teilmengen von Bildsensorelementen nicht regelmäßig angeordnet sind und wenn diese Teilmengen insbesondere nach einer statistischen Verteilung angeordnet sind.
  • Die Bildsensorelemente sind vorzugsweise separat ansteuerbar. Vorteilhaft ist es, wenn die Verarbeitungsalgorithmen die Belichtungszeit als einzige oder eine von mehreren Eingangsgrößen umfassen. Dabei ist es vorteilhaft, wenn die Intensitätswerte der Bildsensorelemente über den Zeitraum der Belichtung, also über die Integrationsphase, mehrfach zerstörungsfrei ausgelesen werden können. Stattdessen oder zusätzlich können die Verarbeitungsalgorithmen die Verstärkung des Ladungssignals als einzige oder als eine von mehreren Eingangsgrößen umfassen.
  • Bei dem erfindungsgemäßen Verfahren wird das von dem Objekt reflektierte intensitätsmodulierte optische Strahlungsfeld von mindestens einem Bildsensor aufgenommen, der für das elektromagnetische Spektrum des projizierten Strahlungsfeldes empfindlich ist. Bei dieser Strahlung kann es sich um sichtbare Strahlung oder um nicht sichtbare Strahlung handeln. Das elektromagnetische Spektrum wird durch die verwendete Strahlungsquelle vorgegeben. Als Strahlungsquelle kann beispielsweise eine Bogenlampe, eine LED oder eine sonstige Laserstrahlquelle verwendet werden. Das Ausgangssignal, also die Intensitätswerte der Bildsensorelemente müssen sich hinreichend linear zu der erfassten Lichtenergie des Strahlungsfeldes verhalten, um Fehler bei der Berechnung der Phasenlage zu vermeiden.
  • Der Bildsensor kann Bestandteil einer Kamera sein, die weitere Bestandteile aufweisen kann, beispielsweise ein Gehäuse, ein Objektiv, eine Blende und/oder eine Steuereinrichtung. Die Bestrahlung der Oberfläche des Körpers kann durch einen Projektor erfolgen, der eine Lichtquelle und weitere Bestandteile enthalten kann, insbesondere ein Gehäuse und/oder ein Objektiv. Die Kamera und der Projektor können zur einer Aufnahmeeinheit zusammengefasst sein.
  • Vorteilhafte Weiterbildungen sind in den Unteransprüchen beschrieben.
  • Vorteilhaft ist es, wenn eine oder mehrere weitere Teilmengen von Bildsensorelementen nach einem oder mehreren weiteren Verarbeitungsalgorithmen ausgewertet werden. Der oder die weiteren Verarbeitungsalgorithmen können voneinander und von dem ersten und zweiten Verarbeitungsalgorithmus verschieden sein.
  • Nach einer vorteilhaften Weiterbildung wird die Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung bestrahlt. Die intensitätsmodulierte optische Strahlung kann durch eine Streifenprojektion erzeugt werden. Im Falle der Streifenprojektion ist die optische Strahlung, mit der die Oberfläche des Objekts bestrahlt wird, bereits in ihrer Intensität moduliert. Bei der Streifenprojektion kann die Erzeugung des intensitätsmodulierten optischen Strahlungsfelds durch einen Mustergenerator erzeugt werden, insbesondere durch ein Dia oder durch einen digitalen Flächenlichtmodulator wie beispielsweise ein Flüssigkristalldisplay oder ein Spiegelarray.
  • Nach einer weiteren vorteilhaften Weiterbildung wird die Oberfläche des Objekts mit einer aufgeweiteten, kohärenten, optischen Strahlung bestrahlt. Bekannte interferometrische Verfahren hierfür sind beispielsweise das ESPI-Verfahren (Electronic Speckle Pattern Interferometrie) oder das Shearographie-Verfahren. Bei den interferometrischen Verfahren erfolgt die Modulation der Intensität der optischen Strahlung durch den Speckle-Effekt von aufgeweitetem, kohärentem Laserlicht auf rauhen Oberflächen.
  • In beiden Fällen, also sowohl bei der Bestrahlung der Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung wie auch bei der Verwendung eines interferometrischen Verfahrens wird auf dem Bildsensor ein intensitätsmoduliertes, optisches Strahlungsfeld detektiert.
  • Vorteilhaft ist es, wenn die Bestimmung der Phasenlage durch ein räumliches Phasenschiebeverfahren erfolgt. Beim räumlichen Phasenschiebeverfahren wird die Phasenlage der intensitätsmodulierten optischen Strahlung durch Auswertung mehrerer, vorzugsweise benachbarter Bildsensorelemente bestimmt. Für die Auswertung ist lediglich eine Aufnahme erforderlich. Die Auswertung erfolgt auf der Grundlage der Intensitätswerte der Bildsensorelemente. Bei der Streifenprojektion wird die Oberfläche des Objekts mit einem intensitätsmodulierten optischen Strahlungsfeld bestrahlt. Das von der Oberfläche des Objekts reflektierte intensitätsmodulierte optische Strahlungsfeld wird von dem Bildsensor in einer Aufnahme erfasst und ausgewertet. Bei den interferometrischen Verfahren kann das räumliche Phasenschiebeverfahren durch ein zusätzliches Element im Strahlengang des Bildsensors realisiert werden, beispielsweise durch einen Glaskeil. Dieses zusätzliche Element bewirkt einen Unterschied der Phasenlage von benachbarten Bildsensorelementen, der durch die räumliche Auswertung dieser Bildsensorelemente bestimmt werden kann.
  • Nach einer weiteren vorteilhaften Weiterbildung erfolgt die Bestimmung der Phasenlage durch ein zeitliches Phasenschiebeverfahren. Bei dem zeitlichen Phasenschiebeverfahren wird die Phasenlage der Strahlung zeitlich sequentiell verschoben und für jedes Bildsensorelement aus den zeitlich aufeinanderfolgenden Aufnahmen bestimmt. Bei der Streifenprojektion kann das zeitliche Phasenschiebeverfahren dadurch realisiert werden, dass eine zeitlich sequentielle Verschiebung der Phasenlage durch die Projektionseinheit erfolgt. Die Verschiebung des projizierten Musters kann durch eine Änderung des für die Projektion verwendeten Dias, die Änderung des dargestellten Musters eines Flächenlichtmodulators oder die Verkippung eines Elements im Strahlengang der Projektionseinheit erfolgen. Bei dem interferometrischen Verfahren kann das zeitliche Phasenschiebeverfahren durch ein zeitlich sequentielles Verschieben und damit durch eine Weglängenänderung einer Referenzwelle gegenüber der vom Objekt reflektierten, unveränderten Welle realisiert werden. Dies kann durch einen Phasenschieber erfolgen, insbesondere durch einen Piezo-Phasenschieber.
  • Sowohl beim räumlichen Phasenschiebeverfahren als auch beim zeitlichen Phasenschiebeverfahren sind zur Bestimmung der Phasenlage jeweils mindestens drei Meßwerte erforderlich.
  • Vorteilhaft ist es, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor regelmäßig angeordnet sind.
  • Die Teilmengen von Bildsensorelementen können in Form von Zeilen, Spalten oder einer Schachbrettanordnung auf dem Bildsensor angeordnet sein. Eine Anordnung nach Art einer Schachbrettanordnung ist auch dann möglich, wenn mehr als zwei Teilmengen von Bildsensorelementen vorgesehen sind.
  • Es kann allerdings auch vorteilhaft sein, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor unregelmäßig angeordnet sind. Die Teilmengen von Bildsensorelementen können insbesondere nach einer statistischen Verteilung angeordnet sein.
  • Vorzugsweise unterscheiden sich die Verarbeitungsalgorithmen durch mindestens ein Kriterium. Die Verarbeitungsalgorithmen können sich insbesondere durch die Belichtungszeit (Exposure) und/oder die Verstärkung des Ladungssignals (Gain) unterscheiden.
  • Nach einer weiteren vorteilhaften Weiterbildung werden die Intensitätswerte benachbarter Bildsensorelemente verrechnet.
  • Die intensitätsmodulierte optische Strahlung kann von mehreren Bildsensoren aufgenommen werden. Die Sichtfelder der Bildsensoren können sich teilweise oder vollständig überlappen. Es ist allerdings auch möglich, dass sich die Sichtfelder der Bildsensoren nicht überlappen.
  • Bei einer Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens wird die Aufgabe der Erfindung durch die Merkmale des Anspruchs 12 gelöst. Die Vorrichtung umfasst einen Projektor zum Bestrahlen der Oberfläche eines Objekts mit einer optischen Strahlung, eine Kamera mit einem Bildsensor mit einer Vielzahl von Bildsensorelementen zum Aufnehmen des von der Oberfläche des Objekts reflektierten intensitätsmodulierten optischen Strahlungsfelds und eine Auswerteeinrichtung zum Auswerten der Intensitätswerte der Bildsensorelemente und zum Bestimmen der Phasenlage der intensitätsmodulierten optischen Strahlung, wobei auf dem Bildsensor eine erste Teilmenge von Bildsensorelementen und eine zweite Teilmenge von Bildsensorelementen separat ansteuerbar sind. Die Auswerteeinrichtung wertet die erste Teilmenge nach einem ersten Verarbeitungsalgorithmus aus und wertet die zweite Teilmenge nach einem zweiten Verarbeitungsalgorithmus aus, wobei sich die Verarbeitungsalgorithmen voneinander unterscheiden.
  • Erfindungsgemäß umfasst die Vorrichtung eine Auswerteeinrichtung zum Anordnen der Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität der Oberfläche des Objekts.
  • Vorteilhafte Weiterbildungen sind in den weiteren Unteransprüchen beschrieben.
  • Auf dem Bildsensor können eine oder mehrere weitere Teilmengen von Bildsensorelementen separat ansteuerbar sein.
  • Vorteilhaft ist es, wenn die Vorrichtung einen Projektor zum Bestrahlen der Oberfläche des Objekts mit einer intensitätsmodulierten optischen Strahlung aufweist, insbesondere einen Streifenlichtprojektor.
  • Nach einer weiteren vorteilhaften Weiterbildung weist die Vorrichtung einen Projektor zum Bestrahlen der Oberfläche des Objekts mit einer aufgeweiteten, kohärenten Strahlung, vorzugsweise mit einer Laserstrahlung auf. Mit der aufgeweiteten, kohärenten Strahlung kann ein Interferometrieverfahren durchgeführt werden.
  • Die Vorrichtung umfasst vorzugsweise eine Auswerteeinrichtung zum Bestimmen der Phasenlage durch ein räumliches Phasenschiebeverfahren. Stattdessen oder zusätzlich kann die Vorrichtung eine Auswerteeinrichtung zum Bestimmen der Phasenlage durch ein zeitliches Phasenschiebeverfahren umfassen.
  • Vorteilhaft ist es, wenn die Teilmengen von Bildsensorelementen auf dem Bildsensor regelmäßig angeordnet sind, insbesondere in Form von Zeilen, Spalten oder einer Schachbrettanordnung auf dem Bildsensor.
  • Nach einer weiteren vorteilhaften Weiterbildung sind die Teilmengen von Bildsensorelementen auf dem Bildsensor unregelmäßig angeordnet, insbesondere nach einer statistischen Verteilung.
  • Die Verarbeitungsalgorithmen können sich durch mindestens ein Kriterium unterscheiden, insbesondere durch die Belichtungszeit und/oder die Verstärkung des Ladungssignals (Gain).
  • Vorteilhaft ist es, wenn die Vorrichtung eine Auswerteeinrichtung zum Verrechnen der Intensitätswerte benachbarter Bildsensorelemente umfasst.
  • Nach einer weiteren vorteilhaften Weiterbildung umfasst die Vorrichtung eine Kamera mit mehreren Bildsensoren oder mehrere Kameras mit einem und/oder mehreren Bildsensoren.
  • Ausführungsbeispiele der Erfindung werden nachstehend anhand der beigefügten Zeichnung im einzelnen erläutert. In der Zeichnung zeigt
  • 1 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds in einer schematischen Ansicht,
  • 2 den Bildsensor der Vorrichtung gemäß 1 mit Teilmengen von Bildsensorelementen, die in einer Schachbrettanordnung angeordnet sind, in einer schematischen Ansicht,
  • 3 eine Abwandlung des Bildsensors gemäß 2, bei dem die Teilmengen von Bildsensorelementen in Spalten angeordnet sind,
  • 4 eine Abwandlung des Bildsensors gemäß 2 und 3, bei der die Teilmengen von Bildsensorelementen in Zeilen angeordnet sind,
  • 5 den zeitlichen Verlauf der integrierten Ladung eines Bildsensorelements über der Zeit,
  • 6 eine Abwandlung der Vorrichtung gemäß 1 mit zwei Kameras, deren Sichtfelder einander nicht überlappen,
  • 7 eine weitere Abwandlung der Vorrichtung gemäß 1 mit zwei Kameras, deren Sichtfelder einander überlappen,
  • 8 einen Bildsensor, bei dem die Teilmengen von Bildsensorelementen nach einer statistischen Verteilung angeordnet sind,
  • 9 die Vorrichtung gemäß 1 mit einem anderen Objekt,
  • 10 einen Bildsensor mit Teilmengen von Bildsensorelementen, die in Abhängigkeit von der Reflektivität des Objekts angeordnet sind,
  • 11 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds nach dem ESPI-Verfahren und
  • 12 eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds nach dem Shearographie-Verfahren.
  • 1 zeigt eine Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds mit einem Projektor 1, der die Oberfläche eines Objekts 2 mit einer intensitätsmodulierten optischen Strahlung bestrahlt, und einer Kamera 3 mit einem Bildsensor 4 zum Aufnehmen der von der Oberfläche des Objekts 2 reflektierten, intensitätsmodulierten optischen Strahlung. Der Bildsensor 4 weist eine Vielzahl von Bildsensorelementen 5 auf. Ferner ist eine Auswerteeinrichtung vorhanden (in der Zeichnung nicht dargestellt), die die Intensitätswerte der Bildsensorelemente 5 auswertet. Bei der Auswerteeinrichtung kann es sich um einen Computer handeln, insbesondere einen PC. Die Auswerteeinrichtung kann eine Eingabeeinrichtung aufweisen, insbesondere eine Tastatur, eine Maus und/oder ein Datenträger-Lesegerät, und/oder eine Ausgabeeinrichtung, insbesondere einen Bildschirm, einen Drucker und/oder ein Datenträger-Schreibgerät, und/oder einen Speicher zum Speichern der aufgenommenen und/oder der ausgewerteten Daten.
  • Aus 1 ist auch die Problematik einer überwiegend gerichtet reflektierenden Oberfläche bei variierender Orientierung der Oberflächennormale zur Quelle des intensitätsmodulierten optischen Strahlungsfeldes, das von dem Projektor 1 ausgeht, und zur detektierenden Kamera 3 ersichtlich. Bereiche der Oberfläche, deren überwiegend gerichtete Reflexion nicht auf den Bildsensor trifft, wie beispielsweise die Bereiche der Oberfläche, von denen die Strahlen 6, 7 ausgehen, erfordern eine längere Belichtungszeit als Bereiche der Oberfläche, deren überwiegend gerichtete Reflexion auf den Bildsensor trifft, beispielsweise der Bereich, von dem der Strahl 8 ausgeht. Wenn beide Fälle 6, 7; 8 vom Sichtfeld der Kamera 3 erfasst werden, ist der Dynamikbereich der von dem Objekt 2 reflektierten Strahlung, also der Dynamikbereich der Strahlung 6, 7 einerseits und der Strahlung 8 andererseits, größer als der Dynamikbereich des Bildsensors 4.
  • Um den Dynamikbereich des Bildsensors 4 zu erhöhen wird eine erste Teilmenge 9 von Bildsensorelementen 5 nach einem ersten Verarbeitungsalgorithmus ausgewertet und eine zweite Teilmenge 10 von Bildsensorelementen 5 nach einem zweiten, von dem ersten verschiedenen Verarbeitungsalgorithmus ausgewertet. Die Teilmengen 9, 10 von Bildsensorelementen 5 sind bei der Ausführungsform nach 2 regelmäßig angeordnet, nämlich in einer Schachbrettanordnung. Bei der Ausführungsform nach 3 sind die Teilmengen 9, 10 von Bildsensorelementen 5 ebenfalls regelmäßig angeordnet, und zwar als Spalten. Bei der Ausführungsform nach 4 sind die Teilmengen 9, 10 von Bildsensorelementen 5 ebenfalls regelmäßig angeordnet, und zwar als Zeilen.
  • Die Bildsensorelemente 5 des Bildsensors 4 sind separat ansteuerbar. Damit sind auch die Teilmengen 9, 10 von Bildsensorelementen 5 separat ansteuerbar. Jede Teilmenge 9, 10 beinhaltet weniger Bildsensorelemente 5 als der Bildsensor 4 insgesamt aufweist. Es ist auch möglich, dass eine Teilmenge nur ein einziges Bildsensorelement enthält. Aufgrund der separaten Ansteuerung der Teilmengen 9, 10 ist es möglich, für jede Teilmenge 9, 10 einen speziellen Verarbeitungsalgorithmus mit einem oder mehreren speziellen Verarbeitungsschritten durchzuführen.
  • Auf dem Bildsensor 4 können mehrere Teilmengen 9, 10 zeitlich unabhängig, also auch zeitgleich, mit abweichenden Verarbeitungsschritten adressiert werden. Als Bildsensor 4 wird vorzugsweise, aber nicht zwingend, ein in CMOS-Technik gefertigter, aktiver Pixelsensor (APS) verwendet. Durch die flexible Ansteuerung der Bildsensorelemente 5 kann die Bestimmung der Phasenlage aus den auf den Bildsensorelementen 5 des Bildsensors 4 detektierten Intensitätswerten nach dem Phasenschiebeverfahren sowohl in qualitativer als auch in zeitlicher Hinsicht verbessert werden.
  • Die Definition der Teilmengen 9, 10 auf dem Bildsensor 4 und die Festlegung der Verarbeitungsalgorithmen kann vor der ersten Belichtung des Bildsensors 4 erfolgen. Die Definition der Teilmengen und der Verarbeitungsalgorithmen kann dann über eine beliebige Anzahl von Belichtungszyklen beibehalten werden.
  • Die Definition der Verarbeitungsschritte der Verarbeitungsalgorithmen erfolgt derart, dass der detektierbare Dynamikbereich des Bildsensors 4 an dem Dynamikbereich des von dem Objekt 2 reflektierten intensitätsmodulierten optischen Strahlungsfeldes angepasst wird. Die Verarbeitungsschritte der Verarbeitungsalgorithmen unterscheiden sich durch mindestens ein Kriterium, beispielsweise die Belichtungszeit (Exposure) der Bildsensorelemente 5 und/oder die Verstärkung des Ladungssignals (Gain). Alle Bildsensorelemente 5 aller Teilmengen 9, 10 werden belichtet, ausgelesen und ausgewertet.
  • 5 zeigt den zeitlichen Verlauf der integrierten Ladung L eines Bildsensorelements 5 über der Zeit t. Die Integration der Ladung beginnt zum Zeitpunkt t0. Sie endet zum Zeitpunkt t4. Zum Zeitpunkt t4 wird die Ladung wieder auf Null zurückgesetzt.
  • Die Ladung kann über den Zeitraum der Belichtung, also über die Integrationsphase zwischen den Zeitpunkten t0 und t4 mehrfach zerstörungsfrei ausgelesen werden. Sie kann beispielsweise zu den aufeinanderfolgenden Zeitpunkten t1, t2 und t3 ausgelesen werden.
  • Nach dem ersten Auswertealgorithmus für die erste Teilmenge von Bildsensorelementen 5 kann die Ladung beispielsweise zu dem Zeitpunkt t2 ausgelesen werden. Für die zweite Teilmenge von Bildsensorelementen 5 kann die Ladung beispielsweise zum Zeitpunkt t3 ausgelesen werden. Zum Zeitpunkt t2 ist die Ladung im Allgemeinen geringer als zum Zeitpunkt t3. Dementsprechend können für jede Teilmenge von Bildsensorelementen 5 Bildinformationen mit unterschiedlicher Belichtungszeit gewonnen werden. Die relativen Unterschiede der Auslesezeitpunkte spiegeln das Verhältnis der Belichtungszeiten wider. Durch die Verwendung des zerstörungsfreien Auslesens der Ladungen bei verschiedenen Teilmengen von Bildsensorelementen 5 kann der Dynamikbereich der Kamera dem Dynamikbereich des von der Oberfläche des Objekts 2 reflektierten intensitätsmodulierten optischen Strahlungsfeldes angepaßt werden.
  • Bei einer alternativen Ausführungsform des Verfahrens können die Intensitätswerte benachbarter Bildsensorelemente verrechnet werden. Gemäß der Darstellung in 2, 3 und 4 können die Intensitätswerte der Bildsensorelemente 11, 12, 13, 14 verrechnet werden. Aus den Intensitätswerten der Bildsensorelemente 11, 14, die zu der Teilmenge 10 gehören, und den Intensitätswerten der Bildsensorelemente 12, 13, die zu der Teilmenge 9 gehören, kann ein neuer Intensitätswert berechnet werden, der die vier Bildsensorelemente 11, 12, 13, 14 repräsentiert. Hierdurch kann der Dynamikbereich erweitert werden.
  • Es ist allerdings auch möglich, die Intensitätswerte von nur zwei Bildsensorelementen zu verrechnen. Beispielsweise können bei dem Bildsensor gemäß 3 die Bildsensorelemente 11 und 12 verrechnet werden sowie die Bildsensorelemente 14 und 13 verrechnet werden. Aus den Intensitätswerten der Bildsensorelemente 11, 12, die zu den Teilmengen 10, 9 gehören, kann ein neuer Intensitätswert berechnet werden, der diese beiden Bildsensorelemente 11, 12 repräsentiert. Aus den Intensitätswerten der Bildsensorelemente 14, 13, die zu den Teilmengen 10, 9 gehören, kann ein weiterer neuer Intensitätswert berechnet werden, der die beiden Bildsensorelemente 14, 13 repräsentiert.
  • Bei der in 6 gezeigten Ausführungsform ist eine weitere Kamera 15 vorhanden, die einen Bildsensor 4 aufweist. Das Sichtfeld 16 der ersten Kamera 3 und das Sichtfeld 17 der zweiten Kamera 15 überlappen sich nicht. Der von dem Projektor 1 ausgeleuchtete Bereich ist größer oder mindestens genauso groß wie die Sichtfelder 16, 17 der Kameras 3, 15.
  • Bei der Ausführungsform nach 7 sind ebenfalls zwei Kameras 3, 15 vorhanden. Hier überlappen sich die Sichtfelder 18 der ersten Kamera 3 und 19 der zweiten Kamera 15. Die Sichtfelder 18, 19 überlappen sich annähernd vollständig. Der von dem Projektor 1 ausgeleuchtete Bereich ist größer oder mindestens genauso groß wie die Sichtfelder 18, 19 der Kameras 3, 15.
  • 8 zeigt einen Bildsensor 4, bei dem die Bildsensorelemente 5 unregelmäßig angeordnet sind, nämlich nach einer statistischen Verteilung.
  • 9 zeigt die Vorrichtung gemäß 1 und ein Objekt 2, das aus mehreren im wesentlichen ebenen Bereichen besteht, nämlich einem ersten Bereich 20, einem zweiten Bereich 21 und einem dritten Bereich 22. Der erste Bereich 20 und der dritte Bereich 22 verlaufen parallel zueinander und im Abstand voneinander. Diese beiden Bereiche werden durch den zweiten Bereich 21 miteinander verbunden, der im Winkel zum ersten Bereich 20 und zum zweiten Bereich 22 verläuft. Mit der Bezugsziffer 23 ist die Hauptstreurichtung der vom ersten Teilbereich 20 reflektierten Strahlung bezeichnet, mit dem Bezugszeichen 24 die Hauptstreurichtung der vom zweiten Teilbereich 21 reflektierten Strahlung und mit dem Bezugszeichen 25 die Hauptstreurichtung der vom dritten Teilbereich 22 reflektierten Strahlung. Daraus wird ersichtlich, dass die Kamera 3 vom ersten Teilbereich 20 sehr viel Licht empfängt, dass die Kamera 3 vom zweiten Teilbereich 21 verhältnismäßig viel Licht empfängt und dass die Kamera 3 vom dritten Teilbereich 22 sehr wenig Licht empfängt.
  • In einem ersten Meßdurchlauf werden die Teilmengen von Bildsensorelementen in Abhängigkeit von der Reflektivität der Oberfläche des Objekts 2 angeordnet. Dies ist in 10 gezeigt. Die erste Teilmenge 9 von Bildsensorelementen besteht aus den ersten drei Spalten des Bildsensors. Diese Teilmenge 9 wird von dem ersten Teilbereich 20 des Objekts 2 bestrahlt. Die zweite Teilmenge 10 des Bildsensors 4 besteht aus den beiden anschließenden Spalten des Bildsensors 4. Diese zweite Teilmenge 10 wird vom zweiten Bereich 21 des Objekts 2 bestrahlt. Die dritte Teilmenge 26 besteht aus den anschließenden beiden Spalten des Bildsensors 4. Diese dritte Teilmenge 26 wird von dem dritten Bereich 22 des Objekts 2 bestrahlt. Die Teilmengen 9, 10, 26 von Bildsensorelementen sind in Abhängigkeit von der Reflektivität des Objekts 2 angeordnet.
  • 11 zeigt eine Vorrichtung zum Detektieren eines optischen Strahlungsfelds nach dem ESPI-Verfahren. Die Vorrichtung umfasst eine Projektionseinheit 27 mit einer Laserlichtquelle, einen Strahlteiler 28, eine Zerstreuungsoptik 29, ein Objektiv mit einer Sammeloptik 30 und einer Apertur 31, einen weiteren Strahlteiler 32 und einen Bildsensor 33. Der von der Projektionseinheit 27 ausgehende Laserstrahl wird von dem Strahlteiler 28 teilweise durchgelassen und teilweise zu dem weiteren Strahlteiler 32 hin abgelenkt. Dieser abgelenkte Strahl bildet den Referenzstrahl 34. Der durch den Strahlteiler 28 hindurchtretende Teilstrahl läuft durch die Zerstreuungsoptik 29 und von dort auf die Oberfläche des Objekts 2. Von der Oberfläche des Objekts 2 gelangt die Strahlung durch die Sammeloptik 30, 31 und von dort durch den weiteren Strahlteiler 32 auf den Flächensensor 33. Ein Piezo-Phasenschieber 28' dient zum Verstellen des Strahlteilers 28. Alle Bestandteile der Vorrichtung sind in dem Gehäuse 34 untergebracht.
  • 12 zeigt eine Vorrichtung zum Detektieren eines optischen Strahlungsfelds nach dem Shearographie-Verfahren. Die Vorrichtung umfasst einen Projektor 35 mit einer Laserlichtquelle und eine Kamera 36. Die Kamera 36 umfasst ein Gehäuse 37, in der ein Strahlteiler 38, ein Spiegel 39 mit einem Piezo-Phasenschieber, ein weiterer Spiegel 40, ein Objektiv mit einer Sammellinse 41 und einer Apertur 42 und ein Flächensensor 43 angeordnet sind. Der Spiegel 40 ist verkippbar, wobei der Kippwinkel mit 44 bezeichnet ist.
  • Durch die Erfindung wird ein Verfahren zur Detektion von intensitätsmodulierten optischen Strahlungsfeldern mit einer oder mehreren Kameras geschaffen, deren Bildsensoren Bildsensorelemente (Pixel) aufweisen, die separat ansteuerbar sind. Die separate Ansteuerung der Bildsensorelemente ermöglicht die Detektion des optischen intensitätsmodulierten Strahlungsfeldes mit einem im Vergleich zu konventionellen Bildsensoren größeren Dynamikbereich, wodurch die Überbelichtung und/oder Unterbelichtung von Bildsensorelementen vermieden werden kann. Die Detektion des optischen intensitätsmodulierten Strahlungsfeldes kann unabhängig von den Oberflächeneigenschaften des bestrahlten Objekts und/oder von dessen Oberflächenorientierung relativ zu der oder den Kameras erfolgen. In der Folge kann die Bestimmung der Phasenlage nach dem Phasenschiebeverfahren sowohl in qualitativer als auch in zeitlicher Hinsicht verbessert werden.

Claims (21)

  1. Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds, bei dem die Oberfläche eines Objekts (2) mit einer optischen Strahlung bestrahlt wird, ein intensitätsmoduliertes optisches Strahlungsfeld erzeugt wird, die intensitätsmodulierte optische Strahlung von einem Bildsensor (4) mit einer Vielzahl von Bildsensorelementen (5) aufgenommen wird und die Intensitätswerte der Bildsensorelemente (5) ausgewertet werden, wobei aus den Intensitätswerten der Bildsensorelemente (5) die Phasenlage des intensitätsmodulierten optischen Strahlungsfelds bestimmt, wobei eine erste Teilmenge (9) von Bildsensorelementen (5) nach einem ersten Verarbeitungsalgorithmus ausgewertet wird und eine zweite Teilmenge (10) von Bildsensorelementen (5) nach einem zweiten Verarbeitungsalgorithmus ausgewertet wird, wobei die Festlegung der Verarbeitungsalgorithmen vor der ersten Belichtung des Bildsensors (4) erfolgt, dadurch gekennzeichnet, dass die Teilmengen (9, 10, 26) von Bildsensorelementen (5) in einem ersten Meßdurchlauf in Abhängigkeit von der Reflektivität der Oberfläche des Objekts (2) angeordnet werden und dass anschließend das Verfahren zum Detektieren eines intensitätsmodulierten optischen Strahlungsfels durchgeführt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine oder mehrere weitere Teilmengen von Bildsensorelementen (5) nach einem oder mehreren weiteren Verarbeitungsalgorithmen ausgewertet werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Oberfläche des Objekts (2) mit einer intensitätsmodulierten optischen Strahlung bestrahlt wird.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Oberfläche des Objekts (2) mit einer aufgeweiteten kohärenten optischen Strahlung bestrahlt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Phasenlage durch ein räumliches Phasenschiebeverfahren erfolgt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Phasenlage durch ein zeitliches Phasenschiebeverfahren erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Teilmengen (9, 10) von Bildsensorelementen (5) auf dem Bildsensor (4) regelmäßig angeordnet sind, vorzugsweise in Form von Zeilen, Spalten oder einer Schachbrettanordnung.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Teilmengen (9, 10) von Bildsensorelementen (5) auf dem Bildsensor (4) unregelmäßig angeordnet sind, vorzugsweise nach einer statistischen Verteilung.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sich die Verarbeitungsalgorithmen durch mindestens ein Kriterium unterscheiden, insbesondere die Belichtungszeit und/oder die Verstärkung des Ladungssignals.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Intensitätswerte benachbarter Bildsensorelemente (11, 12, 13, 14) verrechnet werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die intensitätsmodulierte optische Strahlung von mehreren Bildsensoren aufgenommen wird.
  12. Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 11 mit einem Projektor (1) zum Bestrahlen der Oberfläche eines Objekts (2) mit einer optischen Strahlung, einer Kamera (3) mit einem Bildsensor (4) mit einer Vielzahl von Bildsensorelementen (5) zum Aufnehmen des intensitätsmodulierten optischen Strahlungsfelds und eine Auswerteeinrichtung zum Auswerten der Intensitätswerte der Bildsensorelemente (5) und zum Bestimmen der Phasenlage der intensitätsmodulierten optischen Strahlung, wobei auf dem Bildsensor (4) eine erste Teilmenge (9) von Bildsensorelementen (5) und eine zweite Teilmenge (10) von Bildsensorelementen (5) separat ansteuerbar sind, gekennzeichnet durch eine Auswerteeinrichtung zum Anordnen der Teilmengen (9, 10, 26) von Bildsensorelementen in Abhängigkeit von der Reflektivität der Oberfläche des Objekts (2).
  13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass auf dem Bildsensor (4) eine oder mehrere weitere Teilmengen von Bildsensorelementen (5) separat ansteuerbar sind.
  14. Vorrichtung nach Anspruch 12 oder 13, gekennzeichnet durch einen Projektor (1) zum Bestrahlen der Oberfläche des Objekts (2) mit einer intensitätsmodulierten optischen Strahlung, vorzugsweise einem Streifenmuster.
  15. Vorrichtung nach Anspruch 12 oder 13, gekennzeichnet durch einen Projektor (1) zum Bestrahlen der Oberfläche des Objekts (2) mit einer aufgeweiteten, kohärenten optischen Strahlung, vorzugsweise einer Laserstrahlung.
  16. Vorrichtung nach einem der Ansprüche 12 bis 15, gekennzeichnet durch eine Auswerteeinrichtung zum Bestimmen der Phasenlage durch ein räumliches Phasenschiebeverfahren und/oder durch ein zeitliches Phasenschiebeverfahren.
  17. Vorrichtung nach einem der Ansprüche 12 bis 16, dadurch gekennzeichnet, dass die Teilmengen (9, 10) von Bildsensorelementen (5) auf dem Bildsensor (4) regelmäßig angeordnet sind, vorzugsweise in Form von Zeilen, Spalten oder einer Schachbrettanordnung.
  18. Vorrichtung nach einem der Ansprüche 12 bis 17, dadurch gekennzeichnet, dass die Teilmengen (9, 10) von Bildsensorelementen (5) auf dem Bildsensor (4) unregelmäßig angeordnet sind, vorzugsweise nach einer statistischen Verteilung.
  19. Vorrichtung nach einem der Ansprüche 12 bis 18, dadurch gekennzeichnet, dass sich die Verarbeitungsalgorithmen durch mindestens ein Kriterium unterscheiden, insbesondere durch die Belichtungszeit und/oder die Verstärkung des Ladungssignals.
  20. Vorrichtung nach einem der Ansprüche 12 bis 19, gekennzeichnet durch eine Auswerteeinrichtung zum Verrechnen der Intensitätswerte benachbarter Bildsensorelemente (11, 12, 13, 14).
  21. Vorrichtung nach einem der Ansprüche 12 bis 20, gekennzeichnet durch eine Kamera mit mehreren Bildsensoren oder mehrere Kameras mit einem und/oder mehreren Bildsensoren.
DE102012009151.6A 2012-05-08 2012-05-08 Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds Expired - Fee Related DE102012009151B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012009151.6A DE102012009151B4 (de) 2012-05-08 2012-05-08 Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012009151.6A DE102012009151B4 (de) 2012-05-08 2012-05-08 Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds

Publications (2)

Publication Number Publication Date
DE102012009151A1 DE102012009151A1 (de) 2013-11-14
DE102012009151B4 true DE102012009151B4 (de) 2018-01-18

Family

ID=49475220

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012009151.6A Expired - Fee Related DE102012009151B4 (de) 2012-05-08 2012-05-08 Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds

Country Status (1)

Country Link
DE (1) DE102012009151B4 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309243A (en) * 1992-06-10 1994-05-03 Eastman Kodak Company Method and apparatus for extending the dynamic range of an electronic imaging system
DE29724665U1 (de) * 1996-09-27 2002-12-05 Boehm Markus Lokalautoadaptiver optischer Sensor
US6765619B1 (en) * 2000-04-04 2004-07-20 Pixim, Inc. Method and apparatus for optimizing exposure time in image acquisitions
DE102007031774A1 (de) * 2007-07-07 2009-01-15 Mähner, Bernward Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE102007046210A1 (de) * 2007-09-27 2009-04-02 Carl Zeiss Meditec Ag Anordnung und Verfahren zur Erzeugung von Bildern mit erweiterter Dynamik
US20100225783A1 (en) * 2009-03-04 2010-09-09 Wagner Paul A Temporally Aligned Exposure Bracketing for High Dynamic Range Imaging
EP2270424A1 (de) * 2009-07-02 2011-01-05 Sick Ag Optoelektronischer Sensor und Verfahren zur Überwachung
US20110285982A1 (en) * 1995-06-07 2011-11-24 Breed David S Method and arrangement for obtaining information about objects around a vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309243A (en) * 1992-06-10 1994-05-03 Eastman Kodak Company Method and apparatus for extending the dynamic range of an electronic imaging system
US20110285982A1 (en) * 1995-06-07 2011-11-24 Breed David S Method and arrangement for obtaining information about objects around a vehicle
DE29724665U1 (de) * 1996-09-27 2002-12-05 Boehm Markus Lokalautoadaptiver optischer Sensor
US6765619B1 (en) * 2000-04-04 2004-07-20 Pixim, Inc. Method and apparatus for optimizing exposure time in image acquisitions
DE102007031774A1 (de) * 2007-07-07 2009-01-15 Mähner, Bernward Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE102007046210A1 (de) * 2007-09-27 2009-04-02 Carl Zeiss Meditec Ag Anordnung und Verfahren zur Erzeugung von Bildern mit erweiterter Dynamik
US20100225783A1 (en) * 2009-03-04 2010-09-09 Wagner Paul A Temporally Aligned Exposure Bracketing for High Dynamic Range Imaging
EP2270424A1 (de) * 2009-07-02 2011-01-05 Sick Ag Optoelektronischer Sensor und Verfahren zur Überwachung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
S.K. Nayar et al.; "High dynamic range imaging: spatially varying pixel exposures"; IEEE Conference on Computer Vision and Pattern Recognition, 2000, Proceedings, Vol. 1, S. 472 – 479 *

Also Published As

Publication number Publication date
DE102012009151A1 (de) 2013-11-14

Similar Documents

Publication Publication Date Title
DE112008003342B4 (de) Aufzeichnung von 3D-Bildern einer Szene
DE3930632A1 (de) Verfahren zur direkten phasenmessung von strahlung, insbesondere lichtstrahlung, und vorrichtung zur durchfuehrung dieses verfahrens
DE112011103006T5 (de) Verfahren und Vorrichtung zum Messen der Form eines Objekts
EP3433577B1 (de) Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen
DE102008044522A1 (de) Verfahren und Vorrichtung zur Erfassung von Konturdaten und/oder optischen Eigenschaften eines dreidimensionalen semitransparenten Objekts
DE102008064104A1 (de) Vorrichtung und Verfahren zum dreidimensionalen optischen Vermessen von stark reflektierenden oder durchsichtigen Objekten
EP2799810A1 (de) Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
DE112018001127T5 (de) Prüfsystem und prüfverfahren
DE112012004591T5 (de) Beobachtungsvorrichtung
DE19509962A1 (de) Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Verschiebungsvektorfeldern
DE102008021465A1 (de) Entfernungsmesssystem
DE19859801C2 (de) Verfahren zur echtzeitfähigen Ermittlung und Darstellung von Verformungen oder Verschiebungen von Prüfobjekten und Vorrichtung zur Durchführung des Verfahrens
DE102012005417B4 (de) Vorrichtung und Verfahren zur winkelaufgelösten Streulichtmessung
DE19720330C1 (de) Verfahren und Vorrichtung zur Messung von Spannungen in Glasscheiben mit Hilfe des Streulichtverfahrens
EP0485728A2 (de) Verfahren und Vorrichtung zur Bestimmung der Wegänderung von Strahlen, vorzugsweise Lichtstrahlen
DE102012009151B4 (de) Verfahren und Vorrichtung zum Detektieren eines intensitätsmodulierten optischen Strahlungsfelds
DE102007031774A1 (de) Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE19513233C2 (de) Verfahren und Vorrichtung zur Bestimmung von Phasen und Phasendifferenzen
DE2133803C3 (de) Holographisch-interferometrisches oder moiremetrisches Verfahren zur Feststellung von Deformationen oder Ortsveränderungen eines Objekts sowie von Brechungsindexänderungen
DE19749974A1 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke für die Topometrie (3D-Videometrie) oder die 3D-Vision für Multimedia-Applikationen
DE102020206768B4 (de) Bilderfassungsvorrichtung und Verfahren zum Bestimmen einer plenoptischen Funktion
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera
DE102018108657B4 (de) Vorrichtung zur Aufnahme wenigstens eines mikroskopischen Bildes und Verfahren zur Aufnahme eines mikroskopischen Bildes
DE19740251C1 (de) Verfahren und Vorrichtung zur flächenhaften Erfassung transienter mechanischer Veränderungen eines Objektes mit einem Interferometer
DE102018221647B3 (de) Detektionseinrichtung zur Erfassung einer Struktur auf einem Flächenabschnitt einer Lithografiemaske sowie Vorrichtung und Verfahren mit einer derartigen Detektionseinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: CARL ZEISS OPTOTECHNIK GMBH, DE

Free format text: FORMER OWNER: STEINBICHLER OPTOTECHNIK GMBH, 83115 NEUBEUERN, DE

R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee