DE69207176T2 - Optischer Sensor - Google Patents

Optischer Sensor

Info

Publication number
DE69207176T2
DE69207176T2 DE69207176T DE69207176T DE69207176T2 DE 69207176 T2 DE69207176 T2 DE 69207176T2 DE 69207176 T DE69207176 T DE 69207176T DE 69207176 T DE69207176 T DE 69207176T DE 69207176 T2 DE69207176 T2 DE 69207176T2
Authority
DE
Germany
Prior art keywords
detector
image
light source
pattern
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69207176T
Other languages
English (en)
Other versions
DE69207176D1 (de
Inventor
Colin Morgan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oxford Sensor Technology Ltd
Original Assignee
Oxford Sensor Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oxford Sensor Technology Ltd filed Critical Oxford Sensor Technology Ltd
Application granted granted Critical
Publication of DE69207176D1 publication Critical patent/DE69207176D1/de
Publication of DE69207176T2 publication Critical patent/DE69207176T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Focus Adjustment (AREA)

Description

    TECHNISCHER BEREICH
  • Diese Erfindung bezieht sich auf einen optischen Sensor und insbesondere auf einen Sensor zum Abfühlen der Entfernung von einem oder mehreren Teilen eines Objekts zwecks Erzeugung eines Bildes davon.
  • TECHNISCHER HINTERGRUND
  • Für die Erstellung eines Bildes von Objekten innerhalb des Bildfelds des Sensors sind verschiedene optische Sensoren verfügbar. Ein solches System, das unter der Bezeichnung "sweep focus ranger" (fokusvariabler Entfernungsmesser) bekannt ist, bedient sich einer Videokamera mit einer einzigen Linse mit sehr kurzer Schärfentiefe, um ein Bild zu erzeugen, in dem jeweils nur ein enges Entfernungsintervall im Objektraum in Fokus ist. Mit Hilfe eines computergesteuerten Servoantriebs wird die Linse mit großer Genauigkeit innerhalb einer Reihe von Positionen eingestellt (oder "verstellt"), um verschiedene Entfernungs-"Scheiben" eines Objekts zu betrachten. Aufgrund dieser "Scheiben" wird dann ein dreidimensionales Bild des Objekts aufgebaut. Das System bestimmt, welche Teile des Objekts in Fokus sind, indem es das nachgewiesene Signal auf Hochfrequenzkomponenten analysiert, die durch Merkmale wie Ränder oder strukturierte Teile, welche sich von einem Bereich der Szene zum andern schnell ändern, bedingt sind. Aus diesem Grunde eignet sich das System nicht zum Abbilden von einfachen oder glatten Oberflächen wie einer flachen gestrichenen Wand, die keine solchen Merkmale aufweisen.
  • Diese Einschränkung ist allen passiven Entfernungsmeßverfahren gemeinsam. Eine Methode zur Losung des Problems besteht darin, ein Lichtmuster aktiv auf die Zielobjekte zu projizieren, die dann durch den Sensor beobachtet werden konnen. Falls dieses Muster hohe Raumfreguenzen enthält, so können diese Merkmale durch den Sensor zum Schätzen der Entfernung ansonsten einfacher Oberflächen benutzt werden. Eine besonders elegante Methode der Projektion eines solchen Musters ist in dem US-Patent Nr. 4,629,324 der Robotic Vision Systems Inc beschrieben.
  • Dieser dem Stand der Technik entsprechende Sensor spricht auf die in Fokus befindlichen Teile des Zielobjekts an, indem er das Bild auf Merkmale analysiert, die den in dem projizierten Muster vorhandenen Raumfrequenzen entsprechen. Es werden verschiedene Analyseverfahren wie Windungs- und Synchronnachweis beschrieben. Solche Methoden sind jedoch potentiell zeitraubend. In Erweiterung dieser Ideen beschreibt ein weiteres Patent der gleichen Firma, US 4640620, eine Methode, deren Ziel darin besteht, dieses Problem durch die Verwendung einer Flüssigkristall- Lichtsteuervorrichtung zu lösen, um die in dem Bild vorhandenen Komponenten mit der erforderlichen hohen Raumfrequenz in eine unmittelbar nachweisbare Amplitudenvariation umzusetzen.
  • Das Ziel der vorliegenden Erfindung besteht darin, eine einfachere Lösung dieses Problems zu bieten.
  • OFFENBARUNG DER ERFINDUNG
  • Nach einem Aspekt der vorliegenden Erfindung wird ein optischer Sensor vorgesehen, umfassend : eine strukturierte Lichtquelle zum Erzeugen eines Musters kontrastierender Flächen; einen Detektor mit einer Anordnung von Detektorelementen, deren Maße an das durch die Lichtquelle erzeugte Muster angepaßt sind; ein optisches System zum Projizieren eines primären Bildes der Lichtquelle auf ein abzufühlendes Objekt und zum Erzeugen eines sekundären Bildes des somit auf dem Objekt geformten primären Bildes auf dem Detektor; ein Einstellmittel zum Einstellen von mindestens einem Teil des optischen Systems, um die Fokussierung des primären Bildes auf das Objekt zu variieren, wobei die Anordnung so beschaffen ist, daß wenn das primäre Bild auf das Objekt fokussiert ist, auch das sekundäre Bild an dem Detektor in Fokus ist; und Verarbeitungsmittel zum Analysieren von durch den Detektor erzeugten Signale in Verbindung mit Informationen hinsichtlich der Einstellung des optischen Systems, wobei die strukturierte Lichtquelle so einstellbar ist, daß die Positionen kontrastierender Flächen des durch die Lichtquelle erzeugten Musters gegenseitig vertauscht werden, während das Verarbeitungsmittel so angeordnet ist, daß es die durch die Detektorelemente empfangenen sekundären Bilder mit den kontrastierenden Flächen in den gegenseitig vertauschten Positionen analysiert, um diejenigen Teile der sekundären Bilder zu bestimmen, die an dem Detektor in Fokus sind, und dadurch die Entfernung entsprechender Teile des Objektes, die somit in Fokus sind, zu bestimmen.
  • Nach einem anderen Aspekt der Erfindung wird ein Verfahren zur Bestimmung der Entfernung von mindestens einem Teil eines Objektes vorgesehen, das gerade mit Hilfe des optischen Sensors betrachtet wird, wobei der besagte Sensor der folgende Teile umfaßt: eine strukturierte Lichtquelle, die ein Muster konstrastierender Flächen erzeugt; einen Detektor mit einer Anordnung von Detektorelementen, deren Maße an das durch die Lichtquelle erzeugte Muster angepaßt sind; ein optisches System, das ein primäres Bild der Lichtquelle auf ein abzufühlendes Objekt projiziert und an dem Detektor ein sekundäres Bild des somit an dem Objekt geformten primären Bildes erzeugt; ein Einstellmittel, das mindestens einen Teil des optischen Systems verstellt, um die Fokussierung des primären Bildes auf das Objekt zu ändern, wobei die Anordnung so beschaffen ist, daß wenn das primäre Bild auf das Objekt fokussiert ist, das sekundäre Bild an dem Detektor ebenfalls in Fokus ist; und ein Verarbeitungsmittel, das durch den Detektor erzeugte Signale in Verbindung mit Informationen über der Einstellung des optischen Systems analysiert, wobei sich das Verfahren auf Verstellung der strukturierten Lichtquelle erstreckt, um die Positionen kontrastierender Flächen des durch die Lichtquelle erzeugten Musters gegenseitig zu vertauschen, und das Verarbeitungsmittel so angeordnet ist, daß es die durch die Detektorelemente mit den kontrastierenden Flächen in den gegenseitig vertauschten Positionen empfangenen sekundären Bilder analysiert, um diejenigen Teile der sekundären Bilder zu bestimmen, die an dem Detektor in Fokus sind, und dadurch die Entfernung entsprechender Teile des Objekts, die somit in Fokus sind, zu bestimmen.
  • Die Erfindung setzt somit die Analyse des durch den Detektor abgefühlten Bildes in den zeitlichen Bereich um.
  • Bevorzugte und wahlweise Merkmale der Erfindung werden aus der nachstehenden Beschreibung und aus den Unteransprüchen der Patentschrift hervorgehen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Erfindung ist nachstehend rein beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben, in denen
  • Bild 1 das Grundkonzept eines optischen Sensors der in US 4,629,324 beschriebenen Art veranschaulicht und die Hauptelemente sowie die optischen Strahlenverläufe zwischen ihnen darstellt;
  • Bild 2 ein Blockdiagramm eines optischen Sensors der in Bild 1 dargestellten Art mit einer besonderen Steuereinheit und Signalverarbeitungsanordnung nach einer Ausführungsform der vorliegenden Erfindung zeigt;
  • Bild 3 veranschaulicht, wie ein Bild eines Objekts, das durch ein System der in den Bildern 1 und 2 dargestellten Art betrachtet wird, aufgebaut und dargestellt werden kann; Bilder 4, 5 und 6 alternative optische Anordnungen zeigen, die in dem Sensor verwendet werden können;
  • Bild 7 eine alternative Form eines Strahlungsteilers zeigt, die in dem Sensor verwendet werden kann;
  • Bilder 8(A) und 8(B) eine weitere Ausführungsform eines erfindungsgemäßen Sensors zeigen;
  • Bilder 9(A) und 9(B) eine weitere Ausführungsform eines erfindungsgemäßen Sensors zeigen; und
  • Bild 10 ein Blockdiagramm einer Steuereinheit und eines Signalprozessors zeigt, die bei der in Bild 9 dargestellten Ausführungsform verwendet werden können.
  • DURCHFÜHRUNG DER ERFINDUNG
  • Der nachstehend geschriebene optische Sensor verbindet die Konzepte eines "sweep focus ranger" (fokusvariablen Entfernungsmessers) der vorstehend beschriebenen Art mit dem Konzept einer aktiven konfokalen Lichtquelle der in US 4,629,324 beschriebenen Art gemeinsam mit Mitteln zum Umsetzen der Tiefeninformationsanalyse in den zeitlichen Bereich.
  • In dieser Spezifikation wird von dem Begriff "konfokal" Gebrauch gemacht, um ein optisches System zu beschreiben, das so angeordnet ist, daß zwei durch das System erzeugte Bilder gleichzeitig in Fokus sind. In den meisten Fällen bedeutet dies, daß im "entfalteten" Zustand der erheblichen optischen Verläufe die betreffenden Bilder bzw. Objekte miteinander übereinstimmen.
  • Das Grundkonzept eines Sensors der in US 4,629,324 beschriebenen Art ist in Bild 1 veranschaulicht. Der Sensor umfaßt einen Detektor 1 und ein Linsensystem 2 zum Fokussieren eines Bildes eines zu betrachtenden Objektes 3 auf den Detektor 1. Es ist ein Einsteilmittel 4 vorgesehen, um die Position des Linsensystems 2 so einzustellen, daß verschiedene "Scheiben" des Objekts 3 auf den Detektor 1 fokussiert werden. Insofern entspricht der Sensor einem herkömmlichen "fokusvariablen Sensor". Wie dies in US 4,629,324 beschrieben ist, ist der Sensor auch mit einer strukturierten Lichtquelle versehen, die eine Lampe 5, eine Projektionslinse 6 und ein Gitter oder Raumfilter 7 umfaßt, sowie einen Strahlungsteiler 8, mit dessen Hilfe ein Bild des Filters 7 durch das Linsensystem 2 hindurch auf das Objekt 3 projiziert werden kann. Das Filter 7 und der Detektor 1 werden genau eingestellt, so daß beim Fokussieren eines primären Bildes des Filters 7 durch das Linsensystem 2 auf das Objekt 3 ein sekundäres Bild des primären an dem Objekt 3 geformten Bildes auch durch das Linsensystem 2 auf den Detektor 1 fokussiert wird. Dies wird dadurch erreicht, daß der Detektor 1 und das Filter 7 in gleichen Abständen von dem Strahlungsteiler 8 angeordnet sind, so daß das System "konfokal" ist. Ein Absorptionselement 9 ist ebenfalls vorgesehen, um sicherzustellen, daß der von dem Filter 7 durch den Strahlungsteiler 8 verlaufende Teil des Strahls absorbiert und nicht auf den Detektor 1 reflektiert wird.
  • Das Linsensystem 2 hat eine weite Blendenöffnung mit einer sehr geringen Schärfentiefe, und zwecks Erzeugung eines Bildes des Objekts 3 wird das Linsensystem 2 der Reihe nach in Hunderte diskrete und vorausberechnete Positionen eingestellt, während die durch den Detektor 1 hinsichtlich jeder Position des Linsensystems 2 empfangenen Bilder analysiert werden, um diejenigen Teile des Bildes nachzuweisen, die in Fokus sind. Wenn die Bilder des Gitters 7 an dem Objekt 3 und an dem Detektor. 1 in Fokus sind, kann der Abstand zwischen dem Linsensystem 2 und den jeweils in Fokus befindlichen Teilen des Objekts 3 nach der Standard-Linsengleichung berechnet werden, die bei einer einfachen Linse
  • 1/f = 1/U + 1/V
  • ist, wobei f die Brennweite des Linsensystems 2, U der Objektabstand (d.h. der Abstand zwischen dem Linsensystem 2 und den in Fokus befindlichen Teilen des Objekts 3) und V der Bildabstand (d.h. der Abstand zwischen dem Linsensystem 2 und dem Detektor 1) ist.
  • Damit in Fokus befindliche Flächen des Objektes nachgewiesen werden können, bilden die an dem Objekt 3 und dem Detektor 1 erzeugten Bilder vorzugsweise ein gleichformiges strukturiertes Muster mit einer hohen Raumfrequenz, d.h. mit einem geringen Wiederholabstand, wobei das besagte Muster kontrastierende Flächen wie z.B. eine Reihe von hellen und dunklen Streifen umfaßt. Solche Muster können z.B. durch Schlitze oder quadratische Ausschnitte in dem Filter 7 gebildet werden. Bei solchen Mustern erzeugen diejenigen Teile des Bildes, die an dem Objekt 3, das gerade betrachtet wird, in Fokus sind, an dem Detektor 1 ein entsprechendes Bild heller und dunkler Streifen, während sich die nicht in Fokus befindlichen Teile des Bildes schnell "zersetzen" und somit eine gleichformigere Beleuchtung des Detektors 1 bewirken, die auch erheblich weniger hell ist als die hellen Flächen der in Fokus befindlichen Teile des Bildes. Das strukturierte Muster sollte vorzugsweise eine möglichst hohe Raumfrequenz aufweisen, obgleich diese durch die Auflösung des Linsensystems 2 und die Größe der Detektoranordnung begrenzt ist, da die Tiefenauflösung zu der besagten Raumf requenz proportional ist.
  • Bild 2 ist ein Blockdiagramm eines Sensors der in Bild 1 dargestellten Art gemeinsam mit Steuer- und Verarbeitungseinheiten, wie sie bei einer nachstehend beschriebenen Ausführungsform der Erfindung zum Einsatz gelangen. Die Lichtquelle 5 des Sensors wird durch eine Projektionslampensteuereinheit 9 gesteuert, während zum Verstellen (aus nachstehend erörterten Gründen) des Gitters oder Filters 7 eine piezo-elektrische Gittersteuereinheit vorgesehen ist und zur Einstellung des Linsensystems 2 eine Einheit 11 zum Steuern der Linsenverstellung dient. Die Steuereinheiten 9, 10 und 11 sind gemeinsam mit dem Ausgang des CCD-Detektors 1 an einen Computer 12 mit einem Bildprozessor, Bilderfasser, Bildspeichern (wobei der Computerspeicher der Bildelementanordnung des Detektors 1 entspricht) und einem digitalen Signalprozessor (DSP) 13 zum Verarbeiten der empfangenen Signale und Erstellen entsprechender Anweisungen an die Steuereinheiten angeschlossen. Der Ausgang der Signalprozessors kann dann an einem Bildschirm 14 dargestellt werden.
  • Bei dem hier beschriebenen Sensor umfaßt der Detektor 1 eine Anordnung von Detektorelementen oder Bildelementen wie ladungsgekoppelten Vorrichtungen (CCD) oder Ladungseingabevorrichtungen (CID). Solche Detektoren werden anderen Sensoren vom Fernsehtyp vorgezogen, weil die genaue Beschaffenheit der Detektorgeometrie es ermöglicht, den entfalteten optischen Verlauf des strukturierten Bildes mit den einzelnen Bildelementen der Detektoranordnung auszurichten.
  • Das Gitter oder Raumfilter 7 besteht aus einem gleichförmigen strukturierten Muster mit hoher Raumfrequenz, d.h. mit einem geringen Wiederholabstand, und zwar umfaßt das besagte Muster konstrastierende Flächen wie eine Reihe von hellen und dunklen Streifen oder es ist schachbrettartig gestaltet. Die Raumfrequenz des Gittermusters 7 sollte an die Bildelementmaße des Detektors 1 angepaßt sein, d.h. der Wiederholabstand des Musters sollte n Bildelemente weit sein, wobei n eine niedrige ganze Zahl ist, z.B. zwei (der bevorzugte Wiederholabstand). Die Höhe des Wertes n wird durch die Auflösung des Linsensystems 2 begrenzt sein.
  • Bei Verwendung einer schachbrettartigen Musters ist der Detektor mit dem Muster in beiden Dimensionen abzustimmen und sollte somit zwecks optimaler Auflösung eine Anordnung von quadratischen und nicht von rechteckigen Bildelementen umfassen, da das Linsensystem 2 sowohl entlang der x-Achse als auch entlang der y-Achse das gleiche Auflösungsvermögen aufweisen wird. Außerdem vereinfacht die Verwendung quadratischer Bildelemente die Analyse der von dem Detektor empfangenen Daten.
  • Des weiteren sollten die hellen und dunklen Teile des Musters komplementär sein, so daß sie summiert eine gleichförmige Intensität ergeben. Die Wahl des Musters wird von den Auflösungsmerkmalen des verwendeten optischen Systems abhängen, ist aber so zu wählen, daß sich das Muster, indem es defokussiert wird, möglichst schnell und einwandfrei "zersetzt". Es ist nichtnötig, daß das Muster eine einfache Struktur mit hellen und dunklen oder durchsichtigen und undurchsichtigen Bereichen aufweist. Auch ein Muster mit sich allmählich ändernder (z.B. sinusförmiger) Opazität käme in Frage. Dies würde dazu neigen, die Musterkomponenten höheren Frequenz zu reduzieren, so daß sich das Muster während des Defokussierens glatter "zersetzt".
  • Um in dem an dem Objekt 3 oder Detektor 1 erzeugten Bild Randeffekte zu vermeiden, ist es besser, wenn das Gittermuster mehr Wiederholmuster als der CCD-Detektor aufweist, d.h. wenn das erzeugte Bild größer ist als die Detektoranordnung 1.
  • Eine mögliche Form des Rastermusters 7 ist das sogenannte 'Ronchi ruling resolution target', das ein Muster wechselweise klarer und lichtundurchlässiger paralleler Streifen aufweist. Ein Linsensystem 2 guter Qualität (wie z.B. das einer Kamera) wird typisch in der Lage sein, je nach seiner Blendenöffnung ein Muster mit 50 bis 125 Zeilen/mm in der Bildebene aufzulösen, und Sonderlinsen (wie sie z.B. für Luftaufnahmen verwendet werden) wären noch besser. Die Auflösung läßt sich auch durch Begrenzen des betreffenden Wellenlängenbereichs weiter verbessern, z.B. durch Verwendung einer Laser- oder Natriumlampe zum Beleuchten des Gittermusters 7. Ein typischer CCD-Detektor hat Bildelemente in Abständen von etwa 20 Mikron entlang der x-Achse und entlang der y-Achse, was bei zwei Bildelementweiten, d.h. 40 Mikron, wie dies dem Musterwiederholabstand entspricht, eine Auflösungsgrenze von 25 Zeilen/mm bedingt. Genauere Vorrichtungen dürften in Zukunft verfügbar werden.
  • Die Anzahl von Wiederholungen des strukturierten Musters innerhalb der Fläche des Objekts, das gerade beobachtet wird, sollte vorzugsweise für das verwendete Linsensystem und die verwendete Detektoranordnung möglichst hoch sein. Bei einer typischen Detektoranordnung der vorstehend beschriebenen Art, die eine Matrix von 512 x 512 Bildelementen umfaßt, wäre die Höchstanzahl von Wiederholungen von einem Rand des Bildes zum anderen 256. Erheblich höhere Wiederholungszahlen lassen sich mit Hilfe einer (nachstehend beschriebenen) linearen Detektoranordnung erzielen.
  • Die untere Grenze der Raumfrequenz des Gittermusters wird durch die geringste erforderliche Tiefenauflösung bestimmt. Je gröber das Gittermuster wird, um so geringer wird die Anzahl der Musterwiederholungen von einem Rand des Bildes zum anderen, und die Güte des durch den Sensor erzeugten Bildes nimmt ab. Ein Bild mit weniger als etwa 40 Musterwiederholungen von einem Rande zum anderen wird selbstverständlich nur sehr allgemeine Informationen über das Objekt, das gerade abgefühlt wird, liefern.
  • Bei dem hier beschriebenen Sensor wird die Komponente mit hoher Raumfrequenz der Lichtquelle in den zeitlichen Bereich umgesetzt. Wie dies aus Bild 2 hervorgeht, kann zum Verstellen des Gittermusters 7 ein Einsteilmittel vorgesehen werden. Dieses dient dazu, zwischen aufeinander folgenden Bilderfassungen das Gitter 7 in seiner eigenen Ebene um einen halben Musterwiederholabstand zu verstellen. Diese Bewegung ist typisch sehr klein, z.B. der Versteilweg ist etwa 20 Mikron lang (wobei sich das Muster nach je zwei Bildelementen wiederholt), und sie wird vorzugsweise mit Hilfe eines piezo-elektrischen Einstellmittels durchgeführt. Diese Verstellung hat zur Folge, daß in einer Position des Gitters der entfaltete optische Verlauf des Gittermusters die Detektorbildelemente so überlappt, daß die eine Hälfte der Bildelemente den hellen Flächen und die andere Hälfte den dunklen Flächen entspricht, doch wenn das Gitter um einen halben Wiederholabstand verstellt wird, gilt für jedes Bildelement das Gegenteil (und zwar entspricht das Muster heller und dunkler Flächen der Bildelementanordnung dem Muster der strukturierten Lichtquelle). Jedes Bildelement des Detektors 1 ist somit mit einer Fläche des durch die Lichtquelle erzeugten Musters in Beziehung gebracht, die bei Verstellung der strukturierten Lichtquelle wechselweise hell bzw. dunkel ist. Es können dann Bildpaare in den ersten und zweiten Bildspeichern erfaßt werden, wenn sich das Gitter 7 in den beiden Positionen befindet, und die Intensitäten (i1 und i2) entsprechender Bildelemente in den beiden Bildspeichern können bestimmt werden, so daß es möglich ist, für jedes Bildelement die folgenden Funktionen zu erstellen:
  • Helligkeit I = i1 + i2
  • Hochpaßkomponente M = i1 - i2 / I
  • Die Summe der Intensitäten i1 und i2 ist ein Maß der Helligkeit des betreffenden Bildelements, und der Unterschied ist ein Maß der Modulationstiefe. Wird das Unterschiedssignal durch die Helligkeit geteilt, so ergibt dies ein normalisiertes Maß der Hochpaßkomponente&sub1; die wiederum ein Maß für die "Fokussierschärfe" des betreffenden Bildelements ist. Das Vorzeichen des Ausdrucks "i1 - i2" wechselt natürlich von Bildelement zu Bildelement, je nachdem ob i1 oder i2 einer hellen Fläche des Gittermusters entspricht.
  • Die an dem Objekt 3 und an dem Detektor 1 in Fokus befindlichen Teile des Bildes erzeugen ein Muster von hellen und dunklen Flächen, die beim Verstellen des Gitters 7 wechseln. Eines der Signale i1 bzw. i2 wird daher hoch sein (für eine helle Fläche) und eines wird niedrig sein (für eine dunkle Fläche). Dagegen werden bei den Teilen des Bildes, die an dem Detektor 1 nicht in Fokus sind, die Intensitäten i1 und i2 einander ähnlich und niedriger sein als die Intensität einer in Fokus befindlichen hellen Fläche.
  • Falls die Hintergrundsbeleuchtung erheblich ist, kann eine Korrektur vorgenommen werden, indem man in einem dritten Bildspeicher bei ausgeschalteter Lichtquelle ein Bild erfaßt. Die Hintergrundsintensität "i3" jedes einzelnen Bildelements kann dann von den in den vorstehenden Gleichungen verwendeten Werten i1 und i2 abgezogen werden.
  • Um unerwünschte Stördaten zu vermeiden, empfiehlt es sich, für das Signal I einen Mindestschwellwert festzusetzen. Ist I sehr niedrig, z.B. bei Betrachtung eines schwarzen Objekts oder wenn das Objekt sehr weit entfernt ist, so ist die betreffende Probe außerachtzulassen (z.B. durch Einstellung von M auf Null oder einen ähnlichen Wert).
  • Die Methode des Aufbauens einer vollständigen 3-D- Oberflächenkarte eines Objekts, das gerade betrachtet wird, kann dann wie folgt durchgeführt werden:
  • 1) Die Kartendatei des 3D-Oberflächenmodells räumen.
  • 2) Die Linse auf den Ausgangspunkt ihres Verstellweges einstellen.
  • 3) Für jede Position des Linsenverstellweges werden drei Bilder in die drei Bildspeicher aufgenommen, wie folgt:
  • 1 = Beleuchtung ein, Gittermuster in Position 1
  • 2 = Beleuchtung ein, Gittermuster in Position 2
  • 3 = Keine Beleuchtung
  • 4) Nun werden mit Hilfe des DSP die folgenden Funktionen an den unverarbeiteten Bilddaten vorgenommen: für jedes Bildelement (bzw. jede Gruppe von Bildelementen) werden die vorstehend beschriebenen Funktionen I und M erstellt.
  • 5) Dann wird das Hintergrundsignal abgezogen:
  • i1 := i1 - i3
  • i2 := i2 - i3
  • 6) Die mittlere Intensität I zur Aufnahme in den Rahmenspeicher 3 erstellen:
  • 7) Die Modulationstiefe M zur Aufnahme in den Bildspeicher 1 erstellen, wenn I den Schwellwert übertrifft:
  • FALLS i3 > min, SO
  • M = i1 := i1 - i2 / i3 (oder es könnte I für i3 benutzt werden)
  • ANDERNFALLS
  • 8) Die Funktion M kann aus dem Bildspeicher 1 entnommen und an dem Bildschirm dargestellt werden (diese Funktion entspricht den in Fokus befindlichen Konturen, die sich von einem dunklen Hintergrund hell abheben).
  • 9) Bereinigen dieser 'M'-Daten:
  • a) Auf Kontinuität von Bildelement zu Bildelement prüfen.
  • b) Die örtlichen Höchstwertpositionen suchen, auf Unterbildelementpositionen interpolieren und dann in die entsprechenden Objektkoordinaten umsetzen.
  • c) Die Positionen fokussierter Konturen beschreibende Datenketten erstellen.
  • d) Diese Konturen mit den anschließenden Verstellpositionskonturen vergleichen.
  • e) Diese Verstellpositionskonturen zu der Karte des 3D- Oberflächenmodells hinzufügen.
  • 10) Auf die nächste Linsenverstellposition übergehen und die vorstehenden Stufen wiederholen, bis eine vollständige Oberflächenmodellkarte aufgebaut ist.
  • Das Signal 'I' für die Intensitätsinformation, das der mit Hilfe eines herkömmlichen fokusvariablen Entfernungsmessers als der Durchschnitt von i1 und i2 gewonnenen Information entspricht, ist in der Tat ein gleichförmiges Beleuchtungssignal (d.h. ohne eine strukturierte Lichtquelle) und auch für die Auslegung der Daten nützlich. Eine Anzeige des Signals 'I' an einem Bildschirm ergibt ein normales femsehartiges Bild der Szene, abgesehen von der sehr geringen Schärfentiefe, die dem System eigen ist. Auf Wunsch kann daher von sich ändernden, nach Standard- Randnachweismethoden erfaßten Intensitätsmustern Gebrauch gemacht werden, um Informationen hinsichtlich von in Fokus befindlichen Rändern und strukturierten Flächen des Objekts zu gewinnen, und diese Informationen können zu den von dem 'M' Signal (das durch die Verwendung einer strukturierten Lichtquelle erhalten wird) gewonnenen Informationen hinzugefügt werden.
  • Die Methode zeitlicher Modulation hat den Vorteil, daß, indem jedes Bildelement des Bildes unabhängig analysiert wird, an dem Objekt vorhandene Ränder bzw. Strukturen die Tiefenmessung nicht stören (anders als dies bei auf räumlicher Modulation beruhenden Methoden der Fall sein kann). Die Methode läßt sich auch bei einem Muster verwenden, das anstelle senkrechter oder waagerechter Streifen ein schachbrettartiges Gitter aufweist. Ein solches Muster würde sich, indem das Linsensystem 2 defokussiert wird, wahrscheinlich wirksamer "zersetzen" als ein Streifenmuster und wäre daher zu bevorzugen. Man beachte, daß die vorstehend beschriebenen Sensoren mit einer strukturierten Lichtquelle relativ hoher Raumf requenz ausgestattet sind, um den Detektor dazu zu befähigen, daß er genau feststellt, wann das Bild in Fokus ist und wann es sich, indem es defokussiert wird, 'zersetzt'. Dies ist anders als bei gewissen bekannten Entfernungsmeßsystemen, die auf die Feststellung des Ausmaßes einer Verschiebung von zwei Hälften des Bildes angewiesen sind, indem dieses defokussiert wird.
  • Die vorstehend beschriebenen Berechnungen können Bildelement für Bildelement in Software oder durch Verwendung eines spezialisierten digitalen Signalprozessors (DSP) mit Videobildfrequenzen vorgenommen werden. Eine Darstellung der Funktion 'M' auf einer Kathodenstrahlröhre hätte das Aussehen eines dunklen Bildschirms mit hellen, den in Fokus befindlichen Komponenten des Objektes, das gerade betrachtet wird, entsprechenden Konturen. Indem der Fokus des Linsensystems verstellt wird, würden sich diese Konturen bewegen, wobei sie die in Fokus befindlichen Teile des Objekts aufzeigen. Eine Analyse dieser Konturen ermöglicht es, eine dreidimensionale Karte des Objekts aufzubauen.
  • Der Detektor 1 kann auch mit einem piezo-elektrischen Einstellglied versehen werden, um die wirksame Auflösung der räumlichen Maße und der Tiefenmaße zu erhöhen. Zu diesem Zweck wird die Detektoranordnung so verstellt, daß sie de facto ein kleineres Bildelementmaß liefert (eine Methode, die bei gewissen CCD-Kameras hoher Schärfe Verwendung findet), so daß von einem feineren Gittermuster Gebrauch gemacht werden kann.
  • Die Verwendung piezo-elektrischer Vorrichtungen zum Feineinstellen eines Gegenstands ist gut bekannt, z.B. bei den vorstehend erwähnten CCD-Kameras hoher Schärfe sowie bei Abtasttunneliermikroskopen sind solche Vorrichtungen in der Lage ein Objekt mit hoher Genauigkeit selbst bis zum atomaren Bereich zu positionieren. Anstelle eines piezoelektrischen Stellglieds könnte von anderen Vorrichtungen wie dem Stellwerk einer Lautsprecherschwingspule Gebrauch gemacht werden.
  • Anstatt einen Teil der Lichtquelle zu verstellen, ist es auch möglich, die Lichtquelle unmittelbar zu modulieren, z.B. durch Verwendung:
  • 1) einer Flüssigkristallanzeige (LCD) (z.B. der Art, die in Verbindung mit gewissen persönlichen Computern zum Projizieren von Bildern auf einen Overheadprojektor verwendet werden kann).
  • 2) einer kleinen Kathodenstrahlröhre (CRT) für unmittelbares Schreiben des Musters.
  • 3) magneto-optischer Modulation (d.h. des Faraday-Effekts) gemeinsam mit einem polarisierten Licht.
  • 4) eines speziell angefertigten verflochtenen faseroptischen Lichtleiterbündels mit zwei alternierenden Lichtquellen.
  • Bild 3 veranschaulicht, wie das Linsensystem 2 eingestellt wird, um auf sukzessive Ebenen des Objekts 3 zu fokussieren, und wie ein dreidimensionales elektronisches Bild oder eine Distanzkarte des Objekts in dem Speicher des Computers aus diesen "Scheiben" aufgebaut wird. Die Konturen des Objekts 3, die in jeder bestimmten Position des Linsensystems 2 in Fokus sind, können auf dem Bildschirm 14 dargestellt werden. Auch andere Bilder des auf diese Weise aufgebauten dreidimensionalen Modells lassen sich nach gut bekannten Bilddarstell- und Verarbeitungsmethoden darstellen.
  • Bei dem vorstehend beschriebenen optischen Sensor handelt es sich um ein "aktives" System (d.h. er ist zur Beleuchtung des Objekts, das gerade betrachtet wird, mit einer Lichtquelle versehen), und nicht um ein passives System (d.h. ein System, bei dem Umgebungslicht zur Beleuchtung des Objekts erforderlich ist). Indem er auf das Objekt das gerade betrachtet wird, ein Muster projiziert, ist er in der Lage einfache, nicht strukturierte Oberflächen wie gestrichene Wände, Fußböden, Haut usw. abzufühlen, und ist nicht wie ein herkömmlicher fokusvariabler Entfernungsmesser auf Ränder oder strukturierte Merkmale beschränkt. Der Gebrauch eines Musters, das auf das zu betrachtende Objekt projiziert wird und dessen Form so beschaffen ist, daß es sich zwecks Bestimmung der in Fokus befindlichen Teile leicht analysieren läßt, bietet somit im Vergleich mit einem herkömmlichen fokusvariablen Entfernungsmeßgerät erhebliche Vorteile. Da außerdem der abgehende projizierte Strahl die gleiche Fokussierverstellung erfährt wie der zugeführte Strahl, der durch den Detektor 1 abgefühlt wird, wird das projizierte Muster nur auf diejenigen Teile des Objekts fokussiert, die selbst in Fokus sind. Dies bedingt, daß das Auflösungsvermögen besser ist als das des herkömmlichen fokusvariablen Entfernungsmeßgeräts, da der Fokussiereffekt mit Hilfe einerseits des Detektors 1 und andererseits der Lichtquelle wirksam "verdoppelt" wird. Die Symmetrie des optischen Systems bedeutet, daß, wenn das Objekt in Fokus ist, die Raumfrequenz des ari dem Detektor 1 gebildeten Signals der des Gittermusters 7 genau gleich sein wird.
  • Der Bereich der Maße, innerhalb deren der Sensor der vorstehend beschriebenen Art verwendet werden kann, erstreckt sich von groß, z.B. einigen Metern, bis zu klein, z.B. einigen Millimetern. Es sollte auch möglich sein, die gleiche Methode bei sehr kleinen Maßen anzuwenden, so daß mit Hilfe eines relativ einfachen und kostengünstigen Geräts praktisch ein 3D-Mikroskop geschaffen wird.
  • Im allgemeinen läßt sich diese Technologie leichter im kleineren als im größeren Maßstab anwenden. Dies ist darauf zurückzuführen, daß bei im kleinen Maßstab arbeitenden Sensoren die Tiefenauflösung mit der räumlichen Auflösung vergleichbar ist, während im größeren Maßstab die Tiefenauflösung abnimmt (was zu erwarten ist, da der wirksame Triangulationswinkel des Linsensystems reduziert wird). Da es sich um ein aktives System handelt, wird die erforderliche Beleuchtung proportional zu dem Quadrat der Entfernung zwischen dem Sensor und dem Objekt, das gerade betrachtet wird, zunehmen. Trotzdem eignet sich das System gut zum Robotersensor mit einer Reichweite bis zu mehreren Metern.
  • Eines der Probleme bei herkömmlichen Mikroskopen besteht in der "Unschärfe", die auf die sehr geringe Tiefenschärfe zurückzuführen ist. Um dies zu überwinden, wurden CCD- Kameras zwecks unmittelbarer Erfassung von Bildern an Mikroskope angebracht, und heute sind Softwarepakete verfügbar, mit deren Hilfe eine Reihe erfaßter Bilder verarbeitet und zwecks Beseitigung der Unschärfe eine Entwindungsoperation vorgenommen werden kann. Auf diese Weise lassen sich Bilder erzielen, deren Klarheit mit der Klarheit von Bildern vergleichbar ist, die sich mit Hilfe eines sehr viel aufwendigeren konfokalen Abtastmikroskops erhalten lassen. Die vorstehend beschriebene Methode der Erfassung und Differenzierung von Bildpaaren ermöglicht es auch, klare Querschnittsbilder zu erzeugen. Dies ist auf manche Weise leichter als die Softwaremethode, da die Daten Höheninformationen in viel zugänglicherer Form enthalten. Durch Abtasten der Höhe auf die beschriebene Weise (d.h. durch Verstellung des Linsensystems 2) läßt sich ein Bild der Probe aufbauen. In Falle biologischer Proben lichtdurchlässiger Art mag es nicht mehr angebracht sein, ein einfaches Oberflächenprofil zu bilden. Vielmehr mag es ratsamer sein, ein vollständiges dreidimensionales Modell "optischer Dichte" zu erzeugen, um dieses Merkmal der Probe wiederzugeben.
  • Ein weiteres herkömmliches Verfahren der Mikroskopie, das zur Verwendung in Verbindung mit dem vorstehend beschriebenen Sensor in Frage kommt, beruht auf Fluoreszenz. Bei diesem Verfahren wird die Probe mit einem fluoreszierenden Farbstoff gefärbt, so daß sie bei Beleuchtung mit Licht einer bestimmten Wellenlänge, z.B. UV-Licht, Licht irgendeiner anderen Wellenlänge, z.B. gelb, emittiert. Auf diese Weise ist es möglich zu sehen, welcher Teil einer Probe den Farbstoff absorbiert hat. Falls eine Lichtquelle der entsprechenden Wellenlänge benutzt und der Detektor so angeordnet wird, daß er infolge der Verwendung eines entsprechenden Filters nur auf die entstehende Fluoreszenz anspricht, läßt sich ein dreidimensionales Fluoreszenzmodell der Probe aufbauen.
  • Es wird verständlich sein, daß das Linsensystem 2 in solchen Anwendungen als die Objektivlinse des Mikroskops wirkt.
  • Bei einem Sensor der vorstehend beschriebenen Art kommen verschiedene optische Anordnungen in Frage, von denen einige in den Bildern 4, 5 und 6 veranschaulicht sind.
  • Bild 4 zeigt eine "Nebeneinanderanordnung", bei der zum Fokussieren eines primären Bildes des Gitters 7 auf das Objekt 3 und zum Fokussieren des sekundären Bildes davon auf den CCD-Detektor 1 getrennte Linsensysteme 2A und 2B verwendet werden. Auch dieses System ist so beschaffen, daß, wenn sich das primäre Bild an dem Objekt 3 in Fokus befindet, das sekundäre Bild an dem Detektor ebenfalls in Fokus ist. Dies wird dadurch erreicht, daß die Linsensysteme 2A und 2B identisch ausgeführt und nebeneinander oder übereinander angeordnet werden (je nachdem, ob von einem waagerechten oder senkrechten Muster Gebrauch gemacht wird), so daß sie von dem Projektorgitter 7 bzw. dem Detektor 1 gleich weit entfernt sind. Die Bewegung der beiden Linsensysteme 2A und 2B wäre auch während der Verstelloperation abgestimmt. Die beiden optischen Systeme sind in diesem Falle wirksam durch Überlappen an dem Objekt 3 der durch das Projektorgitter 7 beleuchteten Fläche und der durch den Detektor 1 abgefühlten Fläche kombiniert.
  • Bild 5 zeigt eine Anordnung, bei der getrennte optische Systeme mit Hilfe eines Spiegels (oder Prismas) 15 und eines Strahlungteilers 16 kombiniert sind. Auch in diesem Falle wird dafür gesorgt, sicherzustellen, daß die beiden Linsensysteme 2A und 2B identisch und genau positioniert sind und daß ihre Bewegungen abgestimmt sind, um zu gewährleisten, daß das System "konfokal" ist.
  • Bild 6 zeigt einen Teil einer dem Bild 1 entsprechenden Anordnung, bei der eine Abbildungs-Zwischenstufe in die Detektoroptik eingefügt ist. Das sekundäre Bild wird durch das optische System 2 zuerst auf einen z.B. aus Mattglas bestehenden lichtdurchlässigen Schirm 17 und dann durch eine Detektorlinse 18 auf einen Detektor 1 fokussiert. Die in Bild 6 dargestellte Anordnung eignet sich besonders gut für Femsensoren (z.B. mit Reichweiten von mehr als 2 m), bei denen es wünschenswert ist, (zwecks Erzielung besserer Tiefenauflösung) von einer größeren Linse Gebrauch zu machen, als sie normalerweise bei einem CCD-Detektor, bei dem die Linsengröße typisch etwa 1 cm x 1 cm beträgt, in Frage käme.
  • Handelt es sich um eine strukturierte Lichtquelle mit einem Muster innerhalb eines Wiederholabstands von mehr als zwei Bildelementen (d.h. n > 2), so besteht die bevorzugte Lösung darin, von einer zusätzlichen Abbildungsstufe in Bild 6 Gebrauch zu machen, um n effektiv auf zwei zu reduzieren.
  • In der nahen Zukunft ist jedoch mit leichterer Verfügbarkeit größerer CCD-Anordnungen zu rechnen.
  • Ist der Sensor für Einsätze in sehr kleinem Maßstab konstruiert, so ist es leichter, nicht nur das Linsensystem 2 im Verhältnis zu dem Objekt, das gerade betrachtet wird, zu verstellen, sondern den gesamten Sensor (wie dies bei einem herkömmlichen Mikroskop der Fall ist). Da der Abstand der Linse von dem Detektor konstant bleibt, bleiben der Bildfeldwinkel und die Vergrößerung konstant, so daß jedes Bildelement des Detektors 1 einem festen x,y-Ort in der Objektebene entspricht. Die Analyse des an dem Detektor 1 erzeugten Bildes ist somit sehr vereinfacht.
  • Bei Verwendung des Systems als Mikroskop empfiehlt es sich, ein spiegelartiges Linsensystem zu benutzen, wie z.B. ein spiegelartiges Cassegrain-Mikroskopobjektiv, da dieses eine bedeutend größere Blendenöffnung und somit bessere Tiefenauflösung bietet als ein herkömmliches Linsensystem.
  • Bei jeder der vorstehend beschriebenen Anordnungen können die Positionen der Lichtquelle und des Detektors 1 auf Wunsch auch gegenseitig vertauscht werden.
  • Der Strahlungsteiler 8 kann ein einfacher halbversilberter Spiegel herkömmlicher Konstruktion sein. Um jedoch die Menge des den Detektor 1 erreichenden Streulichts zu verringern, wird ein prismenartiger Strahlungsteiler der in Bild 7 gezeigten Art bevorzugt. Wie dies in Bild 7 ersichtlich ist, verhindert die totale Innenreflexion, daß von dem Gittermuster 7 ausgehendes Licht unmittelbar auf den Detektor 1 auftrifft. Es kann auch von mit Polarisierfiltern verbundenen polarisierenden Strahlungsteilern Gebrauch gemacht werden, um die durch den Detektor 1 erreichendes Streulicht bedingten Probleme zusätzlich zu reduzieren.
  • Bei den vorstehend beschriebenen Ausführungsformen wird von einem 2-dimensionalen Gittermuster und einer 2- dimensionalen Detektoranordnung 1 Gebrauch gemacht. Eine ähnliche Anordnung kann mit einem 1-dimensionalen Gittermuster verwendet werden, d.h. einer einzigen Reihe wechselweise heller und dunkler Flächen, und von einer 1- dimensionalen Detektoranordnung, d.h. einer einzigen Reihe von Detektorbildelementen. Eine solche Anordnung ist in den Bildern 8A und 8B veranschaulicht. Bild 8A zeigt eine lineare Detektoranordnung 1A, ein Linsensystem 2, eine Lampe 5, eine Projektionslinse 6 und ein Gitter 7A sowie einen Strahlungsteiler 8, wobei diese Elemente auf ähnliche Weise angeordnet sind, wie bei der in Bild 1 dargestellten Ausführungsform. Auch ein wahiweiser Abtastspiegel 19 (der nachstehend beschrieben ist) ist dargestellt. Bild 88 zeigt Vorderansichten der linearen CCD-Detektoranordnung 1A und des linearen Gittermusters 7A, das eine Reihe von hellen und dunklen Flächen umfaßt, deren Maße denen der Bildelemente des CCD-Detektors 1A entsprechen.
  • Die in Bild 8 dargestellte 1-dimensionale Anordnung entspricht einer einzigen Reihe von von einem 2- dimensionalen Sensor ausgehenden Daten und liefert ein 2- dimensionales Querschnittsmaß des Objekts 3, das gerade betrachtet wird, und nicht ein vollständiges 3- dimensionales Bild. Es gibt zahlreiche Anwendungen, bei denen dies völlig ausreicht, doch läßt sich ein vollständiges 3-dimensionales Bild erhalten, wenn von einem Mechanismus für Abtastung des Strahls innerhalb eines Winkels Gebrauch gemacht wird, um die zusätzliche Dimension zu erzielen. In Bild 8A wird ein Abtastspiegel 19 gezeigt, der diese Aufgabe erfüllt, obgleich auch zahlreiche andere Methoden in Frage kommen. Die Abtastvorrichtung 19 kann entweder schneller oder langsamer arbeiten als der Verstellmechanismus des Linsensystems 2, je nachdem, was praktischer ist, d.h. es kann entweder für jede Abtastposition eine vollständige Fokusverstellung des Linsensystems 2 oder für jede Position der Verstellung des Linsensystems 2 eine vollständige Abtastung des Objekts vorgenommen werden.
  • Wahlweise kann die zusätzliche Dimension erzielt werden, indem man das Objekt, das gerade betrachtet wird, verstellt. Diese Anordnung ist daher für Lagen geeignet, in denen das Objekt, z.B. durch ein Förderband, an dem Sensor vorbei transportiert wird.
  • Ein 1-dimensionales System hat eine Reihe von Vorteilen:
  • 1) Niedrigere Kosten, wenn nur 2-dimensionale Information erforderlich ist.
  • 2) Da die von dem 1-dimensionalen Detektor ausgehenden Daten mit viel geringeren Frequenzen anfallen, können Abtastungen schneller durchgeführt werden (während das vorstehend beschriebene 3-dimensionale System durch die Videodatenlesefrequenz, d.h. 50-60 Hz bei Standard-Video beschränkt ist). Ein 1-dimensionaler Detektor kann mit einer Frequenz von vielen Tausenden Abtastungen/Sekunde ausgelesen werden.
  • 3) Die Verarbeitung 2-dimensionaler Daten erfordert weniger rechnerischen Aufwand als die Verarbeitung 3-dimensionale Daten.
  • 4) In 1-dimensionaler Form sind längere Detektoranordnungen verfügbar. Typische 2-dimensionale Detektoren haben etwa 512 x 512 Bildelemente, während 1-dimensionale Lineardetektoren ohne weiteres mit 4096 Bildelementen verfügbar sind.
  • 5) Der wichtigste Vorteil besteht wohl darin, daß wenn das Objekt, das gerade betrachtet wird, nicht in Fokus ist, der Signalpegel am Detektor 1A viel niedriger ist, als bei einer 2-dimensionalen Anordnung. Dies ist dadurch bedingt, daß sich das projizierte Licht auf eine große Fläche verteilt, die zum größten Teil nicht durch den Detektor 1A erfaßt wird. In je höherem Maße das Objekt defokussiert ist, um so schwächer wird daher das erfaßte Signal sein. Dies trägt zu vereinfachter Datenanalyse bei, da die Intensitätsabnahme zu dem "Unschärfe-Abstand" (sowie zu den normalen Faktoren) proportional ist. Dies ist anders als bei der 2-dimensionalen Detektoranordnung, bei der der durchschnittliche Lichtpegel weitgehend unverändert bleibt und einfach im Einklang mit dem üblichen quadratischen Entfernungsgesetz dem Abstand zwischen dem Sensor und dem Objekt entsprechend abnimmt.
  • Eine 1-dimensionale Variante des Sensors eignet sich daher zum Abfühlen:
  • 1) von Baumstämmen in einem Sägewerk, z.B. um zu bestimmen, auf welche Weise der betreffende Baumstamm am wirtschaftlichsten zu sägen ist.
  • 2) von Strangpreßlingen, z.B. zwecks Prüfung der Querschnitte von Gegenständen aus extrudiertem Metall, Gummi oder Kunststoff bzw. Lebensmittelprodukten.
  • 3) von Lebensmitteln, z.B. zum Messen der Größe individueller Früchte, Fische usw.
  • 4) von auf Förderbänden transportierten Objekten, z.B. zum Identifizieren von Objekten oder zum Bestimmen von deren Lage und Orientierung.
  • In zusätzlicher Erweiterung des vorstehend beschriebenen Prinzips können das Gittermuster und der Detektor des Sensors weiter auf einen "strukturierten Punkt" reduziert werden. In der Praxis können ein kleines Gittermuster, z.B. in der Form eines Zwei x Zwei-Schachbrettmuster 7B, und ein kleiner Detektor, z.B. in der Form eines Quadrantendetektors 1B wie in den Bildern 9A und 9B, den strukturierten Punkt bilden. Es kann aber auch von einem Zwei-Element-Detektor und einem entsprechenden Zwei- Element-Gittermuster Gebrauch gemacht werden. Die von einem solchen Detektor gelieferten Signale werden verarbeitet, als ob sie ein einziges Informationsbildelement bildeten.
  • Es wird verständlich sein, daß die optische Anordnung eines solchen Sensors ähnlich ist, wie die eines konfokalen Abtastmikroskops, doch unter Zusatz einer strukturierten Lichtquelle und eines Detektors anstelle eines einfachen Punktes.
  • In seiner einfachsten Form wirkt ein Sensor dieser Art als 1-dimensionaler Entfernungsmesser. Wie bei dem vorstehend beschriebenen 1-dimensionalen Detektor, lassen sich zusätzliche Dimensionen erhalten, indem von Abtastmechanismen zur Ablenkung des Strahls über das interessierende Objekt Gebrauch gemacht wird und/oder das Objekt an dem Sensor, z.B. auf einem Förderband, vorbeibewegt wird. Es könnte z.B. von einer Abtastvorrichtung mit Doppelgalvanometer Gebrauch gemacht werden, um ein 3-dimensionales Bild zu erhalten, oder von einer Abtastvorrichtung mit einem Galvanometer, um ein 2- dimensionales Querschnittsbild zu erzielen.
  • Bei zeitlicher Modulation wird das beleuchtete Gitterelementpaar zwischen Beobachtungen abgewechselt. Doch wären die bei Gebrauch von piezo-elektrischen Positioniermitteln verfügbaren Datenfrequenzen zu niedrig, um die Abtastfrequenzen des Detektors zu verwerten, und es empfiehlt sich daher die Verwendung anderer Mittel zum Abwechseln der Lichtquelle, wie z.B.:
  • 1) einen Faraday-Effekt-Schirm und Projektionsoptik.
  • 2) ein Paar abgestimmter Laserdioden, die Licht in Paare optischer Faserbündel einspeisen, welche mit gegenüber befindlichen Paaren des Quadranten in Verbindung stehen.
  • 3) vier abgestimmte Lichtquellen, z.B. Laserdioden, die in einem Quadranten angeordnet und in gegenüber befindlichen Paaren mit einem optischen System verbunden sind, um das Licht auf eine kleinere Quadrantengittermaske zu fokussieren.
  • 4) einen akusto-optischen Modulator zur Ablenkung eines Laserstrahls zwischen den Teilen des Gittermusters.
  • Bei einem Sensor dieser Art bleibt der mittlere Beleuchtungspegel konstant, und die wechselstromsynchrone Komponente des Signais wird erfaßt, um anzuzeigen, wenn das Bild in Fokus ist (da die gegenüber befindlichen Quadrantenpaare abwechselnd hell und dunkel sein werden) Die nicht in Fokus befindlichen Komponenten werden einfach ein gleichförmiges Gleichstromsignal liefern (da alle vier Quadranten hinsichtlich beider Zustände des Beleuchtungsgitters ähnliche Signale erhalten). Die Elektronik ist so angeordnet, daß der Unterschied zwischen durch gegenüber befindliche, mit der wechselnden Lichtquelle synchronisierte Quadrantenpaare enthaltenen Signalen nachgewiesen wird.
  • Bei einem Sensor dieser Art muß das gesamte projizierte Licht von der kleinen strukturierten Lichtquelle geliefert werden, und die wirksamste Anordnung besteht daher in der Verwendung eines Lasers als Lichtquelle. Auch kann es vorkommen, daß die verfügbaren Quadrantendetektoren größer sind als erforderlich, und es mag daher eine Abbildungs Zwischenstufe notig sein, um die Größe des Detektors mit dem Gittermuster abzustimmen.
  • Ebenso wie dies bei dem vorstehend beschriebenen 1- dimensionalen Sensor der Fall ist, nimmt der Intensitätspegel schnell ab, wenn das Objekt nicht in Fokus ist. In diesem Falle findet die Abnahme jedoch sehr viel schneller statt, da (abgesehen von den normalen Faktoren) die Abnahme zu dem Quadrat des "Unschärfe"-Abstands annähernd proportional ist (ähnlich wie bei einem konfokalen Abtastmikroskop).
  • Dies ermöglicht es, den Sensor zum Abbilden unter schwierigen Verhältnissen, z.B. durch Nebel, Rauch oder trübes Wasser hindurch, zu verwenden. Dies hat die folgenden Gründe:
  • 1) Jede kleine Fläche des Objekts wird der Reihe nach betrachtet. (Beleuchtung des gesamten Objekts würde "Verschleierung" des gesamten Bildes zur Folge haben, ebenso wie der Gebrauch der Fernlichtscheinwerfer eines Automobils in Nebel die Sichtbarkeit durch Erhöhung der Streulichtmenge reduzieren kann).
  • 2) Die Intensität des unerwünschten Streulichts von nicht in Fokus befindlichen Bereichen des Objekts ist auf ein Mindestmaß eingeschränkt, da die Abnahme, wie vorstehend beschrieben, zu dem Quadrat des "Unschärfe"-Abstands proportional ist.
  • 3) Das den Detektor erreichende Streulicht wird defokussiert sein und somit auf alle vier Quadranten in gleichem Maße einwirken. Dies trägt zu 'I' (dem mittleren Signal) bei, trägt aber zu dem Differenzfaktor 'M' sehr wenig bei.
  • 4) Die vorstehend beschriebene Methode der synchronen Erfassung unterscheidet des weiteren zwischen unerwünschtem durch den Nebel bedingten Streulicht und einer etwaigen Hintergrundbeleuchtung, die von dem echten, durch ein in Fokus befindliches Objekt reflektierten Signal ausgeht.
  • Wie bei der vorstehend beschriebenen 1-dimensionalen Variante, hängt die Wahl, ob mit schneller Verstellung des Linsenfokus und langsamer Bildabtastung oder umgekehrt gearbeitet wird, davon ab, was praktischer ist. Mit Hilfe eines intelligenten Systems läßt sich eine bestimmte Probe beenden, sobald die fokussierte Position gefunden wurde, und das System kann dann auf die. nächste Position übergehen, wobei es die gegenwärtige Entfernungsinformation als schätzungsweise Ausgangsinformation für das nächste Element benutzt usw.
  • Bild 10 zeigt die allgemeine Struktur der in Bild 9 dargestellten Ausführungsform mit einem einfachen Quadrantendetektor und einem Gittermuster in der Form eines Blockschemas. Dieses System setzt voraus, daß die Quadrantenlichtquelle unter Verwendung von zwei abgestimmten Laserdioden aufgebaut ist, die mit Paaren optischer Faserbündel verbunden sind, wobei diese Faserbündel in einem dem Detektor entsprechenden Quadrantenmuster angeordnet sind. Ein Taktsignal dient zum Synchronisieren der Tätigkeit der Lichtquellen und der Nachweiselektronik. Die Lichtquellen werden abwechselnd so beleuchtet, daß die durchschnittliche Lichtintensität konstant bleibt. Die Ausgänge der vier Quadranten A, B, C, D des Detektors werden verstärkt und kombiniert, um die folgenden Faktoren zu ergeben.
  • Mittlere Intensität I' = (A+C) + (B+D)
  • Modulationstiefe M' = (A+C) - (B+D)
  • Dieses Modulationstiefensignal M' verläuft dann durch einen herkömmlichen Synchronnachweiskreis. Das Signal M' wird mit plus oder minus eins multipliziert, je nach der Phase des Taktgebers. Die Ausgänge M' und 1' verlaufen dann durch ein Tiefpaßfilter und einen Teiler, so daß sie ein Signal M liefern, das einem Maß des "In-Fokus"-Signals entspricht. Die Signale M und I werden schließlich digitalisiert und an den Computer übertragen.
  • Selbstverständlich könnte die Reihenfolge der vorstehenden Operationen geändert werden, ohne daß das Ergebnis letzten Endes anders wäre. Die Teilung könnte z.B. vor oder nach der Tiefpaßfiltration vorgenommen werden. Die Teilung könnte auch nach der Analog/Digital-Umsetzstufe (ADC) digital bewirkt werden.
  • Falls nötig, kann das Signal M integriert werden, um ein besseres Signal/Rausch-Verhältnis zu erzielen. Außerdem wird ein Test erforderlich sein, um Meßergebnisse mit sehr niedrigem I abzuweisen.
  • Wie vorstehend erläutert, sind die Merkmale dieses Sensors so beschaffen, daß die mittlere Intensität 1 schnell abnimmt, wenn die Verstellposition der In-Fokus-Position nicht nahe ist. Dieser Umstand läßt sich dazu verwerten, wertlose Daten schnell zu überspringen.
  • Das Nettoergebnis besteht darin, daß nur das zeitlich modulierte Signal, das dem In-Fokus-Gittermuster entspricht, nachgewiesen wird. Es läßt sich somit die dem maximalen Wert von M entsprechende Verstellposition und daher die Entfernung des Objekts bestimmen. Durch Kombinieren dieses Verfahrens mit einem Strahlabtastmechanismus ist es möglich, 2-dimensionale oder 3-dimensionale Entfernungskarten aufzubauen.
  • Die Projektion eines strukturierten Bildes auf das zu betrachtende Objekt sowie die Verwendung eines Detektors, der in der Lage ist, die Struktur des Bildes abzufühlen, bedingen die vorstehend erörterten Vorteile und ermöglichen es, das erzielte, von dem Detektor 1B empfangene Bild schnell und zuverlässig auf die beschriebene Weise zu analysieren, um die erforderliche Information zu erhalten. Außerdem ermöglicht der Gebrauch eines Bildes und eines Detektors dieser Art den Aufbau eines Systems, dessen Leistungsfähigkeit bei Verwendung einer relativ einfachen und kostengünstigen Apparatur für eine große Vielzahl von Anwendungen ausreichend ist. Bei all den beschriebenen Anordnungen wird, wie vorstehend beschrieben, von zeitlicher Modulation (bei der das Gittermuster um einen halben Wiederholabstand verstellt wird oder die hellen und dunklen Teile des Bildes zwischen Beobachtungen abgewechselt werden) Gebrauch gemacht, um die Analyse der durch den Detektor empfangenen Signale zu vereinfachen.
  • Es wird verständlich sein, daß Verlagerung der Signalanalyse in den zeitlichen Bereich im Vergleich mit dem Stand der Technik entsprechenden Verfahren erhebliche Vorteile bietet. Die Analyse ist bedeutend einfacher, und die Signale können daher schneller analysiert werden, so daß innerhalb einer bestimmten Zeit eine größere Menge Bildinformationen gewonnen werden kann. Einzelne
  • Bildelemente des Detektors können auch unabhängig voneinander analysiert werden.
  • Die vorstehend beschriebene Leistung der Sensoren hängt kritisch von den Merkmalen des Linsensystems 2 ab. Die Tiefenauflösung wird proportional zu der Blendenöffnung der Linse verbessert, und je größer die Blendenöffnung der Linse ist, um so besser ist es. Die Tiefenauflösung setzt auch eine Linse mit hohem Auflösungsvermögen voraus. Eine Methode, nach der die Auflösung verbessert werden kann, besteht im Einschränken der Spektralbandbreite (um Farbfehler auf ein Mindestmaß einzuschränken), und zwar. durch Filter oder durch entsprechende Wahl der Lichtquelle, z.B. von Laserdioden. Dem Detektor 1 würde dann ein der Lichtquelle entsprechendes Filter vorgeschaltet werden, um unerwünschtes Hintergrundlicht auszuschalten.
  • Das Linsensystem 2 kann einfach eine schnellwirkende Kameralinse hoher Güte umfassen, die den Vorteil hat, relativ kostengünstig zu sein.
  • Es kann auch von einer asphärischen Einelementlinse mit großer Blendenöffnung Gebrauch gemacht werden. Bei einer solchen Linse sind sphärische Aberrationen minimal, und sie würde bei Verwendung innerhalb einer schmalen Spektralbandbreite gute Auflösung bedingen.
  • Es kann auch ein Zoomlinse verwendet werden. In diesem Falle könnte eine Weitwinkelaufnahme gemacht werden, auf die eine fernphotographische Nahaufnahme von interessierenden Flächen folgt, um eine höhere Auflösung zu erzielen. Ein Nachteil der meisten Zoomlinsen besteht in ihrer beschränkten Blendenöffnung, die die erzielbare Tiefenauflösung begrenzt. Außerdem besteht infolge der großen Anzahl optischer Oberflächen innerhalb des Linsensystems die Tendenz zu Streulichtproblemen.
  • Für Entfernungsmessung in größerem Maßstab mag eine Spiegellinse bevorzugt werden, da herkömmliche Linsen zu schwer und unhandlich werden. Die Spiegellinse einer Kamera ist kompakt, und ihre Cassegrain-Geometrie bietet einen Triangulationsdurchmesser, der größer ist als ihre Öffnungszahl, so daß die Tiefenauflösung besser sein sollte
  • Es kann auch von einem Linsensystem mit veränderlicher Brennweite Gebrauch gemacht werden. Ein Problem bei einem normalen Linsensystem besteht darin, daß sich die Vergrößerung im Zuge der Linsenverstellung ändert (indem sich der Abstand von dem Detektor zur Linse ändert). Dies bedeutet, daß es nicht möglich ist, ein bestimmtes Bildelement mit einer Richtung im Raum zu verbinden, und das gleiche Bildelement kann im Zuge der Linsenverstellung mehr als einmal fokussiert werden (wenigstens prinzipiell, besonders was die im Randbereich des Detektors befindlichen Bildelemente anbelangt). Durch Gebrauch eines Linsensystems mit veränderlicher Brennweite wie einer Zoomlinse können wir im Prinzip die Verstellung der Fokussierentfernung bewirken und gleichzeitig durch Ändern der Brennweite kompensieren, so daß die Nettovergrößerung, d.h. das Bildfeld, konstant bleibt. Bei dieser Anordnung wird es möglich, jedes Bildelement mit einem Richtungsvektor im Raum zu verbinden, was vereinfachte Analyse zwecks Aufbau des 3D-Modells des Objekts bedingen kann.
  • Eine weitere Alternative besteht darin, die Krümmungshalbmesser der Linse zwecks Einstellung des Fokus zu ändern. Dies ist z.B. bei Verwendung einer flexiblen mit Flüssigkeit gefüllten Linse, bei der der Innendruck die Linsenkrümmung bestimmt, in Verbindung mit einer herkömmlichen Linse möglich. Bei einer Linse dieser Art bleiben die optischen Elemente während der Verstellung in einer festen Lage, und die Änderung des Fokus wird durch Andern der Krümmung und somit der Brennweite der Linse erzielt. Der für die Verstellung erforderliche Brechwertbereich ist relativ klein, und die mit Flüssigkeit gefüllte Linse braucht im Verhältnis zu der herkömmlichen Linse, die den größten Teil der Brechkraft des Linsensystems bedingt, nur relativ schwach zu sein. Es kommen noch andere Typen von Linsensystemen mit veränderlichem Fokus in Frage.
  • Im Idealfalle wäre die Bildebene des Linsensystems flach, doch in der Praxis mag dies nicht der Fall sein. Die Kreissymmetrie des Linsensystems sollte jedoch eine ähnliche Symmetrie der Bildebenenlage bedingen. Es kann von einem Eichverfahren Gebrauch gemacht werden, um die Beziehung zwischen der Linsenverstellposition und der In- Fokus-Position in Abhängigkeit von der außeraxialen Entfernung zu bestimmen. Aus den gewonnenen Werten kann eine Eichtabelle aufgebaut werden, die die Zielentfernung zu der Verstellage und der außeraxialen Verstellung in Beziehung setzt. Es können dann entsprechende Funktionen angeordnet und zur Umsetzung der Beobachtungen in Entfernung verwertet werden. Wird außerdem von einem geeigneten Eichmuster Gebrauch gemacht, das von dem Detektor abgelesen werden kann, z.B. von einem Stück Koordinatenpapier, läßt sich die Maßstabseinstellung in der Bildebene automatisch bestimmen und auf ähnliche Weise anpassen
  • Ein Problem, das bei den vorstehend beschriebenen optischen Sensoren auftreten kann, bildet die Wahrscheinlichkeit, daß von der Lichtquelle ausgehendes Streulicht in den Detektor 1 eindringt. Solches Streulicht wird nicht in Fokus sein, wird aber die Wirkung haben, daß es den Kontrast der Bilder reduziert und somit die Leistungsfähigkeit herabsetzt. Dieses Problem nimmt mit dem Maßstab der Entfernungsmessung zu, da ein Gerät größeren Maßstabs eine hellere Lichtquelle erfordern und von dem Objekt, das gerade betrachtet wird, weniger Licht zurückerhalten wird. Zwecks Einschränkung dieses Problems auf ein Mindestmaß kommen verschiedene Strategien in Frage:
  • 1) Verwendung eines Linsensystems hoher Güte mit mehrfach vergüteten Oberflächen.
  • 2) Anpassung des Bildfelds (FoV) der Lichtquelle an die Erfordernisse des Linsensystems.
  • 3) Verwendung eines gekreuzten Polarisationsfilters über dem Gittermuster und dem Detektor.
  • 4) Verwendung eines polarisierenden Strahlungsteilers in Verbindung mit der vorstehenden Vorrichtung.
  • 5) Verwendung der Mindestanzahl optischer Oberflächen (eine asphärische Einzelelementlinse kann nützlich sein).
  • 6) Sicherstellen, daß die unerwünschte Hälfte des aus dem Strahlungsteiler austretenden Strahls gut absorbiert wird.
  • Bilder 4 und 5 veranschaulichen eine andere Methode zur Lösung des Streulichtproblems im Falle der Entfernungsmessung im großen Maßstab, wo die Einzellinse durch ein abgestimmtes Paar getrennter Linsen für die Lichtquelle und den Detektor ersetzt ist. Bild 4 zeigt die beiden Linsen übereinander angeordnet und mit parallelen Achsen. In diesem Fall muß wegen Parallaxe von einem senkrechten Gittermuster Gebrauch gemacht werden, und die Linsen sollten eine flache Bildebene aufweisen, so daß die senkrechten Streifen mit der Bildelementanordnung des Detektors ausgerichtet werden. Eine Zwischenlösung besteht darin, die beiden Strahlen extern zu verbinden und nicht intern, wie dies in Bild 5 gezeigt ist. Da weniger optische Oberflächen betroffen sind, wird das Streulichtproblem weniger akut sein. In diesem zweiten Beispiel kann wieder von dem bevorzugten schachbrettartigen Gittermuster Gebrauch gemacht werden.
  • Die andere unerwünschte Beleuchtungsquelle bildet Hintergrunds- bzw. Umgebungslicht. Dieses Problem ist umso schlimmer, je mehr der Maßstab der Entfernungsmessung zunimmt, und es wird für die obere Grenze der Nützlichkeit des Sensors ausschlaggebend sein. Die "aktive" projizierte Lichtquelle muß daher vorherrschend sein. Um dieses Problem auf ein Mindestmaß einzuschränken, können verschiedene Vorkehrungen getroffen werden:
  • 1) Verwendung einer hellen Lichtquelle schmaler Spektralbandbreite mit abgestimmtem Filter über dem Detektor.
  • 2) Verwendung einer stroboskopischen Lichtquelle mit synchronisierter Bilderfassung mit kurzer Belichtungszeit.
  • 3) Erfassung von Bildern ohne interne Lichtquelle und Abzug dieses Hintergrundsignals von den aktiven Bildern.
  • Eine wesentliche Rolle bei dem Sensor spielt der Triangulationswinkel, der durch den exidlichen Durchmesser des Linsensystems 2 bedingt wird. Von dem Objekt 3 wird innerhalb der gesamten Fläche des Linsensystems 2 Licht gesammelt, und je größer diese Fläche ist, umso kleiner ist die Tiefenschärfe. Desgleichen ist es wichtig, daß das von dem Sensor ausgehende Licht die gesamte verfügbare Linsenfläche ebenfalls voll verwertet, um ein Muster mit kurzer Tiefenschärfe auf das Objekt 3 zu projizieren. Die Optik der Lichtquelle sollte daher so konstruiert sein, daß von jedem Punkt an dem Gitter ein Lichtkonus auf die Linse zu gerichtet wird, um deren vollständige Fläche zu überdecken. Dieser Lichtkonus sollte eine.gleichförmige Intensität aufweisen (oder auf den Rand der Linse zu vielleicht sogar erhöht sein, der den größeren Triangulationswinkel beiträgt).
  • Optische Sensoren der hier beschriebenen Art haben einen großen Bereich möglicher Anwendungen. Zu diesen zählen:
  • 1) Selbstständig geführte Fahrzeuge (AGUs), d.h. freifahrende automatische Fahrzeuge, die zum Planen ihrer Bewegung von ihren eigenen Sensoren Gebrauch machen.
  • 2) Medizinische Abbildung, z.B. Gesichtskartographie zwecks Planung von plastischer Chirurgie oder Kartographierunq des Rückens eines Patienten zwecks Untersuchung von Rückgratstörungen.
  • 3) Zahntechnik, z.B. Kartographierung von Zahnhöhlungen zwecks automatischer Bearbeitung von keramischen Füllungen.
  • 4) Inspektion von Produkten wie Leiterplatten, z.B. Prüfung, ob Bauelemente angebracht sind usw.
  • 5) Industrielle Messung, z.B. automatische Messung von Bauelementen wie Fahrzeugkaros serien.
  • INDUSTRIELLE ANWENDBARKEIT
  • Aus den vorstehend Bemerkungen geht deutlich hervor, daß der hier beschriebene Sensor in den verschiedensten Industriezweigen und zahlreichen verschiedenen Anwendungen Verwendung finden kann.

Claims (10)

1. Ein optischer Sensor umfassend: eine strukturierte Lichtquelle (5, 6, 7) zum Erzeugen eines Musters kontrastierender Flächen; einen Detektor (1) mit einer Anordnung von Detektorelementen, deren Maße an das durch die Lichtquelle erzeugte Muster angepaßt sind; ein optisches System (2, 8) zum Projizieren eines primären Bildes der Lichtquelle auf ein abzufühlendes Objekt (3) umd zum Erzeugen eines sekundären Bildes des somit auf dem Objekt (3) geformten primären Bildes auf dem Detektor (1); ein Einstellmittel (4) zum Einstellen von mindestens einem Teil (2) des optischen Systems (2, 8), um die Fokussierung des primären Bildes auf das Objekt (3) zu variieren, wobei die Anordnung so beschaffen ist, daß wenn das primäre Bild auf das Objekt (3) fokussiert ist, auch das sekundäre Bild an dem Detektor in Fokus ist; und ein Verarbeitungsmittel (12) zum Analysieren von durch den Detektor (1) erzeugten Signalen in Verbindung mit Informationen hinsichtlich der Einstellung des optischen Systems (2, 8), wobei die strukturierte Lichtquelle (5, 6, 7) so einstellbar ist, daß die Positionen kontrastierender Flächen des durch die Lichtquelle (5, 6, 7) erzeugten Musters gegenseitig vertauscht werden, während das Verarbeitungsmittel (12) so angeordnet ist, daß es die durch die Detektorelemente empfangenen sekundären Bilder mit dem kontrastierenden Flächen in den gegenseitig vertauschten Positionen analysiert, um diejenigen Teile der sekundären Bilder zu bestimmen, die an dem Detektor (1) in Fokus sind, und dadurch die Entfernung entsprechender Teile des Objekts (3), die somit in Fokus sind, zu bestimmen.
2. Ein optischer Sensor nach Anspruch 1, bei dem die strukturierte Lichtquelle (5, 6, 7) so angeordnet ist, daß ein Muster von hellen und dunklen Flächen, z.B. mit hellen und dunklen Streifen oder ein schachbrettartiges Muster, erzeugt wird, und bei dem ein Einstellmjttel (4) vorgesehen ist, um die strukturierte Lichtquelle so zu verstellen, daß die Positionen der hellen und dunklen Flächen gegenseitig vertauscht werden.
3. Ein Optischer Sensor nach Anspruch 1, bei dem die strukturierte Lichtquelle (5, 6, 7) eine Mehrzahl von in einem Muster angeordneten Elementen umfaßt, die abwechselnd ein- und ausgeschaltet werden können, um die Positionen kontrastierender Flächen der an dem Objekt und an dem Detektor gebildeten primären bzw. sekundären Bilder gegenseitig zu vertauschen.
4. Ein optischer Sensor nach Anspruch 1, 2 oder 3, bei dem die strukturierte Lichtquelle (5, 6, 7) ein regelmäßiges Muster mit einem Wiederholabstand umfaßt, der n Mal so groß ist wie die Maße der Detektorelemente, wobei n eine kleine ganze Zahl, z.B. 2, ist.
5. Ein optischer Sensor nach einem der vorstehenden Ansprüche, bei dem das Verarbeitungsmittel (12) so angeordnet ist, daß es die Intensitäten (i1 und i2) der Beleuchtung, die von jedem Detektorelement empfangen werden, wenn das darin befindliche Bild in den zwei entsprechenden Positionen ist, repräsentierende Signale analysiert und diejenigen Flächen des Detektors (1) bestimmt, bei denen der Unterschied zwischen den beiden Signalen ( i1 - i2 ) relativ hoch ist, um auf diese Weise die Teile der sekundären Bildes aufzuzeigen, die an dem Detektor (1) in Fokus sind.
6. Ein optischer Sensor nach einem der vorstehenden Ansprüche, bei dem der Detektor (1) eine zweidimensionale Anordnung von Detektorelementen umfaßt und die strukturierte Lichtquelle (5, 6, 7) ein entsprechendes zweidimensionales Muster kontrastierender Flächen umfaßt und bei dem das Verarbeitungsmittel (12) so angeordnet ist, daß es ein zweidimensionales Bild derjenigen Teile des Objekts (3) erzeugt, die bei einer gegebenen Fokussiereinstellung des optischen Systems (2, 8) in Fokus sind, um aufgrund einer Mehrzahl der besagten zweidimensionalen Bilder ein dreidimensionales Modell des Objekts (3) aufzubauen, indem die Fokussiereinstellung des optischen Systems (2, 8) geändert wird.
7. Ein optischer Sensor nach einem der vorstehenden Ansprüche, bei dem der Detektor (1) eine lineare Anordnung von Detektorelementen umfaßt und die strukturierte Lichtquelle (5, 6, 7) ein entsprechendes lineares Muster von hellen ünd dunklen Flächen umfaßt und bei dem das Verarbeitungsmittel (12) so angeordnet ist, daß es ein zweidimensionales Bild eines Querschnitts des Objekts (3), das soeben abgefühlt wird, aufbaut, indem diejenigen Teile des sekundären Bildes nachgewiesen werden, die an dem Detektor (1) in Fokus sind, indem die Fokussiereinstellung des optischen Systems (2, 8) geändert wird.
8. Ein optischer Sensor nach einem der vorstehenden Ansprüche, bei dem der Detektor (1) wirksam einen Detektor (1B) für strukturierte Punkte umfaßt, z.B. in der Form eines Quadranten oder eines Zweielementsensors, und die strukturierte Lichtquelle wirksam eine strukturierte Punktquelle (78), z.B. in der Form eines entsprechenden Zweimalzwei-Schachbretts oder Zweielementmusters umfaßt, und bei dem das Verarbeitungsmittel (12) so angeordnet ist, daß es die Entfernung eines Objekts (3), das gerade abgefühlt wird, bestimmt, indem es nachweist, wann die Struktur des an dem Detektor (1) erzeugten Bilders, indem die Fokussiereinstellung des optischen Systems (2, 8) geändert wird, dem Muster der strukturierten Lichtquelle (5, 6, 7) entspricht.
9. Ein optischer Sensor nach Anspruch 7 oder 8, umfassend Abtastmittel zum Abtasten des durch die Lichtquelle erzeugten Bildes im Verhältnis zu dem Objekt, das gerade abgefühlt wird, wobei mindestens eine zusätzliche Dimension zu dem Objektbilde hinzugefügt werden kann, zu dessen Erzeugung der Sensor in der Lage ist.
10. Ein Verfahren zum Bestimmen der Entfernung von mindestens einem Teil eines Objektes (3), das gerade mit Hilfe eines optischen Sensors betrachtet wird, wobei der besagte Sensor folgende Teile umfaßt: eine strukturierte Lichtquelle (5, 6, 7), die ein Muster kontrastierender Flächen erzeugt; einen Detektor (1) mit einer Anordnung von Detektorelementen, deren Maße an das durch die Lichtquelle erzeugte Muster angepaßt sind; ein optisches System (2, 8), das ein primäres Bild der Lichtquelle auf ein abzufühlendes Objekt (3) projiziert und an dem Detektor (1) ein sekundäres Bild des somit an dem Objekt (3) geformten primären Bildes erzeugt; ein Einstellmittel (4), das mindestens einen Teil (2) des optischen Systems (2, 8) verstellt, um die Fokussierung des primären Bildes auf das Objekt (3) zu ändern, wobei die Anordnung so beschaffen ist, daß wenn das primäre Bild auf das Objekt (3) fokussiert ist, das sekundäre Bild an dem Detektor ebenfalls in Fokus ist; und ein Verarbeitungsmittel (12), das durch den Detektor (1) erzeugte Signale in Verbindung mit Informationen über die Einstellung des optischen Systems (2, 8) analysiert, wobei sich das Verfahren auf Verstellung der strukturierten Lichtquelle (5, 6, 7) erstreckt, um die Positionen kontrastierender Flächen des durch die Lichtquelle (5, 6, 7) erzeugten Musters gegenseitig zu vertauschen, und das Verarbeitungsmittel (12) so angeordnet ist, daß es die durch die Detektorelemente mit den kontrastierenden Flächen in den gegenseitig vertauschten Positionen empfangenen sekundären Bilder analysiert, um diejenigen Teile der sekundären Bilder zu bestimmen, die an dem Detektor (1) in Fokus sind, und dadurch die Entfernung entsprechender Teile des Objekts (3), die somit in Fokus sind, zu bestimmen.
DE69207176T 1991-02-12 1992-02-06 Optischer Sensor Expired - Fee Related DE69207176T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB919102903A GB9102903D0 (en) 1991-02-12 1991-02-12 An optical sensor
PCT/GB1992/000221 WO1992014118A1 (en) 1991-02-12 1992-02-06 An optical sensor

Publications (2)

Publication Number Publication Date
DE69207176D1 DE69207176D1 (de) 1996-02-08
DE69207176T2 true DE69207176T2 (de) 1996-07-04

Family

ID=10689869

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69207176T Expired - Fee Related DE69207176T2 (de) 1991-02-12 1992-02-06 Optischer Sensor

Country Status (7)

Country Link
US (1) US5381236A (de)
EP (1) EP0571431B1 (de)
JP (1) JP2973332B2 (de)
AU (1) AU1195892A (de)
DE (1) DE69207176T2 (de)
GB (1) GB9102903D0 (de)
WO (1) WO1992014118A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016767A1 (de) * 2008-04-02 2009-11-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983817B2 (en) * 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
JPH11513129A (ja) * 1995-06-07 1999-11-09 ウオルスタドター,ジャコブ,エヌ. 3次元画像形成システム
AU746605B2 (en) * 1995-06-07 2002-05-02 Jacob N. Wohlstadter Three-dimensional imaging system
WO1997002466A1 (de) * 1995-06-30 1997-01-23 Siemens Aktiengesellschaft Optischer abstandssensor
US5867604A (en) * 1995-08-03 1999-02-02 Ben-Levy; Meir Imaging measurement system
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US5870220A (en) * 1996-07-12 1999-02-09 Real-Time Geometry Corporation Portable 3-D scanning system and method for rapid shape digitizing and adaptive mesh generation
IT1286838B1 (it) * 1996-09-25 1998-07-17 Consiglio Nazionale Ricerche Metodo per la raccolta di immagini in microscopia confocale
US6172349B1 (en) * 1997-03-31 2001-01-09 Kla-Tencor Corporation Autofocusing apparatus and method for high resolution microscope system
JP3066874B2 (ja) 1997-04-04 2000-07-17 イシス イノヴェーション リミテッド 顕微鏡撮像装置および方法
JP3585018B2 (ja) * 1997-05-15 2004-11-04 横河電機株式会社 共焦点装置
DE19720832C2 (de) * 1997-05-17 2003-02-27 Diehl Stiftung & Co Zielerfassungsvorrichtung
US6094269A (en) * 1997-12-31 2000-07-25 Metroptic Technologies, Ltd. Apparatus and method for optically measuring an object surface contour
US6366357B1 (en) * 1998-03-05 2002-04-02 General Scanning, Inc. Method and system for high speed measuring of microscopic targets
US6098031A (en) * 1998-03-05 2000-08-01 Gsi Lumonics, Inc. Versatile method and system for high speed, 3D imaging of microscopic targets
AU3991799A (en) 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
IL125659A (en) * 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
US20140152823A1 (en) * 1998-11-30 2014-06-05 American Vehicular Sciences Llc Techniques to Obtain Information About Objects Around a Vehicle
NL1011080C2 (nl) * 1999-01-20 2000-07-21 Kwestar B V Inrichting en werkwijze voor het sorteren van asperges.
US6734962B2 (en) * 2000-10-13 2004-05-11 Chemimage Corporation Near infrared chemical imaging microscope
DE19944516B4 (de) * 1999-09-16 2006-08-17 Brainlab Ag Dreidimensionale Formerfassung mit Kamerabildern
GB9926014D0 (en) * 1999-11-04 2000-01-12 Burton David R Measurement of objects
US6785634B2 (en) * 2000-01-18 2004-08-31 Intelligent Automation, Inc. Computerized system and methods of ballistic analysis for gun identifiability and bullet-to-gun classifications
US6505140B1 (en) * 2000-01-18 2003-01-07 Intelligent Automation, Inc. Computerized system and method for bullet ballistic analysis
US6462814B1 (en) 2000-03-15 2002-10-08 Schlumberger Technologies, Inc. Beam delivery and imaging for optical probing of a device operating under electrical test
US7065242B2 (en) 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
JP4810052B2 (ja) 2000-06-15 2011-11-09 オートモーティブ システムズ ラボラトリー インコーポレーテッド 乗員センサ
US6731383B2 (en) 2000-09-12 2004-05-04 August Technology Corp. Confocal 3D inspection system and process
US6369879B1 (en) * 2000-10-24 2002-04-09 The Regents Of The University Of California Method and apparatus for determining the coordinates of an object
US6870609B2 (en) 2001-02-09 2005-03-22 August Technology Corp. Confocal 3D inspection system and process
US7274446B2 (en) * 2001-04-07 2007-09-25 Carl Zeiss Jena Gmbh Method and arrangement for the deep resolved optical recording of a sample
ATE493683T1 (de) * 2001-04-07 2011-01-15 Zeiss Carl Microimaging Gmbh Verfahren und anordnung zur tiefenaufgelösten optischen erfassung einer probe
US6968073B1 (en) 2001-04-24 2005-11-22 Automotive Systems Laboratory, Inc. Occupant detection system
US20030030794A1 (en) 2001-07-16 2003-02-13 August Technology Corp. Confocal 3D inspection system and process
US6970287B1 (en) 2001-07-16 2005-11-29 August Technology Corp. Confocal 3D inspection system and process
US6882415B1 (en) 2001-07-16 2005-04-19 August Technology Corp. Confocal 3D inspection system and process
JP2003098439A (ja) * 2001-09-25 2003-04-03 Olympus Optical Co Ltd 観察切り替え可能な顕微鏡
US6597437B1 (en) * 2002-01-03 2003-07-22 Lockheed Martin Corporation Closed loop tracking and active imaging of an out-of-band laser through the use of a fluorescent conversion material
GB0200819D0 (en) * 2002-01-15 2002-03-06 Cole Polytechnique Federale De Microscopy imaging apparatus and method for generating an image
US6750974B2 (en) 2002-04-02 2004-06-15 Gsi Lumonics Corporation Method and system for 3D imaging of target regions
US7255558B2 (en) * 2002-06-18 2007-08-14 Cadent, Ltd. Dental imaging instrument having air stream auxiliary
US6898377B1 (en) * 2002-06-26 2005-05-24 Silicon Light Machines Corporation Method and apparatus for calibration of light-modulating array
GB0301775D0 (en) * 2003-01-25 2003-02-26 Wilson John E Device and method for 3Dimaging
US7218336B2 (en) * 2003-09-26 2007-05-15 Silicon Light Machines Corporation Methods and apparatus for driving illuminators in printing applications
DE602004016185D1 (de) * 2003-10-03 2008-10-09 Automotive Systems Lab Insassenerfassungssystem
ATE406850T1 (de) 2004-06-17 2008-09-15 Cadent Ltd Verfahren und gerät zur farbbildformung einer dreidimensionalen struktur
US7212949B2 (en) * 2004-08-31 2007-05-01 Intelligent Automation, Inc. Automated system and method for tool mark analysis
US7115848B1 (en) * 2004-09-29 2006-10-03 Qioptiq Imaging Solutions, Inc. Methods, systems and computer program products for calibration of microscopy imaging devices
US20060095172A1 (en) * 2004-10-28 2006-05-04 Abramovitch Daniel Y Optical navigation system for vehicles
US7573631B1 (en) 2005-02-22 2009-08-11 Silicon Light Machines Corporation Hybrid analog/digital spatial light modulator
US7477400B2 (en) * 2005-09-02 2009-01-13 Siimpel Corporation Range and speed finder
DE102007018048A1 (de) * 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
US8184364B2 (en) * 2007-05-26 2012-05-22 Zeta Instruments, Inc. Illuminator for a 3-D optical microscope
US7729049B2 (en) * 2007-05-26 2010-06-01 Zeta Instruments, Inc. 3-d optical microscope
US20090002362A1 (en) * 2007-06-28 2009-01-01 Boundary Net, Incorporated Image to temporal pixel mapping
US20090323341A1 (en) * 2007-06-28 2009-12-31 Boundary Net, Incorporated Convective cooling based lighting fixtures
CA2597891A1 (en) * 2007-08-20 2009-02-20 Marc Miousset Multi-beam optical probe and system for dimensional measurement
US8712116B2 (en) * 2007-10-17 2014-04-29 Ffei Limited Image generation based on a plurality of overlapped swathes
US11690558B2 (en) * 2011-01-21 2023-07-04 The Trustees Of Dartmouth College Surgical navigation with stereovision and associated methods
US10568535B2 (en) * 2008-05-22 2020-02-25 The Trustees Of Dartmouth College Surgical navigation with stereovision and associated methods
JP5403458B2 (ja) * 2008-07-14 2014-01-29 株式会社ブイ・テクノロジー 表面形状測定方法及び表面形状測定装置
US20100019993A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US20100019997A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US20100020107A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US7978346B1 (en) * 2009-02-18 2011-07-12 University Of Central Florida Research Foundation, Inc. Methods and systems for realizing high resolution three-dimensional optical imaging
DK2442720T3 (en) 2009-06-17 2016-12-19 3Shape As Focus scan devices
WO2011158507A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 画像処理装置及び画像処理方法
US9389408B2 (en) 2010-07-23 2016-07-12 Zeta Instruments, Inc. 3D microscope and methods of measuring patterned substrates
AT509884B1 (de) * 2010-07-27 2011-12-15 Alicona Imaging Gmbh Mikroskopieverfahren und -vorrichtung
US8581962B2 (en) * 2010-08-10 2013-11-12 Larry Hugo Schroeder Techniques and apparatus for two camera, and two display media for producing 3-D imaging for television broadcast, motion picture, home movie and digital still pictures
DE102011114500B4 (de) 2011-09-29 2022-05-05 Fei Company Mikroskopvorrichtung
US12061328B2 (en) 2012-01-20 2024-08-13 The Trustees Of Dartmouth College Method and apparatus for quantitative hyperspectral fluorescence and reflectance imaging for surgical guidance
US9561022B2 (en) 2012-02-27 2017-02-07 Covidien Lp Device and method for optical image correction in metrology systems
US10546441B2 (en) 2013-06-04 2020-01-28 Raymond Anthony Joao Control, monitoring, and/or security, apparatus and method for premises, vehicles, and/or articles
US9350921B2 (en) 2013-06-06 2016-05-24 Mitutoyo Corporation Structured illumination projection with enhanced exposure control
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
DE102015209402A1 (de) * 2015-05-22 2016-11-24 Sirona Dental Systems Gmbh Vorrichtung zur optischen 3D-Vermessung eines Objekts
JP6027220B1 (ja) * 2015-12-22 2016-11-16 Ckd株式会社 三次元計測装置
US20250009279A1 (en) * 2016-12-02 2025-01-09 The Trustees Of Dartmouth College Surgical navigation with stereovision and associated methods
JP7035831B2 (ja) * 2018-06-13 2022-03-15 オムロン株式会社 三次元計測装置、コントローラ、および三次元計測装置における制御方法
JP2020153798A (ja) * 2019-03-19 2020-09-24 株式会社リコー 光学装置、測距光学系ユニット、測距装置及び測距システム
US10809378B1 (en) * 2019-09-06 2020-10-20 Mitutoyo Corporation Triangulation sensing system and method with triangulation light extended focus range using variable focus lens
EP3835721A1 (de) * 2019-12-13 2021-06-16 Mitutoyo Corporation Verfahren zur messung einer höhenkarte einer testfläche

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4640620A (en) * 1983-12-29 1987-02-03 Robotic Vision Systems, Inc. Arrangement for rapid depth measurement using lens focusing
US4629324A (en) * 1983-12-29 1986-12-16 Robotic Vision Systems, Inc. Arrangement for measuring depth based on lens focusing
JP2928548B2 (ja) * 1989-08-02 1999-08-03 株式会社日立製作所 立体形状検出方法及びその装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016767A1 (de) * 2008-04-02 2009-11-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
DE102008016767B4 (de) * 2008-04-02 2016-07-28 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten

Also Published As

Publication number Publication date
AU1195892A (en) 1992-09-07
EP0571431B1 (de) 1995-12-27
JP2973332B2 (ja) 1999-11-08
DE69207176D1 (de) 1996-02-08
WO1992014118A1 (en) 1992-08-20
GB9102903D0 (en) 1991-03-27
JPH06505096A (ja) 1994-06-09
US5381236A (en) 1995-01-10
EP0571431A1 (de) 1993-12-01

Similar Documents

Publication Publication Date Title
DE69207176T2 (de) Optischer Sensor
EP0168643B1 (de) Gerät zur Wafer-Inspektion
DE69738493T2 (de) Vorrichtung und Verfahren zum Oberflächenkonturmessen
DE68926664T2 (de) Detektoranordnung und Beleuchtungssystem für einen Strichkode-Abtaster mit grosser Tiefenschärfe
DE69802514T2 (de) Abbildungssystem und -verfahren für mikroskopie
DE69704485T2 (de) Sichtsystem
EP0451474B1 (de) Verfahren und Vorrichtung zur berührungslosen Vermessung von Objektoberflächen
DE3642051A1 (de) Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
DE60320369T2 (de) Abbildungsvorrichtung für mikroscopie und bilderzeugungsverfahren
EP0449859B1 (de) Verfahren und vorrichtung zur beobachtung von moiremustern von zu untersuchenden oberflächen unter anwendung des moireverfahrens mit phasenshiften
DE102006007172B4 (de) Verfahren und Anordnung zur schnellen, ortsaufgelösten, flächigen, spektroskopischen Analyse, bzw. zum Spectral Imaging oder zur 3D-Erfassung mittels Spektroskopie
DE3930632A1 (de) Verfahren zur direkten phasenmessung von strahlung, insbesondere lichtstrahlung, und vorrichtung zur durchfuehrung dieses verfahrens
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE102013212409A1 (de) Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung
DE69927367T2 (de) Optoelektronische Formerfassung durch chromatische Kodierung mit Beleuchtungsebenen
WO2020254445A1 (de) Stereokamerasystem
DE4113279C2 (de) Konfokales optisches Rastermikroskop
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
WO2007134567A1 (de) Verfahren zum erzeugen von bildinformationen
DE4023292A1 (de) Anordnung zur simultanen konfokalen bilderzeugung
DE4012513A1 (de) Augenfunduskamera der stereo-art
DE4304815A1 (de) Optischer Sensor
DE3789901T2 (de) Entfernungsmessung mit hilfe von diffraktion.
DE3413605A1 (de) Optisches verfahren zur messung des profils von oberflaechen mit oertlich stark schwankendem reflexionsfaktor

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: OXFORD SENSOR TECHNOLOGY LTD., BOREHAMWOOD, HERTFO

8339 Ceased/non-payment of the annual fee