-
Die Erfindung betrifft einen optischen Sensor zur Bewegungs- und Längenmessung sowie ein Verfahren zur Bestimmung einer Bewegung eines Objektes. Ein optischer Bewegungssensor umfasst dabei typischerweise eine Lichtquelle sowie einen geeigneten Detektor, der das von dem Objekt reflektierte Licht empfängt und einer geeigneten Schaltungsanordnung bzw. Auswerteeinheit zuführt.
-
Das Messen und Überwachen der Bewegung von Objekten bzw. deren Oberflächen, insbesondere auch deren Bewegungsgeschwindigkeit und deren Entfernung in Relation zu einem feststehenden Objekt bzw. Sensor, ist ein seit vielen Jahren bekanntes Anwendungsgebiet der Sensorik.
-
So werden etwa optische Sensoren zur Bewegungs- oder Längenmessung in der Industrie zur Überwachung von Förder- oder Transportanlagen eingesetzt. Auch zur automatischen Steuerung von Toren sind optische Bewegungssensoren bekannt. Weiterhin kann mit derartigen Sensoren die Länge von produzierten oder geförderten Endloswaren gemessen werden, beispielsweise von Bandwaren wie Metallfolien, Stoff oder Papier. Ein weiteres Anwendungsgebiet stellen optische Computermäuse oder optische Stifte dar.
-
Neben optischen Sensoren sind auch Infrarot- oder Radarsensoren bekannt. Eine Untergruppe stellen die Bewegungsmelder dar, die eine Bewegung detektieren und einen entsprechenden Schaltungsvorgang auslösen.
-
Zur Identifizierung und Messung der Bewegung von Objekten bzw. deren Oberflächen mittels optischer Sensoren sind verschiedene Verfahren sowie unterschiedliche technische Lösungsansätze bekannt. So existieren beispielsweise Verfahren, die eine Geschwindigkeitsmessung mit Hilfe des Doppler-Effektes durchführen. Die
DE 600 36 467 T2 etwa beschreibt ein derartiges Verfahren, wobei das Objekt mit einem Laserstrahl beleuchtet wird. Es wird die Intensität des vom Objekt gestreuten Lichts sowohl direkt als auch über ein Spektralfiltermittel gemessen. Der Lichtstrom durchquert dabei einen Strahlteiler. Zur Detektion der zwei Lichtströme sind zwei Detektoren erforderlich, wobei CCD-Kameras vorgeschlagen werden. Die CCD-Kameras sind an entsprechende Informationserfassungs- und verarbeitungsmittel angeschlossen.
-
Ein weiteres Verfahren beschreibt die
US 6 222 174 B1 . Hier wird eine Bildsequenz eines zu messenden Objektes aufgenommen. Sodann wird anhand von Korrelationsanalysen der Bilderserie die Geschwindigkeit rechnerisch ermittelt. Als ungünstig kann angesehen werden, dass die zu messende Oberfläche des Objektes Kontraste aufweisen muss. Insbesondere bei kontrastarmen Oberflächen wie etwa Papier ist es daher erforderlich, eine Beleuchtung in einem kleinen Winkel zur Ausrichtung der Oberflächen zu vorzusehen. Hierdurch gestaltet sich der Aufbau relativ kompliziert.
-
Die
US 6 128 082 A beschreibt ein Speckle Interferometer, welches u. a. eine Referenzplatte umfasst. Hierbei wird aufgrund der Referenzplatte ein zweiter Strahl erzeugt, der mit dem Strahl, der nicht durch die Referenzplatte gegangen ist, überlagert wird. Das Verfahren beruht auf dem Vergleich zweier überlagerter Bilder.
-
Die
GB 2 307 550 A beschreibt ein Verfahren, bei dem eine Scanrate eines beweglichen Spiegels mit der Bildrate einer Kamera synchronisiert wird. Hierbei werden zwei Bilder überlagert.
-
Die genannten Verfahren sind zum einen nur geeignet, in einem eng begrenzten Entfernungsbereich zwischen bewegten Objekt und optischen Sensor zu arbeiten. Zum anderen sollten in dem auf dem Detektor erzeugten Signal ausreichend Strukturen vorhanden sein, um eine entsprechende Auswertung zu ermöglichen.
-
Ein weiteres Problem stellt die erforderliche Meßzeit dar, die zu einer verzögerten Signalauswertung führen kann. Bei hohen Objektgeschwindigkeiten, beispielsweise in einem Bereich von 10 m/s oder auch darüber, sind entsprechend hohe Frameraten in einem Bereich von mehr als 10.000 Frames/s erforderlich. Die Framerate bezeichnet die Anzahl der aufgenommenen digitalen Signale des Detektors pro Zeiteinheit. Wird ein zweidimensionaler Detektor eingesetzt, so ist typischerweise eine hohe Anzahl an Pixeln auszuwerten, in entsprechende Signale umzuwandeln und zu übertragen, wobei häufig ein sehr hoher Informationsgehalt übertragen werden muss. Um dennoch eine rasche Signalauswertung zu erhalten, ist ein entsprechend komplexer und kostenintensiver Geräteaufbau erforderlich.
-
Eine zeitlich schnellere intensitätsbasierte Auswertung ist dagegen häufig nicht exakt genug, da hierdurch lediglich eine räumliche Veränderung des Objektes beobachtet werden kann. Für eine genauere Bestimmung der Veränderung von Entfernung und Geschwindigkeit sowie deren Messung sind wiederum zusätzliche Kalibrierungsvorschriften zu erstellen.
-
Zudem ergibt sich bei den bekannten, granulationsbasierten Sensoren häufig das Problem, dass eine Annäherung des Objektes an den Sensor auch als eine laterale Bewegung interpretiert wird.
-
Vor diesem Hintergrund ergibt sich die Aufgabenstellung der Erfindung. Der Erfindung liegt die Aufgabe zugrunde, einen hinreichend genauen, wenig komplexen und insbesondere auch rasch arbeitenden optischen Sensor zur Verfügung zu stellen.
-
Dabei soll die Bewegung von Objekten bzw. deren Oberfläche gemessen werden. Insbesondere sollen die Geschwindigkeit der Objekte sowie die Geschwindigkeit in Relation zu einem feststehenden Objekt gemessen werden können. Des Weiteren soll die Länge eines kontinuierlichen, sich bewegenden Objektes gemessen werden können.
-
Weiterhin soll eine Entfernung in Relation zu einem feststehenden Objekt gemessen werden können.
-
Dabei soll der optische Sensor auch bei hohen Geschwindigkeiten des Objektes, etwa in einem Bereich von 10 m/s oder auch darüber, genau arbeiten. Zusätzlich sollen die Objekte auch in einem weiten Entfernungsbereich in Relation zu dem optischen Sensor erfasst werden können. Überraschend einfach wird die Aufgabe gelöst durch einen optischen Sensor zur Bewegungs- und Längenmessung gemäß Anspruch 1 oder ein Verfahren zur Messung der Bewegung oder der Länge eines Objektes gemäß Anspruch 11. Der optische Sensor umfasst eine Lichtquelle, eine Schaltungsanordnung und einen Detektor. Weiterhin kann der optische Sensor ein oder mehrere Linsen und/oder Objektive und/oder eine oder mehrere Blenden und/oder ein oder mehrere Filter umfassen.
-
Die Lichtquelle emittiert dabei vorzugsweise kohärentes Licht, welches auf das Objekt projiziert wird. Zumindest ein Teil dieses Lichtes wird vom Objekt reflektiert oder gestreut, wobei der Detektor einen Teil dieses reflektierten oder gestreuten Lichtes empfängt und als digitales Signal an die Schaltungsanordnung überträgt, wobei dieses vom Objekt reflektierte oder gestreute Licht auf dem Detektor Speckle- oder Granulationsmuster erzeugt und wobei die Schaltungsanordnung eingerichtet ist, eine Veränderung der Speckle- oder Granulationsmuster zwischen zumindest zwei Signalen auszuwerten und eine Information über eine Veränderung des Objektes im Raum zu ermitteln.
-
Als digitales Signal, welches vom Detektor an die Schaltungsanordnung übertragen wird, wird dabei die Signalfolge der von den Pixeln des Detektors gemessenen und digitalisierten Lichtintensitätswerte verstanden.
-
Als Lichtquelle kann beispielsweise ein Single-Mode- oder Single-Frequency-Laser mit Polarisationskontrolle eingesetzt werden. Die Lichtquelle kann Distributed-Feedback-(DFB-) oder Bragg-Reflektor-Laserdioden, Gaslaser, Vertical-Cavity Surface-Emitting Laser (VCSEL) oder aber Laserdioden umfassen. Zusätzlich können zwischen der Lichtquelle und dem Objekt eine oder mehrere Linsen angeordnet sein, um das Laserlicht bezüglich einer Achse zu fokussieren. Hierdurch wird eine Laserlinienoptik ausgebildet.
-
Das kohärente Laserlicht erzeugt auf dem Objekt einen hellen Fleck. Das Objekt bzw. die Objektoberfläche reflektiert und streut dieses Licht. Ein kohärentes, aufgeweitetes und von einer Oberfläche reflektiertes oder gestreutes Laserlicht kann sogenannte Speckle- oder Granulationsmuster auf einer Oberfläche erzeugen. Durch Interferenz kann sich das Muster durch laterale Bewegung des Objektes ändern, sowie auch durch eine Abstandsänderung.
-
Ein Teil des gestreuten Lichts fällt auf den Detektor und erzeugt dort ein Signal, welches dem Bild des Objektes mit einem überlagerten Speckle-, bzw. Granulationsmuster entspricht. Zwischen Objekt und Detektor kann eine Linse oder ein Objektiv angeordnet sein, um beispielsweise Licht auf den Detektor abzubilden oder zu fokussieren. Die Linse kann somit etwa als Abbildungslinse ausgebildet sein.
-
Der Detektor ist vorteilhafterweise als Zeilenkamera ausgebildet. Er kann beispielsweise eine CCD-, CMOS- oder Photodiodenzeile umfassen. Alternativ kann auch eine Matrixkamera verwendet werden, bei der eine einzelne Zeile oder wenige Zeilen ausgelesen werden können. Der Vorteil bei Verwendung einer Zeilenkamera oder einer zeilenähnlichen Kamera liegt in der geringeren Datendichte, die zur Auswertung erforderlich ist, ohne dass eine wesentliche Einschränkung des Informationsgehaltes der übertragenen Signale bezüglich einer Objektbewegung erfolgt. Es kann somit weiterhin eine hohe Messgenauigkeit und -rate gewährleistet werden.
-
Die Kombination von kohärentem Licht und Zeilenkamera ermöglicht es, bei einer Auflösung mit einer vergleichsweise kleinen Pixelzahl eine hinreichend genaue Auswertung bezüglich der Bewegung des Objektes zu erhalten.
-
Unter einer kleinen Pixelzahl ist in diesem Zusammenhang eine Anzahl von beispielsweise 50 bis 1000 Pixel zu verstehen. Der erfindungsgemäße optische Sensor arbeitet mit einer Auflösung in einem Bereich von 50 bis 100.000 Pixeln. Beim Einsatz eines Matrixsensors kann die Anzahl der Pixel auch bis zu 20 Millionen betragen, wobei dann vorteilhafterweise der auszuwertende Bereich eingeschränkt wird auf 50 bis 100.000 Pixel.
-
Um beispielsweise Objektgeschwindigkeiten in einem Bereich von 10 m/s ermitteln zu können, ist eine Framerate von etwa 10.000 Frames/s oder darüber erforderlich. Ein Frame entspricht dabei einem von dem Detektor an die Schaltungsanordnung abgegebenen Signal; die Framerate somit die Anzahl der pro Zeiteinheit übertragenen Signale.
-
Eine Reduzierung der Pixel pro Signal durch Verwendung einer eindimensionalen anstelle üblicherweise eingesetzter zweidimensionaler Matrixkameras oder durch Auslesung von nur einer oder wenigen Zeilen beim Einsatz einer zweidimensionaler-Matrixkamera hat somit einen signifikanten Einfluss auf die Datendichte, die deutlich reduziert werden kann.
-
Der Einsatz der kohärenten Lichtquelle ermöglicht es, einen genügenden Informationsgehalt der Signalauswertung für eine im wesentlichen eindimensionale Geschwindigkeits- oder Längenmessung zu erhalten, wobei anstelle der zweidimensionalen Matrixkamera eine eindimensionale eingesetzt werden kann. Hierdurch ergibt sich eine deutliche Reduzierung des gerätetechnischen Aufwandes, welcher direkt zu einem Kosteneinspareffekt führt, sowie auch des Stromverbrauches des optischen Sensors.
-
Eine Bewegung des Objektes oder der Objektoberfläche führt zu einer Bewegung oder Veränderung des Granulationsmuster, welches auf dem Detektor entsteht. Anhand der Framerate wird die Anzahl der pro Zeiteinheit aufgenommenen Signale gesteuert. Bei einer hohen Objektgeschwindigkeit wird typischerweise mit einer hohen Framerate gearbeitet, bei einer geringen Objektgeschwindigkeit mit einer entsprechend niedrigeren. Bei stehenden Objekten oder sich sehr langsam bewegenden Objekten kann beispielsweise mit einer Framerate von 1 Frame/s gearbeitet werden. Der erfindungsgemäße optische Sensor ist ausgelegt für Frameraten in einem Bereich von 0,01 bis 100'000 Frames/s.
-
Die von dem Detektor aufgenommenen Signale werden als digitale Signale einer Schaltungsanordnung zugeführt. Die Schaltungsanordnung kann Signalein- und ausgabeeinheiten, Auswerteeinheiten sowie Steuereinheiten umfassen. Die Signalein- und ausgabeeinheiten können digital oder analog ausgebildet sein und dienen dem Informationsaustausch zwischen Schaltungseinheit, Detektor und Lichtquelle. Des Weiteren können sie auch Schnittstellen zu externen Datenverarbeitungsgeräten wie Computern enthalten.
-
Im Falle einer Bewegung des Objektes bzw. der Objektoberfläche führt dies zu einer Veränderung oder Verschiebung der Signale, die der Detektor empfängt. Mittels Korrelationsanalyse können aufeinanderfolgende Aufnahmen miteinander verglichen werden. Durch die Korrelationsanalyse kann der Versatz des Specklemusters im aufgenommenen Signal zwischen jeweils zwei Aufnahmen ermittelt werden. Daraus kann die Bewegung des Objektes identifiziert und berechnet werden. Über geeignete Regeln, die in der Auswerteeinheit hinterlegt sind, können darüber hinaus die Objektgeschwindigkeit oder der zurückgelegte Weg errechnet werden.
-
Anstelle der Korrelationsanalyse können auch andere Vergleichsfunktionen eingesetzt werden. Die Ähnlichkeit zweier Signale (Frames) oder auch von Teilen zweier Signale kann beispielsweise auch über einen Vergleich der Maxima erfolgen, wobei die Anzahl und die Positionen der Maxima beider Signale ermittelt und verglichen wird. Ähnlich können auch die Anzahl und die Positionen der Minima und der Null-Durchgänge der Signale miteinander verglichen werden. Daraus kann wiederum die Verschiebung in Pixeleinheiten des aufgenommenen Signals bestimmt und die Objektgeschwindigkeit berechnet werden.
-
Hieraus wird ein geschwindigkeitsproportionales Taktsignal erzeugt und ausgegeben. Die Ausgabe des Ausgangssignals kann etwa über drehgeberartige Signalausgänge mit zwei Schaltausgängen mit ca. 90° Phasenverschiebung (A/B-Signal) erfolgen, um eine Vor- und Rückwärtsbewegung berechnen und anzeigen zu können. Die Anzahl Takte entspricht direkt der gemessenen Objektlänge, deren Frequenz der Objektgeschwindigkeit.
-
In einer weiteren Ausführungsform wird ein Signal für die Geschwindigkeit per Analogausgang ausgegeben. Ebenfalls kann in einer weiteren Ausführungsform ein Signal für die Geschwindigkeit und/oder die bewegte Strecke mittels eines digitalen Datenausgangs ausgegeben werden.
-
In einer nochmals weiteren Ausführungsform können zwei Schaltausgänge aktiviert werden, je nachdem ob die Geschwindigkeit einen vorher definierten Grenzwert unterschritten oder einen möglichen weiteren Grenzwert überschritten hat.
-
In einer anderen Ausführungsform, beispielsweise bei Objekten mit einer hohen Bewegungsgeschwindigkeit in einem Bereich von > 1 m/s, kann die Ausgabe der Geschwindigkeit interpoliert erfolgen, wobei zwischen zwei aufgenommenen Signalen mehrere Taktflanken ausgegeben werden, deren Anzahl der erfolgten Bewegung entspricht und die gleichmäßig über die Signalaufnahmezeit verteilt wird. Der optischer Sensor ist ausgelegt für Objektgeschwindigkeiten in einem Bereich von 0 bis +/– 100 m/s.
-
Das Objekt ist typischerweise in einem Abstand von etwa 5 bis 20.000 mm von dem optischen Sensor entfernt. Eine größere Objektentfernung kann beispielsweise auch durch eine Skalierung Sender- und Empfängeroptik erzielt werden. In einer besonderen Ausführungsform kann das Objekt auch unmittelbar vor dem optischen Sensor angeordnet sein.
-
Derartige optische Sensoren können in vielfältigen Bereichen eingesetzt werden. Als Beispiele seien Transport- oder Förderanlagen genannt, bei denen die erfindungsgemäßen optischen Sensoren den Transport von stückigen Gegenständen auf Förderbändern, beispielsweise deren Länge, deren Geschwindigkeit oder deren Abstand zueinander überwachen können. Ein ähnliches Anwendungsgebiet stellen Gepäck- oder Kofferfördersysteme dar. Somit können die erfindungsgemäßen optischen Sensoren zum Identifizieren, Erkennen und Überwachen von Objektbewegungen auf Transport- oder Fördereinrichtungen Anwendung finden.
-
Der optische Sensor kann ebenso im Bereich von Förder- und Produktionsanlagen zur Längenmessung von bewegten, langen Gegenständen oder Endloswaren wie Bandwaren, Metallfolien oder Papier verwendet werden.
-
Einen weiteren Einsatzbereich gibt es zur Überwachung der Beschickung von Bearbeitungsmaschinen oder -anlagen sowie zur Überwachung vorgegebener Minimal- und Maximalgeschwindigkeiten der zugeführten Vorprodukte. Hier seien beispielhaft die Zuführung von Holzlatten oder -stücken bei Holzbearbeitungsmaschinen genannt.
-
Der optische Sensor kann weiterhin zur Überwachung und/oder Steuerung von Toren oder Durchfahrten eingesetzt werden.
-
Der optische Sensor kann ebenfalls als Bewegungsmelder eingesetzt werden, wobei eine Umgebung oder ein Objekt überwacht werden und eine Signalausgabe erfolgt, sobald in der beobachteten Umgebung eine Bewegung erfolgt bzw. sich das beobachtete Objekt bewegt. In ähnlicher Weise kann auch überwacht werden, ob sich das Objekt langsamer als mit einer vorher festgelegten Minimalgeschwindigkeit oder schneller als mit einer vorher festgelegten Maximalgeschwindigkeit bewegt.
-
Des Weiteren kann der optische Sensor als Bewegungssensor in Fahrzeugen, beispielsweise in PKW oder LKW, insbesondere auch führerlose Fahrzeuge eingesetzt werden. Hierbei kann die Geschwindigkeit über Grund in kurzer Folge gemessen und überwacht werden. Gemessene Geschwindigkeitswerte können an die Fahrzeugelektronik weitergegeben oder auch zur Erzeugung optischer oder akustischer Warnsignale verwendet werden.
-
Die Erfindung wird nachfolgend anhand bevorzugter Ausführungsformen und unter Bezugnahme auf die beigefügten Figuren detaillierter beschrieben. Figurenauflistung:
-
1: Schematischer Aufbau des optischen Sensors
-
2: Strahlengang eines kohärenten Lichtstrahles
-
3: Bild eines Detektors
-
4: Beispiel für eine Objektbewegung
-
5: Beispiel für einen Strahlengang
-
6: Erzeugung und Ausrichtung einer Laserlinie
-
7: Optischer Sensor mit Abstandmessung
-
8: Variante mit zweidimensionaler Matrixkamera
-
9: Koaxiale Optik mit teildurchlässigem Strahlteilerspiegel
-
10: Koaxiale Optik mit Zusatzspiegel
-
11: Laserstrahl mit Zwischenfokus
-
12: Variante mit Zwischenfokus
-
1 zeigt einen schematischen Aufbau des optischen Sensors 1 mit Frontfenster 2, optischer Achse 3 und bevorzugter Bewegungsrichtung 5 eines Objektes. Die bevorzugte Bewegungsrichtung des Objektes liegt parallel zur Zeilenachse des Detektors (nicht abgebildet). 4 zeigt eine Bewegung des Objektes, die einer Entfernungsänderung in Bezug auf den optischen Sensor 1 entspricht. Der optische Sensor 1 umfasst weiterhin eine oder mehrere Schaltungsanordnungen, etwa zur Signalein- und -ausgabe, zur Auswertung von Signalen oder zur Ansteuerung der Lichtquelle (nicht dargestellt).
-
In 2 ist schematisch ein Laserstrahl dargestellt, wobei der Laserstrahl in einer Dimension parallel ausgebildet ist und entlang der optischen Senderachse 11 verläuft. Die Lichtquelle 21 emittiert Licht auf eine Senderlinse 16. Das Objekt (nicht dargestellt) streut das Laserlicht, wobei ein Teil des gestreuten Lichtes auf eine Empfängerlinse 13 trifft.
-
Auf der dem Objekt gegenüberliegenden Seite der Empfängerlinse 13 ist der Detektor 14 angeordnet. Der Abstand zwischen der Empfängerlinse 13 und dem Detektor 14 ist vorteilhafterweise derart ausgebildet, dass ein Objekt, welches sich in einem Sollabstand befindet, scharf auf den Detektor 14 abgebildet wird. Detektor 14 und Empfängerlinse 13 stellen eine Ausbildung einer Empfängeroptik, Lichtquelle 21 und Senderlinse 16 einer Senderoptik dar. Im Bereich der Empfängeroptik können weiterhin ein oder mehrere Filter angeordnet sein (nicht dargestellt), die bestimmte Lichtanteile des Umgebungslichtes herausfiltern können und somit die Qualität des auf dem Detektor 14 empfangenen Signals verbessern können.
-
Unter Sollabstand ist derjenige Abstand zu verstehen, bei dem der optische Sensor 1 optimal arbeitet und die Abbildung des Objektes am exaktesten ist. Der optische Sensor 1 arbeitet zudem optimal, wenn sich das Objekt in einer definierten Abstandstoleranz ausgehend von dem Sollabstand befindet. Die Abstandstoleranz liegt bevorzugt in einem Bereich von +/– 10% in Bezug zu dem Sollabstand.
-
Der Sollabstand bemisst sich aus dem Abstand zwischen der Hauptebene der Empfängeroptik und dem Objekt. Der Sollabstand kann je nach Verwendung des optischen Sensors 1 variieren. Durch eine Veränderung des Abstands zwischen Detektor 14 und Empfängerlinse 13 oder durch die entsprechende Ausbildung der Empfängerlinse 13 kann die Empfängeroptik auf den entsprechenden Sollabstand angepasst werden.
-
Die Linse 13 bildet das Objekt und den beleuchteten Fleck auf dem Objekt auf den Detektor 14 ab. Das vom Objekt in Richtung Linse und Detektor 14 reflektierte oder gestreute Licht läuft entlang einer Achse, die als optische Empfängerachse 12 bezeichnet wird. Im folgenden wird unter gestreuten und reflektierten Licht nicht weiter unterschieden, insofern es sich um Licht handelt, welches, ausgehend von der Lichtquelle 21 und/oder Licht der Umgebung, auf dem Detektor 14 abgebildet wird.
-
Die Sender- und die Empfängerachse schneiden sich auf dem Objekt im Sollabstand und gehen durch die Mitte der Empfängerlinsenöffnung. Ein reflektierter und/oder gestreuter Lichtstrahl trifft über die Empfängerlinse 13 auf den Detektor 14 und erzeugt dort einen Bildpunkt 15.
-
Die reflektierten und/oder gestreuten und auf den Detektor 14 treffenden Lichtstrahlen erzeugen dort ein Signal, welches den Helligkeitsverlauf der Abbildung des Objektes mit einer Überlagerung der Granulationsmuster darstellt. Es wird daher auch als Granulationssignal bezeichnet.
-
Der Rand der Linse 13 entspricht im Fall einer einfachen Linse der Blende der Empfängeroptik, die die empfangenen Lichtstrahlen begrenzt. Eine Blende kann exakt am Rand der Linse, aber auch vor oder hinter der Linse oder bei mehreren Linsen auch zwischen den Linsen montiert sein. Die Ausbildung der Blende beeinflusst die typische Größe der Speckles bzw. Granulationsmuster des Granulationsbildes. Neben der Ausbildung der Blende bestimmen die Wellenlänge des Lichtes und der Abstand des Detektors 14 zur Blende die Größe der Speckles bzw. Granulationsmuster. Die Größe der Blendenöffnung beeinflusst weiterhin die Lichtmenge, die auf den Detektor 14 gelangt. Vorteilhaft ist eine große Blendenöffnung. Vorzugsweise werden Blendenöffnungen mit Blendenzahlen im Bereich von 2 bis 5.6 verwendet.
-
Als Beispiel einer Ausführungsvariante wird Licht einer Laserdiode mit einer Kohärenzlänge von > 0,1 mm, typischerweise > 3 mm emittiert und auf ein Objekt bzw. eine Objektoberfläche projiziert. Wichtig ist hierbei, dass die Kohärenzlänge des emittierten Lichts größer ist als die Streutiefe, die der Rauhtiefe des zu beobachtenden Objektes entspricht. Bei metallischen Oberflächen ist die Rauhtiefe typischerweise eher klein, bei Oberflächen beispielsweise wie Papier hingegen eher groß. Zur Erzeugung von Granulationsmustern ist eine zumindest im mikroskopischen Bereich messbare Oberflächen-Rauhigkeit erforderlich. So sind beispielsweise Objekte mit sehr geringen Oberflächenrauhigkeiten wie etwa Spiegel eher weniger geeignet für eine Bewegungsmessung mittels Granulationseffekten.
-
Bei einer derartigen Konfiguration befindet sich das Objekt typischerweise in einem Abstand von etwa 10 bis 300 mm zu dem optischen Sensor 1. Als bevorzugter Messbereich dient ein Abstand von +/–10% in Bezug auf den Sollabstand.
-
Das Objekt bzw. die Objektoberfläche streut das kohärente Licht, wovon ein Teil auf die Linse und weiter auf den Detektor 14 gelangt. Der Detektor 14 umfasst beispielsweise eine CCD-, CMOS- oder Photodiodenzeile, oder auch eine Matrixkamera, bei der weniger als 10 Zeilen oder bevorzugt eine einzelne Zeile ausgelesen werden.
-
Als geeignet haben sich etwa Zeilen mit 60 bis 2.000 Pixeln erwiesen, wobei der Pixelpitch in vorteilhafter Weise in einem Bereich von 3 bis 100 μm sowie die Zeilenbreite in einem Bereich von 100–500 μm liegt. Unter Pixelpitch ist der Mittenabstand zwischen zwei Pixeln auf dem Detektor 14 zu verstehen.
-
Bei der Verwendung einer Matrixkamera gilt dies ebenso, wobei beispielsweise ein bis zehn Zeilen ausgelesen werden können. Diese können zusammenaddiert und als eine Zeile weiterverarbeitet werden. Von Vorteil ist dabei eine Matrixkamera, die ein Pixelbinning aufweist und zwei, vier oder mehr Zeilen bereits vor dem Auslesen zusammenfasst zu einer Zeile. Dies erlaubt eine größere Einlesebreite bei gleichzeitig nicht erhöhter Datenmenge. In einer weiteren Ausführungsform können die Zeilen als schmales Granulationsbild ausgewertet werden. Die Korrelation zwischen zwei Signalen kann dann auch in zwei verschiedenen, insbesondere zueinander senkrechten Richtungen erfolgen. Auf diese Weise kann auch eine langsame Querbewegung, die nicht parallel zu den Zeilen erfolgt, ausgewertet werden. Auch in dieser Ausführungsform kann ein zeilenweises Pixelbinning von Vorteil sein.
-
Der Pixelpitch wird vorzugweise abgestimmt auf die typische Specklegrösse des Granulationsmusters. Ein Pixelpitch in der gleichen Größe wie die Specklegrösse ist bevorzugt, bedingt aber meist eine kleine Blende der Empfängeroptik. Die Verwendung größerer Blenden kann dazu führen, dass sich die Specklegrösse reduziert. Die Größe der Speckles kann hierdurch kleiner werden als der Pixelpitch, wodurch die Speckles zu einem gewissen Maß von den einzelnen Pixeln ausgemittelt werden.
-
Überraschend hat sich gezeigt, dass der optische Sensor 1 mit Größen von Speckles arbeiten kann, deren typische Größe nur ein Viertel des Pixelpitches beträgt oder noch weniger. Als besonders vorteilhaft hat sich eine typische Specklegrösse in einem Bereidh des 0,1- bis 0,4-fachen des Pixelpitches herausgestellt. Die Specklegröße kann dabei in einfacher Weise durch die Blendengröße des Empfängerobjektivs eingestellt werden.
-
Detektor 14 wird bevorzugt senkrecht zur Empfängerachse 12 ausgebildet. Diese Anordnung ist besonders bevorzugt für Objekte, die sich senkrecht zur Empfangsachse 12 bewegen. In einer Ausführungsform, in der die Sollbewegung immer in einem bestimmten Winkel zur Empfängerachse verläuft, wird der Detektor 14 parallel zu dieser Sollbewegungsrichtung angeordnet.
-
Als vorteilhafte Werte für die Abtastrate haben sich Frameraten in einem Bereich von 2.000 bis 100.000 Frames/s herausgestellt. Bei langsamen Objektgeschwindigkeiten kann die Framerate entsprechend reduziert werden, beispielsweise bis zu einem Bereich von etwa 0,01 Frame/s.
-
Neben dem Granulationsmuster kann mit dem Detektor 14 auch die über 5 bis 50 Pixel gemittelte Helligkeit des abgebildeten Lichtspots auf dem Objekt überwacht werden. Damit kann die Präsenz eines Objektes im Bildfeld kontrolliert werden. Auch die Auswertung der Granulationsmuster kann in Abhängigkeit der mittleren Helligkeit erfolgen. Unterhalb eines Grenzwertes für eine minimale Helligkeit erfolgt keine Auswertung, da die Genauigkeit zu sehr eingeschränkt ist. Hierdurch kann der Arbeitsbereich des optischen Sensors 1 in Bezug zur Helligkeit festgelegt werden.
-
Vom Objekt reflektiertes oder gestreutes Licht erzeugt auf der Empfängerlinse 13 ein Granulationsmuster, woraufhin sich auf dem Detektor 14 ein Granulationsbild abzeichnet. Das Granulationsbild entspricht dem Objektbild mit überlagertem Granulationsmuster. 3 zeigt beispielhaft ein derartiges Granulationsbild. Die feine, lang gestrichelte Linie entspricht dem Helligkeitsverlauf auf dem Objekt, die kurz gestrichelte Linie zeigt das Specklemuster ohne Helligkeitsänderungen auf dem Objekt, die fette, ausgezogene Linie zeigt das Specklemuster mit solchen Helligkeitsänderungen.
-
4 zeigt eine Bewegung eines Objektes entlang einer Geraden, die nicht in der Objektebene liegt. Eine Objektbewegung erfolgt vorzugsweise in einer Objektebene, die parallel zum Detektor 14 verläuft. Weiterhin verläuft die Objektbewegung bevorzugt parallel zu der Geraden, die entlang des Zeilensensors verläuft. 42 zeigt die bevorzugte Bewegungsrichtung eines Objektes in Bezug auf die geometrische Anordnung des optischen Sensors 1.
-
Die bevorzugte Objektebene wird durch die X- sowie die Y-Achse aufgespannt. Für den Fall, dass das Objekt eine Bewegung vollführt, die nicht in dieser Objektebene liegt, so wird nur derjenige Anteil der Bewegung gemessen, der in der Ebene liegt.
-
In dem Beispiel zeigt 41 eine Ebene, innerhalb derer sich ein Objekt bewegt. Diese Ebene weist zur bevorzugten Bewegungsrichtung einen Winkel θ auf, der als Kippwinkel bezeichnet werden kann. Soll nicht eine relative Bewegung in der Ebene, sondern eine absolute Bewegung des Objektes bestimmt werden, so ergibt sich die absolute Bewegung durch einen Faktor 1/cos(θ).
-
Eine Objektbewegung führt zu einer Veränderung der Granulationsmuster auf dem Detektor 14. Die Geschwindigkeit der Verschiebung der Granulationsbilder ist annähernd proportional zur Geschwindigkeit des Objektes sowie des Abbildungsmaßstabes. Dabei folgt die Bewegung d der Granulationsmuster folgender Regel: d = dObj·m·(dObs/dBoil + 1) mit
- dObj
- = Objektbewegung in der Objektebene
- dObs
- = Abstand Objektebene zur Hauptebene
- dBoil
- = Abstand der Boiling-Ebene zur Hauptebene
- m
- = Abbildungsmaßstab im exakten Abbild
wobei für den Abbildungsmaßstab die Regel gilt: m = LBild/LObj mit - LBild
- = Abstand des Objekt-Abbildes zur Linsenhauptebene.
- LObj
- = Abstand Objekt zur Linsenhauptebene
-
Unter der Linsenhauptebene ist die Hauptebene der Empfängerlinse 13 zu verstehen. Der Abstand des Objekt-Abbildes zur Linsenhauptebene muss hierbei nicht dem Detektorabstand entsprechen.
-
Unter Boiling-Ebene wird eine Ebene verstanden, in der sich die Granulationsmuster nicht proportional zum Objekt bewegen. In der Boiling-Ebene können sich die Granulationsmuster in sich selbst verändern, ohne sich gemeinsam zu bewegen. Diese Ebene wird definiert durch die Position des exakten Abbildes der Strahltaille der beleuchtenden Lichtstrahlen in der durch die X- und die Z-Achse (XZ-Ebene) aufgespannten Ebene.
-
Die Abbildung erfolgt durch die Empfängerlinse 13. Bei nahezu parallelem Licht in der XZ-Ebene liegt die Boiling-Ebene somit in der Brennebene der Empfängerlinse 13. Das unkontrollierte Verändern der Granulationsmuster, welches auch als „Kochen” bezeichnet wird, beginnt knapp vor bzw. hinter dieser Ebene.
-
Wird als Detektor 14 ein Zeilenempfänger eingesetzt, so wird eine Objektbewegung im Bild entlang des Zeilenempfängers gemessen. Die gemessene Bewegung verläuft somit parallel zur Zeilenachse.
-
In vorteilhafter Weise ist der Winkel der Bewegungsrichtung des Objektes in Bezug auf die Zeilenachse klein. In 5 ist eine derartige Querbewegung dargestellt. In der Figur zeigt 51 die bevorzugte Bewegungsrichtung, die parallel zur Zeilenachse in der Objektebene liegt. Die dargestellte Richtung der Querbewegung 52 liegt ebenfalls in der bevorzugten Objektebene, weist aber einen Winkel β gegenüber der bevorzugten Bewegungsrichtung auf. Der Winkel β beschreibt somit den Winkel zwischen der X-Achse sowie der Bewegungsrichtung des Objektes.
-
Bei einer zunehmenden Querbewegung 52, somit bei einem größeren Winkel β, erhöht sich die Messungenauigkeit. Die Reproduzierbarkeit und/oder die Fähigkeit des optischen Sensors 1, große Geschwindigkeiten zu messen, reduzieren sich. Dadurch verringert sich die maximal messbare Geschwindigkeit des Objektes. Durch eine höhere Breite des Zeilendetektors und/oder der Laserlinie kann diese Einschränkung wiederum verbessert werden.
-
Die Zeilensignale des Detektors 14 werden nacheinander aufgenommen und in einer Auswerteeinheit miteinander verglichen. Um bei hohen Objektgeschwindigkeiten ein Verschmieren der Granulationsbilder zu vermeiden, wird die Belichtungszeit der Lichtquelle 21 entsprechend kurz eingestellt oder entsprechend von der Steuereinheit derart gesteuert. Bei Objektgeschwindigkeiten in einem Bereich von etwa 10 m/s beträgt eine geeignete Belichtungszeit typischerweise 10 μs. Beträgt die Objektgeschwindigkeit etwa 1 m/s, so hat sich eine Belichtungszeit von 100 μs als vorteilhaft herausgestellt.
-
Mittels Korrelationsfunktion wird die Verschiebung der Granulationsbilder von Aufnahme zu Aufnahme verglichen. Mit Hilfe der Framerate kann somit eine Objektgeschwindigkeit errechnet werden. Neben der Korrelationsfunktion sind weitere Regeln zum Positionsvergleich anwendbar, etwa ein Vergleich der Extrempunktpositionen der Granulationsbilder, der Nulldurchgangspositionen, eine Fourier-Phasenkorrelation oder auch einer Kombination dieser Regeln.
-
Kleine Objektverschiebungen von einer Aufnahme zu einer nachfolgenden Aufnahme führen zu kleinen Verschiebungen und Veränderungen der Granulationsmuster. Dies bedeutet, dass die Granulationsmuster der beiden Aufnahmen sehr ähnlich sind und nur etwas verschoben. Dies führt zu einer hohen Korrelationsrate und damit zu einer zuverlässigen Auswertemöglichkeit.
-
Grosse Objektverschiebungen zwischen zwei Aufnahmen bewirken eine grosse Verschiebung, aber auch eine starke Veränderung der Granulationsmuster. Damit sinken die Korrelationsrate und die Auswertesicherheit. Unter einer großen Objektverschiebung ist eine Verschiebung entlang eines linienartigen Lichtflecks um mehr als 20% in Bezug auf die Länge des Lichtflecks zu verstehen. Bei Querbewegungen ist sinngemäß eine Verschiebung um mehr als 20% der Breite des Lichtflecks unter einer großen Objektverschiebung zu verstehen.
-
Kleine Objektverschiebungen zwischen zwei Aufnahmen sind insbesondere dann vorteilhaft, wenn das Objekt eine leichte Querbewegung abweichend von der bevorzugten Bewegungsrichtung durchführt, somit der Winkel β > 0° ist. In einem solchen Fall ist die Korrelation der beiden Signale auch bei der leichten Querbewegung zuverlässig. Erreicht werden die kleinen Verschiebungen durch eine hohe Framerate oder durch eine kleine Objektgeschwindigkeit. Größere Verschiebungen der Granulationsmuster von Aufnahme zu Aufnahme können dazu führen, dass der zulässige Winkelbereich der Querbewegung oder die zulässige Maximalgeschwindigkeit kleiner wird.
-
Als geeignete Lichtquelle 21 können Single-Mode- oder Single-Frequency-Laser mit Polarisationskontrolle dienen. Die Lichtquelle 21 kann somit Distributed-Feedback-(DFB-) oder Bragg-Reflektor-Laserdioden, Gaslaser, Vertical-Cavity Surface-Emitting Laser (VCSEL) oder normale Laserdioden umfassen. VCSEL-Laser können beispielsweise in einem Wellenlängenbereich von 850 nm betrieben werden. Bei Verwendung von Laserdioden ist auf die Vermeidung von Rückkopplungen zu achten.
-
Im Fall von Objekten mit einer kleinen Rauhtiefe von etwa 0,1 bis 5 μm können auch Superluminiszenzdioden eingesetzt werden, die ein Spektralband in einem Bereich von ca. 10 nm aufweisen.
-
Um eine gute Nutzung der Lichtquelle 21 zu ermöglichen, wird das Laserlicht als Laserlinie auf das Objekt projiziert. In idealer Weise wird diese Laserlinie direkt auf die Empfängerzeile abgebildet. Die Laserlinie liegt senkrecht zur optischen Senderachse 11.
-
6 zeigt eine Laserlinie 62 sowie die Objektebene 61. In vorteilhafter Weise ist die Lichtausbreitung der Lichtquelle 21 in der Ebene, die durch die Laserlinie 62 sowie die optische Senderachse 11 aufgespannt wird, parallel. In der 6 entspricht diese Ebene der durch die X- sowie die Z-Achse aufgespannten Ebene. Die optische Senderachse 11 verläuft parallel zur Z-Achse. In Richtung der Y-Achse wird das Laserlicht 63 derart fokussiert, das es als Laserlinie 62 auf das Objekt bzw. die Objektoberfläche trifft.
-
Diese Lichtausbreitung kann durch eine Ausbildung der Senderlinse 16 als genaue Laserfokussierlinse oder als Laserfokussierobjektiv zur exakten Kollimation mit einer nachgeschalteten Zylinderlinse zur Fokussierung des Lichtes in einer Linie erreicht werden. Alternativ kann mit der Laserfokussierlinse das Licht direkt auf einen Punkt auf dem Objekt im Sollabstand fokussiert werden und mit einer streuenden Zylinderlinse das Licht in einer Richtung wieder so auseinandergezogen werden, dass es in dieser Richtung parallel ist. In einer weiteren Ausführungsform werden eine oder mehr zylindrischen Linsen und/oder eine oder mehrere nicht-zylindrischen Linsen eingesetzt.
-
Die Wellenfront des Lichtstrahls, der die Sendeoptik verlässt, ist wegen der Fokussierung auf das Objekt nicht planar, sondern in einer Richtung stark gewölbt, in der anderen Richtung konstant. Typischerweise ist die Wellenfront dabei in Richtung senkrecht zur Laserlinie 62, also in y-Richtung gewölbt. Eine rein planare Wellenfront ist somit erfindungsgemäß nicht erforderlich.
-
Es hat sich herausgestellt, dass eine für die Bewegungsmessung sehr gute Länge der Laserlinie 62 in einem Bereich von 0,3 bis 20 mm, bevorzugt in einem Bereich von 1 bis 10 mm liegt. Eine entsprechend optimale Breite liegt in einem Bereich von 0,01 bis 2 mm, bevorzugt in einem Bereich von 0,05 bis 0,3 mm.
-
Grundsätzlich sollte die Breite der Laserlinie 62 auf dem Detektor 14 eine Abbildung mit einer Breite erzeugen, welche der Breite der Detektorzeile annähernd entspricht. Eine größere Laserlinienbreite führt zu einem Signalverlust, der umgekehrt proportional zum Verhältnis zwischen der Breite der auf den Detektor 14 abgebildeten Laserlinie und der Breite des Detektors 14 ist. Im umgekehrten Fall einer zu schmalen Laserlinie, deren Abbild auf dem Detektor 14 deutlich schmaler ist als dessen Breite, führt dies zu einer Reduzierung des zulässigen Wertebereichs des Winkels β der Querbewegung.
-
Bei einem großen Winkel β durchquert das Objekt die Laserlinie schneller als bei einem kleinen Winkel. Dies führt bei hohen Objektgeschwindigkeiten und gegebenen Frameraten zu einer Reduzierung der Winkelbereiche β, innerhalb dessen gemessen werden kann. Idealerweise liegt der Winkel β in einem Bereich von +/–30° oder sogar +/–90°. Innerhalb dieses Wertebereiches können Bewegungen des Objektes abweichend von der bevorzugten Bewegungsrichtung gemessen werden.
-
Bei hohen Geschwindigkeiten in einem Bereich ab etwa 10 m/s muss dieser Winkel aber vielfach auf +/–5° reduziert werden, bei einer schmalen Laserlinie von 20 μm Breite sogar noch stärker. Aus diesem Grund kann es sinnvoll sein, in Richtung der Y-Achse eine optische Begrenzung der Fokussierbarkeit der Laserlinie vorzunehmen.
-
Des Weiteren wird die Senderoptik derart ausgelegt, dass sich die relativen, optischen Beleuchtungsphasen auf der Objektoberfläche bei zwei aufeinanderfolgenden Aufnahmen von Granulationsbildern bei sich ändernden Objektabständen nur minimal unterscheiden. Deutliche Änderungen der Breite einer Laserlinie bei Entfernungsänderungen des Objektes sind zu vermeiden, da sich andernfalls die Laser-Wellenfronten stark von den mit der Laserlinie überwachten Objektpunkten unterscheiden.
-
Die Breite und Tiefenschärfe der Laserlinie kann etwa mittels Beugung an der Senderlinse 16 und mittels der Brennweite dieser Linse entsprechend eingestellt werden. Ein sehr schmaler Laserstrahl in Fokussierrichtung, also in Y-Richtung, ist sehr vorteilhaft, da damit eine große Tiefenschärfe erreicht wird. In diesem Fall ändert sich die Laserlinienbreite nur langsam bei einer Objektabstandsanderung.
-
Bei einem Objektabstand beispielsweise in einem Bereich von 100 mm kann dieses erreicht werden mit einer Brennweite von 2 bis 5 mm. Es sind auch mehrere Linsen umfassende Ausführungen dieser Senderoptik möglich.
-
In einer besonderen Ausführungsform wird die minimale Laserlinienbreite mit einer oder mehreren diffraktiven und/oder einer oder mehrerer refraktiven Linsen und/oder mit wechselweise diffraktiven/refraktiven Linsen erzeugt. In dieser Ausführungsform werden bevorzugt zylindrisch aktive Linsen verwendet, die das Licht nur in je einer Richtung (X- oder Y-Richtung) beugen oder brechen. Hierbei muss die Ausbildung von Granulationsmustern innerhalb der Laserlinie auf dem Objekt in Richtung der X-Achse vermieden werden. Eine gleichmäßige Wellenfront in X-Richtung hat sich als vorteilhaft herausgestellt.
-
Durch die Nutzung von parallelem Laserlicht sowohl voll parallel, das entspricht einem kollimierten Laserstrahl, als auch nur parallel in der XZ-Ebene ergibt sich der Vorteil, dass eine stabile Geschwindigkeit der Granulationsbilder erreicht wird. Hierunter ist zu verstehen, dass die Geschwindigkeit der Änderung von Granulationsbildern auf dem Detektor 14 direkt proportional zu der Geschwindigkeit des Objektes ist. Bei einem festen Abstand zwischen Detektor 14 und Empfängerlinse 13 gilt diese Regel auch, wenn der Objektabstand schwankt, sich das Objekt also in Richtung auf den optischen Sensor 1 hin bewegt oder sich von ihm entfernt. In diesem Fall fällt die Boiling-Ebene mit der Fokalebene der Abbildungsoptik zusammen.
-
Für diesen Fall gilt die vereinfachte Regel für die Granulationsbildverschiebung d: d = dObj·mId mit
- mId
- = idealer Abbildungsmaßstab
-
Der ideale Abbildungsmaßstab ergibt sich aus: mId = LObs/LObj0 mit
- LObj0
- = Objekt-Sollabstand
-
Der Objekt-Sollabstand ist derjenige Abstand, bei dem gilt: LBild = LObs
-
Durch die Fokussierung des Laserlichts in einer Richtung senkrecht zur optischen Achse 3 (Y-Achse) und der daraus folgenden Erzeugung einer Laserlinie ergeben sich weitere Vorteile. Es kann mit einer 3× bis 20× kleineren Laserleistung gearbeitet werden, da durch die Fokussierung in einer Richtung die Bestrahlungsstärke im Vergleich zu einem runden Laserspot mit einem Radius, der so gross ist wie die Laserlinienlänge, deutlich zunimmt.
-
Hierdurch kann der erfindungsgemäße optische Sensor 1 beispielsweise mit einer kleinen Laser-Austrittsleistung betrieben werden, die es ermöglicht, den Sensor 1 auch in Umgebungen einzusetzen, für die hohe Anforderungen an die potentiellen, durch Laserlicht entstehende Gefahren stellen. Ein Klassifizierungsschema für Laser stellt beispielsweise die International Standards for the Safety of Laser Products (ISSLP) bereit. Die ungefährlichste Laserklasse hiernach sind Klasse 1-Laservorrichtungen.
-
Durch die Erzeugung einer erfindungsgemäßen Laserlinie ist es möglich, den optischen Sensor 1 auch mit Laser-Lichtquellen der eher ungefährlichen Klassen 1, 1M, 2 oder 2M zu betreiben. Dieses ist einerseits möglich, da durch die Fokussierung in einer Richtung die Bestrahlungsstärke zunimmt. Andererseits gilt gemäß ISSLP bei derartigen Laserlinien und diesen Laserklassen ein höherer Grenzwert der maximal erlaubten Laserleistung. In umgekehrter Weise bietet die Erzeugung einer Laserlinie den Vorteil, dass Laserlicht einer bestimmten Laserklasse bei einem Laserlinienstrahl eine höhere Laserleistung haben darf als bei einem normalen Laserstrahl.
-
In einer weiteren besonderen Ausführungsform wird eine konstante Framerate eingestellt. In der Auswerteeinheit wird sodann nicht nur das aktuelle Granulationssignal mit dem letzten Signal, sondern auch mit dem zweitletzten, dem viertletzten, dem achtletzten bis zum 10.000-letzten Signal verglichen. Bei einer Zunahme um den Faktor 2 werden auf diese Weise insgesamt 14 Signalvergleiche vorgenommen.
-
Die Objektverschiebung nimmt dabei stetig zu, bis die Korrelation nicht mehr eindeutig ist. So kann beispielsweise die Objektverschiebung annähernd Null sein bei einem Vergleich des aktuellen Signals des Detektors 14 mit dem vorletzten. Bei einem dritten Signalvergleich kann der Unterschied der Signale messbar sein und etwa bei einem achten Signalvergleich nicht mehr korrelierbar. Durch das Vorliegen mehrerer Vergleiche kann mittels einer Plausibilitätsprüfung aus der vorliegenden Gesamtzahl der Vergleiche eine Auswahl der am besten geeigneten getroffen, werden.
-
Durch diese Ausführungsform kann die Genauigkeit des optischen Sensors 1 deutlich gesteigert werden. Insbesondere kann damit sowohl bei hohen als auch bei extrem niedrigen Geschwindigkeiten gemessen werden. Zudem ist der optische Sensor 1 auch geeignet für exakte Messungen bei sehr niedrigen Geschwindigkeiten sowie ebenfalls für exakte Messungen bei hohen Objektgeschwindigkeit sowie bei kurzfristigen Wechseln zwischen den niedrigen und den hohen Geschwindigkeitsbereichen.
-
In einer weiteren besonderen Ausführungsform wird ein Trackingalgorithmus eingeführt, der gemäß eines BodyObject-Modells oder mit einem Kalmann-Filter arbeitet. Hierfür darf die Objektbeschleunigung nicht oder nur unter bestimmten Umständen beliebig hoch sein, wobei diese Eigenschaft als Plausibilitätsüberwachung im Rahmen der Korrelation dient. Nur in Fällen eines abrupten Erscheinens oder Entfernens des Objektes kommt es zu großen Unterschieden in der angezeigten Geschwindigkeit.
-
In einer weiteren Ausführungsform wird insbesondere bei Objekten mit einer stärkeren Strukturierung wie etwa starken Farb- oder Grauwertkontrasten eine telezentrische Optik eingesetzt. Hierbei liegt eine Blende der Empfängeroptik exakt in der bildseitigen Fokusebene des Objektes. Hierdurch ändert sich der Abbildungsmaßstab bei einer Änderung der Entfernung des Objektes nicht. In diesem Fall verändern sich die Granulationsmuster proportional zu der Bewegung des Objektes. Diese Ausführungsform führt allerdings zu einem hohen gerätetechnischen Aufwand.
-
In einer weiteren bevorzugten Ausführungsform ist der optische Sensor 1 mit einer integrierten Abstandmessung ausgebildet. In Kombination mit einer der hierin beschriebenen Bewegungsmessungen kann der optische Sensor 1 dabei derart ausgebildet werden, dass durch die zusätzliche Abstandsmessung eine Abstandsabhängigkeit der Messung korrigiert bzw. kompensiert wird. Der optische Sensor 1 kann somit unempfindlich gegenüber Kontrasten auf dem Objekt als auch abstandsunabhängig gemacht werden. Die Abstandsmessung umfasst bevorzugt eine oder beide der folgenden zwei Ausführungsformen.
-
In einer ersten Ausführungsform wird neben der Laserlinie ein kleiner Teil des Lichtes der Lichtquelle 21 oder ein separater Lichtstrahl als Punktlicht auf das Objekt projiziert.
-
7 zeigt schematisch einen derartigen Aufbau. Hier projiziert eine weitere separate Senderlinse 71 ein punktförmiges Licht 72 auf das Objekt. Auf dem Objekt wird ein zusätzlicher Lichtpunkt 73 erzeugt. Die Senderlinse 71 kann mit derselben oder einer anderen Lichtquelle beleuchtet sein wie Senderlinse 16. Die Senderlinsen 16 und 71 können auch als Doppellinse ausgebildet sein. Als Detektor wird der gleiche Detektor 14 eingesetzt. Auf diese Weise kann ein Triangulationssensor ausgebildet werden, wodurch zusätzlich eine Orts- und/oder Geschwindigkeitsinformation zur dritten Dimension des Objektes erhalten wird.
-
Diese Information kann verwendet werden, um eine Abstandsabhängigkeit der Geschwindigkeitsmessung zu kompensieren. Weiterhin kann diese Information auch als Zusatzinformation verwendet und in Form eines Analog- oder Digitalsignals an einen Benutzer ausgegeben werden.
-
Der Detektor 14 empfängt sowohl das Granulationsbild als auch Licht durch den zusätzlichen Lichtpunkt 73, wobei die Abbildung 74 dieses Lichtpunkts 73 leicht neben dem Granulationsbild liegt. Beide Informationen können über die Auswerteeinheit ausgewertet werden. So kann aus dem seitlich versetzten Auftreffpunkt der Abbildung 74 des Lichtpunktes 73 direkt der Triangulationswinkel und hierüber der Objektabstand ermittelt werden. Es hat sich herausgestellt, dass bevorzugt die Strahlachse des Lichtes 72 einen Winkel > 0°, besonders bevorzugt einen Winkel von 2° bis 40°, zur Empfängerachse 12 ausbildet.
-
In einer zweiten Ausführungsform zur Abstandsmessung wird ein 2D-Matrixkamera mit einem Matrixsensor 82 als Detektor 14 eingesetzt, wobei die Lichtquelle 21 ebenfalls eine Laserlinie auf der Objektoberfläche erzeugt. 8 zeigt eine derartige Anordnung. Durch Verkippen der Lichtquelle 21 gegenüber der Empfängerachse 12 in einer Ebene, die durch die Achsen Y und Z aufgespannt werden, kann durch Bestimmung des Auftreffpunktes in Richtung der Y-Achse auf dem Detektor 14 ebenfalls per Triangulation der Abstand des Objektes gleichzeitig mit einer Bewegung des Objektes entlang der bevorzugten Bewegungslinie gemessen werden. In 8 ist schematisch die neue Position 81 der Senderlinse 16 dargestellt. Aufgrund des Verkippens der Lichtquelle verschiebt sich der Auftreffpunkt in Richtung der Y-Achse auf der Kamera. Diese Verschiebung ist mit dem Bezugszeichen 83 bezeichnet.
-
Eine Änderung der Entfernung des Objektes in Richtung der Z-Achse bewirkt eine Positionsänderung des Auftreffens des Granulationsbildes in Richtung der Y-Achse auf dem Detektor 14.
-
Bei Objekten, deren Abstand zum Objekt sich nur langsam verändert, kann weiterhin zeilenähnlich gearbeitet werden. Hierunter ist zu verstehen, dass nur eine oder wenige Zeilen ausgelesen werden aus der Matrix. Insbesondere werden nur diejenigen Zeilen ausgewertet, die durch die Laserlinie beleuchtet werden. Es können zusätzlich benachbarte Zeilen ausgewertet werden. Somit können auch in dieser Ausführungsform hohe Frameraten erreicht werden.
-
Beim Einfahren eines neuen Objektes in einem unbekannten Abstand kann zunächst ein breiteres, mehrere Zeilen umfassendes Bild eingelesen werden, um die Position des Laserlinien-Abbildes in Y-Achsenrichtung bestimmen zu können. Durch die Auswerteeinheit kann hierdurch festgelegt werden, welche Zeilen im weiteren Messablauf ausgelesen werden sollen.
-
In einer nochmals weiteren Ausführungsvariante wird anstelle eines Vergleichs zweier oder mehrerer nacheinander aufgenommener Signale ein Signal mit Hilfe einer Doppelbelichtung erzeugt. In jedem Pixel werden dabei die Signalintensitäten der beiden Belichtungen addiert. Anstelle der Kreuzkorrelation zur Auswertung zweier einzelner Signale kann auf diese Weise mit einer Autokorrelation der doppelt belichteten Messung gearbeitet werden. Eine Objektverschiebung zwischen beiden Belichtungen kann berechnet werden. Idealerweise wird hierbei die Anzahl der Messpunkte und somit die Sensibilität des Detektors 14 erhöht.
-
Diese Ausführungsform ist insbesondere für hohe Bewegungsgeschwindigkeiten der Objekte geeignet, die typischerweise in einem Bereich > 10 m/s liegen, da für diese Messung eine vergleichsweise niedrige Framerate ausreichend ist. Bei sehr hohen Geschwindigkeiten himmt die Signalstärke auf dem Detektor 14 infolge der erforderlichen kürzeren Belichtungszeiten ab.
-
Auf diese Weise können etwa helle Objekte mit Geschwindigkeiten in einem Bereich von bis zu 100 m/s gemessen werden.
-
In einer nochmals weiteren Ausführungsform wird eine adaptive Optik eingesetzt, mittels derer die Brennweite an die aktuelle Entfernung des Objektes derart angepasst wird, dass das Granulationsbild immer exakt auf dem Detektor 14 abgebildet werden kann. Die Geschwindigkeit der Veränderung der Granulationsbilder entspricht dann exakt der Geschwindigkeit des Objektabbildes, wobei in diesem Fall eine Abhängigkeit zum Objektabstand besteht. Bei gleichzeitiger Messung des Objektabstandes wie oben beschrieben kann diese Abhängigkeit kompensiert oder wegkalibriert werden.
-
In einer nochmals weiteren Ausführungsvariante wird eine koaxiale Optik mit einem Strahlteiler eingesetzt. Nachteilig kann sich hier eine hohe Verschmutzungsempfindlichkeit der Frontscheibe auswirken, da das austretende Laserlicht sowie das reflektierte Licht an exakt der gleichen Stelle aufeinander treffen. Als Vorteil erweist sich, dass sich das Granulationsmuster bei Entfernungsänderungen des Objektes auf dem Detektor 14 nicht verschiebt. 9 zeigt einen derartigen Aufbau mit einem teildurchlässigen Strahlteilerspiegel 91 und dem seitlich eintretenden Laserlicht 92. Der Strahlteilerspiegel kann auch aus Prismen aufgebaut sein.
-
In einer nochmals weiteren Ausführungsvariante wird eine koaxiale Optik mit einem Spiegel und einem Loch oder alternativ ein kleiner Spiegel auf der optischen Empfängerachse 12 eingesetzt. Schematisch ist in 10 ein derartiges System gezeigt. Seitlich eintretendes Laserlicht 92 wird mittels eines kleinen Spiegels 101 exakt auf die Empfängerachse 12 umgelenkt. Der kleine Spiegel 101 kann beispielsweise durch eine Glasscheibe ausgebildet sein, deren mittlerer Teil verspiegelt ist. 13 zeigt die dahinter liegende Empfängerlinse 13.
-
Bei diesen beiden Ausführungsformen und einer senkrechten Ausrichtung der Empfängerachse 12 zum Objekt bewirken Entfernungsänderungen entlang der Empfängerachse 12 keine Verschiebungen des Objektbildes. Die Granulationsbilder bleiben bei kleinen Entfernungsänderungen stabil. Dieser Effekt kann bei matten Objekten ausgenutzt werden. Bei einem Wechsel zwischen matten und glänzenden Objektoberflächen können extrem unterschiedliche Signalstärken gemessen werden. Um dies zu vermeiden, kann der Sensor gegenüber dem Objekt verkippt werden. In diesem Fall gilt die Stabilität der Granulationsbilder sodann nur noch für Objektabstandsverschiebungen entlang der Empfängerachse 12, nicht jedoch für Verschiebungen senkrecht zur Objektoberfläche.
-
Für eine Verbesserung der Messstabilität wird der Lichtstrahl in einer nochmals weiteren Ausführungsvariante derart modifiziert, dass entweder die Lichtquelle 21 selbst oder ein Zwischenfokus objektseitig exakt in der Fokalebene der Empfängeroptik liegt. Dies gilt für die Lichtstrahlen in der XZ-Ebene. In YZ-Ebene ist es auch hier vorteilhaft das Licht linienartig auf das Objekt zu fokussieren. 11 zeigt eine derartige Variante. Der Laserstrahl mit Achse 11 liegt gemeinsam mit der Empfängerachse 12 in der XZ-Ebene. In der 11 ist der Zwischenfokus des Strahles als Fokusbereich 111 dargestellt. 112 zeigt eine Ausbildung der Senderlinse dieser Ausführungsform. Der Sendestrahl wird bei einem virtuellen Transfer in den Bildraum zu einem kollimierten Strahl, wodurch dieser Strahl nur aus parallelen Strahlen besteht. Hierdurch bleiben die Granulationsmuster bei kleinen Entfernungsänderungen des Objektes entlang der Empfängerachse 12 stabil. Das Objektabbild bleibt bei solchen Änderungen ebenso stabil, d. h. es verschiebt sich nicht. Dagegen verschiebt sich das Abbild des beleuchteten Flecks auf dem Objekt und damit auch auf dem Detektor 14. Bei dieser Anordnung führen kleine Entfernungsänderungen des Objektes nicht zu einer Bewegung des Granulationsmusters und damit zu keiner der sonst üblichen scheinbaren Objektbewegung entlang der Laserlinie.
-
Wird zusätzlich objektseitig eine telezentrische Empfängeroptik eingesetzt, ergibt sich der Vorteil, dass der Abbildungsmaßstab sich bei Änderungen der Entfernung des Objektes nicht ändert. Die Granulationsmuster bewegen sich nicht bei einer reinen Änderung der Entfernung des Objektes wegen der gewählten Lasergeometrie. Zudem bewegen sich die Granulationsmuster nun unabhängig von der Objektentfernung mit einer Geschwindigkeit, die direkt proportional zu der lateralen Geschwindigkeit des Objektes ist. Weiterhin bewegen sich bei einer Objektbewegung in Laserlinienrichtung im Abbild auf dem Detektor 14 die Granulationsmuster mit der gleichen Geschwindigkeit wie die Objekte.
-
In einer nochmals weiteren Ausführungsvariante liegt der Zwischenfokus des Lichtstrahls in der Hauptebene der Empfängeroptik. 12 zeigt schematisch diesen Aufbau. Den Zwischenfokus des Lichtstrahls in der XZ-Ebene zeigt 121 und eine Ausbildung der Senderlinse 122. Auch hier ist es vorteilhaft den Lichtstrahl in YZ-Ebene auf das Objekt zu fokussieren. Bei dieser geometrischen Anordnung bewegen sich die Granulationsmuster auf dem Detektor 14 mit der gleichen Geschwindigkeit wie das Objekt, wobei auf die Verwendung einer telezentrischen Optik verzichtet werden kann. Vorteilhaft ist diese Anordnung bei Objekten, die stark strukturierte oder bedruckte Oberflächen aufweisen. Die Messung der Objektgeschwindigkeit bei Bewegung in Laserlinienrichtung ist nun aber abhängig vom Abbildungsmaßstab und damit abhängig vom Objektabstand. Der Objektabstand sollte in dieser Variante mit den bereits erwähnten Hilfsmitteln gemessen werden, damit der entsprechende Messfehler rechnerisch kompensiert werden kann und fehlerfreie Werte der Geschwindigkeit ausgegeben werden können.
-
Der Einsatz einer telezentrischen Optik kann vorteilhaft sein, da in diesem Fall der Abbildungsmaßstab unabhängig vom Objektabstand ist. Damit ist auch die gemessene Objektgeschwindigkeit unabhängig vom Abstand, eine abstandsabhängige Kompensation ist nicht oder nur zur Kompensation von Fehlern der 2. Ordnung nötig.
-
Der Einsatz der telezentrischen Optik wird also bei der in 12 dargestellten Ausführungsform nicht zur Stabilisierung der Granulationsmuster eingesetzt, sondern lediglich dazu, den Abbildungsmaßstab konstant und damit unabhängig vom Objektabstand zu halten. Bei den vorherigen beschriebenen Einsatzmöglichkeiten einer telezentrischen Optik geht es weiterhin darum, eine möglichst ähnliche, vorzugsweise gleiche Bewegungsgeschwindigkeit von Objektabbild und Specklemuster zu erreichen.
-
Bezugszeichenliste
-
- 1
- Optischer Sensor
- 2
- Frontfenster
- 3
- Optische Achse
- 4
- Objektbewegungsrichtung zur Entfernungsänderung
- 5
- Objektbewegungsrichtung seitlich
- 11
- Optische Senderachse
- 12
- Optische Empfängerachse
- 13
- Empfängerlinse
- 14
- Detektor
- 15
- Bildpunkt
- 16
- Senderlinse
- 21
- Lichtquelle
- 41
- Ebene der Objektbewegung
- 42
- bevorzugte Bewegungsrichtung
- 51
- bevorzugte Bewegungsrichtung parallel zur Zeilenachse
- 52
- Querbewegung des Objektes
- 61
- Objektebene
- 62
- Laserlinie
- 63
- Laserlicht
- 71
- Senderlinse
- 72
- punktförmiger Lichtstrahl
- 73
- Lichtpunkt auf Objekt
- 74
- Abbildung von Lichtpunkt 73
- 81
- Lichtquelle in verkippter Position
- 82
- 2D-Matrixsensor
- 83
- Auftreffpunkt des Lichtes bei verkippter Lichtquelle
- 91
- Strahlteilerspiegel
- 92
- seitlich eintretendes Laserlicht
- 101
- Spiegel
- 111
- Fokusbereich eines Lichtstrahles
- 112
- Senderlinse
- 121
- Fokusbereich eines Lichtstrahles
- 122
- Senderlinse