-
Die
Erfindung betrifft ein Meßsystem
zur dreidimensionalen Erfassung der Position und oder der räumlichen
Ausdehnung mindestens eines Gegenstandes in einem Raum oder einer
Umgebung, bei der ein getakteter Videosensor gleichzeitig zur zweidimensionalen
Bilderfassung und zur Abstandsmessung mittels eines Laserstrahls
verwendet wird.
-
Stand der Technik:
-
Die
Erfindung geht von einem Meßsystem zur
dreidimensionalen Erfassung der Position und oder der räumlichen
Ausdehnung mindestens eines Gegenstandes in einem Raum oder einer
Umgebung nach der Gattung des Hauptanspruchs aus.
-
Viele
Bildverarbeitungsanwendungen benötigen
neben der zweidimensionalen Bilderfassung dreidimensionale Informationen
oder werden zuverlässiger
und oder genauer, wenn den zweidimensionalen Informationen der Bilderfassung
dreidimensionale Informationen hinzugefügt werden. Eine Möglichkeit
diese dreidimensionalen Informationen zu gewinnen ist, mindestens
zwei kalibrierte Kameras einzusetzen. Damit kann durch verschiedene
Verfahren die räumliche
Position ausgezeichneter Punkte, von einzeln erfassbaren Gegenständen in
einer Umgebung je nach Anzahl der verwendeten Kameras in der gewünsch ten
Genauigkeit erfasst werden. Der Nachteil dieses Ansatzes ist, dass
mehrere Kameras synchron den selben Gegenstand in der selben Umgebung
aufnehmen müssen.
Je nach Anwendungsfall ist dies mit einem erheblichen Aufwand verbunden,
obgleich die eigentliche Aufgabe des Erkennens von Gegenständen oder
einer Umgebung bereits mit nur einer Kamera ausreichend gelöst werden
kann, mit der Einschränkung,
keine dreidimensionalen Informationen erhalten zu können. Dabei
bezeichnet der Begriff Umgebung einen Raum, wie beispielsweise eine
Produktionslinie, ein Warenlager oder einen Bereich im Freien mit
bestimmten Begrenzungen, beispielsweise durch Wände oder das Sichtfeld, wobei
einerseits die Umgebung selbst in ihrer Ausdehnung erfasst, oder
nicht näher
klassifizierte Gegenstände,
beispielsweise Wände,
Menschen, Maschinen, Fahrzeuge, Bäume oder Tiere ohne nähere Identifikation,
oder auch bestimmte, zu klassifizierende Gegenstände, beispielsweise unterschiedliche Bauteile,
je nach Anwendungsfall in ihrer räumlichen Ausdehnung und/oder
räumlichen
Position in dieser Umgebung erkannt werden sollen.
-
Die
dreidimensionale Information kann unter Verwendung mehrerer Bildsensoren,
z.B. mittels einer Kombination von IR-, CCD- und CMOS-Kameras oder
auch mittels kapazitiven, induktiven, magnetischen oder optischen
Entfernungssensoren oder einer Kombination davon erhalten werden.
Bei der Verwendung von Entfernungssensoren werden besonders optische
Entfernungssensoren bevorzugt, da diese sehr zuverlässig sind
und im Vergleich zu anderen Entfernungssensoren eine relativ hohe
Genauigkeit besitzen. Die meisten optischen Entfernungssensoren
bestehen aus einer einen Laserstrahl emittierenden Laserquelle,
beispielsweise einer Laserdiode und mit einem auf die Wellenlänge des
Laserstrahls abgestimmten photoelektrischen Sensor, wobei mit dem
Laserstrahl ein Gegenstand punktuell beleuchtet wird, um die Entfernung
zum Entfernungssensor zu bestimmen. Hierzu gibt es verschiedene Messverfahren,
die grob in laufzeitbasierte und triangulationsbasierte Messverfahren
unterteilt werden können.
-
Bei
den triangulationsbasierten Messverfahren beleuchtet der Laserstrahl
den Gegenstand, wird reflektiert und trifft auf den in der Nähe der Laserquelle
angeordneten photoelektrischen Sensor, wie beispielsweise einer
Zeilenkamera oder einer ähnlichen elektronischen
Vorrichtung, mit dem die Position der von dem Laser beleuchteten
Stelle bestimmbar ist. Durch den die Messbasis bildenden Abstand
zwischen Laserquelle und Sensor kann gemeinsam mit dem Weg des emittierten
und reflektierten Laserstrahls ein Dreieck gebildet werden, so dass
die Entfernung zwischen dem aus Laserquelle und photoelektrischem
Sensor bestehenden Entfernungssensor und dem Punkt, an dem der Laserstrahl
reflektiert wird, mittels ebener Trigonometrie bestimmt werden kann.
Die Genauigkeit und die Auflösung
der Messergebnisse hängt
dabei von der Länge
der Messbasis zwischen Laserquelle und photoelektrischem Sensor
ab.
-
Derartige
Entfernungssensoren weisen jedoch den Nachteil auf, dass aufgrund
baulicher und wirtschaftlicher Beschränkungen nur eine begrenzte Anzahl
von Entfernungs- und Genauigkeitsstufen erhältlich sind, wobei mit zunehmendem
Entfernungsbereich die Messgenauigkeit und/oder die Auflösung einer
Einzelmessung abnimmt.
-
Die
gleiche Situation ergibt sich auch für Entfernungssensoren, die
mit einer Streiflichtprojektion, bei der dreidimensionale Informationen
entlang von auf das Objekt oder den Gegenstand projizierten Linien
erhalten werden. Daher sind für
einige Anwendungsfälle
keine Entfernungssensoren verfügbar,
die hinsichtlich ihres Auflösungs-
und Entfernungsbereichs für
den jeweils gewünschten
Anwendungsfall angepasst und geeignet sind. Bei der Auslegung und der
erzielbaren Genauigkeit von Bildverarbeitungsanwendungen, welche
dreidimensionale Informationen verarbeiten müssen daher Einschränkungen
in Kauf genommen werden.
-
Darüber hinaus
ist es bei manchen Anwendungsfällen
nicht möglich,
oder aus Kostengründen nicht
erwünscht,
zwei Sensoren, einen für
die zweidimensionale Bilderfassung und einen für die Entfernungsmessung, an
einer Vorrichtung, einer Maschine, oder einem Fahrzeug anzuordnen.
-
Technische Aufgabe der
Erfindung:
-
Der
Erfindung liegt daher die Aufgabe zugrunde, ein einfaches und kostengünstiges
Meßsystem
zu entwickeln, bei dem unter Verwendung möglichst weniger Bauteile der
zweidimensionalen Bilderfassung eine dreidimensionale Information
hinzugefügt
wird, und die möglichst
einfach an verschiedene Anwendungsfälle anpassbar ist.
-
Diese
Aufgabe wird durch ein Meßsystem nach
Anspruch 1 vollständig
gelöst.
Das erfindungsgemäße Meßsystem
mit den kennzeichnenden Merkmalen des Hauptanspruchs weist gegenüber dem
Stand der Technik den Vorteil auf, dass die Laserquelle so angeordnet
ist, dass der Laserstrahl innerhalb eines vorgebbaren Entfernungsbereichs
von dem Gegenstand oder einem ausgezeichneten Punkt auf dem Gegenstand
auf den Videosensor reflektiert wird, wobei der Videosensor und
die Laserquelle in einer vorgebbaren Frequenz getaktet sind und
der Videosensor während
zweier aufeinander folgender Takte einmal zur zweidimensionalen
Bilderfassung und einmal zur Abstandsmessung verwendet wird, wobei
die Laserquelle während
der Bilderfassung aus- und während
der Abstandsmessung eingeschaltet ist, um die Bilderfassung nicht
zu beeinträchtigen,
und zur Entfer nungsmessung die Auftreffkoordinaten des reflektierten
Laserstrahls auf den Videosensor mit diesem selbst messbar sind,
um anhand einer automatisch durchgeführten Triangulationsberechnung
die Entfernung des von dem Laserstrahl beleuchteten Punktes auf
dem Gegenstand von der durch Laserquelle und Videosensor führenden
Geraden zu bestimmen. Der Unterschied gegenüber dem Stand der Technik besteht
dabei im Wesentlichen in der Benutzung des ohnehin für die zweidimensionale
Bilderfassung benötigten
Videosensors für
die Bestimmung der für
die Entfernungsmessung benötigten
Auftreffkoordinaten. Die die Messbasis kennzeichnende Basislinie
ist dabei eine, nicht notwendigerweise horizontale, Gerade durch
die Pixel der Bildmatrix des Videosensors. Die Taktung der Laserquelle
und des Videosensors kann zudem zur Erhöhung der Messgenauigkeit und
der Stabilität
des Meßsystems
gegen äußere Störeinflüsse verwendet werden.
Dazu wird die Laserquelle mit einem festen Teiler der Bildaufnahmefrequenz
ein- und ausgeschaltet, wobei die Zeitintervalle während denen
die Bilderfassung erfolgt und während
der die Entfernungsmessung durchgeführt wird nicht gleich lang sein
müssen.
Da diese Frequenz bekannt ist, kann pro Pixel ein zeitlicher Bandpass
berechnet werden, der nur für
diese Pixel anspricht, die ihre Helligkeit mit der gewählten Frequenz
der Laserquelle ändern.
Bei sinnvoller Wahl dieser Frequenz können Einflüsse einer beispielsweise in
einer Produktionshalle mit der Netzfrequenz betriebenen Beleuchtung,
von bewegten Schatten und dergleichen ausgeschlossen werden, womit
die von dem Laser beleuchteten Pixel auf dem Videosensor eindeutig
identifizierbar sind. Mittels bekannter Bildverarbeitungsalgorithmen
können darüber hinaus
die Auftreffkoordinaten des von dem Gegenstand reflektierten Laserstrahls
mit einer kleineren Teilung, als der Pixelrasterung subpixelgenau bestimmt
werden, so dass eine Auflösungsgenauigkeit
oberhalb der durch die Pixel des Videosensors vorgegebene Gitterweite
erreichbar ist. Die Auftreffkoordina ten werden anschließend in
einen durch den Brennpunkt eines vor dem Videosensor angeordneten,
ebenfalls zu der Kamera gehörenden
Objektivs umgerechnet, so dass durch den damit bekannten räumlichen
Verlauf des Laserstrahls die Entfernung und mittels der Bilderfassung
die räumliche
Position des von dem Laserstrahl beleuchteten Punktes auf dem Gegenstand
bestimmbar ist. Der dabei zur Entfernungsmessung auf den Gegenstand
gerichtete Laserstrahl stört
die Bilderfassung dann nicht, wenn der Bildeinzug für die Entfernungsmessung
und für die
Bilderfassung zeitlich im Gegentakt geschaltet sind. Das ist insbesondere
bei industriellen Anwendungen, in denen eine dreidimensionale Positionsbestimmung
benötigt
wird, meist möglich,
da die Taktzeiten der Produktionslinie oder von einzelnen Maschinen
und Anlagen meist höher
sind, als die Rechenzeiten der Bildverarbeitung. Das Abschalten
der Laserquelle während
der Bilderfassung ist beispielsweise mittels moderner Halbleiterlaser,
welche eine deutlich höhere
Betriebsfrequenz als die Bildaufnahmefrequenz aufweisen, ohne weiteres
möglich.
-
Das
erfindungsgemäße Meßsystem
ermöglicht
darüber
hinaus, die Positionierung der Laserquelle relativ zu dem Videosensor
bei der Auslegung des erfindungsgemäßen Meßsystems zu verändern, und
erlaubt so eine Anpassung des Meßsystems an den erforderlichen
Entfernungsbereich und die gewünschte
Auflösungsgenauigkeit,
wobei die Auflösungsgenauigkeit
mittels geometrischer Rechenverfahren auf Basis der subpixelgenauen
Bestimmung der Auftreffkoordinaten bestimm- und anpassbar ist.
-
Durch
die gleichzeitige Verwendung des Videosensors für die zweidimensionale Bilderfassung und
für die
Entfernungsmessung werden weniger Komponenten für das erfindungsgemäße Meßsystem
benötigt,
als für
ein das selbe Leistungsspektrum bietendes Meßsystem nach dem Stand der
Technik. Darüber
hinaus kann für die
Entfernungsmessung in Verbindung mit der Taktung des Videosensors
eine gewöhnliche
CCD-Kamera verwendet werden, die als Massenware billig herstellbar
ist. Das Ersetzen einer teuren Streifenkamera durch eine billige CCD-Kamera
wird in der
US 5,732,172 zur
Bestimmung des Integrals der Strahlleistung eines pulsierenden Laserstrahls über einem
vorgegebenen Zeitintervall vorgeschlagen.
-
Eine
vorteilhafte Ausgestaltung der Erfindung sieht vor, dass anstelle
einer Taktung des Videosensors und der Laserquelle die Wellenlänge des Laserstrahls
außerhalb
des für
das menschliche Auge sichtbaren und von dem Videosensor zur zweidimensionalen
Bilderfassung berücksichtigten
Bereichs liegt, wobei der Videosensor mit mindestens für diese
Wellenlänge
photosensitiven Bereichen, insbesondere Pixeln, mindestens entlang
einer Kalibrierungskurve, insbesondere einer Geraden, versehen ist,
welche die Auftreffkoordinaten des von verschieden weit entfernten
Gegenständen
auf den Videosensor reflektierten Laserstrahls verbindet.
-
Eine
vorteilhafte Ausgestaltung der Erfindung sieht vor, dass anstelle
einer Taktung des Videosensors und der Laserdiode der Videosensor
mindestens zwei aus der Richtung des reflektierten Laserstrahls
hintereinander angeordnete, photosensitive Schichten aufweist, wobei
die erste Schicht zur Bilderfassung oder Entfernungsmessung, und
die zweite Schicht zur Entfernungsmessung oder Bilderfassung dient.
-
Eine
vorteilhafte Ausgestaltung der Erfindung sieht vor, dass der Laserstrahl
in einer bestimmten Polarisationsebene reflektiert wird, wobei eine Filterung
zwischen der ersten und der zweiten Schicht durch Polarisation erfolgt.
-
Eine
andere vorteilhafte Ausgestaltung der Erfindung sieht vor, dass
der Laserstrahl eine Wellenlänge
außerhalb
des für
das menschliche Auge sichtbaren Bereichs aufweist, wobei die verschiedenen Schichten
des Videosensors für
unterschiedliche Wellenlängen
photosensitiv sind.
-
Auch
besteht die Möglichkeit,
dass anstelle eines Triangulationsverfahrens eine Laufzeitmessung
zur Entfernungsmessung durchgeführt
wird. Voraussetzung dafür
sind Bildsensoren, welche eine hohe Verarbeitungsgeschwindigkeit
besitzen.
-
Eine
zusätzliche,
vorteilhafte Ausgestaltung der Erfindung sieht vor, dass mehrere
Laserquellen am Meßsystem
angeordnet sind, wobei die Laserquellen phasenverschoben zueinander
getaktet sind, so dass die mit dem Videosensor bestimmbaren Auftreffkoordinaten
den Laserquellen einzeln zuordenbar sind, um so mehrere, beispielsweise
bis zu 10, Entfernungsmessungen gleichzeitig durchführen zu können. Wird
das Signal eines von einem Laserstrahl beleuchteten Pixel als Zeitsignal
im Komplexen analysiert, kann die Phasenverschiebung der Laserbeleuchtung
relativ zu einem willkürlich
gewählten
Bild berechnet werden. Eine genügend
feine Teilung vorausgesetzt, können
damit beliebig viele Laserstrahlen unabhängig voneinander den Gegenstand
beleuchten, womit beliebig viele Raumpunkte auf diesem bestimmbar
sind. Eine Unterscheidung zwischen den durch verschiedene Laser
erzeugten Lichtpunkten auf der Oberfläche des Gegenstandes kann dabei
auch durch andere, aus der Literatur bekannte und gut unterscheidbare
Signalcodierungen erfolgen.
-
Eine
vorteilhafte Ausgestaltung der Erfindung sieht vor, dass anstelle
einer punktuellen Beleuchtung des Gegenstandes eine Streifenlichtprojektion
zur Entfernungsmessung erfolgt, wobei auch mehrere Streifen auf
den Gegenstand projizierbar sein können. Die zuvor beschriebene
Verwendung eines Bandpasses kann auch für die Streifenlichtprojektion
verwendet werden, wenn die normalerweise kontinuierlich leuchtende
Laserquelle durch schnell und getrennt zu schaltende Laserquellen
ersetzt wird. Hierfür
eignen sich beispielsweise Hochleistungsleuchtdioden. Bei der gleichzeitigen
Durchführung
mehrerer Messungen mittels Streifenlichtprojektion erlaubt das erfindungsgemäße Meßsystem
gegenüber
dem Stand der Technik die Verringerung von Mehrdeutigkeiten im Verlauf
der Streifen auf dem Gegenstand, da mittels des Bandpasses prinzipiell
jeder Streifen unabhängig
von den anderen detektiert wird, da jedem von einem Streifen beleuchteten
Pixel eine eigene Phasenverschiebung und damit ein eindeutiger Streifen
zugeordnet werden kann. Eine Unterscheidung zwischen den durch verschiedene
Laser erzeugten Lichtstreifen auf der Oberfläche des Gegenstandes kann dabei
genauso wie bei den Lichtpunkten erfolgen, auch durch aus der Literatur
bekannte und gut unterscheidbare Signalcodierungen.
-
Eine
besonders vorteilhafte Ausgestaltung der Erfindung sieht vor, dass
die Laserquelle eine Laserdiode ist.
-
Kurzbeschreibung
der Zeichnung, in der zeigen:
-
1 eine
schematische Darstellung eines erfindungsgemäßen Meßsystems in der Seitenansicht
und
-
2 eine
schematische Darstellung eines erfindungsgemäßen Meßsystems in der Draufsicht.
-
Wege zur Ausführung der
Erfindung:
-
Ein
in 1 dargestelltes Meßsystem 1 zur dreidimensionalen
Erfassung der Position und oder der räumlichen Ausdehnung mindestens
eines Gegenstandes 2 in einem Raum oder einer Umgebung besteht
im Wesentlichen aus einer einen Videosensor 3 und eine
Linse 4 oder ein Objektiv aufweisenden Kamera 5 zur
zweidimensionalen Bilderfassung, sowie einer einen Laserstrahl 6 emittierenden
Laserquelle 7, insbesondere einer Laserdiode, zur Entfernungsmessung.
Zur Entfernungsmessung wird dabei der von der Laserquelle 7 emittierte
Laserstrahl 6 auf einen ausgezeichneten Punkt 8 auf
dem Gegenstand unter einem in Abhängigkeit von dem Entfernungsbereich
und dem Genauigkeitsbereich, für
den das Meßsystem 1 ausgelegt
ist, veränderbaren
Winkel 9 gegenüber
der von dem Videosensor 3 gebildeten Ebene ausgestrahlt.
Der Laserstrahl 6 wird an dem ausgezeichneten Punkt 8 auf
dem Gegenstand 3 reflektiert, wobei der reflektierte Laserstrahl 10 durch die
Linse 4 oder das Objektiv der Kamera 5 auf den Videosensor 3 trifft.
Der Videosensor 3 ist dabei gemeinsam mit der Laserquelle 7 so
getaktet, dass er während
die Laserquelle 7 ausgeschaltet ist, zur zweidimensionalen
Bilderfassung verwendet wird, und während eingeschalteter Laserquelle 7 zur
Bestimmung der Auftreffkoordinaten xA, yA des reflektierten Laserstrahls 10 auf
dem Videosensor 3 selbst genutzt wird. Die Messbasis 11 des
Meßsystems 1 wird
dabei durch den Abstand des Brennpunkts 12 zu der Laserquelle 7 parallel
zu der von dem Videosensor 3 gebildeten Ebene gebildet.
-
In 2 ist
zu erkennen, dass der Videosensor 3 an seiner Oberfläche eine
Vielzahl von photosensitiven Pixeln 13 aufweist, die in
einem rechtwinkligen Muster 14 angeordnet sind. Dieses
Muster kann aber genauso hexagonale, dreieckige oder andere beliebige
Strukturen aufweisen. Das Muster 14 wird genutzt, um ein
Koordinatensystem 15 festzulegen, welches es erlaubt, anhand
des von dem reflektierten Laserstrahls 10 auf dem Videosensor 3 beleuchteten Pixel 13 oder
von mehreren, je nach Einfallsort unterschiedlich hell beleuchteten
Pixeln 13 den Strahlengang des Laserstrahls 6, 10 zu
berechnen, um so die Entfernung des Gegenstandes 2 oder
des ausgezeichneten Punktes 8 auf dem Gegenstand 2 anhand einer
triangulationsbasierten Rechenmethode zu bestimmen. Eine Justierung
der Laserquelle 7 und der Kamera 5 auf einen bestimmten
Entfernungs- und Auflösungsbereich
lässt sich
für jeden
gewünschten Anwendungsfall
durchführen.
Sind die Laserquelle 7 und die Kamera 5, oder
sofern mehrere Messungen gleichzeitig durchgeführt werden sollen, die Laserquellen 7 und
Kameras 5 aufgebaut, kann der reale Verlauf des Laserstrahls 6, 10 wie
folgt ermittelt werden. Es sind bereits Verfahren bekannt, um die
Position bekannter Gegenstände 2 im
Koordinatensystem 15 einer Kamera 5 zu bestimmen.
Eine Möglichkeit
besteht darin, eine ebene Platte mit einem im von der Kamera 5 erfassten
Bild gut zu detektierenden Muster zu versehen und anhand der bekannten
Geometrie die Lage der Platte im Koordinatensystem 15 der
Kamera 5 zu bestimmen. Die Platte wird unbewegt im Sichtfeld
der Kamera 5 belassen und die Auftreffkoordinaten xA, yA des von dem
reflektierten Laserstrahl 10 beleuchteten Pixels 16 auf
dem Videosensor 3 bestimmt. Durch das beleuchtete Pixel 16 und
den Brennpunkt 12 der Linse 4 oder des Objektivs
kann die Raumposition des von dem Laserstrahl 6 beleuchteten,
ausgezeichneten Punktes 8 auf der Platte berechnet werden.
Werden für
die Laserquelle 7 oder bei der Verwendung von mehreren
Laserquellen 7 für
jede Laserquelle 7 mindestens zwei solche Punkte Bestimmt,
kann in bekannter Weise eine Gerade 17 im Koordinatensystem 15 der
Kamera 5 bestimmt werden, die den Verlauf des Laserstrahls 6, 10 für verschieden
weit entfernte Gegenstände 2 beschreibt.
Die zu der Geraden 17 gehörende Gleichung ist ausreichend,
um die triangulationsbasierte Rechenmethode durchzuführen. Die
Kalibrierung im Falle von Streifenprojektion erfolgt in analoger
Weise zur bekannten Methode aus der Literatur.
-
Die
Erfindung ist insbesondere im Bereich der Anlagen- und Automatisierungstechnik,
sowie im Zusammenhang mit Fahrerassistenzsystemen für Fahrzeuge
gewerblich anwendbar.
-
- 1
- Meßsystem
- 2
- Gegenstand
- 3
- Videosensor
- 4
- Linse
- 5
- Kamera
- 6
- Laserstrahl
- 7
- Laserquelle
- 8
- ausgezeichneter
Punkt
- 9
- Winkel
- 10
- reflektierter
Laserstrahl
- 11
- Messbasis
- 12
- Brennpunkt
- 13
- Pixel
- 14
- Muster
- 15
- Koordinatensystem
- 16
- beleuchtetes
Pixel
- 17
- Basislinie