-
Die
vorliegende Erfindung bezieht sich auf ein Positionsbestimmungssystem
zum Bestimmen der Position und/oder auch der Orientierung, bevorzugt
beider dieser Größen, einer
in einem Ortsraum bewegbaren Handhabungseinheit (wie beispielsweise
eines Roboters oder Roboterarms bzw. eines Endglieds desselben)
sowie auf ein entsprechendes Positionsbestimmungsverfahren.
-
Die
Messung der Position von Handhabungseinheiten wie beispielsweise
Robotern, Werkzeugmaschinen, Koordinatenmessmaschinen oder auch
anderen Fertigungssystemen ist aus dem Stand der Technik bereits
bekannt. So werden beispielsweise Lasertriangulationsverfahren,
Laufzeitverfahren, wie LIDAR, oder Laserinterferometer eingesetzt:
Laufzeitverfahren erreichen dabei allerdings nur schwer eine Genauigkeit
von weniger als einigen Millimetern. Messverfahren, die auf einer
Phasenverschiebung des Lichts basieren, erreichen zwar deutlich
höhere
Genauigkeiten, allerdings lediglich für Verschiebungen. Insbesondere
die Lasertriangulation eignet sich lediglich für kleinere Entfernungen. Die meisten
dieser Spezialsysteme sind darüber
hinaus hochpreisig.
-
Andererseits
existieren weitere Möglichkeiten
der Positionsmessung (insbesondere bei Industrierobotern), z. B.
in Form des Anfahrens von Musterwerkstücken, der Verwendung von Ultraschallsensoren,
der Verwendung von Theodoliten oder der Verwendung von Messtastern.
Auch sind Kamerasysteme bekannt, die die Position von Referenzobjekten
erfassen können.
Schließlich
existieren auch mechanische Messverfahren zur Bestimmung der Position über Seilzüge. Diese
Verfahren weisen jedoch, neben teilweise komplexen Aufbauten, nicht ausreichende
Absolutgenauigkeiten auf.
-
Ausgehend
vom Stand der Technik ist es daher die Aufgabe der vorliegenden
Erfindung, ein Positionsbestimmungssystem bzw. ein Positionsbestimmungsverfahren
für bewegbare
Handhabungseinheiten, insbesondere Robotersysteme, zur Verfügung zu
stellen, das mit einem einfachen, günstig zu realisierenden Aufbau
eine hochgenaue und gegenüber Störeinflüssen unempfindliche
Messung der Position einer solchen Handhabungseinheit ermöglicht.
-
Diese
Aufgabe wird durch ein Positionsbestimmungssystem gemäß Anspruch
1 sowie durch ein Positionsbestimmungsverfahren gemäß Anspruch
16 gelöst.
Vorteilhafte Ausführungsformen des
Systems bzw. des Verfahrens lassen sich jeweils den abhängigen Patentansprüchen entnehmen.
Erfindungsgemäße Verwendungen
beschreibt Anspruch 18.
-
Die
vorliegende Erfindung wird nachfolgend zunächst allgemein, dann in Form
mehrerer spezifischer Ausführungsbeispiele
im Detail beschrieben. Die in diesen Ausführungsbeispielen gezeigten,
spezifischen Konfigurationen einzelner Elemente müssen im
Rahmen der vorliegenden Erfindung (deren Schutzumfang durch die
Ansprüche
festgelegt wird) nicht genau in der gezeigten Konfiguration verwirklicht
werden, sondern die vorliegende Erfindung kann auch im Rahmen einer
andersartigen Kombination einzelner Merkmale verwirklicht sein:
Einzelne in den Ausführungsbeispielen
gezeigte Merkmale können daher
auch unabhängig
von anderen dort gezeigten Elemente verwirklicht sein bzw. es können auch
einzelne der dort gezeigten Merkmale weggelassen werden.
-
Nachfolgend
wird unter einer Handhabungseinheit eine technische Vorrichtung
verstanden, die relativ zum Ortsraum beweglich angeordnet ist. Unter dem
Ortsraum wird dabei der dreidimensionale physikalische Raum verstanden,
in der Regel handelt es sich dabei um denjenigen Raum, der durch
ein mit der Erdoberfläche
fest verbundenes Inertialsystem definiert wird. Unter einer relativ
zu diesem Ortsraum bewegbaren Handhabungseinheit wird eine Handhabungseinheit
verstanden, bei der zumindest ein Abschnitt derselben (beispielsweise
ein Endglied oder ähnliches
eines Arms) relativ zu diesem Ortsraum beweglich ist. Es muss also
nicht notwendigerweise die gesamte Handhabungseinheit relativ zu
diesem Ortsraum beweglich sein, sondern ein Teil (z. B. Sockel eines
Roboters) kann ortsfest im Ortsraum angeordnet sein, während ein
anderer Teil der Handhabungseinheit (z. B. Endglied eines Roboterarms
mit dort angebrachtem Greifer) in diesem bzw. relativ zu diesem
Ortsraum beweglich ist.
-
Wird
nachfolgend von einer Position gesprochen, so kann es sich hierbei
sowohl um die absolute Position in einem Raum (beispielsweise: im
Ortsraum) als auch um die relative Position bezüglich eines definierten Raumpunkts
(beispielsweise des Ursprungs eines den Ortsraum beschreibenden
Intertialsystems oder auch eines definierten Punkts einer Oberfläche eines
Sensorelementes) handeln. Aus dem Zusammenhang ergibt sich für den Fachmann jeweils
klar, was im Einzelnen gemeint ist. Die über sechs Koordinaten im Raum
beschriebene Gesamtheit aus Position bzw. Positionierung (drei Dimensionen)
und Orientierung (ebenfalls drei Dimensionen) eines Objektes wird
nachfolgend auch als Pose bezeichnet. Unter einer Position/Positionierung
wird im Rahmen der Erfindung jedoch nicht nur eine dreidimensionale
Ortsangabe verstanden, sondern es kann sich auch um eine lediglich
eindimensionale Ortsangabe bzw. Positionierung eines Objektes entlang
einer vordefinierten Achse handeln (ebenso kann es sich bei der
Orientierung auch lediglich um eine eindimensionale Orientierung
relativ zu einer vordefinierten Achse handeln).
-
Wird
nachfolgend von einer ortsbeständig ausgebildeten
Lichtstruktur gesprochen, so ist hierunter bei einer zeitlich konstanten
bzw. nicht variierenden Lichtstruktur gemeint, dass eine solche
zeitlich konstante Lichtstruktur ortsfest in einem Raum, beispielsweise
dem Ortsraum, angeordnet ist. Bei einer zeitlich variierenden Lichtstruktur
wird unter einer ortsbeständigen
Struktur verstanden, dass die zeitlich variierende Lichtstruktur
in bestimmten zeitlichen Abständen
(vorzugsweise: in periodischen Abständen) nicht nur dieselbe Form,
sondern auch (in einem definierten Raum, beispielsweise dem Ortsraum,
gesehen) eben diese Form an ein und derselben Position erneut einnimmt.
Eine solche bezüglich
des Ortsraumes ortsbeständige,
aber zeitlich variierende Lichtstruktur kann beispielsweise durch
einen ortsfest im Ortsraum angeordneten, periodisch ausgelenkten
Spiegel mit Hilfe eines auf den Spiegel eingestrahlten Laserstrahls
realisiert werden.
-
Ein
erfindungsgemäßes Positionsbestimmungssystem
zum Bestimmen der Position und/oder der Orientierung weist eine
zumindest abschnittsweise relativ zum Ortsraum bewegbare Handhabungseinheit
auf: Zumindest ein Abschnitt der Handhabungseinheit, insbesondere
ein Endglied einer solchen Einheit, ist damit relativ zum Ortsraum
beweglich, in der Regel in sechs Freiheitsgraden (drei Freiheitsgraden
der Position, drei Freiheitsgraden der Orientierung). Das Positionsbestimmungssystem umfasst
weiterhin mindestens eine Lichtquelle, mit der mindestens eine räumlich strukturierte
und/oder zeitlich variierende Lichtstruktur ausgebildet werden kann.
Bevorzugt handelt es sich dabei um eine lediglich räumlich strukturierte
Lichtstruktur.
-
Darüber hinaus
umfasst das Positionsbestimmungssystem eine mindestens einen Sensor umfassende
Sensoranordnung, wobei die Sensoranordnung zum Erfassen der Position
und/oder der Orientierung eines definierten Teilabschnitts (beispielsweise
eines einzelnen Lichtstrahls oder auch eines vordefinierten Musterabschnitts)
der mindestens einen Lichtstruktur relativ zu einem definierten
Element (beispielsweise einem Oberflächenpunkt) der Sensoranordnung
und/oder eines Sensors derselben und/oder relativ zu der Orientierung
dieses Elements ausgebildet ist. In einer bevor zugten Variante werden mit
dem/den Sensor(en) bzw. der Sensoranordnung Positionen solcher definierten
Teilabschnitte der Lichtstrukturen relativ zu Oberflächenpunkten
der Sensoren erfasst.
-
Schließlich umfasst
das erfindungsgemäße Positionsbestimmungssystem
eine Berechnungseinheit (beispielsweise einen PC), die mit der Lichterzeugungsanordnung
und/oder der Sensoranordnung verbunden ist, und mit der auf Basis
der für
den bzw. die Teilabschnitt(e) erfassten Position(en) und/oder Orientierung(en)
die momentane Position und/oder die momentane Orientierung, bevorzugt
die momentane Position und die momentane Orientierung, des relativ
zum Ortsraum beweglichen Abschnitts der Handhabungseinheit im Ortsraum
berechnet werden kann.
-
Um
diese Berechnung zu ermöglichen,
ist im beschriebenen Aufbau entweder die Sensoranordnung (d. h.
deren Sensorelemente) relativ zu dem bewegbaren Abschnitt ortsfest
angeordnet (beispielsweise ist die Sensoranordnung an diesem bewegbaren
Abschnitt unbeweglich fixiert), und die Lichterzeugungsanordnung
ist so ausgebildet und/oder angeordnet, dass die Lichtstruktur(en)
im Ortsraum ortsbeständig
ausgebildet werden können
(in der Regel heißt
dies, dass die die Lichtstruktur(en) erzeugende(n) Lichtquelle(n)
ortsfest im Ortsraum angeordnet ist/sind). Oder, in einer anderen
Variante, es kann die Lichterzeugungsanordnung so ausgebildet und/oder
angeordnet sein (beispielsweise indem diese am bewegbaren Abschnitt
unbeweglich fixiert wird), dass die Lichtstruktur(en) relativ zum
bewegbaren Abschnitt ortsbeständig
ausgebildet werden können
(d. h. z. B. dass die Lichtquellen am bewegbaren Abschnitt fixiert
werden und somit die Lichtstrukturen in einem fest mit dem bewegbaren Abschnitt
ver bundenen Koordinatensystem gesehen ortsfest angeordnet sind),
und es kann die Sensoranordnung im Ortsraum ortsfest angeordnet
sein.
-
In
einer bevorzugten Ausgestaltungsvariante weist die Lichterzeugungsanordnung
zwei (oder auch mehr) relativ zueinander ortsfest angeordnete Lichtquellen
auf, mit denen zwei (oder mehr) räumlich unterschiedlich strukturierte,
unterschiedlich angeordnete und/oder zeitlich variierende Lichtstrukturen
ausgebildet werden können.
Mit der Sensoranordnung (die dann auch zwei relativ zueinander ortsfest
angeordnete Sensoren umfassen kann), wird dann für diese beiden (oder mehr)
Lichtstrukturen jeweils die Position und/oder die Orientierung eines
definierten Teilabschnitts (beispielsweise eines Einzelstrahls)
der jeweiligen Lichtstruktur relativ zu einem definierten Element
(beispielsweise: Oberflächenpunkt)
der Sensoranordnung und/oder auch des jeweils zugeordneten Sensors
und/oder zu der Orientierung dieses Elements bzw. dieser Elemente
erfasst.
-
Mit
der Berechnungseinheit können
dann auf Basis der für
die mindestens zwei Teilabschnitte erfassten Positionen und/oder
Orientierungen die gesuchte momentane Position und/oder momentane Orientierung
(bevorzugt: beide Größen) des
bewegbaren Abschnitts berechnet werden. Dabei ist entweder wieder
die Sensoranordnung relativ zum bewegbaren Abschnitt ortsfest angeordnet
und die Lichtstrukturen sind im Ortsraum ortsbeständig ausgebildet,
oder alternativ die Lichtstrukturen relativ zum bewegten Abschnitt
ortsbeständig
ausgebildet, und die Sensoranordnung im Ortsraum ortsfest angeordnet.
-
Wie
nachfolgend noch im Detail beschrieben wird, kann mit einer auf
diese Art und Weise mit zwei Lichtquellen zur Erzeugung von zwei
Lichtstrukturen versehenen Lichterzeugungsanordnung und einer mit
zwei Sensoren zur Detektion jeweils einer dieser Lichtstrukturen
(bzw. genauer: eines entsprechenden Teilabschnitts) ausgebildeten
Sensoranordnung die Position des bewegbaren Abschnitts der Handhabungseinheit
im Ortsraum in drei Dimensionen berechnet werden.
-
Sieht
man stattdessen drei solcher Lichtquellenpaar-Sensorpaar-Kombinationen vor, d. h.
insgesamt sechs unterschiedlich orientierte Lichtquellen und sechs
zugehörige
Nachweissensoren, so ist es mit der vorliegenden Erfindung möglich, sowohl
die Position des bewegbaren Abschnitts im Ortsraum in drei Dimensionen,
als auch die Orientierung dieses Abschnitts im Ortsraum in drei
Dimensionen, also die Pose des Abschnitts im Ortsraum, zu berechnen.
-
Bei
einem zu erfassenden Teilabschnitt einer Lichtstruktur kann es sich
um einen einzelnen Lichtstrahl (insbesondere Laserstrahl) in einem,
beispielsweise mit Hilfe eines Beugungsgitters erzeugten, definierten
Feld von einzelnen Lichtstrahlen handeln. Alternativ dazu kann aber
auch ein Projektor zur Erzeugung eines Projektionsmusters eingesetzt
werden, wobei das Projektionsmuster eine Vielzahl von eindeutigen,
benachbart zueinander angeordneten und sich nicht wiederholenden
Musterabschnitten (beispielsweise einer Penrose-Parkettierung) aufweist.
Durch Detektion eines definierten Musterabschnitts kann somit im
letzteren Fall eindeutig auf eine spezifische Position innerhalb
der Lichtstruktur geschlossen werden.
-
In
einer bevorzugten Variante weist die Lichterzeugungsanordnung zwei
bezüglich
ihres Abstrahlwinkels (also z. B. der Hauptstrahlachse bei einem
Laser) relativ zueinander unter einem Winkel von 90° ausgerichtete
Lichtquellen auf. Bei den Sensoren der Sensoranordnung kann es sich
um Zeilensensoren oder flächige
Sensoren, insbesondere um entsprechende CCD-Arrays handeln. Bevorzugt stehen die
einzelnen Sensoren dabei senkrecht aufeinander.
-
Bei
einem erfindungsgemäßen Positionsbestimmungssystem
kann somit eine Lichtquelle zeitlich und/oder geometrisch strukturiertes
Licht aussenden, wobei diese Lichtquelle ortsfest angeordnet ist.
An der beweglichen bzw. zu verfolgenden Kinematik (also an dem bewegten
Abschnitt der Handhabungseinheit) ist dann die Sensoranordnung angebracht,
beispielsweise ein oder mehrere CCD-Flächensensor(en), der/die das
strukturierte Licht aufnimmt/aufnehmen und daraus ermittelt/ermitteln,
wie der entsprechend erfasste Teilabschnitt des strukturierten Lichts
relativ zum jeweiligen Sensor angeordnet ist.
-
Dabei
kann beispielsweise die Position des erfassten Lichtabschnitts relativ
zum Sensor (bzw. einem Oberflächenpunkt
desselben) mit Hilfe eines Winkels im Lichtkegel der Lichtquelle
relativ zur Mittelachse des entsprechenden Lichtkegels und gegebenenfalls
auch auf Basis eines Abstandes im Lichtkegel (bzw. einer Lage auf
der Mittelachse) bestimmt werden.
-
Bei
Verwendung einer einzelnen Lichtquelle und eines einzelnen Sensors
ist so z. B. die Bestimmung einer eindimensionalen Position (entlang
der vorbeschriebenen Mittelachse) möglich. Durch Verwendung mehrerer
Lichtquellen und mehrerer Sensoren wird, wie nachfol gend noch im
Detail beschrieben wird, die Messung der dreidimensionalen Position,
der dreidimensionalen Orientierung und/oder auch der Pose (also
beider Größen) möglich. Wesentlich
ist dabei eine zweistufige Auswertung: Die Lichtquelle gibt (sofern
sie ortsfest im Ortsraum angeordnet ist) eine statische Ortsreferenz,
der Sensor ist in der Lage, sich auf einem Ausschnitt dieser Ortreferenz
hochgenau einzumessen.
-
Das
Messsystem kann insbesondere die folgenden Komponenten umfassen:
- • Mindestens
eine Lichtquelle zur Projektion eines zeitlich und/oder geometrisch
strukturierten Lichtmusters bzw. einer entsprechenden Lichtstruktur (hierbei
kann z. B. ein Projektor mit einer eindeutigen Mustererzeugung eingesetzt
werden, ein Laser mit einer Beugungsgittermatrix zur Erzeugung eines
eine Vielzahl einzelner Laserstrahlen umfassenden Lichtkegels oder
auch, zur Erzeugung einer zeitlich variierenden Lichtstruktur, ein Laser
in Kombination mit einem oszillierenden Spiegel, wobei über eine
Scanner-Einheit eine feste Bewegungsfolge eingestellt wird).
Mindestens
einen Sensor zur Positionsermittlung und/oder Orientierungsermittlung
durch Detektion eines entsprechenden Teilabschnitts der Lichtstruktur
(hierbei kann es sich beispielsweise um einen CCD-Chip mit einem
zweidimensionalen Pixelarray (Matrix) handeln; auch andere Sensorprinzipien,
beispielsweise CMOS-basierte Sensorprinzipien, sind möglich).
- • Eine
Auswerteeinheit bzw. eine Berechnungseinheit zur Berechnung der
zu ermittelnden Position und/oder Orientierung aus den erfassten Sensordaten.
- • Optional
gegebenenfalls auch eine Schutzeinrichtung zur Abschirmung beispielsweise
von Fremdlicht, Staub, Spänen,
Schmierflüssigkeiten usw.
-
Bei
der konkreten Umsetzung sind dann diverse Ausprägungen möglich, wie beispielsweise:
- • Eine
Verwendung von ortsfesten Lichtquellen und ortsflexiblen (relativ
zum bewegbaren Handhabungsabschnitt ortsfesten) Sensoren oder auch
umgekehrt (ortsfeste Sensoren und ortsflexible Lichtquellen).
- • Eine
Verwendung von ein bis sechs Lichtquelle-Sensor-Einheiten, um die gewünschten
Informationen in
einer Dimension bis hin zur vollständigen Pose (sechs
Dimensionen) zu erhalten.
- • Neben
den dergestalt notwendigen Lichtquellen bzw. Sensoren bzw. Lichtquelle-Sensor-Einheiten können auch
weitere Lichtquelle-Sensor-Einheiten (oder auch gegebenenfalls lediglich
weitere Sensoren oder lediglich weitere Lichtquellen) zur Erfassung
von Teilabschnitten von Lichtstrukturen eingesetzt werden (redundante
Elemente), um beispielsweise Abschattungen zu vermeiden und/oder
um die Messgenauigkeit zu erhöhen.
- • Zur
Auswertung der erfassten Sensordaten können verschiedenartige Algorithmen
eingesetzt werden; beispielsweise auch eine Interpolation über die
Sensor-Pixel, um eine höhere
Auflösung zu
erhalten.
- • Eine
Kalibration der projizierten Lichtmuster und ein steuerungstechnischer
Ausgleich von aufgenommenen Fehlern ist möglich.
- • Zur
Erzeugung des Lichtmusters mit einem Projektor kann beispielsweise
vor einen solchen Projektor eine Blende (Musterfilter) mit einem
Penrose- Parkett-Muster
eingesetzt werden.
-
Die
vorliegende Erfindung, die (beispielsweise stationär) ein Referenzmuster
zur Verfügung
stellt und einen Sensor, der eine Feinlokalisierung auf diesem Referenzmuster
vornimmt, weist im Vergleich zu den aus dem Stand der Technik bekannten
Positionsbestimmungssystemen bzw. -verfahren eine Reihe wesentlicher
Vorteile auf:
- • Der Aufbau der vorliegenden
Erfindung lässt sich
mit Standard-Komponenten realisieren: Lichtquelle(n), CCD-Chip(s)
und Microcontroller. Hochpreisige Spezialkomponenten, wie etwa Interferometer,
spezielle Lichtquellen oder hochgenaue Encoder sind nicht notwendig.
- • Die
vorliegende Erfindung verzichtet auf (abgesehen von den beweglichen
Teilen der Handhabungseinheit) auf bewegliche Teile. Das Sensorsystem
besteht aus rein statischen Komponenten, wodurch sich hohe Genauigkeiten
der Positionsbestimmung erzielen lassen.
- • Die
Genauigkeit wird wesentlich von der Auflösung des Sensorelementes (CCD-Kamera)
und der zur Auswertung verwendeten Algorithmik bestimmt. Die vorliegende
Erfindung profitiert daher von aktuellen Entwicklungen in der Kameratechnik,
die immer höhere
Auflösungen
zu immer geringeren Kosten erlauben.
- • Die
vorliegende Erfindung ermöglicht
somit eine sehr kostengünstige
und dennoch hochgenaue Realisierung einer Positionsbestimmung im
Vergleich zu den existierenden Verfahren.
- • Die
vorliegende Erfindung kann für
unterschiedliche Anwendungen in der Robotik und dem allgemeinen
Werkzeugmaschinenbau eingesetzt werden: Beispielsweise zur Positionsmessung
von Robotern und Werk zeugmaschinen oder für Kalibrierungen derselben.
Die Positionsbestimmung kann dabei in Echtzeit erfolgen (beispielsweise sind
somit verschiedenste Messaufgaben möglich). Auch kann die Erfindung
bei der Bearbeitung durch Industrieroboter eingesetzt werden. Die
Kalibration ist im Rahmen der Erfindung ebenso möglich wie der Ausgleich von
Positionsfehlern oder die Online-Vermessung.
- • Zudem
kann die vorliegende Erfindung auch im Bereich anderer Bearbeitungs-,
Montage- und Handhabungseinrichtungen eingesetzt werden.
-
Nachfolgend
wird die vorliegende Erfindung anhand von Ausführungsbeispielen näher beschrieben.
Dabei zeigen:
-
1 zwei
Ausführungsvarianten
für erfindungsgemäße Positionsbestimmungssysteme
auf Basis eines Lasers mit im Strahlengang des Lasers angeordnetem
Beugungsgitter (1a) und auf Basis
eines ein Penrose-Muster erzeugenden Projektors (1b),
und
-
2 ein
Beispiel für
ein erfindungsgemäßes Positionsbestimmungssystem
zur Bestimmung der dreidimensionalen Position des Endglieds eines Roboterarms
im Ortsraum.
-
3 ein
weiteres Beispiel für
ein erfindungsgemäßes Positionsbestimmungssystem.
-
1a) zeigt einen ersten Aufbau einer einzelnen
Lichtquellen-Sensor-Kombination, wie sie im Rahmen der vorliegenden
Erfindung eingesetzt werden kann: Ein im Ortsraum O ortsfest angeordneter und
ausgerichteter Laser 2 weist in seinem Strahlengang (La serstrahl 2') ein optisches
Beugungsgitter 8 auf. Durch das optische Beugungsgitter
wird der einzelne Laserstrahl 2' in eine Vielzahl einzelner, gebeugter
Laserstrahlen aufgeteilt, die zusammen ein kegelförmiges Lichtmuster
bzw. eine kegelförmige, aus
einer Vielzahl von einzelnen Laserteilstrahlen 5 aufgebaute
Lichtstruktur 3 ausbilden.
-
Am
Endglied 1a des Roboterarms 1 (vgl. 2,
beide Elemente sind hier nicht gezeigt) ist hier ein einzelner Sensor
(CCD-Flächensensor) 4 einer Sensoranordnung
unbeweglich fixiert. Durch eine Bewegung des Endglieds 1a des
Roboterarms 1 wird somit (eine geeignete Ausrichtung und
Anordnung des Lasers 2, der Lichtstruktur 3 und
des Sensors 4 relativ zueinander vorausgesetzt), der Sensor 4 relativ
zum Ortsraum O bzw. im Ortsraum O durch die (aufgrund der Vielzahl
vorhandener Einzelstrahlen) räumlich
strukturierte Lichtstruktur 3 bewegt.
-
Bei
ausreichender Flächengröße des CCD-Arrays 4 trifft,
unabhängig
von der momentanen Position des Sensors 4 im Ortsraum O,
immer mindestens ein einzelner Teilabschnitt 5 der Lichtstruktur 3 (also
ein Einzelstrahl 5 der Lichtstruktur 3) auf die sensitive
Fläche
des Sensors 4. In der Regel treffen mehrere einzelne Laserstrahlen 5 auf
diese Sensorfläche.
-
Durch
eine geeignete, dem Fachmann bekannte Ausbildung des Roboterarms 1 mit
seinem Endglied 1a ist nun die Position des Endglieds 1a (bzw.
des Sensors 4) im Ortsraum O näherungsweise, d. h. beispielsweise
mit einer Genauigkeit von ca. 1 bis 2 mm bekannt. Erfindungsgemäß wird das
Ziel, diese Position mit einer hohen Genauigkeit von beispielsweise
100 μm zu
bestimmen, nun wie folgt gelöst:
Aufgrund der unge fähr
bekannten Position des Endglieds 1a innerhalb der Lichtstruktur 3 ist
bekannt (bzw. kann berechnet werden), welcher der gebeugten Laserstrahlen 5 der
Lichtstruktur 3 bzw. welcher Laserstrahl 5 aus
der durch das Beugungsgitter 8 erzeugten Laserstrahlmatrix 3 auf
den Sensor 4 auftrifft. Gesucht ist somit die exakte Position
des Auftreffpunktes dieses Laserstrahls 5. Um diese exakte Position
(und somit die absolute Lage des Endglieds 1a im Raum O
mit hoher Genauigkeit) zu berechnen, wird die Position des auftreffenden
Laserstrahls 5 relativ zu einem definierten Element bzw.
Oberflächenpunkt 6 des
Sensors 4 (hier: die im Bild gezeigte linke untere Ecke 6 der
sensitiven Sensorfläche 4)
bestimmt. Dies kann durch Feststellen derjenigen Pixelposition im
CCD-Array 4 geschehen, die eine maximale Signalintensität aufgrund
des einfallenden Laserspots 5 aufweist.
-
Da
durch eine geeignete Vorab-Kalibrierung bzw. durch ein Vermessen
der (ortsfesten) Lichtstruktur 3 hinsichtlich der genauen
Lage der einzelnen Laserstrahlen 5 die Lage aller Laserstrahlen
im Raum exakt bekannt ist, ist somit über den (exakt bestimmbaren)
Einfallspunkt des Laserstrahls auf der Sensorfläche 4 der genaue Schnittpunkt
des vorgenannten, spezifischen Laserstrahls 5 mit der Sensorfläche 4 bekannt.
Da auch die relative Position des Sensors 4 bezüglich des
Endglieds 1a des Roboterarms 1 bekannt ist, ist
somit durch Auswertung der Auftreffposition des Laserstrahls 5 auf
der Sensorfläche 4 die Winkelposition
des Sensors 4 relativ zur Mittelachse der Matrix (bzw.
zur Hauptstrahlrichtung 2')
bekannt.
-
Durch
Verwendung zweier solcher Lichtquellen-Sensor-Einheiten (vgl. 2) lässt sich
dann auch die Entfernung (in dieser Winkelrichtung) vom optischen Gitter 8,
also die genaue dreidimensionale Raumposition im Ortsraum O berechnen.
-
1b) zeigt eine alternative Lichtquellen-Sensor-Kombination, die
im Rahmen des erfindungsgemäßen Positionsbestimmungssystems
eingesetzt werden kann. Der Aufbau und die Funktionsweise dieser
Kombination sind grundsätzlich
entsprechend der in 1a) gezeigten
Kombination, so dass nachfolgend nur die Unterschiede beschrieben werden.
-
Anstelle
eines Lasers 2 als Lichtquelle verwendet die Konfiguration
aus 1b) einen Projektor 2,
in dessen Strahlengang anstelle eines optischen Beugungsgitters
ein optischer Transmissionsfilter 8 mit einem Penrose-Parkettierungs-Muster
angeordnet ist. Ein solcher Filter kann einfach durch eine nichttransparente
Platte, in der Öffnungen
in Form des Penrose-Musters ausgebildet sind, realisiert werden.
-
In
der so erzeugten räumlichen
Lichtstruktur 3 lässt
sich durch Erfassung und Identifikation eines auf die Sensorfläche 4 auftreffenden,
eindeutigen Teilabschnitts bzw. Musterabschnitts 5 des
Penrose-Musters und durch Lokalisierung von dessen Position auf
der Sensoroberfläche 4 (bzw.
von der Position des Teilabschnitts 5 relativ zum vordefinierten Element 6 der
Sensorfläche,
also beispielsweise wie gezeigt des linken, unteren Ecks 6 der
sensitiven Sensorfläche)
wiederum die Winkelposition des Sensors 4 relativ zur Mittelachse
(Zentralstrahlachse des Projektorstrahlkegels) bestimmen.
-
Durch
Vorsehen zweier solcher Lichtquelle-Sensor-Einheiten ist dann wiederum die dreidimensionale
Raumposition im Ortsraum O berechenbar.
-
Im
in 1b) gezeigten Fall wird somit ein eindeutiges,
sich nicht wiederholendes Muster in den Messbereich projiziert.
Der Sensor 4 nimmt einen Teilabschnitt bzw. Teil 5 dieses
Musters auf seiner Sensorfläche
auf, der ausreicht, die absolute Position des Sensors in der Gesamtstruktur 3 und
somit im Ortsraum O zu ermitteln. Mit einer Lichtquellen-Sensor-Einheit
wird ebenfalls die Winkelposition relativ zur Hauptachse bzw. die
Auslenkung zur Hauptachse ermittelt. Durch zwei oder mehrere solcher
Lichtquellen-Sensor-Kombinationen
kann die dreidimensionale Position des Endglieds 1a im
Ortsraum O oder sogar die Pose dieses Endglieds mit hoher Genauigkeit
berechnet werden.
-
2 zeigt
ein erfindungsgemäßes Positionsbestimmungssystem
zum Bestimmen der dreidimensionalen Position des Endglieds 1a eines
Roboterarms 1 im Ortsraum O. Hierbei werden Projektoren wie
die in 1b) gezeigten, zum Erzeugen
von räumlich
strukturierten Lichtstrukturen bzw. Lichtmustern eingesetzt.
-
Eine
erste Projektor-Sensor-Einheit weist einen ersten Projektor 2a und
in dessen Strahlengang angeordnet einen eine Penrose-Musterstruktur
tragenden Transmissionsfilter 8a auf. Eine zweite Projektor-Sensor-Kombination
weist einen zweiten Projektor 2b samt in dessen Strahlengang
angeordnetem, ein weiteres Penrose-Parkettierungsmuster tragenden
Filter 8b auf. Die Strukturierung der Filter 8a und 8b kann
dabei identisch sein, es können
jedoch auch unterschiedliche Penrose-Parkettierungsmuster realisiert
werden.
-
Dem
ersten Projektor 2a samt dessen Filter 8a ist
ein erster CCD-Flächensensor 4a zugeordnet, dem
zweiten Projektor 2b und dessen Filter 8b ein zweiter
CCD-Flächensensor 4b.
Die sensitiven Flächen
der beiden Flächensensoren
sind (entsprechend zweier aneinander angrenzender Oberflächen eines
Würfels)
senkrecht zueinander angeordnet; beide Sensoren 4a, 4b sind
an dem beweglichen Endglied 1a des Roboterarms 1 fixiert,
werden also entsprechend der Bewegung dieses Endglieds 1a im Ortsraum
O mitbewegt. Die Ausrichtung der ersten Projektor-Filter-Einheit 2a, 8a und
der zweiten Projektor-Filter-Einheit 2b, 8b im
Ortsraum ist dergestalt, dass ihre Hauptstrahlrichtungen (Hauptstrahlachsen der
beiden Projektoren) sich unter einem Winkel von 90° kreuzen
(die Projektor-Filter-Einheiten
sind ortsfest, also unbeweglich im Ortsraum O angeordnet).
-
Wird
nun die aus den beiden Sensoren 4a und 4b bestehende
Sensoranordnung 4 durch Bewegung des Endglieds 1a im
Feld der beiden Lichtstrukturen 3a und 3b, die
durch die beiden Projektor-Filter-Einheiten 2a, 8a und 2b, 8b ortsfest
im Ortsraum O erzeugt werden, bewegt, so kann analog des im Rahmen
der Beschreibung von 1 beschriebenen Vorgehens in
der durch die Elemente 2a, 8a erzeugten ersten
Lichtstruktur 3a die Position eines ersten Teilabschnitts 5a (Musterabschnitt
der Parkettierung) relativ zu einem ersten definierten Element 6a des ersten
Sensors 4a (Eckpunkt der Sensorfläche des ersten Sensors 4a)
bestimmt werden. Ebenso kann die Position eines zweiten Teilabschnitts 5b der
durch die Elemente 2b, 8b erzeugten zweiten Lichtstruktur 3b relativ
zu einem definierten Element 6b des zweiten Sensors 4b (Eckpunkt
der Sensorfläche
des zweiten Sensors 4b) bestimmt werden. Die Bestimmung
dieser beiden relativen Positionen geschieht dabei durch Auswertung
der vom jeweiligen Teilabschnitt 5a, 5b getroffenen
Pixelposi tion des jeweiligen CCD-Arrays 4a, 4b sowie
durch Identifikation (ggf. auch basierend auf der bekannten Grobposition des
Endglieds 1a, diese ist hier jedoch wegen der Eineindeutigkeit
des Musters nicht zwingend zu bestimmen) des jeweils auftreffenden
eineindeutigen Musterabschnitts bzw. Teilabschnitts der jeweiligen Lichtstruktur 3a, 3b.
-
Durch
Kombination der beiden gezeigten Lichtquellen-Sensor-Einheiten ist nicht nur die Winkelposition
eines einzelnen Sensors (bzw. des Endglieds 1a) im Feld
einer Lichtstruktur bestimmbar, sondern es kann die dreidimensionale
Position im Ortsraum O mit hoher Genauigkeit bestimmt werden.
-
Die
Berechnung dieser Position erfolgt mit Hilfe einer mit der Sensoranordnung 4 bzw. 4a, 4b (über die
Kabelverbindung 7a) und den Lichtquellen 2a, 2b verbundenen
(diese Verbindung ist nicht gezeigt) Berechnungseinheit 7 in
Form eines PC. Wie nachfolgend noch näher beschrieben, weist diese Berechnungseinheit 7 im
vorliegenden Fall auch eine Kalibrierungseinheit 9 auf.
-
Nachfolgend
wird die Berechnung der dreidimensionalen Position im Ortsraum O
anhand der erfassten Messwerte beispielhaft und im Detail beschrieben.
Die Berechnung wird für
den Fall zweier Lichtquellen mit Beugungsgittern und zweier CCD-Kameras
bzw. Kameramodule beschrieben; die Berechnung für den Fall der Projektoren
mit Transmissionsgittern erfolgt analog.
-
Die
Berechnung der 3D-Position in dem Aufbau mit zwei senkrecht zueinander
und zu den Lichtquellen lotrechten Kameramodulen (erstes Modul blickt
in X-Richtung, zweites Modul in Y-Richtung) sieht wie folgt aus:
- • Vorbedingungen:
– Kalibration
Laserstrahlen: Von jedem Laserstrahl des Beugungsmusters ist sein
Raumvektor bekannt, etwa über
die hochgenaue Vermessung von zwei Punkten des Strahls mit einem
Laser Tracker.
– Kalibration
Kameramodul: Die Abbildungseigenschaften des Kameramoduls müssen bekannt sein,
etwa Vergößerungsfaktor,
Kisseneffekt, optische Fehler, ...
- • Eingangsdaten:
– Dem Auswertealgorithmus
sind die Strahlen, die auf die Kameramodule auftreffen bekannt.
Der Algorithmus trägt
diese Information mit sich, da er einen Wechsel der Strahlen verfolgt
und hinterlegt.
– Kamerabilder
der beiden Kameramodule mit jeweils mindestens einem (dem bekannten)
Strahlabbild.
- • Auswertung:
– Berechnung
des Strahlmittelpunktes in Pixelkoordinaten für beide Kameramodule: Ein Bereich um
das Strahlabbild wird untersucht. Dabei wird jeder Pixel, dessen
Rotwert über
einem Schwellwert liegt, als dem Strahl zugehörig betrachtet. Der Strahlmittelpunkt
in Pixeln ergibt sich aus dem der Addition der Produkte des Pixelwertes mit
dem Rotwert für
alle zugehörigen
Pixel geteilt durch die Summe der Rotwerte. Ergebnis dieses Schrittes
sind die Strahlmittelpunkte in Pixel-Koordinaten für beide Kameramodule.
– Berechnung
der Strahlmittelpunkte in Millimeter: Aus der Kalibrierung ergibt
sich die Übertragungsformel
des Pixelwertes in einen metrischen Wert. Als einfachste Variante
ist hier der Pixelwert mit der Höhe
und Breite eines physikalischen Pixels in μm zu multiplizieren. Vorzugsweise
werden fehlerinduzierende Abbildungseffekte, wie Kisseneffekte,
kompensiert. Ergebnis dieses Schrittes sind die Strahlmittelpunkte
in Millimeter für
beide Kameramodule.
– Iterative
Berechnung der 3D-Position: Aus der Kenntnis der Strahlpositionen
auf den Kameras und der Raumposition der Strahlen lässt sich
iterativ die absolute Position des Sensormoduls ermitteln:
– Iterationsstart:
Berechne die sich aus dem ersten Kameramodul ergebende Absolutposition
mit Hilfe des X-Wertes der letzen ermittelten Absolutposition als
Startwert. Dazu wird der Schnittpunkt des verfolgten Laserstrahls
mit der YZ-Ebene des letzten X-Wertes berechnet. Die YZ-Koordinaten des
Kameramoduls werden auf diese Strahlposition addiert.
– Iteration:
Berechne die Absolutposition abwechselnd wie oben für das zweite
und das erste Kameramodul. Das zweite Kameramodul greift dabei auf
den berechneten Y-Wert des ersten Kameramoduls zurück, das
erste Kameramodul auf den berechneten X-Wert des zweiten Kameramoduls.
– Iterationsabbruch:
Sobald die Änderung
der Absolutposition in den Iteration kleiner eps ist, wird die Iteration
abgebrochen.
- • Ausgangsdaten:
Aktuelle 3D-Position
-
2 zeigt
somit ein erfindungsgemäßes Positionsbestimmungssystem
auf Basis eines Industrieroboters mit zwei Projektoren mit vorgeschalteten Musterfiltern
und mit zwei CCD-Sensoren, die am Roboterarm-Endglied 1a fixiert sind, und
auf Basis von sich überschneidenden
Projektionskegeln der beiden Lichtquelle-Sensor-Anordnungen. Die
beiden Projektor-Sensor-Einheiten
ermitteln jeweils die Abweichung von ihren Mittelachsen, durch die
vorbeschriebene Berechnung ergibt sich dann die Raumposition des
Endglieds 1a.
-
Die
beiden Sendeeinheiten 2a, 8a und 2b, 8b sind
dabei im 90°-Winkel
zueinander angeordnet, die Sensoranordnung 4 mit den beiden
Sensoren 4a, 4b ist am Endglied 1a des
Roboters befestigt. Erfindungsgemäßes Ziel ist es, die hochgenaue
3D-Position des Roboters bzw. seines Endglieds im Ortsraum zu ermitteln.
Im vorliegenden Fall ist angenommen, dass der Roboter 1 bzw.
das Endglied 1a (und somit die Sensoranordnung 4)
ausschließlich
seine Position bzw. Lage, nicht jedoch seine Orientierung im Ortsraum
O ändert.
Durch Vorsehen weiterer Lichtquelle-Sensor-Einheiten, insbesondere
beim Vorsehen von insgesamt sechs Lichtquelle-Sensor-Einheiten 2a, 8a, 4a bis 2f, 8f, 4f (nicht
gezeigt) ist es dann möglich,
auch für
Roboter, die sowohl ihre Position, als auch ihre Orientierung im
Ortsraum ändern,
die 3D-Position ebenso wie die 3D-Orientierung hochgenau zu berechnen.).
-
Folgende
Schritte führen
zur gesuchten Position:
- 1. Das gezeigte Messsystem
kennt die grobe Position des Endglieds 1a, diese hat beispielsweise eine
Ungenauigkeit im Bereich von 1 bis 2 mm. Es ist somit bekannt, welcher
Teilabschnitt bzw. Mus terabschnitt 5 (oder welcher Laserstrahl 5)
aus der Matrix 3 eines Senders auf den zugehörigen Sensor 4 auftrifft.
Die exakte Position ist allerdings noch nicht bekannt.
- 2. Für
jeden einzelnen Sensor wird dann der exakte Einfallpunkt des Teilabschnitts
der zugehörigen
Lichtstruktur auf der Sensoroberfläche bestimmt (z. B. Bestimmung
der Pixelposition auftreffender Maximalintensitäten). Damit ist jeweils der
genaue Schnittpunkt der aus Schritt 1 bekannten Strahlen
durch den jeweiligen Sensor bekannt.
- 3. Da die Lage der Strahlen im Raum (durch geeignete Vorab-Kalibrierung)
exakt vermessen bzw. bekannt ist, kann aus den Strahllagen und Schnittpunkten
die Lage in einer gedachten Ebene senkrecht zum Mittelstrahl des
jeweiligen Senders berechnet werden.
- 4. Durch Kombination der Messergebnisse von mehreren Sensoren
ergibt sich somit (im in 2 gezeigten Fall) die dreidimensionale
Raumposition bzw., bei Einsatz von mehr als zwei Lichtquelle-Sensor-Kombinationen,
die Pose des Endglieds 1a.
-
Schritt 1 kann
alternativ auch so durchgeführt
werden, dass das Messsystem an definierten Positionen (etwa zentriert
auf den Mittelstrahlen) startet: Die einzelnen Sensoren verfolgen
dann eigenständig,
welche Strahlen sich jeweils gerade auf den einzelnen Sensoroberflächen befinden.
Bewegt sich dabei eine Sensorfläche
bzw. ein Sensor von einem Strahl bzw. einem Musterabschnitt zum
nächsten
Strahl bzw. Musterabschnitt, so lässt sich der entsprechende Über gang
(durch die vorab bekannte Lage der einzelnen Strahlen bzw. Musterabschnitte) festhalten
bzw. entsprechend auswerten. Die Schritte 2 bis 4 erfolgen dann
analog der vorangehenden Beschreibung.
-
Die
Einmessung eines einzelnen Sensors 4 auf den entsprechenden
Musterabschnitt bzw. die statische Ortsreferenz 5 kann
dabei wie folgt erfolgen:
- • Bei einem eineindeutigen Muster
(1b) ist kein Einmessen erforderlich:
Der Ausschnitt, der vom Sensor wahrgenommen wird, reicht aus, um die
exakte Winkelstellung zu ermitteln (also den vom Sender ausgehenden
Strahlabschnitt, der durch den Sensorbezugspunkt 6 bzw.
den Sensormittelpunkt führt).
Die Position auf diesem Strahl (Entfernung vom Sender) wäre beim
Einsatz nur eines Sensors lediglich beispielsweise über die
Größe des Musterabschnitts
zu ermitteln, dies ist jedoch nicht genau genug, so dass wie vorbeschrieben
mehrere Lichtquelle-Sensor-Einheiten zum Einsatz kommen.
- • Bei
einem Laser-Matrix-Muster (1a) sind
die einzelnen Strahlen 5 so nahe beieinander, dass der
jeweils benachbarte Strahl schon auf einem Sensorfeld auftrifft,
wenn der aktuell erfasste Laserstrahl aus diesem Sensorfeld (durch
Bewegung des Sensors bzw. Endglieds 1a) aus dem Feld „hinausläuft”. Wenn
der zugehörige
Sensor somit an einer definierten Stelle startet, kann er sich von
einem Strahl zum nächsten
hangeln, um so ständig
die globale Position zu ermitteln.
- • Wenn
der Sensor an einer Kinematik bzw. an einem Endglied 1a angebracht
ist, die/das eine ausreichende Genauigkeit aufweist (ca. 1 bis 2
mm), reicht diese Ausgangsposition, um die auf dem Sensor auftreffenden
Strahlen bzw. Musterabschnitte zu identifizieren. Auf Basis dieser
erfassten Strahlen bzw. Musterabschnitte kann dann die vorbeschriebene
Feinpositionsbestimmung erfolgen.
- • Das
Sensorsystem weiß somit
in der Regel anhand seiner Vorab-Kalibrierung, wie viele Laserstrahlen
bzw. Musterabschnitte wo im Ortsraum strahlen bzw. stehen.
-
Die
wesentlichen Komponenten des in 2 gezeigten
Aufbaus zur Messung der dreidimensionalen Position auf Basis einer
Matrixposition sind somit:
- • Die beiden Sendeinheiten bestehend
aus je einer Lichtquelle (Projektor, oder auch z. B. 635 nm-Diodenlaser) und
einer Mustererzeugungseinheit (Penrose-Filterelement oder auch Beugungsgitter),
die aus dem Projektorstrahl bzw. dem Laserstrahl eine Matrix von
Musterabschnitten bzw. Einzelstrahlen erzeugt.
- • Die
beiden Sensoreinheiten bestehend aus je einer CCD-Kamera. Der Projektionsstrahl
bzw. der Laserstrahl trifft entweder ohne eine zusätzliche Optik
direkt auf den Sensor oder über
eine matte Scheibe oder Folie auf die sensitive Kamerafläche. Im
letzteren Fall ist kein Umgebungslicht, sondern nur das gewünschte Laserstrahllicht
bzw. Musterlicht sichtbar. Je nach geforderter Echtzeitdynamik können Kameras
mit Bildwiederholraten von 15 bis 1000 Hz oder auch höher integriert werden.
- • Sog. „region
of interest”-Ansätze (ROI-Ansätze) können die
Leistung des Systems weiter steigern.
- • Die
beiden Kameras sind im vorliegenden Fall im 90°-Winkel zueinander angeordnet
und an der zu vermessenden Kinematik fixiert.
- • Eine
Berechnungseinheit bzw. eine Auswerteeinheit, etwa in Form eines
Rechnersystems (PC). Die hierfür
notwendigen Schnittstellen zur Datenübertragung sind dem Fachmann
bekannt.
- • Die
Sender (Lichtquelle-Strahlformungs-Einheiten) und die Empfänger (Sensoren)
sind gegeneinander vermessen bzw. vorab kalibriert. Die entsprechenden
Kalibrierwerte können
dann bei den Rechenmodellen für
die Berechnung der gesuchten Position und/oder Orientierung aus
den erfassten Messwerten integriert werden. Die Kalibrierung wird
nachfolgend noch näher
beschrieben.
-
Im
in 2 gezeigten Ausführungsbeispiel sind alle einzelnen
Sensoren der Sensoranordnung gegeneinander eingemessen (Kalibrierung
der einzelnen Sensoren untereinander) und im Rechenmodell zur Berechnung
der gesuchten Position und/oder Orientierung hinterlegt.
-
Wie
bereits vorbeschrieben, kann, durch Verwendung von mehr als zwei
einzelnen Sensoren (in 2 nicht gezeigt) eine Messung
der 6D-Pose, also der 3D-Position
und der 3D-Orientierung durchgeführt
werden: Wenn z. B. drei der in 2 gezeigten
Sensorköpfe
(bestehend aus den beiden orthogonal zueinander angeordneten Sensoren 4a und 4b)
mit je zwei Sensoren verwendet werden, so kann daraus die gesuchte
Pose ermittelt werden (siehe hierzu 3).
-
Wesentliche
Aspekte eines solchen Aufbaus können
somit sein (vgl. 3):
- • Ermittlung
der 3D-Position durch zwei Lichtquellen und zwei Sensoren. Die Lichtquellen
sind ortsfest, die Sensoren zueinander fix, aber beweglich auf der
Handhabungseinheit. Diese bewegt die Sensoren nur translatorisch,
so dass sie immer im selben Winkel von den Lichtquellen bestrahlt
werden. Die Lichtquellen sind vorteilhafterweise senkrecht zueinander
angeordnet, die Sensoren lotrecht dazu.
- • Ermittlung
der 6D-Pose durch 2 Lichtquellen wie oben und drei Sensorpaare.
Jedes der Sensorpaare ist wie oben zueinander fix und ermittelt
die eigene 3D-Position im Raum. Durch die 3 Sensorpaare ergeben
sich 3 3D-Raumpositionen, die sich in eine 6D-Pose, also Position
und Orientierung, umrechnen lassen. Es werden aber nur zwei Lichtquellen
benötigt.
- • Ermittlung
der 6D-Pose durch drei Lichtquellen und drei Sensoren. Die drei
Lichtquellen sind alle senkrecht zueinander angeordnet, so dass
sie aus der Richtung der Koordinatenachsen strahlen. Die Sensoren
sind ebenfalls alle senkrecht zueinander angeordnet, untereinander
fix. Wenn durch die Dimensionierung des Aufbaus zugesichert ist,
dass immer mindestens zwei Strahlen von jedem Sensor verfolgt werden,
so kann der einzelne Sensor den Winkel der verbindenden Gerade ermitteln
und somit in Kombination die 6D-Pose errechnet werden.
-
Es
können
aber auch weitere (redundante) Sensoren bzw. Sensorköpfe zur
Umgehung von Abschattungen (die beispielsweise durch Teile des Roboterarms 1 verursacht
werden können)
verwendet werden.
-
Die
Systemkalibration (beispielsweise zum steuerungstechnischen Ausgleich
aufgenommener Fehler) kann wie folgt durchgeführt werden:
- • Kalibrierung
der einzelnen Sensoren (CCD-Kameras): Hier erfolgt in der Regel
eine Kalibration der einzelnen Messwerte zur einfallenden Musterposition.
Die Kalibration kann erfolgen, indem ein Merkmal des Musters (z.
B. ein definierter Musterabschnitt oder ein definierter Laserstrahl) über den
zugehörigen
Sensor geführt
wird. Es wird somit festgestellt, wo sich der Laserstrahl befindet (Ortsposition
in μm),
wenn der Sensor eine bestimmte Position in Pixeln meldet (z. B.
durch Be stimmung des Intensitätsmaximums
des einfallenden Laserstrahls); es wird festgestellt, welche Verzerrungen
die eingesetzten Elemente besitzen usw.
- • Kalibration
der Lichtquellen und Strahlformungseinheiten: Hier wird festgestellt
und abgespeichert, unter welchen Winkeln die Teilabschnitte der
Lichtstrukturen (Einzelstrahlen oder Musterabschnitte) gesendet
werden, welche Intensitäten dann
erfasst werden usw. Die Kalibration erfolgt durch das Abtasten der
gesendeten Lichtstruktur mit einem Sensor, der entweder hochgenau
verfolgt (getrackt) wird, etwa durch einen Lasertracker, oder hochgenau
bewegt wird, etwa durch ein hinreichend bekanntes Positioniersystem.
- • Kalibration
der Gesamtanlage: Hier erfolgt eine Kalibration der einzelnen Lichtquellen
und Sensoren zueinander. Die Kalibration erfolgt nach Einrichtung
des Systemaufbaus durch die Bewegung des Sensormoduls im Messraum,
wobei diese Bewegung hochgenau getrackt wird (Lasertracker).
-
Vorteilhafterweise
wird eine mechanische Abschirmung und/oder eine Drucklufteinrichtung
(z. B. sog. Cross-Jet-Drucklufteinrichtung)
im Rahmen des erfindungsgemäßen Aufbaus
verwendet (in 2 nicht gezeigt): Solche Abschirmungen und/oder
Drucklufteinrichtungen dienen als Schutzeinrichtung zur Abschirmung
von Fremdlicht, von die Positionserfassung störenden Partikeln, wie Staub, Bearbeitungsspäne, etc.
Diese Einrichtungen sind dabei so zu integrieren, dass der Arbeitsraum
(Bewegungsraum des Endglieds 1a) nicht eingegrenzt wird. Vorteilhafterweise
ist das Messsystem baulich vom Prozessraum zu trennen, so dass keine
Späne, Schmiernebel
usw. die Messung stören.
Z. B. kann eine verwendete Spindel nach vorne arbeiten, die Sensoren
können
nach hinten arbeiten. Dann ist eine Trennung z. B. einfach durch
eine Schutzfolie möglich.
-
Zudem
kann mit dem beschriebenen Positionsbestimmungssystem eine Subpixel-Genauigkeit erreicht
werden, indem die Intensität
bei der Berechnung genutzt wird.
-
Hiermit
lässt sich
(bei einer typischen Seitenlänge
eines Einzelpixels eines Sensors von 5 bis 15 μm) eine Genauigkeit von < 2 μm erreichen.
-
Die
vorbeschriebenen Ausführungsbeispiele zeigen
die räumliche
Strukturierung der Lichtstruktur 3. Im Rahmen der vorliegenden
Erfindung ist es jedoch auch möglich
(insbesondere auch zusätzlich
zu einer solchen räumlichen
Strukturierung) eine zeitliche Variation der Lichtstruktur auszubilden:
Hierzu kann beispielsweise ein mit Hilfe einer geeigneten Ablenkvorrichtung
(z. B. Galvano-Scanner) zyklisch abgelenkter Laserstrahl eingesetzt
werden. Ein solcher zyklisch abgelenkter Laserstrahl erzeugt ein
geometrisches Muster, also ein räumlich
strukturiertes Muster, das zusätzlich
auch zeitlich variiert bzw. definiert ist.
-
Solche
zusätzlichen
Zeitinformationen ermöglichen
in der Regel eine einfachere Lokalisierung, sofern die Sensoren
und die Lichtquellen synchronisiert sind. Eine solche zeitliche
Strukturierung erfordert in der Regel jedoch Komponenten, die teurer
sind als die rein zur räumlichen
Strukturierung notwendigen Komponenten. Zusätzlich werden durch die zeitliche
Strukturierung gegebenenfalls Ungenauigkeiten in das System eingetragen
(etwa durch dynamische Ablenkeinheiten), die gegebenenfalls durch
zusätzliche
Maßnahmen
ausgeglichen werden müssen.