-
Die Erfindung bezieht sich auf ein Verfahren zur Einstellung einer Prüf- oder Messposition eines optischen oder akustischen Sensors oder Aktors mittels einer Prüfvorrichtung anhand zumindest einer definierten Prüf- und Messaufgabe zur Kontrolle zumindest eines optischen, akustischen und/oder geometrischen Merkmals eines Objektes, wobei die Prüf- oder Messposition durch einen Messpunkt und einen Messvektor bezogen auf einen Oberflächenabschnitt des Objektes definiert ist.
-
Ein Verfahren und eine Vorrichtung der eingangs genannten Art ist beispielsweise aus der
EP 2 216 144 A bekannt. Beschrieben ist ein Verfahren zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung anhand definierter Prüfaufgaben, wobei jedes Bauteil und/oder jede Funktionseinheit mittels eines CAD-Systems erstellt wird und wobei beim Erstellen eines Bauteils und/oder einer Funktionseinheit im CAD-System eine dem Bauteil und/oder der Funktionseinheit zugeordnete Prüfaufgabe definiert wird, wobei jeder Prüfaufgabe Qualitätsmerkmale zugeordnet sind. Die Prüfaufgabe wird in einem virtuellen Raum definiert und aufgrund der Prüfaufgabe wird ein Bewegungsprogramm für die Prüfvorrichtung erstellt. Die Bewegung der Prüfvorrichtung wird in dem der Prüfaufgabe zugeordneten virtuellen Prüffunktionsraum simuliert und anschließend die jedem Bauteil und/oder jeder Funktionseinheit zugeordnete Prüfaufgabe von der Prüfvorrichtung in einem realen Funktionsraum automatisiert durchgeführt. Dabei wird ein Referenzobjekt definiert, wobei Punkte oder Pfade für eine Wiedererkennung des Funktionsraums und damit des zu prüfenden Bauteils in der realen Welt festgelegt werden. Das Referenzobjekt kann z. B. ein Taster oder ein Drehregler eines Bediengerätes eines Fahrzeugs sein. Die Messposition für die Prüfvorrichtung, d. h. einen Roboter, setzt sich aus einem Messpunkt im Koordinatensystem des Funktionsraumes und einem Messvektor zusammen, wobei z. B. der Messvektor die Betätigungsrichtung einer Taste bzw. eines Drehreglers vorgibt.
-
Bei dem bekannten Verfahren ist ein taktiles Antasten erforderlich, so dass die Prüfung taktil unzugänglicher Messpunkte hinsichtlich Geschwindigkeit und Genauigkeit beeinträchtigt ist. Ferner ist zwingend ein CAD-Datenmodell des Objektes erforderlich.
-
Davon ausgehend liegt der vorliegenden Erfindung die Aufgabe zu Grunde, ein Verfahren der eingangs genannten Art derart weiterzubilden, dass die Einstellung der Prüf- oder Messposition vereinfacht wird, so dass insbesondere unzugängliche Merkmale schnell und mit hoher Genauigkeit kontrolliert werden können.
-
Die Aufgabe wird erfindungsgemäß u. a. dadurch gelöst, dass das Objekt durch Anvisieren von Objektpunkten mittels eines von einem Laser-Abstandssensor ausgehenden und auf ein gemeinsames Bezugs-Koordinatensystem kalibrierten Laserstrahls eingemessen und eine den Messpunkt aufweisende Gerade oder Fläche zum Ausrichten des Laserstrahls bestimmt wird, dass der kalibrierte Laserstrahl auf den Messpunkt gerichtet und anhand der definierten Prüf- und Messaufgaben mittels der Prüfvorrichtung bezogen auf die Gerade oder Fläche in Abstand und/oder Richtung zur Definition des Messvektors ausgerichtet wird und dass eine auf das gemeinsame Bezugs-Koordinatensystem kalibrierte optische oder akustische Wirkachse des Sensors oder Aktors in den durch den Laserstrahl (28) definierten Messvektor zur Einstellung der Prüf- oder Messposition verfahren wird.
-
Gegenüber dem Stand der Technik wird der Vorteil erreicht, dass das Objekt optisch mittels des Laser-Abstandssensors angetastet werden kann. Durch Ausrichtung des Laserstrahls betreffend Lage und Orientierung kann gleichzeitig ein Messvektor zur Einstellung der Prüf- und/oder Messposition für die optische oder akustische Wirksachse des Sensors definiert werden. Es wird ein Verfahren zur Einstellung einer Prüf- oder Messposition von berühungslos wirkenden Sensoren oder Aktoren bereitgestellt, welches sich gegenüber dem Stand der Technik durch hohe Genauigkeit und hohe Geschwindigkeit auszeichnet. Auch können unzugängliche Merkmale besonders einfach erfasst werden.
-
Gemäß einer bevorzugten Verfahrensweise ist vorgesehen, dass eine Ebene zur Definition des Flächenabschnittes des Objektes durch Einmessen und Bestimmen von Koordinaten von zumindest deren Objektpunkten bestimmt wird. Bezogen auf diese Ebene kann der Laserstrahl zur Definition des Messvektors ausgerichtet werden. Dabei werden die Objektpunkte so bestimmt, dass das zu prüfende optische, akustische und/oder geometrische Merkmal in der Ebene liegt.
-
Gemäß einer weiteren bevorzugten Verfahrensweise ist vorgesehen, dass die Oberfläche des Objekts zur Definition des Flächenabschnitts mittels des Laserstrahls gescannt wird. Dadurch können optische, akustische und/oder geometrische Merkmale beliebiger Oberflächengeometrien vermessen werden.
-
Alternativ kann der zumindest eine Objektpunkt durch automatisches Verfahren des Laserstrahls eingemessen werden, wobei das zu prüfende Objekt sowie ein durch den Laserstrahl auf dem Objekt projizierter Laserfleck durch den optischen Sensor als Bild erfasst und mit einem Referenzbild, zumindest einem charakteristischen Punkt und/oder einer Abbildungsvorschrift verglichen wird, um den Laserfleck automatisch auf den zumindest einen Objektpunkt zu positionieren. Dabei wird die Position des Laserflecks durch die Prüfvorrichtung so lange ausgeregelt, bis der Laserfleck bzw. das Bild mit dem Referenzbild zur Deckung gebracht wird.
-
Dieses Verfahren zeichnet sich insbesondere dadurch aus, dass Messvorgänge automatisiert werden können.
-
Ein alternatives Verfahren zeichnet sich dadurch aus, dass der zumindest eine Objektpunkt mittels des Laserstrahls durch haptisches Teachen eingemessen wird.
-
In bevorzugter Verfahrensweise wird der Laserstrahl bezogen auf die Gerade oder den Flächenabschnitt in einem definierten Abstand und/oder definierten Winkel vorzugsweise senkrecht ausgerichtet.
-
Der Laserstrahl des Laser-Abstandssensors sowie die Wirkachse insbesondere optische Achse vorzugsweise Mittenachse des als CCD-Kamera ausgebildeten optischen Sensors wird bezogen auf ein Roboter-Koordinatensystem als gemeinsames Bezugskoordinatensystem, insbesondere den Tool-Center-Point einer Roboterhand der als Roboter ausgebildeten Prüfvorrichtung betreffend Richtung und Orientierung kalibriert.
-
Bei Verwendung einer CCD-Kamera als optischer Sensor wird der optische Mittenstrahl als optische Wirkachse in den durch den Laserstrahl definierten Messvektor verfahren.
-
Vorzugsweise wird der optische Mittenstrahl durch Drehen oder Verschwenken des optischen Sensors mittels der Roboterhand in den durch den Laserstrahl definierten Messvektor verfahren.
-
Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen – für sich und/oder in Kombination –, sondern auch aus der nachfolgenden Beschreibung eines der Zeichnung zu entnehmenden bevorzugten Ausführungsbeispiels.
-
Es zeigen:
-
1 eine schematische Darstellung einer Prüfvorrichtung in Form eines Roboters mit Laser-Abstandssensor und optischem Sensor in Form einer CCD-Kamera zur optischen Qualitätskontrolle von Merkmalen eines Objektes,
-
2 eine schematische Darstellung einer Roboterhand des Roboters gemäß 1, wobei ein Laserstrahl des Laser-Abstandssensors auf einen Messpunkt gerichtet ist,
-
3 eine schematische Darstellung der Roboterhand gemäß 3, wobei ein Mittenstrahl der CCD-Kamera auf den Messpunkt ausgerichtet ist,
-
4 eine schematische Darstellung einer Kontur eines optischen Merkmals eines Objektes sowie Darstellungen des Merkmalsbei denen verschiedene Messpunkte durch einen Laserfleck anvisiert werden,
-
5 eine schematische Darstellung eines senkrecht auf einer Freiformfläche ausgerichteten Laserstrahls,
-
6 eine schematische Darstellung einer Anordnung zum Kalibrieren des Laser-Abstandssensors und
-
7 eine schematische Darstellung einer Anordnung zum Kalibrieren der CCD-Kamera.
-
1 zeigt in schematischer Darstellung eine Prüfvorrichtung 10 zur optischen Qualitätskontrolle von Merkmalen 12 eines Objekten 14. Die Merkmale 12 umfassen im Wesentlichen Symbole, Oberflächen, Kanten sowie Farben, deren optische und geometrische Qualität gemessen, analysiert und bewertet werden. Die optische Qualitätskontrolle umfasst beispielsweise das Prüfen der Qualität, der Platzierung und/oder Beleuchtung eines Symbols, das Prüfen von Schalterstellungen vor oder nach Betätigung, das Prüfen der Vollständigkeit von Komponenten, das Messen von Spaltbreiten in einer Ebene sowie die Farbmessung von Such- bzw. Funktionsbeleuchtungen, von Aufdrucken und Markierungen. Im dargestellten Ausführungsbeispiel ist das Merkmal 12 ein auf dem Objekt 14 wie Taster aufgedrucktes Symbol, dessen Qualität, Platzierung und Verdrehung zu überprüfen ist.
-
Die Prüfvorrichtung 10 umfasst einen Roboter 16, der mittels einer Robotersteuerung 18 um 6 Achsen A1, A2, A3, A4, A5, A6 steuerbar ist. Der Roboter 16 umfasst einen Roboterarm 20 mit einer Roboterhand 22, an der ein Laser-Abstandssensor 24 sowie ein optischer Sensor 26 in Form einer CCD-Kamera angeordnet sind.
-
Die 2 und 3 zeigen das Grundprinzip des erfindungsgemäßen Verfahrens, dem die Idee zu Grunde liegt, einen Messpunkt OP1 durch einen von dem Laser-Abstandssensor 24 ausgehenden und auf einen Tool-Center-Point TCP kalibrierten Laserstrahl 28 anzuvisieren und sodann den Laserstrahl 28 durch Verfahren der Roboterhand 22 unter Berücksichtigung von zuvor definierten Prüf- und Messbedingungen betreffend Abstand und Orientierung in eine Prüf- oder Messposition auszurichten, die durch den Messpunkt MP und einen Messvektor MV definiert ist, wobei die Lage des Messvektors durch die Lage des Laserstrahls 28 definiert ist. Anschließend wird die CCD-Kamera 26 durch Verfahren der Roboterhand 22 derart ausgerichtet, dass eine Orientierung eines auf dem Tool-Center-Point TCP der Roboterhand 22 kalibrierten Mittenstrahls 32 der durch den Laserstrahl 28 definierten Orientierung des Messvektors MV entspricht.
-
Bestimmte Prüf- und Messbedingungen verlangen die Senkrechtstellung der optischen Mittenachse bezogen auf das zu prüfende Objekt 12.
-
Hierzu ist es erforderlich, dass mittels des Laserstrahls 28 zumindest drei Objektpunkte OP1, OP2, OP3 des Objektes 12 anvisiert werden. Beispiele für mögliche Objektpunkte OP1...OP3 sind in 4 dargestellt. Durch Anvisieren der Objektpunkte OP1...OP5 durch einen Laserfleck LF des Laserstrahls 28 kann die Position der Objektpunkte OP1...OP5 bezogen auf das Roboter-Koordinatensystem R-KS über die Strahlrichtung und den gemessenen Abstand zwischen Laser-Abstandssensor und Objektpunkt OP1...OP5 bestimmt werden. Durch Bestimmung der Koordinaten von zumindest drei Objektpunkten OP1, OP2, OP3 kann durch die Robotersteuerung 18 eine Ebene berechnet werden, zu der der Laserstrahl 28 senkrecht gestellt werden kann, um den Messvektor zu definieren. Durch Ausrichten der optischen Mittenachse 30 in den durch den Laserstrahl 28 vorgegebenen Messvektor können die Prüf- und Messbedingungen für den optischen Sensor 26 mit hoher Geschwindigkeit und hoher Genauigkeit eingestellt werden.
-
Das Anvisieren der Objektpunkte OP1...OP3 durch den Laserstrahl 28 kann durch Handführung des Roboters 16, d. h. durch haptisches Teachen mittels eines Kraft-Drehmoment-Sensors oder durch automatische Steuerung des Laserstrahls 28 durch den Roboter 16 erfolgen.
-
Beim haptischen Teachen wird der Roboter 16 mittels Betätigen eines Kraft-Drehmoment-Sensors durch einen Benutzer derart verfahren, dass der Laserfleck LF auf einen zuvor definierten Objektpunkt OP1...OP5 ausgerichtet wird. Die Position des Objektpunktes, an der der Laserfleck LF auftrifft, kann in x-, y-, z-Koordinaten des Roboter-Koordinatensystems R-KS berechnet werden.
-
Bei der automatischen Platzierung des Laserflecks LF auf einen der Objektpunkte OP1...OP5 des Merkmals 12 wird die Position des Laserflecks LF sowie des Merkmals 12 mittels der CCD-Kamera 26 erfasst und als Bild einer Bildverarbeitungseinheit der Robotersteuerung 18 verarbeitet. In der Bildverarbeitungseinheit sind Referenzbilder oder charakteristische Eigenschaften wie Punkte, Linien und Abbildungsvorschriften gespeichert. Zum Anvisieren der definierten charakteristischen Objektpunkte OP1...OP5 wird die Position des Laser-Abstandssensors 24 durch Verfahren Messkopfes 22 derart geregelt, bis der Laserfleck LF auf den charakteristischen Objektpunkt OP1...OP5 fällt. Während der Regelung erfolgt ein Vergleich des durch die CCD-Kamera aufgenommenen Bildes mit dem in der Bildverarbeitungseinheit gespeicherten Referenzbildern bzw. Vorschriften. Die Positionierung des Laserstrahls 28 kann durch Translation der Roboterhand 22 erfolgen, d. h. durch Bewegen in einer Ebene senkrecht zum Laserstrahl 28 oder durch Rotation der Roboterhand 22, d. h., durch Drehen des Laserstrahls 28 um einen Sensorursprung. Der Sensorursprung ist durch ein Sensor-Koordinatensystem LS-KS definiert, dessen Versatz auf den Tool-Center-Point der Roboterhand 22 bekannt ist.
-
Ein weiteres Verfahren zum Einmessen des Objektes 14 ist in 5 dargestellt. Dabei wird eine Oberfläche 32 des Objektes 14 mittels des durch den Roboter 16 gesteuerten Laserstrahls 28 gescannt, so dass dessen Koordinaten im Roboter-Koordinatensystem R-KS bekannt sind. Auf die derart bestimmte Freiformfläche 32 kann der Laserstrahl 28 entsprechend zuvor definierter Prüf- und Messbedingungen ausgerichtet werden. In 5 ist eine Senkrechtstellung des Laserstrahls 28 dargestellt. In dem durch den Laserstrahl 28 definierten Messvektor kann sodann der Mittenstrahl 30 des optischen Sensors 26 zur optischen Qualitätskontrolle der Oberfläche 32 ausgerichtet werden.
-
Voraussetzung für die Durchführung des erfindungsgemäßen Verfahrens ist, dass der Laserstrahl 28 des Laser-Abstandssensors 24 bezogen auf den Tool-Center-Point TCP des Roboterhand-Koordinatensystems RH-KS der Roboterhand 22 kalibriert wird. Die Kalibrierung des Laser-Abstandssensors ist in 6 dargestellt. Zur Kalibrierung des Laser-Abstandssensors 24 wird eine Kalibriervorrichtung 34 verwendet. Diese umfasst eine Mattscheibe 36, die entlang einer optischen Achse gegenüber einer Kalibrierkamera 38 angeordnet ist, so dass die Kalibrierkamera einen durch den Laserstrahl auf der Mattscheibe 36 erzeugten Laserfleck LF optisch erfassen kann. In einem ersten Verfahrensschritt wird der Laserstrahl 28 auf die Mattscheibe 36 projiziert, so dass der Laserfleck LF durch die Kalibrierkamera 38 erfasst werden kann. In einer ersten Abstandsposition wird der Laser-Abstandssensor 24 in einer senkrecht zu dem Laserstrahl 28 liegenden Ebene translatorisch verfahren, bis der Laserfleck mit einem Zielpunkt ZP zur Deckung gelangt. Die Zielposition des Roboters in der ersten Abstandsposition wird in der Robotersteuerung gespeichert.
-
In einem zweiten Schritt wird der Laser-Abstandssensor 24 entlang einer Achse 40 in eine zweite Abstandsposition vor- oder zurückgefahren. In dieser zweiten Abstandsposition erfolgt ebenfalls eine translatorische Ausgleichsbewegung des Laser-Abstandssensors in einer senkrecht zu dem Laserstrahl 28 liegenden Ebene, bis der Laserfleck mit einem Zielpunkt ZP zur Deckung gelangt. Die Zielposition des Roboters in dieser Abstandsposition wird ebenfalls gespeichert.
-
Dieser Vorgang wird solange wiederholt, bis der Laserfleck LF beim Verfahren des Laser-Abstandssensors 24 entlang der Achse 40 immer durch denselben Zielpunkt MP verläuft.
-
Die gespeicherten Zielpositionen definieren eine Gerade, durch die Richtung des Laserstrahls 28 bezogen auf das Roboter-Koordinatensystem R-KS bestimmt ist. Sodann erfolgt eine Transformation auf das Roboterhand-Koordinatensystem RK-KS, durch den der Tool-Center-Point TCP bestimmt ist.
-
Zur Kalibrierung der Strahllage des Laserstrahls 28 ist vorgesehen, dass die Roboterhand 20 entlang einer Drehbewegung gemäß Pfeil 42 in Winkelschritten um eine Achse ausgeführt wird. In jeder Winkelposition wird überprüft, ob der Laserfleck LF im Zielpunkt ZP liegt.
-
Fällt der Laserfleck LF nicht mit dem Zielpunkt ZP zusammen, werden Ausgleichsbewegungen in einer senkrecht zum Laserstrahl 28 verlaufenden Ebene ausgeführt, bis der Laserfleck LF in dem Zielpunkt ZP liegt. Die Zielposition wird gespeichert.
-
Sodann wird der Laser-Abstandssensor 24 um einen Winkelschritt weitergedreht und überprüft, ob der Laserfleck LF in den Zielpunkt ZP fällt. Der Vorgang wird sukzessiv weitergeführt, bis der Laserfleck LF trotz Drehung der Roboterhand auf den Zielpunkt ZP fällt. Durch die berechneten und gespeicherten Zielpositionen wird ein Kris gelegt, dessen Orientierung bzw. Lage im Roboter-Koordinatensystem R-KS bestimmt wird. Sodann erfolgt eine 6D-Tansformation in das Roboterhand-Koordinatensystem RM-KS.
-
Nach der Kalibrierung ist eine geometrische 6D-Strahllage des Laserstrahls 28 bezogen auf den Tool-Center-Point TCP bestimmt.
-
4 zeigt rein schematisch ein Verfahren zur Kalibrierung des optischen Sensors 26. Die Kalibrierung des optischen Sensors 26 umfasst die Bestimmung einer Richtung sowie einer geometrischen 6D-Lage des optischen Mittenstrahls 30 des optischen Sensors 26 bezogen auf das Roboterhand-Koordinatensystem RH-KS bzw. den Tool-Center-Point TCP. Bei dem Verfahren wird davon ausgegangen, dass der Mittenstrahl 30 senkrecht auf einer von einer optisch aktiven Fläche des optischen Sensors 26 aufgespannten Ebene steht und diese mittig durchsetzt. Die Ebene ist durch das Sensor-Koordinatensystem OS-KS des optischen Sensors 26 definiert ist.
-
Zur Kalibrierung des optischen Sensors 26 wird ein – bezogen auf das Roboter-Koordinatensystem R-KS – festes Muster 44, beispielsweise eine auf einem Messtisch fixierte Punktmatrix betrachtet. Ein Referenzbild der Punktmatrix ist in der Bildverarbeitungseinheit der Robotersteuerung 18 gespeichert.
-
Der optische Sensor 26 wird – wie in 7 dargestellt – über dem Muster 44 positioniert, so dass durch den optischen Sensor 26 ein Bild des Musters 44 aufgenommen werden kann. Das aufgenommene Bild wird mit dem in der Bildverarbeitungseinheit gespeicherten Referenzbild verglichen. Sodann wird die Roboterhand in einer ersten Abstandsposition zu dem Muster 44 derart angesteuert, dass der optische Sensor 26 in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene translatorisch so verfahren wird, dass das aufgenommene Bild mit dem abgespeicherten Referenzbild zur Deckung gebracht wird. Die Zielposition der Roboterhand 22 wird gespeichert.
-
Anschließend wir der optische Sensor 26 entlang einer Achse gemäß Pfeil 46 verfahren, beispielsweise auf das Muster 44 zu- bzw. von diesem wegbewegt. In einer zweiten Abstandsposition erfolgt wiederum eine translatorische Bewegung des optischen Sensors in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene, bis das aufgenommene Bild mit dem abgespeicherten Bild zur Deckung gebracht wird.
-
Der Vorgang wird wiederholt, wobei eine Vielzahl von Abstandspositionen entlang der Achse 46 angefahren und die Zielpositionen gespeichert werden, in denen das Referenzbild mit dem aufgenommenen Bild zur Deckung gelangt.
-
Durch die bei dem Verfahren berechneten und gespeicherten Zielpunkte wird eine Gerade gelegt, die der Strahlrichtung bzw. dem optischen Mittenstrahl 30 des optischen Sensors 26 – bezogen auf das Roboter-Koordinatensystem BS-KS – entspricht. Mittels einer 6D-Transformation kann dann der Mittenstrahl 30 in das Roboterhand-Koordinatensystem RM-KS transformiert werden.
-
Anschließend kann die Lage bzw. Orientierung der Mittenachse 30 des optischen Sensors 26 kalibriert werden. Bei diesem Verfahren wird das Muster 44 durch den optischen Sensor 26 erfasst und mit einem in der Bildverarbeitungseinheit gespeicherten Referenzbild verglichen. Die Roboterhand wird in einer ersten Winkelposition in einer senkrecht zu dem Mittenstrahl 30 verlaufenden Ebene solange verfahren, bis das aufgenommene Bild mit dem Referenzbild zur Deckung gelangt. Die Zielposition der Roboterhand wird gespeichert.
-
Anschließend wird der optische Sensor 26 in Richtung des Pfeils 48 um die z-Achse der Roboterhand 22 gedreht, beispielsweise um einen Winkelabschnitt von α = 3°. In der zweiten Winkelposition wird eine translatorische Ausgleichsbewegung des optischen Sensors 26 in einer zu dem Mittenstrahl 30 senkrechten Ebene ausgeführt, bis das aufgenommene Bild mit dem Referenzbild zur Deckung gelangt, d. h., das Muster 44 in Bildmitte angeordnet ist.
-
Der Vorgang wird mehrfach durchgeführt, wobei eine Vielzahl von Zielpositionen berechnet und abgespeichert werden.
-
Durch die berechneten Zielpositionen wird ein Kreis definiert, dessen Position in Bezug auf das Roboter-Koordinatensystem R-KS bestimmt und in das Roboterhand-Koordinatensystem RM-KS transformiert wird. Dadurch ist die Orientierung des Mittenstrahls 30 bezogen auf das Roboterhand-Koordinatensystem RM-KS kalibriert.
-
Das erfindungsgemäße Verfahren kann insbesondere zur Messung einer Spaltbreite in einer Ebene eingesetzt werden. Bei diesem Verfahren muss der Mittenstrahl 30 des optischen Sensors 26 parallel zu einer Seitenfläche des Spaltes ausgerichtet werden, um Abschattungen zu vermeiden. Hierzu wird der Laserstrahl 28 durch die Robotersteuerung derart ausgerichtet, dass dieser parallel zu der Seitenfläche des Spaltes verläuft. Anschließend wird der Mittenstrahl 30 des optischen Sensors 26 in den durch den Laserstrahl 28 definierten Messvektor verfahren.
-
Ein weiteres Anwendungsbeispiel ist die Glanzmessung einer Oberfläche eines Objektes, die durch z. B. drei Messungen aus jeweils verschiedenen, z. B. um 120° versetzten Blickrichtungen bestimmt wird.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-