DE102018115620A1 - Messsystem - Google Patents

Messsystem Download PDF

Info

Publication number
DE102018115620A1
DE102018115620A1 DE102018115620.0A DE102018115620A DE102018115620A1 DE 102018115620 A1 DE102018115620 A1 DE 102018115620A1 DE 102018115620 A DE102018115620 A DE 102018115620A DE 102018115620 A1 DE102018115620 A1 DE 102018115620A1
Authority
DE
Germany
Prior art keywords
optical sensor
measuring system
reference objects
optical
evaluation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018115620.0A
Other languages
English (en)
Inventor
Nils Haverkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102018115620.0A priority Critical patent/DE102018115620A1/de
Publication of DE102018115620A1 publication Critical patent/DE102018115620A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Messsystem (10), mit einem optischen Sensor (20), und einer Auswerteeinheit (48), wobei der optische Sensor (20) dazu eingerichtet ist, eine Vielzahl von Referenzobjekten (36, 38, 40, 60), deren Position im Raum (16) bekannt ist, zu erfassen, wobei die Auswerteeinheit (48) dazu eingerichtet ist, zwei der Vielzahl von Referenzobjekten (36, 38, 40, 60) zu selektieren, deren Standlinien (42, 44, 46) zueinander einen Winkel aufweisen, dessen Differenz von 90° minimal ist, wobei die jeweilige Standlinie (42, 44, 46) eine Verbindungslinie zwischen dem jeweiligen Referenzobjekt 36, 38, 40, 60) und dem optischen Sensor (20) ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, die Position des optischen Sensors (20) anhand der zwei selektierten Referenzobjekte zu bestimmen.

Description

  • Die vorliegende Erfindung betrifft ein Messsystem zum dimensionellen Messen eines Objekts. Vorzugsweise ist ein solches Messsystem als Koordinatenmessgerät realisiert.
  • Messsysteme zum dimensionellen Messen eines Objekts sind in einer Vielzahl bereits aus dem Stand der Technik bekannt. In der dimensionellen Messtechnik werden unterschiedlichste Messverfahren eingesetzt, um Objekte jeglicher Art in ihrer Geometrie und ihren Ausmaßen zu vermessen. Als besonders vorteilhaft erscheinen optische Messgeräte, um beispielsweise Positionsfehler von Robotern zu erfassen und diese anschließend zu korrigieren, wobei bei diesen rein optischen Messsystemen bereits Genauigkeiten von einzelnen Mikrokubikmetern in einem Kubikmeter realisierbar sind.
  • Aus der US 5,083,073 A ist ein Verfahren und eine Vorrichtung zum Kalibrieren eines sichtgesteuerten Roboters bekannt.
  • Insbesondere für Messanwendungen mit sehr hohen Präzisionsanforderungen, werden meist Koordinatenmessgeräte verwendet. In derartigen Koordinatenmessgeräten können verschiedene Arten von Sensoren zur Anwendung kommen, um die Koordinaten des zu vermessenden Objekts zu erfassen. Beispielsweise sind messende Sensoren bekannt, wie sie von der Anmelderin unter der Produktbezeichnung „VAST XT“ oder „VAST XXT“ vertrieben werden. Hier wird die Oberfläche des zu vermessenden Werkstücks mit einem Taststift abgetastet, dessen Koordinaten im Raum ständig bekannt sind. Ein derartiger Taststift kann bspw. entlang der Oberfläche eines Werkstücks bewegt werden, so dass in einem solchen Messvorgang im Rahmen eines sog. „Scanning-Verfahrens“ eine Vielzahl von Messpunkten in festgelegten zeitlichen Abständen erfasst werden kann.
  • Darüber hinaus ist es bekannt, optische Sensoren einzusetzen, die ein berührungsloses Erfassen der Koordinaten des Messobjekts ermöglichen. Ein Beispiel für einen derartigen optischen Sensor ist der unter der Produktbezeichnung „ViScan“ von der Anmelderin vertriebene optische Sensor.
  • Wird in diesen Systemen lediglich ein einzelner optischer Sensor eingesetzt, kann typischerweise nur ein begrenzter Feldwinkelbereich wahrgenommen werden (in einer Größenordnung von ca. 2x45° relativ zu der optischen Achse des optischen Sensors). Zudem stellen die verwendeten Chips zum Abbilden des erfassten Lichtes sowie die physikalische Begrenzung der minimalen Brennweite (des maximalen Feldwinkels) limitierende Größen dar. Die Abbildungsqualitäten und Abbildungseigenschaften können durch die Verwendung einer Optik bzw. eines optischen Elements für verschiedene Anwendungsfälle optimiert werden, wobei die Optik aufgrund sehr aufwändiger und teurer Fertigungsverfahren oftmals einen ökonomisch limitierenden Faktor darstellt. Zudem steigt mit einer Verringerung der Brennweite, d.h. mit einer Erhöhung des Feldwinkels, der Platzbedarf für das optische Messsystem.
  • Daher werden für die Erfassung von größeren Feldwinkeln zumeist Messsysteme mit mehreren optischen Sensoren (z.B. mit einer Vielzahl von Kameras) verwendet. Die Erfassung der Koordinaten eines Messobjekts erfolgt dann über die Vielzahl der optischen Sensoren, wobei jeder einzelne Sensor nur einen begrenzten Feldwinkelbereich abbildet. Über vorab kalibrierte und somit bekannte Relativpositionen zwischen den optischen Sensoren kann aus den einzelnen Feldwinkelbereichen ein Gesamtbereich rekonstruiert werden, in dem die Pose (Position und Lage) des zu vermessenden Objekts eindeutig ermittelt werden kann.
  • Die Synchronisation und Kalibrierung der n-Kameras untereinander ist jedoch sehr aufwändig und teuer, da bspw. ein Regel- und Kalibriersystem sehr aufwändig gestaltet werden muss. Zudem ist für die Auswertung der Bilddaten der n-Kameras eine große Rechenleistung notwendig und führt ebenfalls zu hohen Kosten und zu einem hohen Platzbedarf.
  • Des Weiteren gibt es eine Vielzahl von Koordinatenmessgeräten, welche sowohl taktile als auch optische Sensoren einsetzen. Diese Art von Koordinatenmessgerät wird auch als Multi-Sensor-Koordinatenmessgerät bezeichnet.
  • In Koordinatenmessgeräten wird im Allgemeinen aufwendiger Maschinenbau betrieben, um beim dimensionellen Messen den sog. Tool-Center-Point des verwendeten Sensors bzw. der verwendeten Sensoren mit den Maßverkörperungen in der Maschine zu verknüpfen. Die Maschine benötigt diese Maßverkörperungen bei der Vermessung von Bauteilen, um eine räumliche Beziehung zwischen den Messpositionen herzustellen, an denen im Zuge eines Messplanes die einzelnen Antastungen erfolgen. Die Maßverkörperungen werden sozusagen als Orientierungshilfe benötigt, damit die Maschine die Position und Lage des Sensors von der des zu vermessenden Objekt unterscheiden kann.
  • Die Maßverkörperungen sind in Koordinatenmessgeräten im Allgemeinen als Linearmaßstäbe und/oder Drehwinkelsensoren ausgestaltet, bezüglich derer die Maschine die Verlagerung misst, die notwendig ist, um den Sensor bzw. die Sensoren an unterschiedliche Stellen relativ zu dem zu vermessenden Objekt zu bringen.
  • Die Mechanik und die Maßverkörperungen sind regelmäßig, sorgfältig und damit teuer ausgeführt. Der Grund hierfür ist, dass sich die jeweiligen Maßverkörperungen zwangsweise nicht nah an dem Tool-Center-Point, sondern üblicherweise am Rand des Messvolumens und von dem Tool-Center-Point aus betrachtet jenseits der Mechanik zur Einführung des jeweils benötigten Ortsverlagerungsfreiheitsgrades befinden. Würde diese Kette günstig, d.h. mechanisch nicht absolut exakt oder sogar „klapprig“ ausgeführt, wäre kein zuverlässiger Anschluss an die Maßverkörperungen und damit keine genaue Vermessung der Objekte möglich. Diese Problematik trifft generell alle Messmaschinen mit Sensoren, deren Messbereich kleiner ist als das gewünschte Messvolumen bzw. die Größe des zu vermessenden Objekts.
  • In einer Vielzahl von Koordinatenmessgeräten unterschiedlichster Bauart kommen beispielsweise bewegliche Objektträger zum Einsatz, mit Hilfe derer das zu vermessende Objekt entlang einer, zweier oder dreier Achsen relativ zu dem Messsensor verfahren wird, um die Vielzahl von Antastungen, welche in dem Prüfplan festgelegt sind, vorzunehmen. Die Verfahrmechaniken dieser Objektträger müssen dann extrem genaue Positionierungen des zu vermessenden Objekts ermöglichen, wobei die jeweilige Position dauerhaft hochpräzise nachvollziehbar sein muss, da ansonsten die Position und Lage des Objekts relativ zu dem messenden Sensor unbekannt ist. Es ist einfach nachvollziehbar, dass derartige Verfahrmechaniken, wie sie auch an anderer Stelle in Koordinatenmessgeräten zum Einsatz kommen, beispielsweise zur Positionsänderung des Messsensors, sehr aufwendig und damit teuer sind.
  • Demgegenüber besteht jedoch dauerhaft das Bestreben, Kosten in der Produktion derartiger Koordinatenmessgeräte einsparen zu können. Dies darf jedoch nicht zu Lasten der Messgenauigkeit gehen.
  • Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Messsystem zum dimensionellen Messen eines Objekts bereitzustellen, welches auf kostengünstigere Art und Weise ausgeführt sein kann, mit dem sich jedoch dennoch hohe Messgenauigkeiten realisieren lassen. Dabei ist es insbesondere eine Aufgabe der vorliegenden Erfindung, auf teure Maßverkörperungen, Mechaniken und Antriebe verzichten zu können.
  • Erfindungsgemäß wird die Aufgabe durch ein Messsystem der oben genannten Art gelöst, das einen optischen Sensor und eine Auswerteeinheit aufweist, wobei der optische Sensor dazu eingerichtet ist, eine Vielzahl von Referenzobjekten, deren Position im Raum bekannt ist, zu erfassen, wobei die Auswerteeinheit ferner dazu eingerichtet ist, zwei der Vielzahl von Referenzobjekten zu selektieren, deren Standlinien zueinander einen Winkel aufweisen, dessen Differenz von 90° minimal ist, wobei die jeweilige Standlinie eine Verbindungslinie zwischen dem jeweiligen Referenzobjekt und dem optischen Sensor ist, und wobei die Auswerteeinheit dazu eingerichtet ist, die Position des optischen Sensors anhand der zwei selektierten Referenzobjekte zu bestimmen.
  • Das erfindungsgemäße Prinzip basiert im weitesten Sinne auf einem aus der Schifffahrt bekannten Verfahren, der sogenannten Kreuzpeilung zur Bestimmung der Position eines Schiffes. Dieses Prinzip wird gemäß der vorliegenden Erfindung dafür verwendet, die Position des optischen Sensors zu bestimmen. Wenn der optische Sensor im Bereich des Tool-Center-Points eines Messsytems angeordnet ist oder mit einem weiteren Sensor, der zur Vermessung eines Werkstückes eingesetzt wird, verbunden ist, kann in einem solchen Fall gänzlich auf Maßverkörperungen verzichtet werden, da die Position des Tool-Center-Points und/oder des messenden Sensors anhand der zu bestimmenden Position des optischen Sensors ermittelbar ist. Die Möglichkeit eines Verzichts auf Maßverkörperungen in einem Messystem bietet ein deutliches Kosteneinsparungspotenzial.
  • Ein weiterer Vorteil des erfindungsgemäßen Messsystems ist, dass mit dem optischen Sensor aus der Perspektive desselben, dessen exakte Position im Raum anhand von zwei der Vielzahl von Referenzobjekten ermittelt werden kann. Dabei sucht die Auswerteeinheit nach zwei der Vielzahl von Referenzobjekten, deren Standlinien sich unter einem Winkel schneiden, der vorzugsweise orthogonal ist. Je ähnlicher der sich zwischen den beiden Standlinien ergebende Winkel einem 90°-Winkel ist (d.h. je kleiner die Differenz von 90° und dem Schnittwinkel der beiden Standlinien ist), desto genauer bzw. präziser wird die Positionsbestimmung des optischen Sensors. Dies folgt wiederum aus dem Prinzip der aus der Schifffahrt bekannten Kreuzpeilung, wobei für eine ausreichende Genauigkeit der Positionsbestimmung insbesondere schleifende Schnitte (Standlinien mit kleinen Schnittwinkeln zueinander) vermieden werden sollten.
  • Die Selektion der zwei Referenzobjekte kann beispielsweise durch ein fächerartiges Abscannen des umliegenden Raumes erfolgen. Vorzugsweise sucht die Auswerteeinheit beispielsweise ausgehend von einem Feldwinkel von 2x70° (gemessen zu der optischen Achse des optischen Sensors) nach zwei der Vielzahl von Referenzobjekten und scannt den Raum bei kontinuierlicher Verringerung des Feldwinkelbereichs (beispielsweise bis auf 2×30°) solange nach Referenzobjekten ab, bis zwei der Vielzahl von Referenzobjekten ermittelt werden, deren Standlinien sich unter einem Winkel (vorzugsweise 90°) schneiden, dessen Differenz von 90° minimal ist bzw. einen Schwellwert dieser Differenz unterschreitet. Beispielsweise kann die Auswerteeinheit in einem Fall zwei Referenzobjekte, deren Standlinien sich unter einem Winkel von 80° schneiden, selektieren, oder in einem anderen Fall zwei andere Referenzobjekte selektieren, deren Standlinien sich unter einem Winkel von 100° schneiden, da in dem jeweiligen Fall die beiden selektierten Referenzobjekte in Bezug auf die nicht-selektieren Referenzobjekte einen jeweiligen Schnittwinkel ihrer Standlinien aufweisen, dessen Differenz von 90° minimal ist (d.h. in dem genannten Beispielfall 10° ist).
  • In einem anderen Fall kann die Auswerteeinheit dazu eingerichtet sein, zunächst jegliche Referenzobjekte im Raum zu identifizieren, anschließend deren Standlinien zu bestimmen, um danach die zwei Referenzobjekte zu selektieren, deren Standlinien sich unter einem Winkel schneiden dessen Differenz von 90° im Vergleich zu den Schnittwinkeln aller anderen Standlinien-Paare minimal ist. Diese Art der Auswertung ist im Zweifel genauer, aber im Vergleich zu dem vorab erwähnten Abscannen des Raumes aufwändiger, da zu allen der Vielzahl von Referenzobjekten die Schnittwinkel der jeweiligen Standlinien zu ermitteln sind. Bei einem Abscannen des Raumes kann hingegen der Selektionsvorgang bei Überschreitung (von bspw. 70°, 75° oder 80°) oder Unterschreitung (von bspw. 120°, 115° oder 110°) des Schnittwinkels zwischen zwei Standlinien vorzeitig abgebrochen werden, da dann davon auszugehen ist, dass die Positionsbestimmung des optischen Sensors ausreichend exakt erfolgen kann.
  • Der optische Sensor kann beispielsweise an einem Tool-Center-Point angebracht sein und ausgehend von diesem die Vielzahl von Referenzobjekten erfassen, wobei der optische Sensor vorzugsweise über ein oder mehrere Kabel oder kabellos mit der Auswerteeinheit verbunden ist.
  • Der Hauptunterschied zu bekannten optischen Messsystemen ist hierbei, dass die Lokalisierung eines Objektes (in diesem Fall des optischen Sensors) nicht, wie im Stand der Technik üblich, durch viele Beobachter (optische Sensoren) erfolgt, die in einem Raum um das zu vermessende Objekt angeordnet sind, sondern dass das Vermessen des Objektes ausgehend von der Perspektive des Objektes anhand eines optischen Sensors erfolgt, der die Vielzahl von Referenzobjekten in seiner Umgebung erfasst, die in unterschiedlichen Raumrichtungen um das zu vermessende Objekt in einer bekannten Position angeordnet sind.
  • Durch die erfindungsgemäße Erfassung der Referenzobjekte im Raum mithilfe des optischen Sensors besteht gerade im Vergleich zu den einleitend erwähnten n-Kamerasystemen keine Notwendigkeit mehr, dass einzelne Kameras eine Winkelstabilität zueinander aufweisen. D.h., es werden nur noch ortsfeste Referenzobjekte benötigt, wobei diese Referenzobjekte bzw. Punkte per Definition keine Winkelinformationen, sondern lediglich Ortsinformationen beinhalten müssen. Entsprechend einfach kann die Ausgestaltung (bspw. die Struktur) der Referenzobjekte realisiert werden, wodurch ebenfalls die Bildverarbeitung durch die Auswerteeinheit beschleunigt werden kann.
  • Ein weiterer Vorteil dieser Methode ist, dass das entstehende Gleichungssystem im Vergleich zu einem Gleichungssystem, das bei der Verwendung eines n-Kamerasystems entsteht, wesentlich vereinfacht ist, da zum einen die Auswertung nicht mehr iterativ (d.h., über eine Abglich von Soll-Bildaufnahmen mit Ist-Bildaufnahmen) erfolgen muss, sondern lediglich die Lösung eines analytisch berechenbaren Gleichungssystems, in dem Informationen über die Schnittwinkel der Standlinien enthalten sind, erforderlich ist.
  • Zudem ist es vorteilhaft, dass der optische Sensor lediglich intrinsisch kalibriert werden muss und auf eine aufwändige extrinsische Kalibrierung (z.B. einer Kalibrierung von n-Kameras untereinander) verzichtet werden kann.
  • Der optische Sensor kann beispielsweise auch eingesetzt werden, um eine sich verändernde Umgebung (d.h. eine sich zeitlich verändernde, vorzugsweise berechenbare, Position der Vielzahl von Referenzobjekten) wahrzunehmen. Dadurch kann im Vergleich zu konventionellen Messsystemen auf optische Marker verzichtet werden, da auch eindeutig identifizierbare Gegenstände bzw. Objekte im Raum als Referenzobjekte dienen können. Der optische Sensor kann sich z.B. in einem Arbeitsraum verschiedene Objektpunkte als Referenzobjekte suchen, die sich zeitlich nicht oder nur geringfügig (z.B. durch Wärmeausdehnung) verändern.
  • Ein auf einen Roboter montierter Sensor kann beispielsweise während einer Leerlaufzeit des Roboters durch einen Arbeitsraum bewegt werden, um zu überprüfen, ob sich sein Bezugsraum bzw. seine Referenzobjekte, die für die Bestimmung seiner eigenen Position notwendig sind, verändert haben oder nicht. Hierbei kann beispielsweise die Position des Roboters an einem Pinolenende ermittelt werden. Zudem erlaubt das erfindungsgemäße Messsystem eine Kollisions- bzw. Umfeldüberwachung für einen Roboter oder eine Werkzeugmaschine.
  • Es ist beispielsweise auch vorteilhaft, wenn einige oder vorzugsweise mehrere der Vielzahl von Referenzobjekten eine zusätzliche Kennung (bspw. eine Kennnummer, einen QR-Code oder einen Barcode) aufweisen, in der beispielsweise bereits eine relative Position des jeweiligen Referenzobjektes im Bezug auf ein anderes oder mehrere andere der Vielzahl von Referenzobjekten hinterlegt ist. Der optische Sensor kann vorzugsweise die zusätzliche Kennung erfassen und die Auswerteeinheit kann dazu eingerichtet sein, die zusätzliche Kennung auszuwerten und beispielsweise bei der Selektion des zweiten Referenzobjektes zu berücksichtigen, da durch die hinterlegte relative Position des jeweiligen Referenzobjektes im Bezug auf ein anderes oder mehrere andere der Vielzahl von Referenzobjekten bereits ermittelbar ist, welches dieser hinterlegten Referenzobjekte das Winkelkriterium (Differenz von 90° minimal) am besten erfüllt.
  • Der optische Sensor kann beispielsweise eine Kamera sein, die beim Erfassen der Vielzahl von Referenzobjekten eine Vielzahl von Informationen über bspw. die Richtung, Ausrichtung, Lage, Farbe und/oder Form der Referenzobjekte im Raum enthalten kann.
  • Über die ermittelte Position des optischen Sensors kann beispielsweise die Position eines weiteren Sensors, der an einem Tool-Center-Point angeordnet ist, über eine bekannte Relativposition des optischen Sensors zu dem weiteren Sensor ermittelt werden. Hierbei ist es vorteilhaft, wenn beispielsweise die beiden Sensoren über eine mechanisch starre Verbindung miteinander verbunden sind.
  • Unter einer solchen „mechanisch starren Verbindung“ wird insbesondere eine Verbindung über einen starren Körper, vorzugsweise ohne dazwischen befindliche Gelenke oder andere mechanische Lagerungen, verstanden. Diese Verbindung sollte Betriebs- und Betriebsparameter invariant, vorzugsweise Zeit- und Temperatur invariant sein, um Verschiebungen zwischen den beiden Sensoren zu vermeiden, welche zu Messfehlern führen können, da die Relativposition zwischen den beiden Sensoren als fix angenommen und nicht separat gemessen wird. Der weitere optische Sensor kann beispielsweise ein taktiler Messsensor sein.
  • Gemäß einer Ausgestaltung der Erfindung ist die Auswerteeinheit dazu eingerichtet, zur Bestimmung einer räumlichen Lage des optischen Sensors in Bezug auf eine erste von drei zueinander orthogonal ausgerichteten Koordinatenachsen zumindest ein erstes der Vielzahl von Referenzobjekten zu selektieren, dessen Standlinie mit der ersten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit dazu eingerichtet ist, die räumlichen Lage des optischen Sensors in Bezug auf die erste Koordinatenachse anhand des ersten selektierten Referenzobjektes zu bestimmen.
  • Auch diese Art der Auswertung zur räumlichen Lagebestimmung des optischen Sensor ist im weitesten Sinne von dem Prinzip der Kreuzpeilung abgeleitet.
  • Bei der Bestimmung der Objektlage wird eines der Vielzahl von Referenzobjekten gesucht, das in Bezug auf die ausgewählte der drei Koordinatenachsen (bspw. die x-Achse) eine Standinline zu dem optischen Sensor aufweist, die sich vorzugsweise unter einem orthogonalen Winkel (d.h., der minimalsten Differenz von 90°) schneidet. Hierbei sei erwähnt, dass die Selektion eines der Vielzahl von Referenzobjekten zur eindeutigen Bestimmung der Lage um die jeweilige Achse ausreicht, jedoch durch die Selektion von zwei oder mehreren Referenzobjekten die Qualität der Auswertung erhöht werden kann.
  • Ist der optische Sensor beispielsweise um die erste der drei Koordinatenachsen um einen Rotationswinkel verdreht, kann die Auswerteeinheit diesen Rotationswinkel erfassen, wenn die Position des selektierten Referenzobjekts im Raum bekannt ist und die Position des optischen Sensors im vorherigen Schritt bestimmt wurde.
  • Es sei erwähnt, dass das selektierte erste der Vielzahl von Referenzobjekten beispielsweise mit einem der zwei zur Bestimmung der Position des optischen Sensors selektierten Referenzobjekte übereinstimmen kann. Dies ist jedoch keine notwendige Voraussetzung.
  • Gemäß einer weiteren Ausgestaltung der Erfindung ist die Auswerteeinheit dazu eingerichtet, zur Bestimmung einer räumlichen Lage des optischen Sensors in Bezug auf eine zweite der drei Koordinatenachsen zumindest ein zweites der Vielzahl von Referenzobjekten zu selektieren, dessen Standlinie mit der zweiten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit dazu eingerichtet ist, die räumlichen Lage des optischen Sensors in Bezug auf die zweite Koordinatenachse anhand des zweiten selektierten Referenzobjektes zu bestimmen.
  • Gemäß einer weiteren Ausgestaltung der Erfindung ist die Auswerteeinheit dazu eingerichtet, zur Bestimmung einer räumlichen Lage des optischen Sensors in Bezug auf eine dritte der drei Koordinatenachsen zumindest ein drittes der Vielzahl von Referenzobjekten zu selektieren, dessen Standlinie mit der dritten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit dazu eingerichtet ist, die räumlichen Lage des optischen Sensors in Bezug auf die dritte Koordinatenachse anhand des dritten selektierten Referenzobjektes zu bestimmen.
  • Demnach erfolgt die Lagebestimmung in Bezug auf alle drei Koordinatenachsen vorzugsweise nach dem gleichen Prinzip.
  • Der optische Sensor blickt, in anderen Worten ausgedrückt, ausgehend von der jeweiligen Koordinatenachse nach „links“ und nach „rechts“ entlang einer Kreisbahn und sucht in einem somit erfassten Bildraum nach einem Referenzobjekt, das zur Ermittlung der eigenen Lage auf der Koordinatenachse verwendet werden kann. Referenzobjekte, die beispielsweise beim „nach vorne Schauen“ oder beim „zurück Schauen“ wahrgenommen werden, weisen einen Schnittwinkel zwischen deren Standlinie und der jeweiligen Koordinatenachse auf, der kleiner ist als ein zu den „rechts“ und „links“ wahrgenommenen Referenzobjekten gehörender Schnittwinkel, wodurch dieses Referenzobjekt mit dem kleinen Schnittwinkel nicht zur Ermittlung der Lage des optischen Sensors in Betracht gezogen wird.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist das erste, das zweite und das dritte der Vielzahl von Referenzobjekten zumindest zwei verschiedene Referenzobjekte der Vielzahl von Referenzobjekten auf.
  • Die Erfassung der Lage des optischen Sensors in Bezug auf die beiden anderen der drei Koordinatenachsen erfolgt in analoger Weise, wobei das jeweils selektierte Referenzobjekt jeweils ein anderes sein kann, dies jedoch je nach Position des jeweiligen Referenzobjektes nicht zwingend erforderlich ist. Für die Bestimmung der räumlichen Lage des optischen Sensors in Bezug auf alle drei Koordinatenachsen sollten aber zumindest zwei verschiedene Referenzobjekte verwendet werden.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist das Messsystem ferner einen Aktuator auf, dessen Relativposition zu dem optischen Sensor zu jedem Zeitpunkt eines Arbeitsvorgangs bekannt ist, und wobei die Auswerteeinheit dazu eingerichtet ist, eine Position des Aktuators im Raum anhand der Position und Lage (Pose) des optischen Sensors zu bestimmen.
  • Über die erfindungsgemäße Bestimmung der Pose (Position und Lage) des optischen Sensors kann bei bekannter Relativposition zu dem Aktuator dessen jeweilige Position angegeben werden. Die Relativposition zwischen dem optischen Sensor und dem Aktuator kann beispielsweise in Form einer vorab bestimmten Koordinatentransformationsmatrix in der Auswerteeinheit hinterlegt bzw. gespeichert sein, über welche, ausgehend von der Pose des optischen Sensors, die Position des Aktuators berechnet werden kann.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist der Aktuator einen Taster, ein Werkzeug oder einen Sensor auf.
  • Als Aktuator kann darüber hinaus jedoch auch jedes beliebige Bauteil angesehen werden, dessen Position während eines Arbeitsvorgangs oder eines Messvorgangs bekannt sein soll. Es können also auch taktile, d.h. berührungsempfindliche Sensoren, zum Einsatz kommen, die beispielsweise an einem handgeführten Messgerät angeordnet sind, wobei der optische Sensor beispielsweise an oder auf einem solchen handgeführten Messgerät montiert sein kann und ausgehend von seiner Anordnung Referenzobjekte im Raum erfasst und somit seine eigene Pose bestimmen kann. Bei einem solchen handgeführten taktilen Messgerät ist beispielsweise nicht die Pose des optischen Sensors von vorrangiger Bedeutung, sondern dient lediglich dazu, die für den taktilen Messvorgang notwendige Position des taktilen Sensors zu ermitteln.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist der optische Sensor ferner eine Optik und einen Chip auf, wobei die Optik dazu eingerichtet ist, Licht, das entlang einer jeweiligen Standlinie verläuft, die zu einem der Vielzahl von Referenzobjekten gehört, auf einen Bildpunkt auf dem Chip abzubilden, wobei abgebildete Bildpunkte, die zu verschiedenen Standlinien gehören, jeweils beabstandet zueinander auf dem Chip angeordnet sind.
  • Diese erfindungsgemäße Ausgestaltung hat den Vorteil, dass die Optik dazu eingerichtet ist, Licht aus einer bestimmten Richtung, das entlang einer bestimmten Standlinie eines Referenzobjektes verläuft, auf einem bestimmten Bildpunkt auf dem Chip abzubilden, um somit eine spätere Zuordenbarkeit des auf dem Chip abgebildeten Bildpunkts zu einem jeweiligen Referenzobjekt zu gewährleisten. Diese Zuordenbarkeit ist vorteilhaft, da die Auswerteeinheit über die auf dem Chip abgebildeten Bildpunkte die jeweilige Standlinie ermitteln kann, aus welcher Licht gekommen sein muss, um den Bildpunkt erzeugt zu haben.
  • Gemäß einer weiteren Ausgestaltung der Erfindung ist die Optik ferner dazu eingerichtet, Licht, das entlang einer jeweiligen Standlinie verläuft, die zu einem der Vielzahl von Referenzobjekten gehört, unabhängig von einem Abstand zwischen dem optischen Sensor und dem jeweiligen Referenzobjekt auf einen Bildpunkt auf dem Chip abzubilden, wobei abgebildete Bildpunkte, die zu verschiedenen Standlinien gehören, jeweils beabstandet zueinander auf dem Chip angeordnet sind.
  • Der Hauptunterschied zu den ansonsten typischerweise verwendeten Optiken ist hierbei, dass zwei Punkte, die entlang der gleichen Standlinie, d.h. unter einem gleichen Feldwinkel, angeordnet sind, jedoch unterschiedliche Tiefeninformationen (d.h., verschiedenen Arbeitsabstände zu dem optischen Sensor) aufweisen, nicht wie üblich auf zwei verschiedenen Bildpunkten auf dem Chip abgebildet werden, sondern möglichst arbeitsabstandsunabhängig auf einem gleichen Bildpunkt auf dem Chip abgebildet werden.
  • Das heißt mit anderen Worten, dass durch die Optik Licht aus einer bestimmten Richtung abstandsunabhängig auf dem Chip abgebildet wird. Dies ist gegenüber in der Praxis gängiger Optiken (z.B. Objektive einer Kamera) sowie gegenüber in der Praxis gängigen Chips (z.B. Foto- oder Kamerachips) eine grundlegend abgewandelte Form der Ausgestaltung. Bei herkömmlichen optischen Sensoren, z.B. Kameras, werden Objekte bzw. Objektpunkte abhängig von ihrem Abstand zur Linse auf verschiedenen Bereichen des Fotochips abgebildet, so dass aus einem späteren Bild beispielsweise Tiefeninformationen entnommen werden können. Der Abstand wird in der Praxis oftmals auch als Arbeitsabstand bezeichnet.
  • Die abstandsunabhängige Abbildung auf dem Fotochip hat den Vorteil, dass nur ein geringer Bereich des Fotochips bzw. eine geringe Fläche auf dem Fotochip notwendig ist, um sämtliche Licht-Informationen zu erfassen, die entlang einer Standlinie auf den optischen Sensor treffen. Bei gleicher Chipgröße können somit im Verhältnis zum Stand der Technik mehr Informationen erfasst werden.
  • Vorzugsweise kann die Optik derart ausgestaltet sein, dass zueinander proportionale Feldwinkel (z.B. ein erster Feldwinkel von 40° und ein zweiter Feldwinkel von 80°) mit direkter Proportionalität auf dem Chip abgebildet werden (d.h. bspw., dass ein erster Feldwinkel von 40° auf dem Chip bspw. in einem Zentimeter Abstand zu der optischen Achse abgebildet wird und ein zweiter Feldwinkel von 80° auf dem Chip in zwei Zentimeter Abstand zu der optischen Achse abgebildet wird.) Diese vorteilhafte Ausgestaltung der Optik ist als sehr anspruchsvoll (aufwändig und teuer) anzusehen, sodass alternativ auch ein Umrechnungsfaktor anstelle eines direkt proportionalen Zusammenhangs verwendet werden kann.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist die Optik eine Fischaugenoptik auf.
  • Unter einer Fischaugenoptik versteht man ein spezielles Objektiv, bei der eine senkrecht zur optischen Achse stehende Objektebene proportional abgebildet werden kann. Hierbei ist die Abbildung, die durch die Fischaugenoptik erzeugt wird, mit deutlichen, aber nicht übermäßigen Verzerrungen auf der Bildebene verbunden. Gerade Linien, die nicht durch die Bildmitte laufen, werden gekrümmt abgebildet. Fischaugenobjektive besitzen in der Regel sehr große Feldwinkel (im Bereich von 180°, in Sonderfällen sogar bis zu 220°).
  • Die Fischaugenoptik bietet durch den großen Feldwinkel bzw. erfassbaren Raumbereich den Vorteil, dass der erfassbare Bereich des optischen Sensors (z.B. einer Kamera), der eine solche Fischaugenoptik aufweist, dahingehend erweitert werden kann, dass die Vielzahl von Referenzobjekten im Raum gesamthaft auf nur einem Fotochip erfasst werden können.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist die Optik drei im Wesentlichen quer zueinander ausgerichtete Kameras auf.
  • Hierbei ist unter der Formulierung „im Wesentlichen quer zueinander“ eine Anordnung der Erfassungsbereiche der Kameras untereinander gemeint, wobei „quer“ senkrecht bzw. orthogonal bedeuten kann aber nicht muss. Alle nicht-parallelen Ausrichtung werden im vorliegenden Sinne als „quer“ verstanden.
  • Die drei Kameras können beispielsweise jeweils einen Bildbereich erfassen, der um eine der drei Koordinatenachsen angeordnet ist. Vorzugsweise verfügen hierbei die Kameras jeweils über einen Erfassungsbereich, der so groß ist, dass die Vielzahl der zu erfassenden Referenzobjekte gesamthaft durch die drei Kameras erfasst werden kann. In bevorzugten Ausgestaltungen kann zumindest ein Teil der Vielzahl von Referenzobjekten in redundanter Form durch mehrere Kameras gleichzeitig erfasst werden. Dies hat den Vorteil, dass beispielsweise Fehler, die bei der intrinsischen Kalibrierung der einzelnen Kameras entstehen, durch eine andere Kamera ausgleichbar sind, da diese ebenfalls das gleiche Referenzobjekt erfasst und somit die Lokalisierung der Position und Lage des Referenzobjektes im Raum nicht nur anhand einer Kamera, sondern in redundanter Form erfolgt.
  • In einer weiteren Ausgestaltung der Erfindung sind die drei Kameras orthogonal zueinander ausgerichtet.
  • Diese Ausrichtung erfolgt vorzugsweise jeweils entlang der drei Koordinatenachsen, so dass jeweils eine der Kameras jeweils einen Erfassungsbereich um jeweils eine der drei Koordinatenachsen aufweist und somit vorzugsweise der Raum gesamthaft erfassbar ist.
  • In einer weiteren Ausgestaltung der Erfindung weist die Optik ein dichroitisches Prisma auf.
  • Ein solches dichroitisches Prisma ist beispielsweise auch unter dem Namen RGB-X-Cube bekannt. Diese Optiken sind dazu eingerichtet, in einem definierten ersten Einfallsbereich (bspw. um die erste Koordinatenachse) nur Licht einer ersten Wellenlänge, in einem definierten zweiten Einfallsbereich (bspw. um die zweite Koordinatenachse) nur Licht einer zweiten Wellenlänge passieren zu lassen, wobei der erste und zweite Einfallsbereich winkelmäßig auseinanderliegen. Das dichroitische Prisma teilt einen Lichtstrahl in zwei Strahlen unterschiedlicher Spektren bzw. Farben auf und wird gewöhnlich aus Glas gefertigt, wobei bestimmte Oberflächen mit dichroitischen Spiegeln versehen werden können, die Licht abhängig von dessen Wellenlänge reflektieren oder durchlassen. Es können auch zwei dichroitische Prismen derart zueinander angeordnet werden, dass in jeder der drei Raumrichtungen jeweils nur Licht mit einer bestimmen Wellenlänge das dichroitische Prisma passieren kann.
  • Eine Anwendung finden dichroitische Prismen beispielsweise in Farb-Videokameras oder in einigen Videoprojektoren, wobei für die Rot-, Grün- und Blauanteile separate Modulatoren eingesetzt werden, die das Licht über dichroitische Prismen verteilen, um durch ein Objektiv projiziert zu werden. Vorzugsweise werden durch zwei solcher dichroitischen Prismen drei zueinander orthogonale Strahlenbündel erfasst, wobei dadurch eine 3D-Positions- und Lageerfassung mit einem einzigen optischen Sensor erfolgen kann. Dabei könnten die vorteilhaften Abbildungseigenschaften eines farbsensitiven Sensors genutzt werden, der durch das dichroitische Prisma Licht mittels seiner Farbinformation einer bestimmten Richtung zuordnen kann. Es kann beispielsweise auch möglich sein, dass Licht zweier unterschiedlicher Farben auf einem gleichen Bildpunkt auf dem Chip abgebildet wird und die Auswertung der jeweiligen Richtung anhand der jeweils erfassten Farbinformation vorgenommen wird.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist die Optik einen ersten Strahlteiler auf, der dazu eingerichtet ist, Licht mit einer ersten Wellenlänge aus einer ersten Einfallsrichtung auf einen ersten Bildpunkt auf dem Chip abzubilden, und Licht mit einer zweiten Wellenlänge aus einer zweiten Einfallsrichtung auf dem ersten Bildpunkt auf dem Chip abzubilden; und Licht mit der ersten Wellenlänge aus einer dritten Einfallsrichtung auf einem zweiten Bildpunkt auf dem Chip abzubilden, und Licht mit der zweiten Wellenlänge aus einer vierten Einfallsrichtung auf dem zweiten Bildpunkt abzubilden.
  • Ein solcher vorteilhafterweise farbselektiver Strahlteiler kann beispielsweise kurzwelliges Licht ablenken, während langwelliges Licht passieren kann. In anderen Ausführungsbeispielen kann der Strahlteiler auch eine Langpassbeschichtung aufweisen, durch die, bspw. bei einer Ausrichtung des optischen Sensors auf seinen Zenit, das am Strahlteiler reflektierte kurzwellige Licht in Richtung des mathematischen Horizonts reflektiert wird, wobei die nicht achsparallelen Lichtstrahlen entsprechend das erfassbare Rektasenzionsintervall oberhalb und unterhalb des mathematischen Horizonts definieren würden.
  • Hierbei trennt der Strahlteiler einen einzelnen Lichtstrahl in zwei Teilstrahlen auf. In einem Fall kann ein Strahlteiler beispielsweise eine Glasscheibe sein, die unter einem bestimmten Winkel (z.B. 45°) in einem Strahlengang des optischen Sensors angeordnet ist. Ein Teil des Lichtes wird an der Oberfläche der Glasscheibe je nach Einfallswinkel in einem gleichgroßen Ausfallwinkel reflektiert, wohingegen ein vorbestimmtes Teilspektrum des Lichtes (bspw. nur rotes Licht) die Scheibe durchdringen kann. Zudem ist es möglich, durch Aufbringen einer geeigneten teilreflektierenden Beschichtung auf der Oberfläche des Strahlteilers einen Lichtstrahl bspw. in zwei Teilstrahlen gleicher oder unterschiedlicher Intensität aufzuteilen. Durch weitere vorteilhafte Beschichtungen ist es möglich, einzelne Wellenlängenbereiche oder einzelne Wellenlängen des Lichtes zu reflektieren und entsprechend andere passieren zu lassen. Beispielsweise kann nur rotes Licht aus einer ersten Einfallsrichtung den Strahlteiler passieren und auf dem ersten Bildpunkt auf dem Chip abgebildet werden. Licht einer anderen Wellenlänge (bspw. grünes Licht), das ebenfalls aus der ersten Einfallsrichtung kommt, wird hingegen durch den Strahlteiler reflektiert.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist die Optik einen teiltransmissiven Spiegel, einen Innenkegelspiegel, einen Innenkegelstumpf-Spiegel, einen Facettenspiegel, ein diffraktives Optikelement, ein rotationssymmetrisches Optikelement, ein sphärisches Optikelement, ein parabolisches Optikinstrument, ein hyperbolisches Optikelement, einen Konvexspiegel oder einen Konkavspiegel auf.
  • Unter einem teiltransmissiven Spiegel, auch Teilerspiegel genannt, wird ein Spiegel verstanden, der einen Teil des einfallenden Lichtes reflektiert und einen anderen Teil transmittiert. Diese Spiegel weisen meist auf einer seiner zwei Seiten eine oder mehrere dielektrische Schichten und auf der anderen Seite eine reflexionsverändernde Beschichtung auf. Statt dielektrischen Beschichtungen können beispielsweise auch sehr dünne Metallbeschichtungen zum Einsatz kommen.
  • Unter einem Innenkegelspiegel oder einem Innenkegelstumpf-Spiegel wird hier vorliegend eine Optik verstanden, die die Form eines Kegels bzw. eines Kegelstumpfs aufweist, und auf der innenliegenden, konkaven Seite verspiegelt ist. Ein Innenkegelspiegel kann vorteilhafterweise auch derart ausgestaltet sein, dass dieser in zwei Teil-Innenkegelspiegel aufgeteilt ist, die jeweils 180° umschließen und bspw. entlang der optischen Achse derart verschoben sind, dass die Reflexionen des einen Teil-Innenkegelspiegels nicht die des anderen durchdringen können.
  • Unter einem Facettenspiegel wird hier vorliegend ein Spiegel verstanden, bei dem mehrere Flächen mit verschiedenen Winkeln flachgeschliffen sind, wobei die einzelnen geschliffenen Teilflächen vorzugsweise „fließend“ ineinander übergehen.
  • Unter einem diffraktiven Optikelement wird ein optisches Element zur Formung eines Lichtstrahls verstanden. Physikalisch beruht die Funktionsweise des diffraktiven optischen Elements auf dem Prinzip der Beugung (auch Diffraktion genannt) an einem optischen Gitter. Diffraktive Optiken sind hierbei vorzugsweise Glasträger, auf die durch Photolithographie Mikrostrukturen aufgebracht werden. Hierbei bezeichnet der Begriff „Photolithographie“ eine zentrale Methode der Halbleiter- und Mikrosystemtechnik zur Herstellung von integrierten Schaltungen und weiteren Produkten. In diffraktiven Optiken kommt es durch unterschiedliche optische Weglängen der Teilstrahlen zur Ausbildung von Interferenzmustern. Hierbei kann je nach Ausgestaltung der diffraktiven Optik durch konstruktive oder destruktive Interferenz Licht einer einzelnen Wellenlänge verstärkt oder ausgeblendet werden.
  • Unter rotationssymmetrischen Optikelementen wird vorliegend jede Art von Körper einer Optik verstanden, der zumindest um eine der drei Raumkoordinatenachsen eine Rotationssymmetrie aufweist.
  • Unter einem sphärischen Optikelement wird vorliegend eine Optik in Form einer Oberfläche einer Kugel verstanden. Analog hierzu wird unter einem parabolischen sowie unter einem hyperbolischen Optikelement jeweils ein Optikelement verstanden, dessen Form und Oberflächenverlauf einer beliebigen parabolischen bzw. hyperbolischen Funktion folgt.
  • Unter einem Konvexspiegel wird ein nach außen gewölbter Spiegel verstanden. Unter einem Konkavspiegel wird ein Spiegel verstanden, der eine Wölbung nach innen aufweist.
  • Die einzelnen optischen Elemente können hierbei gezielt eingesetzt werden, um bspw. verschiedene Vergrößerungen in verschiedenen Raumrichtungen zu erzielen. Diese Spielräume ergeben sich aus einer vorteilhaften Auslegung der optischen Elemente, die bspw. niedrige Bündelöffnungen aufweisen, so dass Formabweichungen der optischen Elemente, welche die Blickrichtung in Richtung des mathematischen Horizonts ändern, nicht zu Abbildungsfehlern führen, die den Objektrauminhalt nicht mehr rekonstruierbar machen. Zu diesen Vorteilen trägt beispielsweise eine bildseitig telezentrische Auslegung der Optik mit geringer bildseitiger Apertur für relativ große Pixel der Kamera bei.
  • Zusätzlich zu den bereits erwähnten Anwendungsmöglichkeiten können spiegelnde Flächen ebenfalls als sog. Verlaufsfilter ausgeführt sein. Dabei können bspw. weiße oder ggf. auch selbstleuchtende Referenzobjekte abgebildet werden, wobei der Verlauf derart einzustellen ist, dass bspw. einzelnen Spiegelflächensegment, die sich in ihrer Position um die optische Achse um 180° gedreht gegenüberstehen, für einen betreffenden „Weißfarbauszug“ jeweils blockend auf der einen und transmissiv auf der gegenüberliegenden Seite ausgeführt sind. Im Idealfall könnte sich ein solcher Verlaufsfilter bspw. auch nur über ein Teilfarbintervall des Objektrauminhaltes erstrecken, wohingegen das entsprechende Komplementärintervall eine Abbildung in Richtung des Zenits zeigt.
  • Ebenfalls können Spiegelflächen bspw. auch als Freiformen ausgeführt sein, bei denen jeweils eine gegenüberliegende Fläche fehlt oder in einer anderen Ausgestaltung derart durchbrochen ist, dass die Freiformen für einen reflektierten Lichtstrahl kein Hindernisse bilden.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist das Messsystem ferner einen Endeffektor eines Roboters, ein handgeführtes Koordinatenmessgerät oder eine Pinole eines Koordinatenmessgeräts auf, an dem/an der der optische Sensor angeordnet ist.
  • Dies hat den Vorteil, dass bei bekannter Relativposition des optischen Sensors zu dem Endeffektor eines Roboters oder zu einem handgeführten Koordinatenmessgerät oder zu einer Pinole eines Koordinatenmessgeräts, anhand der ermittelten Pose des optischen Sensors die jeweilige Position des Endeffektors, des handgeführten Koordinatenmessgeräts oder der Pinole des Koordinatenmessgeräts berechnet werden kann.
  • Die Anordnung des optischen Sensors an einem Endeffektor eines Roboters hat beispielsweise den Vorteil, dass während eines Arbeitsvorgangs des Roboters dessen Bewegungsbahn zu jeder Zeit über die erfasste Pose des optischen Sensors ermittelt werden kann. Hierbei blickt der optische Sensor ausgehend vom Endeffektor des Roboters in den Raum und ermittelt anhand der erfassten Referenzobjekte erfindungsgemäß seine Pose im Raum.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist die Vielzahl von Referenzobjekten mindestens einen optischen Marker auf.
  • Optischen Markern können beispielsweise als Vertiefungen oder Bohrungen auf einer Platte realisiert sein. Konventionell können die optischen Marker auch in Form von Punktmustern oder Schachbrettmustern (sog. checker boards) auf einer Kalibriervorrichtung oder in einem Raum verteilt angeordnet sein. Zudem können optische Marker beispielsweise auch als Referenzobjekte ausgestaltet sein, die bspw. einen gewissen Farbcode aufweisen, der von dem optischen Sensor eindeutig als Referenzfarbcode erfassbar ist. Darüber hinaus ist auch jegliche andere Art von Gegenstand als optischer Marker denkbar, der durch den optischen Sensor im Raum eindeutig erfassbar und identifizierbar ist.
  • Die optischen Marker können in einer bekannten Position angebracht sein. Grundsätzlich können die optischen Marker jedoch auch in einer vorher unbekannten Position angeordnet sein oder ihre Lage beispielsweise bedingt durch Wärmeausdehnung innerhalb eines gewissen Zeitintervalls im Raum geringfügig verändern. Dabei erlaubt das erfindungsgemäße Messsystem eine Rekonstruktion der Position der Marker im Raum, da der optische Sensor in jeder Position und Lage erneut die optischen Marker als Vielzahl von Referenzobjekten erfasst und somit auf geringfügige Änderungen in der Positionierung der Marker innerhalb des Raumes sein eigene, bestimmte Position korrigieren kann. Das heißt, dass die optischen Marker nicht notwendigerweise Zeit- und/oder Temperatur invariant sein müssen, da auch die Ist-Lage der optischen Marker aus den Sensorbildaufnahmen rekonstruiert werden kann.
  • Bei einer solchen Rekonstruktion wird allgemein davon ausgegangen, dass jegliche Driftbewegung der Marker (beispielsweise aufgrund einer Temperaturausdehnung) langsamer als der zeitliche Abstand zweier aufeinanderfolgender Bildaufnahmen durch den optischen Sensor ist.
  • Gemäß einer weiteren Ausgestaltung der Erfindung weist das Messsystem ferner einen Projektor auf, der dazu eingerichtet ist, den mindestens einen optischen Marker in den Raum zu projizieren.
  • Hierbei kann der Projektor beispielsweise dazu eingesetzt werden, vorab definierte geometrische Formen und/oder Farbmuster als optische Marker beispielsweise auf Werkstücke, Werkstückumgebungen auf eine oder mehrere Wände im Raum oder auch auf Maschinenteile oder Maschinen-Umgebungen zu projizieren. Solche Projektionen, d.h. die optischen Marker, können darauf folgend von dem optischen Sensor erfasst und zur Bestimmung der Sensorpose in zuvor genannter Weise genutzt werden. Dadurch ist es beispielsweise möglich, Genauigkeitssteigerungen bei Geschwindigkeitsmessungen zu erzielen.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1 eine schematische Ansicht eines ersten Ausführungsbeispiels des erfindungsgemäßen Messsystems;
    • 2 eine schematische Ansicht eines zweiten Ausführungsbeispiels des erfindungsgemäßen Messsystems;
    • 3 eine schematische Ansicht eines dritten Ausführungsbeispiels des erfindungsgemäßen Messsystems;
    • 4 arbeitsabstandsabhängige Darstellungen zweier Punkte auf einem Fotochip;
    • 5 arbeitsabstandsunabhängige Darstellungen zweier Punkte auf einem Fotochip;
    • 6 Prinzipdarstellungen zur Erläuterung des Prinzips der Kreuzpeilung;
    • 7 ein Ablaufdiagramm zu Verdeutlichung einer Messung gemäß einem Ausführungsbeispiel des erfindungsgemäßen Messsystems;
    • 8 Strahlengangverläufe innerhalb eines Ausführungsbeispiels einer Optik; und
    • 9 Strahlengangverläufe innerhalb eines Ausführungsbeispiels einer Optik unter Verwendung eines Strahlteilers.
  • 1 zeigt ein erfindungsgemäßes Messsystem 10. Ein Roboterarm 12 ist auf einer Basisplatte 14 im Raum 16 angeordnet. Bei der Basisplatte 14 handelt es sich vorzugsweise um eine stabile Platte aus einem massiven Material, auf welcher der Roboterarm 12 beispielsweise reversibel lösbar fixiert sein kann. An einem Endeffektor 18 des Roboterarms 12 ist ein optischer Sensor 20 angeordnet. Im hier gezeigten Fall ist der optische Sensor 20 beispielsweise eine Kamera.
  • An der Unterseite des Endeffektors 18 ist eine Pinole 22 angeordnet. An dem freien Ende der Pinole 22 ist ein taktiler Sensor 24 angebracht. Hierbei sei erwähnt, dass dieser zusätzliche Sensor nicht für die Funktion des erfindungsgemäßen Messsystems 10 benötigt wird, sondern lediglich in vorteilhaften Ausführungsbeispielen vorhanden ist.
  • Beide Sensoren 20, 24 sind durch den Endeffektor 18 und die Pinole 22 mit einer mechanisch starre Verbindung miteinander verbunden. Die beiden Sensoren 20, 24 bewegen sich daher je nach Anwendungsfall entweder gar nicht oder mit einer exakt berechenbaren Relativbewegung zueinander. Es versteht sich, dass der taktile Sensor 24 beispielsweise über die Pinole 22 gelenkig mit dem Endeffektor 18 verbunden sein kann, um eine Auslenkung des taktilen Sensors 24 zu ermöglichen.
  • Im Raum 16 ist ein Objekt 26 platziert, das beispielsweise ein zu vermessendes Werkstück sein kann. Zur Vermessung des Objektes 26 vermisst der taktile Sensor 24 die Oberflächengeometrie des zu vermessenden Objektes 26, indem der taktile Sensor 24 eine Vielzahl von Messpunkten auf der Oberfläche des Objektes 26 nacheinander antastet.
  • Um das Antasten einer Vielzahl von Messpunkten auf der Oberfläche des Objektes 26 zu gewährleisten, ist es vorteilhaft, wenn der Roboterarm 12, der Endeffektor 18 und/oder die Pinole 22, unter der Maßgabe einer weiterhin zu jedem Zeitpunkt bekannten bzw. berechenbaren Realtivposition zwischen dem optischen Sensor 20 und dem taktilen Sensor 24, dazu eingerichtet ist/sind, den taktilen Sensor 24 entlang einer ersten Koordinatenachse 28 (oftmals bezeichnet als x-Achse), entlang einer zweiten Koordinatenachse 30 (oftmals bezeichnet als y-Achse) und/oder entlang einer dritten Koordinatenachse 32 (oftmals bezeichnet als z-Achse) zu verfahren. Die drei Koordinatenachsen 28, 30, 32 stehen orthogonal zueinander. Es sei erwähnt, dass in anderen Ausführungsbeispielen des erfindungsgemäßen Messsystems 10 bedingt durch einen andersartigen Aufbau beispielsweise eine solche Verfahrbarkeit nicht oder nur entlang einer der Koordinatenachsen 28, 30, 32 vorhanden sein kann.
  • Der Antrieb zur Gewährleistung einer Verfahrbarkeit entlang der Koordinatenachsen 28, 30, 32 kann entweder als motorischer, z.B. elektromotorischer, hydraulischer oder pneumatischer Antrieb oder als manueller Antrieb, beispielsweise mit Hilfe einer oder mehrerer Kurbeln, ausgestaltet sein und ist hier nicht gezeigt.
  • Um die Oberflächengeometrie des Objektes 26 vermessen zu können, ist es vorteilhaft, wenn die Koordinatenposition des taktilen Sensors 24 in jeder beliebigen Position im Raum 16 bekannt ist. Erfindungsgemäß erfolgt die Bestimmung der Position des taktilen Sensors 24 im Raum 16 indirekt über die Bestimmung der Position und Lage des optischen Sensors 20. Im hier gezeigten Anwendungsfall weist der optische Sensor 20 zusätzlich noch eine Optik 34 auf, die vorliegend eine Fischaugenoptik ist. Es sei erwähnt, dass auch andere Optikelemente zum Einsatz kommen können bzw. die Optik 34 lediglich vorteilhaft ist.
  • Die Bestimmung der Position und Lage des optischen Sensors 20 erfolgt im hier gezeigten Fall anhand von drei Referenzobjekte 36, 38, 40, die im Raum 16 angeordnet sind und deren jeweilige Position im Raum 16 bekannt ist. Die drei Referenzobjekte 36, 38, 40 repräsentieren vereinfacht eine Vielzahl von Referenzobjekten. Als Referenzobjekte 36, 38, 40 können beispielsweise Kalibriergegenstände, deren geometrische Beschaffenheit eindeutig identifizierbar ist, oder Ähnliches eingesetzt werden, die durch den optischen Sensor 20 eindeutig erfasst werden können. In anderen Ausführungsbeispielen (bspw. wenn nur die Position und nicht die Lage des optischen Sensors 20 bestimmt werden muss) kann es ausreichen, wenn lediglich zwei Referenzobjekte im Raum 16 angeordnet sind.
  • Der optische Sensor 20 ist dazu eingerichtet, das erste Referenzobjekt 36 entlang einer ersten Standlinie 42, das zweite Referenzobjekt 38 entlang einer zweiten Standlinie 44 sowie das dritte Referenzobjekt 40 entlang einer dritten Standlinie 46 zu erfassen.
  • Das Messsystem 10 weist ferner eine Auswerteeinheit 48 auf, welche vorliegend schematisch als Computer dargestellt ist. Die Auswerteeinheit 48 ist mit dem optischen Sensor 20 über ein oder mehrere Kabel oder kabellos verbunden und ist im hier gezeigten Ausführungsbeispiel dazu eingerichtet, aus den drei Referenzobjekten 36, 38, 40 zur Bestimmung der Position des optischen Sensors 20 zwei Referenzobjekte zu selektieren, deren Standlinien 42, 44, 46 zueinander einen Winkel aufweisen, dessen Differenz von 90° minimal ist. Im hier gezeigten Fall könnte die Auswerteeinheit 48 zur Bestimmung der Position des optischen Sensors 20 zwei beliebige der drei Referenzobjekt 36, 38, 40 selektieren, da sich deren jeweilige Standlinien 42, 44, 46 jeweils unter einem Winkel schneiden, dessen Differenz zu 90° relativ klein ist. Im besten Fall werden jedoch zwei Referenzobjekte ausgewählt, deren Standlinien sich unter einem Winkel von 90° schneiden. Die Genauigkeit der Positionsbestimmung ist dann maximal.
  • Zur Bestimmung der Lage des optischen Sensors 20 in Bezug auf eine der drei Koordinatenachsen 28, 30, 32 selektiert die Auswerteeinheit 48 jeweils eines der drei Referenzobjekte 36, 38, 40, dessen jeweilige Standlinie 42, 44, 46 mit der jeweiligen Koordinatenachse 28, 30, 32 einen Winkel aufweist, dessen Differenz von 90° minimal ist. Beispielsweise selektiert die Auswerteeinheit 48 zur Bestimmung der Lage des optischen Sensors 20 in Bezug auf die erste Koordinatenachse 28 entweder das erste oder das zweite Referenzobjekt 36, 38, da sich die jeweilige Standlinie 42, 44 mit der ersten Koordinatenachse 28 unter einem Winkel von annähernd 90° schneidet, d.h., die Differenz von 90° minimal ist. Das dritte Referenzobjekt 40 scheidet in diesem Beispiel zur Bestimmung der Lage des optischen Sensors 20 aus, das es entlang bzw. parallel zu der ersten Koordinatenachse 28 angeordnet ist und somit die Standlinie 46 achsparallel verläuft, so dass die Differenz von 90° maximal ist. Die Standlinie 46 ließe sich aber beispielsweise für die Bestimmung der Lage des optischen Sensors 20 in Bezug auf die Koordinatenachsen 30 und/oder 32, da sie annähernd orthogonal zu diesen verläuft.
  • Das in 2 gezeigte zweite Ausführungsbeispiel des erfindungsgemäßen Messsystems 10 zeigt ein Koordinatenmessgerät in Stativbauweise. Das Messsystem 10 weist einen Objektträger 56 auf, auf dem das zu vermessende Objekt 26 platziert ist. Der Objektträger 56 ist in dem in 2 gezeigten Ausführungsbeispiel entlang der beiden orthogonal zueinander ausgerichteten Koordinatenachsen 28, 30 horizontal verfahrbar. Diese beiden Achsen 28, 30 werden üblicherweise als x-Achse und y-Achse bezeichnet.
  • Der Objektträger 56 ist auf einem Werkzeugtisch 58 angeordnet, der vorzugsweise aus einer stabilen Platte besteht, welche beispielsweise aus Granit gefertigt sein kann.
  • Der optische Sensor 20 ist anders als in dem in 1 gezeigten Ausführungsbeispiel am unteren Ende der Pinole 22 angeordnet und ist in dieser Position dazu eingerichtet, einen Feldwinkelbereich zu erfassen, innerhalb dessen die gesamte Oberfläche des Objektträgers 56 erfassbar ist.
  • In 2 nutzt der optische Sensor 20 mehrere optische Marker 60, welche in den Ecken des Objektträgers 56 angeordnet sind und in diesem Fall die Vielzahl von Referenzobjekten repräsentieren. Durch Erfassen der optischen Marker 60 kann der optische Sensor 20 bzw. die Auswerteeinheit 48 anhand gängiger Triangulationsverfahren und mit Hilfe der optischen Marker 60 seine Position eindeutig ermitteln. Zur Bestimmung der Position wählt die Auswerteeinheit 48 beispielsweise zwei überkreuz angeordnete optische Marker 60, 60" bzw. 60', 60'" aus, da deren Standlinien im Vergleich zu zwei nebeneinanderliegenden optischen Markern (bspw. 60, 60') einen Winkel aufweisen, dessen Differenz von 90° minimal ist.
  • Im hier vorliegenden Fall ist an dem Ende der Pinole 22 zusätzlich zu dem optischen Sensor 20 beabstandet der taktile Sensor 24 angeordnet, mit dem die Oberflächengeometrie des zu vermessenden Objektes 26 analog zu der in 1 beschriebenen Weise ermittelt werden kann. Die Pinole 22 ist am vorderen Ende eines Auslegers 62 vorzugsweise reversibel lösbar befestigt, der in der dritten Koordinatenachse 32 über einen hier nicht gezeigten Antrieb verfahrbar ist.
  • Es sei erwähnt, dass in dem in 2 gezeigten Ausführungsbeispiel die optischen Marker 60, d.h. die Referenzobjekte, anders als in 1 auf der planaren Oberfläche des Objektträgers 56 angeordnet sind und somit lediglich Koordinateninformationen zu der ersten und der zweiten Koordinatenachse 28, 30 enthalten. Die Koordinateninformationen zur dritten Koordinatenachse 32 ändern sich für die einzelnen optischen Marker 60 nicht.
  • Ebenso sei erwähnt, dass eine derartige Ausführung für jegliche Arten von Koordinatenmessgeräten denkbar ist, unabhängig von deren Bauweise (Ausleger-, Portal-, Ständer- oder Brückenbausweise).
  • In einem dritten Ausführungsbeispiel (siehe 3) des erfindungsgemäßen Messsystems 10 ist ein Handkoordinatenmessgerät 64 (schematisch mit einer umgreifenden Hand dargestellt), an dessen vorderem Ende der taktile Sensor 24 angeordnet ist, welcher mit seinem Kopf auf die Oberfläche des zu vermessenden Objektes 26 drückt, um dadurch die Oberflächengeometrie anzutasten. An dem Handkoordinatenmessgerät 64 ist der optische Sensor 20 sowie die vorteilhaft vorhandene Optik 34 angeordnet, wobei der optische Sensor 20 dazu eingerichtet ist, die Referenzobjekte 36, 38, 40 nach dem erfindungsgemäßen Messprinzip zu erfassen.
  • Die Erfassung der Referenzobjekte 36, 38, 40, die entlang der Standlinien 42, 44, 46 in bekannter Position im Raum 16 angeordnet sind, erfolgt analog zu dem in 1 beschriebenen Prinzip durch die Auswerteeinheit 48.
  • 4 zeigt die arbeitsabstandsabhängige Darstellung zweier Bildpunkte auf einem Fotochip 66. Der Fotochip 66 ist orthogonal zu einer optischen Achse 68 ausgerichtet und bildet im hier gezeigten Fall einen ersten und einen zweiten Bildpunkt 70, 72 ab. Hierbei weist ein erster Punkt 74, der zum ersten Bildpunkt 70 gehört, einen geringeren Arbeitsabstand 78 zu dem Fotochip 66 auf, als ein zweiter Punkt 76, der zu dem zweiten Bildpunkt 72 gehört, wobei beide Punkte 74, 76 entlang einer gleichen Einfallsrichtung 80 angeordnet sind, die unter dem Feldwinkel α (gemessen zu der optischen Achse 68) auf den Fotochip 66 trifft. Es ist ersichtlich, dass die Abbildung der beiden Punkte 74, 76 arbeitsabstandsabhängig als zwei beabstandet Bildpunkte 70, 72 auf dem Fotochip 66 abgebildet werden.
  • 5 zeigt hingegen eine arbeitsabstandsunabhängige Darstellung der zwei Punkte 74, 76 auf dem Fotochip 66. Es ist ersichtlich, dass die beiden Punkte 74, 76 der erfindungsgemäßen Ausgestaltung auf demselben Punkt 70, 72 auf dem Fotochip 66 abgebildet werden. Diese erfindungsgemäße Abbildungsart hat den Vorteil, dass mehr Informationen auf dem Fotochip 66 abgebildet werden können, da lediglich die Änderung der Einfallsrichtung 80 bzw. die Änderung des Feldwinkels α und nicht mehr die Änderung des Arbeitsabstands 78 zu einer Änderung der Position eines Bildpunktes auf dem Fotochip 66 führt.
  • 6 zeigt eine Prinzipdarstellung des aus der Schifffahrt bekannten Prinzips der Kreuzpeilung zur Bestimmung der Position eines Objektes. Bei dieser Kreuzpeilung erhöht sich die Genauigkeit, wenn zwei winkelmäßig weit auseinanderliegende Referenzobjekte (hier exemplarisch mit der Bezugsziffer 36, 38 gekennzeichnet) angepeilt werden. Bei dieser Art der Positionsbestimmung kann es in der Praxis zu Unschärfen kommen, da beispielsweise (im Fall der Schifffahrt) der genaue Aufenthaltsort des zu bestimmenden Objektes (bzw. Schiffes) 26 lediglich innerhalb eines sog. schleifenden Schnittes 82 lokalisiert werden kann. Die Unschärfe bei der Positionsbestimmung kann minimiert werden, wenn bspw. Referenzobjekte 36, 38 ausgewählt werden, deren Standlinien einen Winkel aufweisen, dessen Differenz von 90° minimal ist. D.h. mit anderen Worten, deren Standlinien sich unter einem Winkel schneiden, der innerhalb eines vorbestimmten Winkelintervalls (bspw. 80° < α < 100°) liegt. Die Bezugspunkte 84, 86, die zur Erzeugung des schleifenden Schnittes 82 verwendet wurden, führen im Verhältnis zu den Referenzobjekten 36, 38, welche eine sehr genaue Positionsbestimmung des Objektes 26 ermöglichen, zu einer großen Unschärfe, da beide Bezugspunkte 84, 86 winkelmäßig wesentlich näher beieinander liegen und somit eine vergleichsweise große Differenz von 90° aufweisen.
  • Zudem ist in 7 ein Verfahrensfließbild zu einer Messung mit einem Ausführungsbeispiel des erfindungsgemäßen Messsystems gezeigt. Bei diesem beispielhaften Verfahren ist es z.B. möglich, bei einer hinreichend „feature-reichen“ Umgebung (d.h. eine Umgebung mit einer Vielzahl von Referenzobjekten), auf jegliche Art von optischen Markern oder Markerstrukturen zu verzichten, da schon die Umgebung selbst als Markerhintergrund fungieren kann. Da wie vorstehend beschrieben eine Rekonstruktion der Umgebung erfolgen kann, kann der optische Sensor 20 gleichzeitig überprüfen, welche Anteile der Umgebung eine hinreichende zeitliche Konstanz aufweist, um als „optische Marker“ verwendet werden zu können. Hierbei erfolgt in einem Schritt S100 lediglich eine intrinsische Kalibrierung des optischen Sensors 20, da erfindungsgemäß keine extrinsische Kalibrierung vorgenommen werden muss. Der intrinsisch kalibrierte optische Sensor 20 ist nach der Kalibrierung sofort einsatzbereit und kann in einem Schritt S101 die notwendigen Bezugspunkte im Raum 16 erfassen, wodurch er seine eigene Position und Lage bestimmen und sich somit „zurechtfinden kann“. Bei einer sich verändernden Umgebung kann in einem Schritt S102 eine Rekonstruktion des den optischen Sensor 20 umgebenden Raums 16 erfolgt, wobei nach einem Abschluss der Rekonstruktion des Raums 16 eine erneute Bestimmung der Pose des optischen Sensors 20 in einem Schritt S103 erfolgen kann.
  • Bei einem solchen vorteilhaften Verfahren ist es aus „navigatorischer Sicht“ ebenfalls möglich, eine Kombination des optischen Sensors 20 mit anderen Positions-, Geschwindigkeits-, Beschleunigungs-, und/oder Erfassungssystemen für einen Ort und eine Lage im Raum 16 zu nutzen, wenn mit einer solchen Kombination beispielsweise zu einem bestimmten Fourier-Frequenzintervall auf deutlich günstigere Art und Weise die gewünschte Genauigkeit bei der Bestimmung der Pose des optischen Sensors 20 bzw. des zu vermessenden Objektes 26 erreicht werden kann als dies durch die reine Bildverarbeitung mit dem optischen Sensor 20 der Auswerteeinheit 48 zu gewährleisten ist.
  • 8 zeigt drei Strahlengangverläufe A, B, C innerhalb eines Ausführungsbeispiels der Optik 34, mit welcher eine arbeitsabstandsunabhängige Abbildung gewährleistet werden kann. In dem Strahlengangverlauf A sind drei verschiedene Lichtbündel 88, 88', 88" dargestellt, die aus unterschiedlichen Feldwinkeln α, α', α" (gemessen zu der optischen Achse 68) kommen. Aufgrund der nahe beieinanderliegenden Feldwinkel α, α', α" erfolgt die Abbildung auf sehr nahe beieinanderliegenden Bildpunkten auf dem Fotochip 66. Die Lichtbündel durchlaufen vor dem Auftreffen auf den Fotochip 66 das nachfolgend erläuterte Linsensystem.
  • In Strahlengang B sind die drei verschiedenen Lichtbündel 88, 88', 88" dargestellt, welche aus drei verschiedenen mittelgroßen Feldwinkeln α, α', α" nach dem Durchlauf durch das Linsensystem der Optik 34 auf drei unterschiedlichen Bildpunkten , Pα', Pα" auf dem Fotochip 66 abgebildet werden.
  • Strahlengang C zeigt die drei verschiedene Lichtbündel 88, 88', 88", die aus drei unterschiedlichen sehr großen Feldwinkeln α, α', α" auf dem Fotochip 66 als die drei Bildpunkte , Pα', Pα" abgebildet werden, wobei im hier gezeigten Fall ein direkt proportionaler Zusammenhang zwischen den Feldwinkeln α, a', α" und den Abstand der Bildpunkte , Pα', Pα" zu der optischen Achse 68 angegeben werden kann.
  • Nachstehend wird der Aufbau der Optik 34 knapp erläutert, durch welche eine vorteilhafte arbeitsabstandsunabhängige Abbildung von Bildpunkten , Pα', Pα" auf dem Fotochip 66 gewährleistet werden kann. Nach einer ersten Konvex-Konkav-Linse 90 treffen die Lichtbündel 88, 88', 88" auf eine zweite Konvex-Konkav-Linse 92, durch welche die Lichtbündel 88, 88', 88" parallel zu der optischen Achse 68 ausgerichtet werden, bevor sie auf eine erste Bikonvexlinse 94 (d.h. eine Sammellinse) treffen, mit der die jeweiligen Lichtbündel 88, 88', 88" auf einen Brennpunkt 96 konzentriert werden, bevor sie auf eine Plankonkavlinse 98 treffen, in deren Anschluss eine zweite Bikonvexlinse 100 sowie eine dritte Bikonvexlinse 102 angeordnet ist, durch welche die Lichtbündel 88, 88', 88" jeweils parallel zu der optischen Achse 68 auf die Bildpunkte , Pα', Pα" auf dem Fotochip 66 abgebildet werden.
  • Bei der beispielhaft gezeigten Optik 34 beträgt die Brennweite f' 12 mm. Der Fernrohrvergrößerungsfaktor ΓLG1 einer ersten Linsengruppe 90, 92, 94 beträgt 0,4. Die Brennweite fLG1 der ersten Linsengruppe beträgt 59,7 mm. Die Brennweite fLG2 einer zweiten Linsengruppe 98, 100, 102 beträgt 27,847 mm. Der minimale bzw. maximale Abstand amin, amax zwischen einem abzubildenden Objekt und einem vorderen Brennpunkt der Optik 34 493 mm bzw. 1906 mm.
  • Es sei zudem erwähnt, dass die verschiedenen Konvex/Konkav-Wölbungen der einzelnen Linsen sowie deren Beabstandung durch den Fachmann (beispielsweise einen Optikdesigner) derart gewählt bzw. angeordnet werden, dass eine arbeitsabstandsunabhängige Abbildung auf dem Fotochip 66 gewährleistet ist.
  • Die beispielhafte Optik 34 zeichnet sich durch eine verzeichnungsarme Abbildung auf einem sogenannten Machine-Vision-Chip mit einer Bilddiagonalen von 28 mm (hier 4000x3000 Pixel auf einem 5,5 mm Pixelraster) aus. Der von der Optik abbildbare maximale Feldwinkel beträgt 90°, wobei sich die Optimierung des Designs in einer beidseitigen Telezentrie sowie einer weitgehend arbeitsabstandsunabhängigen Lage eines Eintrittspupillenebene der Optik 34 zeigt. Diese beispielhafte und vorteilhafte Ausgestaltung der Optik 34 führt zu einer weitgehend ausbleibenden Änderung der Verzeichung als Funktion des Arbeits- bzw. des Objektebenenabstands hinsichtlich der Strahlengänge A, B, C. D.h. mit anderen Worten, dass die vorteilhafte arbeitsabstandsunabhängige Darstellung durch die Ausgestaltung der Optik realisiert werden kann, wobei auf eine besonders vorteilhafte Weise aus einer Koordinate im Bildraum auf die zu einem Bildpunkt gehörende Objektraumkoordinate geschlossen werden kann.
  • Weitere Beispiele derartiger Optiken, die dazu eingerichtet sind, arbeitsabstandsunabhängig abzubilden, sind ferner aus der von der Anmelderin am 25.06.2018 eingereichten deutschen Patentanmeldung 10 2018 115 197.7 bekannt, auf die hiermit explizit Bezug genommen wird und deren Inhalte in die vorliegende Patentanmeldung durch Bezugnahme aufgenommen werden.
  • 9 zeigt ein Ausführungsbeispiel einer vorteilhaften Optik 34, mit dem aus 8 bekannten Strahlengang C, wobei im hier gezeigten Ausführungsbeispiel zusätzlich zu der Optik 34 ein Strahlteiler 104 gegenüber der optischen Achse 68 derart angeordnet (ausgerichtet) ist, dass auch Lichtbündel durch die Optik 34 abgebildet werden, die aus einer Grenzrichtung 106 kommen. Die Grenzrichtung 106 weist einen größeren Schnittwinkel mit der optischen Achse 68 auf, als ein mathematischer Horizont 108 (als Hilfslinie eingezeichnet). Dabei ist die Abbildung der Umgebung bis unterhalb des mathematischen Horizonts 108 (von bspw. aus der Grenzrichtung 106 kommendem Licht) gerade für die Bestimmung der Position und Lage des optischen Sensors 20 im Raum 16 besonders vorteilhaft.
  • Durch die vorteilhafte Positionierung bspw. des Strahlteilers 106 kann eine 3D-Positions- und Lageerfassung (6-DOF) mit einem einzigen optischen Sensor 20 realisiert werden. Dabei können die vorteilhaften Abbildungseigenschaften von Optiken mit einer langen Brennweite genutzt werden, wobei die opto-mechanische Konstruktion „quasi“ monolithisch ausgeführt werden kann, um eine maximale Stabilität bspw. im Hinblick auf Zeit, Temperatur und/oder mechanische Beanspruchung zu gewährleisten. Dabei entfällt jeglicher Synchronisationsaufwand für eine extrinsische Kalibrierung, die bei einer Verwendung von Mehr-Kamera-Systemen notwendig ist, um die relativen Posen der Kameras untereinander und relativ zum Raum zu erfassen.
  • Das Entfallen einer extrinsischen Kalibrierung ist gerade für Systeme mit großen Volumina (> 10 m3) besonders vorteilhaft, da für diese Systeme eine extrinsische Kalibrierung einen sehr großen Aufwand darstellt, da für eine Gewährleistung von geringen Kalibrierzeiten und zur Erreichung hoher Genauigkeiten große und steife Kalibrierstrukturen zum Einsatz kommen, die möglichst große Volumenintervalle abdecken und per Bildverarbeitung untereinander verknüpfbar sind. Diese Kalibrierstrukturen sind zum einen aufwändig und teuer und zum anderen liefert die extrinsische Kalibrierung gerade im industriellen Umfeld nur begrenzte Genauigkeiten, da sowohl Orts- als auch Winkelaussagen des Navigationssystems sehr sensibel auf Änderungen der Kameraposen reagieren.
  • Der Strahlteiler 104 ist auf einer ersten Seite 110 dazu eingerichtet, nur Licht einer ersten Wellenlänge passieren zu lassen (exemplarisch an den Lichtbündeln 88, 88', 88" dargestellt), das im Wesentlichen parallel zu der ersten Standlinie 42 verläuft. Die restlichen Wellenlängen werden reflektiert. Auf einer zweiten Seite 112 ist der Strahlteiler 104 dazu eingerichtet, nur Licht einer zweiten Wellenlänge passieren zu lassen (exemplarisch als Lichtbündel 114, 114', 114" dargestellt), das im Wesentlichen parallel zu der zweiten Standlinie 44 verläuft.
  • Hierbei sei erwähnt, dass die Formulierung „im Wesentlichen parallel“ im hier vorliegenden Fall bedeutet, dass die jeweiligen Strahlenbündel zu der jeweiligen Richtung entweder parallel oder unter einem spitzen Winkel verlaufen.
  • Der Strahlteiler 104 kann beispielsweise auf der ersten Seite 110 nur Licht einer ersten Farbe (z. B. Rot, Grün oder Blau) passieren lassen und auf der zweiten Seite 112 nur Licht einer zweiten Farbe, die sich von der ersten Farbe unterscheidet, passieren lassen.
  • Durch eine solche vorteilhafte Anordnung des Strahlteilers 104 kann auf eine sehr einfache und günstige Weise der Erfassungsbereich der Optik 34 auf Feldwinkelbereiche von größer 90°, vorzugsweise größer 120°, besonders bevorzugt 180°, erweitert werden, ohne dass eine teure und aufwendige Optik 34 verwendet werden muss.
  • Der Strahlteiler 104 kann beispielsweise durch besondere Beschichtungen auf der ersten Seite 110 sowie auf der zweiten Seite 112 mit einer farbselektiven Beschichtung versehen sein, durch die eine Selektion der Farbe realisiert werden kann. In bevorzugten Ausgestaltungen ist es somit möglich, Licht mit einer ersten Wellenlänge, das entlang der ersten Standlinie 42 verläuft, auf demselben Bildpunkt auf dem Fotochip 66 abzubilden, wie Licht mit einer zweiten Wellenlänge, das entlang der zweiten Standlinie 44 verläuft, ohne dass ein zusätzlicher Platzbedarf auf dem Chip realisiert werden muss. Somit ist es möglich, mehr Informationen auf der zur Verfügung stehenden Chipoberfläche zu speichern.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 5083073 A [0003]
    • DE 102018115197 [0122]

Claims (18)

  1. Messsystem (10), das aufweist: - einen optischen Sensor (20), und - eine Auswerteeinheit (48); wobei der optische Sensor (20) dazu eingerichtet ist, eine Vielzahl von Referenzobjekten (36, 38, 40, 60), deren Position im Raum (16) bekannt ist, zu erfassen, wobei die Auswerteeinheit (48) dazu eingerichtet ist, zwei der Vielzahl von Referenzobjekten (36, 38, 40, 60) zu selektieren, deren Standlinien (42, 44, 46) zueinander einen Winkel aufweisen, dessen Differenz von 90° minimal ist, wobei die jeweilige Standlinie (42, 44, 46) eine Verbindungslinie zwischen dem jeweiligen Referenzobjekt (36, 38, 40, 60) und dem optischen Sensor (20) ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, die Position des optischen Sensors (20) anhand der zwei selektierten Referenzobjekte zu bestimmen.
  2. Messsystem gemäß Anspruch 1, wobei die Auswerteeinheit (48) dazu eingerichtet ist, zur Bestimmung einer räumlichen Lage des optischen Sensors (20) in Bezug auf eine erste von drei zueinander orthogonal ausgerichteten Koordinatenachsen (28, 30, 32) zumindest ein erstes der Vielzahl von Referenzobjekten (36, 38, 40, 60) zu selektieren, dessen Standlinie mit der ersten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, die räumlichen Lage des optischen Sensors (20) in Bezug auf die erste Koordinatenachse anhand des ersten selektierten Referenzobjektes zu bestimmen.
  3. Messsystem gemäß Anspruch 2, wobei die Auswerteeinheit (48) dazu eingerichtet ist, zur Bestimmung einer räumlichen Lage des optischen Sensors (20) in Bezug auf eine zweite der drei Koordinatenachsen (28, 30, 32) zumindest ein zweites der Vielzahl von Referenzobjekten (36, 38, 40, 60) zu selektieren, dessen Standlinie mit der zweiten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, die räumlichen Lage des optischen Sensors (20) in Bezug auf die zweite Koordinatenachse anhand des zweiten selektierten Referenzobjektes zu bestimmen.
  4. Messsystem gemäß Anspruch 3, wobei die Auswerteeinheit (48) dazu eingerichtet ist, zur Bestimmung einer räumlichen Lage des optischen Sensors (20) in Bezug auf eine dritte der drei Koordinatenachsen (28, 30, 32) zumindest ein drittes der Vielzahl von Referenzobjekten (36, 38, 40, 60) zu selektieren, dessen Standlinie mit der dritten Koordinatenachse einen Winkel aufweist, dessen Differenz von 90° minimal ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, die räumlichen Lage des optischen Sensors (20) in Bezug auf die dritte Koordinatenachse anhand des dritten selektierten Referenzobjektes zu bestimmen.
  5. Messsystem gemäß Anspruch 4, wobei das erste, das zweite und das dritte der Vielzahl von Referenzobjekten (36, 38, 40, 60) zumindest zwei verschiedene Referenzobjekte der Vielzahl von Referenzobjekten (36, 38, 40, 60) aufweist.
  6. Messsystem gemäß Anspruch 2-5, welches ferner einen Aktuator (24) aufweist, dessen Relativposition zu dem optischen Sensor (20) zu jedem Zeitpunkt eines Arbeitsvorgangs bekannt ist, und wobei die Auswerteeinheit (48) dazu eingerichtet ist, eine Position des Aktuators (24) im Raum anhand der Position und Lage des optischen Sensors (20) zu bestimmen.
  7. Messsystem gemäß Anspruch 6, wobei der Aktuator (24) einen Taster, ein Werkzeug oder einen Sensor aufweist.
  8. Messsystem gemäß einem der Ansprüche 1-7, wobei der optische Sensor (20) ferner eine Optik (34) und einen Chip (66) aufweist, wobei die Optik (34) dazu eingerichtet ist, Licht, das entlang einer jeweiligen Standlinie (42, 44, 46) verläuft, die zu einem der Vielzahl von Referenzobjekten (36, 38, 40, 60) gehört, auf einen Bildpunkt (Pα) auf dem Chip (66) abzubilden, wobei abgebildete Bildpunkte, die zu verschiedenen Standlinien (42, 44, 46) gehören, jeweils beabstandet zueinander auf dem Chip (66) angeordnet sind.
  9. Messsystem gemäß einem der Ansprüche 1-7, wobei die Optik (34) ferner dazu eingerichtet ist, Licht, das entlang einer jeweiligen Standlinie (42, 44, 46) verläuft, die zu einem der Vielzahl von Referenzobjekten (36, 38, 40, 60) gehört, unabhängig von einem Abstand zwischen dem optischen Sensor (20) und dem jeweiligen Referenzobjekt (36, 38, 40, 60) auf einen Bildpunkt (Pα) auf dem Chip (66) abzubilden, wobei abgebildete Bildpunkte, die zu verschiedenen Standlinien (42, 44, 46) gehören, jeweils beabstandet zueinander auf dem Chip (66) angeordnet sind.
  10. Messsystem gemäß Anspruch 8 oder 9, wobei die Optik (34) eine Fischaugenoptik aufweist.
  11. Messsystem gemäß Anspruch 8 oder 9, wobei die Optik (34) drei im Wesentlichen quer zueinander ausgerichtete Kameras aufweist.
  12. Messsystem gemäß Anspruch 11, wobei die drei Kameras orthogonal zueinander ausgerichtet sind.
  13. Messsystem gemäß Anspruch 8 oder 9, wobei die Optik (34) ein dichroitisches Prisma aufweist.
  14. Messsystem gemäß Anspruch 8 oder 9, wobei die Optik (34) einen ersten Strahlteiler (104) aufweist, der dazu eingerichtet ist, Licht mit einer ersten Wellenlänge aus einer ersten Einfallsrichtung (88) auf einen ersten Bildpunkt (Pα) auf dem Chip (66) abzubilden, und Licht mit einer zweiten Wellenlänge aus einer zweiten Einfallsrichtung (114) auf dem ersten Bildpunkt (Pα) auf dem Chip (66) abzubilden; und Licht mit der ersten Wellenlänge aus einer dritten Einfallsrichtung (88') auf einem zweiten Bildpunkt (Pα') auf dem Chip (66) abzubilden, und Licht mit der zweiten Wellenlänge aus einer vierten Einfallsrichtung (114') auf dem zweiten Bildpunkt (Pα') abzubilden.
  15. Messsystem gemäß Anspruch 8 oder 9, wobei die Optik (34) einen teiltransmissiven Spiegel, einen Innenkegelspiegel, einen Innenkegelstumpf-Spiegel, einen Facettenspiegel, ein diffraktives Optikelement, ein rotationssymmetrisches Optikelement, ein sphärisches Optikelement, ein parabolisches Optikelement, ein hyperbolisches Optikelement, einen Konvexspiegel oder einen Konkavspiegel aufweist.
  16. Messsystem gemäß Anspruch 1-15, welches ferner einen Endeffektor (18) eines Roboters, ein handgeführtes Koordinatenmessgerät (64) oder eine Pinole (22) aufweist, an dem/an der der optische Sensor (20) angeordnet ist.
  17. Messsystem gemäß Anspruch 1-16, wobei die Vielzahl von Referenzobjekten (36, 38, 40, 60) mindestens einen optischen Marker (60) aufweist.
  18. Messsystem gemäß Anspruch 17, welches ferner einen Projektor aufweist, der dazu eingerichtet ist, den mindestens einen optische Marker (60) in den Raum (16) zu projizieren.
DE102018115620.0A 2018-06-28 2018-06-28 Messsystem Withdrawn DE102018115620A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018115620.0A DE102018115620A1 (de) 2018-06-28 2018-06-28 Messsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018115620.0A DE102018115620A1 (de) 2018-06-28 2018-06-28 Messsystem

Publications (1)

Publication Number Publication Date
DE102018115620A1 true DE102018115620A1 (de) 2020-01-02

Family

ID=68885696

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018115620.0A Withdrawn DE102018115620A1 (de) 2018-06-28 2018-06-28 Messsystem

Country Status (1)

Country Link
DE (1) DE102018115620A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104920A1 (de) 2021-03-02 2022-09-08 Jungheinrich Aktiengesellschaft Verfahren zum kalibrieren von koordinatensystemen in flurförderzeugen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5083073A (en) 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot
DE19536296A1 (de) * 1995-09-29 1997-04-03 Daimler Benz Ag Signalmarken und Verfahren zu deren Identifizierung
DE19721903C1 (de) * 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE102011011360A1 (de) * 2011-02-16 2012-08-16 Steinbichler Optotechnik Gmbh Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102015204796A1 (de) * 2015-03-17 2016-09-22 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts
DE102018115197A1 (de) 2018-06-25 2020-01-02 Carl Zeiss Industrielle Messtechnik Gmbh Optische Abbildungseinheit und System zur Positionsbestimmung eines beweglichen Objektes im Raum

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5083073A (en) 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot
DE19536296A1 (de) * 1995-09-29 1997-04-03 Daimler Benz Ag Signalmarken und Verfahren zu deren Identifizierung
DE19721903C1 (de) * 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE102011011360A1 (de) * 2011-02-16 2012-08-16 Steinbichler Optotechnik Gmbh Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102015204796A1 (de) * 2015-03-17 2016-09-22 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts
DE102018115197A1 (de) 2018-06-25 2020-01-02 Carl Zeiss Industrielle Messtechnik Gmbh Optische Abbildungseinheit und System zur Positionsbestimmung eines beweglichen Objektes im Raum

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104920A1 (de) 2021-03-02 2022-09-08 Jungheinrich Aktiengesellschaft Verfahren zum kalibrieren von koordinatensystemen in flurförderzeugen

Similar Documents

Publication Publication Date Title
EP2914205B1 (de) Kalibrierungsvorrichtung und verfahren zur kalibrierung einer dentalen kamera
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
EP1420264B1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE102019212196A1 (de) Robotersystem mit bestimmungssystem für zusätzliche messtechnikpositionskoordinaten
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102011114674C5 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
EP2255930A1 (de) Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
EP2461132A1 (de) Teleskop zur Verwendung in einem Vermessungsinstrument und Verfahren zur automatisierten Autokollimation eines Teleskops eines Vermessungsinstruments mit einem Autokollimationsziel
EP2133659B1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
EP1901033B1 (de) Vorrichtung und Verfahren zur mobilen berührungslosen Erfassung, sowie Ermittlung und Auswertung von Körper-Konturen
DE102018127221B4 (de) Koordinatenmesssystem
EP2506027B1 (de) Abbildungssystem für Sternsensoren mit zwei Brennweiten
DE102017210060A1 (de) Interferenzmessvorrichtung und verfahren zum messen unter verwendung dieser vorrichtung
DE102016124549A1 (de) Messsystem
DE102009030883A1 (de) Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben
DE102018217285A1 (de) Tastsystem zur optischen und taktilen Vermessung mindestens eines Messobjekts
DE102013004738A1 (de) Verfahren zur zielgerichteten Justierung von optischen Bauelementen zu einer Bezugsachse
EP3418680B1 (de) System und verfahren zur positionierungsmessung
DE102016120557A1 (de) System zum dimensionalen Messen eines Objekts
EP1640688A1 (de) Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands
EP2942600A1 (de) Verfahren und vorrichtung zur messung einer dezentrierung und verkippung von flächen eines optischen elements
DE102018115197A1 (de) Optische Abbildungseinheit und System zur Positionsbestimmung eines beweglichen Objektes im Raum

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee