DE102016125480A1 - Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors - Google Patents

Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors Download PDF

Info

Publication number
DE102016125480A1
DE102016125480A1 DE102016125480.0A DE102016125480A DE102016125480A1 DE 102016125480 A1 DE102016125480 A1 DE 102016125480A1 DE 102016125480 A DE102016125480 A DE 102016125480A DE 102016125480 A1 DE102016125480 A1 DE 102016125480A1
Authority
DE
Germany
Prior art keywords
measuring device
camera
rotary
sensor
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016125480.0A
Other languages
English (en)
Inventor
Detlef Winter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss GOM Metrology GmbH
Original Assignee
GOM Gesellschaft fuer Optische Messtechnik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GOM Gesellschaft fuer Optische Messtechnik mbH filed Critical GOM Gesellschaft fuer Optische Messtechnik mbH
Priority to DE102016125480.0A priority Critical patent/DE102016125480A1/de
Publication of DE102016125480A1 publication Critical patent/DE102016125480A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Abstract

Messeinrichtung (1), mit einer Kamera (5) zur Erfassung von mindestens drei optischen Zielmarken (20, 20a, 20b, 20c) in der Umgebung der Messeinrichtung (1) zur Bestimmung der räumlichen Position und räumlichen Orientierung der Messeinrichtung (1), wobei die Messeinrichtung (1) zur Verbindung mit einem zur Messung von dreidimensionalen Koordinaten ausgebildeten Sensor ausgebildet ist. Die Messeinrichtung (1) enthält eine Dreh-Schwenk-Einheit (4) mit mindestens einer Drehachse (8) und mindestens einer Schwenkachse (9), wobei die mindestens eine Kamera (5) so an der Dreh-Schwenk-Einheit (4) befestigt ist, dass das Sichtfeld der Kamera (5) durch das Drehen und Schwenken der Dreh-Schwenk-Einheit (4) um die mindestens eine Drehachse (8) und die mindestens eine Schwenkachse (9) veränderbar ist, wobei die Dreh- und Schwenkachsen (8, 9) der Dreh-Schwenk-Einheit (4) nicht parallel zueinander sind. Die Messeinrichtung (1) hat eine Steuereinheit (6) zur Ansteuerung der Dreh-Schwenk-Einheit (4) und der Kamera (5), und die Messeinrichtung (1) eine Auswerteeinheit (7) zum Auslesen von Drehwinkelgebern der Dreh-Schwenk-Einheit (4) und zum Auslesen der Bilder der Kamera (5) hat, und zur Bestimmung der räumlichen Position und räumlichen Orientierung der Messeinrichtung (1) in Abhängigkeit von den durch die ausgelesenen Winkel der Drehwinkelgeber bestimmten Dreh- und Schwenkwinkel der Dreh-Schwenk-Einheit (4) und der ausgelesenen Kamerabilder eingerichtet ist.

Description

  • Die Erfindung betrifft eine Messeinrichtung, mit einer Kamera zur Erfassung von mindestens drei optischen Zielmarken in der Umgebung der Messeinrichtung zur Bestimmung der räumlichen Position und räumlichen Orientierung der Messeinrichtung , wobei die Messeinrichtung zur Verbindung mit einem zur Messung von dreidimensionalen Koordinaten ausgebildeten Sensor vorgesehen ist.
  • Die Erfindung betrifft weiterhin eine Messanordnung mit einer solchen Messeinrichtung und mit optischen Zielmarken sowie ein Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors mit einer solchen Messeinrichtung.
  • Die Bestimmung der Geometrie von Objekten ist eine zentrale Aufgabe im Rahmen der Fertigungsmesstechnik. Es existieren verschiedene Methoden, die sich prinzipiell in berührende (taktile) und nicht berührende Verfahren unterteilen lassen. Beide Methoden weisen individuelle Vor- und Nachteile auf. In der Praxis gibt es eine Vielzahl von 3D-Messsystemen, die zur Bestimmung von 3D-Koordinaten eines Objektes ein berührendes oder nicht berührendes Verfahren nutzen.
  • Typischerweise lässt sich ein Objekt nicht von einem Standpunkt aus vollumfänglich vermessen. Das Objekt kann zum Beispiel größer sein, als der innerhalb eines Standpunktes zu erfassende Messbereich des 3D-Sensors. Häufig sind auch Teile des Objektes je nach Standpunkt durch die Kulisse und/oder sich selbst verdeckt. Um das Objekt vollständig zu erfassen, wird deshalb im Allgemeinen entweder der 3D-Sensor und/oder das Objekt in seiner räumlichen Position und räumlichen Orientierung verändert. Nachfolgend stellt sich die Aufgabe, die Messungen mit jeweils einer bestimmten relativen Ausrichtung des 3D-Sensors zum zu vermessenden Objekt in ein gemeinsames Koordinatensystem zu überführen. Diese mathematische Aufgabe wird häufig als Registrierung bezeichnet.
  • Es existieren zahlreiche Methoden zur Registrierung. Gebräuchliche Verfahren sind zum Beispiel Flächenmatching, Tracking und photogrammetrische Verfahren.
  • Aus der EP 0 881 461 B1 ist ein Verfahren und eine Vorrichtung zur Bestimmung der 3D-Lage (entspricht der 3D-Position und 3D-Orientierung, also drei Koordinaten X-Y-Z und drei Raumwinkeln ω-φ-k) einer Tasterspitze bekannt. Die Vorrichtung besteht aus einem Taster mit einer Tasterspitze, wobei der Taster mit mindestens einer Kamera starr verbunden ist. Die optische Achse der mindestens einen Kamera schließt mit der Tasterachse einen spitzen Winkel ein. Dadurch ist das Sichtfeld der mindestens einen Kamera von der Tastspitze weggerichtet. Die mindestens eine Kamera blickt in Richtung einer Targetfläche. Die Targetfläche besteht aus mindestens drei optisch messbaren Targets, die sich an einer ortsfesten Position zum Beispiel an den Wänden und der Decke der Messumgebung befinden. Die 3D-Koordinaten der Targets sind bekannt. Sie können zum Beispiel durch eine photogrammetrische Vermessung bestimmt werden.
  • In einer einfachen Ausgestaltung ist der Taster mit einer Kamera ausgestattet. Das zu vermessende Objekt wird nun mit der Tastspitze angetastet. Parallel nimmt die Kamera ein Messbild auf, welche mindestens drei Targets enthalten muss, die nicht auf einer Linie angeordnet sind. Bei bekannter innerer Orientierung der Kamera kann anhand des sogenannten photogrammetrischen Rückwärtsschnittes die äußere Orientierung also die 3D-Lage der Kamera ermittelt werden. Anhand der bekannten starren Ausrichtung der Kamera zur Tasterspitze kann aus der 3D-Lage der Kamera die 3D-Lage der Tasterspitze berechnet werden.
  • In einer vorteilhaften Ausgestaltung werden mehrere Kameras verwendet, die starr mit dem Taster verbunden sind, deren optische Achse jeweils einen Winkel von 25° zur Tasterachse aufweist. Dadurch wird ein größeres Gesamtsichtfeld erzielt, so dass die 3D-Lage des Tasters für einen größeren Wertebereich und mit höherer Genauigkeit bestimmt werden kann.
  • Das in dieser EP 0 881 461 B1 offenbarte Verfahren und die offenbarte Vorrichtung weist jedoch Limitierungen auf. So ist der Messbereich, in dem der Taster verwendet werden kann, durch die starre Ausrichtung der Kamera zur Tasterachse begrenzt, da immer mindestens drei Targets gemessen werden müssen. Zwar kann durch den Einsatz von Weitwinkelobjektiven das Sichtfeld vergrößert werden. Jedoch wird das Abbildungsmodell, also die mathematische Beschreibung der Abbildung eines Objektpunktes durch das Objektiv in das Messbild, komplexer und schwerer beherrschbar. Auch bei Einsatz von mehreren Kameras ist eine vollumfängliche Abdeckung praktisch nicht realisierbar. Zudem wird das System teurer und unhandlicher aufgrund der zusätzlichen Kameras.
  • Aufgabe der Erfindung ist es, die benannten Limitierungen zu überwinden. So ist es insbesondere die Aufgabe der Erfindung, eine Vorrichtung und ein Verfahren zu schaffen, welche die Bestimmung der räumlichen Position und Orientierung prinzipiell beliebiger Sensoren ermöglicht. Zudem soll der Sensor insbesondere hinsichtlich seiner räumlichen Orientierung beliebig im Messraum ausgerichtet werden können, ohne dass die Bestimmung der räumlichen Position und Orientierung dadurch eingeschränkt wird. Weiterhin soll die Vorrichtung und das Verfahren flexibel hinsichtlich der Anzahl und räumlichen Verteilung der angemessenen Targets sein.
  • Die Aufgabe wird mit der Vorrichtung mit den Merkmalen des Anspruchs 1 sowie mit dem Verfahren gemäß Anspruch 20gelöst.
  • Vorteilhafte Ausführungsformen sind in den Unteransprüchen beschrieben.
  • Für eine Messeinrichtung, die ihre räumliche Position und räumliche Orientierung (6 Freiheitsgrade) in ihrer Umgebung bestimmen kann und die mit mindestens einem 3D-Sensor, welcher zur Messung von dreidimensionalen Koordinaten eingerichtet ist, mechanisch verbunden ist, wird vorgeschlagen, dass:
    1. a. die Messeinrichtung eine Dreh-Schwenk-Einheit enthält, an der mindestens eine Kamera so befestigt ist, so dass die Kamera durch das Drehen und Schwenken der Dreh-Schwenk-Einheit ein vergrößertes Sichtfeld hat,
    2. b. die Drehachsen der Dreh-Schwenk-Einheit nicht parallel zueinander sind,
    3. c. die Messeinrichtung eine Steuereinheit zur Ansteuerung der Dreh-Schwenk-Einheit und der Kamera hat,
    4. d. die Messeinrichtung eine Auswerteeinheit zum Auslesen der Drehwinkelgeber der Dreh-Schwenk-Einheit und zum Auslesen der Bilder der Kamera hat,
    5. e. in der Umgebung der Messeinrichtung mindestens drei optische Zielmarken vorhanden sind.
  • Die Messeinrichtung umfasst als wesentliche Bestandteile eine Dreh-Schwenk-Einheit, eine Kamera, eine Steuereinheit und eine Auswerteeinheit. Die Dreh-Schwenk-Einheit ist mechanisch mit dem 3D-Sensor verbunden. Auf der Dreh-Schwenk-Einheit ist eine Kamera befestigt. Die Dreh-Schwenk-Einheit hat zwei Achsen, die nicht parallel zueinander angeordnet sind. Die Steuereinheit ist so eingerichtet, dass sie die Achsen der Dreh-Schwenk-Einheit ansteuern kann. Durch Veränderung der Achswinkel von Drehachse und/oder Schwenkachse kann die Kamera ihre Position und Orientierung zum 3D-Sensor definiert verändern. Die Steuereinheit ist zudem so eingerichtet, dass sie die Kamera ansteuern kann, also insbesondere Bildmessungen auslösen kann. Die Auswerteeinrichtung ist so eingerichtet, dass sie den Drehwinkelgeber der Dreh-Schwenk-Einheit sowie die Kamerabilder auslesen kann. In der Umgebung der Messeinrichtung befinden sich mindestens drei optische Zielmarken. Diese sind fest angeordnet und liegen nicht auf einer Geraden.
  • Das Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines 3D-Sensors in einem übergeordneten Koordinatensystem, welcher zur Messung von dreidimensionalen Koordinaten dient, mit Hilfe der beschriebenen Messeinrichtung umfasst folgende Verfahrensschritte:
    1. a. Ansteuerung der Dreh-Schwenk-Einheit so dass die Kamera in Summe mindestens drei optische Zielmarken in mindestens einem Bild gemessen hat,
    2. b. Bestimmen der Bildkoordinaten jeder gemessenen optischen Zielmarke in dem mindestens einen Bild,
    3. c. Auslesen der Drehwinkel der Dreh-Schwenk-Einheit je gemessenem Bild
    4. d. Berechnung der Position und Orientierung des 3D-Sensors in dem übergeordneten Koordinatensystem anhand der Bildkoordinaten der gemessenen optischen Zielmarken in dem mindestens einen Bild, den ausgelesenen Drehwinkeln der Dreh-Schwenk-Einheit je gemessenem Bild, den bekannten 3D-Koordinaten der gemessenen optischen Zielmarken sowie der bekannten relativen Position und relativen Orientierung zwischen 3D-Sensor und Dreh-Schwenk-Einheit in ihrer Nullstellung/Referenzposition sowie der bekannten relativen Position und relativen Orientierung zwischen 3D-Sensor und Dreh-Schwenk-Einheit und Kamera.
  • Für die Durchführung des Verfahrens muss die relative Position und Orientierung der Dreh-Schwenk-Einheit zum 3D-Sensor bekannt sein. Dies bezieht sich auf eine definierte Stellung der Dreh- und der Schwenkachse. Typischerweise besitzt eine Dreh-Schwenk-Einheit eine sogenannte „Home-Position“ (auch Nullstellung oder Referenzposition bezeichnet). Sie ist als definierte Ausgangsstellung sehr geeignet. Als Bezugsstellung ist aber auch eine andere definierte Stellung der beiden Achsen möglich. Ausgehend von der definierten Stellung wird durch ein geeignetes Verfahren die Position und Orientierung der Dreh-Schwenk-Einheit zum 3D-Sensor bestimmt.
  • Im ersten Verfahrensschritt wird die Dreh-Schwenk-Einheit durch die Steuereinheit so angesteuert, dass die Kamera in Summe mindestens drei optische Zielmarken in mindestens einem Bild misst. Dabei ist es für das Verfahren unerheblich, ob die mindestens drei Marken in genau einem Bild gemessen werden ober ob mehrere Bilder notwendig sind, um in Summe drei optische Zielmarken gemessen zu haben.
  • Im zweiten Schritt werden je gemessenem Bild die Achswinkel der Dreh- und der Schwenkachse anhand der Steuereinheit ausgelesen.
  • Im dritten Schritt werden die Bildkoordinaten jeder gemessenen optischen Zielmarke in dem mindestens einen Bild bestimmt. Abhängig von der Ausgestaltung der optischen Zielmarke ist dazu ein geeigneter Detektionsalgorithmus anzuwenden.
  • Im vierten Schritt wird die Position und Orientierung des 3D-Sensors in dem übergeordneten Koordinatensystem anhand der Bildkoordinaten der gemessenen optischen Zielmarken in dem mindestens einen Bild, den ausgelesenen Drehwinkeln der Dreh-Schwenk-Einheit je gemessenem Bild, den bekannten 3D-Koordinaten der gemessenen optischen Zielmarken sowie der bekannten relativen Position und relativen Orientierung zwischen 3D-Sensor und Dreh-Schwenk-Einheit in ihrer Nullstellung/Referenzposition sowie der bekannten relativen Position und relativen Orientierung zwischen 3D-Sensor und Dreh-Schwenk-Einheit und Kamera berechnet.
  • Die Berechnung basiert auf dem photogrammetrischen Rückwärtsschnitt. Dabei wird die räumliche Position und Orientierung der Kamera anhand mindestens drei gemessener optischer Zielmarken unter Kenntnis der 3D-Koordinaten der optischen Zielmarken in dem übergeordneten Koordinatensystem berechnet. Bei dem klassischen Rückwärtsschnitt werden aber die mindestens drei optischen Zielmarken in einem einzigen Bild gemessen.
  • Denkbar ist es darüber hinaus auch, in mehreren verschiedenen Positionen und Orientierungen (realisiert durch definierte Änderung der Dreh- und/oder Schwenkachse der Dreh-Schwenkeinheit) jeweils ein Messbild mit jeweils mindestens einer optischen Zielmarke aufzunehmen, so dass in Summe mindestens drei optische Zielmarken gemessen worden sind. So kann die Position und Orientierung des 3D-Sensors aus den mindestens drei gemessenen optischen Zielmarken dadurch bestimmt werden, dass sich die relative Positions- und Orientierungsänderung der Kamera zur Dreh-Schwenk-Einheit und nachfolgend zum 3D-Sensor aus den Drehwinkeln der Dreh-Schwenk-Einheit je Bild ergibt.
  • Das Verfahren hat sehr viele Vorteile. Aufgrund der Kombination der Kamera mit der Dreh-Schwenk-Einheit wird ein sehr großes Gesamtsichtfeld erzielt. Die Kamera selbst benötigt nur ein schmales Sichtfeld (also einen kleinen Öffnungswinkel). Die Erweiterung erfolgt durch die Ansteuerung der Dreh-Schwenkeinheit.
  • Aufgrund des sehr großen Gesamtsichtfeldes können mehr optische Zielmarken angemessen werden, als bei einer festen Kamera. Zudem ergibt sich im Allgemeinen ein geometrisch günstigerer Strahlenschnitt. Die höhere Anzahl an Messungen und der geometrisch günstigere Strahlenschnitt führen zu einer höheren Genauigkeit der Positions- und Orientierungsbestimmung.
  • Das vergleichsweise schmale Sichtfeld der Kamera kann durch ein Normalwinkel- oder ein Teleobjektiv erzielt werden. Vorteilhafterweise wird eine Festbrennweite verwendet. Die mathematische Beschreibung der Abbildung aus dem Objektraum in den Bildraum (für die Kamera) ist für ein Normalwinkel- bzw. Teleobjektiv genauer bestimm- und beherrschbar als für ein Weitwinkelobjektiv. Zudem kann durch geeignete Ansteuerung der Dreh-Schwenk-Einheit dafür gesorgt werden, dass die optischen Marken jeweils in der Bildmitte gemessen werden. Dadurch steigt ebenfalls die Genauigkeit der Positions- und Orientierungsbestimmung deutlich an.
  • Die Messeinrichtung ist mit einem 3D-Sensor verbunden. Der 3D-Sensor ist so eingerichtet, dass er 3D-Koordinaten eines Objektes messen kann. Dabei kann der 3D-Sensor gemeinhin nach einem beliebigen Messprinzip arbeiten.
  • In einer vorteilhaften Ausführung ist der 3D-Sensor als topometrischer Sensor ausgestaltet. Der topometrische Sensor besteht aus mindestens einer Projektionseinheit zur Projektion von Mustern auf ein Objekt sowie mindestens einer Bildaufnahmeeinheit (im Allgemeinen eine Kamera) zur Aufnahme des von dem Objekt zurückgestreuten Musters. Die Bildaufnahmeeinheit und die Projektionseinheit sind durch ein Verbindungselement mechanisch miteinander gekoppelt. Der topometrische Sensor ermöglicht eine berührungslose und zerstörungsfreie Messung von Objekten mit einer hohen Punktdichte und hohen Messgenauigkeit.
  • In einer weiteren vorteilhaften Ausführung ist der 3D-Sensor als mechanischer Taster ausgestaltet. Der Taster weist eine Tastspitze auf, mit der Objekte punktweise berührend vermessen werden können.
  • Der 3D-Sensor ist vorteilhaft so eingerichtet, dass er ortsbezogene Messdaten eines Objektes liefert. Die jeweiligen ortsbezogenen Messdaten können anhand der in dieser Erfindung beschriebenen Messeinrichtung und des zugehörigen Verfahrens in das übergeordnete Koordinatensystem transformiert werden. Die ortsbezogenen Messdaten können also anhand der bekannten räumlichen Position und räumlichen Orientierung des 3D-Sensors zum Zeitpunkt ihrer Messung registriert werden.
  • In einer weiteren vorteilhaften Ausgestaltung trägt die Dreh-Schwenk-Einheit ein optisches Umlenkelement. Typische optische Umlenkelemente sind zum Beispiel Prismen und Spiegel. Die Kamera ist mechanisch mit dem 3D-Sensor verbunden. Das Sichtfeld der Kamera schließt das optische Umlenkelement ein. Somit sieht die Kamera den Bereich der Umgebung der Messeinrichtung, dessen Lichtstrahlen am optischen Umlenkelement in Richtung der Kamera umgelenkt werden Durch die definierte Ansteuerung der Dreh- und/oder Schwenkachse der Dreh-Schwenk-Einheit verändert das optische Umlenkelement seine relative Lage zur Kamera. Dementsprechend sieht die Kamera einen anderen Bereich der Umgebung der Messeinrichtung. In Summe wird somit in dieser vorteilhaften Ausgestaltung der Messeinrichtung das Sichtfeld der Kamera ebenfalls durch die definierte Ansteuerung der Dreh- und/oder Schwenkachse der Dreh-Schwenk-Einheit vergrößert.
  • Vorteilhafterweise wird die Messeinrichtung und der mit ihr verbundene 3D-Sensor an einem manuell bedienbaren Manipulator befestigt. Mit Hilfe des Manipulators kann die Messeinrichtung ihre Position und Orientierung innerhalb des Messumgebung variieren. Ein typischer manuell bedienbarer Manipulator ist ein Stativ. Geeignet sind die marktüblichen Stativ-Ausführungen, wie zum Beispiel die in der Messtechnik weit verbreiteten Säulenstative. Es sind aber auch andere Manipulatoren wie z.B. ein manueller Drehtisch, eine manuell bedienbare Verfahrachse etc. möglich.
  • In einer weiteren vorteilhaften Ausgestaltung wird die Messeinrichtung und der mit ihr verbundene 3D-Sensor an einem automatisierten Manipulator befestigt. Dieser ermöglicht ebenfalls die Variation der Position und Orientierung des 3D-Sensors innerhalb der Messumgebung. Ein typischer automatisierter Manipulator ist ein Industrieroboter. Möglich sind aber auch andere automatisierte Manipulatoren, wie z.B. Drehtisch, Linearachsen etc. Es kann auch vorteilhaft sein, mehrere automatisierte Manipulatoren zu koppeln. Zum Beispiel wird die Messeinrichtung und der 3D-Sensor mit einem automatischen Manipulator verbunden. Dieser automatische Manipulator wird dann mit mindestens einem weiteren automatischen Manipulator verbunden, so dass die Position und Orientierung des 3D-Sensors durch alle Manipulatoren variiert werden kann.
  • Der kombinierte Einsatz eines automatisierten Manipulators und der erfindungsgemäßen Messeinrichtung mit dem verbundenen 3D-Sensor hat viele Vorteile. Unter der Annahme dass die räumliche Position und Orientierung des automatisierten Manipulators im übergeordneten Koordinatensystem bekannt ist und die relative Position und Orientierung des automatisierten Manipulators zum 3D-Sensor sowie die relative Position und Orientierung des 3D-Sensors zur Dreh-Schwenk-Einheit bekannt sind, kann aus der Stellung der Achsen der Dreh-Schwenk-Einheit berechnet werden, in welcher räumlichen Position und räumlichen Orientierung sich die Kamera im übergeordneten Koordinatensystem befindet. Ebenso kann berechnet werden, welche optischen Zielmarken sich für die jeweilige Ausrichtung innerhalb des Sichtfeldes der Kamera befinden. Ferner kann ermittelt werden, welche Achswinkel bei der Dreh-Schwenk-Einheit eingestellt werden müssen, um eine bestimmte optische Zielmarke innerhalb des Sichtfeldes der Kamera zu haben.
  • Der automatisierte Manipulator wird vorzugsweise in Bezug auf das übergeordnete Koordinatensystem durch ein geeignetes Kalibrierverfahren eingemessen. Ebenfalls wird durch ein geeignetes Kalibrierverfahren die relative Position und relative Orientierung des automatisierten Manipulators zur Dreh-Schwenk-Einheit in ihrer Referenzposition ermittelt. Anhand der beiden Kalibrierungen sowie den jeweiligen Achswinkeln des automatisierten Manipulators kann berechnet werden, in welcher räumlichen Position die Kamera sich unter Kenntnis der Achswinkel der Dreh-Schwenk-Einheit befindet und in welche räumliche Richtung die optische Achse der Kamera schaut. Anhand der Positions- und Orientierungsinformationen des automatisierten Manipulators kann somit geprüft werden, welche optischen Zielmarken in der jeweiligen räumlichen Position und Orientierung des 3D-Sensors gemessen werden können und wie dazu die Achswinkel der Dreh-Schwenk-Einheit gewählt sein müssen, dass die optische Achse auf die jeweilige optische Zielmarke gerichtet ist, so dass die optische Zielmarke möglichst mittig im Bild gemessen werden kann. Anhand der Information, welche optischen Zielmarken in der jeweiligen räumlichen Position und räumlichen Orientierung der Messeinrichtung gemessen werden können, kann durch ein geeignetes Verfahren berechnet werden, welche drei optischen Zielmarken gemessen werden sollen, um eine möglichst hohe Positions- und Orientierungsgenauigkeit zu erzielen. Gleichwohl könnte auch durch ein geeignetes Verfahren berechnet werden, welche Untermenge der potentiell messbaren optischen Zielmarken gemessen werden müssen, um zum Beispiel eine geforderte Positions- und Orientierungsgenauigkeit zu erzielen.
  • Sofern in der Messumgebung stationäre Objekte vorhanden sind, so ist es vorteilhaft, wenn ihre räumliche Position und räumliche Orientierung im übergeordneten Koordinatensystem bekannt sind. Sie können dann bei der Bestimmung, welche optischen Zielmarken aus der jeweilig genähert bekannten räumlichen Position und räumlichen Orientierung des 3D-Sensors beobachtet werden können, zusätzlich berücksichtigt werden. Es reicht dann also zum Beispiel nicht aus, dass die Dreh-Schwenk-Einheit auf eine optische Zielmarke so ausgerichtet werden kann, dass das Sichtfeld der Kamera die optische Zielmarke beinhaltet. Zusätzlich darf der zugehörige Sichtstrahl (optische Zielmarke - zugehöriger Bildpunkt) nicht durch ein Objekt zwischen Kamera und optischer Zielmarke blockiert sein.
  • In den bisherigen vorteilhaften Ausgestaltung der Messeinrichtung mit einem automatisierten Manipulator wird die räumliche Position und räumliche Orientierung der Messeinrichtung ausschließlich aus der Messung der mindestens drei optischen Zielmarken in mindestens einem Bild berechnet. Die (bei entsprechender Kalibrierung) näherungsweise bekannte Position und Orientierung des 3D-Sensors anhand der Achsstellungen des automatisierten Manipulators wird bisher nur für die Auswahl und/oder Anzielen der optischen Marken verwendet. In einer weiteren vorteilhaften Ausgestaltung wird die näherungsweise bekannte Position und Orientierung zusammen mit den gemessenen optischen Marken verwendet, um eine genaue Position und Orientierung des 3D-Sensors zu berechnen. In diesen Fall müssen nicht zwingend drei optische Zielmarken gemessen worden sein. Schon die Messung einer einzigen optischen Zielmarke kann die Genauigkeit der Position und Orientierung der Näherungslösung des 3D-Sensors anhand der Achsstellungen des automatischen Manipulators signifikant erhöhen. Die Berechnung verwendet dabei sowohl die Näherungslösung als auch die Bildkoordinaten sowie die Achsstellungen der Dreh-Schwenk-Einheit der mindestens einen gemessenen optischen Zielmarke.
  • Zur Bestimmung der räumlichen Position und räumlichen Orientierung des 3D-Sensors gemäß des hier beschriebenen Verfahrens werden die 3D-Koordinaten der optischen Zielmarken im übergeordneten Koordinatensystem benötigt. Diese können zum Beispiel vor der Positions- und Orientierungsbestimmung durch eine photogrammetrische Vermessung ermittelt werden. In einer vorteilhaften Ausgestaltung erfolgt die Bestimmung der 3D-Koordinaten der optischen Zielmarken im übergeordneten Koordinatensystem anhand der Messeinrichtung. Die Kamera der Messeinrichtung wird dazu in verschiedene Positionen und Orientierung angeordnet. Dies kann auch unter Einsatz der Dreh-Schwenk-Einheit erfolgen. In jeder Ausrichtung nimmt die Kamera jeweils mindestens ein Bild auf. Durch eine photogrammetrische Berechnung z.B. nach dem Prinzip der Bündelblockausgleichung können die 3D-Koordinaten der optischen Zielmarken im übergeordneten Koordinatensystem berechnet werden.
  • In einer weiteren vorteilhaften Ausgestaltung umfasst die Messeinrichtung mindestens eine weitere Dreh-Schwenkeinheit, welche mechanisch mit dem 3D-Sensor verbunden ist und jeweils eine Kamera trägt. Die Verwendung mehrerer Dreh-Schwenkeinheiten mit jeweils einer Kamera hat viele Vorteile. So kann dadurch das kombinierte Gesamtsichtfeld bestehend aus der Summe der Gesamtsichtfelder jeder Kamera nochmals vergrößert werden. Somit kann der 3D-Sensor noch flexibler eingesetzt werden, da praktisch jede räumliche Position und räumliche Orientierung des 3D-Sensors durch das große kombinierte Gesamtsichtfeld bestimmbar ist. Zusätzlich wird die Messzeit zur Bestimmung der mindestens drei optischen Zielmarken verringert, da die Dreh-Schwenkeinheiten parallel (und somit praktisch unabhängig voneinander) auf ein oder mehrere optische Zielmarken ausgerichtet werden können. Bei gleicher Messzeit können somit mehr optische Zielmarken erfasst werden, wodurch die Genauigkeit der Positions- und Orientierungsbestimmung gesteigert wird.
  • Die Güte der der Positions- und Orientierungsbestimmung ist insbesondere auch abhängig von der Genauigkeit der Bildpunktmessung der optischen Zielmarken im Messbild. Die Genauigkeit der Bildpunktmessung ist insbesondere abhängig von der Größe und Kontrast der Abbildung sowie der geometrischen Form der optischen Zielmarke.
  • Zur Erzielung eines möglichst hohen Kontrasts ist es empfehlenswert, eine Beleuchtungsquelle einzusetzen. In einer weiteren vorteilhaften Ausgestaltung hat die Messeinrichtung deshalb mindestens eine Beleuchtungseinheit. Die mindestens eine Beleuchtungseinheit ist vorzugsweise so angeordnet, dass sie Licht in Richtung des Sichtfeldes der Kamera aussenden kann. Sie ermöglicht damit die Ausleuchtung der optischen Zielmarken, so dass diese in dem mindestens einen Messbild detektiert werden können.
  • Je nach geometrischer Lagebeziehung der Kamera und den optischen Zielmarken in der Messumgebung, dem Reflexionsverhalten der optischen Zielmarken sowie der Ausgestaltung des Sichtfeldes der Kamera ist es möglich, dass eine optimale Ausleuchtung der optischen Zielmarken mit der mindestens einen Beleuchtungseinheit nicht realisierbar ist. Insbesondere bei großen Abständen zwischen Messeinrichtung und optischen Zielmarken ist es möglich, dass das Licht der Beleuchtungseinheit nicht ausreicht. Deshalb kann es vorteilhaft sein, wenn die optischen Zielmarken mindestens eine Beleuchtungseinheit haben. Somit können die optischen Zielmarken auch über größere Entfernung mit einem hohen Kontrast gemessen werden.
  • Eine mögliche technische Umsetzung zur Verknüpfung von optischen Zielmarken und Beleuchtungsquelle kann durch folgendes sogenanntes Messhilfsmittel realisiert werden. Das Messhilfsmittel enthält mindestens eine optische Zielmarke, eine Lichtquelleneinheit sowie eine Verankerungseinheit. Alle drei Komponenten sind in einem Gehäuse zusammengefasst. Das Messhilfsmittel kann mit Hilfe der Verankerungseinheit in der Messumgebung fixiert werden. In einer einfachen technischen Ausgestaltung des Messhilfsmittels sind eine oder mehrere optische Zielmarken auf einer Glasplatte aufgebracht. Die Beleuchtungsquelle ist hinter der Glasplatte angebracht und durchleuchtet die mindestens eine optische Zielmarke. In einer technisch aufwändigeren Ausgestaltung können eine oder mehrere optische Zielmarken durch ein elektronisches Display mit integrierter Beleuchtungseinheit angezeigt werden.
  • In einer weiteren vorteilhaften Ausgestaltung weisen die optischen Zielmarken verschiedene geometrische Formen, Textur, Reflexionseigenschaften und/oder Größe auf. So können in der Messumgebung zum Beispiel optische Zielmarken in Form von Kreismarken mit verschiedenen Durchmessern angebracht sein. Je nach Position und Orientierung der Kameras zu den optischen Zielmarken kann es vorteilhaft sein, bei kurzen Distanzen zwischen Kamera und optischer Zielmarke eine Kreismarke mit kleinem Durchmesser zu messen, während es bei einem großen Abstand eher vorteilhaft ist, eine Kreismarke mit großem Durchmesser zu messen. Analog kann es vorteilhaft sein, bei kurzen Abständen optische Zielmarken zu verwenden, die einen geringeren Reflexionsgrad aufweisen während es bei großen Abständen hilfreich sein kann, optische Zielmarken anzuzielen, die einen hohen Reflexionsgrad aufweisen. Prinzipiell ist es hilfreich, optische Zielmarken mit verschiedenen geometrischen und optischen Eigenschaften innerhalb einer Messumgebung zu verwenden.
  • In einer weiteren vorteilhaften Ausgestaltung weisen die optischen Zielmarken zeitlich veränderliche Muster auf. Die Verwendung der zeitlich veränderlichen Muster hat mehrere Vorteile. So können aufgrund der zeitlichen Veränderung zusätzliche Informationen übertragen werden und/oder die Genauigkeit der Bildpunktmessung und damit nachfolgend der räumlichen Positions- und Orientierungsmessung gesteigert werden. Die zeitlich veränderlichen Muster können zum Beispiel als Graycode- und/oder Streifenmuster ausgestaltet sein. Die Kamera nimmt vorzugsweise jeweils ein Bild pro Muster auf. Die Musterbilder können dann nach dem Prinzip der Streifenprojektion ausgewertet werden. Unter Kenntnis der jeweiligen 3D-Position des zugehörigen Musterelements können somit eine Vielzahl von Beobachtungen ausgewertet werden. Innerhalb des Musters können auch Metainformationen wie Punkt-ID und/oder die 3D-Position codiert werden. Die technische Umsetzung von optischen Zielmarken mit zeitlich veränderlichem Muster kann durch die beschriebenen Messhilfsmittel mit einem elektronischen Display realisiert werden.
  • In einer weiteren vorteilhaften Ausgestaltung sind mehrere optische Zielmarken clusterartig in der Umgebung angeordnet. Dabei kann es sich sowohl um optische Zielmarken gleicher Ausprägung (z.B. hinsichtlich Form, Größe und Reflexionsverhaltens) oder verschiedener Ausprägung handeln. Die Cluster werden vorteilhaft an messtechnisch günstigen Bereichen der Messumgebung angeordnet. Das können zum Beispiel Bereiche mit guter Sichtbarkeit und stabilen Befestigungsmöglichkeiten sein. Da mehrere optische Zielmarken räumlich begrenzt angeordnet sind, können in einem Kamerabild typischerweise mehrere optische Zielmarken gleichzeitig gemessen werden. Die größere Messredundanz führt zu einer höheren Genauigkeit der räumlichen Positions- und räumlichen Orientierungsbestimmung. Die Verwendung unterschiedlicher optischer Zielmarken innerhalb eines Clusters hat den Vorteil, dass je nach Lage der Kamera zum Cluster (insbesondere der Abstand ist entscheidend) sowie der technischen Ausgestaltung von Kamera (z.B. Sensorauflösung) und Objektiv (z.B. Öffnungswinkel) nur eine Untermenge aller optischen Zielmarken messbar sind. Würde man zum Beispiel nur eine Zielmarkengröße verwenden, so kann es unter Umständen passieren, dass die optische Zielmarke zwar im Messbild abgebildet wird, aber aufgrund ihrer zu kleinen oder zu großen Größe, ihres zu schwachen oder zu großen Kontrastes ungenau oder ggfs. gar nicht gemessen werden kann. Dieses Risiko wird durch den Einsatz von optischen Zielmarken verschiedener Ausprägung innerhalb eines Clusters deutlich reduziert.
  • Bei Einsatz eines kalibrierten, automatisierten Manipulators und der bekannten Lagebeziehung zwischen Manipulator und 3D-Sensor sowie ferner der bekannten Lagebeziehung zwischen 3D-Sensor und der Dreh-Schwenk-Einheit in ihrer Referenzposition gemäß dieser Erfindung ist es wie beschrieben vorteilhaft, dass die optischen Zielmarken, welche zur Bestimmung der räumlichen Position und räumlichen Orientierung des 3D-Sensors verwendet werden, abhängig von der Position- und Orientierungsinformation des Manipulators ausgewählt werden. Sofern sich die optischen Zielmarken zudem auch hinsichtlich Form, Farbe, Textur und/oder Größe unterscheiden, so ist es ebenfalls vorteilhaft, die Auswahl der optischen Zielmarken zur räumlichen Positions- und räumlichen Orientierungsbestimmung hinsichtlich dieser Kriterien durchzuführen.
  • Im Rahmen einer praktischen Vermessung eines Objektes werden 3D-Koordinaten des Objektes durch den 3D-Sensor in verschiedenen Ausrichtungen des 3D-Sensors zum Objekt bestimmt. Alle 3D-Koordinaten einer Ausrichtung werden anhand des erfindungsgemäßen Verfahrens in das übergeordnete Koordinatensystem transformiert. Die 3D-Koordinaten der angemessenen optischen Zielmarken sind im Allgemeinen vor der Vermessung des Objektes bekannt. Es ist aber auch möglich, dass die 3D-Koordinaten der angemessenen optischen Zielmarken anhand der aufgenommenen Messbilder der Kamera berechnet werden. Dies ist zum Beispiel durch eine klassische Bündelblockausgleichung möglich.
  • In einer weiteren vorteilhaften Ausgestaltung nutzt man die durch den automatischen Manipulator näherungsweise bekannte räumliche Position und räumliche Orientierung des 3D-Sensors und die wiederkehrende Messung mindestens einer optischen Zielmarke mit der Kamera, um die räumliche Position und räumliche Orientierung des 3D-Sensors wiederkehrend zu bestimmen, also zu tracken. Anhand einer festgestellten Positions- und/oder Orientierungsänderung des 3D-Sensors wird die optische Achse der Kamera anhand modifizierter Achswinkel für die Dreh-Schwenk-Einheit wieder auf die jeweilige optische Zielmarke ausgerichtet. Bei einer entsprechend hohen Wiederholrate der Bestimmung der räumlichen Position und räumlichen Orientierung des 3D-Sensors anhand der Achswinkel des automatischen Manipulators, den Achswinkeln der Dreh-Schwenk-Einheit und den Bildkoordinaten der mindestens einen optischen Zielmarke kann der automatische Manipulator auch mit großen Geschwindigkeiten die räumliche Position und/oder die räumliche Orientierung des 3D-Sensors ändern. Vorteilhaft werden zum Tracken der Positon und Orientierung mehrere Dreh-Schwenkeinheiten mit jeweils einer Kamera verwendet. So können zum Beispiel drei Dreh-Schwenkeinheiten mit jeweils einer Kamera eingesetzt werden. Jede Kamera trackt mindestens eine optische Zielmarke. Anhand der Messdaten der Kameras und den jeweiligen Achswinkeln kann die räumliche Position und räumliche Orientierung des 3D-Sensors hochgenau und quasi in Echtzeit getrackt werden.
  • Die Messeinrichtung kann prinzipiell an beliebigen Orten aufgestellt werden. Es ist aber zur Durchführung des Verfahrens notwendig, dass die optischen Zielmarken in einer gewissen räumlichen Nähe zur Messeinrichtung platziert werden können. Zudem müssen die optischen Zielmarken ortsfest fixiert werden können. In einer vorteilhaften Ausgestaltung ist die Messumgebung ein fester umschlossener Raum. Diese Messumgebung ermöglicht die Fixierung der optischen Zielmarken und begrenzt die maximal möglichen Abstände zwischen der jeweiligen optischen Zielmarke und der Kamera. Zusätzlich wird die Messeinrichtung von gegebenenfalls störenden Umgebungseinflüssen abgeschirmt.
  • Die optischen Zielmarken werden vorteilhaft auf den Raumwänden und/oder der Raumdecke befestigt. Im Raum können auch Kulissenelemente angeordnet sein. Es ist ebenfalls möglich, auf diesen Kulissenelementen die optischen Zielmarken zu befestigen.
  • In der erfindungsgemäßen Ausgestaltung der Messeinrichtung ist die Kamera eine bildgebende Erfassungseinheit. Sie liefert digitale Bilder, in denen die Abbildungen der optischen Zielmarken gemessen werden können. In einer vorteilhaften Ausgestaltung wird als Kamera eine TOF-Kamera (Time of Flight) verwendet. Die TOF-Kamera arbeitet nach dem Prinzip der Laufzeitmessung. Sie sendet aktiv einen Lichtpuls aus, der durch den in der TOF-Kamera verbauten PMD-Sensor (Photonic Mixing Device) wieder empfangen wird. Je Pixel des PMD-Sensor kann anhand der Laufzeit die Entfernung bestimmt werden. Ferner kann je Pixel eine Intensität des empfangenen Lichtpulses ermittelt werden. Somit kann aus dem Intensitätsbild analog zum Bild einer klassischen digitalen Kamera die Position einer optischen Zielmarke ermittelt werden. Zusätzlich wird aber in dieser vorteilhaften Ausgestaltung auch die Entfernung gemessen. Dadurch ergibt sich eine größere Überbestimmung, welche nachfolgend die Bestimmung der räumlichen Position und räumlichen Orientierung verbessern kann.
  • In einer weiteren vorteilhaften Ausgestaltung ist die Kamera als Rundumkamera ausgestaltet. Dies ermöglicht die praktisch lückenlose Aufnahme des gesamten Umgebungsbereich der Messeinrichtung. Prinzipiell ist somit nur ein einziges Bild notwendig, um die mindestens drei optischen Zielmarken zu messen. Zur Erhöhung der Genauigkeit ist es aber denkbar, dass innerhalb einer Messposition des 3D-Sensors die Rundumkamera mit Hilfe der Dreh-Schwenk-Einheit in mehrere Position und Orientierungen positioniert und jeweils ein Bild aufgenommen wird. Durch die gemeinsame Auswertung und die daraus resultierende höhere Redundanz wird die Genauigkeit der Bestimmung der räumlichen Position und Orientierung gesteigert.
  • Nachfolgend wird die Messeinrichtung und das erfindungsgemäße Verfahren durch mehrere Ausführungsbeispiele mit den beigefügten Zeichnungen erläutert. Es zeigen:
    • 1a - Skizze einer erfindungsgemäßen Messeinrichtung mit einem mechanischen Taster, wobei die Dreh-Schwenk-Einheit sich in ihrer Referenzposition befindet
    • 1b - Skizze einer erfindungsgemäßen Messeinrichtung mit einem mechanischen Taster, wobei die Dreh-Schwenk-Einheit eine erste definierte Achsstellung einnimmt
    • 1c - Skizze einer erfindungsgemäßen Messeinrichtung mit einem mechanischen Taster, wobei die Dreh-Schwenk-Einheit eine zweite definierte Achsstellung einnimmt
    • 2 - Skizze einer erfindungsgemäßen Messeinrichtung mit einem topometrischen Sensor, wobei die Dreh-Schwenk-Einheit sich in ihrer Referenzposition befindet
    • 3a - Skizze eines Ausführungsbeispiels, in dem ein Industrieroboter einen topometrischen Sensor führt, dessen räumliche Position und räumliche Orientierung gemäß des erfindungsgemäßen Verfahrens bestimmt werden
    • 3b - Skizze des Ausführungsbeispiels, in dem die Dreh-Schwenk-Einheit durch eine entsprechende Achsstellung die optische Achse der Kamera auf eine erste optische Zielmarke ausrichtet
    • 3c - Skizze des Ausführungsbeispiels, in dem die Dreh-Schwenk-Einheit durch eine entsprechende Achsstellung die optische Achse der Kamera auf eine zweite optische Zielmarke ausrichtet
    • 3d - Skizze des Ausführungsbeispiels, in dem die Dreh-Schwenk-Einheit durch eine entsprechende Achsstellung die optische Achse der Kamera auf eine dritte optische Zielmarke ausrichtet
  • Die 1a zeigt eine erfindungsgemäße Messeinrichtung 1. Die Messeinrichtung 1 ist mit einem Sensor verbunden, der als mechanischer Taster 2 ausgebildet ist. Der mechanische Taster 2 hat eine Tastspitze 3, die zur mechanischen Antastung eines Objektes eingerichtet ist. Der mechanische Taster 2 ist mit einer Dreh-Schwenk-Einheit 4 verbunden. Die Drehachse 8 und die Schwenkachse 9 der Dreh-Schwenk-Einheit 4 stehen senkrecht aufeinander. Die Dreh-Schwenk-Einheit 4 befindet sich in ihrer Referenzposition. An der Dreh-Schwenk-Einheit 4 ist eine Kamera 5 befestigt. Die optische Achse der Kamera 5 steht senkrecht zur DrehAchse 8 der Dreh-Schwenk-Einheit 4. Die optische Achse der Kamera 5 koinzidiert mit der Schwenkachse 9 der Dreh-Schwenk-Einheit 4. Die Messeinrichtung 1 hat eine Steuereinheit 6, die zur Ansteuerung der Dreh-Schwenk-Einheit 4 sowie der Kamera 5 eingerichtet ist. Sie ist durch ein Kabel mit der Dreh-Schwenk-Einheit 4 beziehungsweise der Kamera 5 verbunden. Alternativ kann auch eine drahtlose Verbindung zum Beispiel per Funk eingesetzt werden. Die Steuereinheit 6 kann durch entsprechende Anweisungen Dreh- und Schwenkaktoren zur Drehung bzw. Verschwenkung um die Dreh- und Schwenkachsen 8, 9 der Dreh-Schwenk-Einheit 4 ansteuern, so dass die Kamera 5 bzw. die optische Achse der Kamera 5 eine definierte Achsstellung in Bezug auf eine Referenzstellung der Drehachse 8 und der Schwenkachse 9 einnehmen. Die Steuereinheit 6 kann ebenfalls durch entsprechende Anweisungen die Kamera 5 auslösen, so dass ein Messbild aufgenommen wird. Die Messeinrichtung 1 hat eine Auswerteeinheit 7, die zum Auslesen von Drehwinkelgebern der Dreh-Schwenk-Einheit 4, mit denen die Drehwinkellage der optischen Kamera 5 in Bezug auf eine Referenzstellung der Drehachse 8 bzw. Schwenkachse 9 gemessen wird, und zum Auslesen der Messbilder der Kamera 5 eingerichtet ist. Die Auswerteeinheit 7 ist ebenfalls per Kabel mit der Dreh-Schwenk-Einheit 4 verbunden. Alternativ kann auch eine drahtlose Verbindung zum Beispiel per Funk verwendet werden.
  • Die 1b zeigt die gleiche Messeinrichtung 1 aus 1a. Der Drehwinkel um die Drehachse 8 und der Schwenkwinkel um die Schwenkachse 9 der Dreh-Schwenk-Einheit 4 nehmen einen anderen Winkel ein, als ihre jeweilige Referenzposition aus 1a. Dadurch wird die Position der Kamera 5 sowie die Richtung der optischen Achse der Kamera 5 gegenüber ihrer Richtung in der Referenzposition definiert verändert. Das Sichtfeld der Kamera 5 ist dadurch auf einen anderen Bereich als in der Referenzposition ausgerichtet.
  • Auch die 1c zeigt die gleiche Messeinrichtung 1 aus 1a. Der Drehwinkel um die Drehachse 8 und der Schwenkwinkel um die Schwenkachse 9 der Dreh-Schwenk-Einheit 4 weisen jeweils anderen Winkel auf als in 1a und 1b. Dadurch ist die Position der Kamera 5 und die Richtung der optischen Achse der Kamera 5 anders als in 1a und 1 b eingestellt.
  • Die 1a-1c zeigen exemplarisch, wie das Sichtfeld der Kamera 5 durch Ansteuerung der Dreh-Schwenk-Einheit 4 in seiner räumlichen Lage definiert verändert werden kann. Das Sichtfeld der Kamera 5 selbst ist in sich begrenzt. Durch die definierte Änderung der Position der Kamera 5 und/oder der Orientierung der optischen Achse der Kamera 5 durch Ansteuerung der Dreh-Schwenk-Einheit 4 wird das Gesamtsichtfeld der Kamera 5 deutlich größer als ihr eigentliches Sichtfeld, welches prinzipiell von der Brennweite der Optik und der Chipgröße der Kamera 5 abhängig ist. Somit kann ein größerer Bereich der Messumgebung beobachtet werden. Es können dadurch in einer Sensorposition mehr optische Zielmarken gemessen werden, als mit feststehender Kamera 5, beziehungsweise es sind aus einer größeren Anzahl nach bestimmten Kriterien geeignete optische Zielmarken auswählbar und es treten in der Regel günstigere Strahlenschnitte auf.
  • Im vorliegenden Beispiel kann die Schwenkachse 9 einen beliebigen Winkel zwischen 0° und 360° einnehmen, Die Drehachse 8 kann auch einen beliebigen Winkel zwischen 0° und 360° einnehmen. Es gibt nur einen kleinen begrenzten Winkelbereich für die Drehachse 8, bei dem Teile des Sichtfelds oder gegebenenfalls auch das gesamte Sichtfeld durch die Messeinrichtung 1 selbst verdeckt wird. Die optische Achse der Kamera 5 schließt dann einen sehr kleinen Winkel mit der Tasterachse ein. In Summe ist das Gesamtsichtfeld im Gegensatz zum vergleichsweise kleinen Sichtfeld der Kamera 5 durch die definierte Ansteuerung der Dreh-Schwenk-Einheit 4 sehr viel größer. Im vorliegenden Beispiel ist das Gesamtsichtfeld deutlich größer als eine Hemisphäre.
  • Die 2 zeigt in Form einer Grundrissdarstellung eine weitere vorteilhafte Ausgestaltung der Messeinrichtung 1. Der 3D-Sensor ist als topometrischer Sensor 10 ausgestaltet. Der topometrische Sensor 10 umfasst eine Projektionseinheit 11. Diese ist eingerichtet, um verschiedene Muster (insbesondere Streifenmuster) auf ein zu vermessendes Objekt zu projizieren. Der topometrische Sensor 10 hat eine Kamera 12. Die Kamera 12 nimmt das vom zu vermessenden Objekt rückgestreute Muster auf. Der Projektor 11 und die Kamera 12 sind durch ein Verbindungselement 13 miteinander mechanisch gekoppelt. Die Dreh-Schwenk-Einheit 4 der Messeinrichtung 1 ist mechanisch mit dem topometrischen Sensor 10 verbunden. Die Achsen der Dreh-Schwenk-Einheit 4 befinden sich in ihrer Referenzposition. Die Messeinrichtung 1 umfasst ebenfalls eine Steuereinheit 6, die zur Ansteuerung der Dreh-Schwenk-Einheit 4 dient. Entsprechend der von ihr per Kabelverbindung übertragenen Steuerbefehle kann die Dreh-Schwenk-Einheit 4 eine definierte Achsstellung um ihre Drehachse 8 und Schwenkachse 9 einnehmen. Dementsprechend verändert sich die räumliche Lage der optischen Achse der Kamera 5. Dadurch wird das Gesamtsichtfeld der Kamera 5 deutlich vergrößert. Die Steuereinheit 6 ist weiterhin eingerichtet, um die Bildmessung bei der Kamera 5 auszulösen. Die Messeinrichtung 1 hat eine Auswerteeinheit, welche die Drehwinkelgeber der Dreh-Schwenk-Einheit 4 sowie die Bilder der Kamera 5 ausliest und auswertet.
  • Die 3a zeigt eine erfindungsgemäße Ausgestaltung der Messeinrichtung 1. Die Aufgabe besteht darin, das Objekt 40 mit Hilfe des 3D-Sensors 10 dreidimensional zu vermessen. Der 3D-Sensor ist als topometrischer Sensor 10 analog zur 2 ausgestaltet. Der topometrische Sensor 10 hat eine Projektionseinheit 11 und eine Kamera 12. Die Projektionseinheit 11 und die Kamera 12 sind durch eine Verbindungseinheit 13 miteinander mechanisch verbunden. An dem Verbindungselement 13 ist die Dreh-Schwenk-Einheit 4 der Messeinrichtung 1 befestigt. Die Dreh-Schwenk-Einheit 4 trägt die Kamera 5. Der topometrische Sensor 10 und die mit ihm mechanisch verbundene Dreh-Schwenk-Einheit 4 sowie die Kamera 5 werden durch einen automatischen Manipulator in Form eines Industrieroboters 30 geführt. Die Messeinrichtung umfasst die Steuereinheit 6 sowie die Auswerteeinheit 7. Die Steuereinheit 6 ist in diesem Ausführungsbeispiel zusätzlich zu der Ansteuerung des Dreh-Schwenk-Einheit 4 und der Kamera 5 auch zur Ansteuerung des topometrischen Sensors 10 und des Industrieroboters 30 eingerichtet. Die Auswerteeinheit 7 ist zum Auslesen der Drehwinkelgeber der Dreh-Schwenk-Einheit 4 und der Bilder der Kamera 5 eingerichtet. In diesem Ausführungsbeispiel werden durch die Auswerteeinheit 7 auch die 3D-Koordinaten des Objekts 40 berechnet. Dazu kann die Auswerteeinheit 7 ebenfalls die Muster der Projektionseinheit 11, die Bilddaten der Kamera 12 und die Achswinkel des Industrieroboters 30 auslesen und verarbeiten.
  • Die Messumgebung besteht aus zwei senkrecht zueinander angeordneten Wänden 50 und 51. Sie sind massiv ausgeführt und deshalb ortsfest. An jeder Wand 50 und 51 sind mehrere optische Zielmarken 20 befestigt. Die 3D-Koordinaten der optischen Zielmarken 20 sind im übergeordneten Koordinatensystem bekannt. Sie können zum Beispiel durch eine photogrammetrische Messung bestimmt worden sein.
  • Die Messumgebung ist aus Anschauungsgründen sehr einfach gewählt worden. Es ist natürlich auch möglich, dass die Messumgebung durch einen Raum mit Boden, vier Wänden und einer Decke gebildet wird. Die optischen Zielmarken 20 können an einer oder verteilhafterweise an mehreren Wänden und/oder Boden und/oder Decke befestigt sein. Vorteilhaft kann es auch sein, dass im Raum ortsfeste Kulissenelemente angeordnet werden, an denen optische Zielmarken 20 befestigt sind.
  • Der topometrische Sensor 10 ist eingerichtet zur Vermessung des Objektes 40. Die Auswerteeinheit 7 kann anhand der von der Projektionseinheit 11 projizierten Muster und der vom Objekt 40 zurückgestreuten Muster, welche durch die Bildaufnahmeeinheit 12 empfangen werden, 3D-Koordinaten des vom topometrischen Sensors 10 gemessenen Ausschnittes des Objektes berechnen. Die 3D-Koordinaten werden im Koordinatensystem des topometrischen Sensors 10 berechnet. Die Aufgabe ist es nun, die räumliche Position und räumliche Orientierung des topometrischen Sensors 10 im übergeordneten Koordinatensystem zu bestimmen. Dies ermöglicht nachfolgend die Transformation der 3D-Koordinaten des Objektausschnittes aus dem Koordinatensystem des topometrischen Sensors 10 in das übergeordnete Koordinatensystem.
  • Zur Durchführung des Verfahrens muss die relative Position und relative Orientierung der Dreh-Schwenk-Einheit 4 in ihrer Referenzposition zum topometrischen Sensor 10 bekannt sein. Die relative Position und relative Orientierung kann zum Beispiel durch eine geeignete Kalibrierung ermittelt werden. Da die Dreh-Schwenk-Einheit 4 fest mit dem topometrischen Sensor 10 verbunden ist, reicht es in der Regel aus, die relative Position und relative Orientierung einmalig zu bestimmen.
  • Die Dreh-Schwenk-Einheit 4 wird nun durch die Steuereinheit 6 so angesteuert, dass die optische Achse der Kamera 5 auf die erste optische Zielmarke 20a ausgerichtet wird (siehe 3b). Die Kamera 5 nimmt ein Bild auf. Die Auswerteeinheit 7 bestimmt in dem Bild die Bildkoordinaten der optischen Zielmarke 20a. Sie liest auch die Drehwinkel der Dreh-Schwenk-Einheit 4 aus. Anschließend wird die optische Achse der Kamera 5 auf die zweite optische Zielmarke 20b ausgerichtet (siehe 3c). Die Kamera 5 nimmt wieder ein Bild auf. Die Auswerteinheit 7 bestimmt in dem Bild die Bildkoordinaten der optischen Zielmarke 20b und liest die Drehwinkel der Dreh-Schwenk-Einheit 4 aus. Analog wird eine dritte Zielmarke 20c durch die Kamera 5 in Kombination mit der Dreh-Schwenk-Einheit 4 in einer dritten Ausrichtung der optischen Achse der Kamera 5 gemessen (siehe 3d).
  • Nun kann die Position und die Orientierung des 3D-Sensors im übergeordneten Koordinatensystem berechnet werden. Als Eingangsdaten dienen die Bildkoordinaten der drei gemessenen optischen Zielmarken 20a, 20b und 20c sowie die jeweilig zugehörigen Drehwinkel der Dreh- und der Schwenkachse 8, 9 der Dreh-Schwenk-Einheit 4. Durch einen erweiterten photogrammetrischen Rückwärtsschnitt, basierend auf den Bildkoordinaten der mindestens drei gemessenen optischen Zielmarken 20a, 20b und 20c, ihren bekannten 3D-Koordinaten im übergeordneten Koordinatensystem sowie den je Bild zugehörigen Drehwinkeln der Dreh-Schwenk-Einheit 4, kann die Position und Orientierung der Dreh-Schwenk-Einheit 4 in ihrer Referenzposition bestimmt werden. Anhand der bekannten relativen Position und relativen Orientierung der Dreh-Schwenk-Einheit 4 zum topometrischen Sensor 10 kann aus der vorher berechneten räumlichen Position und räumlichen Orientierung der Dreh-Schwenk-Einheit 4 im übergeordneten Koordinatensystem auch die räumliche Position und räumliche Orientierung des topometrischen Sensors 10 im übergeordneten Koordinatensystem bestimmt werden.
  • Die 3D-Koordinaten des Objektausschnittes, welche vom topometrischen Sensor 10 im sensoreigenen Koordinatensystem bestimmt wurden, können nun in das übergeordnete Koordinatensystem transformiert werden. Nachfolgend kann der topometrische Sensor 10 durch den Industrieroboter 30 in eine andere definierte Ausrichtung zum zu vermessenden Objekt 40 verfahren werden. In dieser neuen Ausrichtung kann analog die räumliche Position und die räumliche Orientierung des topometrischen Sensors 10 ermittelt werden. Der topometrische Sensor 10 nimmt 3D-Koordinaten eines anderen Objektausschnittes auf, die anhand der erfindungsgemäßen Berechnung der räumlichen Position und die räumlichen Orientierung des topometrischen Sensors 10 in das übergeordnete Koordinatensystem registriert werden können.
  • Wichtig ist, dass die 3D-Vermessung des Objektes (bzw. eines jeweiligen Objektausschnittes) durch den topometrischen Sensor 10 unabhängig von der Bestimmung der räumlichen Position und räumlichen Orientierung des topometrischen Sensors 10 ist. Die topometrische Vermessung erfolgt durch den topometrischen Sensor 10. Die Bestimmung der räumlichen Position und räumlichen Orientierung erfolgt durch die Messung mit der Kamera 5, welche durch die Dreh-Schwenk-Einheit 4 ausgerichtet wird. Die Messung der optischen Zielmarken 20 durch die Kamera 5 kann somit vor, während oder nach der topometrischen Messung des topometrischen Sensors 10 erfolgen. Es ist genauso möglich, auch gar keine topometrische Messung durchzuführen und trotzdem die räumliche Position und räumliche Orientierung des topometrischen Sensors 10 nach dem erfindungsgemäßen Verfahren zu bestimmen.
  • Im Ausführungsbeispiel gemäß 3a bis 3d wird der topometrische Sensor 10 sowie die daran befestigte Dreh-Schwenk-Einheit 4 mit der von ihr geführten Kamera 5 durch einen Industrieroboter 30 getragen. Sofern der Industrieroboter 30 in Bezug auf das übergeordnete Koordinatensystem kalibriert ist und die relative Orientierung zwischen Roboterflansch und topometrischen Sensor 10 bekannt ist, kann anhand der Achsstellungen des Industrieroboters 30 bestimmt werden, in welcher räumlichen Position und räumlichen Ausrichtung sich der topometrische Sensor 10 in guter Näherung befindet. Anhand der bekannten relativen Position und relativen Orientierung zwischen topometrischen Sensor 10 und der Dreh-Schwenk-Einheit 4 in ihrer Referenzstellung kann auch die räumliche Position und räumliche Orientierung der Kamera 5 in guter Näherung unter Berücksichtigung der aktuellen Achswinkel der Dreh-Schwenk-Einheit 4 berechnet werden.
  • Das hat den großen Vorteil, dass berechnet werden kann, welche optischen Zielmarken 10 in der jeweiligen Position und Orientierung durch die von der Dreh-Schwenk-Einheit 4 getragene Kamera 5 messbar sind. Zudem können durch eine geometrische Schnittanalyse drei oder mehr geeignete optische Zielmarken 20 ausgewählt werden. Mögliche Optimierungskriterien können zum Beispiel eine geforderte Mindestgenauigkeit der zu bestimmenden Position und Orientierung sein. Möglich ist auch, dass mehrere optische Marken in einem Bild gemessen werden, um eine kürzere Gesamtmesszeit zu erzielen. Die Achswinkel der Dreh-Schwenk-Einheit 4 können berechnet werden, so dass die jeweilige optische Zielmarke 20 möglichst mittig im jeweiligen Messbild aufgenommen werden kann. Alternativ können auch Achswinkel berechnet werden, so dass möglichst mehrere optische Zielmarken 20 gemeinsam in einem Bild gemessen werden.
  • Im vorliegenden Beispiel werden die optischen Zielmarken 20a, 20b und 20c jeweils einzeln gemessen. Die optische Achse der Kamera 5 wird entsprechend der Berechnung auf die jeweilige optische Zielmarke 20a, 20b und 20c ausgerichtet und ein Messbild aufgenommen.
  • Aufgrund der genähert bekannten Position und Orientierung der Kamera 5 anhand der vorgestellten Berechnungskette vom Industrieroboter 30 über den topometrischen Sensor 10 und die Dreh-Schwenk-Einheit 4 ist es nicht notwendig, dass die optischen Zielmarken 20 codiert sind. Auch für nicht mittig im jeweiligen Bild abgebildete optische Zielmarken 20 kann der Abbildungsstrahl im Raum berechnet werden. Die optische Zielmarke 20, welche die jeweilige Abbildung im Bild generiert hat, kann zum Beispiel dadurch bestimmt werden, dass ihre bekannte 3D-Position den kleinsten Lotabstand zum Abbildungsstrahl aufweist.
  • Ist dagegen die genäherte räumliche Position und räumliche Orientierung des topometrischen Sensors 10 nicht bekannt, so ist es zweckdienlich, wenn die optischen Zielmarken 20 codiert sind, so dass jede optische Zielmarke 20 eindeutig ihrer 3D-Koordinate zugeordnet werden kann.
  • Wird zum Beispiel die erfindungsgemäße Messeinrichtung 1 durch einen manuellen Manipulator geführt, so ist die genäherte Position und genäherte Orientierung des topometrischen Sensors 10 im übergeordneten Koordinatensystem im Allgemeinen nicht bekannt. Die Kamera 5 kann dann nicht zielgerichtet auf einzelne optische Zielmarken 20, 20a, 20b, 20c, ausgerichtet werden. Stattdessen kann die Kamera 5 (durch entsprechend verschiedene Stellungen der Achsen der Dreh-Schwenk-Einheit 4) in verschiedenen Positionen und Orientierungen ausgerichtet und jeweils ein Bild aufgenommen werden. Das kann in regelmäßigen Abtastsprüngen (z.B. + 20°-Schritte jeweils getrennt in Dreh- und Schwenkrichtung) oder auch in anderer vorteilhafter Weise erfolgen. Anhand der Codierung können die gemessenen optischen Zielmarken 20, 20a, 20b, 20c voneinander unterschieden werden. Sobald in Summe mindestens drei optische Zielmarken 20, 20a, 20b, 20c gemessen worden sind, kann die räumliche Position und räumliche Orientierung des topometrischen Sensors 10 anhand des beschriebenen Verfahrens bestimmt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 0881461 B1 [0006, 0009]

Claims (30)

  1. Messeinrichtung (1), mit einer Kamera (5) zur Erfassung von mindestens drei optischen Zielmarken (20, 20a, 20b, 20c) in der Umgebung der Messeinrichtung (1) zur Bestimmung der räumlichen Position und räumlichen Orientierung der Messeinrichtung (1), wobei die Messeinrichtung (1) zur Verbindung mit einem zur Messung von dreidimensionalen Koordinaten ausgebildeten Sensor ausgebildet ist, dadurch gekennzeichnet, dass: a. die Messeinrichtung (1) eine Dreh-Schwenk-Einheit (4) mit mindestens einer Drehachse (8) und mindestens einer Schwenkachse (9) enthält, wobei die mindestens eine Kamera (5) so an der Dreh-Schwenk-Einheit (4) befestigt ist, dass das Sichtfeld der Kamera (5) durch das Drehen und Schwenken der Dreh-Schwenk-Einheit (4) um die mindestens eine Drehachse (8) und die mindestens eine Schwenkachse (9) veränderbar ist, b. die Dreh- und Schwenkachsen (8, 9) der Dreh-Schwenk-Einheit (4) nicht parallel zueinander sind, c. die Messeinrichtung (1) eine Steuereinheit (6) zur Ansteuerung der Dreh-Schwenk-Einheit (4) und der Kamera (5) hat, und d. die Messeinrichtung (1) eine Auswerteeinheit (7) zum Auslesen von Drehwinkelgebern der Dreh-Schwenk-Einheit (4) und zum Auslesen der Bilder der Kamera (5) hat, und zur Bestimmung der räumlichen Position und räumlichen Orientierung der Messeinrichtung (1) in Abhängigkeit von den durch die ausgelesenen Winkel der Drehwinkelgeber bestimmten Dreh- und Schwenkwinkel der Dreh-Schwenk-Einheit (4) und der ausgelesenen Kamerabilder eingerichtet ist.
  2. Messeinrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Sensor mit der Messeinrichtung (1) verbunden und als topometrischer Sensor (10) ausgestaltet ist, welcher mindestens eine Projektionseinheit (11) zur Projektion von Mustern auf ein Objekt (40) sowie mindestens eine Bildaufnahmeeinheit (12) zur Aufnahme des von dem Objekt (40) zurückgestreuten Musters hat, wobei die mindestens eine Bildaufnahmeeinheit (12) und die Projektionseinheit (11) durch ein Verbindungselement (13) mechanisch miteinander gekoppelt sind.
  3. Messeinrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Sensor mit der Messeinrichtung (1) verbunden und als mechanischer Taster ausgestaltet ist.
  4. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Sensor ortsbezogene Messdaten eines Messobjektes liefert.
  5. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Dreh-Schwenk-Einheit (4) ein optisches Umlenkelement führt und die Kamera (5) mechanisch mit dem Sensor verbunden ist, wobei ihr Blickfeld das optische Umlenkelement einschließt.
  6. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Messeinrichtung (1) und der mit der Messeinrichtung (1) verbundene Sensor an einem manuell bedienbaren Manipulator befestigt sind.
  7. Messeinrichtung (1) nach einem der Ansprüche 1-5, dadurch gekennzeichnet, dass die Messeinrichtung und der verbundene Sensor an einem automatisierten Manipulator (30) befestigt sind.
  8. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Koordinaten der optischen Zielmarken (20, 20a, 20b, 20c) im übergeordneten Koordinatensystem durch Messung der optischen Zielmarken (20, 20a, 20b, 20c) mittels der mit der Dreh-Schwenk-Einheit (4) verbundenen Kamera (5) in mehreren verschiedenen Positionen und Orientierungen berechnet werden.
  9. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Messeinrichtung (1) mindestens eine weitere Dreh-Schwenk-Einheit (4) mit jeweils einer Kamera (5) umfasst.
  10. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Messeinrichtung (1) mindestens eine Beleuchtungseinheit zur Ausleuchtung von optischen Zielmarken beinhaltet.
  11. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (5) als TOF-Kamera ausgestaltet ist.
  12. Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (5) als Rundumkamera ausgestaltet ist.
  13. Messanordnung mit einer Messeinrichtung (1) nach einem der vorhergehenden Ansprüche und mit im Sichtfeld der Kamera (5) angeordneten optischen Zielmarken (20, 20a, 20b, 20c).
  14. Messanordnung nach Anspruch 13, dadurch gekennzeichnet, dass die optischen Zielmarken (20, 20a, 20b, 20c) mindestens eine eigene Leuchtquelle haben.
  15. Messanordnung nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die optischen Zielmarken (20, 20a, 20b, 20c) voneinander verschiedene geometrische Formen, Texturen, Reflexionseigenschaften und/oder Größen aufweisen.
  16. Messanordnung nach Anspruch 15, dadurch gekennzeichnet, dass die optischen Zielmarken (20, 20a, 20b, 20c) zeitlich veränderliche Muster aufweisen.
  17. Messanordnung nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass die optischen Zielmarken (20, 20a, 20b, 20c) clusterartig in der Umgebung der Messeinrichtung (1) angeordnet sind.
  18. Messanordnung nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass die Messeinrichtung (1) in einem fest umschlossenen Raum angeordnet ist.
  19. Messanordnung nach Anspruch 18, dadurch gekennzeichnet, dass die optischen Zielmarken (20, 20a, 20b, 20c) auf den Raumwänden (50, 51) und/oder der Raumdecke und/oder dem Raumboden und/oder auf mindestens einem Kulissenelement innerhalb des Raums befestigt sind.
  20. Verfahren zur Bestimmung der räumlichen Position und der räumlichen Orientierung eines Sensors, welcher zur Messung von dreidimensionalen Koordinaten dient, mit Hilfe einer Messeinrichtung (1) nach einem der vorhergehenden Ansprüche, mit den Schritten: a. Ansteuerung der Dreh-Schwenk-Einheit (4) so, dass mit der Kamera (5) insgesamt mindestens drei optische Zielmarken (20, 20a, 20b, 20c) in mindestens einem Bild gemessen werden, b. Auslesen der Drehwinkel der Dreh-Schwenk-Einheit (4) für jedes gemessene Bild, c. Bestimmen der Bildkoordinaten jeder gemessenen optischen Zielmarke (20, 20a, 20b, 20c) in dem mindestens einen Bild, d. Berechnung der Position und Orientierung des Sensors in dem übergeordneten Koordinatensystem anhand der Bildkoordinaten der gemessenen optischen Zielmarken (20, 20a, 20b, 20c) in dem mindestens einen Bild, den für jedes Bild jeweils ausgelesenen Drehwinkeln der Dreh-Schwenk-Einheit (4), den bekannten 3D-Koordinaten der gemessenen optischen Zielmarken (20, 20a, 20b, 20c), sowie der bekannten relativen Position und relativen Orientierung zwischen Sensor und Dreh-Schwenk-Einheit (4) in ihrer Referenzposition und der bekannten relativen Position und relativen Orientierung zwischen Sensor und Dreh-Schwenk-Einheit (4) und Kamera (5).
  21. Verfahren nach Anspruch 20, gekennzeichnet durch einzelnes Ausrichten der Kamera (5) auf die jeweilige optische Zielmarke (20, 20a, 20b, 20c) durch die Dreh-Schwenk-Einheit (4), so dass die optische Zielmarke (20, 20a, 20b, 20c) in der Bildmitte der Kamera (5) gemessen wird.
  22. Verfahren nach Anspruch 20 oder 21, dadurch gekennzeichnet, dass die Messeinrichtung (1) und der verbundene Sensor an einem automatisierten Manipulator (30) befestigt sind, so dass durch Ansteuerung des automatisierten Manipulators (30) die Messeinrichtung ihre Position und Orientierung innerhalb der Messumgebung definiert variieren kann.
  23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass zur Messung einer optischen Zielmarke (20, 20a, 20b, 20c) durch die Kamera (5) die Positions- und Orientierungsinformationen des Manipulators (30) benutzt werden, um die optische Achse der Kamera (5) anhand der Dreh-Schwenk-Einheit (4) auf die optische Zielmarke (20, 20a, 20b, 20c) auszurichten.
  24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass mehrere benachbarte optische Zielmarken (20, 20a, 20b, 20c) innerhalb eines Kamerabildes gemessen und gemeinsam ausgewertet werden.
  25. Verfahren nach Anspruch 23 oder 24, gekennzeichnet durch Auswählen der zu messenden optischen Zielmarken (20, 20a, 20b, 20c) in Abhängigkeit von der Positions- und Orientierungsinformation des Manipulators (30).
  26. Verfahren nach einem der Ansprüche 20 bis 25, gekennzeichnet durch Auswahl der zu messenden optischen Zielmarken (20, 20a, 20b, 20c) in Abhängigkeit von der Form, Farbe, Textur und/oder Größe der optischen Zielmarken (20, 20a, 20b, 20c).
  27. Verfahren nach einem der Ansprüche 22 bis 26, gekennzeichnet durch Berechnen der räumlichen Position und räumlichen Orientierung des Sensors durch die Messung von mindestens einer optischen Zielmarke (20, 20a, 20b, 20c) und der Position und Orientierung des Manipulators (30).
  28. Verfahren nach einem der Ansprüche 20 bis 27, gekennzeichnet durch Ermitteln von dreidimensionalen Koordinaten eines Objektes mit dem Sensor in mehreren Positionen und Orientierungen und Transformieren der Koordinaten in ein gemeinsames übergeordnetes Koordinatensystem.
  29. Verfahren nach Anspruch 28, gekennzeichnet durch Berechnen der 3D-Koordinaten der optischen Zielmarken (20, 20a, 20b, 20c) gemeinsam mit den Positionen und Orientierungen des Sensors.
  30. Verfahren nach Anspruch 28 oder 29, dadurch gekennzeichnet, dass die räumliche Position und räumliche Orientierung des Sensors wiederkehrend bestimmt wird, indem mindestens eine optische Zielmarke (20, 20a, 20b, 20c) getrackt wird.
DE102016125480.0A 2016-12-22 2016-12-22 Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors Withdrawn DE102016125480A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016125480.0A DE102016125480A1 (de) 2016-12-22 2016-12-22 Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016125480.0A DE102016125480A1 (de) 2016-12-22 2016-12-22 Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors

Publications (1)

Publication Number Publication Date
DE102016125480A1 true DE102016125480A1 (de) 2018-06-28

Family

ID=62509754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016125480.0A Withdrawn DE102016125480A1 (de) 2016-12-22 2016-12-22 Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors

Country Status (1)

Country Link
DE (1) DE102016125480A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117054047A (zh) * 2023-10-11 2023-11-14 泰州市银杏舞台机械工程有限公司 一种基于检测灯内板偏转的舞台灯检测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0881461B1 (de) 1997-05-26 2003-08-13 AICON 3D Systems GmbH Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0881461B1 (de) 1997-05-26 2003-08-13 AICON 3D Systems GmbH Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117054047A (zh) * 2023-10-11 2023-11-14 泰州市银杏舞台机械工程有限公司 一种基于检测灯内板偏转的舞台灯检测方法及系统
CN117054047B (zh) * 2023-10-11 2023-12-22 泰州市银杏舞台机械工程有限公司 一种基于检测灯内板偏转的舞台灯检测方法及系统

Similar Documents

Publication Publication Date Title
EP1342051B1 (de) Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel, deren mittelpunkt bekannt ist
EP0881461B1 (de) Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
EP1497613B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
EP2787322B1 (de) Geodätisches Referenzieren von Punktwolken
EP2914205B1 (de) Kalibrierungsvorrichtung und verfahren zur kalibrierung einer dentalen kamera
EP2402710B1 (de) Verfahren und Vermessungssystem zur berührungslosen Koordinatenmessung an einer Objektoberfläche
DE69732666T2 (de) Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung
DE19528465C2 (de) Verfahren und Vorrichtung zur schnellen Erfassung der Lage einer Zielmarke
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE102012223924A1 (de) Verfahren und Vorrichtung zum Bestimmen der Ortskoordinaten eines Zielobjektes
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
DE19812609C2 (de) Verfahren zur Bestimmung der Position und Drehlage eines Objektes
DE102004023033A1 (de) Vorrichtung und Verfahren zur Vermessung von Bauteilen
DE102016200877A1 (de) System zum Messen einer dreidimensionalen Position
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
EP1640688A1 (de) Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
EP3707569B1 (de) Kalibrierung eines stationären kamerasystems zur positionserfassung eines mobilen roboters
EP2607841A2 (de) Optisches System
WO2013135313A1 (de) Kamerasystem mit einem zoomobjektiv und einem linearencoder
DE10048096A1 (de) Verfahren zur Kalibrierung eines messenden Sensors auf einem Koordinatenmeßgerät
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
DE102016125480A1 (de) Messeinrichtung, Messanordnung und Verfahren zur Bestimmung der räumlichen Position und räumlichen Orientierung eines Sensors
EP1813911A1 (de) Positionsbestimmungssystem

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: CARL ZEISS GOM METROLOGY GMBH, DE

Free format text: FORMER OWNER: GOM GMBH, 38122 BRAUNSCHWEIG, DE

R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee