DE102011001475A1 - Verfahren und Vorrichtungen zur Positions- und/oder Orientierungsbestimmung - Google Patents

Verfahren und Vorrichtungen zur Positions- und/oder Orientierungsbestimmung Download PDF

Info

Publication number
DE102011001475A1
DE102011001475A1 DE102011001475A DE102011001475A DE102011001475A1 DE 102011001475 A1 DE102011001475 A1 DE 102011001475A1 DE 102011001475 A DE102011001475 A DE 102011001475A DE 102011001475 A DE102011001475 A DE 102011001475A DE 102011001475 A1 DE102011001475 A1 DE 102011001475A1
Authority
DE
Germany
Prior art keywords
pattern
location
light pattern
determining
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011001475A
Other languages
English (en)
Other versions
DE102011001475B4 (de
Inventor
Dr. Schwarz Oliver
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss AG
Original Assignee
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss AG filed Critical Carl Zeiss AG
Priority to DE102011001475.6A priority Critical patent/DE102011001475B4/de
Publication of DE102011001475A1 publication Critical patent/DE102011001475A1/de
Application granted granted Critical
Publication of DE102011001475B4 publication Critical patent/DE102011001475B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es werden Verfahren und Vorrichtungen zur Positionsbestimmung offenbart Dabei wird ein Lichtmuster (22) ausgehend von mindestens einem ersten Ort erzeugt und das Lichtmuster an mindestens einem zweiten Ort erfasst. Eine Position des mindestens einen ersten Orts relativ zu dem mindestens einen zweiten Ort wird dann in Abhängigkeit von einem Vergleich des erfassten Lichtmusters mit einem simulierten Lichtmuster bestimmt. Zur Erfassung des Lichtmusters können beispielsweise Bildsensoren (28, 29, 210) dienen.

Description

  • Die vorliegende Erfindung betrifft Verfahren und Vorrichtungen zur Positions- und/oder Orientierungsbestimmung. Insbesondere betrifft die vorliegende Erfindung solche Verfahren und Vorrichtungen, bei welchen optische Messverfahren zum Einsatz kommen.
  • Die Bestimmung von Positionen und Orientierungen hat zahlreiche Anwendungsgebiete, beispielsweise bei der Steuerung oder Regelung von verschiedenen Maschinen und Geräten in der Industrie, Medizin oder Unterhaltungsbranche.
  • Koordinatenmessgeräte sind ein beispielhaftes Anwendungsgebiet, in dem eine Positionsbestimmung und/oder Orientierungsbestimmung in einem dreidimensionalen Raum mit einer möglichst hohen Genauigkeit wünschenswert ist. Koordinatenmessgeräte können einen Messkopf aufweisen, der beispielsweise mit einem Taststift oder mit einem optischen Sensor ausgestattet sein kann. Es ist wünschenswert, die Position des Messkopfs in einem großen räumlichen Bereich mit hoher Genauigkeit, bevorzugt im Mikrometerbereich, zu bestimmen. Die Vermessung von Oberflächen in der quantitativen Qualitätssicherung oder die Bestimmung einer Lage eines robotischen Geräts in der automatischen Fertigung stellen weitere mögliche Anwendungen dar, bei denen die genaue Bestimmung einer Position und/oder Orientierung in einem großen Raumbereich wünschenswert sein kann. Besonders hohe Anforderungen an Messgenauigkeiten werden beispielsweise bei der Herstellung von Teleskopspiegeln, optischen Komponenten für die Herstellung von Halbleiterstrukturen mit Größenordnungen im Nanometerbereich, im Flugzeugbau oder in der Raumfahrtindustrie gestellt
  • Verschiedene herkömmliche Ansätze messen Entfernungen durch die Messung einer elektromagnetischen Strahlung, beispielsweise Licht, zurückgelegten Weglängen. Dazu durchlauft die elektromagnetische Strahlung einen Weg zwischen einer Referenzposition und dem Objekt einmal oder mehrfach, so dass aus der von der Strahlung zurückgelegten Weglänge die Entfernung ableitbar ist. Beispielsweise beschreiben die US 4,818,100 und die US 4,856,893 die Kombination einer Abstandsmessung unter Verwendung von Lichtpulsen und einer interferometrischen Messanordnung. Die interferometrische Messanordnung ist dabei so ausgestaltet, dass eine Frequenz eines Dopplersignals ermittelt wird, das bei einer Positionsänderung des Objekts oder bei einer Abtastbewegung des Messstrahls resultiert.
  • Andere Verfahren sind die sogenannten Lasertracker, bei welchen allgemein ein Objektstrahl von einem zu messenden Objekt reflektiert wird und mit einem Referenzstrahl, welcher nicht von dem Objekt reflektiert wird, zur Interferenz gebracht wird
  • Die DE 10 2008 045 387 A1 und die DE 10 2008 045 386 A1 beschreiben Verfahren und Vorrichtungen zur Positionsbestimmung unter Verwendung von Lichtpulsen, wobei die Phasenlage einer Signalkomponente bestimmt wird, die mit einem Vielfachen der Repetitionsrate der Folge von Lichtpulsen oszilliert. Mit derartigen Verfahren und Vorrichtungen kann in einem relativ großen Entfernungsbereich die Bestimmung von Abständen mit einer Genauigkeit im Mikrometerbereich erreicht werden.
  • Zudem sind Verfahren und Vorrichtungen bekannt, bei welchen zur Positionsbestimmung nicht nur die Koordinaten eines Objekts, sondern auch dessen Orientierung bestimmt wird. Beispielsweise offenbart die US 6,667,798 B1 einen Lasertracker, bei welchem ein zusätzlicher Detektor hinter einem halbtransparenten Retroreflektor angeordnet ist, mit dessen Hilfe ein Ablenkwinkel erfasst wird. Dieses Verfahren ist mechanisch sehr aufwendig und teuer.
  • In der EP 1 942 312 A1 werden Verfahren und Vorrichtungen offenbart, bei der ein oder mehrere kohärente Messlichtsender an einem starren Rahmen angebracht sind. An einem Messkopf, dessen Position zu bestimmen ist, sind zum einen ein Referenzlichtsender und zum anderen ein Detektorarray angebracht, wobei Mess- und Referenzlicht in der Detektorebene interferieren. Hier ist jedoch ebenfalls ein relativ hoher konstruktiver Aufwand nötig, da die Messlichtsender von dem Referenzlichtsender entfernt angeordnet sind, die Lichtstrahlen jedoch bevorzugt – beispielsweise mittels eines Strahlteilers – aus der gleichen Lichtquelle stammen, was eine entsprechende aufwändige Laseranbindung nötig macht.
  • Daher ist es eine Aufgabe der vorliegenden Erfindung, Verfahren und Vorrichtungen zur Positionsbestimmung bereitzustellen, bei welchen möglichst keine getrennten Referenz- und Objektlichtstrahlen nötig sind und mit welchen dennoch Position und bei Bedarf auch Orientierung eines Objekts bestimmt werden können.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1 sowie eine Vorrichtung nach Anspruch 12. Die Unteransprüche definieren weitere Ausführungsbeispiele.
  • Erfindungsgemäß wird ein Verfahren zur Positionsbestimmung bereitgestellt, umfassend:
    Erzeugen eines raumlich variierenden Lichtmusters in einem Raumbereich ausgehend von mindestens einem ersten Ort,
    Erfassen des Lichtmusters an mindestens einem zweiten Ort, und
    Bestimmen einer Position des mindestens einen ersten Orts relativ zu dem mindestens einen zweiten Ort in Abhängigkeit von einem Vergleich des an dem mindestens einen zweiten Ort erfassten Lichtmusters mit einem simulierten Lichtmuster.
  • Durch die Verwendung eines Lichtmusters zur Positionsbestimmung ist es insbesondere nicht notwendig, getrennte Objekt- und Referenzstrahlen zu verwenden
  • Der mindestens eine erste Ort kann dabei insbesondere ein Ort an einem Objekt sein, dessen Position zu bestimmen ist, während der mindestens eine zweite Ort mindestens einen hinsichtlich seiner Position festgelegten Ort umfasst. Somit kann der mindestens eine zweite Ort ein raumfestes Koordinatensystem bilden, mit dem die Position des ersten Orts und somit des Objekts bestimmt wird.
  • Das Erfassen des Lichtmusters kann insbesondere ein zweidimensionales Erfassen, beispielsweise mit Hilfe eines Bildsensors, an dem mindestens einen zweiten Ort, bevorzugt an mindestens zwei zweiten Orten erfassen.
  • Das Verfahren kann weiterhin ein Erzeugen des simulierten Lichtmusters, d. h. eine Simulation, auf Basis von externen Positionsdaten umfassen. Beispielsweise kann ein Objekt, an dem der mindestens eine erste Ort liegt, an einem Roboterarm oder einer anderen Kinematik eingebracht werden, und Steuerdaten der Kinematik können zur Simulation verwendet werden. Das Vergleichen kann dann ein Verschieben des simulierten Lichtmusters derart, dass es mit dem erfassten Lichtmuster deckungsgleich ist, umfassen, wobei dann die Position aus den so ermittelten Verschiebungsvektoren bestimmt werden kann.
  • Das Erzeugen des Lichtmusters kann durch Interferieren von zwei oder mehr, bevorzugt vier oder mehr, Lichtstrahlen, beispielsweise Laserstrahlen, erfolgen. Hierzu können die Lichtstrahlen beispielsweise mittels Zerstreuungslinsen aufgeweitet werden, und/oder es kann ein aufgeweiteter Lichtstrahl auf ein diffraktives Element gelenkt werden.
  • Das Erzeugen des Lichtmusters und das Erfassen des Lichtmusters kann durch ein Triggersignal gesteuert werden.
  • Zusätzlich zu der Position kann auch eine Orientierungsbestimmung des mindestens einen ersten Ortes vorgenommen werden.
  • Eine entsprechende Vorrichtung zur Positionsbestimmung wird ebenfalls bereitgestellt. Erfindungsgemäß erfasst diese einen Mustergenerator zum Erzeugen eines Lichtmusters in einem Raumbereich ausgehend von mindestens einem ersten Ort, mindestens einen Detektor zum Erfassen des Lichtmusters an mindestens einem zweiten Ort und eine Auswerteeinrichtung zum Bestimmen einer Position des mindestens einen ersten Ortes relativ zu dem mindestens einen zweiten Ort in Abhängigkeit von einem Vergleich des erfassten Lichtmusters mit einem simulierten Lichtmuster.
  • Der Mustergenerator kann insbesondere einen Laser und eine Einrichtung zur Aufspaltung eines Laserstrahls in mehrere interferierende Wellenfronten umfassen.
  • Die erfindungsgemäße Vorrichtung kann insbesondere zur Durchführung eines oder mehrerer der oben beschriebenen Verfahren eingerichtet sein. Die oben definierten Ausführungsbeispiele können miteinander kombiniert werden, sofern nichts anderes angegeben ist.
  • Die Erfindung wird nachfolgend unter Bezugnahme auf die beigefügte Zeichnung anhand von Ausführungsbeispielen näher erläutert Es zeigen:
  • 1 eine Messvorrichtung mit einem Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur Positionsbestimmung,
  • 2 ein Blockdiagramm eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung zur Positionsbestimmung,
  • 3 eine schematische Darstellung eines weiteren Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung,
  • 4 ein Beispiel für ein Interferenzmuster,
  • 5A und 5B vergrößerte Ausschnitte eines Interferenzmusters,
  • 6 ein Ausführungsbeispiel eines Mustergenerators,
  • 7 ein weiteres Ausführungsbeispiel eines Mustergenerators,
  • 8 ein Flussdiagramm zur Veranschaulichung eines Ausfuhrungsbeispiels eines erfindungsgemäßen Verfahrens, und
  • 9 ein Diagramm zur Veranschaulichung einer Mustersimulation.
  • Im Folgenden werden Ausführungsbeispiele der Erfindung näher erläutert. Es ist zu bemerken, dass diese Ausführungsbeispiele lediglich zur Veranschaulichung der Erfindung dienen und nicht als einschränkend auszulegen sind. Merkmale verschiedener Ausführungsbeispiele können miteinander kombiniert werden, sofern nichts anderes angegeben ist. Auf der anderen Seite ist eine Beschreibung eines Ausführungsbeispiels mit einer Vielzahl von Merkmalen nicht dahingehend auszulegen, dass alle diese Merkmale zur Ausführung der Erfindung erforderlich sind, da andere Ausführungsbeispiele weniger Merkmale und/oder alternative Merkmale aufweisen können.
  • In 1 ist schematisch eine Vorrichtung, welche eine Vorrichtung zur Positionsbestimmung gemäß einem Ausführungsbeispiel der Erfindung umfasst, dargestellt. Die Messvorrichtung umfasst einen Roboter 10 als Beispiel für eine Mehrachskinematik, an deren Ende ein Sensor 12 zum Vermessen eines Messobjekts 13 angebracht ist. Der Sensor 12 kann beispielsweise ein taktiler Sensor oder ein optischer Sensor zur Oberflächenvermessung sein.
  • Das Messobjekt 13 ist dabei bei dem Ausführungsbeispiel der 1 an einem starren Rahmen 14 angebracht.
  • Zudem ist an dem Roboterarm 10 eine Vorrichtung 11 zur Positionsbestimmung gemäß einem Ausführungsbeispiel der Erfindung dargestellt, mit deren Hilfe die Position und/oder Orientierung des Sensors 12, d. h. des Messkopfes der Vorrichtung, relativ zu dem starren Rahmen 14 wie durch Striche angedeutet bestimmt werden kann. Dabei kann beispielsweise die Position in kartesischen Koordinaten x, y, z und die Orientierung in drei Winkelkoordinaten Ψ, Θ und Φ bezüglich eines durch den starren Rahmen 14 vorgegebenen Koordinatensystems bestimmt werden.
  • Ein Ausführungsbeispiel einer erfindungsgemaßen Vorrichtung zur Positions- und/oder Orientierungsbestimmung, welches beispielsweise als Vorrichtung 11 der 1 eingesetzt werden kann, jedoch auch unabhängig hiervon verwendet werden kann, ist in 2 dargestellt.
  • Bei dem Ausführungsbeispiel der 2 ist ein Sensor 24 an einer Kinematik 23 angebracht, beispielsweise der Sensor 12 der 1 an dem Roboterarm 10. Die Kinematik 23 wird von einer Steuereinheit 25 gesteuert. Der Sensor 24 vermisst beispielsweise über optische Signale 26 ein Messobjekt 27, welches an einem starren Rahmen 211 angebracht ist.
  • Weiter an der Kinematik 23, insbesondere bevorzugt in der Nähe des Sensors 24, ist ein Mustergenerator 21 angebracht, welcher über einen Lichtwellenleiter 212 Licht von einer Laserlichtquelle 20 empfängt, beispielsweise einem Infrarotlaser oder einem im sichtbaren Bereich arbeitenden Laser, und mit dem empfangenen Laserlicht ein räumlich variierendes Interferenzmuster 22 in einem Raumbereich durch Überlagerung von Wellenfronten erzeugt. Hierzu kann insbesondere das Laserlicht in mehrere Teilstrahlen aufgeteilt werden und die mehreren Teilstrahlen dann zur Interferenz gebracht werden. Ausführungsbeispiele des Mustergenerators 21 werden später auch unter Bezugnahme auf 6 und 7 noch detaillierter erläutert.
  • Die Vorrichtung der 2 umfasst weiterhin Bildsensoren 28, 29 und 210, beispielsweise CCD-Bildsensoren oder CMOS-Bildsensoren, welche das Interferenzmuster 22 zweidimensional aufnehmen. Die Bildsensoren 28210 können beispielsweise einen Pixelabstand in der Größenordnung von 10 μm und eine Auflösung in der Größenordnung von 500·500 Pixel aufweisen, wobei auch andere Werte, z. B eine höhere Auflösung mit mehr Pixeln oder andere Pixelabstände möglich sind. Wahrend in 2 drei Bildsensoren 28, 29, 210 dargestellt sind, können bei anderen Ausführungsbeispielen auch mehr oder weniger Bildsensoren vorhanden sein. Bei manchen Ausführungsbeispielen kann auch nur ein einziger Bildsensor vorhanden sein, insbesondere wenn nur die Position, nicht aber die Orientierung des Mustergenerators 21 und somit des Sensors 24 zu bestimmen sind.
  • Die Bildsensoren 28, 29 und 210 werden über einen Bus 214, beispielsweise einen USB-Bus oder einen Firewire-Bus, von einer Steuereinheit 213 ausgelesen. Über Verbindungen 215, beispielsweise Koaxialkabel, kann die Steuereinheit Triggersignale an die Bildsensoren 28, 29, 210 und zudem ein Triggersignal an die Bildsensoren 28, 29, 210 senden, um ein synchrones Auslesen, beispielsweise auch synchron mit einer Erzeugung des Lichtmusters 22 durch den Mustergenerator 21, zu bewirken.
  • Die Steuereinheit 213 der Positionsmessvorrichtung empfängt zudem über einen Datenbus 216, beispielsweise einen Ethernet-Bus, Steuerdaten von der Steuereinheit 25 der Kinematik. Aus den Steuerdaten der Steuereinheit 25 kann die Steuereinheit 213 die Position der Kinematik und somit des Mustergenerators 21 näherungsweise bestimmen, d. h. mit einer Genauigkeit, welche kleiner ist als die letztendlich bei der Positionsbestimmung gewünschte Genauigkeit. Beispielsweise können hierzu Winkeldaten von Gelenken der Kinematik 23 ausgewertet werden. Basierend auf dieser ungefähren Positionsbestimmung simuliert die Steuereinheit 213 für jeden Bildsensor 28210 das auf dem Bildsensor erwartete Interferenzmuster. Durch einen Vergleich der simulierten Interferenzmuster mit dem tatsächlich aufgenommenen Interferenzmuster können dann Verschiebungsvektoren bestimmt werden, welche eine Verschiebung des simulierten Musters relativ zu dem aufgenommenen Muster zeigen. Insbesondere wird für die aufgenommenen, d. h. den mit den Bildsensoren erfassten Mustern, bei einem Ausführungsbeispiel jeweils Verschiebung und Rotation des erfassten Musters gegenüber den erwarteten, d. h. simulierten, Muster berechnet. Hieraus wird dann Position und Orientierung des Mustergenerators berechnet. Auf Basis dieser Vektoren wird dann bei dem dargestellten Ausführungsbeispiel die Position und/oder Orientierung des Mustergenerators 21 und somit des Sensors 24, welcher starr mit dem Mustergenerator 21 verbunden ist, bestimmt.
  • Dabei ist zu bemerken, dass durch den Einsatz von zweidimensionalen Bildsensoren und entsprechender Interferenzmuster eine effektive Auflösung erreicht werden kann, welche höher ist als der Abstand der Detektorpixel. Insbesondere kann durch die hohe Anzahl der zur Verfügung stehenden Pixel gleichsam durch eine Ausgleichsrechnung bei der Berechnung der Verschiebungsvektoren bei manchen Ausführungsbeispielen eine Genauigkeit von 1/100 Pixel oder sogar noch höhere Genauigkeiten erreicht werden.
  • Hierdurch kann eine entsprechend genaue Positionsbestimmung erreicht werden.
  • Bei manchen Ausführungsbeispielen sind die Bildsensoren 28210 zumindest teilweise senkrecht zueinander angeordnet, da in diesem Fall eine Rotation eines Musters auf einem Bildsensor einer Verschiebung eines Musters im Bild eines senkrecht dazu angeordneten Bildsensors entspricht Die Detektion derartiger Rotationen ist insbesondere für die Bestimmung einer Orientierung des Mustergenerators 21 hilfreich. Da Verschiebungen besser bzw. genauer zu detektieren sind als Rotationen, kann somit eine höhere Genauigkeit bei der Bestimmung der Orientierung erreicht werden als durch nur einen Bildsensor. Natürlich kann bei manchen Ausführungsbeispielen auch nur ein einziger Bildsensor verwendet werden, wenn die hier erreichte Genauigkeit für eine jeweilige Anwendung ausreichend ist
  • Beispielsweise kann zur Detektion einer Rotation eines Musters, mit welcher letztendlich eine Genauigkeit der Orientierungsbestimmung von 1 μRad erreicht werden kann, je nach Größe der Bildsensoren, welche im Bereich von 1 bis wenigen Zentimetern liegen kann, bei dem obigen Beispiel für Bildsensoren eine Auflösung von 1/1000 Pixel oder darüber nötig sein, während bei der Verwendung von senkrecht zueinander angeordneten Bildsensoren eine geringere Genauigkeit ausreichend ist. Neben einer senkrechten Anordnung ist auch eine Anordnung unter einem Winkel z. B. zwischen 30° und 150°, bevorzugt zwischen 70° und 110°, möglich.
  • Ein Beispiel für eine derartige senkrechte Anordnung von Bildsensoren ist in 3 dargestellt, welche schematisch ein weiteres Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur Positionsbestimmung zeigt. Die Vorrichtung der 3 zeigt einen Mustergenerator 30, welcher beispielsweise wiederum an einem Messkopf einer (nicht dargestellten) Kinematik befestigt sein kann. Der Mustergenerator 30 ist somit im Wesentlichen im Raum frei beweglich. Zudem ist ein Winkelrahmen dargestellt, welcher aus abwechselnd angeordneten Trägereinheiten 31 mit dazwischen liegenden Mattscheiben 32 besteht. Mit einem derartigen Winkelrahmen kann das erzeugte Muster in senkrecht zueinander stehenden Ebenen aufgenommen werden. Ein von dem Mustergenerator 30 erzeugtes räumliches Lichtmuster wird somit auf die Mattscheiben 32 projiziert und dann von entsprechenden zugeordneten Kameraeinheiten 33 aufgenommen. Bei anderen Ausführungsbeispielen kann jedoch auch auf die Mattscheiben 32 verzichtet werden, und die Kameraeinheiten 33 können direkt zwischen die Trägereinheiten 31 integriert sein. Eine Triggereinheit 35 liefert – wie für die Steuereinheit 213 der 2 bereits beschrieben – ein Triggersignal zum Auslesen an die Kameraeinheiten 33. Die Trägerstruktur, beispielsweise die Trägereinheiten 31, können aus temperaturstabilen Materialien, z. B einem Rahmen aus Granit oder Invar oder einem Granitbett, gefertigt sein. Die Bildsensoren können insbesondere Grauwertbildsensoren sein.
  • Auch hier ist zu bemerken, dass die Anzahl der dargestellten Mattscheiben 32 und Kameraeinheiten 33 lediglich als Beispiel zu verstehen ist, und auch eine andere Anzahl verwendet werden kann.
  • Es ist zu bemerken, dass Elemente der Ausführungsbeispiele der 2 und 3 kombiniert werden können, beispielsweise kann auch bei dem Ausführungsbeispiel der 3 eine Steuereinheit für eine Kinematik wie in 2 dargestellt bereitgestellt und verwendet werden, und/oder die Bildsensoren 28210 können wie in 3 dargestellt durch Mattscheibe und Kameraeinheit gebildet sein und wie in 3 angeordnet sein.
  • Im Folgenden sollen nun Beispiele für die Erzeugung eines räumlichen Lichtmusters näher erläutert werden. Wie bereits erwahnt wird dabei bei Ausführungsbeispielen insbesondere die Erzeugung des Musters durch Interferenz verwendet.
  • Als Beispiel ist in 4 die Interferenz zweier von Punkten 40, 41 ausgehender Kugelwellen dargestellt. Wie zu sehen ist, werden die einzelnen Dunkel/Hell-Bereiche mit zunehmendem Abstand von den Punkten 40, 41 größer oder, in anderen Worten, das Interferenzmuster verändert sein Aussehen in Abhängigkeit vom Abstand von den Ausgangspunkten 40, 41 der Kugelwellen. Somit unterscheidet sich beispielsweise je nach Position des Mustergenerators 21 der 2 oder des Mustergenerators 30 der 3 das von den jeweiligen Bildsensoren aufgenommene Muster, was wiederum die Positionsbestimmung ermöglicht.
  • Um dies weiter zu veranschaulichen, sind in 5A und 5B vergrößerte Ausschnitte eines simulierten Interferenzmusters bei der Überlagerung von vier sphärischen Wellenfronten dargestellt. Bei der verwendeten Simulation waren die Zentren der vier Wellenfronten bei (0, 0, 0), (0, 0.33, 0), (0, 0, 1) und (–0,3, 0, 0), wobei die Koordinatenangaben in Millimetern zu verstehen sind. In 5A ist ein Muster an einer Position (100, 140, 20) dargestellt, in 5B ein Muster bei einer Position (1000, 140, 200).
  • Wie hier deutlich zu sehen ist, verändert sich das Muster deutlich mit dem Abstand (der Maßstab ist in 5A und 5B gleich). Zudem ist insbesondere in 5A zu sehen, dass durch Überlagerung von vier Wellen im Vergleich zu der Überlagerung von zwei Wellen der 4 ein stärker strukturiertes Muster erzeugt werden kann, was die Positionsbestimmung erleichtert. Zu betonen ist jedoch, dass die Erfindung nicht auf die Verwendung von vier oder mehr Wellenfronten beschränkt ist, sondern auch weniger Wellenfronten verwendet werden können.
  • Allgemein sind bei derartigen Interferenzmustern die Strukturbreiten zum einen von den Zentren der Wellenfronten und zum anderen von der Position des jeweiligen verwendeten Bildsensors relativ zum Mustergenerator abhängig. Ein größerer Abstand des Bildsensors vergrößert die Strukturen und ein größerer Abstand der Zentren zueinander verkleinert die Strukturen. Mit Hilfe einer Kombination kleiner und großer Strukturen, welche durch verschieden große Abstände der Zentren der Wellenfronten zueinander erzeugt werden konnen, kann ein Lichtmuster erzeugt werden, welches in dem interessierenden Raumbereich, d. h. in dem Messvolumen, überall eine Struktur aufweist, welche für eine gewünschte Genauigkeit der Positionsbestimmung ausreichend kontrastreich sind.
  • Nachfolgend werden unter Bezugnahme auf 6 und 7 verschiedene Ausführungsbeispiele von Mustergeneratoren erläutert.
  • In 6 ist ein Ausführungsbeispiel eines Mustergenerators gezeigt, welcher beispielsweise in den Ausführungsbeispielen der 13 verwendet werden kann. Der Mustergenerator 61 ist über einen Lichtwellenleiter 62 mit einer Laserlichtquelle 60 gekoppelt. Die Laserlichtquelle kann beispielsweise ein Diodenlaser mit Leistung im Bereich von 100 mW mit bis 1 W sein. Auch andere Laser, beispielsweise ein Nd:YAG-Laser, können verwendet werden. Der von der Laserlichtquelle 60 emittierte Laserstrahl weist bevorzugt Kohärenzeigenschaften auf, welche eine Erzeugung des Lichtmusters in dem gesamten interessierenden Raumbereich ermöglicht. Hierzu ist bei einem Ausführungsbeispiel die zeitliche Kohärenz des Laserlichts größer als eine Laufzeit zwischen Ausgängen von später noch zu erläuternden Lichtwellenleitern 64, beispielsweise Glasfasern, wobei diese Abstände im Bereich weniger Millimeter liegen können.
  • Der von der Laserlichtquelle 60 erzeugte Laserstrahl wird einem Optikkoppler 63 zugeführt, welcher den Laserstrahl auf eine Mehrzahl von, beispielsweise vier, Lichtwellenleiter 64 verteilt. Die Lichtquellenleiter 64 enden an jeweiligen Zerstreuungslinsen 65, welche jeweils einen aufgeweiteten Strahl erzeugen, wobei sich Wellenfronten der aufgeweiteten Strahlen 66 überlagern. Bei dem Ausführungsbeispiel der 6 ist der Abstand der in 6 oberen zwei Zerstreuungslinsen 65 und der unteren zwei Zerstreuungslinsen 65 untereinander jeweils relativ klein, während der Abstand dieser beiden Gruppen zueinander größer ist.
  • Bei einem anderen Ausfuhrungsbeispiel kann statt der Zerstreuungslinsen 65 jeweils eine Blende verwendet werden, deren Blendenöffnung vergleichbar mit, vorzugsweise kleiner, der Wellenlänge des Laserlichts ist. Hierdurch werden ebenfalls kugelförmige Wellenfronten erzeugt.
  • Ein weiteres Ausführungsbeispiel eines Mustergenerators ist in 7 dargestellt. Ähnlich der 6 wird auch dem Mustergenerator 71 der 7 über einen Lichtwellenleiter 72 ein Laserstrahl einer Laserlichtquelle 70 zugeführt. Die Bemerkungen hinsichtlich der Art der Laserlichtquelle 60 der 6 sind in entsprechender Weise auch auf die Laserlichtquelle 70 der 7 anwendbar. Über den Lichtwellenleiter 72 wird der von der Laserlichtquelle 70 emittierte Laserstrahl einer Zerstreuungslinse 73 zugeführt, um so einen aufgeweiteten Strahl 74 zu erzeugen, welcher auf ein diffraktives optisches Element (DOE) 75 gelenkt wird. Das diffraktive optische Element 75 erzeugt mittels lokaler Phasenverschiebung die gewünschte Ausgangswellenfront 76, welche beispielsweise im Wesentlichen einer Überlagerung von vier oder mehr Kugelwellen entspricht.
  • Als Lichtwellenleiter in den Ausführungsbeispielen der 6 und 7 können insbesondere Monomodefasern verwendet werden. Als Laserlichtquellen 60, 70 können insbesondere gepulste Laser eingesetzt werden. Insbesondere sind durch gepulste Laser kürzere Integrationszeiten möglich, da beispielsweise bei Dauerlasern die Positionsmessung zeitlich integrierend über die Dauer der Bildaufnahme der verwendeten Bildsensoren durchgeführt wird, was bei sich schnell bewegenden Objekten zu einer größeren Ungenauigkeit der Messung führen kann. Falls sich das Objekt, d. h. der Mustergenerator, jedoch nur langsam bewegt, während der Messung stillsteht oder die erwünschte Genauigkeit ausreichend ist, kann auch ein Dauerstrichlaser verwendet werden.
  • Bei Verwendung eines gepulsten Lasers kann das Auslösen der Bildaufnahme mittels des bereits unter Bezugnahme auf 2 und 3 beschriebenen Triggern insbesondere synchron mit den Pulsen des Lasers erfolgen.
  • Ein Beispiel für ein erfindungsgemäßes Verfahren zur Positions- und Orientierungsbestimmung, welches beispielsweise in der Vorrichtung der 2 oder der 3, jedoch auch unabhängig davon implementiert sein kann, ist schematisch in 8 dargestellt.
  • In Schritt 80 wird eine Kinematiksteuerung 88, beispielsweise die Steuereinheit 25 der 2, angewiesen, eine gewünschte Position mit einer gewünschten Orientierung anzufahren. Sobald diese Position erreicht wird, welche auch als ungenaue Position bezeichnet werden kann (da sie zu diesem Zeitpunkt nur auf Basis der Steuerdaten der Kinematik vorliegt), wird das eigentliche erfindungsgemäße Verfahren gestartet.
  • Insbesondere wird das in Schritt 81, beispielsweise über die Leitungen 215 der 2 oder die Leitungen 34 der 3, ein Triggersignal für eine Bildaufnahme an Bildsensoren 89, beispielsweise die Bildsensoren 28, 29, 210 der 2 oder die Kameraelemente 33 der 3, gesendet, um eine Bildaufnahme auszulösen. Synchron hierzu wird in Schritt 82 ein Triggersignal für einen Laserpuls an eine verwendete Laserlichtquelle, beispielsweise die Laserlichtquelle 60 der 6 oder die Laserlichtquelle 70 der 7, gesendet. Das Triggersignal für den Laserpuls kann beispielsweise wenige Millisekunden nach dem Triggersignal für die Bildaufnahme erfolgen. In Schritt 83 werden die verwendeten Bildsensoren sequenziell ausgelesen. Bei anderen Ausführungsbeispielen ist auch ein paralleles Auslesen der Bildsensoren möglich. Das Auslesen der Bildsensoren kann wie bereits beschrieben über einen Bus wie einen Firewire-Bus, einen USB-Bus, einen GigE-Bus oder einen CameraLink-Bus erfolgen.
  • In Schritt 84 wird ein erwartetes Muster für alle Bildsensoren simuliert.
  • Die Simulation des Musters wird nun unter Bezugnahme auf 9 erläutert. Insbesondere wird die Simulation aus der Anordnung von Wellenfronten, wie sie bei Position und Orientierung gemäß der Kinematiksteuerung, d. h. der ungenauen Position, bei dem Bildsensor erwartet wird, berechnet. In 9 ist dies schematisch für zwei Kugelwellen mit Zentren 90, 91 dargestellt. Auf einem Punkt des Bildsensors 92 ist ein Vektor von dem Zentrum 90 zu dem Punkt des Bildsensors 92 Bx →, während ein Vektor von dem Zentrum 91 zu dem Punkt des Bildsensors 92 Ax → ist. Die Distanz zwischen den Punkten 90, 91 ist bekannt. Der Weglängenunterschied dx ist dann gleich ∥Ax →∥ – ∥Bx →∥.
  • Abhängig von der Abstrahlcharakteristik des verwendeten Mustergenerators, beispielsweise der in 6 verwendeten Zerstreuungslinsen, verwendeter Blenden und/oder des diffraktiven optischen Elements der 7, können für den jeweiligen Abstrahlwinkel Korrekturwerte in die Bestimmung der optischen Weglänge einfließen. Diese können beispielsweise aus dem Optikdesign der Zerstreuungslinsen gewonnen werden oder in einen Kalibrierschritt mit einem Referenzmesssystem ermittelt werden.
  • Für vier Quellen mit optischen Weglängen a, b, c und d zu einem Punkt des Bildsensors kann beispielsweise eine Intensität result mit folgender Formel berechnet werden: result = cos(a)^2 + 2·cos(a)·cos(b) + 2·cos(a)·cos(c) + 2·cos(a)·cos(d) + cos(b)^2 + 2·cos(b)·cos(c) + 2·cos(b)·cos(d) + cos(c)^2 + 2·cos(c)·cos(d) + cos(d)^2 + sin(a)^2 + 2·sin(a)·sin(b) + 2·sin(a)·sin(c) + 2·sin(a)·sin(d) + sin(b)^2 + 2·sin(b)·sin(c) + 2·sin(b)·sin(d) + sin(c)^2 + 2·sin(c)·sin(d) + sin(d)^2 wobei beispielsweise a = 2·pi/lambda·norm(x – A), wobei x die Position des jeweiligen Sensorpixels, A das Zentrum der ersten Quelle, norm ein Operator, welcher den Absolutwert der Vektordifferenz x – A berechnet, und lambda die Wellenlänge des Lasers ist.
  • In Schritt 65 werden dann die bereits angesprochenen Verschiebungsvektoren zwischen simuliertem und aufgenommenem Muster berechnet. Dies kann beispielsweise über eine diskrete Fourier-Transformation (DFT) im Phasenraum geschehen, beispielsweise mit der sogenannten Phasenkorrelation. Ein derartiges Verfahren zur Phasenkorrelation ist z. B. in W. Scott Hoge, Dimitris Mitsouras, Frank J. Rybicki, Robert V. Mulkern und Carl Frederik Westin: „Registration of Multi-Dimensional Image Data via Sub-Pixel Resolution Phase Correlation", in: Proceedings of IEEE International Conference on Image Processing (ICIP-03, 2003) beschrieben.
  • In Schritt 86 wird dann die genaue Position auf Basis der Verschiebungsvektoren beispielsweise mittels Lösen eines linearen Ausgleichsproblems berechnet.
  • In Schritt 87 wird dann die genaue Position angewendet, beispielsweise auf einem Display ausgegeben, an einen weiteren Messrechner gesendet oder auf denselben Rechner in ein Messprogramm weitergegeben.
  • Es ist zu bemerken, dass 8 lediglich ein Beispiel darstellt und Variationen möglich sind. Beispielsweise können die Schritt 84 und 85 nacheinander für alle Bildsensoren durchgeführt werden, d. h. zuerst Simulation des Musters für den ersten Bildsensor und Berechnung der Verschiebungsvektoren für den ersten Bildsensor, usw. für alle folgenden Bildsensoren.
  • Die vorstehend beschriebenen Ausführungsbeispiele sind lediglich als Beispiele zu verstehen, und eine Vielzahl von Variationen und Abwandlungen sind möglich. Beispielsweise ist es grundsätzlich auch möglich, den Mustergenerator ortsfest anzuordnen und zwei oder mehr Bildsensoren an dem jeweiligen Messkopf einer Kinematik anzuordnen. Auch ist die vorliegende Erfindung nicht nur auf an einem Roboterarm oder einer ähnlichen Kinematik angebrachte Objekte anwendbar, sondern eignet sich generell zur Positionsbestimmung eines beweglichen Objekts in einem Raumvolumen, solange das interessierende Raumvolumen mit dem Lichtmuster ausgeleuchtet werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 4818100 [0004]
    • US 4856893 [0004]
    • DE 102008045387 A1 [0006]
    • DE 102008045386 A1 [0006]
    • US 6667798 B1 [0007]
    • EP 1942312 A1 [0008]
  • Zitierte Nicht-Patentliteratur
    • W. Scott Hoge, Dimitris Mitsouras, Frank J. Rybicki, Robert V. Mulkern und Carl Frederik Westin: „Registration of Multi-Dimensional Image Data via Sub-Pixel Resolution Phase Correlation”, in: Proceedings of IEEE International Conference on Image Processing (ICIP-03, 2003) [0068]

Claims (17)

  1. Verfahren zur Positionsbestimmung, umfassend: Erzeugen eines räumlich variierenden Lichtmusters (22) in einem Raumbereich ausgehend von mindestens einem ersten Ort (21; 30), Erfassen des Lichtmusters (22) an mindestens einem zweiten Ort (28, 29, 210; 32), Bestimmen einer Position des mindestens einen ersten Orts (21; 33) relativ zu dem mindestens einen zweiten Ort (28, 29, 210; 32) in Abhängigkeit von einem Vergleich des erfassten Lichtmusters mit einem simulierten Lichtmuster.
  2. Verfahren nach Anspruch 1, wobei das Erfassen an dem mindestens einen Ort in zwei Dimensionen erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Vergleichen ein Bestimmen von Verschiebungsvektoren zwischen dem erfassten Lichtmuster und dem simulierten Lichtmuster umfasst
  4. Verfahren nach einem der Ansprüche 1–3, wobei das Simulieren auf Basis von externen Positionsdaten erfolgt.
  5. Verfahren nach Anspruch 4, wobei der mindestens eine erste Ort an einer Kinematik (10; 23) angebracht ist, und wobei die externen Positionsdaten Daten einer Steuerung (25) der Kinematik (10; 23) umfassen.
  6. Verfahren nach einem der Ansprüche 1–5, wobei der mindestens eine zweite Ort mindestens zwei zweite Orte umfasst, wobei Bildebenen des Erfassens des Lichtmusters an zweien der mindestens zwei zweiten Orte unter einem Winkel zwischen 30° und 150° zueinander angeordnet sind.
  7. Verfahren nach einem der Ansprüche 1–6, wobei das Erzeugen des Lichtmusters ein Erzeugen eines Interferenzmusters umfasst.
  8. Verfahren nach Anspruch 7, wobei das Erzeugen des Interferenzmusters eine überlagerung von mindestens vier Wellenfronten umfasst.
  9. Verfahren nach einem der Ansprüche 1–8, wobei das Erfassen des Lichtmusters in Abhangigkeit von einem Triggersignal vorgenommen wird.
  10. Verfahren nach einem der Ansprüche 8 oder 9, wobei das Erzeugen des Lichtmusters auf Basis eines Laserstrahls erfolgt.
  11. Verfahren nach einem der Ansprüche 1–10, wobei weiterhin eine Orientierung des mindestens einen ersten Orts in Abhängigkeit von dem Vergleich bestimmt wird.
  12. Vorrichtung zur Positionsbestimmung, umfassend: einen Mustergenerator (21; 30; 61; 71) zum Erzeugen eines räumlich variierenden Lichtmusters in einem Raumbereich ausgehend von mindestens einem ersten Ort, mindestens einen Detektor (28, 29, 210; 32, 33) zum Erfassen des Lichtmusters an mindestens einem zweiten Ort, und eine Auswerteeinrichtung (213) zum Bestimmen einer Position des mindestens einen ersten Orts relativ zu dem mindestens einen zweiten Ort in Abhängigkeit von einem Vergleich des erfassten Lichtmusters mit einem simulierten Lichtmuster.
  13. Vorrichtung nach Anspruch 12, wobei der Mustergenerator (61) einen Optikkoppler (63) zum Aufspalten eines empfangenen Laserstrahls in mehrere Teilstrahlen umfasst, wobei die mehreren Teilstrahlen über Lichtleiter (64) an verschiedenen Orten abgestrahlt werden.
  14. Vorrichtung nach Anspruch 13, wobei der Mustergenerator (61) an den Enden der Lichtleiter angeordnete Zerstreuungslinsen (65) und/oder Blenden umfasst.
  15. Vorrichtung nach einem der Ansprüche 12–14, wobei der Mustergenerator (71) ein diffraktives optisches Element (75) umfasst.
  16. Vorrichtung nach einem der Ansprüche 12–15, wobei die Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1–11 eingerichtet ist.
  17. Messvorrichtung, umfassend. eine Kinematik (10; 23), einen an der Kinematik (10, 23) angebrachten Sensor (12; 24), und eine Vorrichtung zur Positionsbestimmung nach einem der Ansprüche 12–16, wobei ein Mustergenerator (21) der Vorrichtung zur Positionsbestimmung in einer festen örtlichen Beziehung zu dem Sensor (12; 24) steht.
DE102011001475.6A 2011-03-22 2011-03-22 Verfahren und Vorrichtungen zur Positionsbestimmung Active DE102011001475B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011001475.6A DE102011001475B4 (de) 2011-03-22 2011-03-22 Verfahren und Vorrichtungen zur Positionsbestimmung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011001475.6A DE102011001475B4 (de) 2011-03-22 2011-03-22 Verfahren und Vorrichtungen zur Positionsbestimmung

Publications (2)

Publication Number Publication Date
DE102011001475A1 true DE102011001475A1 (de) 2012-09-27
DE102011001475B4 DE102011001475B4 (de) 2020-03-12

Family

ID=46831417

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011001475.6A Active DE102011001475B4 (de) 2011-03-22 2011-03-22 Verfahren und Vorrichtungen zur Positionsbestimmung

Country Status (1)

Country Link
DE (1) DE102011001475B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320346A (zh) * 2023-05-17 2023-06-23 山东矩阵软件工程股份有限公司 一种将图像rgb色彩数据转换为多维数据进行综合分析的方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484254B2 (ja) 2020-03-13 2024-05-16 オムロン株式会社 干渉判定装置、方法、及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4446480A (en) * 1981-12-14 1984-05-01 The United States Of America As Represented By The Secretary Of The Navy Head position and orientation sensor
US4788440A (en) * 1981-05-11 1988-11-29 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines
US4818100A (en) 1987-09-30 1989-04-04 Eaton Corporation Laser doppler and time of flight range measurement
US4856893A (en) 1987-09-30 1989-08-15 Eaton Corporation Laser distance measuring method and apparatus
US6667798B1 (en) 1999-07-28 2003-12-23 Leica Geosystems Ag Method and device for determining spatial positions and orientations
WO2008028878A1 (fr) * 2006-09-05 2008-03-13 Thales Dispositif de detection optique de position et/ou d'orientation d'objets et procedes de detection associes
EP1942312A1 (de) 2007-01-02 2008-07-09 ISIS Sentronics GmbH Positionserkennungssystem zur berührungslosen interferometrischen Detektion der Ortsposition eines Zielobjektes und damit ausgestattetes Abtastsystem
DE102008045386A1 (de) 2008-09-02 2010-03-04 Carl Zeiss Ag Vorrichtung und Verfahren zum Bestimmen einer Objektposition
DE102008045387A1 (de) 2008-09-02 2010-03-04 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
DE102009030883A1 (de) * 2009-06-19 2010-12-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4788440A (en) * 1981-05-11 1988-11-29 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines
US4446480A (en) * 1981-12-14 1984-05-01 The United States Of America As Represented By The Secretary Of The Navy Head position and orientation sensor
US4818100A (en) 1987-09-30 1989-04-04 Eaton Corporation Laser doppler and time of flight range measurement
US4856893A (en) 1987-09-30 1989-08-15 Eaton Corporation Laser distance measuring method and apparatus
US6667798B1 (en) 1999-07-28 2003-12-23 Leica Geosystems Ag Method and device for determining spatial positions and orientations
WO2008028878A1 (fr) * 2006-09-05 2008-03-13 Thales Dispositif de detection optique de position et/ou d'orientation d'objets et procedes de detection associes
EP1942312A1 (de) 2007-01-02 2008-07-09 ISIS Sentronics GmbH Positionserkennungssystem zur berührungslosen interferometrischen Detektion der Ortsposition eines Zielobjektes und damit ausgestattetes Abtastsystem
DE102008045386A1 (de) 2008-09-02 2010-03-04 Carl Zeiss Ag Vorrichtung und Verfahren zum Bestimmen einer Objektposition
DE102008045387A1 (de) 2008-09-02 2010-03-04 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
DE102009030883A1 (de) * 2009-06-19 2010-12-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
W. Scott Hoge, Dimitris Mitsouras, Frank J. Rybicki, Robert V. Mulkern und Carl Frederik Westin: "Registration of Multi-Dimensional Image Data via Sub-Pixel Resolution Phase Correlation", in: Proceedings of IEEE International Conference on Image Processing (ICIP-03, 2003)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320346A (zh) * 2023-05-17 2023-06-23 山东矩阵软件工程股份有限公司 一种将图像rgb色彩数据转换为多维数据进行综合分析的方法
CN116320346B (zh) * 2023-05-17 2023-08-29 山东矩阵软件工程股份有限公司 一种将图像rgb色彩数据转换为多维数据进行综合分析的方法

Also Published As

Publication number Publication date
DE102011001475B4 (de) 2020-03-12

Similar Documents

Publication Publication Date Title
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE102012111008B4 (de) Optisches Messverfahren und optische Messvorrichtung zum Erfassen einer Oberflächentopographie
DE102005035700A1 (de) Messvorrichtung und Verfahren zur Bestimmung von Relativpositionen eines in mindestens eine Richtung bewegbar angeordneten Positioniertischs
DE102010039948B4 (de) Messeinheit, Messsystem und Verfahren zum Ermitteln einer Relativposition und Relativorientierung
EP2787321A1 (de) Oberflächenbestimmung für Objekte mittels geodätisch genauem Einzelpunktbestimmen und Scannen
DE102018222629A1 (de) Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Objekts
EP0631154B1 (de) Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera
DE102017213444B4 (de) Verfahren und Gerät zum Inspizieren einer Positionierungsmaschine durch ein Lasertracking-Interferometer
DE102009028068B4 (de) Positionsmessvorrichtung
DE102009030883A1 (de) Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben
DE102011012611B4 (de) Verfahren und Vorrichtung zur berührungslosen Messung eines Winkels
WO2021110698A1 (de) Verfahren zur abstandsmessung mittels oct zur brennpunktsteuerung für laser bearbeitung von materialien und zugehöriges computerprogrammprodukt
DE102010006749B4 (de) Messgerät zum Messen zumindest einer Positionsänderung und/oder zumindest einer Winkeländerung und ein Verfahren zum dynamischen Messen zumindest einer Positionsänderung und/oder einer Winkeländerung
DE102011101476B4 (de) Verfahren zur 3D-Messung von Objekten
EP3418680A1 (de) System und verfahren zur positionierungsmessung
DE19509962A1 (de) Verfahren und Vorrichtung zur Erfassung von dreidimensionalen Verschiebungsvektorfeldern
EP2115695A1 (de) Verfahren zur bestimmung der güte eines messpunktes, insbesondere bei der kantenortbestimmung, sowie optisches präzisionsmessgerät
EP2578988A1 (de) Kohärenzrasterinterferometer und Verfahren zur ortsaufgelösten optischen Vermessung der Oberflächengeometrie eines Objekts
DE102011001475B4 (de) Verfahren und Vorrichtungen zur Positionsbestimmung
DE102018204696A1 (de) Verfahren und Anordnung zum Erfassen eines Objekts mittels eines bewegbaren Sensors
EP3374732B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen position eines gegenstandes mittels interferometrischer längenmessung
DE102009040990A1 (de) Vorrichtung und Verfahren zum Vermessen einer Oberfläche
WO2011036033A1 (de) Verfahren und vorrichtungen zur bestimmung von orientierung und position eines objekts
WO2013023787A1 (de) Lagebestimmung von subaperturen auf einem prüfling bei oberflächenmessungen auf dem prüfling
DE102020215073A1 (de) Selbstkalibrierendes optronisches Messsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final