DE102009030883A1 - Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben - Google Patents

Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben Download PDF

Info

Publication number
DE102009030883A1
DE102009030883A1 DE200910030883 DE102009030883A DE102009030883A1 DE 102009030883 A1 DE102009030883 A1 DE 102009030883A1 DE 200910030883 DE200910030883 DE 200910030883 DE 102009030883 A DE102009030883 A DE 102009030883A DE 102009030883 A1 DE102009030883 A1 DE 102009030883A1
Authority
DE
Germany
Prior art keywords
light
sensor
relative
orientation
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200910030883
Other languages
English (en)
Inventor
Christian Dipl.-Systemwiss. Meyer
Andreas Dr.-Ing. Pott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE200910030883 priority Critical patent/DE102009030883A1/de
Publication of DE102009030883A1 publication Critical patent/DE102009030883A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf ein Positionsbestimmungssystem zum Bestimmen der Position und/oder der Orientierung, bevorzugt der Position und der Orientierung, einer zumindest abschnittsweise relativ zum Ortsraum bewegbaren Handhabungseinheit, umfassend die Handhabungseinheit, eine mindestens eine Lichtquelle aufweisende Lichterzeugungsanordnung, mit der mindestens eine räumlich strukturierte und/oder zeitlich variierende Lichtstruktur ausbildbar ist, eine mindestens einen Sensor umfassende Sensoranordnung, die zum Erfassen der Position und/oder der Orientierung eines definierten Teilabschnitts der mindestens einen Lichtstruktur relativ zu einem definierten Element dieser Sensoranordnung und/oder eines Sensors derselben und/oder zu der Orientierung dieses Elements ausgebildet ist, und eine Berechnungseinheit, mit der auf Basis der für den Teilabschnitt erfassten Position und/oder Orientierung die momentane Position und/oder die momentane Orientierung, bevorzugt die momentane Position und die momentane Orientierung, eines relativ zum Ortsraum bewegbaren Abschnitts der Handhabungseinheit im Ortsraum berechenbar ist, wobei entweder die Sensoranordnung relativ zu diesem bewegbaren Abschnitt ortsfest angeordnet ist, insbesondere am Abschnitt unbeweglich fixiert ist, und die Lichterzeugungsanordnung so ausgebildet und/oder angeordnet ist, dass die mindestens eine Lichtstruktur im Ortsraum ortsbeständig ausbildbar ist oder die Lichterzeugungsanordnung so ...

Description

  • Die vorliegende Erfindung bezieht sich auf ein Positionsbestimmungssystem zum Bestimmen der Position und/oder auch der Orientierung, bevorzugt beider dieser Größen, einer in einem Ortsraum bewegbaren Handhabungseinheit (wie beispielsweise eines Roboters oder Roboterarms bzw. eines Endglieds desselben) sowie auf ein entsprechendes Positionsbestimmungsverfahren.
  • Die Messung der Position von Handhabungseinheiten wie beispielsweise Robotern, Werkzeugmaschinen, Koordinatenmessmaschinen oder auch anderen Fertigungssystemen ist aus dem Stand der Technik bereits bekannt. So werden beispielsweise Lasertriangulationsverfahren, Laufzeitverfahren, wie LIDAR, oder Laserinterferometer eingesetzt: Laufzeitverfahren erreichen dabei allerdings nur schwer eine Genauigkeit von weniger als einigen Millimetern. Messverfahren, die auf einer Phasenverschiebung des Lichts basieren, erreichen zwar deutlich höhere Genauigkeiten, allerdings lediglich für Verschiebungen. Insbesondere die Lasertriangulation eignet sich lediglich für kleinere Entfernungen. Die meisten dieser Spezialsysteme sind darüber hinaus hochpreisig.
  • Andererseits existieren weitere Möglichkeiten der Positionsmessung (insbesondere bei Industrierobotern), z. B. in Form des Anfahrens von Musterwerkstücken, der Verwendung von Ultraschallsensoren, der Verwendung von Theodoliten oder der Verwendung von Messtastern. Auch sind Kamerasysteme bekannt, die die Position von Referenzobjekten erfassen können. Schließlich existieren auch mechanische Messverfahren zur Bestimmung der Position über Seilzüge. Diese Verfahren weisen jedoch, neben teilweise komplexen Aufbauten, nicht ausreichende Absolutgenauigkeiten auf.
  • Ausgehend vom Stand der Technik ist es daher die Aufgabe der vorliegenden Erfindung, ein Positionsbestimmungssystem bzw. ein Positionsbestimmungsverfahren für bewegbare Handhabungseinheiten, insbesondere Robotersysteme, zur Verfügung zu stellen, das mit einem einfachen, günstig zu realisierenden Aufbau eine hochgenaue und gegenüber Störeinflüssen unempfindliche Messung der Position einer solchen Handhabungseinheit ermöglicht.
  • Diese Aufgabe wird durch ein Positionsbestimmungssystem gemäß Anspruch 1 sowie durch ein Positionsbestimmungsverfahren gemäß Anspruch 16 gelöst. Vorteilhafte Ausführungsformen des Systems bzw. des Verfahrens lassen sich jeweils den abhängigen Patentansprüchen entnehmen. Erfindungsgemäße Verwendungen beschreibt Anspruch 18.
  • Die vorliegende Erfindung wird nachfolgend zunächst allgemein, dann in Form mehrerer spezifischer Ausführungsbeispiele im Detail beschrieben. Die in diesen Ausführungsbeispielen gezeigten, spezifischen Konfigurationen einzelner Elemente müssen im Rahmen der vorliegenden Erfindung (deren Schutzumfang durch die Ansprüche festgelegt wird) nicht genau in der gezeigten Konfiguration verwirklicht werden, sondern die vorliegende Erfindung kann auch im Rahmen einer andersartigen Kombination einzelner Merkmale verwirklicht sein: Einzelne in den Ausführungsbeispielen gezeigte Merkmale können daher auch unabhängig von anderen dort gezeigten Elemente verwirklicht sein bzw. es können auch einzelne der dort gezeigten Merkmale weggelassen werden.
  • Nachfolgend wird unter einer Handhabungseinheit eine technische Vorrichtung verstanden, die relativ zum Ortsraum beweglich angeordnet ist. Unter dem Ortsraum wird dabei der dreidimensionale physikalische Raum verstanden, in der Regel handelt es sich dabei um denjenigen Raum, der durch ein mit der Erdoberfläche fest verbundenes Inertialsystem definiert wird. Unter einer relativ zu diesem Ortsraum bewegbaren Handhabungseinheit wird eine Handhabungseinheit verstanden, bei der zumindest ein Abschnitt derselben (beispielsweise ein Endglied oder ähnliches eines Arms) relativ zu diesem Ortsraum beweglich ist. Es muss also nicht notwendigerweise die gesamte Handhabungseinheit relativ zu diesem Ortsraum beweglich sein, sondern ein Teil (z. B. Sockel eines Roboters) kann ortsfest im Ortsraum angeordnet sein, während ein anderer Teil der Handhabungseinheit (z. B. Endglied eines Roboterarms mit dort angebrachtem Greifer) in diesem bzw. relativ zu diesem Ortsraum beweglich ist.
  • Wird nachfolgend von einer Position gesprochen, so kann es sich hierbei sowohl um die absolute Position in einem Raum (beispielsweise: im Ortsraum) als auch um die relative Position bezüglich eines definierten Raumpunkts (beispielsweise des Ursprungs eines den Ortsraum beschreibenden Intertialsystems oder auch eines definierten Punkts einer Oberfläche eines Sensorelementes) handeln. Aus dem Zusammenhang ergibt sich für den Fachmann jeweils klar, was im Einzelnen gemeint ist. Die über sechs Koordinaten im Raum beschriebene Gesamtheit aus Position bzw. Positionierung (drei Dimensionen) und Orientierung (ebenfalls drei Dimensionen) eines Objektes wird nachfolgend auch als Pose bezeichnet. Unter einer Position/Positionierung wird im Rahmen der Erfindung jedoch nicht nur eine dreidimensionale Ortsangabe verstanden, sondern es kann sich auch um eine lediglich eindimensionale Ortsangabe bzw. Positionierung eines Objektes entlang einer vordefinierten Achse handeln (ebenso kann es sich bei der Orientierung auch lediglich um eine eindimensionale Orientierung relativ zu einer vordefinierten Achse handeln).
  • Wird nachfolgend von einer ortsbeständig ausgebildeten Lichtstruktur gesprochen, so ist hierunter bei einer zeitlich konstanten bzw. nicht variierenden Lichtstruktur gemeint, dass eine solche zeitlich konstante Lichtstruktur ortsfest in einem Raum, beispielsweise dem Ortsraum, angeordnet ist. Bei einer zeitlich variierenden Lichtstruktur wird unter einer ortsbeständigen Struktur verstanden, dass die zeitlich variierende Lichtstruktur in bestimmten zeitlichen Abständen (vorzugsweise: in periodischen Abständen) nicht nur dieselbe Form, sondern auch (in einem definierten Raum, beispielsweise dem Ortsraum, gesehen) eben diese Form an ein und derselben Position erneut einnimmt. Eine solche bezüglich des Ortsraumes ortsbeständige, aber zeitlich variierende Lichtstruktur kann beispielsweise durch einen ortsfest im Ortsraum angeordneten, periodisch ausgelenkten Spiegel mit Hilfe eines auf den Spiegel eingestrahlten Laserstrahls realisiert werden.
  • Ein erfindungsgemäßes Positionsbestimmungssystem zum Bestimmen der Position und/oder der Orientierung weist eine zumindest abschnittsweise relativ zum Ortsraum bewegbare Handhabungseinheit auf: Zumindest ein Abschnitt der Handhabungseinheit, insbesondere ein Endglied einer solchen Einheit, ist damit relativ zum Ortsraum beweglich, in der Regel in sechs Freiheitsgraden (drei Freiheitsgraden der Position, drei Freiheitsgraden der Orientierung). Das Positionsbestimmungssystem umfasst weiterhin mindestens eine Lichtquelle, mit der mindestens eine räumlich strukturierte und/oder zeitlich variierende Lichtstruktur ausgebildet werden kann. Bevorzugt handelt es sich dabei um eine lediglich räumlich strukturierte Lichtstruktur.
  • Darüber hinaus umfasst das Positionsbestimmungssystem eine mindestens einen Sensor umfassende Sensoranordnung, wobei die Sensoranordnung zum Erfassen der Position und/oder der Orientierung eines definierten Teilabschnitts (beispielsweise eines einzelnen Lichtstrahls oder auch eines vordefinierten Musterabschnitts) der mindestens einen Lichtstruktur relativ zu einem definierten Element (beispielsweise einem Oberflächenpunkt) der Sensoranordnung und/oder eines Sensors derselben und/oder relativ zu der Orientierung dieses Elements ausgebildet ist. In einer bevor zugten Variante werden mit dem/den Sensor(en) bzw. der Sensoranordnung Positionen solcher definierten Teilabschnitte der Lichtstrukturen relativ zu Oberflächenpunkten der Sensoren erfasst.
  • Schließlich umfasst das erfindungsgemäße Positionsbestimmungssystem eine Berechnungseinheit (beispielsweise einen PC), die mit der Lichterzeugungsanordnung und/oder der Sensoranordnung verbunden ist, und mit der auf Basis der für den bzw. die Teilabschnitt(e) erfassten Position(en) und/oder Orientierung(en) die momentane Position und/oder die momentane Orientierung, bevorzugt die momentane Position und die momentane Orientierung, des relativ zum Ortsraum beweglichen Abschnitts der Handhabungseinheit im Ortsraum berechnet werden kann.
  • Um diese Berechnung zu ermöglichen, ist im beschriebenen Aufbau entweder die Sensoranordnung (d. h. deren Sensorelemente) relativ zu dem bewegbaren Abschnitt ortsfest angeordnet (beispielsweise ist die Sensoranordnung an diesem bewegbaren Abschnitt unbeweglich fixiert), und die Lichterzeugungsanordnung ist so ausgebildet und/oder angeordnet, dass die Lichtstruktur(en) im Ortsraum ortsbeständig ausgebildet werden können (in der Regel heißt dies, dass die die Lichtstruktur(en) erzeugende(n) Lichtquelle(n) ortsfest im Ortsraum angeordnet ist/sind). Oder, in einer anderen Variante, es kann die Lichterzeugungsanordnung so ausgebildet und/oder angeordnet sein (beispielsweise indem diese am bewegbaren Abschnitt unbeweglich fixiert wird), dass die Lichtstruktur(en) relativ zum bewegbaren Abschnitt ortsbeständig ausgebildet werden können (d. h. z. B. dass die Lichtquellen am bewegbaren Abschnitt fixiert werden und somit die Lichtstrukturen in einem fest mit dem bewegbaren Abschnitt ver bundenen Koordinatensystem gesehen ortsfest angeordnet sind), und es kann die Sensoranordnung im Ortsraum ortsfest angeordnet sein.
  • In einer bevorzugten Ausgestaltungsvariante weist die Lichterzeugungsanordnung zwei (oder auch mehr) relativ zueinander ortsfest angeordnete Lichtquellen auf, mit denen zwei (oder mehr) räumlich unterschiedlich strukturierte, unterschiedlich angeordnete und/oder zeitlich variierende Lichtstrukturen ausgebildet werden können. Mit der Sensoranordnung (die dann auch zwei relativ zueinander ortsfest angeordnete Sensoren umfassen kann), wird dann für diese beiden (oder mehr) Lichtstrukturen jeweils die Position und/oder die Orientierung eines definierten Teilabschnitts (beispielsweise eines Einzelstrahls) der jeweiligen Lichtstruktur relativ zu einem definierten Element (beispielsweise: Oberflächenpunkt) der Sensoranordnung und/oder auch des jeweils zugeordneten Sensors und/oder zu der Orientierung dieses Elements bzw. dieser Elemente erfasst.
  • Mit der Berechnungseinheit können dann auf Basis der für die mindestens zwei Teilabschnitte erfassten Positionen und/oder Orientierungen die gesuchte momentane Position und/oder momentane Orientierung (bevorzugt: beide Größen) des bewegbaren Abschnitts berechnet werden. Dabei ist entweder wieder die Sensoranordnung relativ zum bewegbaren Abschnitt ortsfest angeordnet und die Lichtstrukturen sind im Ortsraum ortsbeständig ausgebildet, oder alternativ die Lichtstrukturen relativ zum bewegten Abschnitt ortsbeständig ausgebildet, und die Sensoranordnung im Ortsraum ortsfest angeordnet.
  • Wie nachfolgend noch im Detail beschrieben wird, kann mit einer auf diese Art und Weise mit zwei Lichtquellen zur Erzeugung von zwei Lichtstrukturen versehenen Lichterzeugungsanordnung und einer mit zwei Sensoren zur Detektion jeweils einer dieser Lichtstrukturen (bzw. genauer: eines entsprechenden Teilabschnitts) ausgebildeten Sensoranordnung die Position des bewegbaren Abschnitts der Handhabungseinheit im Ortsraum in drei Dimensionen berechnet werden.
  • Sieht man stattdessen drei solcher Lichtquellenpaar-Sensorpaar-Kombinationen vor, d. h. insgesamt sechs unterschiedlich orientierte Lichtquellen und sechs zugehörige Nachweissensoren, so ist es mit der vorliegenden Erfindung möglich, sowohl die Position des bewegbaren Abschnitts im Ortsraum in drei Dimensionen, als auch die Orientierung dieses Abschnitts im Ortsraum in drei Dimensionen, also die Pose des Abschnitts im Ortsraum, zu berechnen.
  • Bei einem zu erfassenden Teilabschnitt einer Lichtstruktur kann es sich um einen einzelnen Lichtstrahl (insbesondere Laserstrahl) in einem, beispielsweise mit Hilfe eines Beugungsgitters erzeugten, definierten Feld von einzelnen Lichtstrahlen handeln. Alternativ dazu kann aber auch ein Projektor zur Erzeugung eines Projektionsmusters eingesetzt werden, wobei das Projektionsmuster eine Vielzahl von eindeutigen, benachbart zueinander angeordneten und sich nicht wiederholenden Musterabschnitten (beispielsweise einer Penrose-Parkettierung) aufweist. Durch Detektion eines definierten Musterabschnitts kann somit im letzteren Fall eindeutig auf eine spezifische Position innerhalb der Lichtstruktur geschlossen werden.
  • In einer bevorzugten Variante weist die Lichterzeugungsanordnung zwei bezüglich ihres Abstrahlwinkels (also z. B. der Hauptstrahlachse bei einem Laser) relativ zueinander unter einem Winkel von 90° ausgerichtete Lichtquellen auf. Bei den Sensoren der Sensoranordnung kann es sich um Zeilensensoren oder flächige Sensoren, insbesondere um entsprechende CCD-Arrays handeln. Bevorzugt stehen die einzelnen Sensoren dabei senkrecht aufeinander.
  • Bei einem erfindungsgemäßen Positionsbestimmungssystem kann somit eine Lichtquelle zeitlich und/oder geometrisch strukturiertes Licht aussenden, wobei diese Lichtquelle ortsfest angeordnet ist. An der beweglichen bzw. zu verfolgenden Kinematik (also an dem bewegten Abschnitt der Handhabungseinheit) ist dann die Sensoranordnung angebracht, beispielsweise ein oder mehrere CCD-Flächensensor(en), der/die das strukturierte Licht aufnimmt/aufnehmen und daraus ermittelt/ermitteln, wie der entsprechend erfasste Teilabschnitt des strukturierten Lichts relativ zum jeweiligen Sensor angeordnet ist.
  • Dabei kann beispielsweise die Position des erfassten Lichtabschnitts relativ zum Sensor (bzw. einem Oberflächenpunkt desselben) mit Hilfe eines Winkels im Lichtkegel der Lichtquelle relativ zur Mittelachse des entsprechenden Lichtkegels und gegebenenfalls auch auf Basis eines Abstandes im Lichtkegel (bzw. einer Lage auf der Mittelachse) bestimmt werden.
  • Bei Verwendung einer einzelnen Lichtquelle und eines einzelnen Sensors ist so z. B. die Bestimmung einer eindimensionalen Position (entlang der vorbeschriebenen Mittelachse) möglich. Durch Verwendung mehrerer Lichtquellen und mehrerer Sensoren wird, wie nachfol gend noch im Detail beschrieben wird, die Messung der dreidimensionalen Position, der dreidimensionalen Orientierung und/oder auch der Pose (also beider Größen) möglich. Wesentlich ist dabei eine zweistufige Auswertung: Die Lichtquelle gibt (sofern sie ortsfest im Ortsraum angeordnet ist) eine statische Ortsreferenz, der Sensor ist in der Lage, sich auf einem Ausschnitt dieser Ortreferenz hochgenau einzumessen.
  • Das Messsystem kann insbesondere die folgenden Komponenten umfassen:
    • • Mindestens eine Lichtquelle zur Projektion eines zeitlich und/oder geometrisch strukturierten Lichtmusters bzw. einer entsprechenden Lichtstruktur (hierbei kann z. B. ein Projektor mit einer eindeutigen Mustererzeugung eingesetzt werden, ein Laser mit einer Beugungsgittermatrix zur Erzeugung eines eine Vielzahl einzelner Laserstrahlen umfassenden Lichtkegels oder auch, zur Erzeugung einer zeitlich variierenden Lichtstruktur, ein Laser in Kombination mit einem oszillierenden Spiegel, wobei über eine Scanner-Einheit eine feste Bewegungsfolge eingestellt wird). Mindestens einen Sensor zur Positionsermittlung und/oder Orientierungsermittlung durch Detektion eines entsprechenden Teilabschnitts der Lichtstruktur (hierbei kann es sich beispielsweise um einen CCD-Chip mit einem zweidimensionalen Pixelarray (Matrix) handeln; auch andere Sensorprinzipien, beispielsweise CMOS-basierte Sensorprinzipien, sind möglich).
    • • Eine Auswerteeinheit bzw. eine Berechnungseinheit zur Berechnung der zu ermittelnden Position und/oder Orientierung aus den erfassten Sensordaten.
    • • Optional gegebenenfalls auch eine Schutzeinrichtung zur Abschirmung beispielsweise von Fremdlicht, Staub, Spänen, Schmierflüssigkeiten usw.
  • Bei der konkreten Umsetzung sind dann diverse Ausprägungen möglich, wie beispielsweise:
    • • Eine Verwendung von ortsfesten Lichtquellen und ortsflexiblen (relativ zum bewegbaren Handhabungsabschnitt ortsfesten) Sensoren oder auch umgekehrt (ortsfeste Sensoren und ortsflexible Lichtquellen).
    • • Eine Verwendung von ein bis sechs Lichtquelle-Sensor-Einheiten, um die gewünschten Informationen in einer Dimension bis hin zur vollständigen Pose (sechs Dimensionen) zu erhalten.
    • • Neben den dergestalt notwendigen Lichtquellen bzw. Sensoren bzw. Lichtquelle-Sensor-Einheiten können auch weitere Lichtquelle-Sensor-Einheiten (oder auch gegebenenfalls lediglich weitere Sensoren oder lediglich weitere Lichtquellen) zur Erfassung von Teilabschnitten von Lichtstrukturen eingesetzt werden (redundante Elemente), um beispielsweise Abschattungen zu vermeiden und/oder um die Messgenauigkeit zu erhöhen.
    • • Zur Auswertung der erfassten Sensordaten können verschiedenartige Algorithmen eingesetzt werden; beispielsweise auch eine Interpolation über die Sensor-Pixel, um eine höhere Auflösung zu erhalten.
    • • Eine Kalibration der projizierten Lichtmuster und ein steuerungstechnischer Ausgleich von aufgenommenen Fehlern ist möglich.
    • • Zur Erzeugung des Lichtmusters mit einem Projektor kann beispielsweise vor einen solchen Projektor eine Blende (Musterfilter) mit einem Penrose- Parkett-Muster eingesetzt werden.
  • Die vorliegende Erfindung, die (beispielsweise stationär) ein Referenzmuster zur Verfügung stellt und einen Sensor, der eine Feinlokalisierung auf diesem Referenzmuster vornimmt, weist im Vergleich zu den aus dem Stand der Technik bekannten Positionsbestimmungssystemen bzw. -verfahren eine Reihe wesentlicher Vorteile auf:
    • • Der Aufbau der vorliegenden Erfindung lässt sich mit Standard-Komponenten realisieren: Lichtquelle(n), CCD-Chip(s) und Microcontroller. Hochpreisige Spezialkomponenten, wie etwa Interferometer, spezielle Lichtquellen oder hochgenaue Encoder sind nicht notwendig.
    • • Die vorliegende Erfindung verzichtet auf (abgesehen von den beweglichen Teilen der Handhabungseinheit) auf bewegliche Teile. Das Sensorsystem besteht aus rein statischen Komponenten, wodurch sich hohe Genauigkeiten der Positionsbestimmung erzielen lassen.
    • • Die Genauigkeit wird wesentlich von der Auflösung des Sensorelementes (CCD-Kamera) und der zur Auswertung verwendeten Algorithmik bestimmt. Die vorliegende Erfindung profitiert daher von aktuellen Entwicklungen in der Kameratechnik, die immer höhere Auflösungen zu immer geringeren Kosten erlauben.
    • • Die vorliegende Erfindung ermöglicht somit eine sehr kostengünstige und dennoch hochgenaue Realisierung einer Positionsbestimmung im Vergleich zu den existierenden Verfahren.
    • • Die vorliegende Erfindung kann für unterschiedliche Anwendungen in der Robotik und dem allgemeinen Werkzeugmaschinenbau eingesetzt werden: Beispielsweise zur Positionsmessung von Robotern und Werk zeugmaschinen oder für Kalibrierungen derselben. Die Positionsbestimmung kann dabei in Echtzeit erfolgen (beispielsweise sind somit verschiedenste Messaufgaben möglich). Auch kann die Erfindung bei der Bearbeitung durch Industrieroboter eingesetzt werden. Die Kalibration ist im Rahmen der Erfindung ebenso möglich wie der Ausgleich von Positionsfehlern oder die Online-Vermessung.
    • • Zudem kann die vorliegende Erfindung auch im Bereich anderer Bearbeitungs-, Montage- und Handhabungseinrichtungen eingesetzt werden.
  • Nachfolgend wird die vorliegende Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen:
  • 1 zwei Ausführungsvarianten für erfindungsgemäße Positionsbestimmungssysteme auf Basis eines Lasers mit im Strahlengang des Lasers angeordnetem Beugungsgitter (1a) und auf Basis eines ein Penrose-Muster erzeugenden Projektors (1b), und
  • 2 ein Beispiel für ein erfindungsgemäßes Positionsbestimmungssystem zur Bestimmung der dreidimensionalen Position des Endglieds eines Roboterarms im Ortsraum.
  • 3 ein weiteres Beispiel für ein erfindungsgemäßes Positionsbestimmungssystem.
  • 1a) zeigt einen ersten Aufbau einer einzelnen Lichtquellen-Sensor-Kombination, wie sie im Rahmen der vorliegenden Erfindung eingesetzt werden kann: Ein im Ortsraum O ortsfest angeordneter und ausgerichteter Laser 2 weist in seinem Strahlengang (La serstrahl 2') ein optisches Beugungsgitter 8 auf. Durch das optische Beugungsgitter wird der einzelne Laserstrahl 2' in eine Vielzahl einzelner, gebeugter Laserstrahlen aufgeteilt, die zusammen ein kegelförmiges Lichtmuster bzw. eine kegelförmige, aus einer Vielzahl von einzelnen Laserteilstrahlen 5 aufgebaute Lichtstruktur 3 ausbilden.
  • Am Endglied 1a des Roboterarms 1 (vgl. 2, beide Elemente sind hier nicht gezeigt) ist hier ein einzelner Sensor (CCD-Flächensensor) 4 einer Sensoranordnung unbeweglich fixiert. Durch eine Bewegung des Endglieds 1a des Roboterarms 1 wird somit (eine geeignete Ausrichtung und Anordnung des Lasers 2, der Lichtstruktur 3 und des Sensors 4 relativ zueinander vorausgesetzt), der Sensor 4 relativ zum Ortsraum O bzw. im Ortsraum O durch die (aufgrund der Vielzahl vorhandener Einzelstrahlen) räumlich strukturierte Lichtstruktur 3 bewegt.
  • Bei ausreichender Flächengröße des CCD-Arrays 4 trifft, unabhängig von der momentanen Position des Sensors 4 im Ortsraum O, immer mindestens ein einzelner Teilabschnitt 5 der Lichtstruktur 3 (also ein Einzelstrahl 5 der Lichtstruktur 3) auf die sensitive Fläche des Sensors 4. In der Regel treffen mehrere einzelne Laserstrahlen 5 auf diese Sensorfläche.
  • Durch eine geeignete, dem Fachmann bekannte Ausbildung des Roboterarms 1 mit seinem Endglied 1a ist nun die Position des Endglieds 1a (bzw. des Sensors 4) im Ortsraum O näherungsweise, d. h. beispielsweise mit einer Genauigkeit von ca. 1 bis 2 mm bekannt. Erfindungsgemäß wird das Ziel, diese Position mit einer hohen Genauigkeit von beispielsweise 100 μm zu bestimmen, nun wie folgt gelöst: Aufgrund der unge fähr bekannten Position des Endglieds 1a innerhalb der Lichtstruktur 3 ist bekannt (bzw. kann berechnet werden), welcher der gebeugten Laserstrahlen 5 der Lichtstruktur 3 bzw. welcher Laserstrahl 5 aus der durch das Beugungsgitter 8 erzeugten Laserstrahlmatrix 3 auf den Sensor 4 auftrifft. Gesucht ist somit die exakte Position des Auftreffpunktes dieses Laserstrahls 5. Um diese exakte Position (und somit die absolute Lage des Endglieds 1a im Raum O mit hoher Genauigkeit) zu berechnen, wird die Position des auftreffenden Laserstrahls 5 relativ zu einem definierten Element bzw. Oberflächenpunkt 6 des Sensors 4 (hier: die im Bild gezeigte linke untere Ecke 6 der sensitiven Sensorfläche 4) bestimmt. Dies kann durch Feststellen derjenigen Pixelposition im CCD-Array 4 geschehen, die eine maximale Signalintensität aufgrund des einfallenden Laserspots 5 aufweist.
  • Da durch eine geeignete Vorab-Kalibrierung bzw. durch ein Vermessen der (ortsfesten) Lichtstruktur 3 hinsichtlich der genauen Lage der einzelnen Laserstrahlen 5 die Lage aller Laserstrahlen im Raum exakt bekannt ist, ist somit über den (exakt bestimmbaren) Einfallspunkt des Laserstrahls auf der Sensorfläche 4 der genaue Schnittpunkt des vorgenannten, spezifischen Laserstrahls 5 mit der Sensorfläche 4 bekannt. Da auch die relative Position des Sensors 4 bezüglich des Endglieds 1a des Roboterarms 1 bekannt ist, ist somit durch Auswertung der Auftreffposition des Laserstrahls 5 auf der Sensorfläche 4 die Winkelposition des Sensors 4 relativ zur Mittelachse der Matrix (bzw. zur Hauptstrahlrichtung 2') bekannt.
  • Durch Verwendung zweier solcher Lichtquellen-Sensor-Einheiten (vgl. 2) lässt sich dann auch die Entfernung (in dieser Winkelrichtung) vom optischen Gitter 8, also die genaue dreidimensionale Raumposition im Ortsraum O berechnen.
  • 1b) zeigt eine alternative Lichtquellen-Sensor-Kombination, die im Rahmen des erfindungsgemäßen Positionsbestimmungssystems eingesetzt werden kann. Der Aufbau und die Funktionsweise dieser Kombination sind grundsätzlich entsprechend der in 1a) gezeigten Kombination, so dass nachfolgend nur die Unterschiede beschrieben werden.
  • Anstelle eines Lasers 2 als Lichtquelle verwendet die Konfiguration aus 1b) einen Projektor 2, in dessen Strahlengang anstelle eines optischen Beugungsgitters ein optischer Transmissionsfilter 8 mit einem Penrose-Parkettierungs-Muster angeordnet ist. Ein solcher Filter kann einfach durch eine nichttransparente Platte, in der Öffnungen in Form des Penrose-Musters ausgebildet sind, realisiert werden.
  • In der so erzeugten räumlichen Lichtstruktur 3 lässt sich durch Erfassung und Identifikation eines auf die Sensorfläche 4 auftreffenden, eindeutigen Teilabschnitts bzw. Musterabschnitts 5 des Penrose-Musters und durch Lokalisierung von dessen Position auf der Sensoroberfläche 4 (bzw. von der Position des Teilabschnitts 5 relativ zum vordefinierten Element 6 der Sensorfläche, also beispielsweise wie gezeigt des linken, unteren Ecks 6 der sensitiven Sensorfläche) wiederum die Winkelposition des Sensors 4 relativ zur Mittelachse (Zentralstrahlachse des Projektorstrahlkegels) bestimmen.
  • Durch Vorsehen zweier solcher Lichtquelle-Sensor-Einheiten ist dann wiederum die dreidimensionale Raumposition im Ortsraum O berechenbar.
  • Im in 1b) gezeigten Fall wird somit ein eindeutiges, sich nicht wiederholendes Muster in den Messbereich projiziert. Der Sensor 4 nimmt einen Teilabschnitt bzw. Teil 5 dieses Musters auf seiner Sensorfläche auf, der ausreicht, die absolute Position des Sensors in der Gesamtstruktur 3 und somit im Ortsraum O zu ermitteln. Mit einer Lichtquellen-Sensor-Einheit wird ebenfalls die Winkelposition relativ zur Hauptachse bzw. die Auslenkung zur Hauptachse ermittelt. Durch zwei oder mehrere solcher Lichtquellen-Sensor-Kombinationen kann die dreidimensionale Position des Endglieds 1a im Ortsraum O oder sogar die Pose dieses Endglieds mit hoher Genauigkeit berechnet werden.
  • 2 zeigt ein erfindungsgemäßes Positionsbestimmungssystem zum Bestimmen der dreidimensionalen Position des Endglieds 1a eines Roboterarms 1 im Ortsraum O. Hierbei werden Projektoren wie die in 1b) gezeigten, zum Erzeugen von räumlich strukturierten Lichtstrukturen bzw. Lichtmustern eingesetzt.
  • Eine erste Projektor-Sensor-Einheit weist einen ersten Projektor 2a und in dessen Strahlengang angeordnet einen eine Penrose-Musterstruktur tragenden Transmissionsfilter 8a auf. Eine zweite Projektor-Sensor-Kombination weist einen zweiten Projektor 2b samt in dessen Strahlengang angeordnetem, ein weiteres Penrose-Parkettierungsmuster tragenden Filter 8b auf. Die Strukturierung der Filter 8a und 8b kann dabei identisch sein, es können jedoch auch unterschiedliche Penrose-Parkettierungsmuster realisiert werden.
  • Dem ersten Projektor 2a samt dessen Filter 8a ist ein erster CCD-Flächensensor 4a zugeordnet, dem zweiten Projektor 2b und dessen Filter 8b ein zweiter CCD-Flächensensor 4b. Die sensitiven Flächen der beiden Flächensensoren sind (entsprechend zweier aneinander angrenzender Oberflächen eines Würfels) senkrecht zueinander angeordnet; beide Sensoren 4a, 4b sind an dem beweglichen Endglied 1a des Roboterarms 1 fixiert, werden also entsprechend der Bewegung dieses Endglieds 1a im Ortsraum O mitbewegt. Die Ausrichtung der ersten Projektor-Filter-Einheit 2a, 8a und der zweiten Projektor-Filter-Einheit 2b, 8b im Ortsraum ist dergestalt, dass ihre Hauptstrahlrichtungen (Hauptstrahlachsen der beiden Projektoren) sich unter einem Winkel von 90° kreuzen (die Projektor-Filter-Einheiten sind ortsfest, also unbeweglich im Ortsraum O angeordnet).
  • Wird nun die aus den beiden Sensoren 4a und 4b bestehende Sensoranordnung 4 durch Bewegung des Endglieds 1a im Feld der beiden Lichtstrukturen 3a und 3b, die durch die beiden Projektor-Filter-Einheiten 2a, 8a und 2b, 8b ortsfest im Ortsraum O erzeugt werden, bewegt, so kann analog des im Rahmen der Beschreibung von 1 beschriebenen Vorgehens in der durch die Elemente 2a, 8a erzeugten ersten Lichtstruktur 3a die Position eines ersten Teilabschnitts 5a (Musterabschnitt der Parkettierung) relativ zu einem ersten definierten Element 6a des ersten Sensors 4a (Eckpunkt der Sensorfläche des ersten Sensors 4a) bestimmt werden. Ebenso kann die Position eines zweiten Teilabschnitts 5b der durch die Elemente 2b, 8b erzeugten zweiten Lichtstruktur 3b relativ zu einem definierten Element 6b des zweiten Sensors 4b (Eckpunkt der Sensorfläche des zweiten Sensors 4b) bestimmt werden. Die Bestimmung dieser beiden relativen Positionen geschieht dabei durch Auswertung der vom jeweiligen Teilabschnitt 5a, 5b getroffenen Pixelposi tion des jeweiligen CCD-Arrays 4a, 4b sowie durch Identifikation (ggf. auch basierend auf der bekannten Grobposition des Endglieds 1a, diese ist hier jedoch wegen der Eineindeutigkeit des Musters nicht zwingend zu bestimmen) des jeweils auftreffenden eineindeutigen Musterabschnitts bzw. Teilabschnitts der jeweiligen Lichtstruktur 3a, 3b.
  • Durch Kombination der beiden gezeigten Lichtquellen-Sensor-Einheiten ist nicht nur die Winkelposition eines einzelnen Sensors (bzw. des Endglieds 1a) im Feld einer Lichtstruktur bestimmbar, sondern es kann die dreidimensionale Position im Ortsraum O mit hoher Genauigkeit bestimmt werden.
  • Die Berechnung dieser Position erfolgt mit Hilfe einer mit der Sensoranordnung 4 bzw. 4a, 4b (über die Kabelverbindung 7a) und den Lichtquellen 2a, 2b verbundenen (diese Verbindung ist nicht gezeigt) Berechnungseinheit 7 in Form eines PC. Wie nachfolgend noch näher beschrieben, weist diese Berechnungseinheit 7 im vorliegenden Fall auch eine Kalibrierungseinheit 9 auf.
  • Nachfolgend wird die Berechnung der dreidimensionalen Position im Ortsraum O anhand der erfassten Messwerte beispielhaft und im Detail beschrieben. Die Berechnung wird für den Fall zweier Lichtquellen mit Beugungsgittern und zweier CCD-Kameras bzw. Kameramodule beschrieben; die Berechnung für den Fall der Projektoren mit Transmissionsgittern erfolgt analog.
  • Die Berechnung der 3D-Position in dem Aufbau mit zwei senkrecht zueinander und zu den Lichtquellen lotrechten Kameramodulen (erstes Modul blickt in X-Richtung, zweites Modul in Y-Richtung) sieht wie folgt aus:
    • • Vorbedingungen: – Kalibration Laserstrahlen: Von jedem Laserstrahl des Beugungsmusters ist sein Raumvektor bekannt, etwa über die hochgenaue Vermessung von zwei Punkten des Strahls mit einem Laser Tracker. – Kalibration Kameramodul: Die Abbildungseigenschaften des Kameramoduls müssen bekannt sein, etwa Vergößerungsfaktor, Kisseneffekt, optische Fehler, ...
    • • Eingangsdaten: – Dem Auswertealgorithmus sind die Strahlen, die auf die Kameramodule auftreffen bekannt. Der Algorithmus trägt diese Information mit sich, da er einen Wechsel der Strahlen verfolgt und hinterlegt. – Kamerabilder der beiden Kameramodule mit jeweils mindestens einem (dem bekannten) Strahlabbild.
    • • Auswertung: – Berechnung des Strahlmittelpunktes in Pixelkoordinaten für beide Kameramodule: Ein Bereich um das Strahlabbild wird untersucht. Dabei wird jeder Pixel, dessen Rotwert über einem Schwellwert liegt, als dem Strahl zugehörig betrachtet. Der Strahlmittelpunkt in Pixeln ergibt sich aus dem der Addition der Produkte des Pixelwertes mit dem Rotwert für alle zugehörigen Pixel geteilt durch die Summe der Rotwerte. Ergebnis dieses Schrittes sind die Strahlmittelpunkte in Pixel-Koordinaten für beide Kameramodule. – Berechnung der Strahlmittelpunkte in Millimeter: Aus der Kalibrierung ergibt sich die Übertragungsformel des Pixelwertes in einen metrischen Wert. Als einfachste Variante ist hier der Pixelwert mit der Höhe und Breite eines physikalischen Pixels in μm zu multiplizieren. Vorzugsweise werden fehlerinduzierende Abbildungseffekte, wie Kisseneffekte, kompensiert. Ergebnis dieses Schrittes sind die Strahlmittelpunkte in Millimeter für beide Kameramodule. – Iterative Berechnung der 3D-Position: Aus der Kenntnis der Strahlpositionen auf den Kameras und der Raumposition der Strahlen lässt sich iterativ die absolute Position des Sensormoduls ermitteln: – Iterationsstart: Berechne die sich aus dem ersten Kameramodul ergebende Absolutposition mit Hilfe des X-Wertes der letzen ermittelten Absolutposition als Startwert. Dazu wird der Schnittpunkt des verfolgten Laserstrahls mit der YZ-Ebene des letzten X-Wertes berechnet. Die YZ-Koordinaten des Kameramoduls werden auf diese Strahlposition addiert. – Iteration: Berechne die Absolutposition abwechselnd wie oben für das zweite und das erste Kameramodul. Das zweite Kameramodul greift dabei auf den berechneten Y-Wert des ersten Kameramoduls zurück, das erste Kameramodul auf den berechneten X-Wert des zweiten Kameramoduls. – Iterationsabbruch: Sobald die Änderung der Absolutposition in den Iteration kleiner eps ist, wird die Iteration abgebrochen.
    • • Ausgangsdaten: Aktuelle 3D-Position
  • 2 zeigt somit ein erfindungsgemäßes Positionsbestimmungssystem auf Basis eines Industrieroboters mit zwei Projektoren mit vorgeschalteten Musterfiltern und mit zwei CCD-Sensoren, die am Roboterarm-Endglied 1a fixiert sind, und auf Basis von sich überschneidenden Projektionskegeln der beiden Lichtquelle-Sensor-Anordnungen. Die beiden Projektor-Sensor-Einheiten ermitteln jeweils die Abweichung von ihren Mittelachsen, durch die vorbeschriebene Berechnung ergibt sich dann die Raumposition des Endglieds 1a.
  • Die beiden Sendeeinheiten 2a, 8a und 2b, 8b sind dabei im 90°-Winkel zueinander angeordnet, die Sensoranordnung 4 mit den beiden Sensoren 4a, 4b ist am Endglied 1a des Roboters befestigt. Erfindungsgemäßes Ziel ist es, die hochgenaue 3D-Position des Roboters bzw. seines Endglieds im Ortsraum zu ermitteln. Im vorliegenden Fall ist angenommen, dass der Roboter 1 bzw. das Endglied 1a (und somit die Sensoranordnung 4) ausschließlich seine Position bzw. Lage, nicht jedoch seine Orientierung im Ortsraum O ändert. Durch Vorsehen weiterer Lichtquelle-Sensor-Einheiten, insbesondere beim Vorsehen von insgesamt sechs Lichtquelle-Sensor-Einheiten 2a, 8a, 4a bis 2f, 8f, 4f (nicht gezeigt) ist es dann möglich, auch für Roboter, die sowohl ihre Position, als auch ihre Orientierung im Ortsraum ändern, die 3D-Position ebenso wie die 3D-Orientierung hochgenau zu berechnen.).
  • Folgende Schritte führen zur gesuchten Position:
    • 1. Das gezeigte Messsystem kennt die grobe Position des Endglieds 1a, diese hat beispielsweise eine Ungenauigkeit im Bereich von 1 bis 2 mm. Es ist somit bekannt, welcher Teilabschnitt bzw. Mus terabschnitt 5 (oder welcher Laserstrahl 5) aus der Matrix 3 eines Senders auf den zugehörigen Sensor 4 auftrifft. Die exakte Position ist allerdings noch nicht bekannt.
    • 2. Für jeden einzelnen Sensor wird dann der exakte Einfallpunkt des Teilabschnitts der zugehörigen Lichtstruktur auf der Sensoroberfläche bestimmt (z. B. Bestimmung der Pixelposition auftreffender Maximalintensitäten). Damit ist jeweils der genaue Schnittpunkt der aus Schritt 1 bekannten Strahlen durch den jeweiligen Sensor bekannt.
    • 3. Da die Lage der Strahlen im Raum (durch geeignete Vorab-Kalibrierung) exakt vermessen bzw. bekannt ist, kann aus den Strahllagen und Schnittpunkten die Lage in einer gedachten Ebene senkrecht zum Mittelstrahl des jeweiligen Senders berechnet werden.
    • 4. Durch Kombination der Messergebnisse von mehreren Sensoren ergibt sich somit (im in 2 gezeigten Fall) die dreidimensionale Raumposition bzw., bei Einsatz von mehr als zwei Lichtquelle-Sensor-Kombinationen, die Pose des Endglieds 1a.
  • Schritt 1 kann alternativ auch so durchgeführt werden, dass das Messsystem an definierten Positionen (etwa zentriert auf den Mittelstrahlen) startet: Die einzelnen Sensoren verfolgen dann eigenständig, welche Strahlen sich jeweils gerade auf den einzelnen Sensoroberflächen befinden. Bewegt sich dabei eine Sensorfläche bzw. ein Sensor von einem Strahl bzw. einem Musterabschnitt zum nächsten Strahl bzw. Musterabschnitt, so lässt sich der entsprechende Über gang (durch die vorab bekannte Lage der einzelnen Strahlen bzw. Musterabschnitte) festhalten bzw. entsprechend auswerten. Die Schritte 2 bis 4 erfolgen dann analog der vorangehenden Beschreibung.
  • Die Einmessung eines einzelnen Sensors 4 auf den entsprechenden Musterabschnitt bzw. die statische Ortsreferenz 5 kann dabei wie folgt erfolgen:
    • • Bei einem eineindeutigen Muster (1b) ist kein Einmessen erforderlich: Der Ausschnitt, der vom Sensor wahrgenommen wird, reicht aus, um die exakte Winkelstellung zu ermitteln (also den vom Sender ausgehenden Strahlabschnitt, der durch den Sensorbezugspunkt 6 bzw. den Sensormittelpunkt führt). Die Position auf diesem Strahl (Entfernung vom Sender) wäre beim Einsatz nur eines Sensors lediglich beispielsweise über die Größe des Musterabschnitts zu ermitteln, dies ist jedoch nicht genau genug, so dass wie vorbeschrieben mehrere Lichtquelle-Sensor-Einheiten zum Einsatz kommen.
    • • Bei einem Laser-Matrix-Muster (1a) sind die einzelnen Strahlen 5 so nahe beieinander, dass der jeweils benachbarte Strahl schon auf einem Sensorfeld auftrifft, wenn der aktuell erfasste Laserstrahl aus diesem Sensorfeld (durch Bewegung des Sensors bzw. Endglieds 1a) aus dem Feld „hinausläuft”. Wenn der zugehörige Sensor somit an einer definierten Stelle startet, kann er sich von einem Strahl zum nächsten hangeln, um so ständig die globale Position zu ermitteln.
    • • Wenn der Sensor an einer Kinematik bzw. an einem Endglied 1a angebracht ist, die/das eine ausreichende Genauigkeit aufweist (ca. 1 bis 2 mm), reicht diese Ausgangsposition, um die auf dem Sensor auftreffenden Strahlen bzw. Musterabschnitte zu identifizieren. Auf Basis dieser erfassten Strahlen bzw. Musterabschnitte kann dann die vorbeschriebene Feinpositionsbestimmung erfolgen.
    • • Das Sensorsystem weiß somit in der Regel anhand seiner Vorab-Kalibrierung, wie viele Laserstrahlen bzw. Musterabschnitte wo im Ortsraum strahlen bzw. stehen.
  • Die wesentlichen Komponenten des in 2 gezeigten Aufbaus zur Messung der dreidimensionalen Position auf Basis einer Matrixposition sind somit:
    • • Die beiden Sendeinheiten bestehend aus je einer Lichtquelle (Projektor, oder auch z. B. 635 nm-Diodenlaser) und einer Mustererzeugungseinheit (Penrose-Filterelement oder auch Beugungsgitter), die aus dem Projektorstrahl bzw. dem Laserstrahl eine Matrix von Musterabschnitten bzw. Einzelstrahlen erzeugt.
    • • Die beiden Sensoreinheiten bestehend aus je einer CCD-Kamera. Der Projektionsstrahl bzw. der Laserstrahl trifft entweder ohne eine zusätzliche Optik direkt auf den Sensor oder über eine matte Scheibe oder Folie auf die sensitive Kamerafläche. Im letzteren Fall ist kein Umgebungslicht, sondern nur das gewünschte Laserstrahllicht bzw. Musterlicht sichtbar. Je nach geforderter Echtzeitdynamik können Kameras mit Bildwiederholraten von 15 bis 1000 Hz oder auch höher integriert werden.
    • • Sog. „region of interest”-Ansätze (ROI-Ansätze) können die Leistung des Systems weiter steigern.
    • • Die beiden Kameras sind im vorliegenden Fall im 90°-Winkel zueinander angeordnet und an der zu vermessenden Kinematik fixiert.
    • • Eine Berechnungseinheit bzw. eine Auswerteeinheit, etwa in Form eines Rechnersystems (PC). Die hierfür notwendigen Schnittstellen zur Datenübertragung sind dem Fachmann bekannt.
    • • Die Sender (Lichtquelle-Strahlformungs-Einheiten) und die Empfänger (Sensoren) sind gegeneinander vermessen bzw. vorab kalibriert. Die entsprechenden Kalibrierwerte können dann bei den Rechenmodellen für die Berechnung der gesuchten Position und/oder Orientierung aus den erfassten Messwerten integriert werden. Die Kalibrierung wird nachfolgend noch näher beschrieben.
  • Im in 2 gezeigten Ausführungsbeispiel sind alle einzelnen Sensoren der Sensoranordnung gegeneinander eingemessen (Kalibrierung der einzelnen Sensoren untereinander) und im Rechenmodell zur Berechnung der gesuchten Position und/oder Orientierung hinterlegt.
  • Wie bereits vorbeschrieben, kann, durch Verwendung von mehr als zwei einzelnen Sensoren (in 2 nicht gezeigt) eine Messung der 6D-Pose, also der 3D-Position und der 3D-Orientierung durchgeführt werden: Wenn z. B. drei der in 2 gezeigten Sensorköpfe (bestehend aus den beiden orthogonal zueinander angeordneten Sensoren 4a und 4b) mit je zwei Sensoren verwendet werden, so kann daraus die gesuchte Pose ermittelt werden (siehe hierzu 3).
  • Wesentliche Aspekte eines solchen Aufbaus können somit sein (vgl. 3):
    • • Ermittlung der 3D-Position durch zwei Lichtquellen und zwei Sensoren. Die Lichtquellen sind ortsfest, die Sensoren zueinander fix, aber beweglich auf der Handhabungseinheit. Diese bewegt die Sensoren nur translatorisch, so dass sie immer im selben Winkel von den Lichtquellen bestrahlt werden. Die Lichtquellen sind vorteilhafterweise senkrecht zueinander angeordnet, die Sensoren lotrecht dazu.
    • • Ermittlung der 6D-Pose durch 2 Lichtquellen wie oben und drei Sensorpaare. Jedes der Sensorpaare ist wie oben zueinander fix und ermittelt die eigene 3D-Position im Raum. Durch die 3 Sensorpaare ergeben sich 3 3D-Raumpositionen, die sich in eine 6D-Pose, also Position und Orientierung, umrechnen lassen. Es werden aber nur zwei Lichtquellen benötigt.
    • • Ermittlung der 6D-Pose durch drei Lichtquellen und drei Sensoren. Die drei Lichtquellen sind alle senkrecht zueinander angeordnet, so dass sie aus der Richtung der Koordinatenachsen strahlen. Die Sensoren sind ebenfalls alle senkrecht zueinander angeordnet, untereinander fix. Wenn durch die Dimensionierung des Aufbaus zugesichert ist, dass immer mindestens zwei Strahlen von jedem Sensor verfolgt werden, so kann der einzelne Sensor den Winkel der verbindenden Gerade ermitteln und somit in Kombination die 6D-Pose errechnet werden.
  • Es können aber auch weitere (redundante) Sensoren bzw. Sensorköpfe zur Umgehung von Abschattungen (die beispielsweise durch Teile des Roboterarms 1 verursacht werden können) verwendet werden.
  • Die Systemkalibration (beispielsweise zum steuerungstechnischen Ausgleich aufgenommener Fehler) kann wie folgt durchgeführt werden:
    • • Kalibrierung der einzelnen Sensoren (CCD-Kameras): Hier erfolgt in der Regel eine Kalibration der einzelnen Messwerte zur einfallenden Musterposition. Die Kalibration kann erfolgen, indem ein Merkmal des Musters (z. B. ein definierter Musterabschnitt oder ein definierter Laserstrahl) über den zugehörigen Sensor geführt wird. Es wird somit festgestellt, wo sich der Laserstrahl befindet (Ortsposition in μm), wenn der Sensor eine bestimmte Position in Pixeln meldet (z. B. durch Be stimmung des Intensitätsmaximums des einfallenden Laserstrahls); es wird festgestellt, welche Verzerrungen die eingesetzten Elemente besitzen usw.
    • • Kalibration der Lichtquellen und Strahlformungseinheiten: Hier wird festgestellt und abgespeichert, unter welchen Winkeln die Teilabschnitte der Lichtstrukturen (Einzelstrahlen oder Musterabschnitte) gesendet werden, welche Intensitäten dann erfasst werden usw. Die Kalibration erfolgt durch das Abtasten der gesendeten Lichtstruktur mit einem Sensor, der entweder hochgenau verfolgt (getrackt) wird, etwa durch einen Lasertracker, oder hochgenau bewegt wird, etwa durch ein hinreichend bekanntes Positioniersystem.
    • • Kalibration der Gesamtanlage: Hier erfolgt eine Kalibration der einzelnen Lichtquellen und Sensoren zueinander. Die Kalibration erfolgt nach Einrichtung des Systemaufbaus durch die Bewegung des Sensormoduls im Messraum, wobei diese Bewegung hochgenau getrackt wird (Lasertracker).
  • Vorteilhafterweise wird eine mechanische Abschirmung und/oder eine Drucklufteinrichtung (z. B. sog. Cross-Jet-Drucklufteinrichtung) im Rahmen des erfindungsgemäßen Aufbaus verwendet (in 2 nicht gezeigt): Solche Abschirmungen und/oder Drucklufteinrichtungen dienen als Schutzeinrichtung zur Abschirmung von Fremdlicht, von die Positionserfassung störenden Partikeln, wie Staub, Bearbeitungsspäne, etc. Diese Einrichtungen sind dabei so zu integrieren, dass der Arbeitsraum (Bewegungsraum des Endglieds 1a) nicht eingegrenzt wird. Vorteilhafterweise ist das Messsystem baulich vom Prozessraum zu trennen, so dass keine Späne, Schmiernebel usw. die Messung stören. Z. B. kann eine verwendete Spindel nach vorne arbeiten, die Sensoren können nach hinten arbeiten. Dann ist eine Trennung z. B. einfach durch eine Schutzfolie möglich.
  • Zudem kann mit dem beschriebenen Positionsbestimmungssystem eine Subpixel-Genauigkeit erreicht werden, indem die Intensität bei der Berechnung genutzt wird.
  • Hiermit lässt sich (bei einer typischen Seitenlänge eines Einzelpixels eines Sensors von 5 bis 15 μm) eine Genauigkeit von < 2 μm erreichen.
  • Die vorbeschriebenen Ausführungsbeispiele zeigen die räumliche Strukturierung der Lichtstruktur 3. Im Rahmen der vorliegenden Erfindung ist es jedoch auch möglich (insbesondere auch zusätzlich zu einer solchen räumlichen Strukturierung) eine zeitliche Variation der Lichtstruktur auszubilden: Hierzu kann beispielsweise ein mit Hilfe einer geeigneten Ablenkvorrichtung (z. B. Galvano-Scanner) zyklisch abgelenkter Laserstrahl eingesetzt werden. Ein solcher zyklisch abgelenkter Laserstrahl erzeugt ein geometrisches Muster, also ein räumlich strukturiertes Muster, das zusätzlich auch zeitlich variiert bzw. definiert ist.
  • Solche zusätzlichen Zeitinformationen ermöglichen in der Regel eine einfachere Lokalisierung, sofern die Sensoren und die Lichtquellen synchronisiert sind. Eine solche zeitliche Strukturierung erfordert in der Regel jedoch Komponenten, die teurer sind als die rein zur räumlichen Strukturierung notwendigen Komponenten. Zusätzlich werden durch die zeitliche Strukturierung gegebenenfalls Ungenauigkeiten in das System eingetragen (etwa durch dynamische Ablenkeinheiten), die gegebenenfalls durch zusätzliche Maßnahmen ausgeglichen werden müssen.

Claims (18)

  1. Positionsbestimmungssystem zum Bestimmen der Position und/oder der Orientierung, bevorzugt der Position und der Orientierung, einer zumindest abschnittsweise (1a) relativ zum Ortsraum (O) bewegbaren Handhabungseinheit (1), umfassend: Die Handhabungseinheit (1), eine mindestens eine Lichtquelle aufweisende Lichterzeugungsanordnung (2), mit der mindestens eine räumlich strukturierte und/oder zeitlich variierende Lichtstruktur (3) ausbildbar ist, eine mindestens einen Sensor umfassende Sensoranordnung (4), die zum Erfassen der Position und/oder der Orientierung eines definierten Teilabschnitts (5) der mindestens einen Lichtstruktur relativ zu einem definierten Element (6) dieser Sensoranordnung und/oder eines Sensors derselben und/oder zu der Orientierung dieses Elements ausgebildet ist, und eine Berechnungseinheit (7), mit der auf Basis der für den Teilabschnitt erfassten Position und/oder Orientierung die momentane Position und/oder die momentane Orientierung, bevorzugt die momentane Position und die momentane Orientierung, eines relativ zum Ortsraum (O) bewegbaren Abschnitts (1a) der Handhabungseinheit (1) im Ortsraum (O) berechenbar ist, wobei – entweder die Sensoranordnung (4) relativ zu diesem bewegbaren Abschnitt (1a) ortsfest angeordnet ist, insbesondere am Abschnitt (1a) unbeweglich fixiert ist, und die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet ist, dass die mindestens eine Lichtstruktur (3) im Ortsraum (O) ortsbeständig ausbildbar ist, – oder die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet ist, insbesondere so am Abschnitt (1a) unbeweglich fixiert ist, dass die mindestens eine Lichtstruktur (3) relativ zu diesem bewegbaren Abschnitt (1a) ortsbeständig ausbildbar ist, und die Sensoranordnung (4) im Ortsraum (O) ortsfest angeordnet ist.
  2. Positionsbestimmungssystem nach dem vorhergehenden Anspruch dadurch gekennzeichnet, dass mit der Lichterzeugungsanordnung (2), bevorzugt mit einer mindestens zwei relativ zueinander ortsfest angeordnete Lichtquellen (2a, 2b) aufweisenden Lichterzeugungsanordnung, mindestens zwei räumlich unterschiedlich strukturierte, räumlich unterschiedlich angeordnete und/oder zeitlich variierende Lichtstrukturen (3a, 3b) ausbildbar sind, dass mit der Sensoranordnung (4), bevorzugt mit einer mindestens zwei relativ zueinander ortsfest angeordnete Sensoren (4a, 4b) umfassenden Sensoranordnung, für mindestens zwei dieser Lichtstrukturen (3a, 3b) jeweils die Position und/oder die Orientierung eines definierten Teilabschnitts (5a, 5b) der jeweiligen Lichtstruktur relativ zu einem definierten Element (6a, 6b) der Sensoranordnung und/oder eines Sensors derselben und/oder zu der Orientierung dieses Elements erfassbar ist, und dass mit der Berechnungseinheit (7) auf Basis der für diese mindestens zwei Teilabschnitte erfassten Positionen und/oder Orientierungen die momentane Position und/oder die momentane Orientierung, bevorzugt die momentane Position und die momentane Orientierung, des relativ zum Ortsraum (O) bewegbaren Abschnitts (1a) der Handhabungseinheit (1) im Ortsraum (O) berechenbar ist, wobei – entweder die Sensoranordnung (4) relativ zu diesem bewegbaren Abschnitt (1a) ortsfest angeordnet ist, insbesondere am Abschnitt (1a) unbeweglich fixiert ist, und die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet ist, dass die mindestens zwei Lichtstrukturen (3a, 3b) im Ortsraum (O) ortsbeständig ausbildbar sind, – oder die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet ist, insbesondere so am Abschnitt (1a) unbeweglich fixiert ist, dass die mindestens zwei Lichtstrukturen (3a, 3b) relativ zu diesem bewegbaren Abschnitt (1a) ortsbeständig ausbildbar sind, und die Sensoranordnung (4) im Ortsraum (O) ortsfest angeordnet ist.
  3. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Lichterzeugungsanordnung (2) zwei relativ zueinander ortsfest und unterschiedlich orientiert angeordnete Lichtquellen (2a, 2b) aufweist, wobei mit jeder der beiden Lichtquellen jeweils eine Lichtstruktur (3a, 3b) ausbildbar ist, dass die Sensoranordnung (4) zwei relativ zueinander ortsfest und unterschiedlich orientiert angeordnete Sensoren (4a, 4b) aufweist, dass jede dieser beiden Lichtquellen zum Abbilden eines Teilabschnitts (5a, 5b) ihrer Lichtstruktur auf jeweils einem anderen der beiden Sensoren ausgerichtet ist, dass mit jedem dieser beiden Sensoren die Position des auf den Sensor auftreffenden Teilabschnitts relativ zu einem definierten Element (6a, 6b) der Sensoranordnung und/oder dieses Sensors erfassbar ist, und dass mit der Berechnungseinheit (7) auf Basis dieser beiden erfassten Relativpositionen die Position des bewegbaren Abschnitts (1a) der Handhabungseinheit (1) im Ortsraum (O) in drei Dimensionen berechenbar ist.
  4. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Lichterzeugungsanordnung (2) sechs relativ zueinander ortsfest und unterschiedlich orientiert angeordnete Lichtquellen aufweist, wobei mit jeder dieser sechs Lichtquellen jeweils eine Lichtstruktur ausbildbar ist, dass die Sensoranordnung (4) sechs relativ zueinander ortsfest und unterschiedlich orientiert angeordnete Sensoren aufweist, dass jede dieser sechs Lichtquellen zum Abbilden eines Teilabschnitts ihrer Lichtstruktur auf jeweils einem anderen der sechs Sensoren ausgerichtet ist, dass mit jedem dieser sechs Sensoren die Position des auf den Sensor auftreffenden Teilabschnitts relativ zu einem definierten Element (6a, 6b) der Sensoranordnung und/oder dieses Sensors erfassbar ist, und dass mit der Berechnungseinheit (7) auf Basis dieser sechs erfassten Relativpositionen die Position des bewegbaren Abschnitts (1a) der Handhabungseinheit (1) im Ortsraum (O) in drei Dimensionen und die Orientierung dieses bewegbaren Abschnitts (1a) im Ortsraum (O) in drei Dimensionen berechenbar ist.
  5. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mindestens einer der Teilabschnitte einer Lichtstruktur ein Lichtstrahl oder Lichtstrahlabschnitt, bevorzugt ein gebeugter und/oder abgelenkter Lichtstrahl und/oder ein Laserlichtstrahl oder -strahlabschnitt, ist, dessen Auftreffposition auf der Oberfläche eines Sensors der Sensoranordnung relativ zu einem definierten Punkt der Sensoranordnung und/oder dieses Sensors erfassbar ist und/oder dass mindestens einer der Teilabschnitte einer Lichtstruktur ein definierter, eineindeutiger, sich nicht wiederholender Musterabschnitt, bevorzugt ein Musterabschnitt einer Penrose-Parkettierung, ist, dessen Auftreffposition auf der Oberfläche eines Sensors der Sensoranordnung relativ zu einem definierten Punkt der Sensoranordnung und/oder dieses Sensors erfassbar ist.
  6. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mindestens eine der Lichtquellen einen Laser und eine im Strahlengang der Lichtquelle angeordnete Strahlformungseinheit (8), insbesondere ein optisches Gitter, bevorzugt ein Beugungsgitter, oder einen ablenkbaren Spiegel, insbesondere einen zeitlich oszillierenden Spiegel, umfasst, und/oder dass mindestens eine der Lichtquellen einen Projektor, der zum Erzeugen eines zweidimensionalen Musters umfassend einzelne, eineindeutige, sich nicht wiederholende Musterabschnitte ausgebildet ist, umfasst.
  7. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Lichterzeugungsanordnung (2) mindestens zwei relativ zueinander ortsfest angeordnete und jeweils paarweise bezüglich des Abstrahlwinkels relativ zueinander unter einem Winkel ungleich 180°, bevorzugt unter einem Winkel von 90°, ausgerichtete Lichtquellen (2a, 2b) umfasst.
  8. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mindestens ein Sensor der Sensoranordnung ein flächiger Sensor, insbesondere ein CCD-Flächensensor ist.
  9. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Sensoranordnung (4) mindestens zwei relativ zueinander ortsfest und jeweils paarweise relativ zueinander senkrecht stehende Flächensensoren aufweist.
  10. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche gekennzeichnet durch eine Kalibriereinheit (9), die ausgebildet ist zum Erfassen und Abspeichern – der relativen Position und der relativen Orientierung der Sensoren der Sensoranordnung untereinander, – der relativen Position und der relativen Orientierung der Lichtquellen der Lichterzeugungsanordnung untereinander, – der Position, der Orientierung, der Form und/oder des Intensitätsverlaufs mindestens einer der Lichtstrukturen, – der Position und der Orientierung mindestens einer Lichtquelle relativ zu der Position und der Orientierung mindestens eines Sensors, und/oder – der Zuordnung zwischen der Position und/oder Orientierung eines auf einen Sensor einfallenden Teilabschnitts einer Lichtstruktur und der durch diesen Einfall mittels der sensitiven Fläche dieses Sensors ausgelösten Signalform und/oder Signallage.
  11. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Berechnungseinheit (7) und/oder die Kalibriereinheit (9) ein Rechnersystem, insbesondere einen PC, umfasst oder als ein Teil eines solchen ausgebildet ist.
  12. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mindestens eine der Lichtstrukturen, bevorzugt alle der Lichtstrukturen, ausschließlich räumlich strukturiert ausbildbar, nicht jedoch zeitlich variierend ausbildbar ist/sind oder dass mindestens eine der Lichtstrukturen, bevorzugt alle der Lichtstrukturen, räumlich struktu riert ausbildbar und zeitlich variierend ausbildbar ist/sind.
  13. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass zwischen mindestens einer Lichtquelle und ihrem zugeordneten Sensor ein optischer Filter, insbesondere eine mattierte Folie, Glas- oder Kunststoffscheibe angeordnet ist.
  14. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche gekennzeichnet durch eine zum Abschirmen von Fremdlicht und/oder zum Abhalten von Schmutzpartikeln ausgebildete und angeordnete Abschirmeinrichtung, insbesondere eine mechanische Abschirmeinrichtung und/oder eine Drucklufteinrichtung.
  15. Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Handhabungseinheit (1) ein Roboterarm und/oder Teil eines Roboters oder eine Bearbeitungs- oder Montageeinheit, ein beweglicher Arm oder ein anderer Teil einer Werkzeugmaschine, eines Fertigungssystems, eines Koordinatenmessgerätes oder einer automatisierten Handhabungseinrichtung ist.
  16. Positionsbestimmungsverfahren zum Bestimmen der Position und/oder der Orientierung, bevorzugt der Position und der Orientierung, einer zumindest abschnittsweise (1a) relativ zum Ortsraum (O) bewegten Handhabungseinheit (1), wobei mit einer mindestens eine Lichtquelle aufweisenden Lichterzeugungsanordnung (2) mindestens eine räumlich strukturierte und/oder zeitlich variierende Lichtstruktur (3) ausgebildet wird, wobei eine mindestens einen Sensor umfassende Sensoranordnung (4) zum Erfassen der Position und/oder der Orientierung eines definierten Teilabschnitts (5) der mindestens einen Lichtstruktur relativ zu einem definierten Element (6) dieser Sensoranordnung und/oder eines Sensors derselben und/oder zu der Orientierung dieses Elements ausgerichtet wird, wobei – entweder die Sensoranordnung (4) relativ zu einem relativ zum Ortsraum bewegbaren Abschnitt (1a) der Handhabungseinheit (1) ortsfest angeordnet wird, insbesondere am Abschnitt (1a) unbeweglich fixiert wird, und die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet wird, dass die mindestens eine Lichtstruktur (3) im Ortsraum (O) ortsbeständig ausgebildet wird, – oder die Lichterzeugungsanordnung (2) so ausgebildet und/oder angeordnet wird, insbesondere so am Abschnitt (1a) unbeweglich fixiert wird, dass die mindestens eine Lichtstruktur (3) relativ zu diesem bewegten Abschnitt (1a) ortsbeständig ausgebildet wird, und die Sensoranordnung (4) im Ortsraum (O) ortsfest angeordnet wird, und wobei der bewegbare Abschnitt (1a) relativ zum Ortsraum (O) bewegt wird und mit einer Berechnungseinheit (7) auf Basis einer für den Teilabschnitt erfassten Position und/oder Orientierung die momentane Position und/oder die momentane Orientierung, bevorzugt die momentane Position und die momentane Orientierung, des relativ zum Ortsraum (O) bewegten Abschnitts (1a) der Handhabungseinheit (1) im Ortsraum (O) berechnet wird.
  17. Positionsbestimmungsverfahren nach dem vorhergehenden Anspruch dadurch gekennzeichnet, dass das Positionsbestimmungsverfahren mit einem Positionsbestimmungssystem nach einem der vorhergehenden Ansprüche 1 bis 15 durchgeführt wird.
  18. Verwendung eines Positionsbestimmungssystems oder eines Positionsbestimmungsverfahrens nach einem der vorhergehenden Ansprüche zum Kalibrieren und/oder zum Positionieren und/oder zum Messen der Position/Orientierung von Robotern, Bearbeitungseinheiten, Montageeinheiten, Werkzeugmaschinen, Fertigungssystemen, Koordinatenmessgeräten und/oder automatisierten Handhabungseinrichtungen.
DE200910030883 2009-06-19 2009-06-19 Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben Ceased DE102009030883A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200910030883 DE102009030883A1 (de) 2009-06-19 2009-06-19 Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200910030883 DE102009030883A1 (de) 2009-06-19 2009-06-19 Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben

Publications (1)

Publication Number Publication Date
DE102009030883A1 true DE102009030883A1 (de) 2010-12-23

Family

ID=43123100

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200910030883 Ceased DE102009030883A1 (de) 2009-06-19 2009-06-19 Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben

Country Status (1)

Country Link
DE (1) DE102009030883A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011001475A1 (de) * 2011-03-22 2012-09-27 Carl Zeiss Ag Verfahren und Vorrichtungen zur Positions- und/oder Orientierungsbestimmung
DE102012014312A1 (de) * 2012-07-19 2014-05-15 Kuka Roboter Gmbh Robotergeführte Messanordnung
DE102013004144A1 (de) * 2013-03-09 2014-09-11 Eisenmann Ag Verfahren und Vorrichtung zur Oberflächenbehandlung von Gegenständen
DE102013102651A1 (de) * 2013-03-14 2014-09-18 Robotics Technology Leaders Gmbh System und Verfahren zur Absolutkalibrierung eines Manipulators
DE102014018912A1 (de) 2014-12-17 2015-06-18 Daimler Ag Vorrichtung und Verfahren zur Positionsermittlung eines Endeffektors eines Roboters
DE102014014968A1 (de) * 2014-10-14 2016-04-14 Rwth Aachen Optisches Messverfahren und Vorrichtung zur Bestimmung von Position und Orientierung von Werkstücken und/oder Maschinen
WO2017055955A1 (en) * 2015-09-29 2017-04-06 Koninklijke Philips N.V. Automatic robotic arm calibration to camera system using a laser
DE102010027296B4 (de) 2010-03-12 2019-03-07 Siemens Healthcare Gmbh Patientenliege
WO2020104666A1 (de) * 2018-11-22 2020-05-28 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und vorrichtung zur bestimmung von mindestens einer räumlichen position und orientierung mindestens eines messobjekts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
US4788440A (en) * 1981-05-11 1988-11-29 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines
GB2254510A (en) * 1990-10-31 1992-10-07 Gec Ferranti Defence Syst Optical position and orientation determination
DE4415419A1 (de) * 1994-05-02 1995-11-09 Horn Wolfgang Positionsmesseinrichtung
WO2008028878A1 (fr) * 2006-09-05 2008-03-13 Thales Dispositif de detection optique de position et/ou d'orientation d'objets et procedes de detection associes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4788440A (en) * 1981-05-11 1988-11-29 Diffracto Ltd. Electro-optical systems for control of robots, manipulator arms and coordinate measuring machines
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
GB2254510A (en) * 1990-10-31 1992-10-07 Gec Ferranti Defence Syst Optical position and orientation determination
DE4415419A1 (de) * 1994-05-02 1995-11-09 Horn Wolfgang Positionsmesseinrichtung
WO2008028878A1 (fr) * 2006-09-05 2008-03-13 Thales Dispositif de detection optique de position et/ou d'orientation d'objets et procedes de detection associes

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010027296B4 (de) 2010-03-12 2019-03-07 Siemens Healthcare Gmbh Patientenliege
DE102011001475A1 (de) * 2011-03-22 2012-09-27 Carl Zeiss Ag Verfahren und Vorrichtungen zur Positions- und/oder Orientierungsbestimmung
DE102011001475B4 (de) * 2011-03-22 2020-03-12 Carl Zeiss Ag Verfahren und Vorrichtungen zur Positionsbestimmung
DE102012014312A1 (de) * 2012-07-19 2014-05-15 Kuka Roboter Gmbh Robotergeführte Messanordnung
DE102013004144A1 (de) * 2013-03-09 2014-09-11 Eisenmann Ag Verfahren und Vorrichtung zur Oberflächenbehandlung von Gegenständen
DE102013004144B4 (de) 2013-03-09 2022-09-15 Eisenmann Se Verfahren und Vorrichtung zur Oberflächenbehandlung von Gegenständen
DE102013102651A1 (de) * 2013-03-14 2014-09-18 Robotics Technology Leaders Gmbh System und Verfahren zur Absolutkalibrierung eines Manipulators
DE102014014968A1 (de) * 2014-10-14 2016-04-14 Rwth Aachen Optisches Messverfahren und Vorrichtung zur Bestimmung von Position und Orientierung von Werkstücken und/oder Maschinen
DE102014018912A1 (de) 2014-12-17 2015-06-18 Daimler Ag Vorrichtung und Verfahren zur Positionsermittlung eines Endeffektors eines Roboters
JP2018537301A (ja) * 2015-09-29 2018-12-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. レーザを使用したカメラシステムに対するロボットアームの自動較正
WO2017055955A1 (en) * 2015-09-29 2017-04-06 Koninklijke Philips N.V. Automatic robotic arm calibration to camera system using a laser
US11161248B2 (en) 2015-09-29 2021-11-02 Koninklijke Philips N.V. Automatic robotic arm calibration to camera system using a laser
WO2020104666A1 (de) * 2018-11-22 2020-05-28 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und vorrichtung zur bestimmung von mindestens einer räumlichen position und orientierung mindestens eines messobjekts

Similar Documents

Publication Publication Date Title
DE102009030883A1 (de) Positionsbestimmungssystem, Positionsbestimmungsverfahren und Verwendung derselben
EP0881461B1 (de) Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
EP1420264B1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
EP2875383B1 (de) Lasertracker mit kalibriereinheit zur selbstkalibrierung
EP1966661A1 (de) Verfahren und vorrichtung zum einrichten einer bahnkurve einer robotervorrichtung
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
EP1710602A1 (de) Messsystem zur Bestimmung von sechs Freiheitsgraden eines Gegenstandes
DE102006059416A1 (de) Vorrichtung und Verfahren zur Steigerung der Mess-Genauigkeit digitaler 3D-Geometriemesssysteme
WO2010034301A2 (de) 3d-geometrie-erfassungsverfahren und -vorrichtung
WO2016146379A1 (de) Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts
EP3418680B1 (de) System und verfahren zur positionierungsmessung
EP0405423A2 (de) Verfahren und Vorrichtung zur Lagebestimmung eines Objektes
EP1143221B1 (de) Verfahren zur Bestimmung der Position eines Koordinatensystems eines Werkstücks im 3D-Raum
EP1468792A2 (de) Verfahren zum Kalibrieren eines Roboters
EP1211480A2 (de) Elektrooptisches Messgerät zum Feststellen der Relativlage von Körpern oder von Oberflächenbereichen solcher Körper
DE102015106837B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu
DE102018114480B3 (de) Abgleichverfahren für eine Strahlrichteinheit einer interferometrischen Messvorrichtung und Messvorrichtung zur Durchführung einer interferometrischen Messung mittels Laserstrahlung
DE102012016073A1 (de) Anordnung und Verfahren zur Bestimmung der Stellung eines Effektors an einem Mechanismus
EP3739287A1 (de) Vermessungsvorrichtung
DE10233372B4 (de) Messsystem und Verfahren zur Erfassung geometrischer Größen
DE102011001475B4 (de) Verfahren und Vorrichtungen zur Positionsbestimmung
DE102018115620A1 (de) Messsystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20111220