DE102012103980A1 - Verfahren und Vorrichtung zur Ausrichtung einer Komponente - Google Patents

Verfahren und Vorrichtung zur Ausrichtung einer Komponente Download PDF

Info

Publication number
DE102012103980A1
DE102012103980A1 DE201210103980 DE102012103980A DE102012103980A1 DE 102012103980 A1 DE102012103980 A1 DE 102012103980A1 DE 201210103980 DE201210103980 DE 201210103980 DE 102012103980 A DE102012103980 A DE 102012103980A DE 102012103980 A1 DE102012103980 A1 DE 102012103980A1
Authority
DE
Germany
Prior art keywords
component
coordinate system
features
orientation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201210103980
Other languages
English (en)
Inventor
Alexander Brzank
Dr. Thesing Jan
Dr.-Ing. Winter Detlef
Dr. Gomercic Mladen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss GOM Metrology GmbH
Original Assignee
GOM Gesellschaft fuer Optische Messtechnik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GOM Gesellschaft fuer Optische Messtechnik mbH filed Critical GOM Gesellschaft fuer Optische Messtechnik mbH
Priority to DE201210103980 priority Critical patent/DE102012103980A1/de
Publication of DE102012103980A1 publication Critical patent/DE102012103980A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40565Detect features of object, not position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur Ausrichtung einer Komponente (1) in eine vorgegebene Soll-Lage werden beschrieben. Dabei erfolgt ein optisches Vermessen der Positionen von mindestens drei Merkmalen (2) der Komponente und ein Bestimmen der Lageabweichung der Komponente (1) zwischen der mittels der Positionen der Merkmale (2) ermittelten Ist-Lage der Komponente (1) und der vorgegebenen Soll-Lage.

Description

  • Die Erfindung betrifft ein Verfahren zur Ausrichtung einer Komponente in eine vorgegebene Soll-Lage. Die Erfindung betrifft weiterhin eine Vorrichtung zur Ausrichtung einer Komponente in eine vorgegebene Soll-Lage mit einer Positionsmesseinheit zum optischen Vermessen der Positionen von mindestens drei Merkmalen der Komponente und einer Auswerteeinheit, die mit der Positionsmesseinheit verbunden ist.
  • In der Industrie finden sich zahlreiche Aufgaben, bei denen eine Komponente (z.B. Bauteil, Werkstück etc.) in eine ganz bestimmte Lage gebracht werden muss, bevor der nächste Arbeitsschritt ausgeführt werden kann. Unter Lage wird die Position und Orientierung in einem definierten Koordinatensystem verstanden. Ein typisches Beispiel ist das Einpassen einer Komponente bezüglich eines Bauteils, so dass im Anschluss die Komponente und das Bauteil mechanisch miteinander verbunden werden können (z.B. Ausrichten einer Heckklappe relativ zum Fahrzeug). Eine weitere häufige Anwendung besteht in dem Ausrichten eines Werkstücks relativ zu einer Maschine, so dass im Folgenden das Werkstück durch die Maschine optimal bearbeitet werden kann. Weitere gängige Aufgaben sind das Ausrichten eines zu messenden Objektes relativ zu einem Sensor oder auch das Ausrichten mehrerer Maschinen in einem komplexen, linearen Fertigungsverfahren (Fertigungsstraße).
  • Vorbekannt sind verschiedene Verfahren und Vorrichtungen zur Ausrichtung eines Bauteils.
  • Rüdiger Gillhaus, Olaf Gümmer, Markus Kästner, Eduard Reithmeier und Berend Denkena: Aktive Bauteilausrichtung. Erschienen in Qualität und Zuverlässigkeit 01/2011, Seite 43–45 beschreiben ein Verfahren und eine Vorrichtung zur aktiven Bauteilausrichtung. Das Ziel ist die Ausrichtung eines zu bearbeitenden Werkstücks (z.B. eine Kurbelwelle) relativ zu einer Pendelhubschleifmaschine, um im Anschluss einen Schleifprozess optimal durchführen zu können. Zur Bestimmung der Position wird ein optisches Messsystem bestehend aus einem Schattenprojektionssystem und einem konoskopischen Sensor eingesetzt, welches durch eine Aufnahmekonstruktion fest in die Pendelhubschleifmaschine integriert ist. Nach Auswertung der Messdaten sind die Form und die Lage des Bauteils in Bezug auf die Bearbeitungsachse der Schleifmaschine bekannt und ein Lage-Korrekturvektor wird an die Aktorik übergeben. Das vorgestellte Verfahren beinhaltet einige Nachteile. So muss die Position und Orientierung des optischen Messsystems relativ zur Pendelhubschleifmaschine vorbekannt sein. Dies impliziert einen aufwendigen Kalibrierprozess. Weiterhin ist das optische Messsystem fest in die Pendelhubschleifmaschine eingebaut, so dass eine flexible Ausrichtung in Abhängigkeit von dem auszurichtenden Werkstück nicht möglich ist. Zudem muss das Werkstück jedes Mal aufwendig vermessen werden, um neben der Position und Orientierung des Werkstücks auch die Form zu bestimmen, um es im Folgenden optimal ausrichten und bearbeiten zu können.
  • DE 10 2009 053 132 A1 offenbart ein Verfahren und eine Vorrichtung zur Ausrichtung und Schwingungsmessung von Bauteilen, vornehmlich Wellen. Das Ausrichtgerät umfasst eine oder zwei optoelektronische Sende- und/oder Empfangseinheiten und eine Auswerteeinheit. Durch Auswertung der Messungen zwischen Sende- und Empfangseinheit kann die Ausrichtung der beiden Wellen bestimmt und optimiert werden. Auch hier muss das Ausrichtgerät in einer ganz bestimmten Position und Orientierung zu den auszurichtenden Wellen positioniert sein. Ferner müssen auch die Einzelkomponenten des Ausrichtsystems genau zueinander positioniert sein. Dadurch resultiert ein großer Zeitaufwand für die Ausrichtung. Ferner kann das Verfahren nicht einfach und schnell auf eine andere Ausrichtaufgabe angepasst werden, da Sende- und Empfangseinrichtung aufeinander abgestimmt sein müssen und die Position und Ausrichtung der Sende- und Empfangseinrichtung relativ zu den zueinander auszurichtenden Objekten sehr präzise realisiert werden muss.
  • In Fredie Kern: Automatisierte Modellierung von Bauwerksgeometrien aus 3D-Laserscanner-Daten. Dissertation, TU-Braunschweig, Geodätische Schriftenreihe der Technischen Universität Braunschweig Nr. 19, 2003 ist ein Verfahren zur automatischen Bestimmung der 3D-Daten je Kugel beschrieben.
  • In EP 1 841 570 A1 ist eine Vorrichtung und ein Verfahren zur Kalibrierung des Mittelpunktes von einem auf einem Roboter angebrachtem Werkzeug mit Hilfe einer Kamera beschrieben. Ebenso sind aus EP 417 320 A1 und US 2009 118 864 A1 Verfahren zur Bestimmung des Werkzeugzentralpunktes TCP (Tool-Center-Point) mittels externer Kamera bekannt. Dies beinhaltet Transformationen zwischen dem Roboter-Koordinatensystem und einem Welt-Koordinatensystem.
  • Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Verfahren und eine Vorrichtung zum Ausrichten einer Komponente zu schaffen, wodurch eine einfache und zügige Ausrichtung einer Komponente bezüglich einer Soll-Lage ermöglicht wird.
  • Die Aufgabe wird durch das Verfahren mit den Merkmalen des Anspruchs 1 und die Vorrichtung mit den Merkmalen des Anspruchs 14 gelöst. Vorteilhafte Ausführungsformen sind in den Unteransprüchen beschrieben.
  • Es wird vorgeschlagen, zur Ausrichtung Merkmale der Komponente zu nutzen, deren Positionen optisch vermessen werden. Die Komponente umfasst hierzu messtechnisch optisch erfassbare Merkmale, deren Position und Orientierung zur Komponente vorbekannt sind. Mit Hilfe dieser Positionen der Merkmale kann dann die Abweichung der Lage der Komponente von einer bestimmten Ist-Lage zur vorgegebenen Soll-Lage ermittelt werden. Die Reduktion der optischen Vermessung auf Merkmale hat den Vorteil, dass die erforderliche Rechenkapazität reduziert und die Lageabweichung relativ schnell bestimmt werden kann. Dies führt dazu, dass das Verfahren zur Ausrichtung einer Komponente bezüglich einer a priori definierten Soll-Lage in einem Ziel-Koordinatensystem in Echtzeit durchführbar ist.
  • Das Ziel-Koordinatensystem kann beliebig sein. Es kann z.B. dem Sensor-Koordinatensystem einer optischen Positionsmesseinheit entsprechen, das zum Vermessen der Positionen der Merkmale der Komponente genutzt wird. Es kann aber auch unterschiedlich davon sein, so dass eine Transformation zwischen dem Sensor-Koordinatensystem und dem Ziel-Koordinatensystem erforderlich ist.
  • Die Vorrichtung umfasst vorzugsweise eine optische Positionsmesseinheit, die zwei räumlich versetzte Bildaufnahmeeinheiten (= Sensor) und eine Beleuchtungseinheit beinhaltet. Damit können die 3D-Positionen innerhalb des Sensor-Koordinatensystems bestimmt werden. Anschließend werden die Merkmale und die dazu im festen Lagebezug stehende Komponente „mathematisch in das Ziel-Koordinatensystem eingeschwenkt“, d.h. es wird eine Transformation der Positionskoordinaten der Merkmale, von im festen Bezug zu den Merkmalen stehenden Geometrieelementen der Komponente (z.B. Flächen, Punkte, Ecken, Bohrungen, u.dgl.) und/oder der Komponente insgesamt aus dem Sensor-Koordinatensystem in das Ziel-Koordinatensystem durchgeführt. Dann kann über eine räumliche Transformation die Translations- und Orientierungsabweichung zwischen der Ist- und der Sollposition der Merkmale bestimmt werden. Da die Position und Orientierung der Merkmale bezüglich der auszurichtenden Komponente vorbekannt sind, ist nun auch die Lageabweichung der Ist-Ausrichtung der Komponente bezüglich der Soll-Ausrichtung berechenbar. Die Lageabweichung kann hierbei für die Komponente insgesamt oder nur für ausgewählte Geometrieelemente (z.B. Flächen, Punkte oder sonstige Elemente) der Komponente bestimmt werden. So können anhand der für die Ist- und Soll-Lage einander zugeordneten identischen Geometrieelemente der Komponente räumliche Unterschiede zwischen der Soll- und Ist-Lage bestimmt und optional graphisch dargestellt werden.
  • Das Verfahren hat den Vorteil, dass das Messsystem zur Bestimmung der Ausrichtung flexibel bezüglich der Solllage der Komponente positioniert werden kann, so dass keine aufwendige Fixierung des Messsystems relativ zu einer Position/Objekt etc. erfolgen muss und auch keine langwierige Bestimmung der Position und Orientierung des Messsystems bezüglich der Solllage notwendig ist, sofern die Transformationsbeziehungen zwischen dem Sensor-Koordinatensystem und dem Ziel-Koordinatensystem bekannt sind oder in einer vorteilhaften Ausgestaltung diese während des Ausrichtverfahrens bestimmt werden. Ferner ist das Verfahren und die Vorrichtung so einfach und flexibel gestaltet, dass eine Vielzahl von Ausrichtungsverfahren damit durchgeführt werden können und die auszurichtende Komponente eine beliebige Form und Gestalt aufweisen kann. Die Ausrichtung kann zudem ohne aufwendige Messung der Komponente durchgeführt werden, sofern die Geometrie der Komponente z.B. durch vorheriges 3D-Vermessen eines Musters der Komponente oder aufgrund von CAD-Datensätzen vorbekannt ist.
  • Wie bereits ausgeführt, umfasst die Komponente messtechnisch erfassbare Merkmale, deren Position und Orientierung zur Komponente vorbekannt sind. Aufgrund dieses Vorwissens kann aus der vorbekannten Soll-Lage der Komponente im Ziel-Koordinatensystem die Soll-Position der Merkmale im Ziel-Koordinatensystem bestimmt werden. Die Komponente ist dann optimal ausgerichtet, wenn die aktuelle Position der Merkmale den Soll-Koordinaten der Merkmale im Ziel-Koordinatensystem entspricht. Die Ausrichtung der Komponente erfolgt somit indirekt über die im festen Positions- und Orientierungsbezug zur Komponente stehenden messtechnisch erfassbaren Merkmale.
  • Die Ausrichtung erfolgt im Allgemeinen iterativ. Anhand der berechneten räumlichen Unterschiede zwischen der Soll- und Ist-Ausrichtung erfolgt eine Korrektion der Position und Orientierung der Komponente (= n.ter Ablaufzyklus). Im Anschluss werden erneut die räumlichen Unterschiede zwischen der Soll- und Ist-Ausrichtung ermittelt (n+1. Ablaufzyklus). Der Ausrichtprozess wird solange iterativ durchgeführt, bis die Soll- und Ist-Ausrichtung gemäß der jeweiligen Aufgabenstellung hinreichend übereinstimmen.
  • Das Ziel-Koordinatensystem ist ein übergeordnetes dreidimensionales Koordinatensystem in dem die Komponente auszurichten ist. Es kann prinzipiell beliebig definiert sein.
  • Denkbar ist es für die Ausrichtung der Komponente relativ zu mindestens einem Objekt, wenn das Ziel-Koordinatensystem über ein Objekt oder mehrere zueinander ausgerichtete Objekte (= Objektverbund) in seiner Position und Orientierung bestimmt wird. Ein typisches Beispiel ist die Ausrichtung einer Komponente in einem Gehäuse (Objekt), wobei das Gehäuse die Position und Orientierung des Ziel-Koordinatensystems definiert. Es gibt aber gleichermaßen Anwendungen bei denen das Ziel-Koordinatensystem anderweitig definiert ist und das mindestens eine Objekt bezüglich des Ziel-Koordinatensystems ausgerichtet ist. Die auszurichtende Komponente ist dabei immer relativ beweglich zum Objekt oder Objektverbund und im Hinblick auf das Ausrichtverfahren kein Teil des Objektes bzw. Objektverbundes, auch wenn die Komponente optional beweglich mit dem mindestens einem Objekt verbunden ist.
  • Sofern das mindestens eine Objekt ebenfalls messtechnisch erfassbare Merkmale umfasst, deren Position und Orientierung zum Objekt oder Objektverbund vorab bekannt sind, ferner die Position und Orientierung des Ziel-Koordinatensystem zum Objekt oder Objektverbund (oder umgekehrt vom Objekt bzw. Objektverbund zum Ziel-Koordinatensystem) definiert ist und die 3D-Position von mindestens drei Merkmalen des mindestens einen Objektes durch die zwei versetzen Bildaufnahmeeinheiten bestimmt werden, kann die Position und Orientierung des Sensor-Koordinatensystems bezüglich des Ziel-Koordinatensystems (zum Beispiel durch einen photogrammetrischen Vorwärtsschnitt) bestimmt werden.
  • Werden nun sowohl mindestens drei Merkmale des mindestens einen Objektes als auch mindestens drei Merkmale der auszurichtenden Komponente gleichzeitig durch den Sensor gemessen, so kann die Komponente optimal bezüglich des mindestens einen Objektes ausgerichtet werden. Eine etwaige Änderung der Position und Orientierung des Sensors bezüglich des mindestens einen Objektes beeinflusst diesen Ausrichtprozess nicht – sofern immer noch jeweils mindestens drei Merkmale des Objektes und der Komponente messbar sind – da die Position und Orientierung des Sensor-Koordinatensystems bezüglich des Ziel-Koordinatensystems anhand der mindestens drei erfassten Merkmale des Objektes abgeleitet wird. Ebenso kann auch das Objekt bzw. der Objektverbund beliebig innerhalb des Messvolumens des Sensors verschoben und/oder rotiert werden.
  • In einer anderen möglichen Ausführungsform ist die Position und Orientierung des Ziel-Koordinatensystems zu dem Sensor-Koordinatensystem vor der Ausrichtung bekannt. Dies kann durch diverse messtechnische Verfahren z.B. photogrammetrische Verfahren, Trackingverfahren sowie weitere geodätische Einmessverfahren erfolgen. So kann die Position und Orientierung des Sensors durch das Anmessen durch den Sensor von mindestens drei Signalisierungselementen wie codierten und uncodierten Marken mit bekannter 3D-Position im Ziel-Koordinatensystem photogrammetrisch bestimmt werden (photogrammetrischer Rückwärtsschnitt). Genauso kann der Sensor selbst durch ein Trackingsystem getrackt werden, so dass die Position und Orientierung des Sensors im Ziel-Koordinatensystem bekannt ist. Ferner können geodätisch bekannte Winkel- und Streckenmessverfahren eingesetzt werden, um die Position und Orientierung des Sensors im Ziel-Koordinatensystem zu bestimmen. In einigen Fällen ist es auch denkbar, dass das Sensor-Koordinatensystem die Position und Orientierung des Ziel-Koordinatensystems direkt definiert, z.B. im trivialen Fall bei dem das Sensor-Koordinatensystem und das Ziel-Koordinatensystem identisch sind.
  • In einer vorteilhaften Ausgestaltung des Verfahrens erfolgt die Ausrichtung in Echtzeit. Dazu müssen die Einzelschritte des Verfahrens namentlich das Messen von mindestens drei Merkmalen der Komponente, optional das Messen von mindestens drei Merkmalen des mindestens einen Objektes, das mathematische Einschwenken (durch Transformation) der gemessenen Merkmale der Komponente sowie ggfs. der Komponente und/oder der Geometrieelemente der Komponente in das Ziel-Koordinatensystem, die räumliche Transformation die Positions- und Orientierungsabweichung zwischen Ist- und der Sollposition der Merkmale sowie die Berechnung und Darstellung der räumlichen Unterschiede zwischen Soll- und Ist-Position anhand identischer Geometrieelemente der Komponente oder der gesamten Komponente mit einer hohen Frequenz in einem iterativen Berechnungsablauf durchgeführt werden. Die erreichbare Frequenz ist von einer Vielzahl von Faktoren wie Bildaufnahmerate des Sensors, Anzahl der erfassten Merkmale, Anzahl und Komplexität der zur Darstellung der räumlichen Unterschiede genutzten Geometrien der Komponente, allgemeine Rechenleistung des verwendeten Auswertesystems etc. abhängig. Die Ablauffrequenz soll möglichst größer als ein Hz betragen, um eine Echtzeitausrichtung zu ermöglichen. Eine optimale Frequenz liegt bei ≥ 25 Hz, wodurch eine für das menschliche Auge vollständig flüssige Echtzeitausrichtung gegeben ist.
  • In einer günstigen Ausgestaltung liegen die Geometrie der auszurichtenden Komponente sowie die zugehörigen messtechnisch erfassbaren Merkmale in Form eines 3D-Datensatzes vor. Dabei ist es für die Durchführung des Verfahrens unerheblich, in welchem Datenformat diese Informationen vorliegen, solange die Vorrichtung dieses Format lesen und auswerten kann. Bei typischen Anwendungen liegt ein CAD-Modell vor. Genauso kann aber auch ein 3D-Messdatensatz verwendet werden. Es ist weiterhin denkbar, aus dem 3D-Messdatensatz ein CAD-Modell abzuleiten und anschließend zu verwenden.
  • Wie ausgeführt kann die Ausrichtung mit einem einzigen 3D-Datensatz inklusive der bekannten Position und Orientierung der messtechnisch erfassbaren Merkmale durchgeführt werden. Die Komponente hat somit in der Soll-Ausrichtung und der Ist-Ausrichtung die gleiche verwendete Geometrie. Im Falle eines 3D-Messdatensatzes handelt es sich typischerweise um die Ist-Form der Komponente. Das konstruierte CAD-Modell entspricht dagegen im Normalfall der idealisierten Soll-Form, die im Regelfall nicht mit der Ist-Form identisch ist. Wird für die Ausrichtung einer dieser beiden Datensätze alleine eingesetzt, so kann der Verfahrensteilschritt, bei dem die Transformation der Positions- und Orientierungsabweichung zwischen Ist- und Soll-position der Merkmale im Ziel-Koordinatensystem bestimmt wird, sogar eingespart werden. Ziel dieses Teilschrittes ist nämlich die Bestimmung der Position homologer Geometriepunkte (z.B. als Teilmenge eines Geometrieelementes) in der Soll-Ausrichtung. Dazu wird anhand der Transformationsparameter der jeweilige Ist-Geometriepunkt in die Soll-Position transformiert und nachfolgend der räumliche Unterschied berechnet. Bei Verwendung nur eines 3D-Datensatzes ist aber die Soll-position des jeweiligen homologen Geometriepunktes schon bekannt. Allerdings kann es durchaus zielführend sein, die Transformation dennoch durchzuführen, da dann nur die Position und Orientierung der zur Ausrichtung verwendeten Merkmale im Speicher der Auswerteeinheit vorgehalten werden müssen. Dies kann durchaus zu einem erheblichen Geschwindigkeitsvorteil führen, insbesondere weil 3D-Datensätze aus mehreren Millionen von Elementen (z.B. Punkte) bestehen können.
  • Häufig gibt es auch Anwendungen, bei denen sowohl ein CAD-Modell nebst zugehörigen messtechnisch erfassbaren Merkmalen sowie ein 3D-Messdatensatz inklusive der Merkmale der Komponente vorliegen. Typischerweise ist dann die Soll-Lage im Ziel-Koordinatensystem anhand des CAD-Modells definiert, während der 3D-Messdatensatz für die Ist-Ausrichtung der Komponente verwendet wird. Es erfolgt somit eine Ausrichtung von einer Ist-Form der Komponente auf eine idealisierte Soll-Form der Komponente. In diesen Fällen sind oft homologe Geometriepunkte zwischen der Soll-Form (CAD-Datensatz) und der Ist-Form (3D-Messdatensatz) a priori nicht bekannt. Mit Hilfe der im vorherigen Absatz angesprochenen Transformation können für die Geometriepunkte der Ist-Form die entsprechenden Partnergeometriepunkte der Soll-Form ermittelt werden. Das Finden des zugehörigen Partnerpunktes kann durch geeignete mathematische Algorithmen wie z.B. der Iterative-Closest-Point-Algorithmus erfolgen.
  • Sofern die Objektgeometrie der auszurichtenden Komponente sowie die Position und Orientierung der Merkmale zur auszurichtenden Komponente nicht vorbekannt sind, ist es möglich, durch die Erweiterung der Vorrichtung um eine Musterprojektionseinheit, diese Informationen durch ein Musterprojektionsverfahren anhand eines oder mehrerer Musterbilder (z.B. Streifenprojektion) und ein Merkmalsextraktionsverfahrens anhand eines Farb- oder Grauwertbildes vor der Ausrichtung messtechnisch abzuleiten. Die Vorrichtung und das Verfahren werden bei dieser vorteilhaften Ausführung dahingehend erweitert, dass auch die 3D-Datenerfassung von Objekten möglich ist.
  • Für das bei einer vorteilhaften Ausführung ebenfalls berücksichtigte mindestens eine Objekt gelten die gleichen Aussagen. Auch dieses mindestens eine Objekt nebst zugehöriger in relativer Position und Orientierung bekannter messtechnisch erfassbarer Merkmale liegt günstiger weise in Form eines 3D-Datensatzes vor. Wiederum kann es sich um einen 3D-Messdatensatz und/oder ein CAD-Modell handeln. Ebenfalls ist die Umwandlung eines 3D-Messdatensatz in einen CAD-Datensatz (Computer-Aided-Design) möglich. Analog zur Komponente kann auch der 3D-Datensatz des mindestens einen Objektes sowie zugehörige Merkmale durch ein Musterprojektionsverfahren anhand eines oder mehrerer Musterbilder (z.B. Streifenprojektion) und ein Merkmalsextraktionsverfahrens anhand eines Farb- oder Grauwertbildes vor der Ausrichtung messtechnisch bestimmt werden.
  • Als messtechnisch erfassbare Merkmale der Komponente sowie gegebenenfalls des mindestens einen Objektes eignet sich eine Vielzahl von Varianten. Voraussetzung ist, dass das Merkmal durch die Bildaufnahmeeinheiten eindeutig identifiziert und gemessen und somit die 3D-Position im Sensor-Koordinatensystem bestimmt werden kann. Eine gängige vorteilhafte Ausführung ist die Verwendung von Marken und/oder Mustern. Unter Marken werden photogrammetrische Zielmarken subsumiert, die vorzugsweise kreisförmig sind. In einer einfachen Ausführung, namentlich uncodierte Zielmarke, bestehen die Marken aus zwei konzentrischen Kreisen, wobei der Innenkreis einen deutlich anderen Farbton als der Außenkreis besitzt. Standardmäßig werden die Farben schwarz und weiß verwendet. Genauso können aber auch codierte Zielmarken verwendet werden, die basierend auf der uncodierten Zielmarke eine zusätzliche Codierung z.B. in Form von zusätzlichen Kreisscheibenelementen umfassen, wodurch die jeweilige Marke eindeutig von allen anderen Marken unterscheidbar ist. Weiterhin können auch eindeutig identifizierbare Muster verwendet werden. Die Ausführungsvarianten solcher Muster sind ebenfalls sehr vielfältig. Typischerweise besteht ein Muster aus einer Kombination aus fix zueinander angeordneten geometrischen Elementen wie zum Beispiel Kreise, Rechtecke etc. Aus der bekannten, festen Lagebeziehung der geometrischen Elemente resultiert die messtechnische Erfassbarkeit der gleichen Lage bezüglich des Musters praktisch unabhängig von der Position und Orientierung des Musters zum Sensor.
  • Marken und Muster sind im Allgemeinen nicht integraler Bestandteil der Komponente. Sie müssen deshalb im Normalfall auf oder neben der Komponente fest angebracht werden. Dieser Arbeitsschritt entfällt, wenn messtechnisch erfassbare Merkmale der Komponente selbst für den Ausrichtprozess verwendet werden. Zu den typischen messtechnisch erfassbaren Merkmalen zählen alle geometrischen Komponentenbestandteile, die aus einer oder mehreren Regelgeometrien (wie Kreise, Rechtecke, Kugeln, Zylinder etc.) aufgebaut sind beziehungsweise von diesen abhängen. Dazu zählen Bohrlöcher, Zylinderstifte, Kugelflächen, Eckpunkte etc. Sofern ein CAD-Modell der Komponente vorliegt, können geeignete Merkmale des Bauteils direkt bestimmt werden. Analog können bei Verwendung eines Objektverbundes ebenfalls anhand des zugehörigen CAD-Modells die Merkmale direkt abgeleitet werden. Weiterhin kann es ebenfalls vorteilhaft sein, sowohl Marken und Muster als auch Geometrien als Merkmale gemeinsam zu verwenden.
  • In einer vorteilhaften Ausgestaltung werden mehrere Komponenten gleichzeitig ausgerichtet. Dazu müssen das eingesetzte Verfahren und die Vorrichtung in der Lage sein, die mindestens drei erfassten Merkmale je Komponente der jeweils richtigen Komponente zuzuordnen. Für jede Komponente wird im Anschluss die Berechnung und Darstellung des räumlichen Unterschieds zwischen identischen Geometrieelementen der jeweiligen Komponente zwischen der Soll- und Ist-Ausrichtung durchgeführt.
  • Die graphische Darstellung der räumlichen Unterschiede zwischen identischen Geometrieelementen der Komponente kann vielfältig erfolgen. Im Allgemeinen liegen als Ergebnis jedes Ablaufzyklus 3D-Abweichungsvektoren zwischen identischen Geometrieelementen vor. In einer vorteilhaften Ausgestaltung wird für jeden Abweichungsvektor anhand des Betrags des Vektors der Längenabstand zwischen Soll- und Ist-Ausrichtung des jeweiligen Geometrieelementes bestimmt und farblich codiert dargestellt. In einer weiteren vorteilhaften Ausgestaltung werden die 3D-Abweichungsvektoren (durch die gleiche Abbildungsvorschrift wie für die auszurichtende Komponente) auf der zweidimensionalen graphischen Anzeigeeinheit (z.B. Bildschirm) dargestellt. In einer weiteren vorteilhaften Ausgestaltung ist es vorgesehen, dass die Vorrichtung so um einen Musterprojektor erweitert wird, dass die 3D-Abweichungsvektoren oder daraus abgeleitete Informationen wie der Längenabstand direkt auf die auszurichtende Komponente projiziert werden. In diesem Fall kann die Ausrichtung noch einfacher und intuitiver durchgeführt werden, da die Ausrichtegüte direkt von der auszurichtenden Komponente abgelesen werden kann.
  • Die zur Berechnung und Darstellung der räumlichen Unterschiede verwendeten identischen Geometrieelemente können beliebig gewählt sein. Bei typischen Anwendungen werden undifferenzierte Einzelpunkte verwendet, die auf der ganzen Komponente verteilt sind. Diese können aus dem 3D-Datensatz der Komponente abgeleitet werden, zum Beispiel aus einer Tesselierung des CAD-Modells oder direkt aus dem 3D-Messdatensatz durch Verwendung der Dreieckspunkte. Ebenfalls ist es möglich, markante Einzelpunkte, welche einen besonderen Bezug zur Gesamtform der Komponente aufweisen wie z.B. Eckpunkte, einzusetzen.
  • Bei Verwendung einer großen Anzahl an Einzelpunkten kann die Geschwindigkeit zur Berechnung der räumlichen Unterschiede deutlich absinken, so dass die Ablauffrequenz des Ausrichtprozesses zu stark beeinträchtigt ist. In einer vorteilhaften Ausführung ist es deshalb ebenfalls möglich, 1D-Geometrieelemente und/oder 2D- Geometrieelemente der Komponente zu verwenden. Dies können zum Beispiel Randkanten-, Spalt-, Charakterlinien sowie weitere repräsentative Linien auf der Komponente (1D-Elemente) aber auch Ebenen, Polynom-, Kugel-, Zylinderflächen sowie weitere repräsentative Flächen sein.
  • In einer vorteilhaften Ausgestaltung erfolgt die Ausrichtung von Hand. Dazu wird die auszurichtende Komponente handgeführt solange in der Position und Orientierung verändert, bis die räumlichen Unterschiede zwischen der Soll- und Ist-Ausrichtung gemäß individueller Aufgabenstellung klein genug sind. Es ist allerdings genauso möglich, die Komponente mit maschineller Unterstützung auszurichten. Die Komponente kann dann mit Maschinenkraft hinsichtlich ihrer Position und Orientierung verändert werden (z.B. mit einem Industrieroboter). Dies ist insbesondere dann empfehlenswert, wenn es sich um große und oder schwere Komponenten handelt, oder die Handausrichtung zu unpräzise ist.
  • Weiterhin kann es sehr vorteilhaft sein, die Ausrichtung in einem Regelkreis automatisiert durchzuführen. Dazu werden aus den 3D-Abweichungsvektoren des n-ten Ablaufzyklus zwischen identischen Geometrieelementen der auszurichtenden Komponente Translations- und Rotationsparameter abgeleitet, mit denen die maschinell geführte Komponente vollautomatisiert in die berechnete Soll-Lage gebracht werden kann. Durchschnittlich wird das im Regelkreis automatisierte Verfahren innerhalb weniger Zyklen eine hinreichend exakte Ausrichtung mit hoher Geschwindigkeit und Wiederholgenauigkeit ermöglichen.
  • Die zur Durchführung des erfindungsgemäßen Verfahrens eingesetzte Vorrichtung umfasst vorzugsweise eine Beleuchtungseinheit, mindestens zwei Bildaufnahmeeinheiten, eine Steuereinheit, eine Auswerteeinheit sowie optional eine graphische Anzeigeeinheit.
  • Die Aufgabe der Beleuchtungseinheit ist die Ausleuchtung der Ausrichtungsszene. Es muss gewährleistet sein, dass die Merkmale der Komponente messtechnisch erfasst werden können. Die Beleuchtungseinheit kann vielfältig gestaltet sein. In einfacher Ausführung kann eine gewöhnliche Standard-Lichtquelle wie z.B. eine Tisch- oder Deckenleuchte verwendet werden. Sinnvoll ist aber der Einsatz von hochwertigen Beleuchtungsquellen, um eine möglichst lichtstarke und homogene Lichtausleuchtung zu erhalten. Dies kann zum Beispiel durch eine LED-Lichtquelle erzielt werden.
  • Mit Hilfe der mindestens zwei räumlich getrennten Bildaufnahmeeinheiten werden zweidimensionale Messbilder der auszurichtenden Komponente aufgenommen. Typischerweise werden Hochleistungskameras inklusive einer passenden Optik eingesetzt, so dass die Messbilder eine hohe Auflösung und ein günstiges Signal-Rauschverhältnis bieten. Dadurch kann die Position der Merkmale der Komponente in den Bildern optimal bestimmt werden.
  • Die Bildaufnahmeeinheiten können so durch eine entsprechende Konstruktion miteinander starr verbunden sein, dass sich ihre relative Orientierung bei Umpositionierung des Sensors nicht verändert. Es ist ebenfalls möglich, dass die Bildaufnahmeeinheiten nicht fest miteinander verbunden sind. Analog sind die starre und die nicht starre Ausgestaltung der Beleuchtungseinheit bezüglich der Bildaufnahmeeinheiten möglich.
  • Die Aufgabe der Steuerungseinheit ist die Steuerung der mindestens zwei Bildaufnahmeeinheiten und je nach Ausgestaltung der Vorrichtung ebenfalls der Beleuchtungseinheit. Die Steuerungseinheit umfasst im Allgemeinen mehrere miteinander gekoppelte elektrische Bauelemente. Weiterer Bestandteil ist eine hardwarenahe Software, welche im Zusammenwirken mit den elektrischen Bauelementen, die Steuerung durchführt. Die Bildaufnahmeeinheiten und je nach Ausgestaltung die Beleuchtungseinheit sind per Kabel mit der Steuerungseinheit verbunden. Möglich und vorteilhaft ist ebenfalls eine kabellose Datenübertragung z.B. per WLAN.
  • Die Auswerteeinheit ist zuständig für die Berechnung der räumlichen Unterschiede zwischen der Soll- und Ist-Ausrichtung der auszurichtenden Komponente. Dazu berechnet sie auf Grundlage der zweidimensionalen Messbilder der mindestens zwei Bildaufnahmeeinheiten die 3D-Position der Merkmale der Komponente im Sensor-Koordinatensystem. Anschließend wird durch ein „mathematisches Einschwenken“ (Transformation) die Ist-Position der Merkmale und der Komponente im Ziel-Koordinatensystem bestimmt. Nachfolgend wird über eine räumliche Transformation die Positions- und Orientierungsabweichung zwischen der Ist- und der Sollposition der Merkmale bestimmt. Im Folgenden werden daraus die räumlichen Unterschiede ausgewählter Geometrien der Komponente zwischen der Soll- und Ist-Ausrichtung berechnet.
  • Die Aufgabe der graphischen Anzeigeeinheit umfasst die Darstellung der räumlichen Abweichungen ausgewählter Geometrien der auszurichtenden Komponente. Im Allgemeinen wird die graphische Anzeigeeinheit durch einen handelsüblichen Monitor umgesetzt.
  • Sofern die Ausrichtung in Echtzeit erfolgen soll, sind hochwertige Elemente für die Vorrichtung einzusetzen, die eine schnelle Bearbeitung ihrer jeweiligen Teilaufgabe ermöglichen. Ebenfalls muss die Kommunikation zwischen den einzelnen Elementen schnell und reibungslos verlaufen. Die Bildaufnahmeeinheiten müssen sich durch eine hohe Bildmessrate und hohe Auslesegeschwindigkeiten auszeichnen. Die Steuereinheit muss so ausgestaltet sein, dass eine kontinuierliche Kommunikation mit den Bildaufnahmeeinheiten und je nach Ausgestaltung mit der Beleuchtungseinheit möglich ist. Die Messbilder müssen umgehend an die Auswerteeinheit übertragen und dort mit hoher Geschwindigkeit ausgewertet werden. Anschließend erfolgt die zeitnahe Darstellung auf der graphischen Anzeigeeinheit.
  • In einer vorteilhaften Ausführung ist die Beleuchtungseinheit in Form einer Musterprojektionseinheit ausgestaltet. Dadurch können ein oder mehrere Muster auf die Komponente projiziert werden, so dass aus den aufgenommenen Musterbildern der beteiligten Bildaufnahmeeinheiten die 3D-Geometrie sowie aus Farb- oder Grauwertbildern die Position und Orientierung der messtechnisch erfassbaren Merkmale zur 3D-Geometrie bestimmt werden kann. Analog kann dieses für den in einer vorteilhaften Ausgestaltung genutzten Objektverbund geschehen. Die Musterprojektionseinheit kann sowohl auf bewährte Dia-Techniken zurückgreifen, bei denen ein Musterdia bezüglich der Lichtquelle translatiert oder rotiert wird. Ebenfalls ist der Einsatz von programmierbaren Musterprojektionseinheiten basierend auf Liquid-Crystal-On-Silicon (LCOS)-, Digital Micromirror Device (DMD)- oder Liquid-Crystal-Display (LCD)-Projektoren denkbar.
  • Sofern die Vorrichtung eine programmierbare Musterprojektionseinheit handelt, ist es möglich, die räumlichen Abweichungen zwischen der Soll- und Ist-Ausrichtung direkt auf der auszurichtenden Komponente abzubilden. Die Abweichungen werden dann über eine Datenübertragung an die Steuerungseinrichtung übermittelt, welche diese dann als Steueranweisung an den Musterprojektor übergibt.
  • In einer günstigen Ausgestaltung werden mehrere Komponenten gleichzeitig ausgerichtet. Die Vorrichtung muss dabei in der Lage sein, die messtechnisch erfassten Merkmale der jeweilig richtigen Komponente zuzuordnen. Dies kann zum Beispiel dadurch geschehen, dass jede auszurichtende Komponente einzigartige Merkmale hat z.B. durch die Verwendung von codierten Marken oder Musterunikaten.
  • Sofern die Ausrichtung in einem Regelkreis automatisiert erfolgt, muss die Vorrichtung um eine maschinelle Ausrichtungseinheit erweitert werden. Dies kann zum Beispiel in Form eines Industrieroboters ausgestaltet sein, der die Komponente mit Hilfe eines Greifwerkzeuges führt. Aus den räumlichen Lageunterschieden der verwendeten Geometrien der Komponente oder äquivalent anhand der Soll-Ist-Unterschiede der messtechnisch erfassten Merkmale der Komponente müssen die Positions- und Orientierungsanweisungen von der Auswerteeinheit an die maschinelle Ausrichteeinheit in seinem zugehörigen Koordinatensystem (= Roboter-Koordinatensystem) übertragen werden. Dazu muss die Position und Ausrichtung zwischen dem Roboter-Koordinatensystem und dem Sensor-Koordinatensystem bekannt sein.
  • Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen mit den beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1 – Skizze einer Vorrichtung zum Ausrichten einer Komponente bei vorbekannter Lage und Orientierung eines Sensor-Koordinatensystems zum Ziel-Koordinatensystem;
  • 2 – Skizze einer Vorrichtung zum Ausrichten einer Komponente relativ zu einem Objektverbund;
  • 3 – Skizze einer Vorrichtung zum automatisierten Ausrichten einer Komponente relativ zu einem Objektverbund in einem Regelkreis.
  • 1 zeigt eine schematische Darstellung zur Ausrichtung einer Komponente 1 in einer typischen Ausgestaltung. Das Ziel des Ausrichtvorgangs ist das Ausrichten der Komponente 1 in eine definierte Solllage im Ziel-Koordinatensystem. In der Zeichnung ist die aktuelle Ist-Lage der Komponente 1 anhand der durchzogenen Liniendarstellung und die Soll-Lage anhand der gestrichelten Liniendarstellung kenntlich gemacht. Die Komponente 1 umfasst mehrere (≥ 3) optisch erkennbare Merkmale 2, wie z.B. uncodierte Marken. Die Geometrie der auszurichtenden Komponente 1 ist in Form eines 3D-Messdatensatzes bekannt, der vor dem Ausrichtvorgang durch ein Musterprojektionsverfahren (z.B. Streifenprojektion) bestimmt wurde. Im Zuge der Bestimmung der Geometrie der Komponente 1 wurde parallel durch ein Merkmalsextraktionsverfahren die Lage und Orientierung der uncodierten Marken 2 zur Komponente 1 ermittelt. Gleichartig könnte aber auch die Geometrie der Komponente 1 sowie die Lage und Orientierung der uncodierten Marken 2 zur Komponente 1 anderweitig vorbekannt sein.
  • Die Vorrichtung zur Ausrichtung einer Komponente beinhaltet unter anderem zwei räumlich versetzte Bildaufnahmeeinheiten 3 und 4 sowie eine Beleuchtungseinheit 5. In der gezeigten Ausführung sind diese drei Einheiten 3, 4, 5, die zusammen eine Positionsmesseinheit bilden, in einem Sensor starr miteinander verbunden. Wie bereits erwähnt, ist es für die Vorrichtung und das Verfahren nicht zwingend, dass diese drei Einheiten 3, 4, 5 starr miteinander verbunden sind. Möglich ist ebenso eine freie, getrennte Anordnung der Bildaufnahme- und Beleuchtungseinheiten 3, 4, 5. Die Positionsmesseinheit wird durch eine Steuereinheit 6 gesteuert. Die Kommunikation erfolgt über eine Kabelverbindung. Denkbar ist aber ebenfalls eine kabellose Datenübertragung z.B. per Funk. Die von den Bildaufnahmeeinheiten 3 und 4 aufgenommenen Messbilder der Komponente 1 werden über die Steuereinheit 6 an die Auswerteeinheit 7 übermittelt. Die räumlichen Unterschiede zwischen identischen Geometrieelementen der Komponente 1 werden durch die Auswerteinheit 7 berechnet und über die verbundene graphische Anzeigeeinheit 8 visualisiert. Da wie bereits erwähnt, der 3D-Messdatensatz vor dem Ausrichtvorgang messtechnisch bestimmt wurde, ist in diesem Fall die Beleuchtungseinheit 5 als Musterprojektor ausgestaltet. Für den eigentlichen Ausrichtungsvorgang ist die Herkunft allerdings unerheblich, so dass der 3D-Messdatensatz auch durch einen anderen Sensor bestimmt werden kann und die Beleuchtungseinheit 5 rein der Szenenbeleuchtung dient.
  • Das Ausrichtungsverfahren läuft wie folgt ab. Anhand der zwei räumlich versetzten Bildaufnahmeeinheiten 3 und 4 werden die 2D-Bildkoordinaten mindestens dreier uncodierter Marken 2 erfasst. Anhand eines photogrammetrischen Vorwärtsschnittes werden die 3D-Positionen der uncodierten Marken 2 im Sensor-Koordinatensystem bestimmt. Dazu müssen die relative Orientierung der Bildaufnahmeeinheiten 3 und 4 zueinander sowie der Maßstab aus einem geeigneten Kalibrierverfahren vorbekannt sein. Aufgrund der bekannten Position und Orientierung der uncodierten Marken 2 bezüglich der Komponente 1 ist nun ebenfalls die Position und Orientierung der Komponente 1 im Sensor-Koordinatensystem bekannt. Im nachfolgenden Schritt wird die Komponente 1 anhand der uncodierten Marken 2 in das Ziel-Koordinatensystem „mathematisch eingeschwenkt“, d.h. die im Sensor-Koordinatensystem bestimmten Positionskoordinaten zur Beschreibung der Lage der Komponente im Sensor-Koordinatensystem werden durch Koordinatentransformation in das Ziel-Koordinatensystem transformiert. Dazu wird die Position und Orientierung des Ziel-Koordinatensystems relativ zu dem Sensor-Koordinatensystem benötigt. Im vorliegenden Beispiel ist diese a priori bekannt. Anschließend wird anhand einer Transformation die Positions- und Orientierungsabweichung zwischen Ist- und Sollposition der uncodierten Marken 2 bestimmt. Anhand der daraus abgeleiteten Transformationsparameter ist es nun möglich, jeweils einzelne Dreieckspunkte des 3D-Messdatensatzes der Komponente 1 aus der Ist-Position in die Soll-Position einzuschwenken und nachfolgend den räumlichen 3D-Abweichungsvektor zu berechnen. Alternativ kann in diesem Beispiel auch auf die Transformation verzichtet werden, da die Soll-Position jedes 3D-Messdatenpunktes vor dem Ausrichtprozess bekannt ist. Aus jedem 3D-Abweichungsvektor wird danach der metrische Abstand bestimmt. Die Komponente 1 wird anschließend zusammen mit den überlagerten metrischen Abständen der Dreieckspunkte des 3D-Messdatensatzes graphisch dargestellt. Die Verfahrensschritte werden iterativ wiederholt, während die Komponente 1 von Hand unter Berücksichtigung der graphisch angezeigten metrischen Abstände in die Solllage überführt wird. Die Ausrichtung wird beendet, sobald die metrischen Abstände zwischen Ist-Ausrichtung und Soll-Ausrichtung entsprechend der Aufgabenstellung vernachlässigbar sind.
  • Im erläuterten Beispiel gibt es ausschließlich eine Geometriebeschreibung der Komponente 1 inklusive der Position und Orientierung der uncodierten Marken 2, nämlich den 3D-Messdatensatz. Es ist genauso denkbar, dass es weiterhin von der Komponente einen CAD-Datensatz inklusive der Lage und Orientierung der uncodierten Marken 2 gibt, mit dessen Hilfe die Solllage der Komponente 1 im Ziel-Koordinatensystem definiert ist. Der Ausrichtevorgang funktioniert dann praktisch identisch, wobei wie oben erläutert, homologe Geometriepunkte – in diesem Fall also undifferenzierte Oberflächenpunkte – für beide verwendeten Datensätze zu bestimmen sind. Sofern die Formunterschiede zwischen dem CAD-Datensatz und dem 3D-Messdatensatz im Vergleich zur zu erzielenden Genauigkeit der Ausrichtung vernachlässigbar sind, kann auch auf die Bestimmung homologer Geometriepunkte anhand des Einschwenkens der Geometriepunkte der Ist-Position in die Soll-Position zurückgegriffen werden. Ein aufwendiges Bestimmen von Partnerpunkten zwischen den beiden Datensätzen ist dann nicht mehr nötig.
  • 2 zeigt eine weitere schematische Darstellung zur Ausrichtung einer Komponente 1 in einer beispielhaften Ausgestaltung. Das Ziel des Ausrichtvorgangs ist wiederum das Ausrichten der Komponente 1 in der definierten Solllage im Ziel-Koordinatensystem. Die Position und Orientierung des Ziel-Koordinatensystems wird definiert durch einen Objektverbund 9, der aus einem Objekt besteht. Auf dem Objekt 9 sind mehrere uncodierte Marken 10 aufgebracht. Ferner beinhaltet das Objekt 9 beispielhaft mehrere Halbkugeln 11. Sowohl für die Komponente 1 als auch das Objekt 9 steht ein CAD-Datensatz inklusive der Position und Orientierung der zugehörigen uncodierten Marken 2 und 10 sowie im Falle des Objektes 9 der zugehörigen Halbkugeln 11 zur Verfügung, wobei der CAD-Datensatz der Komponente 1 bezüglich des CAD-Datensatzes des Objektes 9 ausgerichtet ist. Die Solllage der Komponente 1 bezüglich des Objektes 9 ist somit bekannt.
  • Das Ausrichtungsverfahren läuft wie folgt ab. Anhand der zwei räumlich versetzten Bildaufnahmeeinheiten 3 und 4 werden die 2D-Bildkoordinaten mindestens dreier uncodierter Marken 2 der Komponente 1 sowie mindestens dreier uncodierter Marken 10 des Objektes 9 erfasst. Anhand eines photogrammetrischen Vorwärtsschnittes werden die 3D-Positionen der uncodierten Marken 2 der Komponente 1 sowie der uncodierten Marken 10 des Objektes 9 im Sensor-Koordinatensystem bestimmt. Aufgrund der bekannten Position und Orientierung der uncodierten Marken 2 bezüglich der Komponente 1 ist nun die Position und Orientierung der Komponente 1 im Sensor-Koordinatensystem bekannt. Analog ist ebenfalls die Position und Orientierung des Objektes 9 anhand der gemessenen Position der uncodierten Marken 10 des Objektes 9 im Sensor-Koordinatensystem bekannt. Mit Hilfe der bekannten Position der uncodierten Marken 10 des Objektes 9 im Sensor-Koordinatensystem und (anhand des CAD-Datensatzes) im Ziel-Koordinatensystem können die Transformationsparameter zwischen Sensor-Koordinatensystem und Ziel-Koordinatensystem berechnet werden. Im nachfolgenden Schritt werden im Gegensatz zum ersten Beispiel nur ausgewählte Geometrieelemente, namentlich die charakteristischen Eckpunkte der Komponente 1 anhand der uncodierten Marken 2 in das Ziel-Koordinatensystem mathematisch eingeschwenkt. Anschließend wird anhand einer Transformation die Positions- und Orientierungsabweichung zwischen Ist- und Sollposition der uncodierten Marken 2 bestimmt. Anschließend werden die ausgewählten Geometrieelemente der Komponente 1 anhand der daraus abgeleiteten Transformationsparameter aus der Ist-Position in die Soll-Position eingeschwenkt und nachfolgend der jeweilige räumliche 3D-Abweichungsvektor berechnet. Die auszurichtende Komponente 1 sowie die 3D-Abweichungsvektoren der Eckpunkte werden graphisch dargestellt. Die Verfahrensschritte werden iterativ wiederholt, während die Komponente 1 von Hand unter Berücksichtigung der graphisch angezeigten 3D-Abweichungsvektoren in die Solllage überführt wird. Die Ausrichtung wird beendet, sobald die 3D-Abweichungsvektoren zwischen Ist-Ausrichtung und Soll-Ausrichtung entsprechend der Aufgabenstellung vernachlässigbar sind.
  • Wichtig ist, dass das Verfahren auch funktioniert, wenn die Position und Orientierung des Sensors sich zum Objekt 9 ändert, da innerhalb eines Ablaufzyklus jedes Mal die Transformationsparameter zwischen Sensor-Koordinatensystem und Ziel-Koordinatensystem anhand der uncodierten Marken 10 ermittelt werden. Das Verfahren ist in dieser Ausgestaltung besonders flexibel, da der Sensor in seiner Position und Orientierung beliebig vor beziehungsweise während der Ausrichtung geändert werden kann, solange mindestens drei uncodierte Marken 2 der Komponente 1 und mindestens drei uncodierte Marken 10 des Objektes 9 im Sensormessvolumen gemessen werden können.
  • Sofern die Beleuchtungseinheit 5 als Musterprojektor ausgestaltet ist, kann die Ausrichtung ebenfalls mit Hilfe der Halbkugeln 11 des Objektes 9 statt der uncodierten Marken 10 durchgeführt werden. Dazu werden je nach dem verwendeten Musterprojektionsverfahren ein oder mehrere Muster sowie ein uniformes Beleuchtungsbild nacheinander projiziert und jeweils mit beiden Bildaufnahmeeinheiten 3 und 4 je ein 2D-Bild pro Muster und uniformer Beleuchtung aufgenommen. Nachfolgend werden 3D-Daten der kompletten Szene bestehend aus Objekt 9 und Komponente 1 im Sensor-Koordinatensystem berechnet. Danach werden je Halbkugel 11 die zugehörigen 3D-Daten selektiert und eine Kugel gefittet. Im einfachsten Fall erfolgt die Selektion manuell. In weiteren Ablaufzyklen, kann dann automatisiert die Selektion der 3D-Daten je Halbkugel 11 erfolgen, sofern sich die Position und Orientierung des Sensors relativ zum Objekt 9 sich nicht oder nur unwesentlich ändert. In diesen Fällen ist die Position der 3D-Daten je Halbkugel 11 im Sensor-Koordinatensystem hinreichend gut bekannt. Alternativ kann auch völlig auf eine manuelle Selektion verzichtet werden, wenn ein geeigneter Algorithmus zur automatischen Bestimmung der 3D-Daten je Halbkugel 11 eingesetzt wird. Verfahren zur automatischen Bestimmung der 3D-Daten je Kugel, die auf die Halbkugeln angewendet werden können, sind hinreichend bekannt. Anhand des bekannten Durchmessers der Halbkugeln 11 können diese im 3D-Datensatz automatisch bestimmt werden.
  • Für den Ausrichtvorgang können die uncodierten Marken 10 und die Halbkugeln 11 ebenfalls gemeinsam genutzt werden. Genauso ist es möglich, dass weitere messtechnisch erfassbare Geometrien, die zum Beispiel Teil der auszurichtenden Komponente 1 (in der vereinfachten 2 nicht dargestellt) sind, für den Ausrichtvorgang verwendet werden. Für eine Ausrichtung mit einer hohen Ablauffrequenz ist jedoch wichtig, dass die notwendigen Teilschritte insbesondere die bei der Verwendung von Geometrien (als messtechnisch zu erfassende Merkmale) notwendige 3D-Datenerfassung, Selektion und Auswertung möglichst schnell und automatisiert erfolgen.
  • 3 zeigt den Ausrichtprozess aus 2, wobei die Ausrichtung in einem Regelkreis erfolgt. Die dafür notwendige Vorrichtung wird dafür um eine Ausrichteinheit 13 (Positionierungseinheit), eine Steuerpositionierungseinheit 12 sowie eine Aufnahmeeinheit 14 erweitert. Die Positionierungseinheit 13 kann mit Hilfe der fest verbundenen Aufnahmeeinheit 14 die auszurichtende Komponente 1 aufnehmen und in ihrer Position und Orientierung frei verändern. In der Regel ist die Positionierungseinheit 13 als Industrieroboter ausgestaltet. Die Positionierungseinheit 13 besitzt ein eigenes Roboter-Koordinatensystem in dem die Positionierungseinheit 13 bewegt und orientiert werden kann. Die Positionierungseinheit 13 wird über eine Steuerpositionierungseinheit 12 gesteuert, welche wiederum mit der Auswerteeinheit 7 verbunden ist. Die Kommunikation zwischen Auswerteeinheit 7 und Steuerpositionierungseinheit 12 sowie Steuerpositionierungseinheit 12 und Positionierungseinheit 13 erfolgt jeweils über eine Kabelverbindung. Möglich wäre aber ebenfalls eine drahtlose Datenübertragung zum Beispiel per Funk.
  • Für das Verfahren ist es notwendig, dass nach der Aufnahme der Komponente 1 durch die Aufnahmeeinheit 14 die Position und Orientierung der auszurichtenden Komponente 1 bezüglich des Roboter-Koordinatensystems in hinreichender Genauigkeit bekannt ist. Für diesen Sachverhalt existieren eine Reihe von einleitend zitierten, bekannten Lösungen und Verfahren, so dass dieser Aspekt nicht weiter vertieft werden muss. Weiterhin ist es für die Ausrichtung nicht notwendig, dass die Position und Orientierung des Roboter-Koordinatensystems zum Ziel-Koordinatensystem vorab bekannt ist. Diese Information wird aber während des Ausrichtprozesses bestimmt. Die aktuelle Position und Orientierung der Komponente 1 im Ziel-Koordinatensystem ist eine Information, die nach jedem Durchlaufzyklus zur Verfügung steht. Ebenfalls ist die aktuelle Position und Orientierung der Komponente 1 im Roboter-Koordinatensystem bekannt. Somit können die Transformationsparameter zwischen Ziel-Koordinatensystem und Roboter-Koordinatensystem anhand identischer Komponentenpunkte berechnet werden. Die Bestimmung der Transformationsparameter kann natürlich auch anhand der messtechnisch erfassbaren Merkmale (in diesem Fall die uncodierten Marken 2) erfolgen.
  • Analog zum Ausführungsbeispiel in 2 sind für die Komponente 1, als auch das Objekt 9 ein CAD-Datensatz inklusive der Position und Orientierung der zugehörigen uncodierten Marken 2 und 10 sowie im Falle des Objektes 9 der zugehörigen Halbkugeln 11 vorhanden, wobei der CAD-Datensatz der Komponente 1 bezüglich des CAD-Datensatzes des Objektes 9 ausgerichtet ist. Die Solllage der Komponente 1 bezüglich des Objektes 9 ist somit im Ziel-Koordinatensystem bekannt.
  • Der Ausrichtprozess läuft wie folgt ab. Die Positionierungseinheit 13 nimmt die auszurichtende Komponente 1 mit Hilfe der Aufnahmeeinheit 14 auf. Die Position und Orientierung zwischen der aufgenommenen Komponente 1 und dem Roboter-Koordinatensystem ist wie ausgeführt bekannt. Analog zum Ausführungsbeispiel in 2 wird die aktuelle Position und Orientierung ausgewählter Geometrieelemente der Komponente 1 im Ziel-Koordinatensystem durch Messung der uncodierten Marken 2 der Komponente 1 und Messung der uncodierten Marken 10 und/oder der Halbkugeln 11 des Objektes 9 bestimmt. Daraus können die 3D-Abweichungsvektoren der Eckpunkte der Komponente 1 berechnet und graphisch dargestellt werden. Aus der bekannten Position und Orientierung der Komponente 1 (bzw. analog der uncodierten Marken 2) im Ziel-Koordinatensystem und im Roboter-Koordinatensystem können die Transformationsparameter zwischen dem Ziel-Koordinatensystem und dem Roboter-Koordinatensystem bestimmt werden. Anschließend können die 3D-Abweichungsvektoren in das Roboter-Koordinatensystem transformiert werden, so dass auf Basis dieser Daten die Steuerpositionierungseinheit 12 die entsprechenden Positions- und Orientierungsanweisungen zur Ausrichtung an die Positionierungseinheit 13 übertragen kann. Die Ausrichtung erfolgt vollautomatisch. Sie ist beendet, wenn die Abweichungen zwischen der Ist- und Soll-Lage der Komponente 1 im Ziel-Koordinatensystem entsprechend der Aufgabenstellung vernachlässigbar ist.
  • Wie im Ausführungsbeispiel 2 ist die Position und Orientierung des Ziel-Koordinatensystems anhand des Objektes 9 festgelegt. Verändert sich die Position und/oder Orientierung des Objektes 9 bezüglich des Sensor-Koordinatensystem so wandert ebenfalls das Ziel-Koordinatensystem mit. Ebenfalls ändern sich damit die Positions- und Orientierungsbeziehungen zwischen Ziel-Koordinatensystem und Roboter-Koordinatensystem. Die Veränderung zwischen dem Sensor-Koordinatensystem und dem Ziel-Koordinatensystem wird durch das Messen der uncodierten Marken 10 und/oder der Halbkugeln 11 bestimmt. Werden ebenfalls die uncodierten Marken 2 der Komponente 1 gemessen, so können wiederum die Positions- und Orientierungsbeziehungen zwischen Ziel-Koordinatensystem und Roboter-Koordinatensystem berechnet werden. Praktisch heißt das, dass die Position und Orientierung des Sensors und/oder des Objektes 9 vor oder sogar während der Ausrichtung verändert werden kann. Die Ausrichtung kann immer noch gleichartig durchgeführt werden, solange mindestens drei uncodierte Marken 2 der Komponente 1 und mindestens drei uncodierte Marken 10 und/oder Halbkugeln 11 des Objektes 9 im Sensormessvolumen gemessen werden können und die Reichweite der Positionierungseinheit 13 nicht erschöpft ist.
  • Somit kann das Ausführungsbeispiel dahingehend erweitert werden, dass der Ausrichtprozess innerhalb einer industriellen Fertigungsstraße in schneller zeitlicher Reihenfolge gleichartig wiederholt wird. Auf einer Bewegungseinrichtung (z.B. Förderband) wird das Objekt 9 in Reichweite des Sensors und der Positionierungseinrichtung 13 gefahren. Die Position und Orientierung des Objektes 9 ist prozessbedingt jedes Mal leicht anders. Anhand mindestens drei gemessener uncodierten Marken 10 und/oder Halbkugeln 11 wird die Position und Orientierung zwischen Sensor-Koordinatensystem und Ziel-Koordinatensystem bestimmt. Die auszurichtende Komponente 1 wird durch die Aufnahmeeinheit 14 aufgenommen und in das Sensormessvolumen verfahren. Durch Bestimmung der Position und Orientierung der Komponente 1 im Ziel-Koordinatensystem anhand der uncodierten Marken 2 und der bekannten Position und Orientierung der Komponente 1 im Roboter-Koordinatensystem können nachfolgend die berechneten 3D-Abweichungsvektoren der Eckpunkte der Komponente im Ziel-Koordinatensystem in das Roboter-Koordinatensystem transformiert werden und entsprechende Positions- und Orientierungskorrekturen durch die Auswerteinheit 7 über die Steuerpositionierungseinheit 12 an die Positionierungseinheit 13 übertragen werden. Nach erfolgter Ausrichtung können weitere Bearbeitungsschritte (z.B. Verschweißen von Komponente 1 und Objekt 9) folgen. Anschließend wird die ausgerichtete Kombination aus Komponente und Objekt über die Bewegungseinrichtung abtransportiert und der Prozess für die nächste gleichartige Komponente 1 und Objekt 9 wiederholt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009053132 A1 [0005]
    • EP 1841570 A1 [0007]
    • EP 417320 A1 [0007]
    • US 2009118864 A1 [0007]
  • Zitierte Nicht-Patentliteratur
    • Rüdiger Gillhaus, Olaf Gümmer, Markus Kästner, Eduard Reithmeier und Berend Denkena: Aktive Bauteilausrichtung. Erschienen in Qualität und Zuverlässigkeit 01/2011, Seite 43–45 [0004]
    • Fredie Kern: Automatisierte Modellierung von Bauwerksgeometrien aus 3D-Laserscanner-Daten. Dissertation, TU-Braunschweig, Geodätische Schriftenreihe der Technischen Universität Braunschweig Nr. 19, 2003 [0006]

Claims (18)

  1. Verfahren zur Ausrichtung einer Komponente (1) in eine vorgegebene Soll-Lage, gekennzeichnet durch – optisches Vermessen der Positionen von mindestens drei Merkmalen (2) der Komponente (1), deren Lage zur Komponente (1) bekannt sind, und – Bestimmen der Lageabweichung der Komponente (1) zwischen der mittels der Positionen der Merkmale (2) ermittelten Ist-Lage der Komponente (1) und der vorgegebenen Soll-Lage.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das optische Vermessen der Positionen der festgelegten Merkmale (2) der Komponente (1) in einem Sensor-Koordinatensystem einer optischen Positionsmesseinheit erfolgt und die Soll-Lage in einem Ziel-Koordinatensystem vorgegeben ist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Ziel-Koordinatensystem von dem Sensor-Koordinatensystem unterschiedlich ist und eine Transformation der im Sensor-Koordinatensystem bestimmten Positionen der Merkmale oder der bereits im Sensor-Koordinatensystem ermittelten Ist-Lage der Komponente in das Ziel-Koordinatensystem erfolgt, um die Lageabweichung im Ziel-Koordinatensystem zu bestimmen.
  4. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Bestimmen der Lageabweichung zwischen den ermittelten Ist-Positionen der Merkmale (2) und den aus der vorgegebenen Soll-Lage der Komponente (1) ermittelten Soll-Positionen der Merkmale (2).
  5. Verfahren nach einem der Ansprüche 1 bis 3, gekennzeichnet durch Bestimmen der Lageabweichung zwischen im festen Bezug zu den Merkmalen (2) stehenden Geometrieelementen der Komponente (1) in der Ist-Lage zu den korrespondierenden Geometrieelementen der Komponente (1) in der Soll-Lage.
  6. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Vorgeben der Soll-Lage durch mindestens ein Objekt (9), zu dem die Komponente (1) relativ ausgerichtet werden soll.
  7. Verfahren nach Anspruch 6, gekennzeichnet durch optisches Vermessen der Lage des mindestens einen Objekts (9) mittels mindestens drei Merkmalen (10, 11) des Objektes (9), deren Lage zum Objekt (9) bekannt sind, zeitlich versetzt oder gleichzeitig mit dem optischen Vermessen der Positionen der Merkmale (2) der Komponente (1).
  8. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Zugreifen auf eine geometrische Beschreibung der Komponente (1) und/oder des mindestens einen Objekts (9) in Form eines 3D-Datensatzes, insbesondere eines CAD-Datensatzes oder eines 3D-Messdatensatzes, bei der Bestimmung der Lageabweichung.
  9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Ermitteln der Geometrie der Komponente (1) und/oder des mindestens einen Objekts (9) sowie der Lage der festgelegten Merkmale (2, 10) der Komponente (1) oder eines Objekts (9) zur jeweiligen Komponente (1) oder Objekt (9) mittels Musterprojektions- und/oder Merkmalsextraktionsverfahren.
  10. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch grafisches Darstellen der Lageabweichung auf einem Bildschirm oder mittels Projektion direkt auf die auszurichtende Komponente (1).
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die grafische Darstellung der Lageabweichung der Komponente (1) mittels Falschfarbenbild oder einer Vektordarstellung erfolgt.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Merkmale (2, 10, 11) Marken, Muster und/oder charakteristische Geometrien genutzt werden.
  13. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Ansteuern einer Ausrichteinheit in Abhängigkeit von der bestimmten Lageabweichung zur Ausrichtung der Komponente (1).
  14. Vorrichtung zur Ausrichtung einer Komponente (1) in eine vorgegebene Soll-Lage mit einer Positionsmesseinheit zum optischen Vermessen der Positionen von mindestens drei festgelegten Merkmalen (2) der Komponente (1) und einer Auswerteinheit (7), die mit der Positionsmesseinheit verbunden ist, dadurch gekennzeichnet, dass die Auswerteinheit (7) zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche umfassend die Bestimmung der Lageabweichung der Komponente (1) zwischen der mittels der Positionen der Merkmale ermittelten Ist-Lage der Komponente (1) und der vorgegebenen Soll-Lage eingerichtet ist.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Positionsmesseinheit eine Beleuchtungseinheit (5) und mindestens zwei zur Erfassung der festgelegten Merkmale auf die Komponente (1) ausrichtbaren Bildaufnahmeeinheiten (3, 4) hat.
  16. Vorrichtung nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass die Vorrichtung mindestens eine mit der Auswerteinheit (7) verbindbare Anzeigeeinheit (8) zur graphischen Darstellung der Lageabweichung hat, wobei die Anzeigeeinheit (8) einen Bildschirm und/oder einen Projektor zur Projektion der graphischen Darstellung der Lageabweichung auf die Komponente (1) hat.
  17. Vorrichtung nach einem der Ansprüche 14 bis 16 dadurch gekennzeichnet, dass die Positionsmesseinheit eine auf die Komponente (1) und/oder ein Objekt (9), zu dem die Komponente (1) ausgerichtet werden soll, ausrichtbare Musterprojektionseinheit zur Projektion eines Musters auf die Komponente (1) und/oder das Objekt (9) hat, und dass die Auswerteinheit (7) zur Ermittlung der Geometrie der Komponente (1) und/oder des mindestens einen Objekts (9) sowie der Lage der festgelegten Merkmale (2, 10, 11) einer Komponente (1) oder eines Objekts (9) zur jeweiligen Komponente (1) oder Objekt (9) mittels Musterprojektions- und/oder Merkmalsextraktionsverfahren eingerichtet ist.
  18. Vorrichtung nach einem der Ansprüche 14 bis 17, gekennzeichnet durch eine Ausrichteinheit (13) zur Ausrichtung der Komponente (1), wobei die Ausrichteinheit (13) mit der Auswerteeinheit (7) verbindbar und in Abhängigkeit von der mit der Auswerteeinheit (7) bestimmten Lageabweichung zur Ausrichtung der Komponente (1) ansteuerbar ist.
DE201210103980 2012-05-07 2012-05-07 Verfahren und Vorrichtung zur Ausrichtung einer Komponente Ceased DE102012103980A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210103980 DE102012103980A1 (de) 2012-05-07 2012-05-07 Verfahren und Vorrichtung zur Ausrichtung einer Komponente

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210103980 DE102012103980A1 (de) 2012-05-07 2012-05-07 Verfahren und Vorrichtung zur Ausrichtung einer Komponente

Publications (1)

Publication Number Publication Date
DE102012103980A1 true DE102012103980A1 (de) 2013-11-07

Family

ID=49384420

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210103980 Ceased DE102012103980A1 (de) 2012-05-07 2012-05-07 Verfahren und Vorrichtung zur Ausrichtung einer Komponente

Country Status (1)

Country Link
DE (1) DE102012103980A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206995A1 (de) * 2017-04-26 2018-10-31 Krones Aktiengesellschaft Handhabungsvorrichtung und Verfahren zum Umgang mit in mindestens einer Reihe hintereinander bewegten Stückgütern
CN111486788A (zh) * 2020-04-15 2020-08-04 上海工程技术大学 缝隙测量系统及测量方法
DE102019116735A1 (de) * 2019-06-20 2020-12-24 Jenoptik Automatisierungstechnik Gmbh Verfahren zur Kontrolle und Nacharbeitung eines Werkstückes mit einer lasergeschnittenen geschlossenen Innenkontur
AT522995A1 (de) * 2019-10-07 2021-04-15 Vexcel Imaging Gmbh Sensoranordnung
DE102019206977B4 (de) * 2019-05-14 2021-06-02 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts
DE102020216401B3 (de) 2020-12-21 2022-05-19 Siemens Aktiengesellschaft Verfahren zur automatisierten Unterstützung einer Inspektion und/oder Zustandsüberwachung von Objekten

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0417320A1 (de) 1989-03-31 1991-03-20 Fanuc Ltd. Verfahren zur fixierung des zentrierpunktes für roboter
EP1841570A1 (de) 2005-01-26 2007-10-10 Abb Ab Vorrichtung und verfahren zur kalibrierung des mittelpunkts von einem auf einem roboter angebrachtem werkzeug mithilfe einer kamera
US20090118864A1 (en) 2007-11-01 2009-05-07 Bryce Eldridge Method and system for finding a tool center point for a robot using an external camera
DE102009053132A1 (de) 2009-11-05 2011-05-12 Prüftechnik Dieter Busch AG Vorrichtung zur Messung der relativen Ausrichtung zweier Gegenstände und zur Schwingungsmessung und Verfahren zur Bestimmung einer Qualitätskennzahl

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0417320A1 (de) 1989-03-31 1991-03-20 Fanuc Ltd. Verfahren zur fixierung des zentrierpunktes für roboter
EP1841570A1 (de) 2005-01-26 2007-10-10 Abb Ab Vorrichtung und verfahren zur kalibrierung des mittelpunkts von einem auf einem roboter angebrachtem werkzeug mithilfe einer kamera
US20090118864A1 (en) 2007-11-01 2009-05-07 Bryce Eldridge Method and system for finding a tool center point for a robot using an external camera
DE102009053132A1 (de) 2009-11-05 2011-05-12 Prüftechnik Dieter Busch AG Vorrichtung zur Messung der relativen Ausrichtung zweier Gegenstände und zur Schwingungsmessung und Verfahren zur Bestimmung einer Qualitätskennzahl

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fredie Kern: Automatisierte Modellierung von Bauwerksgeometrien aus 3D-Laserscanner-Daten. Dissertation, TU-Braunschweig, Geodätische Schriftenreihe der Technischen Universität Braunschweig Nr. 19, 2003
Rüdiger Gillhaus, Olaf Gümmer, Markus Kästner, Eduard Reithmeier und Berend Denkena: Aktive Bauteilausrichtung. Erschienen in Qualität und Zuverlässigkeit 01/2011, Seite 43-45

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017206995A1 (de) * 2017-04-26 2018-10-31 Krones Aktiengesellschaft Handhabungsvorrichtung und Verfahren zum Umgang mit in mindestens einer Reihe hintereinander bewegten Stückgütern
DE102019206977B4 (de) * 2019-05-14 2021-06-02 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts
DE102019116735A1 (de) * 2019-06-20 2020-12-24 Jenoptik Automatisierungstechnik Gmbh Verfahren zur Kontrolle und Nacharbeitung eines Werkstückes mit einer lasergeschnittenen geschlossenen Innenkontur
AT522995A1 (de) * 2019-10-07 2021-04-15 Vexcel Imaging Gmbh Sensoranordnung
AT522995B1 (de) * 2019-10-07 2021-05-15 Vexcel Imaging Gmbh Sensoranordnung
US12025490B2 (en) 2019-10-07 2024-07-02 Vexcel Imaging Gmbh Sensor arrangement
CN111486788A (zh) * 2020-04-15 2020-08-04 上海工程技术大学 缝隙测量系统及测量方法
DE102020216401B3 (de) 2020-12-21 2022-05-19 Siemens Aktiengesellschaft Verfahren zur automatisierten Unterstützung einer Inspektion und/oder Zustandsüberwachung von Objekten

Similar Documents

Publication Publication Date Title
EP1497613B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
EP1711777B2 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
EP3872525A1 (de) Scananordnung und verfahren zum scannen eines objektes
DE102008023264B4 (de) Verfahren zur flexiblen Erfassung der geometrischen Form von Objekten mit optischer 3D-Messtechnik
DE102007033486A1 (de) Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt
DE102012220882A1 (de) System und Verfahren unter Verwendung eines Bearbeitungsinitialisierungsblocks in einer Teileprogramm-Bearbeitungsumgebung in einem Maschinenvisionssystem
DE102012112025A1 (de) Verfahren und Vorrichtungen zur Positionsbestimmung einer Kinematik
DE102008048963A1 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
EP3418680B1 (de) System und verfahren zur positionierungsmessung
DE102016106696A1 (de) Koordinatenmesssystem
DE102019102927B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102012023377B3 (de) Verfahren und Vorrichtung zur Messung der Position und Justage eines asphärischen Körpers
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE102006005990B4 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
AT522028A1 (de) Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102014016087A1 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE102019220247B4 (de) Verfahren und Anordnung zum optischen Kalibrieren von Drehachsen für Koordinatenmessungen
DE102014113977A1 (de) Verfahren zur Bestimmung zumindest eines Parameters bei der dimensionellen Messung mit einer Computertomografiesensorik
DE102005043070B4 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken
DE102016109919A1 (de) Vorrichtung zur Vermessung von Objekten
DE102011101509C5 (de) Verfahren zur optischen Vermessung einer Welle
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE

R081 Change of applicant/patentee

Owner name: CARL ZEISS GOM METROLOGY GMBH, DE

Free format text: FORMER OWNER: GOM - GESELLSCHAFT FUER OPTISCHE MESSTECHNIK MBH, 38106 BRAUNSCHWEIG, DE

Owner name: GOM GMBH, DE

Free format text: FORMER OWNER: GOM - GESELLSCHAFT FUER OPTISCHE MESSTECHNIK MBH, 38106 BRAUNSCHWEIG, DE

R082 Change of representative

Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: CARL ZEISS GOM METROLOGY GMBH, DE

Free format text: FORMER OWNER: GOM GMBH, 38122 BRAUNSCHWEIG, DE

R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final