DE102015204796A1 - Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts - Google Patents

Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts Download PDF

Info

Publication number
DE102015204796A1
DE102015204796A1 DE102015204796.2A DE102015204796A DE102015204796A1 DE 102015204796 A1 DE102015204796 A1 DE 102015204796A1 DE 102015204796 A DE102015204796 A DE 102015204796A DE 102015204796 A1 DE102015204796 A1 DE 102015204796A1
Authority
DE
Germany
Prior art keywords
camera
detection
sensor carrier
orientation
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102015204796.2A
Other languages
English (en)
Inventor
Nils Haverkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102015204796.2A priority Critical patent/DE102015204796A1/de
Priority to PCT/EP2016/054342 priority patent/WO2016146379A1/de
Publication of DE102015204796A1 publication Critical patent/DE102015204796A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2428Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring existing positions of tools or workpieces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/2452Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces
    • B23Q17/2471Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves for measuring features or for detecting a condition of machine parts, tools or workpieces of workpieces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • B23Q17/248Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods
    • B23Q17/249Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves using special electromagnetic means or methods using image analysis, e.g. for radar, infrared or array camera images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/0011Arrangements for eliminating or compensation of measuring errors due to temperature or weight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines

Abstract

Die Erfindung betrifft ein Koordinatenmessgerät (1), aufweisend • einen Sensor (7) zur Erfassung von Koordinaten eines Werkstücks, • einen beweglichen Sensorträger (6), der den Sensor (7) trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts (1) bewegbar ist, • eine Positionsbestimmungseinrichtung (10, 13; 23; 33) zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers (6), • eine Auswertungseinrichtung, die aus einer von der Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus Signalen des Sensors (7) Koordinaten des Werkstücks ermittelt, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Kamera (13; 23; 33) und zumindest eine von der Kamera (13; 23; 33) erfassbare Erfassungsstruktur (31) aufweist, wobei • die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger (6) gebildet ist oder • die Kamera (33) mit dem Sensorträger (6) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen (31) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) ausgestaltet ist, aus Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.

Description

  • Die Erfindung betrifft ein Koordinatenmessgerät (kurz: KMG), das einen Sensor zur Erfassung von Koordinaten eines Werkstücks aufweist. Das KMG hat einen beweglichen Sensorträger, der den Sensor trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des KMG bewegbar ist. Die Erfindung betrifft ferner ein Verfahren zum Betreiben eines derartigen Koordinatenmessgeräts.
  • Z.B. ist der Sensor ein Messkopf, der an einem beweglichen Teil (zum Beispiel einer Pinole oder einem Arm) des KMG angebracht ist. An dem Messkopf, kann insbesondere ein Taster (z.B. ein Taststift) angebracht sein, mit dem das KMG die Oberfläche des Werkstücks taktil antastet, um die Sensorsignale des Messkopfes zu erzeugen. Daher ist insbesondere auch ein Taster zum taktilen Antasten des zu vermessenden Werkstücks ein Beispiel für einen Sensor oder für einen Teil des Sensors.
  • Der Messkopf weist insbesondere eine Sensorik auf, die Messsignale erzeugt, durch deren Auswertung die Koordinaten ermittelt werden können. In der Koordinatenmesstechnik kommen jedoch auch andere Sensoren vor. Zum Beispiel kann der Sensor lediglich die Messung der Koordinaten auslösen. Dies ist zum Beispiel bei einem schaltenden Messkopf der Fall, der bei Kontakt mit dem zu vermessenden Werkstück ein Schaltsignal erzeugt, welches die Messung der Koordinaten z. B. durch Ablesung der Maßstäbe des oder der beweglichen Teile des KMG auslöst. Grundsätzlich können die Sensoren in durch Berührung (taktile Antastung des Werkstücks) und in nicht durch Berührung vermessende Sensoren eingeteilt werden. Zum Beispiel optische oder kapazitive Sensoren zur Koordinatenmessung sind Sensoren, die nicht auf dem Prinzip der taktilen Abtastung basieren. Auch ist es möglich, Sensoren nach der Art oder Größe des insbesondere gleichzeitig erfassten Bereichs des Werkstücks einzuteilen. Insbesondere können Sensoren Koordinaten lediglich eines Punktes oder einer Fläche an der Oberfläche oder auch im Inneren des Werkstücks messen oder Koordinaten eines Volumens des Werkstücks messen. Außerdem ist es möglich, verschiedene Sensoren gleichzeitig an demselben Sensorträger oder verschiedenen Sensorträger zu verwenden, entweder als separate Einheiten oder in eine gemeinsame Einheit integriert.
  • Es ist üblich, KMGs so auszugestalten, dass der Sensor gegen einen anderen Sensor ausgewechselt werden kann. In diesem Fall kann derjenige Teil des KMG, der die Schnittstelle zum Anbringen des jeweiligen Sensors aufweist, als Sensorträger bezeichnet werden. Jedoch kann auch derjenige Teil des angekoppelten Sensors, der in dem angekoppelten Zustand relativ zu der Ankopplungsschnittstelle unbeweglich ist, als Teil des Sensorträgers bezeichnet werden. Auch ist es, wie z.B. in dem bereits erwähnten Fall eines Messkopfes mit einem daran angebrachten taktilen Taster, möglich, zwei verschiedene Teile jeweils als Sensor zu bezeichnen. Wenn der eine Sensor den anderen Sensor trägt, kann der eine Sensor als Sensorträger des anderen Sensors bezeichnet werden.
  • Der Sensor dient der Erfassung von Koordinaten eines Werkstücks. Von dem Sensor erzeugte Signale aus einer Abtastung des Werkstücks reichen jedoch allein nicht aus, um die Koordinaten des Werkstücks im Koordinatensystem des Koordinatenmessgeräts ermitteln zu können. Hierzu ist außerdem Information über die Position und/oder Ausrichtung des Sensors erforderlich. Das KMG hat daher eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers, der den Sensor trägt, und damit des Sensors. Üblicherweise sind zusätzliche Bewegungsmesseinrichtungen mit den beweglichen Teilen des KMG kombiniert. Zum Beispiel sind eine Maßverkörperung, beispielsweise eine Maßstabsteilung mit Strichen, an einem Teil des KMG angeordnet und ein Messsignalgeber an einem relativ dazu beweglichen zweiten Teil des KMG angeordnet.
  • Eine Auswertungseinrichtung des KMG ermittelt aus einer von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors Koordinaten des Werkstücks.
  • Die Positionsbestimmung des Sensorträgers hängt von äußeren Einflüssen und dem jeweiligen Betriebszustand des KMG ab. Z.B. beeinflusst die Temperatur und Luftfeuchtigkeit die Positionsbestimmung. Ferner muss die Gewichtskraft eines an den Sensorträger angekoppelten Sensors berücksichtigt werden. Auch können sich Teile des KMG abhängig von der Position des Sensorträgers verbiegen. Die Geschwindigkeit der Bewegung der beweglichen Teile des KMG und die Beschleunigung beeinflussen ebenfalls die Positionsmessung. KMGs werden daher für bestimmte Umgebungsbedingungen und Betriebszustände kalibriert. Es muss dann darauf geachtet werden, dass die bei der Kalibrierung berücksichtigten Bereiche der Einflussgrößen während des Betriebes des KMG nicht verlassen werden. Aufgrund der Vielzahl der Einflussgrößen ist der Aufwand für die Kalibrierung und die entsprechenden Korrekturmodelle hoch. Ferner ist die trotz der Korrektur verbleibende Unsicherheit der von dem KMG gemessenen Messgrößen in verschiedenen Teilbereichen der Einflussgrößen unterschiedlich groß. Auch verändert sich das Verhalten des KMG im Laufe der Zeit, sodass die Kalibrierung wiederholt werden muss.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Koordinatenmessgerät mit einem Sensor zur Erfassung von Koordinaten eines Werkstücks und mit einem beweglichen Sensorträger sowie ein Verfahren zum Betreiben eines derartigen Koordinatenmessgeräts anzugeben, die den Aufwand für die Positionsbestimmung und/oder Ausrichtungsbestimmung des Sensors oder des Sensorträgers verringern.
  • Gemäß einem Grundgedanken der vorliegenden Erfindung wird die Position eines beweglichen Teils des KMG optisch mit zumindest einer Kamera erfasst. Bei dem beweglichen Teil kann es sich insbesondere um den Sensorträger des KMG handeln, wobei auch fest mit dem Sensorträger verbundene andere Teile, wie z.B. ein relativ zu dem Sensorträger unbeweglicher Teil des Sensors dem Sensorträger zuzurechnen sind. Auch sie sind fest mit dem Sensorträger verbunden und eignen sich daher für die optische Positionsbestimmung. Der Begriff der Positionsbestimmung wird im Folgenden für die Bestimmung der Position und/oder Ausrichtung verwendet, wenn sich aus dem Zusammenhang nichts anders ergibt. Bevorzugt wird die Bestimmung der Position und der Ausrichtung. Es gibt jedoch Konstruktionen von KMGs und Betriebssituationen, bei denen lediglich die Position oder lediglich die Ausrichtung variieren kann und daher zu bestimmen ist.
  • Die zumindest eine Kamera ist insbesondere eine Digitalkamera, die z.B. eine zweidimensionale Matrix von strahlungsempfindlichen Sensorelementen aufweist, die beim Betrieb der Kamera zweidimensionale Bilder des von der Kamera erfassten Bereichs erzeugt mit einer Anzahl von Pixeln entsprechend der Anzahl der Sensorelemente. Bei den Sensorelementen kann es sich z.B. um strahlungsempfindliche CMOS (Komplementäre Metalloxyd Halbleiter) Sensorelemente handeln. Alternativ oder zusätzlich kann die Kamera CCD (Ladungsgekoppelte Einrichtung) Sensorelemente aufweisen. Auch wenn Kameras mit einer zweidimensionalen Matrix bevorzugt werden, umfasst der Begriff der Matrix auch eindimensionale Matrizen. Bei der Kamera kann es sich daher grundsätzlich auch um eine Zeilenkamera handeln.
  • Insbesondere kann es sich bei der Kamera zum Beispiel anders als bei optischen Entfernungsmesssystemen (die zum Beispiel Laser-Triangulation und/oder Phaseninformation der Strahlung nutzen) um eine Messeinrichtung handeln, die lediglich die Intensitätsverteilung der auf die Kamera einfallenden Strahlung misst und/oder erfasst. Grundsätzlich möglich ist jedoch alternativ die Verwendung zumindest einer TOF(Time of Flight)-Kamera, die die Laufzeit der erfassten Strahlung misst.
  • Durch Bildauswertung des oder der Kamerabilder unter Berücksichtigung der optischen Eigenschaften der Kamera und der bekannten geometrischen Verhältnisse der Kamera (wie z.B. Blickwinkel, Position und Ausrichtung, Vergrößerung, Abbildungsfehler, insbesondere Verzeichnung) und optional Vorkenntnisse über die von der Kamera erfassten Objekte und/oder Strukturen kann die Position des beweglichen Teils auf einfache Weise bestimmt werden. Die optische Positionsbestimmung hat den Vorteil, dass die Messergebnisse konventioneller Bewegungsmesseinrichtungen (z.B. Binärmaßstäbe, Drehwinkelgeber, Tachometer) während des Betriebes des KMG überprüft werden können oder auf die konventionellen Bewegungsmesseinrichtungen ganz oder teilweise verzichtet werden kann. Zu den konventionellen Bewegungsmesseinrichtungen gehören nicht nur solche, die an den relativ zueinander beweglichen Teilen des KMG angeordnet sind, sondern auch solche, die an den Antrieben angeordnet sind, wie z.B. Tachometer. Bei entsprechend schneller Verarbeitung der Kamerasignale mit Feststellung der Position des beweglichen Teils kann auch die Antriebssteuerung und nicht nur die Werkstück-Koordinatenerfassung des KMG ausschließlich auf Ist-Werten der Position und/oder Ausrichtung des beweglichen Teils oder der beweglichen Teile des KMG basieren, die aus den Kamerabildern ermittelt wurden. Dadurch werden komplizierte und hochpräzise zu fertigende konventionelle Bewegungsmesseinrichtungen eingespart. Ferner entfällt die Kalibrierung des KMG bezüglich des von der Kamera oder den Kameras optisch erfassten beweglichen Teils in Bezug auf Veränderungen durch mechanische Belastungen und äußere Einflussgrößen.
  • Vorzugsweise wird das bewegliche Teil oder eines der beweglichen Teile des KMG von einer Mehrzahl der Kameras optisch erfasst, wobei die verschiedenen Kameras das bewegliche Teil vorzugsweise aus verschiedenen Richtungen optisch erfassen. Z.B. erfassen vier verschiedene Kameras aus vier verschiedenen Richtungen dasselbe bewegliche Teil. Die Anzahl der verwendeten Kameras kann insbesondere abhängig von der Größe des Blickwinkels der Kameraoptik, von der angestrebten geometrischen Auflösung im Bewegungsbereich des beweglichen Teils und von der Anzahl und Art der Bewegungsfreiheitsgrade des beweglichen Teils gewählt werden. Es ist insbesondere möglich, den gesamten Bewegungsbereich des beweglichen Teils mit Kameras zu erfassen, deren Erfassungsbereiche sich zu einem Gesamt-Erfassungsbereich ergänzen, welche den Bewegungsbereich des beweglichen Teils enthält. Bevorzugt wird dabei, dass sich die einander ergänzenden Erfassungsbereiche teilweise überlappen, um Bilder der verschiedenen, sich ergänzenden Kameras zuverlässig und genau zu einem Gesamtbild zusammensetzen zu können. Dies ist jedenfalls dann von Vorteil, wenn sich das bewegliche Teil von dem Erfassungsbereich einer der Kameras in den Erfassungsbereich der ergänzenden Kamera bewegt oder bewegt hat.
  • Bevorzugt wird, dass die Brennweite der Kameraoptik nicht variabel ist oder jedenfalls während des Betriebes des KMG nicht verändert wird. Eine veränderliche Brennweite stellt einen Einflussfaktor für die Positionsbestimmung dar, der eine Kalibrierung des optischen Positionsbestimmungssystems erforderlich machen kann. Ferner bevorzugt wird die Erfassung des beweglichen Teils mit Weitwinkeloptik, d.h. mit einem Winkel des Erfassungsbereichs der Kamera, der größer ist als der Erfassungsbereichswinkel von Normalobjektiven, die einen Erfassungsbereichswinkel von maximal 50° haben. Die Erfassung des beweglichen Teils in einem großen Erfassungsbereich, der insbesondere den gesamten Bewegungsbereich enthält, in dem sich das bewegliche Teil bewegen kann, hat den Vorteil, dass nur wenige oder keine ergänzende Kamera benötigt wird, deren Erfassungsbereich oder Erfassungsbereiche gemeinsam mit dem Erfassungsbereich der ersten Kamera den gesamten Bewegungsbereich abdecken. Von diesen Überlegungen zu trennen ist die Überlegung, wie viele Kameras mit unterschiedlichen Blickrichtungen eingesetzt werden. Z.B. kann eine Mehrzahl von Kameras für die optische Erfassung des beweglichen Teils eingesetzt werden, wobei jede der Kameras einen Erfassungsbereich hat, der aus der Blickrichtung der Kamera den gesamten Bewegungsbereich des beweglichen Teils abdeckt. Dies stellt den am meisten bevorzugten Fall dar. Alternativ oder zusätzlich werden Kameras mit hohen geometrischen Auflösungen auch in den Randbereichen der Erfassungsbereiche, mit hoher Lichtstärke (um die benötigte Beleuchtungsstrahlungsmenge zu minimieren) und/oder großer Schärfentiefe bevorzugt. Ferner alternativ oder zusätzlich wird bevorzugt, dass die Blickrichtung der zumindest einen Kamera während des Betriebes des KMG nicht verändert wird. Dadurch kann Aufwand für die Steuerung eines Kameraantriebs zum Bewegen der Kamera und/oder für die Kalibrierung und Berücksichtigung der Kamerabewegung vermieden werden.
  • Die zumindest eine Kamera kann bei der optischen Erfassung insbesondere eine Struktur erfassen (im Folgenden: Erfassungsstruktur), die durch die Form und/oder Oberflächenstruktur des Gegenstandes oder der Gegenstände im Erfassungsbereich gegeben sein kann. Insbesondere kann der Gegenstand das bewegliche Teil sein. Es ist aber auch möglich, zumindest einen zusätzlichen Gegenstand und/oder zumindest eine zusätzliche Struktur an dem beweglichen Teil anzubringen und zu erfassen. Auch ist es möglich, zumindest eine Strahlungsquelle oder eine Anordnung von Strahlungsquellen als Erfassungsstruktur an dem beweglichen Teil anzuordnen. Der zusätzliche Gegenstand oder die zusätzliche Struktur ist mit Ausnahme der optischen Erfassung nicht für die Funktion des KMG erforderlich. Es wird bevorzugt, dass an der Oberfläche des beweglichen Teils eine sich entlang der Oberfläche verlaufende Erfassungsstruktur angeordnet ist/wird.
  • Die genannten Möglichkeiten für eine Erfassungsstruktur sind lediglich Beispiele. Es existieren weitere Möglichkeiten für die optische Erfassung durch zumindest eine Kamera. Zum Beispiel kann, wie es bei der Streifenlichtprojektion der Fall ist, elektromagnetische Strahlung mit einer charakteristischen Strahlungsverteilung auf den zu erfassenden Gegenstand oder die Anordnung der zu erfassenden Gegenstände eingestrahlt werden und das Reflexionsbild beobachtet werden. Alternativ kann zum Beispiel elektromagnetische Strahlung mit einer homogenen oder homogeneren Strahlungsverteilung eingestrahlt werden und kann zumindest ein erster Teilbereich der Oberfläche des zu erfassenden Gegenstandes oder der Anordnung von Gegenständen andere Reflexionseigenschaften haben als zumindest ein anderer, zweiter Teilbereich der Oberfläche. Zum Beispiel kann der erste Teilbereich der Oberfläche spiegelnd reflektieren, während der zweite Teil der Oberfläche diffus reflektiert.
  • Alle zusätzlichen, nicht für den Betrieb des KMG mit Ausnahme der optischen Erfassung erforderlichen Gegenstände und Oberflächengestaltungen können zusammenfassend als Marker bezeichnet werden. Der allgemeinere Begriff der Erfassungsstruktur schließt Marker und auch nicht zusätzliche Gestaltungen/Gegenstände mit ein.
  • Insbesondere wird eine Mehrzahl von Erfassungsstrukturen verwendet. Aus vorab bekannter Information über Position und/oder Ausrichtung der Erfassungsstrukturen relativ zueinander wird dann die Position und/oder Ausrichtung des beweglichen Teils ermittelt. Zum Beispiel kann eine Mehrzahl von kreisförmigen Markern verwendet werden. Die Kreismittelpunkte der einzelnen kreisförmigen Marker lassen sich aus Kamerabildern auf einfache Weise und mit hoher Präzision mit an sich bekannten Mitteln der Bildverarbeitung bestimmen. Unter Verwendung von vorab bekannter Information über die relative Lage der Kreismittelpunkte kann dann die Position und/oder Ausrichtung festgestellt werden.
  • Die vorangegangene Beschreibung bezüglich der zumindest einen Erfassungsstruktur gilt nicht nur für den Fall, dass die Erfassungsstruktur an dem beweglichen Teil angeordnet ist und/oder mit dem beweglichen Teil verbunden ist. Vielmehr ist es alternativ oder zusätzlich möglich, dass zumindest eine Kamera mit dem beweglichen Teil verbunden ist und zumindest eine Erfassungsstruktur mit der Basis des KMG verbunden ist und/oder daran angeordnet ist, wobei unter der Basis nicht nur zum Beispiel eine Grundplatte oder ein Messtisch des KMG zu verstehen ist, sondern jeder relativ zu dem beweglichen Teil ortsfeste Teil des KMG. Auch in einer ortsfesten Umgebung des KMG kann die Erfassungsstruktur angeordnet sein.
  • Das bewegliche Teil kann ein beliebiges bewegliches Teil des KMG sein, zum Beispiel bei einem KMG in Portalbauweise ein quer zu dem Portal beweglicher Schlitten oder die Pinole, insbesondere der untere Endbereich der Pinole. Der bewegliche Teil kann aber auch ein Sensor des KMG sein. Bei einem KMG in Gelenkarmbauweise kann das bewegliche Teil zum Beispiel einer der beweglichen Gelenkarme sein und vorzugsweise der Endbereich desjenigen Gelenkarms, an dem der Sensor befestigt ist. Bei einem KMG in Horizontalbauweise kann das bewegliche Teil zum Beispiel der Horizontalarm sein und vorzugsweise der Endbereich des Horizontalarms der den Sensor trägt. Alternativ kann in allen Fällen auch der Sensor das bewegliche Teil sein, das zur Positionsbestimmung optisch von zumindest einer Kamera erfasst wird.
  • Die Erfassung der Position und/oder Ausrichtung des Sensorträgers durch zumindest eine Kamera ist zuverlässiger möglich als die direkte Erfassung der Position und/oder Ausrichtung eines relativ zu dem Sensorträger beweglichen Teils des Sensors, wie es zum Beispiel bei einem aus einer Ruhelage auslenkbaren taktilen Taster der Fall ist. Insbesondere kommt es häufig vor, dass ein Tastelement (zum Beispiel eine Tastkugel) des Tasters in zurückspringende Bereiche des Werkstücks eingebracht wird und dadurch für eine direkte Erfassung durch die Kamera nicht sichtbar wäre. Zwar ist es denkbar, die Kamera ebenfalls, zum Beispiel gemeinsam mit dem Sensor, zu bewegen. In diesem Fall müsste aber außerdem die Position und/oder Ausrichtung des Sensors in dem Koordinatensystem des KMG bestimmt werden. Bei der vorliegenden Erfindung wird dagegen diese Position und/oder Ausrichtung optisch erfasst und festgestellt.
  • Mit der direkten optischen Erfassung der Position und/oder Ausrichtung des beweglichen Teils werden jegliche Einflüsse von äußeren Einflussgrößen und Betriebszuständen (zum Beispiel Biegung von Teilen) unmittelbar erfasst. Von Vorteil ist es dabei, dass die Basis eines KMG in der Praxis meist ohnehin so gestaltet ist, dass die Basis nicht oder nur unwesentlich von äußeren Einflussgrößen und dem Betriebszustand abhängt. Eine Ausnahme davon betrifft die Einflussgröße Temperatur, die auch bei gängigen, für die Basis verwendeten Materialien zu einer Ausdehnung oder Kontraktion der Materialien führen kann. Der Einfluss der Temperatur kann bei der optischen Positionsbestimmung einerseits wie bei konventionellen Positionsbestimmungseinrichtungen durch Kalibrierung bestimmt und korrigiert werden. Eine andere Möglichkeit besteht darin, zum Beispiel mit dem Ursprung des KMG Koordinatensystems verbundene Materialien als Kameraträger und/oder Erfassungsstrukturträger zu verwenden, die sich nicht oder nur vernachlässigbar mit Temperaturänderungen ausdehnen oder kontrahieren.
  • Da bei konventionellen Positionsbestimmungseinrichtungen eine Vielzahl von Einflussgrößen und Betriebszuständen für die Kalibrierung berücksichtigt werden muss, wird durch die optische Positionsbestimmung der Aufwand insbesondere für die Kalibrierung reduziert. Dies betrifft sowohl die während der Kalibrierung durchzuführenden Messungen als auch die spätere Korrektur während des Betriebes des KMG.
  • Dennoch gehört zum Umfang der Erfindung auch ein Verfahren zur Kalibrierung der optischen Positionsbestimmungseinrichtung, die wiederum Teil eines KMG (oder analog einer Werkzeugmaschine) ist.
  • Um die optische Positionsbestimmungseinrichtung für den Betrieb des KMG vorzubereiten kann einerseits vorab, das heißt vor dem Betrieb des KMG, Information über die Geometrie der Anordnung, insbesondere bezüglich der Position und/oder Ausrichtung zumindest einer Erfassungsstruktur und der Kameraausrichtung, gewonnen werden. Alternativ oder zusätzlich wird es bevorzugt, mit der zumindest einen Kamera zumindest ein Kalibrierobjekt zu erfassen. Dabei kann es sich zum Beispiel um ein Kalibrierobjekt mit einer Maßstabsteilung zur Bestimmung des Teilungsfehlers handeln, wie es auch von konventionellen Positionsbestimmungseinrichtungen verwendet werden könnte. Zum Beispiel kann ein solches Kalibrierobjekt eine Vielzahl von Markierungen aufweisen, deren Abstand zueinander genau bekannt ist und die von der Kamera erfassbar sind. Es können jedoch alternativ oder zusätzlich andere Kalibrierobjekte verwendet werden, wie zum Beispiel solche mit einer Mehrzahl von Kugeln oder kreisförmigen Strukturen, wobei die Abstände der Kugelmittelpunkte bzw. Kreismittelpunkte zueinander genau bekannt ist. Auch Siemenssterne und andere an sich bereits bekannte Kalibrierobjekte sind für die Vorbereitung der optischen Positionserfassung geeignet. Bevorzugt wird, dass sich das Kalibrierobjekt über den gesamten Bewegungsbereich des später zu erfassenden beweglichen Teils erstreckt, wobei das Kalibrierobjekt auch aus einzelnen Objekten bestehen kann, die nicht miteinander verbunden sind. Alternativ kann zumindest ein Kalibrierobjekt nacheinander an verschiedenen Orten innerhalb des Bewegungsbereichs angeordnet werden und jeweils von der zumindest einen Kamera aufgenommen werden. Ferner ist es möglich, den Bezug des Kalibrierobjekts zum Ursprung des Koordinatensystems des KMG unter Verwendung zumindest eines insbesondere lediglich für die Vorbereitung der optischen Positionsbestimmung verwendeten präzisen Messsystems herzustellen. Zum Beispiel kann ein Laser-Triangulationssystem verwendet werden.
  • Bei der Vorbereitung der optischen Positionsbestimmung unter Verwendung eines Kalibrierobjekts können auch Abbildungsfehler der Kameraoptik und Erfassungsfehler insbesondere der Sensorelemente-Matrix der Kamera ermittelt werden. Insbesondere monochromatische Fehler wie die Verzeichnung und die Bildfeldwölbung können ermittelt und optional korrigiert werden. Insbesondere ist es möglich, dasselbe Kalibrierobjekt nacheinander in verschiedenen Ausrichtungen und/oder Positionen im Bewegungsbereich anzuordnen und jeweils durch dieselbe Kamera zu erfassen. Selbst wenn die Geometrie des Kalibrierobjekts nicht exakt bekannt ist oder Unregelmäßigkeiten aufweist, können auf diese Weise die Abbildungsfehler und Erfassungsfehler der Kamera ermittelt werden. Wenn nicht der gesamte Bewegungsbereich von der Kamera erfasst wird, und deshalb Bilder von mehreren Kameras bei der Erfassung des Kalibrierobjekts zusammengesetzt werden, oder wenn das Kalibrierobjekt durch verschiedene Bilder derselben Kamera in verschiedenen Positionen und/oder Ausrichtungen erfasst wird, können die Bilder mit an sich aus der Bildverarbeitung bekannten Verfahren (die z. B. mit dem Stichwort Stitching bezeichnet werden) zusammengesetzt werden und kann die gewünschte Kalibrierinformation gewonnen werden.
  • Insbesondere wenn nicht lediglich im ruhenden, unbewegten Zustand des beweglichen Teils Messwerte für die Bestimmung von Koordinaten eines Werkstücks gewonnen werden sollen und/oder wenn, wie bevorzugt, auch die Bewegung des zumindest einen beweglichen Teils unter Verwendung der Ergebnisse der optischen Positionsbestimmung gesteuert werden soll, kann die optische Positionsbestimmung bezüglich ihres zeitlichen Verhaltens kalibriert werden. Das zeitliche Verhalten ist insbesondere deshalb von Bedeutung, da die Auswertung bereits eines einzelnen Bildes der Kamera Zeit benötigt. Hinzu kommt, dass aus verschiedenen Gründen vorzugsweise nicht lediglich ein einziges Bild der Kamera, das zu einem bestimmten Zeitpunkt aufgenommen wurde, für die Positionsbestimmung ausgewertet wird. Insbesondere bei scannendem Vermessen von Werkstücken, aber auch während der Bearbeitung eines Werkstücks durch eine Werkzeugmaschine findet eine Bewegung nicht nur des Sensors bzw. des Werkzeugs statt, sondern auch des Sensor-/Werkzeugträgers. Auch bei niedrigen Geschwindigkeiten kann eine zeitliche Kalibrierung von Vorteil sein, um die Genauigkeit zu erhöhen. Bei dieser zeitlichen Kalibrierung besteht insbesondere die Möglichkeit, dass das Kalibrierobjekt seine optische Erscheinung im Laufe der Zeit ändert. Dabei kann sich das Kalibrierobjekt selbst verändern (zum Beispiel durch sich zeitlich verändernde Bildinhalte von einem oder mehreren Displays) und/oder die Einstrahlung elektromagnetischer Strahlung auf das Kalibrierobjekt und/oder die sich von dem Kalibrierobjekt in Richtung der Kamera ausbreitende elektromagnetische Strahlung kann mit der Zeit verändert werden (zum Beispiel durch zumindest eine verstellbare Blende und/oder zumindest einen hinsichtlich seiner Ausrichtung und/oder Größe veränderbaren Strahlungsreflektor). Alternativ oder zusätzlich kann das Kalibrierobjekt und/oder ein Mittel zur Beeinflussung der genannten Strahlung periodisch bewegt und/oder verändert werden. Wenn die Kamera eine zeitliche Folge von Bildern des Erfassungsbereichs aufnimmt, zum Beispiel mit einer gegebenen Taktfrequenz, kann diese periodische Veränderung erfasst werden und daraus das zeitliche Verhalten der optischen Erfassung und der Positionsbestimmung ermittelt werden. Bereits aufgrund der für die Verarbeitung des Kamerabildes benötigten Zeit wird die Position und/oder Ausrichtung erst mit einer zeitlichen Verzögerung nach der optischen Erfassung festgestellt.
  • Insbesondere kann außerdem elektromagnetische Strahlung mit einer Pulsfrequenz gepulst eingestrahlt werden, d. h. die Strahlungsverteilung der auf das Kalibrierobjekt eingestrahlten elektromagnetischen Strahlung hat eine in der Art von Lichtpulsen wiederkehrend plötzlich zunehmende und abnehmende Strahlungsflussdichte. Die Pulsfrequenz und die Frequenz der vorgenannten periodischen Veränderung können gleichgroß sein und somit in einer festen Phasenbeziehung der Veränderungsphase zu den Pulsen stehen, wobei unterschiedliche Phasenbeziehungen (zum Beispiel Lichtpuls jeweils zum Zeitpunkt der maximalen Veränderungsgeschwindigkeit oder Lichtpuls jeweils bei geringerer Veränderungsgeschwindigkeit) untersucht werden können. Entsprechendes gilt für die Pulsfrequenz. Z. B. ist die Pulsfrequenz ein ganzzahliges Vielfaches der Veränderungsfrequenz oder umgekehrt. Es ist jedoch auch möglich, ein anderes Verhältnis der Frequenzen zueinander zu wählen oder zumindest eine der Frequenzen mit der Zeit zu verändern.
  • Insbesondere wenn die durch die Kamera durchgeführte optische Erfassung des Erfassungsbereichs während des eigentlichen Betriebes des KMG und auch während der Kalibrierung gemeinsam mit der Positionsbestimmung (d. h. der Auswertung der Kamerabilder) zu Positionsbestimmungsraten im Bereich von 100 Hz und größer führt und dabei eine Verzögerung der Feststellung der Position und/oder Ausrichtung des beweglichen Teils bezogen auf den Zeitpunkt der Aufnahme des ausgewerteten Kamerabildes von einer Millisekunde oder kürzer angestrebt wird, wird bevorzugtermaßen lediglich die Phasenlage der periodischen Veränderung zur wiederholten und ebenfalls periodischen Bestimmung der Position und/oder Ausrichtung aus den Kamerabildern betrachtet. Die zeitliche Phasenverschiebung ist die Verzögerung.
  • Allgemeiner formuliert kann die Positionsbestimmungseinrichtung kalibriert werden, indem eine von der Kamera zu erfassende Szene im Laufe der Zeit verändert wird und aus Informationen über den Zeitpunkt und/oder den zeitlichen Verlauf eines Zustandes der Szene einerseits und über den Zeitpunkt und/oder den zeitlichen Verlauf der Feststellung eines Ergebnisses für die Position und/oder Ausrichtung eines Objekts innerhalb der Szene andererseits die Verzögerung der Bestimmung, d.h. die für die Bestimmung benötigte Zeit ermittelt wird. Insbesondere wird der Zustand der Szene periodisch verändert und aus der Phasenverschiebung des periodischen Verlaufs des Zustandes zu dem periodischen Verlauf der Feststellung des Ergebnisses der Positionsbestimmung aus den einzelnen Kamerabildern die Verzögerung ermittelt.
  • Vorteilhaft ist die Bestimmung der Verzögerung insbesondere, wenn bei der Messung von Koordinaten eines Werkstücks Sensorsignale des Sensors des KMG einem Zustand zu einem gegebenen Zeitpunkt entsprechen, die Ermittlung der Koordinaten im Koordinatensystem des KMG aber auch das Ergebnis der zeitverzögerten Bestimmung der Position und/oder Ausrichtung berücksichtigt und wenn sich der Sensor oder das Werkstück bewegen.
  • Insbesondere kann die Verzögerung von einem Betriebsmodus der Kamera abhängig sein, insbesondere von der Länge des Zeitraums, über den hinweg Sensorelemente einer Sensormatrix der digitalen Kamera einfallende Strahlung detektieren und einen der insgesamt über den Zeitraum eingefallenen Strahlung entsprechendes Sensorsignal erzeugen. Dieser Zeitraum wird auch als Integrationszeitraum bezeichnet. Wenn bei einer für die Positionsbestimmung verwendeten Kamera der Integrationszeitraum verändert werden kann, wird bevorzugt, für eine Mehrzahl verschiedener Längen des Integrationszeitraumes jeweils die Verzögerung zu ermitteln.
  • Der kürzest mögliche Integrationszeitraum ist nicht zwangsläufig der Zeitraum, der zu der höchsten Genauigkeit bei der Positionserfassung führt. Vielmehr ist zu berücksichtigen, dass Sensorsignale von Sensorelementen der Kamera, die Position von Teilen des KMG und die Position des Werkstücks unbeabsichtigt hin- und herschwanken können. Dies sind lediglich Beispiele für ein Rauschen von Signalen und Vibrieren von Objekten. Auch die Signale, die die Zeitpunkte der Sensorsignale des Sensors, welcher das Werkstück vermisst, und der Positionsbestimmung durch die Positionsbestimmungseinrichtung repräsentieren, sowie deren Differenz, können einem Rauschen unterliegen. Daher kann es günstiger sein, wenn über einen größeren Zeitraum integriert wird und dabei größere Strahlungsenergie auf das jeweilige Sensorelement der Kameramatrix einfällt. Kurze Integrationszeiträume sind insbesondere dann wünschenswert, wenn die Positionsbestimmung mit hoher Frequenz stattfinden soll, zum Beispiel weil der Sensor mit verhältnismäßig hoher Geschwindigkeit bewegt wird. In diesem Fall wird zur Erhöhung der von den einzelnen Sensorelementen der Kameramatrix absorbierten Strahlungsenergie innerhalb des Integrationszeitraumes die Strahlungsflussdichte der auf den beweglichen Teil des KMG einfallen Strahlung erhöht, d. h. die Beleuchtungsstärke erhöht. Die Beleuchtungsstärke ist somit vorzugsweise größer, wenn die Integrationszeiträume kleiner sind und umgekehrt.
  • Eine Möglichkeit zur Erhöhung der Frequenz der Positionsbestimmung besteht in der Verwendung einer Mehrzahl von Kameras, die zu zeitlich gegeneinander versetzten Zeitpunkten denselben Erfassungsbereich erfassen, oder zumindest einen gemeinsamen Erfassungsbereich erfassen.
  • Es wurde bereits erwähnt, dass sowohl die Positionsbestimmung als auch die Abtastung des Werkstücks des KMG jeweils auf eine Zeitbasis bezogen werden können, um die Zeitpunkte der Werkstückabtastung und der Positionsbestimmung miteinander in Beziehung setzen zu können. Insbesondere um Unsicherheiten bezüglich der Zeitbasis zu verringern, wird es bevorzugt, dass eine gemeinsame Zeitbasis verwendet wird. Zum Beispiel kann ein Taktsignalgeber ein Taktsignal erzeugen, dass sowohl der Positionsbestimmungseinrichtung als auch dem Sensor zugeführt wird, und unter dessen Verwendung der Zeitpunkt der Abtastung des Werkstücks und auch der Zeitpunkt der Positionsbestimmung ermittelt werden. Zum Beispiel können der Sensor und die Positionsbestimmungseinrichtung über denselben Datenbus mit dem Taktsignalgenerator verbunden sein. Dabei können jedoch unterschiedliche Teile des Datenbusses zu dem Sensor einerseits und zu der Positionsbestimmungseinrichtung andererseits genutzt werden. Der Datenbus kann ferner zur Übertragung der von dem Sensor erzeugten Sensorsignale und der Ergebnisse der Positionsbestimmung zu einer gemeinsamen Auswertungseinrichtung genutzt werden. Eine weitere Möglichkeit für die Übermittlung der Informationen über die gemeinsame Zeitbasis an den Sensor und an die Positionsbestimmungseinrichtung bietet ein globales oder lokales Satellitennavigationssystem, das Informationen über die gemeinsame Zeitbasis (zum Beispiel wiederholt Informationen über eine bestimmten Zeitpunkt der Zeitbasis) per Funk überträgt. Sowohl der Sensor als auch die Positionsbestimmungseinrichtung können einen eigenen Oszillator, insbesondere Taktsignalgenerator, zur Erzeugung eines lokalen periodischen Zeitsignals aufweisen, der durch Verarbeitung der Information über die gemeinsame Zeitbasis auf diese synchronisiert wird. Diese Vorgehensweise ermöglicht Unterschiede zwischen der lokalen Zeit des Sensors und der lokalen Zeit der Positionsbestimmungseinrichtung weiter zu verringern. Insbesondere wenn eine Mehrzahl von Sensoren und/oder eine Mehrzahl der Kameras der Positionsbestimmungseinrichtung zum Einsatz kommen, ist der Aufwand für die Nutzung einer gemeinsamen Zeitbasis in dieser Weise gering.
  • Wenn die Genauigkeit der Positionsbestimmung durch die optische Positionsbestimmungseinrichtung bei einer vorhandenen Frequenz der Positionserfassung nicht ausreichend ist, kann die Frequenz durch Mittelwertbildung einer Mehrzahl der Ergebnisse der Positionsbestimmung in manchen Fällen gesteigert werden. Dies hängt von den Ursachen für die geringe Genauigkeit ab. Zum Beispiel wurden bereits das Signalrauschen und das Vibrieren von Teilen erwähnt. Eine Mittelung über zumindest eine oder vorzugsweise mehrere Perioden des Rauschens und/oder Vibrierens kann die Genauigkeit erhöhen und jedenfalls zufällige Schwankungen eliminieren. Optional kann zusätzlich ein konventionelles nicht optisches Positionsbestimmungssystem verwendet werden, das insbesondere zwischen zwei Zeitpunkten, zu denen die optische Positionsbestimmungseinrichtung ein Ergebnis feststellt, zumindest ein weiteres Ergebnis der Positionsbestimmung liefert. Bei den nicht optischen Positionsbestimmungssystemen kann es sich zum Beispiel um absolute Positionen bestimmende Systeme oder um Relativpositionen bestimmende Systeme handeln. Ein Vorteil dieser kombinierten Nutzung verschiedener Positionsbestimmungssysteme liegt darin, dass die optische Positionsbestimmungseinrichtung zwar mit kleinerer Frequenz Ergebnisse liefert, jedoch nicht oder nur geringfügig von äußeren Einflussgrößen und Betriebszuständen des KMG abhängt. Eine durch solche Einflussgrößen und Betriebszustände bewirkte Verfälschung der Ergebnisse des konventionellen Positionsbestimmungssystems kann daher wiederholt durch Ergebnisse der optischen Positionsbestimmungseinrichtung korrigiert werden.
  • In der bisherigen Beschreibung wurde, und auch in der folgenden Beschreibung wird die optische Positionsbestimmung als Teil eines Koordinatenmessgerätes bzw. als Teil eines Verfahrens zum Betreiben eines Koordinatenmessgerätes beschrieben. Diese Beschreibung kann mit Ausnahme der Unterschiede zwischen der Koordinatenmessung und der Werkstückbearbeitung auch auf Werkzeugmaschinen übertragen werden, die einen in einem Bewegungsbereich beweglichen Werkzeugträger aufweisen, der ein Bearbeitungswerkzeug trägt oder tragen kann. Auch derartige Werkzeugmaschinen haben üblicherweise eine Positionsbestimmungseinrichtung. Es wird vorgeschlagen, diese Positionsbestimmungseinrichtung als optische Positionsbestimmungseinrichtung auszuführen. In der Beschreibung des Koordinatenmessgerätes und des Verfahrens zum Betreiben eines Koordinatenmessgerätes kann daher überall der Begriff des Koordinatenmessgerätes durch den Begriff Werkzeugmaschine ersetzt werden. Außerdem kann überall der Begriff des Sensors des Koordinatenmessgerätes durch den Begriff des Werkzeugs ersetzt werden. Dabei ist die Funktionsbeschreibung des Sensors, der ein Werkstück abtastet, um Koordinaten zu bestimmen, durch die Funktionsbeschreibung des Werkzeugs zu ersetzen, das das Werkstück bearbeitet. Während bei einem KMG Sensorsignale mit Signalen der Positionsbestimmungseinrichtung kombiniert werden, um die Koordinaten des abgetasteten Werkstücks im Koordinatensystem des KMG zu ermitteln, werden die Ergebnisse der optischen Positionsbestimmung einer Positionsbestimmungseinrichtung der Werkzeugmaschine dazu verwendet, die Position und/oder Ausrichtung des Werkzeugs zu ermitteln und damit insbesondere die Position und/oder Ausrichtung des Werkzeugs an eine Soll-Position und/oder Ausrichtung anzupassen, um das Werkstück in einer vorgegebenen Weise zu bearbeiten. Ähnlich wie bei einem Sensor eines KMG kann auch das Bearbeitungswerkzeug einer Werkzeugmaschine über eine Messeinrichtung verfügen, die es zum Beispiel erlaubt, die Position relativ zu dem Werkstück zu ermitteln, die beispielsweise dem Abnutzungsgrad eines Kontaktelements entspricht, das mit dem Werkstück unmittelbar in Kontakt ist, um dieses zu bearbeiten.
  • Die folgende Beschreibung bezieht sich wiederum auf ein Koordinatenmessgerät. Die Beschreibung kann jedoch analog auf eine Werkzeugmaschine übertragen werden.
  • Insbesondere wird ein Koordinatenmessgerät vorgeschlagen, das aufweist:
    • • einen Sensor zur Erfassung von Koordinaten eines Werkstücks,
    • • einen beweglichen Sensorträger, der den Sensor trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegbar ist,
    • • eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers,
    • • eine Auswertungseinrichtung, die aus einer von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus Signalen des Sensors Koordinaten des Werkstücks ermittelt,
    wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
    • • die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden ist und/oder durch den Sensorträger gebildet ist oder
    • • die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
    und wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers festzustellen.
  • Ferner wird ein Verfahren zum Betreiben eines Koordinatenmessgeräts vorgeschlagen, wobei
    • • ein Sensor Sensorsignale zur Erfassung von Koordinaten eines Werkstücks erzeugt,
    • • ein beweglicher Sensorträger, der den Sensor trägt, innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts bewegt wird,
    • • eine Positionsbestimmungseinrichtung des Koordinatenmessgeräts eine Position und/oder eine Ausrichtung des Sensorträgers feststellt,
    • • eine Auswertungseinrichtung des Koordinatenmessgeräts aus einer von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Sensorträgers und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt,
    wobei zumindest eine Kamera der Positionsbestimmungseinrichtung zumindest eine Erfassungsstruktur erfasst, wobei
    • • die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden ist und/oder durch den Sensorträger gebildet ist oder
    • • die Kamera mit dem Sensorträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
    und wobei die Positionsbestimmungseinrichtung aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers feststellt.
  • Demgemäß ist insbesondere der bewegliche Sensorträger das bewegliche Teil des KMG, dessen Position und/oder Ausrichtung durch die optische Positionsbestimmungseinrichtung bestimmt wird. Fest mit dem Sensorträger verbundene Teile sind diesem zuzurechnen, das heißt auch diese fest mit dem Sensorträger verbundenen Teile, wie zum Beispiel der feststehende Teil des Sensors, können zur Positionsbestimmung von der Kamera erfasst werden und zum Beispiel zumindest einen Marker aufweisen.
  • Um auf die entsprechende Gestaltung einer Werkzeugmaschine zurückzukommen kann eine Positionsbestimmung wie folgt realisiert werden. Dies fällt nicht in den Schutzbereich der beigefügten Ansprüche:
  • Eine Werkzeugmaschine kann Folgendes aufweisen:
    • • ein Werkzeug zur Erfassung von Koordinaten eines Werkstücks,
    • • einen beweglichen Werkzeugträger, der das Werkzeug trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis der Werkzeugmaschine bewegbar ist,
    • • eine Positionsbestimmungseinrichtung zur Feststellung einer Position und/oder einer Ausrichtung des Werkzeugträgers,
    • • eine Auswertungseinrichtung, die aus einer von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des Werkzeugträgers und aus Signalen des Werkzeugs Koordinaten des Werkzeug und/oder des Werkstücks ermittelt,
    wobei die Positionsbestimmungseinrichtung zumindest eine Kamera und zumindest eine von der Kamera erfassbare Erfassungsstruktur aufweist, wobei
    • • die Kamera mit der Basis verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Werkzeugträger verbunden ist und/oder durch den Werkzeugträger gebildet ist oder
    • • die Kamera mit dem Werkzeugträger verbunden ist und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist,
    und wobei die Positionsbestimmungseinrichtung ausgestaltet ist, aus Erfassungssignalen der Kamera, mit denen die Kamera die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Werkzeugträgers festzustellen.
  • Das entsprechende Betriebsverfahren zum Betreiben einer Werkzeugmaschine sowie Ausgestaltungen des Betriebsverfahrens und der Werkzeugmaschine ergeben sich analog aus der Beschreibung des KMG und der Beschreibung des Betriebsverfahrens zum Betreiben des KMG.
  • Insbesondere kann die Kamera mit der Basis verbunden sein und die Erfassungsstruktur mit dem Sensorträger verbunden sein und/oder durch den Sensorträger gebildet sein, wobei in einem Abstand zu der Kamera eine Kalibrierungsstruktur mit der Basis verbunden ist und wobei die Kalibrierungsstruktur und die Kamera derart angeordnet sind, dass die Kalibrierungsstruktur von der Kamera gleichzeitig mit der Erfassungsstruktur erfassbar ist bzw. erfasst wird.
  • Dies ermöglicht es, während des Betriebes des KMG die Kalibrierungsstruktur zum Zweck der Positionsbestimmung und/oder Überprüfung der Positionsbestimmung zu verwenden. Die Kalibrierungsstruktur kann zum Beispiel ein Marker oder eine Anordnung von Markern sein.
  • Insbesondere kann die Kamera mit der Basis verbunden sein und die Erfassungsstruktur oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger verbunden sein und/oder durch den Sensorträger gebildet sein, wobei die Kamera einen Erfassungsbereich hat, in dem die Erfassungsstruktur oder die zumindest eine der Erfassungsstrukturen durch Bewegung des Sensorträgers innerhalb des Bewegungsbereichs bewegbar ist bzw. bewegt wird und dennoch von der Kamera erfassbar ist bzw. erfasst wird, und wobei die Kamera unabhängig von der Position und/oder Ausrichtung des Sensorträgers den gesamten Erfassungsbereich erfasst.
  • Die Ausrichtung der Kamera und die Größe des Erfassungsbereichs werden daher nicht abhängig von der Position und/oder Ausrichtung des Sensorträgers verändert. Die Blickrichtung der Kamera folgt nicht dem Sensorträger. Dennoch kann die Position und/oder Ausrichtung des Sensorträgers durch Auswertung der Kamerabilder festgestellt werden, sofern sich der Sensorträger noch in dem Erfassungsbereich befindet und nicht aus Sicht der Kamera verdeckt wird. Dies hat den Vorteil, dass keine Kalibrierung der Kamera bezüglich einer Kamerabewegung und bezüglich einer Veränderung der Größe des Erfassungsbereichs durchgeführt werden muss.
  • Insbesondere kann die Positionsbestimmungseinrichtung aus den Erfassungssignalen der Kamera, die dem gesamten Erfassungsbereich entsprechen, einen Teil der Erfassungssignale auswählen, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur oder der zumindest einen der Erfassungsstrukturen enthält, und kann durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des Sensorträgers feststellen. D.h., die Positionsbestimmungseinrichtung kann entsprechend ausgestaltet sein.
  • Mit dieser Maßnahme kann die Verzögerung bei der Positionsbestimmung durch Auswertung der Kamerabilder reduziert werden, da die Menge der Bilddaten reduziert wird, die zur Positionsbestimmung ausgewertet werden. Dies erlaubt auch die Erhöhung der Frequenz der Positionsbestimmung bei wiederholter Aufnahme von Kamerabildern. Zum Beispiel bei einer Kamera mit einer CMOS-Sensorelementen-Matrix können die Teilbereiche des Kamerabildes, die die Information über die Position und/oder Ausrichtung der Erfassungsstruktur oder der zumindest einen von mehreren Erfassungsstrukturen enthält, insbesondere durch Auslesen der entsprechenden Datenspeicherregister und Verarbeiten der ausgelesenen Daten ausgewertet werden. Bei großem Erfassungsbereich der Kamera ist der auszuwertende Teil-Erfassungsbereich besonders klein. Es findet daher eine besonders große Reduktion der auszuwertenden Datenmenge statt. Der auszuwertende Teil-Erfassungsbereich kann auf unterschiedliche Weise ermittelt werden. Eine Möglichkeit besteht darin, Information zum Beispiel einer Bewegungssteuerung des KMG über die Position und/oder Ausrichtung des beweglichen Teils auszuwerten. Während einer Bewegung des beweglichen Teils kann die Position und/oder Ausrichtung vorausschauend, unter Verwendung dieser Information und unter Verwendung einer bereits von der Positionsbestimmungseinrichtung festgestellten Position und/oder Ausrichtung des beweglichen Teils ermittelt werden. Alternativ oder zusätzlich kann das Kamerabild vorverarbeitet werden, bevor die dadurch ausgewählten Bilddaten anschließend zum Zweck der Positionsbestimmung ausgewertet werden. Dabei kann zum Beispiel unter Anwendung an sich bekannter Verfahren zur Identifikation bekannter Strukturen aus Bilddaten die Erfassungsstruktur ermittelt werden.
  • Wenn das Koordinatenmessgerät wie üblich eine Bewegungssteuerung aufweist, mit der eine Bewegung des Sensorträgers innerhalb des Bewegungsbereichs steuerbar ist bzw. gesteuert wird, kann die Bewegung des Sensorträgers insbesondere unter Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des Sensorträgers gesteuert werden, die die Positionsbestimmungseinrichtung durch Auswertung der Erfassungssignale der Kamera festgestellt hat. D.h., die Bewegungssteuerung kann insbesondere so ausgestaltet sein. Dies ermöglicht es, auf zusätzliche konventionelle Bewegungsmesseinrichtungen vollständig zu verzichten. Alternativ ist es möglich, die optische Positionsbestimmung lediglich für die Bewegungssteuerung zu verwenden, nicht aber für die Ermittlung der Koordinaten eines Werkstücks. Dies betrifft auch den Fall einer Werkzeugmaschine.
  • Insbesondere kann das Koordinatenmessgerät eine Beleuchtungseinrichtung aufweisen, die während des Betriebes des KMG zumindest eine Erfassungsstruktur mit elektromagnetischer Strahlung beleuchtet. Durch gezielte Beleuchtung des von der Kamera zu erfassenden Bereichs, zum Beispiel mit Strahlungspulsen, werden definierte Verhältnisse für die Erfassung geschaffen. Zum Beispiel kann die Beleuchtung auf den Integrationszeitraum der Kamera-Sensorelemente abgestimmt werden. Bevorzugt wird, dass die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera erfassbar ist bzw. erfasst wird. Infrarot-Strahlung wird im Gegensatz zu sichtbarer Strahlung von Menschen nicht als störend empfunden. Dies ist insbesondere bei Strahlungspulsen ein Vorteil. Es ist aber auch möglich, Strahlung in einem anderen, nicht sichtbaren Wellenlängenbereich zu verwenden, zum Beispiel Ultraviolettstrahlung. Nicht sichtbare Strahlung führt insbesondere dann zu definierten Beleuchtungsverhältnissen, wenn in dem Wellenlängenbereich während des Betriebes des KMG keine andere Strahlung mit erheblicher Strahlungsintensität vorkommt als aus der Beleuchtungseinrichtung. Bei Infrarotstrahlung liegt die Wellenlänge der Strahlung der Beleuchtungseinrichtung daher zum Beispiel im Bereich von 850–950 nm. Erzeugt werden kann solche Strahlung bei hoher Strahlungsflussdichte z.B. mit Leuchtdioden. Nicht nur bei Infrarot-Strahlung erlaubt es eine hohe Strahlungsflussdichte, einen kurzen Integrationszeitraum der Kamera zu wählen.
  • Vorzugsweise weist die Positionsbestimmungseinrichtung eine Mehrzahl der Kameras auf, die jeweils eine Erfassungsstruktur, jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers festzustellen, wobei jede der Kameras mit einer zugeordneten Bildverarbeitungseinrichtung kombiniert ist, die jeweils lediglich Erfassungssignale einer der Kameras verarbeitet und dadurch Information über die Position und/oder Ausrichtung der von der Kamera erfassten Erfassungsstruktur(en) gewinnt, und wobei die Bildverarbeitungseinrichtungen mit einer zentralen Einheit der Positionsbestimmungseinrichtung verbunden sind, die ausgestaltet ist, aus der von den Bildverarbeitungseinrichtungen gewonnenen Information die Position und/oder Ausrichtung des Sensorträgers festzustellen.
  • Durch die mehreren Bildverarbeitungseinrichtungen, die insbesondere jeweils am Ort der zugeordneten Kamera angeordnet sind, wird die Menge der zu übertragenden Daten reduziert und die Geschwindigkeit der Positionsbestimmung erhöht, d.h. die Verzögerung der Positionsbestimmung verringert. Z.B. kann es sich bei den Bildverarbeitungseinrichtungen um Mikroprozessoren wie FPGAs (Field Programmable Gate Arrays) oder ARMs (Advanced RISC Machines) oder andere im Embedded-Bereich, insbesondere der jeweiligen Kamera, angeordnete Mikrocomputer handeln. Es handelt sich somit um eine dezentrale Verarbeitung der Daten der einzelnen Kameras. Insbesondere kann jede der Bildverarbeitungseinrichtungen der zentralen Einheit die von ihr festgestellte Position und/oder Ausrichtung des beweglichen Teils übertragen, soweit die jeweilige Bildverarbeitungseinrichtung dies aus den Bilddaten der zugeordneten Kamera ermitteln kann. Von den verschiedenen Bildverarbeitungseinrichtungen kann auf diese Weise, je nach Anordnung der Kameras und insbesondere auch bei Kameras mit unterschiedlichen Blickrichtungen zumindest teilweise redundante Information über die Position und/oder Ausrichtung des beweglichen Teils gewonnen und an die zentrale Einheit übertragen werden. Es wird jedoch bevorzugt, dass die von den einzelnen Bildverarbeitungseinrichtungen ermittelte Information nicht vollständig redundant zueinander ist, sondern die Gesamtinformation größer ist als die einzelne Information der Bildverarbeitungseinrichtung.
  • Dies schließt nicht aus, dass die von einer einzigen Bildverarbeitungseinrichtung ermittelte Positions- und/oder Ausrichtungsinformation unabhängig von der Information anderer Bildverarbeitungseinrichtungen für den Betrieb des KMG genutzt werden kann. Z.B. kann die Information der einzelnen Bildverarbeitungseinrichtung ausreichen, um einen von mehreren Antrieben des KMG zur Bewegung des beweglichen Teils zu steuern. Für diesen Antrieb ist lediglich die Information einer einzigen Bildverarbeitungseinrichtung und der zugeordneten Kamera erforderlich. Dies kann auch bei anderen Antrieben der Fall sein, denen jeweils eine andere Bildverarbeitungseinrichtung mit der zugeordneten Kamera zugeordnet ist. Auf diese Weise können z.B. die drei verschiedenen Linearbewegungsantriebe zur Erzeugung einer (geradlinigen) linearen Bewegung in Richtung einer Achse eines kartesischen Koordinatensystems (wie z.B. bei einem KMG in Portalbauweise oder Gantrybauweise der Fall) gesteuert werden. Daher kann zum Zweck der Bewegungssteuerung die Übertragung der Information von den verschiedenen Bildverarbeitungseinrichtungen zu der zentralen Einheit entfallen. Allerdings wird es bevorzugt, dass eine zentrale Einheit des KMG zumindest indirekt von den einzelnen Antriebssteuerungen oder auch direkt von den Bildverarbeitungseinrichtungen die Positionen und/oder Ausrichtungen des beweglichen Teils erhält. Wenn hier von dem beweglichen Teil die Rede ist, kann insbesondere in dem genannten Fall der Koordinatenmessgeräte in Portal- oder Gantrybauweise eine Mehrzahl von beweglichen Teilen vorhanden sein, z.B. das Portal, der Schlitten, welcher in Längsrichtung der Brücke des Portals beweglich ist, und die Pinole, die quer zur Bewegungsrichtung des Schlittens beweglich ist. Die Kameras können daher insbesondere diese oder andere beweglichen Teile erfassen, z.B. jede Kamera lediglich eines der mehreren beweglichen Teile. Alternativ oder zusätzlich ist es aber auch möglich, dass die Mehrzahl der Kameras dasselbe bewegliche Teil insbesondere aus verschiedenen Blickrichtungen erfasst. Dies ist vorzugsweise der Sensorträger.
  • Wenn die Kamera mit dem Sensorträger verbunden ist und eine Mehrzahl der Erfassungsstrukturen mit der Basis verbunden ist und/oder durch die Basis gebildet ist, kann die Kamera insbesondere einen Erfassungsbereich haben, in dem lediglich ein Teil der Mehrzahl der Erfassungsstrukturen liegt, wobei es von der Position und/oder Ausrichtung des Sensorträgers abhängt, welcher Teil der Mehrzahl der Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera erfassbar ist bzw. erfasst wird. Allgemeiner formuliert kann das bewegliche Teil ein anderes bewegliches Teil als der Sensorträger sein. Dafür gilt entsprechendes.
  • Optional kann mit dem beweglichen Teil eine Mehrzahl von Kameras verbunden sein, die in unterschiedliche Blickrichtungen ausgerichtet sind und/oder sich voneinander unterscheidende Erfassungsbereiche haben. Dies ermöglicht es insbesondere dann, wenn aus Sicht einer Kamera Erfassungsstrukturen durch andere Maschinenteile verdeckt sind, durch Auswertung von Bildern der anderen Kamera oder zumindest einer der anderen Kameras die Position und/oder Ausrichtung zu ermitteln. Bevorzugt wird, dass die Kameras unterschiedliche Blickrichtungen haben.
  • Die Anordnung der Erfassungsstrukturen an der Basis kann mit einem Fixsternhimmel verglichen werden. Wie auch bei dem Fixsternhimmel kann insbesondere vorab Information darüber gewonnen werden, wo sich die einzelnen Erfassungsstrukturen befinden und/oder wie diese ausgerichtet sind. Unter Berücksichtigung dieser Vorabinformation und kann daher durch Auswertung der Kamerabilder die Position und/oder Ausrichtung des beweglichen Teils festgestellt werden.
  • Es wird bevorzugt, dass die einzelnen Erfassungsstrukturen sich voneinander unterscheiden, d.h. individuell gestaltet sind. Dies gilt auch für den Fall, dass die zumindest eine Kamera mit der Basis verbunden und die zumindest eine Erfassungsstruktur an dem beweglichen Teil ausgebildet ist. Dies ermöglicht es, bei der Auswertung eines Kamerabildes festzustellen, welche Erfassungsstruktur(en) durch die Erzeugung des Bildes erfasst wurde. Durch Zuordnung der identifizierten Erfassungsstruktur(en) zu einer insbesondere vorab bekannten Position und/oder Ausrichtung der Erfassungsstruktur(en) kann daher ermittelt werden, welchen Teilbereich die Kamera erfasst hat. Aus der Identifikation der Erfassungsstruktur(en) folgt bereits die ungefähre Position und/oder Ausrichtung des beweglichen Teils, mit dem die Kamera verbunden ist oder den die Kamera erfasst. Unter Verwendung der Vorabinformation über die Position und/oder Ausrichtung der identifizierten Erfassungsstruktur kann/wird daher die Position und/oder Ausrichtung des beweglichen Teils ermittelt werden. Eine Mehrzahl von individuell gestalteten Erfassungsstrukturen ermöglicht auch dann eine zuverlässige Positionsbestimmung, wenn eine oder mehrere der Erfassungsstrukturen aus Sicht der Kamera verdeckt sind und daher nicht erfasst werden können. Es kann durch Identifizierung der Erfassungsstruktur auf einfache Weise ermittelt werden, welche Erfassungsstruktur(en) von der Kamera erfasst wurde.
  • Im Vergleich zu der Anordnung der zumindest einen Kamera an der Basis und der Anordnung und/oder Ausbildung der zumindest einen Erfassungsstruktur an dem beweglichen Teil wird für die Variante des Fixsternhimmels bevorzugt, dass der Winkel des Erfassungsbereichs der Kamera kleiner ist.
  • Allgemeiner formuliert erfasst die Kamera lediglich einen Teil der Erfassungsstrukturen, die in der Blickrichtung der Kamera, einschließlich parallel versetzter Blickrichtungen erfassbar sind. Durch den kleineren Raumwinkel des Erfassungsbereichs kann bei gleicher Pixelzahl der Kamerabilder eine feinere örtliche Auflösung erzielt werden. Anders ausgedrückt kann die aufgenommene Datenmenge reduziert werden und/oder die Position und/oder Ausrichtung des beweglichen Teils präziser festgestellt werden. Durch eine kleinere Datenmenge kann die Verzögerung bis zur Feststellung der Position und/oder Ausrichtung des beweglichen Teils verringert werden.
  • Für die Ermittlung der bereits erwähnten Information über Positionen und/oder Ausrichtungen der Erfassungsstrukturen, die mit der Basis verbunden sind, wird es bevorzugt, mit der zumindest einen Kamera Kamerabilder zu erzeugen, durch deren Gesamtheit sämtliche Erfassungsstrukturen erfasst werden. Dabei kann die Position und/oder Ausrichtung des beweglichen Teils durch ein Positionsbestimmungssystem jeweils für den Zeitpunkt der Aufnahme des jeweiligen Kamerabildes festgestellt werden, das zusätzlich zu der optischen Positionsbestimmungseinrichtung vorhanden ist. Z.B. kann dieses zusätzliche Positionsbestimmungssystem ebenfalls ein optisches Positionsbestimmungssystem sein, das beispielsweise eine Mehrzahl von Kameras aufweist, welche bei unterschiedlichen Blickrichtungen mit der Basis verbunden sind. Diese mit der Basis verbundenen Kameras können nach der Aufnahme der Kamerabilder der zumindest einen Kamera, welche mit dem beweglichen Teil verbunden ist, von der Basis entfernt werden. Das zusätzliche Positionsbestimmungssystem kann jedoch auch ein anderes System sein, welches z.B. Lasertriangulation zur Positionsbestimmung nutzt. Während der Aufnahme der Kamerabilder durch die zumindest eine mit dem beweglichen Teil verbundene Kamera kann das bewegliche Teil bewegt werden. Allerdings wird es bevorzugt, dass diese Bewegung bei geringer Geschwindigkeit stattfindet.
  • Wenn zur Gewinnung der Vorabinformation über die Positionen und/oder Ausrichtungen der mit der Basis verbundenen Erfassungsstrukturen wie erwähnt zumindest eine Kamera verwendet wird, die das bewegliche Teil mit der zumindest einen damit verbundenen Kamera erfasst, kann die zumindest eine mit der Basis verbundene Kamera (im Folgenden kurz: äußere Kamera im Gegensatz zu der im Folgenden als innere Kamera bezeichneten Kamera, die mit dem beweglichen Teil verbunden ist) in manchen Konfigurationen die Erfassung eines Teils der mit der Basis verbundenen Erfassungsstrukturen durch die zumindest eine innere Kamera erschweren oder verhindern, insbesondere durch Verdecken von Erfassungsstrukturen. Die äußere Kamera kann daher bereits während der Ermittlung der Vorabinformation nacheinander in unterschiedlichen Positionen mit der Basis verbunden sein. Auch während des eigentlichen Betriebes des KMG kann die äußere Kamera entfernt werden oder an einem anderen Ort und/oder mit anderer Ausrichtung mit der Basis verbunden sein. Wenn die Vorabinformation überprüft werden soll und/oder erneut gewonnen werden soll, kann die zumindest eine äußere Kamera wieder derart mit der Basis verbunden werden, dass die Position und/oder Ausrichtung des beweglichen Teils mit der damit verbundenen zumindest einen inneren Kamera aus ihren Kamerabildern mit hoher Präzision festgestellt werden kann.
  • Ausführungsbeispiele der Erfindung werden nun unter Bezugnahme auf die beigefügte Zeichnung beschrieben. Die einzelnen Figuren der Zeichnung zeigen:
  • 1 in vereinfachter schematischer Darstellung ein Koordinatenmessgerät in Portalbauweise, wobei eine Mehrzahl von Kameras auf den Bewegungsbereich des Sensorträgers am unteren Ende der Pinole des KMG ausgerichtet ist,
  • 2 eine schematische Darstellung mit vier Kameras, deren Erfassungsbereiche den Bewegungsbereich eines Sensorträgers eines KMG abdecken, wobei an dem Sensorträger eine Mehrzahl von Erfassungsstrukturen angeordnet ist,
  • 3 schematisch in vereinfachter Darstellung ein Koordinatenmessgerät in Portalbauweise mit Kameras, die am Sensorträger befestigt sind, und eine Vielzahl von Erfassungsstrukturen, die mit der Basis des KMG verbunden sind, und
  • 4 eine Werkzeugmaschine in Portalbauweise, in einer 1 ähnlichen Darstellung, wobei jedoch am unteren Ende der Pinole statt eines Mess-Sensors ein Bearbeitungswerkzeug getragen wird.
  • 1 zeigt ein Koordinatenmessgerät 1 in Portalbauweise. Auf einem Messtisch 2 des KMG 1 ist das in X-Richtung eines kartesischen Koordinatensystems des KMG 1 bewegliche Portal 3 angeordnet. Ein Schlitten 5 kann in Y-Richtung des Koordinatensystems entlang einem Querträger 4 des Portals 3 bewegt werden. Ferner ist eine Pinole 6 in Z-Richtung des Koordinatensystems beweglich an dem Schlitten 5 angeordnet. Am unteren Ende der Pinole 6 ist ein Messkopf 7, d.h. ein Sensor, befestigt, der einen Taster 8 trägt. In der vereinfachten Darstellung sind keine Antriebe dargestellt.
  • Wie in 1 schematisch dargestellt ist, weist das Koordinatenmessgerät 1 eine Steuerungs- und Auswertungseinrichtung 10 auf, die beispielsweise Teil eines handelsüblichen oder speziell für den Betrieb des KMG ausgestalteten Computers ist, der mit Software für den Betrieb des KMG 1 ausgestattet ist. Die Steuerungs- und Auswertungseinrichtung 10 ist, wie durch eine gepunktete Linie dargestellt ist, mit den beweglichen Teilen des KMG 1 verbunden. Auf dem Messtisch befindet sich ein Werkstück 12 innerhalb des Bewegungsbereichs des Tasters 8.
  • Bei konventionellen KMGs, und auch bei Werkzeugmaschinen, sind Messgeber und Maßverkörperungen an den relativ zueinander beweglichen Teilen angebracht, um die Position des Sensorträgers (hier der Pinole 6) zu bestimmen. In dem dargestellten Beispiel eines KMG wird jedoch die Position des unteren Endes der Pinole von einer Mehrzahl von Kameras erfasst, die über nicht dargestellte Verbindungen mit der Basis des KMG 1 verbunden sind. Zu der Basis gehört insbesondere der Messtisch 2.
  • In dem konkret in 1 dargestellten Ausführungsbeispiel sind lediglich zwei Kameras 13a, 13b dargestellt, die den Bewegungsbereich des unteren Pinolenendes jeweils vollständig erfassen, dabei jedoch in unterschiedliche Blickrichtungen blicken. Bei den Kameras 13 handelt es sich um Weitwinkelkameras. Sie sind, wie durch gepunktete Linien dargestellt ist, ebenfalls mit der Steuerungs- und Auswertungseinrichtung 10 verbunden.
  • 2 zeigt ein durch einen Würfel mit gepunkteten Kantenlinien dargestellten Bewegungsbereich eines beweglichen Teils eines KMG. In der Figur ist als Beispiel der untere Endbereich einer Pinole 6 eines KMG mit daran angekoppelten Taststift 8 als bewegliches Teil dargestellt. Das bewegliche Teil könnte jedoch auch ein anderes Teil eines KMG oder einer Werkzeugmaschine sein, z.B. ein Messkopf eines KMG oder ein Werkzeug oder Werkzeugträger einer Werkzeugmaschine. Die Kameraanordnung in 2 kann zum Beispiel alternativ zu der Anordnung in 1 oder 4 verwendet werden.
  • Insgesamt vier Kameras 23a, 23b, 23c, 23d sind bei unterschiedlicher Richtung jeweils auf den Bewegungsbereich ausgerichtet. Ränder des Erfassungsbereichs von drei der Kameras 23a, 23b, 23c sind wie in 1 durch gestrichelte Linien dargestellt. Am Beispiel der oben in 2 dargestellten Kamera 23b ist ferner schematisch dargestellt, dass die Kameras jeweils eine Optik 24b, z.B. eine Linsenanordnung, und eine Sensorelementen-Matrix 25b aus strahlungsempfindlichen Sensorelementen aufweisen.
  • Das bewegliche Teil 6 weist an verschiedenen Seiten, hier an unterschiedlich orientierten Oberflächen, jeweils zumindest einen Marker 31 auf. Im Beispiel sind an der nach vorne weisenden Oberfläche und an der nach rechts weisenden Oberfläche jeweils vier Marker 31 angeordnet. Die Marker 31 werden jeweils zumindest von einer der Kameras 23 erfasst. Z.B. werden die Marker 31 der nach rechts weisenden Oberfläche des beweglichen Teils 6 von den Kameras 23c, 23d rechts und im Vordergrund der 2 erfasst. Die im Vordergrund dargestellte Kamera 23d kann z.B. außerdem, die nach vorne weisende Oberfläche erfassen, die auch von der links oben dargestellten Kamera 23a erfasst wird.
  • Die schematisch in 1 und 2 dargestellten Anordnungen von Kameras, die an der Basis eines KMG oder einer Werkzeugmaschine befestigt sind, sind lediglich Beispiele. Dies gilt auch für die in 1 dargestellte Konstruktion eines KMG. In 4 ist als Variante eine Werkzeugmaschine 41 dargestellt, deren Konstruktion der Konstruktion des KMG 1 aus 1 mit wenigen Ausnahmen gleicht. Im Folgenden wird kurz der Unterschied zwischen der Werkzeugmaschine 41 in 4 und dem KMG 1 in 1 beschrieben. Gleiche Bezugszeichen bezeichnen gleiche Teile, die nicht erneut beschrieben werden. Die Werkzeugmaschine 41 in 4 weist am unteren Ende der Pinole 6 einen Werkzeugträger 17 auf, der ein Bearbeitungswerkzeug 18 zum Bearbeiten eines Werkstücks 22 auf dem Tisch trägt.
  • Bei den in 1, 2 und 4 dargestellten Anordnungen mit an der Basis befestigten Kameras 13; 23 wird die Position und/oder Ausrichtung des beweglichen Teils beispielsweise wie folgt festgestellt. Die Kameras 13; 23 nehmen wiederholt, z.B. mit einer Taktfrequenz von 100 Hz, Bilder ihres Erfassungsbereichs auf. Jedes Bild erhält einen Zeitstempel, d.h. der Zeitpunkt der Aufnahme des jeweiligen Kamerabildes wird dem Kamerabild zugeordnet und z.B. in einem gemeinsamen Datensatz mit den Bilddaten abgespeichert.
  • Insbesondere aus zum gleichen Zeitpunkt aufgenommenen Kamerabildern mehrerer der Kameras 13; 23 wird die Position und/oder Ausrichtung des beweglichen Teils innerhalb seines Bewegungsbereichs festgestellt. Jedes einzelne auszuwertende Kamerabild wird optional einer Vorbearbeitung unterzogen, in der derjenige Bildbereich des Kamerabildes ermittelt wird, in dem sich zumindest eine Erfassungsstruktur des beweglichen Teils (z.B. ein charakteristisches Merkmal oder ein Marker) befindet. In diesem Fall werden lediglich die Bilddaten des ermittelten Bereiches des Kamerabildes weiter zum Zweck der Feststellung der Position und/oder Ausrichtung des beweglichen Teils ausgewertet. Diese Vorbearbeitung findet z.B. innerhalb der jeweiligen Kamera statt, die das Kamerabild aufgenommen hat, und wird z.B. von einem Mikroprozessor der Kamera durchgeführt. Auch der nächste Verarbeitungsschritt, nämlich die Bestimmung der Position und/oder Ausrichtung der zumindest einen Erfassungsstruktur, die in dem Kamerabild erfasst ist, in Bezug auf ein Koordinatensystem der Kamera (bei dem es sich insbesondere um ein zweidimensionales in der Bildebene des Kamerabildes liegendes Koordinatensystem handeln kann), kann dezentral ausgeführt werden, z.B. durch den erwähnten Mikroprozessor der Kamera. Alternativ ist es jedoch auch möglich, die zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras und/oder die nicht zum gleichen Zeitpunkt aufgenommenen Kamerabilder mehrerer Kameras, die jedoch dieselbe oder annähernd dieselbe Position und/oder Ausrichtung des beweglichen Teils erfasst haben, gemeinsam von einer zentralen Auswertungseinrichtung auswerten zu lassen. Dies ist insbesondere dann sinnvoll, wenn Kamerabilder verschiedener Kameras dieselbe Erfassungsstruktur oder dieselben Erfassungsstrukturen erfassen.
  • Bei der Feststellung der Position und/oder Ausrichtung des beweglichen Teils aus dem oder den Kamerabildern wird insbesondere die Kenntnis der geometrischen Eigenschaften der Erfassungsstruktur genutzt. Z.B. kann es sich bei der Erfassungsstruktur um eine kreisförmige oder rechteckförmige Erfassungsstruktur handeln, wobei die Fläche der Erfassungsstruktur innerhalb ihrer Umrandung vorzugsweise nicht optisch homogen ist, d.h. auch über den Verlauf ihrer Fläche hat die Erfassungsstruktur eine optische Struktur. Es kann daher nicht nur aus dem Verlauf des in dem Kamerabild abgebildeten Randes der Erfassungsstruktur, sondern alternativ oder zusätzlich aus dem Bild der strukturierten Fläche auf die Position und/oder Ausrichtung der Erfassungsstruktur und somit auf die des damit verbundenen beweglichen Teils geschlossen werden.
  • Die Kenntnis über die zumindest eine erfasste Erfassungsstruktur erlaubt es, aufgrund von geometrischen Überlegungen aus dem zumindest einen Kamerabild festzustellen, wie die Erfassungsstruktur im Bewegungsbereich des beweglichen Teils positioniert und/oder ausgerichtet ist. Z.B. wird eine Erfassungsstruktur mit kreisförmig umlaufendem Rand im Kamerabild im Allgemeinen als eine Struktur abgebildet, die einen umlaufenden Rand einer Ellipse hat. Z.B. durch Feststellung der Lage und Länge der Hauptachsen der Ellipse in dem Kamerabild kann der Blickwinkel der Kamera bezüglich der Erfassungsstruktur und die Entfernung der Kamera zur Erfassungsstruktur festgestellt werden. Vorzugsweise enthält die zumindest eine in dem Kamerabild oder den Kamerabildern erfasste Erfassungsstruktur redundante Information, sodass die Position und/oder Ausrichtung der Erfassungsstruktur nicht lediglich anhand eines Strukturmerkmals, sondern anhand einer Mehrzahl von Strukturmerkmalen durchgeführt werden kann. Dadurch wird die Sicherheit bei der Bestimmung der Position und/oder Ausrichtung des beweglichen Teils erhöht. Dies gilt auch bezüglich der Auswertung mehrerer Kamerabilder, die in demselben Bewegungszustand des beweglichen Teils zumindest eine Erfassungsstruktur aus verschiedenen Blickrichtungen erfasst haben.
  • Die Feststellung der Abbildungsgeometrie von Kamera und beweglichem Teil, z.B. mit Berechnung des Blickwinkels und der Entfernung aus der Geometrie der abgebildeten Erfassungsstruktur, stellt jedoch nicht die einzige mögliche Vorgehensweise dar. Aus der Bildverarbeitung sind andere Verfahren bekannt. Z.B. kann durch Vergleichen der in dem Kamerabild abgebildeten Erfassungsstruktur mit simulierten und/oder vorher aufgenommenen Bildern die Position und/oder Ausrichtung der Erfassungsstruktur im Bewegungsbereich ermittelt werden. Z.B. kann jedem der simulierten oder vorher aufgenommenen Bilder die entsprechende Position und/oder Ausrichtung zugeordnet sein. Durch Ermittlung des korrekten Vergleichsbildes wird daher die Position und/oder Ausrichtung festgestellt.
  • 3 zeigt ein Ausführungsbeispiel für die Umkehrung des anhand von 1, 2 und 4 erläuterten Prinzips, wonach die zumindest eine Kamera mit der Basis verbunden ist und die zumindest eine Erfassungsstruktur mit dem beweglichen Teil verbunden ist. Bei der Umkehrung des Prinzips ist zumindest eine Kamera mit dem beweglichen Teil verbunden und zumindest eine Erfassungsstruktur mit der Basis verbunden.
  • In 3 ist dieselbe Konstruktion eines KMG wie in 1 gezeigt. Alternativ kann es sich bei dem Gerät um eine Werkzeugmaschine handeln wie z.B. in 4. Auch die Umkehrung des Erfassungsprinzips kann auf andere Konstruktionen von KMGs und Werkzeugmaschinen angewendet werden, z.B. auf KMGs in Horizontalarmbauweise oder Gelenkarmbauweise und auf entsprechend konstruierte Werkzeugmaschinen.
  • 3 zeigt schematisch und vereinfacht, dass sich außerhalb des Bewegungsbereichs des beweglichen Teils (hier z.B. des unteren Endbereichs der Pinole 6) eine Anordnung mit einer Vielzahl von Markern 31 befinden kann. Aus Gründen der vereinfachten Darstellung sind in 3 lediglich hinter dem Bewegungsbereich Marker 31 angeordnet. In der Praxis können sich jedoch weitere Marker z.B. auch seitlich, im Vordergrund und über dem Bewegungsbereich befinden. In dem dargestellten Ausführungsbeispiel sind elf Reihen mit jeweils neun Markern 31 vorhanden, wobei aus Gründen der besseren Erkennbarkeit der Darstellung einige Marker 31 weggelassen sind, die sich hinter der Pinole und hinter dem Messkopf 7 und dem Taster 8 befinden.
  • Im unteren Endbereich der Pinole 6 sind zwei Kameras 33a, 33b dargestellt, die mit der Pinole 6 verbunden sind. Alternativ können mehr als zwei Kameras oder kann lediglich eine Kamera an der Pinole 6 befestigt sein. Die beiden in 3 dargestellten Kameras 33a, 33b sind in unterschiedliche Ausrichtungen ausgerichtet. Randlinien ihres Erfassungsbereichs sind gestrichelt dargestellt. In dem in 3 gezeigten Zustand erfasst jede der beiden Kameras 33a, 33b zumindest einen der Marker 31 vollständig. Die vollständig erfassten Marker 31 sind in der Zeichnung mit einem Pluszeichen gekennzeichnet. Insbesondere wenn die Marker 31 jeweils eine individuelle Struktur haben oder auf andere Weise für die Kamera erkennbar individuell gestaltet sind, kann bereits aus der Identifizierung der in dem Kamerabild erfassten Erfassungsstruktur und aus der Kenntnis über die Ausrichtung des Erfassungsbereichs der Kamera Information über die ungefähre Position und/oder Ausrichtung des beweglichen Teils gewonnen werden. Bewegt sich z.B. die Pinole 6 aus dem in 3 dargestellten Zustand nach oben in Z-Richtung, würde nicht mehr der mit einem Pluszeichen in 3 dargestellte Marker erfasst, sondern ein darüber liegender Marker.
  • Die Erfassungsbereiche der Kameras 33a, 33b in 3 erstrecken sich über einen kleineren Raumwinkel als die Erfassungsbereiche der Anordnungen in 1, 2 und 4. Die jeweilige erfasste Erfassungsstruktur nimmt daher einen größeren Teil des aufgenommenen Kamerabildes ein und es kann daher prinzipiell eine feinere Auflösung und genauere Feststellung der Position und/oder Ausrichtung des beweglichen Teils erzielt werden und/oder die Anzahl der Pixel der Kamerabilder reduziert werden, sodass insbesondere mit höherer Wiederholfrequenz Kamerabilder aufgenommen werden können.

Claims (16)

  1. Koordinatenmessgerät (1), aufweisend • einen Sensor (7) zur Erfassung von Koordinaten eines Werkstücks, • einen beweglichen Sensorträger (6), der den Sensor (7) trägt und der innerhalb eines Bewegungsbereichs relativ zu einer Basis des Koordinatenmessgeräts (1) bewegbar ist, • eine Positionsbestimmungseinrichtung (10, 13; 23; 33) zur Feststellung einer Position und/oder einer Ausrichtung des Sensorträgers (6), • eine Auswertungseinrichtung, die aus einer von der Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus Signalen des Sensors (7) Koordinaten des Werkstücks ermittelt, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Kamera (13; 23; 33) und zumindest eine von der Kamera (13; 23; 33) erfassbare Erfassungsstruktur (31) aufweist, wobei • die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger (6) gebildet ist oder • die Kamera (33) mit dem Sensorträger (6) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen (31) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) ausgestaltet ist, aus Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur erfasst, die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.
  2. Koordinatenmessgerät nach Anspruch 1, wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei in einem Abstand zu der Kamera (13; 23) eine Kalibrierungsstruktur mit der Basis (2) verbunden ist und wobei die Kalibrierungsstruktur und die Kamera (13; 23) derart angeordnet sind, dass die Kalibrierungsstruktur von der Kamera (13; 23) gleichzeitig mit der Erfassungsstruktur (31) erfassbar ist.
  3. Koordinatenmessgerät nach Anspruch 1 oder 2, wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei die Kamera (13; 23) einen Erfassungsbereich hat, in dem die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen durch Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs bewegbar ist und dennoch von der Kamera (13; 23) erfassbar ist, und wobei die Kamera (13; 23) unabhängig von der Position und/oder Ausrichtung des Sensorträgers (6) den gesamten Erfassungsbereich erfasst.
  4. Koordinatenmessgerät nach Anspruch 3, wobei die Positionsbestimmungseinrichtung (10; 13; 23) ausgestaltet ist, aus den Erfassungssignalen der Kamera (13; 23), die dem gesamten Erfassungsbereich entsprechen, einen Teil der Erfassungssignale auszuwählen, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur (31) oder der zumindest einen der Erfassungsstrukturen enthält, und durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.
  5. Koordinatenmessgerät nach einem der Ansprüche 1–4, wobei das Koordinatenmessgerät eine Bewegungssteuerung aufweist, mit der eine Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs steuerbar ist, und wobei die Bewegungssteuerung ausgestaltet ist, die Bewegung des Sensorträgers (6) unter Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des Sensorträgers (6) zu steuern, die die Positionsbestimmungseinrichtung (10; 13; 23; 33) durch Auswertung der Erfassungssignale der Kamera (13; 23; 33) festgestellt hat.
  6. Koordinatenmessgerät nach einem der Ansprüche 1–5, wobei das Koordinatenmessgerät eine Beleuchtungseinrichtung aufweist, die ausgestaltet ist, die zumindest eine Erfassungsstruktur (31) mit elektromagnetischer Strahlung zu beleuchten, wobei die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera (13; 23; 33) erfassbar ist.
  7. Koordinatenmessgerät nach einem der Ansprüche 1–6, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) eine Mehrzahl der Kameras (13; 23; 33) aufweist, die jeweils eine Erfassungsstruktur (31), jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen, wobei jede der Kameras (13; 23; 33) mit einer zugeordneten Bildverarbeitungseinrichtung kombiniert ist, die jeweils lediglich Erfassungssignale einer der Kameras (13; 23; 33) verarbeitet und dadurch Information über die Position und/oder Ausrichtung der von der Kamera (13; 23; 33) erfassten Erfassungsstruktur(en) gewinnt, und wobei die Bildverarbeitungseinrichtungen mit einer zentralen Einheit der Positionsbestimmungseinrichtung (10; 13; 23; 33) verbunden sind, die ausgestaltet ist, aus der von den Bildverarbeitungseinrichtungen gewonnenen Information die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen.
  8. Koordinatenmessgerät nach einem der Ansprüche 1 und 5–7, wobei die Kamera (33) mit dem Sensorträger (6) verbunden ist und eine Mehrzahl der Erfassungsstrukturen mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, und wobei die Kamera (33) einen Erfassungsbereich hat, in dem lediglich ein Teil der Mehrzahl der Erfassungsstrukturen liegt, wobei es von der Position und/oder Ausrichtung des Sensorträgers (6) abhängt, welcher Teil der Mehrzahl der Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera (33) erfassbar ist.
  9. Verfahren zum Betreiben eines Koordinatenmessgeräts (1), wobei • ein Sensor (7) Sensorsignale zur Erfassung von Koordinaten eines Werkstücks erzeugt, • ein beweglicher Sensorträger (6), der den Sensor (7) trägt, innerhalb eines Bewegungsbereichs relativ zu einer Basis (2) des Koordinatenmessgeräts (1) bewegt wird, • eine Positionsbestimmungseinrichtung (10; 13; 23; 33) des Koordinatenmessgeräts (1) eine Position und/oder eine Ausrichtung des Sensorträgers (6) feststellt, • eine Auswertungseinrichtung des Koordinatenmessgeräts (1) aus einer von der Positionsbestimmungseinrichtung (10; 13; 23; 33) festgestellten Position und/oder Ausrichtung des Sensorträgers (6) und aus den Sensorsignalen Koordinaten des Werkstücks ermittelt, wobei zumindest eine Kamera (13; 23; 33) der Positionsbestimmungseinrichtung (10; 13; 23; 33) zumindest eine Erfassungsstruktur (31) erfasst, wobei • die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist oder • die Kamera (33) mit dem Sensorträger (6) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen (31) mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, wobei die Positionsbestimmungseinrichtung (10; 13; 23; 33) aus Erfassungssignalen der Kamera (13; 23; 33), mit denen die Kamera (13; 23; 33) die Erfassungsstruktur (31) erfasst, die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
  10. Verfahren nach Anspruch 9, wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, und wobei die Kamera (13; 23) gleichzeitig mit der Erfassungsstruktur (31) eine Kalibrierungsstruktur erfasst, die mit der Basis (2) verbunden ist.
  11. Verfahren nach Anspruch 9 oder 10, wobei die Kamera (13; 23) mit der Basis (2) verbunden ist und die Erfassungsstruktur (31) oder zumindest eine der Erfassungsstrukturen mit dem Sensorträger (6) verbunden ist und/oder durch den Sensorträger gebildet ist, wobei die Kamera (13; 23) einen Erfassungsbereich hat, in dem die Erfassungsstruktur (31) oder die zumindest eine der Erfassungsstrukturen durch Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs bewegbar ist und dennoch von der Kamera (13; 23) erfassbar ist, und wobei die Kamera (13; 23) unabhängig von der Position und/oder Ausrichtung des Sensorträgers (6) den gesamten Erfassungsbereich erfasst.
  12. Verfahren nach Anspruch 11, wobei die Positionsbestimmungseinrichtung (10; 13; 23) aus den Erfassungssignalen der Kamera (13; 23), die den gesamten Erfassungsbereich entsprechen, einen Teil der Erfassungssignale auswählt, der Information über die Position und/oder Ausrichtung der Erfassungsstruktur (31) oder der zumindest einen der Erfassungsstrukturen enthält, und durch Auswertung des Teils der Erfassungssignale die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
  13. Verfahren nach einem der Ansprüche 9–12, wobei von einer Bewegungssteuerung des Koordinatenmessgeräts (1) eine Bewegung des Sensorträgers (6) innerhalb des Bewegungsbereichs gesteuert wird und wobei die Bewegungssteuerung die Bewegung des Sensorträgers (6) unter Berücksichtigung von Ist-Werten der Position und/oder Ausrichtung des Sensorträgers (6) steuert, die die Positionsbestimmungseinrichtung (10; 13; 23; 33) durch Auswertung der Erfassungssignale der Kamera (13; 23; 33) festgestellt hat.
  14. Verfahren nach einem der Ansprüche 9–13, wobei die zumindest eine Erfassungsstruktur (31) mit elektromagnetischer Strahlung beleuchtet wird, wobei die elektromagnetische Strahlung Infrarot-Strahlung ist, deren Intensitätsverteilung von der Kamera (13; 23; 33) erfasst wird.
  15. Verfahren nach einem der Ansprüche 9–14, wobei eine Mehrzahl der Kameras (13; 23; 33) der Positionsbestimmungseinrichtung (10; 13; 23; 33) jeweils eine Erfassungsstruktur (31), jeweils eine der Erfassungsstrukturen oder jeweils mehrere der Erfassungsstrukturen erfassen, um die Position und/oder Ausrichtung des Sensorträgers (6) festzustellen, wobei jede der Kameras (13; 23; 33) Erfassungssignale lediglich einer zugeordneten Bildverarbeitungseinrichtung übermittelt, die die Erfassungssignale lediglich einer der Kameras (13; 23; 33) verarbeitet und dadurch Information über die Position und/oder Ausrichtung der von der Kamera erfassten Erfassungsstruktur(en) gewinnt, und wobei die Information von den Bildverarbeitungseinrichtungen zu einer zentralen Einheit der Positionsbestimmungseinrichtung (10; 13; 23; 33) übertragen wird, die aus der Information die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
  16. Verfahren nach einem der Ansprüche 9 und 13–15, wobei die Kamera (33) mit dem Sensorträger (6) verbunden ist und eine Mehrzahl der Erfassungsstrukturen mit der Basis (2) verbunden ist und/oder durch die Basis (2) gebildet ist, und wobei die Kamera (33) in einem von ihr erfassten Erfassungsbereich lediglich einen Teil der Mehrzahl der Erfassungsstrukturen erfasst, wobei es von der Position und/oder Ausrichtung des Sensorträgers (6) abhängt, welcher Teil der Mehrzahl der Erfassungsstrukturen in dem Erfassungsbereich liegt und daher von der Kamera (33) erfasst wird, und wobei die Positionsbestimmungseinrichtung (10, 33) durch Auswertung von Erfassungssignalen der Kamera (33), die dem Teil der Mehrzahl der Erfassungsstrukturen entsprechen, die Position und/oder Ausrichtung des Sensorträgers (6) feststellt.
DE102015204796.2A 2015-03-17 2015-03-17 Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts Ceased DE102015204796A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015204796.2A DE102015204796A1 (de) 2015-03-17 2015-03-17 Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts
PCT/EP2016/054342 WO2016146379A1 (de) 2015-03-17 2016-03-01 Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015204796.2A DE102015204796A1 (de) 2015-03-17 2015-03-17 Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts

Publications (1)

Publication Number Publication Date
DE102015204796A1 true DE102015204796A1 (de) 2016-09-22

Family

ID=55446808

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015204796.2A Ceased DE102015204796A1 (de) 2015-03-17 2015-03-17 Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts

Country Status (2)

Country Link
DE (1) DE102015204796A1 (de)
WO (1) WO2016146379A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234260B2 (en) * 2015-06-12 2019-03-19 Hexagon Technology Center Gmbh Method to control a drive mechanism of an automated machine having a camera
DE102018115620A1 (de) * 2018-06-28 2020-01-02 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem
DE102021105293A1 (de) 2021-03-04 2022-09-08 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät und Verfahren zum Kalibrieren eines Koordinatenmessgeräts

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2568459B (en) * 2017-10-13 2020-03-18 Renishaw Plc Coordinate positioning machine
CN108145534B (zh) * 2017-12-15 2019-06-11 西安交通大学 一种立式加工中心运行特性检测与评估方法
CN109986410A (zh) * 2018-01-02 2019-07-09 东莞市鑫国丰机械有限公司 铣床加工与量测的结合结构
DE102020209486B3 (de) 2020-07-28 2021-09-30 Carl Zeiss Industrielle Messtechnik Gmbh Aktuator

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1988007656A1 (en) * 1987-03-21 1988-10-06 Renishaw Plc Interferometer position measurement system
DE102010014423A1 (de) * 2010-03-31 2011-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Starten einer Messprozedur zum Messen von Koordinaten eines Werkstücks
EP2698596A1 (de) * 2012-08-16 2014-02-19 Hexagon Technology Center GmbH Verfahren und System zur Bestimmung der räumlichen Koordinaten mit einer mobilen Koordinatenmessmaschine
EP2705935A1 (de) * 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Koordinatenmessmaschine
US20150049186A1 (en) * 2011-12-06 2015-02-19 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10048097A1 (de) * 2000-09-28 2002-04-18 Zeiss Carl Koordinatenmeßgerät
CN101304842B (zh) * 2005-09-13 2011-11-16 古德曼·斯莱特芒 光学机械测位仪
DE202008011332U1 (de) * 2008-08-26 2010-02-11 Dmg Microset Gmbh Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs
DE102011011360A1 (de) * 2011-02-16 2012-08-16 Steinbichler Optotechnik Gmbh Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102014012203A1 (de) * 2013-08-16 2015-02-19 Steinbichler Optotechnik Gmbh Vorrichtung zum Bestimmen der 3D-Koordinaten der Oberfläche eines Objekts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1988007656A1 (en) * 1987-03-21 1988-10-06 Renishaw Plc Interferometer position measurement system
DE102010014423A1 (de) * 2010-03-31 2011-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Starten einer Messprozedur zum Messen von Koordinaten eines Werkstücks
US20150049186A1 (en) * 2011-12-06 2015-02-19 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera
EP2698596A1 (de) * 2012-08-16 2014-02-19 Hexagon Technology Center GmbH Verfahren und System zur Bestimmung der räumlichen Koordinaten mit einer mobilen Koordinatenmessmaschine
EP2705935A1 (de) * 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Koordinatenmessmaschine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234260B2 (en) * 2015-06-12 2019-03-19 Hexagon Technology Center Gmbh Method to control a drive mechanism of an automated machine having a camera
DE102018115620A1 (de) * 2018-06-28 2020-01-02 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem
DE102021105293A1 (de) 2021-03-04 2022-09-08 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät und Verfahren zum Kalibrieren eines Koordinatenmessgeräts

Also Published As

Publication number Publication date
WO2016146379A1 (de) 2016-09-22

Similar Documents

Publication Publication Date Title
EP3278302B1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
DE102015204796A1 (de) Koordinatenmessgerät mit beweglichem Sensorträger und Positionsbestimmungseinrichtung, sowie Verfahren zum Betreiben eines Koordinatenmessgeräts
EP3321628B1 (de) Koordinaten-messvorrichtung mit optischem sensor und entsprechendes verfahren
EP0330901B1 (de) Mehrkoordinatenmess- und prüfeinrichtung
DE19841235C5 (de) Positionskalibrierverfahren für eine optische Meßeinrichtung
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE102006059416B4 (de) Vorrichtung und Verfahren zur Steigerung der Messgenauigkeit digitaler 3D-Geometriemesssysteme
DE102015217637C5 (de) Betreiben eines konfokalen Weißlichtsensors an einem Koordinatenmessgerät und Anordnung
EP3441712A1 (de) Koordinaten-messvorrichtung mit optischem sensor und entsprechendes verfahren
EP1347266B1 (de) Vorrichtung zum Vermessen eines Messobjekts
DE3342675A1 (de) Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten
EP2762832B1 (de) Optische Einzelpunktmessung
CH666547A5 (de) Optisch-elektronisches messverfahren, eine dafuer erforderliche einrichtung und deren verwendung.
EP3418680B1 (de) System und verfahren zur positionierungsmessung
DE102015217332A1 (de) Positionsmessvorrichtung
DE102011012611A1 (de) Verfahren und Vorrichtung zur berührungslosen Messung eines Winkels
WO2015169345A1 (de) Verfahren und vorrichtung zum kalibrieren einer abbildungsoptik für messtechnische anwendungen
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
DE102013208397B4 (de) Koordinatenmessgerät mit einem zusätzlichen, berührungslos messenden Oberflächenvermessungsgerät
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
DE3910855C2 (de)
EP3739287A1 (de) Vermessungsvorrichtung
DE4434233A1 (de) Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere von ungleichförmig bewegten Meßobjekten
DE102016013550B3 (de) Profilmesssystem für eine Rauheits- und Konturmessung an einer Oberfläche eines Werkstücks

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final