DE102014202977A1 - Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts - Google Patents

Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts Download PDF

Info

Publication number
DE102014202977A1
DE102014202977A1 DE102014202977.5A DE102014202977A DE102014202977A1 DE 102014202977 A1 DE102014202977 A1 DE 102014202977A1 DE 102014202977 A DE102014202977 A DE 102014202977A DE 102014202977 A1 DE102014202977 A1 DE 102014202977A1
Authority
DE
Germany
Prior art keywords
workpiece
coordinate measuring
camera
image data
camera image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014202977.5A
Other languages
English (en)
Inventor
Thomas Engel
Tobias Held
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102014202977.5A priority Critical patent/DE102014202977A1/de
Publication of DE102014202977A1 publication Critical patent/DE102014202977A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/047Accessories, e.g. for positioning, for tool-setting, for measuring probes

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts, wobei von einer 3D-Kamera räumlich dreidimensionale Kamerabilddaten eines Werkstücks aufgenommen werden, während sich das Werkstück in einem Messvolumen des Koordinatenmessgeräts befindet, mittels einer zusätzlichen Koordinatenmesseinrichtung des Koordinatenmessgeräts das Werkstück in dem Messvolumen abgetastet wird und durch Auswertung von Ergebnissen der Abtastung die Koordinaten des Werkstücks bestimmt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Bestimmen von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts. Mittels einer Koordinatenmesseinrichtung des Koordinatenmessgeräts wird das Werkstück abgetastet, während sich das Werkstück in einem Messvolumen des Koordinatenmessgeräts befindet. Durch Auswertung von Ergebnissen der Abtastung werden die Koordinaten des Werkstücks bestimmt. Die Erfindung betrifft ferner eine Anordnung zum Bestimmen von Koordinaten eines Werkstücks mit einem Koordinatenmessgerät, einer Koordinatenmesseinrichtung des Koordinatenmessgeräts und einer Auswertungseinrichtung, die ausgestaltet, Ergebnisse der Abtastung des Werkstücks auszuwerten und die Koordinaten des Werkstücks zu bestimmen.
  • Die Bestimmung von Koordinaten eines Werkstücks kann auch als Vermessung des Werkstücks bezeichnet werden. Ein Verfahren zur berührungslosen Vermessung von Objektoberflächen wird z. B. in DE 4026942 A1 beschrieben. Dabei werden mit einer Videokamera, die über ein Dreh-/Schwenkgelenk an einem Messarm eines Koordinatenmessgeräts angeordnet ist, Kamerabilder des Objekts von mehreren, unterschiedlichen Positionen heraus aufgenommen. Die in den unterschiedlichen Positionen aufgenommenen Bilder werden gespeichert und in Bezug auf die Koordinaten charakteristischer Punkte der Objektoberfläche, nach dem aus der Fotogrammetrie bekannten Verfahren des räumlichen Vorwärtseinschnitts ausgewertet. Dabei werden die von den Maßstäben des Koordinatenmessgeräts gelieferten Positionswerte und vom Dreh-/Schwenkgelenk gelieferten Winkelmesswerte zur Bestimmung der Kameraorientierung herangezogen. Insbesondere ist ein Rechner in der Lage, durch Auswertung von Kamerabildern aus verschiedenen Winkelstellungen und Positionen der Kamera dreidimensionale Objekt-Koordinaten eindeutig aus den gelieferten Positionsmesswerten, den Winkelmesswerten und den von einer Bildverarbeitungseinrichtung gelieferten Bilddaten zu berechnen.
  • Obwohl mit diesem Verfahren Objekte zuverlässig berührungslos vermessen werden können, ist der Aufwand für die Erzeugung der Kamerabilder aus verschiedenen Positionen verhältnismäßig hoch. Ferner kann trotz hoher Präzision bei der Bestimmung der Positionsmesswerte und Winkelmesswert lediglich mit einem geometrischen Fehler die Beziehung zwischen den verschiedenen Kamerabildern hergestellt werden. Auch gibt es Fälle, in denen eine taktile Abtastung des Werkstücks mittels eines Tasters zu bevorzugen ist. Beispielsweise können Vertiefungen und Hinterschneidungen auf diese Weise erfasst werden.
  • WO 02/25207 A1 beschreibt ein Verfahren zur Messung einer Objektgeometrie, die durch einen optischen Sensor aufgenommen und als Bildinhalt dargestellt wird. In dem Bildinhalt zur Messung des Objektes geeignete geometrische Strukturen werden ausgewählt und anschließend ausgewertet. Bei Änderung des Bildinhaltes wird dieser automatisch nach den zur Messung des Objektes geeigneten geometrischen Strukturen durchsucht, und werden die geeigneten Strukturen markiert und zur weiteren Auswertung zur Verfügung gestellt.
  • Im Unterscheid zu dem Verfahren gemäß der DE 4026942 A1 wird bei dem Verfahren gemäß WO 02/25207 A1 aus den Bilddaten nicht lediglich die Objektgeometrie bestimmt, sondern auch die zur Messung des Objektes geeigneten geometrischen Strukturen ermittelt. Die oben beschriebenen Nachteile gelten aber gleichermaßen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Bestimmen von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts anzugeben, das eine schnelle Erfassung eines Werkstücks oder anderer in dem Messvolumen eines Koordinatenmessgeräts angeordneter Objekte ermöglicht, wobei Fehler der Geometrie aufgrund der Erfassung möglichst gering sein sollen.
  • Es wird vorgeschlagen, zusätzlich zu einer Koordinatenmesseinrichtung des Koordinatenmessgeräts, mit der das Werkstück in dem Messvolumen abgetastet wird (optisch, taktil oder auf andere Weise) eine 3D-Kamera zu verwenden, mittels der Kamerabilddaten eines Werkstücks, eines Teils davon oder zumindest eines Teilbereichs des Messvolumens aufgenommen werden.
  • Unter einer 3D-Kamera wird eine Kamera verstanden, die ohne Veränderung der Relativposition der Kamera und eines Aufnahmeobjektes in der Lage ist, ein dreidimensionales Bild des Objektes aufzunehmen. Insbesondere ist die 3D-Kamera ausgestaltet, für eine Vielzahl von Sensorelementen einer Sensormatrix nicht nur einen Bildwert (z. B. Grauwert einer Graustufenskala entsprechend der Intensität der einfallenden elektromagnetischen Strahlung, oder z. B. Farbwerte entsprechend der Intensitäten von Farben in einem Farbraum der einfallenden elektromagnetischen Strahlung) zu erfassen, sondern auch eine räumliche Dimension, die in Blickrichtung des Sensorelements und damit der 3D-Kamera auf das Objekt entspricht. Z. B. kann die räumliche Dimension durch einen Abstandswert angegeben werden, der dem Abstand des Sensorelements oder eines anderen Bezugspunkts oder Bezugsebene der Kamera (z. B. der Ebene einer Linse oder Linsenanordnung oder eines Brennpunktes) zu dem von dem Sensorelement erfassten Bereich der Objektoberfläche entspricht. Alternativ kann die räumliche Dimension z. B. durch einen Wert eines Tiefenprofils einer Objektoberfläche des Objekts angegeben werden, das auf einen Punkt auf der Objektoberfläche normiert ist. Erfasst die Kamera z. B. eine ebene Objektoberfläche aus einer Blickrichtung, die senkrecht zu der ebenen Objektoberfläche verläuft, und weist die ebene Oberfläche eine lokale Vertiefung z. B. in Form einer Bohrung auf, würden den Sensorelementen der 3D-Kamera, welche die Vertiefung erfassen, in jedem Fall ein größerer erfasster Abstand bzw. einer größeren Profiltiefe zugeordnet, als den Sensorelementen, welche den ebenen Bereich der Oberfläche erfassen.
  • Insbesondere weist die 3D-Kamera eine einzige durchgehende Detektoroberfläche auf, die für die Erfassung von Tiefeninformationen zusätzlich zu der Erfassung der Strahlungsintensität genutzt wird. Daher ist keine Kombination mehrerer Detektorflächen, die quer zur Blickrichtung der Kamera voneinander beabstandet sind, vorhanden. Zwar könnte mit mehreren Detektorflächen gemäß dem stereoskopischen Prinzip auch Tiefeninformation ermittelt werden, jedoch werden dafür pro Bildelement zumindest zwei Sensorelemente benötigt, die unter verschiedenen Blickwinkeln die Objektoberfläche erfassen. Außerdem ist eine größere Breite der Anordnung quer zur Blickrichtung die Folge. Vor allem bei schmalen Vertiefungen und ungünstigen Beleuchtungsverhältnissen können die Vertiefungen nicht mit derselben Zuverlässigkeit bezüglich ihrer Tiefe erfasst werden, wie bei einer 3D-Kamera mit einer einzigen Detektoroberfläche.
  • Eine Art von Kameras, die als 3D-Kamera für die Zwecke der Erfindung verwendbar ist, wird üblicherweise als TOF (Time-Of-Light)-Kamera bezeichnet. Dabei wird zusätzlich zu der Strahlungsintensität (z. B. Grauwert oder Farbwerte) auch die Laufzeit oder "Flugzeit" von Strahlung gemessen, die von der 3D-Kamera oder einer separaten, mit der Kamera gekoppelten Strahlungsquelle, auf das zu erfassende Objekt einfällt und von diesem zu der Matrix von Sensorelementen reflektiert wird. Für jedes Sensorelement, dem eine Tiefeninformation zugeordnet werden soll, wird die Laufzeit oder Flugzeit separat ermittelt.
  • Eine andere Art von 3D-Kameras, die beispielsweise für die Zwecke der vorliegenden Erfindung verwendet werden kann, ist die plenoptische Kamera, die auch Lichtfeldkamera genannt wird. Dabei wird die für ein zugeordnetes Sensorelement der Sensormatrix bestimmte, einfallende Strahlung mit Hilfe optischer Elemente (z. B. Linsengitter) hinsichtlich der Einfallsrichtung analysiert, wobei z. B. ein Bereich mit mehreren Sensorelementen (beispielsweise ein Bereich mit 3 × 3 Sensorelementen in quadratischer Anordnung) zur Analyse der Einfallsrichtung verwendet wird. In dem genannten Beispiel trägt daher nur ein Teil der vorhandenen Sensorelemente der Sensormatrix zu der örtlichen Auflösung des Kamerabildes quer zur Blickrichtung bei. Im Unterscheid zu stereoskopischen Anordnungen wird für die Bestimmung der Strahlungsintensität jedoch nur ein einzelnes Sensorelement oder ein einziger Bereich von Sensorelementen benötigt. Bei heutigen hochintegrierten Halbleiterdetektor-Matrizen zur Bilderfassung können trotz der verringerten Auflösung immer noch sehr hohe Auflösungen erzielt werden. In an sich bekannter Weise lässt sich aus den Bereichen von Sensorelementen, die einem resultierenden Bildelement zugeordnet sind, die gewünschte Tiefeninformation gewinnen.
  • Bei einer Variante der Lichtfeldkamera werden verschiedene Bilder des Objekts gleichzeitig auf jeweils einen von mehreren Teilbereichen der selben Matrix von Sensorelementen projiziert. Dabei ist der Brennpunkt der Projektionen auf die unterschiedlichen Teilbereiche verschieden. Auch hieraus lässt sich die Information über die Tiefe (d. h. die räumlich Dimension in Blickrichtung der Kamera) für jeden einzelnen Bildpunkt des resultierenden Bildes berechnen.
  • Insbesondere wird folgendes vorgeschlagen:
    Ein Verfahren zum Bestimmen von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts, wobei
    • – von einer 3D-Kamera räumlich dreidimensionale Kamerabilddaten eines Werkstücks aufgenommen werden, während sich das Werkstück in einem Messvolumen des Koordinatenmessgeräts befindet,
    • – mittels einer zusätzlichen Koordinatenmesseinrichtung des Koordinatenmessgeräts das Werkstück in dem Messvolumen abgetastet wird und
    • – durch Auswertung von Ergebnissen der Abtastung die Koordinaten des Werkstücks bestimmt werden.
  • Ferner wird eine Anordnung zum Bestimmen von Koordinaten eines Werkstücks vorgeschlagen, wobei die Anordnung aufweist:
    • – ein Koordinatenmessgerät, das ein Messvolumen aufweist, in dem Werkstücke mittels einer Koordinatenmesseinrichtung des Koordinatenmessgeräts abtastbar sind, um Koordinaten des jeweiligen Werkstücks zu bestimmen,
    • – eine 3D-Kamera zur Aufnahme von räumlich dreidimensionalen Kamerabilddaten, wobei die 3D-Kamera einen Erfassungsbereich hat, der zumindest teilweise in dem Messvolumen liegt,
    • – eine Auswertungseinrichtung, die ausgestaltet ist, sowohl Ergebnisse der Abtastung des Werkstücks als auch die Kamerabilddaten auszuwerten und zumindest aus den Ergebnissen der Abtastung des Werkstücks die Koordinaten des Werkstücks zu bestimmen.
  • Ein wesentlicher Vorteil der Verwendung sowohl einer 3D-Kamera als auch einer zusätzlichen Koordinatenmesseinrichtung ist die Schnelligkeit der Vermessung des Werkstücks, einschließlich der Vorbereitung des Messprozesses. Dies gilt in besonderem Maße dann, wenn für die Koordinatenmesseinrichtung ein nicht taktil das Werkstück antastender Sensor (z. B. eine weitere Kamera) eingesetzt wird. Insbesondere kann die 3D-Kamera dazu benutzt werden, die von der zusätzlichen Koordinatenmesseinrichtung gewonnenen Messergebnisse mit geringem Aufwand zu dokumentieren und insbesondere den richtigen Bereichen des Werkstücks zuzuordnen.
  • Ferner ist es ein Vorteil der Verwendung der 3D-Kamera, dass die Position und/oder Ausrichtung des Werkstücks in dem Messvolumen aus den räumlich dreidimensionalen Kamerabilddaten ermittelbar ist. Die Position und/oder Ausrichtung ist für die korrekte Ausführung von Messabläufen, insbesondere von vorgegebenen Messabläufen, mittels der zusätzlichen Koordinatenmesseinrichtung von wesentlicher Bedeutung.
  • Wie bereits erwähnt, kann von der 3D-Kamera alternativ oder zusätzlich zu dem Werkstück zumindest ein Teilbereich des Messvolumens aufgenommen werden, sodass entsprechende räumlich dreidimensionale Kamerabilddaten gewonnen werden. Insbesondere kann die Aufnahme von Kamerabilddaten des Werkstücks und/oder des Messvolumens oder Teilbereichs des Messvolumens kontinuierlich und/oder wiederholt erfolgen. Auf diese Weise können Veränderungen des Zustandes in dem Messvolumen festegestellt werden, beispielsweise wie an sich WO 02/25207 A1 beschrieben wird. Z. B. kann sich das Werkstück in dem Messvolumen bewegen (z.B. wenn es von einer Bewegungseinrichtung wie einem Drehtisch bewegt wird), kann sich die 3D-Kamera bewegen oder kann sich durch einen Zoomvorgang der erfasste Bereich verändern und/oder kann ein weiteres Objekt (z. B. die Hand eines Menschen) in das Messvolumen gelangen, sich in dem Messvolumen bewegen oder aus dem Messvolumen heraus gelangen.
  • Die von der 3D-Kamera gewonnenen räumlich dreidimensionalen Kamerabilddaten können daher in unterschiedlicher Weise genutzt werden, um aus den Ergebnissen der Abtastung des Werkstücks mittels der Koordinatenmesseinrichtung die Koordinaten des Werkstückes zu bestimmen.
  • Insbesondere kann durch Auswertung der räumlich dreidimensionalen Kamerabilddaten
    • – das Werkstück und/oder zumindest ein Teil des Werkstücks erkannt werden oder
    • – festgestellt werden, dass das Werkstück und/oder der Teil des Werkstücks nicht vorhanden ist.
  • Dem entspricht eine Ausgestaltung der Anordnung, wobei die Auswertungseinrichtung durch Auswertung der räumlich dreidimensionalen Kamerabilddaten
    • – das Werkstück und/oder zumindest ein Teil des Werkstücks erkennt oder
    • – feststellt, dass das Werkstück und/oder der Teil des Werkstücks nicht vorhanden ist.
  • Insbesondere kann das Werkstück anhand von Strukturmerkmalen seiner Struktur erkannt werden. Nachdem ein Strukturmerkmal, z. B. eine Bohrung, ein Vorsprung oder ein bestimmtes Formmerkmal, anhand der Kamerabilddaten erkannt wurde, kann automatisch ein zugeordneter Prozess zur Vermessung des Werkstücks mittels der Koordinatenmesseinrichtung von einer Steuerung des Koordinatenmessgeräts ausgeführt werden. Z. B. wird der entsprechende Prozess aus einem Datenspeicher geladen und von einer Computersteuerung des Koordinatenmessgeräts ausgeführt. Die Auswertung der Kamerabilddaten kann auch dazu genutzt werden, eine bereits getroffene Auswahl eines vorgegebenen Prozessablaufs zur Vermessung des Werkstücks mittels der Koordinatenmesseinrichtung zu überprüfen und optional zu korrigieren oder durch einen anderen Prozess zu ersetzen. Unter dem Prozess wird insbesondere auch verstanden, dass ein dem Prozess entsprechender Teil der Koordinatenmesseinrichtung verwendet wird. z B. ein bestimmter vorgegebener und dem Prozess zugeordneter Taster oder optischer Sensor.
  • Insbesondere ist es durch Auswertung der Kamerabilddaten des Werkstücks auch möglich, nicht vorhandene Merkmale des Werkstücks zu erkennen, z. B. eine nicht ausgeführte Bohrung. In einer solchen Situation auszuführende Maßnahmen werden noch näher beschrieben. Z. B. kann auf diese Weise vermieden werden, dass ein Taster der Koordinatenmesseinrichtung in die Bohrung oder sonstige Vertiefung hinein bewegt werden soll und aufgrund der nicht vorhandenen Bohrung oder Vertiefung mit der Oberfläche des Werkstücks bei zu hoher Bewegungsgeschwindigkeit kollidieren würde.
  • Eine Überprüfung oder automatische Auswahl eines vorgegebenen Messprozesses abhängig von der Auswertung der dreidimensionalen Kamerabilddaten eines Werkstücks ist insbesondere bei der Herstellung von Werkstücken verschiedener Art von Vorteil. Die jeweilige Art des Werkstücks kann automatisch anhand der dreidimensionalen Kamerabilddaten erkannt werden. Alternativ oder zusätzlich kann die Position und/oder Ausrichtung des Werkstücks relativ zu der Koordinatenmesseinrichtung automatisch erkannt werden und ein vorgegebener Messprozess entsprechend der erkannten Position und/oder Ausrichtung begonnen und ausgeführt werden. Der Personalaufwand kann auf diese Weise deutlich reduziert werden.
  • Allgemein formuliert können bei der Erkennung eines Werkstücks und/oder zumindest eines Teils des Werkstücks oder bei der Feststellung, dass das Werkstück und/oder der Teil des Werkstücks nicht vorhanden ist, Informationen der Kamerabilddaten bezüglich einer räumlichen Dimension in Blickrichtung der 3D-Kamera mit Vorab-Informationen über das Werkstück verglichen werden (z. B. durch die Auswertungseinrichtung). Anders ausgedrückt werden die oben erwähnten Tiefeninformationen mit den Vorab-Informationen über das Werkstück verglichen. Auf diese Weise ist es insbesondere möglich, auf aufwendige Verfahren der Bilddatenverarbeitung zu verzichten oder diese zu überprüfen, bei denen die Bildwerte eines zwei dimensionalen Bildes bezüglich der Strahlungsintensität (z. B. Grauwerte oder Farbwerte) ausgewertet werden. Um bei diesen bekannten Verfahren z. B. Objektkanten zu erkennen, müssen spezielle Algorithmen angewendet werden, die in ungünstigen Beleuchtungssituationen oder bei schwierig erkennbaren Strukturmerkmalen fehlerbehaftet sind. In DE 4026942 A1 werden z. B. Auswerteverfahren der digitalen Bildauswertung, wie z. B. Schwellwert-, Gradienten- oder Korrelationsverfahren erwähnt (Spalte 5, Zeilen 40 ff. der Druckschrift). Dagegen kann bei Auswertung der Tiefeninformation unmittelbar ein Tiefenprofil der Oberfläche des Werkstücks mit den Vorab-Informationen verglichen werden. Kanten können unmittelbar aus dem Tiefenprofil entnommen werden. Auch ist es möglich, dass die von der 3D-Kamera außerdem gewonnenen Informationen über die Strahlungsintensität (d. h. die Bildwerte, wie z. B. Grauwerte oder Farbwerte) mit der Tiefeninformation abgeglichen werden. Bei einer unerwarteten Abweichung der Lage der Materialkante, die aus der Information über die Strahlungsintensität gewonnen wurde, von der Lage der Kante gemäß der Tiefeninformation, kann ein entsprechendes Warnsignal ausgegeben werden und/oder kann die Bestimmung der Lage aus der Strahlungsintensität korrigiert werden. Z. B. werden die Ränder einer Vertiefung oder Bohrung bei günstigen Beleuchtungsverhältnissen zuverlässig aus der Information über die Strahlungsintensität ermittelt. Bei ungünstigen Beleuchtungsverhältnissen dagegen (z. B. Lichteinfall unter großen Winkeln zur Längsrichtung der Bohrung) ist die Tiefeninformation der räumlich dreidimensionalen Kamerabilddaten sehr viel zuverlässiger. Dies gilt insbesondere bei TOF-Kameras, bei denen die zur Bestimmung der Flugzeit auf das Werkstück einfallende Strahlung aus Richtung der 3D-Kamera auf das Werkstück einfällt. Wenn die 3D-Kamera etwa in Richtung der Längsachse der Bohrung ausgerichtet ist, wird die Bohrung zuverlässig erfasst.
  • Um die räumlich dreidimensionalen Kamerabilddaten des Werkstücks oder zumindest eines Teilbereichs des Messvolumens mit dem Koordinatensystem der Koordinatenmesseinrichtung in Beziehung setzen zu können, wird es bevorzugt, dass die Beziehung zwischen dem Koordinatensystem der 3D-Kamera und der Koordinatenmesseinrichtung bekannt ist und/oder aus den Messsystemen des Koordinatenmessgeräts, die auch für die Auswertung der Abtastung eines Werkstücks durch die Koordinatenmesseinrichtung genutzt werden, bestimmbar ist. Beispiele hierfür werden in der bereits genannten DE 4026942 A1 , insbesondere Spalte 3, Zeilen 29 ff. gegeben. Allgemeiner formuliert kann die 3D-Kamera z. B. an einem beweglichen Teil des Koordinatenmessgeräts befestigt sein, an dem auch die Koordinatenmesseinrichtung oder ein Teil davon befestigt ist. Durch eine Kalibrierung der Anordnung, z. B. unter Verwendung eines hinsichtlich seiner Geometrie und/oder Ausrichtung hochgenau bekannten Kalibrierobjekts, kann die Beziehung der beiden Koordinatensysteme zueinander oder zumindest eine mögliche Beziehung ermittelt werden. In dem zuletzt genannten Fall können Veränderungen der Beziehung dann vorzugsweise aus den Messsystemen des Koordinatenmessgeräts ermittelt werden. Die Ermittlung der Beziehung wird allgemein als Registrierung bezeichnet.
  • Insbesondere kann durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche des Werkstücks ermittelt werden und können die Ergebnisse der Abtastung des Werkstücks mittels der zusätzlichen Koordinatenmesseinrichtung unter Verwendung des digitalen 3D-Modells Bereichen der Oberfläche des Werkstücks zugeordnet werden. Insbesondere kann die geometrische Beziehung des Koordinatensystems des digitalen 3D-Modells zu dem Koordinatensystem der Koordinatenmesseinrichtung für die Zuordnung genutzt werden. Wird z. B. mit der Koordinatenmesseinrichtung ein Teilbereich der Oberfläche des Werkstücks abgetastet, kann aufgrund dieser bekannten Beziehung der Koordinatensystem ein entsprechender Oberflächenbereich in dem digitalen 3D-Modell oder in zusätzlichen Vorab-Informationen (z. B. einem CAD-Modell des Werkstücks) identifiziert werden und können die Messergebnisse in diesem Bereich zugeordnet werden.
  • Bezüglich der Anordnung entspricht dem, dass die Auswertungseinrichtung durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche des Werkstücks ermittelt und die Ergebnisse der Abtastung mittels der zusätzlichen Koordinatenmesseinrichtung Bereichen der Oberfläche des Werkstücks zuordnet.
  • Insbesondere kann die Genauigkeit des 3D-Modells durch die Zuordnung der Ergebnisse der Abtastung mittels der zusätzlichen Koordinatenmesseinrichtung verbessert werden. Ist z. B. für einen Teilbereich der Oberfläche des Werkstücks, die durch das 3D-Modell wiedergegeben wird, mittels der Koordinatenmesseinrichtung genauere Informationen über die Koordinaten gewonnen worden, kann diese genauere Information in das digitale 3D-Modell übernommen werden. Auf diese Weise kann insbesondere die örtliche Genauigkeit verbessert werden und/oder die örtliche Auflösung des Modells verfeinert werden.
  • Ein durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ermitteltes digitales 3D-Modell kann alternativ oder zusätzlich dazu verwendet werden, einen folgenden Prozess der Vermessung des Werkstücks mittels der Koordinatenmesseinrichtung festzulegen. Z. B. kann das 3D-Modell für einen Benutzer visuell wahrnehmbar dargestellt werden und kann der Benutzer anhand der visuellen Darstellung den Messprozess festlegen und/oder einen vorgegebenen Messprozess auswählen. Z. B. kann der Messprozess in Form eines Programms für eine Computersteuerung des Koordinatenmessgeräts festgelegt werden und ein vorgegebenes Messprogramm ausgewählt werden. Im Vergleich zu der Festlegung eines Messablaufs unmittelbar am Werkstück wird der Aufwand für den Benutzer deutlich verringert.
  • Allgemeiner definiert kann daher durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche des Werkstücks ermittelt werden und kann die Abtastung des Werkstücks mittels der zusätzlichen Koordinatenmesseinrichtung anhand des 3D-Modells geplant und/oder vorgegeben werden. Bezüglich der Anordnung entspricht dem, dass die Auswertungseinrichtung ausgestaltet ist, durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche des Werkstücks zu ermitteln und auszugeben und Eingaben eines Benutzers betreffend die Abtastung des Werkstücks mittels der zusätzlichen Koordinatenmesseinrichtung zu empfangen und dementsprechend die Abtastung zu steuern.
  • Ferner alternativ oder zusätzlich kann das durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ermittelte digitale 3D-Modell dazu verwendet werden, verschiedene mittels der Koordinatenmesseinrichtung vermessene Bereiche des Werkstücks entsprechend ihrer tatsächlichen räumlichen Anordnung entspricht, als Messergebnisse darzustellen. Dies war bisher nur dann möglich, wenn entsprechende Vorab-Informationen, insbesondere ein dreidimensionales CAD-Modell zur Verfügung stand. Insbesondere können die mittels der Koordinatenmesseinrichtung vermessenen Bereich einzelnen Bereichen des digitalen 3D-Modells zugeordnet werden und kann auf diese Weise die geometrische Beziehung der verschiedenen vermessenen Bereich hergestellt werden.
  • Insbesondere kann die 3D-Kamera alternativ oder zusätzlich zur Überwachung des Messvolumens eingesetzt werden, z. B. zur Kollisionsüberwachung. Z. B. können die räumlich dreidimensionalen Kamerabilddaten des Werkstücks von der 3D-Kamera vor und/oder während einer Abtastung des Werkstücks durch die Koordinatenmesseinrichtung gewonnen werden und kann aus den Kamerabilddaten eine unbeabsichtigte Kollision der zusätzlichen Koordinatenmesseinrichtung mit dem Werkstück vor dem Stattfinden der Kollision voraus berechnet werden. Ein Beispiel wurde bereits oben in Bezug auf eine Bohrung beschrieben. Insbesondere wird zur Vorausberechnung der Kollision ein vorgegebener Messprozess ausgewertet und daraus die dem Messprozess entsprechende Bewegung der Koordinatenmesseinrichtung ermittelt. Es kann jedoch auch lediglich aus der Tatsache, dass ein erwartetes Strukturmerkmal des Werkstücks nicht vorhanden ist (z. B. die oben erwähnte Bohrung) und das Strukturmerkmal abgetastet werden soll, gefolgert werden, dass es bei dem Versuch der Abtastung des Strukturmerkmals zu einer Kollision kommen kann.
  • Bei einer Ausgestaltung der Anordnung ist die Auswertungseinrichtung ausgestaltet, aus den räumlich dreidimensionalen Kamerabilddaten des Werkstücks eine unbeabsichtigte Kollision der Koordinatenmesseinrichtung mit dem Werkstück vor dem Stattfinden der Kollision vorauszuberechnen.
  • Insbesondere kann für die Vorausberechnung der Kollision das oben erwähnte digitale 3D-Modell genutzt werden, das durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ermittelt wurde.
  • Bezüglich der Anordnung wird eine Ausgestaltung vorgeschlagen, bei der die Auswertungseinrichtung aus den räumlich dreidimensionalen Kamerabilddaten des Werkstücks eine unbeabsichtigte Kollision der Koordinatenmesseinrichtung mit dem Werkstück vor dem Stattfinden der Kollision vorausberechnet.
  • Wie bereits erwähnt wurde, kann die 3D-Kamera zusätzlich oder alternativ zu dem Werkstück einen Bereich des Messvolumens erfassen, wobei der Bereich auch gleich dem gesamten Messvolumen sein kann oder das gesamte Messvolumen erhalten kann. Insbesondere kann es sich bei dem erfassten Bereich des Messvolumens um einen solchen handeln, in dem sich das Werkstück nicht befindet. Es werden von der 3D-Kamera räumlich dreidimensionale Kamerabilddaten des Messvolumens aufgenommen, die Kamerabilddaten des Messvolumens ausgewertet und dadurch ein Vorhandensein eines nicht in dem Messvolumen erwünschten oder zugelassenen Gegenstandes oder Körperteils erkannt. Insbesondere können sich zusätzliche Gegenstände in dem Messvolumen befinden oder an einer bezüglich einem auszuführenden Messprozess nicht geeigneten Stelle des Messvolumens befinden. Ein Beispiel ist ein Halter für einen Taster oder optischen Sensor, der auswechselbar an dem Koordinatenmessgerät angeordnet werden kann, um das Werkstück zu vermessen. Auch ein Tastkopf mit Sensorik zum taktilen oder optischen Vermessen des Werkstücks kann von einem solchen Halter gehalten werden. Dieses Beispiel zeigt, dass die Koordinatenmesseinrichtung unterschiedliche Teile aufweisen kann und auch aus Kombinationen von mehreren Teilen gebildet werden kann. Alternativ oder zusätzlich zu zumindest einem Taster zum taktilen Antasten des Werkstücks kann die Koordinatenmesseinrichtung z. B. einen Tastkopf, eine Drehvorrichtung (z. B. ein Dreh-/Schwenkgelenk) zum Drehen des Tasters, des Tastkopfes oder optischen Sensors, zumindest eine andersartige Messvorrichtung (z. B. einen optischen Sensor, etwa eine weitere Kamera) und/oder andere an sich für die Koordinatenmessung von Werkstücken bekannte Vorrichtungen aufweisen. Insbesondere können all diese Vorrichtungen von dem Koordinatenmessgerät relativ zu dem Werkstück bewegt werden.
  • Bezüglich der Anordnung entspricht dem eine Ausgestaltung, bei der die 3D-Kamera zusätzlich oder alternativ zu dem Werkstück auf einen Bereich des Messvolumens ausgerichtet ist, in dem sich nicht das Werkstück befindet, wobei die Auswertungseinrichtung ausgestaltet ist, die Kamerabilddaten des Messvolumens auszuwerten und dadurch ein Vorhandensein eines nicht in dem Messvolumen erwünschten oder zugelassenen Gegenstandes oder Körperteils zu erkennen.
  • Auch bei der Erkennung eines in dem Messvolumen nicht erwünschten oder zugelassenen Gegenstandes oder Körperteils kann die Kollision mit dem Gegenstand oder Körperteil vorausberechnet werden. Bezüglich möglicher Ausgestaltungen der Vorausberechnung wird auf die bereits beschriebenen Ausgestaltungen in dem Zusammenhang mit einer Kollision zwischen Koordinatenmesseinrichtung und Werkstück verwiesen. Wie auch in diesem Fall, kann die Kollision mit einem anderen Gegenstand als das Werkstück oder einem Körperteil dadurch vermieden werden, dass die Auswertungseinrichtung, welche die Kollision vorausberechnet, ein Signal an die Steuerung einer Bewegungseinrichtung des Koordinatenmessgerät ausgibt, um die Bewegung anders auszuführen oder zu stoppen. Alternativ kann das Signal von der Auswertungseinrichtung an eine zentrale Steuerung des Koordinatenmessgeräts ausgegeben werden, die z. B. Bewegungsabläufe zur Vermessung des Werkstücks vorausberechnet und nach Empfang des Signals einen Bewegungsablauf berechnet, der nicht zu einer Kollision führt. Insbesondere kann daher allgemein formuliert ein Warnsignal oder Steuersignal erzeugt werden, wenn eine Kollision vorausberechnet wurde und/oder ein in dem Messvolumen nicht erwünschter Gegenstand oder nicht zugelassener Gegenstand oder Körperteil erkannt wurde.
  • Für die Überwachung des Messvolumens und/oder für die Kollisionsüberwachung kann optional zumindest eine weitere 3D-Kamera eingesetzt werden, die sich an einer anderen Stelle bezüglich des Messvolumens befindet und in einer anderen Blickrichtung ausgerichtet ist. Dadurch kann das Messvolumen z.B. vollständig überwacht werden und/oder das Werkstück von mehreren Seiten von 3D-Kameras erfasst werden. Bevorzugt wird jedoch, dass unabhängig davon, ob ein oder mehrere 3D-Kameras eingesetzt werden, zumindest eine 3D-Kamera an dem selben beweglichen Teil des Koordinatenmessgeräts angeordnet ist, an dem auch die zusätzlichen Koordinatenmesseinrichtung angeordnet ist. Daher können die 3D-Kamera und die zusätzliche Koordinatenmesseinrichtung des Koordinatenmessgeräts gleichzeitig und in gleicher Weise bewegt werden, sodass die 3D-Kamera kontinuierlich einen Bereich erfassen kann, der in definierter und insbesondere fester geometrischer Beziehung zu dem Erfassungsbereich der Koordinatenmesseinrichtung steht. Insbesondere kann die 3D-Kamera auf diese Weise kontinuierlich einen Bereich des Messvolumens erfassen, in dem die Koordinatenmesseinrichtung ein Werkstück abtasten kann. Kollisionen zwischen Koordinatenmesseinrichtung und Werkstück können auf diese Weise auch ohne Vorausberechnung der Bewegung der Koordinatenmesseinrichtung sicher erkannt werden. Z. B. kann durch Auswertung der von der 3D-Kamera erzeugten dreidimensionalen Kamerabilddaten, wobei die Auswertung vorzugsweise wiederholt jeweils anhand der aktuellsten Kamerabilddaten vorgenommen wird, ermittelt werden, dass die Koordinatenmesseinrichtung einen Mindestabstand zu dem Werkstück unterschritten hat. Optional kann eine zusätzliche Bedingung definiert sein, die erfüllt sein muss, damit die Erkennung der Unterschreitung des Mindestabstandes zu einer Erzeugung eines Signals führt, mit dem die Kollision vermieden wird (z. B. Abschaltsignal der Bewegungseinrichtung des Koordinatenmessgeräts oder Signal zur Umkehrung der Bewegung der Koordinatenmesseinrichtung). Diese zusätzliche Bedingung kann z. B. darin bestehen, dass die Geschwindigkeit der Koordinatenmesseinrichtung über einem Grenzwert liegt. Dadurch wird vermieden, dass beim taktilen Antasten des Werkstücks mit geringerer Geschwindigkeit fälschlicherweise eine unbeabsichtigte Kollision erkannt wird.
  • Bezüglich der Anordnung entspricht dem eine Ausgestaltung, bei dem eine Bewegungseinrichtung vorgesehen ist, die ausgestaltet ist, die 3D-Kamera gleichzeitig mit der zusätzlichen Koordinatenmesseinrichtung des Koordinatenmessgeräts zu bewegen, sodass die 3D-Kamera kontinuierlich einen Bereich erfasst, in dem die Koordinatenmesseinrichtung ein Werkstück abtasten kann.
  • Insbesondere können wiederholt räumlich dreidimensionale Kamerabilddaten des Werkstücks und/oder des Messvolumens aufgenommen werden und können zur Erkennung der Kollision oder zur Erkennung des Gegenstandes oder Körperteils Änderungen zwischen älteren und jüngeren Kamerabilddaten (z. B. durch die Auswertungseinrichtung) ermittelt werden. Mit Ausnahme der Auswertung der Tiefeninformation, die zu zusätzlichen Handlungsmöglichkeiten führt und/oder eine Überprüfung der aus den Bildintensitäten gewonnenen Ergebnisse ermöglicht, ist die Auswertung von älteren und jüngeren Kamerabilddaten bzw. die Berücksichtigung von Änderungen der von einer Kamera erfassten Szene in der bereits erwähnten WO 02/25207 A1 beschrieben, z. B. auf Seite 2 der Druckschrift. Gemäß der vorliegenden Erfindung kann aber zusätzlich die Tiefeninformation ausgewertet werden.
  • Insbesondere kann das Messvolumen, oder ein Teil davon, insbesondere das Werkstück oder ein Bereich um das Werkstück herum, zusätzlich thermografisch vermessen werden. Den räumlich dreidimensionalen Kamerabilddaten können Temperaturwerte zugeordnet werden. Dementsprechend kann allgemein die Anordnung eine thermografische Messeinrichtung zur Vermessung des Werkstücks aufweisen und die Auswertungseinrichtung ausgestaltet sein, den räumlich dreidimensionalen Kamerabilddaten Temperaturwerte zuzuordnen.
  • Insbesondere kann die Temperatur des Werkstücks auf diese Weise erfasst werden und/oder auf einfache Weise und besonders zuverlässig ein Körperteil eines Menschen in dem Messvolumen erkannt werden. Bei Erfassung der Werkstücktemperatur kann z. B. über eine Korrelation der thermografischen Bilder oder der Temperatur zu den ebenfalls zu verschiedenen Zeitpunkten mittels der Koordinatenmesseinrichtung oder mittels verschiedener Koordinatenmesseinrichtungen erfassten Koordinaten des Werkstücks (oder zu entsprechenden Roh-Informationen) eine Korrektur vorgenommen werden. Insbesondere erlaubt es die Zuordnung der ortsaufgelösten thermografischen Messergebnisse zu den Kamerabilddaten der 3D-Kamera, eine Korrektur der Vermessung der Werkstücks mittels der Koordinatenmesseinrichtungen abhängig vom Ort auf der Oberfläche des Werkstücks vorzunehmen. Insbesondere kann aufgrund der thermografischen Messung auf Temperaturfühler verzichtet werden, die in Kontakt mit dem Werkstück sind und lediglich die Temperatur für einen Teilbereich des Werkstücks repräsentativ messen. Allgemeiner formuliert kann mit einer Kombination der 3D-Kamera und der thermografischen, ortsaufgelösten Vermessung des Werkstücks auf einfache Weise die räumliche Temperaturverteilung des Werkstücks erfasst werden.
  • Auch eine zusätzliche Berücksichtigung der thermografischen Messung für die Erkennung von Körperteilen in dem Messvolumen ist von Vorteil. Insbesondere kann der Bereich des Messvolumens, der zu überwachen ist (einschließlich des gesamten Messvolumens) auch thermografisch vermessen werden (z. B. durch eine thermografische Messeinrichtung) und kann aus Ergebnissen der thermografischen Vermessung ein in dem Messvolumen nicht erwünschter oder nicht zugelassener Körperteil erkannt werden (z. B. durch die Auswertungseinrichtung), wobei ein entsprechendes Warnsignal oder Steuersignal erzeugt wird (z. B. durch eine Signalerzeugungseinrichtung), wenn sowohl die Ergebnisse der thermografischen Vermessung als auch die Auswertung der Kamerabilddaten des Messvolumens auf ein Vorhandensein des Körperteils hinweisen. Die Anordnung und insbesondere die Auswertungseinrichtung der Anordnung können entsprechend ausgestaltet sein. Dem liegt der Gedanke zugrunde, dass Oberflächen von Körperteilen typischerweise Temperaturen von mindestens 23°C hat und dies typischerweise oberhalb der Temperatur in dem Messvolumen liegt.
  • Optional kann mittels elektromagnetischer Strahlung, für die die 3D-Kamera empfindlich ist, ein Muster auf das Werkstück oder ein anderes in dem Messvolumen angeordnetes Objekt projiziert werden. Dabei kann das projizierte Muster für verschiedene, nacheinander aufgenommene Kamerabilddaten der 3D-Kamera verändert werden. z. B. kann die Lage des Musters relativ zu der Werkstückoberfläche verändert werden, kann die Breite von Strukturen des Musters (z. B. von Streifen) variiert werden und/oder kann die Richtung von Strukturelementen bezüglich des Verlaufs der Strukturelemente auf der Oberfläche des Werkstücks verändert werden. Durch Auswertung der Kamerabilddaten zu den verschiedenen Zeitpunkten, welche die unterschiedlichen Musterprojektionen abbilden, kann die Auflösung bezüglich der Tiefeninformation noch gesteigert werden. Für 2D-Kameras ist das Verfahren der Projektion von Mustern bereits bekannt. In den dreidimensionalen Kamerabilddaten wirkt sich die Erfassung der zeitveränderlichen Muster insbesondere lediglich auf die erfasste Strahlungsintensität aus, sodass an sich die selben Auswertungsverfahren wie bei 2D-Kamerabilddaten angewendet werden können. Die zusätzlich erfasste Tiefeninformation der 3D-Kamerabilddaten ermöglicht nun eine Überprüfung der Ergebnisse der Musterprojektionen und/oder umgekehrt. Die eine Tiefeninformation wird direkt von der 3D-Kamera gewonnen, die andere indirekt durch Auswertung der Musterprojektion.
  • Ausführungsbeispiele der Erfindung werden nun unter Bezugnahme auf die beigefügte Zeichnung beschrieben. Die einzelnen Figuren der Zeichnung zeigen:
  • 1 in perspektivischer Darstellung, jedoch schematisch ein Koordinatenmessgerät in Portalbauweise, wobei an der Pinole des Geräts ein Dreh-/Schwenkgelenk angeordnet ist, welches eine 3D-Kamera und einen taktilen Taster zum Antasten eines Werkstücks trägt,
  • 2 schematisch eine Anordnung mit einer 3D-Kamera, die auf eine Oberfläche eines Werkstücks mit einer Bohrung gerichtet ist,
  • 3 eine Tabelle zur Erläuterung der Zuordnung sowohl von Intensitätswerten, als auch von Tiefeninformation zu Bildelementen eines Kamerabildes einer 3D-Kamera und
  • 4 schematisch eine Anordnung mit einer 3D-Kamera, einer Datenverarbeitungseinrichtung eines Koordinatenmessgeräts, einer Datenbank und dem Antriebssystem des Koordinatenmessgeräts.
  • 1 zeigt ein Koordinatenmessgerät (im Folgenden kurz: KMG) in Portalbauweise, das eine Basis 1 aufweist. Ein Portal des KMG ist in einer geradlinigen Richtung (z. B. y-Richtung) relativ zu der Basis 1 verfahrbar. Das entsprechende Antriebssystem ist in 1 nicht näher dargestellt. Dies gilt auch für weitere Antriebe zur Ausführung anderer Bewegungen des KMG. Um die Relativposition des Portals 2 und der Basis 1 messen zu können, ist z. B. seitlich an der Basis 1 ein erster Maßstab 4 angeordnet. Messwerte der Relativposition werden einer zentralen Auswertungs- und Steuereinheit 28 des KMG zugeführt.
  • An einer Brücke des Portals 2 ist ein in einer zweiten horizontalen Richtung (z. B. x-Richtung) verfahrbarer Schlitten 7 angeordnet. Zur Bestimmung der Relativposition des Schlittens 7 und des Portals 2 ist seitlich an der Brücke des Portals 2 ein zweiter Maßstab 5 angeordnet. Am Maßstab 5 abgelesene Positionswerte (oder entsprechende Werte, z. B. Impulse eines Strichgitters) werden ebenfalls der zentralen Einheit 28 des KMG zugeführt.
  • Eine Pinole 3 des KMG ist relativ zu dem Schlitten 7 in vertikaler Richtung (z. B. z-Richtung) verfahrbar. Zur Bestimmung der Relativposition des Schlittens 7 und der Pinole 3 ist an der Pinole 3 ein dritter Maßstab 6 angeordnet. Entsprechende Werte der Relativpositionen werden ebenfalls der zentralen Einheit 28 zugeführt.
  • Am unteren Ende der Pinole 3 ist in dem Ausführungsbeispiel ein Dreh-/Schwenkgelenk 8 angeordnet, das Drehbewegungen um zwei zueinander senkrecht stehende Drehachsen A, B ermöglicht. Am freien Ende des Dreh-/Schwenkgelenks 8 ist eine Einheit 9 angeordnet, die eine 3D-Kamera 10 und einen relativ zu der 3D-Kamera 10 unbeweglichen Tastkopf 12 aufweist. An dem Tastkopf 12 ist wiederum ein Taststift 14 mit einer Tastkugel 15 als Tastelement angeordnet. Im Vordergrund der 1 befindet sich ein Halter 35 auf der Basis 1, der Wechselteile 9' 40 hält, welche anstelle des Dreh-/Schwenkgelenks 8 und/oder anstelle der Einheit 9 an die Pinole 3 angekoppelt werden können. Insbesondere handelt es sich bei der Einheit 9' um eine andere Kombination mit einer 3D-Kamera 10' mit einem Tastkopf 12', der wiederum einen Taststift 14' mit einer Tastkugel 15' trägt. Das Wechselteil 40 ist z. B. ein Taster oder ein Tastkopf mit angekoppeltem Taster.
  • Die genannten an der Pinole angekoppelten Teile und die Wechselteile sind lediglich Beispiele. Es können an dem KMG die aus dem technischen Gebiet der Koordinatenmessgeräte üblichen oder bekannten Einrichtungen zur Abtastung eines Werkstücks (taktile oder berührungslose Abtastung) an die Pinole 3 angekoppelt werden. Auch kann die Einheit 9 oder die Einheit 9' eine Relativbewegung zwischen der 3D-Kamera und dem Tastkopf ermöglichen. Ferner ist es möglich, dass der Tastkopf oder Taster unmittelbar an dem Dreh-/Schwenkgelenk oder unmittelbar an der Pinole 3 angekoppelt ist und die 3D-Kamera auf andere Weise an die Pinole 3 oder an andere Teile der Anordnung angekoppelt ist. Z. B. kann auf der Basis 1 eine separate Halterung für die 3D-Kamera montiert sein. Das gemeinsame Bewegen der 3D-Kamera und einer zusätzlichen Messeinrichtung zur Messung von Koordinaten eines Werkstücks wird jedoch bevorzugt wenn der räumliche Bereich, in dem die Koordinatenmesseinrichtung Messwerte der Oberfläche eines Werkstücks erfassen kann, kontinuierlich oder wiederholt von der 3D-Kamera erfasst werden soll. Wird die Koordinatenmesseinrichtung anders ausgerichtet, wird automatisch auch die 3D-Kamera entsprechend ausgerichtet. Die Darstellung einer solchen gemeinsamen Anordnung der 3D-Kamera und der Koordinatenmesseinrichtung in dem Ausführungsbeispiel der 1 ist lediglich schematisch zu verstehen. Der besseren Erkennbarkeit wegen ist die 3D-Kamera verhältnismäßig groß und mit ihrer Optik in Richtung der Tastkugel 15 bzw 15' vorspringend dargestellt. Alternativ kann die Optik der 3D-Kamera in die gemeinsame Einheit der 3D-Kamera und der Koordinatenmesseinrichtung oder z. B. in einen Tastkopf integriert sein. In besonderem Maße eignen sich Lichtfeldkameras für die Integration in einen Tastkopf, wenn mehrere Linsen um den Bereich herum angeordnet sind, an den ein Taststift angekoppelt ist oder an dem der Taststift angebracht ist. Die Linsen sind in diesem Fall Objektive, deren optische Achsen ungefähr parallel zu der Längsachse eines Schaftes des Taststiftes ausgerichtet sind. Die Linsen bilden optional mit zusätzlichen Linsen jeweils ein Bild der zu beobachtenden Szene (z. B. Werkstück oder Bereich des Messvolumens) auf einen separaten Teilbereich der Sensormatrix der 3D-Kamera ab. Dabei ist in an sich bekannter Weise die Brennweite der verschiedenen Linsen oder Linsensysteme, die die Bilder der Szene abbilden, unterschiedlich.
  • 1 zeigt ferner ein Werkstück 13, das mittels eines Werkstückhalters 32 auf der Basis gehalten wird. Die 3D-Kameras 10 und die Längsachse des Taststifts 14 sind auf einen Bereich der Oberfläche des Werkstücks 13 ausgerichtet.
  • Außerdem ist links in 1 eine Eingabe-/Ausgabeeinrichtung (hier: Tastatur und Monitor) 29 dargestellt, mittels der eine Interaktion zwischen einem Benutzer und der Anordnung möglich ist. Insbesondere kann ein von der 3D-Kamera 10 erzeugtes Bild auf dem Monitor dargestellt werden und kann der Benutzer mittels der Tastatur oder anderer Eingabemittel Vorgaben zum Betrieb des KMG machen. Die Einheit 29 ist mit der zentralen Steuer- und Auswertungseinrichtung 28 des KMG verbunden.
  • Die 3D-Kamera 10 aus 1 oder eine andere 3D-Kamera ist gemäß 2 auf eine Oberfläche 21 eines Werkstücks ausgerichtet, bei dem es sich z. B. um das Werkstück 13 gemäß 1 handeln kann. Dabei weist die Oberfläche 21 ebene Bereich 22a, 22b auf, in die eine Vertiefung 23, z. B eine Bohrung, eingebracht ist. Folglich ist der Grund 24 der Vertiefung 23 weiter von der Kamera 10 beabstandet als die ebenen Oberflächenbereiche 22. Die 3D-Kamera 10 erfasst auch den Grund 24 der Vertiefung 23, da sie entsprechend auf die Oberfläche 21 ausgerichtet ist. Der Vertiefung 23 in dem von der Kamera 10 erzeugten Kamerabild zugeordnete Pixel bzw. entsprechende Sensorelemente weisen dem Grund 24 entsprechende Abstandsinformationen oder Tiefeninformationen auf bzw. erzeugen diese Abstandsinformationen oder Tiefeninformationen. Andere Bildelemente bzw. Sensorelemente, die den ebenen Oberflächenbereichen 22 zugeordnet sind, enthalten andere Tiefeninformationen oder Abstandsinformationen, die dem geringeren Abstand zu der Kamera 10 entsprechen, bzw. erzeugen diese Information.
  • Sollte eine Vertiefung 23 zwar an dem Werkstück 23 vorgesehen sein (z. B. entsprechend einer CAD-Konstruktion des Werkstücks 13), jedoch nicht ausgeführt sein, wird dies durch die Kamera 10 zuverlässig erkannt. Entsprechendes gilt selbstverständlich auch für andere Formmerkmale eines Werkstücks, die das Tiefenprofil eines dreidimensionalen Kamerabildes beeinflussen.
  • Bilddaten von 2D-Kameras bestehen typischerweise aus Feldern von Bildelementen, die üblicherweise in Zeilen und Spalten angeordnet sind. Die Bildwerte (z. B. Grauwerte oder Farbwerte) der Bildelemente können daher in eine Tabelle eingetragen werden, deren Zeilen und Spalten den Zeilen und Spalten des 2D-Kamerabildes entsprechen. Z. B. kann daher bei einem Kamerabild mit n-Zeilen und m-Spalten (n, m sind positive ganze Zahlen) eine Tabelle wie in 3 erstellt werden, in die die Intensitätswerte g eingetragen sind. Zusätzlich enthält die Tabelle in 3 jedoch die Tiefeninformationen eines Kamerabildes einer 3D-Kamera, wobei die Werte der Tiefeninformation durch d bezeichnet. Die Indizes der Intensitätswerte g und der Tiefenwerte d geben die Nummer der Zeile gefolgt von der Nummer der Spalte wieder. Aus Gründen der Einfachheit sind in der Tabelle in 3 lediglich die Eckelemente wiedergegeben, also die Werte des Bildelements in der ersten Zeile und ersten Spalte, des Bildelements in der ersten Zeile und m-ten Spalte, des Bildelements in der n-ten Zeile und der ersten Spalte sowie des Bildelements in der n-ten Zeile und der m-ten Spalte.
  • Die Darstellung der 3 verdeutlicht, dass die Kamerabilddaten der 3D-Kamera nicht Informationen über Volumenbereiche enthalten, wie es bei der Computertomographie der Fall ist, sondern dreidimensionale Verläufe von Oberflächen oder anderen Flächen.
  • Anhand von 4 werden nun verschiedene Kombinationen von Einheiten und ihre Funktionsweise erläutern, die Teile einer Anordnung zur Bestimmung von Koordinaten eines Werkstücks sein können. Es sind daher nicht alle in 4 dargestellten Einheiten bzw. Teile der Anordnung zwingend erforderlich. Z. B. kann der thermografische Sensor TH rechts in der Figur weggelassen werden, wenn eine thermografische Vermessung nicht gewünscht wird. Außerdem können zusätzliche Einheiten vorhanden sein, etwa eine zweite 3D-Kamera.
  • In dem in 4 dargestellten Ausführungsbeispiel ist eine 3D-Kamera K vorgesehen, die zumindest einen Teilbereich eines Messvolumens eines KMG erfasst. Kamerabilddaten der 3D-Kamera K werden einer Auswertungseinrichtung COMP zugeführt, die Teil der zentralen Auswertungs- und Steuereinrichtung des KMG ist und z. B. in 1 mit dem Bezugszeichen 28 bezeichnet ist. Alle hier erläuterten Varianten der Anordnung und ihre Funktionsweisen können jedoch auch bei andersartigen Koordinatenmessgeräten als in 1 dargestellt vorkommen. Auch die in 1 dargestellten Kameras 10 und Koordinatenmesseinrichtungen 12 können an andersartigen Koordinatenmessgeräten angeordnet sein, z. B. am freien Ende eines sich in horizontaler Richtung erstreckenden Armes eines sogenannten Horizontalarm-KMG.
  • Optional wird der Auswertungseinrichtung COMP auch das Messsignal der Messsysteme des KMG zugeführt, z. B. die Ablesungen der Maßstäbe 4, 5, 6 in 1 und zuzüglich die Messsignale des Tastkopfes bei der Antastung des Werkstücks sowie (falls vorhanden) die Drehpositionssignale einer Drehvorrichtung. Im Fall der 1 ist ein Dreh-/Schwenkgelenk 8 vorgesehen und werden daher Messsignale an die Einheit 28 übermittelt, die es ermöglichen, die Drehstellungen um die Drehachsen A, B zu ermitteln. Wenn daher die Einheit COMP sowohl die Kamerabilder als auch die Messsignale der Koordinatenmesssysteme erhält, kann die Einheit COMP die räumliche Beziehung des Koordinatensystems des 3D-Kamerabildes zu einem Koordinatensystem herstellen, in dem die Koordinaten des vermessenen Werkstücks angegeben werden.
  • In jedem Fall kann die Einheit COMP aus zumindest einem Kamerabild einer 3D-Kamera und insbesondere aus mehreren Kamerabildern zumindest einer 3D-Kamera ein digitales dreidimensionales Modell des von der oder den Kameras erfassten Werkstücks erzeugen. Weiterhin optional kann die Einheit COMP dieses digitale Modell der Oberfläche des Werkstücks in räumliche Beziehung zu einem Koordinatensystem des Koordinatenmessgeräts und/oder des Werkstücks setzen. Z. B. kann dabei auf Vorab-Informationen zurückgegriffen werden, die in einer Datenbank DB enthalten ist, z. B. Vorab-Informationen über das Werkstück (z. B. ein CAD-Modell). In diesem Fall kann bereits anhand des Kamerabildes festgestellt werden, ob Merkmale des Werkstücks zwar geplant sind, aber nicht vorhanden sind, oder ob zusätzliche, nicht geplante Merkmale vorhanden sind. Wenn das Kamerabild oder die Kamerabilder lediglich einen Teil der Oberfläche des Werkstücks abbilden und daher das digitale Modell lediglich einen Teil des Werkstücks betrifft, kann durch Rückgriff auf die Vorab-Informationen dieser Teilbereich in räumliche Beziehung zu den anderen Bereichen des Werkstücks gesetzt werden. Wenn nicht auf Vorab-Informationen zurückgegriffen wird oder kein Vergleich des von der Einheit COMP erzeugten digitalen Modells mit Vorab-Informationen stattfindet, kann das digitale Modell zur Planung und/oder Vorbereitung der Vermessung des Werkstücks mittels der zusätzlichen Koordinatenmesseinrichtung verwendet werden. Hierzu können auch Eingaben von einem Benutzer möglich sein, z. B. entsprechend der Anordnung gemäß 1 über die Einheit 29, die mit der Einheit 28 verbunden ist und somit mit der Einheit COMP verbunden ist. Auch ohne Eingaben des Benutzers oder zusätzlich zu Eingaben des Benutzers kann eine automatische Ausrichtung zumindest eines vorgegebenen Messablaufs zur Vermessung des Werkstücks mittels der zusätzlichen Koordinatenmesseinrichtung stattfinden. Diese vorgegebenen Abläufe können in der Datenbank DB gespeichert sein und von der Einrichtung COMP daraus abgerufen werden und zu einer Steuerung CONTR der Einheit 28 übertragen werden. Die Steuerung CONTR steuert die Bewegung der Koordinatenmesseinrichtung in an sich bekannter Weise durch Ausgabe von entsprechenden Steuersignalen zu dem Antriebssystem 11 des KMG, welches z. B. die Bewegungen entsprechend der anhand von 1 beschriebenen Bewegungsmöglichkeiten antreibt.
  • Unabhängig davon, ob die Einheit COMP ein digitales Modell aus zumindest einem Kamerabild der Kamera K erstellt, kann die Einheit COMP eine Überwachung des Messvolumens anhand des zumindest einen Kamerabildes vornehmen. Z. B. werden nacheinander aufgenommene Kamerabilder auf Unterschiede ausgewertet und daraus eine Bewegung zumindest eines Teils des KMG (einschließlich der Koordinatenmesseinrichtung) und/oder eines Körperteils einer Person im Messvolumen erkannt. Dabei wird vorzugsweise wiederum auf Vorab-Informationen aus der Datenbank DB zurückgegriffen. Insbesondere über die Position von Hindernissen für die Bewegung des Teils des KMG, das überwacht wird, oder bezüglich Teilbereichen des Messvolumens, in denen zu einem gegebenen Zeitpunkt oder in einem gegebenen Zeitraum kein Körperteil vorhanden sein darf, aus Gründen der Sicherheit. Es kann aber auch das erwähnte Modell aus dem Kamerabilddaten erzeugt werden und für die Überwachung herangezogen werden. Z. B. kann anhand des Modells festgestellt werden, dass ein bestimmtes Merkmal des Werkstücks zwar erwartet ist, aber nicht vorhanden ist oder ein nicht erwartetes Merkmal vorhanden ist. Daraus kann die Einheit COMP eine Kollision vor ihrem Eintreten berechnen.
  • Wenn die Einheit COMP bei der Überwachung feststellt, dass die Steuerung CONTR veranlasst werden muss, einen bestimmten Bewegungsablauf auszuführen, zu verändern oder nicht auszuführen, gibt die Einheit COMP ein entsprechendes Signal an die Steuerung CONTR aus. Alternaiv oder zusätzlich kann die Einheit COMP auch über eine nicht dargestellte Signalverbindung ein Warnsignal ausgeben, z. B. an die in 1 dargestellte Einheit 29.
  • Wenn die optional vorhandene thermografische Messeinrichtung TH vorhanden ist, kann diese Ergebnisse der thermografischen Vermessung des Werkstückes eines Teils davon und/oder der Messeinrichtung an die Einheit COMP ausgeben. Diese thermografischen Informationen können mit den Kamerabilddaten verknüpft werden, mit den Messergebnissen der Messsysteme M des KMG verknüpft werden, mit Vorab-Informationen aus der Datenbank DB verknüpft werden und/oder separat ausgewertet und/oder verarbeitet werden. Insbesondere kann anhand der thermografischen Messergebnisse die Koordinatenmessung bezüglich der Temperatur des Werkstücks und/oder bezüglich der Temperatur der Koordinatenmesseinrichtung korrigiert werden. Alternativ oder zusätzlich können die thermografischen Messergebnisse zur Identifikation von Merkmalen des Werkstücks und/oder zur Erkennung von Körperteilen im Messvolumen genutzt werden. Wiederum kann die Einheit COMP abhängig von der Auswertung und/oder Verarbeitung der thermografischen Messergebnisse ein Signal an die Steuerung CONTR ausgeben, die dann die Antriebssysteme 11 des KMG entsprechend ansteuert. Auch die Ausgabe eines Warnsignals von der Einheit COMP ist möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 4026942 A1 [0002, 0005, 0024, 0025]
    • WO 02/25207 A1 [0004, 0005, 0017, 0041]

Claims (11)

  1. Verfahren zum Bestimmen von Koordinaten eines Werkstücks (13) unter Verwendung eines Koordinatenmessgeräts, wobei – von einer 3D-Kamera (10) räumlich dreidimensionale Kamerabilddaten eines Werkstücks (13) aufgenommen werden, während sich das Werkstück (13) in einem Messvolumen des Koordinatenmessgeräts befindet, – mittels einer zusätzlichen Koordinatenmesseinrichtung (12) des Koordinatenmessgeräts das Werkstück (13) in dem Messvolumen abgetastet wird und – durch Auswertung von Ergebnissen der Abtastung die Koordinaten des Werkstücks (13) bestimmt werden.
  2. Verfahren nach dem vorhergehenden Anspruch, wobei durch Auswertung der räumlich dreidimensionalen Kamerabilddaten – das Werkstück (13) und/oder zumindest ein Teil des Werkstücks (13) erkannt wird oder – festgestellt wird, dass das Werkstück (13) und/oder der Teil des Werkstücks (13) nicht vorhanden ist.
  3. Verfahren nach dem vorhergehenden Anspruch, wobei bei der Erkennung oder Feststellung Informationen der Kamerabilddaten bezüglich einer räumlichen Dimension in Blickrichtung der 3D-Kamera (10) mit Vorab-Informationen über das Werkstück (13) verglichen werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche (21) des Werkstücks (13) ermittelt wird und die Ergebnisse der Abtastung mittels der zusätzlichen Koordinatenmesseinrichtung (12) Bereichen der Oberfläche des Werkstücks (13) zugeordnet werden.
  5. Verfahren nach dem vorhergehenden Anspruch, wobei eine Genauigkeit des 3D-Modell durch die Zuordnung der Ergebnisse der Abtastung mittels der zusätzlichen Koordinatenmesseinrichtung (12) verbessert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch Auswertung der räumlich dreidimensionalen Kamerabilddaten ein digitales 3D-Modell zumindest eines Teils der Oberfläche (21) des Werkstücks (13) ermittelt wird und die Abtastung des Werkstücks (13) mittels der zusätzlichen Koordinatenmesseinrichtung (12) anhand des 3D-Modells geplant und/oder vorgegeben wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die räumlich dreidimensionalen Kamerabilddaten des Werkstücks (13) von der 3D-Kamera (10) vor und/oder während einer Abtastung des Werkstücks (13) durch die Koordinatenmesseinrichtung gewonnen werden und aus den Kamerabilddaten eine unbeabsichtigte Kollision der zusätzlichen Koordinatenmesseinrichtung (12) mit dem Werkstück (13) vor dem Stattfinden der Kollision vorausberechnet wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei von der 3D-Kamera zusätzlich oder alternativ zu dem Werkstück (13) ein Bereich des Messvolumens erfasst wird, in dem sich nicht das Werkstück (13) befindet, und räumlich dreidimensionale Kamerabilddaten des Messvolumens aufgenommen werden, wobei die Kamerabilddaten des Messvolumens ausgewertet werden und dadurch ein Vorhandensein eines nicht in dem Messvolumen erwünschten oder zugelassenen Gegenstandes oder Körperteils erkannt wird.
  9. Verfahren nach dem vorhergehenden Anspruch, wobei der Bereich des Messvolumens auch thermografisch vermessen wird und aus Ergebnissen der thermografischen Vermessung ein in dem Messvolumen nicht erwünschter oder nicht zugelassener Körperteil erkannt wird und wobei ein entsprechendes Warnsignal oder Steuersignal erzeugt wird, wenn sowohl die Ergebnisse der thermografischen Vermessung als auch die Auswertung der Kamerabilddaten des Messvolumens auf ein Vorhandensein des Körperteils hinweisen.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die 3D-Kamera (10) gleichzeitig mit der zusätzlichen Koordinatenmesseinrichtung (12) des Koordinatenmessgeräts bewegt wird, sodass die 3D-Kamera (10) kontinuierlich einen Bereich erfasst, in dem die Koordinatenmesseinrichtung (12) ein Werkstück (13) abtasten kann.
  11. Anordnung zum Bestimmen von Koordinaten eines Werkstücks (13), wobei die Anordnung aufweist: – ein Koordinatenmessgerät, das ein Messvolumen aufweist, in dem Werkstücke (13) mittels einer Koordinatenmesseinrichtung (12) des Koordinatenmessgeräts abtastbar sind, um Koordinaten des jeweiligen Werkstücks (13) zu bestimmen, – eine 3D-Kamera (10) zur Aufnahme von räumlich dreidimensionalen Kamerabilddaten, wobei die 3D-Kamera (10) einen Erfassungsbereich hat, der zumindest teilweise in dem Messvolumen liegt, – eine Auswertungseinrichtung (COMP), die ausgestaltet ist, sowohl Ergebnisse der Abtastung des Werkstücks (13) als auch die Kamerabilddaten auszuwerten und zumindest aus den Ergebnissen der Abtastung des Werkstücks (13) die Koordinaten des Werkstücks (13) zu bestimmen.
DE102014202977.5A 2014-02-18 2014-02-18 Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts Pending DE102014202977A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014202977.5A DE102014202977A1 (de) 2014-02-18 2014-02-18 Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014202977.5A DE102014202977A1 (de) 2014-02-18 2014-02-18 Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts

Publications (1)

Publication Number Publication Date
DE102014202977A1 true DE102014202977A1 (de) 2015-08-20

Family

ID=53758903

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014202977.5A Pending DE102014202977A1 (de) 2014-02-18 2014-02-18 Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts

Country Status (1)

Country Link
DE (1) DE102014202977A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014226691A1 (de) * 2014-12-19 2016-06-23 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Überwachung eines Koordinatenmessgeräts
EP3872447A1 (de) * 2020-02-25 2021-09-01 Carl Zeiss Industrielle Messtechnik GmbH Optisches erfassen einer aufnahmeeinrichtung für einwechselbare komponenten eines koordinatenmessgeräts
CN114581379A (zh) * 2022-02-14 2022-06-03 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置
US20220221370A1 (en) * 2021-01-14 2022-07-14 Unimicron Technology Corporation Device and method for measuring thickness of dielectric layer in circuit board

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4026942A1 (de) 1990-08-25 1992-02-27 Zeiss Carl Fa Verfahren zur beruehrungslosen vermessung von objektoberflaechen
WO2002025207A1 (de) 2000-09-22 2002-03-28 Werth Messtechnik Gmbh Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes
DE102009030644A1 (de) * 2009-06-25 2010-12-30 Gottfried Wilhelm Leibniz Universität Hannover Berührungslose Erfassungseinrichtung
DE102010014423A1 (de) * 2010-03-31 2011-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Starten einer Messprozedur zum Messen von Koordinaten eines Werkstücks
DE102012103627A1 (de) * 2011-04-28 2012-10-31 Werth Messtechnik Gmbh Verfahren zur Begrenzung der Bewegung eines Sensors in einem Koordinatenmessgerät sowie Koordinatenmessgerät

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4026942A1 (de) 1990-08-25 1992-02-27 Zeiss Carl Fa Verfahren zur beruehrungslosen vermessung von objektoberflaechen
WO2002025207A1 (de) 2000-09-22 2002-03-28 Werth Messtechnik Gmbh Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes
DE102009030644A1 (de) * 2009-06-25 2010-12-30 Gottfried Wilhelm Leibniz Universität Hannover Berührungslose Erfassungseinrichtung
DE102010014423A1 (de) * 2010-03-31 2011-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Starten einer Messprozedur zum Messen von Koordinaten eines Werkstücks
DE102012103627A1 (de) * 2011-04-28 2012-10-31 Werth Messtechnik Gmbh Verfahren zur Begrenzung der Bewegung eines Sensors in einem Koordinatenmessgerät sowie Koordinatenmessgerät

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014226691A1 (de) * 2014-12-19 2016-06-23 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Überwachung eines Koordinatenmessgeräts
US10451400B2 (en) 2014-12-19 2019-10-22 Carl Zeiss Industrielle Messtechnik Gmbh Machine and method for monitoring a coordinate measuring device
EP3872447A1 (de) * 2020-02-25 2021-09-01 Carl Zeiss Industrielle Messtechnik GmbH Optisches erfassen einer aufnahmeeinrichtung für einwechselbare komponenten eines koordinatenmessgeräts
US20220221370A1 (en) * 2021-01-14 2022-07-14 Unimicron Technology Corporation Device and method for measuring thickness of dielectric layer in circuit board
US11408799B2 (en) * 2021-01-14 2022-08-09 Unimicron Technology Corporation Device and method for measuring thickness of dielectric layer in circuit board
CN114581379A (zh) * 2022-02-14 2022-06-03 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置
CN114581379B (zh) * 2022-02-14 2024-03-22 浙江华睿科技股份有限公司 一种密封胶的检测方法及装置

Similar Documents

Publication Publication Date Title
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE102008061035B3 (de) Verfahren und optischer Sensor zur Erfassung von Objekten
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102016118617A1 (de) Messsystem
EP1901033B1 (de) Vorrichtung und Verfahren zur mobilen berührungslosen Erfassung, sowie Ermittlung und Auswertung von Körper-Konturen
DE3342675A1 (de) Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten
DE102015210028A1 (de) Koordinatenmesseinrichtung
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
EP3044536B1 (de) Verfahren und vorrichtung zur vermessung von innengewinden eines werkstücks mit einem optischen sensor
EP3581881A1 (de) Oberflächenvermessung mittels angeregter fluoreszenz
WO2016146379A1 (de) Koordinatenmessgerät mit beweglichem sensorträger und positionsbestimmungseinrichtung, sowie verfahren zum betreiben eines koordinatenmessgeräts
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
EP3274654A1 (de) Verfahren und vorrichtung zum bestimmen von dimensionellen eigenschaften eines messobjekts
EP2101143A1 (de) Verfahren und Vorrichtung zur Erfassung der Form transparenter refraktiver Objekte
EP3077763B1 (de) Verfahren zur auswertung von koordinatenmessdaten, entsprechende vorrichtung zum vermessen eines messobjektes und entsprechendes computerprogrammprodukt
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
DE102015109612B4 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
EP2591323A1 (de) Kontaktfreies messen einer mittleren oberflächentemperatur eines messbereichs
EP3571462B1 (de) Verfahren und vorrichtung zum erzeugen eines 3d-thermogramms
DE102013208397B4 (de) Koordinatenmessgerät mit einem zusätzlichen, berührungslos messenden Oberflächenvermessungsgerät
DE102018002659B4 (de) Bildvorrichtung zum Erfassen von Anomalien von Entfernungsbildern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication