DE102019119908A1 - Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts - Google Patents

Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts Download PDF

Info

Publication number
DE102019119908A1
DE102019119908A1 DE102019119908.5A DE102019119908A DE102019119908A1 DE 102019119908 A1 DE102019119908 A1 DE 102019119908A1 DE 102019119908 A DE102019119908 A DE 102019119908A DE 102019119908 A1 DE102019119908 A1 DE 102019119908A1
Authority
DE
Germany
Prior art keywords
sensor
arrangement
measurement data
measurement
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019119908.5A
Other languages
English (en)
Inventor
Stefan Richter
Frank Höller
Yvonne Schleitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102019119908.5A priority Critical patent/DE102019119908A1/de
Publication of DE102019119908A1 publication Critical patent/DE102019119908A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/50Using chromatic effects to achieve wavelength-dependent depth resolution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/54Revolving an optical measuring instrument around a body

Abstract

Eine Sensoranordnung (10) zur Bestimmung von geometrischen Eigenschaften eines Messobjekts (12) weist einen Sensor (14), einen ersten Projektor (16), ein Abbildungssystem (17) und eine Auswerte- und Steuereinrichtung (18) auf. Der erste Projektor (16) ist relativ zu dem Sensor (14) bewegbar. Der Sensor (14) ist eingerichtet, um erste Messdaten (20) des Messobjekts (12) von einer ersten Sensorposition (22) aus und zweite Messdaten (24) des Messobjekts (12) von einer zweiten Sensorposition (26) aus zu erfassen. Der erste Projektor (16) ist eingerichtet, um das Messobjekt (12) mit einer ersten Markeranordnung (28) zu beaufschlagen. Das Abbildungssystem (17) ist eingerichtet, um während sich der Sensor (14) an der ersten Sensorposition (22) befindet eine erste Abbildung (30) zumindest eines Teils der ersten Markeranordnung (28) zu erzeugen und während sich der Sensor (14) an der zweiten Sensorposition (26) befindet eine zweite Abbildung (32) zumindest eines Teils der ersten Markeranordnung (28) zu erzeugen. Die Auswerte- und Steuereinrichtung (18) ist eingerichtet, um mittels der ersten Abbildung (30) und der zweiten Abbildung (32) den ersten Messdaten (20) und den zweiten Messdaten (24) Positionen in einem gemeinsamen Koordinatensystem (34) zuzuordnen. Der Sensor (14) ist derart ausgestaltet, dass die ersten Messdaten (20) und die zweiten Messdaten (24) unabhängig von dem Abbildungssystem (17) erfassbar sind.

Description

  • Die vorliegende Erfindung betrifft eine Sensoranordnung zur Bestimmung von geometrischen Eigenschaften eines Messobjekts. Die Sensoranordnung weist einen Sensor, einen ersten Projektor, ein Abbildungssystem und eine Auswerte- und Steuereinrichtung auf. Der erste Projektor ist relativ zu dem Sensor bewegbar. Der Sensor ist eingerichtet, um erste Messdaten des Messobjekts von einer ersten Sensorposition aus und zweite Messdaten des Messobjekts von einer zweiten Sensorposition aus zu erfassen. Der erste Projektor ist eingerichtet, um das Messobjekt mit einer ersten Markeranordnung zu beaufschlagen. Das Abbildungssystem ist eingerichtet, um während sich der Sensor an der ersten Sensorposition befindet, eine erste Abbildung zumindest eines Teils der ersten Markeranordnung zu erzeugen und während sich der Sensor an der zweiten Sensorposition befindet, eine zweite Abbildung zumindest eines Teils der ersten Markeranordnung zu erzeugen. Die Auswerte- und Steuereinrichtung ist eingerichtet, um mittels der ersten Abbildung und der zweiten Abbildung den ersten Messdaten und den zweiten Messdaten Positionen in einem gemeinsamen Koordinatensystem zuzuordnen.
  • Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts, mit den Schritten:
    • - Bereitstellen einer Sensoranordnung mit einem Sensor, einem ersten Projektor, einem Abbildungssystem und einer Auswerte- und Steuereinrichtung, wobei der erste Projektor relativ zu dem Sensor bewegbar ist,
    • - Anordnen des Messobjekts relativ zu der Sensoranordnung,
    • - Erfassung erster Messdaten des Messobjekts mittels des Sensors von einer ersten Sensorposition aus,
    • - Beaufschlagung des Messobjekts mit einer ersten Markeranordnung mittels des ersten Projektors,
    • - Erzeugung einer ersten Abbildung zumindest eines Teils der ersten Markeranordnung mittels des Abbildungssystems, während sich der Sensor an der ersten Sensorposition befindet,
    • - Erfassung zweiter Messdaten des Messobjekts mittels des Sensors von einer zweiten Sensorposition aus,
    • - Erzeugung einer zweiten Abbildung zumindest eines Teils der ersten Markeranordnung mittels des Abbildungssystems während sich der Sensor an der zweiten Sensorposition befindet; und
    • - Zuordnung der ersten Messdaten und der zweiten Messdaten zu Positionen in einem gemeinsamen Koordinatensystem mittels der ersten Abbildung und der zweiten Abbildung durch die Auswerte- und Steuereinrichtung.
  • Eine solche Sensoranordnung und ein solches Verfahren sind aus DE 196 26 889 A1 bekannt.
  • Bei der Bestimmung von geometrischen Eigenschaften stark gekrümmter Objekte oder im Vergleich zu einem Messfeld eines Sensors großer Objekte ist eine vollständige Vermessung des Messobjekts mit einem optischen Sensor häufig nicht möglich. Bei komplexen Freiformflächen, wie z.B. Turbinenschaufeln, ist zudem eine optische Zugänglichkeit in vielen Fällen nur mit miniaturisierten Sensoren mit entsprechend kleinem Messfeld möglich.
  • Hieraus resultiert die Notwendigkeit einzelne Messfelder zusammenzufügen. Hierzu sind zwei Gruppen von Lösungen bekannt: Eine Verwendung definierter Kinematiken und eine Verwendung von Merkmalen des Messobjekts, welche eindeutig sind.
  • Eine Verwendung definierter Kinematiken kann nachteilig sein, da hierzu eine hochpräzise Kinematik erforderlich ist und/oder eine freie Sichtlinie zwischen dem Sensor und einem Tracker notwendig ist.
  • Bei der Verwendung von Merkmalen des Messobjekts kann es nachteilig sein, dass bei großen Objekten viele Marker notwendig sind und eine Anbringung lästig ist. Für ein markerfreies Zusammenführen von Messfeldern sind eindeutig erkennbare Merkmale des Messobjekts, wie z.B. Bohrungen, Kanten oder Kratzer notwendig, welche bei vielen Messobjekten nicht vorhanden sind. Ein markerfreies Zusammenführen von Messfeldern durch Modell-basierte Annahmen und Optimierung der Stetigkeit sind nur bei vollständig geschlossenen Messfeldern anwendbar und können bei schwach gekrümmten Flächen sehr ungenau sein.
  • DE 196 26 889 A1 offenbart eine Vorrichtung, bei welcher das zu untersuchende Objekt aus unterschiedlichen Beobachtungspositionen mithilfe eines optischen 3D-Sensors erfasst wird. Die jeweilige Lage des Sensors relativ zum Objekt wird anhand von Lichtmarken bestimmt, die mit einem Texturprojektor auf das Objekt projiziert werden. Nachteilig ist hierbei, dass der optische 3D-Sensor ein abbildender Sensor sein muss.
  • EP 1 724 549 A2 offenbart ein Verfahren, wobei 3D-Koordinaten einer Teiloberfläche des Objekts durch ein 3D-Messgerät bestimmt werden, das einen oder mehrere Detektoren aufweist und dessen Position durch ein Trackingsystem bestimmt wird. Die 3D-Koordinaten einer benachbarten Teil-Oberfläche des Objekts werden durch das 3D-Messgerät bestimmt. Die 3D-Koordinaten eines Überlappungsbereichs der benachbarten Teil-Oberflächen werden durch ein Matchingverfahren zusammengesetzt. Nachteilig hierbei ist, dass eine optische Zugänglichkeit des 3D-Messgeräts und eine Bestimmung der Position des 3D-Messgeräts mittels des Trackingsystems geometrisch schwierig oder unmöglich sein können.
  • EP 2 034 269 A1 offenbart einen 3D-Sensor, welcher einen Projektor und eine oder mehrere Kameras umfasst, bei dem mit dem Projektor ein Muster auf das Objekt projiziert wird, und das Muster mit der einen oder den mehreren Kameras erfasst wird. Eine Projektion der Referenzmarken oder des Referenzrasters kann mit einem bildgebenden Element im Projektor des 3D-Sensors erfolgen. Hierdurch können sich messtechnische Schwierigkeiten ergeben.
  • Es besteht der Wunsch, eine Sensoranordnung bereitzustellen, die bei vergleichsweise geringen Kosten präzise eine große Bandbreite an Messobjekten vermessen kann. Dementsprechend ist es eine Aufgabe der vorliegenden Erfindung, eine entsprechende Sensoranordnung und ein entsprechendes Verfahren anzugeben.
  • Diese Aufgabe wird durch eine Sensoranordnung und ein Verfahren der eingangs genannten Art gelöst, wobei die ersten Messdaten und die zweiten Messdaten unabhängig von dem Abbildungssystem erfassbar sind.
  • Bei dem Messobjekt kann es sich beispielsweise um eine Freiformfläche handeln. Bei den geometrischen Eigenschaften des Messobjekts kann es sich beispielsweise um einen Abstand zwischen zwei Merkmalen an dem Messobjekt, beispielsweise eine Länge, eine Kante, einen Durchmesser einer Bohrung oder auch eine komplexe Freiform an einer Oberfläche des Messobjekts handeln. Beispielsweise kann es sich bei der geometrischen Eigenschaft um einen Abstand zwischen einem Punkt des Messobjekts und einem Referenzpunkt handeln.
  • Der Sensor kann beispielsweise ein taktiler Sensor sein. Alternativ hierzu kann der Sensor ein optischer Sensor sein.
  • Bevorzugt kann der erste Projektor ein MEMS- (microelectromechanical systems) basierter Laserprojektor sein. Der erste Projektor kann insbesondere als Hilfsprojektor ausgestaltet sein.
  • Das Abbildungssystem kann beispielsweise eine Kamera, insbesondere eine Hilfskamera, aufweisen. Vorzugsweise besitzt die Sensoranordnung einen Speicher mit Kalibrierdaten, die eine individuelle Verzeichnung des verwendeten Abbildungssystems repräsentieren. Die Auswerte- und Steuereinrichtung ist vorzugsweise eingerichtet, unter Verwendung der Kalibrierdaten aus dem Speicher den ersten Messdaten und den zweiten Messdaten Positionen in einem gemeinsamen Koordinatensystem zuzuordnen, insbesondere um eine Genauigkeit zu erhöhen.
  • Das Abbildungssystem kann mehrere Funktionen aufweisen, insbesondere mindestens eine Funktion zusätzlich zu der Erzeugung der ersten Abbildung und der zweiten Abbildung. Die Kamera kann beispielsweise eine Kamera sein, welche für Inspektionszwecke verwendet werden kann, beispielsweise zu einer Kalibrierung des Sensors und/oder zu einer Überwachung der Umgebung, beispielsweise zur Erfassung von Umgebungslicht. Hierdurch können Kosten und Bauraum eingespart werden.
  • Das Abbildungssystem, insbesondere die Kamera, kann beispielsweise koaxial zu dem Sensor ausgerichtet sein. Hierdurch kann eine Zuordnung der ersten Messwerte und der zweiten Messwerte zu Positionen des gemeinsamen Koordinatensystems vereinfacht werden. Beispielsweise kann das Abbildungssystem relativ zu dem Sensor unbeweglich sein.
  • Beispielsweise kann die Sensoranordnung einen beweglichen Projektorarm aufweisen, welcher eingerichtet ist, um den ersten Projektor relativ zu dem Sensor zu bewegen. Alternativ oder zusätzlich kann die Sensoranordnung einen Sensorarm aufweisen, welcher eingerichtet ist, um den Sensor relativ zu dem ersten Projektor zu bewegen. Hierdurch kann eine Vermessung des gesamten Messobjekts erzielt werden.
  • Die erste Markeranordnung kann mindestens einen Marker, bevorzugt mehrere Marker, aufweisen. Die erste Markeranordnung kann ein ortsfestes Muster und/oder ein oder mehrere Symbole, beispielsweise Buchstaben und/oder Zahlen, aufweisen. Die erste Markeranordnung kann beispielsweise eine monochromatische Abbildung auf der Oberfläche des Messobjekts sein. Alternativ hierzu kann die erste Markeranordnung eine mehrfarbige Abbildung auf der Oberfläche des Messobjekts sein.
  • Die erste Markeranordnung kann beispielsweise ein eineindeutiges Muster aufweisen. Die erste Markeranordnung kann beispielsweise derart ausgestaltet sein, dass ein Teilmuster der ersten Markeranordnung eineindeutig einer Position der ersten Markeranordnung zugeordnet werden kann. Vorzugsweise kann die erste Markeranordnung beispielsweise derart ausgestaltet sein, dass jedes Teilmuster größer als ein Drittel, vorzugsweise größer als ein Zwölftel, besonders bevorzugt größer als ein Hundertstel der Fläche der ersten Markeranordnung bei einer senkrechten Projektion eineindeutig einer Position der ersten Markeranordnung zugeordnet werden kann, beispielsweise mittels regelmäßig angeordneter Zahlen, beispielsweise mittels Zahlen von 1 bis 12, und/oder unterschiedlich ausgerichteter Symbole. Hierdurch kann die Zuordnung der ersten Messwerte und der zweiten Messwerte zu Positionen in dem gemeinsamen Koordinatensystem vereinfacht werden. Insbesondere können Fehler bei der Zuordnung verhindert werden.
  • Die erste Markeranordnung ist während einer Bewegung des Sensors und/oder des Abbildungssystems ortsfest. Die erste Markeranordnung ist ortsfest, solange sie nicht absichtlich relativ zu dem Messobjekt bewegt wird. Die erste Markeranordnung auf dem Messobjekt darf sich bei einer Verschiebung des Sensors, beispielsweise von der ersten Sensorposition zu der zweiten Sensorposition, nicht ändern. Hierdurch kann eine Genauigkeit der Vermessung des Messobjekts erhöht werden.
  • Die erste Markeranordnung kann beispielsweise eine regelmäßige Struktur aufweisen. Beispielsweise kann die erste Markeranordnung ein Streifenmuster aufweisen. Insbesondere kann die erste Markeranordnung eine Anordnung von geometrischen Figuren aufweisen, wobei die geometrischen Figuren ausgewählt sein können aus einer Gruppe umfassend Kreise, Pfeile und Vielecke, insbesondere Dreiecke. Die erste Markeranordnung kann bevorzugt eine Projektion sein, vorzugsweise aus Licht, beispielsweise aus sichtbarem Licht.
  • Der erste Projektor kann eingerichtet sein, um das Messobjekt gleichzeitig zu einer Erfassung der ersten Messdaten und/oder der zweiten Messdaten mit der ersten Markeranordnung zu beaufschlagen. Hierdurch kann beispielsweise die Vermessung des Messobjekts beschleunigt werden. Alternativ hierzu kann der erste Projektor eingerichtet sein, um das Messobjekt zeitversetzt zu einer Erfassung der ersten Messdaten und/oder der zweiten Messdaten mit der ersten Markeranordnung zu beaufschlagen. Hierdurch kann beispielsweise eine Trennung des Lichts der ersten Markeranordnung von dem Licht des Sensors erleichtert werden.
  • Beispielsweise kann der erste Projektor eine Lichtquelle aufweisen. Die Auswerte- und Steuereinrichtung kann eingerichtet sein, um die Lichtquelle zu steuern.
  • Das gemeinsame Koordinatensystem kann beispielsweise zwei oder drei Raumkoordinaten aufweisen.
  • Unter der Zuordnung der ersten Messdaten und der zweiten Messdaten zu Positionen in einem gemeinsamen Koordinatensystem kann insbesondere die Durchführung eines Stitching-Verfahrens verstanden werden. Beispielsweise können mehrere erste Messwerte und mehrere zweite Messwerte in ein gemeinsames Koordinatensystem eingefügt werden.
  • Bei den ersten Messdaten und/oder den zweiten Messdaten kann es sich beispielsweise um Teilabbildungen des Messobjekts handeln. Mittels der Zuordnung der ersten Messdaten und der zweiten Messdaten zu Positionen in dem gemeinsamen Koordinatensystem kann hierdurch beispielsweise eine dreidimensionale Ansicht, insbesondere eine Gesamtansicht, erstellt werden.
  • Insbesondere kann es sich bei den ersten Messdaten und/oder bei den zweiten Messdaten um diskrete Messpunkte handeln. Beispielsweise können Abstände zwischen Messpunkten kleiner als 1 cm, vorzugsweise kleiner als 1 mm, besonders bevorzugt kleiner als 0,5 mm sein.
  • Mittels der Zuordnung der ersten Messdaten und der zweiten Messdaten zu Positionen in dem gemeinsamen Koordinatensystem kann hierdurch beispielsweise ein dreidimensionales Polygonnetz, insbesondere ein geschlossenes Polygonnetz, erstellt werden.
  • Die ersten Messdaten und die zweiten Messdaten können insbesondere derart unabhängig von dem Abbildungssystem erfassbar sein, dass die ersten Messdaten und die zweiten Messdaten ohne Verwendung des Abbildungssystems erfasst werden können. Insbesondere kann die geometrische Eigenschaft ohne Verwendung des Abbildungssystems erfasst werden. Beispielsweise kann der Sensor hierdurch beliebig austauschbar sein, insbesondere um unterschiedliche geometrische Eigenschaften zu erfassen ohne einen Sensor mit einer Abbildungsvorrichtung zu verwenden.
  • Beispielsweise kann das Abbildungssystem unabhängig von dem Sensor ausgebildet sein. Beispielsweise können das Abbildungssystem und der Sensor voneinander getrennte Gehäuse aufweisen. Insbesondere kann das Abbildungssystem starr mit dem Sensor verbunden sein. Hierdurch können der Sensor und/oder das Abbildungssystem hinsichtlich des Bauraums günstiger ausgestaltet sein. Dies kann beispielsweise eine Vermessung schwer zugänglicher Messobjekte vereinfachen. Alternativ hierzu kann das Abbildungssystem an dem Sensor ausgebildet sein. Beispielsweise können das Abbildungssystem und der Sensor in einem gemeinsamen Gehäuse integriert sein.
  • Die o.g. Aufgabe ist daher vollständig gelöst.
  • Der Sensor kann bevorzugt ein nichtabbildender Sensor sein. Beispielsweise kann der Sensor ein taktiler Sensor sein. Alternativ hierzu kann der Sensor ein abbildender Sensor sein, beispielsweise durch Abbildung von nicht sichtbarem Licht. Beispielsweise kann der Sensor eine Wärmebildkamera sein. Besonders bevorzugt kann der Sensor ein chromatisch-konfokaler Sensor sein. Beispielsweise kann die Sensoranordnung ausgestaltet sein, um den Sensor beliebig während des Betriebs auszutauschen. Insbesondere kann der Sensor unfähig sein, um die erste Markeranordnung abzubilden. Hierdurch kann eine Flexibilität hinsichtlich des Einsatzes des Sensors erhöht werden. Weiterhin kann hierdurch eine Bandbreite der geometrischen Eigenschaften erhöht werden.
  • Der Sensor kann eingerichtet sein, um zur Ermittlung der ersten Messdaten eine erste Messfläche des Messobjekts abzutasten und um zur Ermittlung der zweiten Messdaten eine zweite Messfläche des Messobjekts abzutasten. Beispielsweise kann die erste Messfläche die konvexe Hülle der Positionen der ersten Messdaten oder der ersten Messdaten sein. Die zweite Messfläche kann die konvexe Hülle der Positionen der zweiten Messdaten oder der zweiten Messdaten sein. Die erste Messfläche kann mit der zweiten Messfläche einen Überlappungsbereich von 10% bis 70%, insbesondere von 25% bis 40%, besonders bevorzugt von 30% bis 35% bezogen auf die erste Messfläche aufweisen.
  • Beispielsweise können die ersten Messdaten geometrische Eigenschaften der ersten Messfläche aufweisen. Die zweiten Messdaten können geometrische Eigenschaften der zweiten Messfläche aufweisen. Bei der ersten Messfläche und/oder bei der zweiten Messfläche kann es sich bevorzugt um eine Oberfläche des Messobjekts handeln.
  • Prinzipiell kann die erste Messfläche und/oder die zweite Messfläche auch unabhängig von einer Oberfläche des Messobjekts definiert werden. Beispielsweise kann der Sensor eingerichtet sein, um zur Ermittlung der ersten Messdaten ein erstes Messvolumen des Messobjekts abzutasten und um zur Ermittlung der zweiten Messdaten ein zweites Messvolumen des Messobjekts abzutasten. Beispielsweise kann das erste Messvolumen mit dem zweiten Messvolumen einen Überlappungsbereich von 10% bis 70%, insbesondere von 25% bis 40%, besonders bevorzugt von 30% bis 35% bezogen auf das erste Messvolumen aufweisen.
  • Der erste Projektor kann eingerichtet sein, um ein erstes Oberflächensegment, bevorzugt komplett, mit der ersten Markeranordnung zu beaufschlagen. Bevorzugt ist das erste Oberflächensegment größer als die erste Messfläche. Die erste Messfläche überlappt bevorzugt zumindest teilweise mit dem ersten Oberflächensegment.
  • Beispielsweise kann die Größe des ersten Oberflächensegments der Größe der ersten Markeranordnung entsprechen. Die Größe der ersten Markeranordnung kann beispielsweise der Größe der konvexen Hülle der ersten Markeranordnung entsprechen. Das erste Oberflächensegment kann beispielsweise die konvexe Hülle der ersten Markeranordnung sein.
  • Beispielsweise kann das erste Oberflächensegment genauso groß sein wie die erste Messfläche. Beispielsweise kann die erste Messfläche flächendeckend von der ersten Markeranordnung bedeckt sein.
  • Bevorzugt kann das erste Oberflächensegment 10% bis 70%, insbesondere 25% bis 40%, besonders bevorzugt 30% bis 35% größer sein als die erste Messfläche. Bevorzugt kann die erste Messfläche mit dem ersten Oberflächensegment einen Überlappungsbereich von 50% bis 100%, insbesondere von 70% bis 100%, besonders bevorzugt von 95% bis 100% bezogen auf die erste Messfläche aufweisen.
  • Die Sensoranordnung kann eingerichtet sein, um den ersten Projektor relativ zu dem Messobjekt zu bewegen, insbesondere um ein zweites Oberflächensegment des Messobjekts mit einer zweiten Markeranordnung zu beaufschlagen. Das zweite Oberflächensegment kann beispielsweise die konvexe Hülle der zweiten Markeranordnung sein.
  • Das zweite Oberflächensegment kann prinzipiell wie das erste Oberflächensegment ausgestaltet sein. Alternativ hierzu kann das zweite Oberflächensegment größer oder kleiner als das erste Oberflächensegment sein. Beispielsweise kann das erste Oberflächensegment eine andere Form als das zweite Oberflächensegment aufweisen. Das erste Oberflächensegment kann gegenüber dem zweiten Oberflächensegment verschoben sein.
  • Bevorzugt können die erste Messfläche und/oder die zweite Messfläche und/oder das erste Oberflächensegment und/oder das zweite Oberflächensegment jeweils eine zusammenhängende Fläche aufweisen.
  • Beispielsweise können sowohl die ersten Messdaten als auch die zweiten Messdaten an zumindest einem Teil des ersten Oberflächensegments erfasst werden.
  • Prinzipiell kann die zweite Markeranordnung wie die erste Markeranordnung ausgestaltet sein. Beispielsweise kann sich die zweite Markeranordnung von der ersten Markeranordnung unterscheiden, beispielsweise hinsichtlich eines Musters oder einer Ausrichtung eines Musters oder einer Nummerierung.
  • Beispielsweise kann die zweite Markeranordnung mittels des ersten Projektors auf dem zweiten Oberflächensegment des Messobjekts durch Projektion erzeugt werden. Der erste Projektor kann beispielsweise manuell relativ zu dem Messobjekt bewegbar sein, insbesondere um die zweite Markeranordnung zu erzeugen. Alternativ hierzu kann der erste Projektor robotisch oder mit einer flexiblen Kinematik relativ zu dem Messobjekt bewegbar sein.
  • Das zweite Oberflächensegment kann mit dem ersten Oberflächensegment zumindest teilweise überlappen. Das erste Oberflächensegment kann mit dem zweiten Oberflächensegment einen Überlappungsbereich von 10% bis 70%, insbesondere von 25% bis 40%, besonders bevorzugt von 30% bis 35% bezogen auf das erste Oberflächensegment aufweisen.
  • Der Sensor kann eingerichtet sein, um mehrere Messflächen, insbesondere nacheinander, auf dem Messobjekt abzutasten. Der Sensor kann insbesondere eingerichtet sein, um zu jeder Messfläche der mehreren Messflächen mehrere Messdaten zu erfassen. Jede der mehreren Messflächen kann beispielsweise die konvexe Hülle der jeweiligen Messfläche sein. Bevorzugt kann der Sensor derart eingerichtet sein, dass eine Oberfläche des Messobjekts vollständig von den mehreren Messflächen abgedeckt wird. Die mehreren Messflächen können beispielsweise getrennt voneinander angeordnet sein. Alternativ hierzu können sich die mehreren Messflächen berühren und/oder mit einander überlappen.
  • Der Sensor kann eingerichtet sein, um von jeder der mehreren Messflächen jeweils Messdaten zu erfassen. Zu jeder Messfläche kann eine Abbildung zumindest eines Teils einer Markeranordnung erzeugt werden. Die Auswerte- und Steuereinrichtung kann eingerichtet sein, um mittels der Abbildungen den Messdaten Positionen in einem gemeinsamen Koordinatensystem zuzuordnen.
  • Die Sensoranordnung oder der Sensor kann derart eingerichtet sein, dass die mehreren Messflächen einen geschlossenen Pfad, insbesondere auf der Oberfläche des Messobjekts, bilden. Beispielsweise können die mehreren Messflächen einen Kreisweg bilden, insbesondere auf der Oberfläche des Messobjekts. Dies kann hinsichtlich einer Genauigkeit vorteilhaft sein.
  • Die Sensoranordnung kann eingerichtet sein, um eine Position des ersten Projektors relativ zu dem Messobjekt während einer Abtastung zweier aufeinanderfolgender Messflächen konstant zu halten. Dies kann insbesondere vorteilhaft sein, um die ersten Messdaten und die zweiten Messdaten in dem gemeinsamen Koordinatensystem anzuordnen.
  • Das Abbildungssystem kann eingerichtet sein, um vor und nach einer Bewegung des Sensors relativ zu dem Messobjekt eine Abbildung zumindest eines Teils einer von dem ersten Projektor auf ein Oberflächensegment des Messobjekts beaufschlagten Markeranordnung zu erzeugen. Das Oberflächensegment kann beispielsweise das erste Oberflächensegment oder das zweite Oberflächensegment oder ein weiteres Oberflächensegment sein.
  • Bevorzugt kann das Abbildungssystem eingerichtet sein, um vor und nach einer Bewegung des Sensors relativ zu dem Messobjekt eine Abbildung sowohl zumindest eines Teils einer von dem ersten Projektor auf ein Oberflächensegment des Messobjekts beaufschlagten Markeranordnung zu erzeugen als auch von dem Sensor und/oder von von dem Sensor auf das Messobjekt ausgesendetem Licht. Beispielsweise kann die Markeranordnung die erste Markeranordnung oder die zweite Markeranordnung sein. Beispielsweise kann der Teil der Markeranordnung und/oder die gesamte Markeranordnung und/oder der Sensor und/oder das von dem Sensor ausgesendete Licht in einer Abbildung abgebildet werden- Hierdurch kann eine Vermessung beschleunigt und eine Genauigkeit erhöht werden. Alternativ hierzu kann der Teil der Markeranordnung und/oder die gesamte Markeranordnung und/oder der Sensor und/oder das von dem Sensor ausgesendete Licht in getrennten Abbildungen abgebildet werden, insbesondere um eine Trennung des Lichts der Markeranordnung und des von dem Sensor ausgesendeten Lichts zu erleichtern.
  • Beispielsweise kann das Abbildungssystem bezüglich des Sensors eine definierte Anordnung aufweisen. Bevorzugt kann ein Abstand zwischen dem Abbildungssystem und dem Sensor konstant gehalten werden.
  • Die Sensoranordnung kann einen Roboter, vorzugsweise zwei Roboter, aufweisen, insbesondere um eine aufeinander abgestimmte Bewegung des Sensors und des ersten Projektors auszuführen, beispielsweise mittels eines automatisiert ablaufenden Messprogramms durch die Auswerte- und Steuereinrichtung.
  • Der Sensor kann ein chromatisch-konfokaler Sensor sein. Insbesondere bei einem parallel chromatisch konfokalen Sensor oder einem Shack-Hartmann-Sensor als Sensor entsteht üblicherweise kein direktes Bild der Oberfläche auf einem Kamerachip. Insbesondere in diesem Falle kann ein koaxiales Abbildungssystem hilfreich sein. Die neue Sensoranordnung kann durch die mögliche Trennung des Sensors von dem Abbildungssystem insbesondere bei solchen nicht-abbildenden Sensoren vorteilhaft sein.
  • Der Sensor kann eine chromatische Lichtquelle, eine optische Anordnung und eine Spektrometeranordnung aufweisen. Die chromatische Lichtquelle kann ausgebildet sein, um einen Lichtstrahl auszusenden. Die optische Anordnung kann ausgebildet sein, um aus dem Lichtstrahl durch Aufprägen einer chromatischen Längsaberration einen Messstrahl zu generieren. Die Spektrometeranordnung kann dazu ausgebildet sein, aus von dem Messobjekt reflektiertem Licht des Messstrahls eine spektrale Verteilung zu bestimmen. Die Auswerte- und Steuereinrichtung kann dazu ausgebildet sein, mittels der spektralen Verteilung die ersten Messdaten und die zweiten Messdaten zu erfassen. Die ersten Messdaten und die zweiten Messdaten können Abstandswerte aufweisen. Diese Ausgestaltung kann insbesondere auf chromatisch-konfokale Sensoren als Sensor zutreffen.
  • Beispielsweise kann der Sensor ein dreidimensionaler Sensor sein. Bevorzugt kann der Sensor ein optischer dreidimensionaler Sensor sein. Alternativ hierzu kann der Sensor ein taktiler dreidimensionaler Sensor sein.
  • Die optische Anordnung und/oder das Abbildungssystem können eingerichtet sein, um das von dem Messobjekt reflektierte Licht des Messstrahls von Markerlicht der ersten Markeranordnung mittels eines Trennverfahrens ausgewählt aus der Gruppe umfassend eine chromatische Trennung, eine Trennung hinsichtlich einer Polarisation und eine zeitliche Trennung zu trennen.
  • Das Trennverfahren kann insbesondere ausgestaltet sein, um Licht der ersten Markeranordnung von Licht eines Sensors oder Umgebungslicht zu unterscheiden oder zu trennen.
  • Das Trennverfahren kann beispielsweise mittels unterschiedlicher Lichtfrequenzen durchgeführt werden. Zur Trennung der unterschiedlichen Lichtfrequenzen können beispielsweise Filter und/oder Spektrometer verwendet werden. Beispielsweise kann das Licht der ersten Markeranordnung eine andere Frequenz und/oder eine andere Polarisation aufweisen als Licht des Sensors oder Licht der Umgebung.
  • Alternativ oder zusätzlich kann Licht der ersten Markeranordnung und/oder Licht des Sensors zeitlich variabel, beispielsweise gepulst, sein. Beispielsweise kann Licht der ersten Markeranordnung zeitlich zu dem Licht des Sensors versetzt gepulst sein. Alternativ oder zusätzlich kann das Licht der ersten Markeranordnung und/oder das Licht des Sensors amplitudenmoduliert sein.
  • Der erste Projektor kann mindestens eine Funktion ausgewählt aus der Gruppe umfassend eine Zoomfunktion, eine Helligkeitsregelung, eine Musterauswahl, eine Mustersequenz und eine Fokusfunktion aufweisen. Die Helligkeitsregelung kann beispielsweise eine variable Helligkeitseinstellung sein oder umfassen. Der erste Projektor kann beispielsweise eingerichtet sein, um unterschiedliche Muster zu generieren, beispielsweise unterschiedliche Muster für unterschiedliche Messobjekte oder unterschiedliche Muster für eine erste Markeranordnung und/oder eine zweite Markeranordnung und/oder eine weitere Markeranordnung. Die Zoomfunktion und/oder die Helligkeitsregelung und/oder die Musterauswahl und/oder die Mustersequenz können beispielsweise einer Erhöhung der Genauigkeit dienen. Die Helligkeitsregelung kann beispielsweise ausgestaltet sein, um eine Helligkeit der ersten Markeranordnung entsprechend einer Messsituation, beispielsweise entsprechend einer Umweltbeleuchtung und/oder entsprechend des Lichts des Sensors auszuwählen. Die Generierung unterschiedlicher Muster kann beispielsweise dazu dienen, unterschiedliche Abbildungen des Abbildungssystems voneinander zu unterscheiden, um die ersten Messdaten und die zweiten Messdaten den passenden Positionen in einem gemeinsamen Koordinatensystem korrekt zuzuordnen.
  • Das Abbildungssystem kann in den Sensor integriert sein. Beispielsweise kann das Abbildungssystem in ein Gehäuse des Sensors integriert sein. Hierdurch können der Sensor und das Abbildungssystem eine definierte unveränderliche Position zueinander aufweisen, beispielsweise um eine Genauigkeit der Zuordnung der ersten Messdaten und der zweiten Messdaten zu Positionen in einem gemeinsamen Koordinatensystem zu erhöhen.
  • Beispielsweise kann das Abbildungssystem in den Sensor integriert sein, wobei das Abbildungssystem und der Sensor unabhängig voneinander einsetzbar sind. Hierdurch kann der Sensortyp frei gewählt werden.
  • Alternativ hierzu kann das Abbildungssystem räumlich separat von dem Sensor ausgestaltet sein.
  • Vorzugsweise kann das Abbildungssystem eingerichtet sein, um die erste Abbildung und die zweite Abbildung ohne Verwendung des Sensors zu erzeugen. Der Sensor kann eingerichtet sein, um die ersten Messdaten und die zweiten Messdaten zu erfassen, ohne das Abbildungssystem zu verwenden. Hierdurch kann sowohl der Sensor als auch das Abbildungssystem bestmöglich auf ihre Aufgaben spezialisiert ausgewählt werden, beispielsweise auch während eines Betriebs.
  • Die Sensoranordnung kann mehrere Projektoren aufweisen. Beispielsweise kann die Sensoranordnung neben dem ersten Projektor einen zweiten Projektor aufweisen. Beispielsweise kann der zweite Projektor ein Hilfsprojektor sein. Beispielsweise kann der zweite Projektor wie der erste Projektor ausgestaltet sein.
  • Die mehreren Projektoren können miteinander kooperierende Streifenprojektoren sein. Beispielsweise können der erste Projektor und der zweite Projektor zwei miteinander kooperierende Streifenprojektoren sein. Beispielsweise kann sich der erste Projektor weiter bewegen währenddessen der zweite Projektor die Funktion eines Hilfsprojektors übernimmt und/oder der zweite Projektor kann sich weiter bewegen, währenddessen der erste Projektor die Funktion eines Hilfsprojektors übernimmt.
  • Der Hilfsprojektor kann eingerichtet sein, um die erste Markeranordnung oder die zweite Markeranordnung bereitzustellen, währenddessen ein oder mehrere Projektoren sich weiterbewegen. Beispielsweise können sich ein oder mehrere Projektoren weiterbewegen, währenddessen ein oder mehrere andere Projektoren der mehreren Projektoren die Funktion von Hilfsprojektoren übernehmen. Beispielsweise kann mittels mehrerer Projektoren, insbesondere durch ein abwechselndes Bewegen der Sensoren, eine Vermessung des Messobjekts beschleunigt werden.
  • Beispielsweise können mehrere Projektoren verwendet werden, um ein Problem der Abschattung, beispielsweise durch den Sensor, zu lösen. Beispielsweise können ein oder mehrere der mehreren Projektoren fix positionierte Projektoren, insbesondere Hilfsprojektoren sein, insbesondere um das Problem der Abschattung durch den Sensor zu lösen. Mittels mehrerer Projektoren kann beispielsweise eine lückenlose Bereitstellung einer ersten Markeranordnung auf der Oberfläche des Messobjekts erzielt werden.
  • Beispielsweise können zwei Projektoren eingerichtet sein, um das Messobjekt mit der ersten Markeranordnung zu beaufschlagen, beispielsweise simultan oder zeitversetzt. Hierdurch können beispielsweise auch schwer zugängliche Stellen des Messobjekts mit der ersten Markeranordnung beaufschlagt werden, insbesondere ohne Lücken durch Abschattung. Alternativ hierzu kann der erste Projektor eingerichtet sein, um das Messobjekt mit der ersten Markeranordnung zu beaufschlagen und ein weiterer Projektor kann eingerichtet sein, um das Messobjekt mit der zweiten Markeranordnung zu beaufschlagen. Hierdurch kann beispielsweise die Erfassung der ersten Messdaten und/oder der zweiten Messdaten beschleunigt werden.
  • Ein weiterer Aspekt der vorliegenden Erfindung umfasst ein Koordinatenmessgerät aufweisend eine Sensoranordnung wie oben beschrieben.
  • Das Koordinatenmessgerät kann beispielsweise mindestens einen weiteren Sensor aufweisen. Das Koordinatenmessgerät kann mindestens einen Tastarm aufweisen. Beispielsweise kann die Sensoranordnung zumindest teilweise Teil des Tastarms sein.
  • Beispielsweise kann der Tastarm eingerichtet sein, um den Sensor und/oder den ersten Projektor und/oder den zweiten Projektor und/oder das Abbildungssystem relativ zu dem Messobjekt zu bewegen.
  • Das Koordinatenmessgerät kann eine Basis aufweisen, auf welcher eine Werkstückaufnahme angeordnet sein kann. Die Werkstückaufnahme kann eingerichtet sein, um das Messobjekt zu fixieren. Die Werkstückaufnahme kann beispielsweise ein Kreuztisch sein. Die Werkstückaufnahme kann eingerichtet sein, um das Messobjekt relativ zu der Basis und/oder zu dem Tastarm und/oder zu der Sensoranordnung zu bewegen.
  • Das Koordinatenmessgerät kann beispielsweise eine Säule aufweisen, an welcher der Tastarm verschiebbar gelagert sein kann. Der Tastarm kann einen Messkopf aufweisen. Die Sensoranordnung oder der Sensor und/oder der weitere Sensor können beispielsweise mindestens teilweise an dem Messkopf angeordnet sein.
  • Das Koordinatenmessgerät kann eine Steuerung aufweisen. Beispielsweise kann die Auswerte- und Steuereinrichtung der Sensoranordnung zumindest teilweise in der Steuerung integriert sein. Alternativ hierzu kann die Auswerte- und Steuereinrichtung der Sensoranordnung beispielsweise in dem Messkopf integriert sein.
  • Das erfindungsgemäße Verfahren kann ein Verfahren zum Stitching von optischen 3D-Flächenmessungen an featurelosen Flächen, vorzugsweise Freiformflächen, bei nicht abbildenden Systemen sein. Das Verfahren kann eine robotergestützte Vermessung von featurelosen Freiformflächen umfassen.
  • Beispielsweise kann bei dem Verfahren der als optischer Sensor ausgestaltete Sensor eine erste Messfläche des Messobjekts vermessen.
  • Anschließend kann der erste Projektor die erste Markeranordnung auf das erste Oberflächensegment projizieren. Alternativ hierzu kann der erste Projektor zeitgleich mit einer Farbe, welche sich von der Farbe mit welcher der optische Sensor arbeitet unterscheidet, die erste Markeranordnung als eindeutiges Muster auf das erste Oberflächensegment projizieren. Beispielsweise kann das erste Oberflächensegment der ersten Messfläche entsprechen.
  • Das Abbildungssystem kann eingerichtet sein, um das erste Oberflächensegment aufzunehmen. Das Abbildungssystem kann beispielsweise als Hilfskamera des optischen Sensors ausgestaltet sein.
  • Danach kann der Sensor verschoben und/oder gedreht werden, insbesondere derart, dass mittels des Sensors eine zweite Messfläche vermessen werden kann. Die zweite Messfläche kann einen ausreichend großen Überlappungsbereich, beispielsweise 33% bezogen auf die Fläche der ersten Messfläche, mit der ersten Messfläche aufweisen. Die zweite Messfläche kann dem zweiten Oberflächensegment entsprechen. Hierbei wird der erste Projektor vorzugsweise nicht bewegt.
  • Anhand der ersten Markeranordnung, welche bevorzugt sowohl in dem ersten Messfeld als auch in dem zweiten Messfeld sichtbar sein kann, können mit dem Abbildungssystem genügend Korrespondenzpunkte bestimmt werden, insbesondere derart, dass ein Anschluss der ersten Messdaten an die zweiten Messdaten möglich ist. Die erste Markeranordnung kann bevorzugt von dem Sensor und/oder von dem Abbildungssystem erfassbar sein.
  • Falls notwendig kann der erste Projektor danach verschoben und/oder verdreht werden, sodass nach Erfassung der ersten Messdaten und Erfassung der zweiten Messdaten dritte Messdaten erfasst werden können. Eine Verschiebung und/oder Verdrehung des ersten Projektors relativ zu dem Messobjekt kann hierbei manuell, robotisch oder mit einer flexiblen Kinematik erfolgen.
  • Das beschriebene Verfahren kann so oft wiederholt werden bis das gesamte Messobjekt vermessen ist.
  • Hierbei kann es von Vorteil sein, wenn ein Kreisweg beschrieben wird, bei dem am Schluss wieder die erste Messfläche erreicht wird. Hierdurch kann ein geschlossener Weg erreicht werden, was numerische günstig sein kann.
  • Das neue Verfahren kann beispielsweise zusätzliche Schritte aufweisen. Bevorzugt kann das Verfahren in der Reihenfolge entsprechend der oben beschriebenen Reihenfolge durchgeführt werden.
  • Vorteilhaft an der neuen Sensoranordnung und an dem neuen Verfahren ist, dass der Sensor selbst nicht abbildend sein muss. Das neue Verfahren kann somit insbesondere eine Nutzung nichtabbildender Sensoren ermöglichen. Der Sensor selbst muss das projizierte Pattern nicht beobachten können. Hierdurch kann die Wahl des Sensors uneingeschränkter vollzogen werden. Mittels des neuen Verfahrens können die beiden Vorgänge Messen und Verfahren getrennt werden.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels der neuen Sensoranordnung;
    • 2 ein exemplarisches Messobjekt mit einer ersten Markeranordnung, einem ersten Oberflächensegment, einer ersten Messfläche und einem zweiten Oberflächensegment und einer zweiten Messfläche zu einem Ausführungsbeispiel der neuen Sensoranordnung;
    • 3 einen geschlossenen Pfad mehrerer Messflächen zu einem Ausführungsbeispiel der neuen Sensoranordnung;
    • 4 ein zweites Ausführungsbeispiel der neuen Sensoranordnung;
    • 5 ein drittes Ausführungsbeispiel der neuen Sensoranordnung;
    • 6 ein viertes Ausführungsbeispiel der neuen Sensoranordnung; und
    • 7 ein Ausführungsbeispiel des neuen Koordinatenmessgeräts.
  • 1 zeigt ein erstes Ausführungsbeispiel der neuen Sensoranordnung 10. Die in 2 und 3 dargestellten Abfolgen von Messflächen 46 können mittels der Sensoranordnungen 10 nach 1, 4, 5 und 6 sowie mittels des Koordinatenmessgeräts 70 nach 7 verwirklicht werden. Die in den 4 bis 6 dargestellten Ausführungsbeispiele von Sensoranordnungen 10 zeigen insbesondere chromatisch-konfokale Sensoren als Sensor 14 der Sensoranordnung 10.
  • Die in 1 dargestellte Sensoranordnung 10 zur Bestimmung von geometrischen Eigenschaften eines Messobjekts 12 weist einen ersten Projektor 16, ein Abbildungssystem 17 und eine Auswerte- und Steuereinrichtung 18 auf. Der erste Projektor 16 ist relativ zu dem Sensor 14 bewegbar. Der Sensor 14 ist eingerichtet, um erste Messdaten 20 des Messobjekts 12, wie in 1 oder 2 dargestellt, von einer ersten Sensorposition 22 aus und zweite Messdaten 24 des Messobjekts 12, wie ebenfalls in den 1 oder 2 dargestellt, von einer zweiten Sensorposition 26 aus zu erfassen.
  • Der erste Projektor 16 ist eingerichtet, um das Messobjekt 12 mit einer ersten Markeranordnung 28 zu beaufschlagen. Die erste Markeranordnung 28 ist beispielhaft in 2 dargestellt. Das Abbildungssystem 17 des in 1 dargestellten ersten Ausführungsbeispiels ist eingerichtet, um während sich der Sensor 14 an der ersten Sensorposition 22 befindet, eine erste zumindest eines Teils der ersten Markeranordnung 28 zu erzeugen und während sich der Sensor 14 an der zweiten Sensorposition 26 befindet, eine zweite zumindest eines Teils der ersten Markeranordnung 28 zu erzeugen. Die Auswerte- und Steuereinrichtung 18 ist eingerichtet, um mittels der ersten , wie beispielhaft in 2 dargestellt, und der zweiten , wie ebenfalls beispielhaft in 2 dargestellt, den ersten Messdaten 20 und den zweiten Messdaten 24 Positionen in einem gemeinsamen Koordinatensystem 34, wie beispielsweise in 1 unten dargestellt, zuzuordnen. Der Sensor 14 ist derart ausgestaltet, dass die ersten Messdaten 20 und die zweiten Messdaten 24 unabhängig von dem Abbildungssystem 17 erfassbar sind.
  • Der Sensor 14 kann ein nichtabbildender Sensor sein. Alternativ hierzu kann der Sensor 14 ein abbildender Sensor sein.
  • Der Sensor 14 kann eingerichtet sein, um zur Ermittlung der ersten Messdaten 20 eine erste Messfläche 36 des Messobjekts 12 abzutasten und um zur Ermittlung der zweiten Messdaten 24 eine zweite Messfläche 38 des Messobjekts 12 abzutasten, wie beispielhaft in den 1 bis 3 jeweils exemplarisch dargestellt. Die erste Messfläche 36 kann mit der zweiten Messfläche 38 einen Überlappungsbereich 40 aufweisen, wie in den 1 bis 3 dargestellt. Der Überlappungsbereich 40 kann 10% bis 70%, insbesondere 25% bis 40%, besonders bevorzugt 30% bis 35% bezogen auf die erste Messfläche 36 aufweisen.
  • Der erste Projektor 16 kann eingerichtet sein, um ein erstes Oberflächensegment 42 mit der ersten Markeranordnung 28, wie beispielsweise in 2 dargestellt, zu beaufschlagen. Das in 1 dargestellte erste Oberflächensegment 42 ist genauso groß wie die erste Messfläche 36. Die erste Messfläche 36 überlappt vollständig mit dem ersten Oberflächensegment 42. Alternativ hierzu kann das erste Oberflächensegment 42 größer sein als die erste Messfläche 36, wie beispielsweise in 2 dargestellt. Die erste Messfläche 36 kann zumindest teilweise mit dem ersten Oberflächensegment 42 überlappen. Bevorzugt kann die erste Messfläche 36 vollständig innerhalb des ersten Oberflächensegments 42 angeordnet sein, wie beispielsweise in 2 dargestellt. Beispielsweise kann, wie in 2 dargestellt, lediglich ein Teil der Oberfläche des Messobjekts 12 vermessen werden. Alternativ hierzu kann auch ein komplettes Messobjekt 12 vermessen werden.
  • Die Sensoranordnung 10, wie beispielsweise in 1 dargestellt, kann eingerichtet sein, um den ersten Projektor 16 relativ zu dem Messobjekt 12 zu bewegen, um ein zweites Oberflächensegment 44 des Messobjekts 12 mit einer zweiten Markeranordnung zu beaufschlagen. Beispielsweise kann das zweite Oberflächensegment 44 wie das erste Oberflächensegment 42 ausgestaltet sein, wie beispielsweise in den 1 und 2 dargestellt. Beispielsweise kann die zweite Markeranordnung wie die erste Markeranordnung 28 ausgestaltet sein. Alternativ hierzu kann die zweite Markeranordnung unterschiedlich zu der ersten Markeranordnung 28 ausgestaltet sein. Das zweite Oberflächensegment 44 kann mit dem ersten Oberflächensegment 42 zumindest teilweise überlappen, wie beispielsweise in den 1 und 2 dargestellt.
  • Die Sensoranordnung 10 kann eingerichtet sein, um eine Position des ersten Projektors 16 relativ zu dem Messobjekt 12 während einer Abtastung zweier aufeinanderfolgender Messflächen 36 und 38 konstant zu halten. Das Abbildungssystem 17 kann eingerichtet sein, um vor und nach einer Bewegung des Sensors 14 relativ zu dem Messobjekt 12 eine Abbildung zumindest eines Teils einer von dem ersten Projektor 16 auf ein Oberflächensegment 50 des Messobjekts 12 beaufschlagten Markeranordnung 52, wie beispielsweise in 2 dargestellt, zu erzeugen. Die Sensoranordnung 10 kann beispielsweise einen Roboter aufweisen, um eine aufeinander abgestimmte Bewegung des Sensors 14 und des ersten Projektors 16 auszuführen.
  • Der erste Projektor 16 kann mindestens eine Funktion ausgewählt aus der Gruppe umfassend eine Zoomfunktion, eine Helligkeitsregelung, eine Musterauswahl, eine Mustersequenz und eine Fokusfunktion aufweisen. Bei dem in 1 dargestellten Ausführungsbeispiel kann das Abbildungssystem 17 an dem Sensor 14 angeordnet sein, beispielsweise an einem Gehäuse des Sensors 14. Alternativ hierzu kann das Abbildungssystem 17 in den Sensor 14 integriert sein. Prinzipiell kann das Abbildungssystem 17 auch komplett unabhängig von dem Sensor 14 ausgestaltet sein.
  • 1 veranschaulicht insbesondere eine Verschiebung des Sensors 14 von einer ersten Sensorposition 22 zu einer zweiten Sensorposition 26. Da in dem in 1 dargestellten Ausführungsbeispiel der Sensor 14 und das Abbildungssystem 17 eine Einheit bilden, wird sowohl der Sensor 14 als auch das Abbildungssystem 17 verschoben. Während der Verschiebung bleibt der erste Projektor 16 auf der gleichen Position. Die erste Markeranordnung 28 bleibt währenddessen somit ebenfalls konstant an der gleichen Position auf dem Messobjekt 12 angeordnet. Lediglich die erste Messfläche 36 kann mittels der Verschiebung durch die zweite Messfläche 38 abgelöst werden. Beispielsweise können bei dem Ausführungsbeispiel nach 1 der erste Projektor 16, die Einheit aus Abbildungssystem 17 und Sensor 14 jeweils mittels Roboterarmen separat gegeneinander verschiebbar oder verdrehbar oder ausrichtbar sein. Die Auswerte- und Steuereinrichtung 18 kann beispielsweise mittels der durch Pfeile angedeuteten Schnittstelle Informationen und/oder Befehle mit dem Sensor 14, dem ersten Projektor 16 und/oder dem Abbildungssystem 17 austauschen.
  • Der Sensor 14 kann eingerichtet sein, um mehrere Messflächen 46 auf dem Messobjekt 12 abzutasten, wie beispielsweise in 3 dargestellt. Die mehreren Messflächen 46 können die erste Messfläche 36 und die zweite Messfläche 38 aufweisen. Die mehreren Messflächen 46 können einen geschlossenen Pfad 48, wie in 3 dargestellt, bilden. Insbesondere können die mehreren Messflächen 46 auf einem Rechteck angeordnet sein. Beispielsweise können die mehreren Messflächen 46 derart angeordnet sein, dass die mehreren Messflächen 46 lückenlos zumindest einen Teilbereich der Oberfläche des Messobjekts 12 abdecken. Das neue Verfahren kann beispielsweise so oft wiederholt werden bis alle Messflächen 46 der mehreren Messflächen 46 vermessen sind und den ersten Messdaten 20 und zweiten Messdaten 24 und weiteren Messdaten Positionen in dem gemeinsamen Koordinatensystem 34 zugeordnet sind.
  • Der in 3 dargestellte geschlossene Pfad 48 aus Messflächen 46 repräsentiert eine Aneinanderreihung von ersten Messdaten 20, zweiten Messdaten 24 und weiteren Messdaten, wobei die letzte Messfläche die erste Messfläche 36 berührt und sogar mit ihr überlappt. Dies kann numerisch vorteilhaft sein, um eine Anordnung der ersten Messdaten 20, der zweiten Messdaten 24 und der weiteren Messdaten in einem gemeinsamen Koordinatensystem 34 möglichst korrekt zu verwirklichen.
  • Das in 4 dargestellte zweite Ausführungsbeispiel der neuen Sensoranordnung kann prinzipiell wie das in 1 dargestellte Ausführungsbeispiel ausgestaltet sein. Beispielsweise können sich die 2 und 3 auf das in 4 dargestellte Ausführungsbeispiel beziehen. Bei dem in 4 dargestellten Ausführungsbeispiel der neuen Sensoranordnung 10 weist der Sensor 14 eine chromatische Lichtquelle 54, eine optische Anordnung 56 und eine Spektrometeranordnung 58 auf. Die chromatische Lichtquelle 54 kann ausgebildet sein, um einen Lichtstrahl 60 auszusenden. Die optische Anordnung 56 kann ausgebildet sein, um aus dem Lichtstrahl 60 durch Aufprägung einer chromatischen Längsaberration einen Messstrahl 62 zu generieren. Die Spektrometeranordnung 58 kann dazu ausgebildet sein, aus von dem Messobjekt 12 reflektiertem Licht des Messstrahls 64 eine spektrale Verteilung zu bestimmen. Die Auswerte- und Steuereinrichtung 18 kann dazu ausgebildet sein, mittels der spektralen Verteilung die ersten Messdaten 20 und die zweiten Messdaten 24 zu erfassen. Die ersten Messdaten 20 und die zweiten Messdaten 24 können Abstandswerte aufweisen. Beispielsweise kann das Abbildungssystem 17 in dem Sensor 14, beispielsweise in einem gemeinsamen Sensorgehäuse, räumlich integriert sein. Die Auswerte- und Steuereinrichtung 18 kann separat von dem Sensor 14 ausgestaltet sein. Die Auswerte- und Steuereinrichtung 18 kann beispielsweise mittels ein oder zweier Schnittstellen mit dem Sensor 14 und dem ersten Projektor 16 verbunden sein, beispielsweise mechanisch und/oder zum Austausch von Daten. Der erste Projektor 16 kann beispielsweise separat von dem Sensor 14 ausgestaltet sein.
  • Das in 5 dargestellte dritte Ausführungsbeispiel der neuen Sensoranordnung 10 kann prinzipiell wie das in 4 dargestellte Ausführungsbeispiel ausgestaltet sein. Im Vergleich zu dem in 4 dargestellten Ausführungsbeispiel weist das in 5 dargestellte Ausführungsbeispiel ein Abbildungssystem 17 auf, welches separat von dem Sensor 14 angeordnet ist. Insbesondere kann das Abbildungssystem 17 unabhängig von dem ersten Projektor 16 und/oder von dem Sensor 14 bewegbar sein.
  • Das in 6 dargestellte vierte Ausführungsbeispiel der neuen Sensoranordnung 10 kann prinzipiell ebenfalls wie das in 4 dargestellte zweite Ausführungsbeispiel ausgestaltet sein. Im Vergleich zu dem in 4 dargestellten Ausführungsbeispiel weist das in 6 dargestellte Ausführungsbeispiel zwei Projektoren 68 auf, insbesondere den ersten Projektor 16 und einen weiteren Projektor. Beispielsweise kann die Sensoranordnung 10 mehrere Projektoren 68 aufweisen. Beispielsweise können beide Projektoren eingerichtet sein, um das Messobjekt 12 mit der ersten Markeranordnung 28 zu beaufschlagen. Hierdurch können beispielsweise auch schwer zugängliche Stellen des Messobjekts 12 mit der ersten Markeranordnung 28 beaufschlagt werden. Alternativ hierzu kann der erste Projektor 16 eingerichtet sein, um das Messobjekt 12 mit der ersten Markeranordnung 28 zu beaufschlagen und der weitere Projektor kann eingerichtet sein, um das Messobjekt 12 mit einer zweiten Markeranordnung zu beaufschlagen. Hierdurch kann beispielsweise die Erfassung der ersten Messdaten 20 und/oder der zweiten Messdaten 24 beschleunigt werden.
  • Die optische Anordnung 56 der in den 4, 5 und 6 gezeigten Ausführungsbeispiele kann eingerichtet sein, um das von dem Messobjekt 12 reflektierte Licht des Messstrahls 64 von Markerlicht 66 der ersten Markeranordnung 28 mittels eines Trennverfahrens ausgewählt aus der Gruppe umfassend eine chromatische Trennung, eine Trennung hinsichtlich einer Polarisation und eine zeitliche Trennung zu trennen.
  • Prinzipiell kann in allen gezeigten Ausführungsbeispielen das Abbildungssystem 17 und/oder der Sensor 14 eingerichtet sein, um Licht des Sensors 14 von Licht der ersten Markeranordnung 28 mittels eines Trennverfahrens ausgewählt aus der Gruppe umfassend eine chromatische Trennung, eine Trennung hinsichtlich einer Polarisation und eine zeitliche Trennung zu trennen.
  • 7 zeigt ein Ausführungsbeispiel des neuen Koordinatenmessgeräts 70 aufweisend eine Sensoranordnung 10, wie beispielsweise in den 1 oder 4 bis 6 dargestellt und/oder oben beschrieben. Das Koordinatenmessgerät 70 kann eine Basis 74 aufweisen. An der Basis 74 kann eine Werkstückaufnahme 76 angebracht sein, insbesondere um das Messobjekt 12 zu fixieren oder definiert zu bewegen.
  • Das Koordinatenmessgerät 70 weist weiterhin in dem in 7 gezeigten Ausführungsbeispiel eine Säule 78 auf. Beispielsweise kann die Auswerte- und Steuereinrichtung 18 in der Säule 78 oder an der Säule 78 angebracht sein. Das Koordinatenmessgerät 70 kann einen Tastarm 72 aufweisen. Der Tastarm 72 kann an seinem Ende einen Messkopf 80 aufweisen. Der Messkopf 80 kann beispielsweise die Sensoranordnung 10 aufweisen. 7 zeigt ebenfalls exemplarisch ein gemeinsames Koordinatensystem 34, in welches die ersten Messdaten 20 und die zweiten Messdaten 24 und beispielsweise auch weitere Messdaten mittels des neuen Verfahrens, der neuen Sensoranordnung 10 und/oder des neuen Koordinatenmessgeräts 70 positioniert werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19626889 A1 [0003, 0008]
    • EP 1724549 A2 [0009]
    • EP 2034269 A1 [0010]

Claims (15)

  1. Sensoranordnung (10) zur Bestimmung von geometrischen Eigenschaften eines Messobjekts (12), wobei die Sensoranordnung (10) einen Sensor (14), einen ersten Projektor (16), ein Abbildungssystem (17) und eine Auswerte- und Steuereinrichtung (18) aufweist, wobei der erste Projektor (16) relativ zu dem Sensor (14) bewegbar ist, wobei der Sensor (14) eingerichtet ist, um erste Messdaten (20) des Messobjekts (12) von einer ersten Sensorposition (22) aus und zweite Messdaten (24) des Messobjekts (12) von einer zweiten Sensorposition (26) aus zu erfassen, wobei der erste Projektor (16) eingerichtet ist, um das Messobjekt (12) mit einer ersten Markeranordnung (28) zu beaufschlagen, wobei das Abbildungssystem (17) eingerichtet ist, um während sich der Sensor (14) an der ersten Sensorposition (22) befindet eine erste Abbildung (30) zumindest eines Teils der ersten Markeranordnung (28) zu erzeugen und während sich der Sensor (14) an der zweiten Sensorposition (26) befindet eine zweite Abbildung (32) zumindest eines Teils der ersten Markeranordnung (28) zu erzeugen, wobei die Auswerte- und Steuereinrichtung (18) eingerichtet ist, um mittels der ersten Abbildung (30) und der zweiten Abbildung (32) den ersten Messdaten (20) und den zweiten Messdaten (24) Positionen in einem gemeinsamen Koordinatensystem (34) zuzuordnen, dadurch gekennzeichnet, dass der Sensor (14) derart ausgestaltet ist, dass die ersten Messdaten (20) und die zweiten Messdaten (24) unabhängig von dem Abbildungssystem (17) erfassbar sind.
  2. Sensoranordnung nach Anspruch 1, wobei der Sensor (14) ein nichtabbildender Sensor ist.
  3. Sensoranordnung nach einem der Ansprüche 1 oder 2, wobei der Sensor (14) eingerichtet ist, um zur Ermittlung der ersten Messdaten (20) eine erste Messfläche (36) des Messobjekts (12) abzutasten und um zur Ermittlung der zweiten Messdaten (24) eine zweite Messfläche (38) des Messobjekts (12) abzutasten, wobei die erste Messfläche (36) mit der zweiten Messfläche (38) einen Überlappungsbereich (40) von 10% bis 70%, insbesondere von 25% bis 40%, besonders bevorzugt von 30 % bis 35 % bezogen auf die erste Messfläche (36) aufweist.
  4. Sensoranordnung nach Anspruch 3, wobei der erste Projektor (16) eingerichtet ist, um ein erstes Oberflächensegment (42) mit der ersten Markeranordnung (28) zu beaufschlagen, wobei das erste Oberflächensegment (42) größer ist als die erste Messfläche (36) und wobei die erste Messfläche (36) zumindest teilweise mit dem ersten Oberflächensegment (42) überlappt.
  5. Sensoranordnung nach Anspruch 4, wobei die Sensoranordnung (10) eingerichtet ist, um den ersten Projektor (16) relativ zu dem Messobjekt (12) zu bewegen, um ein zweites Oberflächensegment (44) des Messobjekts (12) mit einer zweiten Markeranordnung zu beaufschlagen, wobei das zweite Oberflächensegment (44) mit dem ersten Oberflächensegment (42) zumindest teilweise überlappt.
  6. Sensoranordnung nach einem der Ansprüche 1 bis 5, wobei der Sensor (14) eingerichtet ist, um mehrere Messflächen (46) auf dem Messobjekt (12) abzutasten.
  7. Sensoranordnung nach Anspruch 6, wobei die Sensoranordnung (10) derart eingerichtet ist, dass die mehreren Messflächen (46) einen geschlossenen Pfad (48) bilden.
  8. Sensoranordnung nach Anspruch 6 oder 7, wobei die Sensoranordnung (10) eingerichtet ist, um eine Position des ersten Projektors (16) relativ zu dem Messobjekt (12) während einer Abtastung zweier aufeinanderfolgender Messflächen (36, 38) konstant zu halten, wobei das Abbildungssystem (17) dazu eingerichtet ist, vor und nach einer Bewegung des Sensors (14) relativ zu dem Messobjekt (12) eine Abbildung zumindest eines Teils einer von dem ersten Projektor (16) auf ein Oberflächensegment (50) des Messobjekts (12) beaufschlagten Markeranordnung (52) zu erzeugen.
  9. Sensoranordnung nach einem der vorhergehenden Ansprüche, wobei der Sensor (14) eine chromatische Lichtquelle (54), eine optische Anordnung (56) und eine Spektrometeranordnung (58) aufweist, wobei die chromatische Lichtquelle (54) ausgebildet ist, um einen Lichtstrahl (60) auszusenden, wobei die optische Anordnung (56) ausgebildet ist, um aus dem Lichtstrahl (60) durch Aufprägung einer chromatischen Längsaberration einen Messstrahl (62) zu generieren, wobei die Spektrometeranordnung (58) dazu ausgebildet ist, aus von dem Messobjekt (12) reflektiertem Licht des Messstrahls (64) eine spektrale Verteilung zu bestimmen, wobei die Auswerte- und Steuereinrichtung (18) dazu ausgebildet ist, mittels der spektralen Verteilung die ersten Messdaten (20) und die zweiten Messdaten (24) zu erfassen, wobei die ersten Messdaten (20) und die zweiten Messdaten (24) Abstandswerte aufweisen.
  10. Sensoranordnung nach Anspruch 9, wobei die optische Anordnung (56) eingerichtet ist, um das von dem Messobjekt (12) reflektierte Licht des Messstrahls (64) von Markerlicht (66) der ersten Markeranordnung (28) mittels eines Trennverfahrens ausgewählt aus der Gruppe umfassend eine chromatische Trennung, eine Trennung hinsichtlich einer Polarisation und eine zeitliche Trennung zu trennen.
  11. Sensoranordnung nach einem der Ansprüche 1 bis 10, wobei der erste Projektor (16) mindestens eine Funktion ausgewählt aus der Gruppe umfassend eine Zoomfunktion, eine Helligkeitsregelung, eine Musterauswahl, eine Mustersequenz und eine Fokusfunktion aufweist.
  12. Sensoranordnung nach einem der Ansprüche 1 bis 11, wobei das Abbildungssystem (17) in den Sensor (14) integriert ist.
  13. Sensoranordnung nach einem der Ansprüche 1 bis 12, wobei die Sensoranordnung (10) mehrere Projektoren (68) aufweist.
  14. Koordinatenmessgerät aufweisend eine Sensoranordnung (10) nach einem der vorhergehenden Ansprüche.
  15. Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts (12), mit den Schritten: -Bereitstellen einer Sensoranordnung (10) mit einem Sensor (14), einem ersten Projektor (16), einem Abbildungssystem (17) und einer Auswerte- und Steuereinrichtung (18), wobei der erste Projektor (16) relativ zu dem Sensor (14) bewegbar ist; -Anordnen des Messobjekts (12) relativ zu der Sensoranordnung (10), -Erfassung erster Messdaten (20) des Messobjekts (12) mittels des Sensors (14) von einer ersten Sensorposition (22) aus; - Beaufschlagung des Messobjekts (12) mit einer ersten Markeranordnung (28) mittels des ersten Projektors (16); -Erzeugung einer ersten Abbildung (30) zumindest eines Teils der ersten Markeranordnung (28) mittels des Abbildungssystems (17), während sich der Sensor (14) an der ersten Sensorposition (22) befindet; -Erfassung zweiter Messdaten (24) des Messobjekts (12) mittels des Sensors (14) von einer zweiten Sensorposition (26) aus; -Erzeugung einer zweiten Abbildung (32) zumindest eines Teils der ersten Markeranordnung (28) mittels des Abbildungssystems (17), während sich der Sensor (14) an der zweiten Sensorposition (26) befindet; und -Zuordnung der ersten Messdaten (20) und der zweiten Messdaten (24) zu Positionen in einem gemeinsamen Koordinatensystem (34) mittels der ersten Abbildung (30) und der zweiten Abbildung (32) durch die Auswerte- und Steuereinrichtung (18), dadurch gekennzeichnet, dass die ersten Messdaten (20) und die zweiten Messdaten (24) unabhängig von dem Abbildungssystem (17) erfasst werden.
DE102019119908.5A 2019-07-23 2019-07-23 Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts Pending DE102019119908A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019119908.5A DE102019119908A1 (de) 2019-07-23 2019-07-23 Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019119908.5A DE102019119908A1 (de) 2019-07-23 2019-07-23 Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts

Publications (1)

Publication Number Publication Date
DE102019119908A1 true DE102019119908A1 (de) 2021-01-28

Family

ID=74098372

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019119908.5A Pending DE102019119908A1 (de) 2019-07-23 2019-07-23 Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts

Country Status (1)

Country Link
DE (1) DE102019119908A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19626889A1 (de) * 1996-07-04 1998-01-08 Bernhard Dr Breuckmann Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
US6125197A (en) * 1998-06-30 2000-09-26 Intel Corporation Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
DE10137241A1 (de) * 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2034269A1 (de) * 2007-09-10 2009-03-11 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur dreidimensinalen Digitalisierung von Objekten
US20110268322A1 (en) * 2010-05-03 2011-11-03 Paul David Clausen Establishing coordinate systems for measurement
DE102015121582A1 (de) * 2014-12-12 2016-06-16 Werth Messtechnik Gmbh Verfahren und Vorrichtung zur Messung von Merkmalen an Werkstücken
DE102016109919A1 (de) * 2016-05-30 2017-11-30 Carl Zeiss Ag Vorrichtung zur Vermessung von Objekten

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19626889A1 (de) * 1996-07-04 1998-01-08 Bernhard Dr Breuckmann Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
US6125197A (en) * 1998-06-30 2000-09-26 Intel Corporation Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
DE10137241A1 (de) * 2001-03-15 2002-09-19 Tecmath Ag Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP2034269A1 (de) * 2007-09-10 2009-03-11 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur dreidimensinalen Digitalisierung von Objekten
US20110268322A1 (en) * 2010-05-03 2011-11-03 Paul David Clausen Establishing coordinate systems for measurement
DE102015121582A1 (de) * 2014-12-12 2016-06-16 Werth Messtechnik Gmbh Verfahren und Vorrichtung zur Messung von Merkmalen an Werkstücken
DE102016109919A1 (de) * 2016-05-30 2017-11-30 Carl Zeiss Ag Vorrichtung zur Vermessung von Objekten

Similar Documents

Publication Publication Date Title
EP0881461B1 (de) Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP1497613A1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP2133659B1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE19637682B4 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
EP3940356A1 (de) Verfahren zur räumlichen charakterisierung des optischen abstrahlverhaltens von licht- und strahlungsquellen
EP2726858A1 (de) Dynamische ergebnisprojektion bei bewegtem prüfobjekt
DE4011407A1 (de) Vorrichtung zur quantitativen absolutvermessung der dreidimensionalen koordinaten eines pruefobjekts
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
DE102019119908A1 (de) Sensoranordnung und Verfahren zur Bestimmung von geometrischen Eigenschaften eines Messobjekts
DE10025741C2 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
WO2013023787A1 (de) Lagebestimmung von subaperturen auf einem prüfling bei oberflächenmessungen auf dem prüfling
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
DE102020129923B4 (de) Verfahren zur Vorbereitung eines 3D-Scans und 3D-Scanner zur Durchführung des Verfahrens
DE102015117276B4 (de) Verfahren und Vorrichtung zum Vermessen eines Messobjekts mit verbesserter Messgenauigkeit
DE102018115620A1 (de) Messsystem
DE4017299C2 (de)
EP3910287A1 (de) Verfahren und vorrichtung zur vermessung eines physischen objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication