DE112015004196T5 - GATE CARRIER COORDINATE GAUGE WITH A 2D CAMERA AND METHOD FOR OBTAINING 3D DISPLAYS - Google Patents

GATE CARRIER COORDINATE GAUGE WITH A 2D CAMERA AND METHOD FOR OBTAINING 3D DISPLAYS Download PDF

Info

Publication number
DE112015004196T5
DE112015004196T5 DE112015004196.6T DE112015004196T DE112015004196T5 DE 112015004196 T5 DE112015004196 T5 DE 112015004196T5 DE 112015004196 T DE112015004196 T DE 112015004196T DE 112015004196 T5 DE112015004196 T5 DE 112015004196T5
Authority
DE
Germany
Prior art keywords
light
camera
pattern
edge
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112015004196.6T
Other languages
German (de)
Inventor
Robert E. Bridges
Paul C. Atwell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/485,876 external-priority patent/US9607239B2/en
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112015004196T5 publication Critical patent/DE112015004196T5/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Abstract

Ein tragbares Gelenkarm-Koordinatenmessgerät umfasst eine berührungslose 3D-Messvorrichtung, die einen Projektor, der dazu ausgestaltet ist, ein erstes Lichtmuster auf ein Objekt auszustrahlen, eine Scannerkamera, die so angeordnet ist, dass sie das erste Lichtmuster, das von der Oberfläche des Objekts reflektiert wird, empfängt, eine Kanten erkennende Kamera, die so angeordnet ist, dass sie Licht empfängt, das von einem Kantenmerkmal des Objekts reflektiert wird, und einen Prozessor aufweist, der dazu ausgestaltet ist, erste 3D-Koordinaten eines Kantenpunkts des Kantenmerkmals basierend auf elektrischen Signalen zu bestimmen, die von der Scannerkamera und der Kanten erkennenden Kamera empfangen werden.A portable articulated arm coordinate measuring machine includes a non-contact 3D measuring device that includes a projector configured to emit a first pattern of light on an object, a scanner camera arranged to reflect the first pattern of light that reflects from the surface of the object receives, receives, an edge-detecting camera arranged to receive light reflected from an edge feature of the object and a processor configured to obtain first 3D coordinates of an edge point of the edge feature based on electrical signals to determine which are received by the scanner camera and the edge detecting camera.

Description

QUERVERWEIS AUF VERWANDTE ANMELDUNGENCROSS-REFERENCE TO RELATED APPLICATIONS

Die vorliegende Anmeldung beansprucht die Priorität der US-Patentanmeldung mit der Nummer 14/485876, eingereicht am 15. September 2014, deren Inhalt hier bezugnehmend in seiner Gesamtheit einbezogen ist.The present application claims the benefit of US Patent Application Number 14 / 485,876, filed Sep. 15, 2014, the contents of which are incorporated herein by reference in their entirety.

HINTERGRUNDBACKGROUND

Die vorliegende Offenbarung betrifft ein Koordinatenmessgerät und insbesondere ein tragbares Gelenkarm-Koordinatenmessgerät mit einem Verbindungsstück auf einem Sondenende des Koordinatenmessgeräts, welches das abnehmbare Verbinden zusätzlicher Vorrichtungen, welche ein Streifenlicht für eine berührungslose dreidimensionale Messung verwenden, mit dem Koordinatenmessgerät ermöglicht.The present disclosure relates to a coordinate measuring machine, and more particularly, to a portable articulated arm coordinate measuring machine having a connector on a probe end of the coordinate measuring machine, which enables the detachable connection of additional devices using a strip light for non-contact three-dimensional measurement with the coordinate measuring machine.

Tragbare Gelenkarm-Koordinatenmessgeräte (Gelenkarm-KMGs) haben bei der Herstellung oder Produktion von Teilen, wobei die Abmessungen des Teils während verschiedener Phasen der Herstellung oder Produktion (z. B. Bearbeitung) des Teils schnell und präzise geprüft werden müssen, verbreitet Anwendung gefunden. Tragbare Gelenkarm-KMGs stellen eine starke Verbesserung gegenüber bekannten ortsfesten oder befestigten, kostspieligen und relativ schwierig zu verwendenden Messeinrichtungen dar, insbesondere in Bezug auf den Zeitaufwand, der für die Durchführung der Größenmessungen von relativ komplexen Teilen erforderlich ist. Normalerweise führt ein Benutzer eines tragbaren Gelenkarm-KMGs einfach eine Sonde entlang der Oberfläche des zu messenden Teils oder Objekts. Die Messdaten werden dann aufgezeichnet und dem Benutzer zur Verfügung gestellt. In einigen Fällen werden die Daten dem Bediener in optischer Form zur Verfügung gestellt, beispielsweise in dreidimensionaler(3D-)Form auf einem Computerbildschirm. In anderen Fällen werden dem Benutzer die Daten in numerischer Form zur Verfügung gestellt, beispielsweise, wenn bei der Messung des Durchmessers eines Lochs der Text „Durchmesser = 1,0034“ auf einem Computerbildschirm angezeigt wird.Portable articulated arm CMMs have found widespread use in the manufacture or production of parts where the dimensions of the part need to be inspected quickly and accurately during various stages of manufacture or production (eg, machining) of the part. Portable articulated arm CMMs are a vast improvement over known stationary or fixed, expensive, and relatively difficult to use measuring devices, particularly in terms of the time required to perform the size measurements of relatively complex parts. Normally, a user of a portable articulated arm CMM simply inserts a probe along the surface of the part or object to be measured. The measurement data is then recorded and made available to the user. In some cases, the data is provided to the operator in an optical form, for example in three-dimensional (3D) form on a computer screen. In other cases, the data is provided numerically to the user, for example, when measuring the diameter of a hole when the text "diameter = 1.0034" is displayed on a computer screen.

Ein Beispiel für ein tragbares Gelenkarm-KMG des Stands der Technik ist in dem US-Patent Nr. 5,402,582 ('582) des gleichen Inhabers offenbart, welches hier durch Bezugnahme in seiner Gesamtheit einbezogen ist. Das Patent ’582 offenbart ein 3D-Messsystem, das ein manuell bedientes Gelenkarm-KMG mit einem Tragunterteil an einem Ende und einer Messsonde am anderen Ende umfasst. Das US-Patent Nr. 5,611,147 (’147) des gleichen Inhabers, welches hier durch Bezugnahme in seiner Gesamtheit einbezogen ist, offenbart ein ähnliches Gelenkarm-KMG. In dem Patent ’147 umfasst das Gelenkarm-KMG mehrere Merkmale einschließlich einer zusätzlichen Drehachse am Sondenende, wodurch für einen Arm eine Konfiguration mit entweder zwei-zwei-zwei oder zwei-zwei-drei Achsen bereitgestellt wird (wobei Letztere ein Arm mit sieben Achsen ist).An example of a portable articulated arm CMM of the prior art is in the U.S. Patent No. 5,402,582 ('582) of the same assignee, which is incorporated herein by reference in its entirety. The '582 patent discloses a 3D measuring system that includes a manually operated articulated arm CMM with a support base at one end and a probe at the other end. The U.S. Patent No. 5,611,147 ('147) of the same assignee, which is incorporated herein by reference in its entirety, discloses a similar articulated arm CMM. In the '147 patent, the articulated arm CMM includes several features including an additional rotation axis at the probe end, providing one arm with a configuration of either two-two-two or two-two-three axes (the latter being a seven-axis arm ).

Dreidimensionale Oberflächen können auch unter Verwendung von berührungslosen Techniken gemessen werden. Eine Art von berührungsloser Vorrichtung, die manchmal als eine Laserliniensonde oder ein Laserlinienscanner bezeichnet wird, strahlt ein Laserlicht entweder auf einen Punkt oder entlang einer Linie aus. Eine Bildgebungsvorrichtung, wie zum Beispiel eine ladungsgekoppelte Vorrichtung (Charge-Coupled Device, CCD), wird neben den Laser positioniert. Der Laser wird so angeordnet, dass eine Lichtlinie ausgestrahlt wird, die von der Oberfläche reflektiert wird. Die Oberfläche des gemessenen Objekts verursacht eine diffuse Reflexion, die von der Bildgebungsvorrichtung erfasst wird. Das Bild der reflektierten Linie auf dem Sensor ändert sich in dem Maße, wie sich der Abstand zwischen dem Sensor und der Oberfläche verändert. Durch Kenntnis der Beziehung zwischen dem Bildgebungssensor und dem Laser und der Position des Laserbildes auf dem Sensor können Triangulationsverfahren verwendet werden, um dreidimensionale Koordinaten von Punkten auf der Oberfläche zu messen. Ein Problem, welches sich bei Laserliniensonden ergibt, besteht darin, dass sich die Dichte von gemessenen Punkten abhängig von der Geschwindigkeit, mit der die Laserliniensonde über die Oberfläche des Objekts bewegt wird, ändern kann. Je schneller die Laserliniensonde bewegt wird, desto größer wird der Abstand zwischen den Punkten und die Punktedichte geringer. Bei einem Streifenlichtscanner ist der Punktabstand typischerweise in jeder der beiden Dimensionen einheitlich, wodurch im Allgemeinen eine gleichmäßige Messung von Oberflächenpunkten auf dem Werkstück bereitgestellt wird. Ein weiteres Problem, welches bei dem Erhalten von 3D-Darstellungen aus Abtastdaten auftritt, besteht darin, dass es häufig einen verschwommenen Bereich um Kanten oder Löcher gibt.Three-dimensional surfaces can also be measured using non-contact techniques. One type of non-contact device, sometimes referred to as a laser line probe or laser line scanner, emits laser light either at a point or along a line. An imaging device, such as a Charge-Coupled Device (CCD), is positioned adjacent to the laser. The laser is arranged to emit a line of light that is reflected from the surface. The surface of the measured object causes diffuse reflection, which is detected by the imaging device. The image of the reflected line on the sensor changes as the distance between the sensor and the surface changes. By knowing the relationship between the imaging sensor and the laser and the position of the laser image on the sensor, triangulation techniques can be used to measure three-dimensional coordinates of points on the surface. A problem that arises with laser line probes is that the density of measured points may change depending on the speed with which the laser line probe is moved across the surface of the object. The faster the laser line probe is moved, the greater the distance between the dots and the dot density becomes smaller. In a streak light scanner, the dot pitch is typically uniform in each of the two dimensions, generally providing a uniform measurement of surface points on the workpiece. Another problem that arises in obtaining 3-D plots from scan data is that there is often a blurred area around edges or holes.

Obwohl bestehende KMGs für ihre beabsichtigten Zwecke geeignet sind, besteht Bedarf an einem tragbaren Gelenkarm-KMG mit gewissen Merkmalen von Ausführungsformen der vorliegenden Erfindung.Although existing CMMs are suitable for their intended purposes, there is a need for a portable articulated arm CMM with certain features of embodiments of the present invention.

KURZFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Gemäß einer Ausführungsform der Erfindung ist ein tragbares Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG) zum Messen von dreidimensionalen(3D-)Koordinaten eines Objekts im Raum vorgesehen, aufweisend ein Unterteil; einen manuell positionierbaren Armabschnitt mit einem ersten und einem entgegengesetzten zweiten Ende, wobei der Armabschnitt drehbar an das Unterteil gekoppelt ist, wobei der Armabschnitt eine Vielzahl von verbundenen Armsegmenten umfasst, wobei jedes Armsegment mindestens ein Wegmesssystem zur Erzeugung eines Positionssignals umfasst; einen Prozessor; eine elektronische Schaltung, die das Positionssignal von dem mindestens einen Wegmesssystem in jedem Armsegment empfängt, wobei die elektronische Schaltung dafür ausgelegt ist, in Reaktion auf das Positionssignal ein erstes elektrisches Signal an den Prozessor zu senden; ein an das erste Ende gekoppeltes Sondenende; eine an das Sondenende gekoppelte berührungslose 3D-Messvorrichtung, wobei die berührungslose 3D-Messvorrichtung einen Projektor und eine Scannerkamera aufweist, wobei der Projektor dafür ausgelegt ist, ein erstes Lichtmuster auf das Objekt auszustrahlen, wobei die Scannerkamera so angeordnet ist, dass sie das von dem Objekt reflektierte erste Lichtmuster empfängt und in Reaktion darauf ein zweites elektrisches Signal an den Prozessor sendet; eine Kanten erkennende Kamera, die an das Sondenende gekoppelt ist, wobei die Kanten erkennende Kamera eine von der Scannerkamera und einer zweiten Kamera ist, die sich von der Scannerkamera unterscheidet, wobei die Kanten erkennende Kamera so positioniert ist, dass sie im Betrieb ein von einem Kantenmerkmal des Objekts reflektiertes zweites Licht empfängt und in Reaktion darauf ein drittes elektrisches Signal an den Prozessor sendet; und wobei der Prozessor dafür ausgelegt ist, erste 3D-Koordinaten von ersten Punkten auf einer Oberfläche des Objekts zumindest teilweise basierend auf dem ersten Lichtmuster von dem Projektor, dem ersten elektrischen Signal und dem zweiten elektrischen Signal zu bestimmen, wobei der Prozessor ferner dafür ausgelegt ist, einen ersten Strahl von der Kanten erkennenden Kamera zum Objekt zu bestimmen, wobei der erste Strahl zumindest teilweise auf dem ersten elektrischen Signal und dem dritten elektrischen Signal basiert, wobei der Prozessor ferner dafür ausgelegt ist, zweite 3D-Koordinaten eines Kantenpunktes des Kantenmerkmals zu bestimmen, wobei die zweiten 3D-Koordinaten zumindest teilweise auf einem Schnittpunkt des ersten Strahls mit den ersten 3D-Koordinaten der erste Oberfläche basieren.According to one embodiment of the invention, there is provided a portable articulated arm coordinate measuring machine (articulated arm CMM) for measuring three-dimensional (3D) coordinates of an object in space, comprising a base; a manually positionable arm portion having a first and an opposite second end, the arm portion rotatably coupled to the base, the arm portion including a plurality of connected arm segments, each arm segment including at least one position sensing system for generating a position signal; a processor; an electronic circuit receiving the position signal from the at least one displacement encoder in each arm segment, the electronic circuit configured to send a first electrical signal to the processor in response to the position signal; a probe end coupled to the first end; a non-contact 3D measuring device coupled to the probe end, the non-contact 3D measuring device comprising a projector and a scanner camera, the projector being adapted to emit a first light pattern on the object, the scanner camera being arranged to read the one of the Receives object reflected first light patterns and in response sends a second electrical signal to the processor; an edge-detecting camera coupled to the probe end, wherein the edge-detecting camera is one of the scanner camera and a second camera different from the scanner camera, the edge-detecting camera being positioned so as to be one of a Edge feature of the object receives second reflected light and in response sends a third electrical signal to the processor; and wherein the processor is configured to determine first 3D coordinates of first points on a surface of the object based at least in part on the first light pattern from the projector, the first electrical signal, and the second electrical signal, wherein the processor is further configured therefor to determine a first beam from the edge-detecting camera to the object, the first beam based at least in part on the first electrical signal and the third electrical signal, the processor being further configured to determine second 3D coordinates of an edge point of the edge feature wherein the second 3D coordinates are based at least in part on an intersection of the first beam with the first 3D coordinates of the first surface.

Gemäß einer weiteren Ausführungsform der Erfindung umfasst ein Verfahren zum Messen eines Kantenpunkts mit einem tragbaren Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG) das Bereitstellen des Gelenkarm-KMGs, wobei das Gelenkarm-KMG aufweist: ein Unterteil, einen manuell positionierbaren Armabschnitt mit einem ersten und einem entgegengesetzten zweiten Ende, wobei der Armabschnitt drehbar an das Unterteil gekoppelt ist, wobei der Armabschnitt eine Vielzahl von verbundenen Armsegmenten umfasst, wobei jedes Armsegment mindestens ein Wegmesssystem zur Erzeugung eines Positionssignals umfasst, einen Prozessor, eine elektronische Schaltung, ein an das erste Ende gekoppeltes Sondenende, eine an das Sondenende gekoppelte berührungslose 3D-Messvorrichtung, wobei die berührungslose 3D-Messvorrichtung einen Projektor und eine Scannerkamera aufweist, wobei das Gelenkarm-KMG ferner eine an das Sondenende gekoppelte Kanten erkennende Kamera aufweist, wobei die Kanten erkennende Kamera eine von der Scannerkamera und einer zweiten Kamera ist, die sich von der Scannerkamera unterscheidet; das Empfangen, durch die elektronische Schaltung, des Positionssignals von dem mindestens einen Wegmesssystem in jedem Armsegment; das Senden, von der elektronischen Schaltung, eines ersten elektrischen Signals an den Prozessor in Reaktion auf das Positionssignal; das Ausstrahlen, von dem Projektor, eines ersten Lichtmusters auf das Objekt; das Empfangen, mit der Scannerkamera, des ersten von dem Objekt reflektierten Lichtmusters und das Senden eines zweiten elektrischen Signals an den Prozessor in Reaktion darauf; das Empfangen, mit der Kanten erkennenden Kamera, eines zweiten von einem Kantenmerkmal des Objekts reflektierten Lichts und das Senden eines dritten elektrischen Signals an den Prozessor in Reaktion darauf, wobei das Kantenmerkmal einen Kantenpunkt aufweist, wobei der Kantenpunkt ein Punkt auf dem Kantenmerkmal ist; das Bestimmen, mit dem Prozessor, von ersten 3D-Koordinaten von ersten Punkten auf einer Oberfläche des Objekts, wobei die ersten 3D-Koordinaten zumindest teilweise auf dem ersten Lichtmuster von dem Projektor, dem ersten elektrischen Signal und dem zweiten elektrischen Signal basieren; ferner das Bestimmen, mit dem Prozessor, eines ersten Strahls von der Kanten erkennenden Kamera zum Objekt, wobei der erste Strahl zumindest teilweise auf dem ersten elektrischen Signal und dem dritten elektrischen Signal basiert; ferner das Bestimmen, mit dem Prozessor, von zweiten 3D-Koordinaten des Kantenpunkts zumindest teilweise basierend auf einem Schnittpunkt des ersten Strahls mit den ersten 3D-Koordinaten der ersten Oberfläche; und das Speichern der zweiten 3D-Koordinaten des Kantenpunkts.According to another embodiment of the invention, a method of measuring an edge point with a portable articulated arm CMM comprises providing the articulated arm CMM, the articulated arm CMM comprising: a base; a manually positionable arm portion having first and one opposite second end, wherein the arm portion is rotatably coupled to the base, wherein the arm portion comprises a plurality of connected arm segments, each arm segment comprises at least one position encoder for generating a position signal, a processor, an electronic circuit, a probe end coupled to the first end a non-contact 3D measuring device coupled to the probe end, the non-contact 3D measuring device having a projector and a scanner camera, the articulated arm CMM further comprising an edge-detecting camera coupled to the probe end, the edge-detecting camera having one of the scanner camera and a second camera that differs from the scanner camera; receiving, by the electronic circuit, the position signal from the at least one displacement measuring system in each arm segment; sending, from the electronic circuit, a first electrical signal to the processor in response to the position signal; radiating, from the projector, a first pattern of light onto the object; receiving, with the scanner camera, the first light pattern reflected from the object, and sending a second electrical signal to the processor in response thereto; receiving, with the edge detecting camera, a second light reflected from an edge feature of the object and sending a third electrical signal to the processor in response thereto, the edge feature having an edge point, the edge point being a point on the edge feature; determining, with the processor, first 3D coordinates of first points on a surface of the object, wherein the first 3D coordinates are based at least in part on the first pattern of light from the projector, the first electrical signal, and the second electrical signal; further determining, with the processor, a first beam from the edge-detecting camera to the object, the first beam based at least in part on the first electrical signal and the third electrical signal; further determining, at the processor, second 3D coordinates of the edge point based, at least in part, on an intersection of the first beam with the first 3D coordinates of the first surface; and storing the second 3D coordinates of the edge point.

KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Nun Bezug nehmend auf die Zeichnungen sind beispielhafte Ausführungsformen dargestellt, welche nicht als den gesamten Schutzbereich der Offenbarung einschränkend aufzufassen sind und wobei die Elemente in mehreren Figuren gleich nummeriert sind:Referring now to the drawings, exemplary embodiments are shown which are not to be construed as limiting the entire scope of the disclosure, and wherein the elements in several figures are numbered alike:

1, einschließlich 1A und 1B, sind Perspektivansichten eines tragbaren Gelenkarm-Koordinatenmessgeräts (Gelenkarm-KMG), das Ausführungsformen verschiedener Aspekte der vorliegenden Erfindung enthält; 1 including 1A and 1B FIGS. 5, 5 and 5 are perspective views of a portable articulated arm coordinate measuring machine (articulated arm CMM) incorporating embodiments of various aspects of the present invention;

2, einschließlich 2A2D zusammengenommen, ist ein Blockschaltbild der Elektronik, die als Teil des Gelenkarm-KMGs von 1 gemäß einer Ausführungsform verwendet wird; 2 including 2A - 2D Taken together, is a block diagram of the electronics used as part of the articulated arm CMM of 1 is used according to one embodiment;

3, einschließlich 3A und 3B zusammengenommen, ist ein Blockschaltbild, das detaillierte Merkmale des elektronischen Datenverarbeitungssystems von 2 gemäß einer Ausführungsform beschreibt; 3 including 3A and 3B taken together, is a block diagram showing detailed features of the electronic data processing system of 2 according to one embodiment;

4 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1; 4 is an isometric view of the probe end of the articulated arm CMM 1 ;

5 ist eine Seitenansicht des Sondenendes aus 4, wobei der Griff an dieses gekoppelt ist; 5 is a side view of the probe end 4 with the handle coupled thereto;

6 ist eine Seitenansicht des Sondenendes aus 4, wobei der Griff angebracht ist; 6 is a side view of the probe end 4 with the handle attached;

7 ist eine vergrößerte teilweise Seitenansicht des Schnittstellenabschnitts des Sondenendes aus 6; 7 is an enlarged partial side view of the interface portion of the probe end 6 ;

8 ist eine weitere vergrößerte teilweise Seitenansicht des Schnittstellenabschnitts des Sondenendes aus 5; 8th Figure 4 is a further enlarged partial side view of the interface portion of the probe end 5 ;

9 ist eine isometrische Ansicht des Griffs aus 4, teilweise im Schnitt; 9 is an isometric view of the handle 4 , partly in section;

10 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1 mit einer Streifenlichtvorrichtung, an der eine einzelne Kamera angebracht ist; 10 is an isometric view of the probe end of the articulated arm CMM 1 with a strip light device to which a single camera is attached;

11 ist eine isometrische Ansicht der Vorrichtung aus 10, teilweise im Schnitt; 11 is an isometric view of the device 10 , partly in section;

12 ist eine isometrische Ansicht des Sondenendes des Gelenkarm-KMGs aus 1 mit einer weiteren Streifenlichtvorrichtung mit zwei angebrachten Kameras; 12 is an isometric view of the probe end of the articulated arm CMM 1 with another strip light device with two attached cameras;

13A und 13B sind schematische Ansichten, die den Betrieb der Vorrichtung aus 10 veranschaulichen, wenn diese an dem Sondenende des Gelenkarm-KMGs aus 1 angebracht ist; 13A and 13B are schematic views illustrating the operation of the device 10 illustrate when this at the probe end of the articulated arm CMMs 1 is appropriate;

1417 sind sequentielle Projektionen mit einem uncodierten binären Muster, das von der Streifenlichtvorrichtung aus 10 oder 12 ausgestrahlt werden kann, gemäß einer Ausführungsform der vorliegenden Erfindung; 14 - 17 are sequential projections with an uncoded binary pattern coming from the strip light device 10 or 12 can be broadcast, according to an embodiment of the present invention;

1819 sind räumlich variierende farbcodierte Muster, die von der Streifenlichtvorrichtung aus 10 oder 12 ausgestrahlt werden können, gemäß einer Ausführungsform der Erfindung; 18 - 19 are spatially varying color-coded patterns emanating from the strip light device 10 or 12 can be emitted according to an embodiment of the invention;

2023 sind räumlich variierende Streifenindex-codierte Muster, die von der Streifenlichtvorrichtung aus 10 oder 12 ausgestrahlt werden können, gemäß einer Ausführungsform der Erfindung; 20 - 23 are spatially varying band index coded patterns emanating from the strip light device 10 or 12 can be emitted according to an embodiment of the invention;

2431 sind zweidimensionale Gittermuster, die von der Streifenlichtvorrichtung aus 10 oder 12 ausgestrahlt werden können, gemäß einer Ausführungsform der Erfindung; 24 - 31 are two-dimensional lattice patterns that emanate from the strip light device 10 or 12 can be emitted according to an embodiment of the invention;

32 ist eine schematische Veranschaulichung einer photometrischen Technik zur Erfassung von Mustern von Streifenlicht unter einer Vielzahl von Beleuchtungsbedingungen; 32 Fig. 10 is a schematic illustration of a photometric technique for detecting patterns of fringe light under a variety of lighting conditions;

33 ist eine Veranschaulichung einer Streifenlicht-Scannervorrichtung, die unabhängig von einem Gelenkarm-KMG bedienbar ist, gemäß einer weiteren Ausführungsform der Erfindung; 33 Fig. 10 is an illustration of a stripe light scanner device operable independently of an articulated arm CMM according to another embodiment of the invention;

34 ist eine isometrische Zeichnung eines Sondenendes mit einem Triangulationsscanner und einer Kamera, die zusammen verwendet werden, um scharfe 3D-Darstellungen zu erzeugen; 34 Figure 11 is an isometric drawing of a probe end with a triangulation scanner and a camera used together to produce sharp 3D representations;

35 ist eine schematische Veranschaulichung von Strahlen, die durch ein Kameraperspektivitätszentrum projiziert werden, um scharfe Kanten für 3D-Darstellungen bereitzustellen; und 35 Figure 12 is a schematic illustration of rays projected through a camera perspective center to provide sharp edges for 3D representations; and

36 ist eine Veranschaulichung, die ein Loch mit Kanten mit einem umgebenden Bereich, der eine "Unschärfe" aufweist, hat. 36 Figure 4 is an illustration having a hole with edges with a surrounding area having a "blur".

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Tragbare Gelenkarm-Koordinatenmessgeräte ("Gelenkarm-KMGs") werden in einer Vielfalt von Anwendungen verwendet, um Messungen von Objekten zu erhalten. Ausführungsformen der vorliegenden Erfindung bieten Vorteile dahingehend, dass ein Bediener leicht und schnell Zubehörvorrichtungen, welche Streifenlicht verwenden, um die berührungslose Messung eines dreidimensionalen Objekts zu ermöglichen, an ein Sondenende des Gelenkarm-KMGs koppeln kann. Ausführungsformen der vorliegenden Erfindung bieten weitere Vorteile dahingehend, dass Kommunikationsdaten bereitgestellt werden, die eine Punkt-Cloud darstellen, die von der Streifenlichtvorrichtung innerhalb des Gelenkarm-KMGs gemessen wurde. Ausführungsformen der vorliegenden Erfindung bieten Vorteile einer größeren Gleichmäßigkeit bei der Verteilung von Messpunkten, die eine verbesserte Genauigkeit bieten kann. Ausführungsformen der vorliegenden Erfindung bieten noch weitere Vorteile dahingehend, dass sie einem abnehmbaren Zubehörteil Strom und Datenkommunikation bereitstellen, ohne dass externe Anschlüsse oder Verdrahtungen vorliegen. Ausführungsformen der vorliegenden Erfindung bieten noch weitere Vorteile dahingehend, dass Kanten von Merkmalen in 3D-Darstellungen schärfer werden.Portable articulated arm CMMs are used in a variety of applications to obtain measurements of objects. Embodiments of the present invention provide advantages in that an operator can easily and quickly couple accessory devices that use fringe light to enable non-contact measurement of a three-dimensional object to a probe end of the articulated arm CMM. Embodiments of the present invention provide further advantages in providing communication data representing a point cloud measured by the strip light device within the articulated arm CMM. Embodiments of the present invention offer advantages of greater uniformity in the distribution of measurement points, which can provide improved accuracy. Embodiments of the present invention provide further advantages in that that they provide power and data communication to a detachable accessory without external connections or wiring. Embodiments of the present invention provide further advantages in that edges of features in 3D representations become sharper.

Wie er hier verwendet wird, bedeutet der Begriff “Streifenlicht” ein zweidimensionales Lichtmuster, das auf einen kontinuierlichen und eingeschlossenen Bereich eines Objekts projiziert wird, welches Informationen übermittelt, die verwendet werden können, um Koordinaten von Punkten auf dem Objekt zu bestimmen. Ein Streifenlichtmuster enthält mindestens drei nicht-kollineare Musterelemente, die innerhalb des zusammenhängenden und eingeschlossenen Bereichs angeordnet sind. Jedes der drei nicht-kollinearen Musterelemente übermittelt Informationen, die verwendet werden können, um die Punktkoordinaten zu bestimmen.As used herein, the term "fringe light" means a two-dimensional light pattern that is projected onto a continuous and enclosed area of an object that conveys information that can be used to determine coordinates of points on the object. A striped light pattern includes at least three non-collinear pattern elements located within the contiguous and enclosed area. Each of the three non-collinear pattern elements conveys information that can be used to determine the point coordinates.

Im Allgemeinen gibt es zwei Arten von Streifenlicht, ein codiertes Lichtmuster und ein uncodiertes Lichtmuster. Wie es hier verwendet wird, ist ein codiertes Lichtmuster eines, bei dem die dreidimensionalen Koordinaten einer beleuchteten Oberfläche des Objekts durch die Erfassung eines einzelnen Bilds festgestellt werden können. In manchen Fällen kann sich die Projektionsvorrichtung relativ zum Objekt bewegen. Mit anderen Worten gibt es bei einem codierten Lichtmuster keine wesentliche temporale Beziehung zwischen dem projizierten Muster und dem erfassten Bild. Typischerweise enthält ein codiertes Lichtmuster einen Satz von Elementen (z. B. geometrische Formen), die so angeordnet sind, dass mindestens drei der Elemente nicht-kollinear sind. In manchen Fällen kann der Satz von Elementen zu Sammlungen von Linien angeordnet werden. Wenn mindestens drei der Elemente nicht-kollinear sind, wird gewährleistet, dass das Muster nicht ein einfaches Linienmuster ist, wie es zum Beispiel von einem Laserlinienscanner projiziert werden würde. Infolgedessen sind die Musterelemente auf Grund der Anordnung der Elemente erkennbar.In general, there are two types of strip light, a coded light pattern, and an uncoded light pattern. As used herein, a coded light pattern is one in which the three-dimensional coordinates of an illuminated surface of the object can be determined by the detection of a single image. In some cases, the projection device may move relative to the object. In other words, in a coded light pattern, there is no significant temporal relationship between the projected pattern and the captured image. Typically, a coded light pattern includes a set of elements (eg, geometric shapes) arranged such that at least three of the elements are non-collinear. In some cases, the set of elements may be arranged into collections of lines. If at least three of the elements are non-collinear, this ensures that the pattern is not a simple line pattern, such as would be projected by a laser line scanner. As a result, the pattern elements are recognizable due to the arrangement of the elements.

Im Gegensatz dazu ist ein uncodiertes Streifenlichtmuster, wie es hier verwendet wird, ein Muster, das keine Messung durch ein einzelnes Muster gestattet, wenn sich der Projektor relativ zum Objekt bewegt. Ein Beispiel für ein uncodiertes Lichtmuster ist eines, welches eine Reihe von sequentiellen Mustern und somit die Erfassung einer Reihe von sequentiellen Bildern erfordert. Durch die temporale Art des Projektionsmusters und die Erfassung des Bildes sollte keine relative Bewegung zwischen dem Projektor und dem Objekt bestehen.In contrast, an uncoded striped light pattern, as used herein, is a pattern that does not permit measurement by a single pattern as the projector moves relative to the object. An example of an uncoded light pattern is one that requires a series of sequential patterns, and thus the acquisition of a series of sequential images. Due to the temporal nature of the projection pattern and the capture of the image, there should be no relative movement between the projector and the object.

Es versteht sich, dass sich Streifenlicht von Licht unterscheidet, das durch eine Laserliniensonde oder eine Vorrichtung von der Art eines Laserlinienscanners, die eine Lichtlinie erzeugt, projiziert wird. In dem Maße, wie Laserliniensonden, die mit Gelenkarmen verwendet werden, heutzutage Unregelmäßigkeiten oder andere Aspekte aufweisen, die als Merkmale innerhalb der erzeugten Linien angesehen werden können, sind diese Merkmale in einer kollinearen Anordnung angeordnet. Folglich werden solche Merkmale innerhalb einer einzelnen erzeugten Linie nicht als das projizierte Licht zu einem Streifenlicht ändernd angesehen.It is understood that fringe light is different from light projected by a laser line probe or a laser line scanner type device which generates a line of light. To the extent that laser line probes used with articulated arms today have irregularities or other aspects that can be considered as features within the generated lines, these features are arranged in a collinear array. Consequently, such features within a single generated line are not considered to change the projected light to a fringe light.

Die 1A und 1B veranschaulichen perspektivisch ein Gelenkarm-KMG 100 gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung, wobei ein Gelenkarm eine Art von Koordinatenmessgerät ist. Wie in den 1A und 1B gezeigt ist, kann das beispielhafte Gelenkarm-KMG 100 ein Gelenkmessgerät mit sechs oder sieben Achsen mit einem Sondenende 401 aufweisen, das an einem Ende ein an einen Armabschnitt 104 des Gelenkarm-KMGs 100 gekoppeltes Messsondengehäuse 102 umfasst. Der Armabschnitt 104 umfasst ein erstes Armsegment 106, das durch eine erste Gruppierung von Lagereinsätzen 110 (z. B. zwei Lagereinsätze) an ein zweites Armsegment 108 gekoppelt ist.The 1A and 1B illustrate in perspective an articulated arm CMM 100 according to various embodiments of the present invention, wherein an articulated arm is a kind of coordinate measuring machine. As in the 1A and 1B shown, the exemplary articulated arm CMM 100 a joint measuring device with six or seven axes with one probe end 401 having at one end to an arm portion 104 the articulated arm CMM 100 coupled probe housing 102 includes. The arm section 104 includes a first arm segment 106 that through a first grouping of bearing inserts 110 (eg two bearing inserts) to a second arm segment 108 is coupled.

Eine zweite Gruppierung von Lagereinsätzen 112 (z. B. zwei Lagereinsätze) koppelt das zweite Armsegment 108 an das Messsondengehäuse 102. Eine dritte Gruppierung von Lagereinsätzen 114 (z. B. drei Lagereinsätze) koppelt das erste Armsegment 106 an ein Unterteil 116, das am anderen Ende des Armabschnitts 104 des Gelenkarm-KMGs 100 angeordnet ist. Jede Gruppierung von Lagereinsätzen 110, 112, 114 stellt mehrere Achsen der Gelenkbewegung bereit. Außerdem kann das Sondenende 401 ein Messsondengehäuse 102 umfassen, das die Welle des siebten Achsenabschnitts des Gelenkarm-KMGs 100 aufweist (z. B. einen Einsatz, der ein Codierersystem enthält, das eine Bewegung des Messgeräts, beispielsweise einer Sonde 118, in der siebten Achse des Gelenkarm-KMGs 100 bestimmt). Bei dieser Ausführungsform kann sich das Sondenende 401 um eine Achse drehen, die sich durch die Mitte des Messsondengehäuses 102 erstreckt. Das Unterteil 116 ist im Gebrauch des Gelenkarm-KMGs 100 normalerweise an einer Arbeitsfläche befestigt.A second grouping of bearing inserts 112 (eg two bearing inserts) couples the second arm segment 108 to the probe housing 102 , A third group of bearing inserts 114 (eg three bearing inserts) couples the first arm segment 106 to a lower part 116 at the other end of the arm section 104 the articulated arm CMM 100 is arranged. Each grouping of bearing inserts 110 . 112 . 114 provides multiple axes of articulation. In addition, the probe end 401 a probe housing 102 comprising the shaft of the seventh axis portion of the articulated arm CMM 100 (For example, an insert containing an encoder system that detects movement of the gauge, such as a probe 118 , in the seventh axis of the articulated arm CMM 100 certainly). In this embodiment, the probe end may 401 rotate around an axis extending through the center of the probe housing 102 extends. The lower part 116 is in the use of the articulated arm CMM 100 usually attached to a work surface.

Jeder Lagereinsatz in jeder Lagereinsatzgruppierung 110, 112, 114 enthält normalerweise ein Codierersystem (z. B. ein optisches Winkelcodierersystem). Das Codierersystem (d.h. ein Messumformer) stellt eine Angabe der Position der jeweiligen Armsegmente 106, 108 und der entsprechenden Lagereinsatzgruppierungen 110, 112, 114 bereit, die alle zusammen eine Angabe der Position der Sonde 118 in Bezug auf das Unterteil 116 (und somit die Position des durch das Gelenkarm-KMG 100 gemessenen Objekts in einem bestimmten Bezugssystem – beispielsweise einem lokalen oder globalen Bezugssystem) bereitstellen. Die Armsegmente 106, 108 können aus einem in geeigneter Weise starren Material bestehen, wie beispielsweise unter anderem einem Kohlefaserverbundmaterial. Ein tragbares Gelenkarm-KMG 100 mit sechs oder sieben Achsen der Gelenkbewegung (d. h. Freiheitsgraden) bietet Vorteile dahingehend, dass dem Bediener gestattet wird, die Sonde 118 an einer gewünschten Stelle innerhalb eines 360°-Bereichs um das Unterteil 116 zu positionieren, wobei ein Armabschnitt 104 bereitgestellt wird, der vom Bediener leicht gehandhabt werden kann. Es versteht sich jedoch, dass die Darstellung eines Armabschnitts 104 mit zwei Armsegmenten 106, 108 als Beispiel dient und dass die beanspruchte Erfindung nicht dadurch eingeschränkt sein sollte. Ein Gelenkarm-KMG 100 kann eine beliebige Anzahl von Armsegmenten aufweisen, die durch Lagereinsätze aneinandergekoppelt sind (und somit mehr oder weniger als sechs oder sieben Achsen der Gelenkbewegung oder Freiheitsgrade aufweisen).Each bearing insert in each bearing insert grouping 110 . 112 . 114 typically includes an encoder system (eg, an optical encoder system). The encoder system (ie, a transmitter) provides an indication of the position of the respective arm segments 106 . 108 and the corresponding warehouse operations groupings 110 . 112 . 114 ready, all together giving an indication of the position of the probe 118 in relation to the lower part 116 (and thus the position of the through the articulated arm CMM 100 measured object in a given reference system - for example, a local or global Reference system). The arm segments 106 . 108 may be made of a suitably rigid material, such as, but not limited to, a carbon fiber composite material. A portable articulated arm CMM 100 having six or seven axes of articulation (ie degrees of freedom) provides benefits in allowing the operator to probe 118 at a desired location within a 360 ° area around the base 116 to position, with an arm section 104 which can be easily handled by the operator. It is understood, however, that the representation of an arm section 104 with two arm segments 106 . 108 as an example and that the claimed invention should not be limited thereby. An articulated arm CMM 100 may comprise any number of arm segments which are coupled together by bearing inserts (and thus have more or less than six or seven axes of articulation or degrees of freedom).

Die Sonde 118 ist am Messsondengehäuse 102 lösbar angebracht, welches mit der Lagereinsatzgruppierung 112 verbunden ist. Ein Griff 126 ist in Bezug auf das Messsondengehäuse 102 beispielsweise mittels eines Schnellverbinderanschlusses abnehmbar. Wie später genauer besprochen wird, kann der Griff 126 durch eine andere Vorrichtung ersetzt werden, die dafür ausgelegt ist, ein Streifenlicht auszustrahlen, um eine berührungslose Messung von dreidimensionalen Objekten bereitzustellen, wodurch Vorteile dahingehend geschaffen werden, dass der Bediener mit demselben Gelenkarm-KMG 100 Kontaktmessungen und berührungslose Messungen vornehmen kann. Das Sondengehäuse 102 beherbergt bei beispielhaften Ausführungsformen eine abnehmbare Sonde 118, die ein Kontaktmessgerät ist und verschiedene Spitzen 118 aufweisen kann, die das zu messende Objekt physisch berühren und folgende umfassen, ohne darauf beschränkt zu sein: Sonden vom Kugeltyp, berührungsempfindliche, gebogene und ausfahrbare Sonden. Bei anderen Ausführungsformen wird die Messung beispielsweise durch ein berührungsloses Gerät, wie z. B. eine codierte Streifenlicht-Scannervorrichtung, durchgeführt. Der Griff 126 ist bei einer Ausführungsform durch die codierte Streifenlicht-Scannervorrichtung unter Verwendung des Schnellverbinderanschlusses ersetzt. Andere Typen von Messvorrichtungen können den abnehmbaren Griff 126 ersetzen, um eine zusätzliche Funktionalität bereitzustellen. Beispiele für solche Messvorrichtungen umfassen, ohne darauf beschränkt zu sein, zum Beispiel eine oder mehrere Beleuchtungslampen, einen Temperatursensor, einen Thermoscanner, einen Strichcodescanner, einen Projektor, eine Lackierpistole, eine Kamera oder dergleichen.The probe 118 is on the probe housing 102 releasably attached, which with the bearing insert grouping 112 connected is. A handle 126 is in relation to the probe housing 102 for example, by means of a quick connector terminal removable. As will be discussed later, the handle can 126 be replaced by another device adapted to emit a strip light to provide non-contact measurement of three-dimensional objects, thereby providing benefits to the operator with the same articulated arm CMM 100 Make contact measurements and non-contact measurements. The probe housing 102 accommodates a detachable probe in exemplary embodiments 118 which is a contact meter and different tips 118 which physically contact the object to be measured and include, but are not limited to: ball-type probes, touch-sensitive, curved and extendable probes. In other embodiments, the measurement, for example, by a non-contact device, such. A coded stripe light scanner device. The handle 126 In one embodiment, it is replaced by the coded stripe light scanner device using the quick connector connector. Other types of measuring devices may have the removable handle 126 replace to provide additional functionality. Examples of such measuring devices include, but are not limited to, for example, one or more illumination lamps, a temperature sensor, a thermal scanner, a bar code scanner, a projector, a paint spray gun, a camera, or the like.

Wie in den 1A und 1B gezeigt ist, umfasst das Gelenkarm-KMG 100 den abnehmbaren Griff 126, der die Vorteile bereitstellt, dass Zubehörteile oder Funktionalitäten geändert werden können, ohne dass das Messsondengehäuse 102 von der Lagereinsatzgruppierung 112 entfernt werden muss. Wie unter Bezugnahme auf 2D nachstehend ausführlicher besprochen wird, kann der abnehmbare Griff 126 auch ein elektrisches Verbindungsstück umfassen, das es gestattet, dass elektrische Energie und Daten mit dem Griff 126 und der im Sondenende 401 angeordneten entsprechenden Elektronik ausgetauscht werden.As in the 1A and 1B shown includes the articulated arm CMM 100 the removable handle 126 which provides the advantages that accessories or functionalities can be changed without the probe housing 102 from the warehouse operations grouping 112 must be removed. As with reference to 2D will be discussed in more detail below, the removable handle 126 Also include an electrical connector that allows electrical energy and data to be handled 126 and the one in the probe end 401 arranged to be replaced corresponding electronics.

Bei verschiedenen Ausführungsformen ermöglicht jede Gruppierung von Lagereinsätzen 110, 112, 114, dass sich der Armabschnitt 104 des Gelenkarm-KMGs 100 um mehrere Drehachsen bewegt. Wie bereits erwähnt, umfasst jede Lagereinsatzgruppierung 110, 112, 114 entsprechende Codierersysteme wie beispielsweise optische Winkelcodierer, die jeweils koaxial mit der entsprechenden Drehachse z. B. der Armsegmente 106, 108 angeordnet sind. Das optische Codierersystem erfasst eine Drehbewegung (Schwenkbewegung) oder Querbewegung (Gelenkbewegung) beispielsweise von jedem der Armsegmente 106, 108 um die entsprechende Achse und überträgt ein Signal zu einem elektronischen Datenverarbeitungssystem in dem Gelenkarm-KMG 100, wie hier im Folgenden ausführlicher beschrieben wird. Jede einzelne unverarbeitete Codiererzählung wird separat als Signal an das elektronische Datenverarbeitungssystem gesendet, wo sie zu Messdaten weiterverarbeitet wird. Es ist kein von dem Gelenkarm-KMG 100 selbst getrennter Positionsberechner (z. B. eine serielle Box) erforderlich, wie er in dem US-Patent Nr. 5,402,582 ('582) des gleichen Inhabers offenbart wird.In various embodiments, each grouping of bearing inserts allows 110 . 112 . 114 in that the arm section 104 the articulated arm CMM 100 moved around several axes of rotation. As already mentioned, each storage unit grouping comprises 110 . 112 . 114 corresponding encoder systems such as optical encoders, each coaxial with the corresponding axis of rotation z. B. the arm segments 106 . 108 are arranged. The optical encoder system detects a rotational movement (pivotal movement) or transverse movement (joint movement) of, for example, each of the arm segments 106 . 108 about the corresponding axis and transmits a signal to an electronic data processing system in the articulated arm CMM 100 as will be described in more detail below. Each individual unprocessed encoder count is sent separately as a signal to the electronic data processing system where it is further processed into measurement data. It is not one of the articulated arm CMM 100 even separate position calculator (eg a serial box) as required in the U.S. Patent No. 5,402,582 ('582) of the same assignee.

Das Unterteil 116 kann eine Befestigungs- bzw. Montagevorrichtung 120 umfassen. Die Montagevorrichtung 120 ermöglicht die abnehmbare Montage des Gelenkarm-KMGs 100 an einer gewünschten Stelle, wie beispielsweise einem Inspektionstisch, einem Bearbeitungszentrum, einer Wand oder dem Boden. Das Unterteil 116 umfasst bei einer Ausführungsform einen Griffabschnitt 122, der eine zweckmäßige Stelle bietet, an welcher der Bediener das Unterteil 116 halten kann, während das Gelenkarm-KMG 100 bewegt wird. Bei einer Ausführungsform umfasst das Unterteil 116 ferner einen beweglichen Abdeckungsabschnitt 124, der herunterklappbar ist, um eine Benutzerschnittstelle, wie beispielsweise einen Bildschirm, freizugeben.The lower part 116 may be a fastening or mounting device 120 include. The mounting device 120 allows removable mounting of the articulated arm CMM 100 at a desired location, such as an inspection table, a machining center, a wall or the floor. The lower part 116 in one embodiment comprises a handle portion 122 which provides a convenient location at which the operator the lower part 116 can hold while the articulated arm CMM 100 is moved. In one embodiment, the base comprises 116 Further, a movable cover portion 124 which is foldable to release a user interface, such as a screen.

Gemäß einer Ausführungsform enthält oder birgt das Unterteil 116 des tragbaren Gelenkarm-KMGs 100 eine elektronische Schaltung mit einem elektronischen Datenverarbeitungssystem, welches zwei primäre Komponenten umfasst: ein Basisverarbeitungssystem, das die Daten der verschiedenen Codierersysteme im Gelenkarm-KMG 100 sowie Daten, die andere Armparameter zur Unterstützung von dreidimensionalen(3D-)Positionsberechnungen repräsentieren, verarbeitet; und ein Benutzerschnittstellen-Verarbeitungssystem, das ein integriertes Betriebssystem, einen berührungssensitiven Bildschirm und eine residente Anwendungssoftware umfasst, welche die Implementierung relativ vollständiger messtechnischer Funktionen innerhalb des Gelenkarm-KMGs 100 gestattet, ohne dass dabei eine Verbindung zu einem externen Computer vorhanden sein muss.According to one embodiment, the lower part contains or harbors 116 Portable Articulated Arm CMM 100 an electronic circuit comprising an electronic data processing system comprising two primary components: a base processing system which stores the data of the various encoder systems in the articulated arm CMM 100 and processing data representing other arm parameters to support three-dimensional (3D) position calculations; and a user interface processing system that includes an integrated operating system, a touch-sensitive display, and resident application software that facilitates the implementation of relatively complete metrology functions within the articulated arm CMM 100 without having to connect to an external computer.

Das elektronische Datenverarbeitungssystem im Unterteil 116 kann mit den Codierersystemen, Sensoren und anderer peripherer Hardware, die entfernt vom Unterteil 116 angeordnet ist (z. B. eine Streifenlichtvorrichtung, die am abnehmbaren Griff 126 an dem Gelenkarm-KMG 100 montiert werden kann), kommunizieren. Die Elektronik, die diese peripheren Hardwarevorrichtungen oder -merkmale unterstützt, kann sich in jeder der in dem tragbaren Gelenkarm-KMG 100 angeordneten Lagereinsatzgruppierungen 110, 112, 114 befinden.The electronic data processing system in the lower part 116 Can with the encoder systems, sensors and other peripheral hardware, the remote from the base 116 is arranged (for example, a strip light device, the removable handle 126 on the articulated arm CMM 100 can be mounted), communicate. The electronics that support these peripheral hardware devices or features can be found in any of the portable articulated arm CMMs 100 arranged camp use groupings 110 . 112 . 114 are located.

2 ist ein Blockschaltbild der Elektronik, die gemäß einer Ausführungsform in einem Gelenkarm-KMG 100 verwendet wird. Die in 2A dargestellte Ausführungsform umfasst ein elektronisches Datenverarbeitungssystem 210, das eine Basisprozessorkarte 204 zur Implementierung des Basisverarbeitungssystems, eine Benutzerschnittstellenkarte 202, eine Basisenergiekarte 206 zur Bereitstellung von Energie, ein Bluetooth-Modul 232 und eine Basisneigungskarte 208 umfasst. Die Benutzerschnittstellenkarte 202 umfasst einen Computerprozessor zum Ausführen der Anwendungssoftware, um die Benutzerschnittstelle, den Bildschirm und andere hier beschriebene Funktionen auszuführen. 2 FIG. 12 is a block diagram of the electronics that are used in an articulated arm CMM according to one embodiment 100 is used. In the 2A illustrated embodiment includes an electronic data processing system 210 that is a base processor card 204 for implementing the base processing system, a user interface card 202 , a basic energy card 206 to provide energy, a Bluetooth module 232 and a base pitch card 208 includes. The user interface card 202 includes a computer processor for executing the application software to execute the user interface, the screen, and other functions described herein.

Wie in den 2A und 2B zu sehen ist, steht das elektronische Datenverarbeitungssystem 210 über einen oder mehrere Armbusse 218 mit den vorgenannten mehreren Codierersystemen in Verbindung. Jedes Codierersystem erzeugt bei der in 2B und 2C dargestellten Ausführungsform Codiererdaten und umfasst: eine Codierer-Armbus-Schnittstelle 214, einen digitalen Codierer-Signalprozessor (DSP) 216, eine Codierer-Lesekopf-Schnittstelle 234 und einen Temperatursensor 212. Andere Vorrichtungen, wie beispielsweise Dehnungssensoren, können an den Armbus 218 angeschlossen werden.As in the 2A and 2 B can be seen is the electronic data processing system 210 over one or more Armbusse 218 with the aforementioned multiple encoder systems in combination. Each encoder system generates at the in 2 B and 2C 1 and 2 illustrates encoder data and includes: an encoder arm interface 214 , a digital coder signal processor (DSP) 216 , an encoder readhead interface 234 and a temperature sensor 212 , Other devices, such as strain sensors, can attach to the arm 218 be connected.

In 2D ist auch die Sondenende-Elektronik 230 dargestellt, die mit dem Armbus 218 in Verbindung steht. Die Sondenende-Elektronik 230 umfasst einen Sondenende-DSP 228, einen Temperatursensor 212, einen Griff-/Vorrichtungs-Schnittstellenbus 240, der bei einer Ausführungsform über den Schnellverbinderanschluss mit dem Griff 126 oder der codierten Streifenlicht-Scannervorrichtung 242 verbunden ist, und eine Sondenschnittstelle 226. Der Schnellverbinderanschluss ermöglicht den Zugang des Griffs 126 zu dem Datenbus, den Steuerleitungen, dem von der codierten Streifenlicht-Scannervorrichtung 242 benutzten Energiebus und anderen Zubehörteilen. Die Sondenende-Elektronik 230 ist bei einer Ausführungsform in dem Messsondengehäuse 102 am Gelenkarm-KMG 100 angeordnet. Der Griff 126 kann bei einer Ausführungsform von dem Schnellverbinderanschluss entfernt werden, und die Messung kann mit der Streifenlichtvorrichtung 242, die über den Schnittstellenbus 240 mit der Sondenende-Elektronik 230 des Gelenkarm-KMGs 100 in Verbindung steht, durchgeführt werden. Bei einer Ausführungsform sind das elektronische Datenverarbeitungssystem 210 im Unterteil 116 des Gelenkarm-KMGs 100, die Sondenende-Elektronik 230 im Messsondengehäuse 102 des Gelenkarm-KMGs 100 und die Codierersysteme in den Lagereinsatzgruppierungen 110, 112, 114 angeordnet. Die Sondenschnittstelle 226 kann durch ein beliebiges geeignetes Kommunikationsprotokoll, das im Handel erhältliche Produkte von Maxim Integrated Products, Inc. umfasst, die als 1-Wire®-Kommunikationsprotokoll 236 ausgebildet sind, mit dem Sondenende-DSP 228 verbunden werden.In 2D is also the probe-end electronics 230 shown with the arm 218 communicates. The probe-end electronics 230 includes a probe-end DSP 228 , a temperature sensor 212 , a handle / device interface bus 240 in one embodiment, via the quick connect connector to the handle 126 or the coded strip light scanner device 242 connected, and a probe interface 226 , The quick connector allows access to the handle 126 to the data bus, control lines, from the encoded stripe light scanner device 242 used power bus and other accessories. The probe-end electronics 230 in one embodiment is in the probe housing 102 on the articulated arm CMM 100 arranged. The handle 126 can be removed from the quick connect connector in one embodiment, and the measurement can be made with the strip light device 242 via the interface bus 240 with the probe-end electronics 230 the articulated arm CMM 100 communicates. In one embodiment, the electronic data processing system 210 in the lower part 116 the articulated arm CMM 100 , the probe-end electronics 230 in the probe housing 102 the articulated arm CMM 100 and the encoder systems in the bearing cartridge assemblies 110 . 112 . 114 arranged. The probe interface 226 may, by any suitable communication protocol, include the commercially available products of Maxim Integrated Products, Inc. as a 1- Wire® communication protocol 236 are formed with the probe-end DSP 228 get connected.

3 ist ein Blockschaltbild, das detaillierte Merkmale des elektronischen Datenverarbeitungssystems 210 des Gelenkarm-KMGs 100 gemäß einer Ausführungsform beschreibt. Das elektronische Datenverarbeitungssystem 210 ist bei einer Ausführungsform im Unterteil 116 des Gelenkarm-KMGs 100 angeordnet und umfasst die Basisprozessorkarte 204, die Benutzerschnittstellenkarte 202, eine Basisenergiekarte 206, ein Bluetooth-Modul 232 und ein Basisneigungsmodul 208. 3 is a block diagram showing the detailed features of the electronic data processing system 210 the articulated arm CMM 100 according to one embodiment. The electronic data processing system 210 is in one embodiment in the lower part 116 the articulated arm CMM 100 arranged and includes the base processor card 204 , the user interface card 202 , a basic energy card 206 , a Bluetooth module 232 and a base tilt module 208 ,

Bei einer in 3A gezeigten Ausführungsform umfasst die Basisprozessorkarte 204 die verschiedenen, dort dargestellten funktionellen Blöcke. Eine Basisprozessorfunktion 302 wird beispielsweise verwendet, um die Erfassung von Messdaten des Gelenkarm-KMGs 100 zu unterstützen, und empfängt über den Armbus 218 und eine Bussteuermodulfunktion 308 unverarbeitete Armdaten (z. B. Codierersystemdaten). Die Speicherfunktion 304 speichert Programme und statische Armkonfigurationsdaten. Die Basisprozessorkarte 204 umfasst ferner eine für eine externe Hardwareoption vorgesehene Portfunktion 310, um mit etwaigen externen Hardwaregeräten oder Zubehörteilen, wie beispielsweise einer codierten Streifenlicht-Scannervorrichtung 242, zu kommunizieren. Eine Echtzeituhr (RTC; real time clock) und ein Protokoll 306, eine Batteriesatzschnittstelle (IF; interface) 316 und ein Diagnoseport 318 sind bei einer Ausführungsform der in 3A abgebildeten Basisprozessorkarte 204 ebenfalls in der Funktionalität enthalten.At an in 3A The embodiment shown includes the base processor card 204 the various functional blocks presented there. A basic processor function 302 For example, it is used to acquire the measurement data of the articulated arm CMM 100 to support and receive over the arm 218 and a bus control module function 308 unprocessed arm data (eg, encoder system data). The memory function 304 stores programs and static arm configuration data. The base processor card 204 further includes a port function provided for an external hardware option 310 to interface with any external hardware devices or accessories, such as a coded strip light scanner device 242 , to communicate. A real-time clock (RTC) and a protocol 306 , a battery pack interface (IF; interface) 316 and a diagnostic port 318 are in one embodiment of in 3A pictured base processor card 204 also included in the functionality.

Die Basisprozessorkarte 204 verwaltet auch die gesamte drahtgebundene und drahtlose Datenkommunikation mit externen (Host-Rechner) und internen (Bildschirmprozessor 202) Vorrichtungen. Die Basisprozessorkarte 204 ist in der Lage, über eine Ethernet-Funktion 320 mit einem Ethernet-Netz (z. B. unter Verwendung einer Taktsynchronisations-Norm, wie beispielsweise IEEE (Institute of Electrical and Electronics Engineers) 1588), über eine LAN-Funktion 322 mit einem drahtlosen Local Area Network (WLAN; wireless local area network) und über eine Parallel-Seriell-Kommunikations-Funktion (PSK-Funktion) 314 mit einem Bluetooth-Modul 232 zu kommunizieren. Die Basisprozessorkarte 204 umfasst des Weiteren einen Anschluss an eine Universal-Serial-Bus-Vorrichtung (USB) 312. The base processor card 204 also manages all the wired and wireless data communication with external (host computer) and internal (screen processor 202 ) Devices. The base processor card 204 is able to have an ethernet function 320 with an Ethernet network (eg, using a clock synchronization standard, such as IEEE (Institute of Electrical and Electronics Engineers) 1588) via a LAN function 322 with a Wireless Local Area Network (WLAN) and a Parallel-to-Serial Communication (PSK) feature 314 with a Bluetooth module 232 to communicate. The base processor card 204 further includes a connection to a universal serial bus device (USB) 312 ,

Die Basisprozessorkarte 204 überträgt und erfasst unverarbeitete Messdaten (z. B. Zählungen des Codierersystems, Temperaturmesswerte) für die Verarbeitung zu Messdaten, ohne dass dabei irgendeine Vorverarbeitung erforderlich ist, wie sie beispielsweise bei der seriellen Box des vorgenannten Patents ’582 offenbart wird. Der Basisprozessor 204 sendet die verarbeiteten Daten über eine RS485-Schnittstelle (IF) 326 an den Bildschirmprozessor 328 auf der Benutzerschnittstellenkarte 202. Bei einer Ausführungsform sendet der Basisprozessor 204 auch die unverarbeiteten Messdaten an einen externen Computer.The base processor card 204 transmits and collects unprocessed measurement data (eg encoder system counts, temperature measurements) for processing into measurement data without the need for any preprocessing, such as in the serial box of the former Patents' 582 is disclosed. The base processor 204 sends the processed data via an RS485 interface (IF) 326 to the screen processor 328 on the user interface card 202 , In one embodiment, the base processor sends 204 also the unprocessed measurement data to an external computer.

Nun Bezug nehmend auf die Benutzerschnittstellenkarte 202 in 3B werden die vom Basisprozessor empfangenen Winkel- und Positionsdaten von auf dem Bildschirmprozessor 328 ausgeführten Anwendungen verwendet, um ein autonomes messtechnisches System in dem Gelenkarm-KMG 100 bereitzustellen. Die Anwendungen können auf dem Bildschirmprozessor 328 ausgeführt werden, um beispielsweise unter anderem folgende Funktionen zu unterstützen: Messung von Merkmalen, Anleitungs- und Schulungsgrafiken, Ferndiagnostik, Temperaturkorrekturen, Steuerung verschiedener Betriebseigenschaften, Verbindung zu verschiedenen Netzen und Anzeige gemessener Objekte. Die Benutzerschnittstellenkarte 202 umfasst zusammen mit dem Bildschirmprozessor 328 und einer Benutzerschnittstelle für einen Flüssigkristallbildschirm (LCD-Bildschirm; liquid crystal display) 338 (z. B. ein berührungssensitiver LCD-Bildschirm) mehrere Schnittstellenoptionen, zu denen eine Secure-Digital-Karten-Schnittstelle (SD-Karten-Schnittstelle) 330, ein Speicher 332, eine USB-Host-Schnittstelle 334, ein Diagnoseport 336, ein Kameraport 340, eine Audio-/Video-Schnittstelle 342, ein Wähl-/Funkmodem 344 und ein Port 346 für das Global Positioning System (GPS) gehören.Referring now to the user interface card 202 in 3B are the angle and position data received from the base processor on the screen processor 328 used applications to provide an autonomous metrological system in the articulated arm CMM 100 provide. The applications can be on the screen processor 328 Among other things, it can be used to support, among other things, the following functions: measurement of features, instructional and training graphics, remote diagnostics, temperature corrections, control of various operating characteristics, connection to different networks and display of measured objects. The user interface card 202 includes along with the screen processor 328 and a user interface for a liquid crystal display (LCD screen) 338 (such as a touch-sensitive LCD screen) have multiple interface options, including a Secure Digital Card (SD Card) Interface 330 , a store 332 , a USB host interface 334 , a diagnostic port 336 , a camera port 340 , an audio / video interface 342 , a dial-up / wireless modem 344 and a port 346 belong to the Global Positioning System (GPS).

Das in 3A abgebildete elektronische Datenverarbeitungssystem 210 umfasst des Weiteren eine Basisenergiekarte 206 mit einem Umgebungsaufzeichnungsgerät 362 zur Aufzeichnung von Umgebungsdaten. Die Basisenergiekarte 206 stellt auch Energie für das elektronische Datenverarbeitungssystem 210 bereit, wobei ein Wechselstrom-Gleichstrom-Wandler 358 und eine Batterieladegerät-Steuerung 360 verwendet werden. Die Basisenergiekarte 206 steht über einen seriellen Single-Ended Bus 354, der einen Inter-Integrated Circuit (I2C) aufweist, sowie über eine serielle DMA-Peripherieschnittstelle (DSPI) 357 mit der Basisprozessorkarte 204 in Verbindung. Die Basisenergiekarte 206 ist über eine Ein-/Ausgabe-Erweiterungsfunktion (I/O-Erweiterungsfunktion) 364, die in der Basisenergiekarte 206 implementiert ist, mit einem Neigungssensor und einem Radiofrequenzidentifikations-Modul (RFID-Modul) 208 verbunden.This in 3A pictured electronic data processing system 210 further includes a base energy card 206 with an environment recorder 362 for recording environmental data. The basic energy card 206 also provides energy for the electronic data processing system 210 ready, being an AC to DC converter 358 and a battery charger controller 360 be used. The basic energy card 206 is via a serial single-ended bus 354 having an Inter-Integrated Circuit (I2C) and a Serial DMA Peripheral Interface (DSPI) 357 with the base processor card 204 in connection. The basic energy card 206 is via an input / output extension function (I / O expansion function) 364 that are in the base energy card 206 is implemented, with a tilt sensor and a radio frequency identification module (RFID module) 208 connected.

Obwohl sie als getrennte Komponenten dargestellt sind, können alle oder eine Untergruppe der Komponenten bei anderen Ausführungsformen physisch an verschiedenen Stellen angeordnet sein und/oder die Funktionen auf andere Art als bei der in 3A und 3B dargestellten kombiniert sein. Beispielsweise sind die Basisprozessorkarte 204 und die Benutzerschnittstellenkarte 202 bei einer Ausführungsform in einer physischen Karte kombiniert.Although depicted as separate components, all or a subset of the components in other embodiments may be physically located at various locations and / or may perform functions other than those described in U.S. Patent Nos. 4,674,866 3A and 3B be shown combined. For example, the base processor card 204 and the user interface card 202 combined in one embodiment in a physical map.

Nun mit Bezug auf die 49 ist eine beispielhafte Ausführungsform eines Sondenendes 401 mit einem Messsondengehäuse 102 mit einem mechanischen und elektrischen Schnellverbinderanschluss gezeigt, die das Koppeln einer abnehmbaren und austauschbaren Vorrichtung 400 an das Gelenkarm-KMG 100 gestattet. In der beispielhaften Ausführungsform umfasst die Vorrichtung 400 ein Gehäuse 402, das einen Griffabschnitt 404 umfasst, der so bemessen und geformt ist, dass er in der Hand eines Bedieners gehalten werden kann, wie zum Beispiel bei einem Kolbengriff. Das Gehäuse 402 ist eine dünnwandige Struktur mit einem Hohlraum 406 (9). Der Hohlraum 406 ist so bemessen und ausgeführt, dass er einen Controller 408 aufnehmen kann. Der Controller 408 kann eine digitale Schaltung, zum Beispiel mit einem Mikroprozessor, oder eine analoge Schaltung sein. In einer Ausführungsform kommuniziert der Controller 408 asynchron und bidirektional mit dem elektronischen Datenverarbeitungssystem 210 (2 und 3). Die Kommunikationsverbindung zwischen dem Controller 408 und dem elektronischen Datenverarbeitungssystem 210 kann drahtgebunden sein (z. B. über den Controller 420), oder sie kann eine direkte oder indirekte drahtlose Verbindung (z. B. Bluetooth oder IEEE 802.11), oder aber eine Kombination von einer drahtgebundenen und einer drahtlosen Verbindung sein. In der beispielhaften Ausführungsform ist das Gehäuse 402 in zwei Hälften 410, 412 ausgebildet, zum Beispiel aus einem Spritzguss-Kunststoffmaterial. Die Hälften 410, 412 können durch Befestigungsmittel, wie zum Beispiel Schrauben 414, aneinander befestigt sein. In anderen Ausführungsformen können die Gehäusehälften 410, 412 zum Beispiel durch Klebstoffe oder Ultraschallschweißen aneinander befestigt sein.Well with respect to the 4 - 9 is an exemplary embodiment of a probe end 401 with a probe housing 102 is shown with a mechanical and electrical quick connector connection, the coupling of a removable and replaceable device 400 to the articulated arm CMM 100 allowed. In the exemplary embodiment, the device comprises 400 a housing 402 which has a handle section 404 which is sized and shaped to be held in the hand of an operator, such as a piston handle. The housing 402 is a thin-walled structure with a cavity 406 ( 9 ). The cavity 406 is sized and executed to be a controller 408 can record. The controller 408 may be a digital circuit, for example with a microprocessor, or an analog circuit. In one embodiment, the controller communicates 408 asynchronous and bidirectional with the electronic data processing system 210 ( 2 and 3 ). The communication connection between the controller 408 and the electronic data processing system 210 can be wired (eg via the controller 420 ), or it may be a direct or indirect wireless connection (eg Bluetooth or IEEE 802.11), or a combination of a wired and a wireless connection. In the exemplary embodiment, the housing is 402 in two halves 410 . 412 formed, for example, from an injection-molded plastic material. The halves 410 . 412 can by fasteners, such as Example screws 414 , be attached to each other. In other embodiments, the housing halves 410 . 412 For example, by adhesives or ultrasonic welding to be attached to each other.

Der Griffabschnitt 404 umfasst auch Knöpfe oder Stellglieder 416, 418, die durch den Bediener manuell aktiviert werden können. Die Stellglieder 416, 418 sind an den Controller 408 gekoppelt, der an einen Controller 420 innerhalb des Sondengehäuses 102 ein Signal übermittelt. In den beispielhaften Ausführungsformen führen die Stellglieder 416, 418 die Funktionen der Stellglieder 422, 424, aus, die auf dem Sondengehäuse 102 gegenüber der Vorrichtung 400 angeordnet sind. Es ist ersichtlich, dass die Vorrichtung 400 zusätzliche Schalter, Knöpfe oder andere Stellglieder aufweisen kann, die auch verwendet werden können, um die Vorrichtung 400, das Gelenkarm-KMG 100, oder umgekehrt zu steuern. Die Vorrichtung 400 kann zum Beispiel auch Anzeigevorrichtungen, wie Leuchtdioden (LEDs), Schallgeber, Messgeräte, Anzeigen oder Messinstrumente aufweisen. In einer Ausführungsform kann die Vorrichtung 400 ein digitales Sprachaufzeichnungsgerät umfassen, das die Synchronisation von verbalen Kommentaren mit einem gemessenen Punkt gestattet. In noch einer weiteren Ausführungsform umfasst die Vorrichtung 400 ein Mikrophon, das es dem Bediener gestattet, sprachgesteuerte Befehle an das elektronische Datenverarbeitungssystem 210 zu übertragen.The grip section 404 also includes buttons or actuators 416 . 418 which can be manually activated by the operator. The actuators 416 . 418 are to the controller 408 coupled to a controller 420 inside the probe housing 102 transmits a signal. In the exemplary embodiments, the actuators result 416 . 418 the functions of the actuators 422 . 424 , out, on the probe housing 102 opposite the device 400 are arranged. It can be seen that the device 400 may include additional switches, buttons or other actuators, which may also be used to the device 400 , the articulated arm CMM 100 , or vice versa. The device 400 For example, it may also include display devices such as light emitting diodes (LEDs), sounders, gauges, displays, or gauges. In one embodiment, the device 400 a digital voice recorder that allows the synchronization of verbal comments with a measured point. In yet another embodiment, the device comprises 400 a microphone that allows the operator to voice commands to the electronic data processing system 210 transferred to.

In einer Ausführungsform kann der Griffabschnitt 404 so konfiguriert sein, dass er mit jeder Hand des Bedieners oder mit einer bestimmten Hand (z. B. der linken Hand oder der rechten Hand) verwendet werden kann. Der Griffabschnitt 404 kann auch so konfiguriert sein, dass er von Bedienern mit Behinderungen bedient werden kann (z. B. Bediener, denen Finger fehlen, oder Bediener mit einer Armprothese). Des Weiteren kann der Griffabschnitt 404 abgenommen und das Sondengehäuse 102 alleine verwendet werden, wenn die Raumverhältnisse beengt sind. Wie oben besprochen, kann das Sondenende 401 auch die Welle der siebten Achse des Gelenkarm-KMGs 100 aufweisen. Bei dieser Ausführungsform kann die Vorrichtung 400 so angeordnet sein, dass sie sich um die siebte Achse des Gelenkarm-KMGs dreht.In one embodiment, the handle portion 404 be configured so that it can be used with each operator's hand or with a particular hand (eg, left hand or right hand). The grip section 404 may also be configured to be operated by operators with disabilities (eg, operators lacking fingers or operators with an arm prosthesis). Furthermore, the handle portion 404 removed and the probe housing 102 be used alone, if the space conditions are cramped. As discussed above, the probe end 401 also the shaft of the seventh axis of the articulated arm CMM 100 exhibit. In this embodiment, the device 400 be arranged so that it rotates about the seventh axis of the articulated arm CMMs.

Das Sondenende 401 umfasst eine mechanische und elektrische Schnittstelle 426 mit einem ersten Verbindungsstück 429 (8) auf der Vorrichtung 400, das mit einem zweiten Verbindungsstück 428 auf dem Sondengehäuse 102 zusammenwirkt. Die Verbindungsstücke 428, 429 können elektrische und mechanische Merkmale umfassen, die das Koppeln der Vorrichtung 400 an das Sondengehäuse 102 gestatten. In einer Ausführungsform umfasst die Schnittstelle 426 eine erste Oberfläche 430 mit einem mechanischen Koppler 432 und einem darauf angeordneten elektrischen Verbindungsstück 434. Das Gehäuse 402 umfasst auch eine zweite Oberfläche 436, die angrenzend an die erste Oberfläche 430 und versetzt zu dieser positioniert ist. In der beispielhaften Ausführungsform ist die zweite Oberfläche 436 eine planare Oberfläche, die um einen Abstand von etwa 1,27 cm (0,5 Inch) von der ersten Oberfläche 430 versetzt ist. Dieser Versatz schafft Raum für die Finger des Bedieners, wenn er eine Befestigungseinrichtung, wie einen Kragen 438, anzieht oder löst. Die Schnittstelle 426 schafft eine relativ schnelle und sichere elektronische Verbindung zwischen der Vorrichtung 400 und dem Sondengehäuse 102, ohne dass Steckerstifte ausgerichtet werden müssen, und ohne Bedarf an separaten Kabeln oder Verbindungsstücken.The probe end 401 includes a mechanical and electrical interface 426 with a first connector 429 ( 8th ) on the device 400 that with a second connector 428 on the probe housing 102 interacts. The connectors 428 . 429 may include electrical and mechanical features that facilitate coupling of the device 400 to the probe housing 102 allow. In one embodiment, the interface comprises 426 a first surface 430 with a mechanical coupler 432 and an electrical connector disposed thereon 434 , The housing 402 also includes a second surface 436 that are adjacent to the first surface 430 and offset to this position. In the exemplary embodiment, the second surface is 436 a planar surface spaced about 1.27 cm (0.5 inches) from the first surface 430 is offset. This offset creates space for the operator's fingers when using a fastener, such as a collar 438 , attracts or releases. the interface 426 creates a relatively fast and secure electronic connection between the device 400 and the probe housing 102 without the need to align connector pins and without the need for separate cables or connectors.

Das elektrische Verbindungsstück 434 erstreckt sich von der ersten Oberfläche 430 und umfasst einen oder mehrere Steckerstifte 440, die asynchron bidirektional mit dem elektronischen Datenverarbeitungssystem 210 elektrisch gekoppelt sind (2 und 3), wie zum Beispiel über einen oder mehrere Armbusse 218. Die bidirektionale Kommunikationsverbindung kann (z. B. über den Armbus 218) drahtgebunden, drahtlos (z. B. Bluetooth oder IEEE 802.11) oder eine Kombination aus einer drahtgebundenen und einer drahtlosen Verbindung sein. In einer Ausführungsform ist das elektrische Verbindungsstück 434 elektrisch an den Controller 420 gekoppelt. Der Controller 420 kann asynchron bidirektional mit dem elektronischen Datenverarbeitungssystem 210 kommunizieren, wie zum Beispiel über einen oder mehrere Armbusse 218. Das elektrische Verbindungsstück 434 ist so positioniert, dass es eine relativ schnelle und sichere elektronische Verbindung mit dem elektrischen Verbindungsstück 442 auf dem Sondengehäuse 102 bietet. Die elektrischen Verbindungsstücke 434, 442 sind miteinander verbunden, wenn die Vorrichtung 400 an dem Sondengehäuse 102 angebracht ist. Die elektrischen Verbindungsstücke 434, 442 können jeweils ein mit Metall ummanteltes Verbindungsstückgehäuse aufweisen, das eine Abschirmung gegenüber elektromagnetischer Störung bietet und die Steckerstifte schützt sowie beim Anbringen der Vorrichtung 400 an dem Sondengehäuse 102 das Ausrichten der Stifte unterstützt.The electrical connector 434 extends from the first surface 430 and includes one or more connector pins 440 asynchronously bidirectional with the electronic data processing system 210 are electrically coupled ( 2 and 3 ), such as one or more armlets 218 , The bi-directional communication link may be (eg via the arm 218 ) be wired, wireless (eg Bluetooth or IEEE 802.11) or a combination of a wired and a wireless connection. In one embodiment, the electrical connector 434 electrically to the controller 420 coupled. The controller 420 can be asynchronously bidirectional with the electronic data processing system 210 communicate, such as through one or more armles 218 , The electrical connector 434 is positioned so that there is a relatively fast and secure electronic connection to the electrical connector 442 on the probe housing 102 offers. The electrical connectors 434 . 442 are connected together when the device 400 on the probe housing 102 is appropriate. The electrical connectors 434 . 442 For example, each may have a metal sheathed connector housing that provides shielding against electromagnetic interference and protects the connector pins, as well as when mounting the device 400 on the probe housing 102 supports the alignment of the pens.

Der mechanische Koppler 432 schafft eine relativ starre mechanische Kopplung zwischen der Vorrichtung 400 und dem Sondengehäuse 102, um relativ präzise Anwendungen zu unterstützen, bei denen sich die Position der Vorrichtung 400 am Ende des Armabschnitts 104 des Gelenkarm-KMGs 100 vorzugsweise nicht verschiebt oder bewegt. Jede derartige Bewegung kann typischerweise eine unerwünschte Beeinträchtigung der Genauigkeit des Messergebnisses nach sich ziehen. Diese gewünschten Ergebnisse werden unter Verwendung von verschiedenen Strukturmerkmalen des mechanischen Anbringungskonfigurationsabschnitts des mechanischen und elektronischen Schnellverbinderanschlusses einer Ausführungsform der vorliegenden Erfindung erreicht.The mechanical coupler 432 creates a relatively rigid mechanical coupling between the device 400 and the probe housing 102 to support relatively precise applications where the position of the device 400 at the end of the arm section 104 the articulated arm CMM 100 preferably not moving or moving. Any such movement may typically result in undesirable degradation of the accuracy of the measurement result. These desired results are obtained using various structural features of the mechanical attachment configuration portion of the mechanical and electronic quick connector terminal of an embodiment of the present invention achieved.

In einer Ausführungsform umfasst der mechanische Koppler 432 einen ersten Vorsprung 444, der an einem Ende 448 (der Vorderkante oder der „Stirnseite“ der Vorrichtung 400) positioniert ist. Der erste Vorsprung 444 kann eine ausgerundete, gekerbte oder geneigte Schnittstelle umfassen, die einen Rand 446 bildet, der sich von dem ersten Vorsprung 444 erstreckt. Der Rand 446 ist so bemessen, dass er in einem Schlitz 450 aufgenommen werden kann, der durch einen Vorsprung 452 definiert ist, der sich von dem Sondengehäuse 102 erstreckt (8). Es ist ersichtlich, dass der erste Vorsprung 444 und der Schlitz 450 zusammen mit dem Kragen 438 eine Koppleranordnung bilden, so dass, wenn der Rand 446 innerhalb des Schlitzes 450 positioniert ist, der Schlitz 450 verwendet werden kann, um sowohl die längsgerichtete als auch die seitliche Bewegung der Vorrichtung 400 einzuschränken, wenn diese auf dem Sondengehäuse 102 angebracht ist. Wie später genauer besprochen wird, kann die Drehung des Kragens 438 dazu verwendet werden, den Rand 446 innerhalb des Schlitzes 450 zu sichern.In an embodiment, the mechanical coupler comprises 432 a first advantage 444 that at one end 448 (the leading edge or the "face" of the device 400 ) is positioned. The first advantage 444 may include a rounded, notched, or slanted interface that has an edge 446 forms, extending from the first projection 444 extends. The edge 446 is sized to fit in a slot 450 can be absorbed by a projection 452 is defined, extending from the probe housing 102 extends ( 8th ). It can be seen that the first projection 444 and the slot 450 together with the collar 438 form a coupler arrangement, so that when the edge 446 inside the slot 450 is positioned, the slot 450 can be used to both the longitudinal and the lateral movement of the device 400 restrict if this on the probe housing 102 is appropriate. As will be discussed in more detail later, the rotation of the collar can 438 used to the edge 446 inside the slot 450 to secure.

Gegenüber dem ersten Vorsprung 444 kann der mechanische Koppler 432 einen zweiten Vorsprung 454 umfassen. Der zweite Vorsprung 454 kann eine ausgerundete, gekerbte oder geneigte Schnittstellenfläche 456 aufweisen (5). Der zweite Vorsprung 454 ist so positioniert, dass er in eine dem Sondengehäuse 102 zugeordnete Befestigungsvorrichtung, wie zum Beispiel den Kragen 438, eingreift. Wie später genauer besprochen wird, umfasst der mechanische Koppler 432 eine erhabene Oberfläche, die von der Oberfläche 430 vorsteht, die an das elektrische Verbindungsstück 434 angrenzt oder um dieses herum angeordnet ist, die einen Drehpunkt für die Schnittstelle 426 bietet (7 und 8). Dies dient als der dritte von drei Punkten des mechanischen Kontakts zwischen der Vorrichtung 400 und dem Sondengehäuse 102, wenn die Vorrichtung 400 daran angebracht ist.Opposite the first lead 444 can the mechanical coupler 432 a second projection 454 include. The second projection 454 can have a rounded, notched or inclined interface surface 456 exhibit ( 5 ). The second projection 454 is positioned so that it fits into the probe housing 102 associated fastening device, such as the collar 438 , engages. As will be discussed in more detail later, the mechanical coupler includes 432 a raised surface from the surface 430 protrudes, which connects to the electrical connector 434 adjoins or is arranged around this, which is a pivot point for the interface 426 offers ( 7 and 8th ). This serves as the third of three points of mechanical contact between the device 400 and the probe housing 102 when the device 400 attached to it.

Das Sondengehäuse 102 umfasst einen Kragen 438, der koaxial an einem Ende angeordnet ist. Der Kragen 438 umfasst einen Gewindeabschnitt, der zwischen einer ersten Position (5) und einer zweiten Position (7) beweglich ist. Durch Drehen des Kragens 438 kann der Kragen 438 verwendet werden, um die Vorrichtung 400 zu befestigen oder zu lösen, ohne dass externe Werkzeuge notwendig sind. Das Drehen des Kragens 438 bewegt den Kragen 438 entlang eines relativ groben Zylinders 474 mit quadratischem Gewinde. Die Verwendung von derartig großen konturierten Oberflächen mit quadratischem Gewinde ermöglicht eine erhebliche Klemmkraft bei einem minimalen Drehmoment. Die grobe Steigung der Gewinde des Zylinders 474 gestattet des Weiteren, dass der Kragen 438 durch minimale Drehung angezogen oder gelöst werden kann.The probe housing 102 includes a collar 438 coaxially disposed at one end. The collar 438 includes a threaded portion that is movable between a first position (FIG. 5 ) and a second position ( 7 ) is movable. By turning the collar 438 can the collar 438 used to the device 400 to fix or release, without external tools are necessary. Turning the collar 438 moves the collar 438 along a relatively coarse cylinder 474 with square thread. The use of such large contoured surfaces with square thread allows a significant clamping force with a minimum torque. The rough pitch of the threads of the cylinder 474 further allows the collar 438 can be tightened or loosened by minimal rotation.

Um die Vorrichtung 400 an das Sondengehäuse 102 zu koppeln, wird der Rand 446 in den Schlitz 450 eingeführt und die Vorrichtung verschwenkt, um den zweiten Vorsprung 454 zur Oberfläche 458 hin zu drehen, wie es durch den Pfeil 464 angezeigt ist (5). Der Kragen 438 wird gedreht, wodurch sich der Kragen 438 in die durch den Pfeil 462 angezeigte Richtung bewegt oder verschiebt und mit der Oberfläche 456 in Eingriff kommt. Die Bewegung des Kragens 438 gegen die abgewinkelte Oberfläche 456 treibt den mechanischen Koppler 432 gegen die erhabene Oberfläche 460. Dadurch kann die Überwindung potentieller Probleme bezüglich der Verzerrung der Schnittstelle oder fremder Objekte auf der Oberfläche der Schnittstelle, die den starren Sitz der Vorrichtung 400 auf dem Sondengehäuse 102 beeinträchtigen können, unterstützt werden. Die Kraftaufbringung durch den Kragen 438 auf den zweiten Vorsprung 454 bewirkt, dass sich der mechanische Koppler 432 nach vorne bewegt, wobei er den Rand 446 in einen Sitz auf dem Sondengehäuse 102 presst. Während der Kragen 438 weiter angezogen wird, wird der zweite Vorsprung 454 nach oben Richtung Sondengehäuse 102 gepresst, wobei Druck auf einen Drehpunkt ausgeübt wird. Dadurch wird eine Art von Wippenanordnung geschaffen, die Druck auf den zweiten Vorsprung 454, den Rand 446 und den mittleren Drehpunkt ausübt, um ein Verschieben oder Wackeln der Vorrichtung 400 zu verringern oder zu verhindern. Der Drehpunkt presst unmittelbar gegen den Boden auf dem Sondengehäuse 102, während der Rand 446 eine nach unten gerichtete Kraft auf das Ende des Sondengehäuses 102 ausübt. 5 umfasst Pfeile 462, 464, um die Bewegungsrichtung der Vorrichtung 400 und des Kragens 438 zu zeigen. 7 umfasst Pfeile 466, 468, 470, um die Richtung des aufgebrachten Drucks innerhalb der Schnittstelle 426 zu zeigen, wenn der Kragen 438 angezogen wird. Es ist ersichtlich, dass der Abstand des Versatzes der Oberfläche 436 der Vorrichtung 400 einen Spalt 472 zwischen dem Kragen 438 und der Oberfläche 436 schafft (6). Der Spalt 472 gestattet es dem Bediener, einen festeren Griff an dem Kragen 438 zu erhalten, während die Gefahr des Einklemmens von Fingern beim Drehen des Kragens 438 verringert wird. In einer Ausführungsform weist das Sondengehäuse 102 eine ausreichende Steifigkeit auf, um die Verzerrung zu verringern oder verhindern, wenn der Kragen 438 angezogen wird.To the device 400 to the probe housing 102 to couple, the edge becomes 446 in the slot 450 introduced and the device pivoted to the second projection 454 to the surface 458 turn around as indicated by the arrow 464 is displayed ( 5 ). The collar 438 is turned, causing the collar 438 in the direction of the arrow 462 displayed direction moves or moves and with the surface 456 engages. The movement of the collar 438 against the angled surface 456 drives the mechanical coupler 432 against the raised surface 460 , This can overcome any potential problems regarding the distortion of the interface or foreign objects on the surface of the interface, which is the rigid seat of the device 400 on the probe housing 102 be assisted. The force applied through the collar 438 on the second lead 454 causes the mechanical coupler 432 moved forward, taking the edge 446 into a seat on the probe housing 102 pressed. While the collar 438 is further tightened, the second projection 454 upwards towards the probe housing 102 pressed, whereby pressure is exerted on a fulcrum. As a result, a kind of rocker arrangement is created, the pressure on the second projection 454 , the edge 446 and applies the center pivot point to move or wobble the device 400 to reduce or prevent. The pivot presses directly against the ground on the probe housing 102 while the edge 446 a downward force on the end of the probe housing 102 exercises. 5 includes arrows 462 . 464 to the direction of movement of the device 400 and the collar 438 to show. 7 includes arrows 466 . 468 . 470 To determine the direction of the applied pressure within the interface 426 to show when the collar 438 is attracted. It can be seen that the distance of the offset of the surface 436 the device 400 a gap 472 between the collar 438 and the surface 436 creates ( 6 ). The gap 472 allows the operator to have a firmer grip on the collar 438 while preserving the danger of pinching fingers while turning the collar 438 is reduced. In one embodiment, the probe housing 102 sufficient rigidity to reduce the distortion or prevent when the collar 438 is attracted.

Ausführungsformen der Schnittstelle 426 ermöglichen die korrekte Ausrichtung des mechanischen Kopplers 432 und des elektrischen Verbindungsstücks 434 und schützen auch die Elektronikschnittstelle vor aufgebrachten Belastungen, die ansonsten auf Grund der Klemmwirkung des Kragens 438, des Rands 446 und der Oberfläche 456 auftreten könnten. Dies schafft den Vorteil, dass eine Beschädigung der auf einer Leiterplatte 476 montierten elektrischen Verbindungsstücke 434, 442, die gelötete Anschlussklemmen aufweisen können, durch Belastung vermindert oder verhindert werden kann. Die Ausführungsformen bieten auch gegenüber bekannten Ansätzen den Vorteil, dass ein Benutzer kein Werkzeug braucht, um die Vorrichtung 400 mit dem Sondengehäuse 102 zu verbinden oder von diesem zu trennen. Dadurch kann der Bediener die Vorrichtung 400 manuell mit dem Sondengehäuse 102 relativ einfach verbinden oder von diesem trennen.Embodiments of the interface 426 allow the correct alignment of the mechanical coupler 432 and the electrical connector 434 and also protect the electronics interface from applied strains that otherwise due to the clamping action of the collar 438 , the edge 446 and the surface 456 could occur. This creates the advantage of damaging the on a circuit board 476 mounted electrical connectors 434 . 442 , which may have soldered terminals, can be reduced or prevented by loading. The embodiments also offer the advantage over known approaches that a user does not need any tools to handle the device 400 with the probe housing 102 to connect or disconnect from this. This allows the operator to use the device 400 manually with the probe housing 102 relatively easy to connect or disconnect.

Auf Grund der relativ hohen Zahl an abgeschirmten elektrischen Verbindungen, die mit der Schnittstelle 426 möglich sind, können das Gelenkarm-KMG 100 und die Vorrichtung 400 eine relativ hohe Zahl an Funktionen gemeinsam nutzen. Zum Beispiel können Schalter, Knöpfe oder andere Stellglieder, die sich an dem Gelenkarm-KMG 100 befinden, verwendet werden, um die Vorrichtung 400 zu steuern, oder umgekehrt. Des Weiteren können Befehle und Daten von dem elektronischen Datenverarbeitungssystem 210 zur Vorrichtung 400 übermittelt werden. In einer Ausführungsform ist die Vorrichtung 400 eine Videokamera, die Daten eines aufgezeichneten Bildes zur Speicherung in einem Speicher in dem Basisprozessor 204 oder zur Anzeige auf dem Bildschirm 328 überträgt. In einer anderen Ausführungsform ist die Vorrichtung 400 ein Bildprojektor, der Daten von dem elektronischen Datenverarbeitungssystem 210 empfängt. Außerdem können entweder in dem Gelenkarm-KMG 100 oder in der Vorrichtung 400 angeordnete Temperatursensoren mit dem jeweiligen anderen gemeinsam genutzt werden. Es ist ersichtlich, dass Ausführungsformen der vorliegenden Erfindung den Vorteil schaffen, dass eine flexible Schnittstelle geschaffen wird, die es ermöglicht, eine große Vielfalt von Zubehörvorrichtungen 400 schnell, einfach und zuverlässig an das Gelenkarm-KMG 100 zu koppeln. Des Weiteren kann die Möglichkeit des gemeinsamen Nutzens von Funktionen durch das Gelenkarm-KMG 100 und die Vorrichtung 400 zu einer Verringerung der Größe, des Stromverbrauchs und der Komplexität des Gelenkarm-KMGs 100 führen, indem diese nur einmal vorhanden sein müssen.Due to the relatively high number of shielded electrical connections with the interface 426 are possible, can the articulated arm CMM 100 and the device 400 share a relatively large number of features. For example, switches, buttons, or other actuators that attach to the articulated arm CMM 100 are used to the device 400 to control, or vice versa. Furthermore, commands and data from the electronic data processing system 210 to the device 400 be transmitted. In one embodiment, the device is 400 a video camera, the data of a recorded image for storage in a memory in the base processor 204 or to display on the screen 328 transfers. In another embodiment, the device 400 an image projector that retrieves data from the electronic data processing system 210 receives. Also, either in the articulated arm CMM 100 or in the device 400 arranged temperature sensors are shared with the other one. It will be appreciated that embodiments of the present invention provide the advantage of providing a flexible interface that enables a wide variety of accessory devices 400 Fast, easy and reliable on the articulated arm CMM 100 to pair. Furthermore, the possibility of sharing functions through the articulated arm CMM 100 and the device 400 to reduce the size, power consumption and complexity of the articulated arm CMM 100 lead by having to exist only once.

In einer Ausführungsform kann der Controller 408 den Betrieb oder die Funktionalität des Sondenendes 401 des Gelenkarm-KMGs 100 ändern. Zum Beispiel kann der Controller 408 Anzeigeleuchten auf dem Sondengehäuse 102 so ändern, dass entweder ein Licht mit einer anderen Farbe oder einer anderen Lichtintensität ausgestrahlt wird, oder dass das Licht zu anderen Zeiten ein- und ausgeschaltet wird, wenn die Vorrichtung 400 angebracht ist, im Gegensatz zu der Situation, in der das Sondengehäuse 102 alleine verwendet wird. In einer Ausführungsform umfasst die Vorrichtung 400 einen Entfernungsmesssensor (nicht gezeigt), der den Abstand zu einem Objekt misst. Bei dieser Ausführungsform kann der Controller 408 Anzeigeleuchten auf dem Sondengehäuse 102 ändern, um dem Bediener eine Anzeige zur Verfügung zu stellen, die zeigt, wie weit das Objekt von der Sondenspitze 118 entfernt ist. In einer anderen Ausführungsform kann der Controller 408 die Farbe der Anzeigelichter basierend auf der Qualität des von der codierten Streifenlicht-Scannervorrichtung aufgenommenen Bildes ändern. Dies schafft Vorteile dahingehend, dass die Anforderungen des Controllers 420 vereinfacht werden, und gestattet eine verbesserte oder höhere Funktionalität durch Hinzufügung von Zubehörvorrichtungen.In one embodiment, the controller 408 the operation or functionality of the probe end 401 the articulated arm CMM 100 to change. For example, the controller 408 Indicator lights on the probe housing 102 change so that either a light of a different color or a different light intensity is emitted, or that the light is turned on and off at other times when the device 400 attached, in contrast to the situation in which the probe housing 102 used alone. In one embodiment, the device comprises 400 a rangefinder sensor (not shown) that measures the distance to an object. In this embodiment, the controller 408 Indicator lights on the probe housing 102 to give the operator an indication of how far the object is from the probe tip 118 is removed. In another embodiment, the controller 408 change the color of the indicator lights based on the quality of the image captured by the encoded stripe light scanner device. This creates advantages in that the requirements of the controller 420 be simplified and allows for improved or higher functionality by adding accessory devices.

Mit Bezug auf die 1013 bieten Ausführungsformen der vorliegenden Erfindung Vorteile in Bezug auf Schnittstellen für einen Projektor, eine Kamera, Signalverarbeitung, Steuerung und Anzeige für eine berührungslose dreidimensionale Messvorrichtung 500. Die Vorrichtung 500 umfasst ein Paar von optischen Vorrichtungen, wie zum Beispiel einen Lichtprojektor 508 und eine Kamera 510, die ein Streifenlichtmuster projizieren und ein zweidimensionales Muster empfangen, das von einem Objekt 501 reflektiert worden ist. Die Vorrichtung 500 verwendet auf Triangulation basierende Verfahren, die auf dem bekannten ausgestrahlten Muster und dem erfassten Bild basieren, um eine Punkt-Cloud zu bestimmen, die X, Y, Z-Koordinatendaten für das Objekt 501 für jedes Pixel des empfangenen Bildes darstellen. In einer Ausführungsform ist das Streifenlichtmuster codiert, so dass ein einzelnes Bild ausreicht, um die dreidimensionalen Koordinaten von Objektpunkten zu bestimmen. Man kann auch sagen, dass ein solches codiertes Streifenlichtmuster dreidimensionale Koordinaten in einer einzelnen Aufnahme misst.With reference to the 10 - 13 Embodiments of the present invention provide advantages in terms of projector interface, camera, signal processing, control, and display for a non-contact, three-dimensional measurement device 500 , The device 500 includes a pair of optical devices, such as a light projector 508 and a camera 510 which project a striped light pattern and receive a two-dimensional pattern from an object 501 has been reflected. The device 500 uses triangulation-based methods based on the known emitted pattern and the captured image to determine a point cloud, the X, Y, Z coordinate data for the object 501 for each pixel of the received image. In one embodiment, the stripe light pattern is coded so that a single image is sufficient to determine the three-dimensional coordinates of object points. It can also be said that such a coded stripe light pattern measures three-dimensional coordinates in a single shot.

In der beispielhaften Ausführungsform verwendet der Projektor 508 eine sichtbare Lichtquelle, die einen Mustergenerator beleuchtet. Die sichtbare Lichtquelle kann ein Laser, eine superstrahlende Diode, ein Glühlicht, eine Leuchtdiode (LED) oder eine andere Licht abgebende Vorrichtung sein. In der beispielhaften Ausführungsform ist der Mustergenerator ein Chrom-auf-Glas-Lichtbild mit einem darauf eingeätzten Streifenlichtmuster. Das Lichtbild kann ein einzelnes Muster oder mehrere Muster aufweisen, die sich nach Bedarf in eine und aus einer Position bewegen. Das Lichtbild kann manuell oder automatisch in der Betriebsposition installiert werden. Bei anderen Ausführungsformen kann das Quellmuster Licht sein, das von einer digitalen Mikrospiegel-Vorrichtung (Digital Micro-Mirror Device, DMD), wie ein digitaler Lichtprojektor (DLP), hergestellt von Texas Instruments Corporation, einer Flüssigkristallvorrichtung (LCD), einer Flüssigkristall-auf-Silicium-(LCOS)-Vorrichtung oder einer ähnlichen Vorrichtung, die eher im Übertragungsmodus als im Reflexionsmodus verwendet wird, reflektiert oder durchgelassen werden. Der Projektor 508 kann ferner ein Linsensystem 515 umfassen, welches das ausgehende Licht so ändert, dass es die gewünschten fokalen Kennzeichen aufweist.In the exemplary embodiment, the projector uses 508 a visible light source that illuminates a pattern generator. The visible light source may be a laser, a super-radiating diode, an incandescent light, a light-emitting diode (LED) or another light-emitting device. In the exemplary embodiment, the pattern generator is a chrome-on-glass photo with a stripe light pattern etched thereon. The photograph may have a single pattern or patterns moving in and out of position as needed. The photograph can be manually or automatically installed in the operating position. In other embodiments, the source pattern may be light generated by a digital micro-mirror device (DMD) such as a digital light projector (DLP) manufactured by Texas Instruments Corporation, a liquid crystal device (LCD), a liquid crystal Silicon (LCOS) device or similar device is used, reflected or transmitted in the transmission mode rather than the reflection mode. The projector 508 can also be a lens system 515 which changes the outgoing light to have the desired focal characteristics.

Die Vorrichtung 500 umfasst ferner eine Hülle 502 mit einem Griffabschnitt 504. In einer Ausführungsform kann die Vorrichtung 500 ferner eine Schnittstelle 426 an einem Ende umfassen, die die Vorrichtung 500 mechanisch und elektrisch an das Sondengehäuse 102 koppelt, wie hier vorstehend beschrieben wurde. In anderen Ausführungsformen kann die Vorrichtung 500 in das Sondengehäuse 102 integriert werden. Die Schnittstelle 426 bietet Vorteile dahingehend, dass die Vorrichtung 500 ohne die Notwendigkeit zusätzlicher Werkzeuge schnell und einfach an das Gelenkarm-KMG 100 angekoppelt und von diesem abgenommen werden kann.The device 500 further comprises a shell 502 with a handle section 504 , In one embodiment, the device 500 also an interface 426 at one end, which comprise the device 500 mechanically and electrically to the probe housing 102 coupled as described hereinabove. In other embodiments, the device may 500 into the probe housing 102 to get integrated. the interface 426 offers advantages in that the device 500 Quick and easy on the articulated arm CMM without the need for additional tools 100 coupled and can be removed from this.

Die Kamera 510 umfasst einen lichtempfindlichen Sensor, der ein digitales Bild / eine digitale Darstellung des Bereichs innerhalb des Gesichtsfelds des Sensors erzeugt. Der Sensor 508 kann zum Beispiel ein Sensor vom Typ einer ladungsgekoppelten Vorrichtung oder ein Sensor vom Typ Komplementär-Metalloxid-Halbleiter (CMOS) sein. Die Kamera 510 kann ferner andere Komponenten aufweisen, wie zum Beispiel unter anderem eine Linse 503 und andere optische Vorrichtungen. In der beispielhaften Ausführungsform sind der Projektor 508 und die Kamera 510 in einem solchen Winkel angeordnet, dass der Sensor von der Oberfläche des Objekts 501 reflektiertes Licht empfangen kann. In einer Ausführungsform sind der Projektor 508 und die Kamera 510 so positioniert, dass die Vorrichtung 500 mit der aufgesetzten Sondenspitze 118 betrieben werden kann. Des Weiteren ist ersichtlich, dass die Vorrichtung 500 im Wesentlichen relativ zu der Sondenspitze 118 fixiert ist und Kräfte auf den Griffabschnitt 504 die Ausrichtung der Vorrichtung 500 relativ zu der Sondenspitze 118 nicht beeinflussen. In einer Ausführungsform kann die Vorrichtung 500 ein zusätzliches Stellglied (nicht gezeigt) aufweisen, das es dem Bediener gestattet, zwischen der Aufnahme von Daten von der Vorrichtung 500 und der Sondenspitze 118 hin- und herzuschalten.The camera 510 includes a photosensitive sensor that generates a digital image / representation of the area within the field of view of the sensor. The sensor 508 For example, a charge coupled device type sensor or a complementary metal oxide semiconductor (CMOS) type sensor may be used. The camera 510 may also include other components, such as, but not limited to, a lens 503 and other optical devices. In the exemplary embodiment, the projector 508 and the camera 510 arranged at such an angle that the sensor from the surface of the object 501 can receive reflected light. In one embodiment, the projector 508 and the camera 510 positioned so that the device 500 with the attached probe tip 118 can be operated. Furthermore, it can be seen that the device 500 essentially relative to the probe tip 118 is fixed and forces on the grip section 504 the orientation of the device 500 relative to the probe tip 118 do not influence. In one embodiment, the device 500 an additional actuator (not shown) that allows the operator to intercept data from the device 500 and the probe tip 118 switch back and forth.

Der Projektor 508 und die Kamera 510 sind elektrisch an einen Controller 512 gekoppelt, der innerhalb des Gehäuses 502 angeordnet ist. Der Controller 512 kann einen oder mehrere Mikroprozessoren, digitale Signalprozessoren, Speicher- und Signalaufbereitungsschaltungen umfassen. Wegen der digitalen Signalverarbeitung und des von der Vorrichtung 500 erzeugten großen Datenvolumens kann der Controller 512 innerhalb des Griffabschnitts 504 angeordnet werden. Der Controller 512 ist über ein elektrisches Verbindungsstück 434 elektrisch mit den Armbussen 218 gekoppelt. Die Vorrichtung 500 kann ferner Stellglieder 514, 516 umfassen, die vom Bediener manuell betätigt werden können, um den Betrieb und die Datenerfassung durch die Vorrichtung 500 einzuleiten. In einer Ausführungsform wird die Bildverarbeitung zur Bestimmung der X, Y, Z-Koordinatendaten der das Objekt 501 darstellenden Punkt-Cloud durch den Controller 512 durchgeführt, und die Koordinatendaten werden über den Bus 240 an das elektronische Datenverarbeitungssystem 210 übertragen. In einer anderen Ausführungsform werden Bilder an das elektronische Datenverarbeitungssystem 210 übertragen und die Berechnung der Koordinaten erfolgt durch das elektronische Datenverarbeitungssystem 210.The projector 508 and the camera 510 are electrically connected to a controller 512 coupled inside the case 502 is arranged. The controller 512 may include one or more microprocessors, digital signal processors, memory and signal conditioning circuits. Because of the digital signal processing and the device 500 generated large data volume, the controller 512 within the grip section 504 to be ordered. The controller 512 is via an electrical connector 434 electrically with the bracelets 218 coupled. The device 500 can also actuators 514 . 516 which can be manually operated by the operator to control the operation and data acquisition by the device 500 initiate. In one embodiment, the image processing for determining the X, Y, Z coordinate data becomes the object 501 performing point cloud through the controller 512 performed, and the coordinate data is transmitted over the bus 240 to the electronic data processing system 210 transfer. In another embodiment, images are sent to the electronic data processing system 210 The coordinates are calculated by the electronic data processing system 210 ,

In einer Ausführungsform ist der Controller 512 dafür ausgelegt, mit dem elektronischen Datenverarbeitungssystem 210 zu kommunizieren, um Streifenlichtmusterbilder von dem elektronischen Datenverarbeitungssystem 210 zu erhalten. In noch einer weiteren Ausführungsform kann das auf das Objekt ausgestrahlte Muster durch das elektronische Datenverarbeitungssystem 210 entweder automatisch oder in Reaktion auf eine Eingabe vom Bediener geändert werden. Dies kann Vorteile betreffend des Erhaltens von genaueren Messungen bei einer geringeren Verarbeitungszeit bieten, indem die Verwendung von Mustern, die einfacher zu decodieren sind, wenn es die Bedingungen zulassen, und die Verwendung der komplexeren Muster gestattet wird, wenn gewünscht ist, den gewünschten Genauigkeitsgrad oder Auflösungsgrad zu erreichen.In one embodiment, the controller is 512 designed with the electronic data processing system 210 to communicate strip light pattern images from the electronic data processing system 210 to obtain. In yet another embodiment, the pattern emitted on the object may be processed by the electronic data processing system 210 be changed either automatically or in response to an input from the operator. This can offer advantages in terms of obtaining more accurate measurements with less processing time by allowing the use of patterns that are easier to decode, if conditions permit, and the use of the more complex patterns, if desired, the degree of accuracy desired To achieve degree of dissolution.

In anderen Ausführungsformen der vorliegenden Erfindung umfasst die Vorrichtung 520 (12) ein Paar von Kameras 510. Die Kameras 510 sind in einem Winkel relativ zum Projektor 508 angeordnet, um reflektiertes Licht vom Objekt 501 zu empfangen. Die Verwendung von mehreren Kameras 510 kann bei manchen Anwendungen Vorteile dahingehend bieten, dass redundante Bilder bereitgestellt werden, um die Genauigkeit der Messung zu erhöhen. Bei noch anderen Ausführungsformen können die redundanten Bilder gestatten, dass sequentielle Muster von der Vorrichtung 500 schnell erfasst werden, indem die Erfassungsgeschwindigkeit von Bildern durch abwechselndes Betreiben der Kamera 510 erhöht wird.In other embodiments of the present invention, the device comprises 520 ( 12 ) a pair of cameras 510 , The cameras 510 are at an angle relative to the projector 508 arranged to reflect reflected light from the object 501 to recieve. The use of multiple cameras 510 may provide benefits in some applications to provide redundant images to increase the accuracy of the measurement. In still other embodiments, the redundant images may allow sequential patterns to be retrieved from the device 500 be detected quickly by the capture speed of images by alternately operating the camera 510 is increased.

Nun mit Bezug auf die 13A und 13B wird der Betrieb der Streifenlichtvorrichtung 500 beschrieben. Die Vorrichtung 500 strahlt zunächst mit dem Projektor 508 auf die Oberfläche 524 des Objekts 501 ein Streifenlichtmuster 522 aus. Das Streifenlichtmuster 522 kann die Muster umfassen, die in dem Journalartikel „DLP-Based Structured Light 3D Imaging Technologies and Applications” von Jason Geng, veröffentlicht in „Proceedings of SPIE“, Band 7932, offenbart sind, der hier durch Bezugnahme aufgenommen ist. Das Streifenlichtmuster 522 kann ferner unter anderem eines der in den 1432 gezeigten Muster umfassen. Das Licht 509 vom Projektor 508 wird von der Oberfläche 524 reflektiert und das reflektierte Licht 511 wird von der Kamera 510 empfangen. Es versteht sich, dass Änderungen an der Oberfläche 524, wie zum Beispiel der Vorsprung 526, Verzerrungen in dem Streifenmuster schaffen, wenn das Bild des Musters von der Kamera 510 erfasst wird. Da das Muster durch Streifenlicht gebildet wird, ist es in manchen Fällen möglich, dass der Controller 512 oder das elektronische Datenverarbeitungssystem 210 eine Eins-zu-Eins-Entsprechung zwischen den Pixeln in dem ausgestrahlten Muster, wie zum Beispiel das Pixel 513, und den Pixeln in dem abgebildeten Muster, wie zum Beispiel Pixel 515, bestimmen. Dies ermöglicht die Verwendung von Triangulationsgrundsätzen, um die Koordinaten eines jeden Pixels in dem abgebildeten Muster zu bestimmen. Die Erfassung von dreidimensionalen Koordinaten der Oberfläche 524 wird manchmal als eine Punkt-Cloud bezeichnet. Durch Bewegen der Vorrichtung 500 über die Oberfläche 524 kann eine Punkt-Cloud des gesamten Objekts 501 erzeugt werden. Es versteht sich, dass bei manchen Ausführungsformen das Koppeln der Vorrichtung 500 an das Sondenende Vorteile dahingehend bietet, dass die Position und Ausrichtung der Vorrichtung 500 dem elektronischen Datenverarbeitungssystem 210 bekannt sind, so dass die Position des Objekts 501 relativ zum Gelenkarm-KMG 100 auch festgestellt werden kann.Well with respect to the 13A and 13B becomes the operation of the strip light device 500 described. The device 500 beams first with the projector 508 on the surface 524 of the object 501 a stripe light pattern 522 out. The stripe light pattern 522 may include the patterns disclosed in the journal article "DLP-Based Structured Light 3D Imaging Technologies and Applications" by Jason Geng, published in "Proceedings of SPIE", vol. 7932, herein incorporated by reference is included. The stripe light pattern 522 may also include one of the following in the 14 - 32 include patterns shown. The light 509 from the projector 508 gets off the surface 524 reflected and the reflected light 511 is from the camera 510 receive. It is understood that changes to the surface 524 such as the lead 526 To create distortions in the stripe pattern when the image of the pattern from the camera 510 is detected. Since the pattern is formed by strip light, it is possible in some cases for the controller 512 or the electronic data processing system 210 a one-to-one correspondence between the pixels in the emitted pattern, such as the pixel 513 , and the pixels in the imaged pattern, such as pixels 515 , determine. This allows the use of triangulation principles to determine the coordinates of each pixel in the imaged pattern. The acquisition of three-dimensional coordinates of the surface 524 is sometimes referred to as a point cloud. By moving the device 500 over the surface 524 can be a point cloud of the entire object 501 be generated. It is understood that in some embodiments, coupling the device 500 offers advantages to the probe end in that the position and orientation of the device 500 the electronic data processing system 210 are known, so that the position of the object 501 relative to the articulated arm CMM 100 can also be determined.

Um die Koordinaten des Pixels zu bestimmen, ist bekannt, dass der Winkel jedes projizierten Lichtstrahls 509, der das Objekt 522 in einem Punkt 527 schneidet, einem Projektionswinkel phi (Ф) entspricht, so dass Ф-Informationen in das ausgestrahlte Muster codiert werden. In einer Ausführungsform ist das System dafür ausgelegt, das Feststellen des Ф-Wertes entsprechend jedem Pixel in dem abgebildeten Muster zu ermöglichen. Ferner ist ein Winkel Omega (Ω) für jedes Pixel in der Kamera bekannt, ebenso wie der Grundlinienabstand “D” zwischen dem Projektor 508 und der Kamera. Daher ist der Abstand “Z" von der Kamera 510 zu der Stelle, die das Pixel abgebildet hat, entsprechend der Gleichung: Z / D = sin(Φ) / sin(Ω + Φ) (1) Somit können dreidimensionale Koordinaten für jedes Pixel in dem erfassten Bild berechnet werden.To determine the coordinates of the pixel, it is known that the angle of each projected light beam 509 who is the object 522 in one point 527 corresponds to a projection angle phi (Ф), so that Ф information is encoded into the emitted pattern. In one embodiment, the system is configured to enable detection of the Ф value corresponding to each pixel in the mapped pattern. Also known is an angle omega (Ω) for each pixel in the camera, as well as the baseline "D" distance between the projector 508 and the camera. Therefore, the distance "Z" from the camera 510 to the place that mapped the pixel, according to the equation: Z / D = sin (Φ) / sin (Ω + Φ) (1) Thus, three-dimensional coordinates can be calculated for each pixel in the captured image.

Im Allgemeinen gibt es zwei Kategorien von Streifenlicht, nämlich codiertes und uncodiertes Streifenlicht. Eine übliche Form von uncodiertem Streifenlicht, wie in den 1417 und 2830 gezeigt ist, beruht auf einem gestreiften Muster, das periodisch entlang einer Dimension variiert. Diese Arten von Muster werden normalerweise in einer Sequenz angewandt, um einen ungefähren Abstand zum Objekt bereitzustellen. Einige Ausführungsformen von uncodierten Mustern, wie zum Beispiel die sinusförmigen Muster, können Messungen mit einer relativ hohen Genauigkeit bieten. Damit diese Arten von Muster wirksam sind, ist es jedoch normalerweise notwendig, dass die Scannervorrichtung und das Objekt relativ zueinander ortsfest gehalten werden. Wenn die Scannervorrichtung oder das Objekt in Bewegung sind (relativ zueinander), dann kann ein codiertes Muster, wie es in den 1827 gezeigt ist, bevorzugt sein. Ein codiertes Muster gestattet die Analyse des Bilds unter Verwendung eines einzelnen erfassten Bilds. Einige codierte Muster können in einer besonderen Ausrichtung auf dem Projektormuster angeordnet werden (zum Beispiel senkrecht zu Epipolarlinien auf der Projektorebene), wodurch die Analyse der dreidimensionalen Oberflächenkoordinaten basierend auf einem einzelnen Bild vereinfacht wird.In general, there are two categories of strip light, namely coded and uncoded strip light. A common form of uncoded strip light, as in the 14 - 17 and 28 - 30 is based on a striped pattern which varies periodically along one dimension. These types of patterns are normally applied in a sequence to provide an approximate distance to the object. Some embodiments of uncoded patterns, such as the sinusoidal patterns, may provide relatively high accuracy measurements. However, for these types of patterns to be effective, it is usually necessary for the scanner device and the object to be held stationary relative to each other. If the scanner device or object is in motion (relative to each other), then a coded pattern as shown in the FIGS 18 - 27 is shown to be preferred. An encoded pattern allows the analysis of the image using a single captured image. Some encoded patterns may be placed in a particular orientation on the projector pattern (eg, perpendicular to projector plane epipolar lines), thereby simplifying the analysis of the three-dimensional surface coordinates based on a single image.

Epipolarlinien sind mathematische Linien, die durch das Schneiden von Epipolarebenen und der Quellebene 517 oder der Bildebene 521 (der Ebene des Kamerasensors) in 13B gebildet werden. Eine Epipolarebene kann jede Ebene sein, die durch das Projektorperspektivitätszentrum 519 und das Kameraperspektivitätszentrum hindurchgeht. Die Epipolarlinien auf der Quellebene 517 und der Bildebene 521 können in manchen Fällen parallel sein, sind jedoch im Allgemeinen nicht parallel. Ein Aspekt von Epipolarlinien ist der, dass eine gegebene Epipolarlinie auf der Projektorebene 517 eine entsprechende Epipolarlinie auf der Bildebene 521 hat. Daher kann jedes besondere Muster, das auf einer Epipolarlinie in der Projektorebene 517 bekannt ist, sofort in der Bildebene 521 beobachtet und ausgewertet werden. Falls zum Beispiel ein codiertes Muster entlang einer Epipolarlinie in der Projektorebene 517 platziert wird, kann der Zwischenraum zwischen den codierten Elementen in der Bildebene 521 unter Verwendung der aus den Pixeln des Kamerasensors 510 ausgelesenen Werte bestimmt werden. Diese Informationen können verwendet werden, um die dreidimensionalen Koordinaten eines Punktes 527 auf dem Objekt 501 zu bestimmen. Es ist auch möglich, codierte Muster in einem bekannten Winkel in Bezug auf eine Epipolarlinie zu kippen und wirksam Objektoberflächenkoordinaten zu extrahieren. Beispiele für codierte Muster sind in den 2029 gezeigt. Epipolar lines are mathematical lines created by cutting epipolar planes and the source plane 517 or the picture plane 521 (the level of the camera sensor) in 13B be formed. An epipolar plane can be any plane passing through the viewer's perspective center 519 and the camera perspective center goes through. The epipolar lines at the source level 517 and the picture plane 521 may be parallel in some cases, but are generally not parallel. One aspect of epipolar lines is that of a given epipolar line at the projector level 517 a corresponding epipolar line on the image plane 521 Has. Therefore, any particular pattern that is on an epipolar line at the projector level 517 is known, immediately in the picture plane 521 be observed and evaluated. For example, if there is a coded pattern along an epipolar line in the projector plane 517 is placed, the space between the coded elements in the image plane 521 using the pixels from the camera sensor 510 be read out. This information can be used to get the three-dimensional coordinates of a point 527 on the object 501 to determine. It is also possible to tilt coded patterns at a known angle with respect to an epipolar line and to effectively extract object surface coordinates. Examples of coded patterns are in the 20 - 29 shown.

In Ausführungsformen mit einem periodischen Muster, wie ein sich sinusförmig wiederholendes Muster, stellt die sinusförmige Periode mehrere Musterelemente dar. Da es eine Vielfalt von periodischen Mustern in zwei Dimensionen gibt, sind die Musterelemente nicht-kollinear. In manchen Fällen kann ein gestreiftes Muster mit Streifen von variierender Breite ein codiertes Muster darstellen.In embodiments having a periodic pattern, such as a sinusoidal repeating pattern, the sinusoidal period represents a plurality of pattern elements. Since there are a variety of periodic patterns in two dimensions, the pattern elements are non-collinear. In some In cases, a striped pattern with strips of varying width may represent a coded pattern.

Nun mit Bezug auf die 1417 sind Ausführungsformen von uncodierten Streifenlichtmustern gezeigt. Einige der Muster verwenden ein einfaches Muster vom Ein-Aus-(oder 1,0-)Typ und werden als binäre Muster bezeichnet. In manchen Fällen ist das binäre Muster eines, von dem bekannt ist, dass es eine besondere Sequenz aufweist, die als eine Gray-Code-Sequenz bezeichnet wird. Der Begriff Gray-Code, wie er auf dem Gebiet der dreidimensionalen Messtechnik basierend auf Streifenlicht verwendet wird, ist ein anderer als der Begriff, wie er auf dem Gebiet der Elektrotechnik verwendet wird, wo der Begriff Gray-Code üblicherweise das sequentielle Ändern jeweils eines einzelnen Bits bedeutet. Die vorliegende Anmeldung folgt der Verwendung des Begriffs Gray-Code, wie es auf dem Gebiet der dreidimensionalen Messtechnik üblich ist, wo der Gray-Code typischerweise eine Sequenz von binären Schwarz- und Weißwerten darstellt. 14A zeigt ein Beispiel für ein binäres Muster, welches mehrere sequentielle Bilder 530, 532, 534 jeweils mit einem anderen gestreiften Muster auf diesen umfasst. Normalerweise wechseln die Streifen zwischen hellen (beleuchteten) und dunklen (nicht beleuchteten) gestreiften Regionen ab. Manchmal werden die Begriffe weiß und schwarz verwendet, um beleuchtet bzw. nicht beleuchtet zu bezeichnen. Wenn somit die Bilder 530, 532, 534 sequentiell auf die Oberfläche 524 projiziert werden, wie es in 14B gezeigt ist, die ein zusammengesetztes Bild 536 zeigt. Es ist anzumerken, dass die unteren beiden Muster 535, 537 aus 14B in 14A der Deutlichkeit halber nicht veranschaulicht sind. Für jeden Punkt auf dem Objekt 501 (durch ein Kamerapixel in dem Bild dargestellt) hat das zusammengesetzte Muster 536 einen einzigartigen binären Wert, der durch die sequentielle Projektion von Mustern 530, 532, 534, 535, 537 erhalten wird, die einem relativ kleinen Bereich von möglichen Projektionswinkeln Ф entsprechen. Durch Verwendung dieser Projektionswinkel zusammen mit dem bekannten Pixelwinkel Ω für ein gegebenes Pixel und dem bekannten Grundlinienabstand D kann Äq. (1) herangezogen werden, um den Abstand Z von der Kamera zum Objektpunkt zu finden. Ein zweidimensionaler Winkel ist für jedes Kamerapixel bekannt. Der zweidimensionale Winkel entspricht im Allgemeinen dem eindimensionalen Winkel Omega, der bei der Berechnung des Abstands Z gemäß Äq. (1) verwendet wird. Eine von jedem Kamerapixel durch das Kameraperspektivitätszentrum gezogene Linie, die das Objekt in einem Punkt schneidet, definiert jedoch einen zweidimensionalen Winkel im Raum. Bei Kombination mit dem berechneten Wert Z bieten die beiden Pixelwinkel dreidimensionale Koordinaten entsprechend einem Punkt auf der Objektoberfläche.Well with respect to the 14 - 17 Embodiments of uncoded striped light patterns are shown. Some of the patterns use a simple pattern of on-off (or 1.0) type and are referred to as binary patterns. In some cases, the binary pattern is one that is known to have a particular sequence, referred to as a Gray code sequence. The term gray code, as used in the field of three-dimensional metrology based on strip light, is other than the term used in the field of electrical engineering, where the term gray code usually means the sequential change of a single one Bits means. The present application follows the use of the term Gray code, as is common in the field of three-dimensional metrology, where the Gray code typically represents a sequence of binary black and white values. 14A shows an example of a binary pattern, which has multiple sequential images 530 . 532 . 534 each with a different striped pattern on them. Usually the stripes alternate between bright (lighted) and dark (not lighted) striped regions. Sometimes the terms white and black are used to refer to illuminated or not illuminated. So if the pictures 530 . 532 . 534 sequentially on the surface 524 be projected as it is in 14B shown is a composite picture 536 shows. It should be noted that the lower two patterns 535 . 537 out 14B in 14A for the sake of clarity are not illustrated. For every point on the object 501 (represented by a camera pixel in the image) has the composite pattern 536 a unique binary value created by the sequential projection of patterns 530 . 532 . 534 . 535 . 537 which corresponds to a relatively small range of possible projection angles Ф. By using these projection angles together with the known pixel angle Ω for a given pixel and the known baseline distance D, Eq. (1) are used to find the distance Z from the camera to the object point. A two-dimensional angle is known for each camera pixel. The two-dimensional angle generally corresponds to the one-dimensional angle omega used in calculating the distance Z according to Eq. (1) is used. However, a line drawn by each camera pixel through the camera perspective center intersecting the object at a point defines a two-dimensional angle in space. When combined with the calculated value Z, the two pixel angles provide three-dimensional coordinates corresponding to a point on the object surface.

In ähnlicher Weise kann, an Stelle eines binären Musters, eine sequentielle Reihe von Graumustern mit Streifen mit variierenden Graustufenwerten verwendet werden. Bei Verwendung in diesem Zusammenhang bezieht sich der Begriff Graustufe normalerweise auf einen Betrag der Bestrahlungsstärke an einem Punkt auf dem Objekt von weiß (maximales Licht) zu verschiedenen Graustufen (weniger Licht), bis zu schwarz (minimales Licht). Diese selbe Nomenklatur wird auch verwendet, wenn das projizierte Licht eine Farbe wie Rot hat, und die Graustufenwerte Stufen von roter Beleuchtung entsprechen. In einer Ausführungsform hat das Muster (15) mehrere Bilder 538, 540, 542 mit Streifen mit variierenden Lichtleistungsstufen, wie zum Beispiel Schwarz, Grau und Weiß, die verwendet werden, um ein ausgestrahltes Muster auf dem Objekt 501 zu erzeugen. Die Graustufenwerte können verwendet werden, um die möglichen Projektionswinkel Ф innerhalb eines relativ kleinen Bereichs von möglichen Werten zu bestimmen. Wie hier vorstehend besprochen, kann dann Äq. (1) verwendet werden, um den Abstand Z zu bestimmen.Similarly, instead of a binary pattern, a sequential series of gray patterns with stripes of varying gray level values may be used. When used in this context, the term gray level usually refers to an amount of irradiance at a point on the object from white (maximum light) to different gray levels (less light), to black (minimum light). This same nomenclature is also used when the projected light has a color like red, and the grayscale values correspond to levels of red illumination. In one embodiment, the pattern has ( 15 ) several pictures 538 . 540 . 542 with stripes of varying light output levels, such as black, gray and white, that are used to create a radiated pattern on the object 501 to create. The gray level values can be used to determine the possible projection angles Ф within a relatively small range of possible values. As discussed hereinabove, Eq. (1) can be used to determine the distance Z.

In einer anderen Ausführungsform kann der Abstand Z zu einem Objektpunkt durch Messen einer Phasenverschiebung herausgefunden werden, die in mehreren Bildern beobachtet wird. Zum Beispiel variieren in einer in 16 gezeigten Ausführungsform die Graustufenintensitäten 546, 548, 550 eines Projektormusters 552 auf sinusförmige Weise, jedoch mit einer Phasenverschiebung zwischen projizierten Mustern. Zum Beispiel kann in dem ersten Projektormuster die Sinuskurven-Graustufen-Intensität 546 (die die Lichtleistung pro Flächeneinheit darstellt) an einem besonderen Punkt eine Phase von null Grad aufweisen. Im zweiten Projektormuster hat die Sinuskurven-Intensität 548 eine Phase von 120 Grad am selben Punkt. Im dritten Projektormuster kann die Sinuskurven-Intensität 550 eine Phase von 240 Grad am selben Punkt aufweisen. Dies ist so, als würde man sagen, dass das sinusförmige Muster bei jedem Schritt um ein Drittel einer Periode nach links (oder rechts) verschoben wird. Es wird ein Phasenverschiebungsverfahren verwendet, um eine Phase des projizierten Lichts an jedem Kamerapixel zu bestimmen, was die Notwendigkeit eliminiert, Informationen von angrenzenden Pixeln zu berücksichtigen, wie in dem Fall der einzelnen Aufnahme des codierten Musters. Es können viele Verfahren verwendet werden, um die Phase eines Kamerapixels zu bestimmen. Ein Verfahren beinhaltet das Ausführen einer Multiplikationsund Summierungsprozedur und dann das Heranziehen eines Arkustangens eines Quotienten. Dieses Verfahren ist dem durchschnittlichen Fachmann allgemein bekannt und wird nicht weiter besprochen. Außerdem hebt sich bei dem Phasenverschiebungsverfahren bei der Berechnung der Phase das Hintergrundlicht auf. Aus diesen Gründen ist der Wert Z, der für ein gegebenes Pixel berechnet wird, normalerweise genauer als der Wert Z, der unter Verwendung eines Verfahrens der einzelnen Aufnahme eines codierten Musters berechnet wird. Bei einer einzelnen Erfassung von sinusförmigen Mustern, wie diejenigen, die in 16 gezeigt sind, variieren alle berechneten Phasen von 0 bis 360 Grad. Bei einem besonderen Streifenlicht-Triangulationssystem können diese berechneten Phasen ausreichend sein, falls die “Dicke” des geprüften Objekts nicht allzu sehr schwankt, da der Winkel für jeden projizierten Streifen im Voraus bekannt ist. Falls das Objekt jedoch zu dick ist, kann eine Vieldeutigkeit zwischen der für ein besonderes Pixel berechneten Phase auftreten, da dieses Pixel vielleicht von dem ersten projizierten Lichtstrahl, welches an einer ersten Position auf das Objekt trifft, oder einem zweiten projizierten Lichtstrahl, der an einer zweiten Position auf das Objekt trifft, erhalten wurde. Mit anderen Worten können, falls es eine Möglichkeit gibt, dass die Phase um mehr als 2π Radianten für jedes Pixel in der Kameraanordnung variieren kann, die Phasen vielleicht nicht richtig decodiert werden und die gewünschte Eins-zu-Eins-Entsprechung wird nicht erreicht. In another embodiment, the distance Z to an object point may be found by measuring a phase shift observed in multiple images. For example, in a vary in 16 shown embodiment, the gray scale intensities 546 . 548 . 550 a projector pattern 552 in a sinusoidal manner but with a phase shift between projected patterns. For example, in the first projector pattern, the sinusoid grayscale intensity 546 (which represents the light output per unit area) at a particular point have a phase of zero degrees. In the second projector pattern has the sinusoidal intensity 548 a phase of 120 degrees at the same point. In the third projector pattern, the sinusoidal intensity 550 have a phase of 240 degrees at the same point. This is like saying that the sinusoidal pattern is shifted to the left (or right) by one-third of a period at each step. A phase shift method is used to determine a phase of the projected light at each camera pixel, which eliminates the need to consider information from adjacent pixels, as in the case of the single shot of the coded pattern. Many methods can be used to determine the phase of a camera pixel. One method involves performing a multiply and summate procedure and then taking an arctangent of a quotient. This method is well known to one of ordinary skill in the art and will not be discussed further. In addition, in the phase shift method, the background light is canceled out in the calculation of the phase. For these reasons, the value Z, which is for a given pixel is calculated, usually more accurately than the value Z, which is calculated using a method of taking a single coded pattern. In a single acquisition of sinusoidal patterns, such as those in 16 are shown, all calculated phases vary from 0 to 360 degrees. In a particular strip light triangulation system, these calculated phases may be sufficient if the "thickness" of the object under test does not vary too much, since the angle for each projected strip is known in advance. However, if the object is too thick, an ambiguity may occur between the phase calculated for a particular pixel, since that pixel may be affected by the first projected light beam striking the object at a first position or a second projected light beam incident on one second position on the object was obtained. In other words, if there is a possibility that the phase may vary by more than 2π radians for each pixel in the camera array, then the phases may not be properly decoded and the desired one-to-one correspondence is not achieved.

17A zeigt eine Sequenz 1–4 von projizierten Gray-Code-Intensitäten 554 gemäß einem Verfahren, durch welches die Vieldeutigkeit bei dem Abstand Z basierend auf einer berechneten Phase eliminiert werden kann. Eine Sammlung von Gray-Code-Mustern wird sequentiell auf das Objekt projiziert. In dem gezeigten Beispiel gibt es vier sequentielle Muster, die auf der linken Seite von 554 in 17A durch 1, 2, 3, 4 angedeutet sind. Das sequentielle Muster 1 ist dunkel (schwarz) in der linken Hälfte des Musters (Elemente 0–15) und hell (weiß) in der rechten Hälfte des Musters (Elemente 16–31). Das sequentielle Muster 2 hat ein dunkles Band zur Mitte hin (Elemente 8–23) und helle Bänder zu den Kanten hin (Elemente 2–7, 24–31). Das sequentielle Muster 3 hat zwei getrennte helle Bänder in der Nähe der Mitte (Elemente 4–11, 20–27) und drei helle Bänder (Elemente 0–3, 12–19, 28–31). Das sequentielle Muster 4 hat vier getrennte dunkle Bänder (Elemente 2–5, 10–13, 18–21, 26–29) und fünf getrennte helle Bänder (Elemente 0–1, 6–9, 14–17, 22–25, 30–31). Für jedes gegebene Pixel in der Kamera gestattet diese Sequenz von Mustern eine Verbesserung des “Objekt-Dickenbereichs” des Objekts um einen Faktor 16 im Vergleich zu einem anfänglichen Objekt-Dickenbereich entsprechend allen Elementen 0 bis 31. 17A shows a sequence 1-4 of projected Gray code intensities 554 according to a method by which the ambiguity at the distance Z can be eliminated based on a calculated phase. A collection of Gray code patterns is projected sequentially onto the object. In the example shown there are four sequential patterns on the left side of 554 in 17A are indicated by 1, 2, 3, 4. The sequential pattern 1 is dark (black) in the left half of the pattern (elements 0-15) and light (white) in the right half of the pattern (elements 16-31). The sequential pattern 2 has a dark band toward the center (elements 8-23) and bright bands toward the edges (elements 2-7, 24-31). The sequential pattern 3 has two separate bright bands near the center (elements 4-11, 20-27) and three bright bands (elements 0-3, 12-19, 28-31). The sequential pattern 4 has four separate dark bands (elements 2-5, 10-13, 18-21, 26-29) and five separate bright bands (elements 0-1, 6-9, 14-17, 22-25, 30-31). For any given pixel in the camera, this sequence of patterns allows for an improvement of the "object thickness range" of the object by a factor of 16 as compared to an initial object thickness range corresponding to all elements 0 to 31.

In einem weiteren Verfahren 556, das in 17C veranschaulicht ist, wird ein Phasenverschiebungsverfahren ähnlich dem Verfahren aus 16 ausgeführt. In der in 17C gezeigten Ausführungsform wird ein Muster 556A während vier sinusförmigen Perioden auf ein Objekt projiziert. Aus hier vorstehend besprochenen Gründen kann es eine Vieldeutigkeit bei einem Abstand Z zu einem Objekt unter Verwendung des Musters aus 17C geben. Eine Möglichkeit, die Vieldeutigkeit zu verringern oder zu eliminieren besteht darin, ein oder mehr zusätzliche sinusförmige Muster 556B, 556C zu projizieren, wobei jedes Muster eine andere Streifenperiode (Abstand) hat. So wird zum Beispiel in 17B ein zweites sinusförmiges Muster 555 mit drei Streifenperioden an Stelle von vier Streifenperioden auf ein Objekt projiziert. In einer Ausführungsform kann die Differenz bei den Phasen für die beiden Muster 555, 556 verwendet werden, um dazu beizutragen, eine Vieldeutigkeit beim Abstand Z zum Ziel zu eliminieren.In another process 556 , this in 17C is illustrated, a phase shift method similar to the method 16 executed. In the in 17C embodiment shown becomes a pattern 556A during four sinusoidal periods projected onto an object. For reasons discussed hereinabove, there may be ambiguity in a distance Z to an object using the pattern 17C give. One way to reduce or eliminate the ambiguity is to have one or more additional sinusoidal patterns 556B . 556C to project, each pattern having a different stripe period (distance). For example, in 17B a second sinusoidal pattern 555 projected onto an object with three fringe periods instead of four fringe periods. In one embodiment, the difference in phases may be for the two patterns 555 . 556 can be used to help eliminate ambiguity in the distance Z to the target.

Ein weiteres Verfahren zur Eliminierung der Vieldeutigkeit besteht darin, eine andere Art von Verfahren zu verwenden, wie zum Beispiel das Gray-Code-Verfahren aus 17A, um die Vieldeutigkeit bei den Abständen Z zu eliminieren, die unter Verwendung des sinusförmigen Phasenverschiebungsverfahrens berechnet wurden.Another method of eliminating ambiguity is to use another type of method, such as the Gray code method 17A to eliminate the ambiguity in the distances Z calculated using the sinusoidal phase shift method.

Bei Anwendungen, bei denen das Objekt und die Vorrichtung 500 sich relativ zueinander bewegen, kann es wünschenswert sein, ein einzelnes Muster zu verwenden, dass es der Kamera 510 gestattet, ein Bild zu erfassen, welches ausreichend Informationen bereitstellt, um die dreidimensionalen Kennzeichen des Objekts 501 zu messen, ohne sequentielle Bilder projizieren zu müssen. Nun mit Bezug auf die 18 und 19 haben die Muster 558, 566 eine Verteilung von Farben, die in manchen Fällen die Messung des Objekts basierend auf einem einzelnen (codierten) Bild gestattet. In der Ausführungsform aus 18 verwendet das Muster 558 Linien mit einer kontinuierlich räumlich variierenden Wellenlänge von Licht, um ein Muster zu schaffen, in dem sich die Farbe kontinuierlich zum Beispiel von Blau zu Grün zu Gelb zu Rot zu Fuchsia ändert. Somit kann für jede besondere spektrale Wellenlänge eine Eins-zu-Eins-Entsprechung zwischen dem ausgestrahlten Bild und dem abgebildeten Muster erfolgen. Mit der hergestellten Entsprechung können die dreidimensionalen Koordinaten des Objekts 501 anhand eines einzelnen abgebildeten Musters bestimmt werden. In einer Ausführungsform sind die Streifen des Musters 558 senkrecht zu den Epipolarlinien auf der Projektorebene ausgerichtet. Da die Epipolarlinien auf der Projektorebene in Epipolarlinien auf der Kamerabildebene abbilden, ist es möglich, eine Assoziation zwischen Projektorpunkten und Kamerapunkten durch Bewegen entlang der Richtung von Epipolarlinien in der Kamerabildebene zu erhalten und in jedem Fall die Farbe der Linie zu notieren. Es versteht sich, dass jedes Pixel in der Kamerabildebene einem zweidimensionalen Winkel entspricht. Die Farbe gestattet die Bestimmung der Eins-zu-Eins-Entsprechung zwischen besonderen Projektionswinkeln und besonderen Kamerawinkeln. Diese Entsprechungsinformationen, kombiniert mit dem Abstand zwischen der Kamera und dem Projektor (der Grundlinienabstand D) und den Winkeln der Kamera und des Projektors relativ zur Grundlinie, reichen aus, um die Bestimmung des Abstands Z von der Kamera zum Objekt zu ermöglichen.For applications where the object and the device 500 Moving relative to each other, it may be desirable to use a single pattern, that of the camera 510 allows to capture an image that provides sufficient information about the three-dimensional characteristics of the object 501 to measure without having to project sequential images. Well with respect to the 18 and 19 have the patterns 558 . 566 a distribution of colors, which in some cases allows the measurement of the object based on a single (coded) image. In the embodiment of 18 uses the pattern 558 Lines with a continuously spatially varying wavelength of light to create a pattern in which the color changes continuously, for example, from blue to green to yellow to red to fuchsia. Thus, for each particular spectral wavelength, a one-to-one correspondence may be made between the emitted image and the imaged pattern. With the established correspondence, the three-dimensional coordinates of the object 501 determined by a single imaged pattern. In one embodiment, the stripes are the pattern 558 aligned perpendicular to the epipolar lines at the projector level. Since the epipolar lines on the projector plane are imaged in epipolar lines on the camera stabilizing plane, it is possible to obtain an association between projector points and camera points by moving along the direction of epipolar lines in the camera stabilizing plane and in any case to note the color of the line. It is understood that each pixel in the camera plane corresponds to a two-dimensional angle. The color allows determination of the one-to-one correspondence between particular projection angles and particular camera angles. This correspondence information, combined with the distance between the camera and the projector (the baseline distance D) and the angles of the camera and the projector relative to the baseline, are sufficient to allow the determination of the distance Z from the camera to the object.

Eine weitere Ausführungsform unter Verwendung von Farbmustern ist in 19 gezeigt. Bei dieser Ausführungsform werden mehrere Farbmuster mit variierenden Intensitäten 560, 562, 564 kombiniert, um ein Farbmuster 566 zu schaffen. Bei einer Ausführungsform sind die mehreren Farbmuster-Intensitäten 560, 562, 564 Primärfarben, so dass das Muster 560 die Intensität der Farbe Rot variiert, das Muster 562 die Intensität der Farbe Grün variiert und das Muster 564 die Intensität der Farbe Blau variiert. Da die Farbverhältnisse bekannt sind, hat das resultierende ausgestrahlte Bild eine bekannte Beziehung, die in dem abgebildeten Muster decodiert werden kann. Wie bei der Ausführungsform aus 18 können, sobald die Entsprechung festgestellt wurde, die dreidimensionalen Koordinaten des Objekts 501 bestimmt werden. Anders als beim Muster aus 18, bei dem ein einzelner Zyklus von einzigartigen Farben projiziert wird, projiziert das Muster aus 19 drei komplette Zyklen von nahezu identischen Farben. Bei dem Muster von 18 gibt es eine geringe Möglichkeit der Vieldeutigkeit beim gemessenen Abstand Z (zumindest für den Fall, in dem die projizierten Linien senkrecht zu Epipolarlinien sind), da jedes Kamerapixel eine besondere Farbe erkennt, die allein einer besonderen Projektionsrichtung entspricht. Da der Kamerawinkel und die Projektionswinkel bekannt sind, kann die Triangulation verwendet werden, um die dreidimensionalen Objektkoordinaten an jeder Pixelposition unter Verwendung nur eines einzelnen Kamerabildes zu bestimmen. Damit kann das Verfahren aus 18 als ein codiertes Verfahren mit einer Aufnahme betrachtet werden. Im Gegensatz dazu gibt es in 19 eine Möglichkeit der Vieldeutigkeit beim Abstand Z zu einem Objektpunkt. Falls zum Beispiel die Kamera eine Farbe Lila sieht, kann der Projektor einen von drei verschiedenen Winkeln projiziert haben. Basierend auf der Triangulationsgeometrie sind drei verschiedene Abstände Z möglich. Falls im Voraus bekannt ist, dass die Dicke des Objekts innerhalb eines relativ kleinen Wertebereichs liegt, dann kann es möglich sein, zwei der Werte zu eliminieren, wodurch dreidimensionale Koordinaten in einer einzelnen Aufnahme erhalten werden. Im allgemeinen Fall wäre es jedoch notwendig, zusätzliche projizierte Muster zu verwenden, um die Vieldeutigkeit zu eliminieren. Zum Beispiel kann die räumliche Periode des Farbmusters geändert und dann verwendet werden, um das Objekt ein zweites Mal zu beleuchten. In diesem Fall wird dieses Verfahren von projiziertem Streifenlicht als ein sequentielles Verfahren und nicht ein codiertes Verfahren mit einer Aufnahme angesehen.Another embodiment using color patterns is in 19 shown. In this embodiment, multiple color patterns with varying intensities 560 . 562 . 564 combined to a color pattern 566 to accomplish. In one embodiment, the plurality of color pattern intensities 560 . 562 . 564 Primary colors, leaving the pattern 560 the intensity of the color red varies, the pattern 562 the intensity of the color green varies and the pattern 564 the intensity of the color blue varies. Since the color ratios are known, the resulting emitted image has a known relationship that can be decoded in the imaged pattern. As in the embodiment of 18 As soon as the correspondence has been established, the three-dimensional coordinates of the object can be determined 501 be determined. Different from the pattern 18 in which a single cycle of unique colors is projected, the pattern projects 19 three complete cycles of almost identical colors. In the pattern of 18 There is a small possibility of ambiguity in the measured distance Z (at least in the case where the projected lines are perpendicular to epipolar lines), since each camera pixel recognizes a particular color, which alone corresponds to a particular projection direction. Since the camera angle and the projection angles are known, the triangulation can be used to determine the three-dimensional object coordinates at each pixel position using only a single camera image. This can make the process 18 be considered as a coded method with a picture. In contrast, there are in 19 a possibility of ambiguity in the distance Z to an object point. For example, if the camera sees a purple color, the projector may have projected from three different angles. Based on the triangulation geometry, three different distances Z are possible. If it is known in advance that the thickness of the object is within a relatively small value range, then it may be possible to eliminate two of the values, thereby obtaining three-dimensional coordinates in a single shot. In the general case, however, it would be necessary to use additional projected patterns to eliminate the ambiguity. For example, the spatial period of the color pattern may be changed and then used to illuminate the object a second time. In this case, this method of projected fringe light is regarded as a sequential method and not a coded method with a picture.

Nun mit Bezug auf die 2023 sind codierte Streifenlichtmuster für eine einzelne Bildaufnahme basierend auf einer Streifenindexiertechnik gezeigt. In den Ausführungsformen aus 20 und 21 werden Muster mit Farbstreifen 568, 570 von dem Projektor 508 ausgestrahlt. Diese Technik nutzt eine Charakteristik von Bildsensoren, wobei der Sensor drei unabhängige Farbekanäle aufweist, wie zum Beispiel Rot, Grün, Blau oder Cyan, Gelb, Magenta. Die Kombinationen der durch diese Sensorkanäle erzeugten Werte können eine große Zahl von Farbmustern ergeben. Wie bei der Ausführungsform aus 19 ist das Verhältnis der Farbverteilung bekannt, daher kann die Beziehung zwischen den ausgestrahlten Mustern und dem abgebildeten Muster bestimmt und können die dreidimensionalen Koordinaten berechnet werden. Noch weitere Arten von Farbmustern können verwendet werden, wie ein auf der De-Bruijn-Sequenz basierendes Muster. Die Streifenindexiertechniken und die De-Bruijn-Sequenz sind dem durchschnittlichen Fachmann allgemein bekannt und werden daher nicht weiter besprochen.Well with respect to the 20 - 23 For example, coded stripe light patterns are shown for a single image capture based on a stripe indexing technique. In the embodiments 20 and 21 become patterns with color stripes 568 . 570 from the projector 508 broadcast. This technique utilizes a characteristic of image sensors where the sensor has three independent color channels, such as red, green, blue or cyan, yellow, magenta. The combinations of values generated by these sensor channels can yield a large number of color patterns. As in the embodiment of 19 If the ratio of the color distribution is known, therefore, the relationship between the emitted patterns and the imaged pattern can be determined, and the three-dimensional coordinates can be calculated. Still other types of color patterns may be used, such as a pattern based on the De Bruijn sequence. The stripe indexing techniques and De Bruijn sequence are well known to one of ordinary skill in the art and therefore will not be discussed further.

Bei den Ausführungsformen der 22 und 23 wird eine Streifenindexiertechnik ohne Farbe verwendet. Bei der Ausführungsform aus 22 stellt das Muster 572 Gruppen von Streifen mit mehreren Intensitätspegeln (Graustufenpegeln) und unterschiedlichen Breiten bereit. Infolgedessen hat eine besondere Gruppe von Streifen innerhalb des Gesamtbildes ein einzigartiges Graustufenmuster. Auf Grund der Einzigartigkeit der Gruppen kann eine Eins-zu-Eins-Entsprechung zwischen dem ausgestrahlten Muster und dem abgebildeten Muster bestimmt werden, um die Koordinaten des Objekts 501 zu berechnen. Bei der Ausführungsform aus 23 stellt das Muster 574 eine Reihe von Streifen mit einem segmentierten Muster bereit. Da jede Linie eine einzigartige Segmentgestaltung aufweist, kann die Entsprechung zwischen dem ausgestrahlten Muster und dem abgebildeten Muster bestimmt werden, um die Koordinaten des Objekts 501 zu berechnen. In den 2023 können zusätzliche Vorteile erreicht werden durch Ausrichten der projizierten Linien 572, 574 senkrecht zu Epipolarlinien, so dass in der Kameraebene, da dies die Bestimmung einer zweiten Dimension beim Auffinden der Eins-zu-Eins-Entsprechung zwischen Kamera und Projektormustern erleichtert.In the embodiments of the 22 and 23 a strip indexing technique without color is used. In the embodiment of 22 represents the pattern 572 Groups of strips with multiple intensity levels (grayscale levels) and different widths ready. As a result, a particular group of stripes within the overall picture has a unique grayscale pattern. Due to the uniqueness of the groups, a one-to-one correspondence between the emitted pattern and the imaged pattern can be determined about the coordinates of the object 501 to calculate. In the embodiment of 23 represents the pattern 574 a set of strips with a segmented pattern ready. Since each line has a unique segment design, the correspondence between the emitted pattern and the imaged pattern can be determined to be the coordinates of the object 501 to calculate. In the 20 - 23 Additional benefits can be achieved by aligning the projected lines 572 . 574 perpendicular to epipolar lines, such that in the camera plane, since this facilitates the determination of a second dimension in finding the one-to-one correspondence between the camera and projector patterns.

Nun sind mit Bezug auf die 2427 codierte Streifenlichtmuster gezeigt, die eine zweidimensionale Raumgittermustertechnik verwenden. Diese Mustertypen sind so angeordnet, dass ein Unterfenster, wie zum Beispiel das Fenster 576 auf dem Muster 578, relativ zu anderen Unterfenstern innerhalb des Musters einzigartig ist. Bei der Ausführungsform aus 24 wird ein binär strukturiertes Pseudo-Zufalls-Muster 578 verwendet. Das Muster 578 verwendet ein Gitter mit Elementen, wie zum Beispiel Kreisen 579, die das codierte Muster bilden. Es versteht sich, dass auch Elemente mit anderen geometrischen Formen verwendet werden können, wie unter anderem zum Beispiel Quadrate, Rechtecke und Dreiecke. Bei der Ausführungsform aus 25 ist ein Muster 580 einer mehrwertigen Pseudo-Zufalls-Struktur gezeigt, wobei jeder der numerischen Werte eine zugewiesene Form 582 hat. Diese Formen 582 bilden ein einzigartiges Unterfenster 584, welches eine Entsprechung zwischen dem ausgestrahlten Muster und dem abgebildeten Muster ermöglicht, um die Koordinaten des Objekts 501 zu berechnen. Bei der Ausführungsform aus 26 ist das Gitter 586 mit Streifen senkrecht zur Projektorebene farbcodiert. Das Muster aus 26 stellt nicht unbedingt ein Muster bereit, das in einer einzelnen Aufnahme decodiert werden kann, sondern die Farbinformationen können dazu beitragen, die Analyse zu vereinfachen. Bei der Ausführungsform aus 27 wird eine Struktur 588 von gefärbten Formen, wie zum Beispiel Quadraten oder Kreisen, verwendet, um das Muster zu bilden.Well, with respect to the 24 - 27 shown encoded strip light patterns using a two-dimensional space grid patterning technique. These pattern types are arranged such that a subwindow, such as the window 576 on the pattern 578 , is unique relative to other subwindows within the pattern. In the embodiment of 24 becomes a binary structured pseudo-random pattern 578 used. The pattern 578 uses a grid with elements, such as revolve 579 that form the coded pattern. It is understood that elements with other geometric shapes can also be used, such as, for example, squares, rectangles, and triangles. In the embodiment of 25 is a pattern 580 of a multi-valued pseudo-random structure, each of the numerical values being an assigned form 582 Has. These forms 582 form a unique subwindow 584 which allows a correspondence between the emitted pattern and the imaged pattern to the coordinates of the object 501 to calculate. In the embodiment of 26 is the grid 586 color-coded with stripes perpendicular to the projector plane. The pattern off 26 does not necessarily provide a pattern that can be decoded in a single shot, but the color information can help simplify the analysis. In the embodiment of 27 becomes a structure 588 of colored shapes, such as squares or circles, used to form the pattern.

Nun mit Bezug auf die 28A28B ist ein beispielhaftes sinusförmiges Muster 720 gezeigt. In einer Ausführungsform sind die Linien 734 senkrecht zu Epipolarlinien auf der Projektorebene. Das sinusförmige Muster 720 besteht aus dreißig Linien 722, die einmal wiederholt werden, um eine Gesamtzahl von Linien 722 von sechzig zu erhalten. Jede Linie 722 hat ein sinusförmiges Merkmal 723, das etwa 180 Grad außer Phase mit der darüberliegenden Linie und der darunterliegenden Linie ist. Dies dient dazu, dass die Linien 722 möglichst nahe beieinander liegen können, und es gestattet auch eine größere Schärfentiefe, da die Linien auf der projizierten Oberfläche oder dem erfassten Bild unscharf werden können und trotzdem noch erkannt werden. Jede einzelne Linie 722 kann eindeutig unter Verwendung nur der Phase dieser Linie decodiert werden, wobei die Linienlänge mindestens eine Wellenlänge der Sinuskurve betragen muss.Well with respect to the 28A - 28B is an exemplary sinusoidal pattern 720 shown. In one embodiment, the lines are 734 perpendicular to epipolar lines at the projector level. The sinusoidal pattern 720 consists of thirty lines 722 , which are repeated once, to a total number of lines 722 to get from sixty. Every line 722 has a sinusoidal characteristic 723 which is about 180 degrees out of phase with the overlying line and the underlying line. This serves to make the lines 722 as close as possible to each other, and it also allows a greater depth of field, as the lines on the projected surface or the captured image can be blurred and still be recognized. Every single line 722 can be uniquely decoded using only the phase of this line, where the line length must be at least one wavelength of the sinusoid.

Da das Muster 720 wiederholt wird, würde es im Allgemeinen Vieldeutigkeiten bei der Linienidentifizierung verursachen. Dieses Problem wird jedoch bei diesem System durch die Geometrie des Gesichtsfelds und der Schärfentiefe der Kamera gelöst. Für eine einzelne Ansicht der Kamera, d. h. eine Reihe von Pixeln, innerhalb der Schärfentiefe, in der die Linien optisch aufgelöst werden können, können nicht zwei Linien mit derselben Phase abgebildet werden. Zum Beispiel kann die erste Reihe von Pixeln auf der Kamera nur reflektiertes Licht von den Linien 1–30 des Musters empfangen. Dahingegen empfängt weiter unten am Kamerasensor eine weitere Reihe nur reflektiertes Licht von den Linien 2–31 des Musters usw. In 28B ist ein vergrößerter Abschnitt des Musters 720 von drei Linien gezeigt, wobei die Phase zwischen aufeinanderfolgenden Linien 722 in etwa 180° beträgt. Es ist auch gezeigt, wie die Phase jeder einzelnen Linie ausreicht, um die Linien eindeutig zu decodieren.Because the pattern 720 it would generally cause ambiguity in line identification. However, this problem is solved in this system by the geometry of the field of view and the depth of field of the camera. For a single view of the camera, ie a series of pixels within the depth of field in which the lines can be visually resolved, two lines with the same phase can not be imaged. For example, the first row of pixels on the camera can only receive reflected light from lines 1-30 of the pattern. On the other hand, further down the camera sensor, another row receives only reflected light from lines 2-31 of the pattern, etc. In 28B is an enlarged section of the pattern 720 shown by three lines, with the phase between successive lines 722 is about 180 °. It is also shown how the phase of each individual line is sufficient to unambiguously decode the lines.

Nun mit Bezug auf die 29A29B ist ein weiteres Muster 730 mit rechteckigen Musterelementen gezeigt. In einer Ausführungsform sind die Linien 732 senkrecht zu Epipolarlinien auf der Projektorebene. Das rechteckige Muster 730 enthält 27 Linien 732, bevor das Muster 730 wiederholt wird, und hat eine Gesamtzahl von Linien von 59. Die Codeelemente 734 des Musters 730 werden durch die Phase der Rechteckwelle von links nach rechts in 29B unterschieden.Das Muster 730 wird so verschlüsselt, dass eine Gruppe von sequentiellen Linien 732 durch die relativen Phasen ihrer Elemente unterschieden wird. Innerhalb des Bildes werden sequentielle Linien durch vertikales Abtasten der Linien gefunden. Bei einer Ausführungsform bedeutet das vertikale Abtasten das Abtasten entlang Epipolarlinien in der Kamerabildebene. Sequentielle Linien innerhalb einer vertikalen Kamerapixelsäule werden gepaart und ihre relativen Phasen bestimmt. Vier sequentielle gepaarte Linien sind erforderlich, um die Gruppe von Linien zu decodieren und diese innerhalb des Musters 730 zu lokalisieren. Es besteht auch eine Vieldeutigkeit bei diesem Muster 730 aufgrund der Wiederholung, aber dies wird auch auf ähnliche Weise wie vorstehend in Bezug auf das sinusförmige Muster 720 besprochen gelöst. 29B zeigt eine vergrößerte Ansicht von vier Linien 732 des rechteckigen Musters. Diese Ausführungsform zeigt, dass die Phase einer einzelnen Linie 732 alleine nicht in der Lage ist, eine Linie eindeutig zu decodieren, da die erste und die dritte Linie die gleiche absolute Phase aufweisen.Well with respect to the 29A - 29B is another pattern 730 shown with rectangular pattern elements. In one embodiment, the lines are 732 perpendicular to epipolar lines at the projector level. The rectangular pattern 730 contains 27 lines 732 before the pattern 730 is repeated, and has a total number of lines of 59. The code elements 734 of the pattern 730 be through the phase of the square wave from left to right in 29B distinguished.The pattern 730 is so encrypted that a group of sequential lines 732 is distinguished by the relative phases of its elements. Within the image, sequential lines are found by scanning the lines vertically. In one embodiment, vertical scanning means scanning along epipolar lines in the camera plane. Sequential lines within a vertical camera pixel column are paired and their relative phases determined. Four sequential paired lines are required to decode the group of lines and those within the pattern 730 to locate. There is also an ambiguity in this pattern 730 due to the repetition, but this is also done in a similar way as above with respect to the sinusoidal pattern 720 discussed solved. 29B shows an enlarged view of four lines 732 of the rectangular pattern. This embodiment shows that the phase of a single line 732 alone is not able to uniquely decode a line, since the first and third lines have the same absolute phase.

Dieser Ansatz zur Codierung der relativen Phasen gegenüber den absoluten Phasen bietet Vorteile dahingehend, dass es eine höhere Toleranz für die Positionen der Phasen gibt. Kleinere Fehler beim Aufbau des Projektors, die bewirken können, dass die Phasen der Linien durch die gesamte Schärfentiefe der Kamera verschoben werden, sowie Fehler aufgrund der Projektor- und Kameralinsen erschweren es enorm, eine absolute Phase zu bestimmen. Dies kann bei dem Verfahren der absoluten Phase überwunden werden, indem die Periode vergrößert wird, so dass sie ausreichend groß ist, um den Fehler bei der Bestimmung der Phase zu überwinden.This approach to encoding the relative phases over the absolute phases offers advantages in that there is a higher tolerance for the positions of the phases. Minor errors in the design of the projector, which can cause the phases of the lines to be shifted through the entire depth of field of the camera, as well as errors due to the projector and camera lenses make it extremely difficult to determine an absolute phase. This can be overcome in the absolute phase method by increasing the period so that it is sufficiently large to overcome the error in determining the phase.

Es versteht sich, dass für den Fall eines zweidimensionalen Musters, das ein codiertes Lichtmuster projiziert, die drei nicht-kollinearen Musterelemente auf Grund ihrer Codes erkennbar sind, und da sie in zwei Dimensionen projiziert werden, sind die mindestens drei Musterelemente nicht-kollinear. Für den Fall des periodischen Musters, wie das sich sinusförmig wiederholende Muster, stellt jede sinusförmige Periode mehrere Musterelemente dar. Da es eine Vielzahl von periodischen Mustern in zwei Dimensionen gibt, sind die Musterelemente nicht-kollinear. Im Gegensatz dazu liegen, in dem Fall des Laserlinienscanners, der eine Lichtlinie ausstrahlt, alle Musterelemente auf einer geraden Linie. Obwohl die Linie eine Breite aufweist und der hintere Teil des Querschnitts der Linie eine geringere Lichtleistung haben kann als die Spitze des Signals, werden diese Aspekte der Linie bei der Feststellung von Oberflächenkoordinaten eines Objekts nicht getrennt bewertet und stellen daher keine separaten Musterelemente dar. Obwohl die Linie mehrere Musterelemente enthalten kann, sind diese Musterelemente kollinear.It is understood that for the case of a two-dimensional pattern projecting a coded light pattern, the three non-collinear pattern elements are recognizable by their codes, and since they are projected in two dimensions, the at least three pattern elements are non-collinear. In the case of the periodic pattern, such as the sinusoidal repeating pattern, each sinusoidal period represents several pattern elements. Since there are a plurality of periodic patterns in two Dimensions, the pattern elements are non-collinear. In contrast, in the case of the laser line scanner emitting a light line, all the pattern elements are in a straight line. Although the line has a width and the trailing portion of the cross section of the line may have a lower light output than the peak of the signal, these aspects of the line are not evaluated separately in determining surface coordinates of an object and therefore do not constitute separate pattern elements Line may contain several pattern elements, these pattern elements are collinear.

Ferner können die verschiedenen Mustertechniken wie in den 3031 gezeigt kombiniert werden, um entweder ein binäres (30) uncodiertes Schachbrettmuster 590 oder ein farbiges (31) uncodiertes Schachbrettmuster 592 zu bilden. Bei noch einer weiteren Ausführungsform, die in 32 gezeigt ist, kann eine photometrische Stereotechnik verwendet werden, wobei mehrere Bilder 594 auf dem Objekt 501 aufgenommen werden, wobei die Lichtquelle 596 an mehrere Stellen bewegt wird.Furthermore, the various patterning techniques as in the 30 - 31 be combined to be either a binary ( 30 ) uncoded checkerboard pattern 590 or a colored ( 31 ) uncoded checkerboard pattern 592 to build. In yet another embodiment, which is in 32 can be used, a photometric stereo technique can be used with multiple images 594 on the object 501 be absorbed, the light source 596 is moved to several places.

Nun mit Bezug auf 33 ist eine weitere Ausführungsform eines Systems 700 zur Erfassung von dreidimensionalen Koordinaten eines Objekts 702 gezeigt. Bei dieser Ausführungsform ist die Vorrichtung 704 unabhängig bedienbar, wenn sie von dem Gelenkarm-KMG 100 abgenommen ist. Die Vorrichtung 704 umfasst einen Controller 706 und möglicherweise eine Anzeige 708. Die Anzeige 708 kann in das Gehäuse der Vorrichtung 704 integriert oder eine separate Komponente sein, die an die Vorrichtung 704 gekoppelt wird, wenn sie unabhängig von dem Gelenkarm-KMG 100 verwendet wird. Bei Ausführungsformen, bei denen die Anzeige 708 von der Vorrichtung 704 abnehmbar ist, kann die Anzeige 708 einen (nicht gezeigten) Controller umfassen, der eine zusätzliche Funktionalität bereitstellt, um einen unabhängigen Betrieb der Vorrichtung 704 zu erleichtern. Bei einer Ausführungsform ist der Controller 706 innerhalb der abnehmbaren Anzeige angeordnet.Now referring to 33 is another embodiment of a system 700 for capturing three-dimensional coordinates of an object 702 shown. In this embodiment, the device 704 independently operable when removed from the articulated arm CMM 100 is removed. The device 704 includes a controller 706 and possibly an ad 708 , The ad 708 can in the case of the device 704 integrated or a separate component attached to the device 704 is coupled when independent of the articulated arm CMM 100 is used. In embodiments where the display 708 from the device 704 is removable, the ad can 708 include a controller (not shown) that provides additional functionality to enable independent operation of the device 704 to facilitate. In one embodiment, the controller is 706 arranged inside the detachable display.

Der Controller 706 umfasst eine Kommunikationsschaltung, die dafür gestaltet ist, Daten, wie Bilder oder Koordinatendaten, über eine Kommunikationsverbindung 712 drahtlos an das Gelenkarm-KMG 100, an eine separate Recheneinheit 710 oder eine Kombination von beiden zu übertragen. Die Rechenvorrichtung 710 kann unter anderem zum Beispiel ein Computer, ein Laptop, ein Tablet-Computer, ein Personal Digital Assistant (PDA) oder ein Mobiltelefon sein. Die Anzeige 708 kann es dem Bediener ermöglichen, die erfassten Bilder oder die Punkt-Cloud von erfassten Koordinaten des Objekts 702 zu sehen. Bei einer Ausführungsform decodiert der Controller 706 die Muster in dem erfassten Bild, um die dreidimensionalen Koordinaten des Objekts zu bestimmen. Bei einer anderen Ausführungsform werden die Bilder von der Vorrichtung 704 erfasst und entweder an das Gelenkarm-KMG 100, die Rechenvorrichtung 710 oder eine Kombination von beiden übertragen.The controller 706 includes a communication circuit configured to receive data, such as images or coordinate data, over a communication link 712 wirelessly to the articulated arm CMM 100 , to a separate arithmetic unit 710 or to transmit a combination of both. The computing device 710 This can be, for example, a computer, a laptop, a tablet computer, a personal digital assistant (PDA) or a mobile phone. The ad 708 may allow the operator to capture the captured images or the point cloud of captured coordinates of the object 702 to see. In one embodiment, the controller decodes 706 the patterns in the captured image to determine the three-dimensional coordinates of the object. In another embodiment, the images are from the device 704 and either to the articulated arm CMM 100 , the computing device 710 or a combination of both.

Die Vorrichtung 704 kann ferner einen Lagevorrichtungsaufbau 714 umfassen. Der Lagevorrichtungsaufbau kann einen oder mehrere Trägheit-Navigationssensor(en), wie einen GPS-Sensor (Global Positioning System), einen gyroskopischen oder Kreiselsensor oder einen Beschleunigungsmess-Sensor umfassen. Solche Sensoren können elektrisch an den Controller 706 angeschlossen sein. Kreisel- und Beschleunigungsmess-Sensoren können Einachsen- oder Mehrachsen-Vorrichtungen sein. Der Lagevorrichtungsaufbau 714 ist dafür ausgestaltet, es dem Controller 706 zu gestatten, die Ausrichtung der Vorrichtung 704 zu messen oder beizubehalten, wenn sie von dem Gelenkarm-KMG 100 abgenommen ist. Ein Gyroskop innerhalb des Lagevorrichtungsaufbaus 714 kann eine gyroskopische MEMS-Vorrichtung, eine Festkörper-Ringlaser-Vorrichtung, eine faseroptische Gyroskopvorrichtung oder eine andere Art sein.The device 704 may further include a jig assembly 714 include. The attitude device assembly may include one or more inertial navigation sensors, such as a Global Positioning System (GPS) sensor, a gyroscopic or gyro sensor, or an accelerometer sensor. Such sensors can be electrically connected to the controller 706 be connected. Gyro and accelerometer sensors can be single axis or multi-axis devices. The layout setup 714 is designed to be the controller 706 to allow the orientation of the device 704 to measure or maintain when moving from the articulated arm CMM 100 is removed. A gyroscope within the jig assembly 714 may be a gyroscopic MEMS device, a solid state ring laser device, a fiber optic gyroscope device, or other type.

Wenn die Vorrichtung 704 von dem Gelenkarm-KMG 100 abgenommen wird, wird ein Verfahren verwendet, um Bilder, die von mehreren Abtastvorgängen erhalten wurden, zu kombinieren. Bei einer Ausführungsform werden die Bilder jeweils durch Verwendung von codierten Mustern erhalten, so dass nur ein einzelnes Bild erforderlich ist, um dreidimensionale Koordinaten zu erhalten, die einer besonderen Position und Ausrichtung der Vorrichtung 704 zugeordnet sind. Eine Möglichkeit, mehrere von der Vorrichtung 704 erfasste Bilder zu kombinieren, besteht darin, zumindest eine gewisse Überlappung zwischen angrenzenden Bildern bereitzustellen, so dass Punkt-Cloud-Merkmale angepasst werden können. Diese Anpassungsfunktion kann durch die Trägheit-Navigationsvorrichtungen, die vorstehend beschrieben wurden, unterstützt werden.When the device 704 from the articulated arm CMM 100 A method is used to combine images obtained from multiple scans. In one embodiment, the images are each obtained by using coded patterns, so that only a single image is required to obtain three-dimensional coordinates corresponding to a particular position and orientation of the device 704 assigned. One way, several from the device 704 Combining captured images is to provide at least some overlap between adjacent images so that point cloud features can be customized. This adaptation function can be assisted by the inertial navigation devices described above.

Ein weiteres Verfahren, das verwendet werden kann, um die genaue Registrierung von Bildern, die von der Vorrichtung 704 aufgenommen werden, zu unterstützen, ist die Verwendung von Bezugsmarkern. Bei einer Ausführungsform sind die Bezugsmarker kleine Marker mit einem haftenden oder klebenden Träger, zum Beispiel kreisförmige Marker, die auf einem zu messenden Objekt oder auf Objekten platziert werden. Es kann sogar eine relativ kleine Zahl solcher Marker bei der Registrierung von mehreren Bildern nützlich sein, insbesondere, wenn das gemessene Objekt eine relativ kleine Zahl von Merkmalen zur Verwendung für die Registrierung aufweist. Bei einer Ausführungsform können die Bezugsmarker als Lichtpunkte auf das zu untersuchende Objekt oder die Objekte projiziert werden. Zum Beispiel kann ein kleiner tragbarer Projektor, der mehrere kleine Punkte ausstrahlen kann, vor dem zu messenden Objekt oder den Objekten platziert werden. Ein Vorteil von projizierten Punkten gegenüber klebrigen Punkten besteht darin, dass die Punkte nicht angebracht und später wieder entfernt werden müssen.Another method that can be used to accurately register images taken by the device 704 to support, is the use of reference markers. In one embodiment, the fiducial markers are small markers with an adhesive or adhesive support, for example, circular markers placed on an object to be measured or on objects. Even a relatively small number of such markers may be useful in registering multiple images, particularly if the measured object has a relatively small number of features to use for registration. In one embodiment, the fiducial markers may be projected as spots of light onto the object or objects to be examined. For example, a small portable projector that can emit several small dots may be in front of the one to be measured Object or objects are placed. An advantage of projected dots over sticky dots is that the dots do not have to be attached and later removed.

Bei einer Ausführungsform projiziert die Vorrichtung das Streifenlicht über einen zusammenhängenden und eingeschlossenen Bereich 716 und kann ein Bild über den Bereich 716 in einem Bereich von 100 mm bis 300 mm mit einer Genauigkeit von 35 Mikrometern erfassen. Bei einer Ausführungsform beträgt der senkrechte Projektionsbereich 716 in etwa 150–200 mm2. Bei der Kamera oder den Kameras 510 kann es sich um eine digitale Kamera mit einem 1,2–5,0-Megapixel-CMOS- oder CCD-Sensor handeln.In one embodiment, the device projects the strip light over a continuous and enclosed area 716 and can take a picture about the area 716 within a range of 100 mm to 300 mm with an accuracy of 35 microns. In one embodiment, the vertical projection area is 716 in about 150-200 mm 2 . At the camera or the cameras 510 It can be a digital camera with a 1.2-5.0 megapixel CMOS or CCD sensor.

Bezugnehmend auf 28 und 29 wird das Verfahren des Decodierens eines codierten Musters beschrieben. Der erste Schritt beim Decodieren eines Bildes des Musters besteht darin, die Schwerpunkte (centers of gravity, cog) 724 (28C) der Merkmale des projizierten Musters 720 in der Y-Richtung zu extrahieren. Dies erfolgt durch Berechnen eines gleitenden Durchschnitts der Pixel-Graustufenwerte und bei der Bewegung in Y-Richtung nach unten durch das Verarbeiten jeweils einer einzelnen Säule. Wenn ein Pixelwert in einem Bild über den gleitenden Durchschnittswert kommt, ist ein Ausgangspunkt für ein Merkmal gefunden. Nachdem ein Ausgangspunkt gefunden wurde, nimmt die Breite des Merkmals weiterhin zu, bis ein Pixelwert unterhalb des gleitenden Durchschnittswertes fällt. Dann wird unter Verwendung der Pixelwerte und ihrer Y-Positionen zwischen dem Ausgangspunkt und dem Endpunkt ein gewichteter Durchschnitt berechnet, um den cog 724 des Mustermerkmals 723 in dem Bild zu ergeben. Die Abstände zwischen dem Ausgangs- und dem Endpunkt werden auch zur späteren Verwendung aufgezeichnet.Referring to 28 and 29 the method of decoding a coded pattern will be described. The first step in decoding an image of the pattern is to set the centers of gravity (cog) 724 ( 28C ) of the features of the projected pattern 720 to extract in the Y direction. This is done by calculating a moving average of the pixel grayscale values and moving down in the Y direction by processing each one column. When a pixel value in an image is above the moving average, a starting point for a feature is found. After a starting point is found, the width of the feature continues to increase until a pixel value falls below the moving average. Then, using the pixel values and their Y-positions between the starting point and the end point, a weighted average is calculated to calculate the cog 724 of the pattern feature 723 to surrender in the picture. The distances between the starting and ending points are also recorded for later use.

Die resultierenden cogs 724 werden als nächstes verwendet, um die Musterlinien 722 zu finden. Dies erfolgt durch Bewegen von links nach rechts (gesehen von der in den Figuren gezeigten Richtung), beginnend mit der ersten Säule des Bildes. Bei jedem cog 724 in dieser Säule wird die benachbarte Säule unmittelbar rechts nach einem cog 724 abgesucht, der innerhalb eines bestimmten Abstands liegt. Wenn zwei passende cogs 724 gefunden wurden, wurde eine potentielle Linie bestimmt. Während der Prozess über das Bild fortbewegt wir, werden mehr neue Linien bestimmt und andere zuvor bestimmte Linien werden verlängert, wenn zusätzliche cogs 724 innerhalb der Toleranz gefunden werden. Sobald das gesamte Bild verarbeitet worden ist, wird auf die extrahierten Linien ein Filter angewendet, um sicherzustellen, dass nur Linien einer gewünschten Länge, welche der Wellenlänge des Musters entspricht, in den übrigen Schritten verwendet werden. 28C zeigt auch die erkannten Linien, wobei sie alle länger sind als eine einzelne Wellenlänge des Musters. Bei einer Ausführungsform gibt es kein oder ein kleines Delta zwischen den cogs benachbarter Säulen.The resulting cogs 724 will be used next to the pattern lines 722 to find. This is done by moving from left to right (as seen from the direction shown in the figures) starting with the first column of the image. At every cog 724 in this column, the adjacent column immediately to the right after a cog 724 searched within a certain distance. If two matching cogs 724 were found, a potential line was determined. As the process progresses across the image, more new lines are determined and other previously determined lines are lengthened when additional cogs 724 be found within the tolerance. Once the entire image has been processed, a filter is applied to the extracted lines to ensure that only lines of a desired length corresponding to the wavelength of the pattern are used in the remaining steps. 28C also shows the recognized lines, all being longer than a single wavelength of the pattern. In one embodiment, there is no or a small delta between the cogs of adjacent columns.

Der nächste Schritt im Decodierungsprozess besteht darin, die projizierten Mustermerkmale entlang der Linien in der X-Richtung in Form von Blockzentren zu extrahieren. Jedes Muster enthält sowohl breite Blöcke als auch schmale Blöcke. In dem sinusförmigen Muster 720 betrifft dies die Gipfel und Täler der Welle, und in dem rechteckigen Muster 730 betrifft dies die breiten Rechtecke und die schmalen Rechtecke. Dieser Prozess fährt ähnlich wie bei der Extraktion der Merkmale in der Y-Richtung fort, jedoch wird auch der gleitende Durchschnitt unter Verwendung der in der ersten Stufe gefundenen Breiten berechnet, und die Bewegungsrichtung verläuft entlang der Linie. Wie vorstehend beschrieben wurde, werden die Merkmale in dem Bereich extrahiert, in dem Breiten über dem gleitenden Durchschnittswert liegen, aber in diesem Prozess werden Merkmale auch in den Bereichen extrahiert, in denen die Breiten unterhalb des gleitenden Durchschnitts liegen. Die Breiten und die X-Positionen werden verwendet, um einen gewichteten Durchschnitt zu berechnen, um das Zentrum des Blocks 726 in der X-Richtung herauszufinden. Die Y-Positionen der cogs 724 zwischen Kreuzungspunkten von gleitenden Durchschnitten werden auch verwendet, um ein Zentrum für den Block 726 in der Y-Richtung zu berechnen. Dies erfolgt durch Heranziehen des Durchschnitts der Y-Koordinaten der cogs. Der Ausgangs- und Endpunkt jeder Linie werden auch basierend auf den in diesem Schritt extrahierten Merkmalen modifiziert, um sicherzustellen, dass beide Punkte dort liegen, wo der Kreuzungspunkt der gleitenden Durchschnitte auftritt. Bei einer Ausführungsform werden bei den späteren Verarbeitungsschritten nur komplette Blöcke verwendet.The next step in the decoding process is to extract the projected pattern features along the X-direction lines in the form of block centers. Each pattern contains both wide blocks and narrow blocks. In the sinusoidal pattern 720 this concerns the peaks and valleys of the wave, and in the rectangular pattern 730 this concerns the wide rectangles and the narrow rectangles. This process continues similarly to the extraction of the features in the Y direction, however, the moving average is also calculated using the widths found in the first stage, and the moving direction is along the line. As described above, the features are extracted in the area where widths are above the moving average, but in this process, features are also extracted in the areas where the widths are below the moving average. The widths and the X positions are used to calculate a weighted average around the center of the block 726 to find out in the X direction. The Y positions of the cogs 724 between intersections of moving averages are also used to form a center for the block 726 in the Y direction. This is done by taking the average of the Y coordinates of the cogs. The starting and ending points of each line are also modified based on the features extracted in this step to ensure that both points are where the intersection of the moving averages occurs. In one embodiment, only complete blocks are used in the later processing steps.

Die Linien und Blöcke werden dann weiterverarbeitet, um sicherzustellen, dass der Abstand zwischen den Blockzentren 726 auf jeder Linie innerhalb einer vorbestimmten Toleranz liegt. Dies erfolgt durch Heranziehen des Deltas zwischen den X-Zentrumpositionen zwischen zwei benachbarten Blöcken auf einer Linie und Überprüfung, dass das Delta unterhalb der Toleranz liegt. Falls das Delta oberhalb der Toleranz liegt, wird die Linie in kleinere Linien gebrochen. Falls der Bruch zwischen den letzten beiden Blöcken auf einer Linie erforderlich ist, wird der letzte Block entfernt und keine zusätzliche Linie erzeugt. Falls der Bruch zwischen dem ersten und zweiten oder dem zweiten und dritten Block auf einer Linie erforderlich ist, werden die Blöcke links des Bruchs auch verworfen und keine zusätzliche Linie wird erzeugt. Bei Situationen, in denen der Bruch an einer anderen Stelle entlang der Linie auftritt, wird die Linie in zwei Linien gebrochen und es wird eine neue Linie erzeugt und die passenden Blöcke werden auf diese übertragen. Nach dieser Verarbeitungsstufe erfordern die beiden Muster verschiedene Schritte, um die Decodierung abzuschließen.The lines and blocks are then further processed to ensure that the distance between the block centers 726 on each line lies within a predetermined tolerance. This is done by taking the delta between the X center positions between two adjacent blocks on a line and checking that the delta is below the tolerance. If the delta is above the tolerance, the line is broken into smaller lines. If the break between the last two blocks on a line is required, the last block is removed and no additional line is created. If the break between the first and second or second and third blocks on a line is required, the blocks to the left of the break are also discarded and no additional line is created. In situations where the break occurs elsewhere along the line, the line becomes broken into two lines and a new line is created and the appropriate blocks are transferred to them. After this processing stage, the two patterns require different steps to complete the decoding.

Das sinusförmige Muster 720 kann nun mit einem zusätzlichen Schritt der Verarbeitung unter Verwendung der Blockzentren auf den Linien decodiert werden. Der Modul eines jeden Block-X-Zentrums und die Wellenlänge des Musters 720 auf einer Linie 722 werden berechnet und der Durchschnitt dieser Werte ergibt die Phase der Linie 722. Die Phase der Linie 722 kann dann verwendet werden, um die Linie in dem Muster 720 zu decodieren, was wiederum die Bestimmung einer X, Y, Z-Koordinatenposition für alle cogs 724 auf dieser Linie 722 gestattet.The sinusoidal pattern 720 can now be decoded with an additional step of processing using the block centers on the lines. The modulus of each block X center and the wavelength of the pattern 720 on a line 722 are calculated and the average of these values gives the phase of the line 722 , The phase of the line 722 can then be used to draw the line in the pattern 720 decoding, which in turn determines an X, Y, Z coordinate position for all cogs 724 on this line 722 allowed.

Bevor das quadratische Muster 730 decodiert wird, werden zunächst Linien 732 vertikal verbunden, bevor irgendeine Decodierung stattfinden kann. Dies ermöglicht die Identifizierung einer Gruppe von Linien und nicht nur einer einzelnen Linie, wie das sinusförmige Muster. Es werden unter Verwendung der Blöcke 734 und der cogs, die in dem in der ersten Verarbeitungsstufe berechneten Block enthalten sind, Verbindungen 736 zwischen Linien 732 gefunden. Der erste cog in jedem Block auf einer Linie 732 wird geprüft, um herauszufinden, ob es einen anderen cog unmittelbar unterhalb von diesem in derselben Säule gibt. Wenn kein cog unterhalb vorliegt, gibt es keine Verbindung mit einer anderen Linie an diesem Punkt, somit wird die Verarbeitung fortgesetzt. Wenn ein cog unterhalb vorliegt, wird der Y-Abstand zwischen den beiden cogs bestimmt und mit einem gewünschten maximalen Abstand zwischen Linien verglichen. Falls der Abstand kleiner als dieser Wert ist, werden die beiden Linien als an diesem Punkt verbunden angesehen, und die Verbindung 736 wird gespeichert und die Verarbeitung fährt mit dem nächsten Block fort. Bei einer Ausführungsform ist eine Linienverbindung 736 einzigartig, so dass keine zwei Linien mehr als eine Verbindung 736 zwischen sich aufweisen.Before the square pattern 730 decodes are first lines 732 connected vertically before any decoding can take place. This allows the identification of a group of lines, not just a single line, such as the sinusoidal pattern. It will be using the blocks 734 and the cogs contained in the block calculated in the first processing stage, connections 736 between lines 732 found. The first cog in every block on a line 732 is checked to find out if there is another cog immediately below it in the same column. If there is no cog below, there is no connection to another line at that point, so processing continues. If there is a cog below, the y-distance between the two cogs is determined and compared to a desired maximum distance between lines. If the distance is less than this value, the two lines are considered connected at that point, and the connection 736 is stored and processing continues to the next block. In one embodiment, a line connection is 736 unique, so no two lines more than one connection 736 between them.

Der nächste Schritt der Verarbeitung des rechteckigen Musters 730 besteht in der Phasenberechnung zwischen verbundenen Linien. Jedes Paar von Linien 732 wird zunächst verarbeitet, um die Länge der Überlappung zwischen diesen zu bestimmen. Bei einer Ausführungsform gibt es mindestens eine überlappende Wellenlänge zwischen dem Paar von Linien, um die Berechnung der relativen Phase zu gestatten. Falls die Linien die gewünschte Überlappung aufweisen, wird der cog am Zentrum des Überlappungsbereichs ermittelt. Die Blöcke 738, die den Zentrum-cog und den cog direkt unterhalb enthalten, werden bestimmt, und die relative Phase zwischen den Block-X-Zentren wird für diese Linienverbindung berechnet. Dieser Prozess wird für alle Verbindungen zwischen Linien wiederholt. Bei einer Ausführungsform wird der Prozess nur in der Abwärtsrichtung auf der Y-Achse wiederholt. Der Grund hierfür ist, dass der Code auf Bindungen unterhalb Linien basiert, und nicht umgekehrt oder beides. 29C zeigt die Blöcke 738, die zur Berechnung der relativen Phase für diesen Satz von Linien verwendet werden könnten. Die relativen Phasen in der Ausführungsform aus 29C sind 3,1 und 2, und diese Phasen würden in der letzten Stufe verwendet, um die obere Linie zu decodieren.The next step of processing the rectangular pattern 730 consists in the phase calculation between connected lines. Every pair of lines 732 is first processed to determine the length of the overlap between them. In one embodiment, there is at least one overlapping wavelength between the pair of lines to allow the calculation of the relative phase. If the lines have the desired overlap, the cog is determined at the center of the overlap area. The blocks 738 , which contain the center cog and the cog directly below, are determined, and the relative phase between the block X centers is calculated for this line connection. This process is repeated for all connections between lines. In one embodiment, the process is repeated only in the down direction on the Y axis. The reason for this is that the code is based on bindings below lines, and not vice versa or both. 29C shows the blocks 738 which could be used to calculate the relative phase for this set of lines. The relative phases in the embodiment 29C are 3, 1 and 2, and these phases would be used in the last stage to decode the top line.

Der nächste Schritt bei der Decodierung des rechteckigen Musters 730 besteht in der Ausführung eines Nachschlagens unter Verwendung der in dem vorausgehenden Schritt berechneten relativen Phasen. Jede Linie 732 wird durch Nachverfolgen der Linienverbindungen 736 verarbeitet, bis eine Verbindungstiefe von vier erreicht ist. Diese Tiefe wird verwendet, da dies die Anzahl an Phasen zur Decodierung der Linie ist. Auf jeder Ebene der Verbindung wird unter Verwendung der relativen Phase zwischen den Linien 732 ein Hash bestimmt. Wenn die erforderliche Verbindungstiefe erreicht ist, wird der Hash verwendet, um den Liniencode nachzuschlagen. Wenn der Hash einen gültigen Code ausgibt, wird dieser aufgezeichnet und in einem Abstimmsystem gespeichert. Jede Linie 732 wird auf diese Weise verarbeitet und alle Verbindungen, die die gewünschte Tiefe aufweisen, werden verwendet, um eine Stimme zu generieren, wenn sie eine gültige Phasenkombination sind. Der letzte Schritt besteht dann darin, herauszufinden, welcher Code die meisten Stimmen auf jeder Linie 732 erhalten hat und den Code der Linie 732 diesem Wert zugewiesen hat. Falls es keinen eindeutigen Code gibt, der die meisten Stimmen erhalten hat, wird der Linie kein Code zugewiesen. Die Linien 732 werden identifiziert, sobald ein Code zugewiesen wurde, und die X, Y, Z-Koordinatenposition für alle cogs auf dieser Linie 732 können nun herausgefunden werden.The next step in decoding the rectangular pattern 730 is to perform a lookup using the relative phases calculated in the previous step. Every line 732 is done by tracking the line connections 736 processed until a connection depth of four is reached. This depth is used because this is the number of phases to decode the line. At each level the connection is made using the relative phase between the lines 732 definitely a hash. When the required connection depth is reached, the hash is used to look up the line code. When the hash issues a valid code, it is recorded and stored in a voting system. Every line 732 is processed in this way and all connections that have the desired depth are used to generate a voice if they are a valid phase combination. The final step is to find out which code has the most votes on each line 732 has received and the code of the line 732 assigned to this value. If there is no unique code that has received the most votes, no code is assigned to the line. The lines 732 are identified once a code has been assigned, and the X, Y, Z coordinate position for all cogs on that line 732 can now be found out.

Es ist anzumerken, dass, obwohl die vorstehend angegebenen Beschreibungen zwischen Linienscannern und Bereichsscannern (Streifenlichtscannern) darauf basierend unterscheiden, ob drei oder mehr Musterelemente kollinear sind, darauf hinzuweisen ist, dass die Absicht dieses Kriteriums darin liegt, zwischen Mustern zu unterscheiden, die als Bereiche und als Linien projiziert werden. Folglich sind Muster, die auf lineare Weise projiziert werden und Informationen nur entlang eines einzelnen Weges aufweisen, immer noch Linienmuster, auch wenn das eindimensionale Muster gekrümmt sein kann.It should be noted that although the above descriptions between line scanners and area scanners (strip light scanners) differ based on whether three or more pattern elements are collinear, it should be understood that the intent of this criterion is to distinguish between patterns that are designated as areas and projected as lines. Thus, patterns that are projected in a linear fashion and have information only along a single path are still line patterns, even though the one-dimensional pattern may be curved.

Eine Schwierigkeit, der man manchmal bei der Vornahme von Messungen mit einem Triangulationsscanner, der am Ende eines Gelenkarm-KMGs angebracht ist, begegnet, besteht darin, dass Kanten nicht sehr scharf sind. Mit anderen Worten kann die Kante einen Radius oder eine Abschrägung aufweisen. Solche Kanten können Kanten von Teilen, Löcher in Teilen oder scharfe Aspekte von anderen Merkmalen sein. Probleme mit unscharfen oder nicht genau lokalisierten Kanten können bei Linienscannern oder Bereichsscannern auftauchen. Obwohl die Kanten, die in dem zweidimensionalen(2D-)Bild eines Triangulationsscanners gesehen werden, scharf sein können, kann der genaue Abstand zur Kante weniger sicher sein. Nahe einer Kante kann ein einzelnes Pixel einen Abstand aufweisen, der nicht klar definiert ist. An einem Abschnitt von in das Pixel reflektiertem Licht kann das Licht von einer flachen Oberfläche kommen. An einem anderen Abschnitt des Pixels kann der Abstand derjenige von benachbarten Pixeln auf der Seite oder Unterseite eines Lochs sein, oder es kann im Falle einer Kante eines Teils ein weit entfernter Abstand sein. In den meisten Fällen können auf Grund einer Linsendefokussierung, Linsenabweichungen und einer begrenzten Modulationstransferfunktion (MTF) mehrere Pixel (anstelle eines einzelnen Pixels) einem Merkmal, wie der Kante eines Lochs, entsprechen. In diesem Fall kann, wenn der fragliche Punkt nahe einer Kante liegt, der offensichtliche Abstand zum Pixel nicht auf einen einzelnen Abstand zu einem Punkt auf dem Objekt bestimmt werden. Manchmal wird der Begriff „gemischtes Pixel“ verwendet, um den Fall zu bezeichnen, in dem der zu einem einzelnen Pixel auf dem letzten Bild umschriebene Abstand durch mehrere Abstände auf dem Objekt bestimmt wird. In einem solchen Fall kann der Abstand, wie er durch den Triangulationsscanner für das fragliche Pixel bestimmt wird, ein einfacher Durchschnitt der Abstände über das Ausmaß des Pixels sein. In anderen Fällen kann der Abstand, wie er durch den Triangulationsscanner bestimmt wird, ein völlig anderer Wert sein, wie zum Beispiel, wenn ein „Vieldeutigkeitsbereich“ während eines Phasenverschiebungsverfahrens der Triangulation überschritten wird. In diesem Fall kann der Abstand um einen Betrag fehlerhaft sein, der schwer vorauszusagen ist.One difficulty sometimes encountered when making measurements with a triangulation scanner attached to the end of an articulated arm CMM is that edges are not very sharp. In other words, the edge may have a radius or bevel exhibit. Such edges may be edges of parts, holes in parts, or sharp aspects of other features. Blurred or inaccurately located edges can appear on line scanners or area scanners. Although the edges seen in the two-dimensional (2D) image of a triangulation scanner may be sharp, the exact distance to the edge may be less secure. Near an edge, a single pixel may have a spacing that is not clearly defined. At a portion of light reflected into the pixel, the light may come from a flat surface. At another portion of the pixel, the distance may be that of adjacent pixels on the side or bottom of a hole, or it may be a far distance in the case of an edge of a part. In most cases, due to lens focus, lens aberrations, and a limited modulation transfer function (MTF), multiple pixels (rather than a single pixel) may correspond to a feature, such as the edge of a hole. In this case, if the point in question is near an edge, the apparent distance to the pixel can not be determined to be a single distance to a point on the object. Sometimes the term "blended pixel" is used to denote the case in which the distance circumscribed to a single pixel on the last image is determined by multiple distances on the object. In such a case, the distance as determined by the triangulation scanner for the pixel in question may be a simple average of the distances over the extent of the pixel. In other cases, the distance as determined by the triangulation scanner may be a completely different value, such as when an "ambiguity range" is exceeded during a triangulation phase shift method. In this case, the distance may be erroneous by an amount that is difficult to predict.

Gemäß einer Ausführungsform verwendet eine Lösung dieses Problems die scharfen Kanten, die in einem oder mehreren 2D-Bildern des gemessenen Merkmals auftauchen. In vielen Fällen können solche Kantenmerkmale in 2D-Bildern klar identifiziert werden, zum Beispiel basierend auf strukturellen Schattierungen. Diese scharfen Kanten können in Koordination mit solchen Oberflächenkoordinaten bestimmt werden, die unter Verwendung der Triangulationsverfahren genau bestimmt werden. Durch Schneiden der projizierten Strahlen, die durch das Perspektivitätszentrum der Linse in dem Triangulationsscanner hindurch gehen, mit den 3D-Koordinaten des Abschnitts der Oberfläche, die durch Triangulationsverfahren auf eine relativ hohe Genauigkeit bestimmt werden, können die 3D-Koordinaten der Kantenmerkmale genau bestimmt werden.According to one embodiment, one solution to this problem uses the sharp edges that appear in one or more 2D images of the measured feature. In many cases, such edge features can be clearly identified in 2D images, for example based on structural shading. These sharp edges can be determined in coordination with those surface coordinates that are accurately determined using triangulation techniques. By cutting the projected rays passing through the perspective center of the lens in the triangulation scanner with the 3D coordinates of the portion of the surface determined by triangulation methods to a relatively high accuracy, the 3D coordinates of the edge features can be accurately determined.

Es versteht sich ferner, dass in einem Bild gesehene Kanten niemals absolut scharf sind, und so muss eine imperfekte Kantendiskontinuität (zum Beispiel eine Ausrundung) relativ breit sein, um von einer Kamera klar gesehen zu werden. Eine Position einer imperfekten Kante kann immer noch unter Verwendung von hier besprochenen Verfahren berechnet werden (zum Beispiel Heranziehen eines Schwerpunkts), um einen Kantenwert zu einer Unterpixel-Auflösung zu erhalten. Mit anderen Worten sind die hier angegebenen Verfahren, auch wenn eine Kamera auf einem Unterpixelniveau auf die Breite einer Kante reagiert, immer noch gültig, da es im Allgemeinen eine geringere Unsicherheit einer Position einer Kante aus einem 2D-Bild als aus einem 3D-Bild gibt, was im Vergleich zu 2D-Bildern eine relativ höhere Menge von Datenrauschen bedeutet. In manchen Fällen treffen sich die Oberflächen, um einen im Wesentlichen 90° betragenden Winkel zu bilden. In anderen Fällen können sich die Oberflächen mit einer Zwischenfläche treffen, die einen Winkel von weniger als 90° (z. B. 45°) aufweist, wie zum Beispiel eine Abfasung oder Abschrägung. In anderen Fällen kann eine gebogene Zwischenfläche vorliegen, wie zum Beispiel eine Ausrundung. In noch anderen Fällen kann die Kante „gebrochen“ sein, wie wenn der Schnittpunkt der Oberflächen mit einer Feile oder Raspel bearbeitet wird. Die hier offenbarten Verfahren gelten für Kanten mit diesen Eigenschaften. Bei manchen Ausführungsformen können empirische Daten gesammelt werden, um zu verstehen, wie sich der Kantenkontrast in dem erfassten Bild unter vorgeschriebenen Beleuchtungsbedingungen ändert.It will further be understood that edges seen in an image are never absolutely sharp, and so an imperfect edge discontinuity (for example, a fillet) must be relatively wide to be clearly seen by a camera. A position of an imperfect edge can still be computed using methods discussed herein (eg, taking a centroid) to obtain an edge value to a sub-pixel resolution. In other words, even though a camera responds to the width of an edge at a sub-pixel level, the methods given here are still valid because there is generally less uncertainty of position of an edge from a 2D image than from a 3D image which means a relatively higher amount of data noise compared to 2D images. In some cases, the surfaces meet to form a substantially 90 ° angle. In other instances, the surfaces may meet with an interface having an angle of less than 90 ° (eg, 45 °), such as a chamfer or bevel. In other cases, there may be a curved interface, such as a fillet. In other cases, the edge may be "broken", as when the intersection of the surfaces is machined with a file or rasp. The methods disclosed herein apply to edges having these properties. In some embodiments, empirical data may be collected to understand how the edge contrast in the captured image changes under prescribed lighting conditions.

Mit Bezug auf die 3436 wird ein Beispiel für das vorstehend beschriebene Verfahren genauer für die Ausführungsform mit einem Objekt mit einem Loch beschrieben. Die Kamera 508 des Triangulationsscanners 3400 erfasst das Bild von von dem Projektor 510 auf die Oberfläche eines Objektes und von der Objektoberfläche reflektiertem Licht. Die reflektierten Lichtstrahlen gehen durch das Perspektivitätszentrum 3414 der Kameralinse 3412 hindurch und auf eine lichtempfindliche Matrix 3416 innerhalb der Kamera. Die lichtempfindliche Matrix sendet ein elektrisches Signal an eine elektrische Leiterplatte 3420, die einen Prozessor zur Verarbeitung von digitalen Bilddaten umfasst. Unter Verwendung der hier vorstehend beschriebenen Triangulationsverfahren bestimmt der Prozessor die 3D-Koordinaten für jeden Punkt auf der Objektoberfläche. Es versteht sich, dass das projizierte Licht einen Bereich in einem einzelnen projizierten Bild abdecken kann, oder es kann einen begrenzteren Bereich abdecken, wie einen Streifen oder einen Punkt. Die hier gemachten Bemerkungen gelten für jeden dieser Fälle.With reference to the 34 - 36 For example, an example of the method described above will be described in more detail for the embodiment having an object with a hole. The camera 508 of the triangulation scanner 3400 captures the image from the projector 510 on the surface of an object and light reflected from the object surface. The reflected rays of light pass through the perspective center 3414 the camera lens 3412 through and onto a photosensitive matrix 3416 inside the camera. The photosensitive matrix sends an electrical signal to an electrical circuit board 3420 comprising a processor for processing digital image data. Using the triangulation method described hereinabove, the processor determines the 3D coordinates for each point on the object surface. It is understood that the projected light may cover an area in a single projected image, or it may cover a more limited area, such as a stripe or a dot. The remarks made here apply to each of these cases.

Das Verfahren des Kombinierens des von einer Kamera erfassten 2D-Bilds, wobei die Kamera in manchen Ausführungsformen die Kamera 508, aber in anderen Fällen eine separate Kamera 3410 sein kann, besteht darin, die Lichtstrahlen 3440, 3442 entsprechend den Kanten des Lochs 3432A, 3432B, die von der lichtempfindlichen Matrix 3416 von den entsprechenden Punkten auf der lichtempfindlichen Matrix 3416 erfasst wurden, so zu projizieren, dass diese Strahlen die Kanten der Oberfläche 3430A, 3430B schneiden. Dieser Schnittpunkt bestimmt die 3D-Koordinaten der Kante. The method of combining the 2D image captured by a camera, wherein the camera in some embodiments, the camera 508 but in other cases a separate camera 3410 can be, is the rays of light 3440 . 3442 according to the edges of the hole 3432A . 3432B taken from the photosensitive matrix 3416 from the corresponding points on the photosensitive matrix 3416 were recorded, so projecting that these rays are the edges of the surface 3430A . 3430B to cut. This intersection determines the 3D coordinates of the edge.

Dieses Verfahren kann unter Betrachtung des Beispiels eines Objekts 3600 mit einem flachen Bereich 3610, in den ein Loch 3620 gebohrt ist, genauer verstanden werden. Es erstreckt sich ein Bereich von der Kante des Lochs 3620 zu einer Umfangsgrenze 3622, in der ein relativ hohes Maß an Unsicherheit liegt, und zwar durch die Wirkungen der gemischten Pixel, wie vorstehend besprochen. Es wird eine Annahme angestellt, basierend auf einer bereits bestehenden Kenntnis des untersuchten Teils, dass die Kante (in diesem Fall eines Lochs) scharf ist und die Oberfläche im Allgemeinen flach ist. Daher können durch Projizieren des 2D-Bilds des Lochs durch das Linsenperspektivitätszentrum auf den flachen Bereich mit Koordinaten, die unter Verwendung von Triangulation bestimmt wurden, die 3D-Koordinaten der scharfen Kanten des Lochs mit einer relativ hohen Genauigkeit bestimmt werden. Auf ähnliche Weise können die 3D-Koordinaten jeder Art von scharfen Kanten bestimmt werden.This method may be considered considering the example of an object 3600 with a flat area 3610 into the hole 3620 is drilled, to be understood more precisely. It extends an area from the edge of the hole 3620 to a perimeter boundary 3622 in which there is a relatively high degree of uncertainty due to the effects of the mixed pixels as discussed above. An assumption is made based on an already known knowledge of the part being inspected that the edge (in this case a hole) is sharp and the surface is generally flat. Therefore, by projecting the 2D image of the hole through the lens perspective center onto the flat area with coordinates determined by using triangulation, the 3D coordinates of the sharp edges of the hole can be determined with a relatively high accuracy. Similarly, the 3D coordinates of any kind of sharp edges can be determined.

Bei einer Ausführungsform ist eine Charakteristik des Unsicherheitsabstands 3424 des Triangulationssystems bereitgestellt. In manchen Fällen basiert der Unsicherheitsabstand zumindest teilweise auf der Menge des Rauschens, das in einem Bereich beobachtet wird, oder einem Maß der „Glätte" von Kanten. In Bereichen mit einem hohen Rauschen oder einer geringen Glätte kann sich der Unsicherheitsabstand erhöhen. Andere Faktoren, wie der Lichtpegel, welcher ein Pegel von Umgebungslicht oder ein Pegel der Beleuchtung von der Vorrichtung 401 sein kann, können auch bei der Bestimmung eines passenden Unsicherheitsabstands 3424 berücksichtigt werden.In one embodiment, a characteristic of the uncertainty gap is 3424 provided by the triangulation system. In some cases, the uncertainty distance is based, at least in part, on the amount of noise that is observed in an area, or a measure of "smoothness" of edges, in areas of high noise or low smoothness, the uncertainty distance may increase. such as the light level, which is a level of ambient light, or a level of illumination from the device 401 can also be used in determining an appropriate uncertainty distance 3424 be taken into account.

Es wird nun ein Verfahren 3700 zur Bestimmung von 3D-Koordinaten eines Kantenpunktes, der sich auf einem Kantenmerkmal befindet, unter Verwendung einer Kombination aus einem Projektor, einer Scannerkamera und einer Kanten erkennenden Kamera mit Bezug auf 37 beschrieben. In einem Schritt 3705 ist ein Gelenkarm-KMG vorgesehen, das einen Projektor, eine Scannerkamera, einen Kanten erkennenden Scanner und einen Prozessor umfasst. Das Gelenkarm-KMG umfasst ferner mechanische Elemente, wie einen Armabschnitt, der drehbar an ein Unterteil gekoppelt ist. Jedes Armsegment umfasst mindestens ein Wegmesssystem, das in den meisten Fällen ein Winkelcodierer ist. Das Wegmesssystem erzeugt ein Positionssignal, welches normalerweise eine Winkelablesung ist. Ein Ende des Armabschnitts ist an dem Unterteil und das andere Ende an einem Sondenende angebracht. Der Projektor, die Scannerkamera und der Kanten erkennende Scanner sind an ein Sondenende gekoppelt. Die Kanten erkennende Kamera kann dieselbe Kamera sein wie die Scannerkamera oder eine andere Kamera als die Scannerkamera. Die Projektorkamera hat ein Projektorperspektivitätszentrum, durch welches Strahlen von einem ersten Lichtmuster auf dem Weg zu einem Objekt hindurch gehen. Das erste Lichtmuster kann Streifenlicht der hier vorstehend beschriebenen Art sein, wobei das erste Muster möglicherweise ein codiertes oder sequentielles Muster ist. Alternativ kann das erste Muster als eine Lichtlinie oder als ein Lichtpunkt projiziert werden. Die Lichtstrahlen können sich aus einem Muster von Licht ergeben, das von einer MEMS-Matrix reflektiert oder von einer individuellen Lichtquelle erzeugt wurde, welche das Licht durch geeignete optische Elemente sendet.It will now be a procedure 3700 for determining 3D coordinates of an edge point located on an edge feature using a combination of a projector, a scanner camera and an edge detecting camera with reference to FIG 37 described. In one step 3705 For example, an articulated arm CMM is provided that includes a projector, a scanner camera, an edge-detecting scanner, and a processor. The articulated arm CMM further includes mechanical elements, such as an arm portion rotatably coupled to a base. Each arm segment comprises at least one displacement measuring system, which in most cases is an angular encoder. The displacement encoder generates a position signal, which is usually an angular reading. One end of the arm portion is attached to the bottom and the other end to a probe end. The projector, the scanner camera and the edge-detecting scanners are coupled to a probe end. The edge-detecting camera may be the same camera as the scanner camera or a camera other than the scanner camera. The projector camera has a projector perspective center through which rays pass from a first light pattern on the way to an object. The first light pattern may be stripe light of the type described hereinabove, the first pattern possibly being a coded or sequential pattern. Alternatively, the first pattern may be projected as a light line or as a light spot. The light beams may result from a pattern of light reflected from a MEMS matrix or generated by an individual light source that transmits the light through suitable optical elements.

In einem Schritt 3710 empfängt eine elektronische Schaltung innerhalb des Gelenkarm-KMGs ein Positionssignal von den Wegmesssystemen in den Armsegmenten und sendet ein erstes elektrisches Signal an den Prozessor. In einem Schritt 3715 strahlt der Projektor ein erstes Lichtmuster auf das Objekt aus. In einem Schritt 3720 empfängt die Scannerkamera das erste von dem Objekt reflektierte Lichtmuster. In Reaktion auf den Empfang des reflektierten Lichts sendet die Scannerkamera ein zweites elektrisches Signal an den Prozessor.In one step 3710 An electronic circuit within the articulated arm CMM receives a position signal from the displacement measurement systems in the arm segments and sends a first electrical signal to the processor. In one step 3715 The projector emits a first light pattern on the object. In one step 3720 The scanner camera receives the first light pattern reflected from the object. In response to receiving the reflected light, the scanner camera sends a second electrical signal to the processor.

In einem Schritt 3725 empfängt die Kanten erkennende Kamera ein zweites von dem Objekt reflektiertes Licht und sendet in Reaktion darauf ein drittes elektrisches Signal an den Prozessor. Ein Teil des zweiten Lichts wird von einem Kantenmerkmal des Objekts reflektiert, wobei der Kantenpunkt ein Punkt auf dem Kantenmerkmal ist. Das zweite Licht kann von mehreren Quellen kommen. Es kann sich um ein Umgebungslicht handeln, welches von Hintergrundlichtquellen in der Umgebung stammt. Das zweite Licht kann beabsichtigt von einem Lichtquellenelement ausgestrahlt werden, welches an das Sondenende gekoppelt ist. Die Lichtquelle kann eine gleichförmige Beleuchtung über die Oberfläche bereitstellen. Das zweite Licht kann zu einer anderen Zeit zum Objekt geschickt werden als das erste LichtmusterIn one step 3725 The edge-detecting camera receives a second light reflected from the object and in response sends a third electrical signal to the processor. A portion of the second light is reflected by an edge feature of the object, the edge point being a point on the edge feature. The second light can come from several sources. It can be an ambient light originating from background light sources in the environment. The second light may be intentionally radiated from a light source element which is coupled to the probe end. The light source can provide uniform illumination over the surface. The second light can be sent to the object at a different time than the first light pattern

In einem Schritt 3730 bestimmt der Prozessor erste 3D-Koordinaten von ersten Punkten auf einer Oberfläche des Objekts. Diese ersten 3D-Punkte basieren zumindest teilweise auf dem ersten Lichtmuster von dem Projektor und dem zweiten elektrischen Signal, welches sich aus dem von der Scannerkamera erfassten Bild ergibt. Unter Verwendung von Triangulationsverfahren werden die 3D-Koordinaten der ersten Punkte auf der Oberfläche in dem lokalen Bezugssystem des Projektors und der Scannerkamera bestimmt. Durch weiteres Einschließen der ersten elektrischen Signale kann die Position der Objektoberfläche in einem Gelenkarm-KMG-Bezugssystem bestimmt werden.In one step 3730 the processor determines first 3D coordinates of first points on a surface of the object. These first 3D points are based, at least in part, on the first pattern of light from the projector and the second electrical signal resulting from the image captured by the scanner camera. Using triangulation techniques, the 3D coordinates of the first points on the surface in the local frame of reference of the projector and the scanner camera are determined. By further including the first electrical signals, the position of the object surface in an articulated arm CMM reference system can be determined.

In einem Schritt 3735 bestimmt der Prozessor weiterhin einen ersten Strahl, wobei der erste Strahl vom Objekt zum Objekt geht. Der erste Strahl ist der Strahl, der von dem Kantenpunkt durch das Perspektivitätszentrum der Kanten erkennenden Kamera geht. Der Prozessor bestimmt den ersten Strahl zumindest teilweise basierend auf dem dritten elektrischen Signal, welches die Kante in dem Bild einer lichtempfindlichen Matrix innerhalb der Kanten erkennenden Kamera erfasst. Außerdem basiert der erste Strahl auf dem ersten elektrischen Signal, welches notwendig ist, um den ersten Strahl innerhalb des Gelenkarm-KMG-Bezugssystems zu bestimmen. Der erste Strahl kann als ein Vektor innerhalb des Gelenkarm-KMG-Bezugssystems dargestellt werden.In one step 3735 the processor further determines a first beam, the first beam passing from the object to the object. The first beam is the beam that passes from the edge point through the perspective center of the edge-detecting camera. The processor determines the first beam based at least in part on the third electrical signal that detects the edge in the image of a photosensitive array within the edge-detecting camera. In addition, the first beam is based on the first electrical signal necessary to determine the first beam within the articulated arm CMM reference frame. The first ray may be represented as a vector within the articulated arm CMM reference frame.

In einem Schritt 3740 bestimmt der Prozessor ferner 3D-Koordinaten des Kantenpunkts zumindest teilweise basierend auf einem Schnittpunkt des ersten Strahls mit den ersten 3D-Koordinaten der ersten Oberfläche. Dies kann durch Bestimmen eines charakteristischen Abstands erfolgen, über den 3D-Daten als weniger genau als gewünscht angesehen werden. Der charakteristische Abstand kann auf einer Regel basieren, die einem gegebenen System zugeordnet ist, oder er kann auf einer Bildqualität basieren – zum Beispiel gezackte Kanten oder Rauschen in 3D-Punkten nahe der Kante. Der allgemeine Ansatz besteht darin, eine glatte Oberfläche (durch 3D-Punkte charakterisiert) mathematisch entlang eines durchgängigen Weges über den charakteristischen Abstand zu projizieren, bis die glatte Oberfläche den ersten Strahl schneidet. In den meisten Fällen ist eine große Anzahl an ersten Strahlen entlang Kantenpunkten auf einem Kantenmerkmal und wird projiziert, um eine Projektion einer glatten Oberfläche zu schneiden, wodurch eine genauere Bestimmung von 3D-Punkten auf dem und nahe des Kantenmerkmals ermöglicht wird. In einem Schritt 3745 werden die 3D-Koordinaten des Kantenpunktes gespeichert.In one step 3740 The processor further determines 3D coordinates of the edge point based at least in part on an intersection of the first beam with the first 3D coordinates of the first surface. This can be done by determining a characteristic distance above which 3D data is considered less accurate than desired. The characteristic distance may be based on a rule associated with a given system, or it may be based on image quality - for example, jagged edges or noise in 3D points near the edge. The general approach is to mathematically project a smooth surface (characterized by 3D points) along a continuous path across the characteristic distance until the smooth surface intersects the first beam. In most cases, a large number of first rays will be along edge points on an edge feature and will be projected to intersect a smooth surface projection, allowing more accurate determination of 3D points on and near the edge feature. In one step 3745 The 3D coordinates of the edge point are saved.

Während die Erfindung anhand beispielhafter Ausführungsformen beschrieben wurde, wird es dem Fachmann klar sein, dass verschiedene Änderungen vorgenommen und Äquivalente durch Elemente von diesen ersetzt werden können, ohne den Rahmen der Erfindung zu verlassen. Außerdem können viele Modifikationen vorgenommen werden, um eine besondere Situation oder ein besonderes Material an die Lehren der Erfindung anzupassen, ohne den wesentlichen Rahmen derselben zu verlassen. Daher ist beabsichtigt, dass die Erfindung nicht auf die besondere Ausgestaltung beschränkt ist, die als der beste zur Ausführung dieser Erfindung in Betracht gezogene Modus offenbart wird, sondern dass die Erfindung alle in den Rahmen der beigefügten Ansprüche fallenden Ausgestaltungen einschließt. Außerdem sagt die Verwendung der Begriffe erste(r/s), zweite(r/s) usw. nichts über die Reihenfolge oder Bedeutung aus, die Begriffe erste(r/s), zweite(r/s) usw. werden vielmehr dazu verwendet, ein Element von einem anderen Element zu unterscheiden. Ferner bedeutet die Verwendung der Begriffe ein, eine, einer usw. keinerlei Begrenzung der Menge, sie bedeutet vielmehr das Vorliegen von mindestens einem des benannten Gegenstands.While the invention has been described by way of exemplary embodiments, it will be apparent to those skilled in the art that various changes may be made and equivalents may be substituted for elements thereof without departing from the scope of the invention. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the invention without departing from the essential scope thereof. Therefore, it is intended that the invention not be limited to the particular embodiment disclosed as the best mode contemplated for carrying out this invention, but that the invention will include all embodiments falling within the scope of the appended claims. Moreover, the use of the terms first (r / s), second (r / s), etc. does not say anything about the order or meaning, the terms first (r / s), second (r / s) etc. are used instead to distinguish one element from another element. Further, the use of the terms a, a, a, etc. does not mean any limitation on the amount, but rather means the presence of at least one of the named subject.

Claims (7)

Tragbares Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG) zum Messen von dreidimensionalen(3D-)Koordinaten eines Objekts im Raum, aufweisend: ein Unterteil; einen manuell positionierbaren Armabschnitt mit einem ersten und einem entgegengesetzten zweiten Ende, wobei der Armabschnitt drehbar an das Unterteil gekoppelt ist, wobei der Armabschnitt eine Vielzahl von verbundenen Armsegmenten umfasst, wobei jedes Armsegment mindestens ein Wegmesssystem zur Erzeugung eines Positionssignals umfasst; einen Prozessor; eine elektronische Schaltung, die das Positionssignal von dem mindestens einen Wegmesssystem in jedem Armsegment empfängt, wobei die elektronische Schaltung dafür ausgelegt ist, in Reaktion auf das Positionssignal ein erstes elektrisches Signal an den Prozessor zu senden; ein an das erste Ende gekoppeltes Sondenende; eine an das Sondenende gekoppelte berührungslose 3D-Messvorrichtung, wobei die berührungslose 3D-Messvorrichtung einen Projektor und eine Scannerkamera aufweist, wobei der Projektor dafür ausgelegt ist, ein erstes Lichtmuster auf das Objekt auszustrahlen, wobei die Scannerkamera so angeordnet ist, dass sie das von dem Objekt reflektierte erste Lichtmuster empfängt und in Reaktion darauf ein zweites elektrisches Signal an den Prozessor sendet; eine Kanten erkennende Kamera, die an das Sondenende gekoppelt ist, wobei die Kanten erkennende Kamera eine von der Scannerkamera oder einer zweiten Kamera ist, die sich von der Scannerkamera unterscheidet, wobei die Kanten erkennende Kamera so positioniert ist, dass sie im Betrieb ein von einem Kantenmerkmal des Objekts reflektiertes zweites Licht empfängt und in Reaktion darauf ein drittes elektrisches Signal an den Prozessor sendet; und wobei der Prozessor dafür ausgelegt ist, erste 3D-Koordinaten von ersten Punkten auf einer Oberfläche des Objekts zumindest teilweise basierend auf dem ersten Lichtmuster von dem Projektor, dem ersten elektrischen Signal und dem zweiten elektrischen Signal zu bestimmen, wobei der Prozessor ferner dafür ausgelegt ist, einen ersten Strahl von der Kanten erkennenden Kamera zum Objekt zu bestimmen, wobei der erste Strahl zumindest teilweise auf dem ersten elektrischen Signal und dem dritten elektrischen Signal basiert, wobei der Prozessor ferner dafür ausgelegt ist, zweite 3D-Koordinaten eines Kantenpunktes des Kantenmerkmals zu bestimmen, wobei die zweiten 3D-Koordinaten zumindest teilweise auf einem Schnittpunkt des ersten Strahls mit den ersten 3D-Koordinaten der Oberfläche basieren.A portable articulated arm CMM for measuring three-dimensional (3D) coordinates of an object in space, comprising: a base; a manually positionable arm portion having first and opposing second ends, the arm portion rotatably coupled to the base, the arm portion including a plurality of connected arm segments, each arm segment including at least one position sensing system for generating a position signal; a processor; an electronic circuit receiving the position signal from the at least one displacement encoder in each arm segment, the electronic circuit configured to send a first electrical signal to the processor in response to the position signal; a probe end coupled to the first end; a non-contact 3D measuring device coupled to the probe end, the non-contact 3D measuring device comprising a projector and a scanner camera, the projector being adapted to emit a first light pattern on the object, the scanner camera being arranged to read the one of the Receives object reflected first light patterns and in response sends a second electrical signal to the processor; an edge-detecting camera coupled to the probe end, wherein the edge-detecting camera is one of the scanner camera or a second camera different from the scanner camera, the edge-detecting camera being positioned so as to be one of one Edge feature of the object receives second reflected light and in response sends a third electrical signal to the processor; and wherein the processor is configured to determine first 3D coordinates of first points on a surface of the object based at least in part on the first pattern of light from the projector, the first electrical signal, and the second electrical signal, the processor further is adapted to determine a first beam from the edge detecting camera to the object, the first beam being based at least in part on the first electrical signal and the third electrical signal, the processor being further adapted to obtain second 3D coordinates of an edge point of the Edge feature to determine, wherein the second 3D coordinates based at least partially on an intersection of the first beam with the first 3D coordinates of the surface. Gelenkarm-KMG nach Anspruch 1, wobei das erste Lichtmuster eine Lichtlinie ist.Articulated arm CMM according to claim 1, wherein the first light pattern is a light line. Gelenkarm-KMG nach Anspruch 1, wobei das erste Lichtmuster ein codiertes strukturiertes Lichtmuster ist.Articulated arm CMM according to claim 1, wherein the first light pattern is a coded structured light pattern. Gelenkarm-KMG nach Anspruch 1, wobei das zweite Licht, das von dem Objekt reflektiert wird, eine Reaktion auf Umgebungslicht ist, das auf das Objekt fällt.The articulated arm CMM of claim 1, wherein the second light reflected from the object is a response to ambient light incident on the object. Gelenkarm-KMG nach Anspruch 1, wobei das zweite Licht, das von dem Objekt reflektiert wird, eine Reaktion auf Licht ist, das von einer Lichtquelle bereitgestellt wird, die an dem Sondenende angebracht ist, wobei das von der Lichtquelle bereitgestellte Licht im Wesentlichen gleichförmig ist.The articulated arm CMM of claim 1, wherein the second light reflected from the object is a response to light provided by a light source attached to the probe end, wherein the light provided by the light source is substantially uniform , Gelenkarm-KMG nach Anspruch 1, wobei der Projektor ein Projektor-Perspektivitätszentrum aufweist und die Scannerkamera ein Scannerkamera-Perspektivitätszentrum aufweist, wobei Lichtstrahlen von dem Projektor durch das Projektor-Perspektivitätszentrum hindurchgehen, Strahlen von einem zweiten Lichtmuster, das von dem Objekt reflektiert wird, durch das Scannerkamera-Perspektivitätszentrum hindurchgehen, wobei ein Grundlinienabstand ein Abstand von dem Projektor-Perspektivitätszentrum zum Scannerkamera-Perspektivitätszentrum ist, wobei die ersten 3D-Koordinaten ferner auf dem Grundlinienabstand basieren.The articulated arm CMM of claim 1, wherein the projector has a projector perspective center, and the scanner camera has a scanner camera perspective center, with light rays from the projector passing through the projector perspective center, beams from a second light pattern reflected from the object the scanner camera perspective center, wherein a baseline distance is a distance from the projector perspective center to the scanner camera perspective center, wherein the first 3D coordinates are further based on baseline spacing. Verfahren zum Messen eines Kantenpunkts mit einem tragbaren Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG), wobei das Verfahren umfasst: Bereitstellen des Gelenkarm-KMGs, wobei das Gelenkarm-KMG aufweist: ein Unterteil, einen manuell positionierbaren Armabschnitt mit einem ersten und einem entgegengesetzten zweiten Ende, wobei der Armabschnitt drehbar an das Unterteil gekoppelt ist, wobei der Armabschnitt eine Vielzahl von verbundenen Armsegmenten umfasst, wobei jedes Armsegment mindestens ein Wegmesssystem zur Erzeugung eines Positionssignals umfasst, einen Prozessor, eine elektronische Schaltung, ein an das erste Ende gekoppeltes Sondenende, eine an das Sondenende gekoppelte berührungslose 3D-Messvorrichtung, wobei die berührungslose 3D-Messvorrichtung einen Projektor und eine Scannerkamera aufweist, wobei das Gelenkarm-KMG ferner eine an das Sondenende gekoppelte Kanten erkennende Kamera aufweist, wobei die Kanten erkennende Kamera eine von der Scannerkamera oder einer zweiten Kamera ist, die sich von der Scannerkamera unterscheidet; Empfangen, durch die elektronische Schaltung, des Positionssignals von dem mindestens einen Wegmesssystem in jedem Armsegment; Senden, von der elektronischen Schaltung, eines ersten elektrischen Signals an den Prozessor in Reaktion auf das Positionssignal; Ausstrahlen von dem Projektor eines ersten Lichtmusters auf das Objekt; Empfangen, mit der Scannerkamera, des ersten von dem Objekt reflektierten Lichtmusters und Senden eines zweiten elektrischen Signals an den Prozessor in Reaktion darauf; Empfangen, mit der Kanten erkennenden Kamera, eines zweiten von einem Kantenmerkmal des Objekts reflektierten Lichts und Senden eines dritten elektrischen Signals an den Prozessor in Reaktion darauf, wobei das Kantenmerkmal einen Kantenpunkt aufweist, wobei der Kantenpunkt ein Punkt auf dem Kantenmerkmal ist; Bestimmen, mit dem Prozessor, von ersten 3D-Koordinaten von ersten Punkten auf einer Oberfläche des Objekts, wobei die ersten 3D-Koordinaten zumindest teilweise auf dem ersten Lichtmuster von dem Projektor, dem ersten elektrischen Signal und dem zweiten elektrischen Signal basieren; ferner Bestimmen, mit dem Prozessor, eines ersten Strahls von der Kanten erkennenden Kamera zum Objekt, wobei der erste Strahl zumindest teilweise auf dem ersten elektrischen Signal und dem dritten elektrischen Signal basiert; ferner Bestimmen, mit dem Prozessor, von zweiten 3D-Koordinaten des Kantenpunkts zumindest teilweise basierend auf einem Schnittpunkt des ersten Strahls mit den ersten 3D-Koordinaten der Oberfläche; und Speichern der zweiten 3D-Koordinaten des Kantenpunkts.A method of measuring an edge point with a portable articulated arm coordinate measuring machine (articulated arm CMM), the method comprising: Providing the articulated arm CMM, the articulated arm CMM comprising: a base, a manually positionable arm portion having first and opposite second ends, the arm portion rotatably coupled to the base, the arm portion including a plurality of connected arm segments; each arm segment comprises at least one position encoder for generating a position signal, a processor, an electronic circuit, a probe end coupled to the first end, a non-contact 3D measuring device coupled to the probe end, the non-contact 3D measuring device comprising a projector and a scanner camera the articulated arm CMM further comprises a camera detecting edges coupled to the probe end, wherein the edge detecting camera is one of the scanner camera or a second camera different from the scanner camera; Receiving, by the electronic circuit, the position signal from the at least one displacement measuring system in each arm segment; Sending, from the electronic circuit, a first electrical signal to the processor in response to the position signal; Radiating from the projector a first light pattern on the object; Receiving, with the scanner camera, the first light pattern reflected from the object and sending a second electrical signal to the processor in response thereto; Receiving, with the edge detecting camera, a second light reflected from an edge feature of the object and sending a third electrical signal to the processor in response thereto, the edge feature having an edge point, the edge point being a point on the edge feature; Determining, at the processor, first 3D coordinates of first points on a surface of the object, wherein the first 3D coordinates are based, at least in part, on the first pattern of light from the projector, the first electrical signal, and the second electrical signal; further determining, with the processor, a first beam from the edge-detecting camera to the object, the first beam based at least in part on the first electrical signal and the third electrical signal; further determining, with the processor, second 3D coordinates of the edge point based, at least in part, on an intersection of the first beam with the first 3D coordinates of the surface; and Save the second 3D coordinates of the edge point.
DE112015004196.6T 2014-09-15 2015-09-09 GATE CARRIER COORDINATE GAUGE WITH A 2D CAMERA AND METHOD FOR OBTAINING 3D DISPLAYS Ceased DE112015004196T5 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/485,876 US9607239B2 (en) 2010-01-20 2014-09-15 Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US14/485,876 2014-09-15
PCT/US2015/049078 WO2016044014A1 (en) 2014-09-15 2015-09-09 Articulated arm coordinate measurement machine having a 2d camera and method of obtaining 3d representations

Publications (1)

Publication Number Publication Date
DE112015004196T5 true DE112015004196T5 (en) 2017-06-08

Family

ID=54150705

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015004196.6T Ceased DE112015004196T5 (en) 2014-09-15 2015-09-09 GATE CARRIER COORDINATE GAUGE WITH A 2D CAMERA AND METHOD FOR OBTAINING 3D DISPLAYS

Country Status (2)

Country Link
DE (1) DE112015004196T5 (en)
WO (1) WO2016044014A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106595522B (en) 2016-12-15 2018-11-09 东南大学 A kind of error calibration method of optical grating projection three-dimension measuring system
KR102038149B1 (en) * 2017-07-19 2019-10-30 (주) 시스템뱅크 Two Dimensional Image Based Three Dimensional Modelling Control System

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611147A (en) 1993-02-23 1997-03-18 Faro Technologies, Inc. Three dimensional coordinate measuring apparatus
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
US7246030B2 (en) * 2002-02-14 2007-07-17 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
US9482529B2 (en) * 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9686532B2 (en) * 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
JP6080407B2 (en) * 2012-07-03 2017-02-15 キヤノン株式会社 Three-dimensional measuring device and robot device
US20140152769A1 (en) * 2012-12-05 2014-06-05 Paul Atwell Three-dimensional scanner and method of operation

Also Published As

Publication number Publication date
WO2016044014A1 (en) 2016-03-24

Similar Documents

Publication Publication Date Title
DE112013002824T5 (en) Coordinate measuring machines with removable accessories
DE112014003227B4 (en) Three-dimensional measuring device with three-dimensional overview camera
DE112014003278B4 (en) Laser line probe with improved wide dynamic range
US10281259B2 (en) Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
DE112014001459B4 (en) Method for determining three-dimensional coordinates on a surface of an object
DE102015013770B4 (en) System and method for calibrating an image processing system with respect to a probe
DE112016001888T5 (en) Triangulation scanner with two cameras and detachable coupling mechanism
DE102016118562A1 (en) THREE-DIMENSIONAL IMAGE DEVICE CONTAINING A DICHROITIC CAMERA
DE69826753T2 (en) Optical profile sensor
DE102012112322B4 (en) Method for optically scanning and measuring an environment
DE112014005911T5 (en) Three-dimensional coordinate scanner and operating procedures
DE112012005524B4 (en) Method for mechanically transmitting a command to control the operation of a laser tracker
EP2071279B1 (en) Method and device for recording measurements of bodies and contour data of a solid body
DE112014003823T5 (en) Real-time inspection of a triangulation scanner
DE112014001483T5 (en) Three-dimensional coordinate scanner and operating procedures
DE112013002892T5 (en) Coordinate measuring machines with removable accessories
EP3195256B1 (en) Method and apparatus for identifying structural elements of a projected structural pattern in camera images
DE112014001268T5 (en) Compensation of a scanner with structured light, which is tracked in six degrees of freedom
DE102017218505A1 (en) Laser projector with flash alignment
EP1190211A1 (en) Method for optically detecting the shape of objects
DE112012001254T5 (en) Automatic measurement of dimension data with a laser tracker
DE102009030644B4 (en) Non-contact detection device
DE102019103519B4 (en) Device for determining dimensional and / or geometric properties of a measurement object
DE102015205110B4 (en) Coordinate measuring machine with distance meter for use in the creation of a reference frame
DE102015109612B4 (en) Coordinate measuring machine and method for calibrating the same with a time-of-flight camera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final