DE112015003734T5 - Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität - Google Patents

Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität Download PDF

Info

Publication number
DE112015003734T5
DE112015003734T5 DE112015003734.9T DE112015003734T DE112015003734T5 DE 112015003734 T5 DE112015003734 T5 DE 112015003734T5 DE 112015003734 T DE112015003734 T DE 112015003734T DE 112015003734 T5 DE112015003734 T5 DE 112015003734T5
Authority
DE
Germany
Prior art keywords
camera
light
retroreflector
image
dof
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015003734.9T
Other languages
English (en)
Inventor
Robert E. Bridges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/820,665 external-priority patent/US10021379B2/en
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112015003734T5 publication Critical patent/DE112015003734T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft ein 3D-Koordinatenmesssystem, das eine 6-DOF-Einheit umfasst, die ein Einheitbezugssystem aufweist und eine Struktur, einen Retroreflektor, einen Triangulationsscanner und eine Farbkamera mit erweiterter Realität (AR-Kamera) umfasst. Der Retroreflektor, der Scanner und die AR-Kamera sind an der Struktur befestigt. Der Scanner umfasst eine erste Kamera, die dafür konfiguriert ist, ein erstes Bild des durch einen Projektor auf das Objekt projizierten Lichtmusters zu bilden. Die erste Kamera und der Projektor sind dafür konfiguriert, derart zusammenzuwirken, dass sie erste 3D-Koordinaten eines Punkts auf dem Objekt im Einheitbezugssystem ermitteln, wobei die Ermittlung zumindest teilweise auf dem projizierten Lichtmuster und dem ersten Bild basiert. Das System umfasst auch ein Koordinatenmessgerät, das ein Gerätbezugssystem aufweist und dafür konfiguriert ist, eine Pose des Retroreflektors im Gerätbezugssystem zu messen, wobei die gemessene Pose Messungen von sechs Freiheitsgraden des Retroreflektors umfasst.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung beansprucht den Vorteil der am 11. August 2014 eingereichten vorläufigen US-Patentanmeldung, Aktenzeichen 62/035,587, deren gesamte Offenbarung hierin durch Verweis einbezogen wird. Diese Anmeldung beansprucht auch die Priorität der am 8. Juni 2015 eingereichten US-Patentanmeldung, Aktenzeichen 14/733,130, welche den Vorteil der am 12. Juni 2014 eingereichten vorläufigen US-Patentanmeldung, Aktenzeichen 62/011,151 beansprucht, deren beider gesamte Offenbarung hierin durch Verweis einbezogen werden.
  • Hintergrund
  • Die vorliegende Offenbarung betrifft einen Triangulationsscanner mit sechs Freiheitsgraden (6 DOF; 6 degrees of freedom) und eine integrierte Kamera, die für die Erzielung von erweiterter Realität (AR; augmented reality) konfiguriert ist.
  • Ein Satz von Koordinatenmessgeräten gehört zu einer Klasse von Instrumenten, die die dreidimensionalen (3D) Koordinaten eines Punkts durch Senden eines Laserstrahls zu dem Punkt messen. Der Laserstrahl kann direkt auf den Punkt oder auf ein Retroreflektorziel, das sich in Kontakt mit dem Punkt befindet, auftreffen. In jedem der beiden Fälle ermittelt das Instrument die Koordinaten des Punkts, indem es den Abstand und die zwei Winkel zu dem Ziel misst. Der Abstand wird mit einem Distanzmessgerät wie beispielsweise einem Absolutdistanzmesser oder einem Interferometer gemessen. Die Winkel werden mit einem Winkelmessgerät wie beispielsweise einem Winkelkodierer gemessen. Ein kardanisch aufgehängter Strahllenkungsmechanismus in dem Instrument lenkt den Laserstrahl zu dem interessierenden Punkt.
  • Der Lasertracker ist ein besonderer Typ eines Koordinatenmessgeräts, das das Retroreflektorziel mit einem oder mehreren Laserstrahlen verfolgt, den bzw. die es emittiert. Der Lasertracker ist daher ein Messgerät des „Laufzeit“-Typs. Koordinatenmessgeräte, die nahe mit dem Lasertracker verwandt sind, sind der Laserscanner und die Totalstation. Der Laserscanner sendet schrittweise einen oder mehrere Laserstrahlen zu Punkten auf einer Oberfläche eines Objekts. Er nimmt das von der Oberfläche gestreute Licht auf und ermittelt aus diesem Licht den Abstand und zwei Winkel zu jedem Punkt. Die Totalstation, die am häufigsten bei Vermessungsanwendungen eingesetzt wird, kann zum Messen der Koordinaten von diffus streuenden bzw. retroreflektierenden Zielen verwendet werden. Der Begriff „Lasertracker“ wird nachfolgend in weitem Sinn so benutzt, dass er Laserscanner und Totalstationen umfasst.
  • Normalerweise sendet der Lasertracker einen Laserstrahl zu einem Retroreflektorziel. Ein üblicher Typ eines Retroreflektorziels ist der sphärisch montierte Retroreflektor (SMR; spherically mounted retroreflector), der einen in eine Metallkugel eingebetteten Würfelecken-Retroreflektor umfasst. Der Würfelecken-Retroreflektor umfasst drei zueinander senkrechte Spiegel. Der Scheitelpunkt, der der gemeinsame Schnittpunkt der drei Spiegel ist, befindet sich in der Mitte der Kugel. Wegen dieser Anordnung der Würfelecke in der Kugel bleibt der senkrechte Abstand vom Scheitelpunkt zu einer beliebigen Oberfläche, auf welcher der SMR aufliegt, sogar konstant, während der SMR gedreht wird. Demzufolge kann der Lasertracker die 3D-Koordinaten der Objektoberfläche messen, indem er der Position eines SMR folgt, während dieser über die Oberfläche bewegt wird. Anders ausgedrückt bedeutet dies, dass der Lasertracker lediglich drei Freiheitsgrade (einen Radialabstand und zwei Winkel) messen muss, um die 3D-Koordinaten einer Oberfläche vollständig zu charakterisieren.
  • Ein Lasertrackertyp enthält nur ein Interferometer (IFM) ohne einen Absolutdistanzmesser (ADM). Falls ein Objekt den Weg des von einem dieser Tracker austretenden Laserstrahls blockiert, verliert das IFM seinen Abstandsbezug. Der Bediener muss dann den Retroreflektor zu einer bekannten Stelle nachführen, um die Rückstellung auf einen Referenzabstand durchzuführen, bevor die Messung fortgesetzt wird. Eine Methode zur Umgehung dieser Einschränkung besteht darin, einen ADM in den Tracker einzubringen. Der ADM kann den Abstand in einer Anvisieren-und-Auslösen-Weise messen, die nachfolgend ausführlicher beschrieben wird. Einige Lasertracker enthalten nur einen ADM ohne ein Interferometer. Das an Bridges et al. erteilte US-Patent Nr. 7,352,446 (’446), dessen Inhalt hierin durch Verweis einbezogen wird, beschreibt einen Lasertracker, der nur einen ADM (und kein IFM) aufweist, der zur genauen Abtastung eines sich bewegenden Ziels in der Lage ist. Vor dem Patent ’446 waren Absolutdistanzmesser für das genaue Auffinden der Position eines sich bewegenden Ziels zu langsam.
  • Es kann ein Kardanmechanismus in dem Lasertracker verwendet werden, um einen Laserstrahl von dem Tracker auf den SMR zu richten. Ein Teil des von dem SMR retroreflektierten Lichts tritt in den Lasertracker ein und geht anschließend auf einen Positionsdetektor durch. Ein Steuersystem im Lasertracker kann die Position des Lichts auf dem Positionsdetektor nutzen, um die Drehwinkel der mechanischen Achsen des Lasertrackers derart einzustellen, dass der Laserstrahl auf den SMR zentriert bleibt. Auf diese Weise ist der Tracker in der Lage, einem SMR zu folgen (nachgeführt zu werden), der über die Oberfläche eines interessierenden Objekts bewegt wird.
  • Winkelmessgeräte wie beispielsweise Winkelkodierer werden an den mechanischen Achsen des Trackers befestigt. Die eine Abstandsmessung und die zwei Winkelmessungen, die der Lasertracker durchführt, reichen aus, um die dreidimensionale Position des SMR an einem beliebigen Punkt auf der Oberfläche des gemessenen Objekts vollständig anzugeben.
  • Es wurden mehrere Lasertracker für die Messung von sechs Freiheitsgraden statt der üblichen drei Freiheitsgrade offenbart. Diese sechs Freiheitsgrade umfassen drei Translationsfreiheitsgrade und drei Orientierungsfreiheitsgrade, die nachfolgend ausführlicher beschrieben werden. Beispielhafte Lasertrackersysteme mit sechs Freiheitsgraden (6-DOF-Systeme; six degrees of freedom) werden in dem an Bridges et al. erteilten US-Patent Nr. 7,800,758 (’758), dem an Bridges et al. erteilten US-Patent Nr. 8,525,983 (’983) und dem an Cramer et al. erteilten US-Patent Nr. 8,467,072 (’072), deren Inhalte hierin durch Verweis einbezogen werden, beschrieben.
  • Eine Alternative zu einem Laufzeitmessgerät wie beispielsweise einem Lasertracker ist ein Abtastsystem, das die 3D-Koordinaten einer Objektoberfläche auf Basis von Triangulationsprinzipien ermittelt. Systeme wie beispielsweise Lasertracker, bei denen in einigen Fällen Laufzeitdistanzmesser verwendet werden, sind relativ genauer als Triangulationsscanner, doch berührungsfreie Triangulationsscanner können relativ schneller sein, weil sie typisch zu jedem Zeitpunkt eine Vielzahl von Lichtpunkten auf die Objektoberfläche projizieren.
  • Ein typischer Triangulationsscanner projiziert entweder eine Lichtlinie (z. B. Licht von einer Laserliniensonde) oder ein zweidimensionales (2D) Lichtmuster über einen Bereich (z. B. strukturiertes Licht) auf die Objektoberfläche. Bei einem Triangulationsscanner ist eine Kamera (z. B. eine photosensitive Anordnung mit CCD oder CMOS) in fester mechanischer Beziehung an einen Projektor gekoppelt. Die projizierte Linie bzw. das projizierte Lichtmuster, die bzw. das vom Projektor projiziert wird, wird von der Objektoberfläche reflektiert und durch die Kamera bildlich erfasst. Da die Kamera und der Projektor in fester Beziehung zueinander angeordnet sind, können der Abstand und Winkel zur Objektoberfläche anhand der projizierten Linie oder des projizierten Musters, der aufgenommenen Kamerabilder und eines Basislinienabstands, der den Projektor und die Kamera trennt, nach trigonometrischen Prinzipien ermittelt werden. Triangulationssysteme bieten dahingehend Vorteile, dass sie schnell 3D-Koordinatendaten über große Bereiche erfassen.
  • Bei manchen Systemen nimmt der Triangulationsscanner während des Abtastverfahrens eine Serie von 3D-Bildern auf, die relativ zueinander derart registriert werden können, dass die Position und die Orientierung jedes 3D-Bilds relativ zu den anderen 3D-Bildern bekannt ist. Wenn der Scanner feststehend ist, ist eine solche Bildregistrierung nicht notwendig. Wenn der Triangulationsscanner an einem mechanischen Gerät, das die Position und Orientierung des Triangulationsscanners messen kann, befestigt ist oder in Verbindung damit arbeitet, muss dementsprechend keine solche Bildregistrierung vorgesehen werden. Zu den Beispielen für solche mechanischen Geräte zählen Lasertracker, Gelenkarm-Koordinatenmessgeräte (KMGs) und kartesische KMGs.
  • Wenn der Scanner in der Hand gehalten wird und somit beweglich ist, können andererseits verschiedene Methoden zur Registrierung der Bilder eingesetzt werden. Bei einer üblichen Methode werden in den Bildern vorhandene Merkmale (z. B. Kardinalpunkte) verwendet, um Überlappungsbereiche benachbarter Einzelbilder anzupassen. Diese Methode funktioniert gut, wenn das gemessene Objekt viele Merkmale relativ zum Sichtfeld des Scanners aufweist. Wenn das Objekt jedoch eine relativ flache oder kurvenförmige Oberfläche aufweist, werden die Bilder möglicherweise nicht richtig relativ zueinander registriert.
  • Obwohl bereits existierende Koordinatenmessgeräte für ihre beabsichtigten Zwecke bei der Arbeit mit wie vorstehend beschriebenen Triangulationsscannern geeignet sind, besteht demgemäß nach wie vor Bedarf an einer Verbesserung, und zwar insbesondere an der Verbesserung der Registrierung von Bildern, die von einem Triangulationsscannergerät aufgenommen werden.
  • Die erweiterte Realität (AR; augmented reality) ist eine relativ neue Art der Technik, die aus der virtuellen Realität entstand. Die erweiterte Realität bewirkt, dass tatsächliche reale Informationen oder Daten mit virtuellen Informationen oder Daten vereinigt, über diese eingeblendet oder mit einer Transprojektion auf diese aufgebracht werden. Dies bedeutet, dass die virtuellen Informationen oder Daten die tatsächlichen erfassten, gemessenen, aufgenommenen oder abgebildeten realen, sich auf ein Objekt oder eine Szene bezogenen Informationen oder Daten „erweitern“, vervollständigen oder ergänzen, um dem Benutzer eine verbesserte Ansicht oder Wahrnehmung des realen Objekts oder der realen Szene zur Verfügung zu stellen. Anwendungen mit erweiterter Realität umfassen technische oder industrielle Gebiete wie beispielsweise die Fertigung und Montage und/oder die Reparatur und Wartung von Teilen, Komponenten oder Geräten sowie die Auslegung und Konstruktion von Anlagen, Gebäuden oder Strukturen. Mehrere moderne AR-Anwendungen werden bei http://en.wikipedia.org/wiki/Augmented_reality offenbart.
  • Die realen Informationen oder Daten, die sich auf das Teil, die Komponente oder das Gerät beziehen, können auf verschiedene Weise mittels verschiedener Geräte erhalten werden. Eine Geräteart umfasst ein Koordinatenmessgerät wie zum Beispiel ein KMG oder einen Lasertracker. Es kann auch eine Kamera verwendet werden, um Stand- oder Videobilder des realen Teils, der realen Komponente oder des realen Geräts und/oder eines gewünschten Bereichs selbst oder des Bereichs, der das Teil, die Komponente oder das Gerät umgibt oder diesem bzw. dieser zugeordnet ist, aufzunehmen.
  • Die virtuellen Informationen oder Daten können gespeicherte, künstlich erzeugte Informationen sein, die sich auf das Teil, die Komponente oder das Gerät beziehen. Die gespeicherten virtuellen Informationen oder Daten können sich auf die Auslegung des Teils, der Komponente oder des Geräts beziehen und beispielsweise von einfachem Text oder einfachen Symbolen bis zu relativ komplexeren grafischen 3D-CAD-Entwurfsdaten reichen. Die gespeicherten virtuellen Informationen oder Daten können außer den visuellen Informationen auch hörbare bzw. schallbezogene Informationen oder Daten umfassen. Die gespeicherten virtuellen Informationen oder Daten können sich außerdem auf Informationen wie beispielsweise Text oder Reparatur- oder Wartungsanleitungen für die Teile, Komponenten oder Geräte beziehen oder sie können sich auf visuelle Informationen beziehen, die die Teile, Komponenten oder Geräte abbilden, die beispielsweise beim Entwurf eines Büros oder einer Fertigungsund/oder Reparaturanlage benutzt werden können (z. B. ein Lageplan eines Gebäudes oder einer Anlage).
  • Die kombinierten realen und virtuellen Informationen oder Daten in einem AR-System sind normalerweise digital beschaffen und können in Echtzeit (d. h. während die aktuellen Informationen gemessen oder erfasst werden) einem Benutzer auf einem Anzeigeschirm bereitgestellt werden, der in zahlreichen unterschiedlichen Typen oder Formen vorhanden sein kann, also beispielsweise in Zuordnung mit einem Desktop- oder Laptop-Computermonitor, Tablet, Smartphone oder sogar einer Datenbrille mit zugeordneter Brille, Hüten oder Helmen. Die Audioinformationen können durch einen Lautsprecher bereitgestellt werden.
  • Obwohl bereits einige Innovationen im Bereich der erweiterten Realität zur Verwendung mit verschiedenen Gerätearten entwickelt wurden, besteht Bedarf an neuen Anwendungen erweiterter Realität zusammen mit in der Hand gehaltenen 6-DOF-Triangulationsscannern (z. B. Scannern mit strukturiertem Licht, Laserliniensonden), die mit einem Lasertracker verwendet werden.
  • Zusammenfassung
  • Gemäß einer Ausgestaltung der vorliegenden Erfindung umfasst ein dreidimensionales (3D) Koordinatenmesssystem Folgendes: eine sechs Freiheitsgrade (6 DOF) aufweisende Einheit mit einem Einheitbezugssystem, wobei die Einheit eine Struktur, einen Retroreflektor, einen Triangulationsscanner und eine Kamera mit erweiterter Realität (AR-Kamera) umfasst, wobei der Retroreflektor, der Triangulationsscanner und die AR-Kamera an der Struktur befestigt sind, wobei der Triangulationsscanner eine erste Kamera und einen Projektor umfasst, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster auf ein Objekt zu projizieren, wobei die erste Kamera dafür konfiguriert ist, ein erstes Bild des Lichtmusters auf dem Objekt zu bilden, wobei der Projektor und die erste Kamera dafür konfiguriert sind, derart zusammenzuwirken, dass sie erste 3D-Koordinaten eines Punkts auf dem Objekt im Einheitbezugssystem ermitteln, wobei die Ermittlung zumindest teilweise auf dem projizierten Lichtmuster und dem ersten Bild basiert, wobei die AR-Kamera eine Farbkamera ist, die dafür konfiguriert ist, ein Farbbild im Einheitbezugssystem zu erhalten. Das 3D-Koordinatenmesssystem umfasst auch ein Koordinatenmessgerät mit einem Gerätbezugssystem, wobei das Gerät dafür konfiguriert ist, eine Pose des Retroreflektors im Gerätbezugssystem zu messen, wobei die gemessene Pose Messungen von sechs Freiheitsgraden des Retroreflektors umfasst.
  • Gemäß einer anderen Ausgestaltung der vorliegenden Erfindung umfasst ein dreidimensionales (3D) Messverfahren Folgendes: Senden eines ersten Strahls eines ersten Lichts von einem Koordinatenmessgerät zu einem Retroreflektor in einer sechs Freiheitsgrade (6 DOF) aufweisenden Einheit und als Reaktion Auffangen eines reflektierten ersten Strahls eines reflektierten ersten Lichts, wobei das Koordinatenmessgerät ein Gerätbezugssystem aufweist, wobei die 6-DOF-Einheit ein Einheitbezugssystem aufweist, wobei die 6-DOF-Einheit eine Struktur, den Retroreflektor, einen Triangulationsscanner und eine AR-Kamera umfasst, wobei der Retroreflektor, der Triangulationsscanner und die AR-Kamera an der Struktur befestigt sind, wobei der Triangulationsscanner eine erste Kamera und einen Projektor umfasst, wobei die AR-Kamera eine Farbkamera ist, die dafür konfiguriert ist, ein Farbbild im Einheitbezugssystem zu erhalten. Das Verfahren umfasst auch das Ermitteln einer ersten Pose des Retroreflektors durch das Koordinatenmessgerät basierend zumindest teilweise auf dem reflektierten ersten Strahl, wobei die ermittelte erste Pose aus Messungen der sechs Freiheitsgrade des Retroreflektors im Gerätbezugssystem besteht. Das Verfahren umfasst ferner Folgendes: Projizieren eines ersten Lichtmusters aus dem Projektor auf ein Objekt, Bilden eines ersten Bilds einer Reflexion des ersten Lichtmusters von dem Objekt mit der ersten Kamera und Ermitteln zweiter 3D-Koordinaten eines zweiten Punkts auf dem Objekt im Gerätbezugssystem mit dem einen oder den mehreren Prozessoren basierend zumindest teilweise auf dem zweiten Lichtmuster, dem zweiten Bild und der ermittelten zweiten Pose des Retroreflektors. Das Verfahren umfasst auch das Auffangen eines ersten Farbbilds im Einheitbezugssystem mit der AR-Kamera und das Kombinieren der ersten 3D-Koordinaten und des ersten Farbbilds in einem gemeinsamen Bezugssystem mit dem einen oder den mehreren Prozessoren basierend zumindest teilweise auf der ermittelten ersten Pose des Retroreflektors.
  • Kurze Beschreibung der Zeichnungen
  • Es wird nun auf die Zeichnungen Bezug genommen, wobei beispielhafte Ausgestaltungen dargestellt sind, die nicht als den gesamten Schutzbereich der Offenbarung einschränkend aufzufassen sind, und wobei die Elemente in mehreren Figuren gleich nummeriert sind. Es zeigen:
  • 1: eine perspektivische Darstellung eines Lasertrackersystems mit einem Retroreflektorziel gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 2: eine perspektivische Darstellung eines Lasertrackersystems mit einem 6-DOF-Ziel gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 3: ein Blockdiagramm, das die Elemente der Optik und Elektronik des Lasertrackers gemäß einer Ausgestaltung der vorliegenden Erfindung beschreibt;
  • 4: die 4A und 4B umfasst, zwei Typen von afokalen Strahlaufweitern des Stands der Technik;
  • 5: eine faseroptische Strahleinkopplung des Stands der Technik;
  • 6A–D: schematische Figuren, die vier Typen von Positionsdetektorbaugruppen des Stands der Technik darstellen;
  • 6E und 6F: schematische Figuren, die Positionsdetektorbaugruppen gemäß Ausgestaltungen der vorliegenden Erfindung darstellen;
  • 7: ein Blockdiagramm von elektrischen und elektrooptischen Elementen in einem ADM des Stands der Technik;
  • 8A und 8B: schematische Figuren, die faseroptische Elemente in einem Glasfasernetz des Stands der Technik darstellen;
  • 8C: eine schematische Figur, die faseroptische Elemente in einem Glasfasernetz gemäß einer Ausgestaltung der vorliegenden Erfindung darstellt;
  • 9: eine Explosionsdarstellung eines Lasertrackers des Stands der Technik;
  • 10: eine Querschnittsdarstellung eines Lasertrackers des Stands der Technik;
  • 11: ein Blockdiagramm der Berechnungs- und Kommunikationselemente eines Lasertrackers gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 12A: ein Blockdiagramm von Elementen in einem Lasertracker, bei dem eine einzige Wellenlänge verwendet wird, gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 12B: ein Blockdiagramm von Elementen in einem Lasertracker, bei dem eine einzige Wellenlänge verwendet wird, gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 13: ein Blockdiagramm von Elementen in einem Lasertracker mit 6-DOF-Kapazität gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 14: ein Blockdiagramm von Elementen in einem Lasertracker mit 6-DOF-Kapazität gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 15: ein Blockdiagramm von Elementen in einem Lasertracker mit 6-DOF-Kapazität gemäß einer Ausgestaltung der vorliegenden Erfindung;
  • 15A und 15B: schematische Darstellungen, die die Prinzipien des Betriebs von auf der Triangulation basierenden Abtastmesssystemen veranschaulichen; und
  • 16: ein Ablaufdiagramm, das Schritte in einem Verfahren zum Erhalten einer dreidimensionalen Darstellung einer Oberfläche unter Verwendung einer an einem 6-DOF-Triangulationsscanner befestigten Kamera mit erweiterter Realität gemäß einer Ausgestaltung der vorliegenden Erfindung umfasst.
  • Detaillierte Beschreibung
  • Ein in 1 dargestelltes beispielhaftes Lasertrackersystem 5 umfasst einen Lasertracker 10, ein Retroreflektorziel 26, einen optionalen Zusatzgerätprozessor 50 und einen optionalen Zusatzcomputer 60. Ein beispielhafter kardanisch aufgehängter Strahllenkungsmechanismus 12 des Lasertrackers 10 umfasst einen Zenitschlitten 14, der auf einem Azimutsockel 16 angebracht ist und um eine Azimutachse 20 gedreht wird. Eine Nutzlast 15 ist auf dem Zenitschlitten 14 angebracht und wird um eine Zenitachse 18 gedreht. Die Zenitachse 18 und die Azimutachse 20 schneiden sich orthogonal innerhalb des Trackers 10 an einem Kardanpunkt 22, der normalerweise der Ursprung für Abstandsmessungen ist. Ein Laserstrahl 46 geht fast durch den Kardanpunkt 22 und wird orthogonal zu der Zenitachse 18 gerichtet. Dies bedeutet mit anderen Worten, dass der Laserstrahl 46 in einer Ebene liegt, die ungefähr senkrecht zu der Zenitachse 18 ist und durch die Azimutachse 20 durchgeht. Der austretende Laserstrahl 46 wird durch die Drehung der Nutzlast 15 um die Zenitachse 18 und durch die Drehung des Zenitschlittens 14 um die Azimutachse 20 in die gewünschte Richtung gerichtet. Ein Zenitwinkelkodierer innen im Tracker ist an einer mechanischen Zenitachse befestigt, die auf die Zenitachse 18 ausgerichtet ist. Ein Azimutwinkelkodierer innen im Tracker ist an einer mechanischen Azimutachse befestigt, die auf die Azimutachse 20 ausgerichtet ist. Die Zenitund Azimutwinkelkodierer messen die Zenit- und Azimutdrehwinkel mit relativ hoher Genauigkeit. Der austretende Laserstrahl 46 bewegt sich zu dem Retroreflektorziel 26, das beispielsweise ein wie oben beschriebener sphärisch montierter Retroreflektor (SMR) sein könnte. Durch Messen des Radialabstands zwischen dem Kardanpunkt 22 und dem Retroreflektor 26, des Drehwinkels um die Zenitachse 18 und des Drehwinkels um die Azimutachse 20 wird die Position des Retroreflektors 26 im Kugelkoordinatensystem des Trackers gefunden.
  • Der austretende Laserstrahl 46 kann eine oder mehrere Laserwellenlängen umfassen, wie nachfolgend beschrieben wird. Der Klarheit und Einfachheit halber wird in der folgenden Besprechung ein wie in 1 dargestellter Typ eines Lenkungsmechanismus angenommen. Es sind jedoch andere Arten von Lenkungsmechanismen möglich. Es ist beispielsweise möglich, dass man einen Laserstrahl von einem Spiegel reflektieren lässt, der um die Azimut- und Zenitachse gedreht wird. Die hierin beschriebenen Methoden sind ungeachtet des Typs des Lenkungsmechanismus anwendbar.
  • Auf dem Lasertracker können magnetische Aufnahmen 17 vorgesehen werden, um den Lasertracker in eine „Ausgangsposition“ für unterschiedlich große SMRs – beispielsweise 38,1, 22,2 und 12,7 mm große SMRs (1,5, 7/8 und ½ Zoll) – zurückzustellen. Man kann einen auf dem Tracker befindlichen Retroreflektor 19 benutzen, um den Tracker auf einen Referenzabstand zurückzustellen. Außerdem kann ein auf dem Tracker angeordneter Spiegel, der in der Ansicht von 1 nicht sichtbar ist, in Kombination mit dem auf dem Tracker befindlichen Retroreflektor benutzt werden, um die Durchführung einer Selbstkompensation zu gestatten, die in dem US-Patent Nr. 7,327,446 (’446) beschrieben wird, deren Inhalt hierin durch Verweis einbezogen wird..
  • 2 zeigt ein beispielhaftes Lasertrackersystem 7, das wie das Lasertrackersystem 5 von 1 beschaffen ist, außer dass das Retroreflektorziel 26 durch eine 6-DOF-Sonde 1000 ersetzt ist. In 1 können andere Typen von Retroreflektorzielen verwendet werden. Es wird zum Beispiel manchmal ein Katzenaugen-Retroreflektor verwendet, der ein Retroreflektor aus Glas ist, bei dem Licht auf einen kleinen Lichtpunkt auf einer reflektierenden Rückfläche der Glasstruktur gebündelt wird.
  • 3 ist ein Blockdiagramm, das optische und elektrische Elemente in einer Lasertracker-Ausgestaltung darstellt. Es zeigt die Elemente eines Lasertrackers, die zwei Lichtwellenlängen emittieren: eine erste Wellenlänge für einen ADM und eine zweite Wellenlänge für einen sichtbaren Zeiger und für die Verfolgung. Der sichtbare Zeiger verschafft dem Benutzer die Möglichkeit, die Position des von dem Tracker emittierten Laserstrahlpunkts zu sehen. Die zwei verschiedenen Wellenlängen werden mit einem im freien Raum angeordneten Strahlteiler kombiniert. Ein elektrooptisches System (EO-System) 100 umfasst eine Quelle 110 sichtbaren Lichts, einen Isolator 115, eine optionale erste Fasereinkopplung 170, ein optionales Interferometer (IFM) 120, einen Strahlaufweiter 140, einen ersten Strahlteiler 145, eine Positionsdetektorbaugruppe 150, einen zweiten Strahlteiler 155, einen ADM 160 und eine zweite Fasereinkopplung 170.
  • Die Quelle 110 sichtbaren Lichts kann ein Laser, eine Superlumineszenzdiode oder eine andere Licht emittierende Vorrichtung sein. Der Isolator 115 kann ein Faraday-Isolator, ein Dämpfungsglied oder eine andere Vorrichtung sein, die in der Lage ist, das Licht zu reduzieren, das in die Lichtquelle rückreflektiert wird. Das optionale IFM kann auf unterschiedliche Weise konfiguriert werden. Als spezifisches Beispiel für eine mögliche Implementierung kann das IFM einen Strahlteiler 122, einen Retroreflektor 126, Viertelwellen-Verzögerungsplatten 124, 130 und einen Phasenanalysator 128 umfassen. Die Quelle 110 sichtbaren Lichts kann das Licht in den freien Raum einkoppeln, wobei sich das Licht dann im freien Raum durch den Isolator 115 und das optionale IFM 120 bewegt. Alternativ dazu kann der Isolator 115 durch ein faseroptisches Kabel an die Quelle 110 sichtbaren Lichts gekoppelt werden. In diesem Fall kann das Licht von dem Isolator aus durch die erste faseroptische Einkopplung 170 in den freien Raum eingekoppelt werden, wie hierin nachfolgend unter Bezugnahme auf 5 besprochen wird.
  • Der Strahlaufweiter 140 kann mit einer Vielzahl von Linsenkonfigurationen eingerichtet werden, wobei jedoch zwei normalerweise benutzte Konfigurationen des Stands der Technik in 4A und 4B dargestellt sind. 4A zeigt eine Konfiguration 140A, die auf der Verwendung einer Zerstreuungslinse 141A und einer Sammellinse 142A beruht. Ein auf die Zerstreuungslinse 141A einfallender gebündelter Lichtstrahl 220A tritt aus der Sammellinse 142A als größerer gebündelter Lichtstrahl 230A aus. 4B zeigt eine Konfiguration 140B, die auf der Verwendung von zwei Sammellinsen 141B, 142B beruht. Ein auf eine erste Sammellinse 141B einfallender gebündelter Lichtstrahl 220B tritt aus einer zweiten Sammellinse 142B als größerer gebündelter Lichtstrahl 230B aus. Von dem Licht, das den Strahlaufweiter 140 verlässt, wird ein kleiner Anteil auf dem Weg aus dem Tracker von den Strahlteilern 145, 155 reflektiert und geht verloren. Derjenige Teil des Lichts, der durch den Strahlteiler 155 durchgeht, wird mit dem Licht von dem ADM 160 kombiniert und bildet daher einen zusammengesetzten Lichtstrahl 188, der diesen Lasertracker verlässt und sich zu dem Retroreflektor 90 bewegt.
  • Der ADM 160 umfasst bei einer Ausgestaltung eine Lichtquelle 162, eine ADM-Elektronik 164, ein Fasernetz 166, ein elektrisches Verbindungskabel 165 und verbindende Lichtwellenleiter 168, 169, 184, 186. Die ADM-Elektronik sendet elektrische Modulations- und Vorspannungen zu der Lichtquelle 162, die beispielsweise ein Laser mit verteilter Rückkopplung sein kann, der bei einer Wellenlänge von ungefähr 1550 nm arbeitet. Das Fasernetz 166 kann bei einer Ausgestaltung das dem Stand der Technik entsprechende Glasfasernetz 420A sein, das in 8A dargestellt ist. Bei dieser Ausgestaltung bewegt sich das Licht von der Lichtquelle 162 in 3 über den Lichtwellenleiter 184, der dem Lichtwellenleiter 432 in 8A entspricht.
  • Das Fasernetz von 8A umfasst einen ersten Faserkoppler 430, einen zweiten Faserkoppler 436 und Reflektoren 435, 440 mit geringer Transmission. Das Licht verläuft durch den ersten Faserkoppler 430 und wird in zwei Lichtwege geteilt, wobei der erste Lichtweg durch einen Lichtwellenleiter 433 zu dem zweiten Faserkoppler 436 geht und der zweite Lichtweg durch einen Lichtwellenleiter 422 und einen Faserlängenausgleicher 423 geht. Der Faserlängenausgleicher 423 verbindet mit der Faserlänge 168 in 3, die zu dem Referenzkanal der ADM-Elektronik 164 verläuft. Der Zweck des Faserlängenausgleichers 423 besteht darin, die Länge der Lichtwellenleiter, die von dem Licht in dem Referenzkanal durchquert werden, an die Länge der Lichtwellenleiter, die von dem Licht in dem Messkanal durchquert werden, anzupassen. Die derartige Anpassung der Faserlängen verringert ADM-Fehler, die durch Veränderungen der Umgebungstemperatur verursacht werden. Solche Fehler können entstehen, weil die effektive Lichtweglänge eines Lichtwellenleiters gleich dem durchschnittlichen Brechungsindex des Lichtwellenleiters multipliziert mit der Länge der Faser ist. Da der Brechungsindex der Lichtwellenleiter von der Temperatur der Faser abhängt, führt eine Schwankung der Temperatur der Lichtwellenleiter zu Veränderungen bei den effektiven Lichtweglängen des Messund Referenzkanals. Falls sich die effektive Lichtweglänge des Lichtwellenleiters im Messkanal relativ zu der effektiven Lichtweglänge des Lichtwellenleiters im Referenzkanal ändert, ergibt sich daraus sogar dann eine scheinbare Verschiebung der Position des Retroreflektorziels 90, wenn das Retroreflektorziel 90 feststehend gehalten wird. Zur Umgehung dieses Problems werden zwei Schritte durchgeführt. Erstens wird die Länge der Faser im Referenzkanal so nahe wie möglich an die Länge der Faser im Messkanal angepasst. Zweitens werden die Mess- und Referenzfasern so weit wie möglich nebeneinander geführt, um zu gewährleisten, dass die Lichtwellenleiter in den zwei Kanälen fast den gleichen Temperaturänderungen ausgesetzt sind.
  • Das Licht bewegt sich durch den zweiten faseroptischen Koppler 436 und wird in zwei Lichtwege geteilt, nämlich den ersten Lichtweg zu dem reflexionsarmen Faserendverschluss 440 und den zweiten Lichtweg zu dem Lichtwellenleiter 438, von wo aus das Licht zu dem Lichtwellenleiter 186 in 3 verläuft. Das Licht in dem Lichtwellenleiter 186 bewegt sich zu der zweiten Fasereinkopplung 170.
  • Bei einer Ausgestaltung ist die Fasereinkopplung 170 in der dem Stand der Technik entsprechenden 5 dargestellt. Das Licht von dem Lichtwellenleiter 186 von 3 verläuft zu der Faser 172 in 5. Die Fasereinkopplung 170 umfasst einen Lichtwellenleiter 172, eine Ferrule 174 und eine Linse 176. Der Lichtwellenleiter 172 ist an die Ferrule 174 angeschlossen, die fest an einer Struktur innerhalb des Lasertrackers 10 angebracht ist. Gegebenenfalls kann man das Ende des Lichtwellenleiters in einem Winkel glanzschleifen, um Rückreflexionen zu verringern. Das Licht 250 tritt aus dem Kern der Faser aus, die eine Monomodefaser mit einem Durchmesser zwischen 4 und 12 Mikrometern sein kann, was von der Wellenlänge des verwendeten Lichts und dem jeweiligen Typ des Lichtwellenleiters abhängt. Das Licht 250 divergiert in einem Winkel und wird von der Linse 176 aufgefangen, die es bündelt. Das Verfahren zum Einkoppeln und Auffangen eines optischen Signals durch eine Monomodefaser in einem ADM-System wurde in dem Patent ’758 unter Bezugnahme auf 3 beschrieben.
  • Bezug nehmend auf 3, kann der Strahlteiler 155 ein dichroitischer Strahlteiler sein, der andere Wellenlängen durchlässt, als er reflektiert. Bei einer Ausgestaltung wird das Licht des ADM 160 von dem dichroitischen Strahlteiler 155 reflektiert und mit dem Licht des sichtbaren Lasers 110 kombiniert, welches durch den dichroitischen Strahlteiler 155 durchgelassen wird. Der zusammengesetzte Lichtstrahl 188 bewegt sich als erster Strahl aus dem Lasertracker hinaus zu dem Retroreflektor 90, der einen Teil des Lichts als zweiten Strahl reflektiert. Derjenige Teil des zweiten Strahls, der die Wellenlänge des ADM hat, wird von dem dichroitischen Strahlteiler 155 reflektiert und zu der zweiten Fasereinkopplung 170 zurückgeworfen, die das Licht in den Lichtwellenleiter 186 zurückkoppelt.
  • Der Lichtwellenleiter 186 entspricht bei einer Ausgestaltung dem Lichtwellenleiter 438 in 8A. Das zurückkehrende Licht bewegt sich von dem Lichtwellenleiter 438 durch den zweiten Faserkoppler 436 und wird in zwei Lichtwege geteilt. Ein erster Lichtweg führt zu dem Lichtwellenleiter 424, der bei einer Ausgestaltung dem Lichtwellenleiter 169 entspricht, der zu dem Messkanal der ADM-Elektronik 164 in 3 führt. Ein zweiter Lichtweg führt zu dem Lichtwellenleiter 433 und dann zu dem ersten Faserkoppler 430. Das Licht, das den ersten Faserkoppler 430 verlässt, wird in zwei Lichtwege geteilt, und zwar einen ersten Lichtweg zu dem Lichtwellenleiter 432 und einen zweiten Lichtweg zu dem reflexionsarmen Endverschluss 435. Bei einer Ausgestaltung entspricht der Lichtwellenleiter 432 dem Lichtwellenleiter 184, der zu der Lichtquelle 162 in 3 führt. In den meisten Fällen enthält die Lichtquelle 162 einen eingebauten Faraday-Isolator, der die Lichtmenge, die von dem Lichtwellenleiter 432 aus in die Lichtquelle eintritt, minimiert. Zu viel Licht, das in umgekehrter Richtung in einen Laser geleitet wird, kann den Laser destabilisieren.
  • Das Licht von dem Fasernetz 166 tritt durch die Lichtwellenleiter 168, 169 in die ADM-Elektronik 164 ein. In 7 ist eine Ausgestaltung der ADM-Elektronik des Stands der Technik dargestellt. Der Lichtwellenleiter 168 in 3 entspricht dem Lichtwellenleiter 3232 in 7 und der Lichtwellenleiter 169 in 3 entspricht dem Lichtwellenleiter 3230 in 7. Nun Bezug nehmend auf 7, umfasst die ADM-Elektronik 3300 eine Frequenzreferenz 3302, einen Synthesizer 3304, einen Messdetektor 3306, einen Referenzdetektor 3308, einen Messmischer 3310, einen Referenzmischer 3312, Aufbereitungselektroniken 3314, 3316, 3318, 3320, einen Vorteiler 3324 mit dem Teilungsfaktor N und einen Analog-Digital-Wandler (ADW) 3322. Die Frequenzreferenz, die beispielsweise ein beheizter Quarzoszillator (OCXO; oven-controlled crystal oscillator) sein könnte, sendet eine Referenzfrequenz fREF, die z. B. 10 MHz betragen könnte, zu dem Synthesizer, der zwei elektrische Signale erzeugt: ein Signal mit einer Frequenz fRF und zwei Signale mit der Frequenz fLO. Das Signal fRF geht zu der Lichtquelle 3102, die der Lichtquelle 162 in 3 entspricht. Die zwei Signale mit der Frequenz fLO gehen zu dem Messmischer 3310 und dem Referenzmischer 3312. Das von den Lichtwellenleitern 168, 169 in 3 kommende Licht verläuft in den Fasern 3232 bzw. 3230 in 7 und tritt in den Referenz- bzw. Messkanal ein. Der Referenzdetektor 3308 und der Messdetektor 3306 wandeln die optischen Signale in elektrische Signale um. Diese Signale werden durch die elektrischen Komponenten 3316 bzw. 3314 aufbereitet und zu den Mischern 3312 bzw. 3310 gesendet. Die Mischer erzeugen eine Frequenz fIF, die gleich dem Absolutwert fLO – fRF ist. Das Signal fRF kann eine relativ hohe Frequenz wie beispielsweise 2 GHz haben, während das Signal fIF eine relativ niedrige Frequenz wie beispielsweise 10 kHz aufweisen kann.
  • Die Referenzfrequenz fREF wird zu dem Vorteiler 3324 gesendet, der die Frequenz durch eine ganze Zahl dividiert. Eine Frequenz von 10 MHz würde beispielsweise durch 40 dividiert, so dass man eine Ausgangsfrequenz von 250 kHz erhält. In diesem Beispiel würden die 10-kHz-Signale, die in den ADW 3322 eintreten, bei einer Frequenz von 250 kHz abgetastet, wodurch 25 Abtastungen pro Zyklus erzeugt werden. Die Signale des ADW 3322 werden zu einem Datenprozessor 3400 gesendet, der beispielsweise aus einer oder mehreren digitalen Signalprozessor-Einheiten (DSP-Einheiten) bestehen könnte, die in der ADM-Elektronik 164 von 3 angeordnet sind.
  • Das Verfahren zum Extrahieren eines Abstands beruht auf der Berechnung der Phase der ADW-Signale für den Referenz- und Messkanal. Dieses Verfahren wird ausführlich in dem an Bridges et al. erteilten US-Patent Nr. 7,701,559 (’559) beschrieben, dessen Inhalt hierin durch Verweis einbezogen wird. Die Berechnung umfasst die Gleichungen (1)–(8) des Patents ’559. Wenn der ADM zuerst mit dem Messen eines Retroreflektors beginnt, werden ferner die von dem Synthesizer erzeugten Frequenzen einige Male (beispielsweise dreimal) verändert und die möglichen ADM-Abstände in jedem Fall berechnet. Durch den Vergleich der möglichen ADM-Abstände bei jeder der ausgewählten Frequenzen wird eine Mehrdeutigkeit bei der ADM-Messung beseitigt. Die Gleichungen (1)–(8) des Patents ’559 in Kombination mit den in Bezug auf 5 des Patents ’559 beschriebenen Synchronisationsverfahren und den in dem Patent ’559 beschriebenen Kalman-Filter-Verfahren geben dem ADM die Möglichkeit, ein sich bewegendes Ziel zu messen. Bei anderen Ausgestaltungen können andere Verfahren zum Erhalten von Absolutdistanzmessungen eingesetzt werden, beispielsweise indem man die Pulslaufzeit statt Phasendifferenzen benutzt.
  • Derjenige Teil des zurückkehrenden Lichtstrahls 190, der durch den Strahlteiler 155 durchgeht, kommt an dem Strahlteiler 145 an, der einen Teil des Lichts zu dem Strahlaufweiter 140 und einen anderen Teil des Lichts zu der Positionsdetektorbaugruppe 150 sendet. Man kann das aus dem Lasertracker 10 oder EO-System 100 austretende Licht als ersten Strahl und denjenigen Teil des Lichts, der von dem Retroreflektor 90 oder 26 reflektiert wird, als zweiten Strahl auffassen. Teile des reflektierten Strahls werden zu unterschiedlichen Funktionselementen des EO-Systems 100 gesendet. Beispielsweise kann ein erster Teil zu einem Distanzmesser wie dem ADM 160 in 3 gesendet werden. Ein zweiter Teil kann zu einer Positionsdetektorbaugruppe 150 gesendet werden. In einigen Fällen kann ein dritter Teil zu anderen Funktionseinheiten wie beispielsweise einem optionalen Interferometer 120 gesendet werden. Es ist von Bedeutung, dass verstanden wird, dass – obwohl in dem Beispiel von 3 der erste Teil und der zweite Teil des zweiten Strahls zu dem Distanzmesser und dem Positionsdetektor gesendet werden, nachdem sie von den Strahlteilern 155 bzw. 145 reflektiert wurden – es möglich gewesen wäre, das Licht zu einem Distanzmesser oder Positionsdetektor durchzulassen statt reflektieren zu lassen.
  • In 6A–D sind vier Beispiele von dem Stand der Technik entsprechenden Positionsdetektorbaugruppen 150A150D dargestellt. 6A zeigt die einfachste Implementierung, wobei die Positionsdetektorbaugruppe einen Positionssensor 151 umfasst, der auf einer Leiterplatte 152 angebracht ist, die Energie von einer Elektronikbox 350 erhält und der Elektronikbox Signale zurücksendet, die die Kapazität für die elektronische Verarbeitung an einer beliebigen Stelle innerhalb des Lasertrackers 10, Zusatzgeräts 50 oder externen Computers 60 darstellen können. 6B umfasst einen Lichtfilter 154, der unerwünschte optische Wellenlängen blockiert, damit sie den Positionssensor 151 nicht erreichen. Die unerwünschten optischen Wellenlängen können beispielsweise auch blockiert werden, indem man den Strahlteiler 145 oder die Oberfläche des Positionssensors 151 mit einem entsprechenden Film beschichtet. 6C enthält eine Linse 153, die die Größe des Lichtstrahls reduziert. 6D enthält einen Lichtfilter 154 und eine Linse 153.
  • 6E zeigt eine neue Positionsdetektorbaugruppe, die eine Lichtaufbereitungsvorrichtung 149E umfasst. Die Lichtaufbereitungsvorrichtung enthält eine Linse 153 und kann auch einen optionalen Wellenlängenfilter 154 enthalten. Sie umfasst ferner mindestens einen von einem Diffusor 156 und einem Raumfilter 157. Wie vorstehend erläutert wurde, ist der Würfelecken-Retroreflektor ein beliebter Retroreflektortyp. Ein Typ des Würfelecken-Retroreflektors besteht aus drei Spiegeln, die jeweils im rechten Winkel mit den anderen zwei Spiegeln verbunden sind. Die Schnittlinien, an welchen diese drei Spiegel verbunden sind, können eine endliche Dicke aufweisen, bei welcher Licht nicht vollkommen zu dem Tracker zurückreflektiert wird. Die Linien endlicher Dicke werden gebeugt, während sie sich derart ausbreiten, dass sie nach Erreichen des Positionsdetektors möglicherweise nicht mehr genau die gleichen wie an dem Positionsdetektor zu sein scheinen. Das Muster des gebeugten Lichts weicht jedoch generell von der vollkommenen Symmetrie ab. Demzufolge kann das Licht, das auf den Positionsdetektor 151 auftrifft, beispielsweise Senkungen und Anstiege bei der optischen Energie (Lichtschwerpunkte) in der Nähe der gebeugten Linien haben. Da die Gleichmäßigkeit des vom Retroreflektor kommenden Lichts von Retroreflektor zu Retroreflektor variieren kann und da ferner die Lichtverteilung auf dem Positionsdetektor während des Drehens oder Neigens des Retroreflektors schwanken kann, ist es unter Umständen von Vorteil, wenn man einen Diffusor 156 einbezieht, um die Gleichmäßigkeit des Lichts zu verbessern, das auf den Positionsdetektor 151 auftrifft. Da ein idealer Positionsdetektor auf einen Flächenschwerpunkt ansprechen sollte und ein idealer Diffusor einen Lichtpunkt symmetrisch spreizen sollte, könnte man die Auffassung vertreten, dass keine Wirkung auf die durch den Positionsdetektor angegebene resultierende Position vorliegen sollte. Bei der praktischen Anwendung des Diffusors stellt sich jedoch heraus, dass die Leistung der Positionsdetektorbaugruppe verbessert wird, und zwar wahrscheinlich wegen der Auswirkungen von Nichtlinearitäten (Unvollkommenheiten) bei dem Positionsdetektor 151 und der Linse 153. Würfelecken-Retroreflektoren, die aus Glas bestehen, können ebenfalls ungleichmäßige Lichtpunkte an dem Positionsdetektor 151 erzeugen. Änderungen des Lichtpunkts an einem Positionsdetektor können sich insbesondere von dem Licht abheben, das von den Würfelecken in 6-DOF-Zielen reflektiert wird, wie es klarer aus dem an Brown et al. erteilten US-Patent Nr. 8,740,396 (’396) des gleichen Inhabers und dem vorher genannten, an Cramer et al. erteilten US-Patent Nr. 4,467,072 (’072) des gleichen Inhabers hervorgeht, deren Inhalte hierin durch Verweis einbezogen werden. Der Diffusor 156 ist bei einer Ausgestaltung ein holographischer Diffusor. Ein holographischer Diffusor stellt ein geregeltes, homogenes Licht über einen vorgegebenen Streuwinkel bereit. Bei anderen Ausgestaltungen können andere Diffusortypen wie beispielsweise Diffusoren aus geschliffenem Glas oder „matte“ Diffusoren verwendet werden.
  • Der Zweck des Raumfilters 157 der Positionsdetektorbaugruppe 150E besteht darin, Geisterbilder, die beispielsweise aus unerwünschten Reflexionen von optischen Oberflächen resultieren, daran zu hindern, auf den Positionsdetektor 151 aufzutreffen. Ein Raumfilter umfasst eine Platte 157, die eine Apertur aufweist. Dadurch, dass man den Raumfilter 157 in einem Abstand entfernt von der Linse positioniert, der ungefähr gleich der Brennweite der Linse ist, geht das zurückkehrende Licht 243E durch den Raumfilter, wenn es sich nahe bei seiner schmalsten Stelle – der Strahltaille – befindet. Strahlen, die sich in einem unterschiedlichen Winkel bewegen, beispielsweise infolge einer Reflexion eines optischen Elements, treffen auf den Raumfilter entfernt von der Apertur auf und werden am Erreichen des Positionsdetektors 151 gehindert. In 6E ist ein Beispiel dargestellt, bei dem ein unerwünschtes Geisterbild 244E von einer Oberfläche des Strahlteilers 145 reflektiert wird und zu dem Raumfilter 157 verläuft, wo es blockiert wird. Ohne den Raumfilter wäre das Geisterbild 244E vom Positionsdetektor 151 aufgefangen worden, was dazu geführt hätte, dass die Position des Strahls 243E auf dem Positionsdetektor 151 falsch ermittelt worden wäre. Sogar ein schwaches Geisterbild kann die Position des Flächenschwerpunkts auf dem Positionsdetektor 151 signifikant verändern, wenn das Geisterbild in einem relativ großen Abstand von dem Hauptlichtpunkt entfernt ist.
  • Ein Retroreflektor des hier besprochenen Typs wie beispielsweise ein Würfelecken- oder Katzenaugen-Retroreflektor hat die Eigenschaft, einen in ihn eintretenden Lichtstrahl in eine Richtung zu reflektieren, die parallel zu dem einfallenden Strahl ist. Ferner sind der einfallende und der reflektierte Strahl symmetrisch um den Symmetriepunkt des Retroreflektors herum angeordnet. Bei einem luftoffenen Würfelecken-Retroreflektor ist dessen Symmetriepunkt beispielsweise der Scheitelpunkt der Würfelecke. Bei einem Würfelecken-Retroreflektor aus Glas ist der Symmetriepunkt ebenfalls der Scheitelpunkt, wobei in diesem Fall allerdings die Lichtbeugung an der Glas-Luft-Grenzfläche zu berücksichtigen ist. Bei einem Katzenaugen-Retroreflektor mit dem Brechungsindex 2,0 ist der Symmetriepunkt der Mittelpunkt der Kugel. Bei einem Katzenaugen-Retroreflektor aus zwei Halbkugeln aus Glas, die symmetrisch auf einer gemeinsamen Ebene sitzen, ist der Symmetriepunkt ein Punkt, der auf der Ebene und an dem Kugelmittelpunkt jeder Halbkugel liegt. Die Hauptsache ist die, dass bei dem Typ von Retroreflektoren, der gewöhnlich mit Lasertrackern verwendet wird, das von einem Retroreflektor zu dem Tracker zurückgeworfene Licht zu der – bezogen auf den einfallenden Laserstrahl – anderen Seite des Scheitelpunkts verschoben wird.
  • Dieses Verhalten eines Retroreflektors 90 in 3 ist die Grundlage für die Verfolgung des Retroreflektors durch den Lasertracker. Der Positionssensor hat auf seiner Oberfläche einen idealen Rückverfolgungspunkt. Der ideale Rückverfolgungspunkt ist derjenige Punkt, an welchem ein zu dem Symmetriepunkt eines Retroreflektors (bei einem SMR z. B. dem Scheitelpunkt des Würfelecken-Retroreflektors) gesendeter Laserstrahl zurückkehren wird. Normalerweise befindet sich der Rückverfolgungspunkt nahe dem Mittelpunkt des Positionssensors. Wenn der Laserstrahl zu einer Seite des Retroreflektors gesendet wird, wird er auf der anderen Seite reflektiert und erscheint er versetzt gegenüber dem Rückverfolgungspunkt auf dem Positionssensor. Durch das Registrieren der Position des zurückkehrenden Lichtstrahls auf dem Positionssensor kann das Steuersystem des Lasertrackers 10 veranlassen, dass die Motoren den Lichtstrahl zum Symmetriepunkt des Retroreflektors hin bewegen.
  • Falls der Retroreflektor mit konstanter Geschwindigkeit quer zu dem Tracker bewegt wird, trifft der Lichtstrahl auf den Retroreflektor in einem festen Versetzungsabstand von dessen Symmetriepunkt auf (nachdem die Einschwingvorgänge beendet sind). Der Lasertracker führt eine Korrektur durch, um diesen Versetzungsabstand an dem Retroreflektor basierend auf einem aus den gesteuerten Messungen erhaltenen Skalenfaktor und basierend auf dem Abstand zwischen dem Lichtstrahl auf dem Positionssensor und dem idealen Rückverfolgungspunkt zu berücksichtigen.
  • Wie vorstehend erläutert wurde, führt der Positionsdetektor zwei wichtige Funktionen durch, nämlich die Ermöglichung von Verfolgungs- und Korrekturmessungen zur Berücksichtigung der Bewegung des Retroreflektors. Der Positionssensor in dem Positionsdetektor kann ein beliebiger Typ einer Vorrichtung sein, die zur Messung einer Position in der Lage ist. Der Positionssensor könnte beispielsweise ein positionsempfindlicher Detektor oder eine photosensitive Anordnung sein. Der positionsempfindliche Detektor könnte zum Beispiel ein Lateraleffektdetektor oder ein Quadrantendetektor sein. Die photosensitive Anordnung könnte beispielsweise eine CMOS- oder CCD-Anordnung sein.
  • Bei einer Ausgestaltung geht das zurückkehrende Licht, das nicht vom Strahlteiler 145 reflektiert wird, durch den Strahlaufweiter 140, wodurch es kleiner wird. Bei einer anderen Ausgestaltung sind die Positionen des Positionsdetektors und des Distanzmessers derart umgekehrt, dass das von dem Strahlteiler 145 reflektierte Licht sich zu dem Distanzmesser bewegt und das durch den Strahlteiler durchgelassene Licht zu dem Positionsdetektor verläuft.
  • Das Licht bewegt sich weiter durch das optionale IFM, durch den Isolator und in die Quelle 110 sichtbaren Lichts. In dieser Phase sollte die optische Energie klein genug sein, damit sie nicht die Quelle 110 sichtbaren Lichts destabilisiert.
  • Das von der Quelle 110 sichtbaren Lichts stammende Licht wird bei einer Ausgestaltung durch eine Strahleinkopplung 170 von 5 eingekoppelt. Die Fasereinkopplung kann an den Ausgang der Lichtquelle 110 oder einen faseroptischen Ausgang des Isolators 115 angeschlossen sein.
  • Bei einer Ausgestaltung ist das Fasernetz 166 von 3 das dem Stand der Technik entsprechende Fasernetz 420B von 8B. Hier entsprechen die Lichtwellenleiter 184, 186, 168, 169 von 3 den Lichtwellenleitern 443, 444, 424, 422 von 8B. Das Fasernetz von 8B gleicht dem Fasernetz von 8A, außer dass das Fasernetz von 8B einen einzigen Faserkoppler statt zwei Faserkopplern aufweist. Der Vorteil von 8B gegenüber 8A ist die Einfachheit; allerdings ist bei 8B die Wahrscheinlichkeit größer, dass sich unerwünschte Rückreflexionen von Licht ereignen, die in die Lichtwellenleiter 422 und 424 eintreten.
  • Bei einer Ausgestaltung ist das Fasernetz 166 von 3 das Fasernetz 420C von 8C. Hier entsprechen die Lichtwellenleiter 184, 186, 168, 169 von 3 den Lichtwellenleitern 447, 455, 423, 424 von 8C. Das Fasernetz 420C umfasst einen ersten Faserkoppler 445 und einen zweiten Faserkoppler 451. Der erste Faserkoppler 445 ist ein 2 × 2-Koppler mit zwei Eingangsanschlüssen und zwei Ausgangsanschlüssen. Koppler dieses Typs werden normalerweise hergestellt, indem man zwei Faserkerne in unmittelbarer Nähe zueinander positioniert und die Fasern anschließend zieht, während sie erwärmt werden. Auf diese Weise kann eine evaneszente Kopplung zwischen den Fasern einen gewünschten Anteil des Lichts zu der benachbarten Faser hin abteilen. Der zweite Faserkoppler 451 ist der Typ, der als „Zirkulator“ bezeichnet wird. Er hat drei Anschlüsse, die jeweils in der Lage sind, Licht durchzulassen oder aufzufangen, aber nur in der vorgesehenen Richtung. Das Licht in dem Lichtwellenleiter 448 tritt beispielsweise in den Anschluss 453 ein und wird zum Anschluss 454 transportiert, wie es durch den Pfeil dargestellt ist. Am Anschluss 454 kann das Licht zu dem Lichtwellenleiter 455 durchgelassen werden. In ähnlicher Weise kann das Licht, das sich in dem Anschluss 455 bewegt, in den Anschluss 454 eintreten und sich in der Pfeilrichtung zu dem Anschluss 456 bewegen, wo ein Teil des Lichts zu dem Lichtwellenleiter 424 durchgelassen werden kann. Wenn lediglich drei Anschlüsse benötigt werden, dann wird der Zirkulator 451 möglicherweise weniger durch Verluste bei der optischen Energie als der 2 × 2-Koppler beeinträchtigt. Andererseits kann ein Zirkulator 451 teurer sein als ein 2 × 2-Koppler und einer Polarisationsmodendispersion ausgesetzt sein, die in einigen Situationen problematisch sein kann.
  • 9 und 10 zeigen eine Explosions- bzw. Querschnittsdarstellung eines dem Stand der Technik entsprechenden Lasertrackers 2100, der in 2 und 3 des vorgenannten Patents ’983 abgebildet ist.. Eine Azimutbaugruppe 2110 umfasst ein Stangengehäuse 2112, eine Azimutkodiererbaugruppe 2120, ein unteres und oberes Azimutlager 2114A, 2114B, eine Azimutmotorbaugruppe 2125, eine Azimutschleifringbaugruppe 2130 und Azimutleiterplatten 2135.
  • Der Zweck der Azimutkodiererbaugruppe 2120 besteht darin, den Drehwinkel eines Jochs 2142 in Bezug auf das Stangengehäuse 2112 genau zu messen. Die Azimutkodiererbaugruppe 2120 umfasst eine Kodiererscheibe 2121 und eine Lesekopfbaugruppe 2122. Die Kodiererscheibe 2121 ist an dem Schaft des Jochgehäuses 2142 befestigt und die Lesekopfbaugruppe 2122 ist an der Stangenbaugruppe 2110 befestigt. Die Lesekopfbaugruppe 2122 umfasst eine Leiterplatte, auf welcher einer oder mehrere Leseköpfe angeschlossen sind. Das von den Leseköpfen gesendete Laserlicht wird von feinen Gitterlinien auf der Kodiererscheibe 2121 reflektiert. Das von den Detektoren auf einem bzw. mehreren Kodiererleseköpfen aufgenommene reflektierte Licht wird verarbeitet, um den Winkel der sich drehenden Kodiererscheibe in Bezug auf die festen Leseköpfe zu finden.
  • Die Azimutmotorbaugruppe 2125 umfasst einen Azimutmotorrotor 2126 und einen Azimutmotorstator 2127. Der Azimutmotorrotor umfasst Dauermagneten, die direkt an dem Schaft des Jochgehäuses 2142 befestigt sind. Der Azimutmotorstator 2127 umfasst Feldwicklungen, die ein vorgeschriebenes Magnetfeld erzeugen. Dieses Magnetfeld wirkt mit den Magneten des Azimutmotorrotors 2126 zusammen, um die gewünschte Drehbewegung zu erzeugen. Der Azimutmotorstator 2127 ist an dem Stangenrahmen 2112 befestigt.
  • Die Azimutleiterplatten 2135 repräsentieren eine oder mehrere Leiterplatten, die die elektrischen Funktionen bereitstellen, die von Azimutkomponenten wie beispielsweise dem Kodierer und dem Motor benötigt werden. Die Azimutschleifringbaugruppe 2130 umfasst einen Außenteil 2131 und einen Innenteil 2132. Bei einer Ausgestaltung tritt ein Drahtbündel 2138 aus dem Zusatzgerätprozessor 50 aus. Das Drahtbündel 2138 kann Energie zu dem Tracker führen oder Signale zu dem Tracker hin und von ihm weg leiten. Einige Drähte des Drahtbündels 2138 können zu Verbindern auf Leiterplatten geführt werden. Bei dem in 10 dargestellten Beispiel führen Drähte zu der Azimutleiterplatte 2135, der Kodiererlesekopfbaugruppe 2122 und der Azimutmotorbaugruppe 2125. Andere Drähte führen zu dem Innenteil 2132 der Scheifringbaugruppe 2130. Der Innenteil 2132 ist an der Stangenbaugruppe 2110 befestigt und bleibt demzufolge unbeweglich. Der Außenteil 2131 ist an der Jochbaugruppe 2140 befestigt und dreht sich demzufolge in Bezug auf den Innenteil 2132. Die Schleifringbaugruppe 2130 ist derart ausgelegt, dass sie einen elektrischen Kontakt mit niedriger Impedanz ermöglicht, während der Außenteil 2131 sich in Bezug auf den Innenteil 2132 dreht.
  • Die Zenitbaugruppe 2140 umfasst das Jochgehäuse 2142, eine Zenitkodiererbaugruppe 2150, ein linkes und rechtes Zenitlager 2144A, 2144B, eine Zenitmotorbaugruppe 2155, eine Zenitschleifringbaugruppe 2160 und eine Zenitleiterplatte 2165.
  • Der Zweck der Zenitkodiererbaugruppe 2150 besteht darin, den Drehwinkel eines Nutzlastrahmens 2172 in Bezug auf das Jochgehäuse 2142 genau zu messen. Die Zenitkodiererbaugruppe 2150 umfasst eine Zenitkodiererscheibe 2151 und eine Zenitlesekopfbaugruppe 2152. Die Kodiererscheibe 2151 ist an dem Nutzlastgehäuse 2142 befestigt und die Lesekopfbaugruppe 2152 ist an dem Jochgehäuse 2142 befestigt. Die Zenitlesekopfbaugruppe 2152 umfasst eine Leiterplatte, auf welcher einer oder mehrere Leseköpfe angeschlossen sind. Das von den Leseköpfen gesendete Laserlicht wird von feinen Gitterlinien auf der Kodiererscheibe 2151 reflektiert. Das von den Detektoren auf einem bzw. mehreren Kodiererleseköpfen aufgenommene reflektierte Licht wird verarbeitet, um den Winkel der sich drehenden Kodiererscheibe in Bezug auf die festen Leseköpfe zu finden.
  • Die Zenitmotorbaugruppe 2155 umfasst einen Azimutmotorrotor 2156 und einen Azimutmotorstator 2157. Der Zenitmotorrotor 2156 umfasst Dauermagneten, die direkt an dem Schaft des Nutzlastrahmens 2172 befestigt sind. Der Zenitmotorstator 2157 umfasst Feldwicklungen, die ein vorgeschriebenes Magnetfeld erzeugen. Dieses Magnetfeld wirkt mit den Rotormagneten zusammen, um die gewünschte Drehbewegung zu erzeugen. Der Zenitmotorstator 2157 ist an dem Jochrahmen 2142 befestigt.
  • Die Zenitleiterplatte 2165 repräsentiert eine oder mehrere Leiterplatten, die die elektrischen Funktionen bereitstellen, die von Zenitkomponenten wie beispielsweise dem Kodierer und dem Motor benötigt werden. Die Zenitschleifringbaugruppe 2160 umfasst einen Außenteil 2161 und einen Innenteil 2162. Ein Drahtbündel 2168 tritt aus dem Azimutaußenschleifring 2131 aus und kann Energie oder Signale führen. Einige Drähte des Drahtbündels 2168 können zu Verbindern auf einer Leiterplatte geführt werden. Bei dem in 10 dargestellten Beispiel führen Drähte zu der Zenitleiterplatte 2165, der Zenitmotorbaugruppe 2150 und der Kodiererlesekopfbaugruppe 2152. Andere Drähte führen zu dem Innenteil 2162 der Scheifringbaugruppe 2160. Der Innenteil 2162 ist an dem Jochrahmen 2142 befestigt und dreht sich demzufolge nur in einem Azimutwinkel, jedoch nicht in einem Zenitwinkel. Der Außenteil 2161 ist an dem Nutzlastrahmen 2172 befestigt und dreht sich demzufolge sowohl in einem Zenitwinkel als auch in einem Azimutwinkel. Die Schleifringbaugruppe 2160 ist derart ausgelegt, dass sie einen elektrischen Kontakt mit niedriger Impedanz ermöglicht, während der Außenteil 2161 sich in Bezug auf den Innenteil 2162 dreht. Die Nutzlastbaugruppe 2170 umfasst eine optische Hauptbaugruppe 2180 und eine optische Zusatzbaugruppe 2190.
  • 11 ist ein Blockdiagramm, das ein Dimensionsmesselektronik-Verarbeitungssystem 1500 zeigt, das ein Lasertrackerelektronik-Verarbeitungssystem 1510, Verarbeitungssysteme peripherer Elemente 1582, 1584, 1586, einen Computer 1590 und andere vernetzte Komponenten 1600 umfasst, die hier als Cloud (Wolke) dargestellt sind. Das beispielhafte Lasertrackerelektronik-Verarbeitungssystem 1510 umfasst einen Hauptprozessor 1520, eine Nutzlastfunktionselektronik 1530, eine Azimutkodiererelektronik 1540, eine Zenitkodiererelektronik 1550, eine Anzeige- und Benutzerschnittstellenelektronik (Anzeige- und BS-Elektronik) 1560, eine entfernbare Speicherhardware 1565, eine Radiofrequenzidentifikations-Elektronik (RFID-Elektronik) und eine Antenne 1572. Die Nutzlastfunktionselektronik 1530 umfasst eine Anzahl von Unterfunktionen, zu denen die 6-DOF-Elektronik 1531, die Kameraelektronik 1532, die ADM-Elektronik 1533, die Positionsdetektorelektronik (PSD-Elektronik) 1534 und die Nivellierelektronik 1535 gehören. Die meisten Unterfunktionen verfügen über mindestens eine Prozessoreinheit, die beispielsweise ein digitaler Signalprozessor (DSP) oder eine feldprogrammierbare Anordnung von Logik-Gattern (FPGA; field programmable gate array) sein könnte. Die Elektronikeinheiten 1530, 1540 und 1550 sind wegen ihrer Lage innerhalb des Lasertrackers wie in der Darstellung voneinander getrennt. Die Nutzlastfunktionen 1530 befinden sich bei einer Ausgestaltung in der Nutzlast 2170 von 9 und 10, wohingegen die Azimutkodiererelektronik 1540 in der Azimutbaugruppe 2110 und die Zenitkodiererelektronik 1550 in der Zenitbaugruppe 2140 angeordnet sind.
  • Es sind zahlreiche Typen peripherer Geräte möglich, wobei hier jedoch drei derartige Geräte dargestellt sind: ein Temperatursensor 1582, eine 6-DOF-Sonde 1584 und ein Personal Digital Assistant (PDA) 1586, der beispielsweise ein Smartphone sein könnte. Wie nachfolgend gemäß Ausgestaltungen der vorliegenden Erfindung ausführlicher besprochen wird, ist ein anderer Typ eines peripheren Geräts, der in 11 nicht dargestellt ist, ein Triangulationsscanner, insbesondere ein 6-DOF-Triangulationsscanner, also beispielsweise eine Laserliniensonde (LLP) oder ein Flächenscanner mit strukturiertem Licht. Der Lasertracker kann mit den peripheren Geräten über verschiedene Wege kommunizieren, die Folgendes umfassen: eine drahtlose Kommunikation über die Antenne 1572, ein Sichtsystem wie z. B. eine Kamera sowie Abstands- und Winkelmesswerte des Lasertrackers, die zu einem zusammenwirkenden Ziel wie z. B. der 6-DOF-Sonde 1584 oder dem Triangulationsscanner gesendet werden. Die peripheren Geräte können Prozessoren enthalten. Die 6-DOF-Zusatzteile können im Allgemeinen 6-DOF-Sondensysteme, 6-DOF-Scanner, 6-DOF-Projektoren, 6-DOF-Sensoren und 6-DOF-Anzeigevorrichtungen umfassen. Die Prozessoren in diesen 6-DOF-Geräten können in Verbindung mit Verarbeitungsgeräten in dem Lasertracker sowie einem externen Computer und Verarbeitungsressourcen der Cloud benutzt werden. Wenn der Begriff „Lasertrackerprozessor“ oder „Messgerätprozessor“ gebraucht wird, soll er allgemein eine mögliche Unterstützung durch den externen Computer und die Cloud umfassen.
  • Ein separater Kommunikationsbus verläuft bei einer Ausgestaltung von dem Hauptprozessor 1520 zu jeder der Elektronikeinheiten 1530, 1540, 1550, 1560, 1565 und 1570. Jede Kommunikationsleitung kann beispielsweise drei serielle Leitungen aufweisen, welche die Datenleitung, die Taktleitung und die Rahmenleitung umfassen. Die Rahmenleitung gibt an, ob die Elektronikeinheit auf die Taktleitung achten sollte oder nicht. Falls sie angibt, dass eine Beachtung erfolgen sollte, liest die Elektronikeinheit den aktuellen Wert der Datenleitung bei jedem Taktsignal ab. Das Taktsignal kann beispielsweise einer steigenden Flanke eines Taktimpulses entsprechen. Bei einer Ausgestaltung wird die Information in Form eines Pakets über die Datenleitung übertragen. Bei einer Ausgestaltung umfasst jedes Paket eine Adresse, einen Zahlenwert, eine Datennachricht und eine Prüfsumme. Die Adresse gibt an, wohin die Datennachricht innerhalb der Elektronikeinheit zu leiten ist. Die Stelle kann beispielsweise einer Subroutine des Prozessors in der Elektronikeinheit entsprechen. Der Zahlenwert gibt die Länge der Datennachricht an. Die Datennachricht enthält Daten oder Anweisungen, welche die Elektronikeinheit durchführen muss. Die Prüfsumme ist ein Zahlenwert, der dazu dient, die Möglichkeit zu minimieren, dass Fehler über die Kommunikationsleitung übertragen werden.
  • Der Hauptprozessor 1520 sendet bei einer Ausgestaltung Informationspakete über den Bus 1610 zu der Nutzlastfunktionselektronik 1530, über den Bus 1611 zu der Azimutkodiererelektronik 1540, über den Bus 1612 zu der Zenitkodiererelektronik 1550, über den Bus 1613 zu der Anzeige- und BS-Elektronik 1560, über den Bus 1614 zu der entfernbaren Speicherhardware 1565 und über den Bus 1616 zu der RFID- und Drahtlos-Elektronik 1570.
  • Bei einer Ausgestaltung sendet der Hauptprozessor 1520 auch gleichzeitig einen Synchronisationsimpuls (Synch-Impuls) über den Synchronisationsbus 1630 zu jeder der Elektronikeinheiten. Der Synchronisationsimpuls stellt eine Möglichkeit zur Synchronisation von Werten bereit, die von den Messfunktionen des Lasertrackers erfasst wurden. Beispielsweise zwischenspeichern die Azimutkodiererelektronik 1540 und die Zenitelektronik 1550 ihre Kodiererwerte, sobald der Synchronisationsimpuls empfangen wird. In ähnlicher Weise zwischenspeichert die Nutzlastfunktionselektronik 1530 die Daten, die von der in der Nutzlast enthaltenen Elektronik erfasst wurden. Die 6-DOF-, die ADM- und die Positionsdetektor-Elektronik zwischenspeichern alle beim Senden des Synchronisationsimpulses die Daten. In den meisten Fällen erfassen die Kamera und der Neigungsmesser Daten bei einer langsameren Rate als der Synchronisationsimpulsrate, doch sie können Daten bei Vielfachen der Periodendauer des Synchronisationsimpulses zwischenspeichern.
  • Die Azimutkodiererelektronik 1540 und die Zenitkodiererelektronik 1550 sind beispielsweise typisch durch Schleifringe voneinander und von der Nutzlastelektronik 1530 getrennt. Aus diesem Grund sind die Busleitungen 1610, 1611 und 1612 in 11 als separate Busleitungen abgebildet.
  • Das Lasertrackerelektronik-Verarbeitungssystem 1510 kann mit einem externen Computer 1590 kommunizieren oder es kann die Berechnungs-, Anzeige- und Benutzerschnittstellen-Funktionen im Lasertracker bereitstellen. Der Lasertracker kommuniziert über eine Kommunikationsverbindung 1606, die beispielsweise eine Ethernet-Leitung oder eine drahtlose Verbindung sein könnte, mit dem Computer 1590. Der Lasertracker kann auch über eine Kommunikationsverbindung 1602, die ein oder mehrere elektrische Kabel wie beispielsweise Ethernet-Kabel und eine oder mehrere drahtlose Verbindungen umfassen könnte, mit anderen Elementen 1600, die durch die Cloud repräsentiert sind, kommunizieren. Ein Beispiel für ein Element 1600 ist ein anderes dreidimensionales Prüfgerät – z. B. ein Gelenkarm-Koordinatenmessgerät –, das durch den Lasertracker umgesetzt werden kann. Eine Kommunikationsverbindung 1604 zwischen dem Computer 1590 und den Elementen 1600 kann drahtgebunden (z. B. Ethernet) oder drahtlos sein. Ein Bediener, der an einem Ferncomputer 1590 sitzt, kann über eine Ethernet-Leitung oder drahtlose Leitung, die wiederum über eine Ethernet-Leitung oder drahtlose Leitung an den Hauptprozessor 1520 angeschlossen ist, eine Verbindung zum Internet herstellen, das durch die Cloud 1600 dargestellt ist. Auf diese Weise kann ein Benutzer die Tätigkeit eines entfernten Lasertrackers steuern.
  • Bei Lasertrackern werden heute lediglich eine sichtbare Wellenlänge (normalerweise rot) und eine infrarote Wellenlänge für den ADM benutzt. Die rote Wellenlänge kann durch einen frequenzstabilisierten Helium-Neon-Laser (HeNe-Laser) zur Verfügung gestellt werden, der für die Verwendung in einem Interferometer und außerdem für die Verwendung bei der Bereitstellung eines roten Zeigerstrahls geeignet ist. Alternativ dazu könnte die rote Wellenlänge durch einen Diodenlaser zur Verfügung gestellt werden, der lediglich als Zeigerstrahl dient. Ein Nachteil beim Einsatz von zwei Lichtquellen sind der hinzukommende Raum und die zusätzlichen Kosten, die für die hinzukommenden Lichtquellen, Strahlteiler, Isolatoren und anderen Komponenten erforderlich sind. Ein anderer Nachteil bei der Verwendung von zwei Lichtquellen besteht darin, dass es schwierig ist, die beiden Lichtstrahlen entlang den gesamten Lichtwegen perfekt auszurichten, die die Strahlen zurücklegen. Dies kann zu verschiedenen Problemen führen, da es unter anderem nicht möglich ist, gleichzeitig eine gute Leistung aus verschiedenen Untersystemen zu erzielen, die bei unterschiedlichen Wellenlängen arbeiten. Ein System, bei dem eine einzige Lichtquelle benutzt wird, durch welche diese Nachteile beseitigt werden, ist in dem optoelektronischen System 500 von 12A dargestellt.
  • 12A umfasst eine Quelle 110 sichtbaren Lichts, einen Isolator 115, ein Fasernetz 420, eine ADM-Elektronik 530, eine Fasereinkopplung 170, einen Strahlteiler 145 und einen Positionsdetektor 150. Die Quelle 110 sichtbaren Lichts könnte beispielsweise ein roter oder grüner Diodenlaser oder ein oberflächenemittierender Laser (VCSEL; vertical cavity surface emitting laser) sein. Der Isolator könnte ein Faraday-Isolator, ein Dämpfungsglied oder eine beliebige andere Vorrichtung sein, die in der Lage ist, die Lichtmenge ausreichend zu reduzieren, die in die Lichtquelle zurückgeführt wird. Das von dem Isolator 115 kommende Licht bewegt sich in das Fasernetz 420, das bei einer Ausgestaltung das Fasernetz 420A von 8A ist.
  • 12B zeigt eine Ausgestaltung eines optoelektronischen Systems 400, bei dem eine einzige Lichtwellenlänge verwendet wird, wobei die Modulation aber mittels einer elektrooptischen Modulation des Lichts statt durch direkte Modulation einer Lichtquelle erzielt wird. Das optoelektronische System 400 umfasst eine Quelle 110 sichtbaren Lichts, einen Isolator 115, einen elektrooptischen Modulator 410, eine ADM-Elektronik 475, ein Fasernetz 420, eine Fasereinkopplung 170, einen Strahlteiler 145 und einen Positionsdetektor 150. Die Quelle 110 sichtbaren Lichts kann beispielsweise eine rote oder grüne Laserdiode sein. Das Laserlicht wird durch einen Isolator 115 gesendet, der zum Beispiel ein Faraday-Isolator oder ein Dämpfungsglied sein kann. Der Isolator 115 kann an seinen Ein- und Ausgangsanschlüssen fasergekoppelt sein. Der Isolator 115 sendet das Licht zum elektrooptischen Modulator 410, der das Licht zu einer ausgewählten Frequenz ummoduliert, die gewünschtenfalls bis zu 10 GHz oder höher betragen kann. Ein elektrisches Signal 476 der ADM-Elektronik 475 steuert die Modulation im elektrooptischen Modulator 410 an. Das modulierte Licht des elektrooptischen Modulators 410 bewegt sich zum Fasernetz 420, das das vorstehend besprochene Fasernetz 420A, 420B, 420C oder 420D sein könnte. Ein Teil des Lichts bewegt sich über den Lichtellenleiter 422 zum Referenzkanal der ADM-Elektronik 475. Ein anderer Teil des Lichts bewegt sich aus dem Tracker, wird vom Retroreflektor 90 reflektiert, kehrt zum Tracker zurück und kommt am Strahlteiler 145 an. Ein kleine Menge des Lichts wird vom Strahlteiler reflektiert und bewegt sich zum Positionsdetektor 150, der vorstehend anhand von 6A–F besprochen wurde. Ein Teil der Lichts geht durch den Strahlteiler 145 in die Fasereinkopplung 170, durch das Fasernetz 420 in den Lichtwellenleiter 424 und in den Messkanal der ADM-Elektronik 475. Im Allgemeinen kann das System 500 von 12A kostengünstiger hergestellt werden als das System 400 von 12B; der elektrooptische Modulator 410 ist aber eventuell in der Lage, eine höhere Modulationsfrequenz zu erzielen. die in einigen Situationen von Vorteil sein kann.
  • 13 zeigt eine Ausgestaltung eines Lokalisierungskamerasystems 950 und eines optoelektronischen Systems 900, wobei eine Orientierungskamera 910 mit der optoelektronischen Funktionalität eines 3D-Lasertrackers kombiniert ist, um sechs Freiheitsgrade eines Geräts zu messen. Das optoelektronische System 900 umfasst eine Quelle 905 sichtbaren Lichts, einen Isolator 910, einen optionalen elektrooptischen Modulator 410, eine ADM-Elektronik 715, ein Fasernetz 420, eine Fasereinkopplung 170, einen Strahlteiler 145, einen Positionsdetektor 150, einen Strahlteiler 922 und eine Orientierungskamera 910. Das Licht der Quelle sichtbaren Lichts wird in einen Lichtwellenleiter 980 emittiert und bewegt sich durch den Isolator 910, der Lichtwellenleiter aufweisen kann, die an die Ein- und Ausgangsanschlüsse gekoppelt sind. Das Licht kann sich durch den elektrooptischen Modulator 410 bewegen, der durch ein elektrisches Signal 716 der ADM-Elektronik 715 moduliert wird. Alternativ dazu kann die ADM-Elektronik 715 über ein Kabel 717 ein elektrisches Signal senden, um die Quelle 905 sichtbaren Lichts zu modulieren. Ein Teil des Lichts, das in das Fasernetz eintritt, bewegt sich durch den Faserlängenausgleicher 423 und den Lichtwellenleiter 422 und tritt dann in den Referenzkanal der ADM-Elektronik 715 ein. Gegebenenfalls kann ein elektrisches Signal 469 an das Fasernetz 420 angelegt werden, um einem faseroptischen Schalter im Fasernetz 420 ein Schaltsignal bereitzustellen. Ein Teil des Lichts bewegt sich von dem Fasernetz zu der Fasereinkopplung 170, die das Licht im Lichtwellenleiter als Lichtstrahl 982 in den freien Raum sendet. Ein kleiner Anteil des Lichts wird von dem Strahlteiler 145 reflektiert und geht verloren. Ein Teil des Lichts geht durch den Strahlteiler 145, durch den Strahlteiler 922 und aus dem Tracker hinaus zu einem sechs Freiheitsgrade (DOF; degrees of freedom) aufweisenden Gerät 4000. Das 6-DOF-Gerät 4000 kann eine Sonde, ein Projektor, ein Sensor oder ein anderer Typ eines 6-DOF-Geräts sein. Bei Ausgestaltungen der vorliegenden Erfindung, die nachfolgend ausführlicher beschrieben werden, umfasst das 6-DOF-Gerät 400 einen 6-DOF-Triangulationsscanner wie beispielsweise eine Laserliniensonde (LLP) oder einen Flächenscanner mit strukturiertem Licht. Der 6-DOF-Triangulationsscanner hat einen an ihm befestigten Retroreflektor, um die Messung oder Ermittlung der sechs Freiheitsgrade des Scanners zu erleichtern.
  • Das Licht von dem 6-DOF-Gerät 4000 tritt auf seinem Rückweg zum Lasertracker in das optoelektronische System 900 ein und kommt an dem Strahlteiler 922 an. Ein Teil des Lichts wird von dem Strahlteiler 922 reflektiert und tritt in die Orientierungskamera 910 ein. Die Orientierungskamera 910 zeichnet die Positionen einiger Markierungen auf, die auf dem Retroreflektorziel angeordnet sind. Aus diesen Markierungen wird der Orientierungswinkel (d. h. drei Freiheitsgrade) des 6-DOF-Sondengeräts ermittelt. Die Prinzipien der Orientierungskamera werden nachfolgend in der vorliegenden Anmeldung und auch in dem vorgenannten Patent ’758 beschrieben. Ein Teil des Lichts am Strahlteiler 145 bewegt sich durch den Strahlteiler und wird mittels der Fasereinkopplung 170 in einen Lichtwellenleiter geleitet. Das Licht bewegt sich zum Fasernetz 420. Ein Teil dieses Lichts verläuft zu dem Lichtwellenleiter 424, von welchem aus es in den Messkanal der ADM-Elektronik 715 eintritt.
  • Das Lokalisierungskamerasystem 950 umfasst eine Kamera 960 und eine oder mehrere Lichtquellen 970. Das Lokalisierungskamerasystem ist auch in Bezug auf den Lasertracker 10 in 1 dargestellt, wo die Kameras die Elemente 52 und die Lichtquellen die Elemente 54 sind. Die Kamera 960 umfasst ein Linsensystem 962, eine photosensitive Anordnung 964 und einen Körper 966. Eine Verwendung des Lokalisierungskamerasystems 950 besteht darin, Retroreflektorziele innerhalb des Arbeitsvolumens zu lokalisieren. Das System bewirkt dies durch Blinkenlassen der Lichtquelle 970, das die Kamera als hellen Lichtpunkt auf der photosensitiven Anordnung 964 aufnimmt. Eine zweite Verwendung des Lokalisierungskamerasystems 950 besteht darin, eine grobe Orientierung des 6-DOF-Geräts 4000 basierend auf der beobachteten Position eines Reflektorpunkts oder einer LED auf dem 6-DOF-Gerät 4000 zu ermitteln. Wenn zwei oder mehr Lokalisierungskamerasysteme 950 auf dem Lasertracker 10 zur Verfügung stehen, kann die Richtung jedes Retroreflektorziels innerhalb des Arbeitsvolumens mit den Prinzipien der Triangulation berechnet werden. Wenn eine einzige Lokalisierungskamera für die Aufnahme des entlang der optischen Achse des Lasertrackers reflektierten Lichts angeordnet ist, kann die Richtung jedes Retroreflektorziels gefunden werden. Wenn eine einzige Kamera versetzt gegenüber der optischen Achse des Lasertrackers angeordnet ist, dann kann man unmittelbar aus dem Bild auf der photosensitiven Anordnung die ungefähren Richtungen zu den Retroreflektorzielen erhalten. In diesem Fall kann eine genauere Richtung zu einem Ziel ermittelt werden, indem die mechanischen Achsen des Lasers in mehr als eine Richtung gedreht werden und die Veränderung der Lichtpunktposition auf der photosensitiven Anordnung beobachtet wird.
  • 14 zeigt eine Ausgestaltung einer 6-DOF-Sonde 2000, die in Verbindung mit einem optoelektronischen System 900 und einem Lokalisierungskamerasystem 950 eines Lasertrackers verwendet wird. Bei Ausgestaltungen der vorliegenden Erfindung kann der Lasertracker beispielsweise irgendeiner der hierin offenbarten und dargestellten Lasertracker wie z. B. der Lasertracker 10 von 1 sein oder für andere hierin nicht offenbarte ähnliche Geräte stehen. Das optoelektronische System 900 und das Lokalisierungskamerasystem 950 wurden anhand von 13 besprochen. Bei einer anderen Ausgestaltung ist das optoelektronische System 900 durch ein optoelektronisches System mit zwei oder mehr Lichtwellenlängen ersetzt.
  • Die 6-DOF-Sonde (oder „Lesestift“) 2000, die bei Ausgestaltungen der vorliegenden Erfindung in der Hand gehalten werden kann, umfasst einen Körper 2014, einen Retroreflektor 2010, eine Sondenverlängerungsbaugruppe 2050, ein optionales elektrisches Kabel 2046, eine optionale Batterie 2044, ein Schnittstellenbauteil 2012, ein Identifizierelement 2049, Betätigungsknöpfe 2016, eine Antenne 2048 und eine elektronische Leiterplatte 2042. Der Retroreflektor 2010 kann ein Würfelecken-Retroreflektor mit einem hohlen Kern oder einem Glaskern sein. Der Retroreflektor 2010 kann in einer Weise markiert werden, die die Ermittlung der drei Orientierungsfreiheitsgrade der 6-DOF-Sonde 2000, die physisch vom Lasertracker getrennt ist, durch die Orientierungskamera im optoelektronischen System 900 des Lasertrackers ermöglicht. Ein Beispiel für solche Markierungen ist eine Verdunklung der Schnittlinien zwischen den drei ebenen Reflektoroberflächen des Retroreflektors 2010, die im vorgenannten Patent ’758 besprochen werden.
  • Die Sondenverlängerungsbaugruppe 2050 umfasst eine Sondenverlängerung 2052 und eine Sondenspitze 2054. Die Sondenspitze 2054 kann eine Sondenspitze vom „Hartkontakt“-Typ sein, die normalerweise mit dem Prüfobjekt in physischen Kontakt gebracht, um 3D-Koordinatenmessungen der Oberfläche des Objekts durch Ermitteln der 3D-Koordinaten der Sondenspitze 2054 durchzuführen. Obwohl die Sondenspitze 2054 bei der Ausgestaltung von 14 zwar mit dem Körper 2014 des Retroreflektors 2010 verbunden, aber um einen gewissen Abstand davon entfernt bzw. angeordnet ist, kann ein 6-DOF-Lasertracker bekannterweise ohne Weiteres die 3D-Koordinaten der Sondenspitze 2054 an einem Punkt ermitteln, der für die Sichtlinie des vom Lasertracker zur 6-DOF-Sonde 2000 gesendeten Lichtstrahls 784 verdeckt ist. Dies ist der Grund, warum eine 6-DOF-Sonde manchmal als „Sonde für verdeckte Punkte“ bezeichnet wird.
  • Die elektrische Energie kann über ein optionales elektrisches Kabel 2046 oder durch eine optionale Batterie 2044 bereitgestellt werden. Die elektrische Energie stellt einer Elektronikleiterplatte 2042 Energie zur Verfügung. Die Elektronikleiterplatte 2042 stellt der Antenne 2048, die mit dem Lasertracker oder einem externen Computer kommunizieren kann, und den Betätigungsknöpfen 2016, die dem Benutzer eine zweckmäßige Möglichkeit zur Kommunikation mit dem Lasertracker oder dem externen Computer zur Verfügung stellen, Energie bereit. Die Elektronikleiterplatte 2042 kann auch einer LED, einem Materialtemperatursensor (nicht dargestellt), einem Lufttemperatursensor (nicht dargestellt), einem Inertialsensor (nicht dargestellt) oder einem Neigungsmesser (nicht dargestellt) Energie bereitstellen. Das Schnittstellenbauteil 2012 kann beispielsweise eine Lichtquelle (z. B. eine LED), ein kleiner Retroreflektor, ein Bereich reflektierenden Materials oder eine Bezugsmarkierung sein. Das Schnittstellenbauteil 2012 dient dazu, die grobe Orientierung des Retroreflektors 2010 festzulegen, die bei den Berechnungen des 6-DOF-Winkels benötigt wird, um das Bezugssystem der 6-DOF-Sonde 2000 zu ermitteln. Das Identifizierelement 2049 wird dazu benutzt, dem Lasertracker Parameter oder eine Seriennummer für die 6-DOF-Sonde 2000 zur Verfügung zu stellen. Das Identifizierelement kann beispielsweise ein Strichcode oder ein RFID-Identifikationsetikett sein.
  • Der Lasertracker kann alternativ dazu den Lichtstrahl 784 einem Retroreflektor 2011 bereitstellen. Durch die Bereitstellung des Lichtstrahls 784 für einen beliebigen einer Vielzahl von Retroreflektoren kann die 6-DOF-Handsonde (bzw. der Lesestift) 2000 in vielen verschiedenen Richtungen physisch orientiert werden, während ein Objekt mit der Sondenverlängerungsbaugruppe 2050 abgetastet wird.
  • Man kann die vom Lasertracker gemessenen sechs Freiheitsgrade der Sonde 2000 so betrachten, dass sie drei Translationsfreiheitsgrade und drei Orientierungsfreiheitsgrade umfassen. Die drei Translationsfreiheitsgrade können eine Messung des Radialabstands zwischen dem Lasertracker und einem Retroreflektor, eine erste Winkelmessung und eine zweite Winkelmessung umfassen. Die Messung des Radialabstands kann mit einem IFM oder einem ADM im Lasertracker durchgeführt werden. Die erste Winkelmessung kann mit einem Azimutwinkelmessgerät wie beispielsweise einem Azimutwinkelkodierer erfolgen und die zweite Winkelmessung kann mit einem Zenitwinkelmessgerät wie beispielsweise einem Zenitwinkelkodierer durchgeführt werden. Alternativ dazu kann das erste Winkelmessgerät das Zenitwinkelmessgerät sein und das zweite Winkelmessgerät das Azimutwinkelmessgerät sein. Der Radialabstand, die erste Winkelmessung und die zweite Winkelmessung machen drei Koordinaten in einem Kugelkoordinatensystem aus, das in drei Koordinaten eines kartesischen Koordinatensystems oder eines anderen Koordinatensystems transformiert werden kann.
  • Die drei Orientierungsfreiheitsgrade der Sonde 2000 können mit einer wie vorstehend und im vorgenannten Patent ’758 beschriebenen Musterwürfelecke ermittelt werden. Alternativ dazu können andere Verfahren zur Ermittlung der drei Orientierungsfreiheitsgrade der Sonde 2000 eingesetzt werden. Ein Verfahren, das angewendet werden kann, besteht beispielsweise darin, einen 6-DOF-Lasertracker mit einer Kamera bereitzustellen, die eine Sammlung von Lichtpunkten auf einer 6-DOF-Tastsonde bildlich erfasst, während gleichzeitig ein Lichtstrahl zu einem Retroreflektor auf der 6-DOF-Sonde gesendet wird, um einen Abstand und zwei Winkel zum Retroreflektor zu ermitteln. Die auf der Kamera im Lasertracker bildlich erfassten Lichtpunkte stellen die drei Orientierungsfreiheitsgrade zur Verfügung. Bei einem anderen Beispiel besteht ein Verfahren, das angewendet werden könnte, darin, einen 6-DOF-Lasertracker mit einem Retroreflektor mit teilweise entferntem Scheitelpunkt zu benutzen, um Licht durch den Scheitelpunkt auf einen Positionsdetektor durchzulassen. Die Position des durchgelassenen Lichts auf dem Positionsdetektor kann zur Ermittlung der Nick- und Gierbewegung des Retroreflektors verwendet werden. Zusätzlich dazu kann der Retroreflektor in einer Struktur angebracht werden, die einen Mehrachsen-Neigungsmesser umfasst, der für die Messung eines Rollwinkels des 6-DOF-Sensors konfiguriert ist. Die Kombination aus dem gemessenem Rollwinkel und den gemessenen Nick- und Gierwinkeln stellt die drei Orientierungsfreiheitsgrade bereit. Zusätzlich dazu kann man einen zum Retroreflektor gesendeten Laserstrahl für die Ermittlung des Abstands und von zwei Winkeln zum Retroreflektor verwenden, wodurch die drei Translationsfreiheitsgrade bereitgestellt werden.
  • Welches Verfahren auch immer angewendet wird, definieren die drei Translationsfreiheitsgrade und die drei Orientierungsfreiheitsgrade vollständig die Position und die Orientierung einer 6-DOF-Sonde wie beispielsweise der 6-DOF-Sonde 2000 (und somit der Sondenspitze 2054) im Raum. Es ist wichtig anzumerken, dass dies der Fall bei hier betrachteten Systemen ist, weil man möglicherweise Systeme haben kann, bei denen die sechs Freiheitsgrade nicht unabhängig voneinander sind, so dass sechs Freiheitsgrade nicht ausreichen, um die Position und Orientierung eines Geräts im Raum vollständig zu definieren. Der Begriff „Translationssatz“ ist eine Kurzbezeichnung für drei Translationsfreiheitsgrade eines 6-DOF-Zusatzteils (wie z. B. der 6-DOF-Sonde 2000) im Trackerbezugssystem. Der Begriff „Orientierungssatz“ ist eine Kurzbezeichnung für drei Orientierungsfreiheitsgrade eines 6-DOF-Zusatzteils (z. B. der Sonde 2000) im Lasertrackerbezugssystem. Der Begriff „Oberflächensatz“ ist eine Kurzbezeichnung für mittels der Sondenspitze 2054 gemessene dreidimensionale Koordinaten eines Punkts auf der Objektoberfläche im Lasertrackerbezugssystem.
  • 15 zeigt eine Ausgestaltung eines 6-DOF-Scanners 2500, der in Verbindung mit einem optoelektronischen System 900 und einem Lokalisierungskamerasystem 950 verwendet wird. Der 6-DOF-Scanner 2500 kann auch als „Zielscanner“ bezeichnet werden. Das optoelektronische System 900 und das Lokalisierungskamerasystem 950 wurden anhand von 13 besprochen. Bei einer anderen Ausgestaltung ist das optoelektronische System 900 durch das optoelektronische System ersetzt, bei dem zwei oder mehr Lichtwellenlängen verwendet werden. Der 6-DOF-Scanner 2500 umfasst einen Körper 2514, einen oder mehrere Retroreflektoren 2510, 2511, eine Scannerkamera 2530, einen Scannerlichtprojektor 2520, ein optionales elektrisches Kabel 2546, eine optionale Batterie 2444, ein Schnittstellenbauteil 2512, ein Identifizierelement 2549, Betätigungsknöpfe 2516, eine Antenne 2548 und eine Elektronikleiterplatte 2542. Bei einer Ausgestaltung sind der eine oder die mehreren Retroreflektoren 2510, 2511, die Scannerkamera 2530 und der Scannerlichtprojektor 2520 relativ zum Körper 2514 befestigt. Der Retroreflektor 2510, das optionale elektrische Kabel 2546, die optionale Batterie 2544, das Schnittstellenbauteil 2512, das Identifizierelement 2549, die Betätigungsknöpfe 2516, die Antenne 2548 und die Elektronikleiterplatte 2542 von 15 entsprechen dem Retroreflektor 2010, dem optionalen elektrischen Kabel 2046, der optionalen Batterie 2044, dem Schnittstellenbauteil 2012, dem Identifizierelement 2049, den Betätigungsknöpfen 2016, der Antenne 2048 bzw. der Elektronikleiterplatte 2042 in 14. Die Beschreibungen dieser entsprechenden Elemente sind die gleichen wie die anhand von 14 besprochenen. Der Scannerprojektor 2520 und die Scannerkamera 2530 zusammen werden zur Messung der dreidimensionalen Koordinaten eines Werkstücks 2528 eingesetzt.
  • Die Kamera 2530 umfasst ein Kameralinsensystem 2532 und eine photosensitive Anordnung 2534. Die photosensitive Anordnung 2534 kann beispielsweise eine CCD- oder CMOS-Anordnung sein. Der Scannerprojektor 2520 umfasst ein Projektorlinsensystem 2523 und ein Quelllichtmuster 2524. Das Quelllichtmuster kann einen Lichtpunkt, eine Lichtlinie oder ein zweidimensionales (2D) strukturiertes Lichtmuster emittieren, das entweder kodiert oder unkodiert ist, wie nachfolgend ausführlich besprochen wird. Wenn der Scanner eine Lichtlinie emittiert, kann man ihn als „Laserliniensonde“ (LLP) bezeichnen. Wenn der Scanner andererseits ein strukturiertes 2D-Lichtmuster emittiert, kann man ihn als „Scanner mit strukturiertem Licht“ bezeichnen. Das strukturierte Lichtmuster kann eines von verschiedenen Mustern wie beispielsweise denjenigen sein, die von Jason Geng in dem in den Protokollen von SPIE, Bd. 7932, veröffentlichten Journalartikel „DLP-Based Structured Light 3D Imaging Technologies and Applications“ offenbart werden, der hierin durch Verweis einbezogen wird.
  • Im Allgemeinen gibt es zwei Kategorien von strukturiertem Licht, nämlich kodiertes und unkodiertes strukturiertes Licht. Ein übliche Form von unkodiertem Licht ist auf ein gestreiftes Muster angewiesen, das sich periodisch entlang einer Dimension ändert. Diese Typen von Mustern werden normalerweise in einer Abfolge angewendet, um einen ungefähren Abstand zu dem Objekt zu ermitteln. Einige Ausgestaltungen mit unkodierten Mustern wie beispielsweise sinusförmigen Mustern können relativ hochgenaue Messungen ergeben. Damit diese Typen unkodierter Muster jedoch nutzbar sind, müssen das Scannergerät und das Objekt in der Regel feststehend relativ zueinander gehalten werden. In den Fällen, in denen das Scannergerät und das Objekt sich bewegen (relativ zueinander), kann dann ein kodiertes Muster verwendet werden. Ein kodiertes Muster macht es möglich, dass das Bild mit einem einzigen aufgenommenen Bild analysiert wird. Manche kodierte Muster können in einer bestimmten Orientierung auf dem Projektormuster angeordnet werden (beispielsweise senkrecht zu Epipolarlinien auf der Projektorebene), wodurch die Analyse der dreidimensionalen Oberflächenkoordinaten auf Basis eines einzigen Bilds vereinfacht wird.
  • Das Licht des Projektors 2520 wird von einer Oberfläche des Werkstücks 2528 reflektiert und das reflektierte Licht wird von der Kamera 2530 aufgefangen. Es versteht sich, dass Veränderungen oder Merkmale in der Oberfläche des Werkstücks wie beispielsweise Vorsprünge zu Verzeichnungen im strukturierten Muster führen, wenn das Bild des Musters von der Kamera 2530 aufgenommen wird. Da das Muster durch strukturiertes Licht gebildet wird, ist es in einigen Fällen für eine Steuervorrichtung möglich, eine Eins-zu-eins-Entsprechung zwischen den Pixeln im emittierten Muster und den Pixeln im abgebildeten Muster festzustellen. Dies ermöglicht die Anwendung von Triangulationsprinzipien für die Ermittlung der Koordinaten jedes Pixels im abgebildeten Muster. Die Sammlung von 3D-Koordinaten der Oberfläche des Werkstücks wird manchmal als „Punktwolke“ bezeichnet. Eine Punktwolke des gesamten Werkstücks 2528 kann erzeugt werden, indem man den 6-DOF-Scanner 2500 über die Oberfläche – beispielsweise bei einer Spindel – bewegt.
  • Wenn die Scannerlichtquelle einen Lichtpunkt emittiert, kann der Lichtpunkt beispielsweise mit einem sich bewegenden Spiegel abgetastet werden, um eine Linie oder eine Anordnung von Linien zu erzeugen. Wenn die Scannerlichtquelle eine Lichtlinie emittiert, kann die Linie beispielsweise mit einem sich bewegenden Spiegel abgetastet werden, um eine Anordnung von Linien zu erzeugen. Das Quelllichtmuster könnte bei einer Ausgestaltung eine LED, ein Laser oder eine andere Lichtquelle sein, die von einer digitalen Mikrospiegelvorrichtung (DMD; digital micromirror device) wie beispielsweise einem von der Firma Texas Instruments hergestellten digitalen Lichtprojektor (DLP), einer Flüssigkristallvorrichtung (LCD; liquid crystal device) oder einer Flüssigkristall-auf-Silizium-Vorrichtung (LCOS; liquid crystal on silicon) reflektiert wird, oder es kann eine ähnliche Vorrichtung sein, die im Durchlassmodus statt im Reflexionsmodus verwendet wird. Das Quelllichtmuster könnte auch ein Fotomaskenmuster wie beispielsweise eine Chrommaske sein, die ein einziges Muster oder mehrere Muster aufweisen könnte, wobei die Fotomasken nach Bedarf in die und aus der Position bewegt werden. Dem ersten Retroreflektor 2510 können zusätzliche Retroreflektoren wie z. B. der Retroreflektor 2511 hinzugefügt werden, um dem Lasertracker die Verfolgung des 6-DOF-Scanners von verschiedenen Richtungen aus zu ermöglichen, wodurch sich eine größere Flexibilität bei den Richtungen ergibt, in die der 6-DOF-Projektor 2500 Licht projizieren kann.
  • Der 6-DOF-Scanner 2500 kann in der Hand gehalten oder beispielsweise auf einem Stativ, einem Geräteständer, einem motorisierten Schlitten oder einem Endeffektor eines Roboters angebracht werden. Die dreidimensionalen Koordinaten des Werkstücks 2528 werden von der Scannerkamera 2530 mittels der Prinzipien der Triangulation gemessen. Es gibt mehrere Wege, mit denen die Triangulationsmessung implementiert werden kann, was von dem von der Scannerlichtquelle 2520 emittierten Lichtmuster und dem Typ der photosensitiven Anordnung 2534 abhängt. Wenn das von der Scannerlichtquelle 2520 emittierte Lichtmuster beispielsweise eine Lichtlinie oder ein linienförmig abtastend bewegter Lichtpunkt ist und wenn die photosensitive Anordnung 2534 eine zweidimensionale Anordnung ist, dann entspricht eine Dimension der zweidimensionalen Anordnung 2534 einer Richtung eines Punkts 2526 auf der Oberfläche des Werkstücks 2528. Die andere Dimension der zweidimensionalen Anordnung 2534 entspricht dem Abstand des Punkts 2526 von der Scannerlichtquelle 2520. Folglich sind die dreidimensionalen Koordinaten jedes Punkts 2526 entlang der von der Scannerlichtquelle 2520 emittierten Lichtlinie relativ zum lokalen Bezugssystem des 6-DOF-Scanners 2500 bekannt. Die sechs Freiheitsgrade des 6-DOF-Scanners sind dem 6-DOF-Lasertracker mittels der im Patent ’758 beschriebenen Verfahren bekannt. Aus den sechs Freiheitsgraden lassen sich die dreidimensionalen Koordinaten der abgetasteten Lichtlinie im Trackerbezugssystem ermitteln, das wiederum durch die mit dem Lasertracker erfolgende Messung von drei Punkten auf dem Werkstück beispielsweise in das Bezugssystem des Werkstücks 2528 umgewandelt werden kann.
  • Wenn der 6-DOF-Scanner 2500 in der Hand gehalten wird, kann eine von der Scannerlichtlinie 2520 emittierte Laserlichtlinie derart bewegt werden, dass sie die Oberfläche des Werkstücks 2528 „anstreicht“, wodurch man die dreidimensionalen Koordinaten für die gesamte Oberfläche erhält. Es ist auch möglich, die Oberfläche eines Werkstücks mit einer Scannerlichtquelle 2520 „anzustreichen“, die ein strukturiertes Lichtmuster emittiert. Wenn ein Scanner 2500 verwendet wird, der ein strukturiertes Lichtmuster emittiert, können alternativ dazu genauere Messungen durchgeführt werden, indem man den 6-DOF-Scanner auf einem Stativ oder Geräteständer anbringt. Das strukturierte Lichtmuster, das von der Scannerlichtquelle 2520 emittiert wird, könnte beispielsweise ein Streifenmuster sein, wobei jeder Streifen eine Bestrahlungsstärke aufweist, die sinusförmig über die Oberfläche des Werkstücks 2528 variiert. Die Sinuskurven werden bei einer Ausgestaltung um drei oder mehr Phasenwerte verschoben. Die Amplitudenhöhe, die von jedem Pixel der Kamera 2530 für jeden der drei oder mehr Phasenwerte aufgezeichnet wird, dient dazu, die Position jedes Pixels auf der Sinuskurve bereitzustellen. Diese Information wird dazu benutzt, die Ermittlung der dreidimensionalen Koordinaten jedes Punkts 2526 zu unterstützen. Bei einer anderen Ausgestaltung kann das strukturierte Licht in Form eines kodierten Musters vorliegen, das man auswerten kann, um dreidimensionale Koordinaten auf der Grundlage einzelner statt mehrfacher Einzelbilder zu ermitteln, die von der Kamera 2530 erfasst werden. Die Verwendung eines kodierten Musters kann relativ genaue Messungen ermöglichen, während der 6-DOF-Scanner 2500 bei angemessener Geschwindigkeit mit der Hand bewegt wird.
  • Die Projektion eines strukturierten Lichtmusters hat im Gegensatz zu einer Lichtlinie einige Vorteile. Bei einer Lichtlinie, die aus einem in der Hand gehaltenen 6-DOF-Scanner 2500 wie beispielsweise einer LLP projiziert wird, kann die Dichte der Punkte entlang der Linie hoch, aber viel geringer zwischen den Linien sein. Mit einem strukturierten Lichtmuster ist der Abstand zwischen Punkten normalerweise ungefähr der gleiche bei jeder der zwei orthogonalen Richtungen. Zusätzlich dazu können die dreidimensionalen Punkte, die mit einem strukturierten Lichtmuster berechnet werden, bei einigen Betriebsarten genauer als andere Verfahren sein. Befestigt man beispielsweise den 6-DOF-Scanner 2500 am Ort, indem man ihn zum Beispiel an einem feststehenden Ständer oder einer feststehenden Halterung befestigt, kann eine Abfolge strukturierter Lichtmuster emittiert werden, die eine genauere Berechnung gestatten als es mit anderen Verfahren möglich wäre, bei denen ein einziges Muster aufgenommen wurde (d. h. ein Verfahren mit Einzelaufnahmen). Ein Beispiel für eine Abfolge strukturierter Lichtmuster ist eines, bei dem ein Muster mit einer ersten Raumfrequenz auf das Objekt projiziert wird. Bei einer Ausgestaltung ist das projizierte Muster ein Muster von Streifen, die sich bei der optischen Energie sinusförmig verändern. Die Phase des sich sinusförmig verändernden Musters wird bei einer Ausgestaltung verschoben, was dazu führt, dass sich die Streifen zur Seite verschieben. Das Muster kann beispielsweise derart ausgeführt werden, dass es mit drei Phasenwinkeln projiziert wird, die jeweils um 120 Grad relativ zu dem vorangehenden Muster verschoben sind. Diese Abfolge von Projektionen stellt genug Informationen zur Verfügung, um eine relativ genaue Ermittlung der Phase jedes Punkts des Musters unabhängig vom Hintergrundlicht zu ermöglichen. Dies kann auf Punkt-zu-Punkt-Basis erfolgen, ohne benachbarte Punkte auf der Objektoberfläche zu berücksichtigen.
  • Obwohl die obige Methode eine Phase für jeden Punkt mit Phasen ermittelt, die von 0 bis 360 Grad zwischen zwei benachbarten Linien laufen, bleibt möglicherweise noch die Frage offen, welche Linie welche ist. Ein Weg zur Identifizierung der Linien besteht darin, die Abfolge von Phasen wie oben beschrieben zu wiederholen, dabei aber ein sinusförmiges Muster mit einer unterschiedlichen Raumfrequenz (d. h. einem unterschiedlichen Steifenabstand) zu verwenden. In einigen Fällen muss der gleiche Ansatz für drei oder vier unterschiedliche Streifenabstände wiederholt werden. Das Verfahren zur Eliminierung von Mehrdeutigkeiten mittels dieses Verfahrens ist in der Technik weithin bekannt und wird hier nicht weiter besprochen.
  • Zur Erzielung der bestmöglichen Genauigkeit mittels eines Folgeprojektionsverfahrens wie beispielsweise dem oben beschriebenen Verfahren mit sinusförmiger Phasenverschiebung kann es von Vorteil sein, die Bewegung des 6-DOF-Scanners zu minimieren. Obwohl die Position und Orientierung des 6-DOF-Scanners aus den 6-DOF-Messungen bekannt sind, die durch den Lasertracker durchgeführt wurden, und obwohl Korrekturen für Bewegungen eines in der Hand gehaltenen 6-DOF-Scanners durchgeführt werden können, ist das daraus resultierende Rauschen etwas höher als in dem Fall, in welchem der Scanner feststehend gehalten würde, indem man ihn auf einer feststehenden Halterung, einem feststehenden Ständer oder einer feststehenden Haltevorrichtung anordnet.
  • Die durch 15 dargestellten Abtastverfahren basieren auf dem Prinzip der Triangulation. Die Prinzipien der Triangulation werden unter Bezugnahme auf das System 2560 von 15A und das System 4760 von 15B vollständiger erläutert. Zuerst Bezug nehmend auf 15A, umfasst das System 2560 einen Projektor 2562 und eine Kamera 2564. Der Projektor 2562 umfasst ein auf einer Quellebene liegendes Quelllichtmuster 2570 und eine Projektorlinse 2572. Die Projektorlinse kann mehrere Linsenelemente umfassen. Die Projektorlinse hat ein perspektivisches Zentrum 2575 der Linse und eine optische Projektorachse 2576. Der Lichtstrahl 2573 bewegt sich von einem Punkt 2571 auf dem Quelllichtmuster durch das perspektivische Zentrum der Linse auf das Objekt 2590, welches er an einem Punkt 2574 erfasst.
  • Die Kamera 2564 umfasst eine Kameralinse 2582 und eine photosensitive Anordnung 2580. Die Kameralinse 2582 hat ein perspektivisches Zentrum 2585 der Linse und eine optische Achse 2586. Ein Lichtstrahl 2583 bewegt sich von dem Objektpunkt 2574 durch das perspektivische Zentrum 2585 der Kamera und erfasst die photosensitive Anordnung 2580 an einem Punkt 2581.
  • Das Liniensegment, das die perspektivischen Zentren verbindet, ist die Basislinie 2588 in 15A und die Basislinie 4788 in 15B. Die Länge der Basislinie wird als „Basislinienlänge“ (2592, 4792) bezeichnet. Der Winkel zwischen der optischen Projektorachse und der Basislinie ist der Basislinie-Projektor-Winkel (2594, 4794). Der Winkel zwischen der optischen Kameraachse (2583, 4786) und der Basislinie ist der Basislinie-Kamera-Winkel (2596, 4796). Wenn bekannt ist, dass ein Punkt auf dem Quelllichtmuster (2570, 4771) einem Punkt auf der photosensitiven Anordnung (2581, 4781) entspricht, dann kann man die Basislinienlänge, den Basislinie-Projektor-Winkel und den Basislinie-Kamera-Winkel zur Ermittlung der Seiten des Dreiecks verwenden, die die Punkte 2585, 2574 und 2575 verbinden, und somit die Oberflächenkoordinaten von Punkten auf der Oberfläche des Objekts 2590 relativ zum Bezugssystem des Messsystems 2560 ermitteln. Dazu wird ein Triangulationsverfahren wie das anhand von 15 beschriebene eingesetzt. Die Winkel der Seiten des kleinen Dreiecks zwischen der Projektorlinse 2572 und dem Quelllichtmuster 2570 werden mittels des bekannten Abstands zwischen der Linse 2572 und der Ebene 2570 sowie des Abstands zwischen dem Punkt 2571 und dem Schnittpunkt der optischen Achse 2576 mit der Ebene 2570 ermittelt. Diese kleinen Winkel werden je nach Fall den größeren Winkeln 2596 und 2594 hinzuaddiert oder von diesen subtrahiert, um die gewünschten Winkel des Dreiecks zu erhalten. Es ist für den durchschnittlichen Fachmann klar, dass äquivalente mathematische Verfahren eingesetzt werden können, um die Längen der Seiten des Dreiecks 2574-2585-2575 zu ermitteln, oder dass andere verwandte Dreiecke benutzt werden können, um die gewünschten Koordinaten der Oberfläche des Objekts 2590 zu erhalten.
  • Zuerst Bezug nehmend auf 15B, ist das System 4760 dem System 2560 von 15A ähnlich, außer dass das System 4760 keine Linse umfasst Das System kann einen Projektor 4762 und eine Kamera 4764 umfassen. Bei der in 15B dargestellten Ausgestaltung umfasst der Projektor eine Lichtquelle 4778 und einen Lichtmodulator 4770. Die Lichtquelle 4778 kann eine Laserlichtquelle sein, weil eine solche Lichtquelle mittels der Geometrie von 15B über eine große Entfernung fokussiert bleiben kann. Ein Lichtstrahl 4773 der Lichtquelle 4778 trifft an einem Punkt 4771 auf den optischen Modulator 4770 auf. Andere Lichtstrahlen der Lichtquelle 4778 treffen auf den optischen Modulator an anderen Positionen auf der Modulatoroberfläche auf. Der optische Modulator 4770 verändert bei einer Ausgestaltung die Energie des emittierten Lichts, wobei er in den meisten Fällen die optische Energie zu einem Grad senkt. Auf diese Weise verleiht der optische Modulator dem Licht ein optisches Muster, das hier als „Quelllichtmuster“ bezeichnet wird, das sich an der Oberfläche des optischen Modulators 4770 befindet. Der optische Modulator 4770 kann beispielsweise eine DLP- oder LCOS-Vorrichtung sein. Bei einigen Ausgestaltungen ist der Modulator 4770 durchlässig statt reflektierend. Das aus dem optischen Modulator 4770 austretende Licht scheint aus einem perspektivischen Zentrum 4775 virtuellen Lichts auszutreten. Der Lichtstrahl scheint aus dem perspektivischen Zentrum 4775 virtuellen Lichts auszutreten, durch den Punkt 4771 zu gehen und sich zum Punkt 4774 an der Oberfläche des Objekts 4790 zu bewegen.
  • Die Basislinie ist das Liniensegment, das sich vom perspektivischen Zentrum 4785 der Kameralinse zum perspektivischen Zentrum 4775 virtuellen Lichts erstreckt. Im Allgemeinen beinhaltet das Verfahren der Triangulation die Ermittlung der Längen der Seiten eines Dreiecks, also beispielsweise des Dreiecks mit den Eckpunkten 4774, 4785 und 4775. Ein Weg zur Durchführung dessen besteht darin, die Länge der Basislinie, den Winkel zwischen der Basislinie und der optischen Kameraachse 4786 und den Winkel zwischen der Basislinie und der Projektorbezugsachse 4776 zu ermitteln. Zur Ermittlung des gewünschten Winkels können weitere kleinere Winkel ermittelt werden. Man kann beispielsweise den kleinen Winkel zwischen der optischen Kameraachse 4786 und dem Strahl 4783 ermitteln, indem man nach dem Winkel des kleinen Dreiecks zwischen der Kameralinse 4782 und der photosensitiven Anordnung 4780 auf Basis des Abstands von der Linse zur photosensitiven Anordnung und des Abstands des Pixels von der optischen Kameraachse auflöst. Der Winkel des kleinen Dreiecks wird anschließend dem Winkel zwischen der Basislinie und der optischen Kameraachse hinzuaddiert, um den gewünschten Winkel zu ermitteln. Ähnlich kann bei dem Projektor der Winkel zwischen der Projektorbezugsachse 4776 und dem Strahl 4773 ermittelt werden, indem man nach dem Winkel des kleinen Dreiecks zwischen diesen zwei Linien auf Basis des bekannten Abstands der Lichtquelle 4777 und der Oberfläche der optischen Modulation und des Abstands des Projektorpixels bei 4771 vom Schnittpunkt der Bezugsachse 4776 mit der Oberfläche des optischen Modulators 4770 auflöst. Dieser Winkel wird von dem Winkel zwischen der Basislinie und der Projektorbezugsachse subtrahiert, um den gewünschten Winkel zu erhalten.
  • Die Kamera 4764 umfasst eine Kameralinse 4782 und eine photosensitive Anordnung 4780. Die Kameralinse 4782 hat ein perspektivisches Zentrum 4785 der Kameralinse und eine optische Kameraachse 4786. Die optische Kameraachse ist ein Beispiel für eine Kamerabezugsachse. Aus mathematischer Sicht kann jedwede Achse, die durch das perspektivische Zentrum der Kameralinse verläuft, gleich leicht bei Triangulationsberechnungen benutzt werden, doch normalerweise wird die optische Kameraachse ausgewählt, die eine Symmetrieachse für die Linse ist. Ein Lichtstrahl 4783 bewegt sich von dem Objektpunkt 4774 durch das perspektivische Zentrum 4785 der Kamera und erfasst die photosensitive Anordnung 4780 am Punkt 4781. Man kann andere äquivalente mathematische Verfahren einsetzen, um nach den Längen der Seiten eines Dreiecks 4774-4785-4775 aufzulösen, wie es dem durchschnittlichen Fachmann bekannt ist.
  • Obwohl das hier beschriebene Triangulationsverfahren weithin bekannt ist, werden nachfolgend der Vollständigkeit halber einige zusätzliche technische Informationen angeführt. Jedes Linsensystem hat eine Eintrittspupille und eine Austrittspupille. Die Eintrittspupille ist der Punkt, von dem aus das Licht auszutreten scheint, wenn man es aus Sicht der Optik erster Ordnung betrachtet. Die Austrittspupille ist der Punkt, von dem aus das Licht auf seinem Weg vom Linsensystem zur photosensitiven Anordnung auszutreten scheint. Bei einem Linsensystem mit mehreren Elementen treffen die Ein- und Austrittspupille nicht unbedingt zusammen und sind die Winkel der Strahlen in Bezug auf die Einund Austrittspupille nicht unbedingt gleich. Man kann das Modell jedoch vereinfachen, indem man das perspektivische Zentrum für die Eintrittspupille der Linse hält und dann den Abstand von der Linse zur Quell- oder Bildebene derart einstellt, dass die Strahlen sich weiter entlang geraden Linien bewegen, um die Quell- oder Bildebene zu erfassen. Auf diese Weise wird das in 15A dargestellte einfache und weithin gebräuchliche Modell angewendet. Es versteht sich, dass diese Beschreibung eine gute Approximation erster Ordnung des Verhaltens des Lichts zur Verfügung stellt, wobei jedoch zusätzliche Feinkorrekturen durchgeführt werden können, um Linsenfehler zu berücksichtigen, die dazu führen können, dass die Strahlen relativ zu den berechneten Positionen etwas verschoben sind, wenn das Modell von 15A verwendet wird. Obwohl im Allgemeinen die Basislinienlänge, der Basislinie-Projektor-Winkel und der Basislinie-Kamera-Winkel benutzt werden, versteht es sich, dass die Aussage, dass diese Größen erforderlich sind, nicht die Möglichkeit ausschließt, dass andere ähnliche, aber etwas verschiedene Formulierungen angewendet werden können, ohne dass die Allgemeingültigkeit in der hierin gegebenen Beschreibung verloren geht.
  • Beim Einsatz eines 6-DOF-Scanners können mehrere Typen von Abtastmustern verwendet werden und ist es möglicherweise von Vorteil, unterschiedliche Typen zu kombinieren, um die beste Leistung in der kürzesten Zeit zu erzielen. Beispielsweise nutzt bei einer Ausgestaltung ein schnelles Messverfahren ein zweidimensionales kodiertes Muster, bei dem dreidimensionale Koordinatendaten in einer Einzelaufnahme erhalten werden können. Bei einem Verfahren mit kodierten Mustern können beispielsweise verschiedene Zeichen, verschiedene Formen, verschiedene Dicken oder Größen oder verschiedene Farben verwendet werden, um charakteristische Elemente bereitzustellen, die auch als kodierte Elemente oder kodierte Merkmale bekannt sind. Man kann solche Merkmale benutzen, um die Anpassung des Punkts 2571 an den Punkt 2581 zu ermöglichen. Ein kodiertes Merkmal auf dem Quelllichtmuster 2570 kann auf der photosensitiven Anordnung 2580 identifiziert werden.
  • Eine Methode, die zur Vereinfachung der Anpassung kodierter Merkmale eingesetzt werden kann, ist die Verwendung von Epipolarlinien. Epipolarlinien sind mathematische Linien, die durch die Schnittlinie von Epipolarebenen und der Quellebene 2570 oder der Bildebene 2580 gebildet werden. Eine Epipolarebene ist eine beliebige Ebene, die durch das perspektivische Zentrum des Projektors und das perspektivische Zentrum der Kamera verläuft. Die Epipolarlinien auf der Quellebene und der Bildebene können in einigen speziellen Fällen parallel sein, sind im Allgemeinen aber nicht parallel. Ein Aspekt von Epipolarlinien besteht darin, dass eine bestimmte Epipolarlinie auf der Projektorebene eine entsprechende Epipolarlinie auf der Bildebene hat. Daher kann jedwedes bestimmte Muster, das auf einer Epipolarlinie in der Projektorebene bekannt ist, unmittelbar in der Bildebene festgestellt und ausgewertet werden. Wenn beispielsweise ein kodiertes Muster entlang einer Epipolarlinie in der Projektorebene angeordnet ist, dann lässt sich der Abstand zwischen kodierten Elementen in der Bildebene mittels der Werte ermitteln, die durch Pixel der photosensitiven Anordnung 2580 ausgelesen werden können; und diese Information wird zur Ermittlung der dreidimensionalen Koordinaten eines Objektpunkts 2574 benutzt. Es ist auch möglich, kodierte Muster in einem bezogen auf eine Epipolarlinie bekannten Winkel zu kippen und effizient Objektoberflächenkoordinaten zu extrahieren.
  • Ein Vorteil der Verwendung kodierter Muster besteht darin, dass man dreidimensionale Koordinaten von Objektoberflächenpunkten schnell erhalten kann. In den meisten Fällen bietet ein Ansatz mit Abfolgen strukturierten Lichts wie beispielsweise der oben besprochene Ansatz mit sinusförmiger Phasenverschiebung genauere Ergebnisse. Deshalb kann der Benutzer vorteilhafterweise auswählen, bestimmte Objekte oder bestimmte Objektbereiche oder -merkmale mittels verschiedener Projektionsverfahren gemäß der gewünschten Genauigkeit zu messen. Durch die Verwendung eines programmierbaren Quelllichtmusters lässt sich eine solche Auswahl leicht durchführen.
  • Gemäß Ausgestaltungen der vorliegenden Erfindung umfasst der 6-DOF-Triangulationsscanner 2500 von 15 auch eine für erweiterte Realität (augmented reality) vorgesehene Kamera (AR-Kamera) 2508. Man kann die AR-Kamera 2508 als eine Kamera mit Fähigkeit zum Aufnehmen von „Vollfeldbildern“ ansehen. Die AR-Kamera 2508 umfasst eine Kameralinse 2502 und eine photosensitive Anordnung 2504. Die photosensitive Anordnung 2504 kann beispielsweise eine CCD- oder CMOS-Anordnung sein. Die AR-Kamera 2508 kann folglich digital beschaffen sein und Standbilder oder Videobilder aufnehmen.
  • Wie in 15 dargestellt, ist die AR-Kamera 2508 durch gestrichelte Linien 2506 mit dem Körper 2514 des 6-DOF-Triangulationsscanners 2500 verbunden. Dies dient allerdings nur den Zwecken der Veranschaulichung. Die AR-Kamera 2508 kann ein integrierter Teil des Scannerkörpers 2014 sein. Der hierin gebrauchte Begriff „integriert“ soll bedeuten, dass die AR-Kamera 2508 dauerhaft oder vorübergehend derart am Scannerkörper 2014 befestigt sein kann, dass sie sich in einer festen räumlichen Beziehung zum Scannerkörper 2014 befindet. Da die sechs Freiheitsgrade des Scanners 2500 wie oben beschrieben so oder so bekannt sind, sind die sechs Freiheitsgrade (d. h. die „Pose“) der AR-Kamera 2508 ebenfalls bei jedem von der AR-Kamera 2508 aufgenommenen Bild bekannt. Entsprechend können der Lasertracker, der 6-DOF-Triangulationsscanner 2500 und die AR-Kamera 2508 alle in einem gemeinsamen Bezugssystem angeordnet werden. Die AR-Kamera ist bei einer Ausgestaltung eine Kamera, die auch bei einer Triangulationsmessung verwendet wird. Dies bedeutet mit anderen Worten, dass die AR-Kamera bei einer Ausgestaltung die Kamera 2530 in 15 ist.
  • Der Linse 2502 (die ein Linsensystem sein kann, das eine Vielzahl von Linsenelementen enthält) ist ein perspektivisches Zentrum der Linse zugeordnet. Man kann die durch die Linse 2502 durchgehenden Lichtstrahlen derart betrachten, dass sie durch das perspektivische Zentrum durchgehen, bevor sie an der photosensitiven Anordnung 2504 ankommen. Die Linse 2502 kann bei sorgfältiger Analyse charakterisiert werden, um Abbildungsfehler zu berücksichtigen, die sich aus einer geringfügigen Verschiebung der Schnittpunktlagen der Strahlen auf der photosensitiven Anordnung 2504 ergeben. Man kann jedoch ohne Verlust der Allgemeingültigkeit sagen, dass die Strahlen durch das perspektivische Zentrum durchgehen, wobei in einem anderen Schritt der Bildverarbeitung eine Abbildungsfehlerkorrektur am Bild bereitgestellt wird.
  • Die Oberfläche eines Prüfobjekts wird durch die Linse 2502 auf der photosensitiven Anordnung 2504 abgebildet, um ein Bild auf der Sammlung von Pixeln zu bilden, die ein Teil der photosensitiven Anordnung 2504 sind. Licht, das auf jedes Pixel fällt, wird in einer Integrationszeit der Kamera von einer Ladung in ein digitales Signal umgewandelt. Ein Analog-Digital-Wandler, der entweder (bei CMOS-Anordnungen) in der photosensitiven Anordnung 2504 oder (bei CCD-Anordnungen) außerhalb der photosensitiven Anordnung 2504 angeordnet ist, führt die Umwandlung vom analogen in ein digitales Signal durch. Das Signal für jedes Pixel wird typisch in einer Binärdarstellung mit zwischen 8 und 12 Bits durchgeführt. Die durch diese Bits dargestellten Einsen und Nullen werden über parallele Kanäle zugeführt und können in die serielle Form umgewandelt werden, wobei eine Serialisierer-/Entserialisierer-Fähigkeit für die Übertragung über eine Busleitung verwendet wird.
  • Wie besprochen, wird der 6-DOF-Triangulationsscanner 2500 bei Ausgestaltungen der vorliegenden Erfindung in der Hand gehalten. Der Scanner 2500 kann jedoch bei anderen Ausgestaltungen feststehend gehalten werden, indem man ihn auf einem feststehenden Träger, Ständer oder einer Haltevorrichtung – beispielsweise einem Stativ – anordnet. Obwohl die Position und Orientierung des 6-DOF-Triangulationsscanners 2500 aus den 6-DOF-Messungen bekannt sind, die wie vorstehend beschrieben mit dem Lasertracker durchgeführt wurden, und obwohl Korrekturen für Bewegungen eines in der Hand gehaltenen 6-DOF-Scanners 2500 durchgeführt werden können, kann das resultierende Rauschen ferner etwas größer sein, als es gewesen wäre, wenn der Scanner 2500 feststehend gehalten worden wäre. Es ist auch möglich, den 6-DOF-Triangulationsscanner 2500 an einem Roboter oder einer Werkzeugmaschine anzubringen.
  • Bei Ausgestaltungen der vorliegenden Erfindung werden mehrere zweidimensionale (2D) Kamerabilder, die von einer für erweiterte Realität vorgesehenen Kamera 2508 aufgenommen wurden, die ein Teil eines 6-DOF-Triangulationsscanners 2500 ist (der selbst in Kombination mit einem Lasertracker verwendet wird), gemäß einem nachfolgend beschriebenen Verfahren miteinander kombiniert oder „registriert“, um eine dreidimensionale (3D) Bilddarstellung von verschiedenen realen Merkmalen wie beispielsweise einer Oberfläche eines Objekts oder von einer realen Szene (z. B. dem Innenraum eines Gebäudes, der Stelle eines Fahrzeugunfalls oder einem Tatort) zu erhalten. Dieses Verfahren basiert auf der Tatsache, dass, weil die Pose bzw. die sechs Freiheitsgrade des Scanners 2500 mit der integrierten AR-Kamera 2508 bei jedem von der AR-Kamera 2508 aufgenommen 2D-Foto oder -Bild bekannt sind, eine Vielzahl von mit der AR-Kamera 2508 aufgenommenen 2D-Fotos miteinander kombiniert werden kann, um ein 3D-Bild zu bilden.
  • Der hierin gebrauchte Begriff „3D-Bild“ bzw. „zusammengesetztes 3D-Bild“ soll eine Darstellung einer aufgezeichneten Szene bedeuten, die in zwei Dimensionen aus verschiedenen perspektivischen Blickpunkten angezeigt werden kann, wobei das angezeigte 2D-Bild sich derart mit dem Blickpunkt ändert, dass eine 3D-Darstellung der Szene für den Betrachter reproduziert wird. Zusätzlich dazu können Werte von 3D-Koordinaten für Punkte extrahiert werden, die in dem 3D-Bild betrachtet werden.
  • Es wird nun ein Verfahren gemäß dieser Ausgestaltung unter Bezugnahme auf das Verfahren 1600 von 16 beschrieben. In einem Schritt 1605 werden ein 6-DOF-Triangulationsscanner 2500 und ein Koordinatenmessgerät bereitgestellt. Der 6-DOF-Scanner 2500 umfasst auch den Retroreflektor 2510 und eine integrierte AR-Kamera 2508, die oben anhand von 15 beschrieben wurde. Das Koordinatenmessgerät, das einen Lasertracker wie beispielsweise den vorstehend beschriebenen Lasertracker 5 umfassen kann, hat ein Gerätbezugssystem und ist von dem 6-DOF-Triangulationsscanner 2500 getrennt. Das Koordinatenmessgerät umfasst einen Orientierungssensor, einen ersten und einen zweiten Motor, ein erstes und ein zweites Winkelmessgerät, einen Distanzmesser, einen Positionsdetektor, ein Steuersystem und einen Prozessor. Der Lasertracker und der 6-DOF-Scanner mit der AR-Kamera können mit denjenigen identisch oder diesen ähnlich sein, die vorstehend beschrieben und dargestellt wurden.
  • Ein Schritt 1610 besteht darin, in einem ersten Vorgang mit dem Gerät die zwei Drehwinkel und den Abstand zum Retroreflektor sowie die drei Orientierungsfreiheitsgrade des 6-DOF-Triangulationsscanners 2500 zu messen. In diesem Schritt wird auch ein 2D-Bild auf der AR-Kamera 2508 gebildet. Die elektronische Leiterplatte 2542 in dem 6-DOF-Scanner 2500 kann die Positions- und Orientierungsinformation der AR-Kamera 2508 verarbeiten und/oder senden. Die elektronische Leiterplatte 2542 kann auch ein erstes digitales Signal empfangen, das ein 2D-Bild repräsentiert, das durch die Kameralinse 2502 auf die photosensitive Anordnung 2504 gesendet wurde.
  • In einem Schritt 1615 wird der 6-DOF-Triangulationsscanner 2500 zu einer neuen Position bewegt und misst das Gerät die zwei Winkel und den Abstand zum 6-DOF-Scanner 2500 sowie die Orientierung des 6-DOF-Scanners 2500. Sie bildet auch ein 2D-Bild an der neuen Position. Die elektronische Leiterplatte 2542 kann die Positions- und Orientierungsinformation der AR-Kamera 2508 an dieser zweiten Position und Orientierung verarbeiten und/oder zum Lasertracker senden. Die elektronische Leiterplatte 2542 kann auch ein zweites digitales Signal empfangen, das das 2D-Bild repräsentiert, das durch die Kameralinse 2502 auf die photosensitive Anordnung 2504 gesendet wurde.
  • In einem Schritt 1620 wird ein Kardinalpunkt ermittelt, den das erste Bild und ein zweites Bild gemeinsam haben. Der Begriff „Kardinalpunkt“ wird normalerweise zur Bezeichnung von Punkten gebraucht, die in Bildern identifiziert werden und die zum Verbinden oder Registrieren der Bilder benutzt werden können. Diese Punkte werden normalerweise auch von niemandem mit Absicht an ihren Positionen angeordnet. Der Schritt umfasst die Ermittlung der entsprechenden Positionen eines Kardinalpunkts auf einer photosensitiven Anordnung in einem ersten und zweiten Vorgang. Die Position des Kardinalpunkts soll im ersten Vorgang als die erste Position bezeichnet werden und die Position des Kardinalpunkts im zweiten Vorgang soll als zweite Position bezeichnet werden. Es gibt eine gut entwickelte Sammlung von Methoden, die zur Ermittlung solcher Kardinalpunkte eingesetzt werden können, wobei im Allgemeinen Verfahren angewendet werden, die als „Bildverarbeitung“ oder „Merkmalserkennung“ bezeichnet werden. Eine gewöhnlich benutzte, aber generelle Kategorie zum Ermitteln von Kardinalpunkten wird als „Erkennung von Interessenpunkten“ bezeichnet, wobei die erkannten Punkte als „Interessenpunkte“ bezeichnet werden. Ein Interessenpunkt besitzt gemäß der üblichen Definition eine mathematisch gut fundierte Definition, eine gut definierte räumliche Position, eine Bildstruktur, die rings um den Interessenpunkt reich an lokalem Informationsgehalt ist, und eine Variation des Beleuchtungspegels, die im Zeitverlauf relativ stabil ist. Ein spezielles Beispiel für einen Interessenpunkt ist ein Eckpunkt, der beispielsweise ein Punkt sein könnte, der einem Schnittpunkt dreier Ebenen entspricht. Ein anderes Beispiel für die Signalverarbeitung, das verwendet werden kann, ist die skaleninvariante Merkmalstransformation (SIFT; scale invariant feature transform), die ein Verfahren ist, das in Technik weithin bekannt ist und in dem an Lowe erteilten US-Patent Nr. 6,711,293 beschrieben wird. Der Prozessor findet in dem Schritt 1620 diejenigen Kardinalpunkte, die das erste und zweite Bild gemeinsam haben, um mindestens einen Kardinalpunkt (normalerweise aber einen großen Satz von Kardinalpunkten) zu erhalten. Zu den anderen üblichen Merkmalserkennungsverfahren zur Ermittlung von Kardinalpunkten gehören die Kantenerkennung, Bloberkennung und Graterkennung.
  • Ein Schritt 1625 besteht darin, die 3D-Koordinaten der entsprechenden Kardinalpunkte im ersten und zweiten 2D-Bild in einem ersten Bezugssystem zu ermitteln. Diese Ermittlung kann erfolgen, indem man zuerst eine Triangulation anwendet, um die 3D-Koordinaten der Kardinalpunkte im ersten und zweiten Bild im Bezugssystem der 6-DOF-Scanners 2500 zu ermitteln, und dann Koordinatentransformationen benutzt, um die Kardinalpunkte in einem ersten Bezugssystem zu erhalten, das das Gerätbezugssystem sein könnte. Diese Koordinatentransformationen basieren zumindest teilweise auf den zwei Winkelmessungen, einer Abstandsmessung und Orientierungswinkelmessungen, die durch das Gerät bereitgestellt werden. Es versteht sich, dass die Position und Orientierung der 2D-Kamera 2508 im 6-DOF-Scanner 2500 bei dieser Berechnung bekannt sind (beispielsweise auf der Grundlage von Messungen an der Produktionsstätte). Auf Basis der gemessenen Werte kann in einem ersten Vorgang (der dem ersten 2D-Bild entspricht) und in einem zweiten Vorgang (der dem zweiten 2D-Bild entspricht) eine Basislinie mit einem Basislinienabstand zwischen den perspektivischen Zentren der Kamera gezogen werden. Da der Basislinienabstand aus den 6-DOF-Messungen mittels des Trackers bekannt ist, wird jeder Kardinalpunkt im 3D-Raum im ersten Bezugssystem ermittelt. Im Allgemeinen stimmen die 3D-Koordinaten eines Kardinalpunkts im ersten Bild und die 3D-Koordinaten eines entsprechenden Kardinalpunkts im zweiten Bild nicht genau überein. Es können jedoch eine Mittelwertbildung der 3D-Koordinaten oder ähnliche Verfahren eingesetzt werden, um eine repräsentative 3D-Koordinate im ersten Bezugssystem für die entsprechenden Kardinalpunkte im ersten und zweiten 2D-Bild zu ermitteln. Wenn dieses Verfahren angewendet wird, werden 3D-Koordinaten richtig skaliert, was bedeutet, dass 3D-Koordinaten die richtigen Längeneinheiten im ersten Bezugsystem aufweisen. Dies steht im Gegensatz zu einem Verfahren zum Erhalten von zwei Bildern mit einer an zwei verschiedenen Positionen gehaltenen Kamera, bei dem die Positionen und Orientierungen des perspektivischen Zentrums der Kamera in jedem Fall unbekannt sind. Dieses Verfahren liefert nicht genug Informationen für die richtige Skalierung eines 3D-Bilds (in Längeneinheiten).
  • Ein Schritt 1630 besteht darin, ein zusammengesetztes 3D-Bild basierend zumindest teilweise auf dem ersten und zweiten 2D-Bild und auf den 3D-Koordinaten der Kardinalpunkte im ersten Bezugssystem zu erzeugen. In den meisten Fällen haben das erste und zweite 2D-Bild viele Kardinalpunkte gemeinsam und können für jeden davon 3D-Koordinaten erhalten werden. Diese Kardinalpunkte bilden den Rahmen für eine 3D-Darstellung, auf welcher andere Bildelemente zwischen den zwei 2D-Bildern oder (in einem allgemeineren Fall) zwischen mehreren 2D-Bildern interpoliert werden können. Neben der Bereitstellung von 3D-Koordinateninformationen kann ein zusammengesetztes 3D-Bild auch die Textur- und Farbinformation vermitteln, die nicht nur aus Kardinalpunkten, sondern auch aus sichtbaren Regionen zwischen den Kardinalpunkten erhalten wurden, wobei wieder Interpolationsverfahren eingesetzt werden. Die in Schritt 1625 und 1630 erhaltenen 3D-Koordinaten sind die gleichen für die entsprechenden Kardinalpunkte im ersten und zweiten Bild; das zusammengesetzte 3D-Bild kann aber zusätzliche 3D-Informationen enthalten, also beispielsweise durch Interpolation zwischen Kardinalpunkten und durch Hinzufügung von Farb- und Texturinformationen.
  • Ein Schritt 1635 besteht darin, das zusammengesetzte 3D-Bild zu speichern.
  • Bei einer Ausgestaltung werden im Tracker angeordnete Prozessoren verwendet, um das zusammengesetzte 3D-Bild zu konstruieren und zu speichern und um es mit gemessenen 3D-Koordinaten zu kombinieren. Solche Prozessoren können einen oder mehrere von einem Hauptprozessor 1520, einem 6-DOF-Prozessor 1531 und einem Kameraprozessor 1532 umfassen. Des Weiteren kann ein Computer 1590 zusätzlich oder ausschließlich benutzt werden, um das zusammengesetzte 3D-Bild zu konstruieren und zu speichern und es mit 3D-Koordinaten zu kombinieren, die vom Hauptprozessor erhalten wurden. Bei einer anderen Ausgestaltung kann ein Cloud-Prozessor durch Senden von Rohdaten an ein Computernetz, möglicherweise ein Ferncomputernetz, verwendet werden, um das zusammengesetzte 3D-Bild zu bilden. Bei einer anderen Ausgestaltung kann eine verschiedene Kombination von Prozessoren verwendet werden. Eine solche Kombination von Prozessoren kann als „Prozessorsystem“ bezeichnet werden.
  • Obwohl dies in dem Verfahren 1600 von 16 nicht enthalten ist, ist klar, dass das vorstehend beschriebene Verfahren derart auf eine beliebig große Anzahl von Bildern photosensitiver Anordnungen erweitert werden kann, dass Sätze von Kardinalpunkten aus mehreren Bildern erhalten werden können. In diesem Fall kann jeder Kardinalpunkt Kardinalpunkten auf mehreren der Bilder entsprechen, die mit der photosensitiven Anordnung 2504 in verschiedenen Posen der AR-Kamera 2508 erhalten wurden. Für einen bestimmten Kardinalpunkt können die Schnittpunktlagen der von der photosensitiven Anordnung 2504 durch die perspektivischen Zentren der Kameralinse 2502 projizierten mehreren Linien unter Anwendung eines Best-Fit-Verfahrens gemäß den in der Technik weithin bekannten Verfahren zur Optimierung ermittelt werden, indem beispielsweise Verfahren der Minimierung der kleinsten Quadrate eingesetzt werden. Es kann gewünschtenfalls eine zusätzliche Optimierung der Registrierung der mehreren Bilder durchgeführt werden, indem Ziele auf oder nahe dem Prüfobjekt bereitgestellt werden. Zusätzliche Ziele können beispielsweise reflektierende Ziele oder Leuchtdioden sein.
  • Wenn die AR-Kamera 2508 eine Farbkamera ist, kann die rekonstruierte 3D-Oberfläche in Farbe dargestellt werden oder können andere Texturattribute abgerufen werden. Bei anderen Ausgestaltungen können durch dieses Verfahren 1600 verschiedene Merkmale eines Lichtmusters zusätzlich zu dem 3D-Oberflächenprofil zur Verfügung gestellt werden. Beispielsweise kann man ein auf der Oberfläche eines Objekts markiertes „X“ zusätzlich zu den allgemeinen Koordinaten abrufen, die der Position des „X“ entsprechen.
  • In einigen Fällen ist eventuell vorzeitig bekannt, dass bestimmte Abschnitte fotografierter Oberflächen relativ glatt sind. Dies bedeutet mit anderen Worten, dass diese Abschnitte keine scharfen Diskontinuitäten oder Feinmerkmale aufweisen. Es ist in diesen Fällen unter Umständen möglich, die ermittelten Kardinalpunkte zur Konstruktion eines nicht gemessenen Abschnitts der Oberfläche in drei Dimensionen zu verwenden. Die Kardinalpunkte können beispielsweise gleichmäßig auf eine zylindrische Form über einen Abschnitt der Oberfläche passen und so kann die Software automatisch die zylindrische Form zur Verfügung stellen.
  • In dem Fall, in dem eine Gesamtform für einen Abschnitt einer Oberfläche bekannt ist, ist es eventuell möglich, ein aufgenommenes Bild auf die Oberfläche zu projizieren. Es wird nun zum Beispiel davon ausgegangen, dass die Oberfläche ein farbiges Muster besitzt, das auf eine angenommene Oberfläche projiziert werden kann, die in einem bestimmten Fall beispielsweise eine flache Oberfläche sein könnte. Das Muster kann in diesem Fall von jedem der Bilder, die für die AR-Kamera 2508 in verschiedenen Posen erhalten wurden (eine „Pose“ ist eine Kombination aus einer Position mit drei Freiheitsgraden und einer Orientierung mit drei Freiheitsgraden), auf die angenommene Oberfläche projiziert werden. Man könnte in diesem Fall erwarten, dass sich die Bilder auf der Oberfläche überlappen. Falls dies nicht der Fall ist, würde es darauf hindeuten, dass die vermutete Form nicht korrekt ist, und sollte eine Änderung der Form erfolgen. Es ist in diesem Fall eventuell gute Praxis, zusätzliche Kardinalpunkte basierend auf den Bildern zu erhalten, die von der AR-Kamera 2508 in den verschiedenen Posen aufgenommen wurden. Diese zusätzlichen Kardinalpunkte können anschließend verwendet werden, um das Oberflächenprofil genauer zu ermitteln.
  • Eine AR-Kamera 2508 kann zum Aufnehmen von Hintergrundbildern verwendet werden, also beispielsweise von relativ entfernten Hintergrundobjekten über ein relativ großes Sichtfeld, und sie kann auch zum Aufnehmen von Vordergrundbildern benutzt werden, die zum Beispiel Bilder eines Objekts sein können, das mit dem 6-DOF-Triangulationsscanner 2500 abgetastet wird.
  • Wie aus dem vorangehenden, in 16 veranschaulichten „dynamischen Triangulationsverfahren“ 1600 hervorgeht, werden die mit der AR-Kamera 2508 an verschiedenen Kamerapositionen und -orientierungen aufgenommenen Bilder basierend teilweise auf der Kenntnis der sechs Freiheitsgrade zusammen registriert, die vom Lasertracker bereitgestellt wurden. Es ist dementsprechend möglich, die 2D-Bilder der AR-Kamera 2508 mit dem richtigen Dimensionsmaßstab und mit weniger Kamerabildern als sonst möglich zu registrieren.
  • Sobald die 3D-Bilder mittels Ausgestaltungen der vorliegenden Erfindung erzeugt wurden, können Daten über diese Bilder gelegt bzw. eingeblendet werden. Wenn die 3D-Bilder beispielsweise diejenigen eines gerade im Bau befindlichen oder bereits gebauten Objekts sind, können die über die 3D-Bilder eingeblendeten Daten CAD-Konstruktionsdaten des Objekts umfassen. Die CAD-Daten können in dem Speicher gespeichert werden, der dem Lasertracker 5 (1) zugeordnet ist. Es können andere Datentypen über die Kamerabilder eingeblendet werden, also beispielsweise Markierungen, um anzuzeigen, wo verschiedene Montagevorgänge (Bohren, Befestigen usw.) durchzuführen sind.
  • Eine AR-Kamera 2508 in einem 6-DOF-Triangulationsscanner 2500 kann zum Messen einer Umgebung statt eines (oder zusätzlich dazu) mit dem Scanner 2500 gemessenen Teils verwendet werden. Die AR-Kamera 2508 kann beispielsweise eine relativ lange Brennweite haben, die ihr die Möglichkeit bietet, ein Bild mit höherer Auflösung zur Verfügung zu stellen, das ihre Umgebung mit größeren Details als die Triangulationskamera 2530 aufnimmt. Bei einer anderen Ausgestaltung hat die AR-Kamera 2508 eine relativ kurze Brennweite, die ihr die Möglichkeit bietet, ein weiteres Sichtfeld als die Triangulationskamera 2530 zu sehen. Die vorstehend beschriebenen Rekonstruktionsverfahren können zum Erhalten einer 3D-Darstellung der Umgebung auf Basis der Bilder der AR-Kamera eingesetzt werden. Ein oder mehrere Teile, die mit dem Scanner 2500 mit einer Genauigkeit von wenigen Mikrometern oder einigen zehn Mikrometern gemessen werden, können zum Beispiel in der Umgebung angeordnet werden, die basierend auf den Bildern der AR-Kamera mit einer Genauigkeit weniger Millimeter gemessen wird.
  • Es kann eine Software verwendet werden, um das Objekt und die Umgebung aus verschiedenen Perspektiven und verschiedenen Abständen zu beobachten, wobei die Parallaxenverschiebung zwischen dem Objekt und der Umgebung richtig dargestellt wird. In einigen Fällen kann die Hintergrundinformation von Bedeutung sein. Ein Projekt kann beispielsweise das Befestigen einer Struktur an dem zu messenden Objekt beinhalten, während bestätigt wird, dass ein adäquater Raum in der 3D-Umgebung vorhanden ist, die ein mit der AR-Kamera 2508 erhaltenes 3D-Bild aufweist. Eine solche Struktur kann als CAD-Modell, als abgetastetes Bild einer Teils oder einer Baugruppe oder als eine skalierte 3D-Darstellung, die mittels der Verwendung mehrerer Kamerabilder erhalten wurde, verfügbar sein.
  • Die AR-Kamera 2508 kann in einigen Fällen zum Erhalten von Darstellungen von Bereichen benutzt werden, die gewöhnlich nicht sichtbar sind. Die AR-Kamera kann zum Beispiel dazu benutzt werden, alle Seiten eines Objekts zu betrachten, um 3D-Bilder von Regionen zu erhalten, die nicht ohne Weiteres mit einem Scanner 2500 gemessen werden können. Eine solche vollständige Erfassung aus allen Richtungen ist besonders nützlich, wenn Bilder angezeigt werden – zum Beispiel bei einer Präsentation, auf einer Webseite oder in einer Broschüre. Der Hinzufügung von Farbe (Textur) von der AR-Kamera 2508 ist in diesem Fall ebenfalls von Wert. 3D-Darstellungen, die von der AR-Kamera 2508 erhalten wurden, können durch andere 3D-Darstellungen ergänzt werden. Modelle von Teilen, Baugruppen, Möbeln usw. können in einigen Fällen aus Dateien oder von Webseiten heruntergeladen werden und in eine zusammengesetzte 3D-Darstellung integriert werden.
  • Eine andere wichtige Verwendung für die AR-Kamera 2030 und den 6-DOF-Triangulationsscanner 2500 besteht darin, die richtige Skalierung einer Umgebung zu erzielen. Beispielsweise kann eine Mauer eine linke Seite, eine rechte Seite, eine obere Seite und eine untere Seite aufweisen. Obwohl das vorstehend beschriebene Verfahren zur Anpassung von Kardinalpunkten skalierte 3D-Bilder zur Verfügung stellt, ist die Maßgenauigkeit generell viel besser, wenn 3D-Koordinaten mit dem 6-DOF-Scanner 2500 statt mit Kamerabildern allein gemessen werden. Die Skaliergenauigkeit des zusammengesetzten 3D-Bilds kann in vielen Fällen stark verbessert werden, indem man das zusammengesetzte 3D-Bild, das aus den 2D-Bildern der AR-Kamera erhalten wurde, mit einigen Messungen durch den 6-DOF-Triangulationsscanner 2500 kombiniert. Ein verbesserter Maßstab eines Gebäudes kann beispielsweise erzielt werden, indem eine oder mehrere Positionen auf jeder von der linken, rechten, oberen und unteren Seite mit dem Scanner 2500 gemessen werden.
  • Die AR-Kamera 2508 kann dazu verwendet werden, nur Umgebungen, nur Objekte oder sowohl Umgebungen als auch Objekte zu messen. Das Wort „Objekt“ bedeutet hier bei seiner begrifflichen Verwendung einen Gegenstand, für den genaue Maßangaben verlangt werden. Ein Objekt wird normalerweise mittels des 6-DOF-Triangulationsscanners 2500 gemessen, der eine Genauigkeit in der Größenordnung von einigen zehn Mikrometern besitzt. Eine Messung mit einer AR-Kamera 2508 stellt die Fähigkeit bereit, Bilder über Zeichnungen (z. B. CAD) einzublenden. Durch Erhalten von 2D-Bildern eines Objekts aus mehreren Richtungen ist es ferner möglich, aus allen Richtungen eine Einblendung über ein Objekt zu legen.
  • Ein Objekt kann in seiner Umgebung positioniert werden, deren 3D-Koordinaten mittels der Verwendung der AR-Kamera 2508 erhalten werden. Mit der durch die AR-Kamera und den 6-DOF-Triangulationsscanner 2500 bereitgestellten Information können die Objekte aus einer Vielzahl von Perspektiven relativ zu ihrer Umgebung angesehen werden und kann außerdem ein Objekt oder seine Umgebung aus allen Richtungen betrachtet werden.
  • Bei einer Ausgestaltung wird ein rein grafisches Element (das beispielsweise ein photographisches Element, ein gezeichnetes Element oder ein bildlich voll aufgebautes Element sein könnte) in einem zusammengesetzten Bild angeordnet. Ein erstes Beispiel für ein solches grafisches Element ist eine Hinzufügung zu einer Werkzeugmaschine auf einer Fertigungsfläche. Eine solche Hinzufügung könnte über ein CAD-Modell eingeblendet werden, auf das ein zusammengesetztes Farbbild gelegt wird. Die Hinzufügung könnte ein neues bearbeitetes Werkstück sein. Eine Sammlung solcher Hinzufügungen kann im Rahmen einer Fertigungsumgebung angeordnet werden, um zu gewährleisten, dass alle Elemente richtig passen. Ein zweites Beispiel für ein solches grafisches Element ist ein neuer Gegenstand einer Maschinenausstattung oder ein Möbelstück, der bzw. das in derselben Fertigungsumgebung angeordnet wird. Hier könnte sich die Frage ergeben, ob ein solches Element in die neuen Pläne passt. In einigen Fällen stehen möglicherweise Webseiten zur Verfügung, die das Herunterladen solcher 3D-Bilder aus der Cloud erlauben, die ein Netzwerk ist, das normalerweise im Internet durch einen Dienstanbieter vorhanden ist. Mit einigen Benutzerschnittstellen kann eine solche 3D-Komponente mittels einer Computermaus zur betreffenden Position bewegt werden und dann von verschiedenen Positionen und Orientierungen aus betrachtet werden.
  • Obwohl die Erfindung anhand von Beispielausgestaltungen beschrieben wurde, versteht es sich für den Fachmann, dass verschiedene Änderungen vorgenommen und Äquivalente an Stelle von Merkmalen davon eingesetzt werden können, ohne von dem Schutzbereich der Erfindung abzuweichen. Ferner können zahlreiche Modifikationen erfolgen, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Erfindung anzupassen, ohne von deren wesentlichem Schutzbereich abzuweichen. Es ist demzufolge beabsichtigt, dass die Erfindung nicht auf die bestimmte Ausgestaltung beschränkt ist, die als die zur Durchführung dieser Erfindung beste Ausführungsform erachtete offenbart wurde, sondern dass die Erfindung alle Ausgestaltungen umfasst, die im Schutzbereich der beigefügten Ansprüche liegen. Ferner bedeutet die Verwendung der Begriffe „erster“, „zweiter“ usw. nicht irgendeine Reihenfolge oder Bedeutsamkeit, sondern werden die Begriffe „erster“, „zweiter“ usw. vielmehr zur Unterscheidung eines Merkmals von einem anderen verwendet. Darüber hinaus bedeutet die Verwendung der Begriffe „ein“, „eine“ usw. nicht eine Beschränkung der Menge, sondern vielmehr das Vorhandensein von mindestens einem des Gegenstands, auf den Bezug genommen wird.

Claims (9)

  1. Dreidimensionales (3D) Koordinatenmesssystem umfassend: eine sechs Freiheitsgrade (6 DOF) aufweisende Einheit mit einem Einheitbezugssystem, wobei die Einheit eine Struktur, einen Retroreflektor, einen Triangulationsscanner und eine Kamera mit erweiterter Realität (AR-Kamera) umfasst, wobei der Retroreflektor, der Triangulationsscanner und die AR-Kamera an der Struktur befestigt sind, wobei der Triangulationsscanner eine erste Kamera und einen Projektor umfasst, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster auf ein Objekt zu projizieren, wobei die erste Kamera dafür konfiguriert ist, ein erstes Bild des Lichtmusters auf dem Objekt zu bilden, wobei der Projektor und die erste Kamera dafür konfiguriert sind, derart zusammenzuwirken, dass sie erste 3D-Koordinaten eines Punkts auf dem Objekt im Einheitbezugssystem ermitteln, wobei die Ermittlung zumindest teilweise auf dem projizierten Lichtmuster und dem ersten Bild basiert, wobei die AR-Kamera eine Farbkamera ist, die dafür konfiguriert ist, ein Farbbild im Einheitbezugssystem zu erhalten; und ein Koordinatenmessgerät mit einem Gerätbezugssystem, wobei das Gerät dafür konfiguriert ist, eine Pose des Retroreflektors im Gerätbezugssystem zu messen, wobei die gemessene Pose Messungen von sechs Freiheitsgraden des Retroreflektors umfasst.
  2. 3D-Koordinatenmesssystem nach Anspruch 1, wobei das Koordinatenmessgerät eine Lichtquelle und einen Distanzmesser umfasst, wobei die Lichtquelle dafür konfiguriert ist, einen Lichtstrahl zum Retroreflektor zu senden und als Reaktion einen reflektierten Lichtstrahl aufzufangen, wobei der Distanzmesser dafür konfiguriert ist, einen Abstand zum Retroreflektor basierend zumindest teilweise auf dem reflektierten Lichtstrahl zu messen.
  3. 3D-Koordinatenmesssystem nach Anspruch 2, wobei die AR-Kamera ein weiteres Sichtfeld als die erste Kamera aufweist.
  4. 3D-Koordinatenmesssystem nach Anspruch 1, ferner umfassend einen oder mehrere Prozessoren.
  5. 3D-Koordinatenmesssystem nach Anspruch 4, wobei der eine oder die mehreren Prozessoren dafür konfiguriert ist/sind, in einem ersten Vorgang ein erstes AR-Bild von der AR-Kamera zu empfangen und eine erste gemessene Pose von dem Gerät zu empfangen, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert ist/sind, in einem zweiten Vorgang ein zweites AR-Bild von der AR-Kamera zu empfangen und eine zweite gemessene Pose von dem Gerät zu empfangen, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert ist/sind, einen dem ersten AR-Bild und dem zweiten AR-Bild gemeinsamen ersten Kardinalpunkt zu ermitteln, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert ist/sind, zweite 3D-Koordinaten des ersten Kardinalpunkts im Gerätbezugssystem zu ermitteln.
  6. 3D-Koordinatenmesssystem nach Anspruch 5, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert ist/sind, das erste AR-Bild und das zweite AR-Bild zu einem zusammengesetzten 3D-Bild zu kombinieren.
  7. 3D-Koordinatenmesssystem nach Anspruch 5, wobei der eine oder die mehreren Prozessoren ferner dafür konfiguriert ist/sind, das zusammengesetzte 3D-Bild mit den ersten 3D-Koordinaten des durch den Triangulationsscanner gemessenen Punkts zu kombinieren.
  8. Dreidimensionales (3D) Messverfahren, umfassend: Senden eines ersten Strahls eines ersten Lichts von einem Koordinatenmessgerät zu einem Retroreflektor in einer sechs Freiheitsgrade (6 DOF) aufweisenden Einheit und als Reaktion Auffangen eines reflektierten ersten Strahls eines reflektierten ersten Lichts, wobei das Koordinatenmessgerät ein Gerätbezugssystem aufweist, wobei die 6-DOF-Einheit ein Einheitbezugssystem aufweist, wobei die 6-DOF-Einheit eine Struktur, den Retroreflektor, einen Triangulationsscanner und eine AR-Kamera umfasst, wobei der Retroreflektor, der Triangulationsscanner und die AR-Kamera an der Struktur befestigt sind, wobei der Triangulationsscanner eine erste Kamera und einen Projektor umfasst, wobei die AR-Kamera eine Farbkamera ist, die dafür konfiguriert ist, ein Farbbild im Einheitbezugssystem zu erhalten; Ermitteln einer ersten Pose des Retroreflektors durch das Koordinatenmessgerät basierend zumindest teilweise auf dem reflektierten ersten Strahl, wobei die ermittelte erste Pose aus Messungen der sechs Freiheitsgrade des Retroreflektors im Gerätbezugssystem besteht; Projizieren eines ersten Lichtmusters aus dem Projektor auf ein Objekt; Bilden eines ersten Bilds einer Reflexion des ersten Lichtmusters von dem Objekt mit der ersten Kamera; Ermitteln erster 3D-Koordinaten eines ersten Punkts auf dem Objekt im Gerätbezugssystem mit einem oder mehreren Prozessoren basierend zumindest teilweise auf dem ersten Lichtmuster, dem ersten Bild und der ermittelten ersten Pose des Retroreflektors; Auffangen eines ersten Farbbilds im Einheitbezugssystem mit der AR-Kamera; und Kombinieren der ersten 3D-Koordinaten und des ersten Farbbilds in einem gemeinsamen Bezugssystem mit dem einen oder den mehreren Prozessoren basierend zumindest teilweise auf der ermittelten ersten Pose des Retroreflektors.
  9. 3D-Messverfahren nach Anspruch 8, ferner umfassend: Senden eines zweiten Strahls des ersten Lichts von dem Koordinatenmessgerät zum Retroreflektor und als Reaktion Auffangen eines zweiten reflektierten Strahls; Ermitteln einer zweiten Pose des Retroreflektors durch das Koordinatenmessgerät basierend zumindest teilweise auf dem reflektierten zweiten Strahl; Projizieren eines zweiten Lichtmusters aus dem Projektor auf das Objekt; Bilden eines zweiten Bilds einer Reflexion des zweiten Lichtmusters von dem Objekt mit der ersten Kamera; Ermitteln zweiter 3D-Koordinaten eines zweiten Punkts auf dem Objekt im Gerätbezugssystem mit dem einen oder den mehreren Prozessoren basierend zumindest teilweise auf dem zweiten Lichtmuster, dem zweiten Bild und der ermittelten zweiten Pose des Retroreflektors; Auffangen eines zweiten Farbbilds im Einheitbezugssystem mit der AR-Kamera; und Kombinieren der ersten 3D-Koordinaten, der zweiten 3D-Koordinaten, des ersten Farbbilds und des zweiten Farbbilds in einem gemeinsamen Bezugssystem mit dem einen oder den mehreren Prozessoren basierend zumindest teilweise auf der ermittelten ersten Pose des Retroreflektors und der ermittelten zweiten Pose des Retroreflektors.
DE112015003734.9T 2014-08-11 2015-08-10 Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität Withdrawn DE112015003734T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462035587P 2014-08-11 2014-08-11
US62/035,587 2014-08-11
US14/820,665 2015-08-07
US14/820,665 US10021379B2 (en) 2014-06-12 2015-08-07 Six degree-of-freedom triangulation scanner and camera for augmented reality
PCT/US2015/044409 WO2016025358A1 (en) 2014-08-11 2015-08-10 A six degree-of-freedom triangulation scanner and camera for augmented reality

Publications (1)

Publication Number Publication Date
DE112015003734T5 true DE112015003734T5 (de) 2017-06-14

Family

ID=53836913

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015003734.9T Withdrawn DE112015003734T5 (de) 2014-08-11 2015-08-10 Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität

Country Status (4)

Country Link
JP (1) JP2017524944A (de)
DE (1) DE112015003734T5 (de)
GB (1) GB2543459A (de)
WO (1) WO2016025358A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017101580A1 (de) 2017-01-26 2018-07-26 Picofine GmbH Messkopf für ein Laserinterferometer und betreffendes Messverfahren
DE102017212973A1 (de) * 2017-07-27 2019-01-31 Friedrich-Alexander-Universität Erlangen - Nürnberg Abstandsmessvorrichtung, Messsystem und Verfahren zur optischen Abstandsmessung

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109238247B (zh) * 2018-07-15 2021-07-02 天津大学 一种面向大空间复杂现场的六自由度测量方法
AU2019336263A1 (en) * 2018-09-04 2021-04-08 Fastbrick Ip Pty Ltd Vision system for a robotic machine
JP7112929B2 (ja) * 2018-09-28 2022-08-04 株式会社トプコン 点群データ表示システム
JP7118845B2 (ja) * 2018-10-04 2022-08-16 株式会社トプコン 角度検出システム
CN110006339B (zh) * 2019-03-25 2021-08-10 北京卫星制造厂有限公司 一种天线反射器复材模具型面精度在位测量方法及系统
JP2021051031A (ja) * 2019-09-26 2021-04-01 株式会社ミツトヨ 測定支援システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9020240B2 (en) * 2007-08-10 2015-04-28 Leica Geosystems Ag Method and surveying system for noncontact coordinate measurement on an object surface
CN103398656B (zh) * 2007-08-10 2016-08-10 莱卡地球系统公开股份有限公司 用于在物体表面上进行非接触坐标测量的方法和勘测系统
WO2011120526A1 (en) * 2010-03-30 2011-10-06 3Shape A/S Scanning of cavities with restricted accessibility
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
GB2504890A (en) * 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017101580A1 (de) 2017-01-26 2018-07-26 Picofine GmbH Messkopf für ein Laserinterferometer und betreffendes Messverfahren
DE102017212973A1 (de) * 2017-07-27 2019-01-31 Friedrich-Alexander-Universität Erlangen - Nürnberg Abstandsmessvorrichtung, Messsystem und Verfahren zur optischen Abstandsmessung

Also Published As

Publication number Publication date
GB2543459A (en) 2017-04-19
JP2017524944A (ja) 2017-08-31
WO2016025358A1 (en) 2016-02-18
GB201701984D0 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
DE112015002755T5 (de) Koordinatenmessgerät mit einer Handsonde mit sechs Freiheitsgraden und integrierter Kamera für erweiterte Realität
DE112012001714B4 (de) Dimensionsmessvorrichtung und Verfahren zur Inbetriebnahme einer Dimensionsmessvorrichtung
US10574963B2 (en) Triangulation scanner and camera for augmented reality
DE112012005779B4 (de) Lasertracker in Verwendung mit einer Sonde mit sechs Freiheitsgraden mit abnehmbarem sphärischem Retroreflektor
DE112015003734T5 (de) Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität
US10021379B2 (en) Six degree-of-freedom triangulation scanner and camera for augmented reality
DE112014003088T5 (de) Lasertracker, der mit einem entfernten Kamerastab und Koordinatenmessgerät zusammenwirkt
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE112012001082B4 (de) Verfahren zum Messen von Zielen
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112013006651T5 (de) Optisches Mehrfachmodus-Messgerät und Betriebsverfahren
DE112013002511T5 (de) Vorrichtung und Verfahren zur Kompensation von Lagerunwucht bei einem Lasertracker
DE112016004085T5 (de) Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung
DE102017131102A1 (de) System zum messen von sechs freiheitsgraden
DE102015205110B4 (de) Koordinatenmessgerät mit Distanzmesser zur Verwendung für die Erstellung eines Bezugsrahmens
DE102016107312A1 (de) Kombiniertes Scanner- und Trackergerät mit einem Fokussiermechanismus
DE102015106837B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels Gesten und Vorrichtung hierzu

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee