DE112014003227T5 - Dredimensionales Messgerät mit dreidimensionaler Übersichtskamera - Google Patents

Dredimensionales Messgerät mit dreidimensionaler Übersichtskamera Download PDF

Info

Publication number
DE112014003227T5
DE112014003227T5 DE112014003227.1T DE112014003227T DE112014003227T5 DE 112014003227 T5 DE112014003227 T5 DE 112014003227T5 DE 112014003227 T DE112014003227 T DE 112014003227T DE 112014003227 T5 DE112014003227 T5 DE 112014003227T5
Authority
DE
Germany
Prior art keywords
camera
rotation angle
light beam
axis
measuring machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112014003227.1T
Other languages
English (en)
Other versions
DE112014003227B4 (de
Inventor
Robert E. Bridges
David H. Parker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112014003227T5 publication Critical patent/DE112014003227T5/de
Application granted granted Critical
Publication of DE112014003227B4 publication Critical patent/DE112014003227B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Gerät zum optischen Abtasten und Vermessen einer Umgebung wird bereitgestellt. Das Gerät umfasst ein erstes Messgerät, das einen Lichtstrahl in eine Richtung aussendet, um eine Distanz zu einem entfernten Ziel zu messen, basierend zumindest teilweise auf Licht, das von dem entfernten Ziel reflektiert wird. Eine dreidimensionale Kamera, die an einer Peripherie des ersten Messgeräts befestigt ist, ist konfiguriert, um ein Bild von einem Objekt aufzuzeichnen. Ein Prozessor ist an das erste Messgerät und die dreidimensionale Kamera betriebsfähig gekoppelt und reagiert auf das Bestimmen der dreidimensionalen Koordinaten des Messpunkts, basierend zumindest teilweise auf den Drehwinkeln des Geräts und der Distanz. Der Prozessor reagiert außerdem auf das Bestimmen der dreidimensionalen Koordinaten einer Vielzahl von Punkten auf dem Objekt, basierend zumindest teilweise auf den Drehwinkeln des Geräts und dem Bild.

Description

  • Hintergrund
  • Die vorliegende Offenbarung bezieht sich auf ein Koordinatenmessgerät. Ein Satz von Koordinatenmessgeräten gehört zu einer Klasse von Instrumenten, die die dreidimensionalen(3D-)Koordinaten eines Punkts durch Senden eines Laserstrahls zu dem Punkt messen, wo er von einem Retroreflektorziel aufgefangen wird. Das Instrument ermittelt die Koordinaten des Punkts, indem es den Abstand und die zwei Winkel zum Ziel misst. Der Abstand wird mit einem Distanzmessgerät, wie z. B. einem Absolutdistanzmesser (ADM) oder einem Interferometer, gemessen. Die Winkel werden mit einem Winkelmessgerät, wie z. B. einem Winkelkodierer, gemessen. Ein kardanisch aufgehängter Strahllenkungsmechanismus in dem Instrument richtet den Laserstrahl auf den interessierenden Punkt. Beispiele für ein solches Gerät umfassen einen Lasertracker, eine Totalstation und einen Laufzeit(TOF)-Scanner.
  • Normalerweise sendet der Lasertracker einen Laserstrahl zu einem Retroreflektorziel. Ein üblicher Typ des Retroreflektorziels ist der sphärisch montierte Retroreflektor (spherically mounted retroreflector; SMR), der einen in eine Metallkugel eingebetteten Würfelecken-Retroreflektor umfasst. Der Würfelecken-Retroreflektor umfasst drei zueinander senkrechte Spiegel. Der Scheitelpunkt der Würfelecke, der der gemeinsame Schnittpunkt der drei Spiegel ist, befindet sich in der Mitte der Kugel. Es ist in der Praxis üblich, dass die Kugeloberfläche des SMR in Kontakt mit einem Prüfobjekt angeordnet wird und der SMR anschließend über die zu messende Oberfläche bewegt wird. Wegen dieser Platzierung der Würfelecke in der Kugel bleibt der senkrechte Abstand vom Scheitelpunkt der Würfelecke zu der Oberfläche des Prüfobjekts trotz der Drehung des SMR gleich. Demzufolge kann man die 3D-Koordinaten einer Oberfläche ermitteln, indem man einen Tracker die 3D-Koordinaten eines über die Oberfläche bewegten SMR verfolgen lässt. Man kann ein Glasfenster oben auf dem SMR anordnen, um zu verhindern, dass Staub oder Schmutz die Glasoberflächen verunreinigt.
  • Ein Kardanmechanismus innerhalb des Lasertrackers kann dazu verwendet werden, einen Laserstrahl vom Tracker auf den SMR zu richten. Ein Teil des vom SMR retroreflektierenden Lichts tritt in den Lasertracker ein und wird auf einen Positionsdetektor weitergeleitet. Die Position des Lichts, das auf den Positionsdetektor trifft, wird von einem Trackerregelungssystem dazu verwendet, die Drehwinkel der mechanischen Azimut- und Zenitachsen des Lasertrackers derart einzustellen, dass der Laserstrahl auf den SMR zentriert bleibt. Auf diese Weise ist der Tracker in der Lage, dem SMR während dessen Bewegung zu folgen (nachgeführt zu werden).
  • Die an den mechanischen Azimut- und Zenitachsen des Trackers angebrachten Winkelkodierer können den Drehwinkel um die Azimut- und Zenitachsen des Laserstrahls (in Bezug auf das Trackerbezugssystem) messen. Die eine Distanzmessung und die zwei Winkelmessungen, die vom Lasertracker ausgeführt werden, reichen aus, um den dreidimensionalen Ort des SMR vollständig zu spezifizieren.
  • Wie zuvor erwähnt, kann man zwei Typen von Distanzmessern in Lasertrackern finden: Interferometer und Absolutdistanzmesser (ADMs). In dem Lasertracker kann ein Interferometer (falls vorhanden) die Distanz von einem Anfangspunkt zu einem Endpunkt bestimmen, indem es die Anzahl von Inkrementen bekannter Länge (normalerweise die halbe Wellenlänge des Laserlichts) zählt, die durchgehen, während ein Retroreflektorziel zwischen den zwei Punkten bewegt wird. Wenn der Laserstrahl während der Messung unterbrochen wird, kann die Anzahl der Impulse nicht genau ermittelt werden, wodurch die Information über die Distanz verloren geht. Im Vergleich dazu bestimmt der ADM in einem Lasertracker die absolute Distanz zu einem Retroreflektorziel ohne Berücksichtigung von Strahlunterbrechungen, was ferner ein Umschalten zwischen Zielen ermöglicht. Es wird daher auch gesagt, dass der ADM zu einer Messung durch Anvisieren und Auslösen in der Lage ist. Anfangs konnten Absolutdistanzmesser nur ortsfeste Ziele messen und wurden aus diesem Grund immer zusammen mit einem Interferometer eingesetzt. Jedoch können einige moderne Distanzmesser schnelle Messungen ausführen, wodurch die Notwendigkeit eines Interferometers entfällt.
  • Manche Lasertracker umfassen eine oder mehrere Kameras. Eine Kameraachse kann zum Messstrahl koaxial oder um eine feste Distanz oder einen festen Winkel versetzt sein. Eine Kamera kann dazu verwendet werden, ein weites Sichtfeld zum Orten von Retroreflektoren bereitzustellen. Eine modulierte Lichtquelle, die nahe der optischen Kameraachse platziert ist, kann die Retroreflektoren ausleuchten, wodurch sie sich leichter identifizieren lassen. In diesem Fall blitzen die Retroreflektoren phasengleich mit der Ausleuchtung auf, wohingegen die Hintergrundobjekte dies nicht tun. Eine Anwendung für eine solche Kamera besteht darin, mehrere Retroreflektoren im Sichtfeld zu detektieren und jeden in einem automatisierten Ablauf zu messen.
  • Einige Lasertracker verfügen über die Fähigkeit, die Messung mit sechs Freiheitsgraden (degrees of freedom; DOF) vorzunehmen, die drei Koordinaten, wie z. B. x, y und z, und drei Drehungen, wie z. B. Nicken, Rollen und Gieren, umfassen können. Mehrere, auf Lasertracker basierte Systeme stehen zur Verfügung oder wurden für das Messen der sechs Freiheitsgrade vorgeschlagen.
  • Laserscanner bestimmen die 3D-Koordinaten von Punkten auf einer Objektoberfläche dadurch, dass sie einen Lichtstrahl direkt auf die Oberfläche projizieren und dann das reflektierte Licht auffangen und analysieren. Typischerweise kommen Laserscanner beim Abtasten von geschlossenen und offenen Räumen, wie z. B. Innenbereichen von Gebäuden, Industrieanlagen und Tunneln, zur Anwendung. Laserscanner werden für viele Zwecke verwendet, die industrielle Anwendungen und Unfallrekonstruktionsanwendungen umfassen. Ein Laserscanner kann für das optische Abtasten und Vermessen von Objekten in einem Volumen rund um den Scanner eingesetzt werden, und zwar durch die Erfassung von Oberflächenpunkten, die die Objekte innerhalb des Volumens repräsentieren.
  • Einige moderne Laserscanner können auch eine Kamera enthalten, die auf dem Laserscanner angebracht oder in ihn integriert ist, um digitale Kamerabilder der Umgebung zu sammeln und um die digitalen Kamerabilder einem Bediener zu präsentieren. Durch Betrachten der Kamerabilder kann der Bediener die Ausdehnung des vermessenen Volumens bestimmen und die Einstellungen des Laserscanners so anpassen, dass die Messung über einen größeren oder kleineren Raumbereich erfolgt. Außerdem können die digitalen Kamerabilder an einen Prozessor übermittelt werden, um dem Scannerbild Farbe hinzuzufügen.
  • Die Erfassung dreidimensionaler Koordinaten von Oberflächenpunkten durch Laserscanner kann zu einer großen Menge von Daten führen, die Millionen von Oberflächenpunkten umfassen. Viele dieser Oberflächenpunkte werden vielleicht nicht benötigt, um die Objekte oder Oberflächen innerhalb des abgetasteten Volumens adäquat zu repräsentieren. Einige irrelevante Daten können während der Nachbearbeitung entfernt werden.
  • Es ist häufig nützlich, die Umgebung, die das 3D-Messinstrument umgibt, in drei Dimensionen zu charakterisieren. Gewöhnlich muss eine solche Information von einem Bediener bereitgestellt werden. Folglich bleibt, obwohl die existierenden 3D-Messinstrumente für ihre vorgesehenen Zwecke geeignet sind, der Bedarf an einer Verbesserung bestehen.
  • Zusammenfassung
  • Gemäß einer Ausgestaltung der Erfindung wird ein Koordinatenmessgerät bereitgestellt. Das Messgerät sendet einen ersten Lichtstrahl an ein entferntes Ziel, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt und das Koordinatenmessgerät ein Gerätebezugssystem aufweist. Wobei das Messgerät einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen. Wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird. Ein erstes Winkelmessgerät wird bereitgestellt, das den ersten Drehwinkel misst sowie ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst. Ein Distanzmesser wird bereitgestellt, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf dem zweiten Lichtstrahl, der von einem optischen Detektor empfangen wird. Ein erster Teil des Koordinatenmessgeräts dreht sich um die erste Achse. Ein zweiter Teil des Koordinatenmessgeräts dreht sich um die zweite Achse. Ein dritter Teil des Koordinatenmessgeräts ist bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend. Eine 3D-Laufzeit(TOF)-Kamera ist an einer Peripherie eines Teils des Koordinatenmessgeräts positioniert, wobei der Teil ausgewählt ist aus der Gruppe, bestehend aus dem ersten Teil, dem zweiten Teil und dem dritten Teil, und die Kamera konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen. Ein Prozessor ist konfiguriert, um mindestens eine erste dreidimensionale(3D-)Koordinate im Gerätebezugssystem des entfernten Ziels zu bestimmen, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert, wobei der Prozessor ferner konfiguriert ist, um eine Vielzahl von zweiten 3D-Koordinaten im Gerätebezugssystem zu bestimmen und die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
  • Gemäß einer Ausgestaltung der Erfindung wird ein Koordinatenmessgerät bereitgestellt. Das Messgerät sendet einen ersten Lichtstrahl an ein entferntes Ziel, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt und das Gerät ein Gerätebezugssystem aufweist. Wobei das Messgerät einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen. Wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird. Ein erstes Winkelmessgerät wird bereitgestellt, das den ersten Drehwinkel misst sowie ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst. Ein Distanzmesser wird bereitgestellt, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf dem zweiten Lichtstrahl, der von einem ersten optischen Detektor empfangen wird. Eine Lichtfeldkamera (light-field camera) ist auf dem Koordinatenmessgerät positioniert, wobei die Lichtfeldkamera eine Mikrolinsenanordnung und eine photosensitive Anordnung umfasst und konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen. Ein Prozessor ist konfiguriert, um eine erste dreidimensionale(3D-)Koordinate des entfernten Ziels im Gerätebezugssystem zu bestimmen, wobei die 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert. Wobei der Prozessor ferner konfiguriert ist, um das Objekt scharfzustellen und um eine Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem zu bestimmen, wobei die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
  • Gemäß einer anderen Ausgestaltung der Erfindung wird ein Verfahren zum optischen Abtasten und Vermessen einer Umgebung bereitgestellt. Das Verfahren umfasst die folgenden Schritte: Bereitstellen eines Geräts, das einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen, wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird, wobei das Gerät ferner einen ersten Teil, der sich um die erste Achse dreht, einen zweiten Teil, der sich um die zweite Achse dreht, und einen dritten Teil aufweist, der bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend ist, wobei das Gerät ferner einen Distanzmesser aufweist, der angeordnet ist, um einen zweiten Lichtstrahl zu empfangen, der von einem entfernten Ziel reflektiert wird, wobei der zweite Lichtstrahl ein Teil des ersten Lichtstrahls ist und das Gerät ein Gerätebezugssystem aufweist; Bereitstellen einer dreidimensionalen(3D-)Kamera, die an eine Peripherie von einem des ersten Teils, des zweiten Teils oder des dritten Teils betriebsfähig gekoppelt ist, wobei die 3D-Kamera ausgewählt ist aus der Gruppe, bestehend aus einer 3D-Laufzeit(TOF)-Kamera und einer Lichtfeldkamera; Erfassen eines Kamerabilds eines Objekts mit der 3D-Kamera; Drehen des ersten Teils mit dem ersten Motor bis zum ersten Drehwinkel und des zweiten Teils mit dem zweiten Motor bis zum zweiten Drehwinkel; Aussenden des ersten Lichtstrahls und Empfangen des zweiten Lichtstrahls, der von dem entfernten Ziel reflektiert wird; Bestimmen einer ersten Distanz zu dem entfernten Ziel mit dem Distanzmesser als Reaktion auf das Empfangen des zweiten Lichtstrahls; Bestimmen von mindestens einer ersten 3D-Koordinate des entfernten Ziels im Gerätebezugssystem, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert; und Bestimmen einer Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem, wobei die zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basieren.
  • Kurze Beschreibung der Zeichnungen
  • Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Patentbeschreibung besonders hervorgehoben und eindeutig beansprucht. Die vorangehenden und anderen Merkmale und Vorteile der Erfindung gehen aus der folgenden detaillierten Beschreibung in Verbindung mit den dazugehörigen Zeichnungen hervor. Es zeigen:
  • 1, die die 1A1C umfasst: perspektivische Ansichten von exemplarischen Lasertrackern;
  • 2: Rechen- und Energieversorgungsglieder, die am Lasertracker von 1 angebracht sind;
  • 3: ein Blockschaltbild eines dem Lasertracker von 1 zugeordneten Elektronik-Verarbeitungssystems;
  • 4: eine perspektivische Ansicht eines Laserscannergeräts gemäß einer Ausgestaltung der Erfindung;
  • 5: eine schematische Veranschaulichung des Laserscanners von 4; und
  • 6: eine perspektivische Ansicht des Lasertrackers von 1, der konfiguriert ist, um auf die Gesten vom Bediener zu reagieren.
  • Detaillierte Beschreibung der bevorzugten Ausgestaltungen
  • In 1 ist ein exemplarisches Messgerät, wie beispielsweise ein Lasertracker 10, dargestellt. Ein exemplarischer kardanisch aufgehängter Strahllenkungsmechanismus 12 des Lasertrackers 10 umfasst einen Zenitschlitten 14, der auf einem Azimutsockel 16 angebracht ist und um eine Azimutachse 20 gedreht wird. Eine Nutzlast 15 ist auf dem Zenitschlitten 14 angebracht und wird um eine Zenitachse 18 gedreht. Die mechanische Zenitdrehachse 18 und die mechanische Azimutdrehachse 20 schneiden sich orthogonal innerhalb des Lasertrackers 10 an einem Kardanpunkt 22, der normalerweise der Ursprung für Distanzmessungen ist. Der Lasertracker verwendet einen Lichtstrahl, wie z. B. einen Laserstrahl 46, der praktisch durch den Kardanpunkt 22 hindurch verläuft und orthogonal zu der Zenitachse 18 gerichtet ist. Dies bedeutet, dass sich der Weg des Laserstrahls 46 in der Ebene erstreckt, die senkrecht zur Zenitachse 18 ist. Der Laserstrahl 46 wird von Motoren innerhalb des Lasertrackers (nicht dargestellt), die die Nutzlast 15 um die Zenitachse 18 und um die Azimutachse 20 drehen, in die gewünschte Richtung geführt. Die Zenit- und Azimutwinkelkodierer innen im Lasertracker (nicht dargestellt) sind an der mechanischen Zenitachse 18 und der mechanischen Azimutachse 20 befestigt und geben mit hoher Genauigkeit die Drehwinkel an. Der Laserstrahl 46 legt den Weg zum externen Retroreflektor 26, wie z. B. einem sphärisch montierten Retroreflektor (SMR) 26 zurück. Indem die Radialdistanz zwischen dem Kardanpunkt 22 und dem Retroreflektor 26 sowie die Drehwinkel um die Zenit- und Azimutachse 18, 20 gemessen werden, wird die Position des Retroreflektors 26 im Kugelkoordinatensystem des Lasertrackers 10 (d. h. im Gerätebezugssystem) ermittelt.
  • Der Laserstrahl kann eine oder mehrere Laserwellenlängen umfassen. Der Klarheit und Einfachheit halber wird in der folgenden Erörterung ein Lenkungsmechanismus des in 1 dargestellten Typs angenommen, wobei die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei anderen Ausgestaltungen sind andere Typen von Lenkungsmechanismen möglich. Beispielsweise wäre es möglich, einen Laserstrahl an einem Spiegel zu reflektieren, der um die Azimut- und Zenitachse gedreht wird. Die hier beschriebenen Methoden sind anwendbar, und zwar ungeachtet des Typs des Lenkungsmechanismus.
  • Bei dem exemplarischen Lasertracker 10 sind Kameras 52 und Lichtquellen 54 auf der Nutzlast 15 angeordnet. Die Lichtquellen 54 leuchten ein oder mehrere Retroreflektorziele 26 aus. Die Lichtquellen 54 können Leuchtdioden (light-emitting diodes; LEDs) sein, die elektrisch angesteuert werden, um wiederholt Strahlen gepulsten Lichts auszusenden. Jede Kamera 52 umfasst einen optischen Detektor wie beispielsweise eine photosensitive Anordnung und eine vor ihr angeordnete Linse. Die photosensitive Anordnung kann ein Array vom Typ komplementärer Metall-Oxid-Halbleiter (complementary metal-oxide semiconductor; CMOS) oder vom Typ ladungsgekoppeltes Bauelement (charge-coupled device; CCD) sein. Die Linse kann ein relativ weites Sichtfeld von beispielsweise dreißig oder vierzig Grad aufweisen und dient dazu, auf der photosensitiven Anordnung Objekte innerhalb des Sichtfelds der Linse abzubilden. Jede Lichtquelle 54 ist so neben der Kamera 52 platziert, dass Licht von der Lichtquelle 54 an jedem Retroreflektorziel 26 auf die Kamera 52 reflektiert wird. Auf diese Weise sind die Retroreflektorbilder vom Hintergrund auf der photosensitiven Anordnung leicht unterscheidbar, da ihre Bildpunkte heller als die Hintergrundobjekte sind und gepulst sind. Es können zwei Kameras 52 und zwei Lichtquellen 54 vorhanden sein, die rings um die Linie des Laserstrahls 46 angeordnet sind. Durch den derartigen Einsatz von zwei Kameras kann man das Prinzip der Triangulation anwenden, um die dreidimensionalen Koordinaten eines beliebigen SMR innerhalb des Sichtfelds der Kamera aufzufinden. Ferner können die dreidimensionalen Koordinaten des SMR überwacht werden, während der SMR von Punkt zu Punkt bewegt wird. Eine Verwendung von zwei Kameras für diesen Zweck wird in der veröffentlichten US-amerikanischen Patentanmeldung, Aktenzeichen 2010/0128259, an Bridges beschrieben.
  • Es sind andere Anordnungen von einer oder mehreren Kameras und Lichtquellen möglich. Eine Lichtquelle und eine Kamera können beispielsweise koaxial oder fast koaxial zu den vom Tracker emittierten Laserstrahlen sein. Es ist in diesem Fall unter Umständen erforderlich, dass eine optische Filterung oder ähnliche Verfahren eingesetzt werden, um eine Sättigung der photosensitiven Anordnung der Kamera mit dem Laserstrahl des Trackers zu vermeiden.
  • Bei der exemplarischen Ausgestaltung kann der Lasertracker 10 außerdem eine dreidimensionale(3D-)Kameravorrichtung 55 umfassen. Die 3D-Kameravorrichtung 55 kann sowohl visuelle als auch Distanzinformationen erfassen. So wie hierin verwendet, ist eine 3D-Kamera eine Einrichtung, die imstande ist, die Distanz zu einer Objektoberfläche über eine Vielzahl von Pixeln auf dem 3D-Kamera-Bildsensor zu bestimmen. Jedes der Pixel entspricht auch einem Winkel in Bezug auf den 3D-Kamera-Bildsensor. Sowohl die Distanz als auch der Winkel, die jedem Pixel entsprechen, können in das Gerätebezugssystem (d. h. das lokale Koordinatensystem) des Lasertrackers 10 transformiert werden, und zwar unter Verwendung mathematischer Verfahren, die Anwendern mit einem durchschnittlichen Fachwissen allgemein bekannt sind. Je nach dem Typ des 3D-Kamera-Bildsensors kann der 3D-Kamera-Bildsensor entweder natürliches Licht oder eine externe Lichtquelle zum Ermitteln der 3D-Koordinaten einsetzen. In Gegensatz zu einem Scanner, der Triangulationsprinzipien mit einer 3D-Kamera nutzt, kann ggf. keine feste Beziehung zwischen dem 3D-Kamera-Bildsensor und der Lichtquelle vorhanden sein. Es ist deutlich zu machen, dass in den meisten Fällen die Genauigkeit der 3D-Kamera wesentlich kleiner ist als die des Lasertrackers 10. Die 3D-Kamera kann, aber ohne darauf beschränkt zu sein, eine Lichtfeldkamera (light-field camera) und eine Laufzeit(TOF)-Kamera umfassen.
  • Eine Lichtfeldkamera, die manchmal auch als plenoptische Kamera bezeichnet wird, umfasst eine 3D-Kamera, die eine Mikrolinsenanordnung zum Erfassen von 4D-Lichtfeldinformationen über das erfasste Bild verwendet. Bei einer Ausgestaltung wird eine Anordnung von Mikrolinsen an der Brennebene einer Kamerahauptlinse platziert. Ein Bildsensor ist geringfügig hinter den Mikrolinsen angeordnet. Der Bildsensor könnte eine photosensitive Anordnung, wie z. B. ein CMOS- oder CCD-Array, sein. Unter Verwendung von vom Bildsensor gesammelten Bildern kann die Verschiebung von nicht scharf abgebildeten Bilderteilen analysiert werden, um Tiefeninformationen zu extrahieren. Eine Lichtfeldkamera kann basierend auf natürlichem Licht, einer an die 3D-Kamera gekoppelten Lichtquelle oder einer von der 3D-Kamera externen (entkoppelten) Lichtquelle betrieben werden.
  • Ein TOF-Kameratyp verwendet eine RF-modulierte Lichtquelle mit einem Phasendetektor. Solche TOF-Kameras werden beispielsweise von der PMD Technologies GmbH in Siegen (Deutschland) und der Mesa Imaging AG in Zürich (Schweiz) hergestellt. Das Arbeitsprinzip dieser Geräte beruht auf dem Modulieren des ausgehenden Strahls mit einem RF-Träger, dem Messen der Phasenverschiebung des reflektierten Lichts und dem Bestimmen einer Distanz zum Ziel, basierend auf der Phasenverschiebung und der Lichtgeschwindigkeit in Luft.
  • Ein anderer TOF-Kameratyp ist ein entfernungstorgesteuerter Bildgeber (range gated imager). Solche TOF-Kameras werden beispielsweise vom Fraunhofer IMS (Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme) in Duisburg (Deutschland) und der TriDiCam GmbH in Duisburg (Deutschland) hergestellt. Entfernungstorgesteuerte Bildgeber umfassen einen Einbauverschluss, der sich vor einem Bildsensor befindet. Der Verschluss sendet Lichtimpulse mit der gleichen Geschwindigkeit aus wie sich der Verschluss öffnet und schließt. Durch Prüfen des Bruchteils des empfangenen Lichtimpulses wird die Distanz zum Ziel berechnet.
  • Ein dritter TOF-Kameratyp ist ein direkter TOF-Bildgeber (direct TOF imager). Eine solche TOF-Kamera, die beispielsweise von der Advanced Scientific Concepts, Inc. in Santa Barbara, CA (USA) hergestellt wird, steht für eine Vielzahl von Produkten, die als „3D Flash LIDAR“-Kameras bezeichnet werden. Diese Geräte emittieren einen einzigen Laserlichtimpuls, der von Objekten reflektiert wird, bevor er zur Kamera, die eine Linse und eine photosensitive Anordnung umfasst, zurückgeführt wird. Die Geräte verwenden eine integrierte Ausleseschaltung (readout integrated circuit; ROIC) in einem „Triggermodus“, um räumliche und zeitliche Informationen unter Verwendung eines einzigen Impulses zu erfassen.
  • Es sind viele Typen von TOF-3D-Kameras möglich und die vorliegende Erfindung ist nicht auf die hier oben beschriebenen Typen beschränkt. Jede der Sensoranordnungen, die Distanzmessungen ermöglichen, ermöglicht auch Winkelmessungen, da der Winkel zu jedem Punkt einer Anordnung der TOF-3D-Kamera, basierend zumindest teilweise auf der Position des Pixels und der Brennweite einer Linse innerhalb der 3D-Kamera, berechnet werden kann.
  • Bei einer Ausgestaltung ist eine 3D-Kamera an einer Peripherie eines äußeren Rahmens oder einer Außenfläche des Lasertrackergehäuses positioniert, um zu ermöglichen, dass relative große Sichtfelder (fields of view; FOVs) erhalten werden. Bei einem gegensätzlichen Verfahren ist dagegen eine 3D-Kamera innen in einem Tracker, einer Totalstation oder einem Scanner angeordnet. Wenn die Anordnung innen im Gerät erfolgt, ist das Sichtfeld durch das Vorhandensein der Austrittsapertur des 3D-Instruments notwendigerweise sehr eng ausgeführt. Dieses eingeschränkte Sichtfeld wird bei einer Ausgestaltung dadurch vermieden, dass die 3D-Kamera auf der Nutzlast 15 positioniert wird, bei der es sich um den Teil des Trackers handelt, der sich um die Achse 18 dreht. Das Sichtfeld kann in diesem Fall so gewählt werden, dass es zwischen 30 und 40 Grad liegt, um zu ermöglichen, dass ein Arbeitsbereich in einer Einzelaufnahme visualisiert wird. Da jedoch die Nutzlast in 1A um die Achsen 18 und 20 gedreht werden kann, ist das gesamte Messvolumen für die Betrachtung durch die 3D-Kamera 55 zugänglich. Bei einer Ausgestaltung beträgt das Sichtfeld der 3D-Kamera, wenn sie auf der Nutzlast 15 angeordnet ist, mindestens +/–20 Grad (d. h. es umfasst einen Vollwinkel von 40 Grad).
  • Bei einer anderen, in 1B dargestellten Ausgestaltung ist die 3D-Kamera 55 auf dem Zenitschlitten 14 angeordnet, bei dem es sich um den Teil des Trackers (oder Scanners) handelt, der sich um die Azimutachse 20 dreht. Die 3D-Kamera dreht sich in diesem Fall um die Azimutachse 20, bleibt aber bezogen auf die Zenitachse an einem festen Ort. Eine solche Kamera weist an sich ein relativ weites Sichtfeld auf, um einen gewünschten Teil des potenziellen Messvolumens des Trackers oder Scanners zu betrachten. Bei einer Ausgestaltung weist die an dem Zenitschlitten 14 angebrachte 3D-Kamera 55 ein Sichtfeld von mindestens +/–40 Grad (einem Vollwinkel von 80 Grad) auf.
  • Bei einer, in 1C dargestellten Ausgestaltung ist eine 3D-Kamera 55, die bezogen auf sowohl die Azimutachse 20 als auch die Zenitachse 18 feststehend ist, an den Sockel 16 gekoppelt. Bei einer Ausgestaltung weist die an dem Sockel 16 angebrachte 3D-Kamera 55, da die 3D-Kamera 55 bezogen auf die beweglichen Teile des Lasertrackers oder -scanners feststehend ist, ein Sichtfeld von mindestens +/–60 Grad (einem Vollwinkel von 120 Grad) auf.
  • Bei weiteren, in den 1A, 1B oder 1C dargestellten Ausgestaltungen ist die 3D-Kamera eine Lichtfeldkamera, die nicht nur ermöglicht, dass die 3D-Koordinaten der Vordergrundobjekte gemessen werden, sondern auch die Fähigkeit zur Nachfokussierung und zum Liefern scharfer Bildern der Abbildungsobjekte, nachdem das Bild erfasst ist, besitzt. Dies gilt sogar, wenn einige, der nah oder fern von der Kamera gelegenen Objekte in dem gleichen Bild erfasst werden, wie dies häufig der Fall ist, wenn die 3D-Kamera ein weites Sichtfeld erfasst. So wie hierin verwendet, wird unter dem Begriff „Brennweite“ die Fokalweite von der 3D-Kamera zu einer Ebene oder einem Punkt verstanden, in der bzw. an dem ein Objekt positioniert ist. Innerhalb eines gegebenen, von einer Lichtfeldkamera erfassten Bildes können mehrere Objekte oder Teile von Objekten, alle an einer unterschiedlichen Fokalweite, vorhanden sein. Bei einer Lichtfeldkamera kann jede dieser Fokalweiten während der anschließenden Nachbearbeitung des Bildes selektiv bestimmt werden. Bei einer Ausgestaltung können alle oder im Wesentlichen alle der Objekte innerhalb des Bildes während der Nachbearbeitung des Bildes scharfgestellt werden, um ein Bild bereitzustellen, bei dem alle der Objekte gleichzeitig scharf sind.
  • Obwohl die 1A, 1B und 1C eine am Tracker 10 befestigte 3D-Kamera 55 zeigen, versteht es sich, dass es eine separate 3D-Kamera 55 geben kann, die vom Tracker losgelöst ist. Eine solche separate 3D-Kamera kann innerhalb des Lasertrackers 10 befindliche interne Prozessoren oder einen externen Computer, wie z. B. den in 2 dargestellten Computer 80, mit empfangenen Informationen versorgen.
  • In 2, auf die jetzt Bezug genommen wird, ist eine Ausgestaltung eines Lasertrackers 10 dargestellt, die eine Hilfseinheit 70 aufweist. Die Hilfseinheit 70 versorgt den Lasertracker 10 mit elektrischer Energie und stellt auch in einigen Fällen die Rechen- und Taktfähigkeit bereit. Bei einer Ausgestaltung entfällt die separate Hilfseinheit 70 dadurch, dass die Funktionalität der Hilfseinheit 70 in den Trackersockel 16 verlagert wird. Die Hilfseinheit 70 wird in den meisten Fällen an den Universalcomputer 80 angeschlossen. Auf den Universalcomputer 80 geladene Anwendungssoftware kann Anwendungsfähigkeiten, wie z. B. Reverse Engineering, bereitstellen. Man kann den Universalcomputer 80 auch dadurch eliminieren, dass seine Rechenfähigkeit direkt in den Lasertracker 10 integriert wird. In diesem Fall wird eine Benutzerschnittstelle, die möglicherweise eine Tastatur- und Mausfunktionalität bereitstellt, in den Lasertracker 10 eingebaut. Die Verbindung zwischen der Hilfseinheit 70 und dem Computer 80 kann drahtlos sein und beispielsweise durch Wi-Fi- oder Bluetooth-Übertragungen erfolgen oder kann mittels eines Kabels mit Drähten, wie z. B. einem seriellen, Koaxial- oder Ethernetkabel, verdrahtet sein. Der Computer 80 kann an ein Netzwerk angeschlossen sein und die Hilfseinheit 70 kann ebenfalls an ein Netzwerk angeschlossen sein. Bei einer Ausgestaltung wird die Anwendungssoftware in einer Umgebung für verteiltes Rechnen (distributed computing environment; DCE) betrieben. Es ist deutlich zu machen, dass der Computer 80 direkt an die Hilfseinheit 70 gekoppelt werden kann oder vom Lasertracker 10 entfernt angeordnet und über ein lokales oder Fernnetzwerk (LAN oder WAN) verbunden sein kann. Mehrere Instrumente, wie z. B. mehrere Messinstrumente oder -aktoren, können entweder über den Computer 80 oder die Hilfseinheit 70 miteinander verbunden werden.
  • Der Lasertracker 10 kann zur Seite gedreht, mit der Oberseite nach unten gedreht oder in einer beliebigen Ausrichtung platziert werden. In diesen Situationen weisen die Azimutachse und die Zenitachse die gleiche Richtung in Bezug auf den Lasertracker 10 auf wie die in 1 dargestellten Richtungen, und zwar ungeachtet der Ausrichtung des Lasertrackers 10.
  • Bei einer anderen Ausgestaltung ist die Nutzlast 15 durch einen Spiegel ersetzt, der sich um die Azimutachse 20 und die Zenitachse 18 dreht. Ein Laserstrahl wird nach oben gerichtet und trifft auf den Spiegel, von dem aus er zu einem Retroreflektor 26 hin geworfen wird. Bei wieder einer anderen Ausgestaltung kann die Nutzlast 15 durch zwei oder mehr Galvanometerspiegel ersetzt werden, die unabhängig voneinander gedreht werden, um den Laserstrahl an den gewünschten Ort zu führen.
  • Die hier erörterten Verfahren für den Betrieb des Lasertrackers 10 können mithilfe eines in 3 dargestellten Verarbeitungssystems 800 implementiert werden. Das Verarbeitungssystem 800 umfasst eine Tracker-Verarbeitungseinheit 810 und gegebenenfalls den Computer 80. Die Verarbeitungseinheit 810 umfasst mindestens einen Prozessor, der ein Mikroprozessor, ein digitaler Signalprozessor (DSP), eine feldprogrammierbare Anordnung von Logik-Gattern (FPGA; field-programmable gate array) oder eine ähnliche Vorrichtung sein kann. Es wird eine Verarbeitungsfähigkeit bereitgestellt, um Informationen zu verarbeiten und Befehle an interne Trackerprozessoren auszugeben. Solche Prozessoren können einen Positionsdetektorprozessor 812, einen Azimutkodiererprozessor 814, einen Zenitkodiererprozessor 816, einen Anzeigeleuchtenprozessor 818, einen ADM-Prozessor 820, einen Interferometerprozessor (IFM-Prozessor) 822 und einen Farbkameraprozessor 824 umfassen. Wie nachstehend ausführlicher erörtert wird, kann die Verarbeitungseinheit 810 auch einen 3D-Kameraprozessor oder eine 3D-Kameramaschine 826 umfassen. Ein Hilfseinheitsprozessor 870 stellt gegebenenfalls die Zeitsteuerung sowie die Mikroprozessorunterstützung für andere Prozessoren in der Trackerprozessoreinheit 810 bereit. Er kann mit anderen Prozessoren über einen Gerätebus 830 kommunizieren, welcher Informationen mittels Datenpakete überall im Tracker übertragen kann, wie es im Fachgebiet allgemein bekannt ist. Die Rechenfähigkeit kann in der gesamten Trackerverarbeitungseinheit 810 verteilt werden, wobei DSPs und FPGAs Zwischenberechnungen an Daten durchführen, die von Trackersensoren gesammelt wurden. Die Ergebnisse dieser Zwischenberechnungen werden an den Hilfseinheitsprozessor 870 zurückgegeben. Wie hierin erläutert, kann die Hilfseinheit 70 durch ein Kabel an den Hauptkörper des Lasertrackers 10 angeschlossen werden oder im Hauptkörper des Lasertrackers derart angeordnet werden, dass der Tracker direkt (und gegebenenfalls) an den Computer 80 angeschlossen wird. Die Hilfseinheit 870 kann durch eine Verbindung 840, die beispielsweise ein Ethernet-Kabel oder eine drahtlose Verbindung sein kann, an den Computer 80 angeschlossen werden. Die Hilfseinheit 870 und der Computer 80 können über Verbindungen 842, 844, die beispielsweise Ethernet-Kabel oder drahtlose Verbindungen sein können, an das Netzwerk angeschlossen werden.
  • Es ist deutlich zu machen, dass obwohl die Ausgestaltungen hier den Einsatz der 3D-Kamera 55 mit dem Lasertracker 10 beschreiben, dies nur der Beispielhaftigkeit dient und die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei einer Ausgestaltung, die in den 4 und 5 dargestellt ist, wird die 3D-Kamera mit einem Laufzeit(TOF)-Laserscanner 200 verwendet. Der Begriff „TOF“ ist als eine Messung zu verstehen, die basierend auf einer Laufzeit von Licht vorgenommen wurde, das einen Weg zwischen zwei Punkten zurückgelegt hat. Dieses Verfahren nutzt an sich Wissen über die Lichtgeschwindigkeit in der Luft, die das Licht durchläuft. In einem TOF(time-of-flight)-Gerät kann jedes Verfahren, das auf der Laufzeit von Licht basiert, verwendet werden, um die Laufzeit zwischen zwei Punkten zu messen. Das Licht kann zum Beispiel gepulst sein und die Zeit kann gemäß der Laufzeit, zwischen einem Impuls beim Aussenden und dem Impuls beim Rückführen, bestimmt werden. Als weiteres Beispiel kann das Licht hinsichtlich der optischen Leistung in einem sinusförmigen Muster moduliert werden und die Zeit gemäß der Laufzeit, wie sie ausgehend von einer Phasenverschiebung der sinusförmigen Modulation berechnet wurde, die von einem optischen Detektor am TOF-Gerät erhalten wird, bestimmt werden. Der TOF-Laserscanner 200 kann dem ähnlich sein, der in der US-amerikanischen Patentanmeldung, Aktenzeichen 13/510,020, die am 11. November 2010 eingereicht wurde, beschrieben ist. Bei dieser Ausgestaltung wird das Laserlicht von der Lichtquelle 202 emittiert und an einem Drehspiegel 204 reflektiert. Der TOF-Scanner 200 wird um eine erste Achse 206 gedreht, während der Spiegel zum optischen Abtasten der Umgebung um eine zweite Achse 208 gedreht wird. Die erste Achse 206 ist zu der zweiten Achse 208 orthogonal. Das Licht wird von einer Oberfläche in der Umgebung reflektiert und ein Teil entlang des Wegs des emittierten Laserlichts zurückgeführt und noch einmal von dem Drehspiegel 204 reflektiert, woraufhin er von einer Linse 210 kollimiert und am Spiegel 212 in den Lichtempfänger 214 reflektiert wird. Unter Zuhilfenahme der Zeit, die für das Aussenden des Laserlichts von dem Laserscanner 200, das Reflektieren und das Zurückführen des Laserlichts benötigt wird, kann die Distanz von dem Lasertracker zu der Oberfläche bestimmt werden. Unter Verwendung der Winkelmessungen für die Drehung um die erste Achse 206 und die zweite Achse 208 können die 3D-Koordinaten für Punkte auf der Oberfläche in dem Laserscanner-Bezugssystem bestimmt werden.
  • Bei einer in 4 dargestellten Ausgestaltung ist die 3D-Kamera 55 an eine Peripheriefläche eines Aufbaus oder Gehäuses 216 montiert. Bei einer anderen, in 5 dargestellten Ausgestaltung ist die 3D-Kamera 55 innerhalb des Scannergehäuses 216 positioniert. Bei dieser Ausgestaltung kann die 3D-Kamera 55 so koaxial zur Achse 208 angeordnet werden, dass die 3D-Kamera 55 Bilder erhält, die von dem Spiegel 204 reflektiert wurden. Es ist deutlich zu machen, dass wenn die 3D-Kamera an den TOF-Laserscanner 200 in einer bekannten Position bezogen auf das lokale Koordinatensystem des TOF-Laserscanners 200 fest gekoppelt ist, die Koordinaten von Punkten, die von der 3D-Kamera 55 erfasst werden, in Koordinaten des lokalen Koordinatensystems des TOF-Laserscanners 200 (d. h. des Gerätebezugssystems) transformiert werden können.
  • Der TOF-Laserscanner 200 kann auch ein Grafikdisplay 218 umfassen, das eine Benutzerschnittstelle anzeigt. Die Benutzerschnittstelle kann ein berührungssensitives Display sein, das dem Bediener gestattet, mit dem Scanner 200 zu interagieren und dessen Betrieb zu steuern. Bei einer Ausgestaltung können die dreidimensionalen, von der 3D-Kamera erfassten Bilder auf dem Grafikdisplay 218 angezeigt werden.
  • Bei einer Ausgestaltung wird eine TOF-3D-Kamera auf einem Lasertracker oder einem TOF-Laserscanner bereitgestellt. In den meisten Fällen wird die TOF-3D-Kamera eine geringere Genauigkeit als der Lasertracker oder der TOF-Laserscanner aufweisen, aber sie kann konfiguriert werden, um schnell ein 3D-Bild über ein weites Sichtfeld bereitzustellen und es dadurch dem Lasertracker oder TOF-Laserscanner zu ermöglichen, weitere Aktionen je nach den Erfordernissen ausführen. Im Falle eines Lasertrackers kann eine TOF-3D-Kamera die Kontur eines zu prüfenden Objekts identifizieren und dann den Bediener bezüglich der Schritte in einem Prüfplan leiten, indem beispielsweise von dem Tracker ein Laserstrahl auf den jeweiligen Schritt projiziert wird. Eine TOF-3D-Kamera kann gemäß einer Vielfalt von Verfahren eingesetzt werden, um bei Messungen Hilfestellungen zu bieten, die mit einem Lasertracker oder TOF-Laserscanner vorgenommen werden. Solche Verfahren sind nicht auf die oben gegebenen Beispiele beschränkt.
  • In 6, auf die jetzt Bezug genommen wird, wird eine exemplarische Ausgestaltung veranschaulicht, die die dreidimensionale Kamera 55 zum Bestimmen von Gesten oder Befehlsbewegungen von dem Bediener 400 einsetzt. Bei der veranschaulichten Ausgestaltung ist das Koordinatenmessgerät ein Lasertracker 10, wobei die 3D-Kamera 55 an der Nutzlast so angebracht ist, dass sich die 3D-Kamera 55 um die Azimutachse und die Zenitachse dreht. Bei der exemplarischen Ausgestaltung befindet sich der Bediener 400 neben dem entfernten Ziel, das gerade gemessen wird. So wie hierin verwendet, befindet sich der Bediener 400 neben dem entfernten Ziel, wenn der Bediener innerhalb des Sichtfelds der 3D-Kamera 55 positioniert ist.
  • Bei einer Ausgestaltung ist die 3D-Kameramaschine 826 von 3 eine Gestenerkennungsmaschine, die beim Auswerten oder Parsen von Gestenmustern hilft, um die ausgeführte Geste aus einer Vielzahl von Gesten zu bestimmen. Bei einer Ausgestaltung generieren die 3D-Kamera 55 und die Maschine 826 ein 3D-Skelettmodell des Bedieners 400 aus einer Vielzahl von gemessenen Oberflächen des Bedieners, die von der 3D-Kamera gemessen wurden. Dies ermöglicht die Interpretation von Bewegungen und/oder Körperpositionen, wie z. B. die Position oder Orientierung der Hand des Bedieners 404, als Befehle, die von dem Lasertracker 10 auszuführen ist. Das Skelettmodell kann Informationen, wie z. B. die Position von Gelenken des Bedieners und Orte von spezifischen Körperpositionen (z. B. Hand 404, Arm 405) umfassen. Bei einer Ausgestaltung identifiziert das Skelettmodell den Ort von verschiedenen Teilen des Bedieners, wie zum Beispiel den Arm, den Ellenbogen, die Hand, die Finger und die Verbindungsgelenke.
  • Die Gestenmaschine 826 kann eine Sammlung von Gestenfiltern umfassen, wobei jeder Informationen umfasst, die eine Geste betrifft, die, wie sie durch das Skelettmodell interpretiert wird, von dem Anwender ausgeführt werden kann. Die von der Kamera 55 erfassten Daten in Form des Skelettmodells und der Skelettmodellbewegungen können mit den Gestenfiltern in der Gestenmaschine 826 verglichen werden, um zu erkennen, ob ein Bediener (wie durch das Skelettmodell repräsentiert) eine oder mehrere Gesten ausgeführt hat. Die Gesten können durch einen oder mehrere der Körperteile des Bedieners oder die Relativbewegung oder -position dieser Teile zueinander (d. h. die räumliche Anordnung) ausgeführt werden. Diese Gesten können den verschiedenen Steuerungen des Lasertrackers 10 zugeordnet werden. Es kann mit anderen Worten eine Entsprechungsregel zwischen jeder einer Vielzahl von Gesten und jedem (jeder) einer Vielzahl von Befehlen (Steuerungen) für den Lasertracker 10 geben. Somit kann das Verarbeitungssystem 800 die Gestenmaschine 826 verwenden, um Bewegungen des Skelettmodells zu interpretieren und um eine Anwendung, basierend auf der Position oder den Bewegungen eines Körperteils (z. B. der Hand), zu steuern.
  • Die Gestenfilter können modular oder austauschbar sein. Bei einer Ausgestaltung weist der Filter eine Anzahl von Eingängen auf, wobei jeder einen Typ hat, sowie eine Anzahl von Ausgängen, wobei jeder einen Typ hat. Die Eingänge des Filters können Elemente wie z. B. Gelenkdaten über die Position eines Anwendergelenks (z. B. von den Winkeln, die von den Knochen gebildet werden, die sich im Gelenk vereinigen), RGB-Farbdaten und die Änderungsgeschwindigkeit eines Aspekts des Anwenders umfassen. Die Ausgänge des Filters können Parameter wie z. B. ein Vertrauensniveau, das besagt, dass eine bestimmte Geste gemacht wurde und die Geschwindigkeit der Gestenbewegung umfassen. Die Filter können ferner kontextuelle Parameter umfassen, die die Erkennung von bestimmten Gesten als Reaktion auf vorherige Aktionen ermöglichen. Die Gesten, die von der Gestenmaschine 826, basierend auf den dreidimensionalen, von der 3D-Kamera 55 erfassten Daten, interpretiert werden können, umfassen jene, die in der am 29. April 2014 eingereichten US-amerikanischen Patentanmeldung, Aktenzeichen 14/264,420, offenbart wurden.
  • Es ist deutlich zu machen, dass obwohl die 3D-Kamera 55 und die Gestenmaschine 826 im Einsatz mit dem Lasertracker 10 veranschaulicht werden, dies nur der Beispielhaftigkeit dient und die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei anderen Ausgestaltungen kann die 3D-Kamera 55 und die Gestenmaschine 826 mit einem anderen Koordinatenmessgerät, wie beispielsweise dem Laserscanner 200, eingesetzt werden.
  • Bei wieder einer anderen Ausgestaltung ist die 3D-Kamera 55 an den Lasertracker 10 gekoppelt und erfasst rings um den Lasertracker 10 ein dreidimensionales Bild der Umgebung. Dieses Bild wird anschließend dazu verwendet, den Ort des Bedieners zu identifizieren und dem Lasertracker 10 zu gestatten, die Nutzlast um die Azimut- und Zenitachse zu drehen, damit eine schnelle Erfassung des Retroreflektors 26 mit dem Laserstrahl 46 möglich ist.
  • Bei wieder anderen Ausgestaltungen kann die 3D-Kamera 55 mit einem Lasertracker 10 in einem automatisierten System verwendet werden, bei dem die 3D-Kamera eingesetzt wird, um die Komponenten innerhalb des Prozesses zu identifizieren. Die 3D-Kamera 55 kann zum Beispiel ein Bild des Prozesses erfassen und die Maschine 826 kann dazu verwendet werden, ein gewünschtes Objekt, wie einen Roboterendeffektor, zu identifizieren. Unter Verwendung dieser Information transformiert der Lasertracker 10 diese Information in einen Azimutwinkel und einen Zenitwinkel, damit die Drehung der Nutzlast 15 an den gewünschten Ort und die schnelle Erfassung eines retroreflektierenden Ziels möglich ist.
  • Die technischen Auswirkungen und Vorteile von Ausgestaltungen der Erfindung gestatten unter anderem einem 3D-Messgerät, schnell dreidimensionale Informationen über die Umgebung oder ein Objekt, die oder das gerade gemessen wird, zu erfassen. Weitere technische Auswirkungen und Vorteile von Ausgestaltungen der Erfindung ermöglichen die Zuordnung von schnellen, mit einem ersten Messgerät ermittelten 3D-Koordinaten zu 3D-Koordinaten, die im gleichen Bezugssystem mit einem zweiten Messgerät ermittelt wurden. Weitere, darüber hinausgehende technische Auswirkungen und Vorteile von Ausgestaltungen der Erfindung ermöglichen die Bestimmung und die Ausführung von Bedienungsbefehlen am Messgerät als Reaktion auf die Bewegung, Körperposition oder Gesten, die von einem, sich neben dem Objekt oder Bereich befindenden Bediener ausgeführt werden.
  • Obwohl die Erfindung ausführlich in Verbindung mit nur einer begrenzten Anzahl von Ausgestaltungen beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf solche offenbarte Ausgestaltungen beschränkt ist. Stattdessen kann die Erfindung derart modifiziert werden, dass sie eine beliebige Anzahl von Abweichungen, Änderungen, Ersetzungen oder äquivalenten Anordnungen einbezieht, die bisher nicht beschrieben wurden, aber dem Gedanken und Schutzbereich der Erfindung entsprechen. Obwohl verschiedene Ausgestaltungen der Erfindung beschrieben wurden, versteht sich ferner, dass Aspekte der Erfindung nur einige der beschriebenen Ausgestaltungen einschließen können. Die Erfindung ist demgemäß nicht als durch die vorangehende Beschreibung eingeschränkt zu verstehen und ist lediglich durch den Schutzbereich der beigefügten Ansprüche eingeschränkt.

Claims (20)

  1. Koordinatenmessgerät, das einen ersten Lichtstrahl an ein entferntes Ziel sendet, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt, das Koordinatenmessgerät ein Gerätebezugssystem aufweist und Folgendes umfasst: einen ersten Motor und einen zweiten Motor, die zusammenwirken, um den ersten Lichtstrahl in eine erste Richtung zu führen, wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird; ein erstes Winkelmessgerät, das den ersten Drehwinkel misst und ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst; einen Distanzmesser, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf dem zweiten Lichtstrahl, der von einem optischen Detektor empfangen wird; einen ersten Teil des Koordinatenmessgeräts, der sich um die erste Achse dreht; einen zweiten Teil des Koordinatenmessgeräts, der sich um die zweite Achse dreht; einen dritten Teil des Koordinatenmessgeräts, der bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend ist; eine 3D-Laufzeit(TOF)-Kamera, die an einer Peripherie eines Teils des Koordinatenmessgeräts positioniert ist, wobei der Teil ausgewählt ist aus der Gruppe, bestehend aus dem ersten Teil, dem zweiten Teil und dem dritten Teil, und die Kamera konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen; und einen Prozessor, der konfiguriert ist, um mindestens eine erste dreidimensionale(3D-)Koordinate im Gerätebezugssystem des entfernten Ziels zu bestimmen, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert, wobei der Prozessor ferner konfiguriert ist, um eine Vielzahl von zweiten 3D-Koordinaten im Gerätebezugssystem zu bestimmen und die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
  2. Koordinatenmessgerät nach Anspruch 1, wobei das entfernte Ziel ein Retroreflektorziel ist und das Koordinatenmessgerät außerdem Folgendes umfasst: einen Positionsdetektor, wobei ein zweiter Teil des zweiten Lichtstrahls auf den Positionsdetektor weitergeleitet wird und der Positionsdetektor konfiguriert ist, um ein erstes Signal als Reaktion auf eine Position des zweiten Teils auf dem Positionsdetektor zu erzeugen; und ein Regelungssystem, das ein zweites Signal an den ersten Motor und ein drittes Signal an den zweiten Motor sendet, wobei das zweite Signal und das dritte Signal zumindest teilweise auf dem ersten Signal basieren und das Regelungssystem konfiguriert ist, um die erste Richtung des ersten Lichtstrahls auf die Position im Raum des Retroreflektorziels einzuregeln.
  3. Koordinatenmessgerät nach Anspruch 1, wobei das entfernte Ziel eine Oberfläche des Objekts ist.
  4. Koordinatenmessgerät nach Anspruch 1, wobei die 3D-TOF-Kamera eine RF-modulierte Lichtquelle und einen Phasendetektor umfasst.
  5. Koordinatenmessgerät nach Anspruch 1, wobei die 3D-TOF-Kamera ausgewählt ist aus der Gruppe, bestehend aus einem entfernungstorgesteuerten Bildgeber (range gated imager) und einem direkten TOF-Bildgeber (direct TOF imager).
  6. Koordinatenmessgerät nach Anspruch 1, wobei die 3D-TOF-Kamera an einer Peripherie eines ersten Teils positioniert ist und die Kamera ein Sichtfeld (FOV; field-of-view) von mindestens +/–20 Grad aufweist.
  7. Koordinatenmessgerät nach Anspruch 1, wobei die 3D-TOF-Kamera an einer Peripherie eines zweiten Teils positioniert ist und die Kamera ein Sichtfeld (FOV) von mindestens +/–40 Grad aufweist.
  8. Koordinatenmessgerät nach Anspruch 1, wobei die 3D-TOF-Kamera an einer Peripherie eines dritten Teils positioniert ist und die Kamera ein Sichtfeld (FOV) von mindestens +/–60 Grad aufweist.
  9. Koordinatenmessgerät, das einen ersten Lichtstrahl an ein entferntes Ziel sendet, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt, das Gerät ein Gerätebezugssystem aufweist und das Koordinatenmessgerät Folgendes umfasst: einen ersten Motor und einen zweiten Motor, die zusammenwirken, um den ersten Lichtstrahl in eine erste Richtung zu führen, wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird; ein erstes Winkelmessgerät, das den ersten Drehwinkel misst und ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst; einen Distanzmesser, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf einem ersten Teil des zweiten Lichtstrahls, der von einem ersten optischen Detektor empfangen wird; eine Lichtfeldkamera (light-field camera), die auf dem Koordinatenmessgerät positioniert ist, wobei die Lichtfeldkamera eine Mikrolinsenanordnung und eine photosensitive Anordnung umfasst und konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen; und einen Prozessor, der konfiguriert ist, um eine erste dreidimensionale(3D-)Koordinate des entfernten Ziels im Gerätebezugssystem zu bestimmen, wobei die 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert, wobei der Prozessor ferner konfiguriert ist, um das Objekt scharfzustellen und um eine Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem zu bestimmen, wobei die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
  10. Verfahren zum optischen Abtasten und Vermessen einer Umgebung, umfassend: Bereitstellen eines Geräts, das einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen, wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird, wobei das Gerät ferner einen ersten Teil, der sich um die erste Achse dreht, einen zweiten Teil, der sich um die zweite Achse dreht, und einen dritten Teil aufweist, der bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend ist, wobei das Gerät ferner einen Distanzmesser aufweist, der angeordnet ist, um einen zweiten Lichtstrahl zu empfangen, der von einem entfernten Ziel reflektiert wird, wobei der zweite Lichtstrahl ein Teil des ersten Lichtstrahls ist und das Gerät ein Gerätebezugssystem aufweist; Bereitstellen einer dreidimensionalen(3D-)Kamera, die an eine Peripherie von einem des ersten Teils, des zweiten Teils oder des dritten Teils betriebsfähig gekoppelt ist, wobei die 3D-Kamera ausgewählt ist aus der Gruppe, bestehend aus einer 3D-Laufzeit(TOF)-Kamera und einer Lichtfeldkamera; Erfassen eines Kamerabilds eines Objekts mit der 3D-Kamera; Drehen des ersten Teils mit dem ersten Motor bis zum ersten Drehwinkel und des zweiten Teils mit dem zweiten Motor bis zum zweiten Drehwinkel; Aussenden des ersten Lichtstrahls und Empfangen des zweiten Lichtstrahls, der von dem entfernten Ziel reflektiert wird; Bestimmen einer ersten Distanz zu dem entfernten Ziel mit dem Distanzmesser als Reaktion auf das Empfangen des zweiten Lichtstrahls; Bestimmen von mindestens einer ersten 3D-Koordinate des entfernten Ziels im Gerätebezugssystem, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert; und Bestimmen einer Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem, wobei die zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basieren.
  11. Verfahren nach Anspruch 10, das ferner das Reflektieren des ersten Lichtstrahls an einem Retroreflektor umfasst.
  12. Verfahren nach Anspruch 10, wobei das Gerät ferner einen Drehspiegel umfasst.
  13. Verfahren nach Anspruch 12, das ferner das Reflektieren des ersten Lichtstrahls am Drehspiegel, bevor der erste Lichtstrahl das entfernte Ziel trifft, und das Reflektieren des zweiten Lichtstrahls am Drehspiegel, bevor dieser vom Distanzmesser empfangen wird, umfasst.
  14. Verfahren nach Anspruch 10, wobei die 3D-Kamera an einer Peripherie eines ersten Teils positioniert ist und die 3D-Kamera ein Sichtfeld (FOV; field-of-view) von mindestens +/–20 Grad aufweist.
  15. Verfahren nach Anspruch 10, wobei die 3D-Kamera an einer Peripherie eines zweiten Teils positioniert ist und die Kamera ein Sichtfeld (FOV) von mindestens +/–40 Grad aufweist.
  16. Verfahren nach Anspruch 10, wobei die 3D-Kamera an einer Peripherie eines dritten Teils positioniert ist und die Kamera ein Sichtfeld (FOV) von mindestens +/–60 Grad aufweist.
  17. Verfahren nach Anspruch 10, wobei das Objekt im Kamerabild eine Vielzahl von Oberflächen umfasst und die Vielzahl von Oberflächen mindestens eine Oberfläche umfasst.
  18. Verfahren nach Anspruch 17, wobei die mindestens eine Oberfläche mindestens ein Teil des Körpers eines Bedieners ist und die mindestens eine Oberfläche einen ersten Körperteil und einen zweiten Körperteil umfasst.
  19. Verfahren nach Anspruch 18, das ferner Folgendes umfasst: Bereitstellen einer Entsprechungsregel zwischen jedem einer Vielzahl von Befehlen und jeder einer Vielzahl von Gesten, wobei jede Geste aus der Vielzahl von Gesten eine räumliche Anordnung des ersten Körperteils in Bezug auf den zweiten Körperteil umfasst und die Entsprechungsregel zumindest teilweise auf der räumlichen Anordnung basiert; Ausführen einer ersten Geste mit der mindestens einen Oberfläche aus der Vielzahl von Gesten vor dem Erfassen des Bilds, wobei die erste Geste einem ersten Befehl entspricht; Bestimmen des ersten Befehls, basierend zumindest teilweise auf dem Bild, gemäß der Entsprechungsregel; und Ausführen des ersten Befehls mit dem Gerät.
  20. Verfahren nach Anspruch 19, wobei die 3D-Kamera ein Sichtfeld aufweist und das entfernte Ziel sich beim Ausführen der ersten Geste innerhalb des Sichtfeldes befindet.
DE112014003227.1T 2013-07-10 2014-07-10 Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera Active DE112014003227B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361844631P 2013-07-10 2013-07-10
US61/844,631 2013-07-10
US14/327,042 US9113154B2 (en) 2013-07-10 2014-07-09 Three-dimensional measurement device having three-dimensional overview camera
US14/327,042 2014-07-09
PCT/US2014/046078 WO2015006526A1 (en) 2013-07-10 2014-07-10 Three-dimensional measurement device having three-dimensional overview camera

Publications (2)

Publication Number Publication Date
DE112014003227T5 true DE112014003227T5 (de) 2016-04-28
DE112014003227B4 DE112014003227B4 (de) 2018-03-29

Family

ID=52276856

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014003227.1T Active DE112014003227B4 (de) 2013-07-10 2014-07-10 Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera

Country Status (3)

Country Link
US (2) US9113154B2 (de)
DE (1) DE112014003227B4 (de)
WO (1) WO2015006526A1 (de)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
US9113154B2 (en) * 2013-07-10 2015-08-18 Faro Technologies, Inc. Three-dimensional measurement device having three-dimensional overview camera
EP2835613B1 (de) * 2013-08-08 2019-01-16 Hexagon Technology Center GmbH Geodätisches Vermessungsgerät mit Mikrolinsenarray
US10247541B2 (en) * 2014-03-31 2019-04-02 Gorilla Technology Inc. System and method of estimating the three-dimensional size of an object for packaging or storing the object
US9792487B2 (en) * 2014-12-29 2017-10-17 Dell Products, Lp System and method for determining dimensions of an object in an image
US9569859B2 (en) 2014-12-29 2017-02-14 Dell Products, Lp System and method for redefining depth-based edge snapping for three-dimensional point selection
CN104697472B (zh) * 2015-02-17 2018-01-19 中国科学院西安光学精密机械研究所 三维转角测量方法及其装置
US9720760B2 (en) 2015-03-10 2017-08-01 Aruba Networks, Inc. Mitigating wireless networking problems of a wireless network
US9894536B2 (en) 2015-03-10 2018-02-13 Aruba Networks, Inc. Motion-controlled device for supporting planning, deployment or operation of a wireless network
US10219174B2 (en) 2015-03-10 2019-02-26 Hewlett Packard Enterprise Development Lp Capacity estimation of a wireless link
US10123229B2 (en) 2015-03-10 2018-11-06 Hewlett Packard Enterprise Development Lp Sensing conditions of a wireless network
JP6539501B2 (ja) 2015-05-28 2019-07-03 株式会社トプコン 測量装置
JP6498528B2 (ja) * 2015-05-28 2019-04-10 株式会社トプコン 測量装置
US20170074641A1 (en) * 2015-09-14 2017-03-16 Michael Dean Tschirhart Translating natural motion to a command
JP6818985B2 (ja) * 2015-10-01 2021-01-27 バイオイーコン インターナショナル ホールディング エヌ. ヴィー.Bioecon International Holding N.V. 新規な改変バイオベース材料を調製する方法
US10539661B2 (en) * 2015-11-25 2020-01-21 Velodyne Lidar, Inc. Three dimensional LIDAR system with targeted field of view
CN105607034A (zh) * 2015-12-23 2016-05-25 北京凌宇智控科技有限公司 一种三维空间检测系统、定位方法及系统
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
CA3012691C (en) * 2016-01-31 2023-02-28 Velodyne Lidar, Inc. Lidar based 3-d imaging with far-field illumination overlap
EP3413165B1 (de) * 2016-02-29 2021-10-13 Huawei Technologies Co., Ltd. Gestensteuerungsverfahren eines wearable-systems sowie wearable-system
JP7149256B2 (ja) 2016-03-19 2022-10-06 ベロダイン ライダー ユーエスエー,インコーポレイテッド Lidarに基づく3次元撮像のための統合された照射及び検出
US10056001B1 (en) * 2016-05-20 2018-08-21 Amazon Technologies, Inc. Three-dimensional representations of objects detected by an unmanned aerial vehicle
WO2017210418A1 (en) 2016-06-01 2017-12-07 Velodyne Lidar, Inc. Multiple pixel scanning lidar
CN106524920A (zh) * 2016-10-25 2017-03-22 上海建科工程咨询有限公司 基于三维激光扫描实测实量在建筑工程中的应用
JP7290571B2 (ja) 2017-03-31 2023-06-13 ベロダイン ライダー ユーエスエー,インコーポレイテッド 統合化されたlidar照明出力制御
CN115575928A (zh) 2017-05-08 2023-01-06 威力登激光雷达美国有限公司 Lidar数据获取与控制
JP7193464B2 (ja) * 2017-08-18 2022-12-20 株式会社小糸製作所 認識センサ、自動車、車両用灯具
FR3070498B1 (fr) * 2017-08-28 2020-08-14 Stmicroelectronics Rousset Dispositif et procede de determination de la presence ou de l'absence et eventuellement du deplacement d'un objet contenu dans un logement
US11686934B2 (en) * 2017-08-31 2023-06-27 Faro Technologies, Inc. Remote control of a scanner using movement of a mobile computing device
EP3710778A1 (de) 2017-11-13 2020-09-23 Hexagon Metrology, Inc Thermische verwaltung einer optischen abtastvorrichtung
US11294041B2 (en) * 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
CN108776344A (zh) * 2018-05-03 2018-11-09 南京理工大学 一种低成本可斜射激光雷达
CN108924494B (zh) * 2018-07-13 2020-08-28 王新凤 基于地面的空中监测系统
US11971507B2 (en) 2018-08-24 2024-04-30 Velodyne Lidar Usa, Inc. Systems and methods for mitigating optical crosstalk in a light ranging and detection system
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
USD875573S1 (en) 2018-09-26 2020-02-18 Hexagon Metrology, Inc. Scanning device
CN109341525B (zh) * 2018-10-17 2020-09-01 天津大学 一种基于二维激光扫描仪的“v”型靶标及坐标测量方法
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US12061263B2 (en) 2019-01-07 2024-08-13 Velodyne Lidar Usa, Inc. Systems and methods for a configurable sensor system
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
DE102019113799B4 (de) 2019-05-23 2024-04-25 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem und Verfahren zum Vermessen eines Messobjekts
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
WO2021114036A1 (zh) * 2019-12-09 2021-06-17 南昌欧菲生物识别技术有限公司 Tof相机及电子设备
CN111322997B (zh) * 2020-03-20 2021-05-28 华南农业大学 Gps辅助的全站仪实现的水田作物位置信息采集方法及其应用
CN112361962B (zh) * 2020-11-25 2022-05-03 天目爱视(北京)科技有限公司 一种多俯仰角度的智能视觉3d信息采集设备
US11320124B1 (en) 2020-10-29 2022-05-03 Waymo Llc Infrared light module uniformity rotational test module
CN112504125B (zh) * 2020-12-15 2022-03-25 广东工业大学 一种基于tof的非接触式长方体体积测量方法
US12053895B2 (en) 2021-06-23 2024-08-06 Faro Technologies, Inc. Capturing environmental scans using automated transporter robot
EP4332629A1 (de) * 2022-08-30 2024-03-06 Hexagon Technology Center GmbH Messvorrichtung mit tof-sensor
EP4332630A1 (de) * 2022-08-30 2024-03-06 Hexagon Technology Center GmbH Messvorrichtung mit tof-sensor

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1681533A1 (de) 2005-01-14 2006-07-19 Leica Geosystems AG Verfahren und geodätisches Gerät zur Vermessung wenigstens eines Zieles
US7477359B2 (en) 2005-02-11 2009-01-13 Deltasphere, Inc. Method and apparatus for making and displaying measurements based upon multiple 3D rangefinder data sets
DE202006020299U1 (de) 2006-05-16 2008-04-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. 3D-Vermessungsanordnung
GB2456802A (en) 2008-01-24 2009-07-29 Areograph Ltd Image capture and motion picture generation using both motion camera and scene scanning imaging systems
DE112009003495T5 (de) 2008-11-17 2013-01-10 Faro Technologies, Inc. Vorrichtung und Verfahren zum Messen von sechs Freiheitsgraden
US8659749B2 (en) 2009-08-07 2014-02-25 Faro Technologies, Inc. Absolute distance meter with optical switch
DE102010002250B4 (de) * 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
WO2012141868A1 (en) 2011-04-15 2012-10-18 Faro Technologies, Inc. Enhanced position detector in laser tracker
EP2761535A1 (de) 2011-08-31 2014-08-06 metaio GmbH Verfahren zur erkennung und beschreibung von merkmalen anhand eines intensitätsbildes
US10401144B2 (en) 2011-12-06 2019-09-03 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera
EP2602588A1 (de) 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Positions- und Ausrichtungsbestimmung in 6-DOF
EP2602587A1 (de) 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
EP2662705A1 (de) 2012-05-07 2013-11-13 Hexagon Technology Center GmbH Überwachungsvorrichtung mit Bereichskamera
EP2728306A1 (de) 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Verfahren und Vorrichtung zur Bestimmung dreidimensionaler Koordinaten eines Objekts
US9113154B2 (en) * 2013-07-10 2015-08-18 Faro Technologies, Inc. Three-dimensional measurement device having three-dimensional overview camera

Also Published As

Publication number Publication date
DE112014003227B4 (de) 2018-03-29
US9417317B2 (en) 2016-08-16
US9113154B2 (en) 2015-08-18
US20150015895A1 (en) 2015-01-15
US20150355317A1 (en) 2015-12-10
WO2015006526A1 (en) 2015-01-15

Similar Documents

Publication Publication Date Title
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE112012005524B4 (de) Verfahren zur mechanischen Übermittlung eines Befehls zur Steuerung des Betriebs eines Lasertrackers
DE112011101407B4 (de) Verfahren zur Verwendung von Gesten zur Steuerung eines Lasernachführgeräts
DE112014001459B4 (de) Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
DE112013004569B4 (de) Verfahren zum festen Anvisieren und Verfolgen eines ausgewählten Retroreflektors mit einem Lasertracker
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP2669707B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE112015002755T5 (de) Koordinatenmessgerät mit einer Handsonde mit sechs Freiheitsgraden und integrierter Kamera für erweiterte Realität
EP3819671B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE112012001713T5 (de) Lasernachführungsgerät mit sechs Freiheitsgraden, das mit einem Fernsensor zusammwirkt
EP3479141B1 (de) Verfahren zum betrieb eines laserentfernungsmessgeräts
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE102008039838A1 (de) Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und Vorrichtung zur Durchführung des Verfahrens
WO2013107781A1 (de) Lasertracker mit funktionalität zur graphischen zielbereitstellung
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE112012007096B4 (de) Trackereinheit und Verfahren in einer Trackereinheit
DE112011102995T5 (de) Laserscanner oder Lasernachführungsgerät mit einem Projektor
DE112015003734T5 (de) Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität
DE102015205110B4 (de) Koordinatenmessgerät mit Distanzmesser zur Verwendung für die Erstellung eines Bezugsrahmens
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
DE102012101640B4 (de) Verfahren und System zum Ermitteln einer Position und Orientierung eines Objekts in einem Bezugssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final