-
Hintergrund
-
Die vorliegende Offenbarung bezieht sich auf ein Koordinatenmessgerät. Ein Satz von Koordinatenmessgeräten gehört zu einer Klasse von Instrumenten, die die dreidimensionalen(3D-)Koordinaten eines Punkts durch Senden eines Laserstrahls zu dem Punkt messen, wo er von einem Retroreflektorziel aufgefangen wird. Das Instrument ermittelt die Koordinaten des Punkts, indem es den Abstand und die zwei Winkel zum Ziel misst. Der Abstand wird mit einem Distanzmessgerät, wie z. B. einem Absolutdistanzmesser (ADM) oder einem Interferometer, gemessen. Die Winkel werden mit einem Winkelmessgerät, wie z. B. einem Winkelkodierer, gemessen. Ein kardanisch aufgehängter Strahllenkungsmechanismus in dem Instrument richtet den Laserstrahl auf den interessierenden Punkt. Beispiele für ein solches Gerät umfassen einen Lasertracker, eine Totalstation und einen Laufzeit(TOF)-Scanner.
-
Normalerweise sendet der Lasertracker einen Laserstrahl zu einem Retroreflektorziel. Ein üblicher Typ des Retroreflektorziels ist der sphärisch montierte Retroreflektor (spherically mounted retroreflector; SMR), der einen in eine Metallkugel eingebetteten Würfelecken-Retroreflektor umfasst. Der Würfelecken-Retroreflektor umfasst drei zueinander senkrechte Spiegel. Der Scheitelpunkt der Würfelecke, der der gemeinsame Schnittpunkt der drei Spiegel ist, befindet sich in der Mitte der Kugel. Es ist in der Praxis üblich, dass die Kugeloberfläche des SMR in Kontakt mit einem Prüfobjekt angeordnet wird und der SMR anschließend über die zu messende Oberfläche bewegt wird. Wegen dieser Platzierung der Würfelecke in der Kugel bleibt der senkrechte Abstand vom Scheitelpunkt der Würfelecke zu der Oberfläche des Prüfobjekts trotz der Drehung des SMR gleich. Demzufolge kann man die 3D-Koordinaten einer Oberfläche ermitteln, indem man einen Tracker die 3D-Koordinaten eines über die Oberfläche bewegten SMR verfolgen lässt. Man kann ein Glasfenster oben auf dem SMR anordnen, um zu verhindern, dass Staub oder Schmutz die Glasoberflächen verunreinigt.
-
Ein Kardanmechanismus innerhalb des Lasertrackers kann dazu verwendet werden, einen Laserstrahl vom Tracker auf den SMR zu richten. Ein Teil des vom SMR retroreflektierenden Lichts tritt in den Lasertracker ein und wird auf einen Positionsdetektor weitergeleitet. Die Position des Lichts, das auf den Positionsdetektor trifft, wird von einem Trackerregelungssystem dazu verwendet, die Drehwinkel der mechanischen Azimut- und Zenitachsen des Lasertrackers derart einzustellen, dass der Laserstrahl auf den SMR zentriert bleibt. Auf diese Weise ist der Tracker in der Lage, dem SMR während dessen Bewegung zu folgen (nachgeführt zu werden).
-
Die an den mechanischen Azimut- und Zenitachsen des Trackers angebrachten Winkelkodierer können den Drehwinkel um die Azimut- und Zenitachsen des Laserstrahls (in Bezug auf das Trackerbezugssystem) messen. Die eine Distanzmessung und die zwei Winkelmessungen, die vom Lasertracker ausgeführt werden, reichen aus, um den dreidimensionalen Ort des SMR vollständig zu spezifizieren.
-
Wie zuvor erwähnt, kann man zwei Typen von Distanzmessern in Lasertrackern finden: Interferometer und Absolutdistanzmesser (ADMs). In dem Lasertracker kann ein Interferometer (falls vorhanden) die Distanz von einem Anfangspunkt zu einem Endpunkt bestimmen, indem es die Anzahl von Inkrementen bekannter Länge (normalerweise die halbe Wellenlänge des Laserlichts) zählt, die durchgehen, während ein Retroreflektorziel zwischen den zwei Punkten bewegt wird. Wenn der Laserstrahl während der Messung unterbrochen wird, kann die Anzahl der Impulse nicht genau ermittelt werden, wodurch die Information über die Distanz verloren geht. Im Vergleich dazu bestimmt der ADM in einem Lasertracker die absolute Distanz zu einem Retroreflektorziel ohne Berücksichtigung von Strahlunterbrechungen, was ferner ein Umschalten zwischen Zielen ermöglicht. Es wird daher auch gesagt, dass der ADM zu einer Messung durch Anvisieren und Auslösen in der Lage ist. Anfangs konnten Absolutdistanzmesser nur ortsfeste Ziele messen und wurden aus diesem Grund immer zusammen mit einem Interferometer eingesetzt. Jedoch können einige moderne Distanzmesser schnelle Messungen ausführen, wodurch die Notwendigkeit eines Interferometers entfällt.
-
Manche Lasertracker umfassen eine oder mehrere Kameras. Eine Kameraachse kann zum Messstrahl koaxial oder um eine feste Distanz oder einen festen Winkel versetzt sein. Eine Kamera kann dazu verwendet werden, ein weites Sichtfeld zum Orten von Retroreflektoren bereitzustellen. Eine modulierte Lichtquelle, die nahe der optischen Kameraachse platziert ist, kann die Retroreflektoren ausleuchten, wodurch sie sich leichter identifizieren lassen. In diesem Fall blitzen die Retroreflektoren phasengleich mit der Ausleuchtung auf, wohingegen die Hintergrundobjekte dies nicht tun. Eine Anwendung für eine solche Kamera besteht darin, mehrere Retroreflektoren im Sichtfeld zu detektieren und jeden in einem automatisierten Ablauf zu messen.
-
Einige Lasertracker verfügen über die Fähigkeit, die Messung mit sechs Freiheitsgraden (degrees of freedom; DOF) vorzunehmen, die drei Koordinaten, wie z. B. x, y und z, und drei Drehungen, wie z. B. Nicken, Rollen und Gieren, umfassen können. Mehrere, auf Lasertracker basierte Systeme stehen zur Verfügung oder wurden für das Messen der sechs Freiheitsgrade vorgeschlagen.
-
Laserscanner bestimmen die 3D-Koordinaten von Punkten auf einer Objektoberfläche dadurch, dass sie einen Lichtstrahl direkt auf die Oberfläche projizieren und dann das reflektierte Licht auffangen und analysieren. Typischerweise kommen Laserscanner beim Abtasten von geschlossenen und offenen Räumen, wie z. B. Innenbereichen von Gebäuden, Industrieanlagen und Tunneln, zur Anwendung. Laserscanner werden für viele Zwecke verwendet, die industrielle Anwendungen und Unfallrekonstruktionsanwendungen umfassen. Ein Laserscanner kann für das optische Abtasten und Vermessen von Objekten in einem Volumen rund um den Scanner eingesetzt werden, und zwar durch die Erfassung von Oberflächenpunkten, die die Objekte innerhalb des Volumens repräsentieren.
-
Einige moderne Laserscanner können auch eine Kamera enthalten, die auf dem Laserscanner angebracht oder in ihn integriert ist, um digitale Kamerabilder der Umgebung zu sammeln und um die digitalen Kamerabilder einem Bediener zu präsentieren. Durch Betrachten der Kamerabilder kann der Bediener die Ausdehnung des vermessenen Volumens bestimmen und die Einstellungen des Laserscanners so anpassen, dass die Messung über einen größeren oder kleineren Raumbereich erfolgt. Außerdem können die digitalen Kamerabilder an einen Prozessor übermittelt werden, um dem Scannerbild Farbe hinzuzufügen.
-
Die Erfassung dreidimensionaler Koordinaten von Oberflächenpunkten durch Laserscanner kann zu einer großen Menge von Daten führen, die Millionen von Oberflächenpunkten umfassen. Viele dieser Oberflächenpunkte werden vielleicht nicht benötigt, um die Objekte oder Oberflächen innerhalb des abgetasteten Volumens adäquat zu repräsentieren. Einige irrelevante Daten können während der Nachbearbeitung entfernt werden.
-
Es ist häufig nützlich, die Umgebung, die das 3D-Messinstrument umgibt, in drei Dimensionen zu charakterisieren. Gewöhnlich muss eine solche Information von einem Bediener bereitgestellt werden. Folglich bleibt, obwohl die existierenden 3D-Messinstrumente für ihre vorgesehenen Zwecke geeignet sind, der Bedarf an einer Verbesserung bestehen.
-
Zusammenfassung
-
Gemäß einer Ausgestaltung der Erfindung wird ein Koordinatenmessgerät bereitgestellt. Das Messgerät sendet einen ersten Lichtstrahl an ein entferntes Ziel, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt und das Koordinatenmessgerät ein Gerätebezugssystem aufweist. Wobei das Messgerät einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen. Wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird. Ein erstes Winkelmessgerät wird bereitgestellt, das den ersten Drehwinkel misst sowie ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst. Ein Distanzmesser wird bereitgestellt, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf dem zweiten Lichtstrahl, der von einem optischen Detektor empfangen wird. Ein erster Teil des Koordinatenmessgeräts dreht sich um die erste Achse. Ein zweiter Teil des Koordinatenmessgeräts dreht sich um die zweite Achse. Ein dritter Teil des Koordinatenmessgeräts ist bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend. Eine 3D-Laufzeit(TOF)-Kamera ist an einer Peripherie eines Teils des Koordinatenmessgeräts positioniert, wobei der Teil ausgewählt ist aus der Gruppe, bestehend aus dem ersten Teil, dem zweiten Teil und dem dritten Teil, und die Kamera konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen. Ein Prozessor ist konfiguriert, um mindestens eine erste dreidimensionale(3D-)Koordinate im Gerätebezugssystem des entfernten Ziels zu bestimmen, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert, wobei der Prozessor ferner konfiguriert ist, um eine Vielzahl von zweiten 3D-Koordinaten im Gerätebezugssystem zu bestimmen und die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
-
Gemäß einer Ausgestaltung der Erfindung wird ein Koordinatenmessgerät bereitgestellt. Das Messgerät sendet einen ersten Lichtstrahl an ein entferntes Ziel, wobei das entfernte Ziel einen Teil des ersten Lichtstrahls als zweiten Lichtstrahl zurückführt und das Gerät ein Gerätebezugssystem aufweist. Wobei das Messgerät einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen. Wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird und der erste Drehwinkel vom ersten Motor erzeugt wird und der zweite Drehwinkel vom zweiten Motor erzeugt wird. Ein erstes Winkelmessgerät wird bereitgestellt, das den ersten Drehwinkel misst sowie ein zweites Winkelmessgerät, das den zweiten Drehwinkel misst. Ein Distanzmesser wird bereitgestellt, der eine erste Distanz vom Koordinatenmessgerät zum entfernten Ziel misst, basierend zumindest teilweise auf dem zweiten Lichtstrahl, der von einem ersten optischen Detektor empfangen wird. Eine Lichtfeldkamera (light-field camera) ist auf dem Koordinatenmessgerät positioniert, wobei die Lichtfeldkamera eine Mikrolinsenanordnung und eine photosensitive Anordnung umfasst und konfiguriert ist, um ein Kamerabild eines Objekts zu erfassen. Ein Prozessor ist konfiguriert, um eine erste dreidimensionale(3D-)Koordinate des entfernten Ziels im Gerätebezugssystem zu bestimmen, wobei die 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert. Wobei der Prozessor ferner konfiguriert ist, um das Objekt scharfzustellen und um eine Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem zu bestimmen, wobei die Vielzahl von zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert.
-
Gemäß einer anderen Ausgestaltung der Erfindung wird ein Verfahren zum optischen Abtasten und Vermessen einer Umgebung bereitgestellt. Das Verfahren umfasst die folgenden Schritte: Bereitstellen eines Geräts, das einen ersten Motor und einen zweiten Motor aufweist, die zusammenwirken, um einen ersten Lichtstrahl in eine erste Richtung zu führen, wobei die erste Richtung durch einen ersten Drehwinkel um eine erste Achse und einen zweiten Drehwinkel um eine zweite Achse festgelegt wird, wobei das Gerät ferner einen ersten Teil, der sich um die erste Achse dreht, einen zweiten Teil, der sich um die zweite Achse dreht, und einen dritten Teil aufweist, der bezogen auf die Bewegungen um die erste Achse und die zweite Achse feststehend ist, wobei das Gerät ferner einen Distanzmesser aufweist, der angeordnet ist, um einen zweiten Lichtstrahl zu empfangen, der von einem entfernten Ziel reflektiert wird, wobei der zweite Lichtstrahl ein Teil des ersten Lichtstrahls ist und das Gerät ein Gerätebezugssystem aufweist; Bereitstellen einer dreidimensionalen(3D-)Kamera, die an eine Peripherie von einem des ersten Teils, des zweiten Teils oder des dritten Teils betriebsfähig gekoppelt ist, wobei die 3D-Kamera ausgewählt ist aus der Gruppe, bestehend aus einer 3D-Laufzeit(TOF)-Kamera und einer Lichtfeldkamera; Erfassen eines Kamerabilds eines Objekts mit der 3D-Kamera; Drehen des ersten Teils mit dem ersten Motor bis zum ersten Drehwinkel und des zweiten Teils mit dem zweiten Motor bis zum zweiten Drehwinkel; Aussenden des ersten Lichtstrahls und Empfangen des zweiten Lichtstrahls, der von dem entfernten Ziel reflektiert wird; Bestimmen einer ersten Distanz zu dem entfernten Ziel mit dem Distanzmesser als Reaktion auf das Empfangen des zweiten Lichtstrahls; Bestimmen von mindestens einer ersten 3D-Koordinate des entfernten Ziels im Gerätebezugssystem, wobei die mindestens eine erste 3D-Koordinate zumindest teilweise auf der ersten Distanz, dem ersten Drehwinkel und dem zweiten Drehwinkel basiert; und Bestimmen einer Vielzahl von zweiten 3D-Koordinaten des Objekts im Gerätebezugssystem, wobei die zweiten 3D-Koordinaten zumindest teilweise auf dem Kamerabild, dem ersten Drehwinkel und dem zweiten Drehwinkel basieren.
-
Kurze Beschreibung der Zeichnungen
-
Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Patentbeschreibung besonders hervorgehoben und eindeutig beansprucht. Die vorangehenden und anderen Merkmale und Vorteile der Erfindung gehen aus der folgenden detaillierten Beschreibung in Verbindung mit den dazugehörigen Zeichnungen hervor. Es zeigen:
-
1, die die 1A–1C umfasst: perspektivische Ansichten von exemplarischen Lasertrackern;
-
2: Rechen- und Energieversorgungsglieder, die am Lasertracker von 1 angebracht sind;
-
3: ein Blockschaltbild eines dem Lasertracker von 1 zugeordneten Elektronik-Verarbeitungssystems;
-
4: eine perspektivische Ansicht eines Laserscannergeräts gemäß einer Ausgestaltung der Erfindung;
-
5: eine schematische Veranschaulichung des Laserscanners von 4; und
-
6: eine perspektivische Ansicht des Lasertrackers von 1, der konfiguriert ist, um auf die Gesten vom Bediener zu reagieren.
-
Detaillierte Beschreibung der bevorzugten Ausgestaltungen
-
In 1 ist ein exemplarisches Messgerät, wie beispielsweise ein Lasertracker 10, dargestellt. Ein exemplarischer kardanisch aufgehängter Strahllenkungsmechanismus 12 des Lasertrackers 10 umfasst einen Zenitschlitten 14, der auf einem Azimutsockel 16 angebracht ist und um eine Azimutachse 20 gedreht wird. Eine Nutzlast 15 ist auf dem Zenitschlitten 14 angebracht und wird um eine Zenitachse 18 gedreht. Die mechanische Zenitdrehachse 18 und die mechanische Azimutdrehachse 20 schneiden sich orthogonal innerhalb des Lasertrackers 10 an einem Kardanpunkt 22, der normalerweise der Ursprung für Distanzmessungen ist. Der Lasertracker verwendet einen Lichtstrahl, wie z. B. einen Laserstrahl 46, der praktisch durch den Kardanpunkt 22 hindurch verläuft und orthogonal zu der Zenitachse 18 gerichtet ist. Dies bedeutet, dass sich der Weg des Laserstrahls 46 in der Ebene erstreckt, die senkrecht zur Zenitachse 18 ist. Der Laserstrahl 46 wird von Motoren innerhalb des Lasertrackers (nicht dargestellt), die die Nutzlast 15 um die Zenitachse 18 und um die Azimutachse 20 drehen, in die gewünschte Richtung geführt. Die Zenit- und Azimutwinkelkodierer innen im Lasertracker (nicht dargestellt) sind an der mechanischen Zenitachse 18 und der mechanischen Azimutachse 20 befestigt und geben mit hoher Genauigkeit die Drehwinkel an. Der Laserstrahl 46 legt den Weg zum externen Retroreflektor 26, wie z. B. einem sphärisch montierten Retroreflektor (SMR) 26 zurück. Indem die Radialdistanz zwischen dem Kardanpunkt 22 und dem Retroreflektor 26 sowie die Drehwinkel um die Zenit- und Azimutachse 18, 20 gemessen werden, wird die Position des Retroreflektors 26 im Kugelkoordinatensystem des Lasertrackers 10 (d. h. im Gerätebezugssystem) ermittelt.
-
Der Laserstrahl kann eine oder mehrere Laserwellenlängen umfassen. Der Klarheit und Einfachheit halber wird in der folgenden Erörterung ein Lenkungsmechanismus des in 1 dargestellten Typs angenommen, wobei die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei anderen Ausgestaltungen sind andere Typen von Lenkungsmechanismen möglich. Beispielsweise wäre es möglich, einen Laserstrahl an einem Spiegel zu reflektieren, der um die Azimut- und Zenitachse gedreht wird. Die hier beschriebenen Methoden sind anwendbar, und zwar ungeachtet des Typs des Lenkungsmechanismus.
-
Bei dem exemplarischen Lasertracker 10 sind Kameras 52 und Lichtquellen 54 auf der Nutzlast 15 angeordnet. Die Lichtquellen 54 leuchten ein oder mehrere Retroreflektorziele 26 aus. Die Lichtquellen 54 können Leuchtdioden (light-emitting diodes; LEDs) sein, die elektrisch angesteuert werden, um wiederholt Strahlen gepulsten Lichts auszusenden. Jede Kamera 52 umfasst einen optischen Detektor wie beispielsweise eine photosensitive Anordnung und eine vor ihr angeordnete Linse. Die photosensitive Anordnung kann ein Array vom Typ komplementärer Metall-Oxid-Halbleiter (complementary metal-oxide semiconductor; CMOS) oder vom Typ ladungsgekoppeltes Bauelement (charge-coupled device; CCD) sein. Die Linse kann ein relativ weites Sichtfeld von beispielsweise dreißig oder vierzig Grad aufweisen und dient dazu, auf der photosensitiven Anordnung Objekte innerhalb des Sichtfelds der Linse abzubilden. Jede Lichtquelle 54 ist so neben der Kamera 52 platziert, dass Licht von der Lichtquelle 54 an jedem Retroreflektorziel 26 auf die Kamera 52 reflektiert wird. Auf diese Weise sind die Retroreflektorbilder vom Hintergrund auf der photosensitiven Anordnung leicht unterscheidbar, da ihre Bildpunkte heller als die Hintergrundobjekte sind und gepulst sind. Es können zwei Kameras 52 und zwei Lichtquellen 54 vorhanden sein, die rings um die Linie des Laserstrahls 46 angeordnet sind. Durch den derartigen Einsatz von zwei Kameras kann man das Prinzip der Triangulation anwenden, um die dreidimensionalen Koordinaten eines beliebigen SMR innerhalb des Sichtfelds der Kamera aufzufinden. Ferner können die dreidimensionalen Koordinaten des SMR überwacht werden, während der SMR von Punkt zu Punkt bewegt wird. Eine Verwendung von zwei Kameras für diesen Zweck wird in der veröffentlichten US-amerikanischen Patentanmeldung, Aktenzeichen 2010/0128259, an Bridges beschrieben.
-
Es sind andere Anordnungen von einer oder mehreren Kameras und Lichtquellen möglich. Eine Lichtquelle und eine Kamera können beispielsweise koaxial oder fast koaxial zu den vom Tracker emittierten Laserstrahlen sein. Es ist in diesem Fall unter Umständen erforderlich, dass eine optische Filterung oder ähnliche Verfahren eingesetzt werden, um eine Sättigung der photosensitiven Anordnung der Kamera mit dem Laserstrahl des Trackers zu vermeiden.
-
Bei der exemplarischen Ausgestaltung kann der Lasertracker 10 außerdem eine dreidimensionale(3D-)Kameravorrichtung 55 umfassen. Die 3D-Kameravorrichtung 55 kann sowohl visuelle als auch Distanzinformationen erfassen. So wie hierin verwendet, ist eine 3D-Kamera eine Einrichtung, die imstande ist, die Distanz zu einer Objektoberfläche über eine Vielzahl von Pixeln auf dem 3D-Kamera-Bildsensor zu bestimmen. Jedes der Pixel entspricht auch einem Winkel in Bezug auf den 3D-Kamera-Bildsensor. Sowohl die Distanz als auch der Winkel, die jedem Pixel entsprechen, können in das Gerätebezugssystem (d. h. das lokale Koordinatensystem) des Lasertrackers 10 transformiert werden, und zwar unter Verwendung mathematischer Verfahren, die Anwendern mit einem durchschnittlichen Fachwissen allgemein bekannt sind. Je nach dem Typ des 3D-Kamera-Bildsensors kann der 3D-Kamera-Bildsensor entweder natürliches Licht oder eine externe Lichtquelle zum Ermitteln der 3D-Koordinaten einsetzen. In Gegensatz zu einem Scanner, der Triangulationsprinzipien mit einer 3D-Kamera nutzt, kann ggf. keine feste Beziehung zwischen dem 3D-Kamera-Bildsensor und der Lichtquelle vorhanden sein. Es ist deutlich zu machen, dass in den meisten Fällen die Genauigkeit der 3D-Kamera wesentlich kleiner ist als die des Lasertrackers 10. Die 3D-Kamera kann, aber ohne darauf beschränkt zu sein, eine Lichtfeldkamera (light-field camera) und eine Laufzeit(TOF)-Kamera umfassen.
-
Eine Lichtfeldkamera, die manchmal auch als plenoptische Kamera bezeichnet wird, umfasst eine 3D-Kamera, die eine Mikrolinsenanordnung zum Erfassen von 4D-Lichtfeldinformationen über das erfasste Bild verwendet. Bei einer Ausgestaltung wird eine Anordnung von Mikrolinsen an der Brennebene einer Kamerahauptlinse platziert. Ein Bildsensor ist geringfügig hinter den Mikrolinsen angeordnet. Der Bildsensor könnte eine photosensitive Anordnung, wie z. B. ein CMOS- oder CCD-Array, sein. Unter Verwendung von vom Bildsensor gesammelten Bildern kann die Verschiebung von nicht scharf abgebildeten Bilderteilen analysiert werden, um Tiefeninformationen zu extrahieren. Eine Lichtfeldkamera kann basierend auf natürlichem Licht, einer an die 3D-Kamera gekoppelten Lichtquelle oder einer von der 3D-Kamera externen (entkoppelten) Lichtquelle betrieben werden.
-
Ein TOF-Kameratyp verwendet eine RF-modulierte Lichtquelle mit einem Phasendetektor. Solche TOF-Kameras werden beispielsweise von der PMD Technologies GmbH in Siegen (Deutschland) und der Mesa Imaging AG in Zürich (Schweiz) hergestellt. Das Arbeitsprinzip dieser Geräte beruht auf dem Modulieren des ausgehenden Strahls mit einem RF-Träger, dem Messen der Phasenverschiebung des reflektierten Lichts und dem Bestimmen einer Distanz zum Ziel, basierend auf der Phasenverschiebung und der Lichtgeschwindigkeit in Luft.
-
Ein anderer TOF-Kameratyp ist ein entfernungstorgesteuerter Bildgeber (range gated imager). Solche TOF-Kameras werden beispielsweise vom Fraunhofer IMS (Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme) in Duisburg (Deutschland) und der TriDiCam GmbH in Duisburg (Deutschland) hergestellt. Entfernungstorgesteuerte Bildgeber umfassen einen Einbauverschluss, der sich vor einem Bildsensor befindet. Der Verschluss sendet Lichtimpulse mit der gleichen Geschwindigkeit aus wie sich der Verschluss öffnet und schließt. Durch Prüfen des Bruchteils des empfangenen Lichtimpulses wird die Distanz zum Ziel berechnet.
-
Ein dritter TOF-Kameratyp ist ein direkter TOF-Bildgeber (direct TOF imager). Eine solche TOF-Kamera, die beispielsweise von der Advanced Scientific Concepts, Inc. in Santa Barbara, CA (USA) hergestellt wird, steht für eine Vielzahl von Produkten, die als „3D Flash LIDAR“-Kameras bezeichnet werden. Diese Geräte emittieren einen einzigen Laserlichtimpuls, der von Objekten reflektiert wird, bevor er zur Kamera, die eine Linse und eine photosensitive Anordnung umfasst, zurückgeführt wird. Die Geräte verwenden eine integrierte Ausleseschaltung (readout integrated circuit; ROIC) in einem „Triggermodus“, um räumliche und zeitliche Informationen unter Verwendung eines einzigen Impulses zu erfassen.
-
Es sind viele Typen von TOF-3D-Kameras möglich und die vorliegende Erfindung ist nicht auf die hier oben beschriebenen Typen beschränkt. Jede der Sensoranordnungen, die Distanzmessungen ermöglichen, ermöglicht auch Winkelmessungen, da der Winkel zu jedem Punkt einer Anordnung der TOF-3D-Kamera, basierend zumindest teilweise auf der Position des Pixels und der Brennweite einer Linse innerhalb der 3D-Kamera, berechnet werden kann.
-
Bei einer Ausgestaltung ist eine 3D-Kamera an einer Peripherie eines äußeren Rahmens oder einer Außenfläche des Lasertrackergehäuses positioniert, um zu ermöglichen, dass relative große Sichtfelder (fields of view; FOVs) erhalten werden. Bei einem gegensätzlichen Verfahren ist dagegen eine 3D-Kamera innen in einem Tracker, einer Totalstation oder einem Scanner angeordnet. Wenn die Anordnung innen im Gerät erfolgt, ist das Sichtfeld durch das Vorhandensein der Austrittsapertur des 3D-Instruments notwendigerweise sehr eng ausgeführt. Dieses eingeschränkte Sichtfeld wird bei einer Ausgestaltung dadurch vermieden, dass die 3D-Kamera auf der Nutzlast 15 positioniert wird, bei der es sich um den Teil des Trackers handelt, der sich um die Achse 18 dreht. Das Sichtfeld kann in diesem Fall so gewählt werden, dass es zwischen 30 und 40 Grad liegt, um zu ermöglichen, dass ein Arbeitsbereich in einer Einzelaufnahme visualisiert wird. Da jedoch die Nutzlast in 1A um die Achsen 18 und 20 gedreht werden kann, ist das gesamte Messvolumen für die Betrachtung durch die 3D-Kamera 55 zugänglich. Bei einer Ausgestaltung beträgt das Sichtfeld der 3D-Kamera, wenn sie auf der Nutzlast 15 angeordnet ist, mindestens +/–20 Grad (d. h. es umfasst einen Vollwinkel von 40 Grad).
-
Bei einer anderen, in 1B dargestellten Ausgestaltung ist die 3D-Kamera 55 auf dem Zenitschlitten 14 angeordnet, bei dem es sich um den Teil des Trackers (oder Scanners) handelt, der sich um die Azimutachse 20 dreht. Die 3D-Kamera dreht sich in diesem Fall um die Azimutachse 20, bleibt aber bezogen auf die Zenitachse an einem festen Ort. Eine solche Kamera weist an sich ein relativ weites Sichtfeld auf, um einen gewünschten Teil des potenziellen Messvolumens des Trackers oder Scanners zu betrachten. Bei einer Ausgestaltung weist die an dem Zenitschlitten 14 angebrachte 3D-Kamera 55 ein Sichtfeld von mindestens +/–40 Grad (einem Vollwinkel von 80 Grad) auf.
-
Bei einer, in 1C dargestellten Ausgestaltung ist eine 3D-Kamera 55, die bezogen auf sowohl die Azimutachse 20 als auch die Zenitachse 18 feststehend ist, an den Sockel 16 gekoppelt. Bei einer Ausgestaltung weist die an dem Sockel 16 angebrachte 3D-Kamera 55, da die 3D-Kamera 55 bezogen auf die beweglichen Teile des Lasertrackers oder -scanners feststehend ist, ein Sichtfeld von mindestens +/–60 Grad (einem Vollwinkel von 120 Grad) auf.
-
Bei weiteren, in den 1A, 1B oder 1C dargestellten Ausgestaltungen ist die 3D-Kamera eine Lichtfeldkamera, die nicht nur ermöglicht, dass die 3D-Koordinaten der Vordergrundobjekte gemessen werden, sondern auch die Fähigkeit zur Nachfokussierung und zum Liefern scharfer Bildern der Abbildungsobjekte, nachdem das Bild erfasst ist, besitzt. Dies gilt sogar, wenn einige, der nah oder fern von der Kamera gelegenen Objekte in dem gleichen Bild erfasst werden, wie dies häufig der Fall ist, wenn die 3D-Kamera ein weites Sichtfeld erfasst. So wie hierin verwendet, wird unter dem Begriff „Brennweite“ die Fokalweite von der 3D-Kamera zu einer Ebene oder einem Punkt verstanden, in der bzw. an dem ein Objekt positioniert ist. Innerhalb eines gegebenen, von einer Lichtfeldkamera erfassten Bildes können mehrere Objekte oder Teile von Objekten, alle an einer unterschiedlichen Fokalweite, vorhanden sein. Bei einer Lichtfeldkamera kann jede dieser Fokalweiten während der anschließenden Nachbearbeitung des Bildes selektiv bestimmt werden. Bei einer Ausgestaltung können alle oder im Wesentlichen alle der Objekte innerhalb des Bildes während der Nachbearbeitung des Bildes scharfgestellt werden, um ein Bild bereitzustellen, bei dem alle der Objekte gleichzeitig scharf sind.
-
Obwohl die 1A, 1B und 1C eine am Tracker 10 befestigte 3D-Kamera 55 zeigen, versteht es sich, dass es eine separate 3D-Kamera 55 geben kann, die vom Tracker losgelöst ist. Eine solche separate 3D-Kamera kann innerhalb des Lasertrackers 10 befindliche interne Prozessoren oder einen externen Computer, wie z. B. den in 2 dargestellten Computer 80, mit empfangenen Informationen versorgen.
-
In 2, auf die jetzt Bezug genommen wird, ist eine Ausgestaltung eines Lasertrackers 10 dargestellt, die eine Hilfseinheit 70 aufweist. Die Hilfseinheit 70 versorgt den Lasertracker 10 mit elektrischer Energie und stellt auch in einigen Fällen die Rechen- und Taktfähigkeit bereit. Bei einer Ausgestaltung entfällt die separate Hilfseinheit 70 dadurch, dass die Funktionalität der Hilfseinheit 70 in den Trackersockel 16 verlagert wird. Die Hilfseinheit 70 wird in den meisten Fällen an den Universalcomputer 80 angeschlossen. Auf den Universalcomputer 80 geladene Anwendungssoftware kann Anwendungsfähigkeiten, wie z. B. Reverse Engineering, bereitstellen. Man kann den Universalcomputer 80 auch dadurch eliminieren, dass seine Rechenfähigkeit direkt in den Lasertracker 10 integriert wird. In diesem Fall wird eine Benutzerschnittstelle, die möglicherweise eine Tastatur- und Mausfunktionalität bereitstellt, in den Lasertracker 10 eingebaut. Die Verbindung zwischen der Hilfseinheit 70 und dem Computer 80 kann drahtlos sein und beispielsweise durch Wi-Fi- oder Bluetooth-Übertragungen erfolgen oder kann mittels eines Kabels mit Drähten, wie z. B. einem seriellen, Koaxial- oder Ethernetkabel, verdrahtet sein. Der Computer 80 kann an ein Netzwerk angeschlossen sein und die Hilfseinheit 70 kann ebenfalls an ein Netzwerk angeschlossen sein. Bei einer Ausgestaltung wird die Anwendungssoftware in einer Umgebung für verteiltes Rechnen (distributed computing environment; DCE) betrieben. Es ist deutlich zu machen, dass der Computer 80 direkt an die Hilfseinheit 70 gekoppelt werden kann oder vom Lasertracker 10 entfernt angeordnet und über ein lokales oder Fernnetzwerk (LAN oder WAN) verbunden sein kann. Mehrere Instrumente, wie z. B. mehrere Messinstrumente oder -aktoren, können entweder über den Computer 80 oder die Hilfseinheit 70 miteinander verbunden werden.
-
Der Lasertracker 10 kann zur Seite gedreht, mit der Oberseite nach unten gedreht oder in einer beliebigen Ausrichtung platziert werden. In diesen Situationen weisen die Azimutachse und die Zenitachse die gleiche Richtung in Bezug auf den Lasertracker 10 auf wie die in 1 dargestellten Richtungen, und zwar ungeachtet der Ausrichtung des Lasertrackers 10.
-
Bei einer anderen Ausgestaltung ist die Nutzlast 15 durch einen Spiegel ersetzt, der sich um die Azimutachse 20 und die Zenitachse 18 dreht. Ein Laserstrahl wird nach oben gerichtet und trifft auf den Spiegel, von dem aus er zu einem Retroreflektor 26 hin geworfen wird. Bei wieder einer anderen Ausgestaltung kann die Nutzlast 15 durch zwei oder mehr Galvanometerspiegel ersetzt werden, die unabhängig voneinander gedreht werden, um den Laserstrahl an den gewünschten Ort zu führen.
-
Die hier erörterten Verfahren für den Betrieb des Lasertrackers 10 können mithilfe eines in 3 dargestellten Verarbeitungssystems 800 implementiert werden. Das Verarbeitungssystem 800 umfasst eine Tracker-Verarbeitungseinheit 810 und gegebenenfalls den Computer 80. Die Verarbeitungseinheit 810 umfasst mindestens einen Prozessor, der ein Mikroprozessor, ein digitaler Signalprozessor (DSP), eine feldprogrammierbare Anordnung von Logik-Gattern (FPGA; field-programmable gate array) oder eine ähnliche Vorrichtung sein kann. Es wird eine Verarbeitungsfähigkeit bereitgestellt, um Informationen zu verarbeiten und Befehle an interne Trackerprozessoren auszugeben. Solche Prozessoren können einen Positionsdetektorprozessor 812, einen Azimutkodiererprozessor 814, einen Zenitkodiererprozessor 816, einen Anzeigeleuchtenprozessor 818, einen ADM-Prozessor 820, einen Interferometerprozessor (IFM-Prozessor) 822 und einen Farbkameraprozessor 824 umfassen. Wie nachstehend ausführlicher erörtert wird, kann die Verarbeitungseinheit 810 auch einen 3D-Kameraprozessor oder eine 3D-Kameramaschine 826 umfassen. Ein Hilfseinheitsprozessor 870 stellt gegebenenfalls die Zeitsteuerung sowie die Mikroprozessorunterstützung für andere Prozessoren in der Trackerprozessoreinheit 810 bereit. Er kann mit anderen Prozessoren über einen Gerätebus 830 kommunizieren, welcher Informationen mittels Datenpakete überall im Tracker übertragen kann, wie es im Fachgebiet allgemein bekannt ist. Die Rechenfähigkeit kann in der gesamten Trackerverarbeitungseinheit 810 verteilt werden, wobei DSPs und FPGAs Zwischenberechnungen an Daten durchführen, die von Trackersensoren gesammelt wurden. Die Ergebnisse dieser Zwischenberechnungen werden an den Hilfseinheitsprozessor 870 zurückgegeben. Wie hierin erläutert, kann die Hilfseinheit 70 durch ein Kabel an den Hauptkörper des Lasertrackers 10 angeschlossen werden oder im Hauptkörper des Lasertrackers derart angeordnet werden, dass der Tracker direkt (und gegebenenfalls) an den Computer 80 angeschlossen wird. Die Hilfseinheit 870 kann durch eine Verbindung 840, die beispielsweise ein Ethernet-Kabel oder eine drahtlose Verbindung sein kann, an den Computer 80 angeschlossen werden. Die Hilfseinheit 870 und der Computer 80 können über Verbindungen 842, 844, die beispielsweise Ethernet-Kabel oder drahtlose Verbindungen sein können, an das Netzwerk angeschlossen werden.
-
Es ist deutlich zu machen, dass obwohl die Ausgestaltungen hier den Einsatz der 3D-Kamera 55 mit dem Lasertracker 10 beschreiben, dies nur der Beispielhaftigkeit dient und die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei einer Ausgestaltung, die in den 4 und 5 dargestellt ist, wird die 3D-Kamera mit einem Laufzeit(TOF)-Laserscanner 200 verwendet. Der Begriff „TOF“ ist als eine Messung zu verstehen, die basierend auf einer Laufzeit von Licht vorgenommen wurde, das einen Weg zwischen zwei Punkten zurückgelegt hat. Dieses Verfahren nutzt an sich Wissen über die Lichtgeschwindigkeit in der Luft, die das Licht durchläuft. In einem TOF(time-of-flight)-Gerät kann jedes Verfahren, das auf der Laufzeit von Licht basiert, verwendet werden, um die Laufzeit zwischen zwei Punkten zu messen. Das Licht kann zum Beispiel gepulst sein und die Zeit kann gemäß der Laufzeit, zwischen einem Impuls beim Aussenden und dem Impuls beim Rückführen, bestimmt werden. Als weiteres Beispiel kann das Licht hinsichtlich der optischen Leistung in einem sinusförmigen Muster moduliert werden und die Zeit gemäß der Laufzeit, wie sie ausgehend von einer Phasenverschiebung der sinusförmigen Modulation berechnet wurde, die von einem optischen Detektor am TOF-Gerät erhalten wird, bestimmt werden. Der TOF-Laserscanner 200 kann dem ähnlich sein, der in der US-amerikanischen Patentanmeldung, Aktenzeichen 13/510,020, die am 11. November 2010 eingereicht wurde, beschrieben ist. Bei dieser Ausgestaltung wird das Laserlicht von der Lichtquelle 202 emittiert und an einem Drehspiegel 204 reflektiert. Der TOF-Scanner 200 wird um eine erste Achse 206 gedreht, während der Spiegel zum optischen Abtasten der Umgebung um eine zweite Achse 208 gedreht wird. Die erste Achse 206 ist zu der zweiten Achse 208 orthogonal. Das Licht wird von einer Oberfläche in der Umgebung reflektiert und ein Teil entlang des Wegs des emittierten Laserlichts zurückgeführt und noch einmal von dem Drehspiegel 204 reflektiert, woraufhin er von einer Linse 210 kollimiert und am Spiegel 212 in den Lichtempfänger 214 reflektiert wird. Unter Zuhilfenahme der Zeit, die für das Aussenden des Laserlichts von dem Laserscanner 200, das Reflektieren und das Zurückführen des Laserlichts benötigt wird, kann die Distanz von dem Lasertracker zu der Oberfläche bestimmt werden. Unter Verwendung der Winkelmessungen für die Drehung um die erste Achse 206 und die zweite Achse 208 können die 3D-Koordinaten für Punkte auf der Oberfläche in dem Laserscanner-Bezugssystem bestimmt werden.
-
Bei einer in 4 dargestellten Ausgestaltung ist die 3D-Kamera 55 an eine Peripheriefläche eines Aufbaus oder Gehäuses 216 montiert. Bei einer anderen, in 5 dargestellten Ausgestaltung ist die 3D-Kamera 55 innerhalb des Scannergehäuses 216 positioniert. Bei dieser Ausgestaltung kann die 3D-Kamera 55 so koaxial zur Achse 208 angeordnet werden, dass die 3D-Kamera 55 Bilder erhält, die von dem Spiegel 204 reflektiert wurden. Es ist deutlich zu machen, dass wenn die 3D-Kamera an den TOF-Laserscanner 200 in einer bekannten Position bezogen auf das lokale Koordinatensystem des TOF-Laserscanners 200 fest gekoppelt ist, die Koordinaten von Punkten, die von der 3D-Kamera 55 erfasst werden, in Koordinaten des lokalen Koordinatensystems des TOF-Laserscanners 200 (d. h. des Gerätebezugssystems) transformiert werden können.
-
Der TOF-Laserscanner 200 kann auch ein Grafikdisplay 218 umfassen, das eine Benutzerschnittstelle anzeigt. Die Benutzerschnittstelle kann ein berührungssensitives Display sein, das dem Bediener gestattet, mit dem Scanner 200 zu interagieren und dessen Betrieb zu steuern. Bei einer Ausgestaltung können die dreidimensionalen, von der 3D-Kamera erfassten Bilder auf dem Grafikdisplay 218 angezeigt werden.
-
Bei einer Ausgestaltung wird eine TOF-3D-Kamera auf einem Lasertracker oder einem TOF-Laserscanner bereitgestellt. In den meisten Fällen wird die TOF-3D-Kamera eine geringere Genauigkeit als der Lasertracker oder der TOF-Laserscanner aufweisen, aber sie kann konfiguriert werden, um schnell ein 3D-Bild über ein weites Sichtfeld bereitzustellen und es dadurch dem Lasertracker oder TOF-Laserscanner zu ermöglichen, weitere Aktionen je nach den Erfordernissen ausführen. Im Falle eines Lasertrackers kann eine TOF-3D-Kamera die Kontur eines zu prüfenden Objekts identifizieren und dann den Bediener bezüglich der Schritte in einem Prüfplan leiten, indem beispielsweise von dem Tracker ein Laserstrahl auf den jeweiligen Schritt projiziert wird. Eine TOF-3D-Kamera kann gemäß einer Vielfalt von Verfahren eingesetzt werden, um bei Messungen Hilfestellungen zu bieten, die mit einem Lasertracker oder TOF-Laserscanner vorgenommen werden. Solche Verfahren sind nicht auf die oben gegebenen Beispiele beschränkt.
-
In 6, auf die jetzt Bezug genommen wird, wird eine exemplarische Ausgestaltung veranschaulicht, die die dreidimensionale Kamera 55 zum Bestimmen von Gesten oder Befehlsbewegungen von dem Bediener 400 einsetzt. Bei der veranschaulichten Ausgestaltung ist das Koordinatenmessgerät ein Lasertracker 10, wobei die 3D-Kamera 55 an der Nutzlast so angebracht ist, dass sich die 3D-Kamera 55 um die Azimutachse und die Zenitachse dreht. Bei der exemplarischen Ausgestaltung befindet sich der Bediener 400 neben dem entfernten Ziel, das gerade gemessen wird. So wie hierin verwendet, befindet sich der Bediener 400 neben dem entfernten Ziel, wenn der Bediener innerhalb des Sichtfelds der 3D-Kamera 55 positioniert ist.
-
Bei einer Ausgestaltung ist die 3D-Kameramaschine 826 von 3 eine Gestenerkennungsmaschine, die beim Auswerten oder Parsen von Gestenmustern hilft, um die ausgeführte Geste aus einer Vielzahl von Gesten zu bestimmen. Bei einer Ausgestaltung generieren die 3D-Kamera 55 und die Maschine 826 ein 3D-Skelettmodell des Bedieners 400 aus einer Vielzahl von gemessenen Oberflächen des Bedieners, die von der 3D-Kamera gemessen wurden. Dies ermöglicht die Interpretation von Bewegungen und/oder Körperpositionen, wie z. B. die Position oder Orientierung der Hand des Bedieners 404, als Befehle, die von dem Lasertracker 10 auszuführen ist. Das Skelettmodell kann Informationen, wie z. B. die Position von Gelenken des Bedieners und Orte von spezifischen Körperpositionen (z. B. Hand 404, Arm 405) umfassen. Bei einer Ausgestaltung identifiziert das Skelettmodell den Ort von verschiedenen Teilen des Bedieners, wie zum Beispiel den Arm, den Ellenbogen, die Hand, die Finger und die Verbindungsgelenke.
-
Die Gestenmaschine 826 kann eine Sammlung von Gestenfiltern umfassen, wobei jeder Informationen umfasst, die eine Geste betrifft, die, wie sie durch das Skelettmodell interpretiert wird, von dem Anwender ausgeführt werden kann. Die von der Kamera 55 erfassten Daten in Form des Skelettmodells und der Skelettmodellbewegungen können mit den Gestenfiltern in der Gestenmaschine 826 verglichen werden, um zu erkennen, ob ein Bediener (wie durch das Skelettmodell repräsentiert) eine oder mehrere Gesten ausgeführt hat. Die Gesten können durch einen oder mehrere der Körperteile des Bedieners oder die Relativbewegung oder -position dieser Teile zueinander (d. h. die räumliche Anordnung) ausgeführt werden. Diese Gesten können den verschiedenen Steuerungen des Lasertrackers 10 zugeordnet werden. Es kann mit anderen Worten eine Entsprechungsregel zwischen jeder einer Vielzahl von Gesten und jedem (jeder) einer Vielzahl von Befehlen (Steuerungen) für den Lasertracker 10 geben. Somit kann das Verarbeitungssystem 800 die Gestenmaschine 826 verwenden, um Bewegungen des Skelettmodells zu interpretieren und um eine Anwendung, basierend auf der Position oder den Bewegungen eines Körperteils (z. B. der Hand), zu steuern.
-
Die Gestenfilter können modular oder austauschbar sein. Bei einer Ausgestaltung weist der Filter eine Anzahl von Eingängen auf, wobei jeder einen Typ hat, sowie eine Anzahl von Ausgängen, wobei jeder einen Typ hat. Die Eingänge des Filters können Elemente wie z. B. Gelenkdaten über die Position eines Anwendergelenks (z. B. von den Winkeln, die von den Knochen gebildet werden, die sich im Gelenk vereinigen), RGB-Farbdaten und die Änderungsgeschwindigkeit eines Aspekts des Anwenders umfassen. Die Ausgänge des Filters können Parameter wie z. B. ein Vertrauensniveau, das besagt, dass eine bestimmte Geste gemacht wurde und die Geschwindigkeit der Gestenbewegung umfassen. Die Filter können ferner kontextuelle Parameter umfassen, die die Erkennung von bestimmten Gesten als Reaktion auf vorherige Aktionen ermöglichen. Die Gesten, die von der Gestenmaschine 826, basierend auf den dreidimensionalen, von der 3D-Kamera 55 erfassten Daten, interpretiert werden können, umfassen jene, die in der am 29. April 2014 eingereichten US-amerikanischen Patentanmeldung, Aktenzeichen 14/264,420, offenbart wurden.
-
Es ist deutlich zu machen, dass obwohl die 3D-Kamera 55 und die Gestenmaschine 826 im Einsatz mit dem Lasertracker 10 veranschaulicht werden, dies nur der Beispielhaftigkeit dient und die beanspruchte Erfindung nicht so eingeschränkt sein sollte. Bei anderen Ausgestaltungen kann die 3D-Kamera 55 und die Gestenmaschine 826 mit einem anderen Koordinatenmessgerät, wie beispielsweise dem Laserscanner 200, eingesetzt werden.
-
Bei wieder einer anderen Ausgestaltung ist die 3D-Kamera 55 an den Lasertracker 10 gekoppelt und erfasst rings um den Lasertracker 10 ein dreidimensionales Bild der Umgebung. Dieses Bild wird anschließend dazu verwendet, den Ort des Bedieners zu identifizieren und dem Lasertracker 10 zu gestatten, die Nutzlast um die Azimut- und Zenitachse zu drehen, damit eine schnelle Erfassung des Retroreflektors 26 mit dem Laserstrahl 46 möglich ist.
-
Bei wieder anderen Ausgestaltungen kann die 3D-Kamera 55 mit einem Lasertracker 10 in einem automatisierten System verwendet werden, bei dem die 3D-Kamera eingesetzt wird, um die Komponenten innerhalb des Prozesses zu identifizieren. Die 3D-Kamera 55 kann zum Beispiel ein Bild des Prozesses erfassen und die Maschine 826 kann dazu verwendet werden, ein gewünschtes Objekt, wie einen Roboterendeffektor, zu identifizieren. Unter Verwendung dieser Information transformiert der Lasertracker 10 diese Information in einen Azimutwinkel und einen Zenitwinkel, damit die Drehung der Nutzlast 15 an den gewünschten Ort und die schnelle Erfassung eines retroreflektierenden Ziels möglich ist.
-
Die technischen Auswirkungen und Vorteile von Ausgestaltungen der Erfindung gestatten unter anderem einem 3D-Messgerät, schnell dreidimensionale Informationen über die Umgebung oder ein Objekt, die oder das gerade gemessen wird, zu erfassen. Weitere technische Auswirkungen und Vorteile von Ausgestaltungen der Erfindung ermöglichen die Zuordnung von schnellen, mit einem ersten Messgerät ermittelten 3D-Koordinaten zu 3D-Koordinaten, die im gleichen Bezugssystem mit einem zweiten Messgerät ermittelt wurden. Weitere, darüber hinausgehende technische Auswirkungen und Vorteile von Ausgestaltungen der Erfindung ermöglichen die Bestimmung und die Ausführung von Bedienungsbefehlen am Messgerät als Reaktion auf die Bewegung, Körperposition oder Gesten, die von einem, sich neben dem Objekt oder Bereich befindenden Bediener ausgeführt werden.
-
Obwohl die Erfindung ausführlich in Verbindung mit nur einer begrenzten Anzahl von Ausgestaltungen beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf solche offenbarte Ausgestaltungen beschränkt ist. Stattdessen kann die Erfindung derart modifiziert werden, dass sie eine beliebige Anzahl von Abweichungen, Änderungen, Ersetzungen oder äquivalenten Anordnungen einbezieht, die bisher nicht beschrieben wurden, aber dem Gedanken und Schutzbereich der Erfindung entsprechen. Obwohl verschiedene Ausgestaltungen der Erfindung beschrieben wurden, versteht sich ferner, dass Aspekte der Erfindung nur einige der beschriebenen Ausgestaltungen einschließen können. Die Erfindung ist demgemäß nicht als durch die vorangehende Beschreibung eingeschränkt zu verstehen und ist lediglich durch den Schutzbereich der beigefügten Ansprüche eingeschränkt.