DE102016105858A1 - Mobiles dreidimensionales Messinstrument - Google Patents

Mobiles dreidimensionales Messinstrument Download PDF

Info

Publication number
DE102016105858A1
DE102016105858A1 DE102016105858.0A DE102016105858A DE102016105858A1 DE 102016105858 A1 DE102016105858 A1 DE 102016105858A1 DE 102016105858 A DE102016105858 A DE 102016105858A DE 102016105858 A1 DE102016105858 A1 DE 102016105858A1
Authority
DE
Germany
Prior art keywords
scanner
mobile
measuring
camera
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016105858.0A
Other languages
English (en)
Inventor
Oliver Zweigle
Bernd-Dietmar Becker
Hamidreza Rajaie
Robert E. Bridges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE102016105858A1 publication Critical patent/DE102016105858A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein mobiles dreidimensionales (3D) Messsystem, das ein 3D-Messgerät, einen an das 3D-Messgerät gekoppelten mehrbeinigen Ständer und einen an den mehrbeinigen Ständer gekoppelten motorbetätigten Stativwagen umfasst.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung beansprucht den Vorteil der am 31. März 2015 eingereichten US-Anmeldung Nr. 62/140,706, der am 31. März 2015 eingereichten US-Anmeldung Nr. 62/140,716, der am 31. März 2015 eingereichten US-Anmeldung Nr. 62/140,733, der am 31. März 2015 eingereichten US-Anmeldung Nr. 62/140,743 und der am 31. März 2015 eingereichten US-Anmeldung Nr. 62/140,756, deren aller Inhalte durch Verweis einbezogen werden.
  • Hintergrund der Erfindung
  • Die vorliegende Offenbarung betrifft ein motorbetätigtes Stativ, das zum Halten eines dreidimensionalen (3D) Messinstruments verwendet werden kann. Der hierin offenbarte Gegenstand betrifft insbesondere ein Koordinatenmessgerät mit einem 3D-Laufzeit-Laserscanner (TOF-Laserscanner; time-of-flight laser scanner). Ein 3D-Laserscanner dieses Typs lenkt einen Lichtstrahl zu einem nicht zusammenwirkenden Ziel wie beispielsweise einer diffus streuenden Oberfläche eines Objekts. Ein Distanzmesser in dem Gerät misst einen Abstand zum Objekt und Winkelkodierer messen die Drehwinkel von zwei Achsen in dem Gerät. Der gemessene Abstand und die gemessenen zwei Winkel ermöglichen einem Prozessor im Gerät die Ermittlung der 3D-Koordinaten des Ziels.
  • Ein Laufzeit-Laserscanner (oder einfach „Laufzeitscanner“) ist ein Scanner, bei dem der Abstand zu einem Zielpunkt auf Basis der Lichtgeschwindigkeit in Luft zwischen dem Scanner und einem Zielpunkt ermittelt wird. Laserscanner werden normalerweise zum Abtasten von geschlossenen oder offenen Räumen wie beispielsweise Innenbereichen von Gebäuden, Industrieanlagen und Tunneln eingesetzt. Sie können zum Beispiel bei industriellen Anwendungen und Anwendungen der Unfallrekonstruktion benutzt werden. Ein Laserscanner tastet Objekte optisch ab und misst sie in einem Raum rings um den Scanner durch die Erfassung von Datenpunkten, die Objektoberflächen in dem Raum repräsentieren. Solche Datenpunkte werden erhalten, indem ein Lichtstrahl auf die Objekte ausgesendet wird und das reflektierte bzw. gestreute Licht erfasst wird, um den Abstand, zwei Winkel (d. h. einen Azimutwinkel und einen Zenitwinkel) und gegebenenfalls einen Grauwert zu ermitteln. Diese unverarbeiteten Abtastungsdaten werden erfasst, gespeichert und an einen oder mehrere Prozessoren gesendet, um ein 3D-Bild zu erzeugen, das den abgetasteten Bereich oder das abgetastete Objekt wiedergibt.
  • Die Erzeugung eines Bilds macht mindestens drei Werte für jeden Datenpunkt erforderlich. Diese drei Werte können den Abstand und zwei Winkel umfassen oder können transformierte Werte wie beispielsweise die x-, y-, z-Koordinaten sein. Bei einer Ausgestaltung basiert ein Bild auch auf einem vierten Grauwert, der ein Wert ist, der sich auf die Bestrahlungsstärke von gestreutem Licht bezieht, das zum Scanner zurückkehrt.
  • Die meisten Laufzeitscanner richten den Lichtstrahl im Messvolumen, indem sie das Licht mit einem Strahllenkungsmechanismus lenken. Der Strahllenkungsmechanismus umfasst einen ersten Motor, der den Lichtstrahl um einen ersten Winkel, der durch einen ersten Winkelkodierer (oder ein anderes Winkelmessgerät) gemessen wird, um eine erste Achse lenkt. Der Strahllenkungsmechanismus umfasst auch einen zweiten Motor, der den Lichtstrahl um einen zweiten Winkel, der durch einen zweiten Winkelkodierer (oder ein anderes Winkelmessgerät) gemessen wird, um eine zweite Achse lenkt.
  • Viele heutige Laserscanner umfassen eine Kamera, die auf dem Laserscanner angebracht ist, um digitale Kamerabilder der Umgebung zu erfassen und die digitalen Kamerabilder einem Bediener des Laserscanners darzustellen. Der Bediener des Scanners kann durch Betrachten der Kamerabilder das Sichtfeld des Messvolumens ermitteln und Einstellungen des Laserscanners anpassen, um über eine größere oder kleinere Raumregion zu messen. Die digitalen Kamerabilder können zusätzlich dazu an einen Prozessor übertragen werden, um dem Scannerbild Farbe hinzuzufügen. Zur Erzeugung eines Scannerfarbbilds werden für jeden Datenpunkt mindestens drei Positionskoordinaten (zum Beispiel x, y, z) und drei Farbwerte (zum Beispiel rot, grün, blau; „RGB“) erfasst.
  • Ein 3D-Bild einer Szene kann mehrere Abtastungen von verschiedenen Registrierungspositionen aus erforderlich machen. Die sich überlappenden Abtastungen werden in einem gemeinsamen Koordinatensystem registriert, wie es beispielsweise in der veröffentlichten US-Patentanmeldung Nr. 2012/0069352 (’352) beschrieben wird, deren Inhalte durch Verweis hierin einbezogen werden. Eine solche Registrierung wird durchgeführt, indem Ziele in sich überlappenden Regionen der mehreren Abtastungen aneinander angepasst werden. Die Ziele können künstliche Ziele wie beispielsweise Kugeln oder Schachbretter sein oder sie können natürliche Merkmale wie beispielsweise Ecken oder Kanten von Wänden sein. Einige Registrierungsverfahren beinhalten relativ zeitaufwändige manuelle Verfahren wie beispielsweise die Identifizierung jedes Ziels durch einen Benutzer und die Anpassung der durch den Scanner erhaltenen Ziele bei jeder der unterschiedlichen Registrierungspositionen. Einige Registrierungsverfahren machen außerdem die Einrichtung eines externen „Steuerungsnetzes“ von Registrierungszielen erforderlich, die mit einem externen Gerät wie z. B. einer Totalstation gemessen wurden. Bei dem in ’352 offenbarten Registrierungsverfahren entfällt die Anforderung, dass ein Benutzer Registrierungsziele anpassen und ein Steuerungsnetz einrichten muss.
  • Ein Laufzeit-Laserscanner ist üblicherweise auf einem Stativ oder Geräteständer angebracht, während 3D-Koordinaten seiner Umgebung gemessen werden. Ein Bediener muss bei der Durchführung von Messungen das Stativ von einer Stelle zur anderen bewegen. In vielen Fällen ist eine Nachverarbeitung notwendig, um die 3D-Koordinatendaten korrekt zu registrieren. Die Arbeits- und Nachverarbeitungsschritte können zeitaufwändig sein.
  • Obwohl bereits existierende 3D-Scanner für ihre beabsichtigten Zwecke geeignet sind, besteht demzufolge Bedarf an Apparaten und Verfahren, die einen höheren Wirkungsgrad bei der 3D-Messung gemäß bestimmten Merkmalen von Ausgestaltungen der vorliegenden Erfindung bereitstellen.
  • Kurze Beschreibung der Erfindung
  • Gemäß einem Aspekt der Erfindung umfasst ein mobiles dreidimensionales (3D) Messsystem ein 3D-Messgerät; einen mehrbeinigen Ständer, der an das 3D-Messgerät gekoppelt ist; und einen motorbetätigten Stativwagen, der abnehmbar an den mehrbeinigen Ständer gekoppelt ist.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messgeräts, das einen an einen ersten motorbetätigten Ständer und an eine Vielzahl von Zielen gekoppelten 3D-Laufzeitscanner (3D-TOF-Scanner) umfasst, wobei der erste motorbetätigte Ständer eine Vielzahl von motorbetätigten Rädern umfasst, die dafür konfiguriert sind, den ersten motorbetätigten Ständer unter Computersteuerung vorwärtszufahren und zu drehen; Bereitstellen eines ersten Bildsensors in einer Umgebung; Bereitstellen eines Computersystems, das mit dem mobilen 3D-Messsystem und dem ersten Bildsensor kommuniziert; Erhalten eines ersten Bilds der Vielzahl von Zielen mit dem ersten Bildsensor; Ermitteln einer ersten Position des mobilen 3D-Messsystems in einem Umgebungsbezugssystem durch das Computersystem, wobei die erste Position zumindest teilweise auf dem ersten Bild basiert; Bereitstellen der ersten Position an das mobile 3D-Messsystem; und Ermitteln, durch das mobile 3D-Messsystem, seiner Position im Umgebungsbezugssystem basierend zumindest teilweise auf der bereitgestellten ersten Position; Projizieren eines Scannerlichtstrahls aus dem 3D-Laufzeitscanner auf ein Objekt; Messen erster 3D-Koordinaten eines ersten Punkts auf dem Objekt mit dem 3D-Laufzeitscanner als Reaktion auf den projizierten Scannerlichtstrahl; Ermitteln von 3D-Koordinaten des ersten Punkts im Umgebungsbezugssystem basierend zumindest teilweise auf den ersten 3D-Koordinaten des ersten Punkts und auf der ersten Position des mobilen 3D-Messsystems im Umgebungsbezugssystem; und Speichern der ersten 3D-Koordinaten des ersten Punkts im Umgebungsbezugssystem.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messsystems, das einen an einen ersten Retroreflektor, einen zweiten Retroreflektor, einen dritten Retroreflektor und einen ersten motorbetätigten Ständer gekoppelten 3D-Laufzeitscanner (3D-TOF-Scanner) umfasst, wobei der erste motorbetätigte Ständer eine Vielzahl von motorbetätigten Rädern umfasst, die dafür konfiguriert sind, den ersten motorbetätigten Ständer unter Computersteuerung vorwärtszufahren und zu drehen; Bereitstellen eines 3D-Messgeräts in einem ersten Gerätebezugssystem, wobei das 3D-Messgerät dafür konfiguriert ist, einen Gerätlichtstrahl auf ein Retroreflektorziel zu lenken, einen Abstand, einen ersten Winkel und einen zweiten Winkel vom 3D-Messgerät zum Retroreflektorziel zu messen und 3D-Koordinaten des Retroreflektorziels basierend zumindest auf dem gemessenen Abstand, dem gemessenen ersten Winkel und dem gemessenen zweiten Winkel zu ermitteln; Einschalten des ersten motorbetätigten Ständers, um das mobile 3D-Messsystem zu einer ersten Position zu bewegen; Projizieren eines Scannerlichtstrahls aus dem 3D-Laufzeitscanner auf ein Objekt; Messen erster 3D-Koordinaten eines ersten Punkts auf dem Objekt mit dem 3D-Laufzeitscanner als Reaktion auf den projizierten Scannerlichtstrahl; Messen erster 3D-Koordinaten des ersten Retroreflektors, erster 3D-Koordinaten des zweiten Retroreflektors und erster 3D-Koordinaten des dritten Retroreflektors mit dem 3D-Messgerät; Ermitteln registrierter 3D-Koordinaten des ersten Punkts im ersten Gerätebezugssystem basierend zumindest teilweise auf den gemessenen ersten 3D-Koordinaten des ersten Punkts auf dem Objekt, den gemessenen ersten 3D-Koordinaten des ersten Retroreflektors, den gemessenen ersten 3D-Koordinaten des zweiten Retroreflektors und den gemessenen ersten 3D-Koordinaten des dritten Retroreflektors; und Speichern der registrierten 3D-Koordinaten des ersten Punkts.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messsystems, das einen an einen ersten Retroreflektor, einen zweiten Retroreflektor, einen dritten Retroreflektor und einen ersten motorbetätigten Ständer gekoppelten 3D-Scanner umfasst, wobei der erste motorbetätigte Ständer eine Vielzahl von motorbetätigten Rädern umfasst, die dafür konfiguriert sind, den ersten motorbetätigten Ständer unter Computersteuerung vorwärtszufahren und zu drehen, wobei der 3D-Scanner einen Projektor und eine Kamera umfasst, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster zu projizieren, wobei die Kamera durch einen Basislinienabstand vom Projektor getrennt ist; Bereitstellen eines 3D-Messgeräts in einem ersten Gerätebezugssystem, wobei das 3D-Messgerät dafür konfiguriert ist, einen Lichtstrahl auf ein Retroreflektorziel zu lenken, einen Abstand, einen ersten Winkel und einen zweiten Winkel vom 3D-Messgerät zum Retroreflektorziel zu messen und 3D-Koordinaten des Retroreflektorziels basierend zumindest auf dem gemessenen Abstand, dem gemessenen ersten Winkel und dem gemessenen zweiten Winkel zu ermitteln; Einschalten des ersten motorbetätigten Ständers, um das mobile 3D-Messsystem zu einer ersten Position zu bewegen; Projizieren eines ersten Lichtmusters auf ein Objekt mit dem Projektor; Aufnehmen eines ersten Bilds des ersten Lichtmusters auf dem Objekt mit der Kamera; Ermitteln erster gemessener 3D-Koordinaten eines ersten Punkts auf dem Objekt basierend zumindest teilweise auf dem projizierten ersten Lichtmuster, dem aufgenommenen ersten Bild und dem Basislinienabstand; mit dem 3D-Messgerät Ermitteln erster 3D-Koordinaten des ersten Retroreflektors, erster 3D-Koordinaten des zweiten Retroreflektors und erster 3D-Koordinaten des dritten Retroreflektors im ersten Gerätebezugssystem; Ermitteln registrierter 3D-Koordinaten des ersten Punkts im ersten Gerätebezugssystem basierend zumindest teilweise auf den ersten gemessenen 3D-Koordinaten des ersten Punkts, den ersten 3D-Koordinaten des ersten Retroreflektors, den ersten 3D-Koordinaten des zweiten Retroreflektors und den ersten 3D-Koordinaten des dritten Retroreflektors; und Speichern der registrierten 3D-Koordinaten des ersten Punkts.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messsystems, das einen an ein erstes Retroreflektorziel mit sechs Freiheitsgraden (6 DOF) und einen ersten motorbetätigten Ständer gekoppelten 3D-Scanner umfasst, wobei der erste motorbetätigte Ständer eine Vielzahl von motorbetätigten Rädern umfasst, die dafür konfiguriert sind, den ersten motorbetätigten Ständer unter Computersteuerung vorwärtszufahren und zu drehen, wobei der 3D-Scanner einen Projektor und eine Kamera umfasst, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster zu projizieren, wobei die Kamera durch einen Basislinienabstand vom Projektor getrennt ist; Bereitstellen eines 6-DOF-Lasertrackers, der dafür konfiguriert ist, sechs Freiheitsgrade eines 6-DOF-Retroreflektorziels zu ermitteln; Einschalten des ersten motorbetätigten Ständers, um das mobile 3D-Messsystem zu einer ersten Position zu bewegen; Projizieren eines ersten Lichtmusters auf ein Objekt mit dem Projektor; Aufnehmen eines ersten Bilds des ersten Lichtmusters auf dem Objekt mit der Kamera; Ermitteln erster gemessener 3D-Koordinaten eines ersten Punkts auf dem Objekt basierend zumindest teilweise auf dem projizierten ersten Lichtmuster, dem aufgenommenen ersten Bild und dem Basislinienabstand; mit dem 6-DOF-Lasertracker Ermitteln erster 6-DOF-Werte des ersten 6-DOF-Retroreflektorziels in einem ersten Gerätebezugssystem; Ermitteln registrierter 3D-Koordinaten des ersten Punkts im ersten Gerätebezugssystem basierend zumindest teilweise auf den ersten gemessenen 3D-Koordinaten des ersten Punkts und den ersten 6-DOF-Werten des ersten 6-DOF-Retroreflektorziels; und Speichern der registrierten 3D-Koordinaten des ersten Punkts.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messsystems, das an einen ersten motorbetätigten Ständer und an eine Vielzahl von Zielen gekoppelten 3D-Scanner umfasst, wobei der erste motorbetätigte Ständer eine Vielzahl von motorbetätigten Rädern umfasst, die dafür konfiguriert sind, den ersten motorbetätigten Ständer unter Computersteuerung vorwärtszufahren und zu drehen, wobei der 3D-Scanner einen Projektor und eine Kamera umfasst, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster zu projizieren, wobei die Kamera durch einen Scanner-Basislinienabstand vom Projektor getrennt ist; Bereitstellen eines Computersystems, das mit dem mobilen 3D-Messsystem kommuniziert; Bereitstellen eines ersten Bildsensors in einem Umgebungsbezugssystem; Erhalten eines ersten Bilds der Vielzahl von Zielen mit dem ersten Bildsensor; Ermitteln einer ersten Position des mobilen 3D-Messsystems im Umgebungsbezugssystem durch das Computersystem basierend zumindest teilweise auf dem ersten Bild; Bereitstellen der ersten Position an das mobile 3D-Messsystem; Ermitteln, durch das mobile 3D-Messsystem, seiner Position im Umgebungsbezugssystem basierend zumindest teilweise auf der ersten Position; und Speichern der ermittelten Position des 3D-Messsystems im Umgebungsbezugssystem.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen dreidimensionalen (3D) Messsystems, das ein 3D-Messgerät und einen motorbetätigten Ständer umfasst; Bewegen des mobilen 3D-Messsystems mit dem motorbetätigten Ständer zu einer ersten Position, Messen von 3D-Koordinaten eines ersten Punkts auf einer diffus streuenden Oberfläche mit dem 3D-Messgerät und Messen erster 3D-Koordinaten von mindestens drei zusammenwirkenden Zielen mit dem 3D-Messgerät; Bewegen des mobilen 3D-Messsystems mit dem motorbetätigten Ständer zu einer zweiten Position, Messen von 3D-Koordinaten eines zweiten Punkts auf der diffus streuenden Oberfläche mit dem 3D-Messgerät und Messen zweiter 3D-Koordinaten der mindestens drei zusammenwirkenden Ziele mit dem 3D-Messgerät; Ermitteln von 3D-Koordinaten des ersten Punkts und des zweiten Punkts in einem gemeinsamen Bezugssystem basierend zumindest teilweise auf den gemessenen 3D-Koordinaten des ersten Punkts, den gemessenen 3D-Koordinaten des zweiten Punkts, den gemessenen ersten 3D-Koordinaten der mindestens drei zusammenwirkenden Ziele an der ersten Position und den gemessenen zweiten 3D-Koordinaten der mindestens drei zusammenwirkenden Ziele gemessen an der zweiten Position; und Speichern der ermittelten 3D-Koordinaten des ersten Punkts und des zweiten Punkts im gemeinsamen Bezugssystem.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen einer Vielzahl mobiler dreidimensionaler (3D) Messsysteme, wobei jedes System ein 3D-Messgerät und einen motorbetätigten Ständer umfasst, wobei jedes 3D-Messgerät dafür konfiguriert ist, Licht auf einen Punkt zu projizieren und 3D-Koordinaten des Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zum Punkt zu ermitteln; Bereitstellen einer Benutzerschnittstelle, die dafür konfiguriert ist, eine Benutzersteuerung der Vielzahl mobiler 3D-Messsysteme zu ermöglichen; und durch einen Bediener gleichzeitiges Leiten von Tätigkeiten der Vielzahl mobiler 3D-Messsysteme über die Benutzerschnittstelle.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen 3D-Messsystems, das ein 3D-Messgerät und einen motorbetätigten Ständer umfasst, wobei das 3D-Messgerät dafür konfiguriert ist, Licht auf einen Punkt zu projizieren und 3D-Koordinaten des Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zum Punkt zu ermitteln; Einschalten des motorbetätigten Ständers, um Gebäudeelemente zu lokalisieren, die Einfassungen benötigen; Messen einer Größe und Form jedes erforderlichen Einfassungselements mit dem mobilen 3D-Messsystem; und Bereitstellen einer Verbindung zwischen der Stelle im Gebäude und Einfassungsmaßen.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen 3D-Messsystems, das ein 3D-Messgerät und einen motorbetätigten Ständer umfasst, wobei das 3D-Messgerät dafür konfiguriert ist, Licht auf einen Punkt zu projizieren und 3D-Koordinaten des Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zum Punkt zu ermitteln; Messen einer Größe und Form eines Bodenbereichs mit dem mobilen 3D-Messsystem; und Zuschneiden eines Bodenbelags auf die gemessenen Größen und die gemessene Form des Bodenbereichs.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen 3D-Messsystems, das ein 3D-Messgerät und einen motorbetätigten Ständer umfasst, wobei das 3D-Messgerät dafür konfiguriert ist, Licht auf einen Punkt zu projizieren und 3D-Koordinaten des Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zum Punkt zu ermitteln; Erhalten von elektronischen Konstruktionsplänen; Abtasten eines Raums mit dem mobilen 3D-Messsystem, um eine gemessene 3D-Information zu erhalten; und Erzeugen einer elektronischen Information, die eine detaillierte Form und Größe der Arbeitsplatten basierend zumindest teilweise auf den elektronischen Konstruktionsplänen und der gemessenen 3D-Information angibt.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst ein Verfahren Folgendes: Bereitstellen eines mobilen 3D-Messsystems, das ein 3D-Messgerät und einen motorbetätigten Ständer umfasst, wobei der motorbetätigte Ständer dafür konfiguriert ist, das 3D-Messgerät unter Computersteuerung zu bewegen, wobei das 3D-Messgerät dafür konfiguriert ist, Licht auf einen Punkt zu projizieren und 3D-Koordinaten des Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zum Punkt zu ermitteln, wobei das 3D-Messgerät ferner dafür konfiguriert ist, einen sichtbaren Lichtstrahl als Zeigerstrahl zu emittieren; Messen von 3D-Koordinaten von Objekten in einer Umgebung mit dem 3D-Messgerät; Bereitstellen von Elektronikplänen, die eine gewünschte Stelle einer Konstruktionseinbaulinie in der Umgebung anzeigen; und Emittieren des sichtbaren Lichtstrahls mit dem 3D-Messgerät, um die Konstruktionseinbaulinie in der Umgebung zu beleuchten, wobei die in der Umgebung positionierte beleuchtete Konstruktionseinbaulinie zumindest teilweise auf gemessenen 3D-Koordinaten von Objekten in der Umgebung und auf den elektronischen Plänen basiert.
  • Diese und andere Vorteile und Merkmale gehen aus der folgenden Beschreibung in Verbindung mit den Zeichnungen deutlicher hervor.
  • Kurze Beschreibung der Zeichnungen
  • Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Patentbeschreibung besonders hervorgehoben und eindeutig beansprucht. Die vorangehenden und anderen Merkmale und Vorteile der Erfindung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den begleitenden Zeichnungen hervor. Es zeigen:
  • 1: eine perspektivische Ansicht eines Laserscanners gemäß einer Ausgestaltung der Erfindung;
  • 2: eine Seitenansicht des Laserscanners, die ein Messverfahren veranschaulicht;
  • 3: eine schematische Darstellung der optischen, mechanischen und elektrischen Komponenten des Laserscanners;
  • 4: eine planare Ansicht eines abgetasteten 3D-Bilds;
  • 5: eine Ausgestaltung einer Panoramaansicht eines abgetasteten 3D-Bilds, die durch Abbilden einer planaren Ansicht auf einer Kugel erzeugt wurde;
  • 6A, 6B und 6C: Ausgestaltungen einer 3D-Ansicht eines abgetasteten 3D-Bilds;
  • 7: eine Ausgestaltung einer 3D-Ansicht, die aus einem Bild des Objekts von 6B besteht, aber aus einer anderen Perspektive betrachtet und nur partiell dargestellt ist;
  • 8A: eine perspektivische Ansicht eines mobilen 3D-Messsystems gemäß einer Ausgestaltung;
  • 8B, 8C und 8D: eine perspektivische, Drauf- bzw. Vorderansicht eines motorbetätigten Stativwagens gemäß einer Ausgestaltung;
  • 8E: eine perspektivische Ansicht eines zu einer kompakten Form zusammengeklappten motorbetätigten Stativwagens gemäß einer Ausgestaltung;
  • 8F: eine schematische Darstellung einer elektrischen Schaltungsanordnung in dem motorbetätigten Stativwagen gemäß einer Ausgestaltung;
  • 9A: eine Vorderansicht eines 3D-Scanners, der dafür konfiguriert ist, Licht auf eine horizontale Ebene zu projizieren, gemäß einer Ausgestaltung;
  • 9B: einen Blockschaltplan, der ein Prozessorsystem gemäß einer Ausgestaltung zeigt;
  • 10: eine schematische Darstellung eines 3D-Scanners, der ein Objekt von zwei Registrierungspositionen aus misst, gemäß einer Ausgestaltung;
  • 11: eine schematische Darstellung eines 3D-Scanners, der das Objekt durch Abtasten entlang einer horizontalen Ebene von einer Vielzahl von Zwischenpositionen aus misst, gemäß einer Ausgestaltung;
  • 12: einen 3D-Scanner, der Abschnitte des Objekts durch Abtasten entlang einer horizontalen Ebene von einer Vielzahl von Positionen aus aufnimmt, gemäß einer Ausgestaltung;
  • 13: einen 3D-Scanner, der, aus der Sicht eines Bezugssystems des 3D-Scanners, Abschnitte des Objekts durch Abtasten entlang einer horizontalen Ebene von einer Vielzahl von Positionen aus aufnimmt, gemäß einer Ausgestaltung;
  • 14A, 14B und 14C: ein Verfahren zur Ermittlung von Änderungen der Position und Orientierung des 3D-Scanners im Zeitverlauf gemäß einer Ausgestaltung;
  • 15: eine perspektivische Ansicht eines mobilen 3D-Messsystems gemäß einer Ausgestaltung;
  • 16: eine perspektivische Ansicht eines mobilen 3D-Messsystems mit externen Kamerasensoren gemäß einer Ausgestaltung;
  • 17: eine perspektivische Ansicht eines mobilen 3D-Messsystems mit einem externen Lasertrackersensor gemäß einer Ausgestaltung;
  • 18: eine perspektivische Ansicht eines mobilen 3D-Messsystems gemäß einer Ausgestaltung;
  • 19: eine perspektivische Ansicht eines zur Messung eines Objekts verwendeten mobilen 3D-Messsystems gemäß einer Ausgestaltung;
  • 20: eine perspektivische Ansicht eines mobilen 3D-Messsystems gemäß einer Ausgestaltung;
  • 21: eine perspektivische Ansicht eines ersten mobilen 3D-Messsystems, das zur Messung eines Objekts verwendet wird, und eines zweiten mobilen 3D-Messsystems, das zur Unterstützung bei der Registrierung des ersten mobilen 3D-Messgeräts verwendet wird, gemäß einer Ausgestaltung; und
  • 22: eine perspektivische Ansicht eines mobilen 3D-Messsystems, das zur Messung eines Objekts verwendet wird, während externe Kamerasensoren die Registrierung unterstützen, gemäß einer Ausgestaltung.
  • Die ausführliche Beschreibung erläutert Ausgestaltungen der Erfindung zusammen mit den Vorteilen und Merkmalen beispielhaft anhand der Zeichnungen.
  • Detaillierte Beschreibung der Erfindung
  • Die vorliegende Erfindung betrifft ein Gerät, das einen 3D-Scanner und einen zweidimensionalen (2D) Scanner umfasst, die zusammenwirkend arbeiten, um eine automatische Registrierung von 3D-Abtastungen bereitzustellen.
  • Nun Bezug nehmend auf 13, ist dort ein Laserscanner 20 für die optische Abtastung und Messung der Umgebung dargestellt, die den Laserscanner 20 umgibt. Der Laserscanner 20 hat einen Messkopf 22 und einen Sockel 24. Der Messkopf 22 ist derart auf dem Sockel 24 angebracht, dass der Laserscanner 20 um eine vertikale Achse 23 gedreht werden kann. Bei einer Ausgestaltung umfasst der Messkopf 22 einen Kardanpunkt 27, der ein Drehpunkt um die vertikale Achse 23 und eine horizontale Achse 25 ist. Der Messkopf 22 hat einen Drehspiegel 26, der um die horizontale Achse 25 gedreht werden kann. Die Drehung um die vertikale Achse kann um den Mittelpunkt des Sockels 24 erfolgen. Die Begriffe „vertikale Achse“ und „horizontale Achse“ beziehen sich auf den Scanner in seiner normalen aufrechten Position. Ein 3D-Koordinatenmessgerät kann auf seiner Seite oder umgedreht arbeiten, und so können zur Vermeidung von Verwechslungen die Begriffe „Azimutachse“ und „Zenitachse“die Begriffe „vertikale Achse“ bzw. „horizontale Achse“ ersetzen. Als Alternative zu „vertikaler Achse“ kann auch der Begriff „Schwenkachse“ oder „Standachse“ gebraucht werden.
  • Der Messkopf 22 ist ferner mit einem Emitter elektromagnetischer Strahlung wie beispielsweise einem Lichtemitter 28 versehen, der einen emittierten Lichtstrahl 30 emittiert. Der emittierte Lichtstrahl 30 ist bei einer Ausgestaltung ein kohärenter Lichtstrahl wie beispielsweise ein Laserstrahl. Der Laserstrahl kann einen Wellenlängenbereich von ungefähr 300 bis 1600 Nanometern wie zum Beispiel 790 Nanometern, 905 Nanometern, 1550 Nanometern oder unter 400 Nanometern aufweisen. Es versteht sich, dass auch andere elektromagnetische Strahlen mit größeren oder kleineren Wellenlängen verwendet werden können. Der emittierte Lichtstrahl 30 wird amplituden- oder intensitätsmoduliert, beispielsweise mit einer sinusförmigen Wellenform oder mit einer rechteckigen Wellenform. Der emittierte Lichtstrahl 30 wird vom Lichtemitter 28 auf den Drehspiegel 26 emittiert, wo er in die Umgebung abgelenkt wird. Ein reflektierter Lichtstrahl 32 wird aus der Umgebung durch ein Objekt 34 reflektiert. Das reflektierte oder gestreute Licht wird vom Drehspiegel 26 aufgefangen und in einen Lichtempfänger 36 gerichtet. Die Richtungen des emittierten Lichtstrahls 30 und des reflektierten Lichtstrahls 32 ergeben sich aus den Winkelstellungen des Drehspiegels 26 und des Messkopfs 22 um die Achse 25 bzw. 23. Diese Winkelstellungen wiederum hängen von den entsprechenden Drehantrieben oder -motoren ab.
  • An den Lichtemitter 28 und den Lichtempfänger 36 ist eine Steuerung 38 gekoppelt. Die Steuerung 38 ermittelt für eine Vielzahl von Messpunkten X eine entsprechende Anzahl von Abständen d zwischen dem Laserscanner 20 und den Punkten X auf dem Objekt 34. Der Abstand zu einem bestimmten Punkt X wird basierend zumindest teilweise auf der Lichtgeschwindigkeit in Luft ermittelt, durch welche sich die elektromagnetische Strahlung vom Gerät aus zum Objektpunkt X ausbreitet. Bei einer Ausgestaltung werden die Phasenverschiebung der Modulation im vom Laserscanner 20 emittierten Licht und der Punkt X ermittelt und ausgewertet, um einen gemessenen Abstand d zu erhalten.
  • Die Lichtgeschwindigkeit in Luft hängt von den Eigenschaften der Luft wie beispielsweise der Lufttemperatur, dem Atmosphärendruck, der relativen Feuchtigkeit und dem Kohlendioxidgehalt ab. Solche Lufteigenschaften beeinflussen den Brechungsindex n der Luft. Die Luftgeschwindigkeit in Luft ist gleich der Lichtgeschwindigkeit im Vakuum c dividiert durch den Brechungsindex. Dies bedeutet mit anderen Worten: cLuft = c/n. Ein Laserscanner des hierin besprochenen Typs beruht auf der Laufzeit (TOF; time-of-flight) des Lichts in Luft (der Hin- und Rücklaufzeit, die das Licht benötigt, um sich vom Gerät zum Objekt und zurück zum Gerät zu bewegen). Zu den Beispielen für Laufzeitscanner gehören Scanner, die die Hin- und Rücklaufzeit mittels des Zeitintervalls zwischen emittierten und zurückkehrenden Impulsen messen (Impulslaufzeitscanner), Scanner, die Licht sinusförmig modulieren und die Phasenverschiebung des zurückkehrenden Lichts messen (phasenbasierte Scanner), sowie zahlreiche andere Typen. Ein Verfahren zur Messung des Abstands basierend auf der Laufzeit von Licht hängt von der Lichtgeschwindigkeit in Luft ab und lässt sich demzufolge leicht von Verfahren zur Messung des Abstands auf Basis der Triangulation unterscheiden. Verfahren auf Basis der Triangulation beinhalten das Projizieren von Licht aus einer Lichtquelle entlang einer bestimmten Richtung und anschließend das Auffangen des Lichts auf einem Kamerapixel entlang einer bestimmten Richtung. Wenn der Abstand zwischen der Kamera und dem Projektor bekannt ist und wenn ein projizierter Winkel an einen Auffangwinkel angepasst wird, ermöglicht das Triangulationsverfahren die Ermittlung des Abstands zum Objekt auf Basis einer bekannten Länge und zweier bekannter Winkel eines Dreiecks. Das Triangulationsverfahren hängt deshalb nicht direkt von der Lichtgeschwindigkeit in Luft ab.
  • Bei einem Betriebsmodus erfolgt die Abtastung des Raums rings um den Laserscanner 20 durch relativ schnelles Drehen des Drehspiegels 26 um die Achse 25, während der Messkopf 22 relativ langsam um die Achse 23 gedreht wird und die Baugruppe dadurch in einem spiralförmigen Muster bewegt wird. Der Drehspiegel dreht sich bei einer beispielhaften Ausgestaltung mit einer maximalen Geschwindigkeit von 5820 Umdrehungen pro Minute. Für eine solche Abtastung definiert der Kardanpunkt 27 den Ursprung des lokalen, feststehenden Bezugssystems. In diesem lokalen, feststehenden Bezugssystem ruht der Sockel 24.
  • Der Scanner 20 kann zusätzlich zum Messen eines Abstands d vom Kardanpunkt 27 zu einem Objektpunkt X auch die Grauwertinformation erfassen, die mit der aufgefangenen optischen Energie (entspricht dem Begriff „Helligkeit“) verbunden ist. Der Grauwert kann zumindest teilweise zum Beispiel durch die Integration des bandpassgefilterten und verstärkten Signals im Lichtempfänger 36 über eine dem Objektpunkt X zugewiesene Messdauer ermittelt werden.
  • Der Messkopf 22 kann ein Anzeigegerät 40 umfassen, das in den Laserscanner 20 integriert ist. Das Anzeigegerät 40 kann einen grafischen Berührungsbildschirm 41 wie den in 1 dargestellten umfassen, der dem Bediener die Einstellung der Parameter oder den Start des Betriebs des Laserscanners 20 ermöglicht. Der Bildschirm 41 kann beispielsweise eine Benutzerschnittstelle aufweisen, die dem Bediener die Bereitstellung von Messanweisungen an das Gerät gestattet, und der Bildschirm kann auch Messergebnisse anzeigen.
  • Der Laserscanner 20 umfasst eine Tragstruktur 42, die einen Rahmen für den Messkopf 22 und eine Plattform zum Befestigen der Komponenten des Laserscanners 20 zur Verfügung stellt. Bei einer Ausgestaltung besteht die Tragstruktur 42 aus einem Metall wie beispielsweise Aluminium. Die Tragstruktur 42 umfasst ein Traversenelement 44 mit einem Paar Wänden 46, 48 an einander gegenüberliegenden Enden. Die Wände 46, 48 sind parallel zueinander und erstrecken sich in einer Richtung, der dem Sockel entgegengesetzt ist. Schalen 50, 52 sind an die Wände 46, 48 gekoppelt und decken die Komponenten des Laserscanners 20 ab. Die Schalen 50, 52 bestehen bei der beispielhaften Ausgestaltung aus einem Kunststoffmaterial wie beispielsweise Polycarbonat oder Polyethylen. Die Schalen 50, 52 wirken mit den Wänden 46, 48 zusammen und bilden dabei ein Gehäuse für den Laserscanner 20.
  • An einem Ende der Schalen 50, 52 gegenüber den Wänden 46, 48 ist ein Paar Haltebügel 54, 56 angeordnet, die derart angeordnet sind, dass sie die jeweiligen Schalen 50, 52 teilweise abdecken. Die Haltebügel 54, 56 bestehen bei der beispielhaften Ausgestaltung aus einem entsprechend widerstandsfähigen Material wie beispielsweise Aluminium, das den Schutz der Schalen 50, 52 beim Transport und Betrieb unterstützt. Die Haltebügel 54, 56 umfassen jeweils einen ersten Armabschnitt 58, der beispielsweise mit einer Befestigungsvorrichtung an die Traverse 44 angrenzend an den Sockel 24 gekoppelt ist. Der Armabschnitt 58 für jeden Haltebügel 54, 56 erstreckt sich von der Traverse 44 schräg zu einer äußeren Ecke der jeweiligen Schale 50, 54. Die Haltebügel 54, 56 erstrecken sich von der äußeren Ecke der Schale entlang der Seitenkante der Schale zu einer gegenüberliegenden äußeren Ecke der Schale. Jeder Haltebügel 54, 56 umfasst ferner einen zweiten Armabschnitt, der sich schräg zu den Wänden 46, 48 erstreckt. Es versteht sich, dass die Haltebügel 54, 56 an mehreren Stellen an die Traverse 42, die Wände 46, 48 und die Schalen 50, 54 gekoppelt sein können.
  • Das Paar Haltebügel 54, 56 wirkt derart zusammen, dass es einen konvexen Raum umschreibt, in welchem die zwei Schalen 50, 52 angeordnet sind. Die Haltebügel 54, 56 wirken bei der beispielhaften Ausgestaltung derart zusammen, dass sie alle Außenkanten der Schalen 50, 54 abdecken, während der obere und der untere Armabschnitt über zumindest einen Abschnitt der oberen und unteren Kanten der Schalen 50, 52 überstehen. Dies bietet Vorteile für den Schutz der Schalen 50, 52 und des Messkopfs 22 vor Beschädigung beim Transport und Betrieb. Bei anderen Ausgestaltungen können die Haltebügel 54, 56 zusätzliche Merkmale wie beispielsweise Griffe, die das Tragen des Laserscanners 20 erleichtern, oder Befestigungspunkte für Zusatzteile umfassen.
  • Oben auf der Traverse 44 ist ein Prisma 60 vorgesehen. Das Prisma erstreckt sich parallel zu den Wänden 46, 48. Das Prisma 60 ist bei der beispielhaften Ausgestaltung einstückig als Teil der Tragstruktur 42 ausgebildet. Bei anderen Ausgestaltungen ist das Prisma 60 eine separate Komponente, die an die Traverse 44 gekoppelt ist. Wenn sich der Spiegel 26 dreht, richtet er bei jeder Drehung den emittierten Lichtstrahl 30 auf die Traverse 44 und das Prisma 60. Die gemessenen Abstände d können bedingt durch Nichtlinearitäten in den elektronischen Komponenten wie beispielsweise im Lichtempfänger 36 von der Signalstärke abhängen, die beispielsweise als die in den Scanner eintretende optische Energie oder als die in optische Detektoren im Lichtempfänger 36 eintretende optische Energie gemessen werden kann. Bei einer Ausgestaltung wird eine Abstandskorrektur im Scanner als eine Funktion (möglicherweise nichtlineare Funktion) des Abstands zu einem gemessenen Punkt sowie der optischen Energie (einer generell unskalierten Größe der Lichtenergie, die manchmal als „Helligkeit“ bezeichnet wird), die vom gemessenen Punkt zurückkehrt und zu einem optischen Detektor im Lichtempfänger 36 gesendet wird, gespeichert. Da sich das Prisma 60 in einem bekannten Abstand vom Kardanpunkt 27 befindet, kann der gemessene, die optische Energie betreffende Pegel des vom Prisma 60 reflektierten Lichts dazu verwendet werden, Abstandsmessungen für andere gemessene Punkte zu korrigieren, wodurch eine Kompensation zur Korrektur der Auswirkungen von Umgebungsvariablen wie beispielsweise der Temperatur ermöglicht wird. Die sich daraus ergebende Abstandskorrektur wird bei der beispielhaften Ausgestaltung durch die Steuerung 38 durchgeführt.
  • Bei einer Ausgestaltung ist der Sockel 24 an eine Schwenkbaugruppe (nicht dargestellt) gekoppelt, die in der Tragstruktur 42 untergebracht ist. Die Schwenkbaugruppe umfasst einen Motor, der dafür konfiguriert ist, den Messkopf 22 um die Achse 23 zu drehen.
  • Ein zusätzliches Bilderfassungsgerät 66 kann ein Gerät sein, das einen dem abgetasteten Raum oder dem abgetasteten Objekt zugeordneten Parameter aufnimmt und misst und ein Signal bereitstellt, das die gemessenen Größen über einen Bilderfassungsbereich repräsentiert. Das zusätzliche Bilderfassungsgerät 66 kann ein Pyrometer, ein Wärmebildgerät, ein Detektor ionisierender Strahlung oder ein Millimeterwellendetektor sein, aber ohne darauf beschränkt zu sein.
  • Eine Kamera (erstes Bilderfassungsgerät) 112 ist bei einer Ausgestaltung innen im Scanner angeordnet und kann dieselbe optische Achse wie das 3D-Scannergerät haben. Bei dieser Ausgestaltung ist das erste Bilderfassungsgerät 112 in den Messkopf 22 integriert und derart angeordnet, dass es Bilder entlang desselben Lichtwegs wie der emittierte Lichtstrahl 30 und der reflektierte Lichtstrahl 32 aufnimmt. Das Licht des Lichtemitters 28 wird bei dieser Ausgestaltung von einem festen Spiegel 116 reflektiert und bewegt sich zu einem dichroitischen Strahlteiler 118, der das Licht 117 des Lichtemitters 28 auf den Drehspiegel 26 reflektiert. Der dichroitische Strahlteiler 118 lässt Licht bei Wellenlängen durch, die von der Wellenlänge des Lichts 117 verschieden sind. Der Lichtemitter 28 kann beispielsweise ein Laserlicht im nahen Infrarot (zum Beispiel Licht bei Wellenlängen von 780 nm oder 1150 nm) sein, wobei der dichroitische Strahlteiler 118 dafür konfiguriert ist, das infrarote Laserlicht zu reflektieren, sichtbares Licht (z. B. Wellenlängen von 400 bis 700 nm) jedoch durchzulassen. Bei anderen Ausgestaltungen hängt die Ermittlung, ob das Licht durch den Strahlteiler 118 durchgeht oder reflektiert wird, von der Polarisation des Lichts ab. Die Digitalkamera 112 nimmt fotografische 2D-Bilder des abgetasteten Bereichs auf, um Farbdaten aufzunehmen, die dem abgetasteten Bild hinzuzufügen sind. Im Falle einer eingebauten Farbkamera mit einer optischen Achse, die mit der des 3D-Scannergeräts zusammenfällt, kann man die Richtung der Kamerasicht ohne Weiteres erhalten, indem man die Lenkungsmechanismen des Scanners einstellt – beispielsweise indem man den Azimutwinkel um die Achse 23 einstellt und den Spiegel 26 um die Achse 25 lenkt.
  • 4 zeigt ein Beispiel für eine planare Ansicht eines abgetasteten 3D-Bilds 400. Die in 4 dargestellte planare Ansicht bildet ein Bild auf Basis einer direkten Abbildung von Daten ab, die vom Scanner erfasst wurden. Der Scanner erfasst Daten in einem kugelförmigen Muster, wobei Datenpunkte, die nahe den Polen erfasst werden, aber stärker komprimiert werden als die näher am Horizont erfassten. Dies bedeutet mit anderen Worten, dass jeder nahe einem Pol erfasste Punkt einen kleineren Raumwinkel repräsentiert als jeder nahe dem Horizont erfasste Punkt. Da Daten des Scanners direkt in Zeilen und Spalten dargestellt werden können, werden Daten in einem planaren Bild zweckmäßigerweise in einem geradlinigen Format wie in 4 dargestellt. Bei der vorstehend beschriebenen planaren Abbildung scheinen gerade Linien gekrümmt zu sein wie beispielsweise die geraden Zaungeländer 420, die in der planaren Ansicht des 3D-Bilds gekrümmt aussehen. Die planare Ansicht kann ein unverarbeitetes abgetastetes 3D-Bild sein, das nur die Grauwerte anzeigt, die von dem Abstandssensor in Spalten und Zeilen angeordnet empfangen wurden, während sie aufgezeichnet wurden. Außerdem kann das unverarbeitete abgetastete 3D-Bild der planaren Ansicht je nach den Systemmerkmalen (z. B. Anzeigegerät, Speicher, Prozessor) in voller oder reduzierter Auflösung vorliegen. Die planare Ansicht kann ein verarbeitetes abgetastetes 3D-Bild sein, das entweder Grauwerte (die sich aus der vom Abstandssensor für jedes Pixel gemessenen Bestrahlungsstärke des Lichts ergeben) oder Farbwerte (die sich aus Kamerabildern ergeben, die auf der Abtastung abgebildet wurden) darstellt. Obwohl die aus dem 3D-Scanner extrahierte planare Ansicht gewöhnlich ein Grauwert- oder Farbbild ist, ist 4 der Klarheit bei der Vervielfältigung der Druckschrift halber als Linienzeichnung abgebildet. Die Benutzerschnittstelle, die dem Anzeigegerät zugeordnet ist und einstückig mit dem Laserscanner ausgebildet sein kann, kann einen Punktauswahlmechanismus zur Verfügung stellen, der in 4 der Cursor 410 ist. Der Punktauswahlmechanismus kann dazu benutzt werden, die Dimensionsinformation über das Raumvolumen zu zeigen, das vom Laserscanner gemessen wird. In 4 sind die Zeile und die Spalte an der Stelle des Cursors auf der Anzeigevorrichtung bei 430 angegeben. Die zwei gemessenen Winkel und ein gemessener Abstand (die 3D-Koordinaten in einem Kugelkoordinatensystem) an der Cursorposition sind auf der Anzeigevorrichtung bei 440 angegeben. Die kartesischen XYZ-Koordinatendarstellungen der Cursorposition sind auf der Anzeigevorrichtung bei 450 angegeben.
  • 5 zeigt ein Beispiel für eine Panoramaansicht eines abgetasteten 3D-Bilds 600, die durch Abbilden einer planaren Ansicht auf einer Kugel oder in einigen Fällen einem Zylinder erzeugt wurde. Eine Panoramaansicht kann ein verarbeitetes abgetastetes 3D-Bild (wie das in 5 dargestellte) sein, bei dem die 3D-Information (z. B. 3D-Koordinaten) zur Verfügung stehen. Die Panoramaansicht kann je nach den Systemeigenschaften in voller oder reduzierter Auflösung vorliegen. Es ist hervorzuheben, dass ein Bild wie 5 ein 2D-Bild ist, das eine 3D-Szene darstellt, wenn sie aus einer bestimmten Perspektive gesehen wird. In diesem Sinn ist das Bild von 5 fast wie ein Bild, das mit einer 2D-Kamera oder einem menschlichen Auge erfasst würde. Obwohl die aus dem 3D-Scanner extrahierte Panoramaansicht gewöhnlich ein Grauwert- oder Farbbild ist, ist 5 der Klarheit bei der Vervielfältigung der Druckschrift halber als Linienzeichnung abgebildet.
  • Der Begriff „Panoramaansicht“ bezieht sich auf eine Anzeige, bei der eine Winkelbewegung um einen Punkt im Raum generell möglich ist, eine Translationsbewegung jedoch nicht (für ein einziges Panoramabild). Im Gegensatz dazu bezieht sich der hierin gebrauchte Begriff „3D-Ansicht“ allgemein auf eine Anzeige, bei der eine Vorkehrung getroffen wird (durch Steuerungsmaßnahmen des Benutzers), die nicht nur die Drehung um einen festen Punkt, sondern auch eine Translationsbewegung von Punkt zu Punkt im Raum ermöglicht.
  • 6A, 6B und 6C zeigen ein Beispiel für eine 3D-Ansicht eines abgetasteten 3D-Bilds. In der 3D-Ansicht kann ein Benutzer den Ursprung der Abtastung verlassen und die Abtastungspunkte aus verschiedenen Blickpunkten und Winkeln betrachten. Die 3D-Ansicht ist ein Beispiel für ein verarbeitetes abgetastetes 3D-Bild. Die 3D-Ansicht kann je nach den Systemmerkmalen in voller oder reduzierter Auflösung vorliegen. Des Weiteren ermöglicht die 3D-Ansicht mehrere in einer Ansicht anzuzeigende registrierte Abtastungen. 6A ist eine 3D-Ansicht 710, über die von einem Benutzer eine Auswahlmaske 730 gelegt wurde. 6B ist eine 3D-Ansicht 740, bei der nur derjenige Teil der 3D-Ansicht 710 behalten wurde, der durch die Auswahlmaske 730 erfasst wurde. 6C zeigt die gleichen 3D-Messdaten wie in 6B, außer dass sie zur Erzielung einer verschiedenen Ansicht gedreht wurden. 7 zeigt eine andere Ansicht von 6B, wobei die Ansicht in diesem Fall aus einer Translation und Rotation des Blickpunkts des Betrachters sowie auch als Verkleinerung des beobachteten Bereichs erhalten wird. Obwohl die aus dem 3D-Scanner extrahierten 3D-Ansichten gewöhnlich ein Grauwert- oder Farbbild sind, sind der Klarheit bei der Vervielfältigung der Druckschrift halber 6A–C und 7 als Linienzeichnungen dargestellt.
  • 8A zeigt ein mobiles 3D-Messsystem 800, das einen 3D-Laserscanner 20 umfasst, der auf einer motorbetätigten Stativbaugruppe 810 angebracht ist. Die motorbetätigte Stativbaugruppe 810 umfasst bei einer Ausgestaltung ein Stativ 812, das auf einem motorbetätigten Stativwagen 820 angebracht ist. Der motorbetätigte Stativwagen 820 umfasst Klemmen 822, um die Stativbeine in Kontakt mit den Schenkeln 824 des motorbetätigten Stativwagens 820 zu halten. Wie in der Explosionsdarstellung 8B dargestellt, ist jeder der drei Stativwagenschenkel 824 bei einer Ausgestaltung mit einem Ende an einer Grundplatte 825 und mit dem anderen Ende an einem Rad befestigt. Zwei Räder 862A und 862B werden bei einer Ausgestaltung motorbetätigt und können unabhängig voneinander durch Motoren gedreht werden, während das dritte Rad 864 nicht motorbetätigt wird und kleiner als die anderen zwei ist. In 8A sind die Motoren, die die Räder 862A, 862B antreiben, nicht unter den Radblenden 828 sichtbar. Es werden Motorbaugruppen 826A, 826B verwendet, um die Räder 862A bzw. 862B bei einer alternativen Ausgestaltung des motorbetätigten Stativwagens 820B anzutreiben, die in 8B dargestellt ist. Die Motorbaugruppen 826A, 826B treiben die Räder 862A, 862B mittels Motoren 827A, 827B an, die an Achsen 863A bzw. 863B befestigt sind. Die Räder können aus Kunststoff oder Gummi bestehen. Für den Transport auf unebenen Oberflächen können Gummiräder aufgepumpt werden. Elektrische Drähte, die zwischen den Motorbaugruppen angeschlossen sind, verbinden diese mit einer Steuer- und Energieeinheit 840. Die elektrischen Drähte sind bei einer Ausgestaltung von den Motorbaugruppen 826A, 826B durch hohle Stativwagenschenkel 824 zu der Steuer- und Energieeinheit 840 verlegt.
  • Nun Bezug nehmend auf 8F, umfasst die Steuer- und Energieeinheit 840 bei einer Ausgestaltung eine wiederaufladbare Batterie 890 und eine elektrische Leiterplatte 880 mit einem Prozessor 882, einer Motorsteuerung 884, einem Sendeempfänger 886 nach IEEE 802.11 (WiFi) und einem Mobilfunk-Sendeempfänger 888. Der Mobilfunk-Sendeempfänger 888 unterstützt bei einer Ausgestaltung die Formate 3G und Long-Term-Evolution (LTE). Bei einer Ausgestaltung ermöglicht ein erster Netzstecker 841 die Wiederaufladung der wiederaufladbaren Batterie 890 aus einer Wechselstromquelle und stellt ein zweiter Netzstecker 842 eine Ausgangsleistung aus der Batterie bereit. Der Prozessor 882 ist bei einer Ausgestaltung ein Intel-NUC-Prozessor, wie er beispielsweise in einem Personalcomputer vorkommt. Der Intel-NUC-Prozessor wird von der Intel Corporation hergestellt, deren Firmenzentrale sich in Santa Clara, Kalifornien, USA befindet. Bei einer Ausgestaltung ist die Motorsteuerung 884 eine Motorsteuerung Pololu RoboClaw 2 × 60 A, die von Pololu Robotics and Electronics hergestellt wird, deren Firmenzentrale in Las Vegas, Nevada, USA liegt. Die Motorsteuerung 884 steuert bei einer Ausgestaltung die Geschwindigkeit jedes Rads 862A, 862B durch Senden digitaler Signale 892A, 892B über eine als virtueller serieller Port (COM) konfigurierte USB-Schnittstelle an die Motorbaugruppen 826A, 826B. Die Motorbaugruppen 826A, 826B umfassen bei einer Ausgestaltung Drehkodierer 894A, 894B, die die Drehung der Räder 862A, 862B messen und Kodierersignale 893A, 893B an die Motorsteuerung 884 senden. Die Signale der Drehkodierer geben den Winkel der Drehung der Räder an, aus welchem sich die Geschwindigkeit und die Fahrstrecke durch den Prozessor 882 berechnen lassen. Die Kodierer 894A, 894B können als Wegmesser verwendet werden, die die vom mobilen 3D-Messsystem 800 zurückgelegte Gesamtstrecke verfolgen. Bei anderen Ausgestaltungen werden andere Arten von Wegmesssensoren benutzt.
  • Bei einer Ausgestaltung werden herkömmliche Räder wie beispielsweise 862A, 862B unterschiedlich von den separaten Motorbaugruppen 826A, 826B angetrieben. Wenn die von der Steuerung bereitgestellten elektrischen Signale derart eingestellt sind, dass sie die Drehgeschwindigkeit der zwei Räder gleich halten, bewegt sich die motorbetätigte Stativbaugruppe 810 in einer geraden Linie. Wenn die elektrischen Signale einem Rad eine Drehung bereitstellen, das andere Rad jedoch arretiert halten, dreht sich die motorbetätigte Stativbaugruppe 810 um das feststehende Rad. Wegen der Unterschiede der zwei Motoren und der Unterschiede des kraftschlüssigen Profils der zwei Räder kann bei der motorbetätigten Stativbaugruppe 810 eine Tendenz dazu bestehen, sich während der Bewegung in eine Richtung oder die andere zu drehen, statt in einer geraden Linie zu fahren. Diese Tendenz zum Drehen kann auf Basis der Rückmeldung korrigiert werden, die von den Drehkodierern 894A, 894B in den Motorbaugruppen 826A und 826B bereitgestellt wird. Bei einer alternativen Ausgestaltung werden herkömmliche Räder durch Räder ersetzt, die seitwärts und geradeaus gefahren werden können. Zu den Beispielen für solche Räder zählen Allseitenräder und Mecanum-Räder.
  • Bei einer Ausgestaltung ist die Steuer- und Energieeinheit 840 mittels einer Flügelmutter 852 und einer Schraube 854 an einer Seite (in 8A dargestellt) und mittels eines Hakens 856 und einer Öse 858 an der anderen Seite (in 8C dargestellt) an den Stativwagenschenkeln 822 befestigt. Die Steuer- und Energieeinheit 840 umfasst bei einer Ausgestaltung Steckdosen 872 wie beispielsweise die in 8A dargestellten, um den Zusatzteilen wie beispielsweise einem 2D-Laserscanner, einem Triangulationsscanner wie beispielsweise einer Kinect, einer 2D-Kamera, einer Tiefenkamera oder einem Ultraschallsensor Energie zu liefern. Das Kinect-Gerät wird von der Microsoft Corporation hergestellt, deren Firmenzentrale in Redmond, Washington, USA liegt. Es ist ein Lüfter 877 vorgesehen, um den kühlen Betrieb der Einheit 840 zu gewährleisten. Bei einer Ausgestaltung ist die Batterie 890 dafür konfiguriert, dem Laserscanner 20 über die Steckdose 878 Energie bereitzustellen, falls die Batteriespannung des Scanners 20 niedrig ist. Die Steckdose 879 kann ferner dafür konfiguriert werden, Energie für die Wiederaufladung der wiederaufladbaren Batterie 890 zu erhalten.
  • Der motorbetätigte Stativwagen kann bei einer Ausgestaltung zu einer kompakten Baugruppe 895 zusammengeklappt werden, die in 8E dargestellt ist. Um die zusammengeklappte Form zu erhalten, wird das Stativ 812 aus dem motorbetätigten Stativwagen 820 entfernt und werden die Stativwagenschenkel 822, die die großen Räder aufweisen, einwärts in Richtung des Stativwagenschenkels 822 geklappt, der das kleine Rad aufweist. Bei einer Ausgestaltung wiegt ein motorbetätigter Stativwagen ungefähr 1,5 kg.
  • Bei der Ausgestaltung von 8B, 8C und 8D sind Verlängerungen 897A, 897B an den Motorbaugruppen 826A, 826B befestigt. Der Zweck der Verlängerungen besteht darin, eine Stelle zur Verfügung zu stellen, an der Zusatzgeräte wie beispielsweise ein 2D-Scanner, ein Triangulationsscanner (zum Beispiel eine Kinect oder ein ähnliches Gerät), eine 2D-Kamera oder eine Kamera, die in der Lage ist, die Tiefe und zwei Winkel zu messen, befestigt werden können. Die Verlängerungen 897A, 897B sind bei einer Ausgestaltung miteinander verbunden und ergeben eine lange Verlängerungsregion. Bei einer Ausgestaltung ist eine vertikale Verlängerung an der einzigen langen Verlängerung befestigt. Ein Vorteil des Befestigen von Zusatzgeräten an Verlängerungen statt an Stativbeinen besteht darin, dass Verlängerungen gleichbleibend in der Bewegungsrichtung des Systems 800 ausgerichtet werden können. In Fällen der Hindernisvermeidung ist dies die bevorzugte Richtung für den Sensor. Bei anderen Ausgestaltungen sind Zusatzgeräte an dem 3D-Messgerät 20 befestigt. Das Element 66 in 1 kann beispielsweise ein Zusatzgerät sein.
  • In einem ersten Betriebsmodus verbindet sich ein intelligentes Gerät wie beispielsweise ein Smartphone, Tablet oder Notebook über einen drahtlosen Zugangspunkt mit dem WiFi-Netz. In einem zweiten Betriebsmodus, der als „Client-Modus“ bezeichnet wird, verbinden sich sowohl die Einheit 840 als auch ein intelligentes Gerät mit einem externen Netz. In einem dritten Betriebsmodus verbinden sich die Einheit 840 und ein intelligentes Gerät über einen Mobilfunkkanal wie zum Beispiel 3G oder LTE mit dem Internet.
  • Ein intelligentes Gerät wie beispielsweise ein Smartphone, Tablet oder Notebook wird zur Steuerung des mobilen 3D-Messsystems 800 benutzt, indem eine App läuft, die eventuell von einem App-Store heruntergeladen wurde. Die App kann eine Berührungsbildschirmanzeige umfassen, die eine sensitive Joysticksteuerung zum Bewegen des 3D-Messsystems zur Verfügung stellt. Die App kann auch das Messen und Verarbeiten von Daten steuern. Die Datenverarbeitung kann auch an einen externen Computer abgegeben werden, also beispielsweise an einen oder mehrere Server, der bzw. die in einem Netzwerk angeordnet sind. Die App gestattet bei einer Ausgestaltung das Ver- und Entriegeln der motorbetätigten Räder, wenn keine Energie angelegt wird. Wie vorstehend angegeben wurde, kann ein Rad arretiert werden, wenn eine Drehung durchgeführt wird. Andererseits ist die Entriegelung der Räder zweckmäßig, wenn das 3D-Messsystem mit der Hand geschoben wird.
  • Das mobile 3D-Messsystem 800 umfasst den motorbetätigten Stativwagen 820, der über nützliche Merkmale wie Einfachheit, Anpassbarkeit, kleine Größe und geringes Gewicht verfügt. Das mobile 3D-Messsystem 800 kann bei den nachfolgend beschriebenen Verfahren eingesetzt werden. Bei anderen Ausgestaltungen der nachfolgend beschriebenen Verfahren können andere Arten motorbetätigter 3D-Messsysteme verwendet werden. Die Figuren, die die Beschreibungen der nachfolgend angegebenen Verfahren begleiten, umfassen normalerweise das 3D-Messsystem 800, wobei es sich jedoch versteht, dass alternative motorbetätigte Plattformen benutzt werden können. Der motorbetätigte Stativwagen 820 kann beispielsweise derart konfiguriert werden, dass er vier oder mehr Räder umfasst. Der Stativwagen 820 kann bei einer Ausgestaltung dafür konfiguriert sein, sich in einer ersten Richtung (z. B. vorwärts) und einer zweiten Richtung, die der ersten Richtung entgegengesetzt ist (z. B. rückwärts), zu bewegen und sich auch um eine Achse wie beispielsweise eine Achse zu drehen, die mittig durch den Stativwagen 820 senkrecht zu der Oberfläche, auf welcher der Stativwagen 820 steht, durchgeht.
  • Das System 800 wird in einer üblichen Situation dazu benutzt, mehrere Messungen an einer Vielzahl von Positionen durchzuführen. Die 3D-Punktwolken, die an der Vielzahl von Positionen erhalten wurden, werden dann zusammen registriert. Bei einigen Ausgestaltungen kann ein Bediener seine persönliche Bewertung bei der Entscheidung für die optimalen Positionen des mobilen 3D-Messsystems 800 zur Erzielung guter Registrierungen einsetzen. Bei anderen Ausgestaltungen können zusätzliche Mess- und Rechengeräte verwendet werden, um die Auswahl optimaler Messpositionen zu unterstützen und gute Registrierungen zu gewährleisten. Vier Beispiele für die Verwendung von Mess- und Rechengeräten für die Unterstützung der Auswahl optimaler Messpositionen und der Gewährleistung guter Registrierungen werden in den US-Patentanmeldungen Nr. 14/559,290, 14/559,311, 14/559,335 und 14/559,367, alle an Zweigle et al., beschrieben, deren aller Inhalte durch Verweis einbezogen werden.
  • Es wird nun anhand von 9 bis 14 ein erstes Beispiel für die Verwendung von Mess- und Rechengeräten zur Unterstützung der Auswahl optimaler Messpositionen und Gewährleistung guter Registrierungen beschrieben. 9A und 9B zeigen Elemente, die bei einer Ausgestaltung eines mobilen 3D-Messsystems 800 eingebaut sind. Die Ausgestaltung umfasst einen 3D-Scanner 20 und ein Prozessorsystem 950.
  • Das Prozessorsystem 950 umfasst ein oder mehrere Verarbeitungselemente, die einen 3D-Scanner-Prozessor (Steuerung) 38, einen externen Computer 970 und einen Cloud-Computer 980 umfassen können. Die Prozessoren können Mikroprozessoren, feldprogrammierbare Anordnungen von Logik-Gattern (FPGAs; field-programmable gate arrays), digitale Signalprozessoren (DSPs) und allgemein ein beliebiges Gerät, das Rechenfunktionen durchführen kann, sein. Der eine oder die mehreren Prozessoren haben zum Speichern von Informationen Zugriff auf einen Speicher. Bei einer in 9B dargestellten Ausgestaltung repräsentiert die Steuerung 38 einen oder mehrere Prozessoren, die überall im 3D-Scanner 20 verteilt sind. Die Ausgestaltung von 9B umfasst auch einen externen Computer 970 und einen oder mehrere Cloud-Computer 980 für die Möglichkeit zur Datenfernverarbeitung. Bei einer alternativen Ausgestaltung sind nur einer oder zwei der Prozessoren 38, 970 und 980 im Prozessorsystem vorgesehen. Die Kommunikation zwischen den Prozessoren kann durch drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination aus drahtgebundenen und drahtlosen Verbindungen erfolgen. Bei einer Ausgestaltung werden Abtastungsergebnisse für die Speicherung und zukünftige Verwendung nach jeder Abtastungsreihe an die Cloud (Datenfernverarbeitungsnetzwerk) hochgeladen. Zusätzlich dazu wirkt das Prozessorsystem 950 mit Prozessoren und anderen elektrischen Komponenten in der Steuer- und Energieeinheit 840 des mobilen 3D-Messsystems 800 zusammen.
  • Bei einem Betriebsmodus misst der 3D-Scanner 20 2D-Koordinaten in einer horizontalen Ebene. Er führt dies in den meisten Fällen durch, indem er Licht derart in einer horizontalen Ebene lenkt, dass es Objektpunkte in der Umgebung beleuchtet. Er erfasst das von den Objektpunkten reflektierte (gestreute) Licht, um 2D-Koordinaten der Objektpunkte in der horizontalen Ebene zu ermitteln. Der 3D-Scanner bewegt bei einer Ausgestaltung abtastend einen Lichtpunkt und misst den Drehwinkel um die Achse 23 mit einem Winkelkodierer, während er gleichzeitig einen entsprechenden Abstandswert zu jedem beleuchteten Objektpunkt in der horizontalen Ebene misst. Der 3D-Scanner 23 kann sich mit relativ hoher Geschwindigkeit um die Achse 23 drehen, während er keine Drehung um die Achse 25 durchführt. Bei einer Ausgestaltung wird die vom Scanner 20 emittierte Laserenergie derart eingestellt, dass sie innerhalb der Grenzwerte für den Augenschutz liegen.
  • Ein optionaler Positions-/Orientierungssensor 920 im 3D-Scanner 20 kann Neigungsmesser (Beschleunigungsmesser), Gyroskope, Magnetometer und Höhenmesser umfassen. Üblicherweise werden Geräte, die ein(en) oder mehrere von einem Neigungsmesser und Gyroskop umfassen, als Inertialmesseinheit (IMU; inertial measurement unit) bezeichnet. Der Begriff „IMU“ wird in einigen Fällen in weiterem Sinne gebraucht und umfasst dann eine Vielzahl zusätzlicher Geräte, die die Position und/oder Orientierung anzeigen – beispielsweise Magnetometer, die die Bewegungsrichtung basierend auf Veränderungen der Richtung des Magnetfelds relativ zum magnetischen Nordpol der Erde anzeigen, und Höhenmesser, die die Aufstellhöhe (Höhe) anzeigen. Ein Beispiel für einen überall benutzten Höhenmesser ist ein Drucksensor. Relativ genaue Positions- und Orientierungsmessungen lassen sich mit relativ preiswerten Sensorgeräten erzielen, indem man Messwerte einer Kombination von Positions-/Orientierungssensoren mit einem Fusionsalgorithmus, der einen Kalman-Filter umfassen kann, kombiniert. Die motorbetätigte Stativbaugruppe 810 ermöglicht das Bewegen des 3D-Messgeräts 20 von Ort zu Ort, also normalerweise entlang eines Bodens, der ungefähr horizontal ist.
  • Der 3D-Scanner 20 ist bei einer Ausgestaltung in einem Betriebsmodus dafür konfiguriert, einen Lichtstrahl abtastend über einen Winkelbereich in einer horizontalen Ebene zu bewegen. An bestimmten Zeitpunkten gibt der 3D-Scanner 20 einen Winkelmesswert und einen entsprechenden Abstandsmesswert zurück, um 2D-Koordinaten von Objektpunkten in der horizontalen Ebene zur Verfügung zu stellen. Bei der Beendigung einer Abtastung über den gesamten Winkelbereich gibt der 3D-Scanner 20 eine Sammlung von gepaarten Winkel- und Abstandsmesswerten zurück. Während das mobile 3D-Messsystem 800 von Ort zu Ort bewegt wird, fährt es damit fort, 2D-Koordinatenwerte in einer horizontalen Ebene zurückzugeben. Diese 2D-Koordinatenwerte werden dazu verwendet, die Position des 3D-Scanners 20 an jeder festen Registrierungsposition zu lokalisieren, wodurch eine genauere Registrierung ermöglicht wird.
  • 10 zeigt das mobile 3D-Messsystem 800, das zu einer ersten Registrierungsposition 1112 vor einem zu messenden Objekt 1102 bewegt wurde. Das Objekt 1102 könnte beispielsweise eine Wand in einem Raum sein. Die motorbetätigte Stativbaugruppe 810 wird angehalten, wobei die Räder festgehalten werden. Der 3D-Scanner 20 im mobilen 3D-Messsystem 800 führt eine erste 3D-Abtastung des Objekts 1102 durch. Der 3D-Scanner 20 kann bei einer Ausgestaltung erforderlichenfalls 3D-Messungen in allen Richtungen außer in Abwärtsrichtungen erzielen, die durch die Struktur des 3D-Messgeräts 800 blockiert werden. Bei dem Beispiel von 10, bei dem der 3D-Scanner 20 eine lange, größtenteils flache Struktur 1102 misst, kann allerdings ein kleineres effektives Sichtfeld 1130 ausgewählt werden, um eine bessere Frontansicht von Merkmalen auf der Struktur zur Verfügung zu stellen.
  • Sobald die erste 3D-Abtastung vollendet ist, veranlasst das Prozessorsystem 950 den 3D-Scanner 20 dazu, vom 3D-Abtastmodus in den 2D-Abtastmodus zu wechseln. Es führt dies bei einer Ausgestaltung durch, indem es den Spiegel 26 derart arretiert, dass er den austretenden Strahl 30 auf eine horizontale Ebene richtet. Der Spiegel 26 fängt reflektiertes Licht 32 auf, das sich in umgekehrter Richtung bewegt. Der Scanner beginnt bei einer Ausgestaltung mit der 2D-Abtastung, sobald die 3D-Abtastung stoppt. Bei einer anderen Ausgestaltung beginnt die 2D-Abtastung, wenn der Prozessor ein Signal wie beispielsweise ein Signal vom Positions-/Orientierungssensor 920, ein Signal von einem Bremslösesensor oder ein als Reaktion auf einen Befehl von einem Bediener gesendetes Signal empfängt. Der 3D-Scanner 20 kann die Erfassung von 2D-Abtastungsdaten starten, wenn das mobile 3D-Messsystem 800 anfängt sich zu bewegen. Die 2D-Abtastungsdaten werden bei einer Ausgestaltung an das Prozessorsystem 950 gesendet, während sie erfasst werden.
  • Bei einer Ausgestaltung werden die 2D-Abtastungsdaten erfasst, während das mobile 3D-Messsystem 800 zu der zweiten Registrierungsposition 1114 bewegt wird. Bei einer Ausgestaltung werden 2D-Abtastungsdaten erfasst und verarbeitet, während der 3D-Scanner 20 eine Vielzahl von 2D-Messpositionen 1120 durchfährt. An jeder Messposition 1120 erfasst der 3D-Scanner 2D-Koordinatendaten über ein effektives Sichtfeld 1140. Das Prozessorsystem 950 verwendet mittels der nachfolgend ausführlicher beschriebenen Verfahren 2D-Abtastungsdaten von einer Vielzahl von 2D-Abtastungen an den Positionen 1120, um eine Position und Orientierung des 3D-Scanners 20 an der zweiten Registrierungsposition 1114 relativ zu der ersten Registrierungsposition 1112 zu ermitteln, wobei die erste Registrierungsposition und die zweite Registrierungsposition in einem 3D-Koordinatensystem bekannt sind, das beiden gemeinsam ist. Das gemeinsame Koordinatensystem wird bei einer Ausgestaltung durch die kartesischen 2D-Koordinaten x, y und durch einen Drehwinkel θ relativ zur x- oder y-Achse dargestellt. Die x- und y-Achse liegen bei einer Ausgestaltung in der horizontalen x-y-Ebene des 3D-Scanners 20 und können ferner auf einer Richtung einer „Front“ des 3D-Scanners 20 basieren. Ein Beispiel für ein solches Koordinatensystem (x, y, θ) ist das Koordinatensystem 1410 von 14A.
  • Es gibt auf dem Objekt 1102 eine Überlappungsregion 1150 zwischen der ersten 3D-Abtastung (die an der ersten Registrierungsposition 1112 erfasst wurde) und der zweiten 3D-Abtastung (die an der zweiten Registrierungsposition 1114 erfasst wurde). In der Überlappungsregion 1150 befinden sich Registrierungsziele (die natürliche Merkmale des Objekts 1102 sein können), die sowohl bei der ersten 3D-Abtastung als auch bei der zweiten 3D-Abtastung zu sehen sind. Ein Problem, das in der Praxis häufig auftritt, besteht darin, dass das Prozessorsystem 950 bei der Bewegung des 3D-Scanners 20 von der ersten Registrierungsposition 1112 zur zweiten Registrierungsposition 1114 die Position und Orientierung des 3D-Scanners 20 verliert und deshalb nicht in der Lage ist, die Registrierungsziele in der Überlappungsregion korrekt zuzuordnen, um eine zuverlässige Durchführung des Registrierungsverfahrens zu ermöglichen. Das Prozessorsystem 950 ist mittels der Folgen von 2D-Abtastungen in der Lage, die Position und Orientierung des 3D-Scanners 20 an der zweiten Registrierungsposition 1114 relativ zu der ersten Registrierungsposition 1112 zu ermitteln. Diese Information gibt dem Prozessorsystem 950 die Möglichkeit, Registrierungsziele in der Überlappungsregion 1150 korrekt anzupassen, wodurch die richtige Vollendung des Registrierungsverfahrens gestattet wird.
  • 12 zeigt den 3D-Scanner 20 bei der Erfassung von 2D-Abtastungsdaten an ausgewählten Positionen 1120 über ein effektives Sichtfeld 1140. Der 3D-Scanner nimmt an verschiedenen Positionen 1120 2D-Abtastungsdaten über einen Abschnitt des Objekts 1102 auf, der als A, B, C, D und E gekennzeichnet ist. 12 zeigt, wie sich der 3D-Scanner 20 zeitlich relativ zu einem festen Bezugssystem des Objekts 1102 bewegt.
  • 13 umfasst die gleiche Information wie 12, zeigt diese jedoch vom Bezugssystem des 3D-Scanners 20 während der 2D-Abtastungen aus statt das Bezugssystem des Objekts 1102. Diese Figur macht deutlich, dass sich die Position von Merkmalen auf dem Objekt im Scannerbezugssystem im Zeitverlauf ändert. Es ist somit klar, dass die vom 3D-Scanner 20 zwischen der Registrierungsposition 1 und der Registrierungsposition 2 zurückgelegte Strecke aus den 2D-Abtastungsdaten ermittelt werden kann, die vom 3D-Scanner 20 an das Prozessorsystem 950 gesendet wurden.
  • 14A zeigt ein Koordinatensystem, das in 14B und 14C verwendet werden kann. Bei einer Ausgestaltung werden die Koordinaten x und y so ausgewählt, dass sie auf der Ebene liegen, in welcher die 2D-Abtastungen durchgeführt werden, also normalerweise der horizontalen Ebene. Der Winkel θ wird als ein Drehwinkel in der Ebene ausgewählt, der der Drehwinkel relativ zu einer Achse wie beispielsweise x oder y ist. 14B, 14C stellen einen realistischen Fall dar, in welchem der 3D-Scanner 20 nicht genau auf einer geraden Linie z. B. nominell parallel zum Objekt 1102 bewegt wird, sondern auch zur Seite. Darüber hinaus kann der 3D-Scanner 20 gedreht werden, während er bewegt wird.
  • 14B zeigt die Bewegung des Objekts 1102 aus der Sicht des Bezugssystems des 3D-Scanners 20 bei dessen Bewegung von der ersten Registrierungsposition zur zweiten Registrierungsposition. Im Scannerbezugssystem (d. h. vom Blickpunkt des Scanners aus gesehen) bewegt sich das Objekt 1102, während der 3D-Scanner 20 an seinem Platz feststehend ist. In diesem Bezugssystem scheinen sich die vom 3D-Scanner 20 gesehenen Abschnitte des Objekts 1102 zeitlich zu verschieben und zu drehen. Der 3D-Scanner 20 stellt dem Prozessorsystem 950 eine Folge solcher verschobener und gedrehter 2D-Abtastungen zur Verfügung. Der Scanner verschiebt sich in dem in 14A, B dargestellten Beispiel in der +y-Richtung um eine in 14B dargestellte Strecke 1420 und dreht sich um einen Winkel 1430, der in diesem Beispiel +5 Grad beträgt. Selbstverständlich hätte sich der Scanner ebenso in der +x- oder –x-Richtung bewegen können. Zur Ermittlung der Bewegung des 3D-Scanners 20 in den Richtungen x, y, θ nutzt das Prozessorsystem 950 die Daten, die, im Bezugssystem des Scanners 20 gesehen und wie in 14B dargestellt, in aufeinanderfolgenden horizontalen Abtastungen aufgezeichnet wurden. Das Prozessorsystem 950 führt bei einer Ausgestaltung eine Best-Fit-Berechnung unter Einsatz von in der Technik weithin bekannten Verfahren durch, um die zwei Abtastungen oder Merkmale in den zwei Abtastungen so nahe wie möglich aneinander anzupassen.
  • Während der 3D-Scanner 20 aufeinanderfolgende 2D-Messwerte nimmt und Best-Fit-Berechnungen durchführt, verfolgt das Prozessorsystem 950 die Translation und Drehung des 3D-Scanners 20. Das Prozessorsystem 950 ist auf diese Weise in der Lage, die Veränderung der Werte x, y, θ zu ermitteln, während sich das mobile 3D-Messsystem 800 von der ersten Registrierungsposition 1112 zur zweiten Registrierungsposition 1114 bewegt.
  • Es ist von Bedeutung, dass man versteht, dass das Prozessorsystem 950 die Position und Orientierung des 3D-Messgeräts 800 auf Basis eines Vergleichs der Folge von 2D-Abtastungen und nicht auf einer Fusion der 2D-Abtastungsdaten mit den 3D-Abtastungsdaten, die vom 3D-Scanner 20 an der ersten Registrierungsposition 1112 oder der zweiten Registrierungsposition 1114 bereitgestellt wurden, ermittelt.
  • Statt dessen ist das Prozessorsystem 950 dafür konfiguriert, Folgendes zu ermitteln: einen ersten Translationswert, einen zweiten Translationswert und einen ersten Rotationswert, der wenn er auf eine Kombination der ersten 2D-Abtastungsdaten und zweiten 2D-Abtastungsdaten angewandt wird, zu transformierten ersten 2D-Daten führt, die nach einem objektiven mathematischen Kriterium so nahe wie möglich zu transformierten zweiten 2D-Daten passen. Im Allgemeinen können die Translation und die Rotation auf die ersten Abtastungsdaten, die zweiten Abtastungsdaten oder auf eine Kombination beider angewandt werden. Beispielsweise entspricht eine auf den ersten Datensatz angewandte Translation einer negativen Zahl der auf den zweiten Datensatz angewandten Translation in dem Sinne, dass beide Vorgänge die gleiche Anpassung in den transformierten Datensätzen ergeben. Ein Beispiel für ein „objektives mathematisches Kriterium“ ist das der Minimierung der Summe quadratischer Restfehler bei denjenigen Teilen der Abtastungsdaten, die als Überlappung bewertet werden. Ein anderer Typ eines objektiven mathematischen Kriteriums kann eine Anpassung mehrerer auf dem Objekt identifizierter Merkmale beinhalten. Solche Merkmale könnten beispielsweise die Kantenübergänge 1103, 1104 und 1105 sein, die in 11 dargestellt sind. Das mathematische Kriterium kann die Verarbeitung der unverarbeiteten 2D-Abtastungsdaten beinhalten, die dem Prozessorsystem 950 vom 3D-Scanner 20 bereitgestellt wurden, oder es kann eine erste Zwischenverarbeitungsebene beinhalten, in welcher Merkmale als eine Sammlung von Liniensegmenten dargestellt werden, wobei Verfahren zum Einsatz kommen, die in der Technik bekannt sind wie beispielsweise Verfahren, die auf dem iterativen nächsten Punkt (ICP; iterative closest point) basieren. Ein solches Verfahren auf Basis des ICP wird bei Censi, A.: „An ICP variant using a point-to-line metric", IEEE International Conference on Robotics and Automatics (ICRA) 2008, beschrieben.
  • Bei einer Ausgestaltung sind der erste Translationswert dx, der zweite Translationswert dy und der erste Rotationswert dθ. Wenn erste 2D-Abtastungsdaten Translations- und Rotationskoordinaten (in einem Bezugskoordinatensystem) von (x1, y1, θ1) aufweisen, dann haben die zweiten 2D-Abtastungsdaten, die an einer zweiten Position erfasst wurden, die Koordinaten, die gegeben sind durch (x2, y2, θ2) = (x1 + dx, y1 + dy, θ1 + dθ). Das Prozessorsystem 950 ist bei einer Ausgestaltung ferner dafür konfiguriert, einen dritten Translationswert (zum Beispiel dz) und einen zweiten und dritten Rotationswert (zum Beispiel Nick- und Rollbewegung) zu ermitteln. Der dritte Translationswert, der zweite Rotationswert und der dritte Rotationswert können basierend zumindest teilweise auf Messwerten des Positions-/Orientierungssensors 920 ermittelt werden.
  • Der 3D-Scanner 20 erfasst 2D-Abtastungsdaten an der ersten Registrierungsposition 1112 und weitere 2D-Abtastungsdaten an der zweiten Registrierungsposition 1114. In einigen Fällen können diese 2D-Abtastungen ausreichen, um die Position und Orientierung des 3D-Messgeräts an der zweiten Registrierungsposition 1114 relativ zur ersten Registrierungsposition 1112 zu ermitteln. In anderen Fällen reichen die zwei Sätze der 2D-Abtastungsdaten nicht aus, um dem Prozessorsystem 950 die genaue Ermittlung des ersten Translationswerts, des zweiten Translationswerts und des ersten Rotationswerts zu ermöglichen. Dieses Problem lässt sich vermeiden, indem 2D-Abtastungsdaten an Abtastungs-Zwischenpositionen 1120 erfasst werden. Die 2D-Abtastungsdaten werden bei einer Ausgestaltung in regelmäßigen Intervallen wie beispielsweise einmal pro Sekunde erfasst und verarbeitet. Auf diese Weise werden Merkmale ohne Weiteres in aufeinanderfolgenden 2D-Abtastungen 1120 identifiziert. Falls mehr als zwei 2D-Abtastungen erhalten werden, hat das Prozessorsystem 950 die Wahl, die Information aller aufeinanderfolgenden 2D-Abtastungen bei der Ermittlung der Translations- und Rotationswerte beim Bewegen von der ersten Registrierungsposition 1112 zur zweiten Registrierungsposition 1114 zu verwenden. Alternativ dazu hat der Prozessor die Wahl, nur die erste und die letzte Abtastung bei der Endberechnung zu benutzen, indem einfach die 2D-Zwischenabtastungen verwendet werden, um die richtige Entsprechung von passenden Merkmalen zu gewährleisten. In den meisten Fällen wird die Anpassungsgenauigkeit durch Einbeziehen der Information aus mehreren aufeinanderfolgenden 2D-Abtastungen verbessert.
  • Das mobile 3D-Messsystem 800 wird zur zweiten Registrierungsposition 1114 bewegt. Bei einer Ausgestaltung wird das mobile 3D-Messsystem 800 angehalten und werden die Bremsen arretiert, um den 3D-Scanner feststehend zu halten. Bei einer alternativen Ausgestaltung beginnt das Prozessorsystem 950 automatisch mit der 3D-Abtastung, wenn die bewegliche Plattform beispielsweise dadurch angehalten wird, dass der Positions-/Orientierungssensor 920 ein fehlende Bewegung feststellt. Der 3D-Scanner 20 im mobilen 3D-Messsystem 800 führt eine 3D-Abtastung des Objekts 1102 durch. Diese 3D-Abtastung wird als die zweite 3D-Abtastung bezeichnet, um sie von der ersten 3D-Abtastung zu unterscheiden, die an der ersten Registrierungsposition durchgeführt wurde.
  • Das Prozessorsystem 950 wendet den bereits berechneten ersten Translationswert, den zweiten Translationswert und den ersten Rotationswert an, um die Position und Orientierung der zweiten 3D-Abtastung relativ zu der ersten 3D-Abtastung anzupassen. Diese Anpassung, die man als Bereitstellung einer „ersten Ausrichtung“ ansehen kann, bringt die Registrierungsziele (die natürliche Merkmale in der Überlappungsregion 1150 sein können) in unmittelbare Nähe. Das Prozessorsystem 950 führt eine Feinregistrierung durch, bei der es Feinanpassungen an die sechs Freiheitsgrade der zweiten 3D-Abtastung relativ zur ersten 3D-Abtastung vornimmt. Es führt die Feinanpassung auf Basis eines objektiven mathematischen Kriteriums durch, das gleich wie oder anders als das mathematische Kriterium sein kann, das auf die 2D-Abtastungsdaten angewendet wurde. Das objektive mathematische Kriterium kann beispielsweise das der Minimierung der Summe quadratischer Restfehler bei denjenigen Teilen der Abtastungsdaten sein, die als Überlappung bewertet werden. Alternativ dazu kann das objektive mathematische Kriterium auf eine Vielzahl von Merkmalen in der Überlappungsregion angewendet werden. Die mathematischen Berechnungen bei der Registrierung können auf unverarbeitete 3D-Abtastungsdaten oder auf eine geometrische Darstellung der 3D-Abtastungsdaten zum Beispiel durch eine Sammlung von Liniensegmenten angewendet werden.
  • Außerhalb der Überlappungsregion 1150 werden die ausgerichteten Werte der ersten 3D-Abtastung und der zweiten 3D-Abtastung zu einem registrierten 3D-Datensatz kombiniert. Innerhalb der Überlappungsregion basieren die im registrierten 3D-Datensatz enthaltenen 3D-Abtastungswerte auf einer Kombination von 3D-Scannerdaten aus den ausgerichteten Werten der ersten 3D-Abtastung und der zweiten 3D-Abtastung.
  • Ein zweites Beispiel für die Verwendung von Mess- und Rechengeräten zur Unterstützung der Auswahl optimaler Messpositionen und Gewährleistung guter Registrierungen ist das gleiche wie das erste Beispiel, das vorstehend anhand von 914 beschrieben wurde, außer dass die Messungen in einer horizontalen Ebene mit einem 2D-Laserscanner statt mit dem Laserscanner 20 gemäß dem anhand von 9A beschriebenen Verfahren erfolgen. Der 2D-Laserscanner in diesem zweiten Beispiel stellt die gleiche Information zur Verfügung wie der 3D-Laserscanner 20 bei der Messung über eine horizontale Ebene. Bei einer Ausgestaltung ist der 2D-Scanner direkt unter dem 3D-Scanner 20 und oben auf der motorbetätigten Stativbaugruppe 810 angeordnet.
  • Zu den Beispielen für 2D-Scanner, die bei den 2D-Scanner-Zusatzteilen einbezogen werden könnten, zählen 2D-Scanner der SICK-Produktfamilie LMS100 und 2D-Scanner von Hoyuko wie beispielsweise die Hoyuko-Modelle URG-04LX-UG01 und UTM-30LX. Die 2D-Scanner von SICK werden von der SICK AG, deren Firmenzentrale in Waldkirch, Deutschland liegt, hergestellt. Die Hoyuko-Scanner werden von Hoyuko Automatic Company, Ltd, deren Firmenzentrale sich in Osaka, Japan befindet, hergestellt. Die Scanner in der SICK-LMS100-Familie messen Winkel über einen 270-Grad-Bereich und über Abstände bis zu 20 Metern. Das Hoyuko-Modell URG-04LX-UG01 ist ein preisgünstiger 2D-Scanner, der Winkel über einen 240-Grad-Bereich und Abstände bis zu 4 Metern misst. Das Hoyuko-Modell UTM-30LX ist ein 2D-Scanner, der Winkel über einen 270-Grad-Bereich und Abstände bis zu 30 Metern misst. Es sind auch viele weitere Typen von 2D-Scannern erhältlich.
  • Es wird nun ein drittes Beispiel für die Verwendung von Mess- und Rechengeräten zur Unterstützung der Auswahl optimaler Messpositionen und Gewährleistung guter Registrierungen anhand von 3 und 8A erläutert. Das mobile 3D-Messgerät 800 umfasst einen 3D-Scanner 20, ein Prozessorsystem 950, einen motorbetätigten Stativwagen 820 und eine 2D-Kamera, die eine Kamera 112 innen im 3D-Scanner (wie in 3 dargestellt), eine auf dem 3D-Scanner angebrachte Kamera 66 (wie in 1 dargestellt) oder eine auf dem motorbetätigten Stativwagen 820 angebrachte Kamera sein kann.
  • Bei einem Betriebsmodus des 3D-Messgeräts 800 nimmt die Kamera (112 oder 66) überlappende 2D-Kamerabilder auf, während das 3D-Messgerät zwischen Positionen bewegt wird, an welchen 3D-Abtastungen durchgeführt werden. In dem Fall, in dem die Kamera eine Innenkamera (wie die mittige Farbkamera 112) oder eine auf dem Messkopf 22 angebrachte Kamera 66 ist, kann die Kamera gegebenenfalls um die vertikale Achse 23 gelenkt werden, um das effektive Sichtfeld der Kamera zu vergrößern. Die Laserenergie wird bei einer Ausgestaltung abgeschaltet, während die 2D-Kamerabilder erfasst werden. Bei einer alternativen Ausgestaltung bleibt die Laserenergie eingeschaltet, so dass der 3D-Scanner 2D-Abtastungen in einer horizontalen Ebene durchführen kann, während die 2D-Kamerabilder erfasst werden.
  • Das Verfahren, das gemäß dem dritten Beispiel durchgeführt wird, ist dem der ersten zwei ähnlich, außer dass die Änderung des Abstands und der Orientierung auf der Information der Vielzahl von 2D-Bildgebungsdaten statt auf den Daten, die von dem 2D-Scanner oder 3D-Scanner in einer horizontalen Ebene erhalten wurden, basiert. Wie bei dem ersten und zweiten Beispiel wird die Änderung der Position und Orientierung durch die 2D-Kameras verfolgt, um einen guten Startpunkt für die zweite Registrierung der Daten bereitzustellen, die vom 3D-Scanner bei der ersten und zweiten Registrierungsposition erfasst werden. Wie in den vorangehenden Fällen werden die 2D- und 3D-Daten nicht fusioniert, um die Startposition und -orientierung für das mathematische Registrierungsverfahren zu ermitteln. Die Änderung des Abstands und der Orientierung bei der ersten und zweiten Position kann auf einem mathematischen Verfahren wie beispielsweise dem „optischen Fluss“ basieren, der in „Mathematical Models in Computer Vision: The Handbook" von N. Paragios, Y. Chen und O. Faugeras (Hrsg.), Kapitel 15, Springer 2005, S. 239–258 beschrieben wird, dessen Inhalte durch Verweis hierin einbezogen werden.
  • Die Bildgebungsdaten der Kamera werden bei einer Ausgestaltung erfasst, während das mobile 3D-Messgerät 800 zur zweiten Registrierungsposition 1114 bewegt wird. Bei einer Ausgestaltung werden die Bildgebungsdaten der Kamera erfasst und verarbeitet, während der 3D-Scanner 20 durch eine Vielzahl von 2D-Messpositionen 1120 durchfährt. An jeder Messposition 1120 erfasst die Kamera die Bildgebungsdaten der Kamera über ein effektives Sichtfeld 1140. Das Prozessorsystem 950 benutzt die Bildgebungsdaten der Kamera aus einer Vielzahl von Kamerabildern an den Positionen 1120, um eine Position und Orientierung des 3D-Scanners 20 an der zweiten Registrierungsposition 1114 relativ zu der ersten Registrierungsposition 1112 zu ermitteln, wobei die erste Registrierungsposition und die zweite Registrierungsposition in einem 3D-Koordinatensystem bekannt sind, das beiden gemeinsam ist. Das gemeinsame Koordinatensystem wird bei einer Ausgestaltung durch die kartesischen 2D-Koordinaten x, y und durch einen Drehwinkel θ relativ zu der x- oder y-Achse dargestellt. Die x- und y-Achse liegen bei einer Ausgestaltung in der horizontalen x-y-Ebene des 3D-Scanners 20 und können ferner auf einer Richtung einer „Front“ des 3D-Scanners 20 basieren. Ein Beispiel für ein solches Koordinatensystem (x, y, θ) ist das Koordinatensystem 1410 von 14A.
  • Es wird nun ein viertes Beispiel für die Verwendung von Mess- und Rechengeräten zur Unterstützung der Auswahl optischer Messpositionen und Gewährleistung guter Registrierungen für ein mobiles 3D-Messgerät 800 erläutert, das einen 3D-Scanner 20, ein Prozessorsystem 950, einen motorbetätigten Stativwagen 820 und eine Tiefenkamera an Stellen umfasst, die weiter unten besprochen werden.
  • Die Tiefenkamera kann einer von zwei Typen sein: eine Tiefenkamera mit mittlerem Element und eine auf der Triangulation basierende Tiefenkamera. Bei einer Tiefenkamera mit mittlerem Element wird ein einziges integriertes Sensorelement benutzt, das mit einem Beleuchtungselement kombiniert ist, um den Abstand („Tiefe“) und Winkel von der Kamera zu Punkten auf einem Objekt zu ermitteln. Bei einem Typ einer Tiefenkamera mit mittlerem Element wird eine Linse kombiniert mit einem Halbleiterchip verwendet, um die Hin- und Rücklaufzeit des sich von der Kamera zum Objekt und zurück bewegenden Lichts zu messen. Beispielsweise umfasst die Xbox One von Microsoft eine Kinect-Tiefenkamera, bei der eine Infrarot-Lichtquelle (IR-Lichtquelle) zur Beleuchtung einer photosensitiven Anordnung mit 640×480 Pixeln verwendet wird. Diese Tiefenkamera wird parallel zu einer RGB-Kamera mit 640×480 Pixeln benutzt, die die Farben Rot, Blau und Grün misst. Die Infrarotbeleuchtung wird mittels IR-Leuchten bereitgestellt, die an die Linse und die IR-Anordnung angrenzen. Ein anderes Beispiel für eine Tiefenkamera mit mittlerem Element umfasst eine Linse und einen 3D-Chip PhotonICs 19k-S3 von PMD Technologies, der in Verbindung mit einer IR-Lichtquelle gebraucht wird, wobei der 3D-Chip von der PMD Technologies AG hergestellt wird, deren Firmenzentrale in Siegen, Deutschland liegt. Der Messentfernungsbereich dieses 160×120 Pixel großen Chips ist basierend auf der Kameraanordnung skalierbar. Heutzutage sind zahlreiche andere Tiefenkameras mit mittlerem Element und dazugehörigen IR-Quellen erhältlich. Die meisten Tiefenkameras mit mittlerem Element umfassen eine modulierte Lichtquelle. Bei der Lichtquelle kann die Pulsmodulation für die direkte Ermittlung der Hin- und Rücklaufzeit benutzt werden. Alternativ dazu kann bei der Lichtquelle eine Dauerstrichmodulation (CW modulation; continuous wave modulation) mit sinusförmigen oder rechteckigen Wellenformen verwendet werden, um die Hin- und Rücklaufzeit auf Basis der gemessenen Phasenverschiebung zu erhalten.
  • 8A zeigt zwei mögliche Positionen für eine Tiefenkamera mit mittlerem Element. Die Kamera 66 ist bei einer Ausgestaltung eine Tiefenkamera mit mittlerem Element statt einer 2D-Kamera. In diesem Fall umfasst die Tiefenkamera 66 eine integrierte Lichtquelle. Bei einer anderen Ausgestaltung nimmt eine Tiefenkamera mit mittlerem Element den Platz einer mittigen Farbkamera 112 ein. Die Lichtquelle kann in diesem Fall in die mittige Tiefenkamerabaugruppe integriert oder derart in deren Nähe angeordnet sein, dass das Beleuchtungslicht durch den dichroitischen Strahlteiler 118 durchgeht. Alternativ dazu kann der Strahlteiler 118 kein dichroitischer Strahlteiler sein, sondern statt dessen Wellenlängen durchlassen und reflektieren, die bei der Tiefenkamera 112 mit mittlerem Element verwendet werden. In diesem Fall können die Wellenlängen, die die Tiefenkamera 112 nutzt, von der Einkopplung 28 gesendet, vom Strahlteiler 118 auf das Objekt reflektiert und vom Objekt zurück auf die Tiefenkamera reflektiert werden. Bei einer alternativen Ausgestaltung ist die Tiefenkamera 840 mit mittlerem Element auf dem motorbetätigten Stativwagen 820 angeordnet.
  • Der zweite Typ einer Tiefenkamera ist eine auf der Triangulation basierende Tiefenkamera. Ein Beispiel für eine solche Kamera ist die Kinect der Xbox 360 von Microsoft, welche eine andere Kinect als die Kinect der vorstehend beschriebenen Xbox One von Microsoft ist. Eine IR-Lichtquelle auf der Kinect der Xbox 360 projiziert ein Lichtmuster auf ein Objekt, das durch eine IR-Kamera bildlich erfasst wird, die eine photosensitive Anordnung umfasst. Die Kinect ermittelt eine Entsprechung zwischen dem projizierten Muster und dem von der photosensitiven Anordnung aufgefangenen Bild. Sie nutzt diese Information bei einer Triangulationsberechnung zur Ermittlung des Abstands zu Objektpunkten im Messvolumen. Diese Berechnung basiert teilweise auf der Basislinie zwischen dem Projektor und der IR-Kamera sowie teilweise auf dem aufgefangenen Kameramuster und dem ausgesandten Projektormuster. Anders als die Tiefenkamera mit mittlerem Element kann eine Triangulationskamera nicht beliebig nahe an die Lichtquelle (den Musterprojektor) gebracht werden, weil die Genauigkeit mit abnehmendem Basislinienabstand geringer wird. Es sind viele Typen von auf der Triangulation basierenden Tiefenkameras erhältlich.
  • 15 zeigt eine mögliche Position für eine auf der Triangulation basierende Tiefenkamera 66. Die auf der Triangulation basierende Tiefenkamera 66 ist bei einer Ausgestaltung auf dem 3D-Scanner 20 angeordnet. Die Tiefenkamera 66 umfasst eine Kamera 882 und einen Musterprojektor 884. Sie kann auch eine optionale Farbkamera 886 umfassen. Bei einer alternativen Ausgestaltung ist die auf der Triangulation basierende Tiefenkamera 87 auf dem motorbetätigten Stativwagen 820 angeordnet. Es ist im Allgemeinen nicht möglich, die mittige Farbkamera 112 durch eine auf der Triangulation basierende Tiefenkamera zu ersetzen, weil eine Basislinientrennung zwischen dem Projektor und der Kamera vorhanden sein muss.
  • Bei einem Betriebsmodus des mobilen 3D-Messgeräts 800 nimmt die Tiefenkamera (112, 66) überlappende Tiefenkamerabilder auf, während das 3D-Messgerät zwischen Positionen bewegt wird, an denen 3D-Abtastungen durchgeführt werden. In dem Fall, in dem die Tiefenkamera eine interne Kamera (zum Beispiel anstelle der mittigen Farbkamera 112) oder eine auf dem Messkopf 22 angebrachte Kamera 66 ist, kann die Kamera gegebenenfalls um die vertikale Achse 23 gelenkt werden, um das effektive Sichtfeld der Tiefenkamera zu vergrößern. Die Laserenergie des 3D-Scanners wird bei einer Ausgestaltung abgeschaltet, während die Tiefenkamerabilder erfasst werden. Bei einer alternativen Ausgestaltung bleibt die Laserenergie eingeschaltet, so dass der 3D-Scanner 20 2D-Abtastungen in einer horizontalen Ebene durchführen kann, während die Tiefenkamerabilder erfasst werden. In dem Fall, in dem die Tiefenkamera 840 auf der beweglichen Plattform 820 angebracht ist, wird die Richtung, in welche die Tiefenkamera gerichtet wird, nicht durch die Drehung der horizontalen Achse 25 oder vertikalen Achse 23 beeinträchtigt.
  • Bei einer Ausgestaltung extrahiert das Prozessorsystem 950 einen horizontalen Schnitt aus dem Tiefenkamerabild. Die sich daraus ergebenden 2D-Koordinaten auf der horizontalen Ebene liefern die Information der in 1214 dargestellten Art. Wie im Falle der ersten drei obigen Beispiele kann eine solche Information zur Bereitstellung eines ersten und zweiten Translationswerts sowie eines ersten Rotationswerts verwendet werden, um einen guten Startpunkt für die 3D-Registrierung zur Verfügung zu stellen.
  • In dem Fall, in dem die Tiefenkamera innen in der Kamera angeordnet ist und beispielsweise den Platz der mittigen Farbkamera 112 einnimmt, wird das Licht der Lichtquelle der Tiefenkamera vom Spiegel 26 gesendet und wird das gestreute Licht von dem Objekt auf den Spiegel 26 und danach auf die Tiefenkamera reflektiert. Bei einer Ausgestaltung wird der Spiegel 26 feststehend um die horizontale Achse 25 gehalten, wie es in 9A dargestellt ist.
  • In den meisten Fällen reicht ein einziger horizontaler Schnitt aus, um einen genauen ersten und zweiten Translationswert und einen genauen ersten Rotationswert zu erhalten. In dem Fall, in dem der abgetastete Bereich jedoch fast ohne Merkmale im gesamten horizontalen Schnitt ist, kann man andere Verfahren einsetzen. Ein Verfahren besteht darin, mehrere horizontale Schnitte und jeden an einer anderen Höhe durchzuführen. Eine abgetastete Region, die an einer Höhe fast ohne Merkmale ist, kann mehrere Merkmale an einer anderen Höhe umfassen. Alternativ dazu kann das vorstehend beschriebene Verfahren des optischen Flusses eingesetzt werden.
  • Es werden nun Verfahren zur Verwendung des motorbetätigten Stativwagens 820 mit 3D-Messgeräten wie beispielsweise dem mobilen 3D-Messsystem 800 erläutert, wobei Anwendungen hervorgehoben werden, bei denen solche Verfahren vorteilhafterweise eingesetzt werden können. Die nachfolgend besprochenen Anwendungen umfassen Folgendes: (1) Überwachen von Änderungen in einer flexiblen Fabrik; (2) genaues Messen von Objekten über große Bereiche und aus allen Richtungen; (3) Bereitstellen einer Unterstützung beim Hausbau.
  • In der Vergangenheit basierten die meisten Fertigungsanlagen auf feststehenden Fertigungsstraßen oder Fertigungsinseln. Die Fertigungsstraßen oder -inseln in solchen Anlagen sind ortsfest und werden selten bewegt oder modifiziert. In den meisten Fällen sind Gänge breit und feststehend ausgelegt, damit nach einem vorgeschriebenen Zeitplan Teile geliefert und Geräte bewegt werden können. Heutzutage gibt es Bestrebungen, Fertigungsanlagen flexibler zu machen, wodurch eine kundenspezifische Anpassung leichter und Änderungen schneller und kostengünstiger durchgeführt werden können. In solchen Fabriken können bewegliche Montageflächen oder oben angeordnete Tragmechanismen statt feststehender Fertigungsstraßen und -inseln benutzt werden. Eine solche flexible Montage macht ein flexibleres Verfahren zur Lieferung von Teilen erforderlich, die für die Produktion gemäß den letzten Bestellungen oder der Produktionsprognose benötigt werden. Teile können relativ nahe bei den Montagebereichen gelagert werden, um die Zeit zu minimieren, die für die Lieferung der Teile an die Montagebereiche erforderlich ist. Teile können einem Montagebereich häufig und in kleinen Losen geliefert werden. Kleine Träger können sich in relativ schmalen und sich verändernden Gängen bewegen, um den flexiblen Fertigungsstationen die benötigten Teile zu liefern.
  • Roboter, die in heutigen Fertigungsstraßen wie zum Beispiel in Kraftfahrzeugwerken eingesetzt werden, gelten in der Nähe von Menschen bei ihrer Benutzung normalerweise als unsicher und werden deshalb in getrennten Bereichen isoliert, die teuer auszurüsten und unflexibel sind. Im Gegensatz dazu kann eine flexible Fabrik der Zukunft mehr Wert auf die Benutzung von kleineren, weniger starken, bedienerfreundlichen Robotern legen, die sicher in der Nähe von Menschen arbeiten können. Solchen bedienerfreundlichen Robotern kann man leichter beibringen, die erforderlichen Messaufgaben durchzuführen, als Robotern der Vergangenheit, die generell komplizierte Programmier- und Prüfverfahren erforderlich machten.
  • Die Arbeitsvorgänge der Fabrik der Zukunft werden durch ein Computernetzwerk geleitet, das Informationen über den aktuellen Zustand der Fabrikanordnung und der Teilehaltung benötigt, um sicherzustellen, dass die Arbeitsvorgänge reibungslos ablaufen. In gewissem Maße können solche Informationen von einem Netzwerk von Kameras zur Verfügung gestellt werden, die zum Beispiel an Decken und Wänden angeordnet sind, doch es besteht Bedarf an detaillierteren Informationen über Maßkonzeptionen und Lagerbestände von Teilen, die von einem gewöhnlichen Kameranetzwerk zur Verfügung gestellt werden können.
  • Das mobile 3D-Messsystem 800 wird bei einer Ausgestaltung zur Überwachung der Fabrikanordnung und des Lagerbestands verwendet. Ein mobiles 3D-Messsystem 800, das einen 3D-Laserscanner 20 umfasst, kann sich entlang Gängen in einer Fabrik bewegen, wobei die Lage und Größe von Gängen, die Lage und Größe von Fertigungsbereichen und die Lage und Größe von Lagerbereichen ermittelt werden. Die Gänge können kurvenförmig sein oder sie können abrupt enden und auf der anderen Seite eines Hindernisses weiterführen. Die Gänge können auch Gänge sein, die in denjenigen Fällen der Decke näher sind als dem Boden, in denen Baugruppen durch Ketten oder andere Vorrichtungen transportiert werden, die an oben angeordneten mobilen Trägern befestigt sind. Der Lagerbestand kann nicht nur Hauptteile, sondern auch Unterbaugruppen umfassen.
  • Obwohl das Computernetzwerk dem mobilen 3D-Messsystem 800 Informationen über die gewünschte Fabrikanordnung und die Verfügbarkeit von Teilen bereitstellen kann, sind die aktuellen Informationen eventuell nicht mehr ganz auf dem neuesten Stand oder einfach falsch. Das mobile 3D-Messsystem 800 muss beim Fahren auf dem Fabrikboden schnell seine aktuelle Position ermitteln und Elemente der Fabrik wie beispielsweise Montage- und Lagerbereiche identifizieren. Bei einer Ausgestaltung ermittelt das 3D-Messsystem genau die Größe, Form und Orientierung der Montage- und Lagerbestandskomponenten. Das 3D-Messsystem 800 kann auch ermitteln, ob die Elemente jedes Montagebereichs wie erwartet sind – beispielsweise, ob die richtigen Roboter und anderen Geräte vorhanden sind. Das Computernetzwerk benutzt diese zur Verfügung gestellte Information, um zu ermitteln, ob Maßnahmen zur Korrektur von Problemen erforderlich sind – beispielsweise durch Öffnen eines Gangs, durch Ersetzen oder Bewegen einer Montagefunktion oder durch Verändern der Information über Produktionsraten oder die Teilelieferung gemäß der bereitgestellten Information. Die vom mobilen 3D-Messsystem 800 zur Verfügung gestellte Information kann in einigen Fällen angeben, dass menschliches Eingreifen erforderlich ist, um den reibungslosen Ablauf von Arbeitsvorgängen zu gewährleisten.
  • Das mobile 3D-Messsystem 800 wendet bei einer Ausgestaltung eines der Registrierungsverfahren an, die vorstehend im ersten bis vierten Beispiel angegeben wurden (und auf die ferner in den US-Patentanmeldungen 14/559,290, 14/559,311, 14/559,335 und 14/559,367 Bezug genommen wird). Solche Verfahren ermöglichen dem mobilen 3D-Messsystem die genaue und effiziente Registrierung mehrerer 3D-Punktwolken, die vom 3D-Scanner 20 erfasst werden. Bei anderen Ausgestaltungen können andere Registrierungsverfahren eingesetzt werden.
  • Das Computernetzwerk stellt bei einer Ausgestaltung dem mobilen 3D-Messsystem 800 eine elektronische Information über die Umgebung zur Verfügung. Eine solche elektronische Information kann eine Beschreibung jedes Montagebereichs der Fabrik, jedes Lagerbereichs und jedes Gangs umfassen. Die Information über jeden Montagebereich der Fabrik kann Maßangaben umfassen, die die Gesamtmaße sowie eine Beschreibung von in jedem Montagebereich der Fabrik enthaltenen Komponenten und sichtbare physikalische Merkmale jedes Montagebereichs der Fabrik umfassen können. Bei einer Ausgestaltung stellt das Computernetzwerk dem mobilen 3D-Messsystem 800 die erwarteten Maße von Gängen und Lagerbereichen zur Verfügung.
  • Das mobile 3D-Messsystem 800 ist bei einer Ausgestaltung dafür konfiguriert, sich in Gegenwart von Menschen sicher in einer Fabrikumgebung zu bewegen. Bei einer Ausgestaltung wird die Geschwindigkeit des 3D-Messsystems 800 bei unter einem Meter pro Sekunde gehalten, also einer Geschwindigkeit, die allgemein als minimales Verletzungsrisiko bei einem Zusammenstoß angesehen wird. Das mobile 3D-Messsystem 800 umfasst bei einer Ausgestaltung Sensoren, die die Anwesenheit von Menschen oder anderen Objekten in der Bewegungsrichtung des Systems 800 überwachen, wodurch die Vermeidung von Zusammenstößen mit Personen oder anderen Objekten ermöglicht wird. Beispiele für die für diesen Zweck geeigneten Sensoren sind: ein 2D-Laserscanner; ein 3D-Laserscanner 20, der in einem horizontalen Rotationsmodus benutzt wird, der anhand von 9A beschrieben wurde; eine 2D-Kamera, die mit optischem Fluss oder einem anderen geeigneten Algorithmus verwendet wird; eine 3D-Tiefenkamera, die eine Tiefenkamera mit mittlerem Element oder eine auf der Triangulation basierende Tiefenkamera sein könnte; und ein Ultraschallsensor. Ein Ultraschallsensor ist von Nutzen, wenn einige Objekte in der Fabrik fast durchsichtig sind – beispielsweise große Glasplatten. Es können auch andere Typen von Sensoren verwendet werden, um die Hindernisvermeidung zu ermöglichen.
  • Das mobile 3D-Messsystem 800 wird bei einer Ausgestaltung in einer Fabrikumgebung positioniert und erhält Anweisungen zum Bewegen entlang verfügbarer Gänge, um wie vorstehend beschrieben Informationen über die Fabrikanordnung und den Lagerbestand zu erfassen. Bei einer Ausgestaltung erteilt das Computernetzwerk dem mobilen 3D-Messsystem 800 Anweisungen, sich einfach entlang verfügbarer Gänge zu bewegen, das Gesehene abzubilden und die Beobachtungen zur Analyse an das Computernetzwerk zu übermitteln. Bei einer anderen Ausgestaltung erteilt das Computernetzwerk dem mobilen 3D-Messsystem 800 Anweisungen, sich entlang bestimmten Gängen zu bewegen, um die gewünschte Information zu erfassen, die anschließend dem Computer zur Verfügung gestellt wird. Das Computernetzwerk stellt bei einer anderen Ausgestaltung dem mobilen 3D-Messsystem 800 eine elektronische Information über die Fabrik zur Verfügung. Eine solche elektronische Information kann die Größe, Platzierung, Merkmale und Inhalte von Montage- und Lagerbereichen sowie die Geometrie der Fabrik als Ganzes einschließlich der Gänge umfassen. Wenn oben angeordneten Räume zur Fertigung oder Lieferung von Materialien benutzt werden, kann das Computernetzwerk auch diese Information dem mobilen 3D-Messsystem 800 zur Verfügung stellen.
  • Es ist in den meisten Fällen von Vorteil für das Computernetzwerk, dem mobilen 3D-Messsystem 800 wichtige elektronische Informationen bereitzustellen, weil das System 800 die meisten der erforderlichen Berechnungen durchführen und dem Computernetzwerk einfach diejenige Information liefern kann, die vom Computernetzwerk als wichtig eingestuft wird. Für diese Situation muss das mobile 3D-Messsystem 800 seine Anfangsposition in der Fabrik bezogen auf die vom Computernetzwerk bereitgestellte Anordnungsinformation ermitteln. Das mobile 3D-Messsystem ermittelt bei einer Ausgestaltung seine Anfangsposition, indem es sich entlang einem übersichtlichen, hindernisfreien Verlauf des Wegs in einem Gang bewegt, die Maße und Merkmale in der Umgebung beobachtet und die Maße und Merkmale an die in der Umgebung beobachteten anpasst. Die Anfangsposition wird dann im Nachhinein auf Basis der Information ermittelt, die erfasst wurde, bevor eine Anpassung der Umgebung ausgeführt wurde. Dieses Verfahren setzt voraus, dass sich die Fabrikumgebung relativ derart langsam verändert, dass das mobile 3D-Messsystem 800 in der Lage ist, die Gesamtgeometrie von Montagebereichen, Lagerbereichen und Gängen in der Fabrik zu erkennen, selbst wenn sich ein Teil der Geometrie verändert hat. Sobald das mobile 3D-Messsystem seine Position bezogen auf die Geometrie in der elektronischen Information ermittelt hat, die vom Computernetzwerk bereitgestellt wurde, kennt es seine Position und Orientierung und kann es sich genauer in seiner Umgebung bewegen, wobei es etwaige Änderungen feststellt, die relativ zu der elektronischen Datei aufgetreten sein können.
  • Bei einer alternativen Ausgestaltung werden externe Systeme zur Ermittlung der Position und Orientierung des mobilen 3D-Messsystems 800 verwendet. Ein solches externes System kann eine schnellere Bewegung des mobilen 3D-Messsystems 800 durch die Fabrik ermöglichen, weil das mobile 3D-Messsystem 800 nicht periodisch anhalten muss, um eine Abtastung zur erneuten Feststellung seiner Position und Orientierung mittels einer Registrierung durchzuführen. Es kann statt dessen einfach zu einem beliebigen Bereich fahren, der nach der Auffassung des Computernetzwerks untersucht werden muss, wobei seine Bewegung durch das externe System geleitet wird. Außerdem können die Anfangsposition und -orientierung des mobilen 3D-Messsystems 800 relativ schnell ermittelt werden, wodurch die Notwendigkeit entfällt, dass das System 800 sich weit genug bewegen und ausreichende Messungen zur Ermittlung der Anfangsposition durchführen muss. Ein weiterer potentieller Vorteil eines externen Systems ist die verbesserte Genauigkeit, weil ein externes System eine genauere Kenntnis der Position und Orientierung des mobilen 3D-Messsystems 800 bereitstellen kann, als sie sonst verfügbar wäre.
  • Es können mehrere Arten externer Systeme zur Feststellung der Position und Orientierung des mobilen 3D-Messsystems 800 in der Umgebung eingesetzt werden. Bei einer ersten Ausgestaltung sind externe Sensoren in der Umgebung angebracht, die das mobile 3D-Messsystem 800 umgibt. Solche Sensoren können Abstände, Winkel oder eine Kombination von Abständen und Winkeln zu Markierungen (auch als Ziele bezeichnet) messen, die auf dem mobilen 3D-Messsystem 800 angeordnet sind. Bei einer ersten Ausgestaltung umfassen die Sensoren mindestens eine 2D-Kamera, die Winkel in zwei Richtungen misst. Bei einer Ausgestaltung sind die Markierungen auf dem mobilen 3D-Messsystem 800 Lichtquellen wie beispielsweise Leuchtdioden (LEDs; light emitting diodes) 1630, die in 16 dargestellt sind. Wenn die Genauigkeit bei der Ermittlung der Position und Orientierung des mobilen 3D-Messsystems 800 nicht so wichtig ist, kann eine einzige LED auf dem mobilen 3D-Messsystem 800 angeordnet werden. In den meisten Fällen ist es von Vorteil, mindestens drei nicht-kollineare LEDs auf dem mobilen 3D-Messsystem 800 anzuordnen. Eine vierte LED kann vorteilhafterweise auf dem mobilen 3D-Messsystem 800 an einer Position entfernt von der Ebene, die die ersten drei LEDs hält, angeordnet werden. Die Markierungen (die LEDs sein könnten) können auf dem Körper des 3D-Scanners 20 oder auf anderen Teilen des mobilen 3D-Messsystems 800 wie beispielsweise auf den Beinen 812 des Stativs oder auf dem beweglichen Stativwagen 820 angeordnet werden. Bei der Ermittlung einer genauen Position und Orientierung des mobilen 3D-Messsystems 800 ist es für die abgebildeten Markierungen nützlich, wenn sie sich über einen relativ großen Abschnitt des Kamerabildsensors erstrecken. Für Kameras mit relativ großem Weitwinkel oder Kameras, die relativ weit vom mobilen 3D-Messsystem 800 entfernt sind, kann es von Nutzen sein, wenn man die Markierungen über die Erstreckung der mobilen Stativbaugruppe 810 sowie auf dem 3D-Scanner 20 anordnet. Eine Methode, die man zur weiteren Verbesserung der Genauigkeit der Position und Orientierung des mobilen 3D-Messsystems 800 einsetzen kann, besteht darin, den 3D-Scanner 20 um die in 1 dargestellte Achse 23 oder 25 zu drehen. Da die relativen Positionen der LEDs relativ zu dem Kardanpunkt 27 des 3D-Scanners 10 festgestellt werden können, können diese zusätzlichen Bilder von Markierungen die Ermittlung der Position und Orientierung des mobilen 3D-Messsystems 800 unterstützen.
  • In dem Fall, in dem die Markierungen LEDs sind, können die LEDs zeitmoduliert werden, um dabei zu helfen, die Auswirkungen von Hintergrundlicht zu beseitigen, dessen Glitzern fälschlicherweise als Markierungen erscheinen könnte. Des Weiteren kann die Modulation zur Unterscheidung jeder der mehreren LEDs auf dem mobilen 3D-Messsystem 800 verwendet werden. Eine solche Modulation stellt bei einer Ausgestaltung digitale Kommunikationssignale bereit, die vom mobilen 3D-Messsystem 800 empfangen und dekodiert werden.
  • Es ist auch möglich, eine Vielzahl von LED-Farben zu benutzen, um die Unterscheidung verschiedener LEDs auf dem mobilen 3D-Messsystem 800 zu unterstützen. Es kann zum Beispiel eine Rot-Blau-Grün-Kamera (RGB-Kamera) zur Unterscheidung der verschiedenen LEDs verwendet werden.
  • In dem Fall, in dem eine einzige Kamera benutzt wird wie beispielsweise eine Kamera 1610 in 16, werden die Winkel zu jeder der LEDs 1630 auf Basis der Entsprechung zwischen (1) dem Winkel der LED bezogen auf die optische Achse der Kamera und (2) dem Mittelpunkt des durch die LED beleuchteten Stücks von Pixeln ermittelt. Diese Entsprechung basiert auf der Beobachtung, dass jeder Lichtstrahl einer LED so angesehen werden kann, dass er durch ein perspektivisches Zentrum der Kamera durchgeht. Wenn eine einzige Kamera zur Ermittlung des Abstands zu einem Objekt und der Winkel zu einem Objekt benutzt wird, ist die relative Größe des Gesamtobjekts ebenfalls von Bedeutung. Eine Verbesserung der Genauigkeit ist durch den Einsatz von zwei oder mehr Kameras möglich, die in der Umgebung angebracht sind. Beispielsweise kann eine zweite Kamera 1612 die Kamera 1610 von 16 unterstützen. In diesem Fall kann ein Triangulationsverfahren angewendet werden, das den relativ großen Bildsensor-Basislinie-Abstand oder die Trennung zwischen den zwei Kameras berücksichtigt, um die Position und Orientierung des mobilen 3D-Messsystems 800 genauer zu ermitteln. Die Vielzahl von Kameras misst bei einer Ausgestaltung ferner einen Bezugsabstand, um die Feststellung des Kameramaßstabs zu unterstützen. Man kann beispielsweise LEDs 1642 auf einer Bezugsstruktur 1640 wie z. B. einem Rahmen oder einer Maßstabsleiste anbringen, um die Grundlage für die Einstellung der Skalierung zur Verfügung zu stellen. Bei einer Ausgestaltung besteht die Bezugsstruktur aus einem Material mit einem niedrigen Wärmeausdehnungskoeffizienten (WAK), das mit gewährleistet, dass die Struktur bei Temperaturänderungen eine gleichbleibende Länge zwischen Markierungen beibehält. Ein solches Material mit niedrigem WAK könnte zum Beispiel ein Kohlefaserverbundstoff sein. In vielen Fällen kann allerdings ein Material mit einem höheren WAK wie beispielsweise Stahl (der einen WAK von ungefähr 11,5 Mikrometern/Meter/°C aufweist) für höhere Genauigkeit sorgen.
  • Bei einer Ausgestaltung sind die Positionen jeder Kamera 1610, 1612 in einer Umgebung bekannt. Solche Kamerapositionen können am Anfang ermittelt werden, indem man die Positionen der Kameras mit einem Gerät wie beispielsweise einem Lasertracker misst oder mehrere Ziele an bekannten Positionen in der Umgebung mit beiden Kameras misst und anschließend mittels eines Optimierungsmethoden auflöst. Ein Beispiel dafür ist die Optimierungsmethode der kleinsten Quadrate, bei der die Summe von Quadraten von Restfehlern minimiert wird. Die Positionen der Kameras in der Umgebung können im Zeitverlauf überprüft oder korrigiert werden, indem eine oder mehrere bekannte Längen wie beispielsweise die Längen zwischen den Zielen 1642 auf einer Maßstabsleiste 1640 gemessen werden. Die LEDs 1630 sind bei einer Ausgestaltung auf dem Körper des 3D-Scanners 20, auf den Stativbeinen 812 und auf dem mobilen Stativwagen 820 angeordnet. Bei anderen Ausgestaltungen sind die LEDs nur auf dem 3D-Scanner 20 oder auf einem anderen Teil des mobilen 3D-Messsystems 800 angeordnet. Die erfassten Bilder werden bei einer Ausgestaltung durch einen Prozessor verarbeitet, um die Position und Orientierung des mobilen 3D-Messsystems 800 zu ermitteln. Bei einer Ausgestaltung senden die Kameras 1610, 1612 Bilddaten zur Verarbeitung an Prozessoren des mobilen 3D-Messsystems 800. Bei anderen Ausgestaltungen hat das Kamerasystem, das die Kameras 1610, 1612 umfasst, sein eigenes Verarbeitungssystem, das zur Ermittlung der Position und Orientierung des mobilen 3D-Messsystems 800 angewendet wird. Bei einer anderen Ausgestaltung führt ein Netzwerkcomputer die Berechnungen durch. Bei einigen Ausgestaltungen wird nur eine einzige Kamera 1610 oder eine einzige LED verwendet, wobei die daraus resultierende Berechnung lediglich eine Position des mobilen 3D-Messsystems 800 statt einer Position und Orientierung des mobilen 3D-Messsystems 800 ergibt.
  • Mit dem Verfahren, bei dem eine oder zwei Kameras zur Messung von mindestens drei Sensoren eingesetzt werden, können die Position und Orientierung des mobilen 3D-Messsystems 800 im Bezugssystem der Umgebung ermittelt werden. Diese Information kann mit 3D-Koordinaten kombiniert werden, die vom 3D-Scanner 20 zur Ermittlung von 3D-Koordinaten des gemessenen Punkts im Bezugssystem der Umgebung gemessen werden.
  • Außer Kameras gibt es auch Geräte, die Winkel auf Basis der Benutzung kodierter Masken mit einer Vielzahl von Einzelpixeln messen. Die Winkelgenauigkeiten mit solchen Winkelmessgeräten können gut sein, also beispielsweise in einigen Fällen in der Größenordnung von wenigen Bogensekunden liegen. Ein Beispiel für ein solches System wird in der WIPO-Patentanmeldung Nr. 2013/103725 (an Dowski, Jr., et al.) beschrieben, deren Inhalte durch Verweis hierin einbezogen werden. Solche Geräte können dazu verwendet werden, die Kameras in der vorstehenden Besprechung zu ersetzen.
  • Ein Instrument, das zwei Winkel und einen Abstand misst, wird bei einer Ausgestaltung zur Ermittlung der Position und Orientierung des mobilen 3D-Messsystems 800 benutzt. Zu den Beispielen für solche Geräte gehören Lasertracker, Laserradargeräte, Totalstation und 3D-Laufzeitscanner. Ein solches Gerät kann in erhöhter Position, beispielsweise auf einer Plattform, angebracht werden, um eine größere Messfähigkeit für das Messen eines mobilen 3D-Messsystems 800 über einen Bereich von Positionen in der Umgebung zu erzielen. Alternativ dazu kann ein solches Gerät auf einer Plattform, einem Stativ oder einem Geräteständer angebracht werden, die bzw. das bzw. der sich ungefähr in derselben Höhe wie das mobile 3D-Messsystem 800 befindet.
  • 17 veranschaulicht einen auf einer erhöhten Plattform 1705 angebrachten Lasertracker 1700, der in einer Umgebung drei oder mehr Retroreflektoren 1710 wie beispielsweise Würfelecken-Retroreflektoren misst, die auf dem Körper des 3D-Scanners 20 angebracht sind. Der Tracker kann durch Messen der drei Retroreflektoren 1710 die Position und Orientierung des 3D-Scanners 20 ermitteln. Die Position und Orientierung des Trackers sind in der Umgebung auf Basis von Messungen bekannt, die vorzeitig durchgeführt wurden. Der Lasertracker wird bei diesen Messungen zum Messen von Merkmalen in der Umgebung verwendet, um seine eigene Position und Orientierung in der Umgebung festzustellen. Die Messungen können vom Tracker periodisch durchgeführt werden, um zu gewährleisten, dass die Trackerposition und -orientierung korrekt bleiben. Solche Messungen können zum Beispiel das Messen von Retroreflektoren 1730 umfassen, die in der Umgebung angebracht sind. Wenn die Position und Orientierung des mobilen 3D-Messsystems 800 bekannt sind, kann der 3D-Scanner 20 mit dem Messen der Merkmale des Objekts 1600 fortfahren. Ein Lasertracker kann eine Reichweite von bis zu 80 Metern aufweisen und ist somit möglicherweise in der Lage, mehrere verschiedene mobile 3D-Messsysteme 800 zu leiten.
  • Bei anderen Ausgestaltungen ersetzen andere Instrumente, die Retroreflektoren messen können, den Lasertracker 1700. Der Lasertracker 1700 ist bei einer Ausgestaltung durch eine Totalstation ersetzt, die in der Lage ist, ein Retroreflektorziel zu messen. Bei einem anderen Beispiel ist der Lasertracker durch einen fokussierenden Laserscanner (manchmal als „Laserradar“ bezeichnet) ersetzt, der zwei Winkel und einen Abstand zu einer Messkugel messen kann, die eine stark reflektierende Stahlkugel ist. Bei einer Ausgestaltung wird das Laserlicht des Laserradars auf einen relativ kleinen Lichtpunkt auf der Messkugel fokussiert. Der Strahl wird herumgelenkt und der Winkel, bei dem maximales Licht zum Laserradar zurückkehrt, ist der Winkel, bei dem der Lichtstrahl auf den Mittelpunkt der Kugel zeigt. Demzufolge wirken die Messkugeln in diesem Fall als Retroreflektoren 1710 und 1730 in 17. Bei einer alternativen Ausgestaltung ist bei einem Tracker-Scanner-Gerät die Fähigkeit eines Lasertrackers, zusammenwirkende Ziele wie z. B. SMRs zu messen, mit der Fähigkeit, diffuse Oberflächen zu messen, kombiniert. Dies bedeutet mit anderen Worten, dass bei diesem Gerätetyp die Tracker- und Scannerfähigkeiten kombiniert sind.
  • Bei einer anderen Ausgestaltung, die ebenfalls in 17 dargestellt ist, ist ein Lasertracker der Typ, der sechs Freiheitsgrade (DOF; degrees of freedom) messen kann, und ist der Retroreflektor 1720 ein 6-DOF-Ziel. Ein 6-DOF-Lasertracker ist ein Lasertracker mit der Fähigkeit, drei Orientierungswinkel (wie z. B. Nick-, Roll- und Gierbewegung) sowie drei Positionskoordinaten (wie z. B. x, y und z) zu messen, wenn eine 6-DOF-Sonde verwendet wird. Bei solchen 6-DOF-Lasern und 6-DOF-Zielen werden verschiedene Verfahren zum Messen der sechs Freiheitsgrade eingesetzt. Bei dieser Ausgestaltung, die durch 17 repräsentiert ist, misst der 6-DOF-Lasertracker 1700 das 6-DOF-Ziel, um die Position und Orientierung des 3D-Scanners 20 zu ermitteln.
  • Bei Ausgestaltungen, bei denen ein Lasertracker oder eine Totalstation zum Messen von 3D-Koordinaten von drei SMRs auf dem System 800 verwendet wird oder bei denen ein fokussierter Laserscanner zum Messen von 3D-Koordinaten von drei Messkugeln auf dem System 800 verwendet wird, kann die aus diesen Messungen erfasste Information mit den 3D-Koordinaten kombiniert werden, die vom 3D-Scanner 20 für die Ermittlung von 3D-Koordinaten des gemessenen Punkts im Bezugssystem der Umgebung gemessen werden.
  • Bei Ausgestaltungen, bei denen ein 6-DOF-Lasertracker zum Messen von 3D-Koordinaten eines 6-DOF-Ziels auf dem System 800 verwendet wird, kann diese Messung mit den 3D-Koordinaten kombiniert werden, die vom 3D-Scanner 20 für die Ermittlung von 3D-Koordinaten des gemessenen Punkts im Bezugssystem der Umgebung gemessen werden.
  • Bei einer anderen Ausgestaltung sind vier Distanzmesser in der Umgebung angebracht. Die vier (oder mehr) Interferometer oder Absolutdistanzmesser (ADMs) messen in einem Anfangsschritt jeweils einen Retroreflektor an jeder von zehn Positionen. Die erfasste Information reicht aus, um den 3D-Positions- und Verschiebungswert (Abstandswert null) jedes der vier Distanzmesser zu ermitteln. Nachdem diesem Verfahren einmal durchgeführt wurde, können die 3D-Koordinaten eines Retroreflektors durch eine einzige Messung ermittelt werden, die als „Multilaterationsmessung“ bezeichnet wird. Mit der Durchführung einer solchen Messung an drei Retroreflektoren 1710 können die Position und Orientierung des mobilen 3D-Messsystems 800 durch einen Prozessor ermittelt werden.
  • Das mobile 3D-Messsystem 800 arbeitet bei einem Betriebsmodus unter Anweisungen, die im Computernetzwerk bereitgestellt werden. Alternativ dazu kann ein Benutzer eine Fernsteuerung des mobilen 3D-Messsystems 800 durchführen. In einigen Fällen möchte ein Benutzer eventuell eine sichtbare Anzeige der Fabrik erhalten. Der Scanner kann sich in diesem Fall durch die Gänge bewegen und dabei Echtzeit-Farbbilder zum Benutzer zurücksenden. Der Benutzer kann den Scanner auffordern, langsamer zu fahren oder einen anderen Weg zu wählen, um detailliertere Bilder bereitzustellen. Der Benutzer kann anschließend eine ergänzende Information über die Position von Montagebereichen oder die Menge eines neuen oder prozessinternen Lagerbestands in der Anlage anfordern. Der Scanner kann in einigen Fällen in der Lage sein, den Lagerbestand direkt auf Basis von 2D- oder 3D-Messungen oder auf Basis von Informationen, die anhand von Etiketten wie beispielweise einem Strichcode, einem RFID-Etikett oder einem QR-Code erfasst wurden, zu zählen. Das mobile 3D-Messsystem 800 ist bei einer Ausgestaltung mit einem RFID-Lesegerät und einem Strichcodelesegerät oder QR-Code-Lesegerät ausgestattet.
  • Die Scannersoftware überprüft bei einer Ausgestaltung kontinuierlich potentielle Hindernisse und hebt Benutzerbefehle auf, wenn dies zur Gewährleistung der Sicherheit erforderlich ist. Bei einer Ausgestaltung kann ein mobiles 3D-Messsystem 800 einen Alarm ausgeben, wenn ein Problem beobachtet wird, und zwar insbesondere dann, wenn es ein potentielles Sicherheitsproblem feststellt.
  • Der Bediener steuert bei einer Ausgestaltung gleichzeitig mehrere verschiedene mobile 3D-Messsysteme 800. Während einige Systeme 800 Informationen gemäß den vom Computernetzwerk bereitgestellten Anweisungen oder gemäß vorherigen Anweisungen des Benutzers erfassen, arbeiten ein oder mehrere Systeme 800 unter einer interaktiven Steuerung durch den Benutzer. Ein Bediener, der ein oder mehrere mobile 3D-Messsysteme 800 fernsteuert, kann sich in der Nähe der Systeme 800 oder an einer anderen Stelle entfernt von den Systemen 800 aufhalten. Ein Bediener kann mobile 3D-Messsysteme 800 fernsteuern, die sich an mehreren verschiedenen Stellen befinden.
  • In den meisten Fällen umfasst jedes mobile 3D-Messsystem, das gleichzeitig von einem Bediener gesteuert wird, ein 3D-Messgerät, das auf einem motorbetätigten Ständer angebracht ist, wobei jedes 3D-Messgerät dafür konfiguriert ist, Licht auf einen oder mehrere Punkte in einer Umgebung zu projizieren. Bei einer Ausgestaltung ermittelt jedes 3D-Messgerät 3D-Koordinaten des beleuchteten Punkts durch Messen eines Abstands, eines ersten Winkels und eines zweiten Winkels zu dem Punkt. Zu den Beispielen für 3D-Messgeräte, die gleichzeitig gesteuert werden können, zählen ein 3D-Laufzeitscanner (TOF-Scanner), ein Triangulationsscanner, ein Lasertracker und eine Tracker-Scanner-Kombination. Ein Triangulationsscanner umfasst einen Projektor und eine Kamera, wobei der Projektor dafür konfiguriert ist, ein Lichtmuster auf ein Objekt zu projizieren, wobei die Kamera durch einen Basislinienabstand vom Projektor getrennt ist, wobei die Kamera ferner dafür konfiguriert ist, das projizierte Muster auf dem Objekt zu messen. Für den Triangulationsscanner und den 3D-Laufzeitscanner befindet sich der beleuchtete Punkt normalerweise auf dem zu messenden Objekt, das gewöhnlich ein diffus streuendes Objekt ist. Im Falle eines Lasertrackers befindet sich der beleuchtete Punkt normalerweise am Scheitelpunkt eines Retroreflektors, also beispielsweise am Mittelpunkt eines sphärisch montierten Retroreflektors (SMR), in dem ein Würfelecken-Retroreflektor untergebracht ist. Eine Tracker-Scanner-Kombination ist in der Lage, einen Punkt auf einer diffus streuenden Oberfläche (zum Beispiel einer Oberfläche einer Rohkarosserie eines Kraftfahrzeugs) zu messen und eine Position eines Retroreflektorziels zu messen.
  • In einigen Fällen kann ein Computernetzwerk oder ein Bediener allgemeine Anweisungen erteilen, also zum Beispiel für eine Überprüfung, ob eine Anordnung den Plänen entspricht oder ob der Lagerbestand wie erwartet ist. Bei einigen Ausgestaltungen können die Einzelheiten darüber, wie diese Anweisungen durchzuführen sind, dem mobilen 3D-Messsystem 800 oder anderen Prozessoren im System überlassen werden. Die Anleitung kann, wie vorstehend erläutert, beispielsweise zumindest teilweise durch externe Sensoren wie z. B. Kameras oder Lasertracker bereitgestellt werden. Der Bediener kann in anderen Fällen das mobile 3D-Messsystem 800 auf einem Weg führen, der in einem bestimmten Fall oder auf Routinebasis zu befolgen ist. Der Scanner folgt dem Bediener und überwacht die Bewegung mit Messwerten seiner internen Sensoren (z. B. Wegmesser am Rad, 2D-Scanner, 2D-Kamera, 3D-Kamera, Ultraschall, Inertialmesseinheit). Dadurch, dass dem Bediener auf diese Weise gefolgt wird, werden dem mobilen 3D-Messsystem 800 genug Informationen zur Verfügung gestellt, um eine detaillierte Vermessung entlang des angegebenen Wegs zu vollenden, wenn die Zeit dies zulässt.
  • Die Benutzerschnittstelle kann bei einer Ausgestaltung eine Berührungsbildschirmanzeige sein, anhand welcher der Bediener Anweisungen an ein beliebiges der Vielzahl mobiler 3D-Messsysteme erteilen und Informationen wie beispielsweise eine 3D-Koordinatenangabe von den mobilen 3D-Messsystemen empfangen kann. Bei einer Ausgestaltung kann die Benutzerschnittstelle eine Vielzahl von Computermonitoren umfassen, um beispielsweise Informationen zu zeigen, die von jedem der mobilen 3D-Messsysteme erfasst wurden. Der Bediener kann bei einer Ausgestaltung über ein tragbares Gerät mit virtueller Realität (VR) wie beispielsweise eine tragbare VR-Sprechgarnitur, die dem Benutzer ein immersives 3D-Erlebnis bietet, mit den mobilen 3D-Messsystemen kommunizieren. Ein Vorteil eines solchen Geräts besteht darin, dass es dem Bediener ein höheres Ausmaß an 3D-Realismus (Eintauchen) und Steuerung zur Verfügung stellt. Die Benutzerschnittstelle kann dafür konfiguriert werden, eine erweiterte Realität (AR; augmented reality) bereitzustellen, indem konstruierte Elemente über 2D- oder 3D-Echtzeitbilder eingeblendet werden, die von der Benutzerschnittstelle zur Verfügung gestellt werden. Solche konstruierte Bilder könnten von CAD-Dateien erhalten werden oder sie könnten visuelle Objekte sein, die aus einem Katalog von 3D-Bildern entnommen werden. Solche AR-Bilder können für die Sichtbarmachung vorgeschlagener Änderungen der Umgebung von Nutzen sein. AR- oder VR-Anzeigevorrichtungen können durch verbesserte Brillen, Sprechgarnituren oder 2D-Anzeigemonitore zur Verfügung gestellt werden.
  • Bei einer Ausgestaltung kann sich ein Bediener dazu entscheiden, gemäß seiner Auswahl 3D-Informationen anzusehen, die von einem oder mehreren der mobilen 3D-Messsysteme erfasst wurden. Der Bediener kann wählen, ob er die Merkmale eines Objekt, das von einem mobilen 3D-Messsystem gemessen wurde, mit Informationen über das Objekt, die im Speicher beispielsweise in einem Computernetzwerk gespeichert sind, vergleichen möchte. Ein Computernetzwerk kann zum Beispiel eine CAD-Datei umfassen, die Abmessungsmerkmale eines zu messenden Objekts enthält, die von einem der mobilen 3D-Messsystem gemessen wurden. Diese gespeicherten Abmessungsmerkmale können mit den gemessenen Abmessungsmerkmalen verglichen werden, um zu ermitteln, ob die Merkmale wie erwartet sind, also zum Beispiel, ob die Abmessungen in einer CAD-Datei mit den Abmessungen übereinstimmen, die vom mobilen 3D-Messsystem gemessen wurden. Die im Speicher, beispielsweise in einem Computernetzwerk, gespeicherten Merkmale eines Objekts können bei einer Ausgestaltung mit den Merkmalen eines Objekts verglichen werden, die von einem mobilen 3D-Messsystem gemessen wurden. Das System kann durch einen solchen Vergleich Objekte für den Bediener identifizieren, die von einem mobilen 3D-Messsystem gesehen werden. Die dem identifizierten Objekt zugeordnete Information kann aus dem Computernetzwerk extrahiert und dem Bediener mittels der Benutzerschnittstelle zur Verfügung gestellt werden. Das mobile 3D-Messsystem kann zum Beispiel ein Objekt als ein Werkzeug identifizieren, das für die Herstellung einer bestimmten Unterbaugruppe in einer Fertigungsanlage konfiguriert ist. Das Computernetzwerk kann anschließend aus dem Speicher Informationen abrufen, die der Leistung dieses Werkzeugs zugeordnet sind – also beispielsweise die Produktionsrate und die Fehlerquote. Solche Informationen können dem Bediener durch die Benutzerschnittstelle präsentiert werden. Als anderes Beispiel kann das mobile 3D-Messsystem ein Lager für die Lieferung von Komponenten identifizieren, die bei der Fertigung verwendet werden. Das mobile 3D-Messsystem kann die Anzahl von aktuell im Lagerbestand vorhandenen Komponenten identifizieren. Es kann diese Ermittlung auf Basis von 2D-Bildern oder durch 3D-Messungen durchführen. Es kann diese Menge des Lagerbestands mit den für den Lagerbestand geltenden Anforderungen vergleichen, um zu bestimmen oder zu bestätigen, dass das Lager wieder aufgefüllt werden muss. Das mobile 3D-Messsystem kann bestätigen, dass es die Gegenstände im Lagerbestand korrekt identifiziert hat, indem es ein Etikett abliest, das dem Lager zugeordnet ist – beispielsweise ein RFID-Etikett, ein Strichcodeetikett oder ein QR-Code-Etikett. Das mobile 3D-Messsystem kann auch die Größe von Elementen in einer Umgebung messen, um beispielsweise zu sehen, ob Raum für die Platzierung eines neuen Einrichtungsstücks verfügbar ist. Bei einer Ausgestaltung kann ein Bediener ein mobiles 3D-Messgerät entlang einem gewünschten Weg leiten, wobei er eine 2D-Ansicht oder eine 3D-Ansicht benutzt, um direkt zu sehen, was an einem bestimmten Zeitpunkt passiert. Der Bediener kann einen Joystick oder eine ähnliche Steuerung verwenden, um das 3D-Messsystem in einem gewünschten Weg zu bewegen. Alternativ dazu kann sich der Bediener auf eine Karte oder die Umgebung beziehen, um das mobile 3D-Messsystem zu der gewünschten Stelle zu leiten, oder der Bediener kann sich auf ein Computernetzwerk verlassen, um das mobile 3D-Messsystem zu einer gewünschten Stelle zu leiten. Als anderes Beispiel kann der Bediener das mobile 3D-Messsystem anweisen, die hindernisfreie Breite von Gängen zu überprüfen, um sicherzustellen, dass angemessener Raum für die Durchführung erforderlicher Funktionen wie beispielsweise die Wiederauffüllung von Lagern oder das Bewegen neuer Einrichtungen in die Position zur Verfügung steht.
  • Wie vorstehend gesagt wurde, ist eine Anwendung, für die der motorbetätigte Stativwagen 820 mit dem 3D-Messgerät vorteilhafterweise verwendet werden kann, die genaue Messung von Objekten über große Bereiche und aus allen Richtungen. Eine Schwierigkeit, die in gewissen Maße bei allen 3D-Messinstrumenten auftritt, ist die Anforderung, mehrere Abtastungen zu registrieren, wenn sich das zu messende Objekt über einen großen Bereich oder einen großen Winkelbereich erstreckt. Ein Beispiel für eine solche Messaufgabe ist das Messen eines Objekts wie beispielsweise eines Kraftfahrzeugs von allen Seiten – d. h. über 360 Grad. Im Falle eines Geräts wie beispielsweise eines Lasertrackers wird die Registrierung üblicherweise erzielt, indem magnetische Aufnahmen in einer Region positioniert werden, die das Prüfobjekt umgibt. Magnetische Aufnahmen können beispielsweise an einem Boden befestigt werden, der das Prüfobjekt umgibt. Nachdem ein Lasertracker eine Seite des Kraftfahrzeugs gemessen hat, misst er sphärisch montierte Retroreflektoren (SMRs), die in den magnetischen Aufnahmen angeordnet sind. Er bewegt sich dann um das Objekt herum und misst wieder die SMRs. Der Tracker misst die 3D-Koordinaten der SMRs an der ersten Position, bevor er bewegt wird, und an der zweiten Position, nachdem er bewegt wurde. Solange mindestens drei SMR-Positionen gemeinsam von jeder Position aus gemessen werden, können die Messungen, die durch den Lasertracker an der ersten Position und der zweiten Position durchgeführt wurden, in ein gemeinsames Bezugssystem gebracht werden.
  • Es werden nun Verfahren zur Verwendung des motorbetätigten Stativwagens 820 oder eines gleichwertigen motorbetätigten beweglichen Geräts beschrieben, um verschiedene 3D-Messgeräte mit einer Registrierung über 360 Grad ohne Eingreifen des Benutzers bereitzustellen.
  • 18 zeigt eine Ausgestaltung eines mobilen 3D-Messgeräts 1800, das ein auf einer motorbetätigtem Stativbaugruppe 810 angebrachtes 3D-Messgerät 1810 umfasst. Das 3D-Messgerät 1810 kann ein Tracker, ein 6-DOF-Tracker, eine Totalstation, ein Tracker-Scanner-Gerät oder ein Laserradar sein. Die Stativbaugruppe 810 kann ein Stativ 812 und einen motorbetätigten Stativwagen 820 umfassen.
  • 19 zeigt ein mobiles 3D-Messgerät 1800 zusammen mit einer Rohkarosserie (BiW; body-in-white) 1900 eines Kraftfahrzeugs, die von zusammenwirkenden Zielen 1910 umgeben ist, die Messkugeln, Katzenaugen-Retroreflektoren oder SMRs sein können. Das 3D-Messgerät 1810 ist bei einer Ausgestaltung in der Lage, ein zusammenwirkendes Ziel wie beispielsweise einen SMR und eine diffuse Oberfläche wie beispielsweise eine Oberfläche der Rohkarosserie 1900 zu messen. Wenn die Messungen der diffusen Oberflächen der Rohkarosserie beendet sind, kann das 3D-Messgerät 1810 anschließend die zugänglichen zusammenwirkenden Ziele 1910 messen. Der motorbetätigte Stativwagen 820 wird eingeschaltet, um das mobile 3D-Messgerät 1800 zu einer zweiten Position zu fahren. Das 3D-Messgerät misst an der zweiten Position wieder die zugänglichen zusammenwirkenden Ziele 1910, die mindestens drei zusammenwirkende Ziele 1910 umfassen sollten, die mit denjenigen gemeinsam sind, die an der ersten Position des mobilen 3D-Messgeräts gemessen wurden. Die 3D-Koordinaten der zusammenwirkenden Ziele 1910 an der ersten und zweiten Position werden verwendet, um ein gemeinsames Bezugssystem für die 3D-Scannermessungen zu ermitteln, die an den zwei Positionen durchgeführt werden. Die Messungen erfolgen an so vielen Positionen wie nötig, um die 3D-Koordinaten für die Oberfläche der Rohkarosserie zu ermitteln, die alle in ein gemeinsames Bezugssystem gebracht werden. Ein Vorteil dieses Verfahrens gegenüber Verfahren des Stands der Technik besteht darin, dass die Messungen mit einem einzigen mobilen Messgerät ohne Eingreifen des Bedieners um volle 360 Grad herum durchgeführt werden.
  • 20 zeigt eine Ausgestaltung eines mobilen 3D-Messsystems 2000, das einen auf einer motorbetätigten Stativbaugruppe 810 angebrachten Triangulationsscanner 2010 umfasst. Bei einer Ausgestaltung ist ein Triangulationsscanner 2010 ein Gerät, das einen Projektor 2016 und eine oder mehrere Kameras 2012, 2014 umfasst. In einem ersten Betriebsmodus des Triangulationsscanners projiziert der Projektor 2016 ein einziges Lichtmuster auf ein Objekt und nehmen die eine oder die mehreren Kameras 2012, 2014 ein Bild des vom Objekt reflektierten Lichts auf. Das projizierte Muster umfasst bei diesem Betriebsmodus Elemente mit einem charakteristischen Aussehen, das durch die Kamera identifiziert werden kann. Die 3D-Koordinaten der Oberfläche des beleuchteten Objekts können basierend auf dieser Entsprechung und auf einem Basislinienabstand zwischen dem Projektor 2016 und der Kamera 2012 oder 2014 ermittelt werden. Alternativ dazu können die 3D-Koordinaten bei einem System mit zwei Kameras 2012, 2014 basierend auf der Entsprechung zwischen charakteristischen Elementen auf der ersten und zweiten Kamera und auf dem Basislinienabstand zwischen den zwei Kameras ermittelt werden. Der erste Betriebsmodus ist für einen in der Hand gehaltenen Scanner geeignet, weil der Scanner nicht standfest gehalten werden muss, während mehrere Bilder aufgenommen werden.
  • In einem zweiten Betriebsmodus des Triangulationsscanners 2010 projiziert der Projektor 2016 aufeinanderfolgend mehrere Lichtmuster auf ein Objekt, welche von einer oder mehreren Kameras 2012, 2014 aufgenommen werden. Das projizierte Lichtmuster hat bei einer Ausgestaltung eine sinusförmige Phasenänderung im Raum, die ein streifenähnliches Aussehen hat. Die Phase der projizierten Musters wird in aufeinanderfolgenden Projektionen verändert und die an jedem Pixel der Kameras 2012, 2014 beobachteten Lichtintensitäten werden bei der Triangulationsberechnung zur Ermittlung von 3D-Koordinaten der Objektoberfläche verwendet. Diese Folgemodus der Triangulation ist normalerweise genauer als der Modus mit Einzelaufnahmen. Da das mobile 3D-Messsystem 2000 während der Messung mehrerer Phasen feststehend gehalten werden kann, ist es für die Benutzung mit dem relativ genaueren Verfahren mit aufeinanderfolgenden Messungen geeignet.
  • In einem dritten Betriebsmodus eines Triangulationsscanners ist der Scanner dafür konfiguriert, zwei Kameras und einen Projektor in einem Dreieck anzuordnen. In diesem Fall kann ein Lichtpunktmuster, das kein unterscheidbares Muster aufweist, auf ein Objekt projiziert werden und kann eine Entsprechung zwischen auf das Projekt projizierten Lichtpunkten und durch die zwei Kameras bildlich erfassten Lichtpunkten ermittelt werden. Diese Ausgestaltung einer Triangulationskamera, bei der die zwei Kameras und ein Projektor in einem Dreieck angeordnet sind, ist in den Figuren nicht dargestellt.
  • 21 zeigt ein mobiles 3D-Messsystem 2100 zusammen mit einer Rohkarosserie 1900 eines Kraftfahrzeugs, die von zusammenwirkenden Zielen 1910 umgeben ist. Das 3D-Messgerät 1800 misst bei einer Ausgestaltung zusammenwirkende Ziele 2110 oder 2120, die auf einem Triangulationsscanner 2010 angebracht sind. Das 3D-Messgerät 1800 ist in der Lage, zusammenwirkende Ziele 2110 oder 2120 zu messen, und kann auch in der Lage sein, diffus streuende Oberflächen eines Objekts 1900 zu messen. Es müssen mindestens drei zusammenwirkende Ziele 2110 (normale SMRs oder Messkugeln) oder eine 6-DOF-Zielbaugruppe 2120 gemessen werden, um die Position und Orientierung des Triangulationsscanners 2010 im Bezugssystem des Lasertrackers 1700 oder anderen 3D-Messgeräts zu ermitteln. Das mobile 3D-Messsystem 2100 bewegt sich bei einer Ausgestaltung je nach Bedarf, um die Oberfläche des Objekts 1900 zu messen. In der Zeit, in der es sich bewegt, misst der Lasertracker 1700 oder das 3D-Messgerät 1810 die Ziele 2110 oder 2120, um die Position und Orientierung des Scanners 2010 im Bezugssystem des Trackers 1700 oder des kombinierten 3D-Messgeräts 1810 zu ermitteln. Wenn sich die zusammenwirkenden Ziele auf dem mobilen 3D-Messsystem 2100 aus der Sicht des Lasertrackers herausbewegen, bewegt sich der Tracker zu einer neuen Position und stellt er die neue Position im Bezugssystem wieder her, das mit der ersten Position gemeinsam ist. Er tut dies, indem er mit dem Gerät 1800 drei oder mehr gemeinsame Retroreflektorziele 1910 von zwei oder mehr verschiedenen Positionen aus misst.
  • 22 zeigt das mobile 3D-Messsystem 2000 zusammen mit einer Rohkarosserie 1900 eines Kraftfahrzeugs. Bei einer Ausgestaltung werden Ziele 2210 wie beispielsweise LEDs, die auf dem mobilen 3D-Messsystem 2000 angebracht sind, durch zwei oder mehr Kameras 2220, 2230 gemessen, um die Position und Orientierung des mobilen 3D-Messsystems 2000 in einem gemeinsamen Bezugssystem zu ermitteln.
  • Es werden nun Verfahren zur Verwendung des mobilen 3D-Messsystems 800 im Hausbau beschrieben, und zwar insbesondere zur Überwachung und Auswertung von Konstruktionen und zur Bereitstellung einer Unterstützung bei der Installation von Ausbauelementen wie beispielsweise Einfassungen, Schränken, Elektrogeräten, Arbeitsplatten und Bodenbelägen.
  • Bei einer Ausgestaltung prüft ein mobiles 3D-Messsystem 800 Zimmer auf einem Boden in einem nicht fertiggestellten Gebäude. Wenn das Gebäude mehr als einen Boden oder einen Übergang mit einer Stufe nach unten oder oben umfasst, muss das System 800 möglicherweise zu dem zu prüfenden Bereich getragen werden. Das mobile 3D-Messsystem 800 identifiziert Türen, Fenster und Böden, die zugerichtet werden müssen, Böden, die belegt werden müssen und Türen, die eingebaut werden müssen.
  • Heutzutage besteht das übliche Verfahren zum Zurichten von Türen, Fenstern und Böden mit Formleisten, Verkleidungen und dergleichen für den Bauarbeiter darin, jedes Maß und jedes handgeschnittene Einfassungsstück zu messen. Dieses Verfahren ist zeitaufwändig und die Passung des Einfassungsstücks ist manchmal nicht sehr gut. Das System 800 benutzt bei einer Ausgestaltung den motorbetätigten Stativwagen 820, um sich im ganzen Gebäude zu bewegen, wobei es die Größe und Form jeder Tür, jedes Fensters, jeder Decke und jedes Bodens misst, und stellt die Anforderungen für die Länge und den Winkel des Schnitts jedes Einfassungselements einem Bauleiter zur Verfügung, der einen Auftrag an eine dritte Herstellungsfirma vergibt. Die Herstellungsfirma liefert alle Einfassungskomponenten mit einem Etikett zur Anzeige der Stelle, an welcher sie im Haus einzubauen sind. Die Etiketten können Nahfeldkommunikationsetiketten, Strichcodes, QR-Codes oder schriftliche Beschreibungen sein. Das Identifikationsetikett kann auf der Rückseite der Einfassungselemente angeordnet werden, damit sie nach dem Einbau nicht sichtbar sind. Durch die Bereitstellung aller Einfassungselemente in geschnittenem und markiertem Zustand kann die Einfassung in einem Bruchteil der Zeit eingebaut werden, die sonst erforderlich wäre.
  • Bei einer anderen Ausgestaltung werden die Größe und Form eines Bodens ohne Belag gemessen und einem Bauunternehmer bereitgestellt, der die Baumaterialien auf die erforderliche Größe und Form zuschneidet. Damit kann beträchtliche Zeit gespart werden. Beispielsweise können Keramikfliesen vor Ort unter erheblichem Zeitaufwand, in einem automatisierten Herstellungsverfahren jedoch effizient geschnitten werden.
  • Bauunternehmer erstellen heutzutage Schablonen und führen andere Messungen durch, um die erforderlichen Größen und Formen von Arbeitsplatten und Schränken zu ermitteln, die zu den Zimmerabmessungen, Elektrogeräten und Sanitärinstallationen passen. Die typischen Messverfahren, bei denen zum Beispiel Schablonen benutzt werden, sind relativ zeitaufwändig und fehleranfällig. Ein mobiles 3D-Messsystem 800 ermittelt bei einer Ausgestaltung die erforderlichen Maße von Arbeitsplatten und Schränken basierend zumindest teilweise auf den Zimmerabmessungen, die vom mobilen 3D-Messsystem 800 gemessen werden.
  • Wenn die vom 3D-Scanner 20 durchgeführten Abstandsmessungen auf einer unsichtbaren Infrarotlichtwellenlänge basieren, umfasst der 3D-Scanner 20 bei einer Ausgestaltung auch einen sichtbaren Lichtstrahl, der beispielsweise ein rotes Licht sein könnte. Das mobile 3D-Messsystem 800 emittiert zur Positionierung von Elementen wie beispielsweise einer Kücheninsel einen sichtbaren Lichtstrahl, der das Muster nachzeichnet, das der korrekten Form und Position der Insel entspricht. Wenn eine neue Sanitärinstallation für eine Badewanne in einem Badezimmer erforderlich ist, emittiert das mobile 3D-Messsystem 800 wieder einen roten Lichtstrahl, der die erforderliche Stelle der Sanitärinstallation markiert.
  • Das mobile 3D-Messsystem 800 kann die Position und Orientierung von Schränken während des Einbaus messen, um anzuzeigen, ob jeder Schrank im Lot ist, und um etwaige notwendige Änderungen vorzuschlagen, also beispielsweise durch die Benutzung von Ausgleichsscheiben. Ein sichtbarer Lichtstrahl kann auch dazu verwendet werden, eine Lotlinie entlang einer Wand zu markieren, um das Ausrichten von Schränken oder Elektrogeräten zu unterstützen, bevor diese an ihrem Platz verschraubt werden.
  • Bei einer Ausgestaltung wird die gewünschte Stelle in einen Zimmer für ein Element wie beispielsweise eine Arbeitsplatte oder einen Schrank mittels einer elektronischen Datei ermittelt, die von einem Konstrukteur zur Verfügung gestellt wird. Es wird davon ausgegangen, dass solche elektronische Konstruktionsdateien zukünftig weitaus üblicher werden. Durch Messen der Abmessungen eines Zimmers mit dem mobilen 3D-Messsystem 800 können die erforderlichen Positionen und Orientierungen jedes Elements im Zimmer ermittelt und durch den sichtbaren Lichtstrahl des 3D-Scanners 20 angezeigt werden. Die Position dieses sichtbaren Lichtstrahls basiert bei einer Ausgestaltung zumindest teilweise auf 3D-Messungen des Zimmers mit dem mobilen 3D-Messsystem 800.
  • In einigen Fällen kann sich der Scanner in seinem üblichen Betriebsmodus schnell drehen, während er Abstände mit hoher Geschwindigkeit misst. Der Strahl kann beispielsweise mehr als eine Million Punkte pro Sekunde messen, während er sich um eine horizontale Achse dreht. Außer diesem Betriebsmodus mit hoher Geschwindigkeit sind auch andere Betriebsmodi möglich. In einem anderen Betriebsmodus kann er die Abtastgeschwindigkeit verlangsamen, während er gleichzeitig die optische Energie reduziert. Die Abtastgeschwindigkeit kann zum Beispiel auf 1000 Punkte pro Sekunde verlangsamt werden. Die verringerte Abtastgeschwindigkeit ermöglicht die Reduzierung der optischen Energie, während eine relativ hohe Genauigkeit aufrechterhalten wird (durch Mittelwertbildung des Zufallsrauschens). In diesem Fall kann der Strahl, der sowohl rotes als auch infrarotes Licht umfassen kann, ohne eine potentielle Gefahr für den Augenschutz auf jede Stelle gerichtet und auf dieser Stelle gehalten werden. Bei noch einem anderen Betriebsmodus werden 3D-Koordinaten einer Oberfläche zuerst bei hoher Geschwindigkeit mit infrarotem (unsichtbarem) Licht gemessen. Anschließend werden auf Basis von Projektionswinkeln Markierungen im sichtbaren Licht über ein interessierendes Muster gelegt.
  • Begriffe wie „Prozessor“, „Steuerung“, „Computer“, „DSP“, „FPGA“ sind in dieser Druckschrift so zu verstehen, dass sie ein Rechengerät bedeuten, das in einem Instrument angeordnet, in mehreren Elementen überall in einem Instrument verteilt oder außerhalb eines Instruments angeordnet werden kann.
  • Obwohl die Erfindung ausführlich in Verbindung mit nur eine begrenzten Anzahl von Ausgestaltungen beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf solche offenbarte Ausgestaltungen beschränkt ist. Die Erfindung kann vielmehr derart modifiziert werden, dass sie eine beliebige Anzahl von Variationen, Änderungen, Ersetzungen oder gleichwertigen Anordnungen einbeziehen kann, die vorstehend nicht beschrieben sind, aber dem Gedanken und Schutzbereich der Erfindung entsprechen. Es versteht sich ferner, dass, obwohl verschiedene Ausgestaltungen der Erfindung beschrieben wurden, Aspekte der Erfindung lediglich einige der beschriebenen Ausgestaltungen umfassen können. Die Erfindung ist demgemäß nicht als durch die vorangehende Beschreibung eingeschränkt aufzufassen, sondern nur durch den Schutzbereich der beigefügten Ansprüche eingeschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2013/103725 [0134]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11 [0071]
    • Censi, A.: „An ICP variant using a point-to-line metric“, IEEE International Conference on Robotics and Automatics (ICRA) 2008 [0095]
    • „Mathematical Models in Computer Vision: The Handbook“ von N. Paragios, Y. Chen und O. Faugeras (Hrsg.), Kapitel 15, Springer 2005, S. 239–258 [0105]
    • Dowski, Jr., et al. [0134]

Claims (20)

  1. Mobiles dreidimensionales (3D) Messsystem umfassend: ein 3D-Messgerät; einen Ständer mit einer Vielzahl von an das 3D-Messgerät gekoppelten Beinen; und einen motorbetätigten Stativwagen, der abnehmbar an den Ständer gekoppelt ist.
  2. System nach Anspruch 1, wobei der motorbetätigte Stativwagen dafür konfiguriert ist, sich vorwärts oder rückwärts zu bewegen und sich zu drehen.
  3. System nach Anspruch 1, wobei der motorbetätigte Stativwagen dafür konfiguriert ist, zu einer kompakten Form zusammengeklappt zu werden.
  4. System nach Anspruch 1, wobei das 3D-Messgerät ein Laufzeitscanner ist.
  5. System nach Anspruch 1, ferner umfassend einen Sensor, der für die Hindernisvermeidung konfiguriert ist.
  6. System nach Anspruch 5, wobei der Sensor aus der Gruppe bestehend aus einem zweidimensionalen (2D) Scanner, einem 3D-Scanner, der Licht in einer horizontalen Ebene richtet, einer 2D-Kamera, einer 3D-Tiefenkamera und einem Ultraschallsensor ausgewählt ist.
  7. System nach Anspruch 4, wobei das 3D-Messgerät einen gebündelten Lichtstrahl emittiert.
  8. System nach Anspruch 4, wobei das 3D-Messgerät einen fokussierten Lichtstrahl emittiert.
  9. System nach Anspruch 8, wobei das 3D-Messgerät dafür konfiguriert ist, 3D-Koordinaten einer Messkugel zu messen.
  10. System nach Anspruch 1, wobei das 3D-Messgerät ein Lasertracker oder eine Totalstation ist.
  11. System nach Anspruch 10, wobei das 3D-Messgerät dafür konfiguriert ist, 3D-Koordinaten eines Retroreflektors zu messen.
  12. System nach Anspruch 11, wobei das 3D-Messgerät ferner dafür konfiguriert ist, 3D-Koordinaten einer diffusen Oberfläche zu messen.
  13. System nach Anspruch 1, wobei das 3D-Messgerät ferner für drahtlose Kommunikation konfiguriert ist.
  14. System nach Anspruch 13, wobei die drahtlose Kommunikation zumindest teilweise auf einem IEEE-802.11-Standard basiert.
  15. System nach Anspruch 13, wobei die drahtlose Kommunikation Mobilfunkkommunikation umfasst.
  16. System nach Anspruch 15, wobei die Mobilfunkkommunikation eines der Protokolle 3G und Long-Term-Evolution (LTE) umfasst.
  17. System nach Anspruch 1, wobei der Ständer ein Stativ ist.
  18. System nach Anspruch 1, wobei der motorbetätigte Stativwagen zwei Räder umfasst, die sich drehen, wobei jedes Rad mit einer von einem Motor angetriebenen Achse verbunden ist.
  19. System nach Anspruch 18, wobei eine Drehung jedes Motors durch einen Winkelkodierer gemessen wird.
  20. System nach Anspruch 1, wobei der motorbetätigte Stativwagen ferner eine oder mehrere Verlängerungen umfasst, an welchen ein Sensor befestigt werden kann.
DE102016105858.0A 2015-03-31 2016-03-31 Mobiles dreidimensionales Messinstrument Withdrawn DE102016105858A1 (de)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201562140733P 2015-03-31 2015-03-31
US201562140706P 2015-03-31 2015-03-31
US201562140716P 2015-03-31 2015-03-31
US201562140743P 2015-03-31 2015-03-31
US201562140756P 2015-03-31 2015-03-31
US62/140,743 2015-03-31
US62/140,756 2015-03-31
US62/140,716 2015-03-31
US62/140,733 2015-03-31
US62/140,706 2015-03-31

Publications (1)

Publication Number Publication Date
DE102016105858A1 true DE102016105858A1 (de) 2016-10-06

Family

ID=56937290

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105858.0A Withdrawn DE102016105858A1 (de) 2015-03-31 2016-03-31 Mobiles dreidimensionales Messinstrument

Country Status (2)

Country Link
US (2) US10175360B2 (de)
DE (1) DE102016105858A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018211517A1 (de) * 2018-07-11 2019-08-14 Carl Zeiss Automated Inspection GmbH Verfahren zur Einbindung einer Sensoreinheit mit einem optischen Sensor in ein Netzwerk und eine Sensoreinheit mit einem optischen Sensor
DE102020006851A1 (de) 2020-11-09 2022-05-12 Campadejo GmbH Vorrichtung zur stückweisen Höhenmessung
DE102022116026A1 (de) 2022-06-28 2023-12-28 Blickfeld GmbH Mobiles überwachungssystem

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015085338A1 (de) * 2013-12-13 2015-06-18 Fts Computertechnik Gmbh Verfahren und vorrichtung zur beobachtung der umgebung eines fahrzeugs
US9602811B2 (en) * 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US10008028B2 (en) * 2015-12-16 2018-06-26 Aquifi, Inc. 3D scanning apparatus including scanning sensor detachable from screen
US10845188B2 (en) * 2016-01-05 2020-11-24 Microsoft Technology Licensing, Llc Motion capture from a mobile self-tracking device
US10838062B2 (en) * 2016-05-24 2020-11-17 Veoneer Us, Inc. Direct detection LiDAR system and method with pulse amplitude modulation (AM) transmitter and quadrature receiver
US10416292B2 (en) 2016-05-24 2019-09-17 Veoneer Us, Inc. Direct detection LiDAR system and method with frequency modulation (FM) transmitter and quadrature receiver
US10473784B2 (en) 2016-05-24 2019-11-12 Veoneer Us, Inc. Direct detection LiDAR system and method with step frequency modulation (FM) pulse-burst envelope modulation transmission and quadrature demodulation
CA3064626A1 (en) * 2016-07-13 2018-01-18 Crosswing Inc. Mobile robot with tri-axle base module
US10120100B2 (en) * 2016-09-08 2018-11-06 Rohde & Schwarz Gmbh & Co. Kg Body scanner system and method for scanning a person
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10866320B2 (en) * 2017-01-13 2020-12-15 Faro Technologies, Inc. Remote control of a laser tracker using a mobile computing device
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
US10613200B2 (en) 2017-09-19 2020-04-07 Veoneer, Inc. Scanning lidar system and method
US10838043B2 (en) 2017-11-15 2020-11-17 Veoneer Us, Inc. Scanning LiDAR system and method with spatial filtering for reduction of ambient light
US11460550B2 (en) 2017-09-19 2022-10-04 Veoneer Us, Llc Direct detection LiDAR system and method with synthetic doppler processing
US11194022B2 (en) 2017-09-29 2021-12-07 Veoneer Us, Inc. Detection system with reflection member and offset detection array
US10684370B2 (en) 2017-09-29 2020-06-16 Veoneer Us, Inc. Multifunction vehicle detection system
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US11585901B2 (en) 2017-11-15 2023-02-21 Veoneer Us, Llc Scanning lidar system and method with spatial filtering for reduction of ambient light
US11145116B2 (en) * 2017-11-21 2021-10-12 Faro Technologies, Inc. System and method of scanning an environment and generating two dimensional images of the environment
WO2019101986A1 (en) * 2017-11-27 2019-05-31 Cemb S.P.A. Method and apparatus for measuring the dimensions and characteristic angles of wheels, steering system and chassis of vehicles
US11501224B2 (en) * 2018-01-24 2022-11-15 Andersen Corporation Project management system with client interaction
US10782118B2 (en) 2018-02-21 2020-09-22 Faro Technologies, Inc. Laser scanner with photogrammetry shadow filling
US10830889B2 (en) * 2018-05-02 2020-11-10 Faro Technologies, Inc. System measuring 3D coordinates and method thereof
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
JP7120723B2 (ja) * 2018-08-03 2022-08-17 株式会社トプコン レーザスキャナシステム
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
US10819883B2 (en) * 2019-03-18 2020-10-27 Faro Technologies, Inc. Wearable scanning device for generating floorplan
US11002529B2 (en) * 2018-08-16 2021-05-11 Mitutoyo Corporation Robot system with supplementary metrology position determination system
US11745354B2 (en) 2018-08-16 2023-09-05 Mitutoyo Corporation Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot
US11544870B2 (en) 2018-08-30 2023-01-03 Hunter Engineering Company System and method for verification of vehicle service target positioning
US11145084B2 (en) 2018-08-30 2021-10-12 Hunter Engineering Company Method and apparatus for guiding placement of ADAS fixtures during vehicle inspection and service
US11763486B2 (en) 2018-08-30 2023-09-19 Hunter Engineering Company Method and apparatus for placement of ADAS fixtures during vehicle inspection and service
US11692811B2 (en) 2018-10-08 2023-07-04 Faro Technologies, Inc. System and method of defining a path and scanning an environment
US10914569B2 (en) * 2018-10-08 2021-02-09 Faro Technologies, Inc. System and method of defining a path and scanning an environment
US10989532B2 (en) 2018-10-08 2021-04-27 Faro Technologies, Inc. System and method of defining a path and scanning an environment
GB2578289A (en) * 2018-10-15 2020-05-06 Q Bot Ltd Sensor apparatus
JP7130544B2 (ja) * 2018-12-20 2022-09-05 三星電子株式会社 3次元情報算出装置、3次元計測装置、3次元情報算出方法及び3次元情報算出プログラム
JP7181790B2 (ja) * 2018-12-28 2022-12-01 株式会社キーエンス レーザ加工装置
US11293748B2 (en) 2019-03-07 2022-04-05 Faro Technologies, Inc. System and method for measuring three-dimensional coordinates
US10955236B2 (en) 2019-04-05 2021-03-23 Faro Technologies, Inc. Three-dimensional measuring system
US20200318946A1 (en) * 2019-04-05 2020-10-08 Faro Technologies, Inc. Three-dimensional measuring system
US11624833B2 (en) * 2019-05-29 2023-04-11 Faro Technologies, Inc. System and method for automatically generating scan locations for performing a scan of an environment
US11538188B1 (en) * 2019-06-05 2022-12-27 Hunter Engineering Company Methods for spatial calibration of vehicle ADAS service system
US11579257B2 (en) 2019-07-15 2023-02-14 Veoneer Us, Llc Scanning LiDAR system and method with unitary optical element
US11474218B2 (en) 2019-07-15 2022-10-18 Veoneer Us, Llc Scanning LiDAR system and method with unitary optical element
JP7311342B2 (ja) * 2019-07-18 2023-07-19 株式会社トプコン 3次元測量装置、3次元測量方法および3次元測量プログラム
EP4018409A4 (de) 2019-08-20 2023-12-20 Lightyx Systems Ltd. System und verfahren zur positionierung eines laserprojektionssystems
US11313969B2 (en) 2019-10-28 2022-04-26 Veoneer Us, Inc. LiDAR homodyne transceiver using pulse-position modulation
EP3827719B1 (de) * 2019-11-28 2024-03-13 poresta systems GmbH Einbauprotokollerstellungseinrichtung
US11943539B2 (en) 2019-12-30 2024-03-26 Matterport, Inc. Systems and methods for capturing and generating panoramic three-dimensional models and images
CA3165230A1 (en) * 2019-12-30 2021-07-08 Matterport, Inc. System and method of capturing and generating panoramic three-dimensional images
US20210237264A1 (en) * 2020-02-03 2021-08-05 Eli Altaras Method and devices for a smart tripod
US11810160B1 (en) * 2020-03-27 2023-11-07 United Services Automobile Association Building mapping tools
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN114076934A (zh) * 2020-08-12 2022-02-22 三赢科技(深圳)有限公司 校准设备及深度相机的校准方法
US12000689B2 (en) 2020-08-17 2024-06-04 Faro Technologies, Inc. Environmental scanning and image reconstruction thereof
US20220281500A1 (en) * 2021-03-08 2022-09-08 Faro Technologies, Inc. Support device for metrology instruments
US11326758B1 (en) 2021-03-12 2022-05-10 Veoneer Us, Inc. Spotlight illumination system using optical element
US20220318540A1 (en) * 2021-04-02 2022-10-06 Faro Technologies, Inc. Automated update of object-models in geometrical digital representation
US20220392091A1 (en) * 2021-06-02 2022-12-08 Faro Technologies, Inc. Automated update of geometrical digital representation
US11732858B2 (en) 2021-06-18 2023-08-22 Veoneer Us, Llc Headlight illumination system using optical element

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013103725A1 (en) 2012-01-03 2013-07-11 Ascentia Imaging, Inc. Coded localization systems, methods and apparatus

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6681145B1 (en) * 1996-06-06 2004-01-20 The Boeing Company Method for improving the accuracy of machines
CA2278108C (en) 1999-07-20 2008-01-29 The University Of Western Ontario Three-dimensional measurement method and apparatus
US7101045B2 (en) * 2001-03-23 2006-09-05 Panavision Inc. Automatic pan and tilt compensation system for a camera support structure
EP1522051B1 (de) 2002-06-12 2006-12-06 Spatial Integrated Systems, Inc. Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells
EP1556823B1 (de) 2002-07-10 2020-01-01 Harman Becker Automotive Systems GmbH System zur erzeugung dreidimensionaler elektronischer modelle von objekten
US7069124B1 (en) 2002-10-28 2006-06-27 Workhorse Technologies, Llc Robotic modeling of voids
TWI232913B (en) * 2003-03-27 2005-05-21 Akebono Brake Ind Brake operating apparatus
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
DE202006005643U1 (de) 2006-03-31 2006-07-06 Faro Technologies Inc., Lake Mary Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US20100023757A1 (en) * 2008-07-22 2010-01-28 Winmagic Data Security Methods and systems for sending secure electronic data
US8448958B2 (en) * 2009-03-17 2013-05-28 Allied Forward Motion LLC Collapsible dolly
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009015922B4 (de) 2009-03-25 2016-12-15 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Szene
DE102009035336B3 (de) 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009035337A1 (de) 2009-07-22 2011-01-27 Faro Technologies, Inc., Lake Mary Verfahren zum optischen Abtasten und Vermessen eines Objekts
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
DE102009055988B3 (de) 2009-11-20 2011-03-17 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009055989B4 (de) 2009-11-20 2017-02-16 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
DE102010032726B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032725B4 (de) 2010-07-26 2012-04-26 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032723B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010033561B3 (de) 2010-07-29 2011-12-15 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
WO2012084027A1 (en) * 2010-12-22 2012-06-28 Nokia Siemens Networks Oy Optical network component and method for processing data in an optical network
US8811767B2 (en) 2011-03-15 2014-08-19 Mitsubishi Electric Research Laboratories, Inc. Structured light for 3D shape reconstruction subject to global illumination
US9686532B2 (en) * 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
GB201116961D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Fast calibration for lidars
US9010326B2 (en) * 2012-08-02 2015-04-21 Covidien Lp Compressible connector for an inner cannula
DE102012107544B3 (de) 2012-08-17 2013-05-23 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112013004369T5 (de) 2012-09-06 2015-06-11 Faro Technologies, Inc. Laserscanner mit zusätzlicher Erfassungsvorrichtung
GB2522142A (en) 2012-09-14 2015-07-15 Faro Tech Inc Laser scanner with dynamical adjustment of angular scan velocity
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE202012104890U1 (de) 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321B4 (de) 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
GB201303076D0 (en) 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US20140300906A1 (en) 2013-03-13 2014-10-09 Faro Technologies, Inc. Laser scanner with cellular transceiver communication
DE102013110580B4 (de) 2013-09-24 2024-05-23 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Szene und Laserscanner, ausgebildet zur Durchführung des Verfahrens
DE102013110581B4 (de) 2013-09-24 2018-10-11 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu
DE102014104712B4 (de) 2014-04-02 2020-07-30 Faro Technologies, Inc. Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
WO2016007940A1 (en) * 2014-07-11 2016-01-14 Dematic Corp. Picking station with automated warehouse
US9392398B2 (en) * 2014-09-30 2016-07-12 Apple Inc. Wireless proximity pairing of user-interface devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013103725A1 (en) 2012-01-03 2013-07-11 Ascentia Imaging, Inc. Coded localization systems, methods and apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
„Mathematical Models in Computer Vision: The Handbook" von N. Paragios, Y. Chen und O. Faugeras (Hrsg.), Kapitel 15, Springer 2005, S. 239–258
Censi, A.: „An ICP variant using a point-to-line metric", IEEE International Conference on Robotics and Automatics (ICRA) 2008
Dowski, Jr., et al.

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018211517A1 (de) * 2018-07-11 2019-08-14 Carl Zeiss Automated Inspection GmbH Verfahren zur Einbindung einer Sensoreinheit mit einem optischen Sensor in ein Netzwerk und eine Sensoreinheit mit einem optischen Sensor
DE102020006851A1 (de) 2020-11-09 2022-05-12 Campadejo GmbH Vorrichtung zur stückweisen Höhenmessung
DE102022116026A1 (de) 2022-06-28 2023-12-28 Blickfeld GmbH Mobiles überwachungssystem

Also Published As

Publication number Publication date
US20160291160A1 (en) 2016-10-06
US20190137627A1 (en) 2019-05-09
US10175360B2 (en) 2019-01-08

Similar Documents

Publication Publication Date Title
DE102016105858A1 (de) Mobiles dreidimensionales Messinstrument
DE112016002057T5 (de) Dreidimensionales messgerät, lösbar verkoppelt mit einem roboterarm auf einer motorisierten mobilen plattform
EP3659001B1 (de) Magnetometer für die roboternavigation
US9618620B2 (en) Using depth-camera images to speed registration of three-dimensional scans
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
EP2918972A2 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP3486870A1 (de) System zur oberflächenanalyse und verfahren dafür
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE102017214377A1 (de) Verwendung eines zweidimensionalen scanners zum beschleunigen der registrierung von dreidimensionalen scan-daten
EP2698602A1 (de) Handhaltbares Entfernungsmessgerät mit Winkelbestimmungseinheit
WO2020119912A1 (de) Vermessungsverfahren, messsysteme und messhilfsinstrumente
DE112011102995T5 (de) Laserscanner oder Lasernachführungsgerät mit einem Projektor
DE60118711T2 (de) Entfernungsmessgerät zur kartierung eines zwei- oder dreidimensionalen volumens
DE102017218212A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
DE102017218281A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
US20180335521A1 (en) Floor Surveying System
EP2952024A2 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
DE102019120702A1 (de) Gestell für zumindest eine Scaneinrichtung und Raumerfassungsvorrichtung mit zumindest einer Scaneinrichtung
US20220414915A1 (en) Reality capture device
EP2607841A2 (de) Optisches System
Häselich et al. Calibration of multiple cameras to a 3D laser range finder
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
DE102020101751A1 (de) Messung von dreidimensonalen koordinaten unter verwendungeiner unbemannten flugdrohne
WO2020229662A1 (de) Verfahren zum koppeln von koordinatensystemen und computergestütztes system

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee