DE102016118562A1 - Dreidimensionales bildgerät, das eine dichroitische kamera umfasst - Google Patents

Dreidimensionales bildgerät, das eine dichroitische kamera umfasst Download PDF

Info

Publication number
DE102016118562A1
DE102016118562A1 DE102016118562.0A DE102016118562A DE102016118562A1 DE 102016118562 A1 DE102016118562 A1 DE 102016118562A1 DE 102016118562 A DE102016118562 A DE 102016118562A DE 102016118562 A1 DE102016118562 A1 DE 102016118562A1
Authority
DE
Germany
Prior art keywords
camera
measuring
rotating
projector
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016118562.0A
Other languages
English (en)
Inventor
Matthias Wolke
Denis WOHLFELD
Rolf Heidemann
Robert E. Bridges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US62/234,869 priority Critical
Priority to US201562234973P priority
Priority to US201562234951P priority
Priority to US201562234796P priority
Priority to US201562234914P priority
Priority to US201562234987P priority
Priority to US201562234739P priority
Priority to US201562234869P priority
Priority to US201562235011P priority
Priority to US62/234,973 priority
Priority to US62/234,796 priority
Priority to US62/234,914 priority
Priority to US62/234,739 priority
Priority to US62/234,951 priority
Priority to US62/234,987 priority
Priority to US62/235,011 priority
Priority to US15/268,749 priority patent/US20170094251A1/en
Priority to US15/268,749 priority
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE102016118562A1 publication Critical patent/DE102016118562A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical means
    • G01B11/02Measuring arrangements characterised by the use of optical means for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical means for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

Ein dreidimensionales Messsystem umfasst einen Körper, einen internen Projektor, der an dem Körper angebracht ist, und einen dichroitischen Kameraaufbau, wobei der dichroitische Kameraaufbau einen ersten Strahlenteiler umfasst, der einen ersten Teil von einfallendem Licht in einen ersten Kanal lenkt, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal lenkt, der zu einer zweiten lichtempfindlichen Matrix führt.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Vorteil der vorläufigen US-Patentanmeldung Nr. 62/234,739, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,796, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,869, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,914, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,951, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,973, eingereicht am 30. September 2015, der vorläufigen US-Patentanmeldung Nr. 62/234,987, eingereicht am 30. September 2015, und der vorläufigen US-Patentanmeldung Nr. 62/235,011, eingereicht am 30. September 2015, deren gesamter Inhalt hier durch Bezugnahme aufgenommen ist.
  • GEBIET DER ERFINDUNG
  • Der hier offenbarte Gegenstand betrifft im Allgemeinen Vorrichtungen wie dreidimensionale (3D-)Bildgeräte und Stereokameras, die Triangulation einsetzen, um 3D-Koordinaten zu bestimmen.
  • HINTERGRUND DER ERFINDUNG
  • Dreidimensionale Bildgeräte und Stereokameras verwenden ein Triangulationsverfahren, um die 3D-Koordinaten von Punkten auf einem Objekt zu messen. Ein 3D-Bildgerät umfasst normalerweise einen Projektor, der entweder ein Lichtmuster als eine Linie oder ein Lichtmuster, das einen Bereich abdeckt, auf eine Oberfläche des Objekts projiziert. Eine Kamera ist in fester Beziehung an den Projektor gekoppelt. Das aus dem Projektor ausgestrahlte Licht wird von der Objektoberfläche reflektiert und von der Kamera erkannt. Es wird eine Übereinstimmung zwischen Punkten auf einer Projektorebene und Punkten auf einer Kameraebene bestimmt. Da die Kamera und der Projektor in einer festen Beziehung angeordnet sind, kann der Abstand zum Objekt unter Verwendung von trigonometrischen Prinzipien bestimmt werden. Eine Übereinstimmung zwischen Punkten, die von zwei Stereokameras beobachtet werden, kann ebenfalls mit einem Triangulationsverfahren verwendet werden, um 3D-Koordinaten zu bestimmen. Verglichen mit Koordinatenmessvorrichtungen, die Tastsonden verwenden, bieten Triangulationssysteme Vorteile dahingehend, dass Koordinatendaten über einen großen Bereich schnell erfasst werden. Wie der Begriff hier verwendet wird, wird die resultierende Sammlung von 3D-Koordinatenwerten oder Datenpunkten des durch das Triangulationssystem gemessenen Objekts als Punkt-Clouddaten oder einfach als Punktcloud bezeichnet.
  • Es gibt eine Reihe von Bereichen, bei denen bestehende Triangulationsvorrichtungen verbessert werden können: das Kombinieren von 3D- und Farbinformationen, das Erfassen von 3D- und Bewegungsinformationen aus mehreren Perspektiven und über ein weites Gesichtsfeld, das Kalibrieren und Kompensieren von 3D-Bildgeräten und das Angleichen von 3D-Bildgeräten.
  • Demnach verbleibt, auch wenn bestehende, auf Triangulation basierende 3D-Bildgerätvorrichtungen, die Photogrammetrieverfahren verwenden, für ihren Verwendungszweck geeignet sind, immer noch Verbesserungsbedarf.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Nach einer Ausführungsform der vorliegenden Erfindung umfasst ein dreidimensionales (3D-)Messsystem Folgendes: einen Körper; einen internen Projektor, der fest an dem Körper angebracht ist, wobei der interne Projektor dafür ausgelegt ist, ein beleuchtetes Lichtmuster auf ein Objekt zu projizieren; und einen ersten dichroitischen Kameraaufbau, der fest an dem Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der erste dichroitische Kameraaufbau eine erste Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem beleuchteten Muster, dem zweiten Kanalbild und der ersten Pose zu bestimmen.
  • Diese und andere Vorteile und Merkmale werden durch die folgende Beschreibung im Zusammenhang mit den Zeichnungen klarer.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Beschreibung besonders herausgestrichen und ausdrücklich beansprucht. Die obigen und andere Merkmale und Vorteile der Erfindung werden aus der folgenden detaillierten Beschreibung im Zusammenhang mit den beigefügten Zeichnungen deutlich, wobei
  • die 1A und 1B schematische Darstellungen eines 3D-Bildgeräts bzw. eines Paars von Stereokameras gemäß einer Ausführungsform sind;
  • 1C eine schematische Darstellung eines Projektors ist, der ein optisches Beugungselement umfasst, um ein projiziertes Lichtmuster gemäß einer Ausführungsform zu erzeugen;
  • 2 eine schematische Darstellung eines 3D-Bildgeräts mit zwei Kameras und einem Projektor gemäß einer Ausführungsform ist;
  • 3 eine Perspektivansicht eines 3D-Bildgeräts mit zwei Kameras und einem Projektor gemäß einer Ausführungsform ist;
  • die 4A und 4B eine Epipolargeometrie für zwei Bezugsebenen bzw. drei Bezugsebenen gemäß einer Ausführungsform zeigen;
  • die 5A und 5B zwei Implementierungen eines dichroitischen Kameraaufbaus mit zwei Sensoren gemäß Ausführungsformen zeigen;
  • 6A ein Blockdiagramm eines 3D-Bildgeräts mit einer dichroitischen Zwei-Sensor-Kamera gemäß einer Ausführungsform ist;
  • 6B ein Blockdiagramm eines Stereokameraaufbaus mit einer Vielzahl von dichroitischen Zwei-Sensor-Kameras gemäß einer Ausführungsform ist;
  • 7A ein Blockdiagramm eines 3D-Bildgeräts mit einer dichroitischen Zwei-Sensor-Kamera und einem zusätzlichen Projektor gemäß einer Ausführungsform ist;
  • 7B ein Blockdiagramm eines 3D-Bildgeräts ist, das zwei dichroitische Zwei-Sensor-Kameras gemäß einer Ausführungsform umfasst;
  • 8A ein Blockdiagramm eines 3D-Bildgeräts mit einer dichroitischen Zwei-Sensor-Kamera ist, die in Kombination mit einem externen Projektor gemäß einer Ausführungsform verwendet wird;
  • 8B ein Blockdiagramm eines 3D-Bildgeräts mit zwei dichroitischen Zwei-Sensor-Kameras ist, die in Kombination mit einem internen Projektor und einem externen Projektor verwendet werden;
  • 9 eine Perspektivansicht einer 3D-Messvorrichtung ist, die dazu gedacht ist, die generische Kategorie von 3D-Bildgeräten und Stereokameras darzustellen, die mindestens eine dichroitische Zwei-Sensor-Kamera gemäß einer Ausführungsform umfassen;
  • die 10A und 10B perspektivische Zeichnungen sind, die einen externen Projektor gemäß einer Ausführungsform zeigen, der bei der Angleichung einer generischen 3D-Bildgerätvorrichtung hilft, die sich in einer ersten Position bzw. einer zweiten Position befindet;
  • 11 einen externen Projektor gemäß einer Ausführungsform zeigt, der bei der Angleichung einer generischen 3D-Bildgerätvorrichtung hilft, die von einem mobilen Roboterarm getragen wird;
  • 12A ein Blockdiagramm eines 3D-Bildgeräts mit getrenntem Projektor und dichroitischer Zwei-Sensor-Kamera gemäß einer Ausführungsform ist;
  • 12B ein Blockdiagramm eines Stereokameraaufbaus mit zwei getrennten dichroitischen Zwei-Sensor-Kameras gemäß einer Ausführungsform ist;
  • 12C ein Blockdiagramm eines 3D-Bildgeräts mit jeweils getrenntem/getrennter Triangulations-Projektor, dichroitischer Zwei-Sensor-Kamera und zusätzlichen Projektor gemäß einer Ausführungsform ist;
  • 12D ein Blockdiagramm eines 3D-Bildgeräts mit zwei getrennten dichroitischen Zwei-Sensor-Kameras und einem getrennten Projektor gemäß einer Ausführungsform ist;
  • 13 das Erfassen von 3D-Koordinaten eines sich bewegenden Objekts durch mehrere dichroitische Zwei-Sensor-Kameras veranschaulicht, die in Kombination mit mehreren Projektoren gemäß einer Ausführungsform verwendet werden;
  • 14 das Erfassen von 3D-Koordinaten eines sich bewegenden Objekts durch mehrere sich drehende dichroitische Zwei-Sensor-Kameras veranschaulicht, die in Kombination mit mehreren sich drehenden Projektoren gemäß einer Ausführungsform verwendet werden;
  • 15 eine Perspektivansicht einer sich drehenden Kamera gemäß einer Ausführungsform ist, die auf einem motorisierten Ständer montiert ist;
  • 16 das Erhalten von 3D-Koordinaten durch Verfolgen eines sich bewegenden Objekts mit zwei sich drehenden dichroitischen Zwei-Sensor-Kameras veranschaulicht, die in Kombination mit einem sich drehenden Projektor gemäß einer Ausführungsform verwendet werden;
  • 17A ein Verfahren zum Kalibrieren/Kompensieren von zwei drehbaren Stereokameras unter Verwendung eines auf einem motorisierten Ständer montierten Kalibrierungsziels gemäß einer Ausführungsform veranschaulicht;
  • 17B ein Verfahren zum Kalibrieren/Kompensieren eines 3D-Bildgeräts veranschaulicht, das eine drehbare Stereokamera in Kombination mit einem drehbaren Projektor umfasst, wobei das Kalibrieren/Kompensieren mit einem auf einem motorisierten Ständer montierten Kalibrierungsziel gemäß einer Ausführungsform durchgeführt wird;
  • 17C ein Verfahren zum Kalibrieren/Kompensieren eines 3D-Bildgeräts veranschaulicht, das zwei drehbare Stereokameras in Kombination mit einem drehbaren Projektor umfasst, wobei das Kalibrieren/Kompensieren mit einem auf einem motorisierten Ständer montierten Kalibrierungsziel gemäß einer Ausführungsform durchgeführt wird;
  • die 18A und 18B ein Verfahren zum Kalibrieren/Kompensieren eines 3D-Bildgeräts veranschaulichen, das zwei drehbare Stereokameras umfasst, das mit einem fest montierten Kalibrierungsziel gemäß einer Ausführungsform durchgeführt wird;
  • 19 ein Verfahren zum Kalibrieren/Kompensieren von zwei auf motorisierten Ständern montierten drehbaren Kameras durch Messen von in Bezug auf jede der Kameras fixierten Zielen gemäß einer Ausführungsform veranschaulicht;
  • 20 ein Verfahren zum Kalibrieren/Kompensieren von zwei drehbaren Kameras durch Messen von Zielen, die sich auf einer Stange befinden und von einem mobilen Roboterarm bewegt werden, gemäß einer Ausführungsform veranschaulicht;
  • 21A die Ausbreitung von Lichtstrahlen durch eine Kameralinsen-Eintritts- und eine Kameralinsen-Austrittspupille auf eine lichtempfindliche Matrix veranschaulicht;
  • 21B ein vereinfachtes Modell veranschaulicht, das die Ausbreitung von Lichtstrahlen durch ein Perspektivitätszentrum veranschaulicht;
  • die 22A und 22B ein Verfahren zur gemeinsamen Verwendung von Videogrammetrie und Musterprojektion veranschaulichen, um 3D-Koordinaten von Objekten gemäß einer Ausführungsform zu bestimmen;
  • 23 ein Verfahren zur Erfassung von 3D-Koordinaten eines sich bewegenden Objekts aus einer Vielfalt von verschiedenen Perspektiven gemäß einer Ausführungsform veranschaulicht;
  • 24 eine Perspektivansicht eines generischen 3D-Bildgeräts ist, das ferner mehrere Deckungsziele gemäß einer Ausführungsform umfasst;
  • 25A ein Verfahren zum Bestimmen der Pose des generischen 3D-Bildgeräts unter Verwendung von zwei sich drehenden Kameras gemäß einer Ausführungsform veranschaulicht;
  • 25B eine Perspektivansicht eines generischen 3D-Handbildgeräts gemäß einer Ausführungsform ist;
  • 26A die Projektion eines groben Sinuswellenmusters gemäß einer Ausführungsform veranschaulicht;
  • 26B den Empfang des groben Sinuswellenmusters durch eine Kameralinse gemäß einer Ausführungsform veranschaulicht;
  • 26C die Projektion eines feineren Sinuswellenmusters gemäß einer Ausführungsform veranschaulicht;
  • 26D den Empfang des feineren Sinuswellenmusters gemäß einer Ausführungsform veranschaulicht;
  • 27 veranschaulicht, wie die Phase von einem Satz von verschobenen Sinuswellen gemäß einer Ausführungsform bestimmt wird;
  • 28A eine Perspektivansicht einer Handtastsonde ist, die 3D-Koordinaten einer Objektoberfläche durch Verfolgen von Sondenzielen durch zwei drehbare Kameras gemäß einer Ausführungsform misst;
  • 28B eine Perspektivansicht eines Handlaserlinienscanners ist, der 3D-Koordinaten einer Objektoberfläche durch Verfolgen von Sondenzielen durch zwei drehbare Kameras gemäß einer Ausführungsform misst;
  • 28C eine Perspektivansicht einer Handtastsonde und eines Laserlinienscanners ist, die 3D-Koordinaten einer Objektoberfläche durch Verfolgen von Sondenzielen durch zwei drehbare Kameras gemäß einer Ausführungsform messen;
  • 29 das Prinzip des Betriebs eines Laserlinienscanners gemäß einer Ausführungsform veranschaulicht;
  • 30 eine Perspektivansicht einer Handtastsonde ist, die 3D-Koordinaten einer Objektoberfläche durch Verfolgen von Sondenzielen durch zwei drehbare Kameras und einen Projektor gemäß einer Ausführungsform misst;
  • 31 eine Perspektivansicht eines Systems zum Messen von 3D-Koordinaten einer Objektoberfläche durch Projizieren und Abbilden von Licht von einer sich drehenden Kombination aus Kamera und Projektor und auch Abbilden des Lichts durch eine sich drehende Kamera gemäß einer Ausführungsform ist;
  • 32 eine schematische Veranschaulichung von Kameras und Projektoren gemäß einer Ausführungsform ist, die ein feines Muster messen, um ihre Drehwinkel zu bestimmen; und
  • 33 ein Blockdiagramm eines Rechensystems gemäß einer Ausführungsform ist.
  • Die ausführliche Beschreibung erklärt beispielhaft Ausführungsformen der Erfindung zusammen mit Vorteilen und Merkmalen unter Bezugnahme auf die Zeichnungen.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Ausführungsformen der vorliegenden Erfindung bieten Vorteile beim Kombinieren von 3D- und Farbinformationen, beim Erfassen von 3D- und Bewegungsinformationen aus mehreren Perspektiven und über ein weites Gesichtsfeld, beim Kalibrieren/Kompensieren von 3D-Bildgeräten und beim in Deckung bringen von 3D-Bildgeräten.
  • 1A zeigt einen Triangulationsscanner (3D-Bildgerät) 100A, der ein Lichtmuster über einen Bereich auf einer Oberfläche 130A projiziert. Eine weitere Bezeichnung für einen Streifenlicht-Triangulationsscanner ist ein 3D-Bildgerät. Der Scanner 100A, der ein Bezugssystem 160A aufweist, umfasst einen Projektor 110A und eine Kamera 120A. In einer Ausführungsform umfasst der Projektor 110A einen beleuchteten Projektormustergenerator 112A, eine Projektorlinse 114A und ein Perspektivitätszentrum 118A, durch welches ein Lichtstrahl 111A austritt. Der Lichtstrahl 111A tritt von einem korrigierten Punkt 116A mit einer korrigierten Position auf dem Mustergenerator 112A aus. In einer Ausführungsform wurde der Punkt 116A korrigiert, um Abweichungen des Projektors zu berücksichtigen, einschließlich Abweichungen der Linse 114A, um zu bewirken, dass der Strahl durch das Perspektivitätszentrum 118A hindurchgeht, um dadurch Triangulationsberechnungen zu vereinfachen.
  • In einer alternativen Ausführungsform, die in 1C gezeigt ist, umfasst der Projektor eine Lichtquelle 113C und ein optisches Beugungselement 115C.
  • Die Lichtquelle gibt ein Lichtstrahlenbündel 117C aus, das zum Beispiel ein kollimiertes Laserlichtstrahlenbündel sein kann. Das Licht 117C geht durch das optische Beugungselement 115C hindurch, wodurch das Licht in ein divergierendes Lichtmuster 119C gebeugt wird. In einer Ausführungsform umfasst das Muster eine Sammlung von beleuchteten Elementen, die in zwei Dimensionen projiziert werden. In einer Ausführungsform umfasst das Muster ein zweidimensionales Bildpunktgitter, wobei jeder der Bildpunkte im Wesentlichen der gleiche ist wie die anderen projizierten Bildpunkte, außer was ihre Ausbreitungsrichtung angeht. In einer anderen Ausführungsform sind die projizierten Bildpunkte nicht identisch. Zum Beispiel kann das optische Beugungselement dafür ausgelegt sein, einige Bildpunkte zu erzeugen, die heller sind als andere. Einer der projizierten Lichtstrahlen 111C hat einen Winkel, der dem Winkel a in 1A entspricht.
  • Der Lichtstrahl 111A schneidet die Oberfläche 130A an einem Punkt 132A, der von der Oberfläche reflektiert (gestreut) und durch die Kameralinse 124A gesendet wird, um ein klares Bild des Musters auf der Oberfläche 130A auf der Oberfläche einer lichtempfindlichen Matrix 122A zu schaffen. Das Licht vom Punkt 132A geht in einem Strahl 121A durch das Kameraperspektivitätszentrum 128A hindurch, um einen Bildpunkt an dem korrigierten Punkt 126A zu bilden. Die Position des Bildpunktes wird mathematisch eingestellt, um Abweichungen der Kameralinse zu korrigieren. Eine Übereinstimmung zwischen dem Punkt 126A auf der lichtempfindlichen Matrix 122A und dem Punkt 116A auf dem beleuchteten Projektormustergenerator 112A wird erhalten. Wie hier nachstehend erklärt wird, kann die Übereinstimmung durch Verwendung eines codierten oder eines nicht codierten Musters von projiziertem Licht erhalten werden. In manchen Fällen kann das Lichtmuster sequentiell projiziert werden. Sobald die Übereinstimmung bekannt ist, können die Winkel a und b in 1A bestimmt werden. Die Grundlinie 140A, die ein zwischen den Perspektivitätszentren 118A und 128A gezeichnetes Liniensegment ist, hat eine Länge C. Unter Kenntnis der Winkel a, b und der Länge C können alle Winkel und Seitenlängen des Dreiecks 128A-132A-118A bestimmt werden. Digitale Bildinformationen werden an einen Prozessor 150A übertragen, der 3D-Koordinaten der Oberfläche 130A bestimmt. Der Prozessor 150A kann auch den beleuchteten Mustergenerator 112A anweisen, ein passendes Muster zu erzeugen. Der Prozessor 150A kann sich innerhalb des Scanneraufbaus befinden, oder er kann sich in einem externen Computer oder einem entfernten Server befinden, wie es hier nachstehend mit Bezug auf 33 besprochen wird.
  • 1B zeigt eine Stereokamera 100B, die ein Lichtmuster von einem Bereich auf einer Oberfläche 130B empfängt. Die Stereokamera 100B, die ein Bezugssystem 160B aufweist, umfasst eine erste Kamera 120B und eine zweite Kamera 170B. Die erste Kamera 120B umfasst eine erste Kameralinse 124B und eine erste lichtempfindliche Matrix 122B. Die erste Kamera 120B hat ein erstes Kameraperspektivitätszentrum 128B, durch welches ein Lichtstrahl 121B von einem Punkt 132B auf der Oberfläche 130B als ein korrigierter Bildpunkt 126B auf die erste lichtempfindliche Matrix 122B hindurchgeht. Die Position des Bildpunktes wird mathematisch eingestellt, um Abweichungen der Kameralinse zu korrigieren.
  • Die zweite Kamera 170B umfasst eine zweite Kameralinse 174B und eine zweite lichtempfindliche Matrix 172B. Die zweite Kamera 170B hat ein zweites Kameraperspektivitätszentrum 178B, durch welches ein Lichtstrahl 171B von dem Punkt 132B als ein korrigierter Bildpunkt 176B auf die zweite lichtempfindliche Matrix 172B hindurchgeht. Die Position des Bildpunktes wird mathematisch eingestellt, um Abweichungen der Kameralinse zu korrigieren.
  • Eine Übereinstimmung wird zwischen dem Punkt 126B auf der ersten lichtempfindlichen Matrix 122B und dem Punkt 176B auf der zweiten lichtempfindlichen Matrix 172B erhalten. Wie hier nachstehend erklärt wird, kann die Übereinstimmung zum Beispiel unter Verwendung von „aktiver Triangulation” basierend auf projizierten Mustern oder Bildmarken oder basierend auf „passiver Triangulation” erhalten werden, wobei natürliche Merkmale auf jedem der Kamerabilder angepasst werden. Sobald die Übereinstimmung bekannt ist, können die Winkel a und b in 1B bestimmt werden. Die Grundlinie 140B, die ein zwischen den Perspektivitätszentren 128B und 178B gezeichnetes Liniensegment ist, hat eine Länge C. Unter Kenntnis der Winkel a, b und der Länge C können alle Winkel und Seitenlängen des Dreiecks 128B-132B-178B bestimmt werden. Digitale Bildinformationen werden an einen Prozessor 150B übertragen, der 3D-Koordinaten der Oberfläche 130B bestimmt. Der Prozessor 150B kann sich innerhalb des Stereokameraaufbaus befinden, oder er kann sich in einem externen Computer oder einem entfernten Server befinden, wie es hier nachstehend mit Bezug auf 33 besprochen wird.
  • 2 zeigt einen Streifenlicht-Triangulationsscanner 200 mit einem Projektor 250, einer ersten Kamera 210 und einer zweiten Kamera 230. Der Projektor 250 schafft ein Lichtmuster auf einer Mustergeneratorebene 252, das er von einem korrigierten Punkt 253 auf dem Muster durch ein Perspektivitätszentrum 258 (Punkt D) der Linse 254 auf eine Objektoberfläche 270 an einem Punkt 272 (Punkt F) projiziert. Der Punkt 272 wird von der ersten Kamera 210 durch Empfangen eines Lichtstrahls vom Punkt 272 durch ein Perspektivitätszentrum 218 (Punkt E) einer Linse 214 auf die Oberfläche einer lichtempfindlichen Matrix 212 der Kamera als ein korrigierter Punkt 220 abgebildet. Der Punkt 220 wird in den Auslesedaten durch Anwenden eines Korrekturfaktors korrigiert, um die Wirkungen von Linsenabweichungen zu entfernen. Der Punkt 272 wird ebenfalls von der zweiten Kamera 230 durch Empfangen eines Lichtstrahls vom Punkt 272 durch ein Perspektivitätszentrum 238 (Punkt C) der Linse 234 auf die Oberfläche einer lichtempfindlichen Matrix 232 der zweiten Kamera als ein korrigierter Punkt 235 abgebildet. Es sollte selbstverständlich sein, dass jeglicher Bezug auf eine Linse in diesem Dokument sich nicht nur auf eine individuelle Linse, sondern auf ein Linsensystem einschließlich einer Öffnung innerhalb des Linsensystems bezieht.
  • Die Einbeziehung von zwei Kameras 210 und 230 in das System 200 schafft Vorteile gegenüber der Vorrichtung aus 1A, die eine einzelne Kamera aufweist. Ein Vorteil besteht darin, dass jede der zwei Kameras eine andere Sicht des Punktes 272 (Punkt F) hat. Durch diesen Unterschied der Sichtpunkte ist es in manchen Fällen möglich, Merkmale zu sehen, die ansonsten verdeckt wären – zum Beispiel der Blick in ein Loch oder hinter eine Blockierung. Außerdem ist es bei dem System 200 von 2 möglich, drei Triangulationsberechnungen an Stelle von einer einzigen Triangulationsberechnung vorzunehmen, wodurch sich die Messgenauigkeit erhöht. Eine erste Triangulationsberechnung kann zwischen entsprechenden Punkten in den beiden Kameras unter Verwendung des Dreiecks CEF mit der Grundlinie B3 erfolgen. Eine zweite Triangulationsberechnung kann basierend auf entsprechenden Punkten der ersten Kamera und des Projektors unter Verwendung des Dreiecks DEF mit der Grundlinie B2 erfolgen. Eine dritte Triangulationsberechnung kann basierend auf entsprechenden Punkten der zweiten Kamera und des Projektors unter Verwendung des Dreiecks CDF mit der Grundlinie B1 erfolgen. Die optische Achse der ersten Kamera 220 ist 216, und die optische Achse der zweiten Kamera 230 ist 236.
  • 3 zeigt ein 3D-Bildgerät 300 mit zwei Kameras 310, 330 und einem Projektor 350, die in einem Dreieck A1-A2-A3 angeordnet sind. In einer Ausführungsform umfasst das 3D-Bildgerät 300 aus 3 ferner eine Kamera 390, die verwendet werden kann, um Farbinformationen (Texturinformationen) zur Einbringung in das 3D-Bild bereitzustellen. Außerdem kann die Kamera 390 verwendet werden, um mehrere 3D-Bilder durch Verwendung von Videogrammetrie in Deckung zu bringen.
  • Diese dreieckige Anordnung bietet zusätzliche Informationen über diejenige hinaus, die für zwei Kameras und einen Projektor verfügbar sind, die in einer geraden Linie angeordnet sind, wie in 2 veranschaulicht ist. Die zusätzlichen Informationen können mit Bezug auf 4A, die das Konzept von epipolare Einschränkungen erklärt, und von 4B verstanden werden, die erklärt, wie epipolare Einschränkungen vorteilhafterweise auf die Dreiecksanordnung des 3D-Bildgeräts 300 angewandt werden. In 4A umfasst ein 3D-Triangulationsinstrument 440 jeweils auf der linken und der rechten Seite eine Vorrichtung 1 und eine Vorrichtung 2. Die Vorrichtung 1 und die Vorrichtung 2 können zwei Kameras sein, oder die Vorrichtung 1 und die Vorrichtung 2 können eine Kamera und ein Projektor sein. Jede der beiden Vorrichtungen, ob Kamera oder Projektor, hat ein Perspektivitätszentrum, O1 und O2, und eine Bezugsebene 430 oder 410. Die Perspektivitätszentren sind durch einen Grundlinienabstand B getrennt, welcher die Länge der Linie 402 zwischen O1 und O2 ist. Das Konzept des Perspektivitätszentrums wird genauer mit Bezug auf die 21A und 21B besprochen. Die Perspektivitätszentren O1, O2 sind Punkte, bei denen man sich vorstellt, dass Lichtstrahlen durch diese wandern, und zwar entweder zu oder von einem Punkt auf einem Objekt. Diese Lichtstrahlen treten entweder aus einem beleuchteten Projektormuster aus, wie das Muster auf dem beleuchteten Projektormustergenerator 112A aus 1A, oder sie treffen auf eine lichtempfindliche Matrix, wie die lichtempfindliche Matrix 122A aus 1A. Wie in 1A zu sehen ist, liegt die Linse 114A zwischen dem beleuchteten Objektpunkt 132A und der Ebene des beleuchteten Objekt-Projektormustergenerators 112A. Ebenso liegt die Linse 124A zwischen dem beleuchteten Objektpunkt 132A bzw. der Ebene der lichtempfindlichen Matrix 122A. Das Muster der vorderen Oberflächenebenen der Vorrichtungen 112A und 122A wäre jedoch gleich, wenn sie zu passenden Positionen gegenüber den Linsen 114A bzw. 124A bewegt würden. Diese Anordnung der Bezugsebenen 430, 410 wird in 4A zur Anwendung gebracht, die die Bezugsebenen 430, 410 zwischen dem Objektpunkt und den Perspektivitätszentren O1, O2 zeigt.
  • In 4A kreuzt für die Bezugsebene 430, die zum Perspektivitätszentrum O2 abgewinkelt ist, und die Bezugsebene 410, die zum Perspektivitätszentrum O1 abgewinkelt ist, eine zwischen den Perspektivitätszentren O1 und O2 gezeichnete Linie 402 die Ebenen 430 und 410 an den Epipolpunkten E1 bzw. E2. Betrachten wir einen Punkt UD auf der Ebene 430. Falls die Vorrichtung 1 eine Kamera ist, ist bekannt, dass ein Objektpunkt, der den Punkt UD auf dem Bild erzeugt, auf der Linie 438 liegen muss. Der Objektpunkt kann zum Beispiel einer der Punkte VA, VB, VC oder VD sein. Diese vier Objektpunkte entsprechen den Punkten WA, WB, WC bzw. WD auf der Bezugsebene 410 der Vorrichtung 2. Dies gilt unabhängig davon, ob die Vorrichtung 2 eine Kamera oder ein Projektor ist. Ebenso gilt, dass die vier Punkte auf einer geraden Linie 412 in der Ebene 410 liegen. Diese Linie, welches die Schnittlinie der Bezugsebene 410 mit der Ebene O1-O2-UD ist, wird als die Epipolarlinie 412 bezeichnet. Daraus folgt, dass jede Epipolarlinie auf der Bezugsebene 410 durch den Epipol E2 hindurchgeht. Ebenso wie es eine Epipolarlinie auf der Bezugsebene der Vorrichtung 2 für jeden Punkt auf der Bezugsebene der Vorrichtung 1 gibt, gibt es auch eine Epipolarlinie 434 auf der Bezugsebene der Vorrichtung 1 für jeden Punkt auf der Bezugsebene der Vorrichtung 2.
  • 4B veranschaulicht die Epipolar-Beziehungen für ein 3D-Bildgerät 490 entsprechend dem 3D-Bildgerät 300 aus 3, wobei zwei Kameras und ein Projektor in einem Dreiecksmuster angeordnet sind. Im Allgemeinen können die Vorrichtung 1, die Vorrichtung 2 und die Vorrichtung 3 jede Kombination von Kameras und Projektoren sein, so lange zumindest eine der Vorrichtungen eine Kamera ist. Jede der drei Vorrichtungen 491, 492, 493 hat ein Perspektivitätszentrum O1, O2 bzw. O3 und eine Bezugsebene 460, 470 bzw. 480. Jedes Paar von Vorrichtungen hat ein Paar von Epipolen. Die Vorrichtung 1 und die Vorrichtung 2 haben die Epipole E12, E21 auf den Ebenen 460 bzw. 470. Die Vorrichtung 1 und die Vorrichtung 3 haben die Epipole E13 bzw. E31 auf den Ebenen 460 bzw. 480. Die Vorrichtung 2 und die Vorrichtung 3 haben die Epipole E23, E32 auf den Ebenen 470 bzw. 480. Mit anderen Worten umfasst jede Bezugsebene zwei Epipole. Die Bezugsebene für die Vorrichtung 1 umfasst die Epipole E12 und E13. Die Bezugsebene für die Vorrichtung 2 umfasst die Epipole E21 und E23. Die Bezugsebene für die Vorrichtung 3 umfasst die Epipole E31 und E32.
  • Betrachten wir die Situation aus 4B, in der die Vorrichtung 3 ein Projektor ist, die Vorrichtung 1 eine erste Kamera ist und die Vorrichtung 2 eine zweite Kamera ist. Angenommen, ein Projektionspunkt P3, ein erster Bildpunkt P1 und ein zweiter Bildpunkt P2 werden bei einer Messung erhalten. Diese Ergebnisse können auf folgende Weise auf ihre Konsistenz überprüft werden.
  • Um die Konsistenz des Bildpunktes P1 zu überprüfen, wird die Ebene P3-E31-E13 mit der Bezugsebene 460 geschnitten, um die Epipolarlinie 464 zu erhalten. Die Ebene P2-E21-E12 wird geschnitten, um die Epipolarlinie 462 zu erhalten. Falls der Bildpunkt P1 konsistent bestimmt wurde, liegt der beobachtete Bildpunkt P1 auf dem Schnittpunkt der berechneten Epipolarlinien 462 und 464.
  • Um die Konsistenz des Bildpunktes P2 zu überprüfen, wird die Ebene P3-E32-E23 mit der Bezugsebene 470 geschnitten, um die Epipolarlinie 474 zu erhalten. Die Ebene P1-E12-E21 wird geschnitten, um die Epipolarlinie 472 zu erhalten. Falls der Bildpunkt P2 konsistent bestimmt wurde, liegt der beobachtete Bildpunkt P2 auf dem Schnittpunkt der berechneten Epipolarlinien 472 und 474.
  • Um die Konsistenz des Projektionspunktes P3 zu überprüfen, wird die Ebene P2-E23-E32 mit der Bezugsebene 480 geschnitten, um die Epipolarlinie 484 zu erhalten. Die Ebene P1-E13-E31 wird geschnitten, um die Epipolarlinie 482 zu erhalten. Falls der Projektionspunkt P3 konsistent bestimmt wurde, liegt der Projektionspunkt P3 auf dem Schnittpunkt der berechneten Epipolarlinien 482 und 484.
  • Die Redundanz von Informationen, die unter Verwendung eines 3D-Bildgeräts 300 mit einer Dreiecksanordnung von einem Projektor und von Kameras bereitgestellt wurden, können verwendet werden, um die Messzeit zu verkürzen, Fehler zu erkennen und automatisch Kompensations-/Kalibrierungsparameter zu aktualisieren.
  • Es wird nun ein Beispiel für eine Möglichkeit gegeben, die Messzeit zu verkürzen. Wie hier nachstehend mit Bezug auf die Figuren 26A–D und 27 erklärt wird, besteht ein Verfahren der Bestimmung von 3D-Koordinaten darin, sequentielle Messungen durchzuführen. Ein Beispiel für ein solches sequentielles Messverfahren, das hier nachstehend beschrieben wird, besteht darin, ein sinusförmiges Messmuster dreimal oder mehrmals zu projizieren, wobei die Phase des Musters jedes Mal verschoben wird. In einer Ausführungsform können solche Projektionen zunächst mit einem groben sinusförmigen Muster ausgeführt werden, gefolgt von einem sinusförmigen Muster mit mittlerer Auflösung, gefolgt von einem feinen sinusförmigen Muster. In diesem Fall wird das grobe sinusförmige Muster verwendet, um eine ungefähre Position eines Objektpunktes im Raum zu erhalten. Das Muster mit mittlerer Auflösung und das feine Muster werden verwendet, um zunehmend genaue Schätzungen der 3D-Koordinaten des Objektpunktes im Raum zu erhalten. In einer Ausführungsform muss durch redundante Informationen, die durch die Dreiecksanordnung des 3D-Bildgeräts 300 bereitgestellt werden, keine grobe Phasenmessung mehr durchgeführt werden. Stattdessen ermöglichen die Informationen, die auf den drei Bezugsebenen 460, 470 und 480 bereitgestellt werden, eine grobe Bestimmung der Objektpunktposition. Eine Möglichkeit, diese grobe Bestimmung vorzunehmen, besteht darin, iterativ die Position von Objektpunkten basierend auf einer Optimierungsprozedur aufzulösen. Zum Beispiel wird bei einer solchen Prozedur eine Summe von ins Quadrat erhobenen Restfehlern so minimiert, dass die bestmöglich geschätzten Positionen für die Objektpunkte im Raum ausgewählt werden.
  • Die Dreiecksanordnung des 3D-Bildgeräts 300 kann auch dazu verwendet werden, zur Erkennung von Fehlern beizutragen. Zum Beispiel kann ein Projektor 493 in einem 3D-Bildgerät 490 aus 4B ein codiertes Muster auf ein Objekt in einer einzelnen Aufnahme mit einem ersten Element des Musters mit einem Projektionspunkt P3 projiziert werden. Die erste Kamera 491 kann dem ersten Element einen ersten Bildpunkt P1 auf der Bezugsebene 460 zuordnen. Die zweite Kamera 492 kann dem ersten Element den ersten Bildpunkt P2 auf der Bezugsebene 470 zuordnen. Die sechs Epipolarlinien können unter Verwendung des hier vorstehend beschriebenen Verfahrens aus den drei Punkten P1, P2 und P3 erzeugt werden. Der Schnittpunkt der Epipolarlinien muss auf den entsprechenden Punkten P1, P2 und P3 liegen, damit die Lösung konsistent ist. Falls die Lösung nicht konsistent ist, können zusätzliche Messungen oder andere Maßnahmen ratsam sein.
  • Die Dreiecksanordnung des 3D-Bildgeräts 300 kann auch verwendet werden, um Kompensations-/Kalibrierungsparameter automatisch zu aktualisieren. Kompensationsparameter sind numerische Werte, die im Speicher gespeichert sind, zum Beispiel in einem internen elektrischen System einer 3D-Messvorrichtung oder in einer anderen externen Recheneinheit. Solche Parameter können die relativen Positionen und Ausrichtungen der Kameras und des Projektors in dem 3D-Bildgerät umfassen. Die Kompensationsparameter können sich auf Linsenkennzeichen beziehen, wie die Linsenbrennweite und Linsenabweichungen. Sie können sich auch auf Änderungen der Umgebungsbedingungen beziehen, wie die Temperatur. Manchmal wird der Begriff Kalibrierung anstelle des Begriffs Kompensation verwendet. Häufig werden Kompensationsprozeduren vom Hersteller vorgenommen, um Kompensationsparameter für ein 3D-Bildgerät zu erhalten. Außerdem werden Kompensationsprozeduren häufig von einem Benutzer vorgenommen. Kompensationsprozeduren durch den Benutzer können vorgenommen werden, wenn es Änderungen der Umgebungsbedingungen gibt, wie der Temperatur. Kompensationsprozeduren durch den Benutzer können auch vorgenommen werden, wenn Projektor- oder Kameralinsen ausgetauscht werden oder nachdem das Instrument einen mechanischen Stoß erfahren hat. Typischerweise können Kompensationen durch Benutzer das Abbilden einer Sammlung von Markierungen auf einer Kalibrierungsplatte umfassen. Eine weitere Besprechung von Kompensationsprozeduren ist hier nachstehend mit Bezug auf die Figuren 1721 angegeben.
  • Inkonsistenzen bei den Ergebnissen basierend auf Epipolarberechnungen für ein 3D-Bildgerät 490 können ein Problem bei den Kompensationsparametern anzeigen, welche numerische Werte sind, die im Speicher gespeichert sind. Kompensationsparameter werden verwendet, um Imperfektionen oder Nichtlinearitäten im mechanischen, optischen oder elektrischen System zu korrigieren, um die Messgenauigkeit zu verbessern. In manchen Fällen kann ein Muster von Inkonsistenzen eine automatische Korrektur nahelegen, die auf die Kompensationsparameter angewendet werden kann. In anderen Fällen können die Inkonsistenzen eine Notwendigkeit anzeigen, Kompensationsprozeduren durch den Benutzer auszuführen.
  • Es ist oft wünschenswert, Farbinformationen in 3D-Koordinaten zu integrieren, die von einem Triangulationsscanner (3D-Bildgerät) erhalten wurden. Solche Farbinformationen werden manchmal als „Texturinformationen“ bezeichnet, da sie die abgebildeten Materialien nahelegen können oder zusätzliche Aspekte der Szene, wie Schatten, aufzeigen können. Normalerweise werden solche Farbinformationen (Texturinformationen) durch eine von der Kamera im Triangulationsscanner (d. h. der Triangulationskamera) getrennte Farbkamera bereitgestellt. Ein Beispiel für eine separate Farbkamera ist die Kamera 390 im 3D-Bildgerät 300 von 3.
  • In manchen Fällen ist es wünschenswert, 3D-Koordinaten, die von einem Triangulationsscanner erhalten wurden, durch Informationen von einer zweidimensionalen (2D-)Kamera zu ergänzen, die ein weiteres Gesichtsfeld (FOV) als das 3D-Bildgerät abdeckt. Solche Informationen mit weitem FOV können zum Beispiel verwendet werden, um die Überdeckung zu unterstützen. Zum Beispiel kann die Kamera mit weitem FOV dazu beitragen, mehrere Bilder, die durch die Triangulationskamera erhalten wurden, miteinander in Deckung zu bringen, indem natürliche Merkmale oder künstliche Ziele außerhalb des FOV der Triangulationskamera erkannt werden. Zum Beispiel kann die Kamera 390 in dem 3D-Bildgerät 300 sowohl als Kamera mit weitem FOV als auch als Farbkamera dienen.
  • Falls eine Triangulationskamera und eine Farbkamera in fester Beziehung zueinander verbunden werden, zum Beispiel indem sie auf eine gemeinsame Basis montiert werden, können sich die Position und Ausrichtung der beiden Kameras in einem gemeinsamen Bezugssystem finden. Die Position jeder der Kameras kann durch drei Translations-Freiheitsgrade (Degrees of Freedom, DOF) gekennzeichnet sein, welche zum Beispiel die x-y-z-Koordinaten des Kameraperspektivitätszentrums sein können. Die Ausrichtung jeder der Kameras kann durch drei Ausrichtungs-DOF gekennzeichnet sein, was zum Beispiel die Längs-, Quer- und Seitenwinkel sein können. Die Position und Ausrichtung zusammen ergeben die Pose eines Objekts. In diesem Fall ergeben die drei Translations-DOF und die drei Ausrichtungs-DOF zusammen die sechs DOF der Pose für jede Kamera. Es kann von einem Hersteller oder von einem Benutzer eine Kompensationsprozedur ausgeführt werden, um die Pose eines Triangulationsscanners und einer auf einer gemeinsamen Basis montierten Farbkamera zu bestimmen, wobei die Pose jeweils mit einem gemeinsamen Bezugssystem in Bezug gesetzt wird.
  • Falls die Pose einer Farbkamera und einer Triangulationskamera in einem gemeinsamen Bezugssystem bekannt sind, dann ist es im Prinzip möglich, Farben, die von der Farbkamera erhalten wurden, auf das 3D-Bild zu projizieren, das von dem Triangulationsscanner erhalten wurde. Ein erhöhter Trennabstand zwischen den beiden Kameras kann jedoch die Genauigkeit bei der Nebeneinanderstellung der Farbinformationen auf dem 3D-Bild verringern. Ein erhöhter Trennabstand kann auch die Komplexität der Mathematik erhöhen, die erforderlich ist, um die Nebeneinanderstellung auszuführen. Eine Ungenauigkeit der Projektion von Farbe zeigt sich zum Beispiel als eine Fehlausrichtung von Farbpixeln und 3D-Bildpixeln, insbesondere an Kanten von Objekten.
  • Eine Möglichkeit, weitere Fehler und Komplikationen, die durch einen vergrößerten Abstand zwischen einer Farbkamera und einer Triangulationskamera verursacht werden, zu umgehen, wird nun anhand der 5A und 5B beschrieben. 5A ist eine schematische Darstellung eines dichroitischen Kameraaufbaus 500, der eine Linse 505, einen dichroitischen Strahlenteiler 510, eine erste lichtempfindliche Matrix 520 und eine zweite lichtempfindliche Matrix 525 umfasst. Der dichroitische Strahlenteiler 510 ist dafür ausgelegt, ein einfallendes Lichtstrahlenbündel in eine erste Sammlung von Wellenlängen, die entlang eines ersten Wegs 532 wandern, und eine zweite Sammlung von Wellenlängen, die entlang eines zweiten Wegs 534 wandern, zu teilen. Die Begriffe erster Kanal und zweiter Kanal werden austauschbar mit den Begriffen erster Weg bzw. zweiter Weg verwendet. Das einfallende Lichtstrahlenbündel wandert in Richtung einer optischen Achse 530 der Linse 505.
  • Obwohl die Linse 505 in 5A als ein einzelnes Element dargestellt wird, sollte selbstverständlich sein, dass die Linse 505 in den meisten Fällen eine Sammlung von Linsen ist. Es ist vorteilhaft, dass die Linse 505 des dichroitischen Kameraaufbaus 500 chromatische Abweichungen korrigiert. Die Korrektur von chromatischen Abweichungen in zwei oder mehr Wellenlängen erfordert eine Linse 505 mit mehreren Linsenelementen. Die Linse 505 kann auch eine Öffnung umfassen, um das Licht, das auf die lichtempfindlichen Matrizen 520 und 525 gelangt, zu begrenzen.
  • Der dichroitische Strahlenteiler 510 kann von jeder Art sein, die Licht basierend auf der Wellenlänge in zwei unterschiedliche Strahlenbündelwege trennt. Im Beispiel von 5A ist der dichroitische Strahlenteiler 510 ein Würfel-Strahlenteiler aus zwei dreieckigen prismatischen Elementen 511A, 511B mit einem gemeinsamen Oberflächenbereich 512. Eine Art von gemeinsamem Oberflächenbereich 512 wird durch Beschichten einer oder beider der Glasoberflächen im Bereich 512 gebildet, um ausgewählte Lichtwellenlängen zu reflektieren und durchzulassen. Eine solche Beschichtung kann zum Beispiel eine Beschichtung sein, die aus mehreren dünnen Schichten von dielektrischem Material gebildet sind. Die beiden dreieckigen prismatischen Elemente 511A, 511B können mit optischem Zement oder durch optisches Kontaktieren verbunden sein. Der gemeinsame Oberflächenbereich 512 kann auch so gestaltet sein, dass er basierend auf dem Prinzip der inneren Totalreflexion verschiedene Wellenlängen reflektiert, die empfindlich von der Wellenlänge von einfallendem Licht abhängen. In diesem Fall werden die prismatischen Elemente 511A, 511B nicht miteinander in Kontakt gebracht, sondern sind durch einen Luftspalt getrennt.
  • In einer alternativen Ausführungsform wird ein dichroitischer Strahlenteiler aus prismatischen Elementen aufgebaut, die das Licht so lenken, dass es in zwei Richtungen wandert, die nicht zueinander senkrecht sind. In einer anderen Ausführungsform wird ein dichroitischer Strahlenteiler unter Verwendung einer Platte (Flachfenster) aus Glas anstelle einer Sammlung von größeren prismatischen Elementen gefertigt. In diesem Fall wird eine Oberfläche der Platte so beschichtet, dass sie einen Bereich von Wellenlängen reflektiert und einen anderen Bereich von Wellenlängen durchlässt.
  • In einer Ausführungsform ist der dichroitische Strahlenteiler 510 dafür ausgelegt, Farbinformationen (Texturinformationen) an eine der beiden lichtempfindlichen Matrizen weiterzuleiten und 3D-Informationen an die andere der beiden lichtempfindlichen Matrizen weiterzuleiten. Zum Beispiel kann die dielektrische Beschichtung 512 so ausgewählt sein, dass sie Infrarot-(IR-)Licht entlang des Wegs 532 zur Verwendung zur Bestimmung von 3D-Koordinaten durchlässt und sichtbares (Farb-)Licht entlang des Wegs 534 reflektiert. In einer anderen Ausführungsform reflektiert die dielektrische Beschichtung 512 IR-Licht entlang des Wegs 534, während sie Farbinformationen entlang des Wegs 532 durchlässt.
  • In anderen Ausführungsformen werden von dem dichroitischen Strahlenteiler andere Lichtwellenlängen durchgelassen oder reflektiert. Zum Beispiel kann der dichroitische Strahlenteiler in einer Ausführungsform so ausgewählt werden, dass er Infrarot-Lichtwellenlängen weiterleitet, die zum Beispiel verwendet werden können, um die Wärme von Objekten (basierend auf charakteristischen ausgestrahlten IR-Wellenlängen) anzuzeigen, oder sie zur Analyse von Hintergrundwellenlängen zu einem spektroskopischen Energiedetektor weiterzuleiten. Ebenso kann eine Vielfalt von Wellenlängen verwendet werden, um den Abstand zu bestimmen. Zum Beispiel ist eine beliebte Wellenlänge zur Verwendung bei Triangulationsscannern eine kurze sichtbare Wellenlänge nahe 400 nm (Blaulicht). In einer Ausführungsform ist der dichroitische Strahlenteiler dafür ausgelegt, Blaulicht auf eine lichtempfindliche Matrix zu leiten, um 3D-Koordinaten zu bestimmen, während sichtbare (Farb-)Wellenlängen außer den ausgewählten blauen Wellenlängen auf die andere lichtempfindliche Matrix geleitet werden.
  • In anderen Ausführungsformen sind individuelle Pixel in einer der lichtempfindlichen Matrizen 520, 525 dafür ausgelegt, den Abstand zu Punkten auf einem Objekt zu bestimmen, wobei der Abstand auf einer Laufzeitberechnung basiert. Mit anderen Worten kann bei dieser Art von Matrix der Abstand zu Punkten auf einem Objekt für individuelle Pixel auf einer Matrix bestimmt werden. Eine Kamera, die eine solche Matrix enthält, wird typischerweise als eine Bereichskamera, eine 3D-Kamera oder eine RGB-D-Kamera (Rot-Blau-Grün-Tiefe) bezeichnet. Es ist zu beachten, dass diese Art von lichtempfindlicher Matrix nicht auf Triangulation basiert, sondern vielmehr den Abstand basierend auf einem anderen physikalischen Prinzip berechnet, in den meisten Fällen basierend auf der Laufzeit zu einem Punkt auf einem Objekt. In vielen Fällen ist eine zusätzliche Lichtquelle dafür ausgelegt, mit der lichtempfindlichen Matrix durch Modulieren des projizierten Lichts zusammenzuarbeiten, welches später von den Pixeln demoduliert wird, um den Abstand zu einem Ziel zu bestimmen.
  • In den meisten Fällen ist die Brennweite der Linse 505 nahezu die gleiche bei den Lichtwellenlängen, die durch die beiden Wege zu den lichtempfindlichen Matrizen 520 und 525 gehen. Daher ist das FOV bei den beiden Wegen nahezu gleich. Außerdem ist das Bildfeld bei den lichtempfindlichen Matrizen 520 und 525 nahezu gleich.
  • 5B ist eine schematische Darstellung eines dichroitischen Kameraaufbaus 540, der eine erste Kamera 550, eine zweite Kamera 560 und einen dichroitischen Strahlenteiler 510 umfasst. Der dichroitische Strahlenteiler 510 wurde hier vorstehend beschrieben. In 5B trennt der Strahlenteiler 510 das einfallende Lichtstrahlenbündel in eine erste Sammlung von Wellenlängen, die als ein erstes Strahlenbündel 580 entlang eines ersten Wegs wandert, und eine zweite Sammlung von Wellenlängen, die als ein zweites Strahlenbündel 585 entlang eines zweiten Wegs wandert. Die erste Kamera 550 umfasst eine erste Öffnung 552, eine erste Linse 554 und eine erste lichtempfindliche Matrix 556. Die zweite Kamera 560 umfasst eine zweite Öffnung 562, eine zweite Linse 564 und eine zweite lichtempfindliche Matrix 566. Der erste Weg entspricht der optischen Achse 572 der ersten Kamera 550 und der zweite Weg entspricht der optischen Achse 574 der zweiten Kamera 560.
  • Obwohl die Linsen 554 und 564 in 5B als einzelne Elemente dargestellt sind, sollte selbstverständlich sein, dass jede dieser Linsen 554, 564 in den meisten Fällen eine Sammlung von Linsen ist. Der dichroitische Kameraaufbau 540 hat mehrere potentielle Vorteile gegenüber dem dichroitischen Kameraaufbau 500. Ein erster potentieller Vorteil besteht darin, dass das erste FOV 590 der ersten Kamera 550 anders sein kann als das zweite FOV 592 der zweiten Kamera 560. Im Beispiel von 5B ist das erste FOV 590 kleiner als das zweite FOV. Bei einer solchen Anordnung kann die Kamera mit weitem FOV dazu verwendet werden, natürliche oder künstliche Ziele zu erkennen, die für die Kamera mit dem engen FOV nicht sichtbar sind. In einer Ausführungsform ist die Kamera mit dem engen FOV eine Triangulationskamera, die zusammen mit einem Projektor verwendet wird, um 3D-Koordinaten einer Objektoberfläche zu bestimmen. Die von der Kamera mit weitem FOV beobachteten Ziele können verwendet werden, um die Überdeckung von mehreren Sätzen von 3D-Datenpunkten zu unterstützen, die von der Triangulationskamera mit engem FOV erhalten wurden. Eine Vielfalt von natürlichen Zielen kann durch Bildverarbeitung erkannt werden. Einfache Beispiele umfassen Objektmerkmale, wie Kanten. Künstliche Ziele können Merkmale wie Reflexionspunkte oder Punktlichtquellen, wie Leuchtdioden (LEDs), umfassen. Eine Kamera mit weitem FOV, die verwendet wird, um natürliche oder künstliche Ziele zu erkennen, kann auch verwendet werden, um Farbinformationen (Texturinformationen) bereitzustellen.
  • Ein zweiter potentieller Vorteil des dichroitischen Kameraaufbaus 540 gegenüber dem dichroitischen Kameraaufbau 500 besteht darin, dass eine der beiden lichtempfindlichen Matrizen 556 und 566 so ausgewählt werden kann, dass sie einen größeren Sensorbereich hat als die andere Matrix. Im Beispiel von 5B hat die lichtempfindliche Matrix 556 einen größeren Oberflächenbereich als die lichtempfindliche Matrix 566. Ein solcher größerer Sensorbereich entspricht einem größeren Abstand von der Linse 554 zur lichtempfindlichen Matrix 556 als von der Linse 564 zur lichtempfindlichen Matrix 566. Es ist zu beachten, dass der größere Abstand entweder auf dem ersten Weg oder dem zweiten Weg auftreten kann. Ein solcher größerer Bereich der lichtempfindlichen Matrix 556 kann eine Erhöhung der Auflösung durch Erhöhen der Anzahl von Pixeln in der Matrix ermöglichen. Alternativ kann der größere Bereich der lichtempfindlichen Matrix 556 verwendet werden, um die Größe von jedem Pixel zu erhöhen, wodurch das Signal-Rausch-Verhältnis (Signal-to-Noise Ratio, SNR) des empfangenen Bildes verbessert wird. Ein verringertes SNR kann zu geringerem Rauschen und einer besseren Wiederholbarkeit der gemessenen 3D-Koordinaten führen.
  • Ein dritter potentieller Vorteil des dichroitischen Kameraaufbaus 540 gegenüber dem dichroitischen Kameraaufbau 500 besteht darin, dass Abweichungen, insbesondere chromatische Abweichungen, einfacher und vollständiger durch Verwendung von zwei separaten Linsenaufbauten 554, 564 als durch Verwendung eines einzelnen Linsenaufbaus 505, wie in 5A, korrigiert werden können.
  • Andererseits ist ein potentieller Vorteil des dichroitischen Kameraaufbaus 500 gegenüber dem dichroitischen Kameraaufbau 540 eine geringere Größe für den gesamten Aufbau. Ein weiterer potentieller Vorteil besteht in der Möglichkeit, eine einzelne serienmäßige Linse zu verwenden – zum Beispiel eine C-Mount-Linse.
  • 6A ist eine schematische Darstellung eines 3D-Bildgeräts 600A ähnlich wie das 3D-Bildgerät 100A aus 1A, außer dass die Kamera 120A aus 1A durch einen dichroitischen Kameraaufbau 620A ersetzt wurde. In einer Ausführungsform ist der dichroitische Kameraaufbau 620A der dichroitische Kameraaufbau 500 aus 5A oder der dichroitische Kameraaufbau 540 aus 5B. Das Perspektivitätszentrum 628A ist das Perspektivitätszentrum der Linse, die mit dem Projektor 110A zusammenwirkt, um 3D-Koordinaten einer Objektoberfläche zu bestimmen. Der Abstand zwischen dem Perspektivitätszentrum 628A und dem Perspektivitätszentrum 118A des Projektors ist der Grundlinienabstand 640A. Ein Prozessor 650A bietet eine Verarbeitungsunterstützung, zum Beispiel um 3D-Farbbilder zu erhalten, um mehrere Bilder in Deckung zu bringen, und so weiter.
  • 6B ist eine schematische Darstellung einer Stereokamera 600B ähnlich wie die Stereokamera 100B in 1B, außer dass die Kameras 120B und 170B durch die dichroitischen Kameraaufbauten 620A bzw. 620B ersetzt wurden. In einer Ausführungsform können die dichroitischen Kameraaufbauten 620A und 620B jeweils entweder der dichroitische Kameraaufbau 500 oder der dichroitische Kameraaufbau 540 sein. Die Perspektivitätszentren 628A und 628B sind die Perspektivitätszentren der Linsen, die zusammenwirken, um unter Anwendung einer Triangulationsberechnung 3D-Koordinaten zu erhalten. Der Abstand zwischen den Perspektivitätszentren 628A und 628B ist der Grundlinienabstand 640B. Ein Prozessor 650B bietet eine Verarbeitungsunterstützung, zum Beispiel um 3D-Farbbilder zu erhalten, um mehrere Bilder in Deckung zu bringen, und so weiter.
  • 7A ist eine schematische Darstellung eines 3D-Bildgeräts 700A, ähnlich wie das 3D-Bildgerät von 600A aus 6A, außer dass es ferner einen zusätzlichen Projektor 710A umfasst. In einer Ausführungsform sind der dichroitische Kameraaufbau 620A, der Projektor 110A und der zusätzliche Projektor 710A jeweils fest an einem Körper 705A angebracht. Der zusätzliche Projektor 710A umfasst einen beleuchteten Projektormustergenerator 712A, eine zusätzliche Projektorlinse 714A und ein Perspektivitätszentrum 718A, durch welches ein Lichtstrahl 711A austritt. Der Lichtstrahl 711A tritt aus einem korrigierten Punkt 716A mit einer korrigierten Position auf dem Mustergenerator 712A aus. Die Linse 714A kann mehrere Linsenelemente und eine Öffnung aufweisen. In einer Ausführungsform wurde der Punkt 716A korrigiert, um Abweichungen des Projektors zu berücksichtigen, einschließlich Abweichungen der Linse 714A, um zu bewirken, dass der Strahl 711A durch das Perspektivitätszentrum 718A hindurchgeht, um dadurch das projizierte Licht an der gewünschten Stelle auf der Objektoberfläche 130A anzuordnen.
  • Das von dem zusätzlichen Projektor 710A projizierte Lichtmuster kann dafür ausgelegt sein, dem Bediener Informationen zu übermitteln. In einer Ausführungsform kann das Muster schriftliche Informationen, wie numerische Werte einer gemessenen Größe oder einer Abweichung einer gemessenen Größe relativ zu einer zulässigen Toleranz übermitteln. In einer Ausführungsform können Abweichungen von Messwerten in Bezug auf spezifizierte Größen direkt auf die Oberfläche eines Objekts projiziert werden. In manchen Fällen können die übermittelten Informationen durch projizierte Farben oder durch „Whisker-Markierungen“ angezeigt werden, wobei es sich um kleine Linien handelt, die einen Maßstab entsprechend ihrer Längen übermitteln. In anderen Ausführungsformen kann das projizierte Licht anzeigen, wo Montageoperationen auszuführen sind, zum Beispiel, wo ein Loch gebohrt werden oder eine Schraube angebracht werden muss. In anderen Ausführungsformen kann das projizierte Licht anzeigen, wo eine Messung vorgenommen werden muss, zum Beispiel durch eine Tastsonde, die am Ende eines Gelenkarm-CMM angebracht ist, oder durch eine Tastsonde, die an einem Sechs-DOF-Zubehör eines Sechs-DOF-Lasertrackers angebracht ist. In anderen Ausführungsformen kann das projizierte Licht Teil des 3D-Messsystems sein. Zum Beispiel kann ein projizierter Lichtpunkt oder Lichtfleck verwendet werden, um zu bestimmen, ob bestimmte Stellen auf dem Objekt erhebliche Reflexionen erzeugen, die zu einer Mehrfachstörung führen würden. In anderen Fällen kann das zusätzliche projizierte Lichtmuster verwendet werden, um zusätzliche Triangulationsinformationen bereitzustellen, die von der Kamera mit dem Perspektivitätszentrum 628A abzubilden sind.
  • 7B ist eine schematische Darstellung eines 3D-Bildgeräts 700B, das zwei dichroitische Kameraaufbauten 620A, 620B zusätzlich zu einem Projektor 110A umfasst. In einer Ausführungsform wird das 3D-Bildgerät 700B als das 3D-Bildgerät 200 von 2 implementiert. In einer alternativen Ausführungsform wird das 3D-Bildgerät 700B als das 3D-Bildgerät 300 von 3 implementiert.
  • 8A ist eine schematische Darstellung eines Systems 800A, das ein 3D-Bildgerät 600A umfasst, wie hier vorstehend mit Bezug auf 6A beschrieben wurde, und das ferner einen externen Projektor 810A umfasst, der von dem 3D-Bildgerät 600A gelöst ist. Der externe Projektor 810A umfasst einen beleuchteten Projektormustergenerator 812A, eine externe Projektorlinse 814A und ein Perspektivitätszentrum 818A, durch welches ein Lichtstrahl 811A austritt. Der Lichtstrahl 811A tritt aus einem korrigierten Punkt 816A mit einer korrigierten Position auf dem Mustergenerator 812A aus. Die Linse 814A kann mehrere Linsenelemente und eine Öffnung aufweisen. In einer Ausführungsform wurde die Position des Punktes 816A korrigiert, um Abweichungen des Projektors zu berücksichtigen, einschließlich Abweichungen der Linse 814A, um zu bewirken, dass der Strahl 811A durch das Perspektivitätszentrum 818A hindurchgeht, um dadurch das projizierte Licht an der gewünschten Stelle 822A auf der Objektoberfläche 130A anzuordnen.
  • In einer Ausführungsform ist der externe Projektor 810A ortsfest und projiziert ein Muster über ein relativ breites FOV, während das 3D-Bildgerät 600A zu mehreren verschiedenen Stellen bewegt wird. Der dichroitische Kameraaufbau 620A erfasst einen Teil des Lichtmusters, das von dem externen Projektor 810A in jeder der mehreren verschiedenen Stellen projiziert wird, um die mehreren 3D-Bilder in Deckung zu bringen. In einer Ausführungsform projiziert der Projektor 110A ein erstes Lichtmuster bei einer ersten Wellenlänge, während der Projektor 810A ein zweites Lichtmuster bei einer zweiten Wellenlänge projiziert. In einer Ausführungsform erfasst eine erste der beiden Kameras im dichroitischen Kameraaufbau 620A die erste Lichtwellenlänge, während die zweite der beiden Kameras die zweite Lichtwellenlänge erfasst. Auf diese Weise kann eine Störung zwischen dem ersten und dem zweiten projizierten Muster vermieden werden. Bei anderen Ausführungsformen kann dem System 800A eine zusätzliche Farbkamera, wie die Kamera 390 in 3, hinzugefügt werden, um Farbinformationen (Texturinformationen) zu erfassen, die dem 3D-Bild hinzugefügt werden können.
  • 8B ist eine schematische Darstellung eines Systems 800B, das ein 3D-Bildgerät 700B, wie hier vorstehend mit Bezug auf 7B beschrieben wurde, umfasst, und das ferner den externen Projektor 810A umfasst, der von dem 3D-Bildgerät 700B gelöst ist.
  • 9 zeigt einige mögliche physische Ausführungsformen der hier vorstehend besprochenen Vorrichtungen. Diese Figuren veranschaulichen anbringbare Linsen (zum Beispiel C-Mount-Linsen), die für dichroitische
  • Kameras 500 in 5A passen. Für den dichroitischen Kameraaufbau 540 aus 5B würden die Linsen in den meisten Fällen intern im Körper des 3D-Bildgeräts sein, wobei der Strahlenteiler das äußerste Element in dem Aufbau ist. Die Zeichnungen aus 9 sollen jedoch 3D-Bildgeräte und Stereokameras umfassen, die dichroitische Kameras nutzen, einschließlich der dichroitischen Kameras 540.
  • Die Vorrichtung oben links in 9 kann ein 3D-Bildgerät darstellen, wie 600A, oder eine Stereokamera, wie 600B. Die Vorrichtung oben rechts in 9 kann 3D-Bildgeräte, wie 700B, und Stereokameras mit einem zusätzlichen Projektor, wie 700A, darstellen. Das 3D-Bildgerät links in der Mitte in 9 kann eine Vorrichtung 300 sein, die mit Bezug auf 3 beschrieben wurde. Bei dieser Vorrichtung kann eine oder können beide der Kameras in den 3D-Bildgeräten dichroitische Kameras sein, wie die dichroitischen Kameras 500, 540. Das 3D-Bildgerät 700B ist ein Bildgerät dieser Art. Das 3D-Bildgerät rechts in der Mitte in 9 kann ein 3D-Bildgerät 910, das in 700B dargestellt ist, mit einem zusätzlichen Element sein, wie einem zusätzlichen Projektor. Das Element 900 in 9 soll alle diese 3D-Bildgeräte oder 3D-Stereovorrichtungen darstellen, die mindestens ein dichroitisches Kameraelement umfassen. Das Element 900 wird in den nachfolgenden Figuren verwendet, um jede Vorrichtung der in 9 gezeigten Arten darzustellen. Das Element 900, das ein 3D-Bildgerät, eine Stereokamera oder eine Kombination dieser beiden sein kann, wird hier nachstehend als 3D-Triangulationsvorrichtung 900 bezeichnet.
  • 10A ist eine Perspektivansicht eines mobilen 3D-Triangulationssystems 1000A, eines externen Projektorsystems 1020 und eines zu prüfenden Objekts 1030. In einer Ausführungsform umfasst das 3D-Triangulationssystem 1000A eine Triangulationsvorrichtung 900 und eine motorisierte Basis 1010. In anderen Ausführungsformen ist die 3D-Triangulationsvorrichtung auf einer feststehenden Plattform oder auf einer Plattform, die mobil, aber nicht motorisiert ist, montiert. Das externe Projektorsystem 1020 umfasst einen externen Projektor 1022 und eine motorisierte Basis 1010. Der externe Projektor ist dafür ausgelegt, ein Lichtmuster 1024 zu projizieren. In anderen Ausführungsformen kann eine feste oder eine mobile Basis die motorisierte Basis 1010 ersetzen. In einer Ausführungsform wird der externe Projektor 1020 als der externe Projektor 810A der 8A und 8B implementiert. Der beleuchtete Projektormustergenerator 812A kann durch die Verwendung eines optischen Beugungselements, einer digitalen Mikrospiegelvorrichtung (Digital Micromirror Device, DMD), eines Glaslichtbilds mit einem Muster, oder durch andere Verfahren implementiert werden. Bei dem Ansatz mit dem optischen Beugungselement wird ein Laserstrahl durch ein optisches Beugungselement gesendet, das dafür ausgelegt ist, eine 2D-Matrix von Laserpunkten zu projizieren – zum Beispiel eine Matrix von 100 × 100 Bildpunkten. Bei dem DMD-Ansatz kann die DMD dafür ausgelegt sein, jedes Muster zu projizieren. Dieses Muster kann zum Beispiel eine Matrix von Bildpunkten sein, wobei einige der Bildpunkte speziell markiert sind, um eine schnelle Möglichkeit zur Verfügung zu stellen, die Übereinstimmung der projizierten Bildpunkte mit den von einer Kamera in der Triangulationsvorrichtung 900 erfassten abgebildeten Bildpunkten herzustellen. Das zu testende Objekt 1030 im Beispiel aus 10A ist eine nackte Kraftfahrzeugkarosserie (Body-In-White, BiW). In 10A misst die 3D-Triangulationsvorrichtung 900 3D-Koordinaten der Oberfläche des Objekts 1030. Die 3D-Triangulationsvorrichtung 900 wird von der motorisierten Basis 1010 periodisch zu einer anderen Position bewegt. An jeder Position der 3D-Triangulationsvorrichtung 900 erfasst die 3D-Triangulationsvorrichtung mit den beiden Kanälen ihrer dichroitischen Kamera zwei Arten von Daten: (1) 3D-Koordinaten basierend auf einer Triangulationsberechnung und (2) ein Bild des von dem externen Projektor 1022 projizierten Musters. Durch Anpassen der von dem externen Projektor 1022 für jeden der mehreren 3D-Datensätze, die von der 3D-Triangulationsvorrichtung 900 erhalten wurden, projizierten Muster können die 3D-Datensätze leichter und genauer in Deckung gebracht werden.
  • 10B ist eine Perspektivansicht eines 3D-Triangulationssystems 1000B, des externen Projektorsystems 1020 und des zu prüfenden Objekts 1030. Das 3D-Triangulationssystem 1000B ist wie das 3D-Triangulationssystem 1000A, außer dass es zu einer anderen Position verschoben wurde. In beiden Positionen ist ein Teil des von dem externen Projektorsystem 1020 projizierten Musters für mindestens einen Kanal des dichroitischen Kameraaufbaus innerhalb der 3D-Triangulationsvorrichtung 900 sichtbar, wodurch eine effiziente und genaue Überdeckung der mehreren Datensätze, die von der 3D-Triangulationsvorrichtung 900 erhalten wurden, ermöglicht wird.
  • 11 ist eine Perspektivansicht eines 3D-Triangulationssystems 1100, des externen Projektorsystems 1020 und des zu prüfenden Objekts 1030. Das 3D-Triangulationssystem 1100 umfasst eine motorisierte Roboterbasis 1110 und eine 3D-Triangulationsvorrichtung 900. Die motorisierte Roboterbasis 1110 umfasst eine mobile Plattform 1112, auf der ein Roboterarm 1116 montiert ist, der die 3D-Triangulationsvorrichtung 900 hält. Die motorisierte Roboterplattform 1112 umfasst Räder, die mittels Computer- oder manueller Steuerung gelenkt werden, um das 3D-Triangulationssystem 1100 zu einer gewünschten Position zu bewegen. In einer Ausführungsform umfasst der Roboterarm 1116 mindestens fünf Freiheitsgrade, wodurch die 3D-Triangulationsvorrichtung 900 nach oben und unten, von Seite zu Seite bewegt und in jede Richtung gedreht werden kann. Der Roboterarm 1116 ermöglicht eine Messung von 3D-Koordinaten an Positionen oben und unten auf dem Objekt 1030. Der Roboterarm ermöglicht auch die Drehung der 3D-Triangulationsvorrichtung 900, um Merkmale von Interesse von der besten Richtung und mit einer bevorzugten Abstandsentfernung zu erfassen. Wie in dem Fall der 3D-Triangulationssysteme 1000A und 1000B kann das 3D-Triangulationssystem 1100 zu mehreren Positionen bewegt werden, wobei das von dem externen Projektorsystem 1020 projizierte Lichtmuster genutzt wird, um eine schnelle und genaue Überdeckung von mehreren 3D-Datensätzen zu ermöglichen. In einer Ausführungsform wird ein erster Kanal der dichroitischen Kamera innerhalb des 3D-Triangulationssystems 1100 verwendet, um das von dem externen Projektor projizierte Muster zu erfassen, während der zweite Kanal verwendet wird, um basierend auf einer Triangulationsberechnung 3D-Datenpunkte zu bestimmen.
  • 12A ist eine schematische Darstellung eines 3D-Triangulationssystems 1200A, das eine Projektionseinheit 1210A, eine dichroitische Kameraeinheit 1220A und einen Prozessor 1250A umfasst. Die Projektionseinheit 1210A umfasst eine Projektionsbasis 1212A, einen beleuchteten Projektormustergenerator 112A, eine Projektorlinse 114A, ein Perspektivitätszentrum 118A, durch welches ein Lichtstrahl 111A tritt, und einen Prozessor 1214A. Der Lichtstrahl 111A tritt aus einem korrigierten Punkt 116A mit einer korrigierten Position auf dem Mustergenerator 112A aus. In einer Ausführungsform wurde der Punkt 116A korrigiert, um Abweichungen des Projektors zu berücksichtigen, einschließlich Abweichungen der Linse 114A, um zu bewirken, dass der Strahl durch das Perspektivitätszentrum 118A hindurchgeht, um dadurch Triangulationsberechnungen zu vereinfachen. Der Lichtstrahl 111A schneidet die Oberfläche 130A in einem Punkt 132A. In einer Ausführungsform wirkt der Prozessor 1214A mit dem beleuchteten Projektormustergenerator 112A zusammen, um das gewünschte Muster zu bilden.
  • Die dichroitische Kameraeinheit 1220A umfasst eine Kamerabasis 1222A, einen dichroitischen Kameraaufbau 620A, ein Kameraperspektivitätszentrum 628A und einen Prozessor 1224A. Von der Objektoberfläche 130A von dem Punkt 132A reflektiertes (gestreutes) Licht geht durch das Kameraperspektivitätszentrum 628A des dichroitischen Kameraaufbaus 620A hindurch. Der dichroitische Kameraaufbau wurde hier vorstehend anhand von 6A besprochen. Der Abstand zwischen dem Kameraperspektivitätszentrum 628A und dem Projektorperspektivitätszentrum 118A des Projektors ist der Grundlinienabstand 1240A. Da die Projektionsbasis 1212A und die Kamerabasis 1222A nicht fest angebracht sind, sondern jeweils relativ zueinander bewegt werden können, variiert der Grundlinienabstand 1240A je nach Aufbau. Ein Prozessor 1224A wirkt mit dem dichroitischen Kameraaufbau 620A zusammen, um das Bild des beleuchteten Musters auf der Objektoberfläche 130A zu erfassen. Die 3D-Koordinaten von Punkten auf der Objektoberfläche 130A können durch den internen Kameraprozessor 1224A oder durch den Prozessor 1250A bestimmt werden. Ebenso können entweder der interne Prozessor 1224A oder der externe Prozessor 1250A eine Unterstützung bieten, um 3D-Farbbilder zu erhalten, um mehrere Bilder in Deckung zu bringen, und so weiter.
  • 12B ist eine schematische Darstellung eines 3D-Triangulationssystems 1200B, das eine erste dichroitische Kameraeinheit 1220A, eine zweite dichroitische Kameraeinheit 1220B und einen Prozessor 1250B umfasst. Die erste dichroitische Kameraeinheit 1220A umfasst eine Kamerabasis 1222A, einen ersten dichroitischen Kameraaufbau 620A, ein erstes Perspektivitätszentrum 628A und einen Prozessor 1224A. Ein Lichtstrahl 121A wandert von dem Objektpunkt 132A auf der Objektoberfläche 130A durch das erste Perspektivitätszentrum 628A. Der Prozessor 1224A wirkt mit dem dichroitischen Kameraaufbau 620A zusammen, um das Bild des beleuchteten Musters auf der Objektoberfläche 130A zu erfassen.
  • Die zweite dichroitische Kameraeinheit 1220B umfasst eine Kamerabasis 1222B, einen ersten dichroitischen Kameraaufbau 620B, ein zweites Perspektivitätszentrum 628B und einen Prozessor 1224B. Ein Lichtstrahl 121B wandert von dem Objektpunkt 132A auf der Objektoberfläche 130A durch das zweite Perspektivitätszentrum 628B. Der Prozessor 1224B wirkt mit dem dichroitischen Kameraaufbau 620B zusammen, um das Bild des beleuchteten Musters auf der Objektoberfläche 130B zu erfassen. Die 3D-Koordinaten von Punkten auf der Objektoberfläche 130A können durch jede Kombination der Prozessoren 1224A, 1224B und 1250B bestimmt werden. Ebenso kann jeder der Prozessoren 1224A, 1224B und 1250B eine Unterstützung bieten, um 3D-Farbbilder zu erhalten, mehrere Bilder in Deckung zu bringen und so weiter. Der Abstand zwischen dem ersten Perspektivitätszentrum 628A und dem zweiten Perspektivitätszentrum 628B ist der Grundlinienabstand 1240B. Da die Projektionsbasis 1222A und die Kamerabasis 1222B nicht fest angebracht sind, sondern jeweils relativ zueinander bewegt werden können, variiert der Grundlinienabstand 1240B je nach Aufbau.
  • Die 3D-Koordinaten von Punkten auf der Objektoberfläche 130A können durch den internen Kameraprozessor 1224A oder durch den Prozessor 1250A bestimmt werden. Ebenso können entweder der interne Prozessor 1224A oder der externe Prozessor 1250A eine Unterstützung bieten, um 3D-Farbbilder zu erhalten, um mehrere Bilder in Deckung zu bringen, und so weiter.
  • 12C ist eine schematische Darstellung eines 3D-Triangulationssystems 1200C, das eine Projektionseinheit 1210A, eine dichroitische Kameraeinheit 1220A, eine zusätzliche Projektionseinheit 1210C und einen Prozessor 1250C umfasst. Die Projektionseinheit 1210C umfasst eine Projektionsbasis 1212A, einen beleuchteten Projektormustergenerator 112A, eine Projektorlinse 114A, ein Perspektivitätszentrum 118A, durch welches ein Lichtstrahl 111A austritt, und einen Prozessor 1224B. Der Lichtstrahl 111A tritt aus einem korrigierten Punkt 116A mit einer korrigierten Position auf dem Mustergenerator 112A aus. In einer Ausführungsform wurde der Punkt 116A korrigiert, um Abweichungen des Projektors zu berücksichtigen, einschließlich Abweichungen der Linse 114A, um zu bewirken, dass der Strahl durch das Perspektivitätszentrum 118A hindurchgeht, um dadurch Triangulationsberechnungen zu vereinfachen. Der Lichtstrahl 111A schneidet die Oberfläche 130A in einem Punkt 132A. In einer Ausführungsform wirkt der Prozessor 1224B mit dem beleuchteten Projektormustergenerator 112A zusammen, um das gewünschte Muster zu bilden.
  • Die dichroitische Kameraeinheit 1220A umfasst eine Kamerabasis 1222A, einen dichroitischen Kameraaufbau 620A, ein Kameraperspektivitätszentrum 628A und einen Prozessor 1224A. Von der Objektoberfläche 130A von dem Punkt 132A reflektiertes (gestreutes) Licht geht durch das Kameraperspektivitätszentrum 628A des dichroitischen Kameraaufbaus 620A hindurch. Der dichroitische Kameraaufbau wurde hier vorstehend anhand von 6A besprochen. Der Abstand zwischen dem Kameraperspektivitätszentrum 628A und dem Projektorperspektivitätszentrum 118A des Projektors ist der Grundlinienabstand 1240C. Da die Projektionsbasis 1212A und die Kamerabasis 1222A nicht fest angebracht sind, sondern jeweils relativ zueinander bewegt werden können, variiert der Grundlinienabstand 1240A je nach Aufbau. Ein Prozessor 1224A wirkt mit dem dichroitischen Kameraaufbau 620A zusammen, um das Bild des beleuchteten Musters auf der Objektoberfläche 130A zu erfassen. Die 3D-Koordinaten von Punkten auf der Objektoberfläche 130A können durch den internen Kameraprozessor 1224A oder durch den Prozessor 1250A bestimmt werden. Ebenso können entweder der interne Prozessor 1224A oder der externe Prozessor 1250A eine Unterstützung bieten, um 3D-Farbbilder zu erhalten, um mehrere Bilder in Deckung zu bringen, und so weiter. Der Abstand zwischen dem ersten Perspektivitätszentrum 628A und dem zweiten Perspektivitätszentrum 118A ist der Grundlinienabstand 1240C. Da die Projektionsbasis 1212A und die Kamerabasis 1222A nicht fest angebracht sind, sondern jeweils relativ zueinander bewegt werden können, variiert der Grundlinienabstand 1240C je nach Aufbau.
  • Die zusätzliche Projektionseinheit 1210C umfasst eine zusätzliche Projektorbasis 1222C, einen zusätzlichen Projektor 710A und einen Prozessor 1224C. Der zusätzliche Prozessor 710A wurde hier vorstehend mit Bezug auf 7A besprochen. Der zusätzliche Projektor 710A umfasst einen beleuchteten Projektormustergenerator 712A, eine zusätzliche Projektorlinse 714A und ein Perspektivitätszentrum 718A, durch welches ein Lichtstrahl 711A von dem Punkt 716A austritt.
  • Das von der zusätzlichen Projektoreinheit 1210C projizierte Lichtmuster kann dafür ausgelegt sein, dem Bediener Informationen zu übermitteln. In einer Ausführungsform kann das Muster schriftliche Informationen, wie numerische Werte einer gemessenen Größe oder eine Abweichung einer gemessenen Größe relativ zu einer zulässigen Toleranz übermitteln. In einer Ausführungsform können Abweichungen von Messwerten in Bezug auf spezifizierte Größen direkt auf die Oberfläche eines Objekts projiziert werden. In manchen Fällen können die übermittelten Informationen durch projizierte Farben oder Whisker-Markierungen angezeigt werden. In anderen Ausführungsformen kann das projizierte Licht anzeigen, wo Montageoperationen auszuführen sind, zum Beispiel, wo ein Loch gebohrt werden oder eine Schraube angebracht werden muss. In anderen Ausführungsformen kann das projizierte Licht anzeigen, wo eine Messung vorgenommen werden muss, zum Beispiel durch eine Tastsonde, die am Ende eines Gelenkarm-CMM angebracht ist, oder durch eine Tastsonde, die an einem Sechs-DOF-Zubehör eines Sechs-DOF-Lasertrackers angebracht ist. In anderen Ausführungsformen kann das projizierte Licht Teil des 3D-Messsystems sein. Zum Beispiel kann ein projizierter Lichtpunkt oder Lichtfleck verwendet werden, um zu bestimmen, ob bestimmte Stellen auf dem Objekt erhebliche Reflexionen erzeugen, die zu einer Mehrfach-Störung führen würden. In anderen Fällen kann das zusätzliche projizierte Lichtmuster verwendet werden, um zusätzliche Triangulationsinformationen bereitzustellen, die von der Kamera mit dem Perspektivitätszentrum 628A abzubilden sind. Der Prozessor 1224C kann mit dem zusätzlichen Projektor 710A und mit dem Prozessor 1250C zusammenwirken, um das gewünschte Projektionsmuster zu erhalten.
  • 12D ist eine schematische Darstellung eines 3D-Triangulationssystems 1200D, das eine Projektionseinheit 1210A, eine erste dichroitische Kameraeinheit 1210A, eine zweite dichroitische Kameraeinheit 1220B und einen Prozessor 1250D umfasst. Die Projektionseinheit 1210A wurde hier vorstehend mit Bezug auf 12A besprochen. Sie umfasst eine Projektionsbasis 1212A, einen beleuchteten Projektormustergenerator 112A, eine Projektorlinse 114A, ein Perspektivitätszentrum 118A, durch welches ein Lichtstrahl 111A austritt, und einen Prozessor 1214A. Der Lichtstrahl 111A tritt aus einem korrigierten Punkt 116A mit einer korrigierten Position auf dem Mustergenerator 112A auf.
  • Die erste dichroitische Kameraeinheit 1220A umfasst eine Kamerabasis 1222A, einen dichroitischen Kameraaufbau 620A, ein erstes Perspektivitätszentrum 628A und einen Prozessor 1224A. Von der Objektoberfläche 130A von dem Punkt 132A reflektiertes (gestreutes) Licht geht durch das Kameraperspektivitätszentrum 628A des dichroitischen Kameraaufbaus 620A hindurch. Der dichroitische Kameraaufbau wurde hier vorstehend anhand von 6A besprochen. Wie hier vorstehend anhand der 2 und 3 erklärt wurde, gibt es drei verschiedene Grundlinienabstände, die verwendet werden können, um 3D-Koordinaten für ein System zu bestimmen, das zwei Kameras und einen Projektor aufweist.
  • Die zweite dichroitische Kameraeinheit 1220B umfasst eine Kamerabasis 1222B, einen ersten dichroitischen Kameraaufbau 620B, ein zweites Perspektivitätszentrum 628B und einen Prozessor 1224B. Ein Lichtstrahl 121B wandert von dem Objektpunkt 132A auf der Objektoberfläche 130A durch das zweite Perspektivitätszentrum 628B. Der Prozessor 1224B wirkt mit dem dichroitischen Kameraaufbau 620B zusammen, um das Bild des beleuchteten Musters auf der Objektoberfläche 130A zu erfassen.
  • Da die Projektionsbasis 1212A und die Kamerabasen 1222A, 1222B nicht fest angebracht sind, sondern jeweils relativ zueinander bewegt werden können, variieren die Grundlinienabstände zwischen diesen Komponenten je nach Aufbau. Die Prozessoren 1224A, 1224B wirken mit den dichroitischen Kameraaufbauten 620A bzw. 620B zusammen, um Bilder des beleuchteten Musters auf der Objektoberfläche 130A zu erfassen. Die 3D-Koordinaten von Punkten auf der Objektoberfläche 130A können durch eine Kombination der Prozessoren 1214A, 1224A, 1224B und 1250D bestimmt werden. Ebenso kann eine gewisse Kombination dieser Prozessoren eine Unterstützung bieten, um 3D-Farbbilder zu erhalten, mehrere Bilder in Deckung zu bringen und so weiter.
  • 13 veranschaulicht ein Verfahren zur Erfassung von dimensionalen Aspekten eines Objekts 1330, welches ein sich bewegendes Objekt sein kann, mit einem System 1300, das einen oder mehrere Projektoren 1310A, 1310B und einen oder mehrere dichroitische Kameras 1320A, 1320B umfasst. Jeder des einen oder der mehreren Projektoren 1310A, 1310B strahlt ein Licht 1312A bzw. 1312B aus. In einer Ausführungsform ist das ausgestrahlte Licht ein unstrukturiertes Lichtmuster, wie eine Sammlung von Lichtpunkten. Ein solches Muster kann zum Beispiel durch Senden von Licht durch ein entsprechendes optisches Beugungselement geschaffen werden. In einer alternativen Ausführungsform ist das Licht ein strukturiertes Muster, um die Identifizierung von Musterelementen in einem Bild zu ermöglichen. Ein solches Projektormuster kann zum Beispiel durch eine DMD oder ein gemustertes
  • Lichtbild geschaffen werden. In einer anderen Ausführungsform ist das Licht relativ gleichmäßig. Ein solches Licht kann eine Sammlung von Markierungen auf dem Objekt beleuchten. Solche Markierungen können zum Beispiel kleine Reflexionspunkte sein.
  • Die eine oder die mehreren dichroitischen Kameras 1320A, 1320B können zum Beispiel die dichroitische Kamera 500, die anhand von 5A beschrieben wurde, oder die dichroitische Kamera 540 sein, die anhand von 5B beschrieben wurde. In einer Ausführungsform ist einer der beiden Kanäle der Kamera dafür ausgelegt, ein Farbbild auf einer ersten lichtempfindlichen Matrix zu bilden, während der andere Kanal dafür ausgelegt ist, ein zweites Bild auf einer zweiten lichtempfindlichen Matrix zu bilden, wobei das zweite Bild dafür verwendet wird, 3D-Koordinaten des Objekts 1330 zu bestimmen. In einer Ausführungsform ist der dichroitische Strahlenteiler dafür ausgelegt, die Überlappung in Wellenlängenbereichen, die auf jeder der beiden lichtempfindlichen Matrizen erfasst werden, zu minimieren, wobei unterschiedliche, von der Wellenlänge abhängige Bilder auf den beiden lichtempfindlichen Matrizen gebildet werden. In einer alternativen Ausführungsform ist der dichroitische Strahlenteiler dafür ausgelegt, zu ermöglichen, dass eine der beiden lichtempfindlichen Matrizen zumindest einen Teil der Wellenlängen erfasst, die von der anderen der beiden lichtempfindlichen Matrizen erfasst werden.
  • In einer Ausführungsform werden mehrere Projektoren, wie 1310A, 1310B, verwendet. In einer Ausführungsform projizieren die mehreren Projektoren gleichzeitig Muster. Dieser Ansatz ist nützlich, wenn die Bildpunkte primär dafür verwendet werden, die Überdeckung zu unterstützen, oder wenn keine große Möglichkeit besteht, das Überlappen von Projektionsmustern zu verwechseln. In einer anderen Ausführungsform projizieren die mehreren Projektoren Licht zu unterschiedlichen Zeiten, um eine eindeutige Identifizierung des Projektors zu ermöglichen, der ein besonderes Muster ausstrahlt. In einer alternativen Ausführungsform projiziert jeder Projektor eine etwas andere Wellenlänge. Bei einem Ansatz ist jede Kamera dafür ausgelegt, nur auf Wellenlängen von ausgewählten Projektoren zu reagieren. Bei einem anderen Ansatz ist jede Kamera dafür ausgelegt, mehrere Lichtwellenlängen zu trennen, wodurch eine Identifizierung des einem besonderen Projektor, der Licht mit einer besonderen Wellenlänge ausstrahlt, zugeordneten Musters ermöglicht wird. Bei einer anderen Ausführungsform projizieren alle Projektoren Licht mit derselben Wellenlänge, so dass jede Kamera auf jegliches Licht innerhalb ihres FOV reagiert.
  • In einer Ausführungsform werden 3D-Koordinaten zumindest teilweise basierend auf Triangulation bestimmt. Eine Triangulationsberechnung erfordert die Kenntnis der relativen Position und Ausrichtung von mindestens einem Projektor, wie 1310A, und einer Kamera, wie 1320A. Kompensationsverfahren (Kalibrierungsverfahren) zum Erlangen einer solchen Kenntnis sind hier nachstehend beschrieben, insbesondere mit Bezug auf die 1622.
  • In einer anderen Ausführungsform werden 3D-Koordinaten erhalten durch Identifizieren von Merkmalen oder Zielen auf einem Objekt und Notieren von Änderungen der Merkmale oder des Ziels, wenn sich das Objekt 1330 bewegt. Der Prozess des Identifizierens von natürlichen Merkmalen auf einem Objekt 1330 in mehreren Bildern wird manchmal als Videogrammetrie bezeichnet. Es gibt eine gut entwickelte Sammlung von Techniken, die verwendet werden können, um Punkte zu bestimmen, die Merkmalen von Objekten zugeordnet sind, wie sie aus mehreren Perspektiven gesehen werden. Solche Techniken werden im Allgemeinen als Bildverarbeitung oder Merkmalserkennung bezeichnet. Solche Techniken werden manchmal, wenn sie auf die Bestimmung von 3D-Koordinaten basierend auf der relativen Bewegung zwischen der Messvorrichtung und dem gemessenen Objekt angewandt werden, als Videogrammetrie-Techniken bezeichnet.
  • Die gemeinsamen Punkte, die von der gut entwickelten Sammlung von Techniken wie vorstehend beschrieben identifiziert werden, können als Kardinalpunkte bezeichnet werden. Eine üblicherweise verwendete, aber allgemeine Kategorie zum Auffinden der Kardinalpunkte wird als Interest-Punkt-Erkennung (Interest Point Detection) bezeichnet, wobei die erkannten Punkte als Interest-Punkte bezeichnet werden. Gemäß der üblichen Definition hat ein Interest-Punkt eine mathematisch gut fundierte Definition, eine gut definierte Position im Raum, eine Bildstruktur um den Interest-Punkt, die reich an lokalem Informationsgehalt ist, und eine Variation des Beleuchtungsniveaus, das im zeitlichen Verlauf relativ stabil ist. Ein besonderes Beispiel für einen Interest-Punkt ist ein Eckpunkt, der ein Punkt sein kann, der zum Beispiel einer Schnittstelle von drei Ebenen entspricht. Ein weiteres Beispiel für die Signalverarbeitung, die verwendet werden kann, ist die skaleninvariante Merkmalstransformation (Scale Invariant Feature Transform, SIFT), wobei es sich um ein Verfahren handelt, das auf dem Fachgebiet gut bekannt ist und im US-Patent Nr. 6,711,293 von Lowe beschrieben wird. Andere übliche Merkmalserkennungsverfahren zum Auffinden von Kardinalpunkten umfassen die Kantenerkennung, Blob-Erkennung und die Graterkennung.
  • In einem Verfahren der Videogrammetrie, die auf 13 angewandt wird, identifiziert die eine von mehreren Kameras 1320A, 1320B Kardinalpunkte des Objekts 1330, welches in einer Ausführungsform ein sich bewegendes Objekt ist. Kardinalpunkte werden markiert und in jedem der mehreren Bilder, die zu verschiedenen Zeiten erhalten wurden, identifiziert. Solche Kardinalpunkte können analysiert werden, um eine Überdeckung des sich bewegenden Objekts 1330 im zeitlichen Verlauf zu schaffen. Falls das gemessene Objekt nahezu merkmalslos ist, zum Beispiel eine große flache Oberfläche aufweist, ist es vielleicht nicht möglich, genügend Kardinalpunkte zu erhalten, um eine genaue Überdeckung der mehreren Objektbilder zu schaffen. Falls das Objekt jedoch viele Merkmale aufweist, wie es bei der Person und dem Ball, die das Objekt 1330 umfasst, der Fall ist, ist es normalerweise möglich, eine relativ gute Überdeckung der mehreren erfassten 2D-Bilder zu erhalten.
  • Eine Möglichkeit, die Überdeckung von mehreren 2D-Bildern oder mehreren 3D-Bildern unter Verwendung von Videogrammetrie zu verbessern, besteht darin, ferner Objektmerkmale zu schaffen, indem ein beleuchtetes Muster auf das Objekt projiziert wird. Falls das Objekt 1330 und der Projektor (die Projektoren) feststehend sind, so bleibt das Muster auf dem Objekt auch dann feststehend, wenn sich die eine oder die mehreren Kameras 1320A, 1320B bewegen. Falls sich das Objekt 1330 bewegt, während die eine oder die mehreren Kameras 1320A, 1320B und der eine oder die mehreren Projektoren 1310A, 1310B feststehend bleiben, so ändert sich das Muster auf dem Objekt im zeitlichen Verlauf. In jedem Fall kann ein projiziertes Muster zur Überdeckung der 2D- oder 3D-Bilder beitragen. Unabhängig davon, ob das Muster feststehend ist oder sich auf dem Objekt bewegt, kann es verwendet werden, um die mehreren Bilder in Deckung zu bringen.
  • Die Verwendung von Videogrammetrie-Techniken ist besonders wirkungsvoll, wenn sie mit Triangulationsverfahren zum Bestimmen von 3D-Koordinaten kombiniert werden. Falls zum Beispiel die Pose einer ersten Kamera relativ zu einer zweiten Kamera bekannt ist (mit anderen Worten, wenn die Grundlinie zwischen den Kameras und die relative Ausrichtung der Kameras zur Grundlinie bekannt sind), dann können gemeinsame Elemente eines Lichtmusters von einem oder mehr Projektoren 1310A, 1310B identifiziert werden, und es können Triangulationsberechnungen vorgenommen werden, um die 3D-Koordinaten des sich bewegenden Objekts zu bestimmen.
  • Falls die Pose eines ersten Projektors 1310A relativ zu einer ersten Kamera 1320A bekannt ist und falls ein Prozessor in der Lage ist, eine Übereinstimmung zwischen den Elementen des projizierten Musters und des erfassten 2D-Bilds zu bestimmen, können ebenso 3D-Koordinaten im Bezugssystem des Projektors 1310A und der Kamera 1320A berechnet werden. Das Erhalten einer Übereinstimmung zwischen Kardinalpunkten oder projizierten Musterelementen wird verbessert, wenn eine zweite Kamera hinzugefügt wird, insbesondere wenn eine vorteilhafte Geometrie der beiden Kameras und des einen Projektors verwendet wird, wie in 3 veranschaulicht ist.
  • Wie hier vorstehend anhand 1B erklärt wurde, können Verfahren der aktiven Triangulation oder passiven Triangulation verwendet werden, um 3D-Koordinaten eines Objekts 1330 zu bestimmen. In einer Ausführungsform wird einer der beiden Kanäle der einen oder der mehreren dichroitischen Kameras 1320A, 1320B verwendet, um Videogrammetrieinformationen zu erfassen, während der zweite der beiden Kanäle verwendet wird, um Triangulationsinformationen zu erfassen. Die Videogrammetrie- und die Triangulationsdaten können in den beiden Kanälen nach den Unterschieden der Wellenlängen, die in den 2D-Bildern der beiden Kanäle erfasst wurden, unterschieden werden. Zusätzlich oder alternativ kann einer oder können beide Kanäle ein größeres FOV haben als der andere, was die Überdeckung vereinfachen kann.
  • Eine nützliche Fähigkeit der einen oder der mehr dichroitischen Kameras 1220A, 1220B ist das Erfassen der Objektfarbe (Textur) und das Projizieren dieser Farbe auf ein 3D-Bild. Es ist auch möglich, Farbinformationen mit einer separaten Kamera zu erfassen, die keine dichroitische Kamera ist. Falls die relative Pose der separaten Kamera relativ zu der dichroitischen Kamera bekannt ist, kann es möglich sein, die Farben für ein 3D-Bild zu bestimmen. Wie vorstehend erklärt wurde, ist eine solche mathematische Bestimmung von einer separaten Kamera jedoch im Allgemeinen komplexer und weniger genau als die Bestimmung basierend auf Bildern von einer dichroitischen Kamera. Die Verwendung von einer oder mehr dichroitischen Kameras 1220A, 1220B im Gegensatz zu Kameras mit einem Kanal bieten potentielle Vorteile bei der Verbesserung der Genauigkeit, bei der Bestimmung von 3D-Koordinaten und der Anwendung von Farbe (Textur) auf das 3D-Bild.
  • In einer Ausführungsform sind ein oder mehr künstliche Ziele auf dem Objekt 1330 montiert. In einer Ausführungsform ist das eine oder sind die mehreren künstlichen Ziele Reflexionspunkte, die von dem einen oder den mehreren Projektoren 1310A, 1310B beleuchtet werden. In einer alternativen Ausführungsform ist das eine oder sind die mehreren künstlichen Ziele beleuchtete Lichtpunkte, wie LEDs. In einer Ausführungsform ist einer der beiden Kanäle der einen oder der mehreren dichroitischen Kameras 1320A, 1320B dafür ausgelegt, Licht von den LEDs zu empfangen, während der andere der beiden Kanäle dafür ausgelegt ist, ein Farbbild von dem Objekt zu empfangen. Der Kanal, der die Signale von den Reflexionspunkten oder LEDs empfängt, kann optimiert werden, um Licht auszublenden, welches andere Wellenlängen hat als diejenigen, die von den reflektierenden Reflexionspunkten oder den LEDs zurückkommen, wodurch die Berechnung von 3D-Koordinaten der Objektoberfläche vereinfacht wird. In einer Ausführungsform ist ein erster Kanal der einen oder mehreren dichroitischen Kameras 1320A, 1320B dafür ausgelegt, Infrarotlicht von den Reflexionspunkten oder LEDs durchzulassen, während der zweite Kanal dafür ausgelegt ist, Infrarotlicht zu blockieren, während sichtbares (Farb-)Licht durchgelassen wird.
  • In 13 umfasst das Objekt 1330 zwei separate Objektelemente, 1332 und 1334. In dem in 13 gezeigten Fall sind die beiden Objektelemente 1332 und 1334 in physischem Kontakt, aber einen Moment später wird das Objekt 1334 von dem Objekt 1332 getrennt sein. Das Volumen, welches das System 1300 erfassen kann, hängt von dem FOV und der Anzahl des einen oder der mehreren Projektoren 1310A, 1310B sowie von dem FOV und der Anzahl der einen oder mehreren Kameras 1320A, 1320B ab.
  • 14 veranschaulicht ein Verfahren zur Erfassung von dimensionalen Aspekten eines Objekts 1330, welches ein sich bewegendes Objekt sein kann, mit einem System 1400, das einen oder mehrere Projektoren 1410A, 1410B und eine oder mehrere dichroitische Kameras 1420A, 1420B umfasst. Jeder des einen oder der mehreren Projektoren 1410A, 1410B strahlt ein Licht 1412A bzw. 1412B aus. Der eine oder die mehreren Projektoren 1410A, 1410B und die eine oder die mehreren Kameras 1420A, 1420B sind um zwei Achsen 1402 und 1404 lenkbar. In einer Ausführungsform ist die Achse 1402 eine vertikale Achse und die Achse 1404 ist eine horizontale Achse. Alternativ ist die erste Achse 1402 eine vertikale Achse und die zweite Achse 1404 ist eine horizontale Achse. In einer Ausführungsform dreht sich ein erster Motor (nicht gezeigt) in die Richtung des Projektors 1410A, 1410B oder der Kamera 1420A, 1420B um die erste Achse 1402, und ein erster Winkelwandler (nicht gezeigt) misst den Drehwinkel um die erste Achse 1402. In einer Ausführungsform dreht sich ein zweiter Motor (nicht gezeigt) in die Richtung des Projektors 1410A, 1410B oder der Kamera 1420A, 1420B um die zweite Achse 1404, und ein zweiter Winkelwandler (nicht gezeigt) misst den Drehwinkel um die zweite Achse 1404. In einer Ausführungsform sind die Kameras 1420A, 1420B dichroitische Kameras. In einer anderen Ausführungsform sind die Kameras 1420A, 1420B drehbar, aber nicht dichroitisch.
  • In einer Ausführungsform sind die Motoren dafür ausgelegt, das Objekt 1330 zu verfolgen. In dem Fall, dass mehrere Objekte getrennt sind, können verschiedene Projektoren und Kameras verschiedenen Objekten der mehreren Objekte zugeordnet sein, um diese zu verfolgen. Ein solcher Ansatz kann das Verfolgen des Balls 1304 und des Spielers 1302 ermöglichen, indem dem Schuss des Balls durch den Spieler gefolgt wird.
  • Ein weiterer potentieller Vorteil, über motorisierte Drehmechanismen 1402, 1404 für die Projektoren und Kameras zu verfügen, liegt in der Möglichkeit, das FOV der Projektoren und Kameras zu verringern, um höhere Auflösungen zu erhalten. Dadurch erhält man zum Beispiel genauere und detailliertere 3D- und Farbdarstellungen. Die Winkelgenauigkeit von Lenkmechanismen der in den 13 und 14 gezeigten Art kann im Bereich von 5 Mikroradian liegen, das heißt, für ein Objekt in einem Abstand von 5 Metern von einem Projektor oder einer Kamera beträgt der Winkelmessfehler in der berechneten Querposition (Seite zu Seite) eines Objektpunkts ungefähr (5 m)(5 μm/m) = 25 μm.
  • Eine Reihe von verschiedenen Lenkmechanismen und Winkelwandlern kann verwendet werden. Die in den 13 und 14 veranschaulichten Lenkmechanismen 1402, 1404 können eine horizontale Welle und eine vertikale Welle aufweisen, wobei jede Welle auf einem Paar von Lagern montiert und jeweils von einem rahmenlosen Motor betrieben ist. In den Beispielen der 13 und 14 kann der Projektor oder die Kamera direkt auf der horizontalen Welle 1404 montiert sein, es sind aber auch viele andere Anordnungen möglich. Zum Beispiel kann ein Spiegel an der horizontalen Welle montiert sein, um projiziertes Licht auf das Objekt zu reflektieren oder Streulicht von dem Objekt auf die Kamera zu reflektieren. In einer anderen Ausführungsform dreht sich ein um 45 Grad abgewinkelter Spiegel um eine horizontale Achse und empfängt Licht entlang der horizontalen Achse oder wirft dieses zurück. In anderen Ausführungsformen können Galvanometerspiegel verwendet werden, um Licht entlang einer gewünschten Richtung zu senden oder zu empfangen. In einer anderen Ausführungsform wird ein MEMS-Lenkspiegel verwendet, um das Licht in eine gewünschte Richtung zu lenken. Es sind viele andere Lenkmechanismen möglich und können verwendet werden. In einer Ausführungsform wird ein Winkelkodierer verwendet, um den Drehwinkel des Projektors oder der Kamera entlang jeder der beiden Achsen zu messen. Es sind viele andere Winkelwandler erhältlich und können verwendet werden.
  • 15 ist eine Perspektivansicht der mobilen Vorrichtung 1500, die eine drehbare Vorrichtung 1510 auf einer mobilen Plattform 1530 umfasst. Die drehbare Vorrichtung 1510 kann ein drehbarer Projektor, wie 1410A, 1410B, oder eine drehbare Kamera sein, wie 1420A, 1420B. Die drehbare Vorrichtung kann ein FOV 1512 haben. In einer Ausführungsform ist die mobile Plattform 1530 ein Dreibein 1532, das auf Rädern 1534 montiert ist. In einer Ausführungsform umfasst die mobile Plattform ferner motorisierte Elemente 1536, um die Räder anzutreiben.
  • Triangulationsvorrichtungen, wie 3D-Bildgeräte und Stereokameras, haben einen Messfehler in etwa proportional zum Z2/B, wobei B der Grundlinienabstand und Z der senkrechte Abstand von der Grundlinie zu einem gemessenen Objektpunkt ist. Diese Formel zeigt an, dass der Fehler als der senkrechte Abstand Z mal das Verhältnis des senkrechten Abstands geteilt durch den Grundlinienabstand variiert. Daraus folgt, dass es schwierig ist, eine gute Genauigkeit zu erhalten, wenn ein relativ weit entferntes Objekt mit einer Triangulationsvorrichtung mit einer relativ kleinen Grundlinie gemessen wird. Um ein relativ weit entferntes Objekt mit einer relativ hohen Genauigkeit zu messen, ist es vorteilhaft, den Projektor und die Kamera eines 3D-Bildgeräts relativ weit entfernt anzuordnen oder in ähnlicher Weise die beiden Kameras einer Stereokamera relativ weit entfernt anzuordnen. Es kann schwierig sein, die gewünschte große Grundlinie in einer integrierten Triangulationsvorrichtung zu erreichen, in der Projektoren und Kameras fest an einer Basisstruktur angebracht sind.
  • Ein Triangulationssystem, das eine flexible Konfiguration zum Messen von Objekten mit unterschiedlichen Abständen, einschließlich langer Abstände, unterstützt, wird nun anhand der 1621 beschrieben. 16 ist eine Perspektivansicht eines Systems 1600, das einen drehbaren Projektor 1610, eine erste drehbare Kamera 1620A und eine zweite drehbare Kamera 1620B aufweist. Wie in 16 veranschaulicht ist, sind die drehbaren Vorrichtungen 1610, 1620A und 1620B Sonderfälle der mobilen Vorrichtung 1500. In anderen Ausführungsformen werden die drehbaren Vorrichtungen 1610, 1620A und 1620B durch die Vorrichtungen 1410, 1420A bzw. 1420B ersetzt, die eher in einem Gebäude befestigt sind als auf einer mobilen Plattform 1530 montiert sind. In einer Ausführungsform projiziert der Projektor 1610 ein Lichtmuster 1612 auf ein Objekt 1330. Die Kameras 1520A, 1520B erfassen reflektiertes Licht 1614 von dem projizierten Muster und bestimmen 3D-Koordinaten des Objekts. Wie hier vorstehend erklärt wurde, können viele Arten von Mustern projiziert werden. Kameras können dichroitische Kameras sein, die Farbbilder erfassen und eine Videogrammetrie bieten, sowie Bilder, die Informationen zur Bestimmung von 3D-Koordinaten bieten. In einer Ausführungsform werden Markierungen, wie Reflexionspunkte oder LEDs, auf dem Objekt 1330 angeordnet.
  • In einer Ausführungsform sind der Projektor 1610 und die Kameras 1620A, 1620B nicht in einer geraden Linie angeordnet, sondern eher in einem dreieckigen Muster angeordnet, um zwei Epipole auf jeder Bezugsebene zu erzeugen, wie in 4B veranschaulicht ist. In diesem Fall kann es möglich sein, 3D-Koordinaten basierend auf der Projektion eines uncodierten Musters von Bildpunkten zu bestimmen, zum Beispiel durch Projizieren von Laserlicht durch ein optisches Beugungselement. Ein solches Verfahren ist besonders wertvoll, wenn sich das Objekt in weiten Abständen von dem Projektor befindet, insbesondere, wenn der Abstand von dem Projektor variabel ist, da Laserlichtpunkte in nahen Abständen und in weiten Abständen fokussiert bleiben, während dies bei Bildpunkten von LED-Licht nicht der Fall ist.
  • In einer Ausführungsform sind die beiden Lenkwinkel des Projektors 1610 und der Kameras 1620A, 1620B bis zu einer hohen Genauigkeit bekannt. Zum Beispiel können Winkelkodierer, die mit Wellen und Lagern verwendet werden, wie hier vorstehend mit Bezug auf 14 beschrieben wurde, eine Winkelgenauigkeit von weniger als 10 Mikroradian aufweisen. Bei dieser relativ hohen Winkelgenauigkeit ist es möglich, den Projektor 1610 und die Kameras 1620A, 1620B so zu lenken, dass sie dem Objekt 1330 über ein relativ großes Volumen folgen. Dies kann selbst dann erfolgen, wenn die Gesichtsfelder des Projektors 1610 und der Kameras 1620A, 1620B relativ klein sind. Daher ist es möglich, eine relativ hohe Genauigkeit über ein relativ großes Volumen zu erhalten, während eine relativ hohe 3D- und Farbauflösung beibehalten wird. Außerdem können, wenn die mobile Plattform 1530 motorisiert ist, die Kameras und der Projektor automatisch wie erforderlich positioniert werden, um Objekte über ein besonderes Volumen und von einer besonderen Perspektive zu erfassen.
  • Um eine Triangulationsberechnung basierend auf Messungen auszuführen, die durch mehrere Kameras in einer Stereokonfiguration oder durch eine Kamera und einen Projektor in einer 3D-Bildgerät-Konfiguration vorgenommen wurden, ist es wichtig, die relative Pose der Kameras und Projektoren in einer gegebenen Anordnung zu kennen. 17A zeigt ein Kompensationsverfahren 1700A, das verwendet werden kann, um die relative Pose zwischen zwei getrennten und beweglichen Kameras 1420A und 1420B zu bestimmen. Eine Kalibrierungsplatte 1710 umfasst ein Muster mit einem bekannten Abstand von Musterelementen 1712. Das Muster wird von jeder der Kameras 1420A und 1420B gemessen. Durch Vergleichen der aufgezeichneten Bilder mit den gemessenen Positionen der Bildpunkte in den Bildern, die durch die Kameras 1420A und 1420B erhalten wurden, mit den bekannten Positionen der Musterelemente ist es möglich, die relative Pose der beiden Kameras 1420A und 1420B zu bestimmen. Durch Sammeln von mehreren Bildern mit den Kameras 1420A und 1420B der Kalibrierungsplatte, die zu einer Anzahl von unterschiedlichen Positionen und Ausrichtungen bewegt wird, ist es des Weiteren möglich, dass das System Kompensationsparameter bestimmt, die Korrekturkoeffizienten oder Korrekturkarten (Werte) umfassen können. In einer Ausführungsform ist die Kalibrierungsplatte 1710 auf einer mobilen Plattform 1530 montiert, die in einer Ausführungsform motorisierte Elemente 1536 zum Antrieb von Rädern 1534 umfasst. Ein Vorteil des Ausrüstens der mobilen Plattform 1530 mit motorisierten Rädern besteht darin, dass die Kalibrierungsplatte 1710 um jeden gewünschten Abstand von den Kameras 1420A, 1420B gemäß dem Drehwinkel der Kameras bewegt werden kann. Somit kann die gesamte Stereokameraanordnung 1700A aus 17A dafür ausgelegt sein, relativ große Objekte oder relativ kleine Objekte zu messen, und sie kann ferner dafür ausgelegt sein, ohne weiteres bezüglich des ausgewählten Grundlinienabstands und der Ausrichtungen der Kameras 1420A, 1420B kompensiert zu werden.
  • 17B zeigt ein Kompensationsverfahren 1700B, das verwendet werden kann, um die relative Pose zwischen einer Kamera 1420A und einem getrennten Projektor 1410A zu bestimmen. In einer Ausführungsform misst die Kamera 1420A in einem ersten Schritt die Positionen eines jeden der Bildpunkte auf der Kalibrierungsplatte 1710. In einem zweiten Schritt projiziert der Projektor 1410A ein Muster auf die Kalibrierungsplatte, das von der Kamera 1420A gemessen wird. Die Ergebnisse der im ersten Schritt und im zweiten Schritt ausgeführten Messungen werden kombiniert, um die relative Pose der Kamera 1420A und des Projektors 1410A zu bestimmen. In einer Ausführungsform wird die Kalibrierungsplatte zu zusätzlichen Positionen und Ausrichtungen bewegt, und der erste und der zweite Schritt der Messprozedur werden wiederholt. Durch Analysieren der gesammelten Bilder und Vergleichen dieser mit den programmierten Projektionsmustern des Projektors 1410A können Koeffizienten oder Karten bestimmt werden, um Abweichungen in der Kamera 1420A und dem Projektor 1410A zu korrigieren.
  • 17C zeigt ein Kompensationsverfahren 1700C, das verwendet werden kann, um die relative Pose zwischen einer ersten Kamera 1420A, einer zweiten Kamera 1420B und einem Projektor 1410A in einer Dreiecksanordnung 1702 zu bestimmen. Die zwei Kameras 1420A, 1420B und der eine Projektor 1410A haben bei dieser Dreiecksanordnung eine ähnliche Funktion wie die beiden Kameras 310, 330 und der eine Projektor 350 aus 3. Die Anordnung aus 17C hat hier vorstehend mit Bezug auf 4B beschriebene epipolare Einschränkungen. In einer Ausführungsform eines Kompensationsverfahrens bestimmen die Kameras 1420A, 1420B in einem ersten Schritt die 3D-Koordinaten eines jeden der Bildpunkte auf der Kalibrierungsplatte. Jede dieser 3D-Koordinaten kann mit der kalibrierten Position der Bildpunkte verglichen werden, die zuvor unter Verwendung einer sehr genauen 2D-Messvorrichtung erhalten wurden. In einem zweiten Schritt projiziert der Projektor 1410A ein Muster auf die Kalibrierungsplatte. Das Muster wird von den Kameras 1420A und 1420B gemessen, wie es auf die Bildpunkte projiziert wird. Die Ergebnisse der im ersten Schritt und im zweiten Schritt ausgeführten Messungen werden kombiniert, um die relative Pose der Kameras 1420A, 1420B und des Projektors 1410A zu bestimmen. In einer Ausführungsform wird die Kalibrierungsplatte zu zusätzlichen Positionen und Ausrichtungen bewegt, und der erste und der zweite Schritt der Messung werden in jedem Fall wiederholt. Diese zusätzlichen Positionen und Ausrichtungen tragen dazu bei, Informationen über die Abweichungen der Linsensysteme in den Kameras 1420A, 1420B und dem Projektor 1410A bereitzustellen.
  • In manchen Fällen können sich die getrennten Kameras und Projektoren eines 3D-Triangulationsmesssystems an einem Ständer befestigt befinden. In diesem Fall kann es günstig sein, das Kalibrierungsartefakt (zum Beispiel die Kalibrierungsplatte 1710) an einer Stelle zu befestigen, zum Beispiel an einer Wand. 18A ist eine Perspektivansicht eines stereoskopischen Kamerasystems 1800A, das zwei getrennte, aber befestigte Kameras 1820A, 1820B und ein befestigtes Kalibrierungsziel 1830 mit Zielelementen 1832 umfasst. In einer Ausführungsform umfassen die Kameras 1820A, 1820B einen motorisierten Drehmechanismus. In einer Ausführungsform sind die Kameras in der Lage, sich um zwei Achsen zu drehen – zum Beispiel eine horizontale Achse und eine vertikale Achse. In einer Ausführungsform drehen sich die Kameras 1820A, 1820B in mehrere verschiedene Richtungen, um die Kompensationsprozedur auszuführen.
  • 18B ist eine Perspektivansicht eines 3D-Bildgeräts 1800B, das eine drehbare Kamera 1820A, einen drehbaren Projektor 1810A und ein befestigtes Kalibrierungsziel 1830 mit Zielelementen 1832 umfasst. In einer Ausführungsform umfassen der drehbare Projektor 1810A und die drehbare Kamera 1820A jeweils einen motorisierten Drehmechanismus, wobei jeder motorisierte Drehmechanismus zur Drehung um zwei Achsen in der Lage ist.
  • 19 veranschaulicht ein Verfahren 1900 zum Lernen der relativen Pose (d. h. die Pose der sechs Freiheitsgrade) von zwei Kamerasystemen 1920A, 1920B, die zum Beispiel zur Ausführung von Triangulationsmessungen notwendig sind. Die Kamerasysteme 1920A, 1920B umfassen Kameras 1420A bzw. 1420B, wobei jedes Kamerasystem auf einer mobilen Plattform 1530 mit einem auf Rädern 1534 montierten Dreibein 1532 montiert ist. In einer Ausführungsform sind die Räder durch einen Motoraufbau 1536 motorisiert. Die Kamerasysteme 1920A, 1920B umfassen ferner Leuchtpunkte 1940, wobei es sich um Reflexionspunkte oder Lichtquellen wie LEDs handeln kann. In einer Ausführungsform dreht ein Drehmechanismus jede Kamera um zwei Achsen, wie die Achsen 1402 und 1404. In einer Ausführungsform wird der Drehwinkel um jede Achse durch einen Winkelwandler wie einen Winkelkodierer gemessen, der in dem Kamerasystem integriert ist. In einer Ausführungsform werden die Winkel bis zu einer relativ hohen Genauigkeit gemessen, zum Beispiel 10 Mikroradian oder besser. In einer Ausführungsform umfasst ein Kompensationsverfahren das Drehen jeder der Kameras, um die Lichtpunkte 1940 auf der gegenüberliegenden Kamera zu erfassen und die von den Kameras 1920A, 1920B erhaltenen Bilder auszuwerten, um die relative Pose der Kameras zu bestimmen. In einer Ausführungsform ermöglichen es die motorisierten Räder, dass die Kameras zu jeder ausgewählten Stelle bewegt werden können und danach die Lichtpunkte von jeder Kamera 1920A, 1920B gemessen werden können, um die relative Pose zu bestimmen.
  • 20 veranschaulicht ein weiteres Verfahren 2000 zum automatischen Kompensieren von Stereokameras 1420A, 1420B. Eine mobile Robotervorrichtung 2010 umfasst eine mobile Basis 2012, die dafür ausgelegt ist, sich auf Rädern zu bewegen, und einen Roboterarm 2014. Eine Skalenstange 2020, die Zielmarkierungen 2024 umfasst, wird von der mobilen Robotervorrichtung 2010 zu einer Anzahl von Positionen und Ausrichtungen bewegt. Die Markierungen 2024 können zum Beispiel Lichtpunkte sein, wie LEDs, oder reflektierende Elemente, wie Reflexionspunkte. In einer Ausführungsform bestimmt das System die relative Pose der Kameras 1420A, 1420B zumindest teilweise basierend auf den Bildern der Markierungen, die von den verschiedenen Positionen der Skalenstange 2020 erhalten wurden. Die Poseninformationen reichen für die beiden Kameras 1420A, 1420B aus, um Triangulationsberechnungen auszuführen, um 3D-Koordinaten einer Objektoberfläche zu bestimmen. Ein Vorteil der Anordnung aus 20 besteht darin, dass eine Kompensationsprozedur automatisch ausgeführt werden kann, um die relative Pose der Kameras zu bestimmen, auch wenn die Kameras zu neuen Positionen bewegt werden und wenn die Grundlinie oder die Kamerawinkel geändert werden.
  • 21A ist eine schematische Querschnittsdarstellung eines internen Kameraaufbaus 2100A, der Teil der sich drehenden Kamera 2100A ist. Der interne Kameraaufbau 2100B umfasst einen Kameralinsenaufbau 2110B mit einem Perspektivitätszentrum 2112B, welches das Zentrum der Eintrittspupille der Linse ist. Die Eintrittspupille ist als das optische Bild der physischen Öffnungsblende definiert, gesehen durch die Vorderseite des Linsensystems. Der Strahl, der durch das Zentrum der Eintrittspupille führt, wird als der Hauptstrahl bezeichnet, und der Winkel des Hauptstrahls zeigt den Winkel eines Objektpunkts an, wie er von der Kamera empfangen wird. Ein Hauptstrahl kann von einem der Zielpunkte 2120A durch die Eintrittspupille gezogen werden. Zum Beispiel ist der Strahl 2114B ein möglicher Hauptstrahl, der den Winkel eines Objektpunkts (auf dem Strahl) in Bezug auf die Kameralinse 2110B definiert. Dieser Winkel des Objektpunkts wird in Bezug auf eine optische Achse 2116B der Linse 2110B definiert.
  • Die Austrittspupille ist als das optische Bild der physischen Öffnungsblende definiert, gesehen durch die Rückseite des Linsensystems. Der Punkt 2118B ist das Zentrum der Austrittspupille. Der Hauptstrahl wandert von dem Punkt 2118B zu einem Punkt auf der lichtempfindlichen Matrix 2120B. Im Allgemeinen unterscheidet sich der Winkel des Hauptstrahls, wenn er aus der Austrittspupille austritt, von dem Winkel des Hauptstrahls, wenn er in das Perspektivitätszentrum (die Eintrittspupille) eintritt. Um die Analyse zu vereinfachen, wird der Strahlenweg, der der Eintrittspupille folgt, eingestellt, damit das Strahlenbündel in einer geraden Linie durch das Perspektivitätszentrum 2112B zur lichtempfindlichen Matrix 2120B wandern kann, wie in 21B gezeigt ist. Es werden hierfür drei mathematische Einstellungen vorgenommen. Zunächst wird die Position eines jeden abgebildeten Punktes auf der lichtempfindlichen Matrix korrigiert, um Linsenabweichungen und andere systematische Fehlerbedingungen zu berücksichtigen. Dies kann durch Ausführen von Kompensationsmessungen der Linse 2110B erfolgen, zum Beispiel unter Verwendung von Verfahren, die mit Bezug auf die 17A, 18A und 19 beschrieben wurden. Als zweites wird der Winkel des Strahls 2122B geändert, um ihn an den Winkel des Strahls 2114B anzugleichen, der durch das Perspektivitätszentrum 2112B hindurchgeht. Der Abstand von der Austrittspupille 2118B zur lichtempfindlichen Matrix 2120B wird dementsprechend eingestellt, um die Bildpunkte an den um die Abweichung korrigierten Punkten auf der lichtempfindlichen Matrix 2120B anzuordnen. Als drittes wird der Punkt 2118B auf das Perspektivitätszentrum 2112B reduziert, um den Raum 2124B zu entfernen, wodurch alle Lichtstrahlen 2124B, die aus dem Objekt austreten, in einer geraden Linie durch den Punkt 2112B auf die lichtempfindliche Matrix 2120B gelangen können, wie in 21B gezeigt ist. Durch diesen Ansatz kann der genaue Weg eines jeden durch das optische System der Kamera 2100B gehenden Lichtstrahlenbündels zur schnellen mathematischen Analyse vereinfacht werden. Diese mathematische Analyse kann durch den Stromkreis und den Prozessor 2126B in einem Montageaufbau 2128B oder durch Prozessoren an einer anderen Stelle in dem System oder in einem externen Netz durchgeführt werden. In der nachstehenden Besprechung wird der Begriff Perspektivitätszentrum als das Zentrum der Eintrittspupille angenommen, wobei das Linsenmodell so geändert wurde, dass Strahlen gerade durch das Perspektivitätszentrum zu einer lichtempfindlichen Kameramatrix oder gerade durch das Perspektivitätszentrum gezogen werden können, um Strahlen von einer Projektormustergeneratorvorrichtung zu lenken.
  • Wie hier vorstehend erklärt wurde, kann ein Videogrammetriesystem, das eine Kamera umfasst, in Kombination mit einem 3D-Bildgerät verwendet werden, das mindestens eine Kamera und einen Projektor umfasst. Der Projektor kann eine Vielfalt von Mustern projizieren, wie hier vorstehend beschrieben wurde. 22A zeigt ein 2D-Bild, das zwei Zylinder und einen Würfel umfasst. Kardinalpunkte der Objekte in dem 2D-Bild aus 22A wurden mit den Markierungen 2210 markiert. Gemeinsame Markierungen in aufeinander folgenden Bildern bieten eine Möglichkeit, die aufeinander folgenden Bilder in Deckung zu bringen. 22B zeigt ein 2D-Bild derselben Objekte, auf welche ein Lichtmuster von einem Projektor eines 3D-Bildgeräts projiziert wurde. Zum Beispiel umfasst eine mögliche Art von projiziertem Muster eine Sammlung von einfachen Punktelementen 2220. In einer Ausführungsform werden 3D-Messungen von Objekten, wie diejenigen, die in den 22A und 22B dargestellt sind, unter Verwendung einer 3D-Triangulationsvorrichtung 900 ausgeführt, die dichroitische Kameras verwendet, um eine Kombination aus Videogrammetrie und 3D-Bildgebung basierend auf projizierten Lichtmustern auszuführen.
  • In dem Messszenarium 1300 aus 13 werden eine Anzahl von individuellen Kameras und Projektoren verwendet, um ein sich bewegendes Objekt 1330 zu erfassen. Dieser Ansatz wird in dem Messszenarium 2300 aus 23 erweitert und verstärkt, indem die individuellen Kameras und Projektoren durch 3D-Triangulationsvorrichtungen 900 ersetzt werden. Ein Vorteil dieses Ansatzes besteht darin, dass ein sich bewegendes Objekt 1330 aus allen Richtungen in 3D und in Farbe erfasst werden kann. In einer Ausführungsform projizieren die 3D-Triangulationsvorrichtungen 900 ein Muster aus Infrarot-(IR-)Licht und erfassen gleichzeitig Farbbilder mit einer Videogrammetrie-Kamera. Dadurch können die 3D-Farbbilder erhalten werden, ohne dass unerwünschte Projektionsartefakte in Nachbearbeitungsschritten entfernt werden müssen.
  • Die Genauigkeit des zusammengesetzten 3D-Bilds des Objekts 1330 wird verbessert, wenn die Pose jedes der 3D-Triangulationssysteme 900 in dem Messszenarium 2300 innerhalb eines gemeinsamen Bezugssystems 2310 bekannt ist. Eine Möglichkeit, die Pose eines jeden Systems 900 zu bestimmen, wird nun beschrieben.
  • 24 zeigt eine verbesserte 3D-Triangulationsvorrichtung 2400, die eine 3D-Triangulationsvorrichtung 900 umfasst, welcher eine Deckungseinrichtung 2410 zugefügt wurde. Wie hier nachstehend erklärt wird, kann durch das Hinzufügen der Deckungseinrichtung 2410 eine sich drehende Kamera die Pose der Vorrichtung 2400 bestimmen. In einer Ausführungsform umfasst die Einrichtung 2410 eine Montageplatte 2412, auf der eine Sammlung von Lichtmarkierungen 2414 angebracht ist. Die Lichtmarkierungen können zum Beispiel Lichtquellen wie LEDs oder Reflexionspunkte oder Reflexionspunkte oder passive Markierungen wie gedruckte Punkte sein. Die Lichtmarkierungen können auf beiden Seiten und an den Kanten der Montageplatte 2412 angeordnet sein. Die Einrichtung 2410 kann ein oder mehrere getrennte Lichtmarkierungselemente 2414 mit einer separaten Struktur 2416 aufweisen. Im Allgemeinen kann jede Kombination von Lichtmarkierungen, die von einer Kamera erkannt werden kann, in der Einrichtung 2410 verwendet werden. Bei anderen Ausführungsformen umfasst die Einrichtung Lichtmarkierungen, die um die 3D-Triangulationsvorrichtung 900 oder direkt auf dieser angeordnet sind, ohne dass eine Platte 2412 verwendet wird.
  • Obwohl diese Art der Überwachung eine kontinuierliche Bewegung des 3D-Triangulationssystems 1100B ermöglicht, erfordert die Verwendung des Phasenverschiebungsverfahrens, dass die 3D-Messvorrichtung 2500A feststehend gehalten wird, bis eine komplette Sequenz von Phasenmessungen abgeschlossen ist.
  • 25A veranschaulicht ein Messszenarium, bei dem ein 3D-Triangulationssystem 1100B eine motorisierte Roboterbasis 1110 und eine 3D-Messvorrichtung 2500A umfasst. Die motorisierte Roboterbasis 1110 umfasst eine mobile Plattform 1112, auf der ein Roboterarm 1116 montiert ist, der die 3D-Messvorrichtung 2500A hält. Die motorisierte Roboterplattform 1112 umfasst Räder, die mittels Computer- oder manueller Steuerung gelenkt werden, um das 3D-Triangulationssystem 1100B zu einer gewünschten Position zu bewegen. Der Roboterarm 1116 ist in der Lage, die 3D-Messvorrichtung 2500A nach oben und unten und nach links und rechts zu bewegen. Er kann die 3D-Messvorrichtung in jede gewünschte Position kippen und kann die 3D-Messvorrichtung 2500A zum Beispiel in das Innere eines Objekts 1030 ausfahren, das in einer Ausführungsform eine nackte Kraftfahrzeugkarosserie ist. Ferner ist die motorisierte Roboterbasis 1110 in der Lage, das 3D-Triangulationssystem 1100B mittels Computersteuerung von Seite zu Seite zu bewegen, um die Messung des Objekts automatisch auszuführen.
  • In einer Ausführungsform, die in 25B veranschaulicht ist, wird die Pose der 3D-Messvorrichtung 2500A kontinuierlich von den sich drehenden Kameras 1620A, 1620B überwacht, die in einer Stereokonfiguration ähnlich wie in 25A verwendet werden. Da die zwei sich drehenden Kameraaufbauten kontinuierlich mindestens drei gemeinsame Lichtmarkierungen auf der 3D-Messvorrichtung 1620A messen, ist die relative Pose der Vorrichtung 2400 jederzeit bekannt. In einer Ausführungsform misst die 3D-Messvorrichtung 3D-Koordinaten eines Objekts 1030 kontinuierlich, während die motorisierten Räder die motorisierte Roboterbasis 1110 kontinuierlich bewegen. Daher ist es möglich, dass die Kameras 1620A, 1620B die Pose der Vorrichtung 2400 kontinuierlich messen, zum Beispiel mit 30 Rahmen pro Sekunde oder schneller. In einer Ausführungsform werden die Rahmenerfassungszeiten der Kameras in den sich drehenden Kameraaufbauten 1620A, 1620B mit den Belichtungserfassungszeiten der Kameras und Projektoren in der Vorrichtung 2400 synchronisiert, wodurch eine genaue Lokalisierung der 3D-Messvorrichtung 2400, während sie kontinuierlich von Punkt zu Punkt bewegt wird, ermöglicht wird. In einer Ausführungsform wird die Genauigkeit der Nachverfolgung weiter durch die Verwendung eines Kalman-Filters verbessert, das die berechnete Pose der Vorrichtung 2400 überwacht und die künftigen Bewegungen voraussieht. Dabei ist das Kalman-Filter in der Lage, ein intelligentes Filtern von Daten anzuwenden, während weiter künftige Bewegungen berücksichtigt werden, wodurch die Genauigkeit verbessert und das Rauschen in der gemessenen Pose der Vorrichtung 2400 verringert wird.
  • In einer alternativen Ausführungsform, die in 25B veranschaulicht ist, ist die verbesserte 3D-Triangulationsvorrichtung 2400 als Teil einer Handmessvorrichtung, wie die Vorrichtung 2400G, eingeschlossen, welche gleich der Vorrichtung 2400 ist, außer dass sie ferner einen Griff 2470G umfasst, den ein Bediener verwenden kann, um die Vorrichtung 2400G frei von Ort zu Ort zu bewegen.
  • In einer anderen Ausführungsform, die in 25A veranschaulicht ist, verwendet die 3D-Messvorrichtung 2500A ein sequentielles Abbildungsverfahren, welches eine höhere Genauigkeit bietet als Verfahren mit Einzelaufnahmen. Sequentielle Abbildungsverfahren erfordern, dass die messende 3D-Messvorrichtung 2500A während der Projektion und Abbildung einer Sequenz von Mustern ortsfest gehalten werden muss. In einer hier nachstehend mit Bezug auf die 26A–D und 27 beschriebenen Ausführungsform basiert das sequentielle Abbildungsverfahren auf der Projektion eines phasenverschobenen sinusförmigen Musters.
  • Obwohl die 25A und 25B Messungen veranschaulichen, bei denen die 3D-Messvorrichtung eine der 3D-Triangulationsvorrichtungen 900 umfasst, die eine dichroitische Kamera aufweisen, können die anhand der
  • 25A und 25B beschriebenen Verfahren ebenso gut auf 3D-Triangulationsvorrichtungen angewandt werden, die keinen dichroitischen Kameraaufbau aufweisen. Mit anderen Worten kann jede der in den 1A, 1B, 2 oder 3 veranschaulichten Vorrichtungen zum Beispiel an Stelle der 3D-Triangulationsvorrichtung 900, die in die 25A und 25B eingebettet ist, verwendet werden.
  • Um 3D-Koordinaten basierend auf Stereo-Triangulationsberechnungen zu bestimmen, wie diejenigen, die in 25A veranschaulicht sind, ist es notwendig, die relative Pose der sich drehenden Kameraaufbauten 1620A, 1620B zu bestimmen. Eine Möglichkeit, die relative Pose der sich drehenden Kameras 1620A, 1620B zu bestimmen, besteht in der Verwendung des hier mit Bezug auf 19 vorstehend beschriebenen Verfahrens. Alternativ könnten die Verfahren der 17A, 18 oder 20 verwendet werden. Es kann manchmal vorkommen, dass die 3D-Messvorrichtung 2500A zu einer Position bewegt wird, die nicht innerhalb des FOV von einer der sich drehenden Kameraaufbauten 1620A, 1620B liegt. Wenn dies geschieht, kann eine der sich drehenden Kameraaufbauten zu einer neuen Stelle bewegt werden. In diesem Fall ist es notwendig, die relative Pose der zwei Kameras 1620A, 1620B relativ zu ihrer ursprünglichen Pose erneut einzurichten, so dass die 3D-Koordinaten, die von der 3D-Messvorrichtung 2500A bereitgestellt werden, in das gleiche Bezugssystem wie vor der Bewegung des sich drehenden Kameraaufbaus eingegeben werden können. Eine bequeme Art hierfür besteht darin, eine Pose innerhalb des Bezugssystems der Umgebung einzurichten, indem eine Sammlung von Zielen 2750 bereitgestellt wird, die durch die sich drehenden Kameraaufbauten 1620A, 1620B sichtbar sind. Wenn die sich drehenden Kameras zunächst in ihre Position bewegt werden, messen sie jeweils mindestens drei der gleichen Ziele. Die von den Kameras gemessenen 3D-Koordinaten reichen aus, um die Pose der Kameras 1620A, 1620B im Bezugssystem der Umgebung zu bestimmen. Später, wenn eine oder beide der Kameras 1620A, 1620B bewegt werden, können die Ziele 2750 erneut gemessen werden, um die Positionen der Kameras im Bezugssystem der Umgebung erneut einzurichten.
  • Um die Pose innerhalb eines Bezugssystem der Umgebung einzurichten, ist es auch notwendig, mit den Kameras 1620A, 1620B eine bekannte Bezugslänge zu messen, um einen Längenskala für die erfassten Bilder bereitzustellen. Eine solche Bezugslänge kann zum Beispiel durch eine Skalenstange mit einer bekannten Länge zwischen zwei Bezugszielen bereitgestellt werden. In einer anderen Ausführungsform kann eine Skala von zwei Bezugszielen bereitgestellt werden, die von einem anderen Verfahren gemessen wurden. Zum Beispiel kann ein Lasertracker verwendet werden, um den Abstand zwischen jeweils einem in jedem von zwei kinematischen Nestern platzierten SMR zu messen. Der SMR kann dann durch ein Bezugsziel ersetzt werden, das in jedes von zwei kinematischen Nestern platziert wird. Jedes Bezugsziel kann in diesem Fall ein sphärisches Oberflächenelement umfassen, das sich innerhalb des kinematischen Nests dreht und außerdem ein reflektierendes oder beleuchtetes Element, das auf der Kugel zentriert ist, umfasst.
  • Es wird nun eine Erklärung für ein bekanntes Verfahren zum Bestimmen von 3D-Koordinaten auf einer Objektoberfläche unter Verwendung eines sequentiellen sinusförmigen Phasenverschiebungsverfahrens angegeben, wie es anhand der Figuren 26A–D und 27 beschrieben wurde. 26A veranschaulicht die Projektion eines sinusförmigen Musters durch einen Projektor 30 in einer Vorrichtung 2600. In einer Ausführungsform variiert das sinusförmige Muster in 26A in Bezug auf seine Lichtleistung von völlig dunkel zu völlig hell. Eine minimale Position auf der Sinuswelle in 26A entspricht einer dunklen Projektion und eine maximale Position auf der Sinuswelle entspricht einer hellen Projektion. Der Projektor 30 projiziert Licht entlang Strahlen, die in konstanten Linien wandern und die aus dem Perspektivitätszentrum der Projektorlinse austreten. Somit stellt in 26A eine Linie entlang der optischen Achse 34 in 26A einen Punkt weder an einem Maximum noch an einem Minimum des sinusförmigen Musters dar und stellt somit ein mittleres Helligkeitsniveau dar. Die relative Helligkeit ist für alle Punkte gleich, die auf einem Strahl liegen, der durch das Perspektivitätszentrum der Projektorlinse projiziert wird. Also befinden sich zum Beispiel alle Punkte entlang des Strahls 2615 auf einem maximalen Helligkeitsniveau des sinusförmigen Musters. Ein komplettes sinusförmiges Muster erscheint entlang der Linien 2610, 2612 und 2614, auch wenn die Linien 2610, 2612 und 2614 unterschiedliche Längen aufweisen.
  • In 26B kann ein gegebenes Pixel einer Kamera 70 jeden einer Sammlung von Punkten sehen, die entlang einer Linie liegen, die von dem Pixel durch das Perspektivitätszentrum des Kameralinsenaufbaus gezogen ist. Der tatsächliche, von dem Pixel beobachtete Punkt hängt von dem Objektpunkt ab, der von der Linie geschnitten wird. Zum Beispiel kann für ein Pixel, das auf die optische Achse 74 des Linsenaufbaus 70 ausgerichtet ist, das Pixel einen Punkt 2620, 2622 oder 2624 sehen, je nachdem, ob das Objekt entlang der Linien der Muster 2610, 2612 bzw. 2614 liegt. Es ist anzumerken, dass die Position auf dem sinusförmigen Muster in jedem dieser drei Fälle unterschiedlich ist. In diesem Beispiel ist der Punkt 2620 heller als der Punkt 2622, welcher heller als der Punkt 2624 ist.
  • 26C veranschaulicht die Projektion eines sinusförmigen Musters durch den Projektor 30, jedoch mit mehr Zyklen des in den Raum projizierten sinusförmigen Musters. 26C veranschaulicht den Fall, in dem zehn sinusförmige Zyklen projiziert werden, und nicht nur ein Zyklus. Die Zyklen 2630, 2633 und 2634 werden mit den gleichen Abständen vom Scanner 2600 projiziert wie die Linien 2610, 2612 bzw. 2614 in 26A. Außerdem zeigt 26C ein zusätzliches sinusförmiges Muster 2633.
  • In 26D sieht ein mit der optischen Achse 74 des Linsenaufbaus 70A ausgerichtetes Pixel die optischen Helligkeitsniveaus entsprechend den Positionen 2640, 2642, 2644 und 2646 für die vier sinusförmigen Muster, die in 26D veranschaulicht sind. Es ist zu beachten, dass das Helligkeitsniveau an einem Punkt 2640 das gleiche ist wie am Punkt 2644. Wenn sich ein Objekt weiter von dem Scanner 2600 vom Punkt 2640 zum Punkt 2644 weg bewegt, wird es zunächst an der Spitze der Sinuswelle ein wenig heller und fällt dann an der Position 2642 auf ein niedrigeres Helligkeitsniveau ab, bevor es zum ursprünglichen relativen Helligkeitsniveau bei 2644 zurückkehrt.
  • In einem Phasenverschiebungsverfahren zum Bestimmen des Abstands zu einem Objekt wird ein sinusförmiges Muster in einer Sequenz von mindestens drei Phasenverschiebungen von Seite zu Seite verschoben. Betrachten wir zum Beispiel die in 27 veranschaulichte Situation. Bei dieser Figur wird ein Punkt 2702 auf einer Objektoberfläche 2700 durch den Projektor 30 beleuchtet. Dieser Punkt wird von der Kamera 70 und der Kamera 60 beobachtet. Angenommen, das sinusförmige Helligkeitsmuster wird in vier Schritten von Seite zu Seite verschoben, um die verschobenen Muster 2712, 2714, 2716 und 2718 zu erhalten. Am Punkt 2702 misst jede der Kameras 70 und 60 das relative Helligkeitsniveau an jedem der vier verschobenen Muster. Falls zum Beispiel die Phasen der Sinuskurven für die vier gemessenen Phasen für die Positionen 2722, 2724, 2726 bzw. 2728 θ = {160°, 250°, 340°, 70°} sind, sind die relativen Helligkeitsniveaus, die von den Kameras 70 und 60 an diesen Positionen gemessen werden, (1 + sin (θ))/2, oder 0,671, 0,030, 0,329 bzw. 0,969. Ein relativ niedriges Helligkeitsniveau ist an der Position 2724 zu sehen, und ein relativ hohes Helligkeitsniveau ist an der Position 2728 zu sehen.
  • Durch Messen der von den Pixeln in den Kameras 70 und 60 empfangenen Lichtmenge kann die anfängliche Phasenverschiebung des Lichtmusters 2712 bestimmt werden. Wie durch 26D nahegelegt wird, ermöglicht eine solche Phasenverschiebung die Bestimmung eines Abstands vom Scanner 2600, zumindest solange bekannt ist, dass die beobachteten Phasen innerhalb eines 360-Grad-Phasenbereichs liegen, zum Beispiel zwischen den Positionen 2640 und 2644 in 26D. Es ist auf dem Fachgebiet ein quantitatives Verfahren bekannt, um eine Phasenverschiebung zu bestimmen, indem relative Helligkeitswerte an einem Punkt für mindestens drei verschiedene Phasenverschiebungen (Verschiebungen von Seite zu Seite in dem projizierten sinusförmigen Muster) gemessen werden. Für eine Sammlung von N Phasenverschiebungen von sinusförmigen Signalen, die zu gemessenen Helligkeitsniveaus xi führen, ist ein allgemeiner Ausdruck für die Phase ϕ gegeben durch ϕ = tan–1 (–bi/ai)0,5, wobei ai = Σxj cos(2πj/N) und bi = Σxj sin(2πj/N), wobei die Summenbildung über ganze Zahlen von j = 0 bis N – 1 vorgenommen wird. Für Sonderfälle können einfachere Formeln verwendet werden. Zum Beispiel ist für den Sonderfall von vier gemessenen Phasen, die jeweils nacheinander um 90 Grad verschoben sind, der anfängliche Phasenwert gegeben durch tan–1 ((x4 – x2)/(x1 – x3)).
  • Das Verfahren der Phasenverschiebung aus 27 kann verwendet werden, um die Phase auf innerhalb einer Sinuswellenperiode, oder 360 Grad, zu bestimmen. Für einen Fall wie in 26D, wo mehr als ein 360-Grad-Intervall abgedeckt ist, kann die Prozedur ferner die Projektion einer Kombination von relativ groben und relativ feinen Phasenperioden umfassen. Zum Beispiel wird in einer Ausführungsform das relativ grobe Muster aus 26A zunächst mit mindestens drei Phasenverschiebungen projiziert, um einen ungefähren Abstand zum Objektpunkt entsprechend einem besonderen Pixel auf der Kamera 70 zu bestimmen. Als nächstes wird das relativ feine Muster aus 26C mit mindestens drei Phasenverschiebungen auf das Objekt projiziert, und die Phase wird unter Verwendung der vorstehend angegebenen Formeln berechnet. Die Ergebnisse der groben Phasenverschiebungsmessungen und der feinen Phasenverschiebungsmessungen werden kombiniert, um eine zusammengesetzte Phasenverschiebung zu einem Punkt entsprechend einem Kamerapixel zu bestimmen. Falls die Geometrie des Scanners 2600 bekannt ist, ist diese zusammengesetzte Phasenverschiebung ausreichend, um die dreidimensionalen Koordinaten des Punktes entsprechend einem Kamerapixel unter Verwendung der Verfahren der Triangulation zu bestimmen, wie hier vorstehend anhand von 1A besprochen wurde. Manchmal wird der Begriff „abgewickelte Phase” verwendet, um eine gesamte oder eine zusammengesetzte Phasenverschiebung zu bezeichnen.
  • Ein alternatives Verfahren zum Bestimmen von 3D-Koordinaten unter Verwendung von Triangulationsverfahren besteht im Projizieren von codierten Mustern. Falls ein codiertes Muster, das von dem Projektor projiziert wird, von der Kamera (den Kameras) erkannt wird, kann eine Übereinstimmung zwischen den projizierten und abgebildeten Punkten vorgenommen werden. Da in diesem Fall die Grundlinie und zwei Winkel bekannt sind, können die 3D-Koordinaten für den Objektpunkt berechnet werden.
  • Ein Vorteil des Projizierens von codierten Mustern besteht darin, dass 3D-Koordinaten von einem einzelnen projizierten Muster erhalten werden können, wodurch eine schnelle Messung ermöglicht wird, die normalerweise zum Beispiel bei Handscannern erforderlich ist. Ein Nachteil des Projizierens von codierten Mustern besteht darin, dass das Hintergrundlicht die Messungen stören kann, wodurch sich die Genauigkeit verringert. Das Problem des Hintergrundlichts wird in dem Verfahren der sinusförmigen Phasenverschiebung vermieden, da sich Hintergrundlicht, wenn es konstant ist, in der Berechnung der Phase aufhebt.
  • Eine Möglichkeit, die Genauigkeit unter Verwendung des Phasenverschiebungsverfahrens beizubehalten, während die Messzeit minimiert wird, besteht darin, einen Scanner mit einer dreieckigen Geometrie zu verwenden, wie in 3. Die drei Kombinationen der Projektor-Kamera-Ausrichtung bieten redundante Informationen, die verwendet werden können, um einige der mehrdeutigen Intervalle zu eliminieren. Zum Beispiel können die mehreren gleichzeitigen Lösungen, die für die Geometrie aus 3 möglich sind, die Möglichkeit eliminieren, dass das Objekt im Intervall zwischen den Positionen 2744 und 2746 in 26D liegt. Durch diese Kenntnis lässt sich die Notwendigkeit eliminieren, eine vorläufige grobe Messung der Phase auszuführen, wie zum Beispiel in 26B veranschaulicht ist. Ein alternatives Verfahren, das einige grobe Phasenverschiebungsmessungen eliminieren kann, besteht darin, ein codiertes Muster zu projizieren, um eine ungefähre Position eines jeden Punktes auf der Objektoberfläche zu erhalten.
  • 28A veranschaulicht eine verwandte erfindungsgemäße Ausführungsform für ein System 2800A, bei dem eine Handmessvorrichtung 2820 von zwei sich drehenden Kameraaufbauten 1420A, 1420B, die in einer Stereokamerakonfiguration angeordnet sind, verfolgt wird. Wie im Fall der Vorrichtung 2400G umfasst die 3D-Handmessvorrichtung 2820 eine Sammlung von Lichtmarkierungen 2822, welche zum Beispiel LEDs oder Reflexionspunkte sein können. Die Handmessvorrichtung 2820 umfasst eine Tastsonde, die mit der Oberfläche eines Objekts 1030 in Kontakt gebracht wird. In einer Ausführungsform umfasst die Tastsonde eine Sondenspitze in Form einer Kugel. Das System 2800A bestimmt die 3D-Koordinaten des Zentrums der sphärischen Sondenspitze 2824 in einem Bezugssystem 2810. Durch Erlangen einer Sammlung solcher 3D-Koordinaten kann die Sammlung von 3D-Koordinaten korrigiert werden, um den Versatz des Kugelradius der Sondenspitze zu entfernen, wodurch sich die 3D-Koordinaten des Objekts 1030 ergeben. Die sich drehenden Kameraaufbauten 1420A, 1420B drehen sich jeweils um zwei Achsen, wobei ein Winkelwandler vorgesehen ist, um den Drehwinkel jeder Achse zu messen. In einer Ausführungsform ist der Winkelwandler ein Winkelkodierer mit einer relativ hohen Winkelgenauigkeit, zum Beispiel 10 Mikroradian oder weniger.
  • In einer Ausführungsform haben die sich drehenden Kameraaufbauten 1420A, 1420B ein FOV, das groß genug ist, um die Lichtmarkierungen 2822 auf der Handmessvorrichtung 2820 zu erfassen. Durch Drehung der Kameraaufbauten 1420A, 1420B um die Handmessvorrichtung 2820 zu verfolgen, ist das System 2800A in die Lage versetzt, 3D-Koordinaten über eine relativ große Messumgebung 2850 zu messen, auch wenn das FOV für jeden der Kameraaufbauten 1420A, 1420B relativ klein ist. Die Folge dieses Ansatzes ist eine verbesserte Messgenauigkeit über ein relativ großes Messvolumen. In einer Ausführungsform werden die sich drehenden Kameras 1420A, 1420B in eine feste Position angehoben, zum Beispiel auf Ständern 2802.
  • 28B veranschaulicht eine erfindungsgemäße Ausführungsform für ein System 2800B ähnlich wie das System 2800A, außer dass die 3D-Handmessvorrichtung 2830 die 3D-Handmessvorrichtung ersetzt. Die 3D-Handmessvorrichtung umfasst einen Linienscanner 2832 an Stelle der Tastsonde 2824. Der Linienscanner 2832 hat eine Genauigkeit ähnlich wie diejenige eines Triangulationsscanners, der ein sequentielles Phasenverschiebungsverfahren verwendet, jedoch mit dem Vorteil, dass Messungen in einer einzelnen Aufnahme vorgenommen werden können. Der Linienscanner 2832 sammelt jedoch 3D-Koordinaten nur über eine projizierte Linie und muss somit gekippt werden, um 3D-Koordinaten über einen Bereich zu erhalten. Für das System 2800B kann die 3D-Handmessvorrichtung 2830 in Echtzeit verfolgt werden. Zum Beispiel kann in einer Ausführungsform die Erfassung der Lichtmarkierungen 2822 durch die sich drehenden Kameras 1420A, 1420B mit der Erfassung der Lichtlinie durch den Linienscanner 2832 synchronisiert werden. Bei diesem Ansatz können 3D-Koordinaten zum Beispiel mit zwischen 30 und 100 Rahmen pro Sekunde erfasst werden.
  • In einer in 28C veranschaulichten Ausführungsform ist ein System 2800C ähnlich wie die Systeme 2800A und 2800B, außer dass Messungen mit einer 3D-Handmessvorrichtung 2840, bei der sowohl eine Tastsondenspitze 2824 als auch der Linienscanner 2832 auf einem Handkörper mit der Sammlung von Lichtmarkierungen 2822 montiert sind, ausgeführt werden. Ein Vorteil der Handmessvorrichtung 2840 besteht darin, dass sie Messungen einer Oberfläche ermöglicht, die mit einer relativ hohen Dichte bei einer relativ hohen Geschwindigkeit vom Linienscanner zu erfassen ist, während auch die Messung von Löchern und Kanten mit der Tastsonde ermöglicht wird. Die Tastsonde ist besonders nützlich beim Messen von Merkmalen, die ansonsten nicht zugänglich wären, wie tiefe Löcher. Sie ist auch beim Messen von scharfen Kanten nützlich, die durch Messung mit einem Linienscanner leicht verschmiert werden könnten.
  • Der Betrieb des Laserlinienscanners (auch als Laserliniensonde oder einfach Linienscanner bekannt), wie des Linienscanners 2832 aus den 28B und 28C, wird nun anhand von 29 beschrieben. Das Linienscannersystem 2900 umfasst einen Projektor 2920 und eine Kamera 2940. Der Projektor 2920 umfasst ein Quelllichtmuster 2921 und eine Projektorlinse 2922. Das Quelllichtmuster umfasst ein beleuchtetes Muster in Form einer Linie. Die Projektorlinse umfasst ein Projektorperspektivitätszentrum und eine optische Projektorachse, die durch das Projektorperspektivitätszentrum hindurchgeht. In dem Beispiel von 29 ist ein mittlerer Strahl des Lichtstrahlenbündels 2924 mit der optischen Perspektivitätsachse ausgerichtet. Die Kamera 2940 umfasst eine Kameralinse 2942 und eine lichtempfindliche Matrix 2941. Die Linse hat eine optische Kameraachse 2943, die durch ein Perspektivitätszentrum der Kameralinse 2944 hindurchgeht. In dem beispielhaften System 2900 sind die optische Projektorachse, die mit dem Lichtstrahlenbündel 2924 ausgerichtet ist, und die optische Kameralinsenachse 2943 senkrecht zur Lichtlinie 2925, die von dem Quelllichtmuster 2921 projiziert wird. Mit anderen Worten liegt die Linie 2925 in Richtung senkrecht zum Papier in 29. Die Lichtlinie 2925 trifft auf eine Objektoberfläche, die in einem ersten Abstand von dem Projektor die Objektoberfläche 2910A und in einem zweiten Abstand von dem Projektor die Objektoberfläche 2910B ist. Es versteht sich, dass sich bei verschiedenen Höhen oberhalb oder unterhalb des Papiers von 29 die Objektoberfläche in einem anderen Abstand von dem Projektor befinden kann als der Abstand entweder zur Objektoberfläche 2910A oder 2910B. Für einen Punkt auf der Lichtlinie 2925, der auch in dem Papier von 29 liegt, schneidet die Lichtlinie die Oberfläche 2910A in einem Punkt 2926, und sie schneidet die Oberfläche 2910B in einem Punkt 2927. Für den Fall des Schnittpunkts 2926 wandert ein Lichtstrahl von dem Punkt 2926 durch das Perspektivitätszentrum der Kameralinse 2944, um die lichtempfindliche Matrix 2941 in einem Bildpunkt 2946 zu schneiden. Für den Fall des Schnittpunkts 2927 wandert ein Lichtstrahl von dem Punkt 2927 durch das Perspektivitätszentrum der Kameralinse, um die lichtempfindliche Matrix 2941 in einem Bildpunkt 2947 zu schneiden. Durch Vermerken der Position des Schnittpunktes relativ zu der Position der optischen Kameralinsenachse 2943 kann der Abstand von dem Projektor (und der Kamera) zu der Objektoberfläche bestimmt werden. Der Abstand von dem Projektor zu anderen Punkten auf dem Schnittpunkt der Lichtlinie 2925 mit der Objektoberfläche, das heißt zu Punkten auf der Lichtlinie, die nicht in der Ebene des Papiers von 29 liegen, kann auf ähnliche Weise ermittelt werden. Im üblichen Fall ist das Muster auf der lichtempfindlichen Matrix eine Lichtlinie (im allgemeinen keine gerade Linie), wobei jeder Punkt in der Linie einer anderen Position senkrecht zu der Ebene des Papiers entspricht, und die Position senkrecht zu der Ebene des Papiers enthält die Informationen über den Abstand von dem Projektor zu der Kamera. Daher können durch Auswerten des Musters der Linie in dem Bild der lichtempfindlichen Matrix die dreidimensionalen Koordinaten der Objektoberfläche entlang der projizierten Linie ermittelt werden. Es sei anzumerken, dass die in dem Bild auf der lichtempfindlichen Matrix enthaltenen Informationen bei einem Linienscanner in einer (nicht im Allgemeinen geraden) Linie enthalten sind.
  • Die in den 28A–C beschriebenen Verfahren sind relativ genau, wenn die Winkelwandler, die die Drehwinkel der sich drehenden Kameras 1420A, 1420B messen, genau sind, zum Beispiel mit einem Fehler von weniger als 10 Mikroradian. Sie arbeiten weniger gut, wenn es kein Winkelmesssystem gibt oder wenn die Winkelwandler nicht sehr genau sind. 30 veranschaulicht ein Verfahren zum Bestimmen von 3D-Koordinaten des Objekts 1030 mit relativ hoher Genauigkeit unter Verwendung der Vorrichtung 2820, 2830 oder 2840, auch wenn die sich drehenden Kameras 1420A, 1420B kein genaues Winkelmesssystem umfassen.
  • In einer Ausführungsform, die in 30 veranschaulicht ist, ist ein System 3000 ähnlich wie die Systeme 2800A, 2800B und 2800C der 28A, 28B bzw. 28C, außer dass ein Projektor 3020 hinzugefügt wurde, um ein Lichtmuster zu projizieren, wobei es sich um eine Sammlung von Lichtpunkten 3010 handeln könnte. In einer Ausführungsform ist der Projektor 3020 fest auf einem Sockel 2803 montiert und projiziert die Musterelemente 3010 ohne Drehung. In einer Ausführungsform umfassen zwei sich drehende Kameraaufbauten 1420A, 1420B Drehmechanismen, aber sie umfassen keine genauen Winkelmesswandler. Stattdessen verwenden die Kameras 1420A, 1420B die abgebildeten Punkte, um jeden ihrer Drehwinkel zu bestimmen. In anderer Hinsicht arbeitet das System 3000 aus 30 auf die gleiche Weise wie die Systeme 2800A, 2800B und 2800C der 28A, 28B und 28C. In einer Ausführungsform trifft der Ursprung eines Bezugssystems 3050 mit dem Kardanpunkt des Projektors 3020 zusammen. In einer Ausführungsform entspricht, wenn das projizierte Muster in Form eines Gitters vorliegt, die z-Achse der Ausbreitungsrichtung entlang der optischen Achse des Projektors 3020, und die x- und y-Achse entsprechen den Richtungen des Gitters in einer Ebene senkrecht zur z-Achse. Viele andere Konventionen sind für das Bezugssystem möglich. Das projizierte Muster schneidet das Objekt 1030 in einer Sammlung von Lichtelementen 3010, die zum Beispiel Bildpunkte sein können. Jeder Bildpunkt 1030 entspricht einem besonderen 2D-Winkel, der von dem Ursprung des Bezugssystems 3050 stammt. Die 2D-Winkel jedes der projizierten Bildpunkte in dem Bezugssystem sind daher jeder der sich drehenden Kameras 1420A, 1420B bekannt. Die relative Pose der beiden Kameras 1420A, 1420B und des Projektors 3020 können durch Messen einer Anzahl der projizierten Bildpunkte mit jedem der Kamerasysteme 1420A, 1420B ermittelt werden. Jeder der beobachteten Winkel der projizierten Bildpunkte muss mit Triangulationsberechnungen konsistent sein, wie hier vorstehend mit Bezug auf die 1A, 1B, 2, 3, 4A und 4B besprochen wurde. Das System verwendet die mathematischen Triangulationseinschränkungen, um die relative Pose der Kameras 1420A, 1420B und des Projektors 3020 aufzulösen. Wenn alle der projizierten Bildpunkte identisch sind, kann die Handmessvorrichtung 2820, 2830 oder 2840 in die Messposition gebracht werden, und die Kameras 1420A, 1420B können verwendet werden, um die Lichtmarkierungen 2822 in Bezug auf die projizierten Musterelemente 3010 zu beobachten. In einer anderen Ausführungsform wird eine anfängliche Übereinstimmung hergestellt, indem eine distinkte Lichtquelle oder ein distinkter Reflektor mit einem der projizierten Musterelemente 3010 in Kontakt gebracht wird. Nachdem eine anfängliche Übereinstimmung für das Gitter von projizierten Musterelementen 3010, wie von den Kamerasystemen 1420A, 1420B gesehen, erstellt wurde, können die Kameras die Identität der projizierten Musterelemente 3010 verfolgen, während die Kameras 1420A, 1420B gedreht werden.
  • Die Winkelwerte der Lichtmarkierungen 2822 werden anhand der Kenntnis der relativen Pose der beiden Kameras 1420A, 1420B und des Projektors 3020 bestimmt, wie hier vorstehend erklärt wurde. Die Kameras 1420A, 1420B können eine große Zahl von projizierten Musterelementen 3010 über das Messvolumen messen, um einen genauen Wert für die Grundlinienabstände zwischen den Kameras 1420A, 1420B und zwischen jeder der Kameras und dem Projektor 3020 zu bestimmen. Die Drehwinkel der Kameras 1420A, 1420B werden nach jeder Drehung einer oder beider Kameras 1420A, 1420B basierend auf der Notwendigkeit der Selbstkonsistenz in den Triangulationsberechnungen erneut berechnet. Die Genauigkeit der berechneten Winkelwerte wird verstärkt, wenn die beiden Kameras 1420A, 1420B und der Projektor 3020 in einer Dreieckskonfiguration stehen, wie in den 3 und 30 veranschaulicht ist und wie hier vorstehend anhand von 4B erklärt wurde. Es ist jedoch nur notwendig, die relative Pose zwischen den beiden Kameras 1420A, 1420B zu kennen, um die 3D-Koordinaten des Objekts 1030 mit der 3D-Handmessvorrichtung 2820, 2830 oder 2840 zu bestimmen.
  • In einer Ausführungsform aus 30 hat eine der beiden Kameras 1420A, 1420B ein größeres FOV als die andere Kamera und wird verwendet, um die Verfolgung der Sonde zu unterstützen, indem die Sonde innerhalb des Hintergrunds von fixierten Bildpunkten betrachtet wird.
  • In einer Ausführungsform bestimmt das System die 3D-Koordinaten des Objekts 1030 zumindest teilweise basierend auf den Bildern des projizierten Musters, das von den beiden Kameras erhalten wurde. Die Kameras 1420A, 1420B sind in der Lage, die Muster der Lichtmarkierungen 2822 anzupassen und, basierend auf dieser anfänglichen Ausrichtung, sind sie ferner in der Lage, die projizierten Bildpunkte 3010 nahe der Sonde 2820, 2830 oder 2840 anzupassen, die in dem FOV der beiden Kameras 1420A, 1420B liegen. Zusätzliche natürliche Merkmale auf dem Objekt 1030 oder auf feststehenden Objekten in der Nähe setzen das System in die Lage, die Bilder von den beiden Kameras zu verwenden, um 3D-Koordinaten des Objekts 1030 innerhalb des Bezugssystems 2810 zu bestimmen.
  • In einer alternativen Ausführungsform aus 30 umfassen die Kameras 1420A, 1420B relativ genaue Winkelwandler, während der Projektor 3020 feststehend bleibt. In einer anderen Ausführungsform werden der Projektor 3020 und die Kameras 1420A, 1420B in einer Dreiecksanordnung ähnlich wie in 3 angeordnet, so dass durch die Verwendung von epipolaren Einschränkungen (wie mit Bezug auf 4B erklärt) die Übereinstimmung zwischen projizierten und abgebildeten Objektpunkten bestimmt werden kann. Bei diesem Ansatz können 3D-Koordinaten direkt bestimmt werden, wie hier vorstehend erklärt wurde.
  • In einer anderen Ausführungsform aus 30 umfassen die Kameras 1420A, 1420B und der Projektor 3020 jeweils relativ genaue Winkelwandler. In einer Ausführungsform ist das FOV von 1420A, 1420B und des Projektors 3020 jeweils relativ klein, wobei die projizierten Bildpunkte mit den sich drehenden Kameraaufbauten 1420A, 1420B verfolgt werden. Bei diesem Ansatz können eine hohe Auflösung und Genauigkeit erhalten werden, während über ein relativ großes Volumen gemessen wird.
  • In einer Ausführungsform aus 30 sind die Kameras 1420A, 1420B dafür ausgelegt, auf die Lichtwellenlängen, das von den Lichtmarkierungen 2822 und dem projizierten Lichtmuster von dem Projektor 3020 ausgestrahlt wird, zu reagieren. In einer anderen Ausführungsform aus 30 sind die Kameras 1420A, 1420B dichroitische Kameras, die dafür ausgelegt sind, auf zwei verschiedene Lichtwellenlängen zu reagieren. Beispiele für dichroitische Kameras, die verwendet werden können, sind in den 5A und 5B gezeigt.
  • 31 veranschaulicht ein System 3100, das ähnlich wie das System 3000 aus 30 ist, außer dass es 3D-Koordinaten eines Objekts 1030 von einem direkt projizierten ersten Lichtmuster 3012, und nicht von einer 3D-Handmessvorrichtung 2820, 2830 oder 2840 erhält. In einer Ausführungsform ist ein Projektor 3020 auf einem Sockel montiert und projiziert ein zweites Lichtmuster in eine fixierte Richtung auf das Objekt 1030. In einer Ausführungsform umfasst die sich drehende Kombination aus Kamera und Projektor 3120 einen Projektor 3122 und eine Kamera 3124, die dafür ausgelegt sind, sich zusammen zu drehen. Eine sich drehende Kamera 1420B ist dafür ausgelegt, das erste projizierte Lichtmuster 3012 auf dem Objekt 1030 zu verfolgen.
  • In einer Ausführungsform ist das erste projizierte Lichtmuster ein relativ feines Lichtmuster, das eine relativ feine Auflösung bietet, wenn es von den Kameras 3124 und 1420B abgebildet wird. Das projizierte Lichtmuster kann jedes der Arten von Lichtmustern sein, die hier vorstehend besprochen wurden, zum Beispiel sequentielle Phasenverschiebungsmuster oder codierte Muster mit Einzelaufnahme. In einer Ausführungsform wird die Triangulationsberechnung zumindest teilweise basierend auf den von den Kameras 3124 und 1420B und von der relativen Pose der Kameras 3124 und 1420B erhaltenen Bildern ausgeführt. In einer anderen Ausführungsform wird die Berechnung zumindest teilweise basierend auf dem von der Kamera 1420B, dem ersten von dem Projektor 3122 projizierten Muster und der relativen Pose des Projektors 3122 und der Kamera 1420B erhaltenen Bild ausgeführt.
  • In einer Ausführungsform sind die Drehwinkel der sich drehenden Kombination aus Kamera und Projektor 3120 und der sich drehenden Kamera 1420B nicht sehr genau bekannt. In diesem Fall kann das anhand von 31 beschriebene Verfahren verwendet werden, um die Winkel zu jedem der projizierten Bildpunkte 3010 zu bestimmen. In einer anderen Ausführungsform bieten die Winkelwandler in der sich drehenden Kombination aus Kamera und Projektor 3120 und der sich drehenden Kamera 1420B genaue Winkelmessungen, während der Projektor 3020 feststehend bleibt. In diesem Fall kann der Projektor 3020 gewünschtenfalls weggelassen werden.
  • In einer anderen Ausführungsform aus 31 umfassen die Kombination aus Kamera und Projektor 3120, die sich drehende Kamera 1420B und der Projektor 3020 jeweils relativ genaue Winkelwandler. In einer Ausführungsform ist das FOV von jeder der Kameras 3124, 1420B und der Projektoren 3122, 3020 jeweils relativ klein, wobei die projizierten Bildpunkte mit den sich drehenden Kameraaufbauten 1420A, 1420B verfolgt werden. Bei diesem Ansatz können eine hohe Auflösung und Genauigkeit erhalten werden, während über ein relativ großes Volumen gemessen wird.
  • In einer Ausführungsform aus 31 sind die Kameras 3124 und 1420B dafür ausgelegt, auf die Lichtwellenlängen, das von dem Projektor 3122 ausgestrahlt wird, und auf das zweite Lichtmuster von dem Projektor 3020 zu reagieren. In einer anderen Ausführungsform aus 31 sind die Kameras 3124 und 1420B dichroitische Kameras, die dafür ausgelegt sind, auf zwei verschiedene Lichtwellenlängen zu reagieren. Zum Beispiel könnte das erste projizierte Lichtmuster Blaulicht und das zweite projizierte Lichtmuster IR-Licht sein. Beispiele für dichroitische Kameras, die verwendet werden können, sind in den 5A und 5B gezeigt.
  • 32 veranschaulicht ein Verfahren zum Erhalten von relativ genauen Messungen für Kameras und Projektoren innerhalb der Verwendung eines intern montierten Winkelwandlers. Eine übliche Art von Winkelwandler mit einer relativ hohen Genauigkeit ist ein Winkelkodierer. Eine übliche Art von Winkelkodierer umfasst eine auf einer Drehwelle montierte Scheibe und einen oder mehr fixierte Leseköpfe, die dafür ausgelegt sind, einen von der Welle gedrehten Winkel zu bestimmen. In einem anderen Ansatz ist die Position der Scheibe und der Welle umgekehrt. Solche Winkelkodierer können relativ genau sein, wenn sie mit guten Lagern kombiniert sind, um die Welle zu drehen.
  • Ein potentieller Nachteil bei solchen Winkelkodierern oder anderen Winkelwandlern sind die relativ hohen Kosten. Eine Möglichkeit, dieses Problem zu umgehen, ist in 33 veranschaulicht. In einer Ausführungsform umfasst ein System eine erste Kamera 3310, eine zweite Kamera 3320 und einen Projektor 3330, die jeweils dafür ausgelegt sind, sich um zwei Achsen zu drehen. In einer Ausführungsform sind ein zweidimensionales Gitter von sich wiederholenden Elementen, wie Bildpunkte 3340, auf flachen Platten 3350, 3355 angeordnet. In einer Ausführungsform messen die erste Kamera 3310 und der Projektor 3330 Punkte auf der ersten Platte 3350, während die zweite Kamera 3320 und der Projektor 3330 Punkte auf der zweiten Platte 3355 messen. Die Messungen der Punkte auf der ersten Platte 3350 durch die erste Kamera 3310 und den Projektor 3330 werden mit Kameras 3312, 3332 unter Verwendung von Linsen 3314, 3334 bzw. lichtempfindlichen Matrizen 3316, 3336 erhalten. Die Messung der Punkte auf der zweiten Platte 3355 durch die zweite Kamera 3320 und den Projektor 3330 wird mit Kameras 3322, 3342 unter Verwendung von Linsen 3324, 3344 bzw. lichtempfindlichen Matrizen 3326, 3346 erhalten. In einer Ausführungsform misst der Projektor Winkel unter Verwendung einer einzelnen Kamera 3332 und nicht von zwei Kameras. Der in 33 veranschaulichte Ansatz ist geeignet, wenn zwei Kameras und ein Projektor zusammen in einer gemeinsamen physischen Struktur montiert sind. Für den Fall, bei dem die Kameras und der Projektor weit voneinander beabstandet sind, wie bei den 30 und 31, muss ein separates Punktegitter für jede der ersten Kamera, der zweiten Kamera und des Projektors vorgesehen sein.
  • 33 ist ein Blockdiagramm eines Rechensystems 3300, das das interne elektrische System 3310, ein oder mehr Rechenelemente 3310, 3320 und ein Netz von Rechenelementen 3330, die üblicherweise als die Cloud bezeichnet werden, umfasst. Die Cloud kann jede Art von Netzverbindung sein (z. B. das Worldwide Web oder Internet). Die Kommunikation zwischen den Rechenkomponenten (Verarbeitung und Speicher) kann drahtgebunden oder drahtlos erfolgen. Beispiele für drahtlose Kommunikationsverfahren umfassen IEEE 802.11 (WiFi), IEEE 802.15.1 (Bluetooth) und zellulare Kommunikation (z. B. 3G und 4G). Es gibt viele andere drahtlose Kommunikationsmöglichkeiten. Eine beliebte Art von drahtgebundener Kommunikation ist das IEEE 802.3 (Ethernet). In manchen Fällen können mehrere externe Prozessoren, insbesondere Prozessoren auf der Cloud, verwendet werden, um gescannte Daten parallel zu verarbeiten, wodurch schnellere Ergebnisse erreicht werden, insbesondere wenn eine relativ zeitaufwändige Überdeckung und Filterung erforderlich sind. Das Rechensystem 3300 kann mit jeder der 3D-Messvorrichtungen, mobilen Vorrichtungen oder Zubehörgeräten verwendet werden, die hier beschrieben sind. Das interne elektrische System gilt für Prozessoren, den Speicher oder einen anderen Stromkreis, der in einer der 3D-Messvorrichtungen, mobilen Vorrichtungen oder Zubehörgeräten, die hier beschrieben sind, enthalten sind.
  • In einer Ausführungsform umfasst ein dreidimensionales (3D-)Messsystem: einen Körper; einen internen Projektor, der fest an dem Körper angebracht ist, wobei der interne Projektor dafür ausgelegt ist, ein beleuchtetes Lichtmuster auf ein Objekt zu projizieren; und einen ersten dichroitischen Kameraaufbau, der fest an dem Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der erste dichroitische Kameraaufbau eine erste Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem beleuchteten Muster, dem zweiten Kanalbild und der ersten Pose zu bestimmen.
  • In einer weiteren Ausführungsform werden der erste Teil und der zweite Teil zumindest teilweise basierend auf den im ersten Teil vorliegenden Wellenlängen und den im zweiten Teil vorliegenden Wellenlängen in den ersten Kanal bzw. den zweiten Kanal gelenkt.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse zwischen dem ersten Strahlenteiler und der ersten lichtempfindlichen Matrix und eine zweite Linse zwischen dem ersten Strahlenteiler und der zweiten lichtempfindlichen Matrix.
  • In einer weiteren Ausführungsform unterscheidet sich die Brennweite der ersten Linse von der Brennweite der zweiten Linse.
  • In einer weiteren Ausführungsform unterscheidet sich das Gesichtsfeld (FOV) des ersten Kanals vom FOV des zweiten Kanals.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, einen ersten Kardinalpunkt in einer ersten Instanz des ersten Kanalbilds zu erkennen und ferner den ersten Kardinalpunkt in einer zweiten Instanz des ersten Kanalbilds zu erkennen, wobei sich die zweite Instanz des ersten Kanalbilds von der ersten Instanz des ersten Kanalbilds unterscheidet.
  • In einer weiteren Ausführungsform basiert der erste Kardinalpunkt auf einem Merkmal, das ausgewählt ist aus der Gruppe bestehend aus: einem natürlichen Merkmal auf dem oder in der Nähe des Objekts, einem von einer nicht an dem Körper angebrachten Lichtquelle auf das Objekt oder in der Nähe des Objekts projizierten Lichtpunkt und einer auf das Objekt oder in der Nähe des Objekts platzierten Markierung, und einer auf dem Objekt oder in der Nähe des Objekts platzierten Lichtquelle.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die erste Instanz des ersten Kanalbilds mit der zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Pose des 3D-Messsystems in der zweiten Instanz relativ zu einer ersten Pose des 3D-Messsystems in der ersten Instanz zu bestimmen.
  • In einer weiteren Ausführungsform hat der erste Kanal ein größeres Gesichtsfeld (FOV) als der zweite Kanal.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Farbbild zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster eine Infrarot-Wellenlänge.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster eine blaue Wellenlänge.
  • In einer weiteren Ausführungsform ist das beleuchtete Muster ein codiertes Muster.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Instanz des beleuchteten Musters, eine zweite Instanz des beleuchteten Musters und eine dritte Instanz des beleuchteten Musters auszustrahlen, wobei das 3D-Messsystem ferner dafür ausgelegt ist, eine erste Instanz des zweiten Kanalbilds, eine zweite Instanz des zweiten Kanalbilds und eine dritte Instanz des zweiten Kanalbilds zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die 3D-Koordinaten eines Punkts auf dem Objekt zumindest teilweise basierend auf der ersten Instanz des ersten beleuchteten Musterbilds, der zweiten Instanz des ersten beleuchteten Musterbilds und der dritten Instanz des ersten beleuchteten Musterbilds, der ersten Instanz des zweiten Kanalbilds, der zweiten Instanz des zweiten Kanalbilds und der dritten Instanz des zweiten Kanalbilds zu bestimmen.
  • In einer weiteren Ausführungsform sind das erste beleuchtete Muster, das zweite beleuchtete Muster und das dritte beleuchtete Muster jeweils sinusförmige Muster, wobei jedes von dem ersten beleuchteten Muster, dem zweiten beleuchteten Muster und dem dritten beleuchteten Muster relativ zu den anderen beiden beleuchteten Mustern von Seite zu Seite verschoben sind.
  • Eine weitere Ausführungsform umfasst ferner einen zweiten Kameraaufbau, der fest an dem Körper angebracht ist, wobei der zweite Kameraaufbau einen dritten Teil von einfallendem Licht in einem dritten Kanal empfängt, der zu einer dritten lichtempfindlichen Matrix führt, wobei die dritte lichtempfindliche Matrix dafür ausgelegt ist, ein drittes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der zweite Kameraaufbau eine zweite Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem ferner dafür ausgelegt ist, die 3D-Koordinaten des Objekts basierend auf dem dritten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die 3D-Koordinaten des Objekts basierend auf epipolaren Einschränkungen zu bestimmen, wobei die epipolaren Einschränkungen zumindest teilweise auf der ersten Pose und der zweiten Pose basieren.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, dem ersten Punkt zumindest teilweise basierend auf dem ersten Kanalbild eine Farbe zuzuweisen.
  • In einer weiteren Ausführungsform ist das beleuchtete Muster ein uncodiertes Muster.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster ein Punktegitter.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner eine Laserlichtquelle und ein optisches Beugungselement, wobei die Laserlichtquelle dafür ausgelegt ist, durch das optische Beugungselement zu scheinen.
  • In einer weiteren Ausführungsform umfasst der zweite Kameraaufbau ferner einen zweiten Strahlenteiler, der dafür ausgelegt ist, den dritten Teil in den dritten Kanal zu lenken und einen vierten Teil des einfallenden Lichts in einen vierten Kanal zu lenken, der zu einer vierten lichtempfindlichen Matrix führt.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine erste Instanz des ersten Kanalbilds mit einer zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist der externe Projektor ferner an einer zweiten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die zweite mobile Plattform ferner zweite motorisierte Räder.
  • In einer weiteren Ausführungsform ist der externe Projektor an einem zweiten motorisierten Drehmechanismus angebracht, der dafür ausgelegt ist, die Richtung des externen Lichtmusters zu drehen.
  • In einer weiteren Ausführungsform ist der Körper an einer ersten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner erste motorisierte Räder.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner einen Roboterarm, der dafür ausgelegt ist, den Körper zu bewegen und zu drehen.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren, wobei der externe Projektor eine zweite mobile Plattform mit zweiten motorisierten Rädern umfasst.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine Pose des Körpers mittels Computersteuerung einzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine Pose des externen Projektors mittels Computersteuerung einzustellen.
  • In einer weiteren Ausführungsform, die ferner einen zusätzlichen Projektor umfasst, der fest an dem Körper angebracht ist, ist der zusätzliche Projektor dafür ausgelegt, ein zusätzliches Lichtmuster auf das oder in der Nähe des Objekts zu projizieren.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einem numerischen Wert einer gemessenen Menge, einer Abweichung einer gemessenen Menge relativ zu einer zulässigen Toleranz, von einem Farbmuster übermittelten Informationen und Whisker-Markierungen.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einer Stelle, an der ein Montagebetrieb auszuführen ist, und einer Stelle, an der eine Messung auszuführen ist.
  • In einer weiteren Ausführungsform wird das zusätzliche Muster projiziert, um zusätzliche Triangulationsinformationen bereitzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine 3D-Farbdarstellung des Objekts zu erzeugen.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse, die so angeordnet ist, dass sie einfallendes Licht abfängt, bevor es den ersten Strahlenteiler erreicht.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner einen Mustergenerator, eine interne Projektorlinse und ein internes Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner eine Lichtquelle und ein optisches Beugungselement.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner einen zusätzlichen Bildgenerator, eine zusätzliche Projektorlinse und ein zusätzliches Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner eine zusätzliche Lichtquelle und ein zusätzliches optisches Beugungselement.
  • In einer Ausführungsform umfasst ein dreidimensionales (3D-)Messsystem: einen Körper; einen ersten dichroitischen Kameraaufbau, der fest an dem Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des Objekts zu erfassen, die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des Objekts zu erfassen, und einen zweiten Kameraaufbau, der fest an dem Körper angebracht ist, wobei der zweite Kameraaufbau einen dritten Kanal aufweist, der dafür ausgelegt ist, einen dritten Teil des einfallenden Lichts in einen dritten Kanal zu lenken, der zu einer dritten lichtempfindlichen Matrix führt, wobei die dritte lichtempfindliche Matrix dafür ausgelegt ist, ein drittes Kanalbild von dem Objekt zu erfassen, wobei der zweite Kameraaufbau eine erste Pose relativ zum ersten dichroitischen Kameraaufbau aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem zweiten Kanalbild, dem dritten Kanalbild und der ersten Pose zu bestimmen.
  • In einer weiteren Ausführungsform werden der erste Teil und der zweite Teil zumindest teilweise basierend auf den im ersten Teil vorliegenden Wellenlängen und den im zweiten Teil vorliegenden Wellenlängen in den ersten Kanal bzw. den zweiten Kanal gelenkt.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse zwischen dem ersten Strahlenteiler und der ersten lichtempfindlichen Matrix und eine zweite Linse zwischen dem ersten Strahlenteiler und der zweiten lichtempfindlichen Matrix.
  • In einer weiteren Ausführungsform unterscheidet sich die Brennweite der ersten Linse von der Brennweite der zweiten Linse.
  • In einer weiteren Ausführungsform unterscheidet sich das Gesichtsfeld (FOV) des ersten Kanals vom FOV des zweiten Kanals.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, einen ersten Kardinalpunkt in einer ersten Instanz des ersten Kanalbilds zu erkennen und ferner den ersten Kardinalpunkt in einer zweiten Instanz des ersten Kanalbilds zu erkennen, wobei sich die zweite Instanz des ersten Kanalbilds von der ersten Instanz des ersten Kanalbilds unterscheidet.
  • In einer weiteren Ausführungsform basiert der erste Kardinalpunkt auf einem Merkmal, das ausgewählt ist aus der Gruppe bestehend aus: einem natürlichen Merkmal auf dem oder in der Nähe des Objekts, einem von einer nicht an dem Körper angebrachten Lichtquelle auf das Objekt oder in der Nähe des Objekts projizierten Lichtpunkt und einer auf das Objekt oder in der Nähe des Objekts platzierten Markierung und einer auf dem Objekt oder in der Nähe des Objekts platzierten Lichtquelle.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die erste Instanz des ersten Kanalbilds mit der zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Pose des 3D-Messsystems in der zweiten Instanz relativ zu einer ersten Pose des 3D-Messsystems in der ersten Instanz zu bestimmen.
  • In einer weiteren Ausführungsform hat der erste Kanal ein größeres Gesichtsfeld (FOV) als der zweite Kanal.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Farbbild zu erfassen.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Infrarotbild zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, dem ersten Punkt zumindest teilweise basierend auf dem ersten Kanalbild eine Farbe zuzuweisen.
  • In einer weiteren Ausführungsform umfasst der zweite Kameraaufbau ferner einen zweiten Strahlenteiler, der dafür ausgelegt ist, den dritten Teil in den dritten Kanal zu lenken und einen vierten Teil des einfallenden Lichts in einen vierten Kanal zu lenken, der zu einer vierten lichtempfindlichen Matrix führt.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren.
  • In einer weiteren Ausführungsform ist der externe Projektor ferner an einer zweiten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die zweite mobile Plattform ferner zweite motorisierte Räder.
  • In einer weiteren Ausführungsform ist der externe Projektor an einem zweiten motorisierten Drehmechanismus angebracht, der dafür ausgelegt ist, die Richtung des externen Lichtmusters zu drehen.
  • In einer weiteren Ausführungsform ist der Körper an einer ersten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner erste motorisierte Räder.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner einen Roboterarm, der dafür ausgelegt ist, den Körper zu bewegen und zu drehen.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren, wobei der externe Projektor eine zweite mobile Plattform mit zweiten motorisierten Rädern umfasst.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine Pose des Körpers mittels Computersteuerung einzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine Pose des externen Projektors mittels Computersteuerung einzustellen.
  • Eine weitere Ausführungsform umfasst ferner einen zusätzlichen Projektor, der dafür ausgelegt ist, ein zusätzliches Lichtmuster auf das oder in der Nähe des Objekts zu projizieren.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einem numerischen Wert einer gemessenen Menge, einer Abweichung einer gemessenen Menge relativ zu einer zulässigen Toleranz, von einem Farbmuster übermittelten Informationen und Whisker- Markierungen.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einer Stelle, an der ein Montagebetrieb auszuführen ist, und einer Stelle, an der eine Messung auszuführen ist.
  • In einer weiteren Ausführungsform wird das zusätzliche Muster projiziert, um zusätzliche Triangulationsinformationen bereitzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine 3D-Farbdarstellung des Objekts zu erzeugen.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse, die so angeordnet ist, dass sie einfallendes Licht abfängt, bevor es den ersten Strahlenteiler erreicht.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner einen zusätzlichen Bildgenerator, eine zusätzliche Projektorlinse und ein zusätzliches Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner eine zusätzliche Lichtquelle und ein zusätzliches optisches Beugungselement.
  • In einer Ausführungsform umfasst ein dreidimensionales (3D-)Messsystem: einen ersten Körper und einen zweiten Körper, der unabhängig von dem ersten Körper ist; einen internen Projektor, der dafür ausgelegt ist, ein beleuchtetes Lichtmuster auf ein Objekt zu projizieren; und einen ersten dichroitischen Kameraaufbau, der fest an dem zweiten Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der erste dichroitische Kameraaufbau eine erste Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem beleuchteten Muster, dem zweiten Kanalbild und der ersten Pose zu bestimmen.
  • In einer weiteren Ausführungsform werden der erste Teil und der zweite Teil zumindest teilweise basierend auf im ersten Teil vorliegenden Wellenlängen und im zweiten Teil vorliegenden Wellenlängen in den ersten Kanal bzw. den zweiten Kanal gelenkt.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse zwischen dem ersten Strahlenteiler und der ersten lichtempfindlichen Matrix und eine zweite Linse zwischen dem ersten Strahlenteiler und der zweiten lichtempfindlichen Matrix.
  • In einer weiteren Ausführungsform unterscheidet sich die Brennweite der ersten Linse von der Brennweite der zweiten Linse.
  • In einer weiteren Ausführungsform unterscheidet sich das Gesichtsfeld (FOV) des ersten Kanals vom FOV des zweiten Kanals.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, einen ersten Kardinalpunkt in einer ersten Instanz des ersten Kanalbilds zu erkennen und ferner den ersten Kardinalpunkt in einer zweiten Instanz des ersten Kanalbilds zu erkennen, wobei sich die zweite Instanz des ersten Kanalbilds von der ersten Instanz des ersten Kanalbilds unterscheidet.
  • In einer weiteren Ausführungsform basiert der erste Kardinalpunkt auf einem Merkmal, das ausgewählt ist aus der Gruppe bestehend aus: einem natürlichen Merkmal auf dem oder in der Nähe des Objekts, einem von einer nicht an dem ersten Körper oder dem zweiten Körper angebrachten Lichtquelle auf das Objekt oder in der Nähe des Objekts projizierten Lichtpunkt und einer auf das Objekt oder in der Nähe des Objekts platzierten Markierung, und einer auf dem Objekt oder in der Nähe des Objekts platzierten Lichtquelle.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die erste Instanz des ersten Kanalbilds mit der zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Pose des 3D-Messsystems in der zweiten Instanz relativ zu einer ersten Pose des 3D-Messsystems in der ersten Instanz zu bestimmen.
  • In einer weiteren Ausführungsform hat der erste Kanal ein größeres Gesichtsfeld (FOV) als der zweite Kanal.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Farbbild zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster eine Infrarot-Wellenlänge.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster eine blaue Wellenlänge.
  • In einer weiteren Ausführungsform ist das beleuchtete Muster ein codiertes Muster.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Instanz des beleuchteten Musters, eine zweite Instanz des beleuchteten Musters und eine dritte Instanz des beleuchteten Musters auszustrahlen, wobei das 3D-Messsystem ferner dafür ausgelegt ist, eine erste Instanz des zweiten Kanalbilds, eine zweite Instanz des zweiten Kanalbilds und eine dritte Instanz des zweiten Kanalbilds zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die 3D-Koordinaten eines Punkts auf dem Objekt zumindest teilweise basierend auf der ersten Instanz des ersten beleuchteten Musterbilds, der zweiten Instanz des ersten beleuchteten Musterbilds und der dritten Instanz des ersten beleuchteten Musterbilds, der ersten Instanz des zweiten Kanalbilds, der zweiten Instanz des zweiten Kanalbilds und der dritten Instanz des zweiten Kanalbilds zu bestimmen.
  • In einer weiteren Ausführungsform sind das erste beleuchtete Muster, das zweite beleuchtete Muster und das dritte beleuchtete Muster jeweils sinusförmige Muster, wobei jedes von dem ersten beleuchteten Muster, dem zweiten beleuchteten Muster und dem dritten beleuchteten Muster relativ zu den anderen beiden beleuchteten Mustern von Seite zu Seite verschoben ist.
  • In einer weiteren Ausführungsform, die ferner einen zweiten Kameraaufbau umfasst, der fest an dem dritten Körper angebracht ist, empfängt der zweite Kameraaufbau einen dritten Teil von einfallendem Licht in einem dritten Kanal, der zu einer dritten lichtempfindlichen Matrix führt, wobei die dritte lichtempfindliche Matrix dafür ausgelegt ist, ein drittes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der zweite Kameraaufbau eine zweite Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem ferner dafür ausgelegt ist, die 3D-Koordinaten des Objekts basierend auf dem dritten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die 3D-Koordinaten des Objekts basierend auf epipolaren Einschränkungen zu bestimmen, wobei die epipolaren Einschränkungen zumindest teilweise auf der ersten Pose und der zweiten Pose basieren.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, dem ersten Punkt zumindest teilweise basierend auf dem ersten Kanalbild eine Farbe zuzuweisen.
  • In einer weiteren Ausführungsform ist das beleuchtete Muster ein uncodiertes Muster.
  • In einer weiteren Ausführungsform umfasst das beleuchtete Muster ein Punktegitter.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner eine Laserlichtquelle und ein optisches Beugungselement, wobei die
  • Laserlichtquelle dafür ausgelegt ist, durch das optische Beugungselement zu scheinen.
  • In einer weiteren Ausführungsform umfasst der zweite Kameraaufbau ferner einen zweiten Strahlenteiler, der dafür ausgelegt ist, den dritten Teil in den dritten Kanal zu lenken und einen vierten Teil des einfallenden Lichts in einen vierten Kanal zu lenken, der zu einer vierten lichtempfindlichen Matrix führt.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem ersten Körper, dem zweiten Körper und dem dritten Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine erste Instanz des ersten Kanalbilds mit einer zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist der externe Projektor ferner an einer zweiten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die zweite mobile Plattform ferner zweite motorisierte Räder.
  • In einer weiteren Ausführungsform ist der externe Projektor an einem zweiten motorisierten Drehmechanismus angebracht, der dafür ausgelegt ist, die Richtung des externen Lichtmusters zu drehen.
  • In einer weiteren Ausführungsform sind der erste Körper und der zweite Körper an einer ersten mobilen Plattform bzw. einer zweiten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfassen die erste mobile Plattform und die zweite mobile Plattform ferner erste motorisierte Räder bzw. zweite motorisierte Räder.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren, wobei der externe Projektor eine dritte mobile Plattform mit dritten motorisierten Rädern aufweist.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine Pose des ersten Körpers und des zweiten Körpers mittels Computersteuerung einzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine Pose des externen Projektors mittels Computersteuerung einzustellen.
  • Eine weitere Ausführungsform umfasst ferner einen zusätzlichen Projektor, der dafür ausgelegt ist, ein zusätzliches Lichtmuster auf dem oder in der Nähe des Objekts zu projizieren.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einem numerischen Wert einer gemessenen Menge, einer Abweichung einer gemessenen Menge relativ zu einer zulässigen Toleranz, von einem Farbmuster übermittelten Informationen und Whisker-Markierungen.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einer Stelle, an der ein Montagebetrieb auszuführen ist, und einer Stelle, an der eine Messung auszuführen ist.
  • In einer weiteren Ausführungsform wird das zusätzliche Muster projiziert, um zusätzliche Triangulationsinformationen bereitzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine 3D-Farbdarstellung des Objekts zu erzeugen.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse, die so angeordnet ist, dass sie einfallendes Licht abfängt, bevor es den ersten Strahlenteiler erreicht.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner einen Mustergenerator, eine interne Projektorlinse und ein internes Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der interne Projektor ferner eine Lichtquelle und ein optisches Beugungselement.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner einen zusätzlichen Bildgenerator, eine zusätzliche Projektorlinse und ein zusätzliches Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner eine zusätzliche Lichtquelle und ein zusätzliches optisches Beugungselement.
  • In einer Ausführungsform umfasst ein dreidimensionales (3D-)Messsystem: einen ersten Körper und einen zweiten Körper, der unabhängig von dem ersten Körper ist; einen ersten dichroitischen Kameraaufbau, der fest an dem ersten Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des Objekts zu erfassen, die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des Objekts zu erfassen, und einen zweiten Kameraaufbau, der fest an dem zweiten Körper angebracht ist, wobei der zweite Kameraaufbau einen dritten Kanal aufweist, der dafür ausgelegt ist, einen dritten Teil des einfallenden Lichts in einen dritten Kanal zu lenken, der zu einer dritten lichtempfindlichen Matrix führt, wobei die dritte lichtempfindliche Matrix dafür ausgelegt ist, ein drittes Kanalbild von dem Objekt zu erfassen, wobei der zweite Kameraaufbau eine erste Pose relativ zum ersten dichroitischen Kameraaufbau aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem zweiten Kanalbild, dem dritten Kanalbild und der ersten Pose zu bestimmen.
  • In einer weiteren Ausführungsform werden der erste Teil und der zweite Teil zumindest teilweise basierend auf im ersten Teil vorliegenden Wellenlängen und im zweiten Teil vorliegenden Wellenlängen in den ersten Kanal bzw. den zweiten Kanal gelenkt.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse zwischen dem ersten Strahlenteiler und der ersten lichtempfindlichen Matrix und eine zweite Linse zwischen dem ersten Strahlenteiler und der zweiten lichtempfindlichen Matrix.
  • In einer weiteren Ausführungsform unterscheidet sich die Brennweite der ersten Linse von der Brennweite der zweiten Linse.
  • In einer weiteren Ausführungsform unterscheidet sich das Gesichtsfeld (FOV) des ersten Kanals vom FOV des zweiten Kanals.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, einen ersten Kardinalpunkt in einer ersten Instanz des ersten Kanalbilds zu erkennen und ferner den ersten Kardinalpunkt in einer zweiten Instanz des ersten Kanalbilds zu erkennen, wobei sich die zweite Instanz des ersten Kanalbilds von der ersten Instanz des ersten Kanalbilds unterscheidet.
  • In einer weiteren Ausführungsform basiert der erste Kardinalpunkt auf einem Merkmal, das ausgewählt ist aus der Gruppe bestehend aus: einem natürlichen Merkmal auf dem oder in der Nähe des Objekts, einem von einer nicht an dem Körper angebrachten Lichtquelle auf das Objekt oder in der Nähe des Objekts projizierten Lichtpunkt, einer auf das Objekt oder in der Nähe des Objekts platzierten Markierung und einer auf dem Objekt oder in der Nähe des Objekts platzierten Lichtquelle.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, die erste Instanz des ersten Kanalbilds mit der zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine erste Pose des 3D-Messsystems in der zweiten Instanz relativ zu einer ersten Pose des 3D-Messsystems in der ersten Instanz zu bestimmen.
  • In einer weiteren Ausführungsform hat der erste Kanal ein größeres Gesichtsfeld (FOV) als der zweite Kanal.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Farbbild zu erfassen.
  • In einer weiteren Ausführungsform ist die erste lichtempfindliche Matrix dafür ausgelegt, ein Infrarotbild zu erfassen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, 3D-Koordinaten des ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem ersten Kanalbild zu bestimmen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, dem ersten Punkt zumindest teilweise basierend auf dem ersten Kanalbild eine Farbe zuzuweisen.
  • In einer weiteren Ausführungsform umfasst der zweite Kameraaufbau ferner einen zweiten Strahlenteiler, der dafür ausgelegt ist, den dritten Teil in den dritten Kanal zu lenken und einen vierten Teil des einfallenden Lichts in einen vierten Kanal zu lenken, der zu einer vierten lichtempfindlichen Matrix führt.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren.
  • In einer weiteren Ausführungsform ist der externe Projektor ferner an einer dritten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die dritte mobile Plattform ferner dritte motorisierte Räder.
  • In einer weiteren Ausführungsform ist der externe Projektor an einem zweiten motorisierten Drehmechanismus angebracht, der dafür ausgelegt ist, die Richtung des externen Lichtmusters zu drehen.
  • In einer weiteren Ausführungsform ist der erste Körper an einer ersten mobilen Plattform angebracht und der zweite Körper an einer zweiten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner erste motorisierte Räder und die zweite mobile Plattform umfasst ferner zweite motorisierte Räder.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner einen ersten motorisierten Drehmechanismus, der dafür ausgelegt ist, den ersten Körper zu drehen, und einen zweiten motorisierten Drehmechanismus, der dafür ausgelegt ist, den zweiten Körper zu drehen.
  • In einer weiteren Ausführungsform, die ferner einen externen Projektor aufweist, der von dem Körper gelöst ist, ist der externe Projektor dafür ausgelegt, ein externes Lichtmuster auf das Objekt zu projizieren, wobei der externe Projektor eine zweite mobile Plattform mit zweiten motorisierten Rädern umfasst.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine Pose des ersten Körpers und die Pose des zweiten Körpers mittels Computersteuerung einzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem ferner dafür ausgelegt, eine Pose des externen Projektors mittels Computersteuerung einzustellen.
  • Eine weitere Ausführungsform umfasst ferner einen zusätzlichen Projektor, der dafür ausgelegt ist, ein zusätzliches Lichtmuster auf das oder in der Nähe des Objekts zu projizieren.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einem numerischen Wert einer gemessenen Menge, einer Abweichung einer gemessenen Menge relativ zu einer zulässigen Toleranz, von einem Farbmuster übermittelten Informationen und Whisker-Markierungen.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einer Stelle, an der ein Montagebetrieb auszuführen ist, und einer Stelle, an der eine Messung auszuführen ist.
  • In einer weiteren Ausführungsform wird das zusätzliche Muster projiziert, um zusätzliche Triangulationsinformationen bereitzustellen.
  • In einer weiteren Ausführungsform ist das 3D-Messsystem dafür ausgelegt, eine 3D-Farbdarstellung des Objekts zu erzeugen.
  • Eine weitere Ausführungsform umfasst ferner eine erste Linse, die so angeordnet ist, dass sie einfallendes Licht abfängt, bevor es den ersten Strahlenteiler erreicht.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner einen zusätzlichen Bildgenerator, eine zusätzliche Projektorlinse und ein zusätzliches Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst der zusätzliche Projektor ferner eine zusätzliche Lichtquelle und ein zusätzliches optisches Beugungselement.
  • In einer Ausführungsform umfasst ein Messverfahren: Platzieren eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung, wobei der erste sich drehende Kameraaufbau einen ersten Kamerakörper, eine erste Kamera, einen ersten Kamera-Drehmechanismus und ein erstes Kamera-Winkelmesssystem aufweist; Platzieren eines zweiten sich drehenden Kameraaufbaus an einer zweiten Umgebungsstelle in der Umgebung, wobei der zweite sich drehende Kameraaufbau einen zweiten Kamerakörper, eine zweite Kamera, einen zweiten Kamera-Drehmechanismus und ein zweites Kamera-Winkelmesssystem umfasst; in einer ersten Instanz: Bewegen einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung, wobei die 3D-Messvorrichtung ein Vorrichtungsbezugssystem aufweist, wobei die 3D-Messvorrichtung fest an einem ersten Ziel und einem zweiten Ziel angebracht ist; Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem ersten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; Messen des ersten Winkels mit dem ersten Kamera-Winkelmesssystem; Erfassen eines ersten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera; Drehen, mit dem zweiten Kamera-Drehmechanismus, des zweiten sich drehenden Kameraaufbaus zu einem zweiten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; Messen des zweiten Winkels mit dem zweiten Kamera-Winkelmesssystem; Erfassen eines zweiten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera; Messen, mit der 3D-Messvorrichtung, von ersten 3D-Koordinaten im Vorrichtungsbezugssystem eines ersten Objektpunkts auf einem Objekt; Bestimmen von 3D-Koordinaten des ersten Objektpunkts in einem ersten Bezugssystem zumindest teilweise basierend auf dem ersten Bild, dem zweiten Bild, dem gemessenen ersten Winkel, dem gemessenen zweiten Winkel und den gemessenen ersten 3D-Koordinaten, wobei sich das erste Bezugssystem von dem Vorrichtungsbezugssystem unterscheidet; in einer zweiten Instanz: Bewegen der 3D-Messvorrichtung zu einer zweiten Vorrichtungsstelle in der Umgebung; Erfassen eines dritten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera; Erfassen eines vierten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera; Messen, mit der 3D-Messvorrichtung, von zweiten 3D-Koordinaten im Vorrichtungsbezugssystem eines zweiten Objektpunkts auf dem Objekt; Bestimmen von 3D-Koordinaten des zweiten Objektpunkts in dem ersten Bezugssystem zumindest teilweise basierend auf dem dritten Bild, dem vierten Bild und den gemessenen zweiten 3D-Koordinaten; und Speichern der 3D-Koordinaten des ersten Objektpunktes und des zweiten Objektpunktes im ersten Bezugssystem.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung ferner fest an einem dritten Ziel angebracht; in der ersten Instanz umfasst der Schritt des Drehens mit dem ersten Kamera-Drehmechanismus ferner das Drehen des ersten sich drehenden Kameraaufbaus, um zum dritten Ziel zu weisen; im Schritt des Erfassens eines ersten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera umfasst das erste Bild ferner das dritte Ziel; der Schritt des Drehens mit dem zweiten Kamera-Drehmechanismus umfasst ferner das Drehen des zweiten sich drehenden Kameraaufbaus, um zum dritten Ziel zu weisen; im Schritt des Erfassens eines zweiten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera umfasst das zweite Bild ferner das dritte Ziel; in der zweiten Instanz: im Schritt des Erfassens eines dritten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera umfasst das dritte Bild ferner das dritte Ziel; und im Schritt des Erfassens eines vierten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera umfasst das vierte Bild ferner das dritte Ziel.
  • In einer weiteren Ausführungsform in der zweiten Instanz umfasst ein weiterer Schritt das Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem dritten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; ein weiterer Schritt umfasst das Drehen, mit dem zweiten Kamera-Drehmechanismus, des zweiten sich drehenden Kameraaufbaus zu einem vierten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; im Schritt des Bestimmens von 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem basieren die 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem ferner auf dem dritten Winkel und dem vierten Winkel.
  • In einer weiteren Ausführungsform umfasst im Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung ferner ein Zwei-Achsen-Inklinometer; in der ersten Instanz umfasst ein weiterer Schritt das Messen einer ersten Neigung mit dem Zwei-Achsen-Inklinometer; basiert der Schritt des Bestimmens von 3D-Koordinaten des ersten Objektpunkts in einem ersten Bezugssystem ferner auf der gemessenen ersten Neigung; in der zweiten Instanz: umfasst ein weiterer Schritt das Messen einer zweiten Neigung mit dem Zwei-Achsen-Inklinometer; und der Schritt des Bestimmens von 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem basiert ferner auf der gemessenen zweiten Neigung.
  • Bei einer weiteren Ausführungsform umfasst im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung die erste Kamera eine erste Kameralinse, eine erste lichtempfindliche Matrix und ein erstes Kameraperspektivitätszentrum; im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung ist der erste Kamera-Drehmechanismus dafür ausgelegt, den ersten sich drehenden Kameraaufbau um eine erste Achse um einen ersten Drehwinkel und um eine zweite Achse um einen zweiten Drehwinkel zu drehen; und im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung umfasst das erste Kamera-Winkelmesssystem ferner einen ersten Winkelwandler, der dafür ausgelegt ist, den ersten Drehwinkel zu messen, und einen zweiten Winkelwandler, der dafür ausgelegt ist, den zweiten Drehwinkel zu messen.
  • In einer weiteren Ausführungsform basiert im Schritt des Messens des ersten Winkels mit dem ersten Kamera-Winkelmesssystem der erste Winkel zumindest teilweise auf dem gemessenen ersten Drehwinkel und dem gemessenen zweiten Drehwinkel.
  • Eine weitere Ausführungsform umfasst ferner die folgenden Schritte: Erfassen, mit der ersten Kamera, von einem oder mehreren ersten Bezugsbildern von mehreren Bezugspunkten in der Umgebung, wobei ein bekannter Abstand zwischen zwei der mehreren Bezugspunkte besteht; Erfassen, mit der zweiten Kamera, von einem oder mehreren zweiten Bezugsbildern der mehreren Bezugspunkte; Bestimmen einer ersten Bezugspose des ersten sich drehenden Kameraaufbaus in einem Umgebungsbezugssystem, zumindest teilweise basierend auf dem einen oder den mehreren ersten Bezugsbildern und auf dem bekannten Abstand; und Bestimmen einer zweiten Bezugspose des zweiten sich drehenden Kameraaufbaus in einem Umgebungsbezugssystem, zumindest teilweise basierend auf dem einen oder den mehreren zweiten Bezugsbildern und auf dem bekannten Abstand.
  • Eine weitere Ausführungsform umfasst ferner das Bestimmen von 3D-Koordinaten des ersten Objektpunkts und des zweiten Objektpunkts in dem ersten Bezugssystem, ferner basierend auf der ersten Bezugspose und der zweiten Bezugspose.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung an einer ersten mobilen Plattform angebracht.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner erste motorisierte Räder.
  • In einer weiteren Ausführungsform umfasst die erste mobile Plattform ferner einen Roboterarm, der dafür ausgelegt ist, die 3D-Messvorrichtung zu bewegen und zu drehen.
  • In einer weiteren Ausführungsform umfasst in der zweiten Instanz der Schritt des Bewegens der 3D-Messvorrichtung zu einer zweiten Stelle in der Umgebung das Bewegen der ersten motorisierten Räder.
  • In einer weiteren Ausführungsform umfasst der Schritt des Bewegens der 3D-Messvorrichtung zu einer zweiten Vorrichtungsstelle in der Umgebung ferner das Bewegen eines Roboterarms.
  • In einer weiteren Ausführungsform werden in dem Schritt des Bewegens der ersten motorisierten Räder die motorisierten Räder mittels Computersteuerung bewegt.
  • In einer weiteren Ausführungsform umfasst der Schritt des Bewegens der 3D-Messvorrichtung zu einer zweiten Vorrichtungsstelle in der Umgebung ferner das Bewegen des Roboterarms mittels Computersteuerung.
  • In einer weiteren Ausführungsform ist die 3D-Messvorrichtung ein 3D-Bildgerät mit einer Bildgerätkamera und einem ersten Projektor, wobei der erste Projektor dafür ausgelegt ist, ein Lichtmuster auf ein Objekt zu projizieren, wobei die Bildgerätkamera dafür ausgelegt ist, ein erstes Musterbild des Lichtmusters auf dem Objekt zu erhalten, wobei das 3D-Bildgerät dafür ausgelegt ist, 3D-Koordinaten des ersten Objektpunkts zumindest teilweise basierend auf dem Lichtmuster, dem ersten Musterbild und einer relativen Pose zwischen der Bildgerätkamera und dem ersten Projektor zu bestimmen.
  • In einer weiteren Ausführungsform in einer dritten Instanz: Bewegen des ersten sich drehenden Kameraaufbaus zu einer dritten Umgebungsstelle in der Umgebung; Erfassen mit der ersten sich drehenden Kamera von ein oder mehr dritten Bezugsbildern der mehreren Bezugspunkte in der Umgebung, wobei das dritte Bezugsbild den ersten Bezugspunkt und den zweiten Bezugspunkt umfasst; und Bestimmen einer dritten Pose der ersten sich drehenden Kamera in dem Umgebungsbezugssystem zumindest teilweise basierend auf dem dritten Bezugsbild.
  • Eine weitere Ausführungsform umfasst ferner das Bestimmen von 3D-Koordinaten des ersten Objektpunkts und des zweiten Objektpunkts in dem ersten Bezugssystem, ferner basierend auf der dritten Pose.
  • Eine weitere Ausführungsform umfasst ferner das Projizieren eines zusätzlichen Lichtmusters auf das oder in der Nähe des Objekts von einem zusätzlichen Projektor.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einem numerischen Wert einer gemessenen Menge, einer Abweichung einer gemessenen Menge relativ zu einer zulässigen Toleranz, von einem Farbmuster übermittelten Informationen und Whisker-Markierungen.
  • In einer weiteren Ausführungsform ist das zusätzliche Muster ausgewählt aus der Gruppe bestehend aus: einer Stelle, an der ein Montagebetrieb auszuführen ist, und einer Stelle, an der eine Messung auszuführen ist.
  • In einer weiteren Ausführungsform wird das zusätzliche Muster projiziert, um zusätzliche Triangulationsinformationen bereitzustellen.
  • In einer Ausführungsform umfasst ein Verfahren: Platzieren eines ersten sich drehenden Kameraaufbaus und eines sich drehenden Projektoraufbaus in einer Umgebung, wobei der erste sich drehende Kameraaufbau einen ersten Kamerakörper, eine erste Kamera, einen ersten Kamera-Drehmechanismus und ein erstes Kamera-Winkelmesssystem umfasst, wobei der sich drehende Projektoraufbau einen Projektorkörper, einen Projektor, einen Projektor-Drehmechanismus und ein Projektions-Winkelmesssystem umfasst, wobei der Projektorkörper unabhängig von dem Kamerakörper ist, wobei der Projektor dafür ausgelegt ist, ein erstes beleuchtetes Muster auf ein Objekt zu projizieren; Platzieren eines Kalibrierungsartefakts in der Umgebung, wobei das Kalibrierungsartefakt eine Sammlung von Kalibrierungsmarkierungen an kalibrierten Positionen aufweist; Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem ersten Winkel, um zum Kalibrierungsartefakt zu weisen; Messen des ersten Winkels mit dem ersten Kamera-Winkelmesssystem; Erfassen eines ersten Bilds des Kalibrierungsartefakts mit der ersten Kamera; Drehen, mit dem Projektor-Drehmechanismus, des sich drehenden Projektoraufbaus zu einem zweiten Winkel, um zum Kalibrierungsartefakt zu weisen; Projizieren, mit dem Projektor, des ersten beleuchteten Lichtmusters auf das Objekt; Messen des zweiten Winkels mit dem zweiten Projektor-Winkelmesssystem; Erfassen, mit der ersten Kamera, eines zweiten Bilds des Kalibrierungsartefakts, das von dem ersten beleuchteten Muster beleuchtet ist; Bestimmen einer ersten relativen Pose des sich drehenden Projektoraufbaus zum ersten sich drehenden Kameraaufbau zumindest teilweise basierend auf dem ersten Bild, dem zweiten Bild, dem ersten Winkel, dem zweiten Winkel und den kalibrierten Positionen der Kalibrierungsmarkierungen; und Speichern der ersten relativen Pose.
  • In einer weiteren Ausführungsform umfasst in dem Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus und eines sich drehenden Projektoraufbaus in einer Umgebung die erste Kamera eine erste Kameralinse, eine erste lichtempfindliche Matrix und ein erstes Kameraperspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst in dem Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus und eines sich drehenden Projektoraufbaus in einer Umgebung der sich drehende Projektoraufbau einen Mustergenerator, eine Projektorlinse und ein Projektorlinsen-Perspektivitätszentrum.
  • In einer weiteren Ausführungsform umfasst in dem Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus und eines sich drehenden Projektoraufbaus in einer Umgebung der Projektor eine Lichtquelle und ein optisches Beugungselement, wobei die Lichtquelle dafür ausgelegt ist, Licht durch das optische Beugungselement zu senden.
  • In einer weiteren Ausführungsform sind in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen eine Sammlung von Punkten, die auf einer Kalibrierungsplatte in einem zweidimensionalen Muster angeordnet sind.
  • In einer weiteren Ausführungsform ist in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung das Kalibrierungsartefakt an einer ersten mobilen Plattform mit ersten motorisierten Rädern angebracht.
  • In einer weiteren Ausführungsform wird in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die erste mobile Plattform in der Umgebung mittels Computersteuerung platziert.
  • In einer weiteren Ausführungsform sind in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen eine Sammlung von Punkten, die auf einer Kalibrierungsstange in einem eindimensionalen Muster angeordnet sind.
  • In einer Ausführungsform umfasst ein Verfahren: Platzieren eines ersten sich drehenden Kameraaufbaus und eines zweiten sich drehenden Kameraaufbaus in einer Umgebung, wobei der erste sich drehende Kameraaufbau einen ersten Kamerakörper, eine erste Kamera, einen ersten Kamera-Drehmechanismus und ein erstes Kamera-Winkelmesssystem umfasst, wobei der zweite sich drehende Kameraaufbau einen zweiten Kamerakörper, eine zweite Kamera, einen zweiten Kamera-Drehmechanismus und ein zweites Kamera-Winkelmesssystem umfasst; Platzieren eines Kalibrierungsartefakts in der Umgebung, wobei das Kalibrierungsartefakt eine Sammlung von Kalibrierungsmarkierungen an kalibrierten Positionen aufweist; Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem ersten Winkel, um zum Kalibrierungsartefakt zu weisen; Messen des ersten Winkels mit dem ersten Kamera-Winkelmesssystem; Erfassen eines ersten Bilds des Kalibrierungsartefakts mit der ersten Kamera; Drehen, mit dem zweiten Kamera-Drehmechanismus, des zweiten sich drehenden Kameraaufbaus zu einem zweiten Winkel, um zum Kalibrierungsartefakt zu weisen; Messen des zweiten Winkels mit dem zweiten Kamera-Winkelmesssystem; Erfassen eines zweiten Bilds des Kalibrierungsartefakts mit der zweiten Kamera; Bestimmen einer ersten relativen Pose des zweiten sich drehenden Kameraaufbaus zum ersten sich drehenden Kameraaufbau zumindest teilweise basierend auf dem ersten Bild, dem zweiten Bild, dem ersten Winkel, dem zweiten Winkel und den kalibrierten Positionen der Kalibrierungsmarkierungen; und Speichern der ersten relativen Pose.
  • In einer weiteren Ausführungsform umfasst in dem Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus und eines sich drehenden Projektoraufbaus in einer Umgebung die erste Kamera eine erste Kameralinse, eine erste lichtempfindliche Matrix und ein erstes Kameraperspektivitätszentrum, und die zweite Kamera umfasst eine zweite Kameralinse, eine zweite lichtempfindliche Matrix und ein zweites Kameraperspektivitätszentrum.
  • In einer weiteren Ausführungsform sind in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen eine Sammlung von Punkten, die auf einer Kalibrierungsplatte in einem zweidimensionalen Muster angeordnet sind.
  • In einer weiteren Ausführungsform ist in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung das Kalibrierungsartefakt an einer ersten mobilen Plattform mit ersten motorisierten Rädern angebracht.
  • In einer weiteren Ausführungsform wird in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die erste mobile Plattform in der Umgebung mittels Computersteuerung platziert.
  • In einer weiteren Ausführungsform sind in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen auf einer Kalibrierungsstange in einem eindimensionalen Muster angeordnet.
  • In einer weiteren Ausführungsform umfassen in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen Leuchtdioden (LEDs).
  • In einer weiteren Ausführungsform umfassen in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung die Kalibrierungsmarkierungen Reflexionspunkte.
  • In einer weiteren Ausführungsform ist in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung das Kalibrierungsartefakt an einer ersten mobilen Plattform mit motorisierten Rädern und einem Robotermechanismus angebracht; und in dem Schritt des Platzierens eines Kalibrierungsartefakts in der Umgebung wird das Kalibrierungsartefakt von den motorisierten Rädern zu mehreren Stellen und von dem Robotermechanismus zu mehreren Drehwinkeln bewegt.
  • In einer Ausführungsform umfasst ein Verfahren: Platzieren einer ersten Kameraplattform in einer Umgebung, wobei die erste Kameraplattform eine erste Plattformbasis, einen ersten sich drehenden Kameraaufbau und eine erste Sammlung von Kalibrierungsmarkierungen mit ersten Kalibrierungspositionen umfasst, wobei der erste sich drehende Kameraaufbau einen ersten Kamerakörper, eine erste Kamera, einen ersten Kamera-Drehmechanismus und ein erstes Kamera-Winkelmesssystem umfasst; Platzieren einer zweiten Kameraplattform in der Umgebung, wobei die zweite Kameraplattform eine zweite Plattformbasis, einen zweiten sich drehenden Kameraaufbau und eine zweite Sammlung von Kalibrierungsmarkierungen mit zweiten Kalibrierungspositionen umfasst, wobei der zweite sich drehende Kameraaufbau einen zweiten Kamerakörper, eine zweite Kamera, einen zweiten Kamera-Drehmechanismus und ein zweites Kamera-Winkelmesssystem umfasst; Drehen des ersten sich drehenden Kameraaufbaus mit dem ersten Drehmechanismus zu einem ersten Winkel, um zur ersten Sammlung von Kalibrierungsmarkierungen zu weisen; Messen des ersten Winkels mit dem ersten Kamera-Winkelmesssystem; Erfassen eines ersten Bilds der zweiten Sammlung von Kalibrierungsmarkierungen; Drehen des zweiten sich drehenden Kameraaufbaus mit dem zweiten Drehmechanismus zu einem zweiten Winkel, um zur zweiten Sammlung von Kalibrierungsmarkierungen zu weisen; Erfassen eines zweiten Bilds der ersten Sammlung von Kalibrierungsmarkierungen; und Bestimmen einer ersten Pose des zweiten sich drehenden Kameraaufbaus relativ zum ersten sich drehenden Kameraaufbau zumindest teilweise basierend auf dem gemessenen ersten Winkel, dem ersten Bild, dem gemessenen zweiten Winkel, dem zweiten Bild, den ersten Kalibrierungspositionen und den zweiten Kalibrierungspositionen.
  • In einer weiteren Ausführungsform umfassen in dem Schritt des Platzierens einer ersten Kameraplattform in einer Umgebung die ersten Kalibrierungsmarkierungen Leuchtdioden (LEDs).
  • In einer weiteren Ausführungsform umfassen in dem Schritt des Platzierens einer ersten Kameraplattform in der Umgebung die ersten Kalibrierungsmarkierungen Reflexionspunkte.
  • In einer Ausführungsform umfasst ein Messverfahren: Bereitstellen eines dreidimensionalen (3D-)Messsystems in einem Vorrichtungsbezugssystem, wobei das 3D-Messsystem eine 3D-Messvorrichtung, einen ersten sich drehenden Kameraaufbau und einen zweiten sich drehenden Kameraaufbau umfasst, wobei das 3D-Messsystem einen Körper, eine Sammlung von Lichtmarkierungen und eine Messsonde umfasst, wobei die Sammlung von Lichtmarkierungen und die Messsonde an dem Körper angebracht sind, wobei die Lichtmarkierungen kalibrierte 3D-Koordinaten im Vorrichtungsbezugssystem aufweisen, wobei die Messsonde dafür ausgelegt ist, 3D-Koordinaten von Punkten auf einem Objekt im Vorrichtungsbezugssystem zu bestimmen; wobei der erste sich drehende Kameraaufbau eine erste Kamera, einen ersten Drehmechanismus und ein erstes Winkelmesssystem aufweist; der zweite sich drehende Kameraaufbau eine zweite Kamera, einen zweiten Drehmechanismus und ein zweites Winkelmesssystem aufweist; in einer ersten Instanz: Drehen der ersten Kamera mit dem ersten Drehmechanismus, um zur Sammlung von Lichtmarkierungen zu weisen; Drehen der zweiten Kamera mit dem zweiten Drehmechanismus, um zur Sammlung von Lichtmarkierungen zu weisen; Messen, mit dem ersten Winkelmesssystem, des ersten Drehwinkels der ersten Kamera; Messen, mit dem zweiten Winkelmesssystem des zweiten Drehwinkels der zweiten Kamera; Erfassen, mit der ersten Kamera, eines ersten Bilds der Sammlung von Lichtmarkierungen; Erfassen, mit der zweiten Kamera, eines zweiten Bilds der Sammlung von Lichtmarkierungen; Bestimmen von 3D-Koordinaten eines ersten Objektpunkts auf dem Objekt in dem Vorrichtungsbezugssystem; und Bestimmen von 3D-Koordinaten des ersten Objektpunkts in einem Umgebungsbezugssystem zumindest teilweise basierend auf dem ersten Drehwinkel in der ersten Instanz, dem zweiten Drehwinkel in der ersten Instanz, dem ersten Bild in der ersten Instanz, dem zweiten Bild in der ersten Instanz, und den 3D-Koordinaten des ersten Objektpunkts in dem Vorrichtungsbezugssystem in der ersten Instanz.
  • In einer weiteren Ausführungsform umfasst das Messverfahren ferner: in einer zweiten Instanz: Bewegen der 3D-Messvorrichtung; Drehen der ersten Kamera mit dem ersten Drehmechanismus, um zur Sammlung von Lichtmarkierungen zu weisen; Drehen der zweiten Kamera mit dem zweiten Drehmechanismus, um zur Sammlung von Lichtmarkierungen zu weisen; Messen, mit dem ersten Winkelmesssystem, des ersten Drehwinkels der ersten Kamera; Messen, mit dem zweiten Winkelmesssystem, des zweiten Drehwinkels der zweiten Kamera; Erfassen, mit der ersten Kamera, eines ersten Bilds der Sammlung von Lichtmarkierungen; Erfassen, mit der zweiten Kamera, eines zweiten Bilds der Sammlung von Lichtmarkierungen; Bestimmen von 3D-Koordinaten eines ersten Objektpunkts auf dem Objekt in dem Vorrichtungsbezugssystem; und Bestimmen von 3D-Koordinaten des zweiten Objektpunkts in dem Umgebungsbezugssystem zumindest teilweise basierend auf dem ersten Drehwinkel in der zweiten Instanz, dem zweiten Drehwinkel in der zweiten Instanz, dem ersten Bild in der zweiten Instanz, dem zweiten Bild in der zweiten Instanz, und den 3D-Koordinaten des ersten Objektpunkts in dem Vorrichtungsbezugssystem in der zweiten Instanz.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bereitstellens eines 3D-Messsystems in einem Vorrichtungsbezugssystem die Messsonde eine Tastsonde.
  • In einer weiteren Ausführungsform umfasst in dem Schritt des Bereitstellens eines 3D-Messsystems in einem Vorrichtungsbezugssystem die Messsonde eine sphärische Sondenspitze.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bereitstellens eines 3D-Messsystems in einem Vorrichtungsbezugssystem die Messsonde ein Linienscanner, der 3D-Koordinaten misst.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bereitstellens eines 3D-Messsystems in einem Vorrichtungsbezugssystem die 3D-Messvorrichtung eine Handvorrichtung.
  • In einer weiteren Ausführungsform ist in dem Schritt des Bereitstellens eines 3D-Messsystems in einem Vorrichtungsbezugssystem die 3D-Messvorrichtung an einer motorisierten Einrichtung angebracht.
  • In einer Ausführungsform umfasst ein dreidimensionales(3D-)Messsystem: einen sich drehenden Kamera-Projektor-Aufbau, umfassend einen Kamera-Projektor-Körper, einen Projektor, eine erste Kamera, einen Kamera-Projektor-Drehmechanismus und ein Kamera-Projektor-Winkelmesssystem, wobei der Kamera-Projektor-Aufbau einen Projektor und eine erste Kamera umfasst, wobei der Projektor dafür ausgelegt ist, ein erstes beleuchtetes Muster auf ein Objekt zu projizieren, wobei die erste Kamera eine erste Kameralinse, eine erste lichtempfindliche Matrix und ein erstes Kameraperspektivitätszentrum umfasst, wobei die erste Kamera dafür ausgelegt ist, ein erstes Bild des ersten beleuchteten Musters auf dem Objekt zu erfassen, wobei der Kamera-Projektor-Drehmechanismus dafür ausgelegt ist, die erste Kamera und den Projektor um eine erste Kamera-Projektor-Achse um einen Kamera-Projektor-Drehwinkel und um eine zweite Kamera-Projektor-Achse um einen Kamera-Projektor-Drehwinkel zu drehen, wobei das Kamera-Projektor-Winkelmesssystem dafür ausgelegt ist, einen ersten Kamera-Projektor-Drehwinkel und einen zweiten Kamera-Projektor-Drehwinkel zu messen; und einen zweiten sich drehenden Kameraaufbau, umfassend einen zweiten Kamerakörper, eine zweite Kamera, einen zweiten Kamera-Drehmechanismus und ein zweites Kamera-Winkelmesssystem, wobei die zweite Kamera eine zweite Kameralinse, eine zweite lichtempfindliche Matrix und ein zweites Kameraperspektivitätszentrum umfasst, wobei die zweite Kamera dafür ausgelegt ist, ein zweites Bild des ersten beleuchteten Musters auf dem Objekt zu erfassen, wobei der zweite Kamera-Drehmechanismus dafür ausgelegt ist, die zweite Kamera um eine erste Achse der zweiten Kamera um einen ersten Drehwinkel der zweiten Kamera und eine zweite Achse der zweiten Kamera um einen zweiten Drehwinkel der zweiten Kamera zu drehen, wobei das zweite Kamera-Winkelmesssystem dafür ausgelegt ist, einen ersten Winkel der zweiten Kamera und einen zweiten Winkel der zweiten Kamera zu messen, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten des Objekts zumindest teilweise basierend auf dem ersten beleuchteten Muster, dem ersten Bild, dem zweiten Bild, dem ersten Drehwinkel von Kamera-Projektor, dem zweiten Drehwinkel von Kamera-Projektor, dem ersten Drehwinkel der zweiten Kamera, dem zweiten Drehwinkel der zweiten Kamera und einer Pose der zweiten Kamera relativ zur ersten Kamera zu bestimmen.
  • Obwohl die Erfindung im Detail im Zusammenhang mit nur einer begrenzten Anzahl an Ausführungsformen beschrieben wurde, sollte ohne weiteres klar sein, dass die Erfindung nicht auf solche offenbarten Ausführungsformen beschränkt ist. Vielmehr kann die Erfindung modifiziert werden, um jede beliebige Anzahl an Veränderungen, Abänderungen, Ersetzungen oder äquivalenten Anordnungen, die hier noch nicht beschrieben wurden, jedoch dem Geist und Rahmen der Erfindung entsprechen, einzubringen. Außerdem versteht es sich, dass, obwohl verschiedene Ausführungsformen der Erfindung beschrieben wurden, Aspekte der Erfindung nur einige der beschriebenen Ausführungsformen umfassen können. Demnach sollte die Erfindung nicht als durch die vorstehende Beschreibung beschränkt angesehen werden; diese ist vielmehr nur durch den Rahmen der beigefügten Ansprüche beschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6711293 [0132]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11 [0202]
    • IEEE 802.15.1 [0202]
    • IEEE 802.3 [0202]

Claims (20)

  1. Dreidimensionales (3D-)Messsystem, aufweisend: einen Körper; einen internen Projektor, der fest an dem Körper angebracht ist, wobei der interne Projektor dafür ausgelegt ist, ein beleuchtetes Lichtmuster auf ein Objekt zu projizieren; und einen ersten dichroitischen Kameraaufbau, der fest an dem Körper angebracht ist, wobei der erste dichroitische Kameraaufbau einen ersten Strahlenteiler aufweist, der dafür ausgelegt ist, einen ersten Teil von einfallendem Licht in einen ersten Kanal zu lenken, der zu einer ersten lichtempfindlichen Matrix führt, und einen zweiten Teil des einfallenden Lichts in einen zweiten Kanal zu lenken, der zu einer zweiten lichtempfindlichen Matrix führt, wobei die erste lichtempfindliche Matrix dafür ausgelegt ist, ein erstes Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, die zweite lichtempfindliche Matrix dafür ausgelegt ist, ein zweites Kanalbild des beleuchteten Musters auf dem Objekt zu erfassen, wobei der erste dichroitische Kameraaufbau eine erste Pose relativ zum internen Projektor aufweist, wobei das 3D-Messsystem dafür ausgelegt ist, 3D-Koordinaten eines ersten Punkts auf dem Objekt zumindest teilweise basierend auf dem beleuchteten Muster, dem zweiten Kanalbild und der ersten Pose zu bestimmen.
  2. 3D-Messsystem nach Anspruch 1, wobei der erste Teil und der zweite Teil zumindest teilweise basierend auf den im ersten Teil vorliegenden Wellenlängen und den im zweiten Teil vorliegenden Wellenlängen in den ersten Kanal bzw. den zweiten Kanal gelenkt werden.
  3. 3D-Messsystem nach Anspruch 2, ferner aufweisend eine erste Linse zwischen dem ersten Strahlenteiler und der ersten lichtempfindlichen Matrix und einer zweiten Linse zwischen dem ersten Strahlenteiler und der zweiten lichtempfindlichen Matrix.
  4. 3D-Messsystem nach Anspruch 3, wobei sich die Brennweite der ersten Linse von der Brennweite der zweiten Linse unterscheidet.
  5. 3D-Messsystem nach Anspruch 3, wobei sich das Gesichtsfeld (Field of View, FOV) des ersten Kanals von dem FOV des zweiten Kanals unterscheidet.
  6. 3D-Messsystem nach Anspruch 3, wobei das 3D-Messsystem dafür ausgelegt ist, einen ersten Kardinalpunkt in einer ersten Instanz des ersten Kanalbilds zu erkennen und ferner den ersten Kardinalpunkt in einer zweiten Instanz des ersten Kanalbilds zu erkennen, wobei sich die zweite Instanz des ersten Kanalbilds von der ersten Instanz des ersten Kanalbilds unterscheidet.
  7. 3D-Messsystem nach Anspruch 6, wobei der erste Kardinalpunkt auf einem Merkmal basiert, ausgewählt aus der Gruppe bestehend aus: einem natürlichen Merkmal auf dem oder in der Nähe des Objekts, einem von einer nicht an dem Körper angebrachten Lichtquelle auf das Objekt oder in der Nähe des Objekts projizierten Lichtpunkt und einer auf das Objekt oder in der Nähe des Objekts platzierten Markierung, einer auf dem Objekt oder in der Nähe des Objekts platzierten Lichtquelle.
  8. 3D-Messsystem nach Anspruch 6, wobei das 3D-Messsystem ferner dafür ausgelegt ist, die erste Instanz des ersten Kanalbildes mit der zweiten Instanz des ersten Kanalbilds in Deckung zu bringen.
  9. 3D-Messsystem nach Anspruch 8, wobei das 3D-Messsystem dafür ausgelegt ist, eine erste Pose des 3D-Messsystems in der zweiten Instanz relativ zu einer ersten Pose des 3D-Messsystems in der ersten Instanz zu bestimmen.
  10. 3D-Messsystem nach Anspruch 8, wobei der erste Kanal ein größeres Gesichtsfeld (FOV) hat als der zweite Kanal.
  11. Messverfahren, aufweisend: Platzieren eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung, wobei der erste sich drehende Kameraaufbau einen ersten Kamerakörper, eine erste Kamera, einen ersten Kamera-Drehmechanismus und ein erstes Kamera-Winkelmesssystem umfasst; Platzieren eines zweiten sich drehenden Kameraaufbaus an einer zweiten Umgebungsstelle in der Umgebung, wobei der zweite sich drehende Kameraaufbau einen zweiten Kamerakörper, eine zweite Kamera, einen zweiten Kamera-Drehmechanismus und ein zweites Kamera-Winkelmesssystem umfasst; in einer ersten Instanz: Bewegen einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung, wobei die 3D-Messvorrichtung ein Vorrichtungsbezugssystem aufweist, wobei die 3D-Messvorrichtung fest an einem ersten Ziel und einem zweiten Ziel angebracht ist; Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem ersten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; Messen des ersten Winkels mit dem ersten Kamera-Winkelmesssystem; Erfassen eines ersten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera; Drehen, mit dem zweiten Kamera-Drehmechanismus, des zweiten sich drehenden Kameraaufbaus zu einem zweiten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen; Messen des zweiten Winkels mit dem zweiten Kamera-Winkelmesssystem; Erfassen eines zweiten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera; Messen, mit der 3D-Messvorrichtung, von ersten 3D-Koordinaten im Vorrichtungsbezugssystem eines ersten Objektpunkts auf einem Objekt; Bestimmen von 3D-Koordinaten des ersten Objektpunkts in einem ersten Bezugssystem zumindest teilweise basierend auf dem ersten Bild, dem zweiten Bild, dem gemessenen ersten Winkel, dem gemessenen zweiten Winkel und den gemessenen ersten 3D-Koordinaten, wobei sich das erste Bezugssystem von dem Vorrichtungsbezugssystem unterscheidet; in einer zweiten Instanz: Bewegen der 3D-Messvorrichtung zu einer zweiten Vorrichtungsstelle in der Umgebung; Erfassen eines dritten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera; Erfassen eines vierten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera; Messen, mit der 3D-Messvorrichtung, von zweiten 3D-Koordinaten im Vorrichtungsbezugssystem eines zweiten Objektpunkts auf dem Objekt; Bestimmen von 3D-Koordinaten des zweiten Objektpunkts in dem ersten Bezugssystem zumindest teilweise basierend auf dem dritten Bild, dem vierten Bild und den gemessenen zweiten 3D-Koordinaten; und Speichern der 3D-Koordinaten des ersten Objektpunktes und des zweiten Objektpunktes im ersten Bezugssystem.
  12. Messverfahren nach Anspruch 11, wobei: im Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung ferner fest an einem dritten Ziel angebracht ist; in der ersten Instanz: der Schritt des Drehens mit dem ersten Kamera-Drehmechanismus ferner das Drehen des ersten sich drehenden Kameraaufbaus, um zum dritten Ziel zu weisen, umfasst; im Schritt des Erfassens eines ersten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera das erste Bild ferner das dritte Ziel umfasst; der Schritt des Drehens mit dem zweiten Kamera-Drehmechanismus ferner das Drehen des zweiten sich drehenden Kameraaufbaus, um zum dritten Ziel zu weisen, umfasst; im Schritt des Erfassens eines zweiten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera das zweite Bild ferner das dritte Ziel umfasst; in der zweiten Instanz: im Schritt des Erfassens eines dritten Bilds des ersten Ziels und des zweiten Ziels mit der ersten Kamera das dritte Bild ferner das dritte Ziel umfasst; und im Schritt des Erfassens eines vierten Bilds des ersten Ziels und des zweiten Ziels mit der zweiten Kamera das vierte Bild ferner das dritte Ziel umfasst.
  13. Messverfahren nach Anspruch 11, wobei in der zweiten Instanz: ein weiterer Schritt das Drehen, mit dem ersten Kamera-Drehmechanismus, des ersten sich drehenden Kameraaufbaus zu einem dritten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen, umfasst; ein weiterer Schritt das Drehen, mit dem zweiten Kamera-Drehmechanismus, des zweiten sich drehenden Kameraaufbaus zu einem vierten Winkel, um zum ersten Ziel und zum zweiten Ziel zu weisen, umfasst; im Schritt des Bestimmens von 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem die 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem ferner auf dem dritten Winkel und dem vierten Winkel basieren.
  14. Messverfahren nach Anspruch 11, wobei: im Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung ferner ein Zwei-Achsen-Inklinometer umfasst; in der ersten Instanz: ein weiterer Schritt das Messen einer ersten Neigung mit dem Zwei-Achsen-Inklinometer umfasst; der Schritt des Bestimmens von 3D-Koordinaten des ersten Objektpunkts in einem ersten Bezugssystem ferner auf der gemessenen ersten Neigung basiert; in der zweiten Instanz: ein weiterer Schritt das Messen einer zweiten Neigung mit dem Zwei-Achsen-Inklinometer umfasst; und der Schritt des Bestimmens von 3D-Koordinaten des zweiten Objektpunkts im ersten Bezugssystem ferner auf der gemessenen zweiten Neigung basiert.
  15. Messverfahren nach Anspruch 11, wobei: im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung die erste Kamera eine erste Kameralinse, eine erste lichtempfindliche Matrix und ein erstes Kameraperspektivitätszentrum umfasst; im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung der erste Kamera-Drehmechanismus dafür ausgelegt ist, den ersten sich drehenden Kameraaufbau um eine erste Achse um einen ersten Drehwinkel und um eine zweite Achse um einen zweiten Drehwinkel zu drehen; und im Schritt des Platzierens eines ersten sich drehenden Kameraaufbaus an einer ersten Umgebungsstelle in einer Umgebung das erste Kamera-Winkelmesssystem ferner einen ersten Winkelwandler, der dafür ausgelegt ist, den ersten Drehwinkel zu messen, und einen zweiten Winkelwandler, der dafür ausgelegt ist, den zweiten Drehwinkel zu messen, umfasst.
  16. Messverfahren nach Anspruch 15, wobei im Schritt des Messens des ersten Winkels mit dem ersten Kamera-Winkelmesssystem der erste Winkel zumindest teilweise auf dem gemessenen ersten Drehwinkel und dem gemessenen zweiten Drehwinkel basiert.
  17. Messverfahren nach Anspruch 11, des Weiteren aufweisend die folgenden Schritte: Erfassen, mit der ersten Kamera, von einem oder mehreren ersten Bezugsbildern von mehreren Bezugspunkten in der Umgebung, wobei ein bekannter Abstand zwischen zwei der mehreren Bezugspunkte besteht; Erfassen, mit der zweiten Kamera, von einem oder mehreren zweiten Bezugsbildern der mehreren Bezugspunkte; Bestimmen einer ersten Bezugspose des ersten sich drehenden Kameraaufbaus in einem Umgebungsbezugssystem, zumindest teilweise basierend auf dem einen oder den mehreren ersten Bezugsbildern und auf dem bekannten Abstand; und Bestimmen einer zweiten Bezugspose des zweiten sich drehenden Kameraaufbaus in einem Umgebungsbezugssystem, zumindest teilweise basierend auf dem einen oder den mehreren zweiten Bezugsbildern und auf dem bekannten Abstand.
  18. Messverfahren nach Anspruch 17, ferner umfassend: Bestimmen von 3D-Koordinaten des ersten Objektpunkts und des zweiten Objektpunkts in dem ersten Bezugssystem, ferner basierend auf der ersten Bezugspose und der zweiten Bezugspose.
  19. Messverfahren nach Anspruch 11, wobei im Schritt des Bewegens einer dreidimensionalen (3D-)Messvorrichtung zu einer ersten Vorrichtungsstelle in der Umgebung die 3D-Messvorrichtung an einer ersten mobilen Plattform angebracht ist.
  20. Messverfahren nach Anspruch 19, wobei die erste mobile Plattform ferner erste motorisierte Räder aufweist.
DE102016118562.0A 2015-09-30 2016-09-29 Dreidimensionales bildgerät, das eine dichroitische kamera umfasst Withdrawn DE102016118562A1 (de)

Priority Applications (18)

Application Number Priority Date Filing Date Title
US201562234973P true 2015-09-30 2015-09-30
US201562234951P true 2015-09-30 2015-09-30
US201562234796P true 2015-09-30 2015-09-30
US201562234914P true 2015-09-30 2015-09-30
US201562234987P true 2015-09-30 2015-09-30
US201562234739P true 2015-09-30 2015-09-30
US201562234869P true 2015-09-30 2015-09-30
US201562235011P true 2015-09-30 2015-09-30
US62/234,973 2015-09-30
US62/234,796 2015-09-30
US62/234,914 2015-09-30
US62/234,739 2015-09-30
US62/234,951 2015-09-30
US62/234,987 2015-09-30
US62/235,011 2015-09-30
US62/234,869 2015-09-30
US15/268,749 2016-09-19
US15/268,749 US20170094251A1 (en) 2015-09-30 2016-09-19 Three-dimensional imager that includes a dichroic camera

Publications (1)

Publication Number Publication Date
DE102016118562A1 true DE102016118562A1 (de) 2017-03-30

Family

ID=57571090

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016118562.0A Withdrawn DE102016118562A1 (de) 2015-09-30 2016-09-29 Dreidimensionales bildgerät, das eine dichroitische kamera umfasst

Country Status (3)

Country Link
US (1) US20170094251A1 (de)
DE (1) DE102016118562A1 (de)
GB (1) GB2544181A (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017126495A1 (de) * 2017-11-10 2019-05-16 Perpetual Mobile Gmbh Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
DE102018108874A1 (de) * 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und System zur Vermessung eines Objekts mittels Stereoskopie
DE102018109586A1 (de) * 2018-04-20 2019-10-24 Carl Zeiss Ag 3D-Digitalisierungssystem und 3D-Digitalisierungsverfahren
CN111024042A (zh) * 2019-12-11 2020-04-17 四川云盾光电科技有限公司 一种基于doe光学芯片的反射式物体定位识别系统
US11199397B2 (en) * 2017-10-08 2021-12-14 Magik Eye Inc. Distance measurement using a longitudinal grid pattern

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10027954B2 (en) * 2016-05-23 2018-07-17 Microsoft Technology Licensing, Llc Registering cameras in a multi-camera imager
US10326979B2 (en) 2016-05-23 2019-06-18 Microsoft Technology Licensing, Llc Imaging system comprising real-time image registration
US10339662B2 (en) 2016-05-23 2019-07-02 Microsoft Technology Licensing, Llc Registering cameras with virtual fiducials
US10401145B2 (en) * 2016-06-13 2019-09-03 Carl Zeiss Industrielle Messtechnik Gmbh Method for calibrating an optical arrangement
EP3327481B1 (de) * 2016-11-28 2019-07-03 InterDigital CE Patent Holdings Verfahren zur modellierung einer bildgebungsvorrichtung, entsprechendes computerprogrammprodukt und computerlesbares trägermedium
CN107202554B (zh) * 2017-07-06 2018-07-06 杭州思看科技有限公司 同时具备摄影测量和三维扫描功能的手持式大尺度三维测量扫描仪系统
EP3441788A1 (de) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Vorrichtung und verfahren zur erzeugung einer darstellung einer szene
US11064184B2 (en) 2017-08-25 2021-07-13 Aurora Flight Sciences Corporation Aerial vehicle imaging and targeting system
US10495421B2 (en) 2017-08-25 2019-12-03 Aurora Flight Sciences Corporation Aerial vehicle interception system
US10591276B2 (en) * 2017-08-29 2020-03-17 Faro Technologies, Inc. Articulated arm coordinate measuring machine having a color laser line probe
US10699442B2 (en) * 2017-08-29 2020-06-30 Faro Technologies, Inc. Articulated arm coordinate measuring machine having a color laser line probe
JP2019052867A (ja) * 2017-09-13 2019-04-04 株式会社トプコン 測量装置
US9857172B1 (en) * 2017-09-25 2018-01-02 Beijing Information Science And Technology University Method for implementing high-precision orientation and evaluating orientation precision of large-scale dynamic photogrammetry system
CN111164378A (zh) * 2017-09-28 2020-05-15 海克斯康测量技术有限公司 用于测量物体的各种性质的系统和方法
JP6559201B2 (ja) * 2017-09-29 2019-08-14 株式会社トプコン 解析システム、解析方法、及び解析プログラム
CA3082498A1 (en) 2017-11-13 2019-05-16 Hexagon Metrology, Inc. Thermal management of an optical scanning device
US10697754B2 (en) * 2017-12-07 2020-06-30 Faro Technologies, Inc. Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
CN109945839B (zh) * 2017-12-21 2021-04-13 沈阳新松机器人自动化股份有限公司 一种对接工件的姿态测量方法
US10643341B2 (en) 2018-03-22 2020-05-05 Microsoft Technology Licensing, Llc Replicated dot maps for simplified depth computation using machine learning
US10944957B2 (en) 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
US10728518B2 (en) 2018-03-22 2020-07-28 Microsoft Technology Licensing, Llc Movement detection in low light environments
US10565720B2 (en) * 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
US10477180B1 (en) 2018-05-22 2019-11-12 Faro Technologies, Inc. Photogrammetry system and method of operation
CN109141289B (zh) * 2018-08-01 2020-12-29 先临三维科技股份有限公司 三维扫描方法和系统
US20200099918A1 (en) * 2018-09-20 2020-03-26 Shoppertrak Rct Corporation Techniques for calibrating a stereoscopic camera in a device
USD875573S1 (en) 2018-09-26 2020-02-18 Hexagon Metrology, Inc. Scanning device
JP2020134181A (ja) * 2019-02-14 2020-08-31 コニカミノルタ株式会社 データ処理装置、データ処理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4835563A (en) * 1986-11-21 1989-05-30 Autostudio Corporation Electronic recording camera with front projector
US6310733B1 (en) * 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
US7800758B1 (en) * 1999-07-23 2010-09-21 Faro Laser Trackers, Llc Laser-based coordinate measuring device and laser-based method for measuring coordinates
US7663640B2 (en) * 2003-07-02 2010-02-16 The Trustees Of Columbia University In The City Of New York Methods and systems for compensating an image projected onto a surface having spatially varying photometric properties
US7349104B2 (en) * 2003-10-23 2008-03-25 Technest Holdings, Inc. System and a method for three-dimensional imaging systems
EP1875159A1 (de) * 2005-04-11 2008-01-09 Faro Technologies Inc. Einrichtung zur messung dreidimensionaler koordinaten
DE602007011045D1 (de) * 2006-04-20 2011-01-20 Faro Tech Inc Kamerabasierte vorrichtung zur zielmessung und zielverfolgung mit sechs freiheitsgraden
KR20080043047A (ko) * 2006-11-13 2008-05-16 주식회사 고영테크놀러지 새도우 모아레를 이용한 3차원형상 측정장치
DE102008018636B4 (de) * 2008-04-11 2011-01-05 Storz Endoskop Produktions Gmbh Vorrichtung und Verfahren zur endoskopischen 3D-Datenerfassung
WO2010006081A1 (en) * 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
US8970709B2 (en) * 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
JP2015152379A (ja) * 2014-02-13 2015-08-24 株式会社ミツトヨ 斜入射干渉計
US20150377604A1 (en) * 2014-06-27 2015-12-31 Faro Technologies, Inc. Zoom camera assembly having integrated illuminator
US10284835B2 (en) * 2015-09-04 2019-05-07 Apple Inc. Photo-realistic shallow depth-of-field rendering from focal stacks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11
IEEE 802.15.1
IEEE 802.3

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199397B2 (en) * 2017-10-08 2021-12-14 Magik Eye Inc. Distance measurement using a longitudinal grid pattern
DE102017126495A1 (de) * 2017-11-10 2019-05-16 Perpetual Mobile Gmbh Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
DE102018108874A1 (de) * 2018-04-13 2019-10-17 Isra Vision Ag Verfahren und System zur Vermessung eines Objekts mittels Stereoskopie
DE102018109586A1 (de) * 2018-04-20 2019-10-24 Carl Zeiss Ag 3D-Digitalisierungssystem und 3D-Digitalisierungsverfahren
CN111024042A (zh) * 2019-12-11 2020-04-17 四川云盾光电科技有限公司 一种基于doe光学芯片的反射式物体定位识别系统

Also Published As

Publication number Publication date
GB2544181A (en) 2017-05-10
GB201616580D0 (en) 2016-11-16
US20170094251A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE112016001888T5 (de) Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE112016004085T5 (de) Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE112016002057T5 (de) Dreidimensionales messgerät, lösbar verkoppelt mit einem roboterarm auf einer motorisierten mobilen plattform
DE112015002755T5 (de) Koordinatenmessgerät mit einer Handsonde mit sechs Freiheitsgraden und integrierter Kamera für erweiterte Realität
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE60202198T2 (de) Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112009005524B3 (de) Vorrichtung und Verfahren zum Messen von sechs Freiheitsgraden
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
EP2156139B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen räumlicher koordinaten einer oberfläche
DE112012001713T5 (de) Lasernachführungsgerät mit sechs Freiheitsgraden, das mit einem Fernsensor zusammwirkt
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
DE112014003088T5 (de) Lasertracker, der mit einem entfernten Kamerastab und Koordinatenmessgerät zusammenwirkt
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
DE112013002892T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE112015003734T5 (de) Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität
DE102015205110B4 (de) Koordinatenmessgerät mit Distanzmesser zur Verwendung für die Erstellung eines Bezugsrahmens

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee