DE102016106696A1 - Koordinatenmesssystem - Google Patents

Koordinatenmesssystem Download PDF

Info

Publication number
DE102016106696A1
DE102016106696A1 DE102016106696.6A DE102016106696A DE102016106696A1 DE 102016106696 A1 DE102016106696 A1 DE 102016106696A1 DE 102016106696 A DE102016106696 A DE 102016106696A DE 102016106696 A1 DE102016106696 A1 DE 102016106696A1
Authority
DE
Germany
Prior art keywords
computing device
mobile computing
evaluation
image data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016106696.6A
Other languages
English (en)
Inventor
Nils Haverkamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102016106696.6A priority Critical patent/DE102016106696A1/de
Priority to US15/484,825 priority patent/US20170292827A1/en
Publication of DE102016106696A1 publication Critical patent/DE102016106696A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • G01B11/306Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces for measuring evenness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein System (10) zur Messung von räumlichen Koordinaten eines Messobjekts (14), mit einem mobilen Computergerät (20), welches einen ersten optischen Sensor (22) zur Erfassung von Bilddaten des Messobjekts (14) aufweist; einer Positions- und Lageerfassungseinheit (30), welche einen externen Trackingsensor (32) aufweist, welcher separat zu dem mobilen Computergerät (20) ausgebildet ist und dazu eingerichtet ist, Daten bezüglich der Position und Lage des mobilen Computergeräts (20) zu erfassen; und einer Auswerte- und Steuerungseinheit (38), welche dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts (14) basierend auf den Bilddaten des Messobjekts sowie den Daten bezüglich der Position und Lage des mobilen Computergeräts (20) zu bestimmen.

Description

  • Die vorliegende Erfindung betrifft ein System zur Messung von räumlichen Koordinaten eines Messobjekts. Das erfindungsgemäße System kann auch als mobiles optisches Koordinatenmessgerät bezeichnet werden.
  • Koordinatenmessgeräte dienen dazu, beispielsweise im Rahmen einer Qualitätssicherung Werkstücke zu überprüfen oder die Geometrie eines Werkstücks vollständig im Rahmen eines sog. "Reverse Engineering" zu ermitteln. Darüber hinaus sind vielfältige weitere Anwendungsmöglichkeiten denkbar, wie z.B. auch prozesssteuernde Anwendungen, bei denen die Messtechnik direkt zur Online-Überwachung und -Regelung von Fertigungs- und Bearbeitungsprozessen angewendet wird.
  • In Koordinatenmessgeräten können verschiedene Arten von Sensoren zur Anwendung kommen, um das zu vermessende Werkstück zu erfassen. Beispielsweise sind hierzu taktil messende Sensoren bekannt, wie sie von der Anmelderin unter der Produktbezeichnung "VAST XT" oder "VAST XXT" vertrieben werden. Hierbei wird die Oberfläche des zu vermessenden Werkstücks mit einem Taststift abgetastet, dessen Koordinaten im Messraum ständig bekannt sind. Ein derartiger Taststift kann auch entlang der Oberfläche eines Werkstücks bewegt werden, so dass in einem solchen Messvorgang im Rahmen eines sog. "Scanning-Verfahrens" eine Vielzahl von Messpunkten in festgelegten zeitlichen Abständen erfasst werden können.
  • Darüber hinaus ist es bekannt, optische Sensoren einzusetzen, die ein berührungsloses Erfassen der Koordinaten eines Messobjekts bzw. Werkstücks ermöglichen. Die vorliegende Erfindung betrifft ein solches Koordinatenmessgerät bzw. Koordinatenmesssystem mit optischem Sensor.
  • In der optischen dimensionellen Messtechnik entstehen regelmäßig große Aufwände, wenn mit Genauigkeiten im Bereich einzelner Mikrometer die Form von Messobjekten bzw. Werkstücken gemessen werden soll. Dies ist allgemein darauf zurückzuführen, dass vergleichsweise komplexe und schwere Sensoren von vergleichsweise komplexen Maschinen entlang vorgeplanter Trajektorien geführt werden. Anschließend oder parallel wird dann die optisch erfasste Information in Zusammenhang mit der von der Maschinen-Aktuatorik bereitgestellten Ortsinformation gesetzt, so dass die Oberfläche des zu vermessenden Objekts rekonstruiert werden kann. Ein Beispiel für einen derartigen optischen Sensor ist der unter der Produktbezeichnung "ViScan" von der Anmelderin vertriebene optische Sensor. Ein derartiger optischer Sensor kann in verschiedenen Arten von Messaufbauten oder Koordinatenmessgeräten verwendet werden. Beispiele für solche Koordinatenmessgeräte sind die von der Anmelderin vertriebenen Produkte "O-SELECT" und "O-INSPECT".
  • Die Frage der mobilen Einsatzfähigkeit solcher Koordinatenmessgeräte gewinnt zunehmend an Wichtigkeit, da dies das Einsatzspektrum der Koordinatenmessgeräte allein aufgrund der flexibleren Einsatzfähigkeit noch weiter ausdehnen würde. Gegen die mobile Einsatzfähigkeit eines solchen Koordinatenmessgeräts sprechen jedoch häufig die extrem hohen Anforderungen an die Messgenauigkeit, welche diese liefern sollen. Zwar existieren mittlerweile mannigfaltige digital-optische Möglichkeiten, insbesondere Softwareverfahren, um aus Bildern bzw. Filmen von Objekten bzw. Szenen auf die räumliche Struktur der abgebildeten Objekte in der Szene zu schließen. Meist wird hierzu rechnerisch eine 3D-Punktewolke aus dem Bild- bzw. Videomaterial generiert. Viele dieser Möglichkeiten sind sogar kostenlos zugänglich. Grundsätzlich haben diese Verfahren aber einige Defizite, welche dazu führen, dass sie für die geforderten hochgenauen Messungen derzeit noch nicht in Frage kommen. Das Schwerwiegendste ist die Erzielung der für industrielle Anwendungen benötigten Messgenauigkeit.
  • Bei den bisher bekannten digital-optischen Verfahren, bei denen beispielsweise herkömmliche Foto- oder Videoapparate zum Einsatz kommen, ist die Erzielung der geforderten Messgenauigkeit insbesondere aus folgenden Gründen meist nicht möglich: Eine einfache Kalibrierung von "Abbildungsmaßstäben" scheidet aus, da die für die Abbildung verwendeten Optiken in mobilen Endgeräten, aber auch bei teuren Fotoapparaten, nicht für metrologische Zwecke ausgelegt sind. Unter anderem sind sie im Allgemeinen nicht telezentrisch, was im Betrieb zu nicht quantifizierbaren, defokusabhängigen Abbildungsmaßstabsveränderungen führt. Ihre Verzeichnungen und Verzerrungen sind im Allgemeinen unbekannt und beim Betrieb der Optik unter Umständen nicht reproduzierbar. Dies gilt besonders, wenn es sich um Video- oder Fotoapparate mit bewegtem Zoom und/oder Autofokusoptiken handelt.
  • Eine Lösungsmöglichkeit bestünde darin, der Szene Referenzobjekte bekannter Größe hinzuzufügen. Dies würde eine Kalibrierung der Abbildungsverhältnisse ermöglichen, welche vorlagen, als das jeweilige Bild aufgenommen wurde. Insbesondere für die Vermessung größerer Teile müsste dieses Referenzobjekt dann jedoch mitgeführt werden. Oder es müssten viele Referenzobjekte zur Verfügung stehen. Beides ist schon aus Workflow-Sicht unpraktisch.
  • Ein weiteres Problem ist die Erzielung hoher Genauigkeit über größere Messstrecken. Die Ansätze basieren grundsätzlich auf dem sog. Stitching, d.h. korrelativen Methoden zur Bestimmung des Versatzes der einzelnen Bilder einer Bildsequenz. Dieser Ansatz führt grundsätzlich zu der Möglichkeit unbegrenzt wachsender Messfehler und ist zusätzlich stark eingeschränkt hinsichtlich erreichbarer Genauigkeiten, wenn die Abbildungsfehler innerhalb der Bildsequenz variieren. Außerdem wird die Stabilität der Korrelationsrechnung stark vom Bildinhalt beeinflusst. Featurearme Objekte zu vermessen, wie sie beispielsweise sauber gefertigte kleine Bohrungen in riefenfreier Umgebung darstellen, welche typischerweise dann auch genau gemessen werden müssen, sind besonders schlechte Bildinhalte für korrelative Methoden.
  • Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Koordinatenmesssystem, also ein System zur Vermessung von räumlichen Koordinaten eines Messobjekts, bereitzustellen, welches die oben genannten Nachteile überwindet. Dabei ist es insbesondere eine Aufgabe, eine mobil einsatzfähige und vergleichsweise kostengünstige Lösung bereitzustellen, welche es dennoch ermöglicht, die für die industrielle Messtechnik benötigte Messgenauigkeit gewährleisten zu können.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird diese Aufgabe durch ein System zur Messung von räumlichen Koordinaten eines Messobjekts gelöst, mit:
    • – einem mobilen Computergerät, welches einen ersten optischen Sensor zur Erfassung von Bilddaten des Messobjekts aufweist;
    • – einer Positions- und Lageerfassungseinheit, welche einen externen Trackingsensor aufweist, welcher separat zu dem mobilen Computergerät ausgebildet ist und dazu eingerichtet ist, Daten bezüglich der Position und Lage des mobilen Computergeräts zu erfassen; und
    • – einer Auswerte- und Steuerungseinheit, welche dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts basierend auf den Bilddaten des Messobjekts sowie den Daten bezüglich der Position und Lage des mobilen Computergeräts zu bestimmen und ggf. für eine weitere Verarbeitung maschinenlesbar abzuspeichern.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird die oben genannte Aufgabe durch ein entsprechendes Verfahren gelöst, welches die folgenden Schritte aufweist:
    • – Bereitstellen eines mobilen Computergeräts, welches einen ersten optischen Sensor aufweist;
    • – Erfassen von Bilddaten des Messobjekts mit Hilfe des ersten optischen Sensors;
    • – Erfassen von Daten bezüglich der Position und Lage des mobilen Computergeräts mit Hilfe einer Positions- und Lageerfassungseinheit, welche einen externen Trackingsensor aufweist, welcher separat zu dem mobilen Computergerät ausgebildet ist; und
    • – Bestimmen der räumlichen Koordinaten des Messobjekts basierend auf den Bilddaten des Messobjekts sowie den Daten bezüglich der Position und Lage des mobilen Computergeräts.
  • Was die wesentlichen Bestandteile des erfindungsgemäßen Systems angeht, ist dieses einem handelsüblichen optischen Koordinatenmessgerät insoweit ähnlich, als dass auch hier die drei üblichen Module: Sensorik, Aktuatorik und Auswerte- und Steuerungseinheit zur Generierung der 3D-Information des Messobjekts verwendet werden.
  • Im Unterschied zu den üblichen optischen Koordinatenmessgeräten beinhaltet die Sensorik zur Erfassung der Daten des Messobjekts in diesem Fall ein mobiles Computergerät und eine Positions- und Lageerfassungseinheit mit einem externen Trackingsensor, der dazu eingerichtet ist, Daten bezüglich der Position und Lage des mobilen Computergeräts zu erfassen. Das mobile Computergerät ist mit einem optischen Sensor ausgestattet, welcher vorliegend zur Unterscheidung von weiteren optischen Sensoren als "erster optischer Sensor" bezeichnet wird. Bei diesem ersten optischen Sensor handelt es sich vorzugsweise um eine Kamera, mit Hilfe derer Bilddaten von dem Messobjekt und ggf. auch dessen Umgebung gesammelt werden können. Diese Bilddaten können eines oder mehrere Bilder oder eine gesamte Bildsequenz, also auch ein Video, aufweisen. Bei dem mobilen Computergerät handelt es sich vorzugsweise um einen Tablet-Computer, ein Smartphone oder einen Laptop. Grundsätzlich kommen jedoch auch andere mobile Endgeräte für die vorliegende Erfindung in Frage.
  • Das erfindungsgemäße System weist im Vergleich zu einem herkömmlichen optischen Koordinatenmessgerät keinen automatisiert gesteuerten Aktuator auf. Stattdessen agiert der Mensch bei dem vorliegenden System als Aktuator, welcher den Sensor, d.h. das mobile Computergerät mit der daran angeordneten Kamera (erster optischer Sensor), relativ zu dem Messobjekt bewegt. Da der Mensch jedoch keine Informationen im Mikrometerbereich hinsichtlich seiner Bewegung bereitstellen kann, wird die Positions- und Lageinformation des mobilen Computergeräts über den bereits erwähnten externen Trackingsensor der Positions- und Lageerfassungseinheit generiert. Mit Hilfe dieses externen Trackingsensors, welcher separat zu dem mobilen Computergerät ausgebildet ist, ist zu jedem Zeitpunkt der Bewegung des mobilen Computergeräts dessen Position und Lage im Raum bekannt.
  • Die Verarbeitung der vom Messobjekt erfassten Bilddaten sowie der Positions- und Lagedaten des mobilen Computergeräts erfolgt, ähnlich wie dies auch bei herkömmlichen optischen Koordinatenmessgeräten der Fall ist, in einer Auswerte- und Steuerungseinheit, welche basierend auf den genannten Daten die räumlichen Koordinaten des Messobjekts berechnet. Diese Auswerte- und Steuerungseinheit weist vorzugsweise einen Prozessor auf, auf dem eine entsprechende metrologische Software implementiert ist, mit Hilfe dessen sich die genannten Daten auswerten lassen und die räumlichen Koordinaten des Messobjekts basierend darauf errechnen lassen. Zudem weist die Auswerteeinheit vorzugsweise die Möglichkeit auf, vordefinierte Prüfpläne aufzurufen bzw. den Ablauf durchgeführter Messung nebst ihren Ergebnissen wieder aufrufbar abzulegen.
  • Die Leistungsfähigkeit bzw. die geforderte Messgenauigkeit wird bei dem erfindungsgemäßen System insbesondere dadurch erreicht, dass die Raumposition und -lage der bildaufnehmenden Komponente, d.h. des mobilen Computergeräts, zu jeder Zeit eindeutig bekannt sind, da sie von der Positions- und Lageerfassungseinheit des Systems eindeutig erfasst werden.
  • Die Tatsache, dass als mobiles Computergerät beispielsweise ein herkömmlicher Tablet-Computer verwendet werden kann, bringt nicht nur die oben bereits erwähnten Vorteile der sehr mobilen Einsatzfähigkeit des erfindungsgemäßen Systems, sondern auch enorme Kostenvorteile gegenüber herkömmlichen optischen Koordinatenmessgeräten. Nichtsdestotrotz lässt sich mit Hilfe des erfindungsgemäßen Systems eine Genauigkeit der Vermessung des Messobjekts im Bereich von einem oder wenigen Mikrometern erreichen.
  • Die oben genannte Aufgabe ist daher vollständig gelöst.
  • In einer Ausgestaltung der vorliegenden Erfindung ist die Auswerte- und Steuerungseinheit dazu eingerichtet, das Messobjekt für die Auswertung der Bilddaten des Messobjekts als zeitinvariant vorauszusetzen.
  • Anders ausgedrückt ist in der auf der Auswerte- und Steuerungseinheit implementierten, metrologischen Software ein Algorithmus enthalten, welcher bei der Auswertung der genannten Bild-, Positions- und Lagedaten zur Bestimmung der räumlichen Koordinaten des Messobjekts das Messobjekt selbst als zeitinvariant voraussetzt. Zusammen mit der Tatsache, dass die Raumposition und -lage des mobilen Computergeräts und damit auch die Raumposition und -lage des ersten optischen Sensors jederzeit bekannt sind, ermöglicht diese zusätzliche Eingangsinformation bzw. Bedingung Abbildungsunterschiede in den einzelnen, von dem Messobjekt erfassten Bildern (beispielsweise eine durch einen geringeren Abstand des mobilen Computergeräts vom Messobjekt verursachte Vergrößerung) sowie Abbildungsfehler wie z.B. Verzeichnungen zu korrigieren. Aus den vom Messobjekt erfassten Bilddaten lässt sich somit eine sehr genaue 3D-Rekonstruktion des Messobjekts erstellen.
  • Die Auswerte- und Steuerungseinheit kann entweder direkt in das mobile Computergerät integriert sein oder zumindest teilweise auf einem externen Rechner oder Server, welcher über eine entsprechende Datenverbindung mit dem mobilen Computergerät verbunden ist. Eine teilweise oder gesamte Integration der Auswerte- und Steuerungseinheit in einen externen Rechner bzw. Server hat im Vergleich zu deren Integration in das mobile Computergerät folgende Vorteile: Eine eventuell begrenzte Leistungsfähigkeit des mobilen Computergeräts spielt dann eine geringere Rolle. Auch ein erhöhter Leistungsbedarf, der häufig zu einem Aufwärmen des mobilen Computergeräts führt, kann somit verhindert werden. Dies ist insbesondere deshalb von Vorteil, da Erwärmungen des Sensors, welche häufig mit Verformungen einhergehen, für metrologische Anwendungen von äußerstem Nachteil sind. Im Übrigen lässt sich auch Akkuleistung des mobilen Computergeräts einsparen. Die Übermittlung der Daten zwischen dem mobilen Computergerät der Positions- und Lageerfassungseinheit und der Auswerte- und Steuerungseinheit kann sowohl kabelgebunden als auch auf kabellosem Wege erfolgen.
  • In einer weiteren Ausgestaltung der vorliegenden Erfindung weist der externe Trackingsensor der Positions- und Lageerfassungseinheit einen zweiten optischen Sensor auf, wobei die Daten bezüglich der Position und Lage des mobilen Computergeräts Bilddaten eines Überwachungsbereichs inklusive des mobilen Computergeräts aufweisen.
  • Anders ausgedrückt handelt es sich somit also auch bei dem externen Trackingsensor vorzugsweise um einen optischen Sensor, welcher zur Differenzierung von dem ersten optischen Sensor vorliegend als "zweiter optischer Sensor" bezeichnet wird. Vorzugsweise weist dieser zweite optische Sensor zwei ortsfeste Kameras auf. Diese beiden ortsfesten Kameras sind vorzugsweise versetzt zueinander im Raum angeordnet, so dass aus den von diesen gewonnenen Bilddaten in bekannter Weise 3D-Bilddaten zusammengesetzt werden können. Alternativ kann der genannte zweite optische Sensor auch mehr als nur zwei Kameras aufweisen oder als eine 3D-Kamera, beispielsweise eine Stereokamera, eine plenoptische Kamera oder eine TOF-Kamera, realisiert sein.
  • In einer weiteren Ausgestaltung weist die Positions- und Lageerfassungseinheit ferner einen internen Positions- und/oder Lageerfassungssensor auf, welcher in das mobile Computergerät integriert ist und dazu eingerichtet ist, weitere Daten bezüglich Position und/oder Lage des mobilen Computergeräts zu ermitteln, und wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts auch basierend auf den von dem internen Positions- und/oder Lageerfassungssensor ermittelten Daten zu bestimmen.
  • Die Position und Lage des mobilen Computergeräts wird somit also nicht nur über den externen Sensor bestimmt, sondern auch unter Zuhilfenahme von weiteren Sensoren, welche in das mobile Computergerät integriert sind. Hierdurch können Messgenauigkeit, Messgeschwindigkeit und Langzeitstabilität erhöht werden. Beispiele solcher interner Positions- und/oder Lageerfassungssensoren sind: ein GPS-/GLONASS-Sensor, ein Gyrometer, ein oder mehrere Beschleunigungssensoren, ein Barometer etc. Derartige Sensoren sind bereits in handelsüblichen Tablet-Computern enthalten. Beispielsweise lassen sich durch einfache bzw. doppelte Integration der Daten eines in das mobile Computergerät integrierten Beschleunigungssensors Geschwindigkeit und Ort des mobilen Computergeräts berechnen. Ähnliche Auswertungen sind über ein in das mobile Computergerät integriertes Gyrometer möglich, mittels dessen sich Winkel bzw. Lagen im Raum und Winkelgeschwindigkeiten des mobilen Computergeräts ermitteln lassen. Durch Vergleich, zeitliche, örtliche und/oder Fourier-Frequenzfilterung und/oder Kalman-Filterung und/oder andere Verfahren zur sog. Sensor-Datenfusion der Messwerte der einzelnen Sensoren der Positions- und Lageerfassungseinheit kann somit gleichzeitig Genauigkeit und Messgeschwindigkeit der Erfassung von Position und Lage des mobilen Computergeräts erhöht werden.
  • Gemäß einer weiteren Ausgestaltung weist das mobile Computergerät ferner einen dritten optischen Sensor zur Erfassung von Bilddaten von der Umgebung des mobilen Computergeräts auf, wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, in den von dem dritten optischen Sensor erfassten Bilddaten zumindest einen ortsfesten Referenzpunkt zu identifizieren und dessen Position und Lage bezüglich des mobilen Computergeräts zu ermitteln, und wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts auch basierend auf der ermittelten Position und Lage des zumindest einen identifizierten Referenzpunkts relativ zu dem mobilen Computergerät zu bestimmen.
  • Sowohl bei dem ersten als auch bei dem dritten optischen Sensor, welche beide in das mobile Computergerät integriert sind, handelt es sich vorzugsweise jeweils um eine Kamera. Die Kamera des ersten Sensors und die Kamera des dritten Sensors haben vorzugsweise entgegengesetzte Blickrichtungen. Das mobile Computergerät weist vorzugsweise zudem ein Display auf. Die Blickrichtung der Kamera des ersten Sensors ist vorzugsweise entgegengesetzt zur Abstrahlrichtung des Displays. Die Kamera des dritten Sensors ist dagegen vorzugsweise auf einer gegenüberliegenden Seite der Kamera des ersten Sensors, also vorzugsweise auf der gleichen Seite des mobilen Computergeräts wie das Display angeordnet.
  • In der zuletzt genannten Ausgestaltung ist der dritte optische Sensor somit ebenfalls ein Teil der Positions- und Lageerfassungseinheit. Vorzugsweise wird mit Hilfe der Auswertung der von dem dritten optischen Sensor erfassten Bilddaten insbesondere die Lage des mobilen Computergeräts im Raum bestimmt. Zur Unterstützung können dem Objektraum auch für bildverarbeitende Algorithmik leicht erkennbare und stabil lokalisierbare 2D oder 3D Objekte hinzugefügt werden, um räumliche Bezüge in den Bilddaten besser ermitteln zu können.
  • In einer weiteren Ausgestaltung des erfindungsgemäßen Systems ist die Auswerte- und Steuerungseinheit dazu eingerichtet, zu ermitteln, ob der externe Trackingsensor in den von dem dritten optischen Sensor erfassten Bilddaten abgebildet ist.
  • Mit Hilfe dieser Auswertung kann also überprüft werden, ob der externe Trackingsensor, also beispielsweise die zwei ortsfesten Kameras zur externen Ermittlung von Position und Lage des mobilen Computergeräts, eine freie Sicht auf das mobile Computergerät hat bzw. haben. Somit könnte beispielsweise erkannt werden, wenn eine oder beide ortsfeste Kameras des externen Trackingsensors das mobile Endgerät vorübergehend gar nicht optisch erfassen können, da beispielsweise ein Mensch oder ein Objekt das Sichtfeld versperrt. Die Auswerte- und Steuerungseinheit kann dazu eingerichtet sein, die Bilddaten des externen Trackingsensors für die Bestimmung der räumlichen Koordinaten des Messobjekts nicht oder nur teilweise zu verwenden, wenn anhand der von dem dritten optischen Sensor erfassten Bilddaten ermittelt wird, dass der externe Trackingsensor nicht oder nur teilweise in diesen Bilddaten abgebildet ist. In diesem Fall würden also Daten einer oder beider ortsfester Kameras des Trackingsensors, welche das mobile Computergerät zeitweise nicht optisch erfassen, in diesen Zeitintervallen nicht berücksichtigt. Dadurch lässt sich Bandbreite bzw. Rechenleistung einsparen und auch die Stabilität des sog. Position-Fixes erhöhen.
  • In einer weiteren Ausgestaltung der vorliegenden Erfindung weist das mobile Computergerät ein Display und einen optischen Marker auf, wobei der optische Marker entweder an dem mobilen Computergerät fix angeordnet ist oder auf dem Display erzeugt wird, und wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, mit Hilfe des optischen Markers das mobile Computergerät innerhalb der Bilddaten des Überwachungsbereichs zu identifizieren sowie dessen Position und Lage zu bestimmen.
  • Mit Hilfe eines solchen optischen Markers bzw. mit Hilfe mehrerer solcher optischer Marker lässt sich die Position und Lage des mobilen Computergeräts auf Basis der von dem externen Trackingsensor erhaltenen Bilddaten noch präziser bestimmen. Bei den Markern kann es sich um binäre bzw. schwarz-weiße, grau-gestufte oder auch farbige Strukturen handeln. Diese Strukturen lassen sich mit Hilfe der Kameras des Trackingsensors relativ einfach in deren Bilddaten identifizieren, so dass eine Verfolgung dieser Marker im Raum relativ einfach zu gewährleisten ist. Bei den optischen Markern kann es sich um statische oder variable Marker handeln.
  • In einer Ausgestaltung ist die Auswerte- und Steuerungseinheit dazu eingerichtet, den optischen Marker auf dem Display zu erzeugen und eine Darstellung und/oder Position des optischen Markers auf dem Display zeitlich zu verändern.
  • Eine solche zeitliche Veränderung der Marker hat mehrere Vorteile: Zum einen lassen sich dadurch Teile des erfindungsgemäßen Systems miteinander synchronisieren. Zum anderen lassen sich die auf dem Display dargestellten Strukturen variabel an die äußeren Gegebenheiten anpassen.
  • In einer Ausgestaltung der vorliegenden Erfindung ist die Auswerte- und Steuerungseinheit dazu eingerichtet, die Darstellung und/oder Position des optischen Markers auf dem Display in Abhängigkeit der von der Positions- und Lageerfassungseinheit ermittelten Daten zu verändern.
  • Eine Modifikation der auf dem Display dargestellten Marker-Strukturen in Abhängigkeit dieser Orts- und Lagedaten des mobilen Computergeräts hat insbesondere den Vorteil, dass der optische Marker variabel an die sich ändernde Betrachtungsrichtung für den externen Trackingsensor anpassbar ist, so dass der externe Trackingsensor die Position und Lage des mobilen Computergeräts mit gleichbleibend hoher Messgenauigkeit bestimmen kann. Die Darstellung und/oder Position des optischen Markers auf dem Display wird dabei also in Abhängigkeit der von der Positions- und Lageerfassungseinheit ermittelten Daten angepasst. Diese Daten können sowohl die von dem externen Trackingsensor ermittelten Daten umfassen als auch die von dem bzw. den internen Positions- und/oder Lageerfassungssensoren ermittelten Daten.
  • In einer weiteren Ausgestaltung des erfindungsgemäßen Systems ist die Auswerte- und Steuerungseinheit dazu eingerichtet, die von dem ersten optischen Sensor erfassten Bilddaten des Messobjekts mit den von dem zweiten optischen Sensor erfassten Bilddaten des Überwachungsbereichs basierend auf der zeitlich veränderten Darstellung und/oder Position des optischen Markers zu synchronisieren.
  • Weitere Möglichkeiten der Synchronisierung der erfassten Daten umfassen den Zugriff auf die Weltzeit. In diesem Fall müsste aber sowohl der zweite optische Sensor bzw. der externe Trackingsensor als auch das mobile Computergerät Zugriff auf die Weltzeituhr haben. Wenngleich handelsübliche Tablet-Computer meist ohnehin einen solchen Zugriff auf die Weltzeituhr haben, würde dies eine weitere Datenverbindung für den externen Trackingsensor erforderlich machen. Eine wie oben dargestellte Synchronisierung mit Hilfe der zeitlich veränderten Darstellung und/oder Position des optischen Markers auf dem Display ist somit wesentlich eleganter und autarker.
  • Gemäß einer weiteren Ausgestaltung der vorliegenden Erfindung weist der erste optische Sensor eine telezentrische Optik oder eine plenoptische Optik auf, welche in den ersten optischen Sensor integriert ist oder lösbar an diesem angeordnet ist.
  • Die zweite Variante einer lösbaren Anordnung, beispielsweise mit Hilfe einer Clip-on-Optik, ist vorliegend bevorzugt, da hierfür das mobile Computergerät nicht dauerhaft modifiziert werden muss. Solche Clip-on-Optiken sind insbesondere für Fälle von Vorteil, bei denen die Reproduzierbarkeiten der Abbildungsverhältnisse der bewegten Optiken des mobilen Computergeräts nicht ausreichen, um die gewünschten Genauigkeiten erreichen zu können. Für diese Fälle könnte eine Clip-on-Optik so ausgelegt werden, dass die Optik im mobilen Computergerät nicht mehr verstellt werden muss. Das heißt, etwaige gewünschte Änderungen, z.B. des Arbeitsabstandes und/oder der Vergrößerung würden in die Clip-on-Optik verlagert. Die Steuerung dieser verstellbaren Optik erfolgt vorzugsweise über das mobile Computergerät bzw. die Auswerte- und Steuerungseinheit. Clip-on-Optiken können auch für das Display des mobilen Computergeräts verwendet werden, wie dies weiter unten noch im Detail erläutert wird.
  • Gemäß einer weiteren Ausgestaltung der vorliegenden Erfindung weist das erfindungsgemäße System ferner eine Beleuchtungseinrichtung zur Beleuchtung des Messobjekts auf, wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, die Beleuchtungseinrichtung derart zu steuern, dass diese periodisch ihre Helligkeit ändert.
  • Eine solche Beleuchtungseinrichtung ist insbesondere dann von Vorteil, wenn die Umgebungsbeleuchtung oder die Display-Leuchtstärke des mobilen Computergeräts nicht ausreichen, um hinreichend schnell und/oder genau messen zu können. Eine periodische Veränderung der Helligkeit, also beispielsweise ein Blinken bzw. Blitzen der Beleuchtungseinrichtung, hat folgende Vorteile: einen relativ geringen Energieverbrauch; und geringere Verschlusszeiten für die Aufnahmen der Szenen durch das mobile Computergerät, so dass die Aufnahmen beispielsweise des ersten optischen Sensors weniger verschmiert sind, wenn das mobile Computergerät während der Erfassung der Bilddaten bewegt wird. Auch wird weniger Wärme generiert, was in messtechnischen Anwendungen stets vorteilhaft ist.
  • Bei Verwendung einer derartigen Beleuchtungseinrichtung ist es von Vorteil, wenn das Display des mobilen Computergeräts zumindest teilweise entspiegelt ist. Dies stellt sicher, dass der externe Trackingsensor die oben genannten Marker, welche auf dem Display erzeugt werden, einwandfrei identifizieren kann.
  • Grundsätzlich ist es aber auch möglich, dass eine spektrale und/oder zeitliche Trennung der Bildaufnahmen und/oder des Trackings von Position und Lage des mobilen Computergeräts und/oder der Umgebungsbeleuchtung verwendet werden. In diesem Fall bietet sich dann auch die Möglichkeit, die Beleuchtungs- und Abbildungsverhältnisse für die beiden Messaufgaben (Erfassen von Bilddaten vom Messobjekt und Erfassen von Bilddaten vom mobilen Computergerät) getrennt zu optimieren.
  • Des Weiteren ist es möglich, das Display des mobilen Computergeräts zur Beleuchtung des Messobjekts einzusetzen. Beispielsweise kann die Auswerte- und Steuerungseinheit dazu eingerichtet sein, das Display derart anzusteuern, dass auf dem Messobjekt eine Streifenprojektion abgebildet wird. Weitere Möglichkeiten der optimierten Beleuchtung des Messobjekts werden weiter unten anhand der Figuren näher erläutert.
  • In einer weiteren Ausgestaltung der vorliegenden Erfindung weist das mobile Computergerät ferner einen Lautsprecher und/oder einen Vibrationsaktuator auf, wobei die Auswerte- und Steuerungseinheit dazu eingerichtet ist, in Abhängigkeit der von dem ersten optischen Sensor erfassten Bilddaten und/oder in Abhängigkeit der von der Positions- und Lageerfassungseinheit erfassten Daten den Vibrationsaktuator anzusteuern und/oder Informationen über das Display und/oder den Lautsprecher auszugeben.
  • Bei Messanwendungen, bei denen das Display dem Anwender zugewandt ist, können somit neben den oben genannten optischen Markern auch unterstützende optische Informationen für den Anwender auf dem Display dargestellt werden. Diese Informationen können z.B. Rückmeldungen beinhalten, ob für die 3D-Rekonstruktion des Messobjekts bereits genügend Bilddaten erfasst wurden. Ebenso können mittels dessen auch Anweisungen an den Anwender weitergegeben werden, die diesen dabei unterstützen, zu welchen Teilen des Messobjekts noch Bilddaten erfasst werden müssen, um dieses vollständig zu erfassen. Teile des Displays können ggf. auch über eine Touchscreen-Funktion zur Steuerung des Systems bereitgestellt werden. Alternativ kann eine Steuerung des Systems auch über eingebaute Mikrofone per Sprachsteuerung erfolgen. Weitere unterstützende Informationen können dem Anwender auch akustisch über den Lautsprecher übermittelt werden. Da bei der vorliegenden Verwendung der Anwender das mobile Computergerät vorzugsweise mit seinen Händen bewegt, ist die Ausgabe von Vibrationssignalen besonders vorteilhaft, da hierüber direkt der Tastsinn angesprochen wird, welcher bei dieser Tätigkeit ohnehin vom Anwender eingesetzt wird. Die Auswerte- und Steuerungseinheit kann dazu eingerichtet sein, dass sie den Benutzer bei der Ausführung eines vordefinierten Prüfplanes unterstützt. So kann sie den Nutzer z.B. hinsichtlich der „anzufahrenden“ Positionen anleiten, und sie kann im laufenden Messbetrieb optisch, akustisch und/oder haptisch Rückmeldungen geben. Diese Rückmeldungen für den Nutzer können z.B. Fehlermeldungen, erreichte Genauigkeiten, zulässige Geschwindigkeiten bzw. Messabstände etc. betreffen.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Ebenso sei darauf hingewiesen, dass die vorstehend genannten Ausgestaltungen, welche im Wesentlichen in Bezug auf das erfindungsgemäße System beschrieben sind, sich in entsprechender Weise auf das erfindungsgemäße Verfahren beziehen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung eines ersten Ausführungsbeispiels des erfindungsgemäßen Systems in einer beispielhaften Anwendung;
  • 2 ein erstes Ausführungsbeispiel eines mobilen Computergeräts, welches in dem erfindungsgemäßen System zum Einsatz kommen kann;
  • 3 ein zweites Ausführungsbeispiel des mobilen Computergeräts;
  • 4 eine schematische Darstellung des erfindungsgemäßen Systems in einer weiteren beispielhaften Anwendung;
  • 5 ein Blockschaltbild zur schematischen Darstellung der Komponenten des erfindungsgemäßen Systems gemäß einem Ausführungsbeispiel;
  • 6 ein Blockschaltbild zur schematischen Darstellung der Komponenten des erfindungsgemäßen Systems gemäß einem weiteren Ausführungsbeispiel; und
  • 7 ein Blockschaltbild zur schematischen Darstellung der Komponenten des erfindungsgemäßen Systems gemäß einem weiteren Ausführungsbeispiel.
  • 1 zeigt ein System gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das System ist darin in seiner Gesamtheit mit der Bezugsziffer 10 bezeichnet.
  • Das erfindungsgemäße System 10 ist in 1 schematisch am Beispiel eines möglichen Anwendungsfalls dargestellt. Ein Anwender 12 des Systems 10, z.B. ein Fertigungsmitarbeiter, vermisst darin ein Messobjekt 14 mit Hilfe des Systems 10. Bei dem Messobjekt 14 handelt es sich beispielsweise um ein Werkstück (hier mit zwei schematisiert dargestellten Bohrungen), welches vor dem Anwender 12 auf einem Fließband 16 steht. Bei der vom Anwender auszuführenden Messaufgabe handelt es sich beispielsweise um die Bestimmung des Durchmessers der im Messobjekt 14 vorhandenen Bohrung 18. Zudem kann es Teil der Messaufgabe sein, die Ebenheit der Fläche zu messen, in welcher sich die Bohrung 18 befindet.
  • Anstelle eines großen, konstruktiv komplexen, relativ unbeweglichen Messaufbaus eines für solche Aufgaben üblicherweise verwendeten Koordinatenmessgeräts ist das erfindungsgemäße System 10 zur Messung der räumlichen Koordinaten des Messobjekts 14 vergleichsweise klein und mobil einsetzbar. Das System 10 weist ein mobiles Computergerät 20 auf. Bei diesem mobilen Computergerät 20 handelt es sich vorzugsweise um einen Tablet-Computer. Beispielsweise lässt sich ein iPad Air 2 WiFi plus cellularTM verwenden, da dieses Gerät eine Vielzahl der nachstehend erläuterten, für das erfindungsgemäße System 10 erforderlichen Funktionen in sich vereint. Grundsätzlich ist jedoch auch die Verwendung eines Smartphones oder eines Laptops denkbar.
  • Ein erstes Ausführungsbeispiel eines solchen mobilen Computergeräts 20 ist in 2 schematisch dargestellt. Es weist einen ersten optischen Sensor 22 auf, mit Hilfe dessen sich Bilddaten des Messobjekts 14 erfassen lassen. Der erste optische Sensor 22, welcher vorzugsweise als Kamera ausgebildet ist, ist vorzugsweise sowohl zur Erfassung einzelner Bilder (Fotos) als auch zur Erfassung ganzer Bildsequenzen (Videos) geeignet. Unter "Bilddaten" werden somit also sowohl einzelne Bilder als auch ganze Bildsequenzen verstanden.
  • Im vorliegenden Ausführungsbeispiel weist das mobile Computergerät 20 ferner noch ein Display 24 sowie einen weiteren optischen Sensor 26 auf, welcher vorliegend als dritter optischer Sensor 26 bezeichnet wird. Der dritte optische Sensor 26 ist vorzugsweise auf der gleichen Seite des mobilen Computergeräts 20 angeordnet wie das Display 24. Der erste optische Sensor 22 ist hingegen vorzugsweise auf der gegenüberliegenden Seite angeordnet, so dass die optischen Sensoren 22, 26 entgegengesetzte Blickrichtungen haben, wie dies anhand der Pfeile 28 schematisch dargestellt ist (siehe 2).
  • Ein weiterer Bestandteil des erfindungsgemäßen Systems 10 ist eine Positions- und Lageerfassungseinheit 30, welche einen Trackingsensor 32 zur Erfassung von Daten bezüglich Position und Lage des mobilen Computergeräts 20 aufweist. Dieser Trackingsensor 32 ist als externer Trackingsensor ausgebildet, d.h. er ist nicht in das mobile Computergerät 20 integriert, sondern verfolgt dessen Position und Lage von außen. Der externe Trackingsensor 32 umfasst vorzugsweise eine oder mehrere Kameras. In dem in 1 schematisch dargestellten Ausführungsbeispiel weist der externe Trackingsensor 32 zwei Kameras 34, 36 auf, welche als ortsfeste Kameras im Raum installiert sind und auf die Bearbeitungsstation bzw. das mobile Computergerät 20 gerichtet sind. Diese Kameras 34, 36 erfassen somit Bilddaten eines Überwachungsbereichs, in dem sich auch das mobile Computergerät 20 befindet. Aus diesen Bilddaten lassen sich, wie weiter unten näher erläutert, die Position und Lage des mobilen Computergeräts 20 und damit auch die Position und Lage des ersten optischen Sensors 22 ermitteln. Es versteht sich, dass anstelle von zwei Kameras 34, 36 grundsätzlich auch drei oder mehr Kameras Teil des externen Trackingsensors 32 sein können. Ebenso ist es auch denkbar, nur eine einzige Kamera, beispielsweise eine 3D-Kamera, zu verwenden.
  • 5 zeigt ein Blockschaltbild, in dem die grundlegenden Komponenten des erfindungsgemäßen Systems sowie deren Verbindung untereinander schematisch veranschaulicht sind. Zusätzlich zu den bereits erwähnten Komponenten weist das erfindungsgemäße System 10 eine Auswerte- und Steuerungseinheit 38 auf. Bei dem in 5 schematisch dargestellten Ausführungsbeispiel ist die Auswerte- und Steuereinheit als interne Komponente des mobilen Computergeräts 20 ausgebildet. Die Auswerte- und Steuereinheit 38 umfasst vorzugsweise einen Prozessor bzw. Computerchip, auf dem eine entsprechende Bildauswertungs- und Steuerungssoftware installiert ist. Außerdem enthält die Auswerte- und Steuereinheit 38 vorzugsweise nichtflüchtige Speicher bzw. Technik für kabelgebundenen oder kabellosen Zugriff auf solche Speicher, um für die Messungen relevante Daten wie Ergebnisse, Prüfpläne, Parameterdefinitionen etc. maschinenlesbar ablegen bzw. wieder aufrufen zu können. Neben Datenspeicherung kann ggf. auch eine ausgelagerte Verarbeitung von Berechnungen erfolgen (cloud computing). Die Auswerte- und Steuerungseinheit 38 ist dazu eingerichtet, die räumlichen Koordinaten des Messobjekts 14 basierend auf den von dem ersten optischen Sensor 22 ermittelten Bilddaten des Messobjekts sowie basierend auf den vom externen Trackingsensor 32 bzw. den Kameras 34, 36 ermittelten Daten bezüglich der Position und Lage des mobilen Computergeräts 20 zu bestimmen. Wichtig bei dieser Art von Bestimmung der räumlichen Koordinaten des Messobjekts 14 sind die folgenden Randbedingungen: Es versteht sich, dass es sich bei dem ersten optischen Sensor 22 um einen kalibrierten Sensor handelt. Dieser sollte zumindest insoweit kalibriert sein, als dessen Öffnungswinkel eindeutig bekannt ist, so dass sich später die in den Bilddaten ermittelten Pixelabstände in reale Abstände umrechnen lassen. Weiterhin wird davon ausgegangen, dass die Position und Lage des mobilen Computergeräts 20 zu jedem Zeitpunkt mit Hilfe der von den Kameras 34, 36 erfassten Bilddaten ermittelt werden kann, beispielsweise mit Hilfe bekannter Triangulationsverfahren. Eine weitere vorteilhafte Randbedingung ist die Voraussetzung des Messobjekts 14 als zeitlich invariant, d.h. als starren und unbewegten Körper.
  • Raumposition und -lage des bildaufnehmenden Systems 20 sind somit also eindeutig und zu jedem Zeitpunkt bekannt, da sie von dem externen Trackingsensor 32 geliefert werden. Die zusätzliche Annahme der Zeitinvarianz des Messobjekts 14 erlaubt es dann, die Abbildungsunterschiede (wie z.B. unterschiedlicher Arbeitsabstand und damit Vergrößerung oder Verkleinerung) sowie die Abbildungsfehler (wie z.B. Verzeichnung) in den einzelnen vom ersten optischen Sensor 22 gelieferten Bildern einer Bildsequenz zu korrigieren und aus der gesamten korrigierten Bildsequenz eine zusammenhängende und genaue 3D-Rekonstruktion des Messobjekts 14 zu erstellen. Hierzu werden beispielsweise zumindest zwei Bilder vom Messobjekt 14 mit Hilfe des ersten optischen Sensors 22 aufgenommen, wobei diese beiden Bilder in unterschiedlichen Positionen und/oder Lagen des mobilen Computergeräts 20 und damit auch des ersten optischen Sensors 22 aufgenommen werden. Die Position und Lage des mobilen Computergeräts 20 (und damit auch des ersten optischen Sensors 22) im Zeitpunkt der Erfassung der beiden genannten Bilder lassen sich auf Basis der von den Kameras 34, 36 gewonnenen Bilddaten exakt ermitteln. Größen- und Positionsveränderungen der Abbildung des Messobjekts 14 von einem der beiden Bilder zu dem anderen lassen sich dann mit der ermittelten Positions- und Lageveränderung des ersten optischen Sensors 22 in Verbindung bringen, so dass sich hierdurch letztendlich eindeutig die realen Dimensionen innerhalb der beiden vom ersten optischen Sensor 22 erfassten Bilder bestimmen lassen. Die Auswerte- und Steuereinheit 38 ist vorzugsweise dazu eingerichtet, mit Hilfe des vorgenannten Verfahrens letztendlich eine 3D-Punktewolke des Messobjekts 14 zu errechnen, wobei die Koordinaten dieser Punkte in einem eindeutig festgelegten, bekannten Koordinatensystem darstellbar sind. Auf diese Weise sind Messungen mit einer Genauigkeit im Bereich von einem oder wenigen Mikrometern möglich.
  • Anstelle einer Ausgestaltung der Auswerte- und Steuereinheit 38 als vollständig in das mobile Computergerät 20 integrierte Komponente ist ebenso eine Ausgestaltung denkbar, in der zumindest Teile der Auswerte- und Steuereinheit 38 und/oder der Datenspeicherung in einem externen Rechner oder in einer Cloud implementiert sind. 6 zeigt in einem schematischen Blockschaltdiagramm eine solche Ausführungsform. Die Auswerte- und Steuereinheit 38 ist darin nicht nur in das mobile Computergerät 20 integriert, sondern auch auf einen externen Server 40 verlagert. Dieser externe Server 40 kann über eine Datenverbindung 42 mit der internen Steuerungseinheit 44 des mobilen Computergeräts 20 verbunden sein. Die Ankopplung kann beispielsweise über ein Daten-Interface 46 des mobilen Computergeräts 20 erfolgen. Die Datenverbindung 42 kann entweder eine kabelgebundene oder eine kabellose Verbindung sein. Bei dem externen Server 40 kann es sich entweder um einen realen oder einen virtuellen Server (Cloud) handeln, auf welchen über das Internet oder ein anderes Netzwerk zugegriffen werden kann.
  • Das in 6 dargestellte Ausführungsbeispiel hat im Vergleich zu dem in 5 dargestellten Ausführungsbeispiel den Vorteil, dass ein Großteil des Rechenaufwands außerhalb des mobilen Computergeräts 20 erfolgt. Dies spart nicht nur Akkuleistung, sondern verhindert auch ein übermäßiges Erhitzen des mobilen Computergeräts 20. Eine Vermeidung eines solchen übermäßigen Erhitzens des Computergeräts 20 ist im vorliegenden Fall insbesondere deshalb von immenser Wichtigkeit, da stärkere Temperaturveränderungen zu Messfehlern des ersten optischen Sensors 22 führen können.
  • Das bisher erläuterte Messprinzip des erfindungsgemäßen Systems 10 lässt sich in Bezug auf dessen Präzision mit Hilfe einer Vielzahl weiterer Systemmerkmale optimieren. Zur Vereinfachung der optischen Erfassung der Position und Lage des mobilen Computergeräts 20 können auf dem Display 24 beispielsweise mehrere optische Marker 48 dargestellt werden. Die Gestalt und/oder Position dieser optischen Marker 48 auf dem Display 24 kann gemäß einem Ausführungsbeispiel der vorliegenden Erfindung zeitlich vordefiniert verändert werden. Dies ermöglicht beispielsweise eine automatisierte, zeitliche Synchronisierung des externen Trackingsensors 32 (Kameras 34, 36) und des mobilen Computergeräts 20 mit dem darin eingebauten ersten optischen Sensor 22. Ebenso ist es jedoch auch möglich, die auf dem Display 24 dargestellten optischen Marker 48 in Abhängigkeit von der Position und Lage des mobilen Computergeräts 20 zu verändern. Hierzu weist das mobile Computergerät 20 vorzugsweise einen internen Positions- und Lageerfassungssensor 50 auf (siehe 7), welcher gemeinsam mit dem externen Trackingsensor 32 als Positions- und Lageerfassungseinheit 30 verwendbar ist. Die von diesem internen Positions- und Lagesensor 50 gelieferten Daten lassen sich nicht nur zur Präzisierung der Messung verwenden, sondern in oben genanntem Beispiel auch zur Veränderung der Position und/oder Gestalt der optischen Marker 48. Dies hat den Vorteil, dass die optischen Marker 48 damit derart anpassbar wären, dass diese zu jedem Zeitpunkt optimal von den Kameras 34, 36 identifiziert werden können.
  • 7 zeigt ein Blockschaltdiagramm, in dem schematisch ein Ausführungsbeispiel der zuletzt genannten Art veranschaulicht ist, bei dem die Positions- und Lageerfassungseinheit 30 nicht nur den externen Trackingsensor 32 aufweist, sondern auch einen internen Positions- und Lageerfassungssensor 50. Als interne Positions- und Lageerfassungssensoren 50 kommen eine Vielzahl möglicher Sensoren in Frage, z.B. ein Gyrometer, ein Beschleunigungssensor, ein GPS-Sensor, ein Barometer etc. Es versteht sich, dass das mobile Computergerät 20 erfindungsgemäß auch mehrere dieser Positions- und Lageerfassungssensoren 50 aufweisen kann.
  • Im Vergleich zu den in den 5 und 6 schematisch dargestellten Ausführungsformen weist das mobile Computergerät 20 gemäß des in 7 dargestellten Ausführungsbeispiels zusätzlich zu dem ersten optischen Sensor 22 auch den bereits weiter oben erwähnten dritten optischen Sensor 26 auf. Dieser lässt sich in dem erfindungsgemäßen System 10 im Wesentlichen für folgende Funktionen einsetzen: Mit Hilfe des dritten optischen Sensors 26 lässt sich die Umgebung des mobilen Computergeräts 20 beobachten. Beispielsweise ist es hierdurch möglich, einen oder mehrere ortsfeste Referenzpunkte 52 zu identifizieren (siehe 1), anhand derer sich durch Auswertung der mit Hilfe des dritten optischen Sensors 26 gewonnenen Bilddaten die Positions- und Lagebestimmung des mobilen Computergeräts noch weiter präzisiert werden kann.
  • Eine weitere Anwendungsmöglichkeit des dritten optischen Sensors 26 in dem erfindungsgemäßen System 10 ist Folgende: Die vom dritten Sensor 26 erfassten Bilddaten lassen sich auch dahingehend auswerten, ob die Kameras 34, 36 in diesen sichtbar sind. Die Überlegung, welche hinter dieser Art von Auswertung steckt, besteht darin, dass eine fehlende Sichtbarkeit der Kameras 34, 36 in den von dem dritten optischen Sensor 26 erfassten Bilddaten ein starkes Indiz dafür ist, dass auch die Kameras 34, 36 keine uneingeschränkte Sicht auf das mobile Computergerät 20 haben. Wird ein solcher Fall detektiert, kann die Auswerte- und Steuereinheit 38 die entsprechenden Bilddaten einer oder beider Kameras 34, 36 verwerfen. Dies spart Datenkapazität und erhöht die Robustheit der Positions- und Lagebestimmung.
  • Weitere Ausführungsbeispiele des mobilen Computergeräts 20 sowie des erfindungsgemäßen Systems 10 sind schematisch in den 3 und 4 dargestellt. Der erste optische Sensor 22' und der dritte optische Sensor 26' sind darin beispielsweise mit zusätzlichen Optiken 54, 56 versehen, welche sich vorzugsweise lösbar an dem mobilen Computergerät 20 anordnen lassen. Bei diesen Optiken 54, 56 kann es sich beispielsweise um sog. Clip-on-Optiken handeln, welche auf die optischen Sensoren 22', 26' des mobilen Computergeräts 20 aufgeschoben bzw. aufgeclipt werden können. Denkbar ist dies insbesondere in Fällen, bei denen die Reproduzierbarkeiten der Abbildungsverhältnisse der Optiken 22, 26 des mobilen Computergeräts 20 nicht ausreichen, um die gewünschten Genauigkeiten erreichen zu können. Für diese Fälle können die Clip-on-Optiken so ausgelegt werden, dass die Optik im mobilen Computergerät 20 nicht mehr verstellt werden muss. Das heißt, etwaige gewünschte Änderungen, z.B. bezüglich des Arbeitsabstandes und/oder der Vergrößerung würden in die Clip-on-Optik verlagert. Die Steuerung dieser verstellbaren Clip-on-Optik erfolgt vorzugsweise über das mobile Computergerät 20 bzw. dessen Steuerungseinheit 38 bzw. 44. Notwendige Algorithmen, beispielsweise zur Kontrast-, Schärfen- und Ausleuchtungsbewertung, können in diesen Clip-on-Optiken ebenfalls bereits z.B. maschinenlesbar enthalten sein oder es können ID-Chips verbaut sein, sodass für den Betrieb der jeweiligen Optik relevante Algorithmen, Kalibrierparameter, etc. von einem Server oder aus einem Speicher aufgerufen werden können.
  • Für metrologische Anwendungen bzw. dimensionelles Messen sind insbesondere telezentrische Clip-on-Optiken 54, 56 von Vorteil. Telezentrische Optiken unterscheiden sich grundlegend von den üblichen, in mobilen Computergeräten 20 verbauten Optiken. Gegenstände werden mit telezentrischen Optiken mit entfernungsunabhängigem Maßstab abgebildet. Dies ist für das Messen ideal, da sich Unsicherheiten in der Positionierung des abbildenden Systems nicht in Unsicherheiten des Abbildungsmaßstabes übersetzen, welche direkt die erreichbare Messgenauigkeit begrenzen.
  • Weiterhin können die Clip-on-Optiken 54, 56 auch so ausgestaltet sein, dass mit den Sensoren 22', 26' des mobilen Computergeräts 20 eine sog. plenoptische bzw. Lichtfeld-Aufnahme möglich wird. Insbesondere extrem hochpixelige Chips (größer 40 MPx), wie sie in vielen mobilen Computergeräten 20 zunehmend Verbreitung finden, bieten hierfür eine gute Basis. Die "Umwandlung" der normalen Endgerät-Kameras 22, 26 in eine plenoptische Kamera hat den Vorteil, dass das Computergerät 20 direkt in der Lage ist, 3D-Informationen über das Messobjekt 14 aus Einzelaufnahmen zu generieren. Entsprechend erhöht sich bei Einsatz einer plenoptischen Kamera in Kombination mit der Orts- und Lageermittlung, welche durch den externen Trackingsensor 32 erfolgt, die Stabilität und/oder Genauigkeit der Messung mit Hilfe des erfindungsgemäßen Systems 10, mit der die 3D-Kontur des abgebildeten Messobjekts 14 aus den Bilddaten rekonstruiert wird.
  • Ferner kann es, wie in 4 schematisch angedeutet, vorteilhaft sein, wenn das erfindungsgemäße System des Weiteren eine oder mehrere Beleuchtungseinrichtungen 58 umfasst. Beispielsweise kann auf den ersten optischen Sensor 22' eine Clip-on-Optik 54 aufgesetzt werden, in welche ein über farbselektive Optik (rot/blau) realisiertes Stereoskopiemodul integriert ist. Die Beleuchtungseinrichtung 58 kann in diesem Anwendungsbeispiel dazu eingerichtet sein, das Messobjekt 14 örtlich und/oder zeitlich moduliert, z.B. streifenweise rot und blau zu beleuchten.
  • Anstelle oder zusätzlich zu den auf die Sensoren 22', 26' aufgeschobenen Clip-on-Optiken 54, 56 kann auch auf das Display 24 eine entsprechende Clip-on-Optik 60 aufgesetzt werden (siehe 3). Eine derartige Clip-on-Optik kann beispielsweise holographisch, refraktiv, diffraktiv, spiegelnd, farbsensitiv, polarisationssensitiv oder als Kombination daraus ausgelegt sein. Ebenso wäre eine Clip-on-Optik 60 denkbar, welche alternativ oder ergänzend eine Kombination aus Fresnel- und Mikro-Optik beinhaltet, mit welcher das vom Display 24 ausgehende Licht zunächst zellenweise gebündelt und anschließend unter das displayseitige Kameraobjektiv 26', 56 gelenkt wird. Statt großem Arbeitsabstand und großem Blickfeld lässt sich der dritte optische Sensor 26' in diesem Fall dann auf kleineren Arbeitsabstand und kleineres Blickfeld, aber größere Auflösung umstellen. Durch sukzessives Einschalten der einzelnen Beleuchtungszellen im Display 24 und Aufnahme der dabei jeweils entstehenden Bilder werden auflösungssteigernde, sog. angular illumination methods zugänglich. Beispielsweise ist so ein sog. ptychografischer Sensor realisierbar. Durch Drehen des mobilen Computergeräts 20 um eine Achse parallel zur Blickrichtung 28 der Kamera 26' könnten alle Einfallsrichtungen realisiert werden. Dabei ist kein genaues Bewegen des mobilen Computergeräts 20 nötig, da seine Position und Lage von außen simultan durch den externen Trackingsensor 32 erfasst wird. Mit diesem oder anderen sog. Angular Illumination Methods können Auflösungsbegrenzungen der im Allgemeinen niedrigaperturigen Optiken solcher mobiler Computergeräte 20 überwunden werden.
  • Mit Hilfe solcher Clip-on-Optiken 60 wäre es auch möglich, das Display 24 als Beleuchtung für das Messobjekt 14 zu verwenden. Dies ist schematisch in der in 4 abgebildeten Situation dargestellt. Der Nutzer 12 hält das mobile Computergerät 20 im Vergleich zu der in 1 dargestellten Situation umgekehrt herum, also mit dem Display 24 in Richtung des Messobjekts 14 zeigend. Über das Display 24 ließe sich dann eine Art Streifenprojektion auf das Messobjekt 14 projizieren, welche insbesondere bei einer Messung der Ebenheit von Flächen von Vorteil ist. Es versteht sich, dass in der in 4 dargestellten Situation der dritte optische Sensor 26' anstelle des ersten optischen Sensors 22' zur Erfassung der Bilddaten des Messobjekts 14 verwendet wird. Stattdessen kann in dieser Situation der erste optische Sensor 22' zur Identifikation der Referenzpunkte 52 und damit zur Ermittlung von Position und Lage des mobilen Computergeräts 20 eingesetzt werden. Die optischen Marker 48' sind in diesem Fall vorzugsweise als statische optische Marker realisiert, welche fix an dem mobilen Computergerät 20 angeordnet sind. Diese dienen, wie bereits weiter oben erwähnt, der vereinfachten Identifikation des mobilen Computergeräts innerhalb der von den Kameras 34, 36 erfassten Bilddaten des externen Trackingsensors 32.
  • Weitere Sensoren des mobilen Computergeräts 20 können das erfindungsgemäße System 10 wie folgt unterstützen: Über einen Gesichtserkennungs- bzw. Fingerprint-Sensor kann die Identität des Anwenders 12 erfasst werden. Gegebenenfalls lassen sich dadurch voreingestellte Nutzerparameter aus Archiven laden. Ebenso gut kann die Identität des Nutzers 12 zusammen mit den Messergebnissen automatisiert in entsprechenden Datenbanken abgespeichert werden. Weiterhin ist es möglich, die motorischen Eigenschaften bzw. Eigenarten des Nutzers 12 zu erfassen, um abhängig davon die Qualität der Messergebnisse oder Geschwindigkeiten von Messungen zu untersuchen und in Bezug zu Nutzungs- und/oder Bahnparametern und/oder Umgebungsparametern zu setzen. Eventuell lassen sich hierdurch Messabläufe optimieren. Ebenso gut lassen sich Rückmeldungen oder Anweisungen an den Nutzer 12 weitergeben, indem diese mit Hilfe eines Lautsprechers akustisch ausgegeben werden oder mit Hilfe von Vibrationsaktuatoren in taktiler Form an den Nutzer 12 weitergegeben werden oder über das Display 24 dem Nutzer 12 angezeigt werden.
  • Insgesamt ist mit dem erfindungsgemäßen System 10 somit eine Vielzahl von Anwendungsmöglichkeiten denkbar. Im Wesentlichen bietet das erfindungsgemäße System 10 jedoch den Vorteil, dass mit im Handel erhältlichen Standardkomponenten ein relativ exaktes Koordinatenmessgerät nachgebildet werden kann, welches ungemein mobil einsetzbar ist.

Claims (15)

  1. System (10) zur Messung von räumlichen Koordinaten eines Messobjekts (14), mit: – einem mobilen Computergerät (20), welches einen ersten optischen Sensor (22) zur Erfassung von Bilddaten des Messobjekts (14) aufweist; – einer Positions- und Lageerfassungseinheit (30), welche einen externen Trackingsensor (32) aufweist, welcher separat zu dem mobilen Computergerät (20) ausgebildet ist und dazu eingerichtet ist, Daten bezüglich der Position und Lage des mobilen Computergeräts (20) zu erfassen; und – einer Auswerte- und Steuerungseinheit (38), welche dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts (14) basierend auf den Bilddaten des Messobjekts sowie den Daten bezüglich der Position und Lage des mobilen Computergeräts (20) zu bestimmen.
  2. System gemäß Anspruch 1, wobei die Auswerte- und Steuerungseinheit (38) in das mobile Computergerät (20) integriert ist.
  3. System gemäß Anspruch 1, wobei das System (10) ferner einen externen Rechner (40) aufweist, auf dem zumindest ein Teil der Auswerte- und Steuerungseinheit (38) implementiert ist, wobei der externe Rechner (40) über eine Datenverbindung (42) mit der Positions- und Lageerfassungseinheit (30) und dem mobilen Computergerät (20) verbunden ist.
  4. System gemäß einem der vorstehenden Ansprüche, wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, das Messobjekt (14) für die Auswertung der Bilddaten des Messobjekts (14) als zeitinvariant vorauszusetzen.
  5. System gemäß einem der vorstehenden Ansprüche, wobei der externe Trackingsensor (32) einen zweiten optischen Sensor aufweist, und wobei die Daten bezüglich der Position und Lage des mobilen Computergeräts (20) Bilddaten eines Überwachungsbereichs inklusive des mobilen Computergeräts (20) aufweisen.
  6. System gemäß Anspruch 5, wobei der zweite optische Sensor zwei ortsfeste Kameras (34, 36) aufweist.
  7. System gemäß einem der vorstehenden Ansprüche, wobei die Positions- und Lageerfassungseinheit (30) ferner einen internen Positions- und/oder Lageerfassungssensor (50) aufweist, welcher in das mobile Computergerät (20) integriert ist und dazu eingerichtet ist, weitere Daten bezüglich Position und/oder Lage des mobilen Computergeräts (20) zu ermitteln, und wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts (14) auch basierend auf den von dem internen Positions- und/oder Lageerfassungssensor (50) ermittelten Daten zu bestimmen.
  8. System gemäß einem der vorstehenden Ansprüche, wobei das mobile Computergerät (20) ferner einen dritten optischen Sensor (26) zur Erfassung von Bilddaten von der Umgebung des mobilen Computergeräts (20), wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, in den Bilddaten zumindest einen ortsfesten Referenzpunkt (52) zu identifizieren und dessen Position und Lage bezüglich des mobilen Computergeräts (20) zu ermitteln, und wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, die räumlichen Koordinaten des Messobjekts (14) auch basierend auf der ermittelten Position und Lage des zumindest einen identifizierten Referenzpunkts (52) relativ zu dem mobilen Computergerät (20) zu bestimmen.
  9. System gemäß Anspruch 8, wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, zu ermitteln, ob der externe Trackingsensor (32) in den von dem dritten optischen Sensor (26) erfassten Bilddaten abgebildet ist.
  10. System gemäß einem der vorstehenden Ansprüche, wobei das mobile Computergerät (20) ein Display (24) und einen optischen Marker (48) aufweist, wobei der optische Marker (48) entweder an dem mobilen Computergerät (20) fix angeordnet ist oder auf dem Display (24) erzeugt wird, und wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, mit Hilfe des optischen Markers (48) das mobile Computergerät (20) innerhalb der Bilddaten des Überwachungsbereichs zu identifizieren sowie dessen Position und Lage zu bestimmen.
  11. System gemäß Anspruch 10, wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, den optischen Marker (48) auf dem Display (24) zu erzeugen und eine Darstellung und/oder Position des optischen Markers (48) auf dem Display (24) zeitlich zu verändern.
  12. System gemäß Anspruch 11, wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, die Darstellung und/oder Position des optischen Markers (48) auf dem Display (24) in Abhängigkeit der von der Positions- und Lageerfassungseinheit ermittelten Daten zu verändern.
  13. System gemäß Anspruch 5 und 11, wobei die Auswerte- und Steuerungseinheit (38) dazu eingerichtet ist, die von dem ersten optischen Sensor (22) erfassten Bilddaten des Messobjekts (14) mit den von dem zweiten optischen Sensor (32) erfassten Bilddaten des Überwachungsbereichs basierend auf der zeitlich veränderten Darstellung und/oder Position des optischen Markers (48) zu synchronisieren.
  14. System gemäß einem der vorstehenden Ansprüche, wobei der erste optische Sensor (22) eine telezentrische Optik oder plenoptische Optik aufweist, welche in den ersten optischen Sensor (22) integriert ist oder lösbar an diesem angeordnet ist.
  15. Verfahren zur Messung von räumlichen Koordinaten eines Messobjekts (14), mit den Schritten: – Bereitstellen eines mobilen Computergeräts (20), welches einen ersten optischen Sensor (22) aufweist; – Erfassen von Bilddaten des Messobjekts (14) mit Hilfe des ersten optischen Sensors (22); – Erfassen von Daten bezüglich der Position und Lage des mobilen Computergeräts (20) mit Hilfe einer Positions- und Lageerfassungseinheit (30), welche einen externen Trackingsensor (32) aufweist, welcher separat zu dem mobilen Computergerät (20) ausgebildet ist; und – Bestimmen der räumlichen Koordinaten des Messobjekts (14) basierend auf den Bilddaten des Messobjekts (14) sowie den Daten bezüglich der Position und Lage des mobilen Computergeräts (20).
DE102016106696.6A 2016-04-12 2016-04-12 Koordinatenmesssystem Withdrawn DE102016106696A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016106696.6A DE102016106696A1 (de) 2016-04-12 2016-04-12 Koordinatenmesssystem
US15/484,825 US20170292827A1 (en) 2016-04-12 2017-04-11 Coordinate measuring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016106696.6A DE102016106696A1 (de) 2016-04-12 2016-04-12 Koordinatenmesssystem

Publications (1)

Publication Number Publication Date
DE102016106696A1 true DE102016106696A1 (de) 2017-10-12

Family

ID=59929911

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016106696.6A Withdrawn DE102016106696A1 (de) 2016-04-12 2016-04-12 Koordinatenmesssystem

Country Status (2)

Country Link
US (1) US20170292827A1 (de)
DE (1) DE102016106696A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189012B2 (en) 2019-10-21 2021-11-30 Carl Zeiss Industrielle Messtechnik Gmbh Arrangement having a coordinate measuring machine or microscope

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102331464B1 (ko) 2017-04-18 2021-11-29 삼성전자주식회사 디스플레이 영역에 형성된 생체 정보 센싱 영역을 이용한 생체 정보 획득 방법 및 이를 지원하는 전자 장치
US11432877B2 (en) * 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
US11432879B2 (en) 2017-08-18 2022-09-06 Siemens Healthcare Gmbh Method and apparatus for wide area multi-body 6D pose tracking system
DE112018007380A5 (de) * 2018-03-29 2020-12-10 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und vorrichtung zum bestimmen von 3d-koordinaten eines objekts
WO2021117868A1 (ja) * 2019-12-13 2021-06-17 川崎重工業株式会社 ロボットシステム及びワークの3次元モデルの形成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19526526A1 (de) * 1995-07-20 1997-01-23 Bayerische Motoren Werke Ag Vorrichtung zum optischen Abtasten von Meßflächen
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
EP2703776A1 (de) * 2012-08-27 2014-03-05 The Boeing Company Verfahren und System zur Inspektion eines Werkstücks

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9686532B2 (en) * 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
ITPR20120039A1 (it) * 2012-06-20 2012-09-19 Gevis S R L Dispositivo e metodo di misura di un pezzo
CA2897909C (en) * 2013-01-13 2017-09-05 Retail Technologies Corporation Mobile barcode scanner gun system with mobile tablet device having a mobile pos and enterprise resource planning application for customer checkout/order fulfillment and real time in store inventory management for retail establishment
US9846942B2 (en) * 2013-10-09 2017-12-19 Apple Inc. Method and system for determining a pose of camera
US9905052B2 (en) * 2015-01-05 2018-02-27 Worcester Polytechnic Institute System and method for controlling immersiveness of head-worn displays
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures
EP3397921A1 (de) * 2015-12-30 2018-11-07 Faro Technologies, Inc. Registrierung von auf den inneren und äusseren teilen eines objekts gemessenen dreidimensionalen koordinaten

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19526526A1 (de) * 1995-07-20 1997-01-23 Bayerische Motoren Werke Ag Vorrichtung zum optischen Abtasten von Meßflächen
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
EP2703776A1 (de) * 2012-08-27 2014-03-05 The Boeing Company Verfahren und System zur Inspektion eines Werkstücks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Carceroni, R., Kumar, A., Daniilidis Kostas, Structure from motion with known camera positions, Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06), June 17-22, 2006 *
Tanskanen, P. Et al., Live Metric 3D Reconstruction on Mobile Phones, 2013 IEEE International Conference on Computer Vision, NSW, 2013, Seite 65 – 72 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189012B2 (en) 2019-10-21 2021-11-30 Carl Zeiss Industrielle Messtechnik Gmbh Arrangement having a coordinate measuring machine or microscope

Also Published As

Publication number Publication date
US20170292827A1 (en) 2017-10-12

Similar Documents

Publication Publication Date Title
DE102016106696A1 (de) Koordinatenmesssystem
EP1711777B2 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
EP3005292B1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE60123534T2 (de) Gerät zum Verfolgen eines sich bewegenden Objekts
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE112010005008T5 (de) System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung
EP3104330B1 (de) Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
EP3557523A1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
WO2014118391A2 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE102009032771A1 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
DE102016200877A1 (de) System zum Messen einer dreidimensionalen Position
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE102018222231A1 (de) Vorrichtung und Verfahren zur optischen Vermessung einer Innenkontur einer Brillenfassung
DE102012111345A1 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
WO2016119769A1 (de) Positionieren zweier körper mittels eines ausrichtsystems mit einer datenbrille
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
EP2686733A1 (de) Verfahren und vorrichtung zum fokussieren einer filmkamera
DE102013202658A1 (de) Verfahren und Vorrichtung zur Bestimmung der Abmessungen von Gegenständen
DE102014106718A1 (de) Verfahren und System zur Bestimmung einer gegenständlichen Lage

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee