DE102005047481A1 - Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems - Google Patents

Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems Download PDF

Info

Publication number
DE102005047481A1
DE102005047481A1 DE200510047481 DE102005047481A DE102005047481A1 DE 102005047481 A1 DE102005047481 A1 DE 102005047481A1 DE 200510047481 DE200510047481 DE 200510047481 DE 102005047481 A DE102005047481 A DE 102005047481A DE 102005047481 A1 DE102005047481 A1 DE 102005047481A1
Authority
DE
Germany
Prior art keywords
tracking
transformation
optical sensor
opt
systems
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE200510047481
Other languages
German (de)
Inventor
Peter Meier
Bernhard Heindl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE200410047905 external-priority patent/DE102004047905A1/en
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to DE200510047481 priority Critical patent/DE102005047481A1/en
Publication of DE102005047481A1 publication Critical patent/DE102005047481A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The method involves determining transformation of optical sensors (100) e.g. cameras, relative to a tracking object (300) by combination of two tracking-systems, where the object is located within a measuring chamber. Tracking-points (200) firmly lie in a coordination system (500) of the tracking systems. The coordination system and a global coordination system (400) stay in a fixed relationship. The optical sensors are attached at an optical tracking system. An independent claim is also included for a system for calibrating an optical sensor in a measuring chamber.

Description

Die vorliegende Erfindung beschreibt ein System und ein Verfahren zur Kalibrierung eines optischen Sensors in einem Vermessungsraum, insbesondere zur Anwendung in einem Augmented Reality System, in der optischen Messtechnik, in der Bildverarbeitung, in der Medientechnik und/oder in der Bewegungserfassung (Motion Capturing).The The present invention describes a system and a method for Calibration of an optical sensor in a surveying room, in particular for use in an augmented reality system, in the optical Metrology, image processing, media technology and / or in motion capture.

Aus dem Stand der Technik sind sogenannte Augmented Reality Systeme bekannt. Diese erlauben die Überlagerung von computergenerierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt, vorzugsweise mit auf dem Kopf getragenen halbdurchlässigen Datenbrillen, mit virtuellen Informationen gemischt. Die Einblendung der virtuellen Informationen bzw. Objekte kann dabei kontextabhängig, d.h. angepasst und abgeleitet von der jeweilig betrachteten realen Umgebung ausgeführt sein. Als Informationen können grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden.Out the prior art are so-called augmented reality systems known. These allow the overlay of computer generated, virtual information with visual impressions of the real environment. To this end, the visual impressions of the real world, preferably with semipermeable data glasses worn on the head, with virtual Information mixed. The insertion of the virtual information or objects can be context-dependent, i. adapted and derived be executed by the respective considered real environment. When Information can in principle Any type of data such as texts, illustrations etc. can be used.

Dokumentierte Anwendungen der Technologie sehen einen Einsatz in der Produktion, im Service und in der Entwicklung komplexer Produkte vor. Auch ist der Einsatz der Technologie aus der Produktion von Flugzeugen bekannt. Nach der Druckschrift DE 198 32 974 A1 und DE 101 28 015 A1 ist der Einsatz von Augmented Reality Technologien in Produktionsumgebungen bekannt.Documented applications of technology envisage use in the production, service and development of complex products. Also, the use of technology from the production of aircraft is known. After the publication DE 198 32 974 A1 and DE 101 28 015 A1 is the use of augmented reality technologies in production environments known.

Zusätzlich sind aus dem Stand der Technik Positionserfassungssysteme bekannt, die die Position und/oder Orientierung von Objekten in einem Vermessungsraum bestimmen. Diese sogenannten Tracking-Systeme erlauben beispielsweise die Erfassung von bis zu sechs Freiheitsgraden eines Objektes. Zum Einsatz kommen Systeme mit unterschiedlichsten physikalischen Wirkprinzipien. Gängig sind sogenannte optische Tracking-Systeme, die durch verschiedene Verfahren der computergestützten Bildverarbeitung die Position von im Vermessungsraum befindlichen Objekten und/oder die Position der Kamera (bzw. des Bildaufnehmers der Kamera) über die Erkennung der Objekte bestimmen.In addition are known from the prior art position detection systems, which the position and / or orientation of objects in a survey room determine. These so-called tracking systems allow, for example the acquisition of up to six degrees of freedom of an object. To the The use of systems with different physical principles of action. common are so-called optical tracking systems by different Method of computer-aided image processing the position of objects in the survey room and / or the position of the camera (or the image sensor of the camera) over the Determine detection of the objects.

Zusätzlich sind aus dem Stand der Technik statistische Verfahren zur Optimierung von Messwerten bekannt (Nash, J. C. "The Singular-Value Decomposition and Its Use to Solve Least-Squares Problems." Ch. 3 in Compact Numerical Methods for Computers: Linear Algebra and Function Minimisation, 2nd ed. Bristol, England: Adam Hilger, pp. 30–48, 1990).In addition are from the prior art statistical methods of optimization from readings (Nash, J.C. "The Singular-Value Decomposition and Its Use to Solve Least-Squares Problems. "Ch. 3 in Compact Numerical Methods for Computers: Linear Algebra and Function Minimization, 2nd ed. Bristol, England: Adam Hilger, pp. 30-48, 1990).

Nachteilig an den bekannten Verfahren zur optischen Bestimmung der Position ist der eingeschränkte Arbeitsbereich sowie die starke Abhängigkeit der Qualität der Ergebnisse von Umgebungseinflüssen (z.B. Helligkeit). Vorteilhaft ist somit die Kombination verschiedener Trackingverfahren, um beispielsweise solche Umgebungseinflüsse zu kompensieren.adversely in the known method for the optical determination of the position is the restricted one Work area as well as the strong dependency of the quality of the results of environmental influences (e.g., brightness). Thus, the combination of different is advantageous Tracking method, for example, to compensate for such environmental influences.

Bekannte Verfahren des kombinierten Trackings benötigen eine aufwendige Initialisierungsprozedur durch einen erfahrenen Benutzer (z.B. durch das Auswählen definierter Punkte mit der Maus), um die verschiedenen Tracking-Systeme zueinander in Beziehung zu setzen. Weiter wirken sich die manuellen Eingriffe sehr ungünstig auf die Genauigkeit der Initialisierung aus und benötigen einen sehr hohen Zeitaufwand.Known Methods of combined tracking require a complex initialization procedure by an experienced user (e.g., by selecting defined Points with the mouse) to the different tracking systems to each other to relate to. Next affect the manual intervention very unfavorable on the accuracy of initialization and need one very high time expenditure.

Zudem sind keine Verfahren bekannt, die zusätzlich Beschleunigungs- und oder Bewegungszustände initialisieren können.moreover No methods are known which additionally acceleration and or states of motion can initialize.

Der Erfindung liegt die Aufgabe zugrunde, den Prozess der Kalibrierung eines optischen Sensors bezüglich eines externen Tracking-Systems wesentlich zu vereinfachen und zu beschleunigen und damit eine bessere und genauere Überlagerung zu erreichen.Of the Invention is based on the object, the process of calibration an optical sensor with respect to significantly simplify and enhance an external tracking system accelerate and thus a better and more accurate overlay to reach.

Die zuvor hergeleitete und aus dem Stand der Technik hervorgehende Aufgabe wird erfindungsgemäß durch ein Verfahren gemäß Patentanspruch 1 gelöst, bei dem die Kalibrierung eines optischen Sensors durch die Kombination mit einem zweiten Tracking-System erreicht wird, das vorteilhaft gemäß Patentanspruch 9 in einem oder mehreren der dort genannten Gebiete Anwendung findet. Weiterhin betrifft die Erfindung ein System zur Kalibrierung eines optischen Sensors in einem Vermessungsraum mit einem implementierten erfindungsgemäßen Verfahren, wie in Patentanspruch 10 angegeben.The previously derived and derived from the prior art task is inventively a method according to claim 1 solved, in which the calibration of an optical sensor by the combination achieved with a second tracking system that is beneficial according to claim 9 applies in one or more of the areas mentioned therein. Furthermore, the invention relates to a system for calibrating an optical Sensors in a survey room with an implemented method according to the invention, as specified in claim 10.

Insbesondere betrifft die Erfindung ein Verfahren zur Kalibrierung eines optischen Sensors mit einem Tracking-System bezüglich eines Tracking-Gegenstandes mit einem externen, weiteren Tracking-System, bei dem die Transformation des optischen Sensors relativ zu dem im Vermessungsraum befindlichen Tracking-Gegenstand über die Kombination mindestens zweier Tracking-Systeme bestimmt wird.Especially The invention relates to a method for calibrating an optical Sensor with a tracking system with respect to a tracking object with an external, additional tracking system, where the transformation of the optical sensor relative to that in the surveying space Tracking item about the combination at least two tracking systems is determined.

Weitere vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.Further advantageous embodiments of the invention are specified in the subclaims.

Im folgenden wird eine Ausführungsform der Erfindung anhand der in der Zeichnung dargestellten 1 und 2 näher erläutert.In the following an embodiment of the invention with reference to the illustrated in the drawing 1 and 2 explained in more detail.

1 zeigt einen vorteilhaften Systemaufbau zur Kalibrierung eines optischen Sensors in einem Vermessungsraum. 1 shows an advantageous system structure for calibrating an optical sensor in a surveying space.

2 zeigt eine schematische Darstellung zur Optimierung des erfindungsgemäßen Verfahrens 2 shows a schematic representation of the optimization of the method according to the invention

1 zeigt einen vorteilhaften Systemaufbau zur Kalibrierung eines optischen Sensors in einem Vermessungsraum. Ein Tracking-Gegenstand 300 steht in einem festen Bezug zum Ursprung des Bildaufnehmers 100-1 des optischen Sensors 100. Beispielsweise ist der Tracking-Gegenstand 300 in Form eines weiteren Sensors realisiert, etwa in Form eines Ultraschallsensors, oder in Form eines Körpers, wobei letzterer beispielsweise von einer weiteren Kamera des zweiten Tracking-Systems 300-1 (dessen Funktion im weiteren Verlauf noch beschrieben wird) aufgenommen werden kann. Der Tracking-Gegenstand 300 ist beispielsweise auf dem optischen Sensor 100 montiert und so auch im späteren Einsatz des Systems immer in einem festen Bezug zum Ursprung des Bildaufnehmers 100-1 des optischen Sensors 100. Der Tracking-Gegenstand 300 dient insbesondere dazu, beim späteren Einsatz des Systems verschiedene Trackingverfahren (in Bezug auf den Sensor 100 einerseits und in Bezug auf den Tracking-Gegenstand 300 andererseits) zu kombinieren. Bei der Kalibrierung des Systems ist es Aufgabe, in einer Initialisierung diesen festen Bezug des Tracking-Gegenstandes 300 zum Ursprung des Bildaufnehmers 100-1 des optischen Sensors 100 zu bestimmen. 1 shows an advantageous system structure for calibrating an optical sensor in a surveying space. A tracking item 300 is in a fixed relationship to the origin of the image receptor 100-1 of the optical sensor 100 , For example, the tracking item 300 realized in the form of another sensor, such as in the form of an ultrasonic sensor, or in the form of a body, the latter, for example, from another camera of the second tracking system 300-1 (whose function will be described later) can be recorded. The tracking item 300 is for example on the optical sensor 100 mounted and so in later use of the system always in a fixed relation to the origin of the image sensor 100-1 of the optical sensor 100 , The tracking item 300 is used in particular for later use of the system different tracking methods (with respect to the sensor 100 on the one hand, and in relation to the tracking item 300 on the other hand). When calibrating the system, it is the task in an initialization of this fixed reference of the tracking object 300 to the origin of the image receptor 100-1 of the optical sensor 100 to determine.

Der optische Sensor 100, vorteilhafterweise eine Kamera, wird dabei an ein optisches Trackingsystem 100-2 angeschlossen. Dieses ermittelt, unter der Verwendung von bekannten Algorithmen der Bildverarbeitung, die Position (xc, yc, zc) und/oder Rotation (rot xc, rot yc, rot zc) des Bildaufnehmers 100-1 gegenüber den bekannten Trackingpunkten P1, P2, P3, P4, die als optische Marker wirken, aus dem räumlich nicht festgelegten Weltkoordinatensystem 400, das im Trackingsystem 100-2 bekannt ist. Dies entspricht der Koordinatentransformation (kurz Transformation) vopt.The optical sensor 100 , Advantageously, a camera, is doing to an optical tracking system 100-2 connected. This determines, using known image processing algorithms, the position (x c , y c , z c ) and / or rotation (red x c , red y c , red z c ) of the imager 100-1 compared to the known tracking points P 1 , P 2 , P 3 , P 4 , which act as optical markers, from the spatially unspecified world coordinate system 400 that in the tracking system 100-2 is known. This corresponds to the coordinate transformation (transformation for short) v opt .

Zusätzlich wird durch ein zweites, externes Tracking-System 300-1 die Position (xt, yt, zt) und Rotation (rot xt, rot yt, rot zt) des Tracking-Gegenstandes 300 im Koordinatensystem 500 des zweiten Tracking-Systems 300-1 bestimmt. Dies entspricht der Transformation vgeg. Zur Bestimmung der Werte können verschiedenste Wirkprinzipien (z.B. mechanische, akustische, opto-elektronische, interferometrische Wirkprinzipien) mittels einem ensprechenden Sensor eingesetzt werden. Beispielsweise ist das Tracking-System 300-1 ebenfalls ein optisches Tracking-System, das den Tracking-Gegenstand 300 mittels einer Kamera aufnimmt und hinsichtlich Position und/oder Rotation erfasst. Mit der Transformation vgeg ist somit die Position und Rotation des Tracking-Gegenstandes 300 im Vermessungsraum in Bezug auf das Koordinatensystem 500 dieses zweiten Tracking-Systems 300-1 bekannt.In addition, by a second, external tracking system 300-1 the position (x t , y t , z t ) and rotation (red x t , red y t , red z t ) of the tracking object 300 in the coordinate system 500 the second tracking system 300-1 certainly. This corresponds to the transformation v geg . To determine the values, a wide variety of active principles (eg mechanical, acoustic, opto-electronic, interferometric principles of action) can be used by means of a corresponding sensor. For example, the tracking system 300-1 Also an optical tracking system, which is the tracking item 300 recorded by a camera and detected in position and / or rotation. With the transformation v geg is thus the position and rotation of the tracking object 300 in the survey room with respect to the coordinate system 500 this second tracking system 300-1 known.

Das Weltkoordinatensystem 400 und das Koordinaten-System 500 des Tracking-Systems 300-1 stehen in einer festen Beziehung, die bekannt oder unbekannt ist. Die bekannten Trackingpunkte (P1, P2, P3, P4) liegen fest in beiden Koordinatensystemen.The world coordinate system 400 and the coordinate system 500 of the tracking system 300-1 are in a committed relationship that is known or unknown. The known tracking points (P 1 , P 2 , P 3 , P 4 ) are fixed in both coordinate systems.

Zur Kalibrierung des Gesamtsystems muss die Transformation vres des Tracking-Gegenstandes 300 zum Ursprung des Koordinatensystems des Bildaufnehmers 100-1 bestimmt werden. Es ist demnach erforderlich, den Tracking-Gegenstand 300 in Bezug zu den optischen Trackingpunkten P1, P2, P3, P4 zu setzen. Dies entspricht der Transformation vtra.To calibrate the entire system, the transformation must v res of the tracking object 300 to the origin of the coordinate system of the image sensor 100-1 be determined. It is therefore necessary to the tracking object 300 with respect to the optical tracking points P 1 , P 2 , P 3 , P 4 . This corresponds to the transformation v tra .

Hierzu wird in folgenden Schritten vorgegangen:For this The procedure is as follows:

1. Bestimmung der Position und/oder Rotation der für das optische Tracking-System 100-2 bekannten Punkte P1, P2, P3, P4 mit dem zweiten Tracking-System 300-1 in Bezug auf das Koordinatensystem 500 des zweiten Tracking-Systems 300-1. Dies entspricht der Transformation vbas.1. Determining the position and / or rotation of the optical tracking system 100-2 known points P 1 , P 2 , P 3 , P 4 with the second tracking system 300-1 in terms of the coordinate system 500 the second tracking system 300-1 , This corresponds to the transformation v bas .

Dazu wird beispielsweise ein weiterer Sensor mit einem Tracking-System in dem Koordinatensystem 500 verwendet, der die einzelnen Punkte 200 (P1, P2, P3, P4) anfährt, wobei das Tracking-System dieses weiteren Sensors die einzelnen Punkte 200 hinsichtlich Position und/oder Rotation in Bezug zum Koordinatensystem 500 setzt. Das zweite Tracking-System 300-1 erhält auf diese Weise einzelne Transformationen vbas1 bis vbas4, die zur Transformation vbas verarbeitet werden.For this purpose, for example, another sensor with a tracking system in the coordinate system 500 used the individual points 200 (P 1 , P 2 , P 3 , P 4 ) anfährt, the tracking system of this further sensor, the individual points 200 in terms of position and / or rotation in relation to the coordinate system 500 puts. The second tracking system 300-1 in this way obtains individual transformations v bas1 to v bas4 , which are processed for transformation v bas .

In einem anderen Fall ist es auch vorteilhaft, das Koordinatensystem 500 in den Ursprung der Punkte 200 zu legen, beispielsweise den Ursprung des Koordinatensystems 500 zusammenfallend mit dem Punkt P1. Dadurch ergäbe sich eine Transformation vbas, die den Wert Null annimmt.In another case, it is also advantageous to use the coordinate system 500 in the origin of the points 200 For example, the origin of the coordinate system 500 coincident with point P 1 . This would result in a transformation v bas , which assumes the value zero.

Je nach Tracking-System ist für die Bestimmung der Position und Rotation die Erfassung von mindestens drei Trackingpunkte (P1, P2, P3) erforderlich.Depending on the tracking system, at least three tracking points (P 1 , P 2 , P 3 ) are required to determine position and rotation.

2. Berechnung der Transformation vtra zwischen Tracking-Gegenstand (300) und den optischen Trackingpunkten (P1, P2, P3, P4) aus den Transformationen vbas und vgeg. Beide Transformationen sind im Koordinatensystem 500 bestimmt.2. Calculation of the transformation v tra between the tracking object ( 300 ) and the optical tracking points (P 1 , P 2 , P 3 , P 4 ) from the transformations v bas and v geg . Both transformations are in the coordinate system 500 certainly.

3. Berechnung der Transformation vres des Tracking-Gegenstandes (300) zum Bildaufnehmer (100-1) aus den beiden Transformationen vtra und vopt. Beide Transformationen sind in Bezug auf die Punkte 200 bestimmt.3. Calculation of the Transformation v res of the Tracking Item ( 300 ) to the image recorder ( 100-1 ) from the two transformations v tra and v opt . Both transformations are in terms of points 200 certainly.

Zusätzlich zu den Schritten 1–3 können folgende Schritte in einer vorteilhaften Ausprägung des Systems durchgeführt werden, insbesondere unter Bewegung der Anordnung aus Sensor 100 und Tracking-Gegenstand 300 im Vermessungsraum:In addition to steps 1-3, the following steps can be carried out in an advantageous embodiment of the system, in particular with movement of the arrangement of sensor 100 and tracking item 300 in the survey room:

4. Speichern der Transformation vres,4. Save the transformation v res ,

5. Erneutes Durchlaufen der Schritte 1–4,5th Re-running steps 1-4,

6. Erzeugen einer optimierten Transformation vresopt durch Anwendung von mathematischen Optimierungsverfahren, vorteilhafterweise der Verfahren Downhill-Simplex oder Levenberg-Marquardt.6. Generate an optimized transformation v resopt by applying mathematical optimization methods, advantageously the methods Downhill-Simplex or Levenberg-Marquardt.

In einer weiteren Ausführungsform können folgende Schritte in einer vorteilhaften Ausprägung des Systems durchgeführt werden:
Bestimmung der Transformationen vopt, vtra, wie oben beschrieben, in Bezug auf eine erste Position des Bildaufnehmers 100-1 des Sensors 100 und des Tracking- Gegenstandes 300. Danach wird die Anordnung aus Sensor 100 und Tracking-Gegenstand 300 im Vermessungsraum bewegt, wobei die Bewegung jeweils für sich für den Sensor 100 und den Tracking-Gegenstand 300 aufgezeichnet wird. Bespielsweise werden auf diese Art jeweils 400 Werte für vopt und vtra gewonnen. Diese einzelnen Werte werden jedoch nicht jedesmal zueinander in Beziehung gesetzt, sondern es wird der Unterschied, das heißt die Veränderung oder die Abweichung, der einzelnen Werte über die Zeit jeweils in Bezug auf vopt und vtra bestimmt. Aus der jeweiligen Gesamtabweichung kann die optimierte Transformation vresopt, optional wieder unter Verwendung der Verfahren Downhill-Simplex oder Levenberg-Marquardt, berechnet werden.
In a further embodiment, the following steps can be carried out in an advantageous embodiment of the system:
Determining the transformations v opt , v tra , as described above, with respect to a first position of the image sensor 100-1 of the sensor 100 and the tracking item 300 , Thereafter, the arrangement of sensor 100 and tracking item 300 Moved in the survey room, the movement in each case for the sensor 100 and the tracking item 300 is recorded. For example, in each case 400 values for v opt and v tra are obtained in this way. However, these individual values are not always related to each other, but the difference, that is, the variation or deviation, of the individual values over time is determined with respect to v opt and v tra , respectively. From the respective total deviation , the optimized transformation can be calculated , optionally again using the methods Downhill-Simplex or Levenberg-Marquardt.

Das Levenberg-Marquardt-Optimierungsverfahren wird beschrieben in: Hartley, R. und Zisserman, A.: "A Multiple View Geometry in Computer Vision", Cambridge University Press 2003, während das Downhill-Simplex-Optimierungsverfahren ein linearer Optimierungsalgorithmus ist, der von Nelder und Mead entwickelt wurde in: "A Simplex Method for Function Minimization", Computer Journal, 7: 308–313, 1965.The Levenberg-Marquardt optimization procedure is described in: Hartley, R. and Zisserman, A .: "A Multiple View Geometry in Computer Vision ", Cambridge University Press 2003, while the Downhill simplex optimization method a linear optimization algorithm developed by Nelder and Mead in: "A Simplex Method for Function Minimization ", Computer Journal, 7: 308-313, 1965th

2 zeigt eine schematische Darstellung zur oben beschriebenen Vorgehensweise. Es werden jeweils unterschiedliche Werte für vopt und vtra (über vgeg bzw. vtra ist gleich vgeg, wenn vbas Null ist, siehe oben) gewonnen, hier vopt_1 bis vopt_3 bzw. vgeg_1 bis vgeg_3 für drei unterschiedliche Anordnungspositionen des optischen Sensors 100 und des Tracking-Gegenstandes 300. Aus der Abweichung A1, A2 bzw. B1 und B2 der einzelnen Werte über die Zeit jeweils in Bezug auf vopt und vtra (vgeg) kann die optimierte Transformation vresopt berechnet werden, indem die Gleichung A·vresopt = vresopt·Bnach vresopt aufgelöst wird. 2 shows a schematic representation of the procedure described above. In each case different values are obtained for v opt and v tra (over v geg or v tra is equal to v geg , if v bas is zero, see above), here v opt_1 to v opt_3 and v geg_1 to v geg_3 for three different arrangement positions of the optical sensor 100 and the tracking item 300 , From the deviation A1, A2 or B1 and B2 of the individual values over time in each case with respect to v opt and v tra (v geg ), the optimized transformation v resopt can be calculated by the equation A · v ResOpt = v ResOpt · B is resolved after v resopt .

In diesem Zusammenhang sind A1...An bzw. B1...Bn konkrete Ausprägungen von A bzw. B in der aufgeführten Gleichung. Wenn die Messungen A bzw. B perfekt wären, würde ein einziges Messungspaar A1 und B1 ausreichen, um die Gleichung zu lösen. Da die Messungen aber stets ungenau sind, braucht man redundante Daten (A1...An bzw. B1...Bn), um den Fehler im Ergebnis zu minimieren (im Sinne der kleinsten Fehlerquadrate).In In this context, A1 ... An or B1 ... Bn are specific expressions of A or B in the listed Equation. If measurements A and B were perfect, then a single pair of measurements would be made A1 and B1 are enough to solve the equation. But the measurements are always inaccurate, one needs redundant data (A1 ... An or B1 ... Bn), to minimize the error in the result (in the sense of the smallest Squares).

Vorteile und Anwendungen des Systems und Verfahrens sind:
Die Vorteile des beschrieben Verfahrens zur Kalibrierung liegen in der einfachen und benutzerfreundlichen Handhabung. Es sind keine Vorkenntnisse mehr über die mathematischen Hintergründe (Transformationen) der verschiedenen Tracking-Systeme nötig und die Kalibrierung ist über eine einfache Benutzeroberfläche möglich.
Advantages and applications of the system and method are:
The advantages of the method described for calibration lie in the simple and user-friendly handling. There is no need to know anything about the mathematical background (transformations) of the various tracking systems and the calibration is possible through a simple user interface.

Zusätzlich entfällt das Vermessen des Bildaufnehmers in Bezug auf den Tracking-Gegenstand, der mit herkömmlichen Messmethoden, insbesondere auf Grund von Fertigungstoleranzen des Optischen Sensors, mit einer hinreichenden Genauigkeit nur sehr schwer möglich ist. Das nachträgliche Vermessen erfordert zusätzlich meist die Demontage des Sensors, was ebenfalls entfällt.In addition, this is no longer necessary Measuring the image sensor with respect to the tracking object, with usual Measuring methods, in particular due to manufacturing tolerances of Optical sensor, with a sufficient accuracy only very hardly possible is. The subsequent Surveying additionally requires usually the disassembly of the sensor, which is also omitted.

Weiter sind keine komplizierten Eingriffe durch den Benutzer in das System nötig und alle Berechnungen werden automatisch durchgeführt. Dadurch steigt die Genauigkeit der Kalibrierung.Further are no complicated interventions by the user in the system necessary and all calculations are done automatically. This increases the accuracy the calibration.

Durch die schnelle und genaue Kalibrierung des Systems können vor allem in mobilen Umfeldern, wie z.B. im Bereich Service und Wartung oder in der Produktion, Anwendungen der Augmented Reality Technologie schnell und effizient realisiert werden.By The fast and accurate calibration of the system can be done before especially in mobile environments, e.g. in the area of service and maintenance or in production, applications of augmented reality technology be realized quickly and efficiently.

100100
Optischer Sensoroptical sensor
100-1100-1
Bildaufnehmerimager
100-2100-2
Optisches Tracking-Systemoptical Tracking system
200200
Bekannte Punkte in der UmgebungKnown Points in the environment
300300
Tracking-GegenstandTracking the subject
300-1300-1
Tracking-SystemTracking system
400400
WeltkoordinatensystemWorld coordinate system
500500
Koordinatensystem des Tracking-Systems (300-1)Coordinate system of the tracking system ( 300-1 )
vopt_1 bis vopt_3 v opt_1 to v opt_3
Transformationtransformation
vgeg_1 bis vgeg_3 v geg_1 to v geg_3
Transformationtransformation
vres v res
Transformationtransformation
A1, A2A1, A2
Abweichungdeviation
B1, B2B1, B2
Abweichungdeviation

Claims (10)

Verfahren zur Kalibrierung eines optischen Sensors in einem Vermessungsraum, bei dem die Transformation des optischen Sensors (100) relativ zu einem im Vermessungsraum befindlichen Tracking-Gegenstand (300) über die Kombination mindestens zweier Tracking-Systeme bestimmt wird.Method for calibrating an optical sensor in a surveying room, in which the transformation of the optical sensor ( 100 ) relative to a tracking object located in the survey space ( 300 ) is determined by the combination of at least two tracking systems. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bekannte Tracking-Punkte (200) fest in Koordinatensystemen mindestens zweier Tracking-Systeme liegen.Method according to claim 1, characterized in that known tracking points ( 200 ) are fixed in coordinate systems of at least two tracking systems. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass vier bekannte Tracking-Punkte (200) fest in Koordinatensystemen mindestens zweier Tracking-Systeme liegen.Method according to claim 1 or 2, characterized in that four known tracking points ( 200 ) are fixed in coordinate systems of at least two tracking systems. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Transformation des optischen Sensors (100) relativ zu einem Tracking-Gegenstand (300) in folgenden Schritten bestimmt wird: a) Bestimmung der Position und Rotation von für ein optisches Tracking-System bekannten Tracking-Punkten (200) mit mindestens einem zusätzlichen Tracking-System in Bezug auf ein Koordinatensystem des zusätzlichen Tracking-Systems; b) Berechnung einer ersten Transformation (vopt) zwischen einem Bildaufnehmer (100-1) des optischen Sensors (100) und den bekannten Tracking-Punkten (200); c) Berechnung einer zweiten Transformation (vtra) zwischen dem Tracking-Gegenstand (300) und den in mindestens zwei Tracking- Koordinatensystemen festen Tracking-Punkten (200); d) Berechnung von mindestens einer dritten Transformation (vres) des Tracking-Gegenstandes (300) zum Bildaufnehmer (100-1) des optischen Sensors (100) aus den beiden ersten und zweiten Transformationen (vtra und vopt).Method according to one of claims 1 to 3, characterized in that the transformation of the optical sensor ( 100 ) relative to a tracking object ( 300 ) is determined in the following steps: a) determination of the position and rotation of tracking points known for an optical tracking system ( 200 ) with at least one additional tracking system with respect to a coordinate system of the additional tracking system; b) calculating a first transformation (v opt ) between an image recorder ( 100-1 ) of the optical sensor ( 100 ) and the known tracking points ( 200 ); c) calculation of a second transformation (v tra ) between the tracking object ( 300 ) and the tracking points fixed in at least two tracking coordinate systems ( 200 ); d) calculation of at least one third transformation (v res ) of the tracking object ( 300 ) to the image recorder ( 100-1 ) of the optical sensor ( 100 ) From both the first and second transformations (v tra and v opt). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass in Schritt d) die Bestimmung der dritten Transformation (vres) durch die statistische Auswertung mehrerer Messungen, insbesondere durch Singular-Value-Decomposition, optimiert wird.A method according to claim 4, characterized in that in step d) the determination of the third transformation (v res ) by the statistical evaluation of several measurements, in particular by singular value decomposition, is optimized. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass in Schritt d) die Bestimmung der dritten Transformation (vres) durch die Verwendung mehrerer Tracking-Systeme und anschließender statistischer Auswertung der Messungen, insbesondere durch Singular-Value-Decomposition, optimiert wird.A method according to claim 4, characterized in that in step d) the determination of the third transformation (v res ) by the use of multiple tracking systems and subsequent statistical evaluation of the measurements, in particular by singular value decomposition, is optimized. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass in Schritt d) die Bestimmung der dritten Transformation (vres) durch die statistische Auswertung mehrerer Messungen relativ zueinander, insbesondere durch Verwendung des Downhill-Simplex- oder Levenberg-Marquardt-Verfahrens, optimiert wird.Method according to one of claims 4 to 6, characterized in that in step d) the determination of the third transformation (v res ) by the statistical evaluation of several measurements relative to each other, in particular by using the Downhill Simplex or Levenberg-Marquardt method, is optimized. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass folgende Schritte durchgeführt werden: – Bestimmung der ersten und zweiten Transformationen (vopt, vtra) in Bezug auf eine erste Position des Sensors (100) und des Tracking-Gegenstandes (300), – Bewegung des Sensors (100) und des Tracking-Gegenstands (300) im Vermessungsraum, wobei die Bewegung jeweils für den Bildaufnehmer (100-1) und den Tracking-Gegenstand (300) anhand einzelner Werte (vopt_1 bis vopt_3, vgeg_1 bis vgeg_3) für die erste und zweite Transformation (vopt und vtra) aufgezeichnet wird, – Bestimmung einer Abweichung (A1, A2, B1, B2) der Werte über die Zeit jeweils in Bezug auf die erste Transformation (vopt) und die zweite Transformation (vtra), – Bestimmung einer optimierten dritten Transformation (vresopt) aus der jeweiligen Abweichung (A1, A2, B1, B2), insbesondere unter Verwendung der Verfahren Downhill-Simplex oder Levenberg-Marquardt.Method according to one of claims 4 to 7, characterized in that the following steps are carried out: - determination of the first and second transformations (v opt , v tra ) with respect to a first position of the sensor ( 100 ) and the tracking object ( 300 ), - movement of the sensor ( 100 ) and the tracking item ( 300 ) in the survey room, wherein the movement in each case for the image sensor ( 100-1 ) and the tracking object ( 300 ) is recorded on the basis of individual values (v opt_1 to v opt_3 , v geg_1 to v geg_3 ) for the first and second transformation (v opt and v tra ), - determination of a deviation (A1, A2, B1, B2) of the values over the Time in each case with respect to the first transformation (v opt ) and the second transformation (v tra ), - Determination of an optimized third transformation (v resopt ) from the respective deviation (A1, A2, B1, B2), in particular using the method Downhill Simplex or Levenberg-Marquardt. Verwendung eines Verfahrens nach einem der vorhergehenden Ansprüche in einem oder mehreren der folgenden Gebiete: in einem Augmented Reality System, in der optischen Messtechnik, in der Bildverarbeitung, in der Medientechnik und/oder in der Bewegungserfassung (Motion Capturing).Use of a method according to one of the preceding claims in one or more of the following areas: in an augmented state Reality System, in optical metrology, in image processing, in media technology and / or motion detection (Motion Capturing). System zur Kalibrierung eines optischen Sensors in einem Vermessungsraum mit einem implementierten Verfahren nach einem der Ansprüche 1 bis 6.System for calibrating an optical sensor in a survey room with an implemented method one of the claims 1 to 6.
DE200510047481 2004-09-29 2005-10-04 Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems Withdrawn DE102005047481A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200510047481 DE102005047481A1 (en) 2004-09-29 2005-10-04 Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200410047905 DE102004047905A1 (en) 2004-09-29 2004-09-29 Calibration of optical sensors, for augmented reality system by use at least two tracking systems, involves determining transformation of optical sensor relative to tracking object
DE200510047481 DE102005047481A1 (en) 2004-09-29 2005-10-04 Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems

Publications (1)

Publication Number Publication Date
DE102005047481A1 true DE102005047481A1 (en) 2007-04-05

Family

ID=37852791

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510047481 Withdrawn DE102005047481A1 (en) 2004-09-29 2005-10-04 Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems

Country Status (1)

Country Link
DE (1) DE102005047481A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2071510A2 (en) 2007-12-11 2009-06-17 KUKA Roboter GmbH Method and system for aligning an object of a virtual model to a real object
WO2012049326A3 (en) * 2010-10-15 2012-08-16 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
TWI647422B (en) * 2016-09-21 2019-01-11 宏達國際電子股份有限公司 Control method and optical tracking system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2071510A2 (en) 2007-12-11 2009-06-17 KUKA Roboter GmbH Method and system for aligning an object of a virtual model to a real object
DE102007059478A1 (en) 2007-12-11 2009-06-18 Kuka Roboter Gmbh Method and system for aligning a virtual model with a real object
WO2012049326A3 (en) * 2010-10-15 2012-08-16 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
US9068820B2 (en) 2010-10-15 2015-06-30 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
TWI647422B (en) * 2016-09-21 2019-01-11 宏達國際電子股份有限公司 Control method and optical tracking system
US10530972B2 (en) 2016-09-21 2020-01-07 Htc Corporation Control method for optical tracking system
US11714162B2 (en) 2016-09-21 2023-08-01 Htc Corporation Control method for optical tracking system

Similar Documents

Publication Publication Date Title
EP1848961B1 (en) Method for calibrating a measuring system
DE10219054B4 (en) Method and device for determining the spatial coordinates of an object
DE112010005008B4 (en) System and method for determining camera calibration in runtime
EP1711777B2 (en) Method for determining the position and the relative motion of an object in a space
DE102013009288B4 (en) 3D recording device, method for creating a 3D image and method for setting up a 3D recording device
DE102016118620A1 (en) Measuring system and measuring method
EP2093537A1 (en) Process and device for the determination of the alignment of two rotatable machine parts, of the alignment of two hollow cylindrical machine parts, or for the examination of a component for straightness
EP2573512A2 (en) Method and assembly for determining the position of a measurement point in geometric space
DE202019105838U1 (en) Arrangement with a coordinate measuring machine or microscope
DE102010005042B3 (en) Infrared temperature device e.g. pyrometer, has image evaluation units attached to visible light camera, where image positions of measuring area markings in visible light image are assigned to image evaluation units
EP2423639A1 (en) Method for determining gap dimensions and/or flushness of bodywork sections of a motor vehicle and control program
EP2691735B1 (en) System and method for calibrating a vehicle measurement reference system
DE102022104880B4 (en) Method for calibrating a portable reference sensor system, portable reference sensor system and use of the portable reference sensor system
DE102005047481A1 (en) Optical sensor e.g. camera, calibrating method for use in e.g. augmented reality system, involves determining transformation of optical sensors relative to tracking object by combination of two tracking-systems
EP2055255A1 (en) Verification of the calibration status of an optical tracking system
DE102011056948A1 (en) Method for calibrating a camera to a position sensor
WO2013023787A1 (en) Determining the position of sub-apertures on a test object during surface measurements on the test object
DE19633059A1 (en) Observation arrangement
DE102019206977B4 (en) Device and method for measuring at least one object to be measured at an angle
DE102018103333B3 (en) Method and system for dynamic structural analysis
DE102008062043A1 (en) Method and system for checking the accuracy of a sensor
DE102020118723B4 (en) A method for determining a position of a first object in a positioning system, a positioning system and a computer program
DE102005043070B4 (en) Method for high-precision three-dimensional measurement and / or reconstruction of objects with the aid of digital image recordings, for example for image evaluation of traffic routes
DE102020113454A1 (en) Microscope and method for generating an image composed of several microscopic individual images
DE102004047905A1 (en) Calibration of optical sensors, for augmented reality system by use at least two tracking systems, involves determining transformation of optical sensor relative to tracking object

Legal Events

Date Code Title Description
AF Is addition to no.

Ref document number: 102004047905

Country of ref document: DE

Kind code of ref document: P

8127 New person/name/address of the applicant

Owner name: METAIO GMBH, 80797 MUENCHEN, DE

8162 Independent application
8110 Request for examination paragraph 44
R120 Application withdrawn or ip right abandoned

Effective date: 20130418