DE102020204677B4 - Tracking system and computer program for compensating for visual shadows when tracking measuring objects - Google Patents

Tracking system and computer program for compensating for visual shadows when tracking measuring objects Download PDF

Info

Publication number
DE102020204677B4
DE102020204677B4 DE102020204677.8A DE102020204677A DE102020204677B4 DE 102020204677 B4 DE102020204677 B4 DE 102020204677B4 DE 102020204677 A DE102020204677 A DE 102020204677A DE 102020204677 B4 DE102020204677 B4 DE 102020204677B4
Authority
DE
Germany
Prior art keywords
tracking
measurement object
tracking unit
trajectory
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020204677.8A
Other languages
German (de)
Other versions
DE102020204677A1 (en
Inventor
Christian Hörr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102020204677.8A priority Critical patent/DE102020204677B4/en
Publication of DE102020204677A1 publication Critical patent/DE102020204677A1/en
Application granted granted Critical
Publication of DE102020204677B4 publication Critical patent/DE102020204677B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Abstract

Trackingsystem (110) umfassend mindestens eine Trackingeinheit (114), welche eingerichtet ist, eine Bewegung mindestens eines Messobjekts (112) relativ zu der Trackingeinheit (114) nachzuverfolgen, wobei das Trackingsystem (110) mindestens ein Sekundärsystem (116) umfasst, wobei das Sekundärsystem (116) eingerichtet ist, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts (112) im Raum in mindestens einem Sichtschatten (118) der Trackingeinheit (114) zu bestimmen, wobei der Sichtschatten (118) der Trackingeinheit (114) ein Bereich eines Messvolumens der Trackingeinheit (114) ist, welcher von der Trackingeinheit (114) nicht beobachtet und/oder eingesehen werden kann, wobei der Sichtschatten (118) durch eine Unterbrechung einer Sichtlinie zwischen Messobjekt (112) und Trackingeinheit (114) erzeugt wird, wobei das Trackingsystem (110) mindestens eine Datenverarbeitungseinheit (120) umfasst, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine durch den Sichtschatten (118) entstandene Datenlücke bei der Nachverfolgung des Messobjekts (112) unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) zu kompensieren, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit (114) aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) umfasst, wobei die Trackingeinheit (114) eingerichtet ist, um an einer Mehrzahl von Stützstellen (140) jeweils eine Pose des Messobjekts (112) zu bestimmen, wobei die Trackingeinheit (114) eingerichtet ist, um an einem Eintrittspunkt (136) und einem Austrittspunkt (138) des Sichtschattens (118) jeweils eine Pose des Messobjekts (112) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine Trackingtrajektorie (T) aus den Posen an der jeweiligen Stützstelle (140) zu bestimmen, wobei das Sekundärsystem (116) eingerichtet ist, um an einer Mehrzahl von Sekundärstützstellen (142) jeweils die Information über die Position und/oder Orientierung des Messobjekts (112) zu bestimmen, wobei das Sekundärsystem (116) eingerichtet ist, um an dem Eintrittspunkt (136) und an dem Austrittspunkt (138) die Information über die Position und/oder Orientierung des Messobjekts (112) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine Sekundärtrajektorie S unter Berücksichtigung der Sekundärstützstellen (142) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um die Sekundärtrajektorie S an die Trackingtrajektorie (T) anzupassen.Tracking system (110) comprising at least one tracking unit (114) which is set up to track a movement of at least one measurement object (112) relative to the tracking unit (114), the tracking system (110) comprising at least one secondary system (116), the secondary system (116) is set up to determine at least one piece of information about a position and/or orientation of the measurement object (112) in space in at least one visual shadow (118) of the tracking unit (114), the visual shadow (118) of the tracking unit (114) is an area of a measurement volume of the tracking unit (114) which cannot be observed and/or seen by the tracking unit (114), the visual shadow (118) being generated by interrupting a line of sight between the measurement object (112) and the tracking unit (114). , wherein the tracking system (110) comprises at least one data processing unit (120), wherein the data processing unit (120) is set up to at least one data gap caused by the visual shadow (118) in the tracking of the measurement object (112) taking into account the data from the secondary system ( 116) to compensate for information determined about the position and/or orientation of the measurement object (112), wherein the compensation involves interpolating and/or extrapolating data recorded by the tracking unit (114), taking into account the information determined by the secondary system (116) about the Position and/or orientation of the measurement object (112), the tracking unit (114) being set up to determine a pose of the measurement object (112) at a plurality of support points (140), the tracking unit (114) being set up to determine a pose of the measurement object (112) at an entry point (136) and an exit point (138) of the visual shadow (118), wherein the data processing unit (120) is set up to calculate at least one tracking trajectory (T) from the poses at the to determine the respective reference point (140), the secondary system (116) being set up to determine the information about the position and/or orientation of the measurement object (112) at a plurality of secondary reference points (142), the secondary system (116) is set up to determine the information about the position and/or orientation of the measurement object (112) at the entry point (136) and at the exit point (138), the data processing unit (120) being set up to take at least one secondary trajectory S into account of the secondary interpolation points (142), the data processing unit (120) being set up to adapt the secondary trajectory S to the tracking trajectory (T).

Description

Technisches Gebiettechnical field

Die Erfindung betrifft ein Trackingsystem und ein Computerprogramm zur automatischen Kompensation von Sichtschatten bei der Nachverfolgung mindestens eines Messobj ekts. Die vorliegende Erfindung betrifft insbesondere das Gebiet der Koordinatenmesstechnik unter Verwendung von optischen Koordinatenmessgeräten.The invention relates to a tracking system and a computer program for automatically compensating for visual shadows when tracking at least one measurement object. The present invention relates in particular to the field of coordinate measuring technology using optical coordinate measuring devices.

Technischer HintergrundTechnical background

Aus dem Stand der Technik sind verschiedene Verfahren und Vorrichtungen zu einem Nachverfolgen von Messobjekten, auch als Tracking bezeichnet, insbesondere mit Hilfe von optischen Trackern, bekannt. Beim optischen Tracking muss eine permanente Sichtverbindung zwischen optischer Trackingeinheit und Messobjekt bestehen, um dessen Pose, also Position und Orientierung, im Messvolumen bestimmen zu können. Dies gilt gleichermaßen für verschiedenste Trackingtechnologien. Bei fehlender Sichtverbindung können Datenlücken entstehen.Various methods and devices for tracking measurement objects, also referred to as tracking, are known from the prior art, in particular with the aid of optical trackers. With optical tracking, there must be a permanent line of sight between the optical tracking unit and the measurement object in order to be able to determine its pose, i.e. position and orientation, in the measurement volume. This applies equally to a wide variety of tracking technologies. If there is no line of sight, data gaps can arise.

Die Sichtverbindung zwischen Tracker und Messobjekt kann beispielsweise durch Selbstverdeckung durch das Messobjekt, Fremdverdeckung durch eine Trägerkinematik beziehungsweise den Benutzer oder aber durch eine Fremdverdeckung durch sonstige Störkonturen wie eine Aufspannvorrichtung unterbrochen werden. Je nach Messaufgabe kann die Vorbedingung der Sichtbarkeit eines Messobjekts eine Zugänglichkeit und eine Flexibilität des Systems einschränken.The line of sight between the tracker and the measurement object can be interrupted, for example, by the measurement object obscuring itself, by carrier kinematics or the user, or by other interference contours such as a clamping device. Depending on the measurement task, the precondition of the visibility of a measurement object can limit the accessibility and flexibility of the system.

US 2006/0221072 A1 beschreibt ein System zur Erstellung fotorealistischer 3D-Modelle von Umgebungen und/oder Objekten aus einer Vielzahl von Stereobildern, die von einer mobilen Stereokamera und optionalen monokularen Kameras erhalten werden. Das System erkennt und verfolgt automatisch Merkmale in Bildsequenzen und referenziert die Stereokamera in 6 Freiheitsgraden selbst, indem es die Merkmale mit einer Datenbank abgleicht, um die Kamerabewegung zu verfolgen, während es gleichzeitig die Datenbank aufbaut. Einzelne Stereopaare werden verarbeitet, um dichte 3D-Daten zu berechnen, die die Szene repräsentieren, und werden unter Verwendung der geschätzten Kamerabewegung in eine gemeinsame Referenz transformiert und miteinander verschmolzen. Die resultierenden 3D-Daten werden als Punktwolken, Flächen oder Volumen dargestellt. Systeme und Verfahren zur dreidimensionalen Umgebungsansicht werden in US 2014/0043436A1 , US 2013/0004060 A1 und US 2014/0176677 A1 beschrieben. U.S. 2006/0221072 A1 describes a system for creating photorealistic 3D models of environments and/or objects from a variety of stereo images obtained by a mobile stereo camera and optional monocular cameras. The system automatically detects and tracks features in image sequences and self-references the stereo camera in 6 degrees of freedom, matching the features to a database to track camera movement while simultaneously building the database. Individual stereo pairs are processed to compute dense 3D data representing the scene and are transformed to a common reference using the estimated camera motion and fused together. The resulting 3D data is represented as point clouds, surfaces or volumes. Systems and methods for the three-dimensional view of the environment are US2014/0043436A1 , U.S. 2013/0004060 A1 and US 2014/0176677 A1 described.

Aufgabe der Erfindungobject of the invention

Es wäre daher wünschenswert, ein Trackingsystem und ein computerimplementiertes Verfahren zur Kompensation von Datenlücken bereitzustellen, welche die Nachteile bekannter Vorrichtungen und Verfahren zumindest weitgehend vermeiden. Insbesondere soll ein vereinfachter Umgang mit Trackingsystemen im interaktiven als auch im automatisierten Anwendungsfall ermöglicht werden.It would therefore be desirable to provide a tracking system and a computer-implemented method for compensating for data gaps which at least largely avoid the disadvantages of known devices and methods. In particular, a simplified handling of tracking systems in the interactive as well as in the automated application should be made possible.

Allgemeine Beschreibung der ErfindungGeneral Description of the Invention

Diese Aufgabe wird adressiert durch ein Trackingsystem und ein Computerprogramm mit den Merkmalen der unabhängigen Patentansprüche. Vorteilhafte Weiterbildungen, welche einzeln oder in beliebiger Kombination realisierbar sind, sind in den abhängigen Ansprüchen dargestellt.This object is addressed by a tracking system and a computer program having the features of the independent patent claims. Advantageous developments, which can be implemented individually or in any combination, are presented in the dependent claims.

Im Folgenden werden die Begriffe „haben“, „aufweisen“, „umfassen“ oder „einschließen“ oder beliebige grammatikalische Abweichungen davon in nicht-ausschließlicher Weise verwendet. Dementsprechend können sich diese Begriffe sowohl auf Situationen beziehen, in welchen, neben den durch diese Begriffe eingeführten Merkmalen, keine weiteren Merkmale vorhanden sind, oder auf Situationen, in welchen ein oder mehrere weitere Merkmale vorhanden sind. Beispielsweise kann sich der Ausdruck „A hat B“, "A weist B auf‟, „A umfasst B“ oder „A schließt B ein“ sowohl auf die Situation beziehen, in welcher, abgesehen von B, kein weiteres Element in A vorhanden ist (d.h. auf eine Situation, in welcher A ausschließlich aus B besteht), als auch auf die Situation, in welcher, zusätzlich zu B, ein oder mehrere weitere Elemente in A vorhanden sind, beispielsweise Element C, Elemente C und D oder sogar weitere Elemente.In the following, the terms "have", "have", "comprise" or "include" or any grammatical deviations thereof are used in a non-exclusive manner. Accordingly, these terms can refer both to situations in which, apart from the features introduced by these terms, no further features are present, or to situations in which one or more further features are present. For example, the expression "A has B", "A has B", "A comprises B", or "A includes B" can both refer to the situation in which, apart from B, there is no other element in A (i.e. to a situation in which A consists exclusively of B), as well as to the situation in which, in addition to B, there are one or more other elements in A, e.g. element C, elements C and D or even other elements .

Weiterhin wird darauf hingewiesen, dass die Begriffe „mindestens ein“ und „ein oder mehrere“ sowie grammatikalische Abwandlungen dieser Begriffe, wenn diese in Zusammenhang mit einem oder mehreren Elementen oder Merkmalen verwendet werden und ausdrücken sollen, dass das Element oder Merkmal einfach oder mehrfach vorgesehen sein kann, in der Regel lediglich einmalig verwendet werden, beispielsweise bei der erstmaligen Einführung des Merkmals oder Elementes. Bei einer nachfolgenden erneuten Erwähnung des Merkmals oder Elementes wird der entsprechende Begriff „mindestens ein“ oder „ein oder mehrere“ in der Regel nicht mehr verwendet, ohne Einschränkung der Möglichkeit, dass das Merkmal oder Element einfach oder mehrfach vorgesehen sein kann.Furthermore, it is pointed out that the terms "at least one" and "one or more" as well as grammatical variations of these terms, if they are used in connection with one or more elements or features and are intended to express that the element or feature is provided once or several times can generally only be used once, for example when the feature or element is introduced for the first time. If the feature or element is subsequently mentioned again, the corresponding term “at least one” or “one or more” is usually no longer used, without restricting the possibility that the feature or element can be provided once or more than once.

Weiterhin werden im Folgenden die Begriffe „vorzugsweise“, „insbesondere“, „beispielsweise“ oder ähnliche Begriffe in Verbindung mit optionalen Merkmalen verwendet, ohne dass alternative Ausführungsformen hierdurch beschränkt werden. So sind Merkmale, welche durch diese Begriffe eingeleitet werden, optionale Merkmale, und es ist nicht beabsichtigt, durch diese Merkmale den Schutzumfang der Ansprüche und insbesondere der unabhängigen Ansprüche einzuschränken. So kann die Erfindung, wie der Fachmann erkennen wird, auch unter Verwendung anderer Ausgestaltungen durchgeführt werden. In ähnlicher Weise werden Merkmale, welche durch „in einer Ausführungsform der Erfindung“ oder durch „in einem Ausführungsbeispiel der Erfindung“ eingeleitet werden, als optionale Merkmale verstanden, ohne dass hierdurch alternative Ausgestaltungen oder der Schutzumfang der unabhängigen Ansprüche eingeschränkt werden soll. Weiterhin sollen durch diese einleitenden Ausdrücke sämtliche Möglichkeiten, die hierdurch eingeleiteten Merkmale mit anderen Merkmalen zu kombinieren, seien es optionale oder nicht-optionale Merkmale, unangetastet bleiben.Furthermore, the terms "preferably", "in particular", "for example" or similar terms in connection with optional Features used without alternative embodiments are thereby limited. Thus, features introduced by these terms are optional features and are not intended to limit the scope of the claims, and in particular the independent claims, by these features. Thus, as will be appreciated by those skilled in the art, the invention may be practiced using other configurations. Similarly, features introduced by "in an embodiment of the invention" or by "in an exemplary embodiment of the invention" are understood as optional features without intending to limit alternative configurations or the scope of the independent claims. Furthermore, through these introductory expressions, all possibilities to combine the features introduced here with other features, be they optional or non-optional features, remain untouched.

In einem ersten Aspekt wird im Rahmen der vorliegenden Erfindung ein Trackingsystem vorgeschlagen. Der Begriff „System“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Vorrichtung umfassend eine Mehrzahl von Komponenten oder Elementen beziehen, welche zumindest teilweise zusammenwirken, um mindestens eine Funktion zu erfüllen. Der Begriff „Trackingsystem“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Vorrichtung zum Nachverfolgen mindestens eines Messobjekts beziehen.In a first aspect, a tracking system is proposed within the scope of the present invention. The term "system" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a device comprising a plurality of components or elements that cooperate at least in part to perform at least one function. The term "tracking system" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a device for tracking at least one measurement object.

Der Begriff „Messobjekt“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein beliebig geformtes zu vermessendes Objekt beziehen. Beispielsweise kann das Messobjekt ausgewählt sein aus der Gruppe bestehend aus einem Prüfling, einem Werkstück, einem zu vermessenden Bauteil, und einem Messkopf eines Sensors. Das Messobjekt kann mindestens einen Marker und/oder Retroreflektor aufweisen.The term "measurement object" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to an arbitrarily shaped object to be measured. For example, the measurement object can be selected from the group consisting of a test piece, a workpiece, a component to be measured, and a measuring head of a sensor. The measurement object can have at least one marker and/or retroreflector.

Das Trackingsystem umfasst mindestens eine Trackingeinheit, welche eingerichtet ist, eine Bewegung mindestens eines Messobjekts relativ zu der Trackingeinheit nachzuverfolgen. Das Trackingsystem umfasst mindestens ein Sekundärsystem. Das Sekundärsystem ist eingerichtet, um mindestens eine Information über eine Position des Messobjekts im Raum in mindestens einem Sichtschatten der Trackingeinheit zu bestimmen. Das Trackingsystem umfasst mindestens eine Datenverarbeitungseinheit. Die Datenverarbeitungseinheit ist eingerichtet, um mindestens eine durch den Sichtschatten entstandene Datenlücke bei der Nachverfolgung des Messobjekts unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position des Messobjekts zu kompensieren. Das Kompensieren umfasst ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts.The tracking system includes at least one tracking unit that is set up to track a movement of at least one measurement object relative to the tracking unit. The tracking system includes at least one secondary system. The secondary system is set up to determine at least one piece of information about a position of the measurement object in space in at least one visual shadow of the tracking unit. The tracking system includes at least one data processing unit. The data processing unit is set up to compensate for at least one data gap caused by the visual shadow when tracking the measurement object, taking into account the information about the position of the measurement object determined by the secondary system. Compensating includes interpolating and/or extrapolating data recorded by the tracking unit, taking into account the information about the position and/or orientation of the measurement object determined by the secondary system.

Der Begriff „Trackingeinheit“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine optische Vorrichtung, welche eingerichtet ist, eine Bewegung des Messobjekts relativ zu der Trackingeinheit nachzuverfolgen. Die Trackingeinheit kann mindestens ein optisches Messsystem umfassen. Die Trackingeinheit kann eingerichtet sein zur Abstandsmessung, auch als Tiefenmessung bezeichnet, und/oder zur Posenbestimmung. Das optische Messsystem kann mindestens ein System aufweisen, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lasertracker; mindestens einem Triangulationssystem umfassend mindestens drei Zeilenkameras; mindestens einem Triangulationssystem nach dem Stereo-Vision-Verfahren umfassend mindestens zwei Flächenkameras; mindestens einem Multilaterationssystem, beispielsweise mindestens einem Trilaterationssystem umfassend mindestens drei LiDAR-Kanäle; mindestens einer monokularen Flächenkamera. Der Begriff „Lasertracker“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine beliebige Messvorrichtung beziehen, welche eingerichtet ist, interferometrisch einen Abstand und/oder eine Richtung eines Retroreflektors zu bestimmen, insbesondere relativ zu Achsen, welche von einer Optomechanik des Lasertrackers definiert werden. Der Lasertracker kann beispielsweise als Lasertracker AT-960 von Leica ausgestaltet sein. Unter einem „Triangulationssystem“ kann grundsätzlich ein beliebiges optisches Messsystem verstanden werden, welches eingerichtet ist, einen Abstand zwischen Messobjekt und Trackingeinheit basierend auf einem Triangulationsverfahren zu bestimmen. Der Begriff „Zeilenkamera“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Kamera beziehen, welche eine lichtempfindliche Zeile, insbesondere einen Zeilensensor, aufweist. Beispielsweise können die Zeilenkameras jeweils eine Mehrzahl von Pixeln aufweisen, welche in einer Zeile angeordnet sind. Die Zeilenkameras können beispielsweise CCD-Sensoren oder CMOS-Sensoren aufweisen. Die Zeilenkameras können beispielsweise als T-TRACK von ZEISS ausgestaltet sein. Unter einem „Stereo-Vision-Verfahren“ kann grundsätzlich ein beliebiges Verfahren zum räumlichen Sehen verstanden werden, unter Verwendung von mindestens zwei Kameras. Der Begriff „Flächenkamera“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Kamera beziehen, welche mindestens einen Sensor umfasst, welcher eine Matrix mit einer Mehrzahl von Reihen und/oder Spalten von Pixeln aufweist. Beispielsweise können die Flächenkameras als AICell Trace von ZEISS ausgestaltet sein. Unter einem „Trilaterationssystem“ kann grundsätzlich ein beliebiges optisches Messsystem verstanden werden, welches eingerichtet ist, einen Abstand zwischen Messobjekt und Trackingeinheit basierend auf einem Trilaterationsverfahren zu bestimmen. Unter einem „LiDAR-Kanal“ kann im Rahmen der vorliegenden Erfindung grundsätzlich ein Messkanal eines LiDAR-Sensors verstanden werden, wobei der LiDAR-Sensor auf dem LiDAR („light detection and ranging“)-Messprinzip, auch LaDAR (laser detection and ranging) genannt, basiert. Insbesondere kann der LiDAR-Sensor eingerichtet sein, einen Lichtstrahl, beispielsweise einen Laserstrahl, zu erzeugen und zu empfangen, insbesondere den zuvor von ihr ausgesendeten und zu ihr zurückreflektierten Lichtstrahl, und daraus einen Abstand zwischen dem LiDAR-Sensor und dem Messobjekt zu bestimmen, beispielsweise unter Ausnutzung von Unterschieden in den Rücklaufzeiten und Wellenlängen. Alternativ oder zusätzlich, kann die Trackingeinheit mindestens eine monokulare Flächenkamera aufweisen, beispielsweise von OptiNav.The term "tracking entity" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to an optical device that is set up to track a movement of the measurement object relative to the tracking unit. The tracking unit can include at least one optical measuring system. The tracking unit can be set up to measure distance, also referred to as depth measurement, and/or to determine pose. The optical measurement system can have at least one system selected from the group consisting of: at least one laser tracker; at least one triangulation system comprising at least three line scan cameras; at least one triangulation system based on the stereo vision method, comprising at least two area cameras; at least one multilateration system, for example at least one trilateration system comprising at least three LiDAR channels; at least one monocular area camera. The term "laser tracker" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to any measuring device which is set up to interferometrically determine a distance and/or a direction of a retroreflector, in particular relative to axes which are defined by an optomechanics of the laser tracker. The laser tracker can, for example, be in the form of a Leica AT-960 laser tracker. A "triangulation system" can basically be understood as any optical measuring system, which is set up to determine a distance between the measurement object and the tracking unit based on a triangulation method. The term "line scan camera" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to a camera which has a light-sensitive line, in particular a line sensor. For example, the line cameras can each have a plurality of pixels which are arranged in a line. The line cameras can have CCD sensors or CMOS sensors, for example. The line scan cameras can be designed, for example, as T-TRACK from ZEISS. In principle, a “stereo vision method” can be understood to mean any method for three-dimensional vision using at least two cameras. The term "area scan camera" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term can refer, without limitation, to a camera that includes at least one sensor that has a matrix with a plurality of rows and/or columns of pixels. For example, the area scan cameras can be designed as AICell Trace from ZEISS. A “trilateration system” can in principle be understood to mean any optical measuring system that is set up to determine a distance between the measurement object and the tracking unit based on a trilateration method. In the context of the present invention, a "LiDAR channel" can basically be understood as a measurement channel of a LiDAR sensor, with the LiDAR sensor being based on the LiDAR ("light detection and ranging") measurement principle, also known as LaDAR (laser detection and ranging). called, based. In particular, the LiDAR sensor can be set up to generate and receive a light beam, for example a laser beam, in particular the light beam previously emitted by it and reflected back to it, and from this to determine a distance between the LiDAR sensor and the measurement object, for example exploiting differences in return times and wavelengths. Alternatively or additionally, the tracking unit can have at least one monocular area camera, for example from OptiNav.

Der Begriff „relative Bewegung“ des Messobjekts zu der Trackingeinheit, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Bewegung des Messobjekts und/oder der Trackingeinheit beziehen. Beispielsweise kann das Messobjekt auf einem Messtisch angeordnet sein, wobei der Messtisch eingerichtet ist, das Messobjekt während des Messbetriebs zu bewegen. In diesem Beispiel kann die Trackingeinheit eine feste Position im Raum aufweisen. Alternativ oder zusätzlich kann die Trackingeinheit bewegt sein. Die Bewegung des Messobjekts und/oder der Trackingeinheit kann in einem gemeinsamen Inertialsystem und relativ zueinander, aber unabhängig voneinander, erfolgen.The term "relative movement" of the measurement object to the tracking unit, as used herein, is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to a movement of the measurement object and/or the tracking unit. For example, the measurement object can be arranged on a measurement table, the measurement table being set up to move the measurement object during the measurement operation. In this example, the tracking unit can have a fixed position in space. Alternatively or additionally, the tracking unit can be moved. The measurement object and/or the tracking unit can move in a common inertial system and relative to one another, but independently of one another.

Der Begriff „Nachverfolgen“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Bestimmen einer Position des Messobjekts zu mindestens zwei verschiedenen Zeiten beziehen.The term "tracking" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to determining a position of the measurement object at at least two different times.

Der Begriff „Position des Messobjekts“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf drei translatorische Freiheitsgrade. Der Begriff „Orientierung des Messobjekts“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf drei rotatorische Freiheitsgrade. Die translatorischen und rotatorischen Freiheitgrade können auch als Pose bezeichnet werden, die insgesamt 6 Freiheitsgrade festlegen. Die Position kann ein dreidimensionaler Punkt (X, Y, Z) in dem Koordinatensystem sein, insbesondere eine Lage des Messobjekts. Die räumliche Position kann durch die Ortskoordinaten X, Y und Z definiert sein. Die Position kann einen Abstand, auch als Distanz bezeichnet, zwischen einem Punkt auf einer Oberfläche des Messobjekts und der Trackingeinheit umfassen. Der Abstand kann eine longitudinale Koordinate des Messobjekts sein. Unter einer „Orientierung“ kann eine Lage im Raum, insbesondere eine Rotation, des Messobjekts verstanden werden, insbesondere eine Winkelposition. Die Orientierung kann durch mindestens drei Winkel angegeben werden, beispielsweise Eulerwinkel oder Neigungswinkel, Rollwinkel und Gierwinkel. Die Bestimmung von Abstand und Orientierung kann als Posenbestimmung bezeichnet werden.The term “measurement object position” as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to three translational degrees of freedom. The term "orientation of the target" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to three rotational degrees of freedom. The translational and rotational degrees of freedom can also be referred to as a pose, which define a total of 6 degrees of freedom. The position can be a three-dimensional point (X, Y, Z) in the coordinate system, in particular a position of the measurement object. The spatial position can be defined by the location coordinates X, Y and Z. The position can include a distance, also referred to as distance, between a point on a surface of the measurement object and the tracking unit. The distance can be a longitudinal coordinate of the measurement object. An “orientation” can be understood as meaning a position in space, in particular a rotation, of the measurement object, in particular an angular position. The orientation can be specified by at least three angles, for example Euler angles or pitch angles, roll angles and yaw angles. The determination of Distance and orientation can be referred to as pose determination.

Der Begriff „Sichtschatten“ der Trackingeinheit, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf einen Bereich eines Messvolumens der Trackingeinheit beziehen, welcher von der Trackingeinheit nicht beobachtet und/oder eingesehen werden kann. Der Sichtschatten wird durch eine Unterbrechung einer Sichtlinie zwischen Messobjekt und Trackingeinheit erzeugt. Die Unterbrechung der Sichtlinie kann durch mindestens eine Verdeckung hervorgerufen werden. Die Verdeckung kann eine Selbstverdeckung, beispielsweise durch das Messobjekt, oder aber durch eine Fremdverdeckung, beispielsweise durch eine Trägerkinematik beziehungsweise einen Benutzer oder durch sonstige Störkonturen wie eine Aufspannvorrichtung umfassen. In dem Sichtschatten kann eine Abstandsbestimmung und/oder Posenbestimmung durch die Trackingeinheit unmöglich sein. Die Trackingeinheit kann in dem Sichtschatten zwischen Eintrittspunkt und Austrittspunkt keine Posen ermitteln.The term "visual shadow" of the tracking unit, as used herein, is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to an area of a measurement volume of the tracking unit which cannot be observed and/or viewed by the tracking unit. The visual shadow is created by interrupting a line of sight between the measurement object and the tracking unit. Line of sight disruption can be caused by at least one occlusion. The occlusion can include self-occlusion, for example by the measurement object, or by external occlusion, for example by carrier kinematics or a user or by other interfering contours such as a clamping device. In the visual shadow, it may be impossible for the tracking unit to determine distance and/or pose. The tracking unit cannot determine any poses in the visual shadow between the entry point and the exit point.

Der Begriff „Eintrittspunkt“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine erste räumliche Grenze, insbesondere einen räumlichen Anfang, des Sichtschattens beziehen. Die Trackingeinheit kann eingerichtet sein, um die Pose des Messobjektes im Messvolumen vor dem Sichtschatten bis einschließlich zum Eintrittspunkt zu ermitteln. Der Begriff „Austrittspunkt“, auch Endpunkt des Sichtschattens genannt, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine von der ersten Grenze verschiedene zweite Grenze, insbesondere ein räumliches Ende, des Sichtschattens beziehen. Die Trackingeinheit kann eingerichtet sein, um die Pose des Messobjektes nach dem Sichtschatten ab einschließlich dem Austrittspunkt ermitteln.The term "entry point" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to a first spatial boundary, in particular a spatial beginning, of the visual shadow. The tracking unit can be set up to determine the pose of the measurement object in the measurement volume in front of the visual shadow up to and including the entry point. The term "exit point", also called end point of the view shadow, as used herein, is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to a second limit different from the first limit, in particular a spatial end, of the visual shadow. The tracking unit can be set up to determine the pose of the measurement object after the visual shadow, including the exit point.

Der Begriff „Sekundärsystem“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine zusätzliche Datenquelle beziehen, welche eingerichtet ist, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts im Raum in dem Sichtschatten der Trackingeinheit zu erzeugen und/oder bereitzustellen. Das Trackingsystem kann eine Mehrzahl von Sekundärsystemen aufweisen, wobei die Sekundärsysteme identisch oder verschieden ausgestaltet sein können. Das Sekundärsystem kann mindestens einen Sensor aufweisen, insbesondere mindestens ein positionsgebendes System. Das Sekundärsystem kann mindestens ein positionsgebendes System aufweisen, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lagesensor, insbesondere mindestens einem Gyroskop; mindestens einem Inertialsensor im oder am nachzuverfolgenden Messobjekt; mindestens einem Achs-Encoder einer Trägerkinematik; mindestens einer Flächenkamera; mindestens einem absolut messenden System. Das Sekundärsystem kann beispielsweise einen Messkopf umfassen, welcher sich selbst anhand von Marken auf oder neben dem Bauteil referenziert, wie beispielsweise ein HandyScan von Creaform® oder K-SCAN20 von SCANTECH. Die Flächenkamera kann beispielsweise in einem Messkopf des Koordinatenmessgeräts angeordnet sein und die Information über die Position unter Verwendung von SLAM („Simultaneous Localization and Mapping“) -Algorithmen ermitteln. Beispielsweise kann das Sekundärsystem ein absolut messendes System sein, welches baugleich mit der Trackingeinheit ausgestaltet ist, welches jedoch nicht notwendigerweise zu der Trackingeinheit kalibriert ist, d.h. in einem anderen lokalen Koordinatensystem misst. Das Sekundärsystem kann alternativ oder zusätzlich eine Datenquelle sein, welche Voraussagen über eine Pose des Messobjekts bereitstellt, beispielsweise eine a-priori-Datenquelle. Die A-priori-Datenquelle kann beispielsweise eine Datenbank sein, in der zu einer Menge bekannter Posen vor und nach der Datenlücke eine entsprechende Sekundärtrajektorie abgelegt ist. Die Datenbank kann beispielsweise durch willkürliche Auswahl von Teilstücken ausgewählter Längen in ansonsten lückenlos bekannten Beispieltrajektorien befüllt („trainiert“) werden. Die Auswahl des am besten geeigneten Datensatzes kann mit einschlägigen Methoden des maschinellen Lernens oder anhand von Metriken geschehen, die die Ähnlichkeit von Posen oder Mengen von Posen in Bezug auf Position und/oder Orientierung bewerten. Die Information über die Pose des Messobjekts kann einen Abstand des Messobjekts zu dem Sekundärsystem und/oder eine Orientierung des Messobjekts umfassen. Wie oben ausgeführt, kann die Trackingeinheit in dem Sichtschatten zwischen Eintrittspunkt und Austrittspunkt keine Posen ermitteln. Stattdessen kann das Sekundärsystem eingerichtet sein, um in dem Sichtschatten Informationen zu sammeln. Die von dem Sekundärsystem erzeugte Information kann eine hinreichende Relativgenauigkeit aufweisen, so dass auf fehlende Posen interpoliert werden kann und insbesondere eine Fehlerfortpflanzung minimiert werden kann.The term "secondary system" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to an additional data source which is set up to generate and/or provide at least one piece of information about a position and/or orientation of the measurement object in space in the visual shadow of the tracking unit. The tracking system can have a plurality of secondary systems, it being possible for the secondary systems to be configured identically or differently. The secondary system can have at least one sensor, in particular at least one position-giving system. The secondary system can have at least one position-giving system selected from the group consisting of: at least one position sensor, in particular at least one gyroscope; at least one inertial sensor in or on the measurement object to be tracked; at least one axis encoder of a carrier kinematics; at least one area camera; at least one absolute measuring system. The secondary system can, for example, include a measuring head that references itself using marks on or next to the component, such as a HandyScan from Creaform® or a K-SCAN20 from SCANTECH. The area camera can be arranged, for example, in a measuring head of the coordinate measuring machine and determine the information about the position using SLAM (“Simultaneous Localization and Mapping”) algorithms. For example, the secondary system can be an absolutely measuring system, which is constructed in the same way as the tracking unit, but which is not necessarily calibrated to the tracking unit, ie measures in a different local coordinate system. The secondary system can alternatively or additionally be a data source which provides predictions about a pose of the measurement object, for example an a priori data source. The a priori data source can be a database, for example, in which a corresponding secondary trajectory is stored for a set of known poses before and after the data gap. The database can be filled (“trained”), for example, by random selection of sections of selected lengths in example trajectories that are otherwise known without gaps. The selection of the most suitable data set can be done with pertinent machine learning methods or by using metrics that evaluate the similarity of poses or sets of poses in terms of position and/or orientation. The information about the pose of the measurement object can include a distance of the measurement object from the secondary system and/or an orientation of the measurement object. As explained above, the tracking unit cannot determine any poses in the visual shadow between the entry point and the exit point. Instead, the secondary system can be configured to collect information in the view shadow. Those from the secondary system The information generated can have sufficient relative accuracy so that missing poses can be interpolated and, in particular, error propagation can be minimized.

Der Begriff „Datenverarbeitungseinheit“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine beliebige Logikschaltung, zum Ausführen grundlegender Operationen eines Computers oder Systems, beziehen und/oder allgemein auf eine Vorrichtung, welche zum Ausführen von Berechnungen oder logischen Operationen eingerichtet ist. Die Datenverarbeitungseinheit kann einen Prozessor oder eine Prozessoreinheit aufweisen. Die Datenverarbeitungseinheit kann beispielsweise eine arithmetisch-logische Einheit (ALU), eine Gleitkommaeinheit (FPU), wie einen mathematischen Koprozessor oder numerischen Koprozessor, eine Mehrzahl von Registern, und einen Arbeitsspeicher, beispielsweise einen Cache Arbeitsspeicher aufweisen. Die Datenverarbeitungseinheit kann einen Multi-Core-Prozessor aufweisen. Die Datenverarbeitungseinheit kann eine Zentrale Verarbeitungseinheit (CPU) aufweisen. Alternativ oder zusätzlich kann die Datenverarbeitungseinheit eine oder mehrere Anwendungsspezifische integrierte Schaltungen und/oder eine oder mehrere Field Programmable Gate Arrays (FPGAs) oder ähnliches aufweisen.The term "data processing unit" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term may refer specifically, without limitation, to any logic circuitry for performing basic operations of a computer or system, and/or generally to any device configured to perform calculations or logical operations. The data processing unit can have a processor or a processor unit. The data processing unit may include, for example, an arithmetic logic unit (ALU), a floating point unit (FPU) such as a math coprocessor or numeric coprocessor, a plurality of registers, and a work memory, for example a cache work memory. The data processing unit can have a multi-core processor. The data processing unit can have a central processing unit (CPU). Alternatively or additionally, the data processing unit can have one or more application-specific integrated circuits and/or one or more Field Programmable Gate Arrays (FPGAs) or the like.

Der Begriff „Datenlücke“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf mindestens ein fehlendes Datum und/oder mindestens einen fehlenden Abschnitt in einem Datensatz beziehen. Der Datensatz kann eine relative Bewegung des Messobjekts, insbesondere eine Mehrzahl von Posen, beschreiben. Die Datenlücke kann sich auf nicht erfasste und daher im Datensatz fehlende Posen während der relativen Bewegung beziehen. Die Datenlücke kann durch eine Unterbrechung des Nachverfolgens des Messobjekts entstehen. Die Unterbrechung kann durch den Sichtschatten der Trackingeinheit, insbesondere infolge einer Störkontur, verursacht werden.The term "data gap" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. Specifically, the term may refer, without limitation, to at least one missing datum and/or at least one missing section in a record. The data record can describe a relative movement of the measurement object, in particular a plurality of poses. The data gap may relate to poses not captured and therefore missing from the dataset during relative movement. The data gap may be caused by a break in tracking the measurement object. The interruption can be caused by the tracking unit's visual shadow, in particular as a result of an interference contour.

Der Begriff „Kompensieren“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Füllen einer Datenlücke und/oder ein Vervollständigen des Datensatzes beziehen.The term "compensating" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term may refer, without limitation, to filling a data gap and/or completing the data set.

Das Kompensieren umfasst ein Interpolieren, auch als Interpolation bezeichnet, und/oder Extrapolieren, auch als Extrapolation bezeichnet, unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts. Das Interpolieren kann ein Ermitteln von Posen zwischen von der Trackingeinheit bekannten Posen, also mit der Trackingeinheit bestimmten Posen an Stützstellen vor dem Eintrittspunkt, der mit der Trackingeinheit bestimmten Pose am Eintrittspunkt, mit der Trackingeinheit bestimmten Posen an Stützstellen nach dem Austrittspunkt und er mit der Trackingeinheit bestimmten Pose am Austrittspunkt, umfassen. Das Interpolieren kann grundsätzlich ein Verwenden eines beliebigen Interpolationsverfahrens umfassen. Das Interpolieren kann eine lineare, quadratische oder kubische Interpolation umfassen. Beispielsweise kann für den translatorischen Anteil die lineare Interpolation ein Bestimmen mindestens eines unbekannten Punktes zwischen zwei bekannten Punkten umfassen, unter der Annahme, dass sich der unbekannte Punkt auf einer die bekannten Punkte verbindenden Geraden befindet. Bei einer linearen Interpolation kann der Verlauf einer Kurve zwischen zwei bekannten Punkten als Polynom erster Ordnung angenommen werden. Auch andere linearen Interpolationen sind denkbar. Beispielsweise kann eine lineare Interpolation erfolgen ohne einen geometrischen Bezug zu einer Gerade. Dafür kann zum Beispiel in Polarkoordinaten statt in kartesischen Koordinaten gerechnet werden. Die quadratische Interpolation kann ein Bestimmen mindestens eines unbekannten Punkt zwischen zwei bekannten Punkten umfassen, unter der Annahme eines quadratischen Kurvenverlaufs zwischen zwei bekannten Punkten. Der Kurvenverlauf zwischen den zwei bekannten Punkten kann als Polynom zweiter Ordnung angenommen werden. Die kubische Interpolation ein Bestimmen mindestens eines unbekannten Punkt zwischen zwei bekannten Punkten umfassen, unter der Annahme eines kubischen Kurvenverlaufs zwischen zwei bekannten Punkten. Der Kurvenverlauf zwischen den zwei bekannten Punkten kann als Polynom dritter Ordnung angenommen werden. Das Kompensieren kann zudem eine Extrapolation umfassen. Die Extrapolation kann ein Bestimmen eines Verhaltens der Trajektorie über einen mit der Trackingeinheit erfassbaren Bereich hinaus umfassen. Bei der Interpolation kann ein Parameter a zwischen den beiden Stützpunkten von 0 nach 1 laufen. Bei der Extrapolation kann dieser Wertebereich nach oben und/oder unten erweitert werden. Eine Extrapolation kann insbesondere verwendet werden, nur auf einer Seite Stützstellen vorliegen. Eine Interpolation kann verwendet werden, wenn beidseitig Stützstellen vorliegen. Eine Trajektorie des Messobjekts kann im Anschluss an die Kompensation vollständig bestimmt sein.Compensation includes interpolation, also referred to as interpolation, and/or extrapolation, also referred to as extrapolation, taking into account the information about the position and/or orientation of the measurement object determined by the secondary system. The interpolation can determine poses between poses known by the tracking unit, i.e. poses determined with the tracking unit at reference points before the entry point, the pose determined with the tracking unit at the entry point, poses determined with the tracking unit at reference points after the exit point and he with the tracking unit specific pose at the exit point. The interpolation can basically include using any interpolation method. Interpolating can include linear, quadratic, or cubic interpolation. For example, for the translational component, the linear interpolation can include determining at least one unknown point between two known points, assuming that the unknown point is on a straight line connecting the known points. With linear interpolation, the course of a curve between two known points can be assumed to be a first-order polynomial. Other linear interpolations are also conceivable. For example, a linear interpolation can take place without a geometric reference to a straight line. For example, calculations can be made in polar coordinates instead of in Cartesian coordinates. The quadratic interpolation may include determining at least one unknown point between two known points, assuming a quadratic curve progression between two known points. The shape of the curve between the two known points can be assumed to be a second-order polynomial. The cubic interpolation includes determining at least one unknown point between two known points, assuming a cubic curve progression between two known points. The shape of the curve between the two known points can be assumed to be a third-order polynomial. The compensation can also include an extrapolation. The extrapolation can include determining a behavior of the trajectory beyond a range that can be detected with the tracking unit. During the interpolation, a parameter a can run from 0 to 1 between the two support points. During the extrapolation, this range of values can be extended upwards and/or downwards. An extrapolation can be used in particular if there are support points on only one side. An interpolation can be used if there are reference points on both sides gen. A trajectory of the measurement object can be completely determined following the compensation.

Der Begriff „Trajektorie“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf einen Pfad und/oder eine Bahnkurve beziehen, welche die relative Bewegung des Messobjekts beschreibt. Die Trajektorie kann als mathematische Funktion, auch Kurve genannt, beschrieben werden. Die Trajektorie kann beispielsweise linear verlaufen. Die Trajektorie kann ebenso in beliebiger Kurvenform verlaufen. Die Trajektorie kann insbesondere eine stetige Funktion sein.The term "trajectory" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a path and/or trajectory that describes the relative movement of the measurement object. The trajectory can be described as a mathematical function, also called a curve. The trajectory can be linear, for example. The trajectory can also run in any curve shape. In particular, the trajectory can be a continuous function.

Der Begriff „Stützstelle“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine räumliche Koordinate beziehen, welche zur Bestimmung der Trajektorie verwendet wird. Die Pose des Messobjekts an der Stützstelle kann auch als Stützwert bezeichnet werden. Die Trackingeinheit ist eingerichtet, um an einer Mehrzahl von Stützstellen jeweils eine Pose des Messobjekts zu bestimmen, auch als Primärstütztstellen bezeichnet. Die Trackingeinheit ist eingerichtet, um an dem Eintrittspunkt und dem Austrittspunkt des Sichtschattens jeweils die Pose des Messobjekts zu bestimmen. Die Datenverarbeitungseinheit ist eingerichtet, um mindestens eine Trackingtrajektorie aus der Pose an der jeweiligen Stützstelle zu bestimmen. Der Begriff „Trackingtrajektorie“, auch als Primärtrajektorie bezeichnet, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Trajektorie beziehen, welche Stützstellen berücksichtigt, an welchen die Pose des Messobjekts von der Trackingeinheit bestimmt wurde. Die Trackingeinheit kann eingerichtet sein, um an eine Mehrzahl von Stützstellen vor dem Eintrittspunkt und nach dem Austrittspunkt des Sichtschattens zu bestimmen.The term "support point" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term can refer, without limitation, to a spatial coordinate used to determine the trajectory. The pose of the measurement object at the reference point can also be referred to as the reference value. The tracking unit is set up to determine a pose of the measurement object at a plurality of support points, also referred to as primary support points. The tracking unit is set up to determine the pose of the measurement object at the entry point and the exit point of the visual shadow. The data processing unit is set up to determine at least one tracking trajectory from the pose at the respective support point. The term "tracking trajectory", also referred to as primary trajectory, as used herein, is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to a trajectory which takes into account interpolation points at which the pose of the measurement object was determined by the tracking unit. The tracking unit can be set up to determine a plurality of interpolation points before the entry point and after the exit point of the visual shadow.

Das Sekundärsystem ist eingerichtet, um an einer Mehrzahl von Sekundärstützstellen jeweils die Information über die Position und/oder Orientierung des Messobjekts zu bestimmen. Das Sekundärsystem ist eingerichtet, um an dem Eintrittspunkt und an dem Austrittspunkt die Information über die Position und/oder Orientierung des Messobjekts zu bestimmen. Das Sekundärsystem kann eingerichtet sein, um zwischen dem Eintrittspunkt und dem Austrittspunkt die Information über die Position und/oder Orientierung des Messobjekts zu bestimmen. Die Datenverarbeitungseinheit ist eingerichtet, um mindestens eine Sekundärtrajektorie S unter Berücksichtigung der Sekundärstützstellen zu bestimmen. Der Begriff „Sekundärstützstelle“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine räumliche Koordinate beziehen, welche zur Bestimmung der Sekundärtrajektorie verwendet wird. Der Begriff „Sekundärtrajektorie“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Trajektorie beziehen, welche Stützstellen berücksichtigt, an welchen die Information über die Position und/oder Orientierung des Messobjekts von dem Sekundärsystem bestimmt wurde. Die Sekundärstützstellen können zumindest teilweise innerhalb des Sichtschattens der Trackingeinheit liegen.The secondary system is set up to determine the information about the position and/or orientation of the measurement object at a plurality of secondary interpolation points. The secondary system is set up to determine the information about the position and/or orientation of the measurement object at the entry point and at the exit point. The secondary system can be set up to determine the information about the position and/or orientation of the measurement object between the entry point and the exit point. The data processing unit is set up to determine at least one secondary trajectory S, taking into account the secondary interpolation points. The term "secondary support point" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a spatial coordinate used to determine the secondary trajectory. The term "secondary trajectory" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, relate in particular to a trajectory that takes into account support points at which the information about the position and/or orientation of the measurement object was determined by the secondary system. The secondary support points can lie at least partially within the tracking unit's line of sight.

Aufgrund von Unterbrechungen während der Vermessung des Messobjekts durch die Trackingeinheit kann die tatsächliche Trajektorie des Messobjekts infolge von Sichtschatten teilweise nicht mehr direkt nachvollziehbar sein. Stattdessen können ein oder mehrere Sekundärsysteme Informationen sammeln, mithilfe derer die Trackingtrajektorie interpoliert und/oder extrapoliert wird. So kann eine vermutete Trajektorie, die Sekundärtrajektorie, ermittelt werden. Durch die Fehlerfortpflanzung bei Sekundärsystemen mit relativ messenden Systemen oder absolut messenden Systemen mit geringerer Genauigkeit kann sich eine vermutete Trajektorie lokal und/oder global von der tatsächlichen Trajektorie entfernen und/oder von dieser abweichen. Nach einem Austritt aus und potentiell auch bei einem Eintritt in den Sichtschatten kann so eine C0-Unstetigkeitsstelle entstehen. An der C0-Unstetigkeitsstelle kann die Trajektorie nicht einfach stetig differenzierbar sein. Die Datenverarbeitungseinheit ist eingerichtet, um die Sekundärtrajektorie S an die Trackingtrajektorie anzupassen. Der Begriff „anpassen“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Modifikation der Sekundärtrajektorie beziehen. Das Anpassen der Sekundärtrajektorie kann derart erfolgen, dass an den Eintritts- und/oder Austrittspunkten mindestens eine C0-Stetigkeit vorliegt, bevorzugt eine C1-Stetigkeit vorliegt, und besonders bevorzugt eine C2-Stetigkeit vorliegt. Das Anpassen der Sekundärtrajektorie kann derart erfolgen, dass die Fehlerfortpflanzung minimal ist, so dass beide Trajektorien möglichst gut zur Deckung kommen. Beide Forderungen können sowohl in Bezug auf den Ort und auf die Orientierung des Messobjekts beziehen.Due to interruptions during the measurement of the measurement object by the tracking unit, the actual trajectory of the measurement object can sometimes no longer be directly traceable as a result of visual shadows. Instead, one or more secondary systems can collect information that is used to interpolate and/or extrapolate the tracking trajectory. A presumed trajectory, the secondary trajectory, can thus be determined. Due to the error propagation in secondary systems with systems that measure relatively or systems that measure absolutely with less accuracy, a suspected trajectory can deviate locally and/or globally from the actual trajectory and/or deviate from it. A C 0 point of discontinuity can thus arise after an exit from and potentially also when entering the visual shadow. At the C 0 point of discontinuity, the trajectory cannot simply be continuously differentiable. The data processing unit is set up to adapt the secondary trajectory S to the tracking trajectory. The term "customize" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term can refer, without limitation, to a modification of the secondary trajectory. Adjusting the secondary trajectory can take place in such a way that at the entry and/or exit points there is at least C 0 continuity, preferably C 1 continuity, and particularly preferably C 2 continuity. The secondary trajectory can be adapted in such a way that the error propagation is minimal, so that both trajectories coincide as well as possible. Both requirements can relate both to the location and to the orientation of the measurement object.

Die Trackingtrajektorie und die Sekundärtrajektorie können eine Folge affiner Transformationen über ihre jeweiligen Bogenlängen beschreiben. Insbesondere können die Trackingtrajektorie und die Sekundärtrajektorie eine Folge euklidischer Transformation beschreiben, es werden insbesondere keine Scherungen betrachtet und also auch Winkeltreue eingefordert. Das Messobjekt, beziehungsweise der Messkopf, kann als starrer Körper betrachten werden. Der Begriff „Bogenlänge“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine geometrische Länge einer Kurve beziehen. Der Begriff „affine Transformation“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine strukturerhaltende Abbildung beziehen, welche Kollinearität, Parallelität und Teilverhältnisse wahrt. Die affine Transformation kann Translationen und/oder Rotationen umfassen. Die affinen Transformationen können in ihre translatorischen und rotatorische Anteile zerlegt werden. Der translatorische Anteil kann mit Vektoralgebra beschrieben werden. Der rotatorische Anteil kann mit Quaternionenalgebra beschrieben werden. Auch andere Notationsformen sind jedoch denkbar. Im Folgenden wird aus Gründen der Lesbarkeit für eine Hintereinanderausführung von Transformationen die Matrixschreibweise verwendet. Die Transformationen aus dem Koordinatensystem der Trackingeinheit an dem Eintrittspunkt und dem Austrittspunkt können mit E und A bezeichnet werden. Die Sekundärtrajektorie S kann nach dem Parameter x bogenlängenparametrisiert sein: S(x): 0 ≤ x ≤ 1. S(x=0), oder kurz S(0), kann sich auf die Sekundärtrajektorie am Eintrittspunkt beziehen. S(x=1), oder kurz S(1), kann sich auf die Sekundärtrajektorie am Austrittspunkt beziehen. Differenztransformationen D der Trackingtrajektorie und der Sekundärtrajektorie können demnach D 0 = E S ( 0 ) 1

Figure DE102020204677B4_0001
und D 1 = A S ( 1 ) 1
Figure DE102020204677B4_0002
sein. Die Differenztransformationen können Transformationen der bogenlängenparametrisierten Sekundärtrajektorie am Eintritts- und Austrittspunkt in Transformationen der Trackingtrajektorie überführen. Das Anpassen der Sekundärtrajektorie S(x) = ST(x) · SR(x) an die Trackingtrajektorie kann durch eine lineare Interpolation erfolgen, beispielsweise mit: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
Figure DE102020204677B4_0003
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0004
wobei sich ST(x) und SR(x) translatorische und rotatorische Anteile der Sekundärtrajektorie, D1,T ein translatorischer Anteil der Differenztransformation D1, D1,R ein rotatorischer Anteil der Differenztransformation D1, D0,T ein translatorischer der Differenztransformation D0, und D0,R ein rotatorischer Anteil der Differenztransformation D0 ist.The tracking trajectory and the secondary trajectory can describe a sequence of affine transformations over their respective arc lengths. In particular, the tracking trajectory and the secondary trajectory can describe a sequence of Euclidean transformations; in particular, no shearing is considered and therefore angular fidelity is also required. The object to be measured, or the measuring head, can be viewed as a rigid body. The term "arc length" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term may refer specifically, without limitation, to a geometrical length of a curve. The term "affine transformation" as used herein is a broad term which should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a structure-preserving mapping that preserves collinearity, parallelism, and part ratios. The affine transformation can include translations and/or rotations. The affine transformations can be broken down into their translational and rotational parts. The translational part can be described with vector algebra. The rotational part can be described with quaternion algebra. However, other forms of notation are also conceivable. In the following, for reasons of readability, matrix notation is used for executing transformations one after the other. The transformations from the coordinate system of the tracking unit at the entry point and the exit point can be denoted by E and A. The secondary trajectory S can be parameterized according to the parameter x arc length: S(x): 0 ≤ x ≤ 1. S(x=0), or S(0) for short, can refer to the secondary trajectory at the entry point. S(x=1), or S(1) for short, may refer to the secondary trajectory at the exit point. Difference transformations D of the tracking trajectory and the secondary trajectory can accordingly D 0 = E S ( 0 ) 1
Figure DE102020204677B4_0001
and D 1 = A S ( 1 ) 1
Figure DE102020204677B4_0002
be. The difference transformations can convert transformations of the arc length parameterized secondary trajectory at the entry and exit points into transformations of the tracking trajectory. The secondary trajectory S(x) = S T (x) · S R (x) can be adapted to the tracking trajectory by linear interpolation, for example with: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
Figure DE102020204677B4_0003
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0004
where S T (x) and S R (x) translational and rotational components of the secondary trajectory, D 1,T a translational component of the differential transformation D 1 , D 1,R a rotational component of the differential transformation D 1 , D 0,T a translatory of the differential transformation D 0 , and D 0,R is a rotational component of the differential transformation D 0 .

Die Anpassung des translatorischen Anteils der Sekundärtrajektorie kann zu einer C0-Stetigkeit bei S(0) und S(1) führen. Die Anpassung des rotatorischen Anteils kann zu einer C0-Stetigkeit bei S(0) und S(1) führen. Stetigkeiten höherer Ordnung können mittels quadratischer oder kubischer statt linearer Interpolationen der translatorischen und der rotatorischen Anteile der zugehörigen Transformationen erreicht werden. Um eine C1-Stetigkeit zu erreichen, kann beispielswiese mindestens eine quadratische Interpolation und entsprechend mehr Stützstellen an den Sichtschattenrändern betrachten werden.Adjusting the translational part of the secondary trajectory can lead to C 0 continuity at S(0) and S(1). The adaptation of the rotary part can lead to a C 0 continuity at S(0) and S(1). Higher-order continuity can be achieved by means of quadratic or cubic instead of linear interpolations of the translational and rotational components of the associated transformations. In order to achieve C1 continuity, for example, at least one quadratic interpolation and correspondingly more support points at the edges of the visual shadow can be considered.

Das Trackingsystem kann mindestens eine Steuerung umfassen. Die Steuerung kann eingerichtet sein, um mindestens eine Komponente der Trackingeinheit anzusteuern. Die Steuerung kann weiter eingerichtet sein, um mindestens eine Komponente des Sekundärsystems anzusteuern. Die Steuerung kann insbesondere dazu eingerichtet sein, um mindestens eine Komponente des Sekundärsystems derart anzusteuern, dass das Sekundärsystem das Messobjekt mindestens in dem Sichtschatten der Trackingeinheit nachverfolgt. Die Steuerung kann mindestens eine Datenverarbeitungsvorrichtung umfassen, beispielsweise mindestens einen Computer oder mindestens einen Mikrocontroller. Die Datenverarbeitungsvorrichtung kann einen oder mehrere flüchtige und/oder nichtflüchtige Datenspeicher aufweisen, wobei die Datenverarbeitungsvorrichtung beispielsweise programmtechnisch eingerichtet sein kann, um die Trackingeinheit und das Sekundärsystem anzusteuern. Die Steuerung kann weiterhin mindestens eine Schnittstelle umfassen, beispielsweise eine elektronische Schnittstelle und/oder eine Mensch-Maschine-Schnittstelle wie beispielsweise eine Eingabe-/Ausgabe-Vorrichtung wie ein Display und/oder eine Tastatur. Beispielsweise können eine oder mehrere elektronische Verbindungen zwischen der Trackingeinheit und der Steuerung und dem Sekundärsystem und der Steuerung vorgesehen sein. Die Steuerung kann beispielsweise zentral oder auch dezentral aufgebaut sein. Auch andere Ausgestaltungen sind denkbar.The tracking system can include at least one controller. The controller can be set up to control at least one component of the tracking unit. The controller can also be set up to control at least one component of the secondary system. In particular, the controller can be set up to control at least one component of the secondary system in such a way that the secondary system tracks the measurement object at least in the visual shadow of the tracking unit. The controller can include at least one data processing device, for example at least one computer or at least one microcontroller. The data processing device can have one or more volatile and/or non-volatile data memories, it being possible for the data processing device to be set up in terms of programming, for example, to control the tracking unit and the secondary system. The controller can also include at least one interface, for example an electronic interface and/or a man-machine interface such as for example an input/output device such as a display and/or a keyboard. For example, one or more electronic connections can be provided between the tracking unit and the controller and the secondary system and the controller. The controller can, for example, have a centralized or decentralized structure. Other configurations are also conceivable.

In einem weiteren Aspekt der vorliegenden Erfindung wird ein Computerprogramm bzw. ein computerimplementiertes Verfahren zur automatischen Kompensation von mindestens einer Datenlücke bei der Nachverfolgung mindestens eines Messobjekts vorgeschlagen.A further aspect of the present invention proposes a computer program or a computer-implemented method for automatically compensating for at least one data gap when tracking at least one measurement object.

Der Begriff „computerimplementiert“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Verfahren beziehen, welches mindestens einen Computer und/oder mindestens ein Computer-Netzwerk involviert. Der Computer und/oder das Computer-Netzwerk können mindestens einen Prozessor umfassen, wobei der Prozessor dazu eingerichtet ist mindestens einen Verfahrensschritt des computerimplementierten Verfahrens der Erfindung durchzuführen. Bevorzugt wird jeder der Verfahrensschritte jeweils von dem Computer und/oder dem Computer-Netzwerk durchgeführt.The term "computer-implemented," as used herein, is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. In particular, the term may refer, without limitation, to a method involving at least one computer and/or at least one computer network. The computer and/or the computer network can comprise at least one processor, the processor being set up to carry out at least one method step of the computer-implemented method of the invention. Each of the method steps is preferably carried out by the computer and/or the computer network.

Das Verfahren kann automatisch und im Speziellen ohne Benutzerinteraktion durchgeführt werden. Der Begriff „automatisch“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf einen Prozess beziehen, welcher vollständig durch einen Computer und/oder ein Computer-Netzwerk und/oder eine Maschine insbesondere ohne Benutzerinteraktion und/oder manuelles Eingreifen durchgeführt wird. Eine Benutzerinteraktion kann erforderlich sein, um den Prozess und/oder einzelne Prozessschritte einzuleiten. Die Benutzerinteraktion kann das Auswählen von mindestens einem Datensatz und/oder das Eingeben mindestens eines Befehls umfassen.The method can be carried out automatically and in particular without user interaction. The term "automatic" as used herein is a broad term that should be given its ordinary and current meaning as understood by those skilled in the art. The term is not limited to any specific or adapted meaning. The term can, without limitation, refer in particular to a process that is performed entirely by a computer and/or a computer network and/or a machine, in particular without user interaction and/or manual intervention. User interaction may be required to initiate the process and/or individual process steps. The user interaction may include selecting at least one record and/or entering at least one command.

In dem Verfahren wird ein erfindungsgemäßes Trackingsystem in einer seiner Ausgestaltungen verwendet. Für Definitionen und Ausgestaltungen des Verfahrens kann auf Definitionen und Ausgestaltungen des Trackingsystems verwiesen werden.In the method, a tracking system according to the invention is used in one of its configurations. For definitions and configurations of the method, reference can be made to definitions and configurations of the tracking system.

Das computerimplementierte Verfahren zur automatischen Kompensation von mindestens einer Datenlücke bei der Vermessung mindestens eines Messobjekts umfasst folgende Schritte, welche, als Beispiel, in der folgenden Reihenfolge durchgeführt werden können. Weiterhin ist es möglich einen oder mehrere der Verfahrensschritte einmalig oder mehrmalig in wiederholender Form durchzuführen. Das Verfahren kann zudem weitere Verfahrensschritte umfassen, welche nicht aufgelistet sind. Weiterhin ist es möglich zwei oder mehr der Verfahrensschritte simultan oder zumindest mit zeitlichem Überlapp durchzuführen.

  1. a. Nachverfolgen einer Bewegung des Messobjektes relativ zu mindestens einer Trackingeinheit;
  2. b. Bestimmen und/oder Bereitstellen mindestens einer Information über eine Position und/oder Orientierung des Messobjekts im Raum in mindestens einem Sichtschatten der Trackingeinheit mit mindestens einem Sekundärsystem;
  3. c. Kompensieren mindestens einer durch den Sichtschatten entstandenen Datenlücke bei der Nachverfolgung des Messobjekts unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts mit mindestens einer Datenverarbeitungseinheit, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts umfasst.
The computer-implemented method for automatically compensating for at least one data gap when measuring at least one measurement object comprises the following steps, which, as an example, can be carried out in the following order. It is also possible to carry out one or more of the process steps once or several times in a repetitive manner. The method can also include further method steps that are not listed. Furthermore, it is possible to carry out two or more of the method steps simultaneously or at least with a time overlap.
  1. a. tracking a movement of the measurement object relative to at least one tracking unit;
  2. b. determining and/or providing at least one piece of information about a position and/or orientation of the measurement object in space in at least one visual shadow of the tracking unit with at least one secondary system;
  3. c. Compensating for at least one data gap caused by the visual shadow when tracking the measurement object, taking into account the information determined by the secondary system about the position and/or orientation of the measurement object with at least one data processing unit, the compensation involving an interpolation and/or extrapolation of data recorded by the tracking unit taking into account the information determined by the secondary system about the position and/or orientation of the measurement object.

Ferner wird im Rahmen der vorliegenden Erfindung ein Computerprogramm vorgeschlagen, das bei Ablauf auf einem Computer oder Computer-Netzwerk das Verfahren, gemäß der vorliegenden Beschreibung, in einer seiner Ausgestaltungen ausführt.Furthermore, within the scope of the present invention, a computer program is proposed which, when run on a computer or computer network, executes the method according to the present description in one of its configurations.

Weiterhin wird im Rahmen der vorliegenden Erfindung ein Computerprogramm mit Programmcode-Mitteln vorgeschlagen, um das Verfahren, gemäß der vorliegenden Beschreibung, in einer seiner Ausgestaltungen durchzuführen, wenn das Programm auf einem Computer oder Computer-Netzwerk ausgeführt wird. Insbesondere können die Programmcode-Mittel auf einem computerlesbaren Datenträger und/oder einem computerlesbaren Speichermedium gespeichert sein.Furthermore, within the scope of the present invention, a computer program with program code means is proposed in order to carry out the method, according to the present description, in one of its configurations when the program is run on a computer or computer network. In particular, the program code means can be stored on a computer-readable data carrier and/or a computer-readable storage medium.

Der Begriff „computerlesbarer Datenträger“ und „computerlesbares Speichermedium“, wie sie hier verwendet werden, können sich insbesondere auf nicht-transitorische Datenspeicher beziehen, beispielsweise ein Hardware-Datenspeichermedium, auf welchem computer-ausführbare Instruktionen gespeichert sind. Der computerlesbare Datenträger oder das computerlesbare Speichermedium können insbesondere ein Speichermedium wie ein Random-Access Memory (RAM) und/oder ein Read-Only Memory (ROM) sein oder umfassen.The terms "computer-readable data medium" and "computer-readable storage medium" as used herein can refer in particular to non-transitory data storage, for example a hardware data storage medium, on which computer-executable instructions are stored are saved. The computer-readable data carrier or the computer-readable storage medium can in particular be or include a storage medium such as a random access memory (RAM) and/or a read-only memory (ROM).

Außerdem wird im Rahmen der vorliegenden Erfindung ein Datenträger vorgeschlagen, auf dem eine Datenstruktur gespeichert ist, die nach einem Laden in einen Arbeits- und/oder Hauptspeicher eines Computers oder Computer-Netzwerkes das Verfahren, gemäß der vorliegenden Beschreibung, in einer seiner Ausgestaltungen durchzuführen.In addition, the present invention proposes a data carrier on which a data structure is stored which, after loading into a working and/or main memory of a computer or computer network, can be used to carry out the method according to the present description in one of its configurations.

Auch wird im Rahmen der vorliegenden Erfindung ein Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln vorgeschlagen, um das Verfahren, gemäß der vorliegenden Beschreibung, in einer seiner Ausgestaltungen durchzuführen, wenn das Programm auf einem Computer oder Computer-Netzwerk ausgeführt wird.The present invention also proposes a computer program product with program code means stored on a machine-readable carrier in order to carry out the method according to the present description in one of its configurations when the program is run on a computer or computer network.

Dabei wird unter einem Computer-Programmprodukt das Programm als handelbares Produkt verstanden. Es kann grundsätzlich in beliebiger Form vorliegen, so zum Beispiel auf Papier oder einem computerlesbaren Datenträger und kann insbesondere über ein Datenübertragungsnetz verteilt werden.A computer program product is understood as the program as a tradable product. In principle, it can be in any form, for example on paper or on a computer-readable data medium, and can be distributed in particular via a data transmission network.

Schließlich wird ein moduliertes Datensignal vorgeschlagen, welches von einem Computersystem oder Computernetzwerk ausführbare Instruktionen zum Ausführen eines Verfahrens, gemäß der vorliegenden Beschreibung, enthält. Im Hinblick auf die computer-implementierten Aspekte der Erfindung können einer, mehrere oder sogar alle Verfahrensschritte des Verfahrens gemäß einer oder mehreren der hier vorgeschlagenen Ausgestaltungen mittels eines Computers oder Computer-Netzwerks durchgeführt werden. Somit können, allgemein, jegliche der Verfahrensschritte, einschließlich der Bereitstellung und/oder Manipulation von Daten mittels eines Computers oder Computer-Netzwerks durchgeführt werden. Allgemein können diese Schritte jegliche der Verfahrensschritte umfassen, ausgenommen der Schritte, welche manuelle Arbeit erfordern, beispielsweise das Eingeben von Befehlen durch den Benutzer.Finally, a modulated data signal is proposed which contains instructions executable by a computer system or computer network for carrying out a method according to the present description. With regard to the computer-implemented aspects of the invention, one, several or even all method steps of the method according to one or more of the configurations proposed here can be carried out by means of a computer or computer network. Thus, in general, any of the method steps including the provision and/or manipulation of data can be performed using a computer or computer network. In general, these steps may include any of the method steps, excluding steps that require manual work, such as user input of commands.

Die vorgeschlagenen Vorrichtungen und Verfahren weisen zahlreiche Vorteile gegenüber bekannten Vorrichtungen und Verfahren auf. Es können Posen auch dann mit hoher Genauigkeit ermittelt werden, wenn die Trackingeinheit keine Daten liefert. Anforderungen an die Genauigkeit des Sekundärsystems können niedrig sein. Es muss weder absolut messend sein, noch maßhaltig. Die Fehlerfortpflanzung kann jeweils auf die Hälfte der Bogenlänge der vermuteten Trajektorie beschränkt sein. Bei bekannten und weitgehend konstanten Systemeigenschaften kann a priori relativ genau berechnet werden, unter welchen Bedingungen die Orts- und/oder Orientierungsgenauigkeit noch unterhalb einer spezifizierten Fehlerschranke liegt, beispielsweise eine Länge und Dauer der Verdeckung.The proposed devices and methods have numerous advantages over known devices and methods. Poses can also be determined with a high degree of accuracy when the tracking unit is not supplying any data. Secondary system accuracy requirements can be low. It does not have to be absolutely measuring, nor true to size. The error propagation can be limited to half the arc length of the suspected trajectory. If the system properties are known and largely constant, it can be calculated relatively precisely a priori under which conditions the location and/or orientation accuracy is still below a specified error limit, for example a length and duration of the occlusion.

Zusammenfassend werden, ohne Beschränkung weiterer möglicher Ausgestaltungen, folgende Ausführungsformen vorgeschlagen:

  • Ausführungsform 1: Trackingsystem umfassend mindestens eine Trackingeinheit, welche eingerichtet ist, eine Bewegung mindestens eines Messobjekts relativ zu der Trackingeinheit nachzuverfolgen, wobei das Trackingsystem mindestens ein Sekundärsystem umfasst, wobei das Sekundärsystem eingerichtet ist, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts im Raum in mindestens einem Sichtschatten der Trackingeinheit zu bestimmen, wobei das Trackingsystem mindestens eine Datenverarbeitungseinheit umfasst, wobei die Datenverarbeitungseinheit eingerichtet ist, um mindestens eine durch den Sichtschatten entstandene Datenlücke bei der Nachverfolgung des Messobjekts unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts zu kompensieren, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts umfasst.
  • Ausführungsform 2: Trackingsystem nach der vorhergehenden Ausführungsform, wobei die Trackingeinheit mindestens ein optisches Messsystem aufweist, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lasertracker; mindestens einem Triangulationssystem umfassend mindestens drei Zeilenkameras; mindestens einem Multilaterationssystem, beispielsweise mindestens einem Triangulationssystem nach dem Stereo-Vision-Verfahren umfassend mindestens zwei Flächenkameras; mindestens einem Trilaterationssystem umfassend mindestens drei LiDAR-Kanäle; mindestens einer monokularen Flächenkamera.
  • Ausführungsform 3: Trackingsystem nach einer der vorhergehenden Ausführungsformen, wobei das Sekundärsystem mindestens ein positionsgebendes System aufweist, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lagesensor; mindestens einem Inertialsensor im oder am nachzuverfolgenden Messobjekt; mindestens einem Achs-Encoder einer Trägerkinematik; mindestens einer Flächenkamera; mindestens einem absolut messenden System.
  • Ausführungsform 4: Trackingsystem nach einer der vorhergehenden Ausführungsformen, wobei die Trackingeinheit eingerichtet ist, um an einer Mehrzahl von Stützstellen jeweils eine Pose des Messobjekts zu bestimmen, wobei die Trackingeinheit eingerichtet ist, um an einem Eintrittspunkt und einem Austrittspunkt des Sichtschattens jeweils eine Pose des Messobjekts zu bestimmen, wobei die Datenverarbeitungseinheit eingerichtet ist, um mindestens eine Trackingtrajektorie aus den Posen an der jeweiligen Stützstelle zu bestimmen.
  • Ausführungsform 5: Trackingsystem nach der vorhergehenden Ausführungsform, wobei die Trackingeinheit eingerichtet ist, um an einer Mehrzahl von Stützstellen vor dem Eintrittspunkt und nach dem Austrittspunkt des Sichtschattens jeweils eine Pose des Messobjekts zu bestimmen.
  • Ausführungsform 6: Trackingsystem nach einer der zwei vorhergehenden Ausführungsformen, wobei das Sekundärsystem eingerichtet ist, um an einer Mehrzahl von Sekundärstützstellen jeweils die Information über die Position und/oder Orientierung des Messobjekts zu bestimmen, wobei das Sekundärsystem eingerichtet ist, um an dem Eintrittspunkt, zwischen dem Eintrittspunkt und dem Austrittspunkt und an dem Austrittspunkt die Information über die Position und/oder Orientierung des Messobjekts zu bestimmen, wobei die Datenverarbeitungseinheit eingerichtet ist, um mindestens eine Sekundärtrajektorie S unter Berücksichtigung der Sekundärstützstellen zu bestimmen.
  • Ausführungsform 7: Trackingsystem nach der vorhergehenden Ausführungsform, wobei die Datenverarbeitungseinheit eingerichtet ist, um die Sekundärtrajektorie S an die Trackingtrajektorie anzupassen.
  • Ausführungsform 8: Trackingsystem nach der vorhergehenden Ausführungsform, wobei die Sekundärtrajektorie S nach einem Parameter x bogenlängenparametrisiert ist: S(x): 0 ≤ x ≤ 1, wobei die das Anpassen der Sekundärtrajektorie S(x) = ST(x) · SR(x) an die Trackingtrajektorie durch eine lineare Interpolation erfolgt mit: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
    Figure DE102020204677B4_0005
    S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
    Figure DE102020204677B4_0006
    wobei ST(x) und SR(x) translatorische und rotatorische Anteile der Sekundärtrajektorie ist, wobei D1,T ein translatorischer Anteil einer Differenztransformation D1 = A · S(1)-1 ist, mit einer Transformation des Austrittspunkt A aus einem Koordinatensystem der Trackingeinheit, und D1,R ein rotatorischer Anteil der Differenztransformation D1 ist, wobei D0,T ein translatorischer einer Differenztransformation D0 = E · S(0)-1 ist, mit einer Transformation des Eintrittspunktes E aus dem Koordinatensystem der Trackingeinheit und D0,R ein rotatorischer Anteil der Differenztransformation D0 ist.
  • Ausführungsform 9: Trackingsystem nach einer der vorhergehenden Ausführungsformen, wobei das Trackingsystem mindestens eine Steuerung umfasst, welche dazu eingerichtet ist, mindestens eine Komponente der Trackingeinheit anzusteuern, wobei die Steuerung eingerichtet ist mindestens eine Komponente des Sekundärsystems anzusteuern.
  • Ausführungsform 10: Computerimplementiertes Verfahren zur automatischen Kompensation von mindestens einer Datenlücke bei einer Nachverfolgung mindestens eines Messobjekts, wobei in dem Verfahren ein Trackingsystem nach einer der vorhergehenden, ein Trackingsystem betreffenden Ausführungsformen verwendet wird, wobei das Verfahren folgende Schritte umfasst:
    1. a. Nachverfolgen einer Bewegung des Messobjektes relativ zu mindestens einer Trackingeinheit;
    2. b. Bestimmen und/oder Bereitstellen mindestens einer Information über eine Position und/oder Orientierung des Messobjekts im Raum in mindestens einem Sichtschatten der Trackingeinheit mit mindestens einem Sekundärsystem;
    3. c. Kompensieren mindestens einer durch den Sichtschatten entstandenen Datenlücke bei der Nachverfolgung des Messobjekts unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts mit mindestens einer Datenverarbeitungseinheit, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem bestimmten Information über die Position und/oder Orientierung des Messobjekts umfasst.
  • Ausführungsform 11: Computerprogramm, welches bei Ablauf auf einem Computer oder Computernetzwerk ein Verfahren zur automatischen Kompensation von Datenlücken nach einer der vorhergehenden, ein Verfahren betreffenden Ausführungsformen, insbesondere die Verfahrensschritte a. bis c., in einer seiner Ausgestaltungen ausführt.
  • Ausführungsform 12: Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um ein Verfahren zur automatischen Kompensation von Datenlücken nach einer der vorhergehenden, ein Verfahren betreffenden Ausführungsformen, in einer seiner Ausgestaltungen, durchzuführen, wenn das Programm auf einem Computer oder Computer-Netzwerk ausgeführt wird.
In summary, the following embodiments are proposed without restricting further possible configurations:
  • Embodiment 1: Tracking system comprising at least one tracking unit which is set up to track a movement of at least one measurement object relative to the tracking unit, the tracking system comprising at least one secondary system, the secondary system being set up to record at least one piece of information about a position and/or orientation of the to determine the measurement object in space in at least one visual shadow of the tracking unit, the tracking system comprising at least one data processing unit, the data processing unit being set up to detect at least one data gap caused by the visual shadow when tracking the measurement object, taking into account the information about the position determined by the secondary system and/or to compensate for the orientation of the measurement object, wherein the compensation comprises an interpolation and/or extrapolation of data recorded by the tracking unit, taking into account the information about the position and/or orientation of the measurement object determined by the secondary system.
  • Embodiment 2 Tracking system according to the preceding embodiment, wherein the tracking unit has at least one optical measuring system selected from the group consisting of: at least one laser tracker; at least one triangulation system comprising at least three line scan cameras; at least one multilateration system, for example at least one triangulation system using the stereo vision method, comprising at least two area cameras; at least one trilateration system comprising at least three LiDAR channels; at least one monocular area camera.
  • Embodiment 3: tracking system according to one of the preceding embodiments, wherein the secondary system has at least one position-giving system selected from the group consisting of: at least one position sensor; at least one inertial sensor in or on the measurement object to be tracked; at least one axis encoder of a carrier kinematics; at least one area camera; at least one absolute measuring system.
  • Embodiment 4: Tracking system according to one of the preceding embodiments, wherein the tracking unit is set up to determine a pose of the measurement object at a plurality of support points, the tracking unit being set up to determine a pose of the measurement object at an entry point and an exit point of the visual shadow to determine, wherein the data processing unit is set up to determine at least one tracking trajectory from the poses at the respective support point.
  • Embodiment 5 tracking system according to the previous embodiment, wherein the tracking unit is set up to determine a pose of the measurement object at a plurality of interpolation points before the entry point and after the exit point of the visual shadow.
  • Embodiment 6: Tracking system according to one of the two preceding embodiments, wherein the secondary system is set up to determine the information about the position and/or orientation of the measurement object at a plurality of secondary reference points, the secondary system being set up to, at the entry point, between to determine the entry point and the exit point and at the exit point the information about the position and/or orientation of the measurement object, the data processing unit being set up to determine at least one secondary trajectory S taking into account the secondary interpolation points.
  • Embodiment 7 tracking system according to the previous embodiment, wherein the data processing unit is set up to adapt the secondary trajectory S to the tracking trajectory.
  • Embodiment 8: Tracking system according to the previous embodiment, wherein the secondary trajectory S is arc length parameterized according to a parameter x: S(x): 0 ≤ x ≤ 1, wherein the adaptation of the secondary trajectory S(x) = S T (x) S R (x) to the tracking trajectory by a linear interpolation is done with: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
    Figure DE102020204677B4_0005
    S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
    Figure DE102020204677B4_0006
    where S T (x) and S R (x) are translational and rotational parts of the secondary trajectory, where D 1,T is a translational part of a difference transformation D 1 = A · S(1) -1 , with a transformation of the exit point A from a coordinate system of the tracking unit, and D 1,R is a rotational part of the difference transformation D 1 , where D 0,T is a translational part of a difference transformation D 0 = E · S(0) -1 , with a transformation of the entry point E from the coordinate system of the tracking unit and D 0,R is a rotational component of the differential transformation D 0 .
  • Embodiment 9 tracking system according to one of the preceding embodiments, wherein the tracking system comprises at least one controller which is set up to control at least one component of the tracking unit, the controller being set up to control at least one component of the secondary system.
  • Embodiment 10: Computer-implemented method for automatically compensating for at least one data gap when tracking at least one measurement object, wherein a tracking system according to one of the preceding embodiments relating to a tracking system is used in the method, the method comprising the following steps:
    1. a. tracking a movement of the measurement object relative to at least one tracking unit;
    2. b. determining and/or providing at least one piece of information about a position and/or orientation of the measurement object in space in at least one visual shadow of the tracking unit with at least one secondary system;
    3. c. Compensating for at least one data gap caused by the visual shadow when tracking the measurement object, taking into account the information determined by the secondary system about the position and/or orientation of the measurement object with at least one data processing unit, the compensation involving an interpolation and/or extrapolation of data recorded by the tracking unit taking into account the information determined by the secondary system about the position and/or orientation of the measurement object.
  • Embodiment 11: Computer program which, when running on a computer or computer network, implements a method for automatically compensating for data gaps according to one of the preceding embodiments relating to a method, in particular method steps a. to c., in one of its configurations.
  • Embodiment 12 Computer program product on a machine-readable carrier stored program code means to carry out a method for the automatic compensation of data gaps according to one of the preceding embodiments relating to a method, in one of its refinements, when the program is executed on a computer or computer network.

Figurenlistecharacter list

Weitere Einzelheiten und Merkmale ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen, insbesondere in Verbindung mit den Unteransprüchen. Hierbei können die jeweiligen Merkmale für sich alleine oder zu mehreren in Kombination miteinander verwirklicht sein. Die Erfindung ist nicht auf die Ausführungsbeispiele beschränkt. Die Ausführungsbeispiele sind in den Figuren schematisch dargestellt. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche oder funktionsgleiche bzw. hinsichtlich ihrer Funktionen einander entsprechende Elemente.Further details and features emerge from the following description of exemplary embodiments, in particular in connection with the dependent claims. The respective features can be implemented individually or in combination with one another. The invention is not limited to the exemplary embodiments. The exemplary embodiments are shown schematically in the figures. The same reference numerals in the individual figures designate elements that are the same or have the same function or that correspond to one another in terms of their functions.

Im Einzelnen zeigen:

  • 1 ein Ausführungsbeispiel für ein erfindungsgemäßes Trackingsystem;
  • 2 eine schematische Darstellung einer Unterbrechung der Sichtverbindung bei einer Nachverfolgung eines Messobjekts mit einer Trackingeinheit;
  • 3 ein Ausführungsbeispiel einer Anpassung der Sekundärtrajektorie S an die Trackingtrajektorie; und
  • 4 ein Flussdiagramm eines Ausführungsbeispiels des Verfahrens.
Show in detail:
  • 1 an embodiment of a tracking system according to the invention;
  • 2 a schematic representation of an interruption of the line of sight when tracking a measurement object with a tracking unit;
  • 3 an exemplary embodiment of an adaptation of the secondary trajectory S to the tracking trajectory; and
  • 4 a flowchart of an embodiment of the method.

Beschreibung der AusführungsbeispieleDescription of the exemplary embodiments

1 zeigt ein Ausführungsbeispiel für ein erfindungsgemäßes Trackingsystem 110. Das Trackingsystem 110 kann mindestens eine Vorrichtung zum Nachverfolgen mindestens eines Messobjekts 112 umfassen. Das Trackingsystem 110 kann eine Mehrzahl von Komponenten oder Elementen umfassen, welche zumindest teilweise zusammenwirken, um mindestens eine Funktion zu erfüllen. Das Messobjekt 112 kann ein beliebig geformtes zu vermessendes Objekt umfassen. Beispielsweise kann das Messobjekt 112 ausgewählt sein aus der Gruppe bestehend aus einem Prüfling, einem Werkstück, einem zu vermessenden Bauteil, und einem Messkopf eines Sensors. Das Messobjekt 112 kann mindestens einen Marker und/oder Retroreflektor aufweisen. 1 12 shows an exemplary embodiment of a tracking system 110 according to the invention. The tracking system 110 can include at least one device for tracking at least one measurement object 112. Tracking system 110 may include a plurality of components or elements that cooperate at least in part to perform at least one function. The measurement object 112 can include an arbitrarily shaped object to be measured. For example, the measurement object 112 can be selected from the group consisting of a test piece, a workpiece, a component to be measured, and a measuring head of a sensor. The measurement object 112 can have at least one marker and/or retroreflector.

Das Trackingsystem 110 umfasst mindestens eine Trackingeinheit 114, welche eingerichtet ist eine Bewegung mindestens eines Messobjekts 112 relativ zu der Trackingeinheit 114 nachzuverfolgen. Das Trackingsystem 110 umfasst mindestens ein Sekundärsystem 116. Das Sekundärsystem 116 ist eingerichtet, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts 112 im Raum in mindestens einem Sichtschatten 118 der Trackingeinheit 114 zu bestimmen. Das Trackingsystem 110 umfasst mindestens eine Datenverarbeitungseinheit 120. Die Datenverarbeitungseinheit 120 ist eingerichtet, um mindestens eine durch den Sichtschatten 118 entstandene Datenlücke bei der Nachverfolgung des Messobjekts 112 unter Berücksichtigung der von dem Sekundärsystem 116 bestimmten Information über die Position und/oder Orientierung des Messobjekts 112 zu kompensieren. Das Kompensieren umfasst ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit 114 aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem 116 bestimmten Information über die Position und/oder Orientierung des Messobjekts 112.The tracking system 110 includes at least one tracking unit 114, which is set up to track a movement of at least one measurement object 112 relative to the tracking unit 114. Tracking system 110 includes at least one secondary system 116. Secondary system 116 is set up to determine at least one piece of information about a position and/or orientation of measurement object 112 in space in at least one visual shadow 118 of tracking unit 114. Tracking system 110 includes at least one data processing unit 120. Data processing unit 120 is set up to close at least one data gap caused by visual shadow 118 when tracking measurement object 112, taking into account the information determined by secondary system 116 about the position and/or orientation of measurement object 112 compensate. Compensation includes interpolating and/or extrapolating data recorded by tracking unit 114, taking into account the information about the position and/or orientation of measurement object 112 determined by secondary system 116.

Die Trackingeinheit 114 kann eine optische Vorrichtung umfassen, welche eingerichtet ist, eine Bewegung des Messobjekts 112 relativ zu der Trackingeinheit 114 nachzuverfolgen. Die Trackingeinheit 114 kann mindestens ein optisches Messsystem umfassen. Die Trackingeinheit 114 kann eingerichtet sein zur Abstandsmessung, auch als Tiefenmessung bezeichnet, und/oder zur Posenbestimmung. Das optische Messsystem kann mindestens ein System aufweisen, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lasertracker; mindestens einem Triangulationssystem umfassend mindestens drei Zeilenkameras; mindestens einem Triangulationssystem nach dem Stereo-Vision-Verfahren umfassend mindestens zwei Flächenkameras; mindestens einem Multilaterationssystem, beispielsweise mindestens einem Trilaterationssystem umfassend mindestens drei LiDAR-Kanäle; mindestens einer monokularen Flächenkamera. Der Lasertracker kann eine beliebige Messvorrichtung umfassen, welche eingerichtet ist, interferometrisch einen Abstand und/oder eine Richtung eines Retroreflektors zu bestimmen, insbesondere relativ zu Achsen, welche von einer Optomechanik des Lasertrackers definiert werden. Der Lasertracker kann beispielsweise als Lasertracker AT-960 von Leica ausgestaltet sein. Das Triangulationssystem kann ein beliebiges optisches Messsystem umfassen, welches eingerichtet einen Abstand zwischen Messobjekt 112 und Trackingeinheit 114 basierend auf einem Triangulationsverfahren zu bestimmen. Die Zeilenkamera kann eine Kamera umfassen, welche eine lichtempfindliche Zeile, insbesondere einen Zeilensensor, aufweist. Beispielsweise können die Zeilenkameras jeweils eine Mehrzahl von Pixeln aufweisen, welche in einer Zeile angeordnet sind. Die Zeilenkameras können beispielsweise CCD-Sensoren oder CMOS-Sensoren aufweisen. Die Zeilenkameras können beispielsweise als T-TRACK von ZEISS ausgestaltet sein. Das Stereo-Vision-Verfahren kann ein beliebiges Verfahren zum räumlichen Sehen unter Verwendung von mindestens zwei Kameras umfassen. Die Flächenkamera kann eine Kamera umfassen, welche mindestens einen Sensor umfasst, welcher eine Matrix mit einer Mehrzahl von Reihen und/oder Spalten von Pixeln aufweist. Beispielsweise können die Flächenkameras als AICell Trace von ZEISS ausgestaltet sein. Das Trilaterationssystem kann ein beliebiges optisches Messsystem umfassen, welches eingerichtet ist einen Abstand zwischen Messobjekt 112 und Trackingeinheit 114 basierend auf einem Trialaterationsverfahren zu bestimmen. Der LiDAR-Kanal kann einen Messkanal eines LiDAR-Sensors umfassen, wobei der LiDAR-Sensor auf dem LiDAR („light detection and ranging“)-Messprinzip, auch LaDAR (laser detection and ranging) genannt, basiert. Insbesondere kann der LiDAR-Sensor eingerichtet sein, einen Lichtstrahl, beispielsweise einen Laserstrahl, zu erzeugen und zu empfangen, insbesondere den zuvor von ihr ausgesendeten und zu ihr zurückreflektierten Lichtstrahl, und daraus einen Abstand zwischen dem LiDAR -Sensor und dem Messobjekt 112 zu bestimmen, beispielsweise unter Ausnutzung von Unterschieden in den Rücklaufzeiten und Wellenlängen. Alternativ oder zusätzlich, kann die Trackingeinheit 114 mindestens eine monokulare Flächenkamera aufweisen, beispielsweise von OptiNav.The tracking unit 114 can include an optical device which is set up to track a movement of the measurement object 112 relative to the tracking unit 114 . The tracking unit 114 can include at least one optical measuring system. Tracking unit 114 can be set up to measure distance, also referred to as depth measurement, and/or to determine pose. The optical measurement system can have at least one system selected from the group consisting of: at least one laser tracker; at least one triangulation system comprising at least three line scan cameras; at least one triangulation system based on the stereo vision method, comprising at least two area cameras; at least one multilateration system, for example at least one trilateration system comprising at least three LiDAR channels; at least one monocular area camera. The laser tracker can include any measuring device that is set up to determine a distance and/or a direction of a retroreflector interferometrically, in particular relative to axes that are defined by an optomechanics of the laser tracker. The laser tracker can, for example, be in the form of a Leica AT-960 laser tracker. The triangulation system can include any optical measurement system that is set up to determine a distance between measurement object 112 and tracking unit 114 based on a triangulation method. The line camera can include a camera which has a light-sensitive line, in particular a line sensor. For example, the line cameras can each have a plurality of pixels which are arranged in a line. The line cameras can, for example, CCD-Senso ren or have CMOS sensors. The line scan cameras can be designed, for example, as T-TRACK from ZEISS. The stereo vision method can include any spatial vision method using at least two cameras. The area camera can include a camera which includes at least one sensor which has a matrix with a plurality of rows and/or columns of pixels. For example, the area scan cameras can be designed as AICell Trace from ZEISS. The trilateration system can include any optical measuring system that is set up to determine a distance between the measurement object 112 and the tracking unit 114 based on a trilateration method. The LiDAR channel can include a measurement channel of a LiDAR sensor, the LiDAR sensor being based on the LiDAR (light detection and ranging) measurement principle, also called LaDAR (laser detection and ranging). In particular, the LiDAR sensor can be set up to generate and receive a light beam, for example a laser beam, in particular the light beam previously emitted by it and reflected back to it, and from this to determine a distance between the LiDAR sensor and the measurement object 112, for example by exploiting differences in return times and wavelengths. Alternatively or additionally, the tracking unit 114 can have at least one monocular area camera, for example from OptiNav.

Eine relative Bewegung des Messobjekts 112 zu der Trackingeinheit 114 kann eine Bewegung des Messobjekts 112 und/oder der Trackingeinheit 114 umfassen. Beispielsweise kann das Messobjekt 112 auf einem Messtisch angeordnet sein, wobei der Messtisch eingerichtet ist, das Messobjekt 112 während des Messbetriebs zu bewegen. In diesem Beispiel kann die Trackingeinheit 114 eine feste Position im Raum aufweisen. Alternativ oder zusätzlich kann die Trackingeinheit 114 bewegt sein. In 1 ist eine Trackingeinheit 114 abgebildet, welche als Roboterarm ausgeführt ist und eingerichtet ist, um das Messobjekt 112 zu umfahren. Die Bewegung des Messobjekts 112 und/oder der Trackingeinheit 114 kann in einem gemeinsamen Inertialsystem und relativ zueinander, aber unabhängig voneinander, erfolgen.A movement of the measurement object 112 relative to the tracking unit 114 can include a movement of the measurement object 112 and/or the tracking unit 114 . For example, the measurement object 112 can be arranged on a measurement table, the measurement table being set up to move the measurement object 112 during the measurement operation. In this example, the tracking unit 114 can have a fixed position in space. Alternatively or additionally, the tracking unit 114 can be moved. In 1 a tracking unit 114 is shown, which is designed as a robot arm and is set up to drive around the measurement object 112 . The movement of the measurement object 112 and/or the tracking unit 114 can take place in a common inertial system and relative to one another, but independently of one another.

Das Nachverfolgen kann insbesondere ein Bestimmen einer Position und/oder Orientierung des Messobjekts 112 zu mindestens zwei verschiedenen Zeiten umfassen. Die Position und/oder Orientierung des Messobjekts 112 kann einen Ort und/oder Orientierung des Messobjekts 112 oder eines Teils des Messobjekts 112 im Raum umfassen. Die Position kann ein dreidimensionaler Punkt (X, Y, Z) in dem Koordinatensystem 122 sein, insbesondere eine Lage des Messobjekts 112. Die räumliche Position kann durch die Ortskoordinaten X, Y und Z definiert sein. Die Position kann einen Abstand, auch als Distanz bezeichnet, zwischen einem Punkt auf einer Oberfläche des Messobjekts 112 und der Trackingeinheit 114 umfassen. Der Abstand kann eine longitudinale Koordinate des Messobjekts sein. Die Orientierung kann eine Lage im Raum, insbesondere eine Rotation, des Messobjekts 112 sein, insbesondere eine Winkelposition. Die Orientierung kann durch mindestens drei Winkel angegeben werden, beispielsweise Eulerwinkel oder Neigungswinkel, Rollwinkel und Gierwinkel. Die Bestimmung von Abstand und Orientierung kann als Posenbestimmung bezeichnet werden.The tracking can in particular include determining a position and/or orientation of the measurement object 112 at at least two different times. The position and/or orientation of the measurement object 112 can include a location and/or orientation of the measurement object 112 or a part of the measurement object 112 in space. The position can be a three-dimensional point (X, Y, Z) in the coordinate system 122, in particular a position of the measurement object 112. The spatial position can be defined by the location coordinates X, Y and Z. The position can include a distance, also referred to as a distance, between a point on a surface of the measurement object 112 and the tracking unit 114 . The distance can be a longitudinal coordinate of the measurement object. The orientation can be a position in space, in particular a rotation, of the measurement object 112, in particular an angular position. The orientation can be specified by at least three angles, for example Euler angles or pitch angles, roll angles and yaw angles. The determination of distance and orientation can be referred to as pose determination.

Das Trackingsystem 110 umfasst unter anderem ein Sekundärsystem 116. Das Sekundärsystem 116 kann, wie in 1 gezeigt, direkt am Messobjekt 112 angebracht sein. Das Sekundärsystem 116 kann eine zusätzliche Datenquelle umfassen, welche eingerichtet ist, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts 112 im Raum in dem Sichtschatten 118 der Trackingeinheit 114 zu erzeugen und/oder bereitzustellen. Das Trackingsystem 110 kann eine Mehrzahl von Sekundärsystemen 116 aufweisen, wobei die Sekundärsysteme 116 identisch oder verschieden ausgestaltet sein können. Das Sekundärsystem 116 kann mindestens einen Sensor aufweisen, insbesondere mindestens ein positionsgebendes System. Das Sekundärsystem 116 kann mindestens ein positionsgebendes System aufweisen, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lagesensor, insbesondere mindestens einem Gyroskop; mindestens einem Inertialsensor im oder am nachzuverfolgenden Messobjekt 112; mindestens einem Achs-Encoder einer Trägerkinematik; mindestens einer Flächenkamera; mindestens einem absolut messenden System. Die Flächenkamera kann beispielsweise in einem Messkopf des Koordinatenmessgeräts angeordnet sein und die Information über die Position unter Verwendung von SLAM („Simultaneous Localization and Mapping“) -Algorithmen ermitteln. Beispielsweise kann das Sekundärsystem 116 ein absolut messendes System sein, welches baugleich mit der Trackingeinheit 114 ausgestaltet ist, welches jedoch nicht notwendigerweise zu der Trackingeinheit 114 kalibriert ist, d.h. in einem anderen lokalen Koordinatensystem 122 misst. Das Sekundärsystem 116 kann alternativ oder zusätzlich eine Datenquelle sein, welche Voraussagen über eine Pose des Messobjekts bereitstellt, beispielsweise eine a-priori-Datenquelle. Die A-priori-Datenquelle kann beispielsweise eine Datenbank sein, in der zu einer Menge bekannter Posen vor und nach der Datenlücke eine entsprechende Sekundärtrajektorie abgelegt ist. The tracking system 110 includes, among other things, a secondary system 116. The secondary system 116 can, as in 1 shown, be attached directly to the measurement object 112. The secondary system 116 can include an additional data source, which is set up to generate and/or provide at least one piece of information about a position and/or orientation of the measurement object 112 in space in the visual shadow 118 of the tracking unit 114 . The tracking system 110 can have a plurality of secondary systems 116, it being possible for the secondary systems 116 to be configured identically or differently. The secondary system 116 can have at least one sensor, in particular at least one position-giving system. The secondary system 116 can have at least one position-giving system selected from the group consisting of: at least one position sensor, in particular at least one gyroscope; at least one inertial sensor in or on the measurement object 112 to be tracked; at least one axis encoder of a carrier kinematics; at least one area camera; at least one absolute measuring system. The area camera can be arranged, for example, in a measuring head of the coordinate measuring machine and determine the information about the position using SLAM (“Simultaneous Localization and Mapping”) algorithms. For example, the secondary system 116 can be an absolutely measuring system, which has the same construction as the tracking unit 114 , but which is not necessarily calibrated to the tracking unit 114 , ie measures in a different local coordinate system 122 . The secondary system 116 may alternatively or additionally be a data source that provides predictions about a pose of the measurement object, for example an a priori data source. The a priori data source can be a database, for example, in which a corresponding secondary trajectory is stored for a set of known poses before and after the data gap.

Die Datenbank kann beispielsweise durch willkürliche Auswahl von Teilstücken ausgewählter Längen in ansonsten lückenlos bekannten Beispieltrajektorien befüllt („trainiert“) werden. Die Auswahl des am besten geeigneten Datensatzes kann mit einschlägigen Methoden des maschinellen Lernens oder anhand von Metriken geschehen, die die Ähnlichkeit von Posen oder Mengen von Posen in Bezug auf Position und/oder Orientierung bewerten. Die Information über die Position und/oder Orientierung des Messobjekts 112 kann einen Abstand des Messobjekts 112 zu dem Sekundärsystem 116 und/oder eine Orientierung des Messobjekts 112 umfassen.The database can be created, for example, by random selection of sections of selected lengths in examples that are otherwise known without gaps rajectories are filled (“trained”). The selection of the most suitable data set can be done with pertinent machine learning methods or by using metrics that evaluate the similarity of poses or sets of poses in terms of position and/or orientation. The information about the position and/or orientation of the measurement object 112 can include a distance of the measurement object 112 from the secondary system 116 and/or an orientation of the measurement object 112 .

Das Trackingsystem 110 umfasst unter anderem eine Datenverarbeitungseinheit 120. Die Datenverarbeitungseinheit 120 kann eine beliebige Logikschaltung zum Ausführen grundlegender Operationen eines Computers oder eines Systems und/oder allgemein eine Vorrichtung umfassen, welche zum Ausführen von Berechnungen oder logischen Operationen eingerichtet ist. Die Datenverarbeitungseinheit 120 kann einen Prozessor oder eine Prozessoreinheit aufweisen. Die Datenverarbeitungseinheit 120 kann beispielsweise eine arithmetisch-logische Einheit (ALU), eine Gleitkommaeinheit (FPU), wie einen mathematischen Koprozessor oder numerischen Koprozessor, eine Mehrzahl von Registern, und einen Arbeitsspeicher, beispielsweise einen Cache Arbeitsspeicher aufweisen. Die Datenverarbeitungseinheit 120 kann einen Multi-Core-Prozessor aufweisen. Die Datenverarbeitungseinheit 120 kann eine Zentrale Verarbeitungseinheit (CPU) aufweisen. Alternativ oder zusätzlich kann die Datenverarbeitungseinheit 120 eine oder mehrere Anwendungsspezifische integrierte Schaltungen und/oder eine oder mehrere Field Programmable Gate Arrays (FPGAs) oder ähnliches aufweisen.The tracking system 110 includes, among other things, a data processing unit 120. The data processing unit 120 can include any logic circuit for performing basic operations of a computer or a system and/or generally a device which is set up for performing calculations or logical operations. The data processing unit 120 can have a processor or a processor unit. The data processing unit 120 may include, for example, an arithmetic logic unit (ALU), a floating point unit (FPU) such as a math coprocessor or numeric coprocessor, a plurality of registers, and a memory, such as a cache memory. The data processing unit 120 can have a multi-core processor. The data processing unit 120 may include a central processing unit (CPU). Alternatively or additionally, the data processing unit 120 may include one or more application specific integrated circuits and/or one or more Field Programmable Gate Arrays (FPGAs) or the like.

Das Trackingsystem 110 kann weiterhin mindestens eine Steuerung 124 umfassen. Die Steuerung 124 kann eingerichtet sein, um mindestens eine Komponente der Trackingeinheit 114 anzusteuern. Die Steuerung 124 kann weiter eingerichtet sein, um mindestens eine Komponente des Sekundärsystems 116 anzusteuern. Die Steuerung 124 kann insbesondere dazu eingerichtet sein, um mindestens eine Komponente des Sekundärsystems 116 derart anzusteuern, dass das Sekundärsystem 116 das Messobjekt 112 mindestens in dem Sichtschatten 118 der Trackingeinheit 114 nachverfolgt. Die Steuerung 124 kann mindestens eine Datenverarbeitungsvorrichtung 120 umfassen, beispielsweise mindestens einen Computer oder mindestens einen Mikrocontroller. Die Datenverarbeitungsvorrichtung 120 kann einen oder mehrere flüchtige und/oder nichtflüchtige Datenspeicher aufweisen, wobei die Datenverarbeitungsvorrichtung 120 beispielsweise programmtechnisch eingerichtet sein kann, um die Trackingeinheit 114 und das Sekundärsystem 116 anzusteuern. Die Steuerung 124 kann weiterhin mindestens eine Schnittstelle 126 umfassen, beispielsweise eine elektronische Schnittstelle 126 und/oder eine Mensch-Maschine-Schnittstelle 126 wie beispielsweise eine Eingabe-/Ausgabe-Vorrichtung wie ein Display und/oder eine Tastatur. Beispielsweise können eine oder mehrere elektronische Verbindungen zwischen der Trackingeinheit 114 und der Steuerung 124 und dem Sekundärsystem 116 und der Steuerung 124 vorgesehen sein. Die Steuerung 124 kann beispielsweise zentral oder auch dezentral aufgebaut sein. Auch andere Ausgestaltungen sind denkbar.The tracking system 110 can further include at least one controller 124 . The controller 124 can be set up to control at least one component of the tracking unit 114 . The controller 124 can also be set up to control at least one component of the secondary system 116 . In particular, the controller 124 can be set up to control at least one component of the secondary system 116 in such a way that the secondary system 116 tracks the measurement object 112 at least in the visual shadow 118 of the tracking unit 114 . The controller 124 can include at least one data processing device 120, for example at least one computer or at least one microcontroller. The data processing device 120 can have one or more volatile and/or non-volatile data memories, wherein the data processing device 120 can be set up in terms of programming, for example, to control the tracking unit 114 and the secondary system 116 . The controller 124 may further include at least one interface 126, such as an electronic interface 126 and/or a human-machine interface 126, such as an input/output device such as a display and/or a keyboard. For example, one or more electronic connections may be provided between the tracking unit 114 and the controller 124 and the secondary system 116 and the controller 124 . The controller 124 can, for example, have a central or decentralized structure. Other configurations are also conceivable.

2 zeigt eine schematische Darstellung einer Unterbrechung der Sichtverbindung bei einer Nachverfolgung eines Messobjekts 112 mit einer Trackingeinheit 114. Eine Störkontur 128 zwischen Messobjekt 112 und Trackingeinheit 114 kann einen Sichtschatten 118 verursachen und dabei zumindest einen Teil des Messobjekts 112 verdecken. Hierdurch kann hinsichtlich einer Trajektorie 130 des Messobjekts 112 ein Unterschied zwischen einer tatsächlichen Trajektorie 132 und einer infolge des Sichtschattens 118 gegebenenfalls fälschlich vermuteten Trajektorie 134 entstehen. Der Sichtschatten 118 kann einen Bereich eines Messvolumens der Trackingeinheit 114 umfassen, welcher von der Trackingeinheit 114 nicht beobachtet und/oder eingesehen werden kann. Der Sichtschatten 118 kann durch eine Unterbrechung einer Sichtlinie zwischen Messobjekt 112 und Trackingeinheit 114 erzeugt oder ermittelt werden. Die Unterbrechung der Sichtlinie kann durch mindestens eine Verdeckung hervorgerufen werden. Die Verdeckung kann eine Selbstverdeckung, beispielsweise durch das Messobjekt 112, oder aber durch eine Fremdverdeckung, beispielsweise durch eine Trägerkinematik beziehungsweise einen Benutzer oder durch sonstige Störkonturen 128 wie eine Aufspannvorrichtung umfassen. In dem Sichtschatten 118 kann eine Abstandsbestimmung und/oder Posenbestimmung durch die Trackingeinheit 114 unmöglich sein. Die Trackingeinheit 114 kann in dem Sichtschatten 118 zwischen Eintrittspunkt 136 und Austrittspunkt 138 keine Posen ermitteln. 2 shows a schematic representation of an interruption in the line of sight when tracking a measurement object 112 with a tracking unit 114. An interference contour 128 between measurement object 112 and tracking unit 114 can cause a visual shadow 118 and thereby cover at least part of measurement object 112. As a result, with regard to a trajectory 130 of the measurement object 112 , a difference can arise between an actual trajectory 132 and a trajectory 134 that may be incorrectly assumed as a result of the visual shadow 118 . The visual shadow 118 can include an area of a measurement volume of the tracking unit 114 which cannot be observed and/or viewed by the tracking unit 114 . The visual shadow 118 can be generated or determined by interrupting a line of sight between the measurement object 112 and the tracking unit 114 . Line of sight disruption can be caused by at least one occlusion. The occlusion can include self-occlusion, for example by the measurement object 112, or by an external occlusion, for example by carrier kinematics or a user or by other interfering contours 128 such as a clamping device. In the visual shadow 118, it may be impossible for the tracking unit 114 to determine a distance and/or a pose. The tracking unit 114 cannot determine any poses in the visual shadow 118 between the entry point 136 and the exit point 138 .

Die Trajektorie 130 kann insbesondere einen Pfad und/oder eine Bahnkurve umfassen, welche die relative Bewegung des Messobjekts 112 beschreibt. Die Trajektorie 130 kann als mathematische Funktion beschrieben werden. Die Trajektorie 130 kann beispielsweise linear verlaufen. Die Trajektorie 130 kann ebenso in beliebiger Kurvenform verlaufen. Die Trajektorie 130 kann insbesondere eine stetige Funktion sein.The trajectory 130 can in particular include a path and/or a trajectory which describes the relative movement of the measurement object 112 . The trajectory 130 can be described as a mathematical function. The trajectory 130 can run linearly, for example. The trajectory 130 can also run in any curve shape. The trajectory 130 can in particular be a continuous function.

Der Eintrittspunkt 136 kann eine erste räumliche Grenze, insbesondere einen räumlichen Anfang, des Sichtschattens 118 umfassen. Die Trackingeinheit 114 kann eingerichtet sein, um die Position und/oder Orientierung des Messobjektes 112 im Messvolumen vor dem Sichtschatten 118 bis einschließlich zum Eintrittspunkt 136 zu ermitteln. Der Austrittspunkt 138, auch Endpunkt des Sichtschattens genannt, kann eine von der ersten Grenze verschiedene zweite Grenze, insbesondere ein räumliches Ende, des Sichtschattens 118 umfassen. Die Trackingeinheit 114 kann eingerichtet sein, um die Position und/oder Orientierung des Messobjektes 112 nach dem Sichtschatten 118 ab einschließlich dem Austrittspunkt 138 ermitteln. In 2 sind Eintrittspunkt 136 und Austrittspunkt 138 durch Quadrate gekennzeichnet.The entry point 136 can include a first spatial boundary, in particular a spatial beginning, of the visual shadow 118 . The tracking unit 114 can be set up to determine the position and/or orientation of the measurement object 112 in the measurement volume in front of the visual shadow 118 to a finally to the entry point 136 to determine. The exit point 138, also called the end point of the visual shadow, can include a second limit, in particular a spatial end, of the visual shadow 118 that is different from the first limit. The tracking unit 114 can be set up to determine the position and/or orientation of the measurement object 112 after the visual shadow 118 including the exit point 138 . In 2 entry point 136 and exit point 138 are indicated by squares.

Eine, gegebenenfalls durch den Sichtschatten 118 entstandene, Datenlücke kann mindestens ein fehlendes Datum und/oder mindestens einen fehlenden Abschnitt in einem Datensatz umfassen. Der Datensatz kann eine relative Bewegung des Messobjekts 112, insbesondere eine Mehrzahl von Posen, beschreiben. Die Datenlücke kann sich auf nicht erfasste und daher im Datensatz fehlende Posen während der relativen Bewegung beziehen. Die Datenlücke kann durch eine Unterbrechung des Nachverfolgens des Messobjekts 112 entstehen. Die Unterbrechung kann durch den Sichtschatten 118 der Trackingeinheit 114, insbesondere infolge einer Störkontur 128, verursacht werden. Das Kompensieren der Datenlücke kann insbesondere ein Füllen der Datenlücke und/oder ein Vervollständigen des Datensatzes umfassen.A data gap that may have arisen as a result of the visual shadow 118 can include at least one missing datum and/or at least one missing section in a data record. The data record can describe a relative movement of the measurement object 112, in particular a plurality of poses. The data gap may relate to poses not captured and therefore missing from the dataset during relative movement. The data gap may be caused by an interruption in the tracking of the device under test 112 . The interruption can be caused by the visual shadow 118 of the tracking unit 114, in particular as a result of an interference contour 128. Compensating for the data gap can in particular include filling the data gap and/or completing the data set.

3 zeigt ein Ausführungsbeispiel einer Anpassung der Sekundärtrajektorie S an die Trackingtrajektorie T. Wie oben ausgeführt, kann die Trackingeinheit 114 in dem Sichtschatten 118 zwischen Eintrittspunkt 136 und Austrittspunkt 138 keine Posen ermitteln. Stattdessen kann das Sekundärsystem 116 eingerichtet sein, um in dem Sichtschatten 118 Informationen zu sammeln. Die von dem Sekundärsystem 116 erzeugte Information kann eine hinreichende Relativgenauigkeit aufweisen, so dass auf fehlende Posen interpoliert werden kann und, insbesondere, eine Fehlerfortpflanzung minimiert werden kann. 3 12 shows an exemplary embodiment of an adaptation of the secondary trajectory S to the tracking trajectory T. As explained above, the tracking unit 114 cannot determine any poses in the visual shadow 118 between the entry point 136 and the exit point 138. Instead, the secondary system 116 may be configured to collect information in the view shadow 118 . The information generated by the secondary system 116 can have sufficient relative accuracy so that missing poses can be interpolated and, in particular, error propagation can be minimized.

Das Kompensieren der, durch den Sichtschatten 118 hervorgerufenen, Datenlücke umfasst ein Interpolieren und/oder Extrapolieren unter Berücksichtigung der von dem Sekundärsystem 116 bestimmten Information über die Position und/oder Orientierung des Messobjekts 112. Das Interpolieren kann ein Ermitteln von Posen zwischen von der Trackingeinheit 114 bekannten Posen, also mit der Trackingeinheit 114 bestimmten Posen an Stützstellen 142 vor dem Eintrittspunkt 136, der mit der Trackingeinheit bestimmten Pose am Eintrittspunkt 136, mit der Trackingeinheit bestimmten Posen an Stützstellen 140 nach dem Austrittspunkt 138 und der mit der Trackingeinheit 114 bestimmten Pose am Austrittspunkt 138, umfassen. Das Interpolieren kann grundsätzlich ein Verwenden eines beliebigen Interpolationsverfahrens umfassen. Das Interpolieren kann eine lineare, quadratische oder kubische Interpolation umfassen. Die lineare Interpolation kann ein Bestimmen mindestens eines unbekannten Punktes zwischen zwei bekannten Punkten umfassen, unter der Annahme, dass sich der unbekannte Punkt auf einer die bekannten Punkte verbindenden Geraden befindet. Bei einer linearen Interpolation kann der Verlauf einer Kurve zwischen zwei bekannten Punkten als Polynom erster Ordnung angenommen werden. Auch andere linearen Interpolationen sind denkbar. Beispielsweise kann eine lineare Interpolation erfolgen ohne einen geometrischen Bezug zu einer Gerade. Dafür kann zum Beispiel in Polarkoordinaten statt in kartesischen Koordinaten gerechnet werden. Die quadratische Interpolation kann ein Bestimmen mindestens eines unbekannten Punkt zwischen zwei bekannten Punkten umfassen, unter der Annahme eines quadratischen Kurvenverlaufs zwischen zwei bekannten Punkten. Der Kurvenverlauf zwischen den zwei bekannten Punkten kann als Polynom zweiter Ordnung angenommen werden. Die kubische Interpolation ein Bestimmen mindestens eines unbekannten Punkt zwischen zwei bekannten Punkten umfassen, unter der Annahme eines kubischen Kurvenverlaufs zwischen zwei bekannten Punkten. Der Kurvenverlauf zwischen den zwei bekannten Punkten kann als Polynom dritter Ordnung angenommen werden. Das Kompensieren kann zudem eine Extrapolation umfassen. Die Extrapolation kann ein Bestimmen eines Verhaltens der Trajektorie 130 über einen mit der Trackingeinheit 114 erfassbaren Bereich hinaus umfassen. Bei der Interpolation kann ein Parameter a zwischen den beiden Stützpunkten von 0 nach 1 laufen. Bei der Extrapolation kann dieser Wertebereich nach oben und/oder unten erweitert werden. Eine Extrapolation kann insbesondere verwendet werden, nur auf einer Seite Stützstellen vorliegen. Eine Interpolation kann verwendet werden, wenn beidseitig Stützstellen vorliegen. Eine Trajektorie 130 des Messobjekts 112 kann im Anschluss an die Kompensation vollständig bestimmt sein.Compensating for the data gap caused by the visual shadow 118 includes interpolating and/or extrapolating, taking into account the information determined by the secondary system 116 about the position and/or orientation of the measurement object 112. The interpolating can involve determining poses between the tracking unit 114 known poses, i.e. poses determined with tracking unit 114 at support points 142 before entry point 136, the pose determined with tracking unit at entry point 136, poses determined with tracking unit 140 at support points after exit point 138 and the pose determined with tracking unit 114 at the exit point 138, include. The interpolation can basically include using any interpolation method. Interpolating can include linear, quadratic, or cubic interpolation. The linear interpolation may include determining at least one unknown point between two known points, assuming that the unknown point is on a straight line connecting the known points. With linear interpolation, the course of a curve between two known points can be assumed to be a first-order polynomial. Other linear interpolations are also conceivable. For example, a linear interpolation can take place without a geometric reference to a straight line. For example, calculations can be made in polar coordinates instead of in Cartesian coordinates. The quadratic interpolation may include determining at least one unknown point between two known points, assuming a quadratic curve progression between two known points. The shape of the curve between the two known points can be assumed to be a second-order polynomial. The cubic interpolation includes determining at least one unknown point between two known points, assuming a cubic curve progression between two known points. The shape of the curve between the two known points can be assumed to be a third-order polynomial. The compensation can also include an extrapolation. The extrapolation can include determining a behavior of the trajectory 130 beyond a range that can be detected with the tracking unit 114 . During the interpolation, a parameter a can run from 0 to 1 between the two support points. During the extrapolation, this range of values can be extended upwards and/or downwards. An extrapolation can be used in particular if there are support points on only one side. An interpolation can be used if there are reference points on both sides. A trajectory 130 of the measurement object 112 can be completely determined following the compensation.

Die Stützstelle 140 kann insbesondere eine räumliche Koordinate umfassen, welche zur Bestimmung der Trajektorie 130 verwendet wird. In 3 sind die Stützstellen 140 durch Punkte gekennzeichnet. Eintrittspunkt 136 und Austrittspunkt 138 sind durch Quadrate gekennzeichnet. Die Trackingeinheit 114 ist eingerichtet, um an einer Mehrzahl von Stützstellen 140 jeweils eine Pose des Messobjekts 112 zu bestimmen. Die Trackingeinheit 114 ist eingerichtet, um an dem Eintrittspunkt 136 und dem Austrittspunkt 138 des Sichtschattens 118 jeweils die Pose des Messobjekts 112 zu bestimmen. Die Datenverarbeitungseinheit 120 ist eingerichtet, um mindestens eine Trackingtrajektorie T aus der Pose an der jeweiligen Stützstelle 140 zu bestimmen. Die Trackingtrajektorie T kann insbesondere eine Trajektorie 130 umfassen, welche Stützstellen 140 berücksichtigt, an welchen die Pose des Messobjekts 112 von der Trackingeinheit 114 bestimmt wurde. Die Trackingeinheit 114 kann eingerichtet sein, um an einer Mehrzahl von Stützstellen 140 vor dem Eintrittspunkt 136 und nach dem Austrittspunkt 138 des Sichtschattens jeweils eine Pose des Messobjekts 112 zu bestimmen. Support point 140 can in particular include a spatial coordinate that is used to determine trajectory 130 . In 3 the interpolation points 140 are identified by dots. Entry point 136 and exit point 138 are indicated by squares. The tracking unit 114 is set up to determine a pose of the measurement object 112 at a plurality of reference points 140 in each case. The tracking unit 114 is set up to determine the pose of the measurement object 112 at the entry point 136 and the exit point 138 of the visual shadow 118 . The data processing unit 120 is set up to determine at least one tracking trajectory T from the pose at the respective support point 140 . The tracking trajectory T can in particular be a trajectory 130, which takes into account support points 140 at which the pose of the measurement object 112 was determined by the tracking unit 114. The tracking unit 114 can be set up to determine a pose of the measurement object 112 at a plurality of interpolation points 140 in front of the entry point 136 and after the exit point 138 of the visual shadow.

Das Sekundärsystem 116 ist eingerichtet, um an einer Mehrzahl von Sekundärstützstellen 142 jeweils die Information über die Position und/oder Orientierung des Messobjekts 112 zu bestimmen. Das Sekundärsystem 116 ist eingerichtet, um an dem Eintrittspunkt 136, zwischen dem Eintrittspunkt 136 und dem Austrittspunkt 138 und an dem Austrittspunkt 138 die Information über die Position und/oder Orientierung des Messobjekts 112 zu bestimmen. Die Datenverarbeitungseinheit 120 ist eingerichtet, um mindestens eine Sekundärtrajektorie S unter Berücksichtigung der Sekundärstützstellen 142 zu bestimmen.The secondary system 116 is set up to determine the information about the position and/or orientation of the measurement object 112 at a plurality of secondary support points 142 in each case. The secondary system 116 is set up to determine the information about the position and/or orientation of the measurement object 112 at the entry point 136, between the entry point 136 and the exit point 138 and at the exit point 138. The data processing unit 120 is set up to determine at least one secondary trajectory S taking into account the secondary interpolation points 142 .

Die Sekundärstützstelle 142 kann insbesondere eine räumliche Koordinate umfassen, welche zur Bestimmung der Sekundärtrajektorie S verwendet wird. In 3 sind Sekundärstützstellen 142 durch Kreuze gekennzeichnet. Die Sekundärtrajektorie S kann insbesondere eine Trajektorie 130 umfassen, welche Stützstellen 140 berücksichtigt, an welchen die Information über die Position und/oder Orientierung des Messobjekts 112 von dem Sekundärsystem 116 bestimmt wurde. Die Sekundärstützstellen 142 können zumindest teilweise innerhalb des Sichtschattens 118 der Trackingeinheit 114 liegen.The secondary reference point 142 can in particular include a spatial coordinate which is used to determine the secondary trajectory S. In 3 secondary support points 142 are identified by crosses. The secondary trajectory S can include, in particular, a trajectory 130 that takes into account support points 140 at which the information about the position and/or orientation of the measurement object 112 was determined by the secondary system 116 . The secondary support points 142 can lie at least partially within the visual shadow 118 of the tracking unit 114 .

Aufgrund von Unterbrechungen während der Vermessung des Messobjekts 112 durch die Trackingeinheit 114 kann die tatsächliche Trajektorie 130 des Messobjekts 112 infolge von Sichtschatten 118 teilweise nicht mehr direkt nachvollziehbar sein. Stattdessen können ein oder mehrere Sekundärsysteme 116 Informationen sammeln, mithilfe derer die Trackingtrajektorie T interpoliert und/oder extrapoliert wird. So kann eine vermutete Trajektorie 134, die Sekundärtrajektorie S, ermittelt werden. Durch die Fehlerfortpflanzung bei Sekundärsystemen 116 mit relativ messenden Systemen oder absolut messenden Systemen mit geringerer Genauigkeit kann sich eine vermutete Trajektorie 134 lokal und/oder global von der tatsächlichen Trajektorie 132 entfernen und/oder von dieser abweichen. Nach einem Austritt aus, und potentiell auch bei einem Eintritt in, den Sichtschatten 118 kann so eine C0-Unstetigkeitsstelle entstehen. An der C0-Unstetigkeitsstelle kann die Trajektorie 130 nicht einfach stetig differenzierbar sein. Die Datenverarbeitungseinheit 120 ist eingerichtet, um die Sekundärtrajektorie S an die Trackingtrajektorie T anzupassen. Das Anpassen kann insbesondere eine Modifikation der Sekundärtrajektorie S umfassen. Das Anpassen der Sekundärtrajektorie S kann derart erfolgen, dass an den Eintritts- und/oder Austrittspunkten 136 bzw. 138 mindestens eine C0-Stetigkeit vorliegt, bevorzugt eine C1-Stetigkeit vorliegt, und besonders bevorzugt eine C2-Stetigkeit vorliegt. Das Anpassen der Sekundärtrajektorie S kann derart erfolgen, dass die Fehlerfortpflanzung minimal ist, so dass beide Trajektorien 130 möglichst gut zur Deckung kommen. Beide Forderungen können sowohl in Bezug auf den Ort und auf die Orientierung des Messobjekts 112 beziehen.Due to interruptions during the measurement of the measurement object 112 by the tracking unit 114, the actual trajectory 130 of the measurement object 112 can sometimes no longer be directly traceable as a result of visual shadows 118. Instead, one or more secondary systems 116 may collect information that is used to interpolate and/or extrapolate the tracking trajectory T. A suspected trajectory 134, the secondary trajectory S, can thus be determined. Due to the error propagation in secondary systems 116 with systems that measure relatively or systems that measure absolutely with less accuracy, a suspected trajectory 134 can deviate locally and/or globally from the actual trajectory 132 and/or deviate from it. After an exit from, and potentially also upon entry into, the visual shadow 118, a C 0 point of discontinuity can thus arise. At the C 0 discontinuity, the trajectory 130 cannot simply be continuously differentiable. The data processing unit 120 is set up to adapt the secondary trajectory S to the tracking trajectory T. The adaptation can in particular include a modification of the secondary trajectory S. The secondary trajectory S can be adapted in such a way that at the entry and/or exit points 136 and 138 there is at least C 0 continuity, preferably C 1 continuity, and particularly preferably C 2 continuity. The secondary trajectory S can be adapted in such a way that the error propagation is minimal, so that both trajectories 130 coincide as well as possible. Both requirements can relate both to the location and to the orientation of the measurement object 112 .

Die Trackingtrajektorie T und Sekundärtrajektorie S können eine Folge affiner Transformationen über ihre jeweiligen Bogenlängen beschreiben. Die Bogenlänge kann insbesondere eine geometrische Länge einer Kurve umfassen. Die affine Transformation kann insbesondere eine strukturerhaltende Abbildung umfassen, welche Kollinearität, Parallelität und Teilverhältnisse wahrt. Die affine Transformation kann Translationen und/oder Rotationen umfassen. Die affinen Transformationen können in ihre translatorischen und rotatorische Anteile zerlegt werden. Der translatorische Anteil kann mit Vektoralgebra beschrieben werden. Der rotatorische Anteil kann mit Quaternionenalgebra beschrieben werden. Auch andere Notationsformen sind jedoch denkbar. Im Folgenden wird aus Gründen der Lesbarkeit für eine Hintereinanderausführung von Transformationen die Matrixschreibweise verwendet. Die Transformationen aus dem Koordinatensystem 122 der Trackingeinheit an dem Eintrittspunkt 136 und dem Austrittspunkt 138 können mit E und A bezeichnet werden. Die Sekundärtrajektorie S kann nach dem Parameter x bogenlängenparametrisiert sein: S(x): 0 ≤ x ≤ 1. S(x=0), oder kurz S(0), kann sich auf die Sekundärtrajektorie S am Eintrittspunkt 136 beziehen. S(x=1), oder kurz S(1), kann sich auf die Sekundärtrajektorie S am Austrittspunkt 138 beziehen. Differenztransformationen D der Trackingtrajektorie und der Sekundärtrajektorie S können demnach D 0 = E S ( 0 ) 1

Figure DE102020204677B4_0007
und D 1 = A S ( 1 ) 1
Figure DE102020204677B4_0008
sein. Die Differenztransformationen können Transformationen der bogenlängenparametrisierten Sekundärtrajektorie S am Eintritts- und Austrittspunkt 136 bzw. 138 in Transformationen der Trackingtrajektorie überführen. Das Anpassen der Sekundärtrajektorie S(x) = ST(x) · SR (x) an die Trackingtrajektorie kann durch eine lineare Interpolation erfolgen, beispielsweise mit: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x )
Figure DE102020204677B4_0009
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0010
wobei sich ST(x) und SR(x) translatorische und rotatorische Anteile der Sekundärtrajektorie S, D1,T ein translatorischer Anteil der Differenztransformation D1, D1,R ein rotatorischer Anteil der Differenztransformation D1, D0,T ein translatorischer der Differenztransformation D0, und D0,R ein rotatorischer Anteil der Differenztransformation D0 ist. Die Anpassung des translatorischen Anteils der Sekundärtrajektorie S kann zu einer C0-Stetigkeit bei S(0) und S(1) führen. Die Anpassung des rotatorischen Anteils kann zu einer C0-Stetigkeit bei S(0) und S(1) führen. Stetigkeiten höherer Ordnung können mittels quadratischer oder kubischer statt linearer Interpolationen der translatorischen und der rotatorischen Anteile der zugehörigen Transformationen erreicht werden. 3 verbildlicht, dass durch die Anpassung der Sekundärtrajektorie S ein anfänglicher Unterschied zur tatsächlichen Trajektorie 132 derart aufgehoben werden kann, dass beide im Endergebnis möglichst gut zur Deckung kommen.The tracking trajectory T and secondary trajectory S can describe a sequence of affine transformations over their respective arc lengths. The arc length can in particular include a geometric length of a curve. The affine transformation can include, in particular, a structure-preserving mapping that preserves collinearity, parallelism, and part ratios. The affine transformation can include translations and/or rotations. The affine transformations can be broken down into their translational and rotational parts. The translational part can be described with vector algebra. The rotational part can be described with quaternion algebra. However, other forms of notation are also conceivable. In the following, for reasons of readability, matrix notation is used for executing transformations one after the other. The transformations from the coordinate system 122 of the tracking unit at the entry point 136 and the exit point 138 can be denoted by E and A. The secondary trajectory S can be parameterized according to the parameter x arc length: S(x): 0≦x≦1. S(x=0), or S(0) for short, can refer to the secondary trajectory S at the entry point 136 . S(x=1), or S(1) for short, may refer to the secondary trajectory S at exit point 138 . Difference transformations D of the tracking trajectory and the secondary trajectory S can accordingly D 0 = E S ( 0 ) 1
Figure DE102020204677B4_0007
and D 1 = A S ( 1 ) 1
Figure DE102020204677B4_0008
be. The difference transformations can convert transformations of the arc length parameterized secondary trajectory S at the entry and exit point 136 or 138 into transformations of the tracking trajectory. The secondary trajectory S(x) = S T (x) · S R (x) can be adapted to the tracking trajectory by linear interpolation, for example with: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x )
Figure DE102020204677B4_0009
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0010
where S T (x) and S R (x) translational and rotational components of the secondary trajectory S, D 1,T a translational component of the differential transformation D 1 , D 1,R a rotary component of the differential transformation D 1 , D 0,T a translatory of the differential transformation D 0 , and D 0,R is a rotary component of the differential transformation D 0 . The adaptation of the translational component of the secondary trajectory S can lead to C 0 continuity at S(0) and S(1). The adaptation of the rotary part can lead to a C0 continuity at S(0) and S(1). Higher-order continuity can be achieved by means of quadratic or cubic instead of linear interpolations of the translational and rotational components of the associated transformations. 3 illustrates that by adapting the secondary trajectory S, an initial difference to the actual trajectory 132 can be eliminated in such a way that both end up congruent as well as possible.

4 zeigt ein Flussdiagramm eines Ausführungsbeispiels des computerimplementierten Verfahrens, gemäß der vorliegenden Beschreibung, zur automatischen Kompensation von mindestens einer Datenlücke bei der Nachverfolgung mindestens eines Messobjekts 112. In dem Verfahren wird ein erfindungsgemäßes Trackingsystem 110 in einer seiner Ausgestaltungen verwendet. Das Verfahren kann mindestens einen Computer und/oder mindestens ein Computer-Netzwerk involvieren. Der Computer und/oder das Computer-Netzwerk können mindestens einen Prozessor umfassen, wobei der Prozessor dazu eingerichtet ist, mindestens einen Verfahrensschritt des computerimplementierten Verfahrens der Erfindung durchzuführen. Bevorzugt wird jeder der Verfahrensschritte j eweils von dem Computer und/oder dem Computer-Netzwerk durchgeführt. Das Verfahren kann vollständig automatisch und im Speziellen ohne Benutzerinteraktion durchgeführt werden. 4 shows a flowchart of an exemplary embodiment of the computer-implemented method, according to the present description, for automatically compensating for at least one data gap when tracking at least one measurement object 112. In the method, a tracking system 110 according to the invention is used in one of its configurations. The method may involve at least one computer and/or at least one computer network. The computer and/or the computer network can comprise at least one processor, the processor being set up to carry out at least one method step of the computer-implemented method of the invention. Each of the method steps is preferably carried out by the computer and/or the computer network. The method can be carried out completely automatically and in particular without user interaction.

Das computerimplementierte Verfahren zur automatischen Kompensation von mindestens einer Datenlücke bei der Vermessung mindestens eines Messobjekts 112 umfasst folgende Schritte, welche, als Beispiel, in der folgenden Reihenfolge durchgeführt werden können. Weiterhin ist es möglich einen oder mehrere der Verfahrensschritte einmalig oder mehrmalig in wiederholender Form durchzuführen. Das Verfahren kann zudem weitere Verfahrensschritte umfassen, welche nicht aufgelistet sind. Weiterhin ist es möglich zwei oder mehr der Verfahrensschritte simultan oder zumindest mit zeitlichem Überlapp durchzuführen.

  1. a. Nachverfolgen einer Bewegung des Messobjektes 112 relativ zu mindestens einer Trackingeinheit 114;
  2. b. Bestimmen und/oder Bereitstellen mindestens einer Information über eine Position und/oder Orientierung des Messobjekts 112 im Raum in mindestens einem Sichtschatten 118 der Trackingeinheit 114 mit mindestens einem Sekundärsystem 116;
  3. c. Kompensieren mindestens einer durch den Sichtschatten 118 entstandenen Datenlücke bei der Nachverfolgung des Messobjekts 112 unter Berücksichtigung der von dem Sekundärsystem 116 bestimmten Information über die Position und/oder Orientierung des Messobjekts 112 mit mindestens einer Datenverarbeitungseinheit 120, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit 114 aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem 116 bestimmten Information über die Position und/oder Orientierung des Messobjekts 112 umfasst.
The computer-implemented method for automatically compensating for at least one data gap when measuring at least one measurement object 112 comprises the following steps, which, as an example, can be carried out in the following order. It is also possible to carry out one or more of the process steps once or several times in a repetitive manner. The method can also include further method steps that are not listed. Furthermore, it is possible to carry out two or more of the method steps simultaneously or at least with a time overlap.
  1. a. tracking a movement of the measurement object 112 relative to at least one tracking unit 114;
  2. b. Determining and/or providing at least one piece of information about a position and/or orientation of the measurement object 112 in space in at least one visual shadow 118 of the tracking unit 114 with at least one secondary system 116;
  3. c. Compensating for at least one data gap caused by the visual shadow 118 when tracking the measurement object 112, taking into account the information determined by the secondary system 116 about the position and/or orientation of the measurement object 112 with at least one data processing unit 120, the compensation involving an interpolation and/or extrapolation of includes data recorded by tracking unit 114, taking into account the information determined by secondary system 116 about the position and/or orientation of measurement object 112.

Bezugszeichen 144 bezeichnet Verfahrensschritt a., Bezugszeichen 146 bezeichnet Verfahrensschritt b. und Bezugszeichen 148 bezeichnet Verfahrensschritt c in 4.Numeral 144 denotes method step a. Numeral 146 denotes method step b. and reference numeral 148 denotes step c in 4 .

Bezugszeichenlistereference list

110110
Trackingsystemtracking system
112112
Messobjektmeasurement object
114114
Trackingeinheittracking unit
116116
Sekundärsystemsecondary system
118118
Sichtschattenvisual shade
120120
Datenverarbeitungseinheitdata processing unit
122122
Koordinatensystemcoordinate system
124124
Steuerungsteering
126126
Schnittstelleinterface
128128
Störkonturinterference contour
130130
Trajektorietrajectory
132132
Tatsächliche TrajektorieActual Trajectory
134134
Vermutete TrajektorieAssumed trajectory
136136
Eintrittspunktentry point
138138
Austrittspunktexit point
140140
Stützstellebase
142142
Sekundärstützstellesecondary base
144144
Verfahrensschritt a.Process step a.
146146
Verfahrensschritt b.process step b.
148148
Verfahrensschritt c.process step c.
SS
Sekundärtrajektoriesecondary trajectory
TT
Trackingtrajektorietracking trajectory

Claims (7)

Trackingsystem (110) umfassend mindestens eine Trackingeinheit (114), welche eingerichtet ist, eine Bewegung mindestens eines Messobjekts (112) relativ zu der Trackingeinheit (114) nachzuverfolgen, wobei das Trackingsystem (110) mindestens ein Sekundärsystem (116) umfasst, wobei das Sekundärsystem (116) eingerichtet ist, um mindestens eine Information über eine Position und/oder Orientierung des Messobjekts (112) im Raum in mindestens einem Sichtschatten (118) der Trackingeinheit (114) zu bestimmen, wobei der Sichtschatten (118) der Trackingeinheit (114) ein Bereich eines Messvolumens der Trackingeinheit (114) ist, welcher von der Trackingeinheit (114) nicht beobachtet und/oder eingesehen werden kann, wobei der Sichtschatten (118) durch eine Unterbrechung einer Sichtlinie zwischen Messobjekt (112) und Trackingeinheit (114) erzeugt wird, wobei das Trackingsystem (110) mindestens eine Datenverarbeitungseinheit (120) umfasst, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine durch den Sichtschatten (118) entstandene Datenlücke bei der Nachverfolgung des Messobjekts (112) unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) zu kompensieren, wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit (114) aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) umfasst, wobei die Trackingeinheit (114) eingerichtet ist, um an einer Mehrzahl von Stützstellen (140) jeweils eine Pose des Messobjekts (112) zu bestimmen, wobei die Trackingeinheit (114) eingerichtet ist, um an einem Eintrittspunkt (136) und einem Austrittspunkt (138) des Sichtschattens (118) jeweils eine Pose des Messobjekts (112) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine Trackingtrajektorie (T) aus den Posen an der jeweiligen Stützstelle (140) zu bestimmen, wobei das Sekundärsystem (116) eingerichtet ist, um an einer Mehrzahl von Sekundärstützstellen (142) jeweils die Information über die Position und/oder Orientierung des Messobjekts (112) zu bestimmen, wobei das Sekundärsystem (116) eingerichtet ist, um an dem Eintrittspunkt (136) und an dem Austrittspunkt (138) die Information über die Position und/oder Orientierung des Messobjekts (112) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um mindestens eine Sekundärtrajektorie S unter Berücksichtigung der Sekundärstützstellen (142) zu bestimmen, wobei die Datenverarbeitungseinheit (120) eingerichtet ist, um die Sekundärtrajektorie S an die Trackingtrajektorie (T) anzupassen.Tracking system (110) comprising at least one tracking unit (114) which is set up to track a movement of at least one measurement object (112) relative to the tracking unit (114), the tracking system (110) comprising at least one secondary system (116), the secondary system (116) is set up to determine at least one piece of information about a position and/or orientation of the measurement object (112) in space in at least one visual shadow (118) of the tracking unit (114), the visual shadow (118) of the tracking unit (114) is an area of a measurement volume of the tracking unit (114) which cannot be observed and/or seen by the tracking unit (114), the visual shadow (118) being generated by interrupting a line of sight between the measurement object (112) and the tracking unit (114). , wherein the tracking system (110) comprises at least one data processing unit (120), wherein the data processing unit (120) is set up to at least one data gap caused by the visual shadow (118) in the tracking of the measurement object (112) taking into account the data from the secondary system ( 116) to compensate for information determined about the position and/or orientation of the measurement object (112), wherein the compensation involves interpolating and/or extrapolating data recorded by the tracking unit (114), taking into account the information determined by the secondary system (116) about the Position and/or orientation of the measurement object (112), the tracking unit (114) being set up to determine a pose of the measurement object (112) at a plurality of support points (140), the tracking unit (114) being set up to determine a pose of the measurement object (112) at an entry point (136) and an exit point (138) of the visual shadow (118), wherein the data processing unit (120) is set up to calculate at least one tracking trajectory (T) from the poses at the to determine the respective reference point (140), the secondary system (116) being set up to determine the information about the position and/or orientation of the measurement object (112) at a plurality of secondary reference points (142), the secondary system (116) is set up to determine the information about the position and/or orientation of the measurement object (112) at the entry point (136) and at the exit point (138), the data processing unit (120) being set up to take at least one secondary trajectory S into account of the secondary interpolation points (142), the data processing unit (120) being set up to adapt the secondary trajectory S to the tracking trajectory (T). Trackingsystem (110) nach dem vorhergehenden Anspruch, wobei die Trackingeinheit (114) mindestens ein optisches Messsystem aufweist, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lasertracker; mindestens einem Triangulationssystem umfassend mindestens drei Zeilenkameras; mindestens einem Triangulationssystem nach dem Stereo-Vision-Verfahren umfassend mindestens zwei Flächenkameras; mindestens einem Multilaterationssystem; mindestens einer monokularen Flächenkamera.Tracking system (110) according to the preceding claim, wherein the tracking unit (114) has at least one optical measuring system selected from the group consisting of: at least one laser tracker; at least one triangulation system comprising at least three line scan cameras; at least one triangulation system based on the stereo vision method, comprising at least two area cameras; at least one multilateration system; at least one monocular area camera. Trackingsystem (110) nach einem der vorhergehenden Ansprüche, wobei das Sekundärsystem (116) mindestens ein positionsgebendes System aufweist, ausgewählt aus der Gruppe bestehend aus: mindestens einem Lagesensor; mindestens einem Inertialsensor im oder am nachzuverfolgenden Messobjekt (112); mindestens einem Achs-Encoder einer Trägerkinematik; mindestens einer Flächenkamera; mindestens einem absolut messenden System.Tracking system (110) according to one of the preceding claims, wherein the secondary system (116) has at least one position-giving system selected from the group consisting of: at least one position sensor; at least one inertial sensor in or on the measurement object (112) to be tracked; at least one axis encoder of a carrier kinematics; at least one area camera; at least one absolute measuring system. Trackingsystem (110) nach einem der vorhergehenden Ansprüche, wobei die Trackingeinheit (114) eingerichtet ist, um an einer Mehrzahl von Stützstellen (140) vor dem Eintrittspunkt (136) und nach dem Austrittspunkt (138) des Sichtschattens (118) jeweils eine Pose des Messobjekts (112) zu bestimmen.Tracking system (110) according to one of the preceding claims, wherein the tracking unit (114) is set up to determine a pose of the visual shadow (118) at a plurality of support points (140) before the entry point (136) and after the exit point (138). To determine the measurement object (112). Trackingsystem (110) nach einem der vorhergehenden Ansprüche, wobei die Sekundärtrajektorie S nach einem Parameter x bogenlängenparametrisiert ist: S(x): 0 ≤ x ≤ 1, wobei die das Anpassen der Sekundärtrajektorie S(x) = ST(x) · SR(x) an die Trackingtrajektorie (T) durch eine lineare Interpolation erfolgt mit: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
Figure DE102020204677B4_0011
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0012
wobei ST(x) und SR(x) translatorische und rotatorische Anteile der Sekundärtrajektorie S sind, wobei D1,T ein translatorischer Anteil einer Differenztransformation D1 = A · S(1)-1 ist, mit einer Transformation A des Austrittspunkts (138) aus einem Koordinatensystem (122) der Trackingeinheit (114), und D1,R ein rotatorischer Anteil der Differenztransformation D1 ist, wobei D0,T ein translatorischer Anteil einer Differenztransformation D0 = E · S(0)-1 ist, mit einer Transformation E des Eintrittspunkts (136) aus dem Koordinatensystem (122) der Trackingeinheit (114) und D0,R ein rotatorischer Anteil der Differenztransformation D0 ist.
Tracking system (110) according to one of the preceding claims, wherein the secondary trajectory S is arc length parameterized according to a parameter x: S(x): 0 ≤ x ≤ 1, wherein the adaptation of the secondary trajectory S(x) = S T (x) S R (x) to the tracking trajectory (T) by a linear interpolation is done with: S T ( x ) : = x D 1, T S T ( x ) + ( 1 x ) D 0, T S T ( x ) ,
Figure DE102020204677B4_0011
S R ( x ) : = x D 1, R S R ( x ) + ( 1 x ) D 0, R S R ( x ) ,
Figure DE102020204677B4_0012
where S T (x) and S R (x) are translational and rotational parts of the secondary trajectory S, where D 1,T is a translational part of a difference transformation D 1 = A · S(1) -1 , with a transformation A of the exit point (138) from a coordinate system (122) of the tracking unit (114), and D 1,R is a rotational component of the differential transformation D 1 , with D 0,T being a translatory component of a differential transformation D 0 =E · S(0) -1 is, with a transformation E of the entry point (136) from the coordinate system (122) of the tracking unit (114) and D 0,R is a rotary component of the difference transformation D 0 .
Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren zur automatischen Kompensation von mindestens einer Datenlücke bei einer Nachverfolgung mindestens eines Messobjekts (112) auszuführen, wobei in dem Verfahren ein Trackingsystem (110) nach einem der vorhergehenden, ein Trackingsystem (110) betreffenden Ansprüche verwendet wird, und das Verfahren zumindest die nachfolgenden Schritte a. bis c. umfasst: a. Nachverfolgen einer Bewegung des Messobjektes (112) relativ zu mindestens einer Trackingeinheit (114); b. Bestimmen und/oder Bereitstellen mindestens einer Information über eine Position und/oder Orientierung des Messobjekts (112) im Raum in mindestens einem Sichtschatten (118) der Trackingeinheit (114) mit mindestens einem Sekundärsystem (116) wobei der Sichtschatten (118) der Trackingeinheit (114) ein Bereich eines Messvolumens der Trackingeinheit (114) ist, welcher von der Trackingeinheit (114) nicht beobachtet und/oder eingesehen werden kann, wobei der Sichtschatten (118) durch eine Unterbrechung einer Sichtlinie zwischen Messobjekt (112) und Trackingeinheit (114) erzeugt wird; c. Kompensieren mindestens einer durch den Sichtschatten (118) entstandenen Datenlücke bei der Nachverfolgung des Messobjekts (112) unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) mit mindestens einer Datenverarbeitungseinheit (120), wobei das Kompensieren ein Interpolieren und/oder Extrapolieren von durch die Trackingeinheit (114) aufgenommenen Daten unter Berücksichtigung der von dem Sekundärsystem (116) bestimmten Information über die Position und/oder Orientierung des Messobjekts (112) umfasst.Computer program, comprising instructions which, when the computer program is executed by a computer, cause the computer to carry out a method for automatically compensating for at least one data gap when tracking at least one measurement object (112), in which method a tracking system (110) according to one of the preceding , a tracking system (110) related claims is used, and the method at least the following steps a. to c. includes: a. tracking a movement of the measurement object (112) relative to at least one tracking unit (114); b. Determining and/or providing at least one piece of information about a position and/or orientation of the measurement object (112) in space in at least one visual shadow (118) of the tracking unit (114) with at least one secondary system (116), the visual shadow (118) of the tracking unit ( 114) is an area of a measurement volume of the tracking unit (114) which cannot be observed and/or seen by the tracking unit (114), the visual shadow (118) being caused by an interruption of a line of sight between the measurement object (112) and the tracking unit (114) is produced; c. Compensating for at least one data gap caused by the visual shadow (118) when tracking the measurement object (112), taking into account the information determined by the secondary system (116) about the position and/or orientation of the measurement object (112) with at least one data processing unit (120), wherein the compensation comprises an interpolation and/or extrapolation of data recorded by the tracking unit (114), taking into account the information determined by the secondary system (116) about the position and/or orientation of the measurement object (112). Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um ein Computerprogramm nach Anspruch 6 durchzuführen, wenn das Computerprogramm auf einem Computer oder Computer-Netzwerk ausgeführt wird.Computer program product with program code means stored on a machine-readable carrier, for creating a computer program claim 6 to be performed if the computer program is run on a computer or computer network.
DE102020204677.8A 2020-04-14 2020-04-14 Tracking system and computer program for compensating for visual shadows when tracking measuring objects Active DE102020204677B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020204677.8A DE102020204677B4 (en) 2020-04-14 2020-04-14 Tracking system and computer program for compensating for visual shadows when tracking measuring objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020204677.8A DE102020204677B4 (en) 2020-04-14 2020-04-14 Tracking system and computer program for compensating for visual shadows when tracking measuring objects

Publications (2)

Publication Number Publication Date
DE102020204677A1 DE102020204677A1 (en) 2021-10-14
DE102020204677B4 true DE102020204677B4 (en) 2023-04-13

Family

ID=77851564

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020204677.8A Active DE102020204677B4 (en) 2020-04-14 2020-04-14 Tracking system and computer program for compensating for visual shadows when tracking measuring objects

Country Status (1)

Country Link
DE (1) DE102020204677B4 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114088012B (en) * 2022-01-20 2022-04-15 杭州思看科技有限公司 Compensation method and device of measuring device, three-dimensional scanning system and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221072A1 (en) 2005-02-11 2006-10-05 Se Shuen Y S 3D imaging system
US20130004060A1 (en) 2011-06-29 2013-01-03 Matthew Bell Capturing and aligning multiple 3-dimensional scenes
US20140043436A1 (en) 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes
US20140176677A1 (en) 2005-09-09 2014-06-26 Industrial Research Limited 3D Scene Scanner and Position and Orientation System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060221072A1 (en) 2005-02-11 2006-10-05 Se Shuen Y S 3D imaging system
US20140176677A1 (en) 2005-09-09 2014-06-26 Industrial Research Limited 3D Scene Scanner and Position and Orientation System
US20130004060A1 (en) 2011-06-29 2013-01-03 Matthew Bell Capturing and aligning multiple 3-dimensional scenes
US20140043436A1 (en) 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes

Also Published As

Publication number Publication date
DE102020204677A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
DE102015002760B4 (en) Robot simulation system that simulates the process of removing workpieces
DE102015011914B4 (en) Contour line measuring device and robotic system
DE102005061952B4 (en) Method and system for determining inaccuracy information in an augmented reality system
DE102017116952A1 (en) SYSTEM AND METHOD FOR IMPROVED SCORING OF 3D LAYERS AND REMOVAL OF DISTURBANCES IN 3D IMAGE DATA
EP2598839B1 (en) Parallel online-offline reconstruction for three-dimensional space measurement
DE102018113336A1 (en) A method of using a machine to set an augmented reality display environment
DE102012009577A1 (en) Method for calibrating squint angle of frame camera of stereo camera arrangement in vehicle, involves calculating travel distance covered by vehicle, and determining deviation between distance and reference distance to calibrate angle
DE102019001038A1 (en) Simulation device that simulates the workflow of a robot
DE102019104310A1 (en) System and method for simultaneously viewing edges and normal image features through a vision system
DE102020204677B4 (en) Tracking system and computer program for compensating for visual shadows when tracking measuring objects
EP2562681A1 (en) Object tracking method for a camera-based driver assistance system
EP3711289B1 (en) Method for automatically restoring a calibrated state of a projection system
DE102007009851B3 (en) Industrial robot's position determining method, involves determining position of robot relative to object based on assigned model points, and determining position of camera assigned to image and position of camera relative to robot
EP4094897A1 (en) Hand-eye calibration of camera-guided devices
EP3882856A1 (en) Method and device for determining a pose
EP1915239B1 (en) Method for generating an environmental image
DE102014219418B4 (en) Process for the stereo rectification of stereo camera images and driver assistance system
EP4148386A1 (en) Determination of an absolute initial position of a vehicle
WO2005025237A1 (en) Method for automatically calibrating a camera system
DE102016109153A1 (en) METHOD FOR ADJUSTING A VIEWPOINT IN A VIRTUAL ENVIRONMENT
EP3465608B1 (en) Method and device for determining a transfer between two display images, and vehicle
DE19627938A1 (en) Dynamic tracking method for vehicle guidance
DE102014219428A1 (en) Self-calibration of a stereo camera system in the car
DE3446009A1 (en) Device and method for determining the roll, pitch and yaw movement and the flight direction of a missile
DE102015209284A1 (en) A method for generating a view of a vehicle environment

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final