DE102021002707B4 - Method and measuring device for determining the position of a movable machine part of a machine - Google Patents

Method and measuring device for determining the position of a movable machine part of a machine Download PDF

Info

Publication number
DE102021002707B4
DE102021002707B4 DE102021002707.8A DE102021002707A DE102021002707B4 DE 102021002707 B4 DE102021002707 B4 DE 102021002707B4 DE 102021002707 A DE102021002707 A DE 102021002707A DE 102021002707 B4 DE102021002707 B4 DE 102021002707B4
Authority
DE
Germany
Prior art keywords
reference objects
optical sensors
machine
view
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021002707.8A
Other languages
German (de)
Other versions
DE102021002707A1 (en
Inventor
Alexander Sellemond
Matthias Verginer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vision Metrics GmbH
Original Assignee
Vision Metrics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Metrics GmbH filed Critical Vision Metrics GmbH
Priority to DE102021002707.8A priority Critical patent/DE102021002707B4/en
Publication of DE102021002707A1 publication Critical patent/DE102021002707A1/en
Application granted granted Critical
Publication of DE102021002707B4 publication Critical patent/DE102021002707B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

Verfahren für eine Positionsbestimmung eines beweglichen Maschinenteils (20) einer Maschine (10), wobei an der Maschine (10) eine Mehrzahl von optischen Sensoren (122) angeordnet sind, die jeweils ein festes Sensorblickfeld (126) in Bezug zu ihrer Anordnung an der Maschine (10) aufweisen, und an dem beweglichen Maschinenteil (20) eine Mehrzahl von Referenzobjekten (130) angeordnet sind und jedes einzelne der Referenzobjekte (130) an einer festen Referenzposition auf dem Maschinenteil (20) fixiert ist, wobei jeweils die Sensorblickfelder (126) der optischen Sensoren (122) in Richtung der Referenzobjekte (130) ausgerichtet sind, wobei das Verfahren folgende Schritte aufweist:- Bereitstellen eines virtuellen Modells der Maschine (10'), das virtuelle optische Sensoren (122`) mit virtuellen Sensorblickfeldern (126') und virtuelle Referenzobjekte (130') aufweist, wobei die Ausrichtung der virtuellen optischen Sensoren (122') der der optischen Sensoren (122) entspricht und die Positionierung der virtuellen Referenzobjekte (130') der der Referenzobjekte (130) entspricht;- in einem Initialisierungsschritt (t0):- Bestimmen einer initialen Sensorblickfeldposition der einzelnen Referenzobjekte (130) in den jeweiligen Sensorblickfeldern (126) der jeweiligen optischen Sensoren (122) und Anpassen des virtuellen Modells der Maschine (10') an die initiale Sensorblickfeldpositionen der einzelnen Referenzobjekte (130);- in einem dem Initialisierungsschritt nachfolgenden ersten Zeitintervall (t1):- Aktivieren der Referenzobjekte (130) und Aufnehmen von Aufnahmen durch die optischen Sensoren (122);- Ermitteln der neuen Sensorblickfeldposition der einzelnen aktivierten Referenzobjekte (130) in den einzelnen Aufnahmen der optischen Sensoren (122);- Anpassen des virtuellen Modells der Maschine (10') an die neuen Sensorblickfeldpositionen der einzelnen Referenzobjekte (130), indem eine Minimierungsfunktion ausgeführt wird;- Bestimmen der Position des beweglichen Maschinenteils (20) durch Auslesen der virtuellen Position des virtuellen Maschinenteils (20') aus dem virtuellen Modell, wobei das Bestimmen der initialen Sensorblickfeldposition der einzelnen Referenzobjekte (130) die folgenden Schritte aufweist:- Aktivieren eines der Referenzobjekte (130) und Aufnehmen von Aufnahmen durch alle optischen Sensoren (122) während das Referenzobjekt (130) aktiviert ist;- Auswerten der jeweiligen Aufnahmen der optischen Sensoren (122) in denen das Referenzobjekt (130) aktiviert ist, wodurch die initiale Sensorblickfeldposition des Referenzobjekts (130) bestimmt wird;- Wiederholen der vorgenannten Verfahrensschritte mit allen weiteren Referenzobjekten (130), wodurch alle initialen Sensorblickfeldpositionen der Referenzobjekte (130) bestimmt werden.Method for determining the position of a movable machine part (20) of a machine (10), a plurality of optical sensors (122) being arranged on the machine (10), each of which has a fixed sensor field of view (126) in relation to its arrangement on the machine (10), and a plurality of reference objects (130) are arranged on the movable machine part (20) and each individual reference object (130) is fixed at a fixed reference position on the machine part (20), the respective sensor fields of view (126) of the optical sensors (122) are aligned in the direction of the reference objects (130), the method having the following steps: - providing a virtual model of the machine (10'), the virtual optical sensors (122`) with virtual sensor fields of view (126') and virtual reference objects (130'), wherein the orientation of the virtual optical sensors (122') corresponds to that of the optical sensors (122) and the positioning of the virtual reference objects (130') corresponds to that of the reference objects (130);- in an initialization step (t0):- Determining an initial sensor field of view position of the individual reference objects (130) in the respective sensor fields of view (126) of the respective optical sensors (122) and adapting the virtual model of the machine (10') to the initial sensor field of view positions of the individual reference objects (130) ;- in a first time interval (t1) following the initialization step:- activating the reference objects (130) and recording by the optical sensors (122);- determining the new sensor field of view position of the individual activated reference objects (130) in the individual recordings of the optical sensors (122);- adapting the virtual model of the machine (10') to the new sensor field of view positions of the individual reference objects (130) by performing a minimization function;- determining the position of the movable machine part (20) by reading the virtual position of the virtual Machine part (20') from the virtual model, wherein the determination of the initial sensor field of view position of the individual reference objects (130) has the following steps: - activating one of the reference objects (130) and taking pictures by all optical sensors (122) while the reference object ( 130) is activated;- evaluating the respective recordings of the optical sensors (122) in which the reference object (130) is activated, whereby the initial sensor field of view position of the reference object (130) is determined;- repeating the aforementioned method steps with all other reference objects (130) , whereby all initial sensor field of view positions of the reference objects (130) are determined.

Description

Die Erfindung betrifft ein Verfahren und eine Messvorrichtung für eine Positionsbestimmung eines beweglichen Maschinenteils einer Maschine.The invention relates to a method and a measuring device for determining the position of a movable machine part of a machine.

Industrielle Maschinen weisen häufig ein Maschinenteil oder eine Mehrzahl von Maschinenteilen auf, die in Bezug zur Maschine beweglich und steuerbar angeordnet sind. Beispielhaft können hierzu Baumaschinen wie zum Beispiel Erdbewegungsmaschinen oder Bohrwägen mit Tragarmen genannt werden. Weiter beispielhaft können Werkzeugmaschinen mit beweglichen Werkzeugtragarmen genannt werden.Industrial machines often have a machine part or a plurality of machine parts that are movably and controllably arranged in relation to the machine. Examples of this are construction machines such as earthmoving machines or drilling rigs with support arms. Machine tools with movable tool support arms can also be mentioned by way of example.

Bei derartigen Maschinen ist eine Positionsbestimmung des beweglichen Maschinenteils oder der beweglichen Maschinenteile oder eine Positionsbestimmung der Maschine selbst in Bezug zu einem vordefinierten Bezugskoordinatensystem wichtig, um die gewünschten Arbeiten wie beispielsweise Erdbewegungsarbeiten oder Bohrarbeiten mit der gewünschten Genauigkeit und Qualität durchführen zu können, wobei insbesondere eine hohe zeitliche Auflösung gefordert ist. Wird beispielsweise ein Bohrwagen im Tunnelbau dafür verwendet Bohrungen zur Einführung von Sprengstoff in einer Ortsbrust des Tunnelbauwerks zu bohren, ist die genaue Positionierung der die Bohrvorrichtung tragenden Tragarme von großer Bedeutung, damit die Bohrungen derart eingebracht werden können, dass die Sprengung wie gewünscht durchgeführt werden kann.In machines of this type, it is important to determine the position of the movable machine part or machine parts or to determine the position of the machine itself in relation to a predefined reference coordinate system in order to be able to carry out the desired work, such as earthmoving work or drilling work, with the desired accuracy and quality, with a high level of temporal resolution is required. If, for example, a drill rig is used in tunneling to drill holes for the introduction of explosives in a working face of the tunnel structure, the exact positioning of the support arms carrying the drilling device is of great importance so that the holes can be drilled in such a way that the blasting can be carried out as desired .

Herkömmlich wird die Position derartiger Maschinenteile, wie beispielsweise die oben genannten Tragarme, mittels Vermessung der einzelnen Antriebe der beweglichen Maschinenteile bestimmt. Wird beispielsweise die Position des beweglichen Maschinenteils mittels Linearmotoren und / oder Schrittmotoren gesteuert, dann kann die Position der einzelnen Antriebe überwacht und bestimmt werden, wodurch anschließend auf die Position des beweglichen Maschinenteils geschlossen werden kann.Conventionally, the position of such machine parts, such as the support arms mentioned above, is determined by measuring the individual drives of the moving machine parts. If, for example, the position of the movable machine part is controlled by means of linear motors and/or stepping motors, the position of the individual drives can be monitored and determined, which means that the position of the movable machine part can then be deduced.

Weist allerdings die Positionsbestimmung einer der Antriebe, die den beweglichen Maschinenteil bewegen, einen Fehler oder eine Ungenauigkeit auf, kann dies zu einer fehlerhaften oder ungenauen Positionsbestimmung des beweglichen Maschinenteils führen. Zudem kann sich ein solcher Fehler aufgrund der Kombination mehrerer Antriebe zur Bewegung des Maschinenteils potenzieren bzw. fortsetzen, sodass die Position des beweglichen Maschinenteils mit zunehmender Anzahl an Bewegungsmotoren zunehmend ungenau bestimmt werden kann.However, if the determination of the position of one of the drives that move the movable machine part has an error or is inaccurate, this can lead to an incorrect or inaccurate determination of the position of the movable machine part. In addition, such an error can multiply or continue due to the combination of several drives for moving the machine part, so that the position of the movable machine part can be determined increasingly imprecisely with an increasing number of movement motors.

Das Dokument JP 2020 - 97 821 A betrifft ein Bohrsystem gemäß umfassend: mindestens zwei vorläufige Marker und mindestens drei normale Marker, die in einer Längsrichtung eines stabförmigen Führungsgehäuses angebracht sind, das schwenkbar von einem Fahrzeugkörper einer Bohrmaschine absteht; eine Vielzahl von Empfangsmitteln, die in Abständen installiert sind, um von jedem der Marker empfangene Empfangsinformationen zu erfassen; Mittel zum Berechnen von Koordinatenpositionen der Markierungen aus den von einer Vielzahl von Empfangsmitteln erfassten Empfangsinformationen; Mittel zum Speichern der berechneten Koordinatenpositionen der Markierungen; und zweite Berechnungsmittel zum Berechnen von Koordinatenpositionen der temporären Markierungen aus den Koordinatenpositionen nach der Bewegung der normalen Markierungen, nachdem die temporären Markierungen entfernt wurden.The document JP 2020 - 97 821 A relates to a drilling system according to comprising: at least two temporary markers and at least three normal markers mounted in a longitudinal direction of a rod-shaped guide case pivotally protruding from a vehicle body of a drilling machine; a plurality of receiving means installed at intervals to acquire reception information received from each of the markers; means for calculating coordinate positions of the markers from the received information acquired by a plurality of receiving means; means for storing the calculated coordinate positions of the markers; and second calculation means for calculating coordinate positions of the temporary markers from the coordinate positions after movement of the normal markers after the temporary markers have been removed.

Das Dokument US 2005 / 0 159 916 A1 betrifft ein Verfahren, um den Feldwinkel einer Bilderfassungsvorrichtung zu korrigieren, die ein Bild eines realen Raums erfasst, das einen Merkmalspunkt enthält, dessen Position im realen Raum bekannt ist. Es wird die Position des Merkmalspunkts (reale Markerposition) in dem von der Bilderfassungsvorrichtung erfassten Bild des realen Raums erfasst. Dann wird die Position des Merkmalspunktes (virtuelle Markerposition), der zu sehen ist, wenn der reale Raum von einem virtuellen Standpunkt aus betrachtet wird, der durch die gemessene Position, Orientierung und den Feldwinkel der Bilderfassungsvorrichtung spezifiziert ist, in diesem Bild berechnet. Ein Korrekturbetrag für die Position und/oder ein Korrekturbetrag für die Ausrichtung der Bilderfassungsvorrichtung wird/werden so berechnet, dass eine Abweichung zwischen der realen und der virtuellen Markerposition im Bild minimiert wird. The document U.S. 2005/0 159 916 A1 relates to a method to correct the field angle of an image capturing device capturing an image of a real space containing a feature point whose position in the real space is known. The position of the feature point (real marker position) in the real space image captured by the image capturing device is detected. Then, the position of the feature point (virtual marker position) seen when the real space is viewed from a virtual viewpoint specified by the measured position, orientation, and field angle of the imaging device in this image is calculated. A correction amount for the position and/or a correction amount for the orientation of the image capturing device is/are calculated in such a way that a deviation between the real and the virtual marker position in the image is minimized.

Das Dokument US 2011 10 169 949 A1 betrifft ein System zur Bestimmung der Ausrichtung eines Anbaugerätes auf einem Fahrzeug. Das System umfasst eine am Fahrzeug montierte Kamera und ein Zielobjekt, das sich in einem Sichtfeld der Kamera befindet und am Arbeitsgerät montiert ist. Das Zielobjekt enthält Markierungen, die eine Bestimmung der Ausrichtung des Arbeitsgeräts in Bezug auf die Kamera ermöglichen.The document U.S. 2011 10 169 949 A1 relates to a system for determining the orientation of an implement on a vehicle. The system includes a vehicle-mounted camera and a target located in a field of view of the camera and mounted on the implement. The target object contains markings that allow the orientation of the implement in relation to the camera to be determined.

Das Dokument DE 10 2019 220 557 A1 betrifft ein Verfahren zum Lokalisieren von mindestens einer Komponente einer Maschine, wobei eine Vielzahl von Lokalisierungselementen an relativ zueinander gemäß einer vorgegebenen Kinematik beweglichen Strukturelementen der Maschine angeordnet ist, wobei bevorzugt zumindest zwei der Lokalisierungselemente ein jeweiliges RTLS-Modul aufweisen, mit den Schritten: Ermitteln einer Vielzahl von Abständen zwischen jeweils zwei der Lokalisierungselemente, wobei das Ermitteln der Abstände bevorzugt ein Messen von mindestens einem Abstand zwischen RTLS-Modulen umfasst, Ermitteln von mindestens einem Winkel, welcher durch jeweils drei der Lokalisierungselemente definiert ist, unter Verwendung der ermittelten Abstände; und Lokalisieren der mindestens einen Komponente, unter Verwendung des mindestens einen ermittelten Winkels, wobei das Ermitteln der Vielzahl von Abständen und/oder das Ermitteln des mindestens einen Winkels unter Berücksichtigung der vorgegebenen Kinematik erfolgen.The document DE 10 2019 220 557 A1 relates to a method for locating at least one component of a machine, with a large number of localization elements being arranged on structural elements of the machine that can be moved relative to one another according to predetermined kinematics, with at least two of the localization elements preferably having a respective RTLS module, with the steps of: determining a Variety of distances between any two of the locality tion elements, wherein determining the distances preferably comprises measuring at least one distance between RTLS modules, determining at least one angle, which is defined by three of the localization elements, using the determined distances; and locating the at least one component using the at least one determined angle, the determination of the plurality of distances and/or the determination of the at least one angle taking into account the specified kinematics.

Das Dokument US 2015 10 168 136 A1 betrifft ein Verfahren und System zur Schätzung der dreidimensionalen (3D) Position und Ausrichtung (Pose) einer gelenkig gelagerten Maschine, wie z. B. eines Baggers, umfasst die Verwendung einer oder mehrerer Markierungen und einer oder mehrerer Bilderfassungsvorrichtungen. Mit der/den Bilderfassungsvorrichtung(en) werden Bilder der Markierung(en) aufgenommen, und die aufgenommenen Bilder werden zur Bestimmung der Haltung verwendet.The document U.S. 2015 10 168 136 A1 relates to a method and system for estimating the three-dimensional (3D) position and orientation (pose) of an articulated machine, such as. B. an excavator, includes the use of one or more markers and one or more imaging devices. Images of the marker(s) are captured with the image capturing device(s) and the captured images are used to determine the posture.

Das Dokument DE 10 2014 209 371 A1 betrifft ein System und Verfahren zur Steuerung einer Arbeitsmaschine mit einem Ausleger, mit einem Steuergerät und einer 3D-Kamera zur Erfassung der Position des Auslegers, wobei an mindestens einem Punkt des Auslegers Marker angeordnet sind, und wobei die 3D-Kamera und das Steuergerät zur Überwachung der Position der Marker ausgebildet sind.The document DE 10 2014 209 371 A1 relates to a system and method for controlling a working machine with a boom, with a control unit and a 3D camera for detecting the position of the boom, markers being arranged at at least one point of the boom, and the 3D camera and the control unit for monitoring the position of the markers are formed.

Die Aufgabe der vorliegenden Offenbarung ist es daher, ein Verfahren und eine Messvorrichtung zu schaffen, mit dem beziehungsweise mit der es möglich ist, eine Positionsbestimmung von beweglichen Maschinenteilen einer Maschine mit hoher Genauigkeit und Robustheit durchzuführen.The object of the present disclosure is therefore to create a method and a measuring device with which it is possible to determine the position of moving machine parts of a machine with high accuracy and robustness.

Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen der vorliegenden Offenbarung sind in den anhängigen Ansprüchen und der Beschreibung angegeben.The object is solved by the features of the independent patent claims. Advantageous developments of the present disclosure are specified in the dependent claims and the description.

Gemäß der vorliegenden Offenbarung weist ein Verfahren für eine Positionsbestimmung eines beweglichen Maschinenteils einer Maschine die nachfolgend aufgezählten Schritte auf. An der Maschine sind eine Mehrzahl von optischen Sensoren angeordnet, die jeweils ein festes Sensorblickfeld in Bezug zu ihrer Anordnung an der Maschine aufweisen, und an dem beweglichen Maschinenteil sind eine Mehrzahl von Referenzobjekten angeordnet und jedes einzelne der Referenzobjekte ist an einer festen Referenzposition auf dem Maschinenteil fixiert, wobei jeweils die Sensorblickfelder der optischen Sensoren in Richtung der Referenzobjekte ausgerichtet sind. Die Verfahrensschritte sind:

  • - Bereitstellen eines virtuellen Modells der Maschine, das virtuelle optische Sensoren mit virtuellen Sensorblickfeldern und virtuelle Referenzobjekte aufweist, wobei die Ausrichtung der virtuellen optischen Sensoren der der optischen Sensoren entspricht und die Positionierung der virtuellen Referenzobjekte der der Referenzobjekte entspricht. Das virtuelle Modell bildet die Maschine mit dem beweglichen Maschinenteil, ggf. mit mehreren beweglichen Maschinenteilen, virtuell ab und entspricht demgemäß einem virtuellen Zwilling der realen Maschine. Die Bewegungsmöglichkeiten des beweglichen Maschinenteils können in dem virtuellen Modell auch abgebildet werden. Gemäß der vorliegenden Offenbarung bildet das virtuelle Modell insbesondere auch die optischen Sensoren und die Referenzobjekte an der Maschine ab. In anderen Worten, so wie die optischen Sensoren und die Referenzobjekte an der realen Maschine angeordnet sind, sind sie auch in dem virtuellen Modell der Maschine angeordnet.
  • - in einem Initialisierungsschritt:
  • - Bestimmen einer initialen Sensorblickfeldposition der einzelnen Referenzobjekte in den jeweiligen Sensorblickfeldern der jeweiligen optischen Sensoren und Anpassen des virtuellen Modells der Maschine an die initiale Sensorblickfeldpositionen der einzelnen Referenzobjekte. Die Sensorblickfeldposition ist jene Position in dem Sensorblickfeld, an welcher das Referenzobjekt sich gerade befindet. Sie kann gemäß einer Ausführungsform mittels kartesischer oder polarer Koordinaten oder einer Pixelposition angegeben werden. Mittels der bestimmten initialen Sensorblickfeldposition wird das virtuelle Modell der Maschine entsprechend ausgerichtet / angepasst, indem die virtuellen Sensorblickfeldposition der ermittelten initialen Sensorblickfeldposition angeglichen wird. In anderen Worten, die virtuellen Referenzobjekte werden so verschoben, dass die virtuelle Sensorblickfeldposition der virtuellen Referenzobjekte der Sensorblickfeldposition der realen Referenzobjekte entspricht. Dies kann gemäß einer Ausführungsform mittels einer Minimierungsfunktion durchgeführt werden. Mittels dieses Verfahrensschritts wird die Initialisierung, die Bestimmung der initialen Position des beweglichen Maschinenteils, erreicht.
  • - in einem dem Initialisierungsschritt nachfolgenden ersten Zeitintervall:
    • - Aktivieren der Referenzobjekte und Aufnehmen von Aufnahmen durch die optischen Sensoren. Die einzelnen Referenzobjekte werden aktiviert bzw. eingeschaltet, und gleichzeitig werden die Aufnahmen mit den optischen Sensoren gemacht, während die Referenzobjekte eingeschaltet sind. Gemäß einer Ausführungsform werden alle Referenzobjekte gleichzeitig oder nacheinander aktiviert und entsprechend von den optischen Sensoren die Aufnahmen gemacht. Nach der Initialisierung erfolgte beispielsweise eine Bewegung des beweglichen Maschinenteils, sodass mindestens eines der Referenzobjekte auch bewegt wurde.
    • - Ermitteln der neuen Sensorblickfeldposition der einzelnen aktivierten Referenzobjekte in den einzelnen Aufnahmen der optischen Sensoren. Die einzelnen Aufnahmen der optischen Sensoren werden dahingehend ausgewertet, dass die neue Sensorblickfeldposition der einzelnen aktivierten Referenzobjekte ermittelt wird. Aus dem Initialisierungsschritt ist die initiale Sensorblickfeldposition der jeweiligen Referenzobjekte bekannt. Hat sich das bewegliche Maschinenteil verschoben, also entsprechend auch das Referenzobjekt, ist in der neuen Aufnahme auch die Sensorblickfeldposition des verschobenen Referenzobjekts eine andere. Die zeitliche Auflösung wird derart gewählt, dass die Zuordnung der Referenzobjekte dauerhaft möglich bleibt.
    • - Anpassen des virtuellen Modells der Maschine an die neuen Sensorblickfeldpositionen der einzelnen Referenzobjekte, indem eine Minimierungsfunktion ausgeführt wird. Ähnlich zum Initialisierungsschritt wird auch gemäß dieses Verfahrensschrittes das virtuelle Modell der Maschine mittels der ermittelten Sensorblickfeldposition angepasst, indem die virtuelle Sensorblickfeldposition an die ermittelten neuen Sensorblickfeldposition angeglichen wird. In anderen Worten, die virtuellen Referenzobjekte werden so verschoben, dass die virtuelle Sensorblickfeldposition der virtuellen Referenzobjekte der neuen Sensorblickfeldposition der realen Referenzobjekte entspricht. Gemäß der vorliegenden Offenbarung wird dies mittels der Minimierungsfunktion durchgeführt. Die Minimierungsfunktion ermittelt demgemäß die wahrscheinlichste Position und Ausrichtung des virtuellen Maschinenteils. Dafür werden der Minimierungsfunktion als Eingangsgrößen die neuen Sensorblickfelspositionen zugeführt.
    • - Bestimmen der Position und Ausrichtung des beweglichen Maschinenteils durch auslesen der virtuellen Position des virtuellen Maschinenteils aus dem virtuellen Modell. Die Position und Ausrichtung des beweglichen Maschinenteils kann unmittelbar aus der virtuellen Position und Ausrichtung des virtuellen Maschinenteils bestimmt werden, indem die virtuelle Position ausgelesen wird. Die vorliegende Offenbarung schafft demgemäß ein sehr einfaches, robustes und genaues Verfahren zur Positionsbestimmung des beweglichen Maschinenteils.
According to the present disclosure, a method for determining the position of a movable machine part of a machine has the steps listed below. A plurality of optical sensors are arranged on the machine, each having a fixed sensor field of view in relation to their arrangement on the machine, and a plurality of reference objects are arranged on the movable machine part and each one of the reference objects is at a fixed reference position on the machine part fixed, with the respective sensor fields of view of the optical sensors being aligned in the direction of the reference objects. The process steps are:
  • - providing a virtual model of the machine comprising virtual optical sensors with virtual sensor fields of view and virtual reference objects, the orientation of the virtual optical sensors corresponding to that of the optical sensors and the positioning of the virtual reference objects corresponding to that of the reference objects. The virtual model virtually depicts the machine with the moving machine part, optionally with several moving machine parts, and accordingly corresponds to a virtual twin of the real machine. The possible movements of the moving machine part can also be mapped in the virtual model. According to the present disclosure, the virtual model in particular also depicts the optical sensors and the reference objects on the machine. In other words, just as the optical sensors and the reference objects are arranged on the real machine, they are also arranged in the virtual model of the machine.
  • - in an initialization step:
  • - Determining an initial sensor field of view position of the individual reference objects in the respective sensor fields of view of the respective optical sensors and adapting the virtual model of the machine to the initial sensor field of view positions of the individual reference objects. The sensor field of view position is that position in the sensor field of view at which the reference object is currently located. According to one embodiment, it can be specified using Cartesian or polar coordinates or a pixel position. The virtual model of the machine is aligned/adjusted accordingly by means of the determined initial sensor field of view position, in that the virtual sensor field of view position is adjusted to the determined initial sensor field of view position. In other words, the virtual reference objects are shifted such that the virtual sensor field of view position of the virtual reference objects corresponds to the sensor field of view position of the real reference objects. According to one embodiment, this can be performed by means of a minimization function. The initialization, the determination of the initial position of the movable machine part, is achieved by means of this method step.
  • - in a first time interval following the initialization step:
    • - Activating the reference objects and taking pictures through the optical sensors. The individual reference objects are activated or switched on, and at the same time the recordings are made with the optical sensors while the reference objects are switched on. According to one embodiment, all reference objects are activated simultaneously or one after the other and the recordings are made accordingly by the optical sensors. After the initialization, for example, the movable machine part moved, so that at least one of the reference objects was also moved.
    • - Determination of the new sensor field of view position of the individual activated reference objects in the individual recordings of the optical sensors. The individual recordings of the optical sensors are evaluated in such a way that the new sensor field of view position of the individual activated reference objects is determined. The initial sensor field of view position of the respective reference objects is known from the initialization step. If the moving machine part has shifted, i.e. the reference object as well, the sensor field of view position of the shifted reference object is also different in the new recording. The temporal resolution is selected in such a way that the assignment of the reference objects remains permanently possible.
    • - Adjusting the virtual model of the machine to the new sensor field of view positions of each reference object by performing a minimization function. Similar to the initialization step, the virtual model of the machine is also adapted according to this method step using the determined sensor field of view position by the virtual sensor field of view position being adjusted to the new sensor field of view position determined. In other words, the virtual reference objects are shifted such that the virtual sensor field of view position of the virtual reference objects corresponds to the new sensor field of view position of the real reference objects. According to the present disclosure, this is done using the minimize function. Accordingly, the minimization function determines the most probable position and orientation of the virtual machine part. For this purpose, the new sensor field of view positions are fed to the minimization function as input variables.
    • - Determining the position and orientation of the movable machine part by reading the virtual position of the virtual machine part from the virtual model. The position and orientation of the movable machine part can be determined directly from the virtual position and orientation of the virtual machine part by reading out the virtual position. Accordingly, the present disclosure provides a very simple, robust and accurate method for determining the position of the moving machine part.

Die optischen Sensoren sind gemäß der vorliegenden Offenbarung an der Maschine angeordnet. Die optischen Sensoren können gemäß einer Ausführungsform an einem nicht beweglichen Bereich der Maschine angeordnet sein oder gemäß einer anderen Ausführungsform zumindest teilweise an einem der beweglichen Maschinenteile angeordnet sein. Ist beispielsweise die Maschine eine Baumaschine kann der bewegliche Maschinenteil ein Tragarm sein. Der Tragarm als bewegliches Maschinenteil ist demgemäß in Bezug zur Baumaschine beweglich. Zudem ist die Baumaschine in Bezug zu einem externen Referenzkoordinatensystem beweglich.The optical sensors are located on the machine in accordance with the present disclosure. According to one embodiment, the optical sensors can be arranged on a non-moving area of the machine or, according to another embodiment, can be arranged at least partially on one of the moving machine parts. For example, if the machine is a construction machine, the movable machine part can be a support arm. The support arm as a moving machine part is therefore movable in relation to the construction machine. In addition, the construction machine can be moved in relation to an external reference coordinate system.

Das feste Sensorblickfeld der optischen Sensoren gemäß der vorliegenden Offenbarung wird durch die Ausrichtung der optischen Sensoren und demgemäß durch die Anordnung der optischen Sensoren an der Maschine festgelegt. Gemäß der vorliegenden Offenbarung ist das Sensorblickfeld der optischen Sensoren in Richtung von zumindest einem der Referenzobjekte ausgerichtet, dies ist nicht so zu verstehen, dass das Sensorblickfeld der optischen Sensoren immer / dauerhaft mindestens eines der Referenzobjekte erfassen muss. Es ist durchaus möglich, dass zumindest zeitweise das Sensorblickfeld eines der optischen Sensoren kein Referenzobjekt erfasst. Eine sinnvolle Anordnung und Ausrichtung der optischen Sensoren trägt Sorge dafür, dass in jeder möglichen Position und Ausrichtung des beweglichen Maschinenteils mindestens eines der Referenzobjekte durch einen der optischen Sensoren gesichtet werden kann.The fixed sensor field of view of the optical sensors according to the present disclosure is determined by the orientation of the optical sensors and accordingly by the placement of the optical sensors on the machine. According to the present disclosure, the sensor field of view of the optical sensors is aligned in the direction of at least one of the reference objects. This should not be understood to mean that the sensor field of view of the optical sensors must always/permanently capture at least one of the reference objects. It is quite possible that at least temporarily the sensor field of view of one of the optical sensors does not detect a reference object. A sensible arrangement and alignment of the optical sensors ensures that at least one of the reference objects can be viewed by one of the optical sensors in every possible position and alignment of the moving machine part.

Demgemäß wird durch die optischen Sensoren zumindest eines der Referenzobjekte erfasst. Gemäß einer Ausführungsform ist das Sensorblickfeld mindestens eines der optischen Sensoren in Richtung von mehreren der Referenzobjekte ausgerichtet. In anderen Worten, in zumindest einer Position des beweglichen Maschinenteils kann mindestens eines der Referenzobjekte durch den entsprechenden optischen Sensor erfasst werden. Dadurch, dass das bewegliche Maschinenteil sich in Bezug zu den Blickfeldern der optischen Sensoren bewegt, kann sich die Anzahl der Referenzobjekte in dem Blickfeld der jeweiligen optischen Sensoren ändern.Accordingly, at least one of the reference objects is detected by the optical sensors. According to one embodiment, the sensor field of view of at least one of the optical sensors is aligned in the direction of several of the reference objects. In other words, in at least one position of the movable machine part, at least one of the reference objects can be detected by the corresponding optical sensor. Due to the fact that the moving machine part moves in relation to the fields of view of the optical sensors, the number of reference objects in the field of view of the respective optical sensors can change.

Gemäß der vorliegenden Offenbarung ist es demgemäß möglich die Position des beweglichen Maschinenteils sehr genau mittels eines vergleichsweise einfachen Aufbaus bestehend aus den Referenzobjekten und den optischen Sensoren ermitteln.Accordingly, according to the present disclosure, it is possible to determine the position of the movable machine part very precisely by means of a comparatively simple structure consisting of the reference objects and the optical sensors.

Zur Bestimmung der Position der einzelnen Referenzobjekte ist es vorteilhaft, dass die einzelnen Referenzobjekte in dem Sensorblickfeld von zwei oder mehreren optischen Sensoren sind. Je höher die Anzahl, desto größer ist die Redundanz, wodurch die Genauigkeit der Positionsbestimmung erhöht werden kann. Zusätzlich kann bei mehreren Aufnahmen eine Auswahl aus den Aufnahmen getroffen werden, die zur Positionsbestimmung herangezogen werden. Dadurch kann die Genauigkeit der Positionsbestimmung der Referenzobjekte erhöht werden.In order to determine the position of the individual reference objects, it is advantageous for the individual reference objects to be in the sensor field of view of two or more optical sensors. The higher the number, the greater the redundancy, which can increase the accuracy of the position determination. In addition, if there are several recordings, a selection can be made from the recordings that are used to determine the position. As a result, the accuracy of the position determination of the reference objects can be increased.

Es ist denkbar, dass die einzelnen Referenzobjekte durch Bewegung des beweglichen Maschinenteils das Blickfeld eines der optischen Sensoren verlässt und sich in das Blickfeld eines anderen der optischen Sensoren bewegt. Dies kann gemäß einer Ausführungsform durch Auswertung der einzelnen Aufnahmen der optischen Sensoren erkannt und sogar vorherberechnet werden, indem eine prognostizierte Bewegung des beweglichen Maschinenteils ermittelt wird. Dadurch, dass dies berücksichtigt wird, kann die Genauigkeit der Positionsbestimmung der optischen Referenzobjekte weiter vorteilhaft erhöht werden.It is conceivable that the individual reference objects leave the field of view of one of the optical sensors due to the movement of the movable machine part and move into the field of view of another of the optical sensors. According to one embodiment, this can be recognized and even calculated in advance by evaluating the individual recordings of the optical sensors by determining a predicted movement of the movable machine part. Because this is taken into account, the accuracy of the position determination of the optical reference objects can be further advantageously increased.

Gemäß einer Ausführungsform wird kontinuierlich die Position des beweglichen Maschinenteils ermittelt, indem das Verfahren des ersten Zeitintervalls kontinuierlich wiederholt wird. Dadurch ist eine kontinuierliche Positionsbestimmung der einzelnen Referenzobjekte möglich ist. Gemäß einer weiteren Ausführungsform wird dabei für die einzelnen nachfolgenden Zeitintervalle, die Messrate möglichst hoch und die Messzeit möglichst kurz gewählt, sodass die Positionsbestimmung vorteilhaft genau durchgeführt werden kann, da sich das bewegliche Maschinenteil in vergleichsweise kurzer Zeit weniger bewegen kann, sodass die Zuordnung einfach ist und der Messfehler insgesamt klein ist.According to one embodiment, the position of the movable machine part is continuously determined by continuously repeating the method of the first time interval. This enables a continuous determination of the position of the individual reference objects. According to a further embodiment, the measuring rate is selected as high as possible and the measuring time as short as possible for the individual subsequent time intervals, so that the position determination can advantageously be carried out precisely, since the movable machine part can move less in a comparatively short time, so that the assignment is simple and the overall measurement error is small.

Gemäß der vorliegenden Offenbarung wird die initiale Sensorblickfeldposition der einzelnen Referenzobjekte wie folgt ermittelt:

  • - Aktivieren eines einzigen der Referenzobjekte und Aufnehmen von Aufnahmen durch alle optischen Sensoren während das Referenzobjekt aktiviert ist. Die weiteren Referenzobjekte sind dabei nicht aktiviert bzw. ausgeschaltet.
  • - Auswerten der jeweiligen Aufnahmen der optischen Sensoren in denen das Referenzobjekt aktiviert ist, wodurch die initiale Sensorblickfeldposition des Referenzobjekts bestimmt wird. Während das eine Referenzobjekt aktiviert ist, werden mit allen der optischen Sensoren eine Aufnahme gemacht. Diese Aufnahmen werden ausgewertet, wodurch die initiale Sensorblickfeldposition des aktivierten Referenzobjekts der unterschiedlichen optischen Sensoren ermittelt wird.
  • - Wiederholen der vorgenannten Verfahrensschritte mit allen weiteren Referenzobjekten, wodurch alle initialen Sensorblickfeldpositionen der Referenzobjekte bestimmt werden. Sobald die erste Sensorblickfeldposition des ersten Referenzobjekts ermittelt wurde, wird ein zweites Referenzobjekt aktiviert, eingeschaltet, während die anderen Referenzobjekte ausgeschaltet bleiben. Der Vorgang wird für das zweite Referenzobjekt und anschließend für die weiteren Referenzobjekte wiederholt, bis für alle Referenzobjekte die initiale Sensorblickfeldposition ermittelt worden ist. Gemäß dieser Ausführungsform ist die initiale Zuordnung der Referenzobjekte und die initiale Sensorblickfeldposition aller Referenzobjekte vorteilhaft einfach möglich.
According to the present disclosure, the initial sensor field of view position of each reference object is determined as follows:
  • - Activating a single one of the reference objects and taking pictures through all optical sensors while the reference object is activated. The other reference objects are not activated or switched off.
  • - Evaluation of the respective recordings of the optical sensors in which the reference object is activated, whereby the initial sensor field of view position of the reference object is determined. While one reference object is activated, a picture is taken with all of the optical sensors. These recordings are evaluated, whereby the initial sensor field of view position of the activated reference object of the different optical sensors is determined.
  • - Repeating the aforementioned method steps with all further reference objects, whereby all initial sensor field of view positions of the reference objects are determined. Once the first sensor field of view position of the first reference object is determined, a second reference object is activated, turned on while the other reference objects remain off. The process is repeated for the second reference object and then for the further reference objects until the initial sensor field of view position has been determined for all reference objects. According to this embodiment, the initial assignment of the reference objects and the initial sensor field of view position of all reference objects is advantageously possible in a simple manner.

Gemäß einer Ausführungsform werden zusätzlich zu den Aufnahmen in denen das jeweilige Referenzobjekt aktiviert wird eine weitere Schwarzaufnahme mit jedem der optischen Sensoren aufgenommen und mit den Aufnahmen in denen das jeweilige Referenzobjekt aktiviert ist, verglichen, wodurch Umgebungseinflüsse herausgefiltert werden. Schwarzaufnahmen sind Aufnahmen der optischen Sensoren, in denen keines der Referenzobjekte aktiviert ist, demgemäß weisen diese Schwarzaufnahmen lediglich Umgebungseinflüsse wie Strahlung von Strahlern oder Lampen, beispielsweise Baustrahlern, auf. Derartige Umgebungseinflüsse werden gemäß dieser Ausführungsform identifiziert, als solche klassifiziert und können entsprechend bei der Bestimmung der Sensorblickfeldposition der aktivierten Referenzobjekte berücksichtigt werden. Gemäß dieser Ausführungsform wird das Verfahren zur Positionsbestimmung genauer und robuster. Ist beispielsweise in dem Blickfeld eines der optischen Sensoren eine Strahlungsquelle, wie beispielsweise eine Lampe / Strahler, eingeschaltet, kann diese in der Schwarzaufnahme detektiert werden. Referenzobjekte, die in einer ähnlichen Blickfeldposition als die Störquelle sind, können bei darauffolgenden Aufnahmen nicht oder nur eingeschränkt herangezogen werden, bis diese Referenzobjekte durch Bewegung des beweglichen Maschinenteils bzw. der Maschine in eine andere Blickfeldposition fern der Störquelle bewegt wurden. In der Zwischenzeit kann die Positionsvermessung mittels weiterer / anderer Referenzobjekte erfolgen. Dadurch kann die Erhöhung der Robustheit / Stabilität gegenüber Umwelteinflüssen bei der Positionsbestimmung zusätzlich vorteilhaft erhöht werden.According to one embodiment, in addition to the recordings in which the respective reference object is activated, a further black recording is recorded with each of the optical sensors and compared with the recordings in which the respective reference object is activated, whereby environmental influences are filtered out. Black recordings are recordings of the optical sensors in which none of the reference objects is activated. Accordingly, these black recordings only show environmental influences such as radiation from radiators or lamps, for example construction site spotlights. According to this embodiment, such environmental influences are identified, classified as such and can be taken into account accordingly when determining the sensor field of view position of the activated reference objects. According to this embodiment, the position determination method becomes more accurate and robust. For example, if a radiation source, such as a lamp/radiator, is switched on in the field of view of one of the optical sensors, it can be detected in the black recording. Reference objects that are in a similar field of view position as the source of interference cannot be used for subsequent recordings, or only to a limited extent, until these reference objects have been moved to a different field of view position away from the source of interference by moving the movable machine part or the machine. In the meantime, the position can be measured using other reference objects. As a result, the increase in robustness/stability with respect to environmental influences when determining the position can be additionally advantageously increased.

Gemäß einer Ausführungsform wird mittels der Minimierungsfunktion zunächst ein lineares Gleichungssystem gelöst, um einen optimalen Startpunkt für eine nachfolgende numerische Optimierung zu ermitteln, wobei anschließen die numerische Optimierung ausgehend von dem Startpunkt das globale Minimum oder das globale Maximum ermittelt, wodurch das virtuelle Modell der Maschine mittels der neuen Sensorblickfeldpositionen der einzelnen Referenzobjekte angepasst wird. Der Minimierungsfunktion werden als Eingangsgrößen die aktuell ermittelten Sensorblickfeldpositionen bereitgestellt. Die Minimierungsfunktion versucht anschließend ein Residuum zu minimieren, wobei zunächst die Lage der Referenzobjekte im virtuellen Modell bestimmt wird. Anschließend werden die einzelnen 3D Kemstrahlen aus den Sensorblickfeldpositionen der optischen Sensoren berechnet, daraufhin werden die Abstände zwischen den 3D Kernstrahlen und den dazugehörigen virtuellen Referenzobjekte berechnet. Anschließend wird der quadratische Mittelwert aus den einzelnen Abständen berechnet. Der resultierende quadratische Mittelwert stellt das Residuum dar, welches minimiert wird. Sobald bestimmte Parameter erreicht werden, wird die Minimierungsfunktion abgebrochen und das Ergebnis von der Minimierungsfunktion ausgegeben.According to one embodiment, a system of linear equations is first solved by means of the minimization function in order to find an optimal starting point for a subsequent numerical optimization tion, with the numerical optimization then determining the global minimum or the global maximum starting from the starting point, as a result of which the virtual model of the machine is adapted using the new sensor field of view positions of the individual reference objects. The currently determined sensor field of view positions are provided to the minimization function as input variables. The minimization function then tries to minimize a residue, first determining the position of the reference objects in the virtual model. The individual 3D core rays are then calculated from the sensor field of view positions of the optical sensors, after which the distances between the 3D core rays and the associated virtual reference objects are calculated. The root mean square of the individual distances is then calculated. The resulting root mean square represents the residual, which is minimized. As soon as certain parameters are reached, the minimization function is aborted and the result is returned by the minimization function.

Gemäß einer Ausführungsform ist an dem beweglichen Maschinenteil mindestens ein Lagesensor angeordnet, wobei der Lagesensor ein Beschleunigungssensor und / oder ein Gyroskop ist, wobei mittels des Lagesensors Richtungsdaten zum Gravitationsvektor ermittelt werden und diese Richtungsdaten bei der Bestimmung der Position des beweglichen Maschinenteils zusätzlich herangezogen werden. Gemäß einer Ausführungsform sind an dem beweglichen Maschinenteil mehrere Lagesensoren angeordnet. Gemäß einer weiteren Ausführungsform sind an mehreren beweglichen Maschinenteilen jeweils mindestens ein Lagesensor angeordnet. Die Lagesensoren sind an dem beweglichen Maschinenteil fixiert bzw. verschraubt. Die Lagesensoren liefern als Output detaillierte Informationen zur Richtung zum Gravitationsvektor und / oder detaillierte Informationen einer linearen Bewegung, Beschleunigung und / oder einer Rotation des beweglichen Maschinenteils, an welchem sie angeordnet sind. Diese Informationen werden gemäß dieser Ausführungsform als zusätzliche Eingangsgrößen der Minimierungsfunktion zugeführt, wodurch die Genauigkeit des Ergebnisses der Minimierungsfunktion erhöht werden kann, wodurch wiederum die Genauigkeit und Robustheit der Bestimmung der Position des beweglichen Maschinenteils erhöht werden kann. Gemäß einer weiteren Ausführungsform kann der Lagesensor auch in einem der Referenzobjekte integriert sein.According to one embodiment, at least one position sensor is arranged on the movable machine part, with the position sensor being an acceleration sensor and/or a gyroscope, with direction data relating to the gravitational vector being determined by means of the position sensor and these direction data also being used when determining the position of the movable machine part. According to one embodiment, several position sensors are arranged on the movable machine part. According to a further embodiment, at least one position sensor is arranged on a plurality of movable machine parts. The position sensors are fixed or screwed to the moving machine part. As an output, the position sensors provide detailed information on the direction of the gravitational vector and/or detailed information on a linear movement, acceleration and/or rotation of the movable machine part on which they are arranged. According to this embodiment, this information is supplied to the minimization function as additional input variables, which means that the accuracy of the result of the minimization function can be increased, which in turn can increase the accuracy and robustness of the determination of the position of the movable machine part. According to a further embodiment, the position sensor can also be integrated in one of the reference objects.

Gemäß einer Ausführungsform ist zusätzlich an der Maschine mindestens ein Lagesensor angeordnet, mittels dem Referenzdaten ermittelt werden, die zur Kompensation der Position der Maschine bei der Bestimmung der Position des beweglichen Maschinenteils herangezogen werden. Bewegt sich beispielsweise die Maschine selbst von einer horizontalen Ausrichtung zum Gravitationsvektor in eine davon abweichende Ausrichtung zum Gravitationsvektor, beispielsweise aufgrund Geländeunebenheiten, kann dies mittels des Lagesensors, der an der Maschine selbst angeordnet, fixiert ist, ermittelt werden. In anderen Worten, die Abweichung der Ausrichtung der Maschine selbst zum Gravitationsvektor kann mittels des Lagesensors an der Maschine ermittelt werden. Diese Informationen dienen dazu, die Daten aus den Lagesensoren an dem beweglichen Maschinenteil zu korrigieren, wodurch Fehler reduziert werden und insgesamt die Positionsbestimmung des beweglichen Maschinenteils erhöht wird. Die Informationen aus dem oder den Lagesensoren können gemäß einer weiteren Ausführungsform dazu dienen die zukünftige Position der Referenzobjekte aufgrund der Bewegung des beweglichen Maschinenteils und / oder der Maschine vorherzubestimmen. Dadurch kann die kontinuierliche Positionsbestimmung der Referenzobjekte weiter vorteilhaft erhöht werden.According to one embodiment, at least one position sensor is additionally arranged on the machine, by means of which reference data are determined, which are used to compensate for the position of the machine when determining the position of the movable machine part. For example, if the machine itself moves from a horizontal orientation to the gravitational vector into a different orientation to the gravitational vector, for example due to uneven terrain, this can be determined using the position sensor, which is arranged on the machine itself and is fixed. In other words, the deviation of the alignment of the machine itself from the gravitational vector can be determined using the position sensor on the machine. This information is used to correct the data from the position sensors on the moving machine part, thereby reducing errors and increasing the overall position determination of the moving machine part. According to a further embodiment, the information from the position sensor or sensors can be used to predict the future position of the reference objects on the basis of the movement of the movable machine part and/or the machine. As a result, the continuous position determination of the reference objects can be further advantageously increased.

Gemäß einer Ausführungsform werden die Richtungsdaten und / oder die Referenzdaten der Lagesensoren der Minimierungsfunktion bereitgestellt, wodurch mittels einer Sensordatenfusion der Daten aus den Lagesensoren und der neuen Sensorblickfeldpositionsdaten der optischen Sensoren die Anpassung des virtuellen Modells der Maschine durchgeführt wird. Die Sensordatenfusion besteht gemäß einer Ausführungsform aus einem Kalman Filter. Ein Kalman Filter dient dazu, aus verschiedenen Messwerten ein Messergebnis zu berechnen, in welchem die Varianz der einzelnen Messwerte minimiert, also optimal, ist. Hierbei ist es irrelevant, ob es sich bei den Messwerten um Blickfeldpositionen, Winkelgeschwindigkeiten der Lagesensoren oder Beschleunigungen der Lagesensoren handelt. Diese Daten werden mit den bereits aufgestellten Modellgleichungen verknüpft und die einzelnen Varianzen über die sogenannte Kovarianzmatrix miteinander verbunden. Die Form der Kovarianzmatrix selbst hängt wiederum von den Modellgleichungen ab. Zustände des eingesetzten Kalman Filters umfassen die 3D Position und 3D Rotation des virtuellen Modells, sowie jeweils deren erste und zweite Ableitung, als (Winkel-)Geschwindigkeit und (Winkel-)Beschleunigung. Der Status des Kalmans Filters kann in 3 Abschnitte unterteilt werden, wobei sich Abschnitt 2 und 3 laufend wiederholen:

  • Der erste Abschnitt betrifft die Initialisierung. Es wird angenommen, dass sich die Maschine in Ruhe befindet, also werden Geschwindigkeiten und Beschleunigungen auf Null gesetzt. Die Position und Lage wird den aus der Initialisierungsroutine gewonnenen Werten gleichgesetzt.
  • Der zweite Abschnitt umfasst eine Prädiktion. In diesem Schritt werden die vorhergesagten Zustände aus dem Kalman Filter zu einem bestimmten Zeitpunkt errechnet. Dieser Zeitpunkt kann sowohl in Zukunft, Gegenwart oder Vergangenheit liegen. Hierbei ist zu beachten, dass sich die Genauigkeit mit steigendem zeitlichem Abstand zur Gegenwart vermindert.
  • Der dritte Abschnitt umfasst eine Korrektur: Liegt ein Messwert aus dem Messsystem vor, so werden die Zustände und die Kovarianzmatrix um den Messwert korrigiert. Neben dem Messwert selbst wird hierbei auch der Zeitstempels des Messwertes verwendet, um die Dynamik des Systems besser beschreiben zu können.
According to one embodiment, the direction data and/or the reference data of the position sensors of the minimization function are provided, whereby the adaptation of the virtual model of the machine is carried out by means of a sensor data fusion of the data from the position sensors and the new sensor field of view position data of the optical sensors. According to one embodiment, the sensor data fusion consists of a Kalman filter. A Kalman filter is used to calculate a measurement result from various measurement values in which the variance of the individual measurement values is minimized, i.e. optimal. It is irrelevant here whether the measured values are positions of the field of view, angular velocities of the position sensors or accelerations of the position sensors. This data is linked to the model equations that have already been set up and the individual variances are connected to one another via the so-called covariance matrix. The form of the covariance matrix itself, in turn, depends on the model equations. States of the Kalman filter used include the 3D position and 3D rotation of the virtual model, as well as their first and second derivatives, as (angular) velocity and (angular) acceleration. The status of the Kalmans filter can be divided into 3 sections, with sections 2 and 3 repeating themselves continuously:
  • The first section concerns the initialization. The machine is assumed to be at rest, so velocities and accelerations are set to zero. The position and position are set equal to the values obtained from the initialization routine.
  • The second section includes a prediction. In this step, the predicted states from the Kalman filter are calculated at a specific point in time. This point in time can be in the future, present or past. It should be noted here that the accuracy decreases as the time between the present and the present increases.
  • The third section includes a correction: if there is a measured value from the measuring system, the states and the covariance matrix are corrected by the measured value. In addition to the measured value itself, the time stamp of the measured value is also used in order to be able to better describe the dynamics of the system.

Gemäß einer Ausführungsform wird bei der Aktivierung der Referenzobjekte in den nachfolgenden Zeitintervallen eine Auswahl der zur Verfügung stehenden Referenzobjekte getroffen, wobei bei der Auswahl die aus der vorangegangenen Positionsbestimmung bekannte Position der Referenzobjekte und / oder Geschwindigkeit der Referenzobjekte und /oder Beschleunigung der Referenzobjekte und / oder ein geometrischer Aufbau des beweglichen Maschinenteils und / oder ein geometrischer Aufbau der Maschine berücksichtigt wird. Wie bereits ausgeführt wird während des Initialisierungsschritts die Initialposition der Referenzobjekte ermittelt, also ist deren initiale Sensorblickfeldposition der einzelnen optischen Sensoren bekannt. Demgemäß ist bekannt, welche Referenzobjekte von welchen optischen Sensoren erfasst werden können, also zur Verfügung stehen. Die Genauigkeit der Positionsbestimmung des beweglichen Maschinenteils kann erhöht werden, indem Referenzobjekte herangezogen werden, die beispielsweise gut sichtbar sind und in der Gesamtschau der Position des beweglichen Maschinenteils vorteilhaft positioniert sind.According to one embodiment, when the reference objects are activated in the subsequent time intervals, a selection is made from the available reference objects, with the selection being based on the position of the reference objects known from the previous position determination and/or the speed of the reference objects and/or the acceleration of the reference objects and/or a geometric structure of the movable machine part and/or a geometric structure of the machine is taken into account. As already explained, the initial position of the reference objects is determined during the initialization step, ie their initial sensor field of view position of the individual optical sensors is known. Accordingly, it is known which reference objects can be detected by which optical sensors, ie are available. The accuracy of the position determination of the movable machine part can be increased by using reference objects that are clearly visible, for example, and are advantageously positioned in the overall view of the position of the movable machine part.

Ist beispielsweise das bewegliche Maschinenteil ein langes Objekt und sind drei Referenzobjekte, nahe an den optischen Sensoren angebracht und ein Referenzobjekt weit weg von den optischen Sensoren angebracht, so ist es nicht zielführend, nur die drei nahen zu aktivieren und auszuwerten, da die gemessenen Winkel zwischen diesen drei Referenzobjekten klein sind, im Vergleich zum Winkel, den das vordere Referenzobjekt zusammen mit den hinteren Objekten aufspannt. Es kommt also auf die Kombination der aktivierten Referenzobjekte drauf an. Große Distanzen zwischen den Referenzobjekten sind immer vorteilhaft, da man dadurch große Winkel erhält. Zudem ist die Anordnung des Sensorblickfelds des jeweiligen optischen Sensors relevant. Ist ein optischer Sensor so angeordnet, dass sich zwei Referenzobjekte mit einem großen Abstand zueinander in einer Linie befinden, ist der messbare Winkel sehr klein und folglich ist die Messung dieses Sensors unvorteilhaft. Wird dieselbe Messung an einem optischen Sensor durchgeführt, der beispielsweise um ca. 90 Grad gedreht auf die beiden Referenzobjekte blickt, hat man hier einen vorteilhaft großen Winkel. Dasselbe gilt, wenn zwei optische Sensoren herangezogen werden. In diesem Beispiel sind die Winkel aber nicht alleine ausschlaggebend, da sie sich auf zwei getrennte Koordinatensysteme beziehen können. Referenzobjekte die nahe an den Sensoren sind, sind grundsätzlich besser, aber nicht allein für den Wert der Messung entscheidend. Optimiert wird gemäß einer Ausführungsform auf eine vom Aufbau des Messsystems abhängige gewichtete Kombination der aktuellen Parameter wie eine Abstandsmatrix (Abstand optischer Sensor N zu Referenzobjekte M), eine Blickfeldmatrix (geschätzte Blickfeldposition optischer Sensor N zu Referenzobjekte M, eine Blickfeldpositionen in Aufnahmenmitte, Bildmitte wird bevorzugt, da hier besser gemessen werden kann), eine Ausrichtungsmatrix (Ausrichtung des optischen Sensors N zu Referenzobjekte M, da der optischen Sensors eine Richtungsempfindlichkeit hat) und / oder Informationen aus einer Messhistorie (Störquellen, Überdeckungen in der Nähe, Dreck, störende Spiegelungen.)If, for example, the moving machine part is a long object and three reference objects are attached close to the optical sensors and one reference object is attached far away from the optical sensors, it is not expedient to only activate and evaluate the three close ones, since the measured angles between these three reference objects are small compared to the angle that the front reference object subtends together with the rear objects. So it depends on the combination of the activated reference objects. Large distances between the reference objects are always advantageous, as this results in large angles. In addition, the arrangement of the sensor field of view of the respective optical sensor is relevant. If an optical sensor is arranged in such a way that two reference objects are in a line at a large distance from each other, the measurable angle is very small and consequently the measurement of this sensor is disadvantageous. If the same measurement is carried out on an optical sensor which, for example, looks at the two reference objects rotated by approx. 90 degrees, the angle here is advantageously large. The same applies if two optical sensors are used. In this example, however, the angles are not the only decisive factor, since they can refer to two separate coordinate systems. Reference objects that are close to the sensors are generally better, but are not solely decisive for the value of the measurement. According to one embodiment, optimization is based on a weighted combination of the current parameters that depends on the structure of the measuring system, such as a distance matrix (distance of optical sensor N to reference objects M), a field of view matrix (estimated field of view position of optical sensor N to reference objects M, a field of view position in the center of the recording, the center of the image is preferred , since it is easier to measure here), an alignment matrix (alignment of the optical sensor N to reference objects M, since the optical sensor has directional sensitivity) and/or information from a measurement history (sources of interference, nearby overlaps, dirt, disturbing reflections.)

Die Messhistorie setzt sich gemäß einer Ausführungsform aus der vorangegangenen Positionsbestimmung bekannte Position und / oder eine Geschwindigkeit der Referenzobjekte und / oder eine Beschleunigung der Referenzobjekte und / oder eine Geometrie des beweglichen Maschinenteils und / oder eine Geometrie der Maschine zusammen. Mittels der Positionsveränderung von den Referenzobjekten kann die aktuelle Geschwindigkeit der Referenzobjekte und die aktuelle Beschleunigung der Referenzobjekte ermittelt werden. Diese Werte können gemäß dieser Ausführungsform zur Vorbestimmung der zukünftigen Position der Referenzobjekte herangezogen werden, indem die Aktivierung der Referenzobjekte und die dazugehörige Auswahl der optischen Sensoren zur Aufnahme der Aufnahmen entsprechend gesteuert wird. Sofern sich die Positionsveränderung der Referenzobjekte nicht wie vorherbestimmt verhält, beispielsweise aufgrund einer anderen Steuerung der Bewegung des beweglichen Maschinenteils, kann die neue aktuelle Geschwindigkeit und neue aktuelle Beschleunigung neu ermittelt werden und bei der nachfolgenden Positionsbestimmung neu berücksichtigt werden. Die aktuelle Bewegungsrichtung der Referenzobjekte kann ebenso berücksichtigt werden. Die Geometrie der Maschine und die Geometrie des beweglichen Maschinenteils sind bekannt und bestimmen mit, wann welches der Referenzobjekte in welchem Sensorblickfeld der optischen Sensoren ist. Wird beispielsweise das bewegliche Maschinenteil bewegt, ist es denkbar, dass eines der Referenzobjekte aus dem Blickfeld eines der optischen Sensoren herausgedreht wird bzw. von dem beweglichen Maschinenteil bzw. von der Maschine verdeckt wird. Dadurch, dass die Geometrie bekannt ist, kann diese bei der Aktivierung der Referenzobjekte berücksichtigt werden bzw. bei der Auswahl der optischen Sensoren berücksichtigt werden, wodurch fehlerhafte Aufnahmen bzw. eine fehlerhafte Zuordnung vermieden werden kann, wodurch wiederum die Positionsbestimmung vorteilhaft genau und robust durchgeführt werden kann. Zusätzlich können Reflektionen der Referenzobjekte an dem beweglichen Maschinenteil, welche die optischen Sensoren stören können, zuverlässig erkannt und entfernt werden, was sich vorteilhaft auf die Genauigkeit und Robustheit der Positionsbestimmung auswirkt.According to one embodiment, the measurement history is made up of a position known from the previous position determination and/or a speed of the reference objects and/or an acceleration of the reference objects and/or a geometry of the movable machine part and/or a geometry of the machine. The current speed of the reference objects and the current acceleration of the reference objects can be determined by means of the change in position of the reference objects. According to this embodiment, these values can be used to predetermine the future position of the reference objects by appropriately controlling the activation of the reference objects and the associated selection of the optical sensors for recording the recordings. If the change in position of the reference objects does not behave as predetermined, for example due to a different control of the movement of the movable machine part, the new current speed and new current acceleration can be re-determined and taken into account again in the subsequent position determination. The current direction of movement of the reference objects can also be taken into account. The geometry of the machine and the geometry of the moving machine part are known and help determine when which of the reference objects is in which sensor field of view of the optical sensors. If, for example, the moving machine part is moved, it is conceivable that one of the reference objects is out of the field of view of one of the optical sensors is turned or is covered by the moving machine part or by the machine. Since the geometry is known, it can be taken into account when activating the reference objects or when selecting the optical sensors, which means that faulty recordings or faulty assignment can be avoided, which in turn means that the position determination can advantageously be carried out precisely and robustly can. In addition, reflections from the reference objects on the moving machine part, which can interfere with the optical sensors, can be reliably detected and removed, which has an advantageous effect on the accuracy and robustness of the position determination.

Gemäß einer Ausführungsform wird zwischen mindestens einem der Referenzobjekte bzw. zwischen mindestens einem der Strahlungssender und mindestens einem der optischen Sensoren ein Gewichtungsfaktor berechnet, der bei der Bestimmung der Position des beweglichen Maschinenteils herangezogen wird. Gemäß einer weiteren Ausführungsform ist es denkbar, dass zwischen jedem der optischen Sensoren und jedem der Referenzobjekte bzw. jedem der Strahlungssender, die in dem Blickfeld der optischen Sensoren sind ein Gewichtungsfaktor berechnet wird, der bei der Bestimmung der Position des beweglichen Maschinenteils herangezogen wird. Der Gewichtungsfaktor gibt gemäß dieser Ausführungsform an, wie hoch die Ergebnisse der entsprechenden Blickfeldpositionsbestimmung im Vergleich zu den Ergebnissen anderer Blickfeldpositionsbestimmungen gewichtet werden soll. Mittels des Gewichtungsfaktors kann die Genauigkeit und Robustheit der Positionsbestimmung des beweglichen Maschinenteils zusätzlich vorteilhaft erhöht werden.According to one embodiment, a weighting factor is calculated between at least one of the reference objects or between at least one of the radiation transmitters and at least one of the optical sensors, which weighting factor is used to determine the position of the movable machine part. According to a further embodiment, it is conceivable that a weighting factor is calculated between each of the optical sensors and each of the reference objects or each of the radiation transmitters that are in the field of view of the optical sensors, which weighting factor is used to determine the position of the movable machine part. According to this embodiment, the weighting factor indicates how highly the results of the corresponding field of view position determination should be weighted in comparison to the results of other field of view position determinations. The accuracy and robustness of the position determination of the movable machine part can also advantageously be increased by means of the weighting factor.

Gemäß einer Ausführungsform weist jedes der Referenzobjekte mindestens einen Strahlungssender auf und das Aktivieren der jeweiligen Referenzobjekte darin besteht, den Strahlungssender zu aktivieren. Der Strahlungssender ist gemäß einer Ausführungsform dazu ausgebildet Strahlung in Form von elektromagnetischen Wellen auszusenden. Durch die Aktivierung werden gemäß dieser Ausführungsform die elektromagnetischen Wellen für eine bestimmte Zeit ausgesendet. In den Aufnahmen der optischen Sensoren ist die Strahlung vorteilhaft gut erkennbar, woraufhin die Blickfeldposition der einzelnen Referenzobjekte vorteilhaft gut ermittelbar ist. Die Positionsbestimmung ist demgemäß sehr genau durchführbar.According to one embodiment, each of the reference objects has at least one radiation emitter and the activation of the respective reference objects consists in activating the radiation emitter. According to one embodiment, the radiation transmitter is designed to emit radiation in the form of electromagnetic waves. According to this embodiment, the activation causes the electromagnetic waves to be emitted for a specific time. In the recordings of the optical sensors, the radiation can advantageously be seen well, whereupon the position of the field of view of the individual reference objects can advantageously be well determined. The position determination can accordingly be carried out very precisely.

Gemäß einer weiteren Ausführungsform ist der mindesten eine Strahlungssender ein LED-Strahlungssender. Derartige LED-Strahlungssender sind vergleichsweise günstig und vorteilhaft gut mittels der optischen Sensoren detektierbar.According to a further embodiment, the at least one radiation emitter is an LED radiation emitter. Such LED radiation emitters are comparatively inexpensive and can advantageously be easily detected by means of the optical sensors.

Gemäß einer Ausführungsform weist jedes der Referenzobjekte mehrere Seiten auf. Zusätzlich ist an mindestens zwei der Seiten jeweils einer der Strahlungssender angeordnet. Zusätzlich kann gemäß dieser Ausführungsform bei dem Aktivieren der Referenzobjekte unterschieden werden, welcher der Strahlungssender je Referenzobjekt eingeschaltet wird. Sind die Referenzobjekte gemäß einer Ausführungsform beispielsweise quaderförmig ausgebildet, dann weisen sie sechs Seiten auf. An einer dieser Seiten sind sie an dem beweglichen Maschinenteil angeordnet. An den anderen fünf Seiten kann jeweils einer der Strahlungssender angeordnet sein. Durch die Bewegung des beweglichen Maschinenteils kann beispielsweise die für die optischen Sensoren sichtbare Seite eines der Referenzobjekte wechseln. Dadurch, dass an mehreren Seiten des entsprechenden Referenzobjekts gemäß dieser Ausführungsform Strahlungssender angeordnet sind, bleibt mittels eines Wechsels des Aktivierens des nunmehr sichtbaren Strahlungssenders des Referenzobjekts das Referenzobjekt für die optischen Sensoren sichtbar. Dadurch kann trotz Bewegung des beweglichen Maschinenteils die Position des Referenzobjekts weiterhin vorteilhaft bestimmt werden. Dadurch kann die Genauigkeit der Positionsbestimmung des beweglichen Maschinenteils zusätzlich vorteilhaft erhöht werden. Gemäß einer anderen Ausführungsform ist es denkbar, dass das Referenzobjekt pyramidenförmig oder andersförmig mit mehreren Seiten ausgebildet ist.According to one embodiment, each of the reference objects has multiple sides. In addition, one of the radiation transmitters is arranged on at least two of the sides. In addition, according to this embodiment, when activating the reference objects, a distinction can be made as to which of the radiation transmitters is switched on for each reference object. If, according to one embodiment, the reference objects are cuboid, for example, then they have six sides. On one of these sides they are arranged on the moving machine part. One of the radiation transmitters can be arranged on each of the other five sides. For example, the side of one of the reference objects that is visible to the optical sensors can change as a result of the movement of the movable machine part. Due to the fact that radiation transmitters are arranged on several sides of the corresponding reference object according to this embodiment, the reference object remains visible for the optical sensors by changing the activation of the now visible radiation transmitter of the reference object. As a result, the position of the reference object can continue to be advantageously determined despite the movement of the movable machine part. As a result, the accuracy of the position determination of the movable machine part can also be advantageously increased. According to another embodiment, it is conceivable that the reference object is configured in the shape of a pyramid or some other shape with a plurality of sides.

Gemäß einem weiteren Aspekt der vorliegenden Offenbarung wird eine Messvorrichtung für eine Positionsbestimmung eines beweglichen Maschinenteils einer Maschine angegeben. An der Maschine sind eine Mehrzahl von optischen Sensoren angeordnet, die jeweils ein festes Sensorblickfeld in Bezug zu ihrer Anordnung an der Maschine aufweisen und an dem beweglichen Maschinenteil eine Mehrzahl von Referenzobjekten angeordnet sind und jedes einzelne der Referenzobjekte ist an einer festen Referenzposition auf dem Maschinenteil fixiert, wobei jeweils die Sensorblickfelder der optischen Sensoren in Richtung der Referenzobjekte ausgerichtet sind und wobei die Messvorrichtung eine Recheneinheit aufweist, die dazu ausgebildet ist, eines der oben genannten Verfahren auszuführen. Gemäß einer Ausführungsform weist die Recheneinheit ein echtzeitfähiges Betriebssystem auf, wodurch eine konstante Updaterate erreicht werden kann. Die Recheneinheit steuert die Referenzobjekte bzw. die jeweiligen Strahlungssender und die optischen Sensoren an, und bestimmt dadurch, welche Referenzobjekte wann aktiviert werden und mit welchen optischen Sensoren bzw. mit welchen optischen Sensoren das aktivierte Referenzobjekt (der aktivierte Strahlungssender) erfasst wird. Hierzu kann gemäß einer Ausführungsform ein echtzeitfähiger Feldbus (z.B.: ein EtherCAT Protokoll) verwendet werden.According to a further aspect of the present disclosure, a measuring device for determining the position of a movable machine part of a machine is specified. A plurality of optical sensors are arranged on the machine, each of which has a fixed sensor field of view in relation to their arrangement on the machine and a plurality of reference objects are arranged on the movable machine part and each of the reference objects is fixed at a fixed reference position on the machine part , wherein in each case the sensor fields of view of the optical sensors are aligned in the direction of the reference objects and wherein the measuring device has a computing unit which is designed to carry out one of the above-mentioned methods. According to one embodiment, the processing unit has a real-time capable operating system, which means that a constant update rate can be achieved. The computing unit controls the reference objects or the respective radiation transmitters and the optical sensors, and thereby determines which reference objects are activated when and with which optical sensors or with which optical sensors the activated reference object (the activated radiation transmitter) is detected. For this purpose, according to one embodiment a real-time capable fieldbus (e.g. an EtherCAT protocol) can be used.

Gemäß einer Ausführungsform weist die Recheneinheit eine Mehrzahl von verteilten Subeinheiten auf, die dazu eingerichtet sind, miteinander zu kommunizieren und Daten auszutauschen, wobei die Recheneinheit dazu eingerichtet ist mit einer Pipeline zu arbeiten, um die zur Verfügung stehende Rechenkapazität optimal auszunutzen. Gemäß dieser pipelinebasierter Ausführungsform können mehrere Rechenschritte und Aufnahme-Vorgänge der optischen Sensoren parallel durchgeführt werden. Gemäß einer Ausführungsform kann eine neue Aufnahme mit einer direkt an dem optischen Sensor angeordneten Subeinheit (Subrecheneinheit) ausgewertet werden. Während der Auswertung kann bereits die nächste Aufnahme mit dem optischen Sensor für den nächsten Zeitschritt gemacht werden. Die Sensorblickfeldpositionen der einzelnen Referenzobjekte in den Aufnahmen können demgemäß parallel ermittelt werden. Das Berechnen und das Optimieren des Aktivierens der einzelnen Referenzobjekte und das Steuern des Aufnehmens von Aufnahmen durch die optischen Sensoren kann demgemäß mittels der Ergebnisse der vorangegangenen Auswertungen vorgenommen werden. Die Recheneinheit ist gemäß einer Ausführungsfrom eine zentrale Recheneinheitl, die die Ergebnisse der einzelnen Subrecheneinheiten zusammenführt und die Berechnung der Position und die Optimierung vornimmt und auf welcher das echtzeitfähiges Betriebssystem läuft. Gemäß einer weiteren Ausführungsform kann die Vorrichtung auch nur eine einzige Recheneinheit aufweisen, die sämtliche Aufgaben ausführt. Mittels des Pipelineverfahrens können alle zur Verfügung stehende Ressourcen parallel genutzt werden, sodass die „Stillstandzeiten“ von Ressourcen reduziert werden, wodurch das gesamte Verfahren schnell und effizient durchgeführt werden kann. Ein potenzieller Nachteil einer Totzeit von einem Zeitschritt kann durch eine höhere Updaterade der Messung, mittels des Pipelineverfahrens, kompensiert werden.In accordance with one embodiment, the arithmetic unit has a plurality of distributed sub-units which are set up to communicate with one another and to exchange data, the arithmetic unit being set up to work with a pipeline in order to optimally utilize the available computing capacity. According to this pipeline-based embodiment, several calculation steps and recording processes of the optical sensors can be carried out in parallel. According to one embodiment, a new recording can be evaluated with a sub-unit (sub-computing unit) arranged directly on the optical sensor. During the evaluation, the next recording can already be made with the optical sensor for the next time step. The sensor field of view positions of the individual reference objects in the recordings can accordingly be determined in parallel. The calculation and the optimization of the activation of the individual reference objects and the control of the taking of pictures by the optical sensors can accordingly be carried out using the results of the preceding evaluations. According to one embodiment, the processing unit is a central processing unit that combines the results of the individual sub-processing units and calculates the position and optimizes it, and on which the real-time operating system runs. According to a further embodiment, the device can also only have a single computing unit that executes all tasks. With the pipeline method, all available resources can be used in parallel, so that the "downtimes" of resources are reduced, which means that the entire method can be carried out quickly and efficiently. A potential disadvantage of a dead time of one time step can be compensated for by a higher update rate of the measurement using the pipeline method.

Gemäß einer Ausführungsform sind die optischen Sensoren Infratorkameras. Gemäß einer weiteren Ausführungsform weisen die optischen Sensoren als Infrarotkameras einen CMOS-Sensor, ein Objektiv und einen Infrarot-Bandpassfilter auf. Gemäß einer weiteren Ausführungsform sind die optischen Sensoren in einem wasserdichten Gehäuse verbaut, sodass sie auch bei Regen oder nassen Bedingungen verwendet werden können. Gemäß einer Ausführungsform sind die Referenzobjekte bzw. die Strahlungssender dazu ausgebildet Infrarotstrahlung auszusenden, die von den Infrarotkameras erfasst werden kann. Mittels der Infrarotstrahlung und den Infrarotkameras kann die Positionsbestimmung des beweglichen Maschinenteils vorteilhaft genau durchgeführt werden.According to one embodiment, the optical sensors are infrared cameras. According to a further embodiment, the optical sensors have a CMOS sensor, a lens and an infrared bandpass filter as infrared cameras. According to a further embodiment, the optical sensors are installed in a waterproof housing so that they can also be used in rain or wet conditions. According to one embodiment, the reference objects or the radiation transmitters are designed to emit infrared radiation that can be detected by the infrared cameras. By means of the infrared radiation and the infrared cameras, the position of the movable machine part can advantageously be determined precisely.

Ausführungsbeispiele und Weiterbildungen des Verfahrens gemäß der vorliegenden Offenbarung sind in den Figuren dargestellt und werden anhand der nachfolgenden Beschreibung näher erläutert.Exemplary embodiments and developments of the method according to the present disclosure are shown in the figures and are explained in more detail on the basis of the following description.

Es zeigen:

  • 1 eine schematische Darstellung einer Maschine mit beweglichen Maschinenteilen und einer Messvorrichtung gemäß einer ersten Ausführungsform,
  • 2 eine weitere schematische Darstellung der Maschine mit den beweglichen Maschinenteilen und der Messvorrichtung gemäß der ersten Ausführungsform,
  • 3 eine schematische Darstellung der Maschine mit den beweglichen Maschinenteilen und einer Messvorrichtung gemäß einer zweiten Ausführungsform,
  • 4 eine schematische Darstellung des virtuellen Modells der Maschine gemäß einer ersten Ausführungsform,
  • 5 eine schematische Darstellung von Seitenansichten eines Referenzobjekts gemäß einer ersten Ausführungsform,
  • 6 eine schematische Darstellung einer räumlichen Ansicht des Referenzobjekts gemäß der ersten Ausführungsform.
Show it:
  • 1 a schematic representation of a machine with moving machine parts and a measuring device according to a first embodiment,
  • 2 a further schematic representation of the machine with the moving machine parts and the measuring device according to the first embodiment,
  • 3 a schematic representation of the machine with the moving machine parts and a measuring device according to a second embodiment,
  • 4 a schematic representation of the virtual model of the machine according to a first embodiment,
  • 5 a schematic representation of side views of a reference object according to a first embodiment,
  • 6 a schematic representation of a spatial view of the reference object according to the first embodiment.

Die 1 zeigt eine schematische Darstellung einer Maschine 10 als eine Baumaschine 12. Die in 1 gezeigte Baumaschine 12 ist ein Bohrwagen, mit dem Bohrungen vorgenommen werden können. Die Baumaschine 12 weist diesbezüglich mehrere bewegliche Maschinenteile 20 auf. Die beweglichen Maschinenteile 20 sind in Bezug zu der Baumaschine 12 bewegbar. An den beweglichen Maschinenteilen 20 sind Tragarme 22 angeordnet, an denen gemäß dieser Ausführungsform jeweils eine Bohrvorrichtung zur Durchführung der Bohrungen angeordnet ist. An der Baumaschine 12 ist zusätzlich eine Messvorrichtung 100 für eine Positionsbestimmung der beweglichen Maschinenteile 20 angeordnet. Die Messvorrichtung 100 weist eine Recheneinheit 110, eine Sensoranordnung 120 und eine Mehrzahl von Referenzobjekten 130 auf. Die Sensoranordnung 120 ist gemäß dieser Ausführungsform an einem Bereich der Baumaschine 12 angeordnet, der zur Baumaschine 12 selbst nicht beweglich ist. The 1 shows a schematic representation of a machine 10 as a construction machine 12. The in 1 The construction machine 12 shown is a drilling rig with which drilling can be carried out. In this regard, the construction machine 12 has a plurality of movable machine parts 20 . The moving machine parts 20 are movable in relation to the construction machine 12 . Arranged on the movable machine parts 20 are support arms 22 on which, according to this embodiment, a drilling device for carrying out the bores is arranged in each case. A measuring device 100 for determining the position of the movable machine parts 20 is additionally arranged on the construction machine 12 . Measuring device 100 has a computing unit 110 , a sensor arrangement 120 and a plurality of reference objects 130 . According to this embodiment, the sensor arrangement 120 is arranged on a region of the construction machine 12 which cannot be moved in relation to the construction machine 12 itself.

Dementsprechend ist die Sensoranordnung 120 fest an der Baumaschine 12 angeordnet. Die Sensoranordnung 120 weist gemäß dieser Ausführungsform mehrere optische Sensoren 122 auf, deren Sensorblickfeld 126 (nicht in 1 dargestellt) in Richtung der Referenzobjekte 130 bzw. in Richtung der beweglichen Maschinenteile 20 ausgerichtet ist. Die optischen Sensoren 122 sind dabei relativ weit voneinander entfernt angeordnet, sodass die Gesamtheit aller Sensorblickfelder 126 den gesamten Bewegungsspielraum der beweglichen Maschinenteile 20 möglichst vollständig abdecken. Zusätzlich weisen dadurch die einzelnen Sensorblickfelder 126 einen größeren Winkel zueinander auf, wodurch die Bestimmung der Position der beweglichen Maschinenteile 20 vorteilhaft durchgeführt werden kann. Einige der optischen Sensoren sind gemäß dieser Ausführungsform an einer Montagehalterung 140 angeordnet, eine unmittelbare Anordnung an der Maschine 10 selbst ist ebenso denkbar.Accordingly, the sensor arrangement 120 is fixedly arranged on the construction machine 12 . According to this embodiment, the sensor arrangement 120 has tion form several optical sensors 122, whose sensor field of view 126 (not in 1 shown) is aligned in the direction of the reference objects 130 or in the direction of the moving machine parts 20. The optical sensors 122 are arranged relatively far apart from each other, so that the entirety of all sensor fields of view 126 cover the entire range of motion of the moving machine parts 20 as completely as possible. In addition, as a result, the individual sensor fields of view 126 have a larger angle to one another, as a result of which the position of the movable machine parts 20 can be advantageously determined. According to this embodiment, some of the optical sensors are arranged on a mounting bracket 140; a direct arrangement on the machine 10 itself is also conceivable.

Die Referenzobjekte 130 sind gemäß dieser Ausführungsform an mehreren Punkten der beweglichen Maschinenteile 20 angeordnet. Vorliegend sind die Referenzobjekte 130 auch an den Tragarmen 22 der beweglichen Maschinenteile 20 angeordnet. Die Referenzobjekte sind dabei derart an den beweglichen Maschinenteilen 20 angeordnet, sodass sie vorteilhaft in den jeweiligen Sensorblickfeldern 126 der optischen Sensoren 122 sichtbar sind. Aufgrund einer Bewegung der beweglichen Maschinenteile 20 ist es denkbar, dass zunächst sichtbare Referenzobjekte 130 nicht mehr sichtbar werden und zunächst nicht sichtbare Referenzobjekte 130 sichtbar werden. Die Referenzobjekte 130 pro beweglichem Maschinenteil 20 sind jedoch in Kombination mit den optischen Sensoren 122 derart angeordnet, dass möglichst für jede mögliche Position der beweglichen Maschinenteile 20 die für eine genaue Positionsbestimmung notwendige Anzahl von den Referenzobjekten 130 für die Sensoranordnung 120 sichtbar ist.According to this embodiment, the reference objects 130 are arranged at a plurality of points on the movable machine parts 20 . In the present case, the reference objects 130 are also arranged on the support arms 22 of the moving machine parts 20 . The reference objects are arranged on the moving machine parts 20 in such a way that they are advantageously visible in the respective sensor fields of view 126 of the optical sensors 122 . Due to a movement of the moving machine parts 20, it is conceivable that initially visible reference objects 130 are no longer visible and initially invisible reference objects 130 become visible. However, the reference objects 130 per movable machine part 20 are arranged in combination with the optical sensors 122 in such a way that, if possible, for every possible position of the movable machine parts 20, the number of reference objects 130 required for precise position determination is visible to the sensor arrangement 120.

Die Recheneinheit 110 weist gemäß dieser Ausführungsform mehrere Rechensubeinheiten 112 auf, die Teile der Berechnung zur Positionsbestimmung der beweglichen Maschinenteile 20 vornehmen können. Die Recheneinheit 110 weist zusätzlich eine zentrale Recheneinheit auf, die die von den Rechensubeinheiten 112 bereitgestellten Ergebnisse zur Positionsbestimmung der beweglichen Maschinenteile 20 zusammenfasst.According to this embodiment, the arithmetic unit 110 has a plurality of arithmetic sub-units 112 which can carry out parts of the calculation for determining the position of the movable machine parts 20 . The arithmetic unit 110 additionally has a central arithmetic unit, which combines the results provided by the arithmetic sub-units 112 for determining the position of the moving machine parts 20 .

Die Recheneinheit 110 ist dementsprechend dazu ausgebildet das Verfahren gemäß der vorliegenden Offenbarung auszuführen, wodurch die Position der beweglichen Maschinenteile 20 ermittelt wird.The computing unit 110 is accordingly designed to carry out the method according to the present disclosure, as a result of which the position of the moving machine parts 20 is determined.

Die 1 zeigt zudem Lagesensoren 150, wobei einer der Lagesensoren 150 an einem der beweglichen Maschinenteile 20 angeordnet ist und der andere der Lagesensoren 150 an der Maschine 10, an dem Fahrerhaus fest angeordnet ist. Die Lagesensoren 150 sind gemäß einer Ausführungsform ein Beschleunigungssensor und / oder ein Gyroskop. Die Lagesensoren 150 können auch innerhalb eines der Referenzobjekte 130 verbaut sein, wodurch die Verkabelung vereinfacht ist. Mittels der Lagesensoren 150 kann ein Lotrichtung, eine Richtung zum Gravitationsvektor, ermittelt werden. Dementsprechend kann mittels der Lagesensoren 150 der Nick- und Rollwinkel der beweglichen Maschinenteile 20 direkt bestimmt werden und in die Positionsbestimmung des beweglichen Maschinenteils 20 eingefügt werden.The 1 also shows position sensors 150, one of the position sensors 150 being arranged on one of the moving machine parts 20 and the other of the position sensors 150 being arranged on the machine 10 on the driver's cab in a fixed manner. According to one embodiment, the position sensors 150 are an acceleration sensor and/or a gyroscope. The position sensors 150 can also be installed within one of the reference objects 130, which simplifies the wiring. A vertical direction, a direction to the gravitational vector, can be determined by means of the position sensors 150 . Accordingly, the pitch and roll angles of the movable machine parts 20 can be determined directly by means of the position sensors 150 and inserted into the position determination of the movable machine part 20 .

Die in der 2 gezeigte schematische Darstellung der Maschine 10 unterscheidet sich von der schematischen Darstellung der Maschine 10 gemäß 1 darin, dass das Sensorblickfeld 126 der optischen Sensoren 122 jeweils schematisch dargestellt ist. In der 2 ist dementsprechend ersichtlich, dass der gesamte mögliche Bewegungsraum der beweglichen Maschinenteile 20 von den Sensorblickfeldern 126 der optischen Sensoren 122 abgedeckt ist. Die optischen Sensoren 122 sind zusätzlich derart angeordnet, sodass es zu möglichst wenigen Überdeckungen der Referenzobjekte 130 durch andere der beweglichen Maschinenteile 20 (z.B.: durch Schläuche) in den Sensorblickfeldern 126 kommt.The one in the 2 The schematic representation of the machine 10 shown differs from the schematic representation of the machine 10 according to FIG 1 in that the sensor field of view 126 of the optical sensors 122 is shown schematically in each case. In the 2 Accordingly, it can be seen that the entire possible range of movement of the moving machine parts 20 is covered by the sensor fields of view 126 of the optical sensors 122. The optical sensors 122 are additionally arranged in such a way that there is as little overlapping of the reference objects 130 by other moving machine parts 20 (eg by hoses) in the sensor fields of view 126 as possible.

Die in der 3 gezeigte schematische Darstellung der Maschine 10 unterscheidet sich von der schematische Darstellung der Maschine 10 gemäß 1 darin, dass die Sensoranordnung 120 der Messvorrichtung 100 gemäß dieser Ausführungsform zusätzlich einen optischen Sensor 122 aufweist, der an einem der beweglichen Maschinenteile 20 angeordnet ist. Das variable Sensorblickfeld 126 eines solchen optischen Sensors 122 variiert mit der Bewegung des beweglichen Maschinenteils 20. Diese Bewegung / Position dieses beweglichen Maschinenteils 20 kann jedoch mittels anderer optischer Sensoren 122 und der Referenzobjekte 130, die an dem beweglichen Maschinenteil 20 angeordnet sind, ermittelt werden, sodass auch eine Positionsbestimmung der Referenzobjekte 130, die mit dem beweglichen optischen Sensor 122 aufgenommen wurden möglich ist. Dementsprechend kann gemäß dieser Ausführungsform insgesamt ein größere Bewegungsbereich der beweglichen Maschinenteile 20 abgedeckt werden und die Positionsbestimmung zusätzlich robuster und genauer durchgeführt werden.The one in the 3 The schematic representation of the machine 10 shown differs from the schematic representation of the machine 10 according to FIG 1 in that the sensor arrangement 120 of the measuring device 100 according to this embodiment additionally has an optical sensor 122 which is arranged on one of the moving machine parts 20 . The variable sensor field of view 126 of such an optical sensor 122 varies with the movement of the movable machine part 20. However, this movement / position of this movable machine part 20 can be determined by means of other optical sensors 122 and the reference objects 130, which are arranged on the movable machine part 20, so that it is also possible to determine the position of the reference objects 130 that were recorded with the movable optical sensor 122 . Accordingly, according to this embodiment, a larger range of movement of the movable machine parts 20 can be covered overall and the position determination can also be carried out more robustly and more precisely.

Die 4 zeigt schematisch ein virtuelles Modell der Maschine 10'. Das virtuelle Modell der Maschine 10' bildet die reale Maschine 10 vollständig ab. Insbesondere weist das virtuelle Modell dieselben Bauteile mit denselben Freiheitsgraden auf, sodass alle von der realen Maschine 10 möglichen Bewegungen auch mittels des virtuellen Modells der Maschine 10' abgebildet werden können. Zudem weist auch das virtuelle Modell der Maschine 10' die virtuellen optischen Sensoren 122' mit ihren virtuellen Sensorblickfeldern 126' auf, wobei die virtuellen optischen Sensoren 122' an den selben Positionen des virtuellen Modells angeordnet und ausgerichtet sind als die optischen Sensoren 122 an der realen Maschine 10. Außerdem weist das virtuelle Modell der Maschine 10' auch virtuelle Referenzobjekte 130' auf, die ebenso an der selben Position angeordnet sind als die realen Referenzobjekte 130. Mittels der Aufnahmen der optischen Sensoren 122, in denen die jeweiligen Referenzobjekte 130 zugeordnet werden kann anschließend mittels einer Minimierungsfunktion die Position und Ausrichtung des beweglichen Maschinenteils 20 mit der größten Wahrscheinlichkeit ermittelt werden. Das virtuelle Modell der Maschine 10' kann demgemäß danach ausgerichtet und angepasst werden, wodurch wiederum auf die tatsächliche Position des beweglichen Maschinenteils 20 rückgeschlossen werden kann, bzw. diese ausgegeben werden kann.The 4 shows schematically a virtual model of the machine 10'. The virtual model of the machine 10' completely maps the real machine 10. In particular, the virtual model has the same components with the same degrees of freedom, so that all 10 possible from the real machine Movements can also be mapped using the virtual model of the machine 10'. In addition, the virtual model of the machine 10' also has the virtual optical sensors 122' with their virtual sensor fields of view 126', the virtual optical sensors 122' being arranged and aligned at the same positions on the virtual model as the optical sensors 122 on the real one Machine 10. In addition, the virtual model of the machine 10' also has virtual reference objects 130', which are also arranged at the same position as the real reference objects 130. By means of the recordings of the optical sensors 122, in which the respective reference objects 130 can be assigned then the position and orientation of the movable machine part 20 are determined with the greatest probability by means of a minimization function. The virtual model of the machine 10′ can accordingly be aligned and adjusted accordingly, as a result of which the actual position of the movable machine part 20 can in turn be inferred or output.

Die 5 und 6 zeigen ein Referenzobjekt 130 gemäß einer ersten Ausführungsform. Das dargestellte Referenzobjekt 130 ist würfelförmig ausgebildet und weist dementsprechend sechs Referenzobjektseiten 132 auf. In den 5 und 6 ist lediglich das Referenzobjektgehäuse 131 ohne weitere Bauteile dargestellt. Das dargestellte Referenzobjekt 130 weist Öffnungen für Leuchtdioden 134 auf. In dem Referenzobjektgehäuse 131 sind gemäß dieser Ausführungsform an vier Referenzobjektseiten 132 Leuchtdioden 134 einfügbar. An einer der Referenzobjektseiten 132 ist eine Anschlussöffnung 136 vorgesehen, mittels der eine Verkabelung des Referenzobjekts 130 möglich ist. Das dargestellte Referenzobjekt 130 wird an den beweglichen Maschinenteilen 20 angeordnet. Die in dem Referenzobjekt 130 integrierten Leuchtdioden 134 werden aktiviert, strahlen dadurch Infrarotstrahlung aus und die optischen Sensoren 122 nehmen diese Infrarotstrahlung mittels Aufnahmen auf. Diese Aufnahmen werden dann zur Bestimmung der Sensorblickfeldposition der jeweiligen Referenzobjekte 130 gemäß der vorliegenden Offenbarung ausgewertet.The 5 and 6 show a reference object 130 according to a first embodiment. The illustrated reference object 130 is cube-shaped and accordingly has six reference object sides 132 . In the 5 and 6 only the reference object housing 131 is shown without further components. The reference object 130 shown has openings for light-emitting diodes 134 . According to this embodiment, light-emitting diodes 134 can be inserted in the reference object housing 131 on four sides 132 of the reference object. A connection opening 136 is provided on one of the reference object sides 132, by means of which the reference object 130 can be wired. The reference object 130 shown is arranged on the moving machine parts 20 . The light-emitting diodes 134 integrated in the reference object 130 are activated, thereby emitting infrared radiation and the optical sensors 122 record this infrared radiation by means of recordings. These recordings are then evaluated to determine the sensor field of view position of the respective reference objects 130 in accordance with the present disclosure.

Eine weitere Ausführungsform für das Referenzobjekt 130 ist eine LED in einem Metallgehäuse, mit einem Gewinde an der Rückseite (Zur einfachen und platzsparenden Befestigung auf einem der beweglichen Maschinenteile 20). Zur Abdichtung wird eine Glasscheibe verwendet, die ggf. zusätzliche einen Farbfilter für Infrarotes Licht aufweist. Der Farbfilter kann für alle Ausführungsformen verwendet werden. Mittels eines Sacklochs kann die LED flächenbündig in dem beweglichen Maschinenteil 20 versenkt werden, wodurch überstehende Anbauelemente vermieden werden können und eine Beschädigung der Referenzobjekte 130 im Falle von Kollisionen der beweglichen Maschinenteile 20 verhindert werden kann. Werden gemäß einer weiteren Ausführungsform LEDs in mehrere Richtungen benötigt können entsprechende Aufsatzadapter gebaut werden.A further embodiment for the reference object 130 is an LED in a metal housing with a thread on the back (for simple and space-saving attachment to one of the moving machine parts 20). A pane of glass is used for sealing, which may also have a color filter for infrared light. The color filter can be used for all embodiments. The LED can be sunk flush in the movable machine part 20 by means of a blind hole, whereby protruding add-on elements can be avoided and damage to the reference objects 130 in the event of collisions of the movable machine parts 20 can be prevented. If, according to a further embodiment, LEDs are required in several directions, corresponding attachment adapters can be built.

Eine weitere Ausführungsform sieht eine zusätzliche Diffusor-Schicht an der Glasscheibe vor. Dadurch wird die punktförmige Lichtquelle der LED aufgeweitet und dessen Blickfeldposition kann von den optischen Sensoren besser gemessen werden. Dies ist besonders bei schräger Draufsicht der optischen Sensoren auf die LEDs relevant wodurch die Messung robuster und genauer wird.A further embodiment provides an additional diffuser layer on the glass pane. As a result, the point light source of the LED is expanded and its field of view position can be better measured by the optical sensors. This is particularly relevant when the optical sensors are viewed from the LEDs at an angle, making the measurement more robust and accurate.

Claims (10)

Verfahren für eine Positionsbestimmung eines beweglichen Maschinenteils (20) einer Maschine (10), wobei an der Maschine (10) eine Mehrzahl von optischen Sensoren (122) angeordnet sind, die jeweils ein festes Sensorblickfeld (126) in Bezug zu ihrer Anordnung an der Maschine (10) aufweisen, und an dem beweglichen Maschinenteil (20) eine Mehrzahl von Referenzobjekten (130) angeordnet sind und jedes einzelne der Referenzobjekte (130) an einer festen Referenzposition auf dem Maschinenteil (20) fixiert ist, wobei jeweils die Sensorblickfelder (126) der optischen Sensoren (122) in Richtung der Referenzobjekte (130) ausgerichtet sind, wobei das Verfahren folgende Schritte aufweist: - Bereitstellen eines virtuellen Modells der Maschine (10'), das virtuelle optische Sensoren (122`) mit virtuellen Sensorblickfeldern (126') und virtuelle Referenzobjekte (130') aufweist, wobei die Ausrichtung der virtuellen optischen Sensoren (122') der der optischen Sensoren (122) entspricht und die Positionierung der virtuellen Referenzobjekte (130') der der Referenzobjekte (130) entspricht; - in einem Initialisierungsschritt (t0): - Bestimmen einer initialen Sensorblickfeldposition der einzelnen Referenzobjekte (130) in den jeweiligen Sensorblickfeldern (126) der jeweiligen optischen Sensoren (122) und Anpassen des virtuellen Modells der Maschine (10') an die initiale Sensorblickfeldpositionen der einzelnen Referenzobjekte (130); - in einem dem Initialisierungsschritt nachfolgenden ersten Zeitintervall (t1): - Aktivieren der Referenzobjekte (130) und Aufnehmen von Aufnahmen durch die optischen Sensoren (122); - Ermitteln der neuen Sensorblickfeldposition der einzelnen aktivierten Referenzobjekte (130) in den einzelnen Aufnahmen der optischen Sensoren (122); - Anpassen des virtuellen Modells der Maschine (10') an die neuen Sensorblickfeldpositionen der einzelnen Referenzobjekte (130), indem eine Minimierungsfunktion ausgeführt wird; - Bestimmen der Position des beweglichen Maschinenteils (20) durch Auslesen der virtuellen Position des virtuellen Maschinenteils (20') aus dem virtuellen Modell, wobei das Bestimmen der initialen Sensorblickfeldposition der einzelnen Referenzobjekte (130) die folgenden Schritte aufweist: - Aktivieren eines der Referenzobjekte (130) und Aufnehmen von Aufnahmen durch alle optischen Sensoren (122) während das Referenzobjekt (130) aktiviert ist; - Auswerten der jeweiligen Aufnahmen der optischen Sensoren (122) in denen das Referenzobjekt (130) aktiviert ist, wodurch die initiale Sensorblickfeldposition des Referenzobjekts (130) bestimmt wird; - Wiederholen der vorgenannten Verfahrensschritte mit allen weiteren Referenzobjekten (130), wodurch alle initialen Sensorblickfeldpositionen der Referenzobjekte (130) bestimmt werden.Method for determining the position of a movable machine part (20) of a machine (10), a plurality of optical sensors (122) being arranged on the machine (10), each of which has a fixed sensor field of view (126) in relation to its arrangement on the machine (10), and a plurality of reference objects (130) are arranged on the movable machine part (20) and each individual reference object (130) is fixed at a fixed reference position on the machine part (20), the respective sensor fields of view (126) of the optical sensors (122) are aligned in the direction of the reference objects (130), the method having the following steps: - providing a virtual model of the machine (10'), the virtual optical sensors (122') with virtual sensor fields of view (126') and virtual reference objects (130'), wherein the orientation of the virtual optical sensors (122') corresponds to that of the optical sensors (122) and the positioning of the virtual reference objects (130') corresponds to that of the reference objects (130); - In an initialization step (t0): - Determining an initial sensor field of view position of the individual reference objects (130) in the respective sensor fields of view (126) of the respective optical sensors (122) and adapting the virtual model of the machine (10 ') to the initial sensor field of view positions of the individual reference objects (130); - in a first time interval (t1) following the initialization step: - activating the reference objects (130) and taking pictures by the optical sensors (122); - determining the new sensor field of view position of the individual activated reference objects (130) in the individual recordings of the optical sensors (122); - Adjusting the virtual model of the machine (10 ') to the new sensor field of view positions of the individual reference objects (130) by a mini mization function is running; - Determining the position of the movable machine part (20) by reading the virtual position of the virtual machine part (20') from the virtual model, wherein the determination of the initial sensor field of view position of the individual reference objects (130) has the following steps: - Activating one of the reference objects ( 130) and taking pictures by all optical sensors (122) while the reference object (130) is activated; - Evaluating the respective recordings of the optical sensors (122) in which the reference object (130) is activated, whereby the initial sensor field of view position of the reference object (130) is determined; - Repeating the aforementioned method steps with all further reference objects (130), whereby all initial sensor field of view positions of the reference objects (130) are determined. Verfahren gemäß Anspruch 1, wobei zusätzlich zu den Aufnahmen in denen das jeweilige Referenzobjekt (130) aktiviert wird eine weitere Schwarzaufnahme mit jedem der optischen Sensoren (122) aufgenommen wird und mit den Aufnahmen in denen das jeweilige Referenzobjekt (130) aktiviert ist, verglichen wird, wodurch Umgebungseinflüsse herausgefiltert werden.procedure according to claim 1 , In addition to the recordings in which the respective reference object (130) is activated, a further black recording is recorded with each of the optical sensors (122) and is compared with the recordings in which the respective reference object (130) is activated, whereby environmental influences are filtered out become. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei mittels der Minimierungsfunktion zunächst ein lineares Gleichungssystem gelöst wird, um einen optimalen Startpunkt für eine nachfolgende numerische Optimierung zu ermitteln, wobei anschließen die numerische Optimierung ausgehend von dem Startpunkt das globale Minimum oder das globale Maximum ermittelt, wodurch das virtuelle Modell der Maschine (10') mittels der neuen Sensorblickfeldpositionen der einzelnen Referenzobjekte (130) angepasst wird.Method according to one of the preceding claims, wherein a linear system of equations is first solved by means of the minimization function in order to determine an optimal starting point for a subsequent numerical optimization, with the numerical optimization then determining the global minimum or the global maximum starting from the starting point, whereby the virtual model of the machine (10') is adapted using the new sensor field of view positions of the individual reference objects (130). Verfahren gemäß einem der vorhergehenden Ansprüche, wobei an dem beweglichen Maschinenteil (20) mindestens ein Lagesensor (150) angeordnet ist, wobei der Lagesensor (150) ein Beschleunigungssensor und / oder ein Gyroskop ist, wobei mittels des Lagesensors (150) Richtungsdaten zum Gravitationsvektor ermittelt werden und diese Richtungsdaten bei der Bestimmung der Position des beweglichen Maschinenteils (20) zusätzlich herangezogen werden.Method according to one of the preceding claims, wherein at least one position sensor (150) is arranged on the movable machine part (20), the position sensor (150) being an acceleration sensor and/or a gyroscope, with the position sensor (150) determining direction data for the gravitational vector and these directional data are also used to determine the position of the movable machine part (20). Verfahren gemäß Anspruch 4, wobei zusätzlich an der Maschine (10) mindestens ein Lagesensor (150) angeordnet ist, mittels dem Referenzdaten ermittelt werden, die zur Kompensation der Position der Maschine (10) bei der Bestimmung der Position des beweglichen Maschinenteils (20) herangezogen werden.procedure according to claim 4 At least one position sensor (150) is additionally arranged on the machine (10), by means of which reference data are determined which are used to compensate for the position of the machine (10) when determining the position of the movable machine part (20). Verfahren gemäß einem der Ansprüche 4 oder 5, wobei die Richtungsdaten und / oder die Referenzdaten der Lagesensoren (150) der Minimierungsfunktion bereitgestellt werden, wodurch mittels einer Sensordatenfusion der Daten aus den Lagesensoren (150) und der neuen Sensorblickfeldpositionsdaten der optischen Sensoren (122) die Anpassung des virtuellen Modells der Maschine (10') durchgeführt wird.Method according to one of Claims 4 or 5 , wherein the direction data and/or the reference data of the position sensors (150) are provided to the minimization function, whereby the adaptation of the virtual model of the machine (10 ') is carried out. Verfahren gemäß einem der vorhergehenden Ansprüche, wobei bei der Aktivierung der Referenzobjekte (130) in den nachfolgenden Zeitintervallen (t1, tn) eine Auswahl der zur Verfügung stehenden Referenzobjekte (130) getroffen wird, wobei bei der Auswahl die aus der vorangegangenen Positionsbestimmung bekannte Position der Referenzobjekte (130) und / oder Geschwindigkeit der Referenzobjekte (130) und / oder Beschleunigung der Referenzobjekte (130) und / oder ein geometrischer Aufbau des beweglichen Maschinenteils (20) und / oder ein geometrischer Aufbau der Maschine (10) berücksichtigt wird.Method according to one of the preceding claims, wherein when the reference objects (130) are activated in the subsequent time intervals (t1, tn), a selection of the available reference objects (130) is made, with the selection being based on the position of the position known from the previous position determination Reference objects (130) and/or speed of the reference objects (130) and/or acceleration of the reference objects (130) and/or a geometric structure of the movable machine part (20) and/or a geometric structure of the machine (10) is taken into account. Messvorrichtung (100) für eine Positionsbestimmung eines beweglichen Maschinenteils (20) einer Maschine (10), wobei an der Maschine (100) eine Mehrzahl von optischen Sensoren (122) angeordnet sind, die jeweils ein festes Sensorblickfeld (126) in Bezug zu ihrer Anordnung an der Maschine (10) aufweisen und an dem beweglichen Maschinenteil (20) eine Mehrzahl von Referenzobjekten (130) angeordnet sind und jedes einzelne der Referenzobjekte (130) an einer festen Referenzposition auf dem Maschinenteil (20) fixiert ist, wobei jeweils die Sensorblickfelder (126) der optischen Sensoren (122) in Richtung der Referenzobjekte (130) ausgerichtet sind und wobei die Messvorrichtung (100) zusätzlich eine Recheneinheit (110) aufweist, die dazu ausgebildet ist, ein Verfahren gemäß einem der vorhergehenden Ansprüche auszuführen.Measuring device (100) for determining the position of a movable machine part (20) of a machine (10), a plurality of optical sensors (122) being arranged on the machine (100), each of which has a fixed sensor field of view (126) in relation to its arrangement on the machine (10) and a plurality of reference objects (130) are arranged on the movable machine part (20) and each one of the reference objects (130) is fixed at a fixed reference position on the machine part (20), the respective sensor fields of view ( 126) of the optical sensors (122) are aligned in the direction of the reference objects (130), and wherein the measuring device (100) additionally has a computing unit (110) which is designed to carry out a method according to one of the preceding claims. Messvorrichtung gemäß Anspruch 8, wobei die Recheneinheit (110) eine Mehrzahl an verteilten Subeinheiten (112) aufweist, die dazu eingerichtet sind miteinander zu kommunizieren und Daten auszutauschen, wobei die Recheneinheit (110) und optischen Sensoren (122) dazu eingerichtet sind mit einer Pipeline zu arbeiten, um die zur Verfügung stehende Rechenkapazität optimal auszunutzen.Measuring device according to claim 8 , wherein the processing unit (110) has a plurality of distributed sub-units (112) which are set up to communicate with one another and to exchange data, the processing unit (110) and optical sensors (122) being set up to work with a pipeline in order to optimal use of the available computing capacity. Messvorrichtung (100) gemäß einem der Ansprüche 8 oder 9, wobei die optischen Sensoren (122) Infrarotkameras sind und jedes der Referenzobjekte (130) mehrere Seiten (132) aufweist und an mindestens zwei der Seiten (132) jeweils ein Strahlungssender (134) angeordnet ist und bei dem Aktivieren des Referenzobjekts (130) unterschieden werden kann, welche der Strahlungssender (134) je Referenzobjekt (130) aktiviert wird.Measuring device (100) according to one of Claims 8 or 9 , wherein the optical sensors (122) are infrared cameras and each of the reference objects (130) has a plurality of sides (132) and a radiation transmitter (134) is arranged on at least two of the sides (132) and when the reference object (130) is activated under it can be distinguished which of the radiation transmitters (134) is activated for each reference object (130).
DE102021002707.8A 2021-05-25 2021-05-25 Method and measuring device for determining the position of a movable machine part of a machine Active DE102021002707B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021002707.8A DE102021002707B4 (en) 2021-05-25 2021-05-25 Method and measuring device for determining the position of a movable machine part of a machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021002707.8A DE102021002707B4 (en) 2021-05-25 2021-05-25 Method and measuring device for determining the position of a movable machine part of a machine

Publications (2)

Publication Number Publication Date
DE102021002707A1 DE102021002707A1 (en) 2022-12-01
DE102021002707B4 true DE102021002707B4 (en) 2023-06-01

Family

ID=83997316

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021002707.8A Active DE102021002707B4 (en) 2021-05-25 2021-05-25 Method and measuring device for determining the position of a movable machine part of a machine

Country Status (1)

Country Link
DE (1) DE102021002707B4 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09821A (en) 1995-06-20 1997-01-07 Asahi Breweries Ltd Method and apparatus for molding filter paper fitted with umbrella-shaped pleats
US20050159916A1 (en) 2002-12-27 2005-07-21 Canon Kabushiki Kaisha Information processing apparatus, and information processing method
US20110169949A1 (en) 2010-01-12 2011-07-14 Topcon Positioning Systems, Inc. System and Method for Orienting an Implement on a Vehicle
DE102014209371A1 (en) 2013-05-17 2014-11-20 Ifm Electronic Gmbh System for controlling a work machine with a boom
US20150168136A1 (en) 2013-12-12 2015-06-18 The Regents Of The University Of Michigan Estimating three-dimensional position and orientation of articulated machine using one or more image-capturing devices and one or more markers
DE102019220557A1 (en) 2019-12-23 2021-06-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method and measuring arrangement for localizing at least one component of a machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09821A (en) 1995-06-20 1997-01-07 Asahi Breweries Ltd Method and apparatus for molding filter paper fitted with umbrella-shaped pleats
US20050159916A1 (en) 2002-12-27 2005-07-21 Canon Kabushiki Kaisha Information processing apparatus, and information processing method
US20110169949A1 (en) 2010-01-12 2011-07-14 Topcon Positioning Systems, Inc. System and Method for Orienting an Implement on a Vehicle
DE102014209371A1 (en) 2013-05-17 2014-11-20 Ifm Electronic Gmbh System for controlling a work machine with a boom
US20150168136A1 (en) 2013-12-12 2015-06-18 The Regents Of The University Of Michigan Estimating three-dimensional position and orientation of articulated machine using one or more image-capturing devices and one or more markers
DE102019220557A1 (en) 2019-12-23 2021-06-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method and measuring arrangement for localizing at least one component of a machine

Also Published As

Publication number Publication date
DE102021002707A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
EP2329222B1 (en) Method and measuring assembly for determining the wheel or axle geometry of a vehicle
EP2630463B1 (en) Method and apparatus for checking a lighting driving assistance system
DE4107177C2 (en) Vehicle / vehicle distance measuring device
EP2603767B1 (en) Method for calibrating a measurement system and device for carrying out the method
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE10246067A1 (en) Calibrating image sensor system(s) in/on motor vehicle involves using alignment of image sensor system(s) relative to vehicle geometric driving axis derived from image information for calibration
DE102019202577A1 (en) CONVERSION OF MOBILE MACHINES IN HIGH-PRECISE ROBOTS
DE69822187T2 (en) METHOD AND DEVICE FOR LOCATING AND GUIDING A VEHICLE PROVIDED WITH A LINEAR CAMERA
EP2806248A1 (en) Method for calibrating a detection device and detection device
WO2014118391A2 (en) Inspection camera unit, method for inspecting interiors, and sensor unit
DE112019000388T5 (en) DEVICE FOR PROVIDING INFORMATION ABOUT AN INSTALLATION POSITION AND METHOD FOR PROVIDING INFORMATION ABOUT THE INSTALLATION POSITION
DE112015002764B4 (en) Mounting angle adjustment method and mounting angle detection device for on-board camera
EP3475921B1 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
DE102019202269B4 (en) Method for calibrating a mobile camera unit of a camera system for a motor vehicle
DE102021002707B4 (en) Method and measuring device for determining the position of a movable machine part of a machine
EP2789971A1 (en) Method for calibrating a detection device and detection device
DE102014106718B4 (en) System that presents a field of view representation in a physical position in a changeable solid angle range
DE102020215420A1 (en) Method for calibrating at least one camera
DE10051415A1 (en) Optical tracking system retransfers information computed by one computing device to another device, and/or to CCD camera
DE102022104880B4 (en) Method for calibrating a portable reference sensor system, portable reference sensor system and use of the portable reference sensor system
DE102016223290A1 (en) Method and device for calibrating a sensor for a vehicle
DE4308753C1 (en) Method and device for image-based position detection
DE102020127315A1 (en) System and method for annotating automotive radar data
DE102019201635A1 (en) System and method for measuring a field of view of an environmental sensor in a vehicle
DE102019209849B4 (en) Method and control device for distance-measuring image processing for a stereo camera device for a vehicle and stereo camera system with a stereo camera device and a control device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final