DE102021205893A1 - Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung - Google Patents

Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung Download PDF

Info

Publication number
DE102021205893A1
DE102021205893A1 DE102021205893.0A DE102021205893A DE102021205893A1 DE 102021205893 A1 DE102021205893 A1 DE 102021205893A1 DE 102021205893 A DE102021205893 A DE 102021205893A DE 102021205893 A1 DE102021205893 A1 DE 102021205893A1
Authority
DE
Germany
Prior art keywords
module
marking
optical
image
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021205893.0A
Other languages
English (en)
Inventor
Marian Marcel Vorderer
Urs Leberle
Joachim Frangen
Thomas Betzitza
David Kampert
Chee Hung Koo
Sebastian Schroeck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021205893.0A priority Critical patent/DE102021205893A1/de
Publication of DE102021205893A1 publication Critical patent/DE102021205893A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1463Orientation detection or correction, e.g. rotation of multiples of 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Abstract

Verfahren zur Lagebestimmung, wobei ein erstes Modul 6 einen Markierungsbereich 1 aufweist, wobei der Markierungsbereich 1 mindestens eine optische Markierung 2 umfasst, wobei die optische Markierung 2 eine vorgegebene Dimensionierung aufweist und/oder die optische Markierung 2 eine Dimensionierungsinformation der optischen Markierung 2 umfasst, wobei eine Sensoreinheit 3 ausgebildet und/oder eigerichtet ist mindestens ein Bild 4,4' eines Abschnitts des Markierungsbereichs 1 aufzunehmen, wobei das Bild 4,4' die optische Markierung 2 umfasst und/oder zeigt, wobei basierend auf dem mindestens einen Bild 4,4' eine relative Lage R, Position, Orientierung und/oder Geschwindigkeit zwischen der Sensoreinheit 3 und der optischen Markierung 2 bestimmt wird.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur Lagebestimmung, insbesondere zur Lagebestimmung eines Moduls und/oder zweier Module. Die Lagebestimmung kann insbesondere eine relative Lagebestimmung zwischen zwei Modulen und/oder zwischen Modul und Sensoreinheit bilden.
  • Die Positionierung, Orientierung und/oder Anordnung eines Objekts im Raum und/oder relativ zu einem weiteren Objekt findet vielfachen Einsatz im Alltag. Beispielsweise müssen Fabrikationsmodule, autonome Module, Fahrzeuge und/oder Werkstücke relativ zueinander positioniert und/oder angeordnet werden. Hierzu ist die Bestimmung der Lage der Module absolut und/oder relativ zueinander nötig.
  • Die Druckschrift DE 10 2015 211 859 A1 beschreibt ein Ortungssystem mit handgehaltener Ortungsvorrichtung sowie ein Verfahren zur Ortung. Das handgehaltene Ortungsgerät ist dazu vorgesehen, Ortungsdaten, zu unter einer Untersuchungsoberfläche verborgenen Ortungsobjekten, zu erfassen. Ferner umfasst die Ortungsvorrichtung einen Positionierungssensor zur Erfassung von Positionsdaten der Ortungsvorrichtung bezogen auf die Untersuchungsoberfläche.
  • Offenbarung der Erfindung
  • Die Erfindung betrifft ein Verfahren zur Lagebestimmung mit den Merkmalen des Anspruchs 1. Ferner betrifft die Erfindung ein Modul für eine Positionierungsanordnung und eine Positionierungsanordnung. Bevorzugte und/oder vorteilhafte Ausführungsformen ergeben sich den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
  • Die Erfindung betrifft ein Verfahren zur Lagebestimmung. Das Verfahren ist insbesondere computerimplementiert und/oder Software implementiert ausführbar und/oder ausgeführt. Im Speziellen ist das Verfahren zum Einsatz im industriellen, fertigenden, produzierenden, verarbeitenden und/oder prüfenden Umfeld, Anlagen und/oder Anwendungen eingesetzt. Das Verfahren ist zur Lagebestimmung, insbesondere relativen Lagebestimmung eines Moduls oder mehrerer Module ausgebildet. Die Lagebestimmung durch das Verfahren erfolgt insbesondere basierend auf einer optischen Messung, insbesondere bildbasierten Lagebestimmung. Die Lagebestimmung kann beispielsweise eine Grundlage und/oder Basis für eine Steuerung oder Regelung einer Positionierung des Moduls bilden.
  • Ein erstes Modul weist einen Markierungsbereich auf und/oder ein Markierungsbereich wird am ersten Modul festgelegt. Das erste Modul ist beispielsweise ein Modul einer Produktionsanlage, Bearbeitungsanlage, Fertigungsanlage oder Automatisierungsanlage. Das erste Modul kann beispielsweise eine Funktion, insbesondere Arbeitsfunktion, z.B. Bohren oder Sägen, insbesondere Greifen und Transportieren, aufweisen. Das erste Modul kann im Speziellen ein Werkstück oder handhabendes bzw. transportierendes Objekt sein. Der Markierungsbereich ist insbesondere ein flächiger Bereich. Besonders bevorzugt ist der Markierungsbereich als ein ebener und/oder ungekrümmter Markierungsbereich ausgebildet. Der Markierungsbereich ist vorzugsweise sichtbar und/oder auf einer Oberfläche des ersten Moduls angeordnet. Der Markierungsbereich ist vorzugsweise ein Flächenabschnitt des ersten Moduls, vorzugsweise mit regelmäßiger Geometrie und/oder Kontur, beispielsweise rechteckig, insbesondere quadratisch.
  • Der Markierungsbereich umfasst mindestens eine optische Markierung, im Speziellen umfasst der Markierungsbereich mindestens zehn, vorzugsweise mindestens 100 optische Markierungen. Die optische Markierung und/oder die optischen Markierungen sind im Markierungsbereich angeordnet, vorzugsweise regelmäßig. Beispielsweise bilden die optischen Markierungen eine Rasterung des Markierungsbereichs. Die optische Markierung ist insbesondere flächig ausgebildet. Die optische Markierung ist vorzugsweise als ein 2-D Code ausgebildet, beispielsweise QR-Code, Strichcode oder vorzugsweise Dot-Code. Die optische Markierung umfasst und/oder weist vorzugsweise eine einheitliche Geometrie und/oder Größe auf. Beispielsweise sind die optischen Markierungen quadratisch ausgebildet und/oder quadratisch begrenzt.
  • Die optische Markierung und/oder die optischen Markierungen weisen eine vorgegebene, standardisierte und/oder bekannte Dimensionierung auf. Insbesondere umfassen die optische Markierung und/oder die optischen Markierungen jeweils eine Dimensionierungsinformation. Die Dimensionierung ist beispielsweise die Größe und/oder Skalierung der optischen Markierung. Beispielsweise umfassen und/oder beschreiben die Dimensionierung, insbesondere die Dimensionierung Information eine Kontur, Geometrie, Form, Längenverhältnisse und/oder Abmessung der optischen Markierung. Beispielsweise beschreibt die Dimensionierungsinformation und/oder die Dimensionierung, dass die optische Markierung eine rechteckige und/oder quadratische Begrenzung aufweist, insbesondere Längen, Skalen und/oder Abmessung in der Kontur und/oder Geometrie. Insbesondere umfasst und/oder beschreibt die Dimensionierungsinformation eine Skala und/oder einen Maßstab, beispielsweise in zwei linearunabhängige Richtungen. Im Speziellen umfassen und/oder beschreiben die optischen Markierungen jeweils eine Position, Lage und/oder Orientierung der optischen Markierung in dem Markierungsbereich und/oder auf dem ersten Modul. Die optische Markierung ist vorzugsweise als eine schwarz-weiß Markierung ausgeführt.
  • Mittels einer Sensoreinheit wird ein Bild des ersten Moduls, insbesondere eines Abschnittes des ersten Moduls aufgenommen, insbesondere zyklisch und/oder wiederholt aufgenommen. Die Sensoreinheit bildet insbesondere eine optische Sensoreinheit, im Speziellen umfasst und/oder bildet die Sensoreinheit eine Kamera. Das mindestens eine Bild zeigt einen Abschnitt des Markierungsbereichs. Insbesondere zeigt und/oder umfasst das Bild mindestens eine optische Markierung, vorzugsweise eine Mehrzahl an optischen Markierungen. Insbesondere zeigt und/oder umfasst das Bild den Code, insbesondere 2-D Code der optischen Markierung. Insbesondere ist das Bild zum auslesen der Dimensionierung und/oder Dimensionierungsinformation.
  • Basierend auf dem mindestens ein Bild, im Speziellen basierend auf dem exakt einen Bild, wird eine relative Lage, relative Position, relative Orientierung und/oder relative Geschwindigkeit zwischen der Sensoreinheit und der optischen Markierung, insbesondere zwischen der Sensoreinheit und dem ersten Modul bestimmt. Alternativ und/oder ergänzend wird basierend auf dem mindestens einen Bild, insbesondere basierend auf der umfassten und/oder gezeigten optischen Markierung, eine absolute Lage, Position, Orientierung und/oder Geschwindigkeit der optischen Markierung und/oder des ersten Moduls bestimmt und/oder berechnet. Insbesondere erfolgt die Bestimmung der relativen und/oder absoluten Lage, Position, Orientierung und/oder Geschwindigkeit basierend auf einer Bildauswertung, insbesondere auf Bewertung der gezeigten und/oder umfassten optischen Markierung. Im Speziellen wird die relative Lage, Position, Orientierung und/oder Geschwindigkeit basierend auf und/oder unter Zuhilfenahme der Dimensionierung und/oder Dimensionierungsinformation der optischen Markierung bestimmt. Ferner erfolgt die Bestimmung der Lage, Position, Orientierung und/oder Geschwindigkeit unter Verwendung von Aufnahmeparametern, beispielsweise Brennweite, Blende und/oder Focus, der Sensoreinheit.
  • Insbesondere wird in dieser Hinsicht und in Bezug auf die optischen Markierungen Bezug genommen auf die Anmeldung DE 10 2016 216 221 A1 und DE 10 216 216 196 A1 genommen, deren Inhalt hiermit in diese Anmeldung aufgenommen wird.
  • Die Erfindung basiert auf der Überlegung, ein Verfahren zur Lagebestimmung eines ersten Moduls relativ zu einer Sensoreinheit oder absolut, im Speziellen relativ zu einem weiteren Modul, basierend auf optischen Markierungen und einer Bildaufnahme der optischen Markierung durch die Sensoreinheit bereitzustellen. Um die optischen Markierungen zur Lagebestimmung nutzen zu können, insbesondere eine genügende Genauigkeit und Flexibilität zu erzielen, umfassen und/oder beschreiben die optischen Markierungen jeweils eine Dimensionierung, beispielsweise Geometrie, Form und/oder Maßstab, so das basierend auf den aufgenommenen optischen Markierungen die Lage bestimmbar ist.
  • Besonders bevorzugt ist es, dass die optische Markierung und/oder die optischen Markierungen einen Code, insbesondere optischen Code bilden. Der Code ist beispielsweise als ein flächiger Code ausgebildet. Beispielsweise ist der Code der optischen Markierungen ein QR-Code, ein Strichcode, alphanumerischer Code, Dot-Code oder anderweitiger optischer Code. Der Code umfasst, beschreibt und/oder codiert vorzugsweise die Dimensionierung, die Dimensionierungsinformation und/oder eine Position der optischen Markierung, insbesondere innerhalb des Markierungsbereiches und/oder auf dem ersten Modul. Im Speziellen ist es vorgesehen, dass die optische Markierung eine Positionierungsinformation umfasst, beschreibt und/oder codiert, wobei die Positionierungsinformation die Lage, Orientierung und/oder Position der jeweiligen optischen Markierung am Modul, insbesondere dessen Oberfläche beschreibt. Insbesondere beschreibt und/oder umfasst der Code der optischen Markierung eine Geometrieinformation, Leserichtungsinformation, Skalierungsinformation, Maßstabsinformation und/oder Informationen, die zur Verwendbarkeit der optischen Markierung im Bild aufgenommen durch die Sensoreinheit zur Lage, Position und/oder Orientierungsbestimmung benötigt werden.
  • Optional ist es vorgesehen, dass die optische Markierung jeweils eine eindeutige Kennung, beispielsweise ID umfasst, beschreibt und/oder codiert. Insbesondere kann die optische Markierung eine Geräte-ID für das jeweilige Modul bilden, wobei die Geräte-ID vorzugsweise eindeutig ausgebildet sind. Besonders bevorzugt ist es, dass die optische Markierung eine Funktionalität, Anforderung, Geräteparameter und/oder Geräte- bzw. Modulgeometrie umfasst, beschreibt und/oder codiert. Dieser Ausgestaltung liegt die Überlegung zugrunde, optische Markierungen für das Verfahren zu verwenden, die neben der reinen Auswertbarkeit zur Lagebestimmung weitere Informationen beschreiben, die zur Automatisierung und vereinfachten Anwendung des Verfahrens bzw. erweiterten Anwendung, genutzt werden können.
  • Insbesondere ist es vorgesehen, dass die relative oder absolute Lage, Position und/oder Geschwindigkeit in sechs Freiheitsgraden bestimmt wird. Insbesondere erfolgt die Bestimmung in sechs Freiheitsgraden für drei translatorische und drei rotatorische Freiheitsgrade. Insbesondere erfolgt die Bestimmung in sechs Freiheitsgraden bezogen auf ein Referenzkoordinatensystem, beispielsweise ein Weltkoordinatensystem und/oder ein Koordinatensystem vorgegeben durch die Sensoreinheit
  • Eine Ausgestaltung des Verfahrens sieht vor, dass ein zweites Modul, insbesondere ähnlich oder identisch ausgebildet zu dem ersten Modul, einen weiteren Markierungsbereich mit optischen Markierungen aufweist. Insbesondere ist der weitere Markierungsbereich und/oder sind die optischen Markierungen des weiteren Markierungsbereichs gleichartig, analog und/oder identisch zu den optischen Markierungen des ersten Moduls ausgebildet. Das zweite Modul kann insbesondere zur Interaktion mit dem ersten Modul ausgebildet sein. Die Sensoreinheit ist ausgebildet und/oder eingerichtet, mindestens ein Bild eines Abschnitts des weiteren Markierungsbereichs, insbesondere umfassend und/oder zeigend eine oder mehrere optische Markierungen aufzunehmen. Das mindestens eine Bild kann insbesondere gleich dem mindestens einen Bild zur Aufnahme des Markierungsbereichs des ersten Moduls sein. Alternativ und/oder ergänzend kann ein weiteres Bild als das mindestens eine Bild aufgenommen werden. Das Bild zeigt mindestens eine optische Markierung des zweiten Moduls. Die optische Markierung und/oder die optischen Markierungen des zweiten Moduls bzw. des weiteren Markierungsbereichs, weisen eine vorgegebene Dimensionierung auf und/oder umfassen, beschreiben und/oder codieren eine Dimensionierungsinformation der optischen Markierung. Insbesondere ist die Dimensionierung und/oder Dimensionierungsinformation der optischen Markierung im weiteren Markierungsbereich analog zu denen des ersten Moduls codiert und/oder ausgebildet. Basierend auf dem Bild umfassend und/oder zeigend eine optische Markierung des weiteren Markierungsbereichs wird eine relative oder absolute Lage, Position, Orientierung und/oder Geschwindigkeit des zweiten Moduls, insbesondere des weiteren Markierungsbereichs, bestimmt. Beispielsweise wird die relative Lage, Position, Orientierung und/oder Geschwindigkeit relativ zur Sensoreinheit und/oder relativ zum ersten Modul bestimmt. Beispielsweise umfasst und/oder zeigt das Bild jeweils mindestens eine optische Markierung des Markierungsbereichs des ersten Moduls und des weiteren Markierungsbereichs des zweiten Moduls, wobei basierend auf den gezeigten und/oder umfassten optischen Markierungen die relative Lage, Position, Geschwindigkeit und/oder Orientierung zueinander bestimmt und/oder ermittelt wird.
  • Eine Ausgestaltung der Erfindung sieht vor, dass basierend auf der und/oder den ermittelten relativen Lage/n, Positione/n und/oder Orientierunge/n eine Abweichungsinformation bestimmt wird. Die Abweichungsinformation beschreibt beispielsweise eine Abweichung von einer Sollpositionierung. Insbesondere wird die Abweichung einer Istpositionierung, beispielsweise der ermittelten relativen oder absoluten Lage, Position und/oder Orientierung, von der Sollpositionierung beschrieben. Die Sollpositionierung ist beispielsweise eine relative oder absolute Lage, Position und/oder Orientierung des ersten Moduls selbst, des zweiten Moduls selbst, des ersten und/oder zweiten Moduls relativ zur Sensoreinheit und/oder des erste und/oder zweiten Moduls zueinander. Beispielsweise beschreibt es Sollpositionierung die Positionierung des ersten und/oder des zweiten Moduls nur Durchführung einer Aufgabe, und/oder Benutzung in einer Automatisierungsanlage. Insbesondere ist die Abweichung und/oder beschreibt die Abweichungsinformation eine Abweichung in sechs Freiheitsgraden. Im Speziellen wird die Abweichung basierend auf einer bereitgestellten und/oder bekannten Sollpositionierung beschrieben. Beispielsweise ist die Sollpositionierung in der optischen Markierung umfasst und/oder codiert.
  • Besonders bevorzugt ist es, dass basierend auf der Abweichungsinformation eine Korrekturinformation bestimmt wird. Die Korrekturinformation beschreibt beispielsweise wie von der Istpositionierung in die Sollpositionierung übergegangen werden kann, insbesondere unter Berücksichtigung der Geometrie, Modulparameter und/oder Randbedingungen. Die Korrekturinformation beschreibt beispielsweise wie das erste und/oder das zweite Modul zu verschieben und/oder zu verdrehen sind, so dass die Sollpositionierung erreicht wird.
  • Beispielsweise ist es vorgesehen, dass die Korrekturinformation zur Ansteuerung einer automatisierten Positionierung, beispielsweise Manipulator und/oder Roboterarm. Beispielsweise umfasst das erste Modul und/oder das zweite Modul, im Speziellen eine Positionierungsanordnung oder die Fertigungsanlage, eine Verschiebeeinheit zum Verschieben und/oder Verdrehen des jeweiligen Moduls, insbesondere zur Positionierung des jeweiligen Moduls in der Sollpositionierung. Insbesondere ist es vorgesehen, dass die Korrekturinformation einem Benutzer, bzw. Person, bereitgestellt wird, beispielsweise optisch. Die Korrekturinformation kann beispielsweise durch Angabe von Bewegungs- und/oder Drehrichtungen erfolgen, beispielsweise durch Pfeile erfolgen. Alternativ und/oder ergänzend kann die Korrekturinformation über die Anzeige einer Leuchte erfolgen, beispielsweise zum Aufleuchten wenn die Sollpositionierung erreicht ist und/oder wird. Besonders bevorzugt ist es, dass die Korrekturinformation dem Benutzer auf einem mobilen Smartdevice bereitgestellt wird. Beispielsweise wird die Korrektur Information an das Smartdevice gesendet, insbesondere drahtlos gesendet, beispielsweise mittels WiFi, Bluetooth oder optischer Datenkopplung. Alternativ erfolgt die Korrekturinformation und/oder ein Datenaustausch zwischen ersten Modul, zweiten Modul, Smartdevices und/oder anderen Modulen kabelgebunden.
  • Einen weiteren Gegenstand der Erfindung bildet ein Modul, insbesondere erstes Modul und/oder zweites Modul, wobei das Modul einen Markierungsbereich aufweist, wobei der Markierungsbereich mindestens eine optische Markierung, insbesondere flächige Kodierung, umfasst. Die optische Markierung umfasst und/oder beschreibt eine Dimensionierungsinformation der optischen Markierung und/oder die optische Markierung weist eine vorgegebene Dimensionierung auf. Die optische Markierung ist ausgebildet, zur Aufnahme durch eine Sensoreinheit und Bereitstellung als Bild, wobei basierend auf dem Bild eine relative Lage, Position, Orientierung und/oder Geschwindigkeit der optischen Markierung zur Sensoreinheit bestimmbar ist.
  • Einen weiteren Gegenstand der Erfindung bildet eine Positionierungsanordnung, wobei die Positionierungsanordnung mindestens ein erstes Modul und eine Sensoreinheit umfasst, wobei das erste Modul ausgebildet ist wie vorher beschrieben. Die Sensoreinheit ist ausgebildet, von dem Modul, insbesondere dem Markierungsbereich ein Bild aufzunehmen, wobei das Bild mindestens eine optische Markierung des Markierungsbereichs zeigt und/oder umfasst. Die Positionierungsanordnung umfasst ein Auswertemodul, wobei das Auswertemodul ausgebildet ist, basierend auf dem mindestens einen Bild, insbesondere der umfassten und/oder gezeigten optischen Markierung, eine relative Lage, Position, Orientierung und/oder Geschwindigkeit zwischen der Sensoreinheit und der optischen Markierung zu ermitteln und/oder bestimmen. Insbesondere ist die Positionierungsanordnung zur Anwendung und/oder Unterstützung des Verfahrens ausgebildet.
  • Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
    • 1 Markierungsbereich und Sensor Einheit als schematisches Ausführungsbeispiel;
    • 2 Positionierungsanordnung mit einem ersten Modul;
    • 3 Positionierungsanordnung mit einem ersten und einem zweiten Modul;
    • 4 Positionierungsanordnung und Abweichungsinformation;
    • 5 Positionierungsanordnung mit automatischer Positionierung;
    • 6 Positionierungsanordnung mit personengestützter Führung.
  • 1 zeigt ein Ausführungsbeispiel eines Markierungsbereichs 1 mit optischen Markierungen 2 und deren Aufnahme durch eine Sensoreinheit 3. Der Markierungsbereich 1 ist auf einer ebenen Fläche, insbesondere Oberfläche eines ersten Moduls, z.B. einer Arbeitsmaschine, einem autonomen Fahrzeug, Roboter oder Werkstück, angeordnet. Insbesondere ist der Markierungsbereich 1 eben ausgebildet, wobei die Ebene des Markierungsbereichs beispielsweise eine XY-Ebene eines kartesischen Koordinatensystems aufgespannt. Senkrecht hierzu kann eine Z-Achse definiert werden, so dass das dies als ein 3D-Weltkoordinatensystem verwendbar ist. Die optischen Markierungen 2 als Dot-Codes umfassend eine Mehrzahl an Punkten ausgebildet. Die optischen Markierungen 2 codieren und/oder beschreiben ihre Position im Markierungsbereich 1 als Koordinate (XP, YP).
  • Die Sensoreinheit 3 ist ausgebildet, mindestens ein Bild 4, 4' aufzunehmen. Die Bilder 4, 4' zeigen jeweils einen Ausschnitt des Markierungsbereichs 1 umfassend mindestens eine optische Markierung 2, im Speziellen eine Mehrzahl an optischen Markierungen 2. Insbesondere wird in dieser Hinsicht und in Bezug auf die optischen Markierungen 2 Bezug genommen auf die Anmeldung DE 10 2016 216 221 A1 und DE 10 216 216 196 A1 . Durch die Aufnahme des mindestens einen Bildes 4, 4' wird von einem Auswertemodul basierend auf der gezeigten optischen Markierung 2 eine relative Lage R der optischen Markierung 4, 4' bzw. des Markierungsbereichs 1 zur Sensoreinheit 3 bestimmt. Die relative Lage R bzw. Position umfasst hierbei sechs Freiheitsgrade.
  • 2 zeigt ein Ausführungsbeispiel einer Positionierungsanordnung 5 umfassend die Sensoreinheit 3 ein erstes Modul 6, sowie den Markierungsbereich 1 mit den optischen Markierungen 2 wie beispielsweise zu 1 beschrieben. Der Markierungsbereich 1 ist auf einer Oberfläche 7 des ersten Moduls angeordnet. Die Sensoreinheit 3 ist ausgebildet, das mindestens eine Bild 4 von dem ersten Modul 6 aufzunehmen, wobei dieses Bild 4 mindestens einen Ausschnitt, insbesondere mindestens eine optische Markierung 2, dass Markierungsbereichs 1 zeigt. Basierend auf dem Bild 4 wird von dem Auswertemodul, insbesondere unter Kenntnis einer zentralen Achse 8 einer als Sensoreinheit 3 ausgebildeten Kamera, die relative Lage R zwischen Sensoreinheit 3 und optische Markierung 2 bzw. Markierungsbereich 1 zu bestimmen. Unter Kenntnis der Geometrie und/oder der Position des Markierungsbereichs 1 auf dem ersten Modul 6 kann von der dem Auswertemodul eine relative Lage, Position und unter Orientierung des ersten Moduls 6 zur Sensoreinheit 3 ermittelt werden.
  • 3 zeigt ein weiteres Ausführungsbeispiel einer Positionierungsaanordnung 5 mit der Sensoreinheit 3 dem ersten Modul 6 und einem zweiten Modul 9. Sensoreinheit 3 und erstes Modul 6 sind im Wesentlichen ausgebildet wie zu 1 bzw. 2 beschrieben. Das zweite Modul 9 ist ebenfalls an das erste Modul angelehnt aufgebaut, insbesondere bezogen auf das Umfassen des Markierungsbereichs 1' auf der Oberfläche 7' des zweiten Moduls 9. Die Sensoreinheit 3 ist ausgebildet ein Bild des ersten Moduls 6 und/oder des zweiten Moduls 9 aufzunehmen, wobei hierbei zwei getrennte Bilder 4, 4' vorgesehen sein können oder ein Bild 4 umfassend und/oder betreffend beide Module 6, 9. Das mindestens eine Bild 4 bzw. die zwei Bilder 4, 4' zeigen jeweils einen Abschnitt des Markierungsbereichs 1 und Markierungsbereichs 1', wobei das Auswertemodul ausgebildet ist, eine relative Lage, Position und/oder Orientierung zwischen dem ersten Modul 6 und dem zweiten Modul 9 zu ermitteln. Beispielsweise wird vom Auswertemodul hierbei die relative Lage R zwischen Sensoreinheit 3 und ersten Modul 6 bestimmt, wobei ferner die relative Position und/oder Lage R' zwischen Sensoreinheit 3 und zweiten Modul 9 ermittelt wird, wobei die relative Position R" als Differenz der beiden relativen Lagen und/oder Positionen ermittelt wird.
  • 4 zeigt ein Ausführungsbeispiel, dass im Wesentlichen dem Ausführungsbeispiel aus 3 entspricht, bei dem eine Abweichungsinformation ΔR ermittelt wird. Hierzu ist dem Auswertemodul eine Sollpositionierung S bereitgestellt und/oder bekannt. Die Sollpositionierung S beschreibt beispielsweise die Lage des ersten Moduls 6 die erreicht werden soll und/oder vorgesehen ist. Zur Bestimmung der Abweichungsinformation ΔR wird eine Istposition und/oder Istlage bestimmt, die im Wesentlichen entspricht oder sich ergibt aus der relativen Lage R zum jeweiligen Zeitpunkt. Die Abweichung ΔR kann zur Bestimmung einer Korrekturinformation genutzt werden, die angibt wie die entsprechenden Module 6, 9 in die Sollpositionierung S gebracht werden können.
  • 5 zeigt ein Ausführungsbeispiel einer Positionierungsanordnung 5 n wobei die Positionierungsanordnung 5 ein Steuermodul 10 umfasst, wobei das Steuermodul 10 ausgebildet ist, basierend auf der ermittelten Abweichungsinformation ΔR und/oder der Korrekturinformation eine Kinematik zum Positionieren und/oder Bewegen des ersten Moduls 6, gegebenenfalls des zweiten Moduls 9, vom Istzustand in den Sollzustand, hier die Sollpositionierung S. Hierzu kann die bestimmte relative Lage R, Positionierung, Orientierung, Korrekturinformation und/oder Abweichungsinformation ΔR eine Regelung und/oder Steuerschleife bereitgestellt sein, insbesondere kabelgebunden oder drahtlos bereitgestellt.
  • 6 zeigt ein weiteres Ausführungsbeispiel einer Positionierungsanordnung 5, wobei ich hier die Nachführung und/oder Positionierung des ersten Moduls 6 bzw. des zweiten Moduls 9 vom Istzustand, bzw. der Istpositionierung, in den Sollzustand durch einen Benutzer bzw. Person 11 erfolgt. Hierzu wird die Abweichungsinformation ΔR und/oder die Korrekturinformation dem Benutzer 11 bereitgestellt, beispielsweise auf ein Smartphone oder Tablettcomputer 12 übermittelt, wobei hierauf eine Anzeige bzw. eine Visualisierung der absoluten und/oder relativen Lagen, Positionierung und/oder Orientierungen, im Speziellen der Abweichunginformation ΔR und/oder Korrekturinformation, erfolgen kann. Der Benutzer 11 kann hiermit das jeweilige Modul 6 und/oder 9 nachführen, sodass der Sollzustand, hier die Sollpositionierung S, erreicht wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015211859 A1 [0003]
    • DE 102016216221 A1 [0011, 0024]
    • DE 10216216196 A1 [0011, 0024]

Claims (13)

  1. Verfahren zur Lagebestimmung, wobei ein erstes Modul (6) einen Markierungsbereich (1) aufweist, wobei der Markierungsbereich (1) mindestens eine optische Markierung (2) umfasst, wobei die optische Markierung (2) eine vorgegebene Dimensionierung aufweist und/oder die optische Markierung (2) eine Dimensionierungsinformation der optischen Markierung (2) umfasst wobei eine Sensoreinheit (3) ausgebildet und/oder eigerichtet ist, mindestens ein Bild (4,4') eines Abschnitts des Markierungsbereichs aufzunehmen, wobei das Bild (4,4') die optische Markierung (2) umfasst und/oder zeigt, wobei basierend auf dem mindestens einen Bild (4,4') eine relative Lage, Position, Orientierung und/oder Geschwindigkeit zwischen der Sensoreinheit (3) und der optischen Markierung (2) bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die optische Markierung (2) einen Code, insbesondere Dot-Code, bildet.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Dimensionierungsinformation in den optischen Markierungen (2) kodiert ist.
  4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die optische Markierung (2) eine Positionierungsinformation am Modul (6,9) umfasst und/oder beschreibt.
  5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die optische Markierung (2) eine Geräte-ID umfasst und/oder beschreibt.
  6. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die relative Lage, Position und/oder Geschwindigkeit in sechs Freiheitsgraden bestimmt wird.
  7. Verfahren nach einem der vorherigen Ansprüche, gekennzeichnet durch ein zweites Modul (9), wobei das zweite Modul (9) einen weiteren Markierungsbereich (1) mit optischen Markierung (2) aufweist, wobei die Sensoreinheit (3) ausgebildet und/oder eigerichtet ist, mindestens ein Bild (4,4') eines Abschnitts des weiteren Markierungsbereichs (1) aufzunehmen, wobei das Bild die optische Markierung (2) umfasst und/oder zeigt, wobei basierend auf dem Bild (4,4') eine relative Lage, Position, Geschwindigkeit und/oder Orientierung zwischen dem zweiten Modul (9) und der Sensoreinheit (3) und/oder zwischen dem zweiten Modul (9) und dem ersten Modul (6) bestimmt wird.
  8. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass basierend auf der ermittelten relativen Lage (R), Position und/oder Orientierung eine Abweichungsinformation (ΔR) bestimmt wird, wobei die Abweichungsinformation (ΔR) eine Abweichung einer Istpositionierung von einer Sollpositionierung (S) beschreibt, wobei die Istpositionierung und/oder Sollpositionierung (S) auf das erste und/oder zweite Modul (6,9) bezogen ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass basierend auf der Abweichungsinformation (ΔR) eine Korrekturinformation zum Übergang von der Istpositionierung in die Sollpositionierung (S) bestimmt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Korrekturinformation dem ersten und/oder zweiten Modul (6,9) zur Ansteuerung und/oder Verwendung einer Korrekturschleife bereitgestellt wird.
  11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Korrekturinformation einem mobilen Smartdevice bereitgestellt wird.
  12. Modul (6,9), insbesondere für das Verfahren nach einem der vorherigen Ansprüche, wobei das Modul (6,9) einen Markierungsbereich (1) aufweist, wobei der Markierungsbereich (1) mindestens eine optische Markierung (2) umfasst, wobei die optische Markierung (2) eine Dimensionierungsinformation der optischen Markierung (2) umfasst und/oder beschreibt.
  13. Positionierungsanordnung (5), insbesondere zur Anwendung und/oder Ausführung des Verfahrens nach einem der Ansprüche 1 bis 11, wobei die Positionierungsanordnung (5) mindestens ein erstes Modul (6) nach Anspruch 12 und eine Sensoreinheit (3) umfasst, wobei die Sensoreinheit (3) ausgebildet ist, von dem ersten Modul (6), insbesondere dem Markierungsbereich (1) ein Bild (4,4') aufzunehmen, wobei das Bild (4,4') mindestens eine optische Markierung (2) des Markierungsbereichs (1) zeigt und/oder umfasst, mit einem Auswertemodul, wobei das Auswertemodul ausgebildet ist, basierend auf dem mindestens einen Bild (4,4') eine relative Lage (R), Position, Orientierung und/oder Geschwindigkeit zwischen der Sensoreinheit (3) und der optischen Markierung (2) zu ermitteln und/oder bestimmen.
DE102021205893.0A 2021-06-10 2021-06-10 Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung Pending DE102021205893A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021205893.0A DE102021205893A1 (de) 2021-06-10 2021-06-10 Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021205893.0A DE102021205893A1 (de) 2021-06-10 2021-06-10 Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung

Publications (1)

Publication Number Publication Date
DE102021205893A1 true DE102021205893A1 (de) 2022-12-15

Family

ID=84192874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021205893.0A Pending DE102021205893A1 (de) 2021-06-10 2021-06-10 Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung

Country Status (1)

Country Link
DE (1) DE102021205893A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015211859A1 (de) 2014-06-25 2015-12-31 Robert Bosch Gmbh Ortungssystem mit handgehaltener Ortungsvorrichtung und Verfahren zur Ortung
DE102016216221A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Zweidimensionale Codeanordnung, Arbeitsanordnung und Verfahren zum Betreiben der Arbeitsanordnung
DE102016216196A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Sensoranlage mit einer optischen Sensoreinheit und eine Automatisierungsanlage

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015211859A1 (de) 2014-06-25 2015-12-31 Robert Bosch Gmbh Ortungssystem mit handgehaltener Ortungsvorrichtung und Verfahren zur Ortung
DE102016216221A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Zweidimensionale Codeanordnung, Arbeitsanordnung und Verfahren zum Betreiben der Arbeitsanordnung
DE102016216196A1 (de) 2016-08-29 2018-03-01 Robert Bosch Gmbh Sensoranlage mit einer optischen Sensoreinheit und eine Automatisierungsanlage

Similar Documents

Publication Publication Date Title
EP3290861B1 (de) Sensoranlage mit einer optischen sensoreinheit und automatisierungsanlage
DE102010032840A1 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
WO2008119549A1 (de) Verfahren und vorrichtung zur werkstückeinmessung und werkstückbearbeitung
EP1285224A1 (de) Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
DE102013017007B4 (de) Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
DE102016116404A1 (de) Objektstellungsberechnungssystem
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
DE102019217430A1 (de) Kamerakalibrierungsvorrichtung und Kamerakalibrierungsverfahren
DE102016204174A1 (de) Automatisierungsanlage mit mindestens einem Funktionsmodul
WO2005106384A1 (de) Verfahren und hilfsvorrichtung zum einmessen einer robotergeführten optischen messanordnung
DE102008019435B4 (de) Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
EP0256968A1 (de) Automatisches Verfahren zur berührungslosen dreidimensionalen Vermessung von Objekten grosser Ausdehnung
DE102019102927A1 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
DE102021205893A1 (de) Verfahren zur Lagebestimmung, Modul für eine Positionierungsanordnung und Positionierungsanordnung
DE102016216221A1 (de) Zweidimensionale Codeanordnung, Arbeitsanordnung und Verfahren zum Betreiben der Arbeitsanordnung
EP0946883B1 (de) Verfahren und vorrichtung zum messen und prüfen von werkstücken
CN111958603B (zh) 一种机械臂运动学参数分离测量装置及辨识方法
DE102007016502A1 (de) Messverfahren und Messsystem zum Vermessen von Werkzeugen
DE102014018912A1 (de) Vorrichtung und Verfahren zur Positionsermittlung eines Endeffektors eines Roboters
EP0313775B1 (de) Berührungsloses Messsystem für Genauigkeitskenngrössen, insbesondere von Industrierobotern
EP3465076B1 (de) Vorrichtung zur vermessung von objekten
DE102016212651B4 (de) Verfahren zum Vermessen eines Werkstücks unter Verwendung von zumindest einem Referenzkörper
EP1471401B1 (de) Verfahren zur Einmessung des Koordinatensystems einer Kamera eines Roboters gegenüber dem Koordinatensystem des Roboters oder umgekehrt
DE102021126879A1 (de) Dezentralisierte standortbestimmungssysteme und -verfahren