DE102017006616A1 - System zur Lageerfassung und Verfahren zur Lageerfassung - Google Patents

System zur Lageerfassung und Verfahren zur Lageerfassung Download PDF

Info

Publication number
DE102017006616A1
DE102017006616A1 DE102017006616.7A DE102017006616A DE102017006616A1 DE 102017006616 A1 DE102017006616 A1 DE 102017006616A1 DE 102017006616 A DE102017006616 A DE 102017006616A DE 102017006616 A1 DE102017006616 A1 DE 102017006616A1
Authority
DE
Germany
Prior art keywords
readable code
optically readable
coordinate system
dimensional optically
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017006616.7A
Other languages
English (en)
Inventor
Daniel Klumpp
Clemens Trautmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SEW Eurodrive GmbH and Co KG
Original Assignee
SEW Eurodrive GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SEW Eurodrive GmbH and Co KG filed Critical SEW Eurodrive GmbH and Co KG
Publication of DE102017006616A1 publication Critical patent/DE102017006616A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

System zur Lageerfassung und Verfahren zur Lageerfassung eines Objektes, insbesondere eines Fahrzeugs, dadurch gekennzeichnet, dass das System das Objekt, eine mit dem Objekt verbundene Kamera und einen zweidimensionalen optisch lesbaren Code, insbesondere QR-Code, aufweist, wobei der zweidimensionale optisch lesbare Code von dem Objekt beabstandet ist, wobei die Kamera zur Erfassung des zweidimensionalen optisch lesbaren Codes eingerichtet ist, wobei die räumliche Lage des zweidimensionalen optisch lesbaren Codes, insbesondere in einem Weltkoordinatensystem, bekannt ist.

Description

  • Die Erfindung betrifft ein System zur Lageerfassung und ein Verfahren zur Lageerfassung.
  • Aus der DE 695 18 098 T2 sind ein Verfahren und eine Vorrichtung zum Lesen eines optischen zweidimensionalen Codes bekannt.
  • Aus der DE 10 2012 208 132 A1 ist als nächstliegender Stand der Technik eine Verfahren zur Fahrzeuglokalisierung bekannt.
  • Aus der US 2011/0121068 A1 ist ein Verfahren zur Positionsbestimmung und zur Bestimmung der räumlichen Drehlage eines Objektes bekannt.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein System zur Lageerfassung und ein Verfahren zur Lageerfassung weiterzubilden, wobei das System und das Verfahren vereinfacht werden sollen.
  • Erfindungsgemäß wird die Aufgabe bei dem System zur Lageerfassung nach den in Anspruch 1 angegebenen Merkmalen und bei dem Verfahren zur Lageerfassung nach den in Anspruch 8 angegebenen Merkmalen gelöst.
  • Wichtige Merkmale der Erfindung bei dem System zur Lageerfassung eines Objektes, insbesondere eines Fahrzeugs, sind, dass
    das System das Objekt, eine mit dem Objekt verbundene Kamera und einen zweidimensionalen optisch lesbaren Code, insbesondere QR-Code, aufweist,
    wobei der zweidimensionale optisch lesbare Code von dem Objekt beabstandet ist,
    wobei die Kamera zur Erfassung des zweidimensionalen optisch lesbaren Codes eingerichtet ist,
    wobei die räumliche Lage des zweidimensionalen optisch lesbaren Codes, insbesondere in einem Weltkoordinatensystem, bekannt ist.
  • Von Vorteil ist dabei, dass in den zweidimensionalen optisch lesbaren Code Informationen geschrieben sind, wie beispielsweise die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem Weltkoordinatensystem und/oder die Größe des zweidimensionalen optisch lesbaren Codes, also die Länge und Breite des zweidimensionalen optisch lesbaren Codes.
  • Vorteilhafterweise weist der zweidimensionale optisch lesbare Code Positionierungssymbole auf, die zur Bestimmung der Orientierung des optisch lesbaren Codes im Raum verwendbar sind.
  • Somit fungiert der zweidimensionale optisch lesbare Code sowohl als Speichermittel als auch als Referenzpunkt für die Bestimmung der räumlichen Lage. Beide Informationen sind in einfacher Art und Weise mittels der optischen Kamera in einem Arbeitsschritt detektierbar.
  • Bei einer vorteilhaften Ausgestaltung weist der zweidimensionale optisch lesbare Code folgende Informationen auf:
    • – eine räumliche Lageinformation des zweidimensionalen optisch lesbaren Codes in dem Weltkoordinatensystem und/oder
    • – eine Größeninformation des zweidimensionalen optisch lesbaren Codes, insbesondere die die Länge und Breite des zweidimensionalen optisch lesbaren Codes angibt, und/oder
    • – eine Identitätsinformation des zweidimensionalen optisch lesbaren Codes und/oder
    • – eine Prüfsumme.
  • Von Vorteil ist dabei, dass die jeweilige Information in dem zweidimensionalen optisch lesbaren Code als Helligkeitskontrast und/oder Farbkontrast speicherbar ist und in einfacher Art und Weise auslesbar ist. Mittels der Prüfsumme ist die Sicherheit beim Speichern und Auslesen der Informationen verbessert.
  • Bei einer vorteilhaften Ausgestaltung weist das System ein Speichermittel auf, insbesondere wobei das Objekt das Speichermittel aufweist, wobei das Speichermittel eingerichtet ist, eine Zuordnung des zweidimensionalen optisch lesbaren Codes zu der jeweiligen Größeninformation und/oder der jeweiligen räumlichen Lageinformation zu speichern. Von Vorteil ist dabei, dass der zweidimensionale optisch lesbare Code kompakt ausführbar ist, da die Identitätsinformation des zweidimensionalen optisch lesbaren Codes in dem Speichermittel mit der räumlichen Lageinformation und/oder der Größeninformation des zweidimensionalen Codes verknüpfbar ist. Somit sind die räumliche Lageinformation und/oder die Größeninformation mittels der Identitätsinformation beim Auslesen des Speichermittels dem zweidimensionalen optisch auslesbaren Code eindeutig zuordenbar.
  • Bei einer vorteilhaften Ausgestaltung weist das System ein Auswertemittel auf, insbesondere wobei das Objekt das Auswertemittel aufweist, wobei das Auswertemittel eingerichtet ist, aus einer von der Kamera erfassten Abbildung des zweidimensionalen optisch lesbaren Codes und der Größeninformation die räumliche Lage des zweidimensionalen optisch lesbaren Codes in einem ersten Koordinatensystem, dessen Ursprung in der Kamera liegt, zu bestimmen. Von Vorteil ist dabei, dass aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystem die räumliche Lage des Objekts relativ zum zweidimensionalen optisch lesbaren Code mittels des Auswertemittels bestimmbar ist und daraus mit der räumlichen Lage des zweidimensionalen optisch lesbaren Codes im Weltkoordinatensystem die räumliche Lage des Objekts im Weltkoordinatensystem mittels des Auswertemittels bestimmbar ist.
  • Bei einer vorteilhaften Ausgestaltung ist das Objekt ein fahrerloses Transportfahrzeug, wobei die Bewegung des fahrerlosen Transportfahrzeugs mittels des Systems zur Lageerfassung steuerbar ist, insbesondere wobei das Auswertemittel als Steuermittel des fahrerlosen Transportfahrzeugs ausgeführt ist. Von Vorteil ist dabei, dass das fahrerlose Transportfahrzeug alle Mittel zur Steuerung und Navigation im Weltkoordinatensystem aufweist. Somit ist das fahrerlose Transportfahrzeug autonom mittels des zweidimensionalen optisch lesbaren Codes oder mehrerer zweidimensionaler optisch lesbarer Codes in dem Weltkoordinatensystem, insbesondere einer Lagerhalle und/oder einer Fabrikhalle, navigierbar.
  • Bei einer vorteilhaften Ausgestaltung ist die Kamera starr mit dem Objekt verbunden, wobei die räumliche Lage der Kamera in einem zweiten Koordinatensystem, in dessen Ursprung das Objekt liegt, konstant ist. Von Vorteil ist dabei, dass die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystemsystem in einfacher Art und Weise in die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem zweiten Koordinatensystem umrechenbar ist.
  • Bei einer vorteilhaften Ausgestaltung ist die Kamera schwenkbar mit dem Objekt verbunden, wobei das System einen Winkelsensor aufweist zur Erfassung eines Schwenkwinkels der Kamera relativ zum Objekt, wobei die räumliche Lage der Kamera in einem zweiten Koordinatensystem, in dessen Ursprung das Objekt liegt, von dem Schwenkwinkel abhängig ist. Von Vorteil ist dabei, dass mittels der schwenkbar an dem Objekt angeordneten Kamera der zweidimensionale optisch lesbare Code in einem größeren Bereich erfassbar ist als mittels einer starr mit dem Objekt verbundenen Kamera.
  • Wichtige Merkmale der Erfindung bei dem Verfahren zur Lageerfassung eines Objektes, insbesondere mittels eines Systems zur Lageerfassung wie zuvor beschrieben beziehungsweise nach mindestens einem der Ansprüche 1 bis 7, sind, dass das Verfahren die folgenden Verfahrensschritte aufweist:
    wobei in einem ersten Verfahrensschritt ein zweidimensionaler optisch lesbarer Code, insbesondere ein QR-Code, von einer Kamera erfasst wird,
    wobei in einem zweiten Verfahrensschritt, der zeitlich nach dem ersten Verfahrensschritt erfolgt, eine Größeninformation des zweidimensionalen optischen Codes aus einer von der Kamera erfassten Abbildung des zweidimensionalen optisch lesbaren Codes ausgewertet wird und aus der Größeninformation und der Abbildung die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystem, in dessen Ursprung die Kamera liegt, bestimmt wird,
    wobei in einem dritten Verfahrensschritt, der zeitlich nach dem zweiten Verfahrensschritt erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystem und der räumlichen Lage der Kamera in einem zweiten Koordinatensystem, in dessen Ursprung das Objekt liegt, die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem zweiten Koordinatensystem bestimmt wird,
    wobei in einem vierten Verfahrensschritt, der zeitlich nach dem dritten Verfahrensschritt erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes in dem zweiten Koordinatensystem die relative Ausrichtung des Objekts zum zweidimensionalen optisch lesbaren Code in dem zweiten Koordinatensystem bestimmt wird,
    wobei in einem fünften Verfahrensschritt, der zeitlich nach dem vierten Verfahrensschritt oder zeitgleich mit dem zweiten Verfahrensschritt und/oder dem dritten Verfahrensschritt und/oder dem vierten Verfahrensschritt erfolgt, die Abbildung ausgewertet wird und die räumliche Lage des zweidimensionalen optisch lesbaren Codes in einem Weltkoordinatensystem bestimmt wird,
    wobei in einem sechsten Verfahrensschritt, der zeitlich nach dem vierten Verfahrensschritt und dem fünften Verfahrensschritt erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes in dem Weltkoordinatensystem und der relativen Ausrichtung des Objekts relativ zum zweidimensionalen optisch lesbaren Codes in dem zweiten Koordinatensystem die räumliche Lage des Objekts in dem Weltkoordinatensystem bestimmt wird.
  • Von Vorteil ist dabei, dass in den zweidimensionalen optisch lesbaren Code Informationen geschrieben sind, wie beispielsweise die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem Weltkoordinatensystem und/oder die Größe des zweidimensionalen optisch lesbaren Codes, also die Länge und Breite des zweidimensionalen optisch lesbaren Codes.
  • Vorteilhafterweise weist der zweidimensionale optisch lesbare Code Positionierungssymbole auf, die zur Bestimmung der Orientierung des optisch lesbaren Codes im Raum verwendbar sind.
  • Somit fungiert der zweidimensionale optisch lesbare Code sowohl als Speichermittel als auch als Referenzpunkt für die Bestimmung der räumlichen Lage. Beide Informationen sind in einfacher Art und Weise mittels der optischen Kamera in einem Arbeitsschritt detektierbar.
  • Bei einer vorteilhaften Ausgestaltung wird im fünften Verfahrensschritt eine Identitätsinformation des zweidimensionalen optisch lesbaren Codes ausgewertet und die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem Weltkoordinatensystem aus einem Speichermittel ausgelesen. Von Vorteil ist dabei, dass der zweidimensionale optisch lesbare Code kompakt ausführbar ist.
  • Bei einer vorteilhaften Ausgestaltung wird im zweiten Verfahrensschritt aus der relativen Größe des zweidimensionalen optisch lesbaren Codes in der Abbildung und der Größeninformation der Abstand des zweidimensionalen optisch lesbaren Codes zu der Kamera bestimmt. Von Vorteil ist dabei, dass der Abstand des zweidimensionalen optisch lesbaren Codes zu der Kamera aus dem Code selbst bestimmbar ist. Es ist kein weiterer Referenzpunkt erforderlich.
  • Bei einer vorteilhaften Ausgestaltung wird im zweiten Verfahrensschritt aus der perspektivischen Verzerrung und der Position des zweidimensionalen optisch lesbaren Codes in der Abbildung die Orientierung des zweidimensionalen optisch lesbaren Codes relativ zu der Kamera bestimmt. Von Vorteil ist dabei, dass der zweidimensionale optisch lesbare Code Positionierungssymbole und eine vorgegebene Form, insbesondere eine rechtwinklige Form, insbesondere quadratische Form aufweist, aus denen die perspektivische Verzerrung in einfacher Art und Weise mittels der Abbildung bestimmbar ist.
  • Bei einer vorteilhaften Ausgestaltung wird aus dem Abstand des zweidimensionalen optisch lesbaren Codes zur Kamera und der Orientierung des zweidimensionalen optisch lesbaren Codes relativ zur Kamera die räumliche Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystem bestimmt. Von Vorteil ist dabei, dass aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes in dem ersten Koordinatensystem die räumliche Lage des Objekts relativ zum zweidimensionalen optisch lesbaren Code bestimmbar ist.
  • Bei einer vorteilhaften Ausgestaltung wird im zweiten Verfahrensschritt die Identitätsinformation des zweidimensionalen optisch lesbaren Codes aus der Abbildung ausgewertet, wobei die zu der Identitätsinformation des zweidimensionalen optisch lesbaren Codes zugehörige Größeninformation aus dem Speichermittel ausgelesen wird. Von Vorteil ist dabei, dass der zweidimensionale optisch lesbare Code kompakt ausführbar ist.
  • Weitere Vorteile ergeben sich aus den Unteransprüchen. Die Erfindung ist nicht auf die Merkmalskombination der Ansprüche beschränkt. Für den Fachmann ergeben sich weitere sinnvolle Kombinationsmöglichkeiten von Ansprüchen und/oder einzelnen Anspruchsmerkmalen und/oder Merkmalen der Beschreibung und/oder der Figuren, insbesondere aus der Aufgabenstellung und/oder der sich durch Vergleich mit dem Stand der Technik stellenden Aufgabe.
  • Die Erfindung wird nun anhand von Abbildungen näher erläutert:
  • In der 1 ist ein erfindungsgemäßes System zur Lageerfassung schematisch dargestellt.
  • 2 zeigt ein erfindungsgemäßes Verfahren zur Lageerfassung in schematischer Darstellung.
  • Das in 1 dargestellte System zur Lageerfassung weist einen zweidimensionalen optisch lesbaren Code 3, insbesondere einen QR-Code, und ein im Raum bewegliches Objekt 1, insbesondere ein Fahrzeug, auf. Das Objekt 1, dessen räumliche Lage mittels des Systems erfasst wird, weist eine Kamera 2, ein Auswertemittel und ein Speichermittel auf.
  • Die räumliche Lage eines Gegenstandes ist die Kombination von Position und Orientierung des Gegenstandes im Raum. Im dreidimensionalen Raum wird die Position im kartesischen Koordinatensystem durch drei Koordinaten (x, y, z) angegeben. Die Orientierung wird durch ein weiteres Koordinatensystem und dessen Winkelversatz zum Koordinatensystem definiert. Die räumliche Lage wird also mittels sechs Koordinaten angegeben.
  • Die Kamera 2 ist starr mit dem Objekt 1 verbunden. Ein Objektiv der Kamera 2 ist von dem Objekt 1 abweisend ausgerichtet an der Kamera 2 angeordnet. Die räumliche Lage der Kamera 2 relativ zu dem Objekt, also in einem zweiten Koordinatensystem 5, dessen Ursprung in dem Objekt 1 liegt, ist bekannt und in dem Speichermittel gespeichert. Die Ausrichtung des Objektivs in dem zweiten Koordinatensystem 5 ist ebenfalls bekannt und in dem Speichermittel gespeichert.
  • Der zweidimensionale optisch lesbare Code 3 ist von dem Objekt beabstandet angeordnet. Der zweidimensionale optisch lesbare Code 3 weist folgende Informationen auf:
    • – eine räumliche Lageinformation des zweidimensionalen optisch lesbaren Codes 3 in einem Weltkoordinatensystem 6 und/oder
    • – eine Größeninformation, die die Länge und Breite des zweidimensionalen optisch lesbaren Codes 3 angibt und/oder
    • – eine Identitätsinformation des zweidimensionalen optisch lesbaren Codes 3 und/oder
    • – eine Prüfsumme.
  • Das Weltkoordinatensystem 6 bezeichnet das Ursprungskoordinatensystem, mit dem die damit verknüpften relativen Koordinatensysteme, also das erste Koordinatensystem 4 und das zweite Koordinatensystem 5, referenziert sind. Das Weltkoordinatensystem 6 gibt beispielsweise die räumliche Lage in einer industriellen Anlage, wie Lagerhalle oder Fabrikhalle an.
  • In einem bevorzugten Ausführungsbeispiel sind die Identitätsinformation und die räumliche Lageinformation des zweidimensionalen optisch lesbaren Codes 3 in dem Weltkoordinatensystem 6 und die Größeninformation in dem Speichermittel gespeichert, so dass der zweidimensionale optisch lesbare Code 3 nur die Identitätsinformation, insbesondere die Identitätsinformation und die Prüfsumme, aufweist. Das Auswertemittel liest aus dem Speichermittel die zu der Identitätsinformation zugehörige räumliche Lageinformation des zweidimensionalen optisch lesbaren Codes 3 in dem Weltkoordinatensystem 6 und die Größeninformation aus.
  • Die Codes 3 sind im Weltkoordinatensystem 6 stationär, also unbeweglich, angeordnet.
  • Die Kamera 2 weist ein erstes Koordinatensystem 4 auf, dessen Ursprung in der Kamera 2 liegt. Aus einer von der Kamera 2 aufgenommenen Abbildung eines Gegenstandes und der tatsächlichen Größe des Gegenstandes ist die räumliche Lage des Gegenstandes in dem ersten Koordinatensystem 4 mittels des Auswertemittels bestimmbar.
  • In einem weiteren nicht dargestellten Ausführungsbeispiel ist die Kamera 2 schwenkbar mit dem Objekt 1 verbunden. Dabei wird der Schwenkwinkel der Kamera 2 mittels eines Winkelsensors erfasst. Die räumliche Lage der Kamera 2 ist abhängig von dem Schwenkwinkel. Zur Bestimmung der räumlichen Lage der Kamera 2 im Weltkoordinatensystem 6 werden die Position der Kamera 2 und der Schwenkwinkel verwendet.
  • Vorzugsweise ist das Objekt 1 als ein fahrerloses Transportfahrzeug ausgeführt. Das fahrerlose Transportfahrzeug wird von dem Auswertemittel gesteuert, wobei das Auswertemittel die räumliche Lage des fahrerlosen Transportfahrzeugs in dem Weltkoordinatensystem 6 mittels der zweidimensionalen optisch lesbaren Codes 3 bestimmt und so die Fahrtrichtung des fahrerlosen Transportfahrzeugs steuert.
  • Das in 2 dargestellte erfindungsgemäße Verfahren zur Lageerfassung eines Objekts weist die folgenden zeitlich aufeinanderfolgenden Verfahrensschritte auf: In einem ersten Verfahrensschritt A wird der zweidimensionale optisch lesbare Code 3 von der Kamera 2 erfasst.
  • In einem zweiten Verfahrensschritt B wird die Größeninformation aus einer von der Kamera 2 erfassten Abbildung des zweidimensionalen optisch lesbaren Codes 3 ausgewertet. Aus der Größeninformation und der Abbildung des zweidimensionalen optisch lesbaren Codes 3 wird die räumliche Lage des zweidimensionalen optisch lesbaren Codes 3 in dem ersten Koordinatensystem 4 bestimmt. Dabei wird aus der relativen Größe des zweidimensionalen optisch lesbaren Codes 3 in der Abbildung und der Größeninformation der Abstand des zweidimensionalen optisch lesbaren Codes 3 zu der Kamera 2 bestimmt. Aus der perspektivischen Verzerrung und der Position des zweidimensionalen optisch lesbaren Codes 3 in der Abbildung wird die Orientierung des zweidimensionalen optisch lesbaren Codes 3 relativ zu der Kamera 2 bestimmt. Anschließend wird aus dem Abstand zu der Kamera 2 und der Orientierung relativ zur Kamera 2 die räumliche Lage des zweidimensionalen optisch lesbaren Codes 3 in dem ersten Koordinatensystem 4 bestimmt.
  • In einem dritten Verfahrensschritt C wird aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes 3 in dem ersten Koordinatensystem 4 und der räumlichen Lage der Kamera 2 in dem zweiten Koordinatensystem 5 die räumliche Lage des zweidimensionalen optisch lesbaren Codes 3 in dem zweiten Koordinatensystem 5 bestimmt.
  • In einem vierten Verfahrensschritt D wird aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes 3 in dem zweiten Koordinatensystem 5 die relative Ausrichtung des Objekts 1 zum zweidimensionalen optisch lesbaren Code 3 in dem zweiten Koordinatensystem 5 bestimmt.
  • In einem fünften Verfahrensschritt E, der zeitlich nach dem vierten Verfahrensschritt D oder zeitgleich mit dem zweiten Verfahrensschritt B und/oder dem dritten Verfahrensschritt C und/oder dem vierten Verfahrensschritt D erfolgt, wird die Identitätsinformation des zweidimensionalen optisch lesbaren Codes 3 ausgewertet und die räumliche Lage des zweidimensionalen optisch lesbaren Codes 3 in dem Weltkoordinatensystem 6 aus dem Speichermittel ausgelesen.
  • In einem sechsten Verfahrensschritt F, der zeitlich nach dem vierten Verfahrensschritt D und dem fünften Verfahrensschritt E erfolgt, wird aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes 3 in dem Weltkoordinatensystem 6 und der relativen Ausrichtung des Objekts 1 relativ zum zweidimensionalen optisch lesbaren Codes 3 in dem zweiten Koordinatensystem 5 die räumliche Lage des Objekts 1 in dem Weltkoordinatensystem 6 als Verfahrensergebnis G bestimmt.
  • In einem weiteren nicht dargestellten Ausführungsbeispiel wird zeitlich nach dem ersten Verfahrensschritt und vor dem zweiten Verfahrensschritt die Identitätsinformation des zweidimensionalen optisch lesbaren Codes 3 aus der von der Kamera 2 erfassten Abbildung des zweidimensionalen optisch lesbaren Codes 3 ausgewertet. Danach wird die zu der Identitätsinformation des zweidimensionalen optisch lesbaren Codes 3 zugehörige Größeninformation aus dem Speichermittel ausgelesen.
  • Bezugszeichenliste
  • 1
    Objekt, insbesondere Fahrzeug
    2
    Kamera
    3
    zweidimensionaler optisch lesbarer Code, insbesondere QR-Code
    4
    erstes Koordinatensystem
    5
    zweites Koordinatensystem
    6
    Weltkoordinatensystem
    A
    erster Verfahrensschritt
    B
    zweiter Verfahrensschritt
    C
    dritter Verfahrensschritt
    D
    vierter Verfahrensschritt
    E
    fünfter Verfahrensschritt
    F
    sechster Verfahrensschritt
    G
    Verfahrensergebnis
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 69518098 T2 [0002]
    • DE 102012208132 A1 [0003]
    • US 2011/0121068 A1 [0004]

Claims (13)

  1. System zur Lageerfassung eines Objektes (1), insbesondere eines Fahrzeugs, dadurch gekennzeichnet, dass das System das Objekt (1), eine mit dem Objekt (1) verbundene Kamera (2) und einen zweidimensionalen optisch lesbaren Code (3), insbesondere QR-Code, aufweist, wobei der zweidimensionale optisch lesbare Code (3) von dem Objekt (1) beabstandet ist, wobei die Kamera (2) zur Erfassung des zweidimensionalen optisch lesbaren Codes (3) eingerichtet ist, wobei die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3), insbesondere in einem Weltkoordinatensystem (6), insbesondere also erstem Koordinatensystem, bekannt ist. insbesondere wobei das Weltkoordinatensystem (6) dasjenige Ursprungskoordinatensystem bezeichnet, mit welchem damit verknüpfte relative Koordinatensysteme, also das erste Koordinatensystem 4 und das zweite Koordinatensystem 5, referenziert sind.
  2. System zur Lageerfassung nach Anspruch 1, dadurch gekennzeichnet, dass der zweidimensionale optisch lesbare Code (3) aufweist: – eine räumliche Lageinformation des zweidimensionalen optisch lesbaren Codes (3) in dem Weltkoordinatensystem (6) und/oder – eine Größeninformation des zweidimensionalen optisch lesbaren Codes (3), insbesondere die die Länge und Breite des zweidimensionalen optisch lesbaren Codes (3) angibt, und/oder – eine Identitätsinformation des zweidimensionalen optisch lesbaren Codes (3) und/oder – eine Prüfsumme.
  3. System zur Lageerfassung nach Anspruch 2, dadurch gekennzeichnet, dass das System ein Speichermittel aufweist, insbesondere wobei das Objekt (1) das Speichermittel aufweist, wobei das Speichermittel eingerichtet ist, eine Zuordnung des zweidimensionalen optisch lesbaren Codes (3) zu der jeweiligen Größeninformation und/oder der jeweiligen räumlichen Lageinformation zu speichern.
  4. System zur Lageerfassung nach mindestens einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das System ein Auswertemittel aufweist, insbesondere wobei das Objekt (1) das Auswertemittel aufweist, wobei das Auswertemittel eingerichtet ist, aus einer von der Kamera (2) erfassten Abbildung des zweidimensionalen optisch lesbaren Codes (3) und der Größeninformation die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in einem ersten Koordinatensystem (4), dessen Ursprung in der Kamera (2) liegt, zu bestimmen.
  5. System zur Lageerfassung nach mindestens einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Objekt (1) ein fahrerloses Transportfahrzeug ist, wobei die Bewegung des fahrerlosen Transportfahrzeugs abhängig von den mittels des Systems zur Lageerfassung erfassten Lagewerten, steuerbar ist, insbesondere wobei ein zu einem jeweiligen Zeitpunkt erfasster Lagewert auf einen vorgegebenen Soll-Lagewert hingeregelt wird durch entsprechendes Ansteuern des Antriebs und/oder der Lenkeinheit des Fahrzeugs, insbesondere wobei das Auswertemittel als Steuermittel des fahrerlosen Transportfahrzeugs ausgeführt ist.
  6. System zur Lageerfassung nach mindestens einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Kamera (2) starr mit dem Objekt (1) verbunden ist, wobei die räumliche Lage der Kamera (2) in einem zweiten Koordinatensystem (5), in dessen Ursprung das Objekt (1) liegt, konstant ist.
  7. System zur Lageerfassung nach mindestens einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Kamera (2) schwenkbar mit dem Objekt (1) verbunden ist, wobei das System einen Winkelsensor aufweist zur Erfassung eines Schwenkwinkels der Kamera (2) relativ zum Objekt (1), wobei die räumliche Lage der Kamera (2) in einem zweiten Koordinatensystem (5), in dessen Ursprung das Objekt (1) liegt, von dem Schwenkwinkel abhängig ist.
  8. Verfahren zur Lageerfassung eines Objektes (1) mittels eines Systems zur Lageerfassung nach mindestens einem der Ansprüche 1 bis 7, aufweisend die Verfahrensschritte: wobei in einem ersten Verfahrensschritt (A) ein zweidimensionaler optisch lesbarer Code (3), insbesondere ein QR-Code, von einer Kamera (2) erfasst wird, wobei in einem zweiten Verfahrensschritt (B), der zeitlich nach dem ersten Verfahrensschritt (A) erfolgt, eine Größeninformation des zweidimensionalen optischen Codes (3) aus einer von der Kamera (2) erfassten Abbildung des zweidimensionalen optisch lesbaren Codes (3) ausgewertet wird und aus der Größeninformation und der Abbildung die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in dem ersten Koordinatensystem (4), in dessen Ursprung die Kamera (2) liegt, bestimmt wird, wobei in einem dritten Verfahrensschritt (C), der zeitlich nach dem zweiten Verfahrensschritt (B) erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes (3) in dem ersten Koordinatensystem (4) und der räumlichen Lage der Kamera (2) in einem zweiten Koordinatensystem (5), in dessen Ursprung das Objekt (1) liegt, die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in dem zweiten Koordinatensystem (5) bestimmt wird, wobei in einem vierten Verfahrensschritt (D), der zeitlich nach dem dritten Verfahrensschritt (C) erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes (3) in dem zweiten Koordinatensystem (5) die relative Ausrichtung des Objekts (1) zum zweidimensionalen optisch lesbaren Code (3) in dem zweiten Koordinatensystem (5) bestimmt wird, wobei in einem fünften Verfahrensschritt (E), insbesondere der zeitlich nach dem vierten Verfahrensschritt (D) erfolgt, die Abbildung ausgewertet wird und die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in einem Weltkoordinatensystem (6) bestimmt wird, wobei in einem sechsten Verfahrensschritt (F), der zeitlich nach dem vierten Verfahrensschritt (D) und dem fünften Verfahrensschritt (E) erfolgt, aus der räumlichen Lage des zweidimensionalen optisch lesbaren Codes (3) in dem Weltkoordinatensystem (6) und der relativen Ausrichtung des Objekts (1) relativ zum zweidimensionalen optisch lesbaren Codes (3) in dem zweiten Koordinatensystem (5) die räumliche Lage des Objekts (1) in dem Weltkoordinatensystem (6) bestimmt wird, insbesondere wobei das Weltkoordinatensystem (6) dasjenige Ursprungskoordinatensystem bezeichnet, mit welchem damit verknüpfte relative Koordinatensysteme, also das erste Koordinatensystem (4) und das zweite Koordinatensystem (5), referenziert sind.
  9. Verfahren zur Lageerfassung nach Anspruch 8, dadurch gekennzeichnet, dass im fünften Verfahrensschritt (E) eine Identitätsinformation des zweidimensionalen optisch lesbaren Codes (3) ausgewertet wird und die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in dem Weltkoordinatensystem (6) aus einem Speichermittel ausgelesen wird.
  10. Verfahren zur Lageerfassung nach mindestens einem der Ansprüche 8 bis 9, dadurch gekennzeichnet, dass im zweiten Verfahrensschritt (B) aus der relativen Größe des zweidimensionalen optisch lesbaren Codes (3) in der Abbildung und der Größeninformation der Abstand des zweidimensionalen optisch lesbaren Codes (3) zu der Kamera (2) bestimmt wird.
  11. Verfahren zur Lageerfassung nach mindestens einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass im zweiten Verfahrensschritt (B) aus der perspektivischen Verzerrung und der Position des zweidimensionalen optisch lesbaren Codes (3) in der Abbildung die Orientierung des zweidimensionalen optisch lesbaren Codes (3) relativ zu der Kamera (2) bestimmt wird.
  12. Verfahren zur Lageerfassung nach Anspruch 10 und 11, dadurch gekennzeichnet, dass aus dem Abstand des zweidimensionalen optisch lesbaren Codes (3) zur Kamera (2) und der Orientierung des zweidimensionalen optisch lesbaren Codes (3) relativ zur Kamera (2) die räumliche Lage des zweidimensionalen optisch lesbaren Codes (3) in dem ersten Koordinatensystem (4) bestimmt wird.
  13. Verfahren zur Lageerfassung nach mindestens einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass im zweiten Verfahrensschritt (B) die Identitätsinformation des zweidimensionalen optisch lesbaren Codes (3) aus der Abbildung ausgewertet wird, wobei die zu der Identitätsinformation des zweidimensionalen optisch lesbaren Codes (3) zugehörige Größeninformation aus dem Speichermittel ausgelesen wird.
DE102017006616.7A 2016-08-31 2017-07-12 System zur Lageerfassung und Verfahren zur Lageerfassung Pending DE102017006616A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016010486.4 2016-08-31
DE102016010486 2016-08-31

Publications (1)

Publication Number Publication Date
DE102017006616A1 true DE102017006616A1 (de) 2018-03-01

Family

ID=59366366

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017006616.7A Pending DE102017006616A1 (de) 2016-08-31 2017-07-12 System zur Lageerfassung und Verfahren zur Lageerfassung

Country Status (3)

Country Link
EP (1) EP3507666A1 (de)
DE (1) DE102017006616A1 (de)
WO (1) WO2018041408A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019182830A1 (en) * 2018-03-23 2019-09-26 Veoneer Us Inc. Localization by vision
CN114365056A (zh) * 2019-08-09 2022-04-15 弗劳恩霍夫应用研究促进协会 设备、控制所述设备的方法以及设备组或设备群

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114358038B (zh) * 2022-03-10 2022-06-03 华南理工大学 一种基于车辆高精度定位的二维码坐标标定方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69518098T2 (de) 1994-03-14 2001-03-22 Denso Corp Verfahren und Vorrichtung zum Lesen eines optischen zweidimensionalen Kodes
US20110121068A1 (en) 2004-12-14 2011-05-26 Sky-Trax, Inc. Method and apparatus for determining position and rotational orientation of an object
DE102012208132A1 (de) 2012-05-15 2013-11-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrzeuglokalisierung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US9207677B2 (en) * 2014-01-02 2015-12-08 Automotive Research & Testing Center Vehicle positioning method and its system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69518098T2 (de) 1994-03-14 2001-03-22 Denso Corp Verfahren und Vorrichtung zum Lesen eines optischen zweidimensionalen Kodes
US20110121068A1 (en) 2004-12-14 2011-05-26 Sky-Trax, Inc. Method and apparatus for determining position and rotational orientation of an object
DE102012208132A1 (de) 2012-05-15 2013-11-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrzeuglokalisierung

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019182830A1 (en) * 2018-03-23 2019-09-26 Veoneer Us Inc. Localization by vision
US10558872B2 (en) 2018-03-23 2020-02-11 Veoneer Us Inc. Localization by vision
CN114365056A (zh) * 2019-08-09 2022-04-15 弗劳恩霍夫应用研究促进协会 设备、控制所述设备的方法以及设备组或设备群
CN114365056B (zh) * 2019-08-09 2024-04-12 弗劳恩霍夫应用研究促进协会 设备、控制所述设备的方法以及设备组或设备群

Also Published As

Publication number Publication date
EP3507666A1 (de) 2019-07-10
WO2018041408A1 (de) 2018-03-08

Similar Documents

Publication Publication Date Title
DE102014008353A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zur automatisierten Führung eines Kraftfahrzeugs sowie zugeordnetes Kraftfahrzeug
DE102017006616A1 (de) System zur Lageerfassung und Verfahren zur Lageerfassung
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE102017213601A1 (de) Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
DE102015212932A1 (de) Verfahren zum Steuern eines Roboters und/oder eines autonomen fahrerlosen Transportsystems
DE102010012187A1 (de) Anlage, Verfahren zur Bestimmung der Position eines Fahrzeuges innerhalb einer Anlage und Verfahren zum Erstellen einer verbesserten Soll-Bahnkurve für ein Fahrzeug innhalb einer Anlage
DE102017100061A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
DE102017223160A1 (de) Verfahren zum Erkennen von zumindest einem an einem Kraftfahrzeug anliegenden Objekt sowie Steuervorrichtung und Kraftfahrzeug
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102015205634A1 (de) Verfahren zum Erkennen von Bewegungen von Objekten auf einer Abstellfläche für Fahrzeuge
EP3974936B1 (de) Konfigurieren einer visualisierungsvorrichtung für einen maschinenbereich
DE102021001282A1 (de) Mobiles System und Verfahren zum Betreiben eines mobilen Systems
WO2018054521A1 (de) Verfahren zur selbstlokalisierung eines fahrzeugs
DE102020201785A1 (de) Marker zur Definition der Bewegungstrajektorie eines Fahrzeugs
DE102019207870A1 (de) Verfahren zur Erstellung einer Umgebungskarte für die Verwendung bei der autonomen Navigation eines mobilen Roboters
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102014001188A1 (de) Verfahren zur Ermittlung der Höhenprofile gestapelter Bauteile in einem Ladungsträger
DE102021114265A1 (de) Robotervorrichtung eingerichtet zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts und Verfahren
EP3423911B1 (de) Verfahren zum aktualisieren einer belegungskarte und autonomes fahrzeug
DE102019211459A1 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102018217834A1 (de) Verfahren und System zum Betreiben einer Erfassungs- und Anzeigevorrichtung
EP3540507A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung
DE102018209366B4 (de) Verfahren zur Bestimmung einer Position und/oder Orientierung einer Einrichtung
DE102007033133A1 (de) Verfahren und Vorrichtung zur Detektion von Objekten
DE102017010492A1 (de) Verfahren zum Bestimmen zumindest einer Projektionsfläche in einer Umgebung eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R012 Request for examination validly filed