AT507586A1 - Vorrichtung und verfahren zur optischen lagebestimmung - Google Patents

Vorrichtung und verfahren zur optischen lagebestimmung Download PDF

Info

Publication number
AT507586A1
AT507586A1 AT0185508A AT18552008A AT507586A1 AT 507586 A1 AT507586 A1 AT 507586A1 AT 0185508 A AT0185508 A AT 0185508A AT 18552008 A AT18552008 A AT 18552008A AT 507586 A1 AT507586 A1 AT 507586A1
Authority
AT
Austria
Prior art keywords
vehicle
detection unit
floor
detected
position determination
Prior art date
Application number
AT0185508A
Other languages
English (en)
Other versions
AT507586B1 (de
Inventor
Wolfgang Dipl Ing Holl
Original Assignee
Ds Automotion Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ds Automotion Gmbh filed Critical Ds Automotion Gmbh
Priority to AT0185508A priority Critical patent/AT507586B1/de
Priority to EP09177050A priority patent/EP2192384B1/de
Publication of AT507586A1 publication Critical patent/AT507586A1/de
Application granted granted Critical
Publication of AT507586B1 publication Critical patent/AT507586B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/35Constructional details or hardware or software details of the signal processing chain
    • G01S19/37Hardware or software details of the signal processing chain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • G01S19/29Acquisition or tracking or demodulation of signals transmitted by the system carrier including Doppler, related
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • G01S19/30Acquisition or tracking or demodulation of signals transmitted by the system code related
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

F/L00026 1
Die Erfindung betrifft eine Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs mit einer am Fahrzeug angeordneten Lichtquelle, einer am Fahrzeug angeordneten Detektiereinheit für das von den Lichtstrahlen der Lichtquelle erzeugte Reflexionsbild des befahrenen Bodens, sowie einer Recheneinheit zur Ermittlung von Positionsänderungen des Fahrzeugs anhand aufeinanderfolgender Reflexionsbilder des befahrenen Bodens, gemäß dem Oberbegriff von Anspruch 1.
Vorrichtungen dieser Art werden etwa in fahrerlosen Transportfahrzeugen (FTF), oder in fahrenden Robotersystemen eingesetzt. Der Begriff „Fahrzeug" ist dabei weit auszulegen und umfasst jede Art von selbständig fahrendem Vehikel, wie etwa auch Service- oder Assistenzroboter und dergleichen. Fahrzeuge dieser Art bewegen sich autonom oder zentral gesteuert in Produktionshallen, Lagerbereichen, oder öffentlichen und privaten Bereichen. Zur Navigation derartiger Fahrzeuge muss einer Steuer- und Regelungseinrichtung die aktuelle Position des Fahrzeugs, etwa in Form von Raumkoordinaten eines Bezugspunkts am Fahrzeug, eventuelle Lagewinkel, oder auch die Geschwindigkeit des Fahrzeugs bereit gestellt werden. Das erfolgt in der Regel einerseits mithilfe einer zyklischen Lagepeilung, bei der in vorgegebenen Zeitintervallen die Position des Fahrzeugs anhand von fahrzeugexternen Signalgebern, wie etwa Magnete, Reflektoren, Transponder, Ecken und Kanten von Objekten im Bewegungsraum des Fahrzeugs, oder auch optische Markierungen, die Position des Fahrzeugs im Bewegungsraum ermittelt wird, und andererseits mithilfe einer permanenten Lagekopplung, bei der durch Integration von Bewegungsinkrementen des Fahrzeugs, die im Folgenden auch als Verschiebungsvektoren bezeichnet werden, die Position des Fahrzeugs zwischen externen Signalgebern errechnet wird. Zur Bestimmung des Verschiebungsvektors kommen in herkömmlicher Weise unterschiedliche Kombinationen von Sensoren, wie etwa Inkrementalgeber, Beschleunigungssensoren, Tachometer, Drehwinkelgeber, Drehratengeber, optische Sensoren, oder Laserscanner, zum Einsatz. Diese Sensoren arbeiten zum Teil auf Basis mechanischer Komponenten mit ·· ···· ·· ·· ···· 2
Bodenkontakt, die daher insbesondere ' erheblichen Verschmutzungen ausgesetzt sind, was deren Wartungsbedarf erhöht und die Genauigkeit der Lagekopplung verringert. Optische Systeme wiederum, die Lageinformationen ohne Bodenkontakt erheben, arbeiten in herkömmlicher Weise auf Basis von Sensorchips, wie sie etwa auch in optischen Computermäusen verwendet werden, die den befahrenen Boden abtasten. Sensorchips dieser Art verfügen aber über den Nachteil, dass sie zwar Verschiebungsvektoren in zweidimensionaler Richtung erfassen können, nicht aber Drehbewegungen des Fahrzeugs, sodass hierfür wiederum separate Sensoren vorgesehen sein müssen. Des Weiteren sind diese Sensoren in vergleichsweise geringem Abstand über den befahrenen Boden zu montieren, was nicht nur deren Verschmutzung fördert, sondern auch die Lagekopplung nur anhand kleinflächiger Texturelemente des befahrenen Bodens ermöglicht. Insbesondere sind etwa zur Detektierung der externen Signalgeber weitere Sensoren vorzusehen.
Bekannte Systeme zur Lagepeilung weisen außerdem mitunter den Nachteil auf, dass die Messgenauigkeit empfindlich gegenüber Umgebungseinflüssen ist, und insbesondere bei Bodenunebenheiten keine genaue Lagepeilung ermöglichen. In vielen Anwendungen liefern daher bekannte Systeme aufgrund der Verschmutzung und der Unebenheit des befahrenen Bodens ungenaue Positionsmessungen. Auch in der Positionierung solcher Systeme am Fahrzeug sind zumeist Einschränkungen gegeben, so müssen sie entweder in einem durch Verschmutzung oder sonstige, äußere Beeinträchtigungen weniger exponierten Bereich des Fahrzeugs angeordnet werden, oder aus messtechnischen Gründen etwa bevorzugt im Bereich einer starren Radachse.
Es ist daher das Ziel der Erfindung diese Nachteile zu vermeiden, und eine Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs zu verwirklichen, die nicht nur genauere Positionsermittlungen auch bei Bodenunebenheiten ermöglicht, sondern auch einen flexibleren ·· ···· Μ · ···· ·· • · ·· ····· · ·· · ····· · • · · ······ • · · · ·· ·· ·· ·· ··· ·· ·· ·· · 3
Einbau am Fahrzeug erlaubt, also hinsichtlich ihrer Positionierung am Fahrzeug kaum Einschränkungen unterliegt.
Diese Ziele werden durch die Merkmale von Anspruch 1 erreicht. Anspruch 1 bezieht sich auf eine Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs mit zumindest einer am Fahrzeug angeordneten Lichtquelle, einer am Fahrzeug angeordneten Detektiereinheit für das von den Lichtstrahlen der zumindest einen Lichtquelle erzeugte Reflexionsbild des befahrenen Bodens, sowie einer
Recheneinheit zur Ermittlung von Positionsänderungen des Fahrzeugs anhand aufeinanderfolgender Reflexionsbilder des befahrenen Bodens. Erfindungsgemäß ist hierbei vorgesehen, dass es sich bei der Detektiereinheit um eine Kamera handelt, und eine Abstandmesseinrichtung zur Bestimmung des Abstands zwischen der Detektiereinheit und dem von der Detektiereinheit erfassten Bereich des befahrenen Bodens vorgesehen ist. Die Kamera, vorzugsweise eine Videokamera, filmt dabei den befahrenen Boden und stellt sie zur weiteren Verarbeitung der Recheneinheit zur Verfügung. Anhand der Verfolgung von automatisiert erkannten Texturelementen des befahrenen Bodens im Erfassungsbereich der Kamera, also etwa die Körnung des Estrichs, Schottersteine, Verschmutzungen des Bodens, usw., in aufeinanderfolgenden Bildern können mithilfe von an sich bekannter Erkennungssoftware Verschiebungsvektoren ermittelt werden. Dabei kann die Positionsermittlung insbesondere auch anhand großflächiger Texturelemente erfolgen, was die
Messgenauigkeit erhöht, insbesondere können auch am befahrenen Boden angeordnete, externe Signalgeber zur Lagepeilung erfasst werden. Weitere Sensoren, etwa zur Lagepeilung oder zur Ermittlung von Drehbewegungen, sind daher nicht erforderlich. Die Kamera kann auch in größerem Abstand zum befahrenen Boden montiert werden, wodurch sie Verschmutzungen weniger stark ausgesetzt ist. Allerdings liefert die Verwendung von Bildern einer Kamera mitunter keine ausreichenden Genauigkeiten für eine zuverlässige Positionsermittlung, da äußere Einflüsse, wie etwa Bodenunebenheiten, die Messgenauigkeit noch beeinträchtigen. Ist aber erfindungsgemäß zusätzlich auch eine
·· 9IM ·· · ···· ·· • · ·· ····· · 4
Abstandmesseinrichtung zur Bestimmung des Abstands zwischen der Detektiereinheit und dem von der Detektiereinheit erfassten Bereich des befahrenen Bodens vorgesehen, kann die Messgenauigkeit entscheidend verbessert werden. Mithilfe einer solchen Abstandmesseinrichtung kann nämlich für jedes Bild der entsprechende Abstand zwischen Kamera und befahrenem Boden ermittelt werden, sodass Verschiebungsvektoren mit hoher Genauigkeit berechnet werden können.
Gemäß einer vorteilhaften Weiterbildung der Erfindung umfasst die Abstandsmesseinrichtung eine Laserlichtquelle. Vorrichtungen zur Abstandsmessung mithilfe von Laserlicht sind hinlänglich bekannt, im Zusammenhang mit der vorliegenden Erfindung ist aber vorzugsweise vorgesehen, dass die Laserlichtquelle mit einer optischen Einrichtung für eine strichförmige Projektion des Laserlichts auf den von der Detektiereinheit erfassten Bereich des befahrenen Bodens versehen ist. Je nach Abstand des befahrenen Bodens zur Kamera wird die strichförmige Projektion des Laserstrahls unterschiedliche Positionen im Erfassungsbereich der Kamera aufweisen, die Rückschlüsse auf den Abstand erlauben. Zusätzliche Sensoren zur Abstandsmessung sind daher nicht erforderlich, sondern es wird lediglich das ohnehin von der Kamera erfasste Abbild des befahrenen Bodens herangezogen. Selbstverständlich muss es sich dabei nicht unbedingt um eine strichförmige Projektion des Laserlichts in den Erfassungsbereich der Kamera handeln, sondern es wären auch andere, geometrische Formen der Projektion möglich.
Gemäß einer weiteren Ausführungsform der Erfindung kann vorgesehen sein, dass die Recheneinheit mit einer, vorzugsweise am Fahrzeug angeordneten Steuer- und Regelungseinrichtung für den Antrieb des Fahrzeugs verbunden ist. Dadurch kann ein vollständig autonomes Navigieren des Fahrzeugs erreicht werden, da das Fahrzeug die Positionsermittlung vornimmt, die fahrzeugseitige Recheneinheit aufgrund der aktuellen Position die weitere Fortbewegungsrichtung anhand eines vorgegebenen Fahrziels 5 ermittelt, und entsprechende Steuer- und Regelsignale an den Antrieb des Fahrzeugs setzt.
Wird ein Fahrzeug mit einer erfindungsgemäßen Vorrichtung zur automatisierten Positionsermittlung ausgestattet, und ein solches Fahrzeug im Rahmen eines fahrerlosen Transportsystems eingesetzt, kann vorgesehen sein, dass der befahrene Boden mit fahrzeugexternen Signalgebern zur Detektierung mithilfe der fahrzeugseitigen Detektiereinheit versehen ist. Weitere Sensoren zur Lagepeilung sind somit nicht erforderlich.
Schließlich wird ein Verfahren zur automatisierten Positionsermittlung eines Fahrzeugs anhand aufeinanderfolgender Reflexionsbilder eines, von einer Detektiereinheit des Fahrzeugs erfassten und von zumindest einer Lichtquelle des Fahrzeugs beleuchteten Bereiches des befahrenen Bodens, vorgeschlagen, bei dem erfindungsgemäß vorgesehen ist, dass mithilfe der Detektiereinheit Kamerabilder des befahrenen Bodens erstellt werden, wobei durch Positionsvergleich von Bildelementen aufeinanderfolgender Kamerabilder die Positionsänderung des Fahrzeugs ermittelt, und mithilfe eines, für das jeweilige Kamerabild gemessenen Abstands zwischen der Detektiereinheit und dem von der Detektiereinheit erfassten Bereich des befahrenen Bodens korrigiert wird. Die Korrektur erfolgt dabei vorzugsweise anhand der Lageänderung einer Projektion eines' Laserstrahls auf den von der Detektiereinheit erfassten Bereich des befahrenen Bodens. Insbesondere erfolgt dabei eine strichförmige Projektion des Laserstrahls auf den von der Detektiereinheit erfassten Bereich des befahrenen Bodens.
Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels mithilfe der beiliegenden Figuren näher erläutert. Es zeigen hierbei die
Fig. 1 eine schematische Darstellung eines Fahrzeugs mit einer erfindungsgemäßen Vorrichtung von oben gesehen (obere ·♦ · t«*· ·♦ • · ·· · · · · · # • · ♦ ····# · • · · ······ • · ·· ·· ·· ·· ·♦ ·♦· ·· ·· ·♦ · 6
Abbildung), sowie von der Seite gesehen (untere Abbildung), und die
Fig. 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs.
In der Fig. 1 ist eine schematische Darstellung eines Fahrzeugs 1 mit einer erfindungsgemäßen Vorrichtung 2 zur Positionsermittlung des Fahrzeugs 1 von oben gesehen (obere Abbildung), sowie von der Seite gesehen (untere Abbildung) dargestellt. Das Fahrzeug 1 ist etwa Teil eines fahrerlosen Transportsystems, und steht etwa mit einer zentralen Überwachungseinheit (in der Fig. 1 nicht dargestellt) in einer drahtlosen Datenverbindung, um etwa Informationen über Fahrziele und Fahrgeschwindigkeit zu erhalten. Das Fahrzeug 1 bewegt sich mit seinen Rädern 6 auf einem befahrenen Boden 4, der mit externen Signalgebern 5 für eine Lagepeilung versehen sein kann. Bei den externen Signalgebern 5 kann es sich um Magnete, Reflektoren, Transponder, Ecken und Kanten von Objekten im Bewegungsraum des Fahrzeugs, oder auch optische Markierungen handeln. Im Rahmen der Erfindung werden vorzugsweise solche externen Signalgeber 5 verwendet, die optisch von der Detektiereinheit 8 des Fahrzeugs 1 erfasst werden können, insbesondere steht auch die Möglichkeit zur Verfügung, etwa graphische Symbole zu verwenden, die von der erfindungsgemäßen Vorrichtung erkannt werden können, und entsprechende Steuersignale auslösen. Im gezeigten Ausführungsbeispiel ist das Fahrzeug 1 mit drei Rädern 6 ausgestattet, es könnte sich aber auch um einen Antrieb mit vier Rädern, oder auch um Rollen und dergleichen handeln.
Das Fahrzeug 1 selbst ist in der Fig. 1 lediglich schematisch dargestellt und weist in der Abbildung lediglich die zur Erläuterung der Erfindung wesentlichen Bestandteile auf, es versteht sich aber von selbst, dass das Fahrzeug 1 dem jeweiligen Einsatzgebiet entsprechende Aufbauten, Steuer- und Regelungskomponenten, Sensoren, usw., die nicht im ·· · ···· ·· • · ·· '·· ·· · · 7 unmittelbaren Zusammenhang mit der Positionsermittlung stehen, auf weisen kann. In der Fig. 1 ist etwa die erfindungsgemäße Vorrichtung 2 zur Positionsermittlung ersichtlich, die mit einer Steuer- und Regelungseinrichtung 3 für den Antrieb des Fahrzeugs 1 verbunden ist.
In der Fig. 2 ist die erfindungsgemäße Vorrichtung 2 zur Positionsermittlung schematisch dargestellt. Sie umfasst in einem Gehäuse 11 insbesondere eine Detektiereinheit 8, die erfindungsgemäß als handelsübliche Kamera, vorzugsweise als Videokamera, ausgeführt ist, und für Licht im sichtbaren Bereich, als auch im Infrarot-Bereich, geeignet ist. Des Weiteren sind Lichtquellen 9 vorgesehen, bei denen es sich etwa um Halogenstrahler, oder um Leuchtdioden handeln kann. Die Lichtquellen 9 beleuchten den befahrenen Boden 4 im Erfassungsbereich der Detektiereinheit 8, und können als Bestandteil der erfindungsgemäßen Vorrichtung, oder auch direkt am Fahrzeug 1 montiert sein. Sie sind des Weiteren im gezeigten Ausführungsbeispiel in Richtung des befahrenen Bodens 4 orientiert, durch Verwendung geeigneter, optischer Einrichtungen könnten aber auch andere Konfigurationen verwirklicht werden. Die Detektiereinheit 8 ist mit einer Recheneinheit 7 verbunden, in der die von der Detektiereinheit 8 ermittelten Bilder des befahrenen Bodens 4 zur Positionsermittlung ausgewertet werden. Die Recheneinheit 7 ist über eine Schnittstelle 12 mit' der Steuer- und Regelungseinrichtung 3 (siehe Fig. 1) für den Antrieb des Fahrzeugs 1 verbunden, der sie zyklisch aktualisierte Positionsinformationen übergibt. Die Steuer- und Regelungseinrichtung 3 setzt auf Basis der von der Recheneinheit 7 gelieferten Positionsinformationen, und der von der zentralen Überwachungseinheit bereit gestellten Informationen über Fahrziele und Fahrgeschwindigkeit entsprechende Signale an den Antrieb des Fahrzeugs 1. Die Steuer- und Regelungseinrichtung 3 könnte aber auch vorprogrammierte Informationen über Fahrziele und Fahrzeiten enthalten, sodass das Fahrzeug 1 vollkommen autark arbeitet. ft ·· ···· ···· • ' 8
Die erfindungsgemäße Vorrichtung 2 zur Positionsermittlung umfasst des Weiteren eine Abstandmesseinrichtung zur Bestimmung des Abstands zwischen der Detektiereinheit 8 und dem von der Detektiereinheit 8 erfassten Bereich des befahrenen Bodens 4. Vorzugsweise wird sie durch zumindest eine Laserlichtquelle 10 gebildet, die mit einer optischen Einrichtung für eine strichförmige Projektion des Laserlichts auf den von der Detektiereinheit 8 erfassten Bereich des befahrenen Bodens 4 versehen ist. Durch Beobachtung der Laserstriche mithilfe der Detektiereinheit 8 wird der Abstand zum befahrenen Boden 4 errechnet.
Das erfindungsgemäße Verfahren funktioniert nun wie folgt. Anhand aufeinanderfolgender Reflexionsbilder eines, von der Detektiereinheit 8 erfassten, und von den Lichtquellen 9 beleuchteten Bereiches des befahrenen Bodens 4 werden Kamerabilder des befahrenen Bodens 4 erstellt, wobei durch Positionsvergleich von Bildelementen aufeinanderfolgender Kamerabilder die Positionsänderung des Fahrzeugs 1 ermittelt, und mithilfe eines, für das jeweilige Kamerabild gemessenen Abstands zwischen der Detektiereinheit 8 und dem von der Detektiereinheit 8 erfassten Bereich des befahrenen Bodens 4 korrigiert wird. Die so ermittelte Positionsänderung ergibt, ausgehend von einer bekannten Startposition, die aktuelle Position des Fahrzeugs 1. Dabei werden die Signale der externen Signalgeber 5 miteinbezogen, die als absolute Bezugspunkte für die Positionsermittlung dienen, und bei deren Passieren eine Überprüfung der ermittelten Position, sowie deren allfällige Korrektur, erlauben.
Die Positionsermittlung des Fahrzeugs 1 mithilfe der von der Detektiereinheit 8 erfassten Bilder erfolgt anhand der Verfolgung von automatisiert erkannten Texturelementen des befahrenen Bodens 4 im Erfassungsbereich der Kamera, also etwa die Körnung des Estrichs, Schottersteine, Verschmutzungen des Bodens, usw., in aufeinanderfolgenden Bildern. Grundsätzlich ist dabei die Genauigkeit der Positionsermittlung von der Brennweite der als Detektiereinheit 8 verwendeten Kamera, 9 ihrer Auflösung, sowie dem Abstand der Detektiereinheit 8 vom Boden 4 abhängig. Die Messgenauigkeit ist dabei direkt proportional zur Auflösung und zur Brennweite der als Detektiereinheit 8 verwendeten Kamera, sowie indirekt proportional zum Abstand der Detektiereinheit 8 vom Boden 4. Des Weiteren kann die Genauigkeit der Positionsermittlung dadurch erhöht werden, indem pro Zeiteinheit eine größere Anzahl aufeinander folgender Bilder analysiert wird. Diese Größe wird auch als „frames per second" (fps) bezeichnet. Diese Größe ist aber in der Praxis durch den damit verbundenen Rechenaufwand begrenzt. Die Genauigkeit der Positionsermittlung könnte somit auch durch eine Vergrößerung des Erfassungsbereiches der Kamera erhöht werden, da dadurch während eines Bewegungsweges von z.B. einem Meter eine geringere Anzahl an Bilder pro Sekunde ausgewertet werden müsste. Da die Messgenauigkeit mit zunehmendem Abstand der Kamera zum bewegten Boden 4 aber abnimmt, könnte daher die Detektiereinheit 8 nicht, wie in der Fig. 2 dargestellt ist, mit einer zum Boden 4 senkrechten, optischen Achse ausgerichtet werden, sondern mit einer zum Boden 4 schräg orientierten, optischen Achse. Dadurch wird der Erfassungsbereich vergrößert, sodass pro Zeiteinheit weniger Bilder analysiert werden müssen. Die Anzahl der ausgewerteten Bilder pro Sekunde (fps) muss jedenfalls ausreichend groß sein, um eine starke Überlappung zweier aufeinander folgender Bilder sicher zu stellen, da ansonsten die Lageänderung von Texturelementen nicht mit ausreichender Genauigkeit nach verfolgt werden kann. Ein wesentlicher Parameter bei der Auslegung von Brennweite, Auflösung und Montagehöhe der als Detektiereinheit 8 verwendeten Kamera, sowie der Anzahl der analysierten Bilder pro Zeiteinheit ist somit durch die erforderlichen Antriebsgeschwindigkeiten des Fahrzeugs 1, sowie der Größe der Bewegungswege gegeben.
Die durch die Kamera ermittelten Bilder des befahrenen Bodens 4 .werden in weiterer Folge digitalisiert, und vorzugsweise bekannten Verfahren zur Bildverarbeitung, wie Konvertierung in Schwarz-Weiß-Bilder, Datenkomprimierung, Korrektur von ·· ···· ·« · ···· I« ···· ····· · • · · ····· · • · · · · ··· • · · · ·· ·· ·· ·· ··· ·· Ι· ·# · 10
Linsenfehlern, sowie Korrektur von Schattenanomalien, unterzogen, wofür ebenfalls hinlänglich bekannte Software zur Verfügung steht. Die so aufbereiteten Bilder werden schließlich bekannten Verfahren zur Positionsermittlung unterzogen, die etwa auf den bekannten Verfahren des „Stereo matching", oder dem Kanade-Lucas-Tomasi (KLT)-Verfahren beruhen. Auch hierfür ist entsprechende Erkennungssoftware verfügbar, die aus der Lageänderung von Texturelementen in zeitlich aufeinander folgenden Bildsequenzen
Verschiebungsvektoren ermittelt. Dabei kann die
Positionsermittlung insbesondere auch anhand großflächiger Texturelemente erfolgen, was die Messgenauigkeit erhöht.
Als Laserlichtquellen 10 zur Abstandsmessung können handelsübliche Laser verwendet werden, wobei zwecks leichterer Erkennung durch die Erkennungssoftware vorzugsweise eine strichförmige Projektion des Laserstrahls auf den von der
Detektiereinheit 8 erfassten Bereich des befahrenen Bodens 4 erfolgt. Durch Abstandänderungen, etwa in Folge von Erschütterungen oder Bodenunebenheiten, kommt es zu geringfügigen Positionsänderungen des Laserstrahls in den jeweils von der Kamera erfassten Bildern, aus denen die Abstandsänderungen errechnet werden können. Somit kann jeder Verschiebungsvektor, der anhand verschiedener Bilder ermittelt wird, anhand des für jedes Bild bekannten Abstands von der
Detektiereinheit 8 korrigiert werden. Dadurch ist eine entscheidende Verbesserung der Positionsermittlung möglich.
Mithilfe des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung ist es somit möglich, die automatisierte Positionsermittlung eines Fahrzeugs 1 auch bei störenden, äußeren Einflüssen, wie etwa Bodenunebenheiten, mit erhöhter Genauigkeit durchzuführen. Dabei ist auch ein flexibler Einbau am Fahrzeug 1 erlaubt, da aufgrund der
Verwendung einer Kamera als Detektiereinheit 8 hinsichtlich ihrer Positionierung am Fahrzeug 1 kaum Einschränkungen bestehen.

Claims (10)

  1. Patentansprüche: 1. Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs (1) mit zumindest einer am Fahrzeug (1) angeordneten Lichtquelle (9), einer am Fahrzeug (1) angeordneten Detektiereinheit (8) für das von den Lichtstrahlen der zumindest einen Lichtquelle (9) erzeugte Reflexionsbild des befahrenen Bodens (4), sowie einer Recheneinheit (7) zur Ermittlung von Positionsänderungen des Fahrzeugs (1) anhand aufeinanderfolgender Reflexionsbilder des befahrenen Bodens (4), dadurch gekennzeichnet/ dass es sich bei der Detektiereinheit (8) um eine Kamera handelt, und eine Abstandmesseinrichtung zur Bestimmung des Abstands zwischen der Detektiereinheit (8) und dem von der Detektiereinheit (8) erfassten Bereich des befahrenen Bodens (4) vorgesehen ist.
  2. 2. Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Abstandsmesseinrichtung eine Laserlichtquelle (10) umfasst.
  3. 3. Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs (1) nach Anspruch 2, dadurch gekennzeichnet, dass die Laserlichtquelle (10) mit einer optischen Einrichtung für eine strichförmige Projektion des Laserlichts auf den von der Detektiereinheit (8) erfassten Bereich des befahrenen Bodens (4) versehen ist.
  4. 4. Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs (1) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Recheneinheit (7) mit einer, vorzugsweise am Fahrzeug (1) angeordneten Steuer-und .Regelungseinrichtung (3) für den Antrieb des Fahrzeugs (1) verbunden ist. » ·· · ···· ·· ·· ···· ···· ····· · • « · ······ 12
  5. 5. Fahrzeug mit einer Vorrichtung zur automatisierten Positionsermittlung eines Fahrzeugs (1) nach einem der Ansprüche 1 bis 4.
  6. 6. Fahrerloses Transportsystem mit einem Fahrzeug (1) nach Anspruch 5.
  7. 7., Fahrerloses Transportsystem nach Anspruch 6, dadurch gekennzeichnet, dass der befahrene Boden (4) mit fahrzeugexternen Signalgebern (5) zur Detektierung mithilfe der fahrzeugseitigen Detektiereinheit (8) versehen ist.
  8. 8. Verfahren zur automatisierten Positionsermittlung eines Fahrzeugs (1) anhand aufeinanderfolgender Reflexionsbilder eines, von einer Detektiereinheit (8) des Fahrzeugs (1) erfassten und von zumindest einer Lichtquelle (9) des Fahrzeugs (1) beleuchteten Bereiches des befahrenen Bodens (4), dadurch gekennzeichnet, dass mithilfe der Detektiereinheit (8) Kamerabilder des befahrenen Bodens (4) erstellt werden, wobei durch Positionsvergleich von Bildelementen aufeinanderfolgender Kamerabilder die Positionsänderung des Fahrzeugs (1) ermittelt, und mithilfe eines, für das jeweilige Kamerabild gemessenen Abstands zwischen der Detektiereinheit (8) und dem von der Detektiereinheit (8) erfassten Bereich des befahrenen Bodens (4) korrigiert wird.
  9. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Korrektur anhand der Lageänderung einer Projektion eines Laserstrahls auf den von der Detektiereinheit (8) erfassten Bereich des befahrenen Bodens (4) erfolgt.
  10. 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass eine strichförmige Projektion des Laserstrahls auf den I ·· · ···· ·· »· ···· • · ·· ····· · • · · ····· · • I · ······ 13 von der Detektiereinheit (8) erfassten Bereich des befahrenen Bodens (4) erfolgt. Wien, am 27. Nov. 2008 Kliment & Henhapel Patentanwälte OG
AT0185508A 2008-11-27 2008-11-27 Vorrichtung und verfahren zur optischen lagebestimmung AT507586B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
AT0185508A AT507586B1 (de) 2008-11-27 2008-11-27 Vorrichtung und verfahren zur optischen lagebestimmung
EP09177050A EP2192384B1 (de) 2008-11-27 2009-11-25 Fahrerloses Transportsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT0185508A AT507586B1 (de) 2008-11-27 2008-11-27 Vorrichtung und verfahren zur optischen lagebestimmung

Publications (2)

Publication Number Publication Date
AT507586A1 true AT507586A1 (de) 2010-06-15
AT507586B1 AT507586B1 (de) 2011-09-15

Family

ID=41590336

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0185508A AT507586B1 (de) 2008-11-27 2008-11-27 Vorrichtung und verfahren zur optischen lagebestimmung

Country Status (2)

Country Link
EP (1) EP2192384B1 (de)
AT (1) AT507586B1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023202671B3 (de) 2023-03-24 2024-05-08 Continental Autonomous Mobility Germany GmbH Fahrzeug umfassend eine Positionsbestimmungseinrichtung und Verfahren zur Positionsbestimmung eines Fahrzeugs

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012221572A1 (de) * 2012-11-26 2014-05-28 Robert Bosch Gmbh Autonomes Fortbewegungsgerät
CA2974281C (en) * 2014-01-24 2021-12-14 Swisslog Logistics, Inc. Apparatus for positioning an automated lifting storage cart and related methods
DE102018102287A1 (de) * 2018-02-01 2019-08-01 Sick Ag Optoelektronische Sensorvorrichtung
US11244176B2 (en) * 2018-10-26 2022-02-08 Cartica Ai Ltd Obstacle detection and mapping
US11129101B2 (en) * 2019-06-28 2021-09-21 T-Mobile Usa, Inc. Central radio coordination map
DE102019123647A1 (de) * 2019-09-04 2021-03-04 Still Gesellschaft Mit Beschränkter Haftung Verfahren zur Lokalisierung eines Fahrzeugs sowie Fahrzeug zur Durchführung des Verfahrens
DE102021105263A1 (de) 2021-03-04 2022-09-08 Schaeffler Technologies AG & Co. KG Verfahren zum Ermitteln einer Fahrtrichtung und/oder einer Positionsveränderung und/oder Geschwindigkeit eines fahrerlosen Transportfahrzeugs, fahrerloses Transportfahrzeug und fahrerloses Transportsystem

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3833022A1 (de) * 1988-09-29 1990-04-05 Fraunhofer Ges Forschung Verfahren zum schutz eines fahrzeugs gegen kollisionen und kollisionsgeschuetztes fahrzeug
JPH08161044A (ja) * 1994-12-06 1996-06-21 Murata Mach Ltd 無人搬送システム
DE10058981A1 (de) * 2000-11-28 2002-06-27 Valeo Schalter & Sensoren Gmbh Verfahren sowie Vorrichtung zur Erfassung eines Raumbereichs, sowie Mehrzahl von Vorrichtungen und Fahrzeug
US20040221790A1 (en) 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
DE102006040612B4 (de) * 2006-08-30 2011-12-08 Z-Laser Optoelektronik Gmbh Abstandsmessvorrichtung
DE102006050850B4 (de) 2006-10-27 2009-01-02 Locanis Ag Verfahren und Vorrichtung zur Wegmessung
DE102006062673A1 (de) 2006-12-29 2008-07-03 IHP GmbH - Innovations for High Performance Microelectronics/Institut für innovative Mikroelektronik Optischer Translations-Rotations-Sensor
DE102007013682A1 (de) * 2007-03-22 2008-09-25 Robert Bosch Gmbh Verfahren zur Bestimmung der Relativbewegung eines sich bewegenden Objekts durch Vermessung einer projizierten Figur

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023202671B3 (de) 2023-03-24 2024-05-08 Continental Autonomous Mobility Germany GmbH Fahrzeug umfassend eine Positionsbestimmungseinrichtung und Verfahren zur Positionsbestimmung eines Fahrzeugs

Also Published As

Publication number Publication date
EP2192384B1 (de) 2013-01-09
AT507586B1 (de) 2011-09-15
EP2192384A1 (de) 2010-06-02

Similar Documents

Publication Publication Date Title
EP2192384B1 (de) Fahrerloses Transportsystem
EP2526378B1 (de) Verfahren und system zum erfassen der position eines fahrzeuges
EP3731187B1 (de) Verfahren und vorrichtung zur bestimmung der geografischen position und orientierung eines fahrzeugs
DE3741259A1 (de) Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges
EP2755101B1 (de) Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
WO2016120044A1 (de) Vermessen einer abmessung auf einer oberfläche
DE102018133693B3 (de) Verfahren zur Kalibrierung der Ausrichtung eines sich bewegenden Objektsensors
EP2918972A2 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP2784540B1 (de) Verfahren und Vorrichtung zur Ermittlung des Verschleißzustandes eines Gleises
DE112019001542T5 (de) Positionsschätzvorrichtung
EP2171556A1 (de) Vorrichtung und verfahren zur positions- und orientierungsbestimmung
EP2101193B1 (de) Sicherheitssystem zur berührungslosen Messung von Positionen, Wegen und Geschwindigkeiten
DE112017003648T5 (de) Mobiler roboter und steuerungsverfahren
EP3160819A1 (de) Vorrichtung und verfahren zur erfassung einer fahrzeugumgebung eines schienenfahrzeugs sowie schienenfahrzeug
EP3875908B1 (de) Navigieren eines fahrzeugs und virtuelle spurführungsvorrichtung
DE102020215420A1 (de) Verfahren zum Kalibrieren mindestens einer Kamera
EP0290633A1 (de) Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges
AT509118B1 (de) Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102021210006B3 (de) Verfahren und Steuereinrichtung zum Steuern eines Fahrzeugs
DE102021125592A1 (de) Verkehrskamerakalibrierung
Shimoda et al. Autonomous motion control of a mobile robot using marker recognition via deep learning in gps-denied environments
WO2018202259A1 (de) Aufbau und verfahren zur höhenkalibrierung einer monokularen fahrzeugkamera
WO2009043788A1 (de) Verfahren und sensoranordnung zur vermessung optischer merkmale
Hößler et al. Automated traffic analysis in aerial images
EP3926300B1 (de) Bestimmung einer eigenposition und navigationsvorrichtung