DE69712906T2 - Von der umgebung unabhängiges positionsbestimmungssystem - Google Patents

Von der umgebung unabhängiges positionsbestimmungssystem

Info

Publication number
DE69712906T2
DE69712906T2 DE69712906T DE69712906T DE69712906T2 DE 69712906 T2 DE69712906 T2 DE 69712906T2 DE 69712906 T DE69712906 T DE 69712906T DE 69712906 T DE69712906 T DE 69712906T DE 69712906 T2 DE69712906 T2 DE 69712906T2
Authority
DE
Germany
Prior art keywords
images
features
distribution
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69712906T
Other languages
English (en)
Other versions
DE69712906D1 (de
Inventor
Craig Coulter
James Kelly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
Original Assignee
Carnegie Mellon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carnegie Mellon University filed Critical Carnegie Mellon University
Publication of DE69712906D1 publication Critical patent/DE69712906D1/de
Application granted granted Critical
Publication of DE69712906T2 publication Critical patent/DE69712906T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Paper (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)
  • Image Analysis (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Description

  • Die Erfindung betrifft eine Vorrichtung zum Bestimmen einer Position zum Navigieren, insbesondere eine Vorrichtung eines Typs, bei dem Sehen von einem Roboter verwendet wird, um seine Position zu bestimmen, so daß er sich autonom bewegen und vorprogrammierte Aufgaben innerhalb einer bestimmten Umgebung ausführen kann.
  • Eine Positionsbestimmung mit hoher Wiederholgenauigkeit ist eine Schlüsseltechnologie für mobile Roboteranwendungen, zum Beispiel eine Seehafen- und Fabrikanlagenautomation. Nahbedingungsarbeitsschritte solcher Anwendungen benötigen Positionswiederholgenauigkeiten von etwa drei Millimetern. Drei Millimeter stellen eine signifikante Verbesserung gegenüber dem gegenwärtigen Industriestandard von etwa fünf Millimetern dar. Drei Millimeter Wiederholgenauigkeit müssen bei akzeptablen Stückkosten erreicht werden. High-End-Laser- und Trägheitseinheiten sind in der Lage, diese technischen Spezifikationen zu erreichen. Ihre Stückkosten von $ 20.000,00 bis $ 100.000,00 und mehr sind viel zu hoch, um für die meisten Anwendungen ökonomisch rechtfertigbar zu sein. Somit besteht ein bedeutender Kompromiß zwischen dem Preis und der Leistung, der Unternehmen für ebenerdige mobile Roboter daran hindert, eine bestehende Nachfrage auf dem Markt zu bedienen.
  • Die kostengünstigsten Positionsbestimmungssysteme sind sogenannte Koppelsysteme bzw. vollständige Berechnungssysteme, die aus preiswerten Radwertgebern und einem Kompaß hergestellt werden. Diese Systeme erzeugen eine Schätzung der Position, die auf der Integration von Ratenmessungen basiert. Somit leiden sie unter einer erheblichen Fehleransammlung in der Schätzung. High-End-Koppelsysteme bzw. vollständige Berechnungssysteme, zum Beispiel Militärqualitätsträgheitssysteme, verringern das Problem, indem Ratensensoren mit sehr geringen systematischen Fehlern verwendet werden, jedoch zu Kosten, die Größenordnungen höher sind als für ebenerdige Märkte akzeptabel ist.
  • Eine kostengünstige Alternative besteht in einer Kombination der preiswerten Koppelsysteme bzw. vollständigen Berechnungssysteme mit einem Triangulationssystem, welches genutzt werden kann, um den angesammelten Fehler zurückzusetzen, indem eine Standortbestimmung der Position berechnet wird. Triangulationssysteme führen keine Integration aus und sind somit nicht von systematischen Sensorfehlern beeinflußt. Sie leiden jedoch unter Problemen einer Abschwächung der Präzision, die während der Konvertierung ihrer Messungen in Koordinatensysteme von Interesse entsteht, zum Beispiel wird eine Reichweite und eine Orientierung des Sensors in einen kartesischen Raum (xy) konvertiert. Triangulationssysteme nehmen Messungen bezüglich externer Barken oder anderer Gegenstände der Infrastruktur auf, was sie anfällig für Sabotage macht. Bei bestimmten industriellen Anwendungen, ist Sabotage eine Hauptbesorgnis. Darüber hinaus repräsentiert das Anbringen der Barken oder anderer Gegenstände der Infrastruktur erhebliche zusätzliche Gemeinkosten für den Endbenutzer. Bei bestimmten Anwendungen entfallen ein Drittel der Gesamtkosten auf die Installation der Barken und der anderen Gegenstände der Infrastruktur.
  • Die veröffentlichte deutsche Patentanmeldung DE 41 38 0270 A offenbart ein Verfahren zur Navigation von selbstangetriebenen Landfahrzeugen, bei dem Markierungen während der Bewegung entdeckt, digitalisiert und mit gespeicherten Daten verglichen werden, die während eines Lernausflugs erzeugt wurden, um Abweichungen von spezifizierten Werten zu bestimmen, wodurch die Abweichungen in entsprechende Navigationssteuerbefehle verarbeitet werden. Das Verfahren ist unabhängig von künstlichen Markierungen und Reichweiten, weil natürliche Landmarken als Markierungen genutzt werden, die von einer Videokamera mit zwei Freiheitsgraden als Bilder aufgenommen wurden. Die gegenwärtige Position des Fahrzeugs bezüglich eines Zielpunkts und die gegenwärtige Fahrzeugrichtung in Bezug auf eine beabsichtigte Richtung wird aus der Versetzung eines Paars Landmarken berechnet. Die veröffentlichte europäische Patentanmeldung EP 0 390 052 A offenbart ein Landmarkenerkennungssystem, das auf dem "perception, reasoning, action, and expectation" (PREACTE) Paradigma für die Navigation von autonomen mobilen Robotern basiert. Die Systeme verwenden Erwartungen, um das Auftauchen und Verschwinden von Objekten vorauszusagen. Das System sagt ferner das Erscheinen von Landmarken unter verschiedenen Entfernungen und Blickwinkeln voraus und verwendet Karteninformation, um Erwartungen der Szene zu erzeugen. Dieses System stellt eine klassische Lösung dar, leidet jedoch unter den Problemen, die mit der Durchführung und einer schlechten Ausführung verbunden sind.
  • Das US-Patent 4,847,769 mit dem Titel "Automated Vehicle Drift Correction" offenbart ein Navigationssystem, welches eine Koppelrechnung bzw. eine vollständige Berechnung der Fahrzeugposition ausführt, die auf Eingaben von Sensoren und der Bewegung eines Lenkrads in dem vorausgehenden Zeitintervall basieren. Das US-Patent 5,307,278 mit dem Titel "Method Of Determining The Position Of A Vehicle, Arrangement For Determining The Position Of A Vehicle, As Well As A Vehicle Provided With Such An Arrangement" beruht ebenso auf Koppeln bzw. vollständiger Berechnung.
  • Das US-Patent 5,170,352 mit dem Titel "Multi-Purpose Autonomous Vehicle With Path Plotting" ist ein Beispiel für ein autonomes Fahrzeug, welches in Verbindung mit mehreren Laser-, Schall- und optischen Sensoren arbeitet. Solche Sensoren erkennen Ziele und Hindernisse in dem Arbeitsgebiet und liefern codierte Signale, die Fahrzeuge über eine geeignetste Route zu einem Ziel führen, während alle Hindernisse vermieden werden.
  • Das US-Patent 5,363,305 mit dem Titel "Navigation System For A Mobile Robot" offenbart eine Vorrichtung zum Erzeugen und Unterhalten einer Karte einer Umgebung, die von einem autonomen mobilen Roboter zu durchqueren ist. Ein Glaubwürdigkeitsmaß wird immer erhöht oder erniedrigt, wenn ein Kartenmerkmal, welches einem Ort mit einer geometrischen Barke zugeordnet ist, die zu solch einem Ort korrespondiert, übereinstimmt bzw. nicht übereinstimmt.
  • Das US-Patent 4,979,113 mit dem Titel "Automated Vehicle Control" offenbart ein System, in welchem Daten, die Orte von Notationspunkten auf dem Boden eines interessierenden Gebiets identifizieren, zusammen mit einer Nachschlagetabelle in einen Computer eingegeben werden, wobei die Paare solche Punkte angeben, zwischen denen Bewegungen des Fahrzeugs benötigt werden könnten.
  • Das US-Patent 4,847,773 mit dem Titel "System For Navigating A Free-Ranging Vehicle" offenbart ein System, in welchem die zu durchquerende Oberfläche ein Gitter passiver Markierungselemente trägt, mit einem Fahrzeug, das mit Detektoren zum Erkennen solcher Elemente versehen ist.
  • Das US-Patent 4,647,784 mit dem Titel "Vehicle Guidance and Control System" offenbart ein System, bei dem Fahrzeuge ihre eigene Position in Beziehung zu Markierungstafeln bestimmen, die aus Mustern reflektierender codierter Streifen bestehen, indem ein schmaler Laserstrahl diese in einer vorbestimmten Richtung über die Streifen abtastet. Positionen können bestimmt werden, indem Triangulation verwendet wird.
  • Das US-Patent 4,727,492 mit dem Titel "Vehicle Control And Guidance System" offenbart ein Fahrzeugführsystem, welches Koppeln bzw. vollständige Berechnung verwendet, um die Position des Fahrzeugs vorauszusagen. Am Ende eines vorbestimmten Intervalls wird das Koppeln bzw. die vollständige Berechnung mittels einer unabhängigen festen Zielerfassungsvorrichtung korrigiert, welche einen abtastenden Laser benutzt.
  • Andere kostengünstige Alternativen basieren auf der Verwendung von Sichtsystemen, um Reichweitenmeßwerte aufzunehmen, zum Beispiel eine Stereoansicht bekannter Merkmale in einer Umgebung, wie zum Beispiel Eingänge und Raumecken. Eine Position wird basierend auf solchen ausgezeichneten Meßwerten bestimmt. Obwohl das Verfahren nicht die Anordnung von Infrastruktur benötigt, leidet es unter dem erheblichen Problem der Formabhängigkeit. Kurz geschildert, das Aussehen eines Merkmals hängt von dem Winkel ab, unter dem es betrachtet wird. Das Problem zieht solche Rechenkomplexibilität nach sich, daß kommerzielle praktische Sichtsysteme, die mit natürlichen Merkmalen arbeiten, niemals hergestellt worden sind.
  • Obwohl erhebliche Arbeit auf die Lösung der vorgenannten Probleme gerichtet war, ergibt sich aus dem oben diskutierten Stand der Technik, daß solche Probleme nicht gelöst worden sind. Viele Positionsbestimmungssysteme hängen immer noch von Infrastruktur ab, welche teuer ist. Darüber hinaus kann eine Anlage, sobald die Infrastruktur angebracht ist, gewöhnlich nicht ohne zusätzliche Kosten für die Veränderung der Infrastruktur verändert werden. Zusätzlich können Roboter, die auf solche Infrastruktur angewiesen sind, leicht sabotiert werden.
  • Koppelsysteme bzw. vollständige Berechnungssysteme liefern nicht die Wiederholgenauigkeit, welche von heutigen kommerziellen Anwendungen benötigt wird. Kombinierte Koppelsysteme bzw. vollständige Berechnungssysteme mit irgend einer Art von Triangulations- oder anderen Korrekturverfahren führen eine Infrastruktur und alle hiermit verknüpften Probleme ein.
  • Sichtsysteme, welche eine höhere Genauigkeit als Koppelsysteme bzw. vollständige Berechnungssysteme liefern können und welche typischerweise frei von künstlich auferlegter Infrastruktur sind, sind kompliziert und kostspielig auszuführen. Falls ein Merkmal nicht erkennbar ist, weil ihm unter einem anderen Winkel begegnet wird, kann der Roboter desorganisiert werden und aufhören zu funktionieren. Somit besteht der Bedarf für ein Positionsbestimmungssystem, welches hoch genau, unabhängig von jeder Infrastruktur und relativ, unanfällig für Sabotage ist und welches eine hohe Wiederholgenauigkeit, die auf einem heutigem Markt gefordert wird, zu konkurrenzfähigen Kosten liefert.
  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bestimmen einer Position, welche die Schritte des Aufnehmens eines Bildes umfassen, welches zu der gegenwärtigen Position verknüpft ist. Das mit der gegenwärtigen Position verknüpfte Bild wird mit einem oder mehreren Bildern einer iconisierten Karte verglichen. Die Position wird basierend auf dem Bild der Karte bestimmt, welches die höchste Korrelation liefert.
  • Somit wird nach einem Aspekt der Erfindung ein Verfahren zum Bestimmen einer momentanen Position eines Fahrzeugs relativ zu einer im wesentlichen ebenen Oberfläche mit mehreren zufällig auftretenden, über die Oberfläche verteilten Merkmalen geschaffen, wobei das Verfahren die folgenden Schritte aufweist: Aufnehmen eines Bildes der Oberfläche betreffend die momentane Position des Fahrzeugs, wobei das Bild eine Verteilung der Merkmale umfaßt und mit einer Kamera an dem Fahrzeug aufgenommen wird, die bezüglich der Oberfläche eine bekannte Beziehung aufweist; Vergleichen der Merkmale des aufgenommenen Bildes mit Merkmalen von Bildern, die auf einer Mappe bzw. Karte gespeichert sind, wobei die gespeicherten Bilder jeweils für eine bekannte Position repräsentativ sind, wobei die gespeicherten Bilder jeweils eine Verteilung von zufällig auf der Oberfläche auftretenden Merkmalen umfassen, und wobei der Schritt zum Vergleichen einen Vergleich der Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale der gespeicherten Bilder umfaßt; und Bestimmen der momentanen Position des Fahrzeugs auf der Basis des Schritts zum Vergleichen.
  • Nach einer Ausführungsform kann der Schritt zum Vergleichen den Schritt zum Vergleichen der Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale mehrerer Bilder aus der Karte umfassen, wobei der Schritt zum Bestimmen den Schritt zum Auswählen eines der mehreren Bilder auf der Basis des Korrelationsgrads zwischen den Eigenschaften des aufgenommenen Bildes und der Verteilung von Merkmalen aus der Verteilung von Merkmalen der mehrere Bilder umfaßt.
  • Geeigneterweise kann das Verfahren den Schritt zum Schätzen der Grobposition des Fahrzeugs mittels des vollständigen Berechnens umfassen, wobei die mehreren Bilder auf der Basis der geschätzten Grobposition ausgewählt werden.
  • Vorteilhafterweise kann das Verfahren ferner den Schritt zum Identifizieren einer Zielfläche um die geschätzte Grobposition herum umfassen, wobei die mehreren Bilder aus der Zielfläche ausgewählt werden.
  • Eine modifizierte Ausführungsform der Erfindung kann den Schritt zum Aufrechterhalten einer Verriegelung in der momentanen Position umfassen, wobei die mehreren Bilder auf der Basis der Verriegelung der momentanen Position ausgewählt werden.
  • Vorteilhafterweise wird die Kamera senkrecht auf der ebenen Oberfläche positioniert.
  • Alternativ wird die Kamera bezüglich der ebenen Oberfläche in einem Winkel positioniert.
  • Geeigneterweise umfaßt der Schritt zum Vergleichen den Schritt zum Ausführen einer Kreuzkorrelation.
  • Vorteilhafterweise kann das Verfahren den Schritt zum Aktualisieren der in der Karte gespeicherten Bilder nach dem Schritt zum Aufnehmen eines Bildes umfassen.
  • Geeigneterweise kann das Verfahren ferner den Schritt zum Hinzufügen von Bildern zu der Karte nach dem Schritt zum Aufnehmen eines Bildes umfassen.
  • Vorteilhafterweise kann das Verfahren ferner den Schritt zum Auswählen eines Kurses auf der Basis der bestimmten Position umfassen.
  • Das Verfahren kann auch den zusätzlichen Schritt zum Bestimmen der Geschwindigkeit des Fahrzeugs relativ zu der Oberfläche umfassen, wobei aufeinander folgende Bilder der Oberfläche aufgenommen werden, die jeweils eine Verteilung von Merkmalen enthalten, die sich auf eine Position des Fahrzeugs beziehen, wobei die Verteilung von Merkmalen der aufeinander folgenden Bilder zum Bestimmen des Disparitätsgrads zwischen aufeinander folgenden Bildern verglichen werden und wobei der Disparitätsgrad zum Bestimmen der Geschwindigkeit des Fahrzeugs durch die verstrichene Zeit zwischen den aufeinander folgenden Bildern dividiert wird.
  • Das Verfahren kann zusätzlich den zusätzlichen Schritt zum Bestimmen eines Radrutschens des Fahrzeugs relativ zu der Oberfläche umfassen, wobei aufeinanderfolgende Bilder der Oberfläche aufgenommen werden, die jeweils eine Verteilung von Merkmalen enthalten, die sich auf eine Position des Fahrzeugs bezieht, wobei die Verteilung von Merkmalen der aufeinander folgenden Bilder zum Bestimmen des Disparitätsgrads zwischen den aufeinander folgenden Bildern in einer vorgegebenen Zeitdauer verglichen wird, wobei die Entfernung unabhängig bestimmt wird, die in der vorgegebenen Zeitdauer erwartungsgemäß zurückgelegt wird, und wobei zum Bestimmen des Umfangs des Radrutschens die erwartete, zurückgelegte Entfernung mit dem Disparitätsgrad verglichen wird.
  • Nach einem zweiten Aspekt der Erfindung wird eine Vorrichtung zum Bestimmen der Position mit den folgenden Merkmalen geschaffen: Bildaufnahmemittel, die zum Aufnehmen eines Bildes angepaßt sind, welches Merkmale enthält, die sich auf die momentane Position beziehen; Speichermitteln, die zum Speichern von Bildern angepaßt sind; Vergleichsmittel, die zum Vergleichen der aufgenommenen Bilder mit Bildern angepaßt sind, die in den Speichermitteln gespeichert sind. Die Vorrichtung ist dadurch gekennzeichnet, daß die Aufnahmemittel eine Kamera mit einer bekannten Beziehung zu einer im wesentlichen ebenen Oberfläche umfassen, wobei jedes der gespeicherten Bilder für eine bekannte Position relativ zu der Oberfläche repräsentativ ist, wobei die gespeicherten Bilder jeweils eine Verteilung von zufällig auftretenden Merkmalen auf der Oberfläche umfassen, wobei die Vergleichsmittel zum Vergleichen der Verteilung von Merkmalen aus dem aufgenommenen Bild mit der Verteilung von Merkmalen der gespeicherten Bilder angepaßt sind und wobei Positionsbestimmungsmittel zum Bestimmen der Position als Antwort auf die Vergleichsmittel angepaßt sind.
  • Gemäß einer Ausführungsform vergleichen die Vergleichsmittel die Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale aus mehreren Bildern aus der Karte, wobei die Positionsbestimmungsmittel eines der mehreren Bilder auf der Basis des Korrelationsgrads zwischen der Verteilung der Merkmale aus dem aufgenommenen Bild und der Verteilung der Merkmale aus den mehreren Bildern auswählt.
  • Die Vorrichtungen kann zusätzlich Mittel zum Schätzen der Grobposition mittels vollständigen Berechnens umfassen, wobei die mehreren Bilder auf der Basis der geschätzten Grobposition ausgewählt werden.
  • Die Vorrichtungen kann ferner Mittel zum Identifizieren einer Zielfläche mit Hilfe des Identifizierens von Bildern umfassen, die für Positionen in der Nähe der geschätzten momentanen Position repräsentativ sind, wobei die mehreren Bilder aus der Zielfläche ausgewählt werden.
  • Alternativ kann die Vorrichtung Mittel zum Aufrechterhalten einer Verriegelung an einem Bild mit einer Verteilung der Merkmale umfassen, die für eine Anfangsposition repräsentativ sind, wobei die mehreren Bilder relativ zu dem verriegelten Bild auf der Basis der Disparität zwischen der momentanen Position und der Anfangsposition ausgewählt werden.
  • Bei einer alternativen Ausführungsform kann die Vorrichtung Vergleichsmittel zum Aufrechterhalten einer Verriegelung in der momentanen Position umfassen, wobei die mehreren Bilder auf der Basis der Verriegelung in der momentanen Position ausgewählt werden.
  • Die Vorrichtung kann zusätzlich Mittel zum Aktualisieren der gespeicherten Bilder umfassen.
  • Die Vorrichtung kann zusätzlich Mittel umfassen, die auf die bestimmte Position zum Auswählen eines vorprogrammierten Kurses für das Objekt reagieren.
  • Die Erfindung betrifft ferner oben beschriebene Vorrichtungen mit Mitteln zum Bestimmen der Geschwindigkeit des Fahrzeugs relativ zu der Oberfläche mit: Vergleichsmitteln, die zum Vergleichen einer Verteilung von Merkmalen aus den aufeinander folgenden Bildern angepaßt sind, welche mittels der Aufnahmemittel aufgenommen wurden, um den Disparitätsgrad zwischen den aufeinander folgenden Bildern auf der Basis einer Korrelation der aufeinander folgenden Bilder zu bestimmen; Berechnungsmitteln, die zum Berechnen der von dem Fahrzeug zurückgelegten Entfernung auf der Basis des Disparitätsgrads angepaßt, sind; und die Divisionsmitteln, die zum Dividieren der zurückgelegten Entfernung durch die verstrichene Zeit zwischen den aufeinander folgenden Bildern zum Bestimmen der Geschwindigkeit des Fahrzeugs angepaßt sind.
  • Die Vorrichtung betrifft ferner oben beschriebene Vorrichtungen mit Mitteln zum Bestimmen Radrutschens eines Fahrzeugs relativ zu einer Oberfläche mit Vergleichsmitteln, die zum Vergleichen der Verteilung von Merkmalen der aufeinander folgenden Bilder, die mit Hilfe der Bildaufnahmemittel aufgenommen wurden, zum Bestimmen des Disparitätsgrads zwischen den aufeinander folgenden Bildern auf der Basis einer Korrelation der aufeinander folgenden Bilder in einer vorgegebenen Zeitdauer angepaßt sind; Berechnungsmitteln, die zum Berechnen der von dem Fahrzeug zurückgelegten Entfernung auf der Basis des Disparitätsgrads angepaßt sind; Entfernungsbestimmungsmitteln, die zum unabhängigen Bestimmen der Entfernung, die von dem Fahrzeug erwartungsgemäß zurückgelegt wird, mit Hilfe des Messens einer Drehung eines Rads des Fahrzeugs in der vorgegebenen Zeitdauer angepaßt sind; und Vergleichsmitteln, die zum Vergleichen der erwartungsgemäß zurückgelegten Entfernung mit der Entfernung angepaßt sind, welche gemäß dem Disparitätsgrad berechnet wurde, um den Umfang des Radrutschens zu bestimmen.
  • Die iconisierte Karte der Erfindung ist eine Karte, welche Merkmale der bestimmten Umgebung speichert, in welcher der Roboter arbeiten soll. Merkmale, wie sie hierin verwendet werden, beziehen sich auf wahllos auftretende Charakteristika, wie zum Beispiel Fasern in einem Teppich, Bürstenflecken, die auf einem gebürstetem Beton erscheinen, und ähnliche. Solche zufällig auftretenden natürlichen Merkmale treten in allen Oberflächen außer glänzenden Metalloberflächen oder anderen Oberflächen auf, für die Schritte unternommen wurden, um solche natürlich auftretenden Merkmale zu entfernen. Obwohl solche auftretenden Merkmale im wesentlichen zufällig sind, wird jedes Abbild einzigartig, wenn es in einem klein genugen Abbild analysiert wird. Das bedeutet, keine zwei Abbilder werden exakt die gleiche Verteilung oder zufällig auftretende Merkmale, wie zum Beispiel Bürstenflecken auf Beton, aufweisen. Somit bezieht sich das Wort Merkmale, wie hierin verwendet, nicht auf solche Merkmale, auf die im Stand der Technik Bezug genommen wurde, z. B. einen Eingang, eine Treppe usw.
  • Das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung können in einer Anzahl von Wegen angewendet werden. Falls die ursprünglich Position bekannt ist, kann das Fahrzeug einer Karte der Merkmale folgen, um sich von seiner ursprünglichen Position zu einem gewünschten Ort zu bewegen. Alternativ kann ein Koppelsystem bzw. vollständiges Berechnungssystem genutzt werden, um Zeit- und Computerressourcen zu sparen, um eine grobe Schätzung der Roboterposition zu liefern. Mehrere Bilder in einer vorbestimmten Gegend, die den groben Ort eingrenzen, werden mit einem Bild der gegenwärtigen Position verglichen. Das Bild innerhalb der abgesuchten Umgrenzung, welches die höchste Korrelation mit dem Bild des momentanen Orts liefert, wird ausgewählt und als momentaner Ort des Roboters identifiziert.
  • Das Verfahren und die Vorrichtung der Erfindung können genutzt werden, um einem Roboter zu ermöglichen, innerhalb eines vorbestimmten Gebiets zu navigieren. Zusätzlich kann der Roboter, weil der Roboter genau positioniert werden kann, d. h. innerhalb von drei Millimetern eines gewünschten Ortes oder besser, mit Armen, Werkzeugen und anderen Vorrichtungen ausgerüstet werden, um Aufgaben auszuführen, nachdem er eine bestimmte Position erreicht hat. Die präzise Wiederholgenauigkeit resultiert aus der Tatsache, daß die Korrelation zwischen Bildern es erlaubt, die Position des Roboters genau zu bestimmen. Der Vergleich kann ausgeführt werden, indem irgendein mathematischer Standard genutzt wird, so daß beträchtliche Computerressourcen nicht benötigt werden. Darüber hinaus ist die benötigte Hardware, zum Erzeugen des Bildes, welches mit den Bildern der Karte verglichen wird, Standardbildhardware, welche auf heutigen Märkten relativ kostengünstig ist. Somit kann die Vorrichtung der Erfindung auf kostengünstige Weise hergestellt werden und dennoch eine wiederholbare Anordnung des Roboters innerhalb von drei Millimetern einer gewünschten Position liefern. Der Betrieb des Roboters hängt nicht von Infrastruktur oder der Fähigkeit ab, grobe Strukturen wie Eingänge oder Treppenschächte usw. zu erkennen. Weil keine Infrastruktur zum Beispiel Barken oder Markierungen usw. benötigt werden, sind die Gesamtkosten des Systems konkurrenzfähig mit existierenden Navigationssystemen. Weil sich das System auf zufällig auftretende natürliche Merkmale verläßt, ist es schließlich extrem schwierig, den Roboter zu sabotieren. Diese und andere Vorteile und Nutzen der Erfindung werden aus der Beschreibung der bevorzugten Ausführungsformen hiernach deutlich werden.
  • Die Erfindung wird im folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf eine Zeichnung näher erläutert. Hierbei zeigen:
  • Fig. 1 einen Roboter, der ein Sichtsystem trägt, welches eine Eingabe für eine erfindungsgemäße Positionsbestimmungsvorrichtung liefert;
  • Fig. 2 ein Blockdiagramm, welches die grundlegenden Bestandteile einer erfindungsgemäß hergestellten Positionsbestimmungsvorrichtung darstellt;
  • Fig. 3 natürlich auftretende Merkmale auf einem Boden oder einer anderen im wesentlichen ebenen Oberfläche;
  • Fig. 3a zwei Bilder ebener Oberflächen nach Fig. 3, welche mit einem Bild korreliert werden, welches die momentane Position des Roboters repräsentiert;
  • Fig. 4 ein Blockdiagramm, welches ein erfindungsgemäßes Positionsbestimmungssystem darstellt, welches Kartierungsfähigkeiten aufweist;
  • Fig. 5a, 56 und 5c die Position eines Fahrzeugs zu Zeiten t&sub1;, t&sub2; bzw. t&sub3;; und
  • Fig. 6 ein Bild der Straße zu den Zeiten t&sub1;, t&sub2; bzw. t&sub3;.
  • Fig. 1 stellt einen Roboter 10 dar, der ein Sichtsystem 12 trägt, welches ein Eingangssignal für eine mikroprozessorbasierte Vorrichtung 14 liefert. Ein Teil der mikroprozessorbasierten Vorrichtung 14 ist ein Positionsschätzer 15, der vorzugsweise in Software ausgeführt ist und gemäß der Lehre der Erfindung konstruiert ist. Der Roboter 10 weist eine konventionelle Konstruktion auf und umfaßt einen Rahmen 16 und mehrere Räder 18. Bestimmte Räder 18 empfangen Antriebs- und Steuerungsbefehle von einem Antriebs- und Steuerungsmodul 20 unter der Steuerung der mikroprozessorbasierten Vorrichtung 14, so daß der Roboter 10 selbst antriebsfähig ist.
  • Der Rahmen 16 kann einen Roboterarm 22 tragen, welcher ein Werkzeug 24 an seinem Ende tragen kann, um verschiedene Funktionen unter der Steuerung der mikroprozessorbasierten Vorrichtung 14 auszuführen. Wenn der Roboter 10 an einem vorbestimmten Ort ankommt, dessen Position aufgrund von Signalen bekannt ist, die von einem Positionsschätzer 15 ausgegeben werden, kann der Arm 22 und das Werkzeug 24 entsprechend eines gespeicherten Programms manipuliert werden, um vorbestimmte Funktionen ausführen, zum Beispiel das Aufnehmen eines Werkstücks, das Positionieren des Werkstücks, das Einsetzens eines Botzens oder einer Schraube, das Anheben einer Palette, das Zurücksetzen einer Kiste in eine Lagereinrichtung, das Saugen eines Teppichs, das Leeren eines Mülleimers usw. Für bestimmte Aufgaben ist es notwendig, daß der Roboter 10 genau positioniert wird, d. h. mit einer Wiederholgenauigkeit von drei Millimetern oder weniger positioniert wird. Der Rahmen 16 kann ferner einen Wegmesser 28 tragen, welcher ein Eingangssignal für den Positionsschätzer 15 für den Zweck des Ausführens von Berechnungen liefert, wie zum Beispiel das Koppeln bzw. das vollständigen Berechnen, wie unten beschrieben werden wird.
  • Das Sichtsystem 12 kann irgendein kommerziell verfügbarer Typ sein, der eine Kamera und Mittel zum Digitalisieren des Bilds umfaßt, das von der Kamera erzeugt wird. Das digitalisierte Bild wird dann in den Positionsschätzer 15 eingegeben. Die Kamera 12 ist in einer Weise montiert, so daß sie geradlinig abwärts oder unter einem Winkel bzgl. einer im wesentlichen ebenen Oberfläche 11 fokusiert werden kann. Die Kamera 12 kann mittels des Rahmens 16 an dem Boden hiervon zwischen den Rädern 18 getragen werden, um es schwieriger zu machen, störend in den Betrieb des Roboters einzuwirken.
  • Der Leser sollte erkennen, daß der Roboterrahmen 16, die Räder 18, das Antriebs- und Steuerungsmodul 20, der Roboterarm 22, das Werkzeug 24, der Weggeber 28 und das Sichtsystem eine Standardkonstruktion und eine Standardarbeitsweise aufweisen. Entsprechen sind diese Elemente nicht weiter hierin beschrieben. Die erfinderischen Merkmale der Erfindung liegen innerhalb des Positionsschätzers 15 und der Weise, in welcher der Positionsschätzer 15 Signale erzeugt, die von anderen Bestandteilen genutzt werden, die von dem Roboter 10 getragen werden.
  • Fig. 2 stellt ein Blockdiagramm des Positionsschätzers 15 dar. Die mittels des Sichtsystems 12 erzeugten Bilder sind digitale Bilder, welche eine Eingabe für einen Bildvorprozessor 30 sind. Der Bildvorprozessor 30 umfaßt einen Satz von Standardvorbearbeitungsroutinen, welche Schatten entfernen, eine Beschaffenheit hervorheben und Linsenverzerrungen entfernen. Systematische Fehler und eine Skalierung können ferner entfernt werden. Solch eine Bildvorberarbeitung ist in Fachkreisen wohlbekannt und deshalb hierin nicht weiter beschrieben.
  • Die Ausgabe des Bildvorprozessors 30 stellt ideale Bilder dar, welche eine Eingabe für einen Icon-Vergleicher 32 sind. Der Icon-Vergleicher 32 führt eine Korrelation zwischen den idealen Bildern und einem oder mehreren aus einem Kartenspeicherbereich 34 abgerufenen Bildern durch. Der Kartenspeicherbereich 34 enthält eine iconische Karte, die man sich als einzelnes elektronisches Bild der gesamten Oberfläche vorstellen kann, auf welcher sich der Roboter bewegt. Die Weise, in welcher das Bild abgerufen wird, hängt von dem Betriebsmodus der Vorrichtung ab, wie detaillierter hierin unten beschrieben wird. Im allgemeinen wird dann, falls die Position des Roboters mittels Koppeln bzw. vollständiger Berechnung geschätzt werden kann oder aus einem unabhängigen Signal, welches eine Positionierungsinformation repräsentiert, geschätzt werden kann, der Abschnitt der Karte, der kennzeichnend für die geschätzte Position ist, dem Icon-Vergleicher 32 zum Korrelieren mit den idealen Bildern geliefert. Alternativ kann dann, falls die Startposition mit Bezug auf die gespeicherte Karte bekannt ist, eine Verriegelung an der Position gehalten werden, so daß aufeinanderfolgende Bilder von der Karte in einer Weise verglichen werden, daß der Roboter kontinuierlich seine Position kennt, wie mittels des Rückkoppelkreises 37 gezeigt ist. Diese Betriebsmodi werden detaillierter hierin unten beschrieben.
  • Der Icon-Vergleicher 32 nutzt im wesentlichen alle Daten, sowohl des realen Bildes, welches kennzeichnend für die gegenwärtige Position des Roboters ist, und im wesentlichen alle Daten des Bildes, welches aus der Karte ausgewählt ist, welches kennzeichnend für die Position ist, an der sich der Roboter angenommenerweise aufhält. Ein Weg, alle oder im wesentlichen alle Daten zu nutzen, ist durch eine Kreuzkorrelationsfunktion gegeben. Jedoch können andere mathematische Verfahren genutzt werden, wie zum Beispiel eine Summe absoluter Differenzen, eine Summe quadrierter Differenzen, eine Vorzeichenkorrelation usw. Das besondere mathematische Verfahren, welches genutzt wird, ist nicht von besonderer Bedeutung für die gesamte Theorie der Erfindung. Das besondere ausgewählte Verfahren kann eine Auswirkung auf die Arbeitsweise der Erfindung haben, abhängig davon, wie das bestimmte mathematische Verfahren in der Software ausgeführt ist. Der Icon-Vergleicher 32 gibt ein Signal aus, welches ein Disparitätsvektor ist. Bei einem Betriebsmodus ist der Roboter, falls der Disparitätsvektor einen Wert null aufweist, an der Position, welche von dem Bild präsentiert wird, welches aus dem Speicherbereich 34 entnommen wurde.
  • Das letzte in Fig. 2 dargestellte Element ist ein Koppelelement bzw. vollständige Berechnungselement 36. Das Koppelelement bzw. vollständige Berechnungselement 36 ist ein Satz von Routinen, welche die Roboterposition mittels fortfolgenden Addierens der Disparitätsvektoren zu einer ursprünglichen Position berechnet. Das Koppelelement bzw. vollständige Berechnungselement 36 stellt ferner einen Grad der Unsicherheit bei der Positionsschätzung auf.
  • Der Positionsschätzer 15 arbeitet mittels der Nutzung natürlich auftretender Merkmale auf einem ebenen Boden, wie Landmarken. Beton, Asphalt, Kacheln, Teppich und viele ändere Oberflächen umfassen alle Merkmale wie z. B. Rißmuster, wellenartige Muster des ursprünglichen Materialflusses, kleine Steineinschlüsse, Flecken und Entfärbungen, Kerben, Kratzer, Fasern und ähnliches. Solche natürlichen Merkmale sind gewöhnlich klein und zufällig, was sie in einem Bild, das nahe des Bodens aufgenommen wird, eindeutig identifizierbar macht.
  • Fig. 3 stellt einen Abschnitt des Bodens 11 dar. Es wird angenommen, daß der Roboter 10 an einem bestimmten Startort auf dem Boden 11 angeordnet ist und ein Bild 38 des Bodens an diesem Ort aufnimmt. Der Roboter bewegt sich dann zu irgendeinem anderen Ort. Nach der Rückkehr des Roboters 10 zu dem gleichen ungefähren Ort, nimmt der Roboter 10 ein zweites Bild 40 auf. Das Bild 40 wird dann genutzt, um ein Zielgebiet 42 zu definieren, welches eine Ellipse der Unsicherheit ist. Das Zielgebiet wird dann in mehrere Bilder zerbrochen, von denen zwei, 40 und 44, in Fig. 3a dargestellt sind. Die Bilder 40, 44 und alle anderen Bilder des Zielgebiets 42 werden mit dem Bild 38 abgeglichen, indem gemäß einer bevorzugten Ausführungsform eine Korrelationsfunktion genutzt wird, um die Transformation zwischen Paaren der Bilder zu bestimmen. Das Bild des Zielgebiets, in diesem Beispiel 44, welches die höchste Korrelation mit dem Originalbild 38 aufweist, bietet einen Hinweis, wie weit der Roboter von seiner ursprünglichen Position, wie sie mittels des Bildes 38 repräsentiert ist, entfernt ist. Die ähnlichen Dimensionen und Distanzierungsabstände eines solchen Bildkorrelationsverfahrens zeigt schnell, daß Submillimeter Wiederholgenauigkeiten berechenbar sind.
  • Das oben in Verbindung mit Fig. 3 und 3a beschriebene Verfahren ist nur eines einer Auswahl von Verfahren, mittels welcher die Erfindung ausgeführt werden kann. Das Verfahren, wie es oben ausführlich beschrieben wurde, benötigt, daß der mobile Roboter innerhalb eines Bildrahmens seines ursprünglichen Ortes zurückkehrt. Falls statt dessen die Bilder eines gesamtem Gebäudes aufgenommen wurden, dann könnte die Vorrichtung 15 systematisch durch diese Bilder suchen, indem Korrelationen berechnet werden. Ausreichender Speicher ist gegenwärtig mit den heutigen Technologien verfügbar, so daß ein Quadratkilometer repräsentiert werden kann. Ein Quadratkilometer repräsentiert etwa 10 Gigabytes vor der Nutzung von Datenreduktionsverfahren. Falls eine ungefähre Position verfügbar ist, dann kann die Such innerhalb eines Gebiets gestutzt werden, welches von der Positionsunsicherheitsellipse 42 abgedeckt ist. Sogar mit einem relativ schlechten unabhängigen Positionshinweis, kann die Suche auf ein oder wenige Bilder heruntergestutzt werden.
  • Ein Positionsschätzer 44, der gemäß der Lehre der Erfindung hergestellt ist, ist in Fig. 4 dargestellt. Der Positionsschätzer 44 ist ähnlich zu dem Positionsschätzer 15 und die Elemente, die gleiche Funktion ausführen, sind mit den gleichen Bezugszeichen versehen. In Fig. 4 umfaßt die Vorrichtung 44 ein Kartenaktualisierungselement 46. Das Kartenaktualisierungselement 46 ist ein Satz von Routinen, welche Bilder zu der Karte hinzufügen, wenn der Positionsschätzer 44 in einem Kartierungsmodus betrieben wird. Das Image wird um das negative des Disparitätsvektors verschoben und dann in den Kartenspeicher 34 plaziert. Das Kartenaktualisierungselement 46 kann aktiviert werden, um eine Karte zu erzeugen oder kann aktiviert werden, wenn es notwendig ist, eine Karte zu aktualisieren, weil sich Oberflächenmerkmale verändert haben.
  • Ein Navigationsdatenfilter 48 wird geliefert, welcher einen Satz von Routinen ist, der alle verfügbaren Informationen verarbeitet, um die beste mögliche Schätzung der Position zu liefern. Ein Kalmanfilter ist eine mögliche Ausführung, jedoch kann irgendein Verfahren zur Schätzung eines Zustands aus verschiedenen Messungen ausreichen.
  • Bevor die verschiedenen Betriebsmodi des Positionsschätzers 44 diskutiert werden, ist es nützlich, die Daten zu identifizieren, die innerhalb des Positionsschätzer 44 verwendet werden. Die ursprünglich Position, welche in das Koppelelement bzw. das vollständige Berechnungselement 36 eingegeben wird, ist die Position, die mit der Position zu verknüpfen ist, an der der Roboter gestartet ist. Im Kartierungsmodus, dient die ursprüngliche Position, um die gesamte Karte zu fixieren. Es kann eine Eingabe in die Vorrichtung oder ein Vorgabewert genutzt werden. Im Navigationsmodus wird die ursprünglich Position verwendet, um die ursprüngliche Suche für einen Abgleich mit der iconischen Karte zu beschränken. Danach behält die Vorrichtung eine Verriegelung auf der Karte, während der Roboter sich bewegt, so daß nur eine kleine Suche für jedes darauffolgende ideale Bild benötigt wird.
  • Eine äußere Positionsschätzung wird in den Navigationdatenfilter 48 eingegeben. Die äußere Positionsschätzung ist eine Schätzung der Vorrichtungsposition, die von außen mittels einer vollständig getrennten Positionierungsvorrichtung, wie einem Weggeber 28, geliefert wird. Die äußere Positionsschätzung wird als eine redundanter Positionshinweis sowohl im Navigations- als auch im Kartierungsmodus verwendet.
  • In beiden Fällen ist sie eine optionale Eingabe, jedoch wird erwartet, daß die absolute Vorrichtungsgenauigkeit verbessert wird, wenn eine äußere Schätzung verfügbar ist.
  • Die Vorrichtungspositionsschätzung ist eine Schätzung der Position, die von der Vorrichtung und der primären Vorrichtungsausgabe geliefert wird. Die Disparitätsausgabe ist die Vektordifferenz zwischen der gegenwärtigen Schätzung der Fahrzeugposition und der wahren Position des Bildes in der Karte. Wenn keine äußere Position geliefert ist, mißt sie die differentielle Verschiebung, welche leicht mittels Teilens durch das Zeitinkrement in eine Geschwindigkeit konvertiert wird. Falls die äußere Position geliefert ist, ist sie ein Maß des Radrutschens. Die Positionsschätzung kann von anderen Programmen in dem Mikroprozessor 14 genutzt werden, um einen Kurs zu bestimmen, wie in der Fachwelt bekannt ist.
  • Der Positionsschätzer 44 kann in einer Reihe Modi betrieben werden. Ein Betriebsmodus kann entweder das Kartieren oder Navigieren sein. Diese Modi werden nur dadurch unterschieden, was als bekannt und unbekannt angesehen wird. In dem Kartierungsmodus wird dem Positionsschätzer 44 die Karte gelehrt, welche in dem Kartenspeicher 34 gespeichert wird. In diesem Modus wird die Positionsschätzung geliefert oder intern erzeugt und die Karte erschaffen. In dem Navigationsmodus ist es die Karte, die geliefert wird, und die Position, welche erschaffen wird. Im Betrieb ist der Positionsschätzer 44 ähnlich zu einem Plattenspieler. Die Platte wird nur einmal mittels des Positionsschätzers 44 geschrieben, kann jedoch viele Male gelesen werden, wenn der Positionsschätzer 44 in dem Navigationsmodus ist. Falls das Kartenaktualisierungselement 46 aktiviert ist, befindet sich die Vorrichtung im Kartierungsmodus, andernfalls ist sie im Navigationsmodus.
  • Der Navigationsmodus hat zwei Untermodi, einen absoluten und einen relativen. Im absoluten Modus wird eine extern gespeicherte iconische Karte von dem Icon-Vergleicher 32 verwendet. In dem relativen Modus wird das letzte ideale Bild mit dem gegenwärtigen idealen Bild korreliert. Es wird erwartet, daß der relative Untermodus eine schlechtere absolute Genauigkeit vorweist, als der absolute Modus.
  • Der Postionsschätzer 44 kann in einem unterstützten Modus und in einem ununterstützten Modus betrieben werden. Zu allen Zeiten kann der Schätzer 44 seine Position einfach mittels des Addierens jedes aufeinanderfolgenden Disparitätsvektors zu der ursprünglichen Position berechnen. Dies ist klassisch als Koppeln bzw. vollständiges Berechnen bekannt. Bei dem unterstützten Modus sind das Navigationsdatenfilterelement 48 und die äußere Positionsschätzung aktiviert.
  • Der absolute und der relative Modus werden mittels der optionalen ursprünglichen Eingabe der Position unterschieden. Falls die ursprünglich Position geliefert ist, kann die Vorrichtung die Position relativ zu einer äußeren Referenz erzeugen. Fall nicht, wird eine Vorgabeausgangsposition verwendet. Die Vorgabe ist gewöhnlich null, in welchem Fall die Vorrichtung die Position relativ zu dem Punkt berichtet, wo der Antrieb das erste Mal auf die Vorrichtung angewendet wurde.
  • Der Schätzer 44 kann ferner in einem differentiell eingeschalteten oder differentiell ausgeschalteten Modus betrieben werden. Diese Moduszustände werden durch die Verfügbarkeit des optionalen Disparitätsausgangs unterschieden. Gegenwärtig kann das Signal als Geschwindigkeitssignal, als ein Maß für das Radrutschen oder für solche anderen Zwecke genutzt werden, wie sie von dem Nutzer gewünscht werden. Dieser Aspekt der Erfindung wird mit weiteren Details in Verbindung mit den Fig. 5a, 5b, 5c und 6 beschrieben.
  • Auf den Fig. 5a, 5b und 5c ist die Position eines Fahrzeugs 50, welches eine Vorrichtung 44 des in Fig. 4 dargestellten Typs trägt, zu Zeiten t&sub1;, t&sub2; und t&sub3; dargestellt. In Fig. 6 ist ein Bild 52, welches zur Zeit t&sub1; aufgenommen wurde, ein Bild 53, welches zur Zeit t&sub2; aufgenommen wurde, und ein Bild 54 dargestellt, welches zur Zeit t&sub3; aufgenommen wurde. Wenn die Vorrichtung 44 in einem differentiell eingeschalteten Modus betrieben wird, wird das Disparitätssignal an einem Ausgang geliefert. Wenn der Icon-Vergleicher 32 in einem Modus betrieben wird, um aufeinanderfolgende Bilder zu vergleichen, d. h. das Bild 53 wird mit Bild 52 verglichen, das Bild 54 wird mit Bild 53 verglichen usw., kann ein Hinweis auf die tatsächlich zurückgelegte Entfernung aus dem Disparitätssignal bestimmt werden.
  • Das Disparitätssignal kann genutzt werden, um eine Anzahl von Parametern zu berechnen. Zum Beispiel liefert die zurückgelegte Strecke, welche die räumlich Differenz zwischen Rahmen 52 und 53 ist, geteilt durch ein bekanntes Zeitintervall einen Hinweis auf die Geschwindigkeit. Falls die zurückgelegte Strecke, wie sie von der Vorrichtung bestimmt ist, mit der zurückgelegten Strecke verglichen wird, welche mittels eines Weggebers angegeben wird, zeigt jede Differenz zwischen den zwei Berechnungen ein Radrutschen an. Somit kann das Konzept der Erfindung, wie es in dem offenbarten Verfahren und der Vorrichtung dargelegt ist, für andere Zwecke als für die Navigation verwendet werden.

Claims (23)

1. Verfahren zum Bestimmen einer momentanen Position eines Fahrzeugs relativ zu einer im wesentlichen ebenen Oberfläche mit mehreren zufällig auftretenden, über die Oberfläche verteilten Merkmalen, das Verfahren die folgenden Schritte aufweisend: Aufnehmen eines Bildes der Oberfläche betreffend die momentane Position des Fahrzeugs, wobei das Bild eine Verteilung der Merkmale umfaßt und mit einer Kamera an dem Fahrzeug aufgenommen wird, die bezüglich der Oberfläche eine bekannte Beziehung aufweist; Vergleichen der Merkmale des aufgenommenen Bildes mit Merkmalen von Bildern, die auf einer Mappe gespeichert sind, wobei die gespeicherten Bilder jeweils für eine bekannte Position relativ zu der Oberfläche repräsentativ sind, wobei die gespeicherten Bilder jeweils eine Verteilung von zufällig auf der Oberfläche auftretenden Merkmalen umfassen, und wobei der Schritt zum Vergleichen einen Vergleich der Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale der gespeicherten Bilder umfaßt; und Bestimmen der momentanen Position des Fahrzeugs auf der Basis des Schritts zum Vergleichen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt zum Vergleichen den Schritt zum Vergleichen der Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale mehrerer Bilder aus der Karte umfaßt, wobei der Schritt zum Bestimmen den Schritt zum Auswählen eines der mehreren Bilder auf der Basis des Korrelationsgrads zwischen den Eigenschaften des aufgenommenen Bildes und der Verteilung von Merkmalen aus der Verteilung von Merkmalen der mehrere Bilder umfaßt.
3. Verfahren nach Anspruch 2, gekennzeichnet durch den Schritt zum Schätzen der Grobposition des Fahrzeugs mittels des vollständigen Berechnens, wobei die mehreren Bilder auf der Basis der geschätzten Grobposition ausgewählt werden.
4. Verfahren nach Anspruch 3, gekennzeichnet durch den Schritt zum Identifizieren einer Zielfläche um die geschätzte Grobposition herum, wobei die mehreren Bilder aus der Zielfläche ausgewählt werden.
5. Verfahren nach Anspruch 2, gekennzeichnet durch den Schritt zum Aufrechterhalten einer Verriegelung in der momentanen Position, wobei die mehreren Bilder auf der Basis der Verriegelung der momentanen Position ausgewählt werden.
6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die Kamera senkrecht auf der ebenen Oberfläche positioniert wird.
7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Kamera bezüglich der ebenen Oberfläche in einem Winkel positioniert wird.
8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß der Schritt zum Vergleichen dem Schritt zum Ausführen einer Kreuzkorrelation umfaßt.
9. Verfahren nach einem der vorangehenden Ansprüche, gekennzeichnet durch den Schritt zum Aktualisieren der in der Karte gespeicherten Bilder nach dem Schritt zum Aufnehmen eines Bildes.
10. Verfahren nach einem der vorangehenden Ansprüche, gekennzeichnet durch den Schritt zum Hinzufügen von Bildern zu der Karte nach dem Schritt zum Aufnehmen eines Bildes.
11. Verfahren nach einem der vorangehenden Ansprüche, gekennzeichnet durch den Schritt zum Auswählen eines Kurses auf der Basis der bestimmten Position.
12. Verfahren nach einem der vorangehenden Ansprüche, gekennzeichnet durch den zusätzlichen Schritt zum Bestimmen der Geschwindigkeit des Fahrzeugs relativ zu der Oberfläche, wobei aufeinander folgende Bilder der Oberfläche aufgenommen werden, die jeweils eine Verteilung von Merkmalen enthalten, die sich auf eine Position des Fahrzeugs beziehen, wobei die Verteilung von Merkmalen der aufeinander folgenden Bilder zum Bestimmen des Disparitätsgrads zwischen aufeinander folgenden Bildern verglichen werden und wobei der Disparitätsgrad zum Bestimmen der Geschwindigkeit des Fahrzeugs durch die verstrichene Zeit zwischen den aufeinander folgenden Bildern dividiert wird.
13. Verfahren nach einem der vorangehenden Ansprüche, gekennzeichnet durch den zusätzlichen Schritt zum Bestimmen eines Radrutschens des Fahrzeugs relativ zu der Oberfläche, wobei aufeinander folgende Bilder der Oberfläche aufgenommen werden, die jeweils eine Verteilung von Merkmalen enthalten, die sich auf eine Position des Fahrzeugs bezieht, wobei die Verteilung von Merkmalen der aufeinander folgenden Bilder zum Bestimmen des Disparitätsgrades zwischen den aufeinander folgenden Bildern in einer vorgegebenen Zeitdauer verglichen wird, wobei die Entfernung unabhängig bestimmt wird, die in der vorgegebenen Zeitdauer erwartungsgemäß zurückgelegt wird, und wobei zum Bestimmen des Umfangs des Radrutschens die erwartete, zurückgelegte Entfernung mit dem Disparitätsgrad verglichen wird.
14. Vorrichtungen zum Bestimmen der momentanen Position eines Fahrzeugs relativ zu einer im wesentlichen ebenen Oberfläche mit mehreren zufällig auftretenden und hierüber verteilten Merkmalen mit: Bildaufnahmemitteln (12), die zu n Aufnehmen eines Bildes angepaßt sind, welches Merkmale enthält, die sich auf die momentane Position beziehen; Speichermitteln (34), die zum Speichern von Bildern angepaßt sind; Vergleichsmitteln (32), die zum Vergleichen der aufgenommenen Bilder mit Bildern angepaßt sind, die in den Speichermitteln gespeichert sind, dadurch gekennzeichnet, daß die Aufnahmemittel (12) eine Kamera mit einer bekannten Beziehung zu einer im wesentlichen ebenen Oberfläche umfassen, wobei jedes der gespeicherten Bilder für eine bekannte Position relativ zu der Oberfläche repräsentativ ist, wobei die gespeicherten Bilder jeweils eine Verteilung von zufällig auftretenden Merkmalen auf der Oberfläche umfassen, wobei die Vergleichsmittel zum Vergleichen der Verteilung von Merkmalen aus dem aufgenommenen Bild mit der Verteilung von Merkmalen der gespeicherten Bilder angepaßt sind und wobei Positionsbestimmungsmittel (15) zum Bestimmen der Position als Antwort auf die Vergleichsmittel angepaßt sind.
15. Vorrichtungen nach Anspruch 14, dadurch gekennzeichnet, daß die Vergleichsmittel (15) die Verteilung der Merkmale des aufgenommenen Bildes mit der Verteilung der Merkmale aus mehreren Bildern aus der Karte vergleichen, wobei die Positionsbestimmungsmittel (15) eines der mehreren Bilder auf der Basis des Korrelationsgrads zwischen der Verteilung der Merkmale aus dem aufgenommenen Bild und der Verteilung der Merkmale aus den mehreren Bildern auswählt.
16. Vorrichtungen nach Anspruch 15, gekennzeichnet durch Mittel zum Schätzen der Grobposition (15) mittels vollständigen Berechnens, wobei die mehreren Bilder auf der Basis der geschätzten Grobposition ausgewählt werden.
17. Vorrichtungen nach Anspruch 16, gekennzeichnet durch Mittel zum Identifizieren einer Zielfläche (15) mit Hilfe des Identifizierens von Bildern, die für Positionen in der Nähe der geschätzten momentanen Position repräsentativ sind, wobei die mehreren Bilder aus der Zielfläche ausgewählt werden.
18. Vorrichtungen nach Anspruch 15, gekennzeichnet durch Mittel zum Aufrechterhalten einer Verriegelung an einem Bild (15) mit einer Verteilung der Merkmale, die für eine Anfangsposition repräsentativ sind, wobei die mehreren Bilder relativ zu dem verriegelten Bild auf der Basis der Disparität zwischen der momentanen Position und der Anfangsposition ausgewählt werden.
19. Vorrichtungen nach Anspruch 15, gekennzeichnet durch Vergleichsmittel zum Aufrechterhalten einer Verriegelung in der momentanen Position, wobei die mehreren Bilder auf der Basis der Verriegelung in der momentanen Position ausgewählt werden.
20. Vorrichtungen nach einem der Ansprüche 14 bis 19, gekennzeichnet durch Mittel zum Aktualisieren der gespeicherten Bilder (15).
21. Vorrichtungen nach einem der Ansprüche 14 bis 20, gekennzeichnet durch Mittel, die auf die bestimmte Position (14) zum Auswählen eines vorprogrammierten Kurses für das Objekt reagieren.
22. Vorrichtungen nach einem der Ansprüche 14 bis 21, gekennzeichnet durch Mittel zum Bestimmen der Geschwindigkeit des Fahrzeugs relativ zu der Oberfläche mit: Vergleichsmitteln (15), die zum Vergleichen einer Verteilung von Merkmalen aus den aufeinander folgenden Bildern angepaßt sind, welche mittels der Aufnahmemittel (12) aufgenommen wurden, um den Disparitätsgrad zwischen den aufeinander folgenden Bildern auf der Basis einer Korrelation der aufeinander folgenden Bilder zu bestimmen; Berechnungsmitteln (14), die zum Berechnen der von dem Fahrzeug zurückgelegten Entfernung auf der Basis des Disparitätsgrads angepaßt sind; und die Divisionsmitteln (14), die zum Dividieren der zurückgelegten Entfernung durch die verstrichene Zeit zwischen den aufeinander folgenden Bildern zum Bestimmen der Geschwindigkeit des Fahrzeugs angepaßt sind.
23. Vorrichtungen nach einem der Ansprüche 14 bis 22, gekennzeichnet durch Mittel zum Bestimmen Radrutschens eines Fahrzeugs relativ zu einer Oberfläche mit Vergleichsmitteln (15), die zum Vergleichen der Verteilung von Merkmalen der aufeinander folgenden Bilder, die mit Hilfe der Bildaufnahmemittel (12) aufgenommen wurden, zum Bestimmen des Disparitätsgrads zwischen den aufeinander folgenden Bildern auf der Basis einer Korrelation der aufeinander folgenden Bilder in einer vorgegebenen Zeitdauer angepaßt sind; Berechnungsmittel (14), die zum Berechnen der von dem Fahrzeug zurückgelegten Entfernung auf der Basis des Disparitätsgards angepaßt sind; Entfernungsbestimmungsmittel (28), die zum unabhängigen Bestimmen der Entfernung, die von dem Fahrzeug erwartungsgemäß zurückgelegt wird, mit Hilfe des Messens einer Drehung eines Rads des Fahrzeugs in der vorgegebenen Zeitdauer angepaßt sind; und Vergleichsmittel (14), die zum Vergleichen der erwartungsgemäß zurückgelegten Entfernung mit der Entfernung angepaßt sind, welche gemäß dem Disparitätsgrad berechnet wurde, um den Umfang des Radrutschens zu bestimmen.
DE69712906T 1996-11-05 1997-11-05 Von der umgebung unabhängiges positionsbestimmungssystem Expired - Lifetime DE69712906T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/744,053 US5999866A (en) 1996-11-05 1996-11-05 Infrastructure independent position determining system
PCT/US1997/019944 WO1998020399A2 (en) 1996-11-05 1997-11-05 Infrastructure independent position determining system

Publications (2)

Publication Number Publication Date
DE69712906D1 DE69712906D1 (de) 2002-07-04
DE69712906T2 true DE69712906T2 (de) 2003-04-24

Family

ID=24991241

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69712906T Expired - Lifetime DE69712906T2 (de) 1996-11-05 1997-11-05 Von der umgebung unabhängiges positionsbestimmungssystem

Country Status (6)

Country Link
US (2) US5999866A (de)
EP (1) EP0937284B1 (de)
AT (1) ATE218221T1 (de)
AU (1) AU5162498A (de)
DE (1) DE69712906T2 (de)
WO (1) WO1998020399A2 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001198A1 (de) * 2004-01-07 2005-08-04 Daimlerchrysler Ag Verfahren zur Überwachung des Lagerzustandes mittels einem sehenden autonomen Transportfahrzeug
DE102014210770A1 (de) * 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
DE102017220291A1 (de) * 2017-11-14 2019-05-16 Robert Bosch Gmbh Verfahren zur automatischen Führung eines Fahrzeugs entlang eines virtuellen Schienensystems
DE102018130720A1 (de) * 2018-12-03 2020-06-04 Ima Schelling Deutschland Gmbh Infrastruktursystem
EP4241252A1 (de) * 2020-11-08 2023-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Extraktion von extraktionsinformation aus einer abtastinformation einer oberfläche zur verwendung mit einer datenbank

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6941199B1 (en) 1998-07-20 2005-09-06 The Procter & Gamble Company Robotic system
US7474760B2 (en) * 1998-10-22 2009-01-06 Trimble Ab Contactless measuring of position and orientation
US6577906B1 (en) * 1999-08-05 2003-06-10 Sandia Corporation Distributed optimization system and method
CA2388870A1 (en) 1999-11-18 2001-05-25 The Procter & Gamble Company Home cleaning robot
SE519435C2 (sv) * 2000-03-21 2003-02-25 Anoto Ab Golv och fordon samt förfarande för att styra ett fordon med hjälp av ett positionskodningsmönster
US6481515B1 (en) 2000-05-30 2002-11-19 The Procter & Gamble Company Autonomous mobile surface treating apparatus
US20020198847A1 (en) * 2001-03-21 2002-12-26 Christer Fahraeus Communications services, methods and systems
WO2002076004A2 (en) * 2001-03-21 2002-09-26 Anoto Ab Communications services, methods and systems
US20020152094A1 (en) * 2001-03-21 2002-10-17 Christer Fahraeus Method and system for supporting infrastructure delivery in a computer network
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
FI111414B (fi) * 2001-05-14 2003-07-15 Sandvik Tamrock Oy Menetelmä ja laitteisto kaivoskoneen aseman määrittämiseksi sen pyörien luistaessa
US6952488B2 (en) * 2001-08-27 2005-10-04 Carnegie Mellon University System and method for object localization
JP2003263104A (ja) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
US6766245B2 (en) * 2002-03-14 2004-07-20 Microsoft Corporation Landmark-based location of users
JP4032793B2 (ja) * 2002-03-27 2008-01-16 ソニー株式会社 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体
WO2003102706A1 (en) * 2002-05-31 2003-12-11 Fujitsu Limited Remotely-operated robot, and robot self position identifying method
US9873442B2 (en) 2002-06-04 2018-01-23 General Electric Company Aerial camera system and method for identifying route-related hazards
US10110795B2 (en) 2002-06-04 2018-10-23 General Electric Company Video system and method for data communication
US11124207B2 (en) 2014-03-18 2021-09-21 Transportation Ip Holdings, Llc Optical route examination system and method
US9919723B2 (en) 2002-06-04 2018-03-20 General Electric Company Aerial camera system and method for determining size parameters of vehicle systems
US20150235094A1 (en) 2014-02-17 2015-08-20 General Electric Company Vehicle imaging system and method
US9875414B2 (en) 2014-04-15 2018-01-23 General Electric Company Route damage prediction system and method
US20080300777A1 (en) * 2002-07-02 2008-12-04 Linda Fehr Computer-controlled power wheelchair navigation system
US6842692B2 (en) * 2002-07-02 2005-01-11 The United States Of America As Represented By The Department Of Veterans Affairs Computer-controlled power wheelchair navigation system
DE10234730A1 (de) * 2002-07-30 2004-02-19 Josef Schreiner Verfahren zur Positionsbestimmung eines Transportfahrzeuges
WO2004018159A1 (ja) * 2002-08-26 2004-03-04 Sony Corporation 環境同定装置及び環境同定方法、並びにロボット装置
AU2003270343A1 (en) 2002-08-30 2004-03-19 Aethon, Inc. Robotic cart pulling vehicle
KR100500842B1 (ko) * 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
US7015831B2 (en) * 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
KR100485696B1 (ko) * 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
AU2003900861A0 (en) * 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
US6923510B2 (en) * 2003-09-17 2005-08-02 Delphi Technologies, Inc. Control of brake-and steer-by-wire systems during brake failure
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US20050222710A1 (en) * 2004-04-06 2005-10-06 Schell Steven E Mechanical arrangement and components for reducing error in deduced reckoning
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
US7499775B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for terrain feature tracking
US7499774B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for processing safety signals in an autonomous vehicle
US8078338B2 (en) * 2004-10-22 2011-12-13 Irobot Corporation System and method for behavior based control of an autonomous vehicle
US7499776B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation Systems and methods for control of an unmanned ground vehicle
DE102005050310A1 (de) * 2004-10-22 2006-06-08 Irobot Corp., Burlington Systeme und Verfahren zum Steuern eines Fahrzeuges
US7499804B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle
US7837958B2 (en) 2004-11-23 2010-11-23 S.C. Johnson & Son, Inc. Device and methods of providing air purification in combination with superficial floor cleaning
EP1828862A2 (de) * 2004-12-14 2007-09-05 Sky-Trax Incorporated Verfahren und vorrichtung zur bestimmung von position und drehorientierung eines objekts
US7191056B2 (en) * 2005-01-04 2007-03-13 The Boeing Company Precision landmark-aided navigation
GB0503392D0 (en) * 2005-02-18 2005-03-23 King S College London Vehicle location
US7389166B2 (en) * 2005-06-28 2008-06-17 S.C. Johnson & Son, Inc. Methods to prevent wheel slip in an autonomous floor cleaner
US7996109B2 (en) 2005-10-14 2011-08-09 Aethon, Inc. Robotic ordering and delivery apparatuses, systems and methods
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US8335670B2 (en) * 2006-03-17 2012-12-18 Canberra Industries, Inc. Probabilistic uncertainty estimator
US8666711B2 (en) 2006-03-17 2014-03-04 Canberra Industries, Inc. Radiation analysis system and method
JP5132138B2 (ja) * 2006-11-28 2013-01-30 キヤノン株式会社 位置姿勢計測方法、位置姿勢計測装置
US7826969B2 (en) * 2006-12-21 2010-11-02 Deere & Company Determining position of a vehicle with reference to a landmark
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
EP1972893A1 (de) * 2007-03-21 2008-09-24 Universiteit Gent Anordnung und Verfahren zur Positionsbestimmung
US8351684B2 (en) * 2008-02-13 2013-01-08 Caterpillar Inc. Terrain map updating system
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
SE532430C2 (sv) * 2008-05-30 2010-01-19 Atlas Copco Rock Drills Ab Metod och anordning för bestämning av tillförlitligheten av en estimerad position för en gruv- och/eller anläggningsmaskin
AT509118B1 (de) * 2008-07-16 2011-12-15 Zeno Track Gmbh Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
US8364334B2 (en) * 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8237389B2 (en) * 2008-11-12 2012-08-07 Irobot Corporation Multi mode safety control module
US8031086B2 (en) * 2008-12-10 2011-10-04 Deere & Company Method and system for determining a position of a vehicle
US8774970B2 (en) 2009-06-11 2014-07-08 S.C. Johnson & Son, Inc. Trainable multi-mode floor cleaning device
US20140379254A1 (en) * 2009-08-25 2014-12-25 Tomtom Global Content B.V. Positioning system and method for use in a vehicle navigation system
DE102010029241A1 (de) * 2010-05-21 2011-11-24 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zur Bearbeitung einer Bodenfläche
EP2619742B1 (de) 2010-09-24 2018-02-28 iRobot Corporation Systeme und verfahren zur vslam-optimierung
CN107272678B (zh) 2011-04-11 2020-11-06 克朗设备公司 使用经协调路径规划器有效调度多个自动非完整车辆的方法和设备
US20130016584A1 (en) * 2011-07-15 2013-01-17 Teledyne Scientific & Imaging Llc Methods and apparatus for obtaining sensor motion and position data from underwater acoustic signals
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
JP5494597B2 (ja) * 2011-09-16 2014-05-14 株式会社安川電機 ロボットシステム
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
DE102011115354B4 (de) * 2011-10-07 2017-01-05 Telejet Kommunikations Gmbh Navigation anhand von zufälligen Mustern
GB201202344D0 (en) * 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
GB2501466A (en) 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
CA2948519C (en) 2012-06-08 2019-05-28 Irobot Corporation Carpet drift estimation using differential sensors or visual measurements
US8949024B2 (en) * 2012-10-25 2015-02-03 Massachusetts Institute Of Technology Vehicle localization using surface penetrating radar
EP2917849A4 (de) * 2012-11-12 2016-08-17 Canberra Ind Inc Strahlungsanalysesystem und verfahren
JP5874618B2 (ja) * 2012-12-05 2016-03-02 トヨタ自動車株式会社 移動体装置
US9541420B2 (en) * 2013-04-03 2017-01-10 Caterpillar Inc. System for determining error in a sensed machine position
US9488483B2 (en) 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
JP2015055534A (ja) * 2013-09-11 2015-03-23 株式会社リコー 情報処理装置、情報処理装置の制御プログラム及び情報処理装置の制御方法
DE102013020851A1 (de) * 2013-12-12 2015-06-18 Grenzebach Maschinenbau Gmbh Fahrerloses Transportfahrzeug für den Transport schwerer Lasten auf Lafetten und Verfahren zum Betrieb des Transportfahrzeugs
GB201407643D0 (en) 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
CN104083258B (zh) * 2014-06-17 2016-10-05 华南理工大学 一种基于脑机接口与自动驾驶技术的智能轮椅控制方法
JP6899369B2 (ja) 2015-08-03 2021-07-07 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
US9937625B2 (en) * 2015-12-29 2018-04-10 The Boeing Company Self-locating robots
GB201612528D0 (en) 2016-07-19 2016-08-31 Machines With Vision Ltd Vehicle localisation using the ground or road surface
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10678240B2 (en) 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10520904B2 (en) 2016-09-08 2019-12-31 Mentor Graphics Corporation Event classification and object tracking
US10444347B2 (en) * 2016-11-30 2019-10-15 GM Global Technology Operations LLC Accurate self localization using automotive radar synthetic aperture radar
US10725171B2 (en) 2017-01-27 2020-07-28 Massachusetts Institute Of Technology Method and system for localization of a vehicle using surface penetrating radar
US10990829B2 (en) * 2017-04-28 2021-04-27 Micro Focus Llc Stitching maps generated using simultaneous localization and mapping
US10884409B2 (en) 2017-05-01 2021-01-05 Mentor Graphics (Deutschland) Gmbh Training of machine learning sensor data classification system
US10638906B2 (en) * 2017-12-15 2020-05-05 Neato Robotics, Inc. Conversion of cleaning robot camera images to floorplan for user interaction
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
DE102018221142A1 (de) * 2018-12-06 2020-06-10 Robert Bosch Gmbh Lokalisierung in komplexen Verkehrsszenarien durch Markierungen
US10890918B2 (en) 2019-04-24 2021-01-12 Innovation First, Inc. Performance arena for robots with position location system
US11579286B2 (en) * 2019-09-13 2023-02-14 Wavesense, Inc. Navigation and localization using surface-penetrating radar and deep learning
DE102020201501A1 (de) 2020-02-07 2021-08-12 Zf Friedrichshafen Ag Verfahren zur Positionsbestimmung eines Fahrzeugs beim Erstellen einer Umgebungskarte
US20210353804A1 (en) * 2020-05-14 2021-11-18 Pratt & Miller Engineering and Fabrication, Inc. Large area autonomous disinfectant/decontamination vehicle

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3788201A (en) * 1970-12-14 1974-01-29 F Abell Method for establishing vehicle identification, speed and conditions of visibility
SE423840B (sv) * 1980-10-02 1982-06-07 Volvo Ab Sett att vid ett med dod rekning styrt hjulfordon anordna en uppdatering
JPS5975357A (ja) * 1982-10-22 1984-04-28 Hitachi Ltd 画像処理装置
GB8313338D0 (en) * 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle control
GB8313339D0 (en) * 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle guidance
GB8501012D0 (en) * 1985-01-16 1985-02-20 Gen Electric Co Plc Automated vehicle drift correction
JPS61183716A (ja) * 1985-02-08 1986-08-16 Hitachi Ltd 誘導装置
NL8500529A (nl) * 1985-02-25 1986-09-16 Ind Contractors Holland Bv Stelsel voor het bepalen van de positie van een niet aan een vaste baan gebonden voertuig.
JPS63314618A (ja) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd 自律走行車両制御装置
US4965499A (en) * 1987-12-31 1990-10-23 Westinghouse Electric Corp Parametric path modeling for an optical automatic seam tracker and real time robotic control system
GB2218538B (en) * 1988-05-13 1992-09-16 Gen Electric Co Plc Automated vehicle control
US5144685A (en) * 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
JPH0324606A (ja) * 1989-06-22 1991-02-01 Yutaka Kanayama 移動ロボットの経路指定方法
US5067081A (en) * 1989-08-30 1991-11-19 Person Carl E Portable electronic navigation aid
JP2669074B2 (ja) * 1989-09-27 1997-10-27 日産自動車株式会社 自律走行車両の車速感応操舵制御装置
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
JPH04227507A (ja) * 1990-07-02 1992-08-17 Nec Corp 移動ロボット用のマップを作成し保持する方法
JP2792210B2 (ja) * 1990-07-03 1998-09-03 富士電機株式会社 無人搬送車の制御方法および制御装置
JP2623157B2 (ja) * 1990-07-13 1997-06-25 株式会社イセキ開発工機 移動物体の操縦装置
NL9001810A (nl) * 1990-08-13 1992-03-02 Philips Nv Werkwijze voor de positiebepaling van een voertuig, inrichting voor de positiebepaling van een voertuig, alsmede voertuig voorzien van de inrichting.
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
DE4138270C2 (de) * 1991-11-21 1996-10-02 Rheinmetall Ind Gmbh Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs
JP3176701B2 (ja) * 1992-04-15 2001-06-18 本田技研工業株式会社 移動体の現在位置認識処理装置
US5436839A (en) * 1992-10-26 1995-07-25 Martin Marietta Corporation Navigation module for a semi-autonomous vehicle
US5369589A (en) * 1993-09-15 1994-11-29 Trimble Navigation Limited Plural information display for navigation
TW268099B (de) * 1994-05-02 1996-01-11 Ghneral Electric Co
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
IT1271241B (it) * 1994-10-04 1997-05-27 Consorzio Telerobot Sistema di navigazione per robot mobile autonomo
JPH08314540A (ja) * 1995-03-14 1996-11-29 Toyota Motor Corp 車両走行誘導システム
US6047234A (en) * 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001198A1 (de) * 2004-01-07 2005-08-04 Daimlerchrysler Ag Verfahren zur Überwachung des Lagerzustandes mittels einem sehenden autonomen Transportfahrzeug
DE102014210770A1 (de) * 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
US10955854B2 (en) 2014-06-05 2021-03-23 Conti Temic Microelectronic Gmbh Method and system for determining the position of a vehicle
DE102017220291A1 (de) * 2017-11-14 2019-05-16 Robert Bosch Gmbh Verfahren zur automatischen Führung eines Fahrzeugs entlang eines virtuellen Schienensystems
DE102018130720A1 (de) * 2018-12-03 2020-06-04 Ima Schelling Deutschland Gmbh Infrastruktursystem
WO2020114916A1 (de) 2018-12-03 2020-06-11 Ima Schelling Deutschland Gmbh Infrastruktursystem
EP4241252A1 (de) * 2020-11-08 2023-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Extraktion von extraktionsinformation aus einer abtastinformation einer oberfläche zur verwendung mit einer datenbank

Also Published As

Publication number Publication date
WO1998020399A2 (en) 1998-05-14
AU5162498A (en) 1998-05-29
US5999866A (en) 1999-12-07
EP0937284A2 (de) 1999-08-25
US6453223B1 (en) 2002-09-17
EP0937284B1 (de) 2002-05-29
DE69712906D1 (de) 2002-07-04
ATE218221T1 (de) 2002-06-15
WO1998020399A3 (en) 1998-06-25

Similar Documents

Publication Publication Date Title
DE69712906T2 (de) Von der umgebung unabhängiges positionsbestimmungssystem
DE4408328C2 (de) Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
EP3659001B1 (de) Magnetometer für die roboternavigation
EP1664674B1 (de) Verfahren und system zur bestimmung der aktualposition eines handhaltbaren messgerätes im raum
DE3686213T2 (de) Navigationseinrichtung.
EP0766846B1 (de) Verfahren zur orientierung, fahrwegplanung und steuerung einer autonomen mobilen einheit
EP0541567B1 (de) Verfahren zur analyse zeitlicher folgen digitaler bilder
DE3787003T2 (de) Lenkvorrichtung für sich unbemannt bewegende körper.
DE60208164T2 (de) Verfahren und einrichtung zur bestimmung der position einer autonomen vorrichtung
DE3741259A1 (de) Verfahren und vorrichtung zur autonomen steuerung eines fahrzeuges
DE102005014648A1 (de) Kompensationsverfahren eines Gyro-Sensors für Reinigungsroboter
WO2008058788A1 (de) Verfahren zur bildbasierten vermessung
EP0779998B1 (de) Verfahren zur bestimmung der position einer landmarke in der umgebungskarte einer selbstbeweglichen einheit, deren abstand zur einheit dynamisch von dieser ermittelt wird
EP2191340A2 (de) Anordnung zum erfassen einer umgebung
DE4324531C1 (de) Verfahren zur Erstellung einer Umgebungskarte und zur Bestimmung einer Eigenposition in der Umgebung durch eine selbstbewegliche Einheit
EP3938734A1 (de) Verfahren, vorrichtung und system zur navigation autonomer fahrzeuge
AT509118A1 (de) Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich
DE102023107422A1 (de) Verbesserte navigation, lokalisierung und bahnplanung für autonome roboter
DE102022208937A1 (de) Verfahren zur Nickwinkelfehler- und zur Gierwinkelfehlerkompensation bei einer Geländehöhenmessung mit einem LiDAR-Sensorsystem
EP2193331A1 (de) Verfahren und sensoranordnung zur vermessung optischer merkmale
DE102016222664A1 (de) Verfahren zur Installation eines Lokalisierungssystems
DE102019214008A1 (de) Verfahren und Vorrichtung zur Lokalisierung eines mobilen Agenten in einer Umgebung mit dynamischen Objekten
WO2019219356A1 (de) Verfahren und positionierungssvstem zum transformieren einer position eines fahrzeugs
Klöör et al. Change detection in natural scenes using laser range measurements from a mobile robot

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication related to discontinuation of the patent is to be deleted
8364 No opposition during term of opposition