DE102007043534A1 - Anordnung zum Erfassen einer Umgebung - Google Patents

Anordnung zum Erfassen einer Umgebung Download PDF

Info

Publication number
DE102007043534A1
DE102007043534A1 DE102007043534A DE102007043534A DE102007043534A1 DE 102007043534 A1 DE102007043534 A1 DE 102007043534A1 DE 102007043534 A DE102007043534 A DE 102007043534A DE 102007043534 A DE102007043534 A DE 102007043534A DE 102007043534 A1 DE102007043534 A1 DE 102007043534A1
Authority
DE
Germany
Prior art keywords
arrangement
environment
sensor
orientation
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007043534A
Other languages
English (en)
Inventor
Wolfgang Niem
Wolfgang Niehsen
Ulrich-Lorenz Benzler
Jochen Wingbermuehle
Henning Von Zitzewitz
Anke Knoeppler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102007043534A priority Critical patent/DE102007043534A1/de
Priority to PCT/EP2008/061055 priority patent/WO2009033935A2/de
Priority to CN200880106659A priority patent/CN101802738A/zh
Priority to EP08803175A priority patent/EP2191340A2/de
Priority to US12/677,636 priority patent/US20100265327A1/en
Publication of DE102007043534A1 publication Critical patent/DE102007043534A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

Die Erfindung betrifft eine Anordnung (2), die dazu ausgebildet ist, eine Umgebung für eine bewegliche Vorrichtung (4) zu erfassen, und die mindestens einen Sensor (6) zum visuellen Erfassen der Umgebung sowie jeweils mindestens einen Sensor (8, 10) zum Erfassen der Bewegungsrichtung und der Orientierung der Vorrichtung (4) aufweist, wobei die Anordnung (2) dazu ausgebildet ist, Informationen, die von den Sensoren (6, 8, 10) bereitgestellt werden, zu verarbeiten. Die Erfindung betrifft außerdem ein Verfahren, mit dem eine Umgebung für eine bewegliche Vorrichtung (4) erfasst wird.

Description

  • Die Erfindung betrifft eine Anordnung zum Erfassen einer Umgebung, ein Verfahren zum Erfassen einer Umgebung, ein Computerprogramm und ein Computerprogrammprodukt.
  • Stand der Technik
  • Ein Erfassen einer Umgebung ist hier typischerweise für eine mobile Vorrichtung, die sich in der Umgebung bewegt, vorgesehen. Die erfasste Umgebung kann u. a. kartographisch abgebildet werden, so dass sich eine derartige Vorrichtung in der Umgebung selbsttätig bewegen kann.
  • Ein System und ein Verfahren zur simultanen visuellen Ortung und Abbildung sind aus der Druckschrift WO 2004/059900 A2 bekannt. Hierbei werden ein visueller Sensor sowie ein Sensor zur Durchführung einer Koppelnavigation (dead reckoning) benutzt, um eine simultane Ortung und Abbildung durchzuführen. Eine derartige Technik kann zur Navigation von Robotern benutzt werden. Weiterhin ist es möglich, eine Landkarte autonom zu generieren und zu erweitern. Hierbei ist in erster Linie vorgesehen, Merkmale für eine Landschaft, die in einer entsprechenden Datenbank vorliegen, mit optisch bereitgestellten Abbildungen dieser Landschaft zu vergleichen und zuzuordnen. Unter Nutzung der Koppelnavigation werden mindestens zwei bereitgestellte Bilder der Landschaft ausgewählt und deren Landschaftsmerkmale identifiziert. Außerdem werden Ortskoordinaten dieser Landschaftsmerkmale bestimmt. Nachfolgend werden die Ortskoordinaten derart mit dem Landschaftsmerkmal verbunden, dass somit eine Navigation möglich ist.
  • Offenbarung der Erfindung
  • Die erfindungsgemäße Anordnung ist dazu ausgebildet, eine Umgebung für eine bewegliche Vorrichtung zu erfassen. Dabei weist diese Anordnung mindestens einen Sensor zum visuellen Erfassen der Umgebung sowie jeweils mindestens einen Sensor zum Erfassen der Bewegungsrichtung und der Orientierung der Vorrichtung auf. Weiterhin ist die Anordnung dazu ausgebildet, Informationen, die von den Sensoren bereitgestellt werden, zu verarbeiten.
  • Diese Anordnung bzw. eine entsprechende Einrichtung ist bspw. für eine autonome und/oder automatische Vorrichtung geeignet, die sich selbsttätig und somit unabhängig in der Umgebung oder in einer Landschaft bewegt. Derartige bewegliche oder mobile Vorrichtungen können als Roboter ausgebildet sein. Allerdings kann als die bewegliche Vorrichtung bspw. auch ein Teil eines Roboters, bspw. ein Roboterarm, vorgesehen sein.
  • In Ausgestaltung ist vorgesehen, dass die Anordnung mit der beweglichen Vorrichtung verbunden ist. Dabei kann zwischen der Anordnung und der Vorrichtung ein Austausch von Informationen sowie Daten erfolgen. Weiterhin ist insbesondere vorgesehen, dass die Anordnung dieselben Bewegungen wie die Vorrichtung durchführt. Demnach kann die Anordnung mit der Vorrichtung derart zusammenwirken, dass die Anordnung oder zumindest einzelne Komponenten der Anordnung, insbesondere die Sensoren, in, an oder auf der Vorrichtung angeordnet sind.
  • Da die Anordnung die Umgebung der beweglichen Vorrichtung erfasst, wird von der Anordnung für die bewegliche Vorrichtung eine Ortsbestimmung und/oder eine Abbildung bzw. Kartierung der Umgebung, in der sich die Vorrichtung bewegt, durchgeführt. Somit ergibt sich u. a., dass mittels der Anordnung für die mobile Vorrichtung eine Karte der Umgebung bereitgestellt wird. Daten zu einer derartigen Karte können mit einem geeigneten Speicher, der der Anordnung und/oder der Vorrichtung zugeordnet sein kann, gespeichert werden. Mit den gespeicherten Daten zu der erfassten Umgebung ist es u. a. möglich, Bewegungen oder Bewegungsabläufe der Vorrichtung innerhalb der Umgebung zu kontrollieren und somit zu regeln und/oder zu steuern. Mittels der Daten zu der erfassten Umgebung ist eine Orientierung und/oder Navigation der Vorrichtung in der Umgebung möglich. Bei einer Erfassung der Umgebung werden in der Regel sämtliche räumliche Eigenschaften der Umgebung inklusive eines Vorhandenseins von Merkmalen, bspw. Landschaftsmerkmalen, die ggf. auch als Hindernisse ausgebildet sein können, berücksichtigt.
  • In einer Ausführungsform der Erfindung ist der mindestens eine Sensor, der zur Erfassung der vorzugsweise vektoriellen Orientierung bzw. Ausrichtung der beweglichen Vorrichtung im Raum vorgesehen ist, dazu ausgebildet, Informationen von einer von der Vorrichtung unabhängigen, typischerweise globalen Referenz bereitzustellen. Demnach erfasst der Sensor oder ein entsprechendes Modul zur Erfassung der Orientierung Informationen zu der Vorrichtung, die von der globalen Referenz, die hinsichtlich einer Erfassung der beweglichen Vorrichtung übergeordnet ist, bereitgestellt werden.
  • Hierbei kann der Sensor zur Erfassung der Orientierung als Kompass ausgebildet sein. Mit einem Kompass ist es möglich festzustellen, in welche Richtung die Vorrichtung orientiert ist und/oder sich bewegt. In diesem Fall ist vorgesehen, dass als unabhängige, globale Referenz das Erdmagnetfeld vorgesehen ist. In der Regel wird die vektorielle Orientierung der Vorrichtung durch zwei Bezugspunkte oder eine vorgegebene Richtungslinie, wie im Fall des Erdmagnetfelds, festgelegt.
  • Alternativ oder ergänzend kann die Einrichtung insbesondere mindestens einen als GPS-Modul ausgebildeten Sensor zur Erfassung der Position und/oder der Richtung der Vorrichtung aufweisen, das von dem satellitengestützten Global Positioning System (Globales Positionierungssystem) einen Aufenthaltsort der Vorrichtung bestimmt.
  • Es sind jedoch auch weitere globale Referenzen denkbar, nach denen sich der mindestens eine Sensor zur Erfassung der Orientierung richtet bzw. orientiert. So kann bspw. eine Ortung auch über ein Mobilfunknetz erfolgen.
  • Demnach kann die Einrichtung bspw. auch zwei voneinander beabstandete Sensoren zur Positionsbestimmung aufweisen, die jeweils eine Position auf Grundlage von GPS erfassen und somit als GPS-Module ausgebildet. sind. Allerdings ist eine aus zwei derart gemessenen Positionen abgeleitete Orientierung ungenau, da die beiden als GPS-Module ausgebildeten Sensoren typischerweise einen geringen Abstand aufweisen, so das eine genaue Differenzierung der erfassten Positionen schwierig ist. Demnach ist im Rahmen der Erfindung vorgesehen, dass die Orientierung und somit die Richtung der Vorrichtung bspw. auf Grundlage eines einfach messbaren Feldes, wie dem Erdmagnetfeld, oder üblicherweise einer globalen Referenz, die eine zweidimensionale, richtungsweisende Information zu einer räumlichen Richtung bereitstellt, zu nutzen. So ist es auch denkbar, dass die räumliche Orientierung auf Grundlage von mindestens zwei Bezugspunkten erfolgt. Im Fall des Erdmagnetfeldes oder eines beliebigen anderen statischen oder determiniert dynamischen Feldes sind die mindestens zwei Bezugspunkte durch Feldlinien miteinander verbunden.
  • Allerdings kann es in Ausgestaltung vorgesehen sein, dass die Anordnung ergänzend mindestens einen GPS-Sensor bzw. ein GPS-Modul aufweist. Mit einem derartigen GPS-Sensor, der somit eine Funktion als ein Sensor zur Erfassung einer Richtung der beweglichen Vorrichtung übernimmt, kann den Kompass ergänzen. Ein derartiger Einsatz eines GPS-Sensors bietet sich an, falls das durch den Kompass zu erfassende Erdmagnetfeld durch andere, externe elektromagnetische Felder gestört sein sollte. In diesem Fall kann der GPS-Sensor die Funktion des Kompass unterstützen oder ersetzen. Insbesondere wenn sich die Vorrichtung bewegt, können mit dem GPS-Sensor in zeitlicher Abfolge mehrere Positionen bestimmt und somit eine Richtung der Bewegung erfasst werden.
  • Über den mindestens einen Sensor zur Erfassung der Orientierung, der als Kompass ausgebildet ist, kann üblicherweise über eine reine Bestimmung des Orts hinaus auch eine Orientierung bzw. Ausrichtung im Raum für die bewegliche Vorrichtung bereitgestellt werden.
  • Insgesamt kann die Einrichtung in einer Variante mindestens einen Sensor zur Erfassung einer Pose und somit zur Erfassung der Orientierung bzw. Richtung und/oder der Position der Vorrichtung im Raum aufweisen.
  • Weiterhin kann vorgesehen sein, dass die Anordnung auch eine Verarbeitungseinheit aufweist, wobei eine derartige Verarbeitungseinheit mit den beschriebenen Sensoren derart zusammenwirkt, dass diese Verarbeitungseinheit von den Sensoren bereitgestellte Informationen kombiniert, d. h. zeitgleich und/oder im Zusammenhang zusammenfassend, verarbeitet. Zudem kann eine derartige Verarbeitungseinheit den bereits beschriebenen Speicher aufweisen oder mit einem derartigen Speicher zumindest zusammenwirken.
  • Die Erfindung betrifft auch ein Verfahren, mit dem eine Umgebung für eine bewegliche Vorrichtung erfasst wird, wobei bei diesem Verfahren visuelle Informationen zu der Umgebung und weiterhin Informationen zu der Bewegungsrichtung und der Orientierung der Vorrichtung erfasst werden, wobei die erfassten Informationen verarbeitet werden.
  • Bezüglich einer Variante des Verfahrens werden die erfassten Informationen gemeinsam verarbeitet. Über die visuellen Informationen werden hierbei Abbildungen, üblicherweise Videoaufnahmen oder Fotografien, der Umgebung bereitgestellt. Diese Informationen werden mit den weiteren Informationen zu der Bewegungsrichtung der Vorrichtung sowie den Informationen zu der Orientierung der Vorrichtung gemeinsam verarbeitet.
  • Durch das Verfahren ergibt sich u. a., dass eine visuelle Ortsbestimmung und/oder eine Kartierung der Umgebung, in der sich die Vorrichtung bewegt, durchgeführt werden kann. Dies kann weiterhin bedeuten, dass auf Grundlage einer Bewegung der Vorrichtung in der Umgebung Positionen von Merkmalen der Umgebung, bspw. Landschaftsmarken, falls die Umgebung als Landschaft ausgebildet sein sollte, bestimmt werden. Somit ist es möglich, mit dem Verfahren eine visuelle Ortung durchzuführen.
  • Durch Kombination der von dem visuellen Sensor bereitgestellten visuellen Informationen sowie der Informationen zu der Bewegungsrichtung, die von dem mindestens einen Sensor zum Erfassen der Bewegungsrichtung, sowie den Informationen zu der Orientierung, die von dem mindestens einen Sensor zum Erfassen der Orientierung bereitgestellt werden, wobei die erfassten Informationen miteinander verknüpft werden, ist eine Zuordnung von visuellen Abbildungen der Landschaft zu einer Pose, in der Regel der Orientierung und/oder der Position der Vorrichtung, möglich. Dies bedeutet weiterhin, dass je nach geeigneter Wahl eines räumlichen Bezugssystems auch eine Pose eines Merkmals der Umgebung erfasst werden kann. Mit dem mindestens einen visuellen Sensor können neben qualitativen Eigenschaften der Umgebung, die eine Struktur und somit eine Anordnung von Merkmalen in der Umgebung betreffen, auch quantitative Eigenschaften, d. h. Abstände und somit Positionen, erfasst werden. Somit wird mit dem mindestens einen visuellen Sensor die Umgebung bzw. Landschaft identifiziert. Mit dem Sensor zum Erfassen der Bewegungsrichtung bzw. der Trägheit und/oder des Moments ist eine dreidimensionale Bestimmung der Bewegung der mobilen Vorrichtung möglich. Außerdem ist mit den Informationen zu der Bewegungsrichtung eine Unterstützung der visualisierten Ortung durchführbar.
  • Bei einer Auswertung der durch die Sensoren erfassten Informationen kann bspw. ein Algorithmus zur wahrscheinlichkeitsbasierten Ortung und Abbildung verwendet werden, wobei u. a. geeignete Abschätzungen erfolgen. Unter Nutzung optimierender und/oder iterativer Verfahren können die erfassten Informationen insbesondere durch die Verarbeitungseinheit aneinander angepasst werden, so dass eine schlüssige bzw. widerspruchsfreie und im Detail hoch auflösende Abbildung und somit Kartierung der Umgebung möglich ist.
  • Es ist vorgesehen, dass sämtliche Schritte des erfindungsgemäßen Verfahrens durch die erfindungsgemäße Anordnung oder zumindest einzelne Module der erfindungsgemäßen Anordnung durchführbar sind. Weiterhin können einzelne Funktionen der Anordnung oder zumindest von einzelnen Komponenten der Anordnung auch als Schritte des erfindungsgemäßen Verfahrens realisiert werden.
  • Die Erfindung betrifft weiterhin ein Computerprogramm mit Programmcodemitteln, um alle Schritte eines erfindungsgemäßen Verfahrens durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere in einer erfindungsgemäßen Anordnung, ausgeführt wird.
  • Das erfindungsgemäße Computerprogramm mit Programmcodemitteln, die auf einem computerlesbaren Datenträger gespeichert sind, ist zum Durchführen aller Schritte eines erfindungsgemäßen Verfahrens ausgebildet, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere in einer erfindungsgemäßen Anordnung, ausgeführt wird.
  • In Ausgestaltung kann das vorliegende Verfahren zum Erfassen der Umgebung zur visuellen Ortung und Abbildung genutzt werden. Derartige Techniken zur Abbildung und Ortung können auf dem Gebiet des Movie Camera Tracking und der mobilen Roboternavigation, bspw. zur Bereitstellung einer Struktur einer Bewegung einer sog. simultanen Lokalisierung und Abbildung (Simultanious Localisation and Mapping, SLAM), zur Bilddatenbankortung usw. verwendet werden. Hierbei kann mindestens eine Kamera, insbesondere eine perspektivische Kamera, als der zumindest eine visuelle Sensor zum optischen Erfassen von Merkmalen der Umgebung oder Landmarken in der Umgebung der beweglichen und somit mobilen Vorrichtung eingesetzt werden.
  • Bei bekannten Vorgehensweisen erfolgt typischerweise eine Kombination eines optischen Sensors mit Sensoren zur Koppelnavigation, wie Odometern oder Pedometern, über die eine zurückgelegte Strecke bestimmt werden kann, um die visuell bereitgestellten Informationen zu stabilisieren und ggf. zu verbessern. Allerdings sind derartige Vorgehensweisen ungenau. Bei bekannten Vorgehensweisen kommt es hierbei jedoch immer zu einer Anhäufung von Fehlern (Drift) da eine Resynchronisierung zur Ortung unter Berücksichtigung einer globalen, externen Referenz nicht möglich ist.
  • Mit der vorliegenden Erfindung ist nunmehr eine genaue Ortung in Abhängigkeit der Zeit und/oder einer Strecke, die die bewegliche Vorrichtung zurückgelegt hat, möglich.
  • Eine derartige Ortung kann in Ausgestaltung der vorliegenden Erfindung durch die Sensoren zum Erfassen der Orientierung und/oder Positionierung der Vorrichtung berücksichtigt werden. Dies bedeutet, dass durch Berücksichtigung der externen, d. h. außerhalb der Vorrichtung angeordnete und somit von der Vorrichtung unabhängigen Referenz eine sog. Pose der mobilen Vorrichtung im dreidimensionalem Raum bestimmt werden kann. Dabei wird nach DIN EN ISO 8373 als Pose eine Kombination von Position und/oder Orientierung bezeichnet.
  • Im Rahmen der Erfindung ist es unter anderem vorgesehen, dass durch Kombination eines Weitfeldsichtsensors als visueller Sensor, bspw. eine sog. Fischaugenkamera, eine Panoramakamera oder eine sog. Omnicam, mit dem mindestens einen Sensor zur Bestimmung der Bewegungsrichtung, bspw. einem Trägheitssensor, und insbesondere dem Kompasssystem als Sensor zur Orientierung als Komponenten der Anordnung ein visuelles Ortungsmodul für die mobile Vorrichtung bereitgestellt wird, wobei die Anordnung nur eine geringe Fehleranhäufung zulässt, jedoch eine hohe Genauigkeit bezüglich der Ortung ermöglicht.
  • In Ausgestaltung umfasst die Anordnung zur visuellen Ortung mindestens einen Weitfeldsichtungssensor als visuellen Sensor, mit dem es möglich ist, Merkmale oder Landschaftsmarken der Umgebung über einen langen Zeitraum und/oder eine große Distanz optisch zu erfassen. Somit kann eine große Anzahl prägnanter Merkmale oder Landmarken als Referenz zur Ortung benutzt werden. Dies ist insbesondere dann der Fall, falls neue Merkmale in dem Abbildungsprozess eingefügt werden, wie es bspw. bei einem sog. SLAM (Simultanious Localisation and Mapping) der Fall ist.
  • Eine Genauigkeit der Ortung der Anordnung bzw. eines Systems zur visuellen Ortung kann durch Integration von Sensoren zur Koppelnavigation (dead reckoning) verbessert werden. Hierzu können bspw. Odometer oder Pedometer zum Abschätzen einer Bewegung oder einer zurückgelegten Strecke eines beweglichen Objekts benutzt werden.
  • Bei der vorliegenden Erfindung ist jedoch vorgesehen, dass nunmehr hierfür vorrangig Sensoren zum Bestimmen der Bewegungsrichtung benutzt werden, da diese auch für Vorrichtungen geeignet sind, die keine Räder oder Beine aufweisen. Weiterhin werden Sensoren zur Bestimmung der Bewegungsrichtung bei einem Einsatz beräderter Vorrichtungen bspw. in freier Umgebung nicht durch ein Schlüpfen oder Durchdrehen der Räder beeinflusst. Da Odometer oder Pedometer typischerweise mit Rädern und Beinen zusammenwirken, sind derartige Sensoren für Ungenauigkeiten im Bewegungsablauf besonders anfällig. Deshalb werden derartige Sensoren in Ausgestaltung der Einrichtung üblicherweise nur als ergänzende Hilfsmittel benutzt. Bei alleiniger Nutzung von Odometern oder Pedometern besteht die Gefahr, dass falsche Informationen bezüglich der rückgelegten Strecke bereitgestellt werden. Außerdem können über Sensoren zur Bestimmung der Bewegungsrichtung Informationen über eine Bewegung in allen drei Raumrichtungen erfasst werden, wohingegen Odometer oder Pedometer lediglich Informationen über eine Bewegung in einer Ebene liefern.
  • Ein Nachteil bei bekannten Systemen zur Ortung und Abbildung ist, dass diese in der Regel unfähig sind, eine Rückkehr zu einem bereits aufgesuchten Ort zu erkennen. Dies kann hauptsächlich durch eine Anhäufung von Fehlern bei der Abschätzung einer Bewegungsrichtung eines beweglichen Moduls erfolgen. Bei der vorliegenden Erfindung ist diesbezüglich unter anderem vorgesehen, dass unter Berücksichtigung des externen Referenzsystems, was mittels des mindestens einen Sensors zur Orientierung und ggf. zur Positionierung erfolgt, eine ortsbestimmende Synchronisierung der Anordnung und somit der Vorrichtung möglich ist. Hierzu ist in einer Ausgestaltung als Sensor zur Orientierung und weiterhin zur Positionierung der Kompass oder ein Kompassystem vorgesehen, um eine Anhäufung von Fehlern bei einer Bestimmung einer Bewegungsrichtung durch Synchronisation der abgeschätzten bzw. berechneten Richtung über das globale Referenzsystem, bspw. das Erdmagnetfeld, bei Nutzung eines Magnetkompasses zu verhindern. Als Sensor zur Ortsbestimmung bzw. Position kann ergänzend auch ein ortsbestimmendes GPS-Modul, das das satellitengestützte globale Positionierungssystem (GPS) als globale Referenz nutzt, herangezogen werden.
  • Vorrichtungen, für die die Anordnung und/oder das Verfahren geeignet sind, weisen typischerweise Fortbewegungsmittel auf, mit denen sich derartige Vorrichtungen in der Umgebung bewegen können. Diese Fortbewegungsmittel können als Räder, Raupen- bzw. Gleisketten oder Beine ausgebildet sein.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.
  • Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Die Erfindung ist anhand eines Ausführungsbeispiels in der Zeichnung schematisch dargestellt und wird im folgenden unter Bezugnahme auf die Zeichnung ausführlich beschrieben.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt eine Ausführungsform einer erfindungsgemäßen Anordnung, die als ein Bestandteil einer beweglichen Vorrichtung ausgebildet ist, in schematischer Darstellung.
  • Ausführungsform der Erfindung
  • Eine in 1 schematisch dargestellte Ausführungsform der Anordnung 2 ist als eine Komponente einer beweglichen Vorrichtung 4, die hier gestrichelt dargestellt ist, ausgebildet. Dabei umfasst die Anordnung 4 eine Weitfeldsichtkamera, die als visueller bzw. optischer Sensor 6 vorgesehen ist, einen Sensor 8 zur Bestimmung einer Bewegungsrichtung der Vorrichtung 4, einen als Kompass ausgebildeten Sensor 10 zur Bestimmung der Orientierung der Vorrichtung 4 sowie eine Verarbeitungseinheit 12, die zur Fusion von Daten zur visuellen Ortung und Abbildung im Rahmen einer Erfassung der Umgebung, in der sich die Vorrichtung 4 bewegt, ausgebildet ist.
  • Die Anordnung 2 zur visuellen Lokalisierung ist dazu ausgebildet, Informationen, die von dem visuellen Sensor 6 bereitgestellt werden, zur Identifizierung von Merkmalen der Landschaft und somit auch von Landmarken, wie im Rahmen einer Vorgehensweise zur Ortung vorgesehen sind, zu nutzen. Dabei verfügt der hier vorgesehene visuelle Sensor 6 die Fähigkeit, einmal erfasste Merkmale wiederzuerkennen, so dass es möglich ist, dass diese Merkmale bei einer weiteren, zukünftigen Erfassung korrekt identifiziert und somit erkannt werden.
  • Mit dem Sensor 8 zur Bestimmung der Bewegungsrichtung werden dreidimensionale Positionen der Merkmale der Umgebung auf Grundlage einer Projektion unter Berücksichtigung von Eigenschaften der von dem visuellen Sensor 6 von der Umgebung bereitgestellten Bilder und der von den Sensoren 8, 10 zur Bestimmung von Bewegungsrichtung und Orientierung der Vorrichtung 4 erfassten Bewegung berechnet. Dies erfolgt in vorliegender Ausführungsform unter Nutzung einer Tiefe oder einer Verschiedenheit der Informationen im Rahmen einer sog. "Stereo From Motion"-Berechnung.
  • Nach derartigen einführenden Messungen werden die Merkmale und ihre dreidimensionalen Positionen gemeinsam mit einer zweidimensionalen Projektion auf den visuellen Sensor 6 über einen Algorithmus zur wahrscheinlichkeitsbasierten Ortung und Abbildung, bspw. mit einem Kalmanfilter oder Teilchenfilter, zur kontinuierlichen Abschätzung von Position und Richtung (Pose) der Vorrichtung 4 berechnet. Dabei werden Abschätzungen einer Bewegungsrichtung der Vorrichtung 4 konsequent mit den von dem Sensor 10 zur Bestimmung der Orientierung erfassten Informationen verglichen. Ein Korrekturterm für die Orientierung der Vorrichtung 4 wird weiterhin erzeugt und zur Stabilisierung der Abschätzung benutzt. Während einer derartigen Vorgehensweise zur kontinuierlichen Abschätzung werden von der Anordnung 2 fortwährend neue Merkmale der Umgebung und somit Landmarken dem Algorithmus zur Ortung und Abbildung hinzugefügt. Außerdem wird konstant eine Qualität einer Widererkennung bereits abgebildeter und demnach kartografierte Merkmale erfasst, wobei diese wiederholt erfassten Merkmale bedarfsweise von dem Algorithmus zur Ortung und Abbildung entfernt werden. Somit ist es u. a. möglich, eine stabile Abschätzung der Pose der Vorrichtung 4 in einer sich verändernden Umwelt und somit Umgebung zu ermöglichen.
  • Zur Bestimmung einer Richtung, in der sich die Vorrichtung bewegt 4, kann die Anordnung 2 mindestens einen hier nicht abgebildeten GPS-Sensor aufweisen.
  • Die vorliegende Anordnung 2 kann für autonome mobile Plattformen wie bspw. Staubsauger, Rasenmäher, Gartenroboter, Transportmaschinen und dergleichen benutzt werden. Weiterhin ist auch ein Einsatz bei Industrierobotern denkbar, so dass derartige Roboter Ort bzw. Position eines Roboterarms bestimmen können. Ebenfalls ist der Einsatz bei automatischen 3D-Messsystemen, die bspw. zur automatischen Ausmessung eines Raums benutzt werden, möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - WO 2004/059900 A2 [0003]
  • Zitierte Nicht-Patentliteratur
    • - DIN EN ISO 8373 [0028]

Claims (13)

  1. Anordnung, die dazu ausgebildet ist, eine Umgebung für eine bewegliche Vorrichtung (4) zu erfassen, und die mindestens einen Sensor (6) zum visuellen Erfassen der Umgebung sowie jeweils mindestens einen Sensor (8, 10) zum Erfassen der Bewegungsrichtung und der Orientierung der Vorrichtung (4) aufweist, wobei die Anordnung (2) dazu ausgebildet ist, Informationen, die von den Sensoren (6, 8, 10) bereitgestellt werden, zu verarbeiten.
  2. Anordnung nach Anspruch 1, bei der der mindestens eine Sensor (10) zur Erfassung der Orientierung dazu ausgebildet ist, Informationen von einer von der Vorrichtung (4) unabhängigen, globalen Referenz bereitzustellen.
  3. Anordnung nach Anspruch 1 oder 2, die mit der Vorrichtung (4) derart verbunden ist, dass die Anordnung (2) dieselben Bewegungen wie die Vorrichtung (4) durchführt.
  4. Anordnung nach einem der voranstehenden Ansprüche, bei der der mindestens eine Sensor (10) zur Erfassung der Orientierung als Kompass ausgebildet ist.
  5. Anordnung nach einem der voranstehenden Ansprüche, die mindestens einen Sensor zur Erfassung einer Position der Vorrichtung (4) aufweist.
  6. Anordnung nach einem der voranstehenden Ansprüche, die mindestens einen GPS-Sensor zum Erfassen einer Richtung der Vorrichtung (4) aufweist.
  7. Anordnung nach einem der voranstehenden Ansprüche, die mindestens eine Verarbeitungseinheit (12) aufweist, die dazu ausgebildet ist, die von den Sensoren (6, 8, 10) bereitgestellten Informationen kombiniert zu verarbeiten.
  8. Verfahren, mit dem eine Umgebung für eine bewegliche Vorrichtung (4) erfasst wird, bei dem visuelle Informationen zu der Umgebung und weiterhin Informationen zu der Bewegungsrichtung und der Orientierung der Vorrichtung (2) erfasst werden, wobei die erfassten Informationen verarbeitet werden.
  9. Verfahren nach Anspruch 8, bei dem eine visuelle Ortsbestimmung und eine Kartierung der Umgebung durchgeführt werden.
  10. Verfahren nach Anspruch 8 oder 9, bei dem auf Grundlage einer Bewegung der Vorrichtung (4) in der Umgebung Positionen von Merkmalen der Umgebung bestimmt werden.
  11. Verfahren nach einem der Ansprüche 8 bis 10, bei dem ein Algorithmus zur wahrscheinlichkeitsbasierten Ortung und Abbildung verwendet wird.
  12. Computerprogramm mit Programmcodemitteln, um alle Schritte eines Verfahrens nach einem der Ansprüche 8 bis 11 durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere in einer Anordnung (2) nach einem der Ansprüche 1 bis 7, ausgeführt wird.
  13. Computerprogrammprodukt mit Programmcodemitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um alle Schritte eines Verfahrens nach einem der Ansprüche 8 bis 11 durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere in einer Anordnung (2) nach einem der Ansprüche 1 bis 7, ausgeführt wird.
DE102007043534A 2007-09-12 2007-09-12 Anordnung zum Erfassen einer Umgebung Withdrawn DE102007043534A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102007043534A DE102007043534A1 (de) 2007-09-12 2007-09-12 Anordnung zum Erfassen einer Umgebung
PCT/EP2008/061055 WO2009033935A2 (de) 2007-09-12 2008-08-25 Anordnung zum erfassen einer umgebung
CN200880106659A CN101802738A (zh) 2007-09-12 2008-08-25 用来检测环境的系统
EP08803175A EP2191340A2 (de) 2007-09-12 2008-08-25 Anordnung zum erfassen einer umgebung
US12/677,636 US20100265327A1 (en) 2007-09-12 2008-08-25 System for recording Surroundings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007043534A DE102007043534A1 (de) 2007-09-12 2007-09-12 Anordnung zum Erfassen einer Umgebung

Publications (1)

Publication Number Publication Date
DE102007043534A1 true DE102007043534A1 (de) 2009-03-19

Family

ID=40343698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007043534A Withdrawn DE102007043534A1 (de) 2007-09-12 2007-09-12 Anordnung zum Erfassen einer Umgebung

Country Status (5)

Country Link
US (1) US20100265327A1 (de)
EP (1) EP2191340A2 (de)
CN (1) CN101802738A (de)
DE (1) DE102007043534A1 (de)
WO (1) WO2009033935A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010130479A3 (de) * 2009-05-13 2011-02-24 Robert Bosch Gmbh Verfahren und vorrichtung zur bahnregelung, insbesondere von mobilen fahrzeugen
DE102009045326A1 (de) 2009-10-05 2011-04-07 Robert Bosch Gmbh Verfahren und System zum Aufbau einer Datenbank zur Positionsbestimmung eines Fahrzeuges mit Hilfe von natürlichen Landmarken
DE102018210712A1 (de) * 2018-06-29 2020-01-02 Zf Friedrichshafen Ag System und Verfahren zur gleichzeitigen Lokalisierung und Kartierung

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349195B2 (en) 2012-03-19 2016-05-24 Google Inc. Apparatus and method for spatially referencing images
CN102722042B (zh) * 2012-06-06 2014-12-17 深圳市华星光电技术有限公司 液晶生产设备的内部环境检测系统及方法
US9367811B2 (en) 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
WO2015085483A1 (en) 2013-12-10 2015-06-18 SZ DJI Technology Co., Ltd. Sensor fusion
EP3428766B1 (de) * 2014-09-05 2021-04-07 SZ DJI Technology Co., Ltd. Abbildung von multisensorumgebungen
WO2016033795A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Velocity control for an unmanned aerial vehicle
EP3008535B1 (de) 2014-09-05 2018-05-16 SZ DJI Technology Co., Ltd. Kontextbasierte flugmodusauswahl
US11287824B2 (en) * 2018-11-19 2022-03-29 Mobile Industrial Robots A/S Detecting a location of an autonomous device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
US6009359A (en) * 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
JP3745472B2 (ja) * 1996-11-18 2006-02-15 三菱電機株式会社 自走車、自律誘導装置、および自動搬送装置
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
US20050273967A1 (en) * 2004-03-11 2005-12-15 Taylor Charles E Robot vacuum with boundary cones
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
WO2007048003A2 (en) * 2005-10-21 2007-04-26 Deere & Company Versatile robotic control module
US8874261B2 (en) * 2007-07-25 2014-10-28 Deere & Company Method and system for controlling a mobile robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DIN EN ISO 8373

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010130479A3 (de) * 2009-05-13 2011-02-24 Robert Bosch Gmbh Verfahren und vorrichtung zur bahnregelung, insbesondere von mobilen fahrzeugen
DE102009045326A1 (de) 2009-10-05 2011-04-07 Robert Bosch Gmbh Verfahren und System zum Aufbau einer Datenbank zur Positionsbestimmung eines Fahrzeuges mit Hilfe von natürlichen Landmarken
DE102009045326B4 (de) 2009-10-05 2022-07-07 Robert Bosch Gmbh Verfahren und System zum Aufbau einer Datenbank zur Positionsbestimmung eines Fahrzeuges mit Hilfe von natürlichen Landmarken
DE102018210712A1 (de) * 2018-06-29 2020-01-02 Zf Friedrichshafen Ag System und Verfahren zur gleichzeitigen Lokalisierung und Kartierung

Also Published As

Publication number Publication date
CN101802738A (zh) 2010-08-11
WO2009033935A2 (de) 2009-03-19
EP2191340A2 (de) 2010-06-02
US20100265327A1 (en) 2010-10-21
WO2009033935A3 (de) 2009-11-19

Similar Documents

Publication Publication Date Title
DE102007043534A1 (de) Anordnung zum Erfassen einer Umgebung
EP3659001B1 (de) Magnetometer für die roboternavigation
EP2977844B1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
DE102013202393B4 (de) Bestimmen von Neigungswinkel und Neigungsrichtung unter Verwendung von Bildverarbeitung
DE102012014397B4 (de) Verfahren zum Ermitteln einer Position eines Fahrzeugs und Fahrzeug
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
DE102013211414A1 (de) Fahrerloses Transportfahrzeug und Verfahren zum Betreiben einesfahrerlosen Transportfahrzeugs
CN108733039A (zh) 一种机器人室内导航定位的方法与装置
DE102009045326B4 (de) Verfahren und System zum Aufbau einer Datenbank zur Positionsbestimmung eines Fahrzeuges mit Hilfe von natürlichen Landmarken
EP2060873B1 (de) Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers
EP2573512A2 (de) Verfahren und Anordnung zur Bestimmung der Lage eines Messpunktes im geometrischen Raum
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
EP2930466B1 (de) Handhaltbares Beobachtungsgerät mit einem digitalen Magnetkompass
DE102019207448A1 (de) Simultane Lokalisierung und Kartenerstellung in 2D unter Verwendung eines 3D-Scanners
DE102018200060A1 (de) Verfahren zum Betreiben einer mobilen Arbeitsmaschine und mobile Arbeitsmaschine
WO2019091725A1 (de) Verfahren und anzeigegerät zum führen einer arbeitsmaschine
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
DE102016222319A1 (de) 3d-referenzierung
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
EP4148386A1 (de) Ermittlung einer absoluten initialposition eines fahrzeugs
DE102016109919A1 (de) Vorrichtung zur Vermessung von Objekten
DE102020213111A1 (de) Verfahren und System zur Bestimmung einer Pose oder Position eines mobilen Endgeräts
DE102017000311B4 (de) Verfahren zum augmentierten Darstellen eines realen Objekts auf einem mobilen Endgerät sowie entsprechendes System
Lins et al. A novel machine vision approach applied for autonomous robotics navigation

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130403