DE102012112741B4 - Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters - Google Patents

Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Download PDF

Info

Publication number
DE102012112741B4
DE102012112741B4 DE102012112741.7A DE102012112741A DE102012112741B4 DE 102012112741 B4 DE102012112741 B4 DE 102012112741B4 DE 102012112741 A DE102012112741 A DE 102012112741A DE 102012112741 B4 DE102012112741 B4 DE 102012112741B4
Authority
DE
Germany
Prior art keywords
robot
images
self
camera
inclination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012112741.7A
Other languages
English (en)
Other versions
DE102012112741A1 (de
Inventor
Ralf Möller
David Fleer
Lorenz Hillen
Michael Horst
Martin Krzykawski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Universitaet Bielefeld
Original Assignee
Miele und Cie KG
Universitaet Bielefeld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG, Universitaet Bielefeld filed Critical Miele und Cie KG
Priority to DE102012112741.7A priority Critical patent/DE102012112741B4/de
Publication of DE102012112741A1 publication Critical patent/DE102012112741A1/de
Application granted granted Critical
Publication of DE102012112741B4 publication Critical patent/DE102012112741B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters (1), der eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters (1) und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8) aufweist, mit den folgenden Schritten:- Aufnehmen von zumindest zwei Bildern der Umgebung des Roboters (1) durch die Kamera (8), wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter (1) in einer Referenzlage befindet, wobei die Referenzlage vorliegt, wenn sich der Roboter (1) in oder an einer Ladestation befindet;- Identifizieren von charakteristischen Merkmalen in den zumindest zwei Bildern und- Bestimmen einer Neigung des selbstfahrenden Roboters (1) relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern.

Description

  • Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines derartigen selbstfahrenden Roboters.
  • Selbstfahrende Roboter dienen der automatisierten Verrichtung von nicht ortsgebundenen Tätigkeiten. In Form von selbstfahrenden Bodenbearbeitungsgeräten dienen solche Roboter der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasenmähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von großen Feldern.
  • Aus der Druckschrift DE 10 2007 016 802 B3 ist beispielsweise ein selbstfahrender Roboter bekannt, der eine Kamera aufweist, von der in regelmäßigen Zeitabständen Bilder der Umgebung des Roboters aufgenommen und gespeichert werden. Durch einen Vergleich von aktuellen mit gespeicherten Bildern kann durch ein sogenanntes visuelles Homing-Verfahren eine odometrisch, also über Fahrinformationen der Antriebsräder, bestimmte Position des Roboters korrigiert werden. Weiter kann die Kamera zu Navigationszwecken verwendet werden.
  • Die Druckschrift DE 101 33 761 A1 offenbart ein Verfahren zur virtuellen Lagebestimmung eines Fahrzeugs auf der Grundlage von aufgenommenen Umgebungsbildern. Über die Bestimmung der Lage wird der störende Einfluss der Verdrehung eines Fahrzeugs um dessen Querachse auf die Entfernungsskalierung von Fahrerassistenzsystemen korrigiert. Aus der Druckschrift US 6 296 317 B1 ist eine Bergbaumaschine bekannt, die ebenfalls eine virtuelle Lagebestimmung auf der Grundlage von aufgenommenen Umgebungsbildern durchführt. Die sukzessiv aufgenommenen Bilder, beleuchtet durch unterschiedlich polarisierte Lichtquellen, werden dazu eingesetzt Position und Ausrichtung der Bergbaumaschine zu berechnen, um deren Steuerung zu verbessern.
  • Zur Durchführung einer kameragestützten Positionsbestimmung oder Navigation ist es sinnvoll oder gar unerlässlich, Informationen über eine Neigung des selbstfahrenden Roboters gegenüber seiner normalen horizontalen Ausrichtung zu erhalten. Solche Informationen dienen beispielsweise einem Schutz vor einem drohenden Umkippen, falls der Roboter z.B. mit einem seiner Ränder auf ein schräges Hindernis auffährt. Weiterhin werden Neigungsinformationen benötigt, um die für die Positionsbestimmung oder die Navigationsaufgaben aufgenommenen Umgebungsbilder entsprechend korrigieren zu können. Informationen über die Neigung können dabei einen Neigungswinkel gegenüber einer horizontalen Ausrichtung sowie eine Neigungsrichtung, in der die Neigung erfolgt, umfassen.
  • Zur Messung der Neigung werden üblicherweise zwei oder drei eindimensionale Beschleunigungssensoren eingesetzt. Bei diesen wird eine typischerweise gedämpft aufgehängte Masse verwendet, die durch eine Lageveränderung und/oder durch eine wirkende Beschleunigung aus ihrer Ruhelage ausgelenkt wird. Die Auslenkung wird auf kapazitivem oder piezoelektrischem Weg erfasst und in Form eines üblicherweise analogen Signals ausgegeben. Das ausgegebene Signal wird in der Steuereinrichtung des selbstfahrenden Roboters in ein digitales Signal umgewandelt und als Beschleunigungsinformation oder - wenn der selbstfahrende Roboter in Ruhe ist oder eine gleichförmige Bewegung ausführt - als Information über die Neigung ausgewertet. Bei zwei oder drei vorgesehenen eindimensionalen (linearen) Beschleunigungssensoren sind entsprechend auch zwei oder drei analoge Eingangskanäle der Steuereinrichtung für diesen Zweck vorzuhalten. Alternativ kann eine Analog-Digital-Wandlung auch in einem separaten Baustein erfolgen, wobei ein digitales Ausgangssignal des oder der Wandler dann der Steuereinrichtung übertragen wird.
  • Zur Neigungsmessung werden bei diesem Verfahren somit nicht nur die Beschleunigungssensoren benötigt, sondern zusätzlich freie Schnittstellen an der Steuereinrichtung des Roboters und ggf. zusätzliche Analog-Digital-Wandler. Zudem sind die gewonnenen Informationen zur Neigung u.U. zeitlich nicht synchron zu den von der Kamera aufgenommenen und zur Positionsbestimmung und/oder Navigation verwendeten Bildern. Wenn die Neigungsinformationen zur Korrektur der Umgebungsbilder bei deren Auswertung verwendet werden, kann die fehlende zeitliche Synchronisation zwischen der Neigungsmessung und der Aufnahme des Umgebungsbilds zu Fehlern bei dieser Korrektur führen. Außerdem können Neigungsinformationen nur bei einem Stillstand oder bei gleichmäßiger Geradeausfahrt bestimmt werden, da sie andernfalls durch die Beschleunigung des Roboters verfälscht sind.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung eines derartigen Roboters zu schaffen, bei dem eine Neigungsmessung mit geringem zusätzlichen Material und damit Kostenaufwand durchgeführt werden kann. Weiter soll die Neigungsmessung möglichst zeitsynchron mit einer Aufnahme von Umgebungsbildern erfolgen und unabhängig vom Bewegungszustand des Roboters sein.
  • Diese Aufgabe wird gelöst durch ein Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters und einen selbstfahrenden Roboter mit den jeweiligen Merkmalen der unabhängigen Ansprüche.
  • Bei einem erfindungsgemäßen Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters weist der Roboter eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera auf. Das Verfahren umfasst die folgenden Schritte: Es werden zumindest zwei Bilder der Umgebung des Roboters durch die Kamera aufgenommen, wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter in einer Referenzlage befindet. Es werden charakteristische Merkmale in den zumindest zwei Bildern identifiziert und eine Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern bestimmt.
  • Erfindungsgemäß wird also eine ohnehin bei dem Roboter vorhandene Kamera benutzt, um mithilfe einer Bildanalyse eine Neigung des Roboters zu bestimmen. Eine derartige Bildanalyse kann durch die ebenfalls ohnehin vorhandene Steuereinrichtung des Roboters durchgeführt werden. So kann die Neigung des Roboters bestimmt werden, ohne dass zusätzliche Hardware benötigt wird. Zudem wird die Neigung zu genau dem Zeitpunkt bestimmt, zu dem auch das Kamerabild der Umgebung erfasst wird. Wird die ermittelte Neigung dann im Rahmen der Auswertung des Kamerabilds zur Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung verwendet, ist die zeitliche Übereinstimmung von Neigungsmessung und dem aufgenommenen Umgebungsbild gewährleistet. Ein weiterer Vorteil ist, dass die so bestimmte Neigung unabhängig vom Fahrzustand des Roboters ermittelt werden kann. Insbesondere kann die Neigung auch dann ermittelt werden, wenn der Roboter eine Beschleunigung erfährt, also anfährt, abbremst oder eine Kurve fährt.
  • In einer bevorzugten Ausgestaltung des Verfahrens werden als charakteristische Merkmale Abbilder von Kanten und/oder Ecken und/oder weitere prominente Merkmale innerhalb der Umgebung des Roboters identifiziert. Derartige Merkmale können leicht durch Bildanalyseverfahren in einem Bild ausfindig gemacht werden. Insbesondere bei Kanten kann durch einen Vergleich der Ausrichtung der Kanten im Bild leicht die unterschiedliche Verkippung des Roboters während der Bildaufnahme und somit die Neigung des Roboters relativ zur Referenzlage berechnet werden.
  • In einer weiteren bevorzugten Ausgestaltung des Verfahrens wird als Referenzlage eine Position des Roboters in oder an einer Ladestation gewählt. In der Referenzlage ist der Roboter bevorzugt möglichst horizontal ausgerichtet. Da die Ladestation typischerweise nicht auf einer Teppichkante o.ä. positioniert wird, sondern beispielsweise auf einem freien und ebenen Bereich eines Bodens, ist die Ladestation gut zur Festlegung der Referenzlage geeignet.
  • Bei einem erfindungsgemäßen Roboter, insbesondere selbstfahrenden Bodenbearbeitungsgerät, der eingangs genannten Art ist die Steuereinrichtung dazu eingerichtet, in zumindest zwei von der Kamera aufgenommenen Bildern der Umgebung des Roboters, von denen zumindest eines in einer Referenzlage aufgenommen ist, charakteristische Merkmale zu identifizieren und eine Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern zu bestimmen. Es ergeben sich die zuvor im Zusammenhang mit dem Verfahren genannten Vorteile.
  • Weitere vorteilhafte Ausgestaltungen und Weiterbildungen sind in jeweiligen abhängigen Ansprüchen angegeben.
  • Die Erfindung wird nachfolgend anhand von einer Figur näher erläutert. Die Figur zeigt eine schematische Darstellung eines Bodenbearbeitungsgeräts zur Durchführung des erfindungsgemäßen Verfahrens.
  • In der Figur ist ein mobiles Bodenbearbeitungsgerät, konkret ein Saugroboter 1, als Beispiel für einen selbstfahrenden Roboter schematisch in einer Seitenansicht dargestellt. Der Saugroboter 1 weist angeordnet an bzw. in einem Gehäuse 2 ein Antriebssystem 3 auf, das auf zwei Antriebsräder 4, eins auf jeder Seite des Saugroboters 1, wirkt. Die Antriebsräder 4 können unabhängig voneinander über hier nicht einzeln dargestellte Antriebsmotoren angetrieben werden. Weiter ist ein Stützrad 5 vorgesehen, das entweder verschwenkbar oder als eine in alle Richtungen drehbare Kugel ausgebildet ist. Bei voneinander unabhängiger Ansteuerung der Drehrichtungen und Drehgeschwindigkeiten der Antriebsräder 4 kann der Saugroboter 1 Bewegungen mit unabhängig voneinander einstellbaren Rotations- und Translationsgeschwindigkeiten auf einer zu reinigenden Fläche ausführen.
  • Weiterhin ist ein Saugbereich 6 in der Figur angedeutet, in dem nicht dargestellte Saugdüsen angeordnet sind, die beispielsweise in bekannter Weise mit einem Filtersystem, zum Beispiel einem Staubsaugerbeutel, mit einem Gebläsemotor zusammenwirken. Unterstützend ist in dem dargestellten Ausführungsbeispiel im Saugbereich 6 eine rotierende Bürste angeordnet. Der Saugbereich 6 mit der rotierenden Bürste repräsentiert die Reinigungseinrichtungen des Saugroboters 1. Weitere für den Betrieb des Saugroboter 1 vorhandene Elemente, beispielsweise eine wiederaufladbare Batterie zur Stromversorgung, Ladeanschlüsse für die Batterie oder eine Entnahmemöglichkeit für den Staubsaugerbeutel, sind in der Figur aus Gründen der Übersichtlichkeit nicht wiedergegeben.
  • Der Saugroboter 1 weist eine Steuereinrichtung 7 auf, die mit dem Antriebssystem 3 sowie den Reinigungseinrichtungen zu deren Steuerung verbunden ist. Auf der Oberseite des Saugroboters 1 ist eine Kamera 8 angeordnet, die zur Abbildung der Umgebung des Saugroboters mit einem weiten Gesichtsfeld ausgebildet ist. Beispielhaft sind einige von der Kamera 8 aufnehmbare Abbildungsstrahlen 9 dargestellt. Die unteren der dargestellten Abbildungsstrahlen 9 kennzeichnen den Rand des Gesichtsfelds der Kamera 8. Die Kamera 8 weist ein weites Blickfeld mit einem Öffnungswinkel Θ auf, der im dargestellten Beispiel mehr als 180 Grad beträgt. Bevorzugt ist die Kamera 8 eine Panorama-Kamera, die ein 360°-Panoramabild aufzeichnen kann.
  • Im Betrieb des Saugroboters 1 erfasst die Kamera 8 fortlaufend das Umfeld des Saugroboters 1 und sendet eine Folge aufgenommener Bilder als Signale an die Steuereinrichtung 7.
  • Eines der Bilder wird als ein Referenzbild angesehen, das aufgenommen wird, während sich der Roboter in einer Referenzlage befindet. Diese gibt eine möglichst horizontale Ausrichtung des Roboters an, da die im Rahmen des anmeldungsgemäßen Verfahrens bestimmten Neigungen sich auf diese Referenzlage beziehen und relativ zu der Referenzlage angegeben werden. Als Referenzlage kann beispielsweise eine Position des Saugroboters 1 in einer Ladestation gewählt werden, da diese üblicherweise auf einem freien und ebenen Bereich eines Bodens aufgestellt wird. Im Referenzbild werden nun durch die Steuereinrichtung 7 charakteristische Merkmale in der Umgebung des Saugroboters identifiziert. Solche Merkmale sind vorzugsweise Kanten oder Ecken eines Raums oder von Möbeln im Raum. In der Figur sind beispielhaft zwei Kanten 10 des Raums, in dem sich der Saugroboter 1 befindet, als charakteristische und von der Kamera 8 abgebildete Merkmale dargestellt. Parameter der identifizierten Merkmale, beispielsweise die Position und/oder Ausrichtung der Merkmale, werden gespeichert.
  • Die im weiteren Verlauf des Verfahrens aufgenommenen Bilder der Umgebung werden dann analogen Bildanalyseverfahren unterworfen, um die in dem Referenzbild identifizierten Merkmale auch in diesen Bildern aufzufinden und die entsprechenden Parameter der Merkmale in den weiteren Bildern zu bestimmen. Aus einem Vergleich der Parameter des Referenzbildes mit den Parametern bei einem der weiteren Bilder kann eine geänderte Ausrichtung der Kamera 8 bei Aufnahme des weiteren Bilds verglichen mit der Ausrichtung bei Aufnahme des Referenzbildes berechnet werden. Die geänderte Ausrichtung gibt die Neigung des Saugroboters 1 bezogen auf die Referenzlage an.
  • Der ermittelte Wert der Neigung kann zum einen innerhalb von Sicherheitseinrichtungen, die ein Weiterfahren bei einem drohenden Kippen des Saugroboters 1 verhindern, verwendet werden oder auch zur Korrektur der Abbildungen der Umgebung des Saugroboters 1 bei der Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung eingesetzt werden. Eine Bildkorrektur umfasst beispielsweise ein Entzerren eines Bilds unter Berücksichtigung der bestimmten Neigung. Zur Positionsbestimmung und/oder zur Navigation und/oder Hinderniserkennung werden dann die entzerrten Bilder verwendet.

Claims (6)

  1. Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters (1), der eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters (1) und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8) aufweist, mit den folgenden Schritten: - Aufnehmen von zumindest zwei Bildern der Umgebung des Roboters (1) durch die Kamera (8), wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter (1) in einer Referenzlage befindet, wobei die Referenzlage vorliegt, wenn sich der Roboter (1) in oder an einer Ladestation befindet; - Identifizieren von charakteristischen Merkmalen in den zumindest zwei Bildern und - Bestimmen einer Neigung des selbstfahrenden Roboters (1) relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern.
  2. Verfahren nach Anspruch 1, bei dem als charakteristische Merkmale Abbilder von Kanten (10) und/oder Ecken und/oder weitere prominente Merkmale innerhalb der Umgebung des Roboters (1) identifiziert werden.
  3. Verfahren nach Anspruch 1 oder 2, bei dem die Bilder der Kamera (8) zudem zur Positionsbestimmung und/oder zur Navigation des selbstfahrenden Roboters (1) verwendet werden.
  4. Verfahren nach Anspruch 3, bei dem die Bilder nach der Bestimmung der Neigung unter Berücksichtigung der bestimmten Neigung entzerrt werden und die entzerrten Bilder zur Positionsbestimmung und/oder zur Navigation verwendet werden.
  5. Selbstfahrender Roboter (1), insbesondere selbstfahrendes Bodenbearbeitungsgerät (1), aufweisend - eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters (1) und - eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8), dadurch gekennzeichnet, dass die Steuereinrichtung (7) dazu eingerichtet ist, in zumindest zwei von der Kamera (8) aufgenommenen Bildern der Umgebung des Roboters (1), von denen zumindest eines in einer Referenzlage aufgenommen ist, charakteristische Merkmale zu identifizieren und eine Neigung des selbstfahrenden Roboters (1) relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern zu bestimmen.
  6. Selbstfahrender Roboter (1) nach Anspruch 5 bei dem die Kamera (8) ein weites Blickfeld aufweist und insbesondere eine Panorama-Kamera ist.
DE102012112741.7A 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Active DE102012112741B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012112741.7A DE102012112741B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012112741.7A DE102012112741B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Publications (2)

Publication Number Publication Date
DE102012112741A1 DE102012112741A1 (de) 2014-06-26
DE102012112741B4 true DE102012112741B4 (de) 2022-10-27

Family

ID=50878456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012112741.7A Active DE102012112741B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Country Status (1)

Country Link
DE (1) DE102012112741B4 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6296317B1 (en) 1999-10-29 2001-10-02 Carnegie Mellon University Vision-based motion sensor for mining machine control
DE10133761A1 (de) 2001-07-11 2003-01-30 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6296317B1 (en) 1999-10-29 2001-10-02 Carnegie Mellon University Vision-based motion sensor for mining machine control
DE10133761A1 (de) 2001-07-11 2003-01-30 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Also Published As

Publication number Publication date
DE102012112741A1 (de) 2014-06-26

Similar Documents

Publication Publication Date Title
EP2755101B1 (de) Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter
DE102007016802B3 (de) Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
EP2977844B1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
DE10323225B4 (de) Ortsmarkenerfassungsverfahren für eine Roboterreinigungsvorrichtung und das Verfahren verwendende Roboterreinigungsvorrichtung
EP3415070B1 (de) System mit mindestens zwei bodenbearbeitungseinrichtungen
EP2812766B1 (de) Verfahren zum automatischen auslösen einer selbstlokalisierung
EP3416019B1 (de) System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
EP3416018B1 (de) System mit mindestens zwei bodenbearbeitungsgeräten
EP3685722B1 (de) System aus einem ausschliesslich manuell geführten bodenbearbeitungsgerät und einem ausschliesslich automatisch betriebenen bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
EP3412186B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden bodenbearbeitungsgerätes
DE102016101552A1 (de) Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät
DE102015121972A1 (de) System und Verfahren zur Bearbeitung eines Bodens mit einer mobilen Robotereinheit
EP3440978A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden reinigungsgerätes
DE102012112036A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102013104547A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
DE102017120800A1 (de) Saugreinigungsgerät mit einer Saugdüse
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
DE102019106227A1 (de) Bodenbearbeitungsgerät und System aus einem Bodenbearbeitungsgerät und einem externen Endgerät
DE102012112740B4 (de) Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102018132964A1 (de) Autonome reinigungsvorrichtung mit einem saugarm
DE102014110201B3 (de) Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
EP3683645B1 (de) System mit einem ersten bodenbearbeitungsgerät und einem zweiten bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
DE102012112741B4 (de) Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102018113015A1 (de) Autonome, mobile Arbeitmaschine
DE102017109130A1 (de) Einrichtung und Verfahren zur Reinigung eines Offenstalls

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000