DE102012112740A1 - Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters - Google Patents

Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Download PDF

Info

Publication number
DE102012112740A1
DE102012112740A1 DE201210112740 DE102012112740A DE102012112740A1 DE 102012112740 A1 DE102012112740 A1 DE 102012112740A1 DE 201210112740 DE201210112740 DE 201210112740 DE 102012112740 A DE102012112740 A DE 102012112740A DE 102012112740 A1 DE102012112740 A1 DE 102012112740A1
Authority
DE
Germany
Prior art keywords
self
camera
robot
propelled
propelled robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210112740
Other languages
English (en)
Other versions
DE102012112740B4 (de
Inventor
David Fleer
Lorenz Hillen
Michael Horst
Martin Krzykawski
Ralf Möller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Universitaet Bielefeld
Original Assignee
Miele und Cie KG
Universitaet Bielefeld
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG, Universitaet Bielefeld filed Critical Miele und Cie KG
Priority to DE102012112740.9A priority Critical patent/DE102012112740B4/de
Publication of DE102012112740A1 publication Critical patent/DE102012112740A1/de
Application granted granted Critical
Publication of DE102012112740B4 publication Critical patent/DE102012112740B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, aufweisend eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8). Der selbstfahrende Roboter weist mindestens einen optisch auslesbaren Neigungssensor auf, der in einem Blickfeld der Kamera (8) angeordnet ist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters.

Description

  • Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines derartigen selbstfahrenden Roboters.
  • Selbstfahrende Roboter dienen der automatisierten Verrichtung von nicht ortsgebundenen Tätigkeiten. In Form von selbstfahrenden Bodenbearbeitungsgeräten dienen solche Roboter der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasenmähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von großen Feldern.
  • Aus der Druckschrift DE 10 2007 016 802 B3 ist beispielsweise ein selbstfahrender Roboter bekannt, der eine Kamera aufweist, von der in regelmäßigen Zeitabständen Bilder der Umgebung des Roboters aufgenommen und gespeichert werden. Durch einen Vergleich von aktuellen mit gespeicherten Bildern kann durch ein sogenanntes visuelles Homing-Verfahren eine odometrisch, also über Fahrinformationen der Antriebsräder, bestimmte Position des Roboters korrigiert werden. Weiter kann die Kamera zu Navigationszwecken verwendet werden.
  • Zur Durchführung einer kameragestützten Positionsbestimmung oder Navigation ist es sinnvoll oder gar unerlässlich, Informationen über eine Neigung des selbstfahrenden Roboters gegenüber seiner normalen horizontalen Ausrichtung zu erhalten. Solche Informationen dienen beispielsweise einem Schutz vor einem drohenden Umkippen, falls der Roboter z.B. mit einem seiner Ränder auf ein schräges Hindernis auffährt. Weiterhin werden Neigungsinformationen benötigt, um die für die Positionsbestimmung oder die Navigationsaufgaben aufgenommenen Umgebungsbilder entsprechend korrigieren zu können. Informationen über die Neigung können dabei einen Neigungswinkel gegenüber einer horizontalen Ausrichtung sowie eine Neigungsrichtung, in der die Neigung erfolgt, umfassen.
  • Zur Messung der Neigung werden üblicherweise zwei oder drei eindimensionale Beschleunigungssensoren eingesetzt. Bei diesen wird eine typischerweise gedämpft aufgehängte Masse verwendet, die durch eine Lageveränderung und/oder durch eine wirkende Beschleunigung aus ihrer Ruhelage ausgelenkt wird. Die Auslenkung wird auf kapazitivem oder piezoelektrischem Weg erfasst und in Form eines üblicherweise analogen Signals ausgegeben. Das ausgegebene Signal wird in der Steuereinrichtung des selbstfahrenden Roboters in ein digitales Signal umgewandelt und als Beschleunigungsinformation oder – wenn der selbstfahrende Roboter in Ruhe ist oder eine gleichförmige Bewegung ausführt – als Information über die Neigung ausgewertet. Bei zwei oder drei vorgesehenen eindimensionalen (linearen) Beschleunigungssensoren sind entsprechend auch zwei oder drei analoge Eingangskanäle der Steuereinrichtung für diesen Zweck vorzuhalten. Alternativ kann eine Analog-Digital-Wandlung auch in einem separaten Baustein erfolgen, wobei ein digitales Ausgangssignal des oder der Wandler dann der Steuereinrichtung übertragen wird.
  • Zur Neigungsmessung werden bei diesem Verfahren somit nicht nur die Beschleunigungssensoren benötigt, sondern zusätzlich freie Schnittstellen an der Steuereinrichtung des Roboters und ggf. zusätzliche Analog-Digital-Wandler. Zudem sind die gewonnenen Informationen zur Neigung u.U. zeitlich nicht synchron zu den von der Kamera aufgenommenen und zur Positionsbestimmung und/oder Navigation verwendeten Bildern. Wenn die Neigungsinformationen zur Korrektur der Umgebungsbilder bei deren Auswertung verwendet werden, kann die fehlende zeitliche Synchronisation zwischen der Neigungsmessung und der Aufnahme des Umgebungsbilds zu Fehlern bei dieser Korrektur führen.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung eines derartigen Roboters zu schaffen, bei dem eine Neigungsmessung mit geringem zusätzlichen Material und damit Kostenaufwand durchgeführt werden kann und bei dem die Neigungsmessung möglichst zeitsynchron mit einer Aufnahme von Umgebungsbildern stattfindet.
  • Diese Aufgabe wird gelöst durch einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung des selbstfahrenden Roboters mit den jeweiligen Merkmalen der unabhängigen Ansprüche.
  • Ein erfindungsgemäßer selbstfahrender Roboter der eingangs genannten Art weist mindestens einen optisch auslesbaren Neigungssensor auf, der in einem Blickfeld der Kamera angeordnet ist. Gemäß einem erfindungsgemäßen Verfahren wird zumindest ein Bild durch die Kamera aufgenommen, wobei die Kamera zumindest einen Teil des an dem selbstfahrenden Roboter angeordneten optisch auslesbaren Neigungssensors abbildet. Anschließend wird anhand der Abbildung des optisch auslesbaren Neigungssensors in dem mindestens ein Bild die Neigung des selbstfahrenden Roboters bestimmt.
  • Erfindungsgemäß wird also eine ohnehin bei dem Roboter vorhandene Kamera benutzt, um mithilfe eines oder mehrerer kostengünstiger optisch auslesbarer Neigungssensoren, die an dem Roboter angeordnet sind, eine Neigung des Roboters zu bestimmen.
  • Zu diesem Zweck wird bevorzugt die Lage des Abbilds eines die Neigung anzeigenden Elements innerhalb des Neigungssensors ermittelt, was durch rechentechnisch relativ unaufwändige Bildanalyseverfahren mit geringem Zeitaufwand durchgeführt werden kann. Die Neigung wird somit zu genau dem Zeitpunkt bestimmt, zu dem auch das Kamerabild der Umgebung erfasst wird. Wird die Neigung dann im Rahmen der Auswertung des Kamerabilds zur Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung verwendet, ist die zeitliche Übereinstimmung von Neigungsmessung und dem aufgenommenen Umgebungsbild gewährleistet.
  • In einer bevorzugten Ausgestaltung des selbstfahrenden Roboters ist der mindestens eine optisch auslesbare Neigungssensor eine Wasserwaagenlibelle, beispielsweise eine Röhrenlibelle und/oder eine Dosenlibelle. Eine Dosenlibelle hat hier den Vorteil, dass zwei Raumrichtungen gleichzeitig erfasst werden können. Bei der Verwendung einer oder mehrerer Röhrenlibellen, die dann bevorzugt quer und insbesondere senkrecht zueinander ausgerichtet sind, kann ebenfalls eine Information über eine Neigung in verschiedenen Richtungen gewonnen werden, wobei die rechnerische Auswertung des Kamerabilds bei der Röhrenlibelle aufgrund der nur eindimensionalen Bewegung einer Luftblase innerhalb der Röhrenlibelle sich vereinfacht.
  • In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters umfasst der optisch auslesbare Neigungssensor einen auf einer konkaven Unterlage frei bewegbaren Rollkörper. In einer bevorzugten Ausgestaltung ist der Rollkörper eine Kugel und die konkave Unterlage weist die Form eines Hohlkugelabschnitts auf, ist also wie ein sogenanntes Uhrglas geformt. Auf diese Weise wird analog zur Dosenlibelle eine zweidimensionale Neigungserfassung mit einem Element erreicht. Alternativ könnte der Rollkörper auch zylinderförmig sein und die konkave Unterlage eine lineare gekrümmte Bahn, wodurch eine Neigung in einer Richtung erfasst werden kann. In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters ist der mindestens eine optisch auslesbare Neigungssensor ein Pendel. Auch dieses zeigt Neigungen an, wenn die Lage eines Pendelkörpers durch die Kamera erfasst wird.
  • In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters weist die Kamera ein weites Blickfeld auf und ist insbesondere eine Panoramakamera. Bei einer derartigen Ausgestaltung der Kamera kann eine Abbildung der mindestens einen Wasserwaagenlibelle an einem Bildrand der Abbildung erfolgen, ohne das die Kamera unmittelbar auf die Wasserwaagenlibelle ausgerichtet sein muss. So verbleibt ein großer Bildanteil für die Abbildung der Umgebung des Roboters, der für die Positionsbestimmung und/oder die Navigationszwecke verwendet werden kann.
  • Bevorzugt wird die Bestimmung der Neigung im Stillstand oder während einer gleichförmigen Bewegung des selbstfahrenden Roboters durchgeführt, um Neigungsinformationen losgelöst von Beschleunigungszuständen des Roboters zu erhalten.
  • Weitere vorteilhafte Ausgestaltungen und Weiterbildungen sind in jeweiligen abhängigen Ansprüchen angegeben.
  • Die Erfindung wird nachfolgend anhand von einer Figur näher erläutert. Die Figur zeigt eine schematische Darstellung eines Bodenbearbeitungsgeräts zur Durchführung des erfindungsgemäßen Verfahrens.
  • In der Figur ist ein mobiles Bodenbearbeitungsgerät, konkret ein Saugroboter 1, als Beispiel für einen selbstfahrenden Roboter schematisch in einer Seitenansicht dargestellt. Der Saugroboter 1 weist angeordnet an bzw. in einem Gehäuse 2 ein Antriebssystem 3 auf, das auf zwei Antriebsräder 4, eins auf jeder Seite des Saugroboters 1, wirkt. Die Antriebsräder 4 können unabhängig voneinander über hier nicht einzeln dargestellte Antriebsmotoren angetrieben werden. Weiter ist ein Stützrad 5 vorgesehen, das entweder verschwenkbar oder als eine in alle Richtungen drehbare Kugel ausgebildet ist. Bei voneinander unabhängiger Ansteuerung der Drehrichtungen und Drehgeschwindigkeiten der Antriebsräder 4 kann der Saugroboter 1 Bewegungen mit unabhängig voneinander einstellbaren Rotations- und Translationsgeschwindigkeiten auf einer zu reinigenden Fläche ausführen.
  • Weiterhin ist ein Saugbereich 6 in der Figur angedeutet, in dem nicht dargestellte Saugdüsen angeordnet sind, die beispielsweise in bekannter Weise mit einem Filtersystem, zum Beispiel einem Staubsaugerbeutel, mit einem Gebläsemotor zusammenwirken. Unterstützend ist in dem dargestellten Ausführungsbeispiel im Saugbereich 6 eine rotierende Bürste angeordnet. Der Saugbereich 6 mit der rotierenden Bürste repräsentiert die Reinigungseinrichtungen des Saugroboters 1. Weitere für den Betrieb des Saugroboter 1 vorhandene Elemente, beispielsweise eine wiederaufladbare Batterie zur Stromversorgung, Ladeanschlüsse für die Batterie oder eine Entnahmemöglichkeit für den Staubsaugerbeutel, sind in der Figur aus Gründen der Übersichtlichkeit nicht wiedergegeben.
  • Der Saugroboter 1 weist eine Steuereinrichtung 7 auf, die mit dem Antriebssystem 3 sowie den Reinigungseinrichtungen zu deren Steuerung verbunden ist. Auf der Oberseite des Saugroboters 1 ist eine Kamera 8 angeordnet, die zur Abbildung der Umgebung des Saugroboters mit einem weiten Gesichtsfeld ausgebildet ist. Beispielhaft sind einige von der Kamera 8 aufnehmbare Abbildungsstrahlen 9 dargestellt. Die unteren der dargestellten Abbildungsstrahlen 9 kennzeichnen den Rand des Gesichtsfelds der Kamera 8. Die Kamera 8 weist ein weites Blickfeld mit einem Öffnungswinkel Θ auf, der im dargestellten Beispiel mehr als 180 Grad beträgt.
  • Auf der Oberseite des Gehäuses 2 des Saugroboters 1 ist im Bereich des Blickfeldes der Kamera 8 eine Wasserwaagenlibelle 10 als ein Beispiel eines optisch auslesbaren Neigungssensors angeordnet. Vorliegend ist die Wasserwaagenlibelle 10 als eine Dosenlibelle mit einem im Wesentlichen kreisrunden Aufmaß ausgebildet. In der mit Wasser oder einer sonstigen Flüssigkeit gefüllten Wasserwaagenlibelle 10 ist eine Luftblase 11 enthalten, deren Position innerhalb der nach oben von einem konvexen transparenten Deckel abgeschlossenen Wasserwaagenlibelle 10 die Neigung des Saugroboters 1 angibt. Es kann vorgesehen sein, eine Flüssigkeit einzusetzen, die eine höhere Viskosität aufweist als Wasser, um die Bewegung der Luftblase 11 gezielt zu dämpfen.
  • In einer Abbildung durch die Kamera 8 erscheint die Luftblase 11 kreisförmig oder aufgrund der Projektionsverzerrung bedingt durch den Abbildungswinkel ellipsenförmig. Ihre Position kann im Abbild ermittelt werden, wobei diese Position ggf. unter Berücksichtigung des Abbildungswinkels zu korrigieren ist. Eine entsprechende Auswertung des von der Kamera 8 aufgenommenen Abbildes kann innerhalb der Steuereinrichtung 7 erfolgen.
  • Im Betrieb des Saugroboters 1 erfasst die Kamera 8 fortlaufend das Umfeld des Saugroboters 1 und sendet eine Folge aufgenommener Bilder als Signale an die Steuereinheit 7. Diese ist zum einen dazu eingerichtet, anhand der Abbilder der Umgebung des Saugroboters 1 die Navigation des Saugroboters über die zu reinigende Fläche zu kontrollieren. Weiterhin ist anmeldungsgemäß die Steuereinheit 7 dazu eingerichtet, die Position der Luftblase 11 innerhalb der Wasserwaagenlibelle 10 zu ermitteln und daraus eine Neigung des Saugroboters 1 zu bestimmen. Diese Neigung kann einen Neigungswinkel und/oder eine Neigungsrichtung, in der der Saugroboter 1 gegenüber der Horizontalen geneigt ist, umfassen. Der ermittelte Wert der Neigung kann zum einen innerhalb von Sicherheitseinrichtungen, die ein Weiterfahren bei einem drohenden Kippen des Saugroboters 1 verhindern, verwendet werden oder auch zur Korrektur der Abbildungen der Umgebung des Saugroboters 1 bei der Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung eingesetzt werden.
  • In alternativen Ausgestaltungen können anstelle der in der Figur gezeigten Wasserwaagenlibelle 10 andere optisch auslesbare Neigungssensoren eingesetzt werden, beispielsweise ein oder mehrere Pendel oder ein Uhrglas, in dem sich eine Kugel frei bewegen kann. Entsprechend wird dann von der Kamera 8 der Pendelkörper oder die sich im Uhrglas bewegende Kugel erfasst und dessen bzw. deren Position zur Bestimmung der Neigung ausgewertet.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007016802 B3 [0003]

Claims (12)

  1. Selbstfahrender Roboter, insbesondere selbstfahrendes Bodenbearbeitungsgerät, aufweisend – eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters und – eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8), dadurch gekennzeichnet, dass der selbstfahrende Roboter mindestens einen optisch auslesbaren Neigungssensor aufweist, der in einem Blickfeld der Kamera (8) angeordnet ist.
  2. Selbstfahrender Roboter nach Anspruch 1, bei dem die Steuereinrichtung (7) dazu eingerichtet ist, aus einer Abbildung des optisch auslesbaren Neigungssensors durch die Kamera (8) eine Neigung des selbstfahrenden Roboters zu bestimmen.
  3. Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor eine Wasserwaagenlibelle (10) ist.
  4. Selbstfahrender Roboter nach Anspruch 3, bei dem die mindestens eine Wasserwaagenlibelle (10) eine Röhrenlibelle und/oder eine Dosenlibelle ist.
  5. Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor einen auf einer konkaven Unterlage frei bewegbaren Rollkörper umfasst.
  6. Selbstfahrender Roboter nach Anspruch 5, bei dem der Rollkörper eine Kugel ist und die konkave Unterlage die Form eines Hohlkugelabschnitts aufweist.
  7. Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor ein Pendel ist.
  8. Selbstfahrender Roboter nach einem der Ansprüche 1 bis 7, bei dem die Kamera (8) ein weites Blickfeld aufweist und insbesondere eine Panorama-Kamera ist.
  9. Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters, der eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8) aufweist, mit den folgenden Schritten: – Aufnehmen zumindest eines Bilds durch die Kamera (8), wobei die Kamera (8) zumindest einen Teil eines an dem selbstfahrenden Roboter angeordneten optisch auslesbaren Neigungssensors abbildet und – Bestimmen einer Neigung des selbstfahrenden Roboters anhand der Abbildung des optisch auslesbare Neigungssensors in dem mindestens einen Bild.
  10. Verfahren nach Anspruch 9, das im Stillstand oder während einer gleichförmigen Bewegung des selbstfahrenden Roboters durchgeführt wird.
  11. Verfahren nach Anspruch 9 oder 10, bei dem der optisch auslesbare Neigungssensor eine Wasserwaagenlibelle (10) ist, wobei zur Neigungsbestimmung im Bild der Kamera (8) eine Lage des Abbilds einer Luftblase (11) innerhalb der Wasserwaagenlibelle (10) ermittelt wird.
  12. Verfahren nach einem der Ansprüche 9 bis 11, bei dem die Bilder der Kamera (8) zudem zur Positionsbestimmung und/oder zur Navigation des selbstfahrenden Roboters verwendet werden.
DE102012112740.9A 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Active DE102012112740B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012112740.9A DE102012112740B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012112740.9A DE102012112740B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Publications (2)

Publication Number Publication Date
DE102012112740A1 true DE102012112740A1 (de) 2014-06-26
DE102012112740B4 DE102012112740B4 (de) 2024-02-29

Family

ID=50878455

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012112740.9A Active DE102012112740B4 (de) 2012-12-20 2012-12-20 Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters

Country Status (1)

Country Link
DE (1) DE102012112740B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119240A1 (en) * 2016-12-21 2018-06-28 Massachusetts Institute Of Technology Determining soil state and controlling equipment based on captured images
EP3459690B1 (de) * 2016-05-17 2023-08-09 LG Electronics Inc. Mobiler roboter und steuerungsverfahren dafür
DE102022203701A1 (de) 2022-04-12 2023-10-12 Volkswagen Aktiengesellschaft Reinigungsroboter zur Reinigung eines Untergrunds

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT84002B (de) * 1915-01-25 1921-05-25 Optische Anstalt Goerz Ag Photographische Kamera mit Neigungsanzeige- und Registriervorrichtung.
DE1150569B (de) * 1961-05-10 1963-06-20 Ibak Helmut Hunger Anordnung von Anzeigemitteln fuer Neigung, Hoehe od. dgl. bei einer Unterwasserkamera, insbesondere Unterwasserfernsehkamera
JP2001280954A (ja) * 2000-03-30 2001-10-10 Osaka Gas Co Ltd 管勾配の検出装置
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT84002B (de) * 1915-01-25 1921-05-25 Optische Anstalt Goerz Ag Photographische Kamera mit Neigungsanzeige- und Registriervorrichtung.
DE1150569B (de) * 1961-05-10 1963-06-20 Ibak Helmut Hunger Anordnung von Anzeigemitteln fuer Neigung, Hoehe od. dgl. bei einer Unterwasserkamera, insbesondere Unterwasserfernsehkamera
JP2001280954A (ja) * 2000-03-30 2001-10-10 Osaka Gas Co Ltd 管勾配の検出装置
DE102007016802B3 (de) 2007-04-05 2008-05-15 Miele & Cie. Kg Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3459690B1 (de) * 2016-05-17 2023-08-09 LG Electronics Inc. Mobiler roboter und steuerungsverfahren dafür
WO2018119240A1 (en) * 2016-12-21 2018-06-28 Massachusetts Institute Of Technology Determining soil state and controlling equipment based on captured images
US10867377B2 (en) 2016-12-21 2020-12-15 Massachusetts Institute Of Technology Determining soil state and controlling equipment based on captured images
DE102022203701A1 (de) 2022-04-12 2023-10-12 Volkswagen Aktiengesellschaft Reinigungsroboter zur Reinigung eines Untergrunds

Also Published As

Publication number Publication date
DE102012112740B4 (de) 2024-02-29

Similar Documents

Publication Publication Date Title
EP3434092B1 (de) Im aussenbereich selbsttätig verfahrbares arbeitsgerät
DE102007016802B3 (de) Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes
EP3416019B1 (de) System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
EP2977844B1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
EP3416018B1 (de) System mit mindestens zwei bodenbearbeitungsgeräten
EP1958494B1 (de) Verfahren zum Ernten von Spargel
DE102016008064A1 (de) Kraftfahrzeug mit einem Fahrzeugdach
DE102017113726A1 (de) Landwirtschaftliche Arbeitsmaschine
EP2929518A1 (de) Fahrzeugseitiges verfahren und fahrzeugseitige vorrichtung zum erfassen und anzeigen von parklücken für ein fahrzeug
EP3413155B1 (de) Verfahren zum erfassen mindestens eines abschnitts eines begrenzungsrands einer zu bearbeitenden fläche, verfahren zum betreiben eines autonomen mobilen grünflächenbearbeitungsroboters, erfassungssystem und grünflächenbearbeitungssystem
DE102012112036A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
DE102012112740B4 (de) Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
DE102013104547A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät
DE102015115883A1 (de) Landwirtschaftliche Arbeitsmaschine
DE102016008231A1 (de) Verfahren und Vorrichtung zur Erzeugung einer virtuellen Aussicht aus einem Fahrzeug
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
EP1212597A1 (de) Einstellgerät für scheinwerfer oder abstandssensor eines fahrzeugs mit ausrichtung zur anfahrachse
WO2018001803A1 (de) Verfahren zum vergleichen eines auf einen laserempfänger auftreffenden empfangsstrahls mit einem rotierenden laserstrahl
DE102017120800A1 (de) Saugreinigungsgerät mit einer Saugdüse
EP3631598A1 (de) Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system
DE102018113015A1 (de) Autonome, mobile Arbeitmaschine
EP2743789B1 (de) Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters
DE102017109130A1 (de) Einrichtung und Verfahren zur Reinigung eines Offenstalls
DE102012112741B4 (de) Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters
EP2180305B1 (de) Verfahren zur Erprobung und/oder Funktionsprüfung wenigstens eines in einem Kraftfahrzeug verbauten Umfeldsensors sowie zugehörige Anordnung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000