DE102012112740A1 - Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters - Google Patents
Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Download PDFInfo
- Publication number
- DE102012112740A1 DE102012112740A1 DE201210112740 DE102012112740A DE102012112740A1 DE 102012112740 A1 DE102012112740 A1 DE 102012112740A1 DE 201210112740 DE201210112740 DE 201210112740 DE 102012112740 A DE102012112740 A DE 102012112740A DE 102012112740 A1 DE102012112740 A1 DE 102012112740A1
- Authority
- DE
- Germany
- Prior art keywords
- self
- camera
- robot
- propelled
- propelled robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002689 soil Substances 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000005096 rolling process Methods 0.000 claims description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 3
- 230000001133 acceleration Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 239000007788 liquid Substances 0.000 description 2
- 238000003971 tillage Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000238633 Odonata Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, aufweisend eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8). Der selbstfahrende Roboter weist mindestens einen optisch auslesbaren Neigungssensor auf, der in einem Blickfeld der Kamera (8) angeordnet ist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters.
Description
- Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines derartigen selbstfahrenden Roboters.
- Selbstfahrende Roboter dienen der automatisierten Verrichtung von nicht ortsgebundenen Tätigkeiten. In Form von selbstfahrenden Bodenbearbeitungsgeräten dienen solche Roboter der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasenmähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von großen Feldern.
- Aus der Druckschrift
DE 10 2007 016 802 B3 ist beispielsweise ein selbstfahrender Roboter bekannt, der eine Kamera aufweist, von der in regelmäßigen Zeitabständen Bilder der Umgebung des Roboters aufgenommen und gespeichert werden. Durch einen Vergleich von aktuellen mit gespeicherten Bildern kann durch ein sogenanntes visuelles Homing-Verfahren eine odometrisch, also über Fahrinformationen der Antriebsräder, bestimmte Position des Roboters korrigiert werden. Weiter kann die Kamera zu Navigationszwecken verwendet werden. - Zur Durchführung einer kameragestützten Positionsbestimmung oder Navigation ist es sinnvoll oder gar unerlässlich, Informationen über eine Neigung des selbstfahrenden Roboters gegenüber seiner normalen horizontalen Ausrichtung zu erhalten. Solche Informationen dienen beispielsweise einem Schutz vor einem drohenden Umkippen, falls der Roboter z.B. mit einem seiner Ränder auf ein schräges Hindernis auffährt. Weiterhin werden Neigungsinformationen benötigt, um die für die Positionsbestimmung oder die Navigationsaufgaben aufgenommenen Umgebungsbilder entsprechend korrigieren zu können. Informationen über die Neigung können dabei einen Neigungswinkel gegenüber einer horizontalen Ausrichtung sowie eine Neigungsrichtung, in der die Neigung erfolgt, umfassen.
- Zur Messung der Neigung werden üblicherweise zwei oder drei eindimensionale Beschleunigungssensoren eingesetzt. Bei diesen wird eine typischerweise gedämpft aufgehängte Masse verwendet, die durch eine Lageveränderung und/oder durch eine wirkende Beschleunigung aus ihrer Ruhelage ausgelenkt wird. Die Auslenkung wird auf kapazitivem oder piezoelektrischem Weg erfasst und in Form eines üblicherweise analogen Signals ausgegeben. Das ausgegebene Signal wird in der Steuereinrichtung des selbstfahrenden Roboters in ein digitales Signal umgewandelt und als Beschleunigungsinformation oder – wenn der selbstfahrende Roboter in Ruhe ist oder eine gleichförmige Bewegung ausführt – als Information über die Neigung ausgewertet. Bei zwei oder drei vorgesehenen eindimensionalen (linearen) Beschleunigungssensoren sind entsprechend auch zwei oder drei analoge Eingangskanäle der Steuereinrichtung für diesen Zweck vorzuhalten. Alternativ kann eine Analog-Digital-Wandlung auch in einem separaten Baustein erfolgen, wobei ein digitales Ausgangssignal des oder der Wandler dann der Steuereinrichtung übertragen wird.
- Zur Neigungsmessung werden bei diesem Verfahren somit nicht nur die Beschleunigungssensoren benötigt, sondern zusätzlich freie Schnittstellen an der Steuereinrichtung des Roboters und ggf. zusätzliche Analog-Digital-Wandler. Zudem sind die gewonnenen Informationen zur Neigung u.U. zeitlich nicht synchron zu den von der Kamera aufgenommenen und zur Positionsbestimmung und/oder Navigation verwendeten Bildern. Wenn die Neigungsinformationen zur Korrektur der Umgebungsbilder bei deren Auswertung verwendet werden, kann die fehlende zeitliche Synchronisation zwischen der Neigungsmessung und der Aufnahme des Umgebungsbilds zu Fehlern bei dieser Korrektur führen.
- Es ist daher eine Aufgabe der vorliegenden Erfindung, einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung eines derartigen Roboters zu schaffen, bei dem eine Neigungsmessung mit geringem zusätzlichen Material und damit Kostenaufwand durchgeführt werden kann und bei dem die Neigungsmessung möglichst zeitsynchron mit einer Aufnahme von Umgebungsbildern stattfindet.
- Diese Aufgabe wird gelöst durch einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung des selbstfahrenden Roboters mit den jeweiligen Merkmalen der unabhängigen Ansprüche.
- Ein erfindungsgemäßer selbstfahrender Roboter der eingangs genannten Art weist mindestens einen optisch auslesbaren Neigungssensor auf, der in einem Blickfeld der Kamera angeordnet ist. Gemäß einem erfindungsgemäßen Verfahren wird zumindest ein Bild durch die Kamera aufgenommen, wobei die Kamera zumindest einen Teil des an dem selbstfahrenden Roboter angeordneten optisch auslesbaren Neigungssensors abbildet. Anschließend wird anhand der Abbildung des optisch auslesbaren Neigungssensors in dem mindestens ein Bild die Neigung des selbstfahrenden Roboters bestimmt.
- Erfindungsgemäß wird also eine ohnehin bei dem Roboter vorhandene Kamera benutzt, um mithilfe eines oder mehrerer kostengünstiger optisch auslesbarer Neigungssensoren, die an dem Roboter angeordnet sind, eine Neigung des Roboters zu bestimmen.
- Zu diesem Zweck wird bevorzugt die Lage des Abbilds eines die Neigung anzeigenden Elements innerhalb des Neigungssensors ermittelt, was durch rechentechnisch relativ unaufwändige Bildanalyseverfahren mit geringem Zeitaufwand durchgeführt werden kann. Die Neigung wird somit zu genau dem Zeitpunkt bestimmt, zu dem auch das Kamerabild der Umgebung erfasst wird. Wird die Neigung dann im Rahmen der Auswertung des Kamerabilds zur Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung verwendet, ist die zeitliche Übereinstimmung von Neigungsmessung und dem aufgenommenen Umgebungsbild gewährleistet.
- In einer bevorzugten Ausgestaltung des selbstfahrenden Roboters ist der mindestens eine optisch auslesbare Neigungssensor eine Wasserwaagenlibelle, beispielsweise eine Röhrenlibelle und/oder eine Dosenlibelle. Eine Dosenlibelle hat hier den Vorteil, dass zwei Raumrichtungen gleichzeitig erfasst werden können. Bei der Verwendung einer oder mehrerer Röhrenlibellen, die dann bevorzugt quer und insbesondere senkrecht zueinander ausgerichtet sind, kann ebenfalls eine Information über eine Neigung in verschiedenen Richtungen gewonnen werden, wobei die rechnerische Auswertung des Kamerabilds bei der Röhrenlibelle aufgrund der nur eindimensionalen Bewegung einer Luftblase innerhalb der Röhrenlibelle sich vereinfacht.
- In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters umfasst der optisch auslesbare Neigungssensor einen auf einer konkaven Unterlage frei bewegbaren Rollkörper. In einer bevorzugten Ausgestaltung ist der Rollkörper eine Kugel und die konkave Unterlage weist die Form eines Hohlkugelabschnitts auf, ist also wie ein sogenanntes Uhrglas geformt. Auf diese Weise wird analog zur Dosenlibelle eine zweidimensionale Neigungserfassung mit einem Element erreicht. Alternativ könnte der Rollkörper auch zylinderförmig sein und die konkave Unterlage eine lineare gekrümmte Bahn, wodurch eine Neigung in einer Richtung erfasst werden kann. In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters ist der mindestens eine optisch auslesbare Neigungssensor ein Pendel. Auch dieses zeigt Neigungen an, wenn die Lage eines Pendelkörpers durch die Kamera erfasst wird.
- In einer weiteren bevorzugten Ausgestaltung des selbstfahrenden Roboters weist die Kamera ein weites Blickfeld auf und ist insbesondere eine Panoramakamera. Bei einer derartigen Ausgestaltung der Kamera kann eine Abbildung der mindestens einen Wasserwaagenlibelle an einem Bildrand der Abbildung erfolgen, ohne das die Kamera unmittelbar auf die Wasserwaagenlibelle ausgerichtet sein muss. So verbleibt ein großer Bildanteil für die Abbildung der Umgebung des Roboters, der für die Positionsbestimmung und/oder die Navigationszwecke verwendet werden kann.
- Bevorzugt wird die Bestimmung der Neigung im Stillstand oder während einer gleichförmigen Bewegung des selbstfahrenden Roboters durchgeführt, um Neigungsinformationen losgelöst von Beschleunigungszuständen des Roboters zu erhalten.
- Weitere vorteilhafte Ausgestaltungen und Weiterbildungen sind in jeweiligen abhängigen Ansprüchen angegeben.
- Die Erfindung wird nachfolgend anhand von einer Figur näher erläutert. Die Figur zeigt eine schematische Darstellung eines Bodenbearbeitungsgeräts zur Durchführung des erfindungsgemäßen Verfahrens.
- In der Figur ist ein mobiles Bodenbearbeitungsgerät, konkret ein Saugroboter
1 , als Beispiel für einen selbstfahrenden Roboter schematisch in einer Seitenansicht dargestellt. Der Saugroboter1 weist angeordnet an bzw. in einem Gehäuse2 ein Antriebssystem3 auf, das auf zwei Antriebsräder4 , eins auf jeder Seite des Saugroboters1 , wirkt. Die Antriebsräder4 können unabhängig voneinander über hier nicht einzeln dargestellte Antriebsmotoren angetrieben werden. Weiter ist ein Stützrad5 vorgesehen, das entweder verschwenkbar oder als eine in alle Richtungen drehbare Kugel ausgebildet ist. Bei voneinander unabhängiger Ansteuerung der Drehrichtungen und Drehgeschwindigkeiten der Antriebsräder4 kann der Saugroboter1 Bewegungen mit unabhängig voneinander einstellbaren Rotations- und Translationsgeschwindigkeiten auf einer zu reinigenden Fläche ausführen. - Weiterhin ist ein Saugbereich
6 in der Figur angedeutet, in dem nicht dargestellte Saugdüsen angeordnet sind, die beispielsweise in bekannter Weise mit einem Filtersystem, zum Beispiel einem Staubsaugerbeutel, mit einem Gebläsemotor zusammenwirken. Unterstützend ist in dem dargestellten Ausführungsbeispiel im Saugbereich6 eine rotierende Bürste angeordnet. Der Saugbereich6 mit der rotierenden Bürste repräsentiert die Reinigungseinrichtungen des Saugroboters1 . Weitere für den Betrieb des Saugroboter1 vorhandene Elemente, beispielsweise eine wiederaufladbare Batterie zur Stromversorgung, Ladeanschlüsse für die Batterie oder eine Entnahmemöglichkeit für den Staubsaugerbeutel, sind in der Figur aus Gründen der Übersichtlichkeit nicht wiedergegeben. - Der Saugroboter
1 weist eine Steuereinrichtung7 auf, die mit dem Antriebssystem3 sowie den Reinigungseinrichtungen zu deren Steuerung verbunden ist. Auf der Oberseite des Saugroboters1 ist eine Kamera8 angeordnet, die zur Abbildung der Umgebung des Saugroboters mit einem weiten Gesichtsfeld ausgebildet ist. Beispielhaft sind einige von der Kamera8 aufnehmbare Abbildungsstrahlen9 dargestellt. Die unteren der dargestellten Abbildungsstrahlen9 kennzeichnen den Rand des Gesichtsfelds der Kamera8 . Die Kamera8 weist ein weites Blickfeld mit einem Öffnungswinkel Θ auf, der im dargestellten Beispiel mehr als 180 Grad beträgt. - Auf der Oberseite des Gehäuses
2 des Saugroboters1 ist im Bereich des Blickfeldes der Kamera8 eine Wasserwaagenlibelle10 als ein Beispiel eines optisch auslesbaren Neigungssensors angeordnet. Vorliegend ist die Wasserwaagenlibelle10 als eine Dosenlibelle mit einem im Wesentlichen kreisrunden Aufmaß ausgebildet. In der mit Wasser oder einer sonstigen Flüssigkeit gefüllten Wasserwaagenlibelle10 ist eine Luftblase11 enthalten, deren Position innerhalb der nach oben von einem konvexen transparenten Deckel abgeschlossenen Wasserwaagenlibelle10 die Neigung des Saugroboters1 angibt. Es kann vorgesehen sein, eine Flüssigkeit einzusetzen, die eine höhere Viskosität aufweist als Wasser, um die Bewegung der Luftblase11 gezielt zu dämpfen. - In einer Abbildung durch die Kamera
8 erscheint die Luftblase11 kreisförmig oder aufgrund der Projektionsverzerrung bedingt durch den Abbildungswinkel ellipsenförmig. Ihre Position kann im Abbild ermittelt werden, wobei diese Position ggf. unter Berücksichtigung des Abbildungswinkels zu korrigieren ist. Eine entsprechende Auswertung des von der Kamera8 aufgenommenen Abbildes kann innerhalb der Steuereinrichtung7 erfolgen. - Im Betrieb des Saugroboters
1 erfasst die Kamera8 fortlaufend das Umfeld des Saugroboters1 und sendet eine Folge aufgenommener Bilder als Signale an die Steuereinheit7 . Diese ist zum einen dazu eingerichtet, anhand der Abbilder der Umgebung des Saugroboters1 die Navigation des Saugroboters über die zu reinigende Fläche zu kontrollieren. Weiterhin ist anmeldungsgemäß die Steuereinheit7 dazu eingerichtet, die Position der Luftblase11 innerhalb der Wasserwaagenlibelle10 zu ermitteln und daraus eine Neigung des Saugroboters1 zu bestimmen. Diese Neigung kann einen Neigungswinkel und/oder eine Neigungsrichtung, in der der Saugroboter1 gegenüber der Horizontalen geneigt ist, umfassen. Der ermittelte Wert der Neigung kann zum einen innerhalb von Sicherheitseinrichtungen, die ein Weiterfahren bei einem drohenden Kippen des Saugroboters1 verhindern, verwendet werden oder auch zur Korrektur der Abbildungen der Umgebung des Saugroboters1 bei der Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung eingesetzt werden. - In alternativen Ausgestaltungen können anstelle der in der Figur gezeigten Wasserwaagenlibelle
10 andere optisch auslesbare Neigungssensoren eingesetzt werden, beispielsweise ein oder mehrere Pendel oder ein Uhrglas, in dem sich eine Kugel frei bewegen kann. Entsprechend wird dann von der Kamera8 der Pendelkörper oder die sich im Uhrglas bewegende Kugel erfasst und dessen bzw. deren Position zur Bestimmung der Neigung ausgewertet. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102007016802 B3 [0003]
Claims (12)
- Selbstfahrender Roboter, insbesondere selbstfahrendes Bodenbearbeitungsgerät, aufweisend – eine Kamera (
8 ) zur Aufnahme von Bildern einer Umgebung des Roboters und – eine Steuereinrichtung (7 ) zur Auswertung der Bilder der Kamera (8 ), dadurch gekennzeichnet, dass der selbstfahrende Roboter mindestens einen optisch auslesbaren Neigungssensor aufweist, der in einem Blickfeld der Kamera (8 ) angeordnet ist. - Selbstfahrender Roboter nach Anspruch 1, bei dem die Steuereinrichtung (
7 ) dazu eingerichtet ist, aus einer Abbildung des optisch auslesbaren Neigungssensors durch die Kamera (8 ) eine Neigung des selbstfahrenden Roboters zu bestimmen. - Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor eine Wasserwaagenlibelle (
10 ) ist. - Selbstfahrender Roboter nach Anspruch 3, bei dem die mindestens eine Wasserwaagenlibelle (
10 ) eine Röhrenlibelle und/oder eine Dosenlibelle ist. - Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor einen auf einer konkaven Unterlage frei bewegbaren Rollkörper umfasst.
- Selbstfahrender Roboter nach Anspruch 5, bei dem der Rollkörper eine Kugel ist und die konkave Unterlage die Form eines Hohlkugelabschnitts aufweist.
- Selbstfahrender Roboter nach Anspruch 1 oder 2, bei dem der mindestens eine optisch auslesbare Neigungssensor ein Pendel ist.
- Selbstfahrender Roboter nach einem der Ansprüche 1 bis 7, bei dem die Kamera (
8 ) ein weites Blickfeld aufweist und insbesondere eine Panorama-Kamera ist. - Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters, der eine Kamera (
8 ) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7 ) zur Auswertung der Bilder der Kamera (8 ) aufweist, mit den folgenden Schritten: – Aufnehmen zumindest eines Bilds durch die Kamera (8 ), wobei die Kamera (8 ) zumindest einen Teil eines an dem selbstfahrenden Roboter angeordneten optisch auslesbaren Neigungssensors abbildet und – Bestimmen einer Neigung des selbstfahrenden Roboters anhand der Abbildung des optisch auslesbare Neigungssensors in dem mindestens einen Bild. - Verfahren nach Anspruch 9, das im Stillstand oder während einer gleichförmigen Bewegung des selbstfahrenden Roboters durchgeführt wird.
- Verfahren nach Anspruch 9 oder 10, bei dem der optisch auslesbare Neigungssensor eine Wasserwaagenlibelle (
10 ) ist, wobei zur Neigungsbestimmung im Bild der Kamera (8 ) eine Lage des Abbilds einer Luftblase (11 ) innerhalb der Wasserwaagenlibelle (10 ) ermittelt wird. - Verfahren nach einem der Ansprüche 9 bis 11, bei dem die Bilder der Kamera (
8 ) zudem zur Positionsbestimmung und/oder zur Navigation des selbstfahrenden Roboters verwendet werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012112740.9A DE102012112740B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012112740.9A DE102012112740B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102012112740A1 true DE102012112740A1 (de) | 2014-06-26 |
DE102012112740B4 DE102012112740B4 (de) | 2024-02-29 |
Family
ID=50878455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012112740.9A Active DE102012112740B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102012112740B4 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018119240A1 (en) * | 2016-12-21 | 2018-06-28 | Massachusetts Institute Of Technology | Determining soil state and controlling equipment based on captured images |
EP3459690B1 (de) * | 2016-05-17 | 2023-08-09 | LG Electronics Inc. | Mobiler roboter und steuerungsverfahren dafür |
DE102022203701A1 (de) | 2022-04-12 | 2023-10-12 | Volkswagen Aktiengesellschaft | Reinigungsroboter zur Reinigung eines Untergrunds |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT84002B (de) * | 1915-01-25 | 1921-05-25 | Optische Anstalt Goerz Ag | Photographische Kamera mit Neigungsanzeige- und Registriervorrichtung. |
DE1150569B (de) * | 1961-05-10 | 1963-06-20 | Ibak Helmut Hunger | Anordnung von Anzeigemitteln fuer Neigung, Hoehe od. dgl. bei einer Unterwasserkamera, insbesondere Unterwasserfernsehkamera |
JP2001280954A (ja) * | 2000-03-30 | 2001-10-10 | Osaka Gas Co Ltd | 管勾配の検出装置 |
DE102007016802B3 (de) | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
-
2012
- 2012-12-20 DE DE102012112740.9A patent/DE102012112740B4/de active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT84002B (de) * | 1915-01-25 | 1921-05-25 | Optische Anstalt Goerz Ag | Photographische Kamera mit Neigungsanzeige- und Registriervorrichtung. |
DE1150569B (de) * | 1961-05-10 | 1963-06-20 | Ibak Helmut Hunger | Anordnung von Anzeigemitteln fuer Neigung, Hoehe od. dgl. bei einer Unterwasserkamera, insbesondere Unterwasserfernsehkamera |
JP2001280954A (ja) * | 2000-03-30 | 2001-10-10 | Osaka Gas Co Ltd | 管勾配の検出装置 |
DE102007016802B3 (de) | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3459690B1 (de) * | 2016-05-17 | 2023-08-09 | LG Electronics Inc. | Mobiler roboter und steuerungsverfahren dafür |
WO2018119240A1 (en) * | 2016-12-21 | 2018-06-28 | Massachusetts Institute Of Technology | Determining soil state and controlling equipment based on captured images |
US10867377B2 (en) | 2016-12-21 | 2020-12-15 | Massachusetts Institute Of Technology | Determining soil state and controlling equipment based on captured images |
DE102022203701A1 (de) | 2022-04-12 | 2023-10-12 | Volkswagen Aktiengesellschaft | Reinigungsroboter zur Reinigung eines Untergrunds |
Also Published As
Publication number | Publication date |
---|---|
DE102012112740B4 (de) | 2024-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3434092B1 (de) | Im aussenbereich selbsttätig verfahrbares arbeitsgerät | |
DE102007016802B3 (de) | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes | |
EP3416019B1 (de) | System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten | |
EP2977844B1 (de) | Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes | |
EP3416018B1 (de) | System mit mindestens zwei bodenbearbeitungsgeräten | |
EP1958494B1 (de) | Verfahren zum Ernten von Spargel | |
DE102016008064A1 (de) | Kraftfahrzeug mit einem Fahrzeugdach | |
DE102017113726A1 (de) | Landwirtschaftliche Arbeitsmaschine | |
EP2929518A1 (de) | Fahrzeugseitiges verfahren und fahrzeugseitige vorrichtung zum erfassen und anzeigen von parklücken für ein fahrzeug | |
EP3413155B1 (de) | Verfahren zum erfassen mindestens eines abschnitts eines begrenzungsrands einer zu bearbeitenden fläche, verfahren zum betreiben eines autonomen mobilen grünflächenbearbeitungsroboters, erfassungssystem und grünflächenbearbeitungssystem | |
DE102012112036A1 (de) | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät | |
DE102012112740B4 (de) | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters | |
DE102013104547A1 (de) | Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät | |
DE102015115883A1 (de) | Landwirtschaftliche Arbeitsmaschine | |
DE102016008231A1 (de) | Verfahren und Vorrichtung zur Erzeugung einer virtuellen Aussicht aus einem Fahrzeug | |
EP3559773B1 (de) | Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes | |
EP1212597A1 (de) | Einstellgerät für scheinwerfer oder abstandssensor eines fahrzeugs mit ausrichtung zur anfahrachse | |
WO2018001803A1 (de) | Verfahren zum vergleichen eines auf einen laserempfänger auftreffenden empfangsstrahls mit einem rotierenden laserstrahl | |
DE102017120800A1 (de) | Saugreinigungsgerät mit einer Saugdüse | |
EP3631598A1 (de) | Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system | |
DE102018113015A1 (de) | Autonome, mobile Arbeitmaschine | |
EP2743789B1 (de) | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters | |
DE102017109130A1 (de) | Einrichtung und Verfahren zur Reinigung eines Offenstalls | |
DE102012112741B4 (de) | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters | |
EP2180305B1 (de) | Verfahren zur Erprobung und/oder Funktionsprüfung wenigstens eines in einem Kraftfahrzeug verbauten Umfeldsensors sowie zugehörige Anordnung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R083 | Amendment of/additions to inventor(s) | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |