DE102012112741A1 - Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters - Google Patents
Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters Download PDFInfo
- Publication number
- DE102012112741A1 DE102012112741A1 DE201210112741 DE102012112741A DE102012112741A1 DE 102012112741 A1 DE102012112741 A1 DE 102012112741A1 DE 201210112741 DE201210112741 DE 201210112741 DE 102012112741 A DE102012112741 A DE 102012112741A DE 102012112741 A1 DE102012112741 A1 DE 102012112741A1
- Authority
- DE
- Germany
- Prior art keywords
- robot
- images
- inclination
- camera
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 239000002689 soil Substances 0.000 claims description 5
- 238000001454 recorded image Methods 0.000 claims 1
- 230000001133 acceleration Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000003703 image analysis method Methods 0.000 description 2
- 238000003971 tillage Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009331 sowing Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters, der eine Kamera (8) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7) zur Auswertung der Bilder der Kamera (8) aufweist, mit den folgenden Schritten: – Aufnehmen von zumindest zwei Bildern der Umgebung des Roboters durch die Kamera (8), wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter in einer Referenzlage befindet; – Identifizieren von charakteristischen Merkmalen in den zumindest zwei Bildern und – Bestimmen einer Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern. Die Erfindung betrifft weiterhin einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das zur Durchführung des genannten Verfahrens eingerichtet ist.
Description
- Die Erfindung betrifft einen selbstfahrenden Roboter, insbesondere ein selbstfahrendes Bodenbearbeitungsgerät, der bzw. das eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung einer Neigung eines derartigen selbstfahrenden Roboters.
- Selbstfahrende Roboter dienen der automatisierten Verrichtung von nicht ortsgebundenen Tätigkeiten. In Form von selbstfahrenden Bodenbearbeitungsgeräten dienen solche Roboter der automatisierten Bearbeitung, beispielsweise Reinigung, von Flächen, ohne dass sie von einem Benutzer geschoben oder geführt werden müssen. Zu solchen selbstfahrenden Bodenbearbeitungsgeräten zählen für den Innenbereich beispielsweise selbstfahrende Staubsauger, auch Saugroboter genannt. Weiterhin werden für den Innenbereich selbstfahrende Reinigungsgeräte zum Wischen von Bodenbelägen eingesetzt. Für den Außenbereich sind als selbstfahrende Bodenbearbeitungsgeräte Mähroboter zum Rasenmähen bekannt und, für eine landwirtschaftliche Nutzung, selbstständig arbeitende Landwirtschaftsmaschinen, beispielsweise zum Pflügen, Säen oder Ernten von großen Feldern.
- Aus der Druckschrift
DE 10 2007 016 802 B3 ist beispielsweise ein selbstfahrender Roboter bekannt, der eine Kamera aufweist, von der in regelmäßigen Zeitabständen Bilder der Umgebung des Roboters aufgenommen und gespeichert werden. Durch einen Vergleich von aktuellen mit gespeicherten Bildern kann durch ein sogenanntes visuelles Homing-Verfahren eine odometrisch, also über Fahrinformationen der Antriebsräder, bestimmte Position des Roboters korrigiert werden. Weiter kann die Kamera zu Navigationszwecken verwendet werden. - Zur Durchführung einer kameragestützten Positionsbestimmung oder Navigation ist es sinnvoll oder gar unerlässlich, Informationen über eine Neigung des selbstfahrenden Roboters gegenüber seiner normalen horizontalen Ausrichtung zu erhalten. Solche Informationen dienen beispielsweise einem Schutz vor einem drohenden Umkippen, falls der Roboter z.B. mit einem seiner Ränder auf ein schräges Hindernis auffährt. Weiterhin werden Neigungsinformationen benötigt, um die für die Positionsbestimmung oder die Navigationsaufgaben aufgenommenen Umgebungsbilder entsprechend korrigieren zu können. Informationen über die Neigung können dabei einen Neigungswinkel gegenüber einer horizontalen Ausrichtung sowie eine Neigungsrichtung, in der die Neigung erfolgt, umfassen.
- Zur Messung der Neigung werden üblicherweise zwei oder drei eindimensionale Beschleunigungssensoren eingesetzt. Bei diesen wird eine typischerweise gedämpft aufgehängte Masse verwendet, die durch eine Lageveränderung und/oder durch eine wirkende Beschleunigung aus ihrer Ruhelage ausgelenkt wird. Die Auslenkung wird auf kapazitivem oder piezoelektrischem Weg erfasst und in Form eines üblicherweise analogen Signals ausgegeben. Das ausgegebene Signal wird in der Steuereinrichtung des selbstfahrenden Roboters in ein digitales Signal umgewandelt und als Beschleunigungsinformation oder – wenn der selbstfahrende Roboter in Ruhe ist oder eine gleichförmige Bewegung ausführt – als Information über die Neigung ausgewertet. Bei zwei oder drei vorgesehenen eindimensionalen (linearen) Beschleunigungssensoren sind entsprechend auch zwei oder drei analoge Eingangskanäle der Steuereinrichtung für diesen Zweck vorzuhalten. Alternativ kann eine Analog-Digital-Wandlung auch in einem separaten Baustein erfolgen, wobei ein digitales Ausgangssignal des oder der Wandler dann der Steuereinrichtung übertragen wird.
- Zur Neigungsmessung werden bei diesem Verfahren somit nicht nur die Beschleunigungssensoren benötigt, sondern zusätzlich freie Schnittstellen an der Steuereinrichtung des Roboters und ggf. zusätzliche Analog-Digital-Wandler. Zudem sind die gewonnenen Informationen zur Neigung u.U. zeitlich nicht synchron zu den von der Kamera aufgenommenen und zur Positionsbestimmung und/oder Navigation verwendeten Bildern. Wenn die Neigungsinformationen zur Korrektur der Umgebungsbilder bei deren Auswertung verwendet werden, kann die fehlende zeitliche Synchronisation zwischen der Neigungsmessung und der Aufnahme des Umgebungsbilds zu Fehlern bei dieser Korrektur führen. Außerdem können Neigungsinformationen nur bei einem Stillstand oder bei gleichmäßiger Geradeausfahrt bestimmt werden, da sie andernfalls durch die Beschleunigung des Roboters verfälscht sind.
- Es ist daher eine Aufgabe der vorliegenden Erfindung, einen selbstfahrenden Roboter und ein Verfahren zur Bestimmung einer Neigung eines derartigen Roboters zu schaffen, bei dem eine Neigungsmessung mit geringem zusätzlichen Material und damit Kostenaufwand durchgeführt werden kann. Weiter soll die Neigungsmessung möglichst zeitsynchron mit einer Aufnahme von Umgebungsbildern erfolgen und unabhängig vom Bewegungszustand des Roboters sein.
- Diese Aufgabe wird gelöst durch ein Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters und einen selbstfahrenden Roboter mit den jeweiligen Merkmalen der unabhängigen Ansprüche.
- Bei einem erfindungsgemäßen Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters weist der Roboter eine Kamera zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung zur Auswertung der Bilder der Kamera auf. Das Verfahren umfasst die folgenden Schritte: Es werden zumindest zwei Bilder der Umgebung des Roboters durch die Kamera aufgenommen, wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter in einer Referenzlage befindet. Es werden charakteristische Merkmale in den zumindest zwei Bildern identifiziert und eine Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern bestimmt.
- Erfindungsgemäß wird also eine ohnehin bei dem Roboter vorhandene Kamera benutzt, um mithilfe einer Bildanalyse eine Neigung des Roboters zu bestimmen. Eine derartige Bildanalyse kann durch die ebenfalls ohnehin vorhandene Steuereinrichtung des Roboters durchgeführt werden. So kann die Neigung des Roboters bestimmt werden, ohne dass zusätzliche Hardware benötigt wird. Zudem wird die Neigung zu genau dem Zeitpunkt bestimmt, zu dem auch das Kamerabild der Umgebung erfasst wird. Wird die ermittelte Neigung dann im Rahmen der Auswertung des Kamerabilds zur Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung verwendet, ist die zeitliche Übereinstimmung von Neigungsmessung und dem aufgenommenen Umgebungsbild gewährleistet. Ein weiterer Vorteil ist, dass die so bestimmte Neigung unabhängig vom Fahrzustand des Roboters ermittelt werden kann. Insbesondere kann die Neigung auch dann ermittelt werden, wenn der Roboter eine Beschleunigung erfährt, also anfährt, abbremst oder eine Kurve fährt.
- In einer bevorzugten Ausgestaltung des Verfahrens werden als charakteristische Merkmale Abbilder von Kanten und/oder Ecken und/oder weitere prominente Merkmale innerhalb der Umgebung des Roboters identifiziert. Derartige Merkmale können leicht durch Bildanalyseverfahren in einem Bild ausfindig gemacht werden. Insbesondere bei Kanten kann durch einen Vergleich der Ausrichtung der Kanten im Bild leicht die unterschiedliche Verkippung des Roboters während der Bildaufnahme und somit die Neigung des Roboters relativ zur Referenzlage berechnet werden.
- In einer weiteren bevorzugten Ausgestaltung des Verfahrens wird als Referenzlage eine Position des Roboters in oder an einer Ladestation gewählt. In der Referenzlage ist der Roboter bevorzugt möglichst horizontal ausgerichtet. Da die Ladestation typischerweise nicht auf einer Teppichkante o.ä. positioniert wird, sondern beispielsweise auf einem freien und ebenen Bereich eines Bodens, ist die Ladestation gut zur Festlegung der Referenzlage geeignet.
- Bei einem erfindungsgemäßen Roboter, insbesondere selbstfahrenden Bodenbearbeitungsgerät, der eingangs genannten Art ist die Steuereinrichtung dazu eingerichtet, in zumindest zwei von der Kamera aufgenommenen Bildern der Umgebung des Roboters, von denen zumindest eines in einer Referenzlage aufgenommen ist, charakteristische Merkmale zu identifizieren und eine Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern zu bestimmen. Es ergeben sich die zuvor im Zusammenhang mit dem Verfahren genannten Vorteile.
- Weitere vorteilhafte Ausgestaltungen und Weiterbildungen sind in jeweiligen abhängigen Ansprüchen angegeben.
- Die Erfindung wird nachfolgend anhand von einer Figur näher erläutert. Die Figur zeigt eine schematische Darstellung eines Bodenbearbeitungsgeräts zur Durchführung des erfindungsgemäßen Verfahrens.
- In der Figur ist ein mobiles Bodenbearbeitungsgerät, konkret ein Saugroboter
1 , als Beispiel für einen selbstfahrenden Roboter schematisch in einer Seitenansicht dargestellt. Der Saugroboter1 weist angeordnet an bzw. in einem Gehäuse2 ein Antriebssystem3 auf, das auf zwei Antriebsräder4 , eins auf jeder Seite des Saugroboters1 , wirkt. Die Antriebsräder4 können unabhängig voneinander über hier nicht einzeln dargestellte Antriebsmotoren angetrieben werden. Weiter ist ein Stützrad5 vorgesehen, das entweder verschwenkbar oder als eine in alle Richtungen drehbare Kugel ausgebildet ist. Bei voneinander unabhängiger Ansteuerung der Drehrichtungen und Drehgeschwindigkeiten der Antriebsräder4 kann der Saugroboter1 Bewegungen mit unabhängig voneinander einstellbaren Rotations- und Translationsgeschwindigkeiten auf einer zu reinigenden Fläche ausführen. - Weiterhin ist ein Saugbereich
6 in der Figur angedeutet, in dem nicht dargestellte Saugdüsen angeordnet sind, die beispielsweise in bekannter Weise mit einem Filtersystem, zum Beispiel einem Staubsaugerbeutel, mit einem Gebläsemotor zusammenwirken. Unterstützend ist in dem dargestellten Ausführungsbeispiel im Saugbereich6 eine rotierende Bürste angeordnet. Der Saugbereich6 mit der rotierenden Bürste repräsentiert die Reinigungseinrichtungen des Saugroboters1 . Weitere für den Betrieb des Saugroboter1 vorhandene Elemente, beispielsweise eine wiederaufladbare Batterie zur Stromversorgung, Ladeanschlüsse für die Batterie oder eine Entnahmemöglichkeit für den Staubsaugerbeutel, sind in der Figur aus Gründen der Übersichtlichkeit nicht wiedergegeben. - Der Saugroboter
1 weist eine Steuereinrichtung7 auf, die mit dem Antriebssystem3 sowie den Reinigungseinrichtungen zu deren Steuerung verbunden ist. Auf der Oberseite des Saugroboters1 ist eine Kamera8 angeordnet, die zur Abbildung der Umgebung des Saugroboters mit einem weiten Gesichtsfeld ausgebildet ist. Beispielhaft sind einige von der Kamera8 aufnehmbare Abbildungsstrahlen9 dargestellt. Die unteren der dargestellten Abbildungsstrahlen9 kennzeichnen den Rand des Gesichtsfelds der Kamera8 . Die Kamera8 weist ein weites Blickfeld mit einem Öffnungswinkel Θ auf, der im dargestellten Beispiel mehr als 180 Grad beträgt. Bevorzugt ist die Kamera8 eine Panorama-Kamera, die ein 360°-Panoramabild aufzeichnen kann. - Im Betrieb des Saugroboters
1 erfasst die Kamera8 fortlaufend das Umfeld des Saugroboters1 und sendet eine Folge aufgenommener Bilder als Signale an die Steuereinrichtung7 . - Eines der Bilder wird als ein Referenzbild angesehen, das aufgenommen wird, während sich der Roboter in einer Referenzlage befindet. Diese gibt eine möglichst horizontale Ausrichtung des Roboters an, da die im Rahmen des anmeldungsgemäßen Verfahrens bestimmten Neigungen sich auf diese Referenzlage beziehen und relativ zu der Referenzlage angegeben werden. Als Referenzlage kann beispielsweise eine Position des Saugroboters
1 in einer Ladestation gewählt werden, da diese üblicherweise auf einem freien und ebenen Bereich eines Bodens aufgestellt wird. Im Referenzbild werden nun durch die Steuereinrichtung7 charakteristische Merkmale in der Umgebung des Saugroboters identifiziert. Solche Merkmale sind vorzugsweise Kanten oder Ecken eines Raums oder von Möbeln im Raum. In der Figur sind beispielhaft zwei Kanten10 des Raums, in dem sich der Saugroboter1 befindet, als charakteristische und von der Kamera8 abgebildete Merkmale dargestellt. Parameter der identifizierten Merkmale, beispielsweise die Position und/oder Ausrichtung der Merkmale, werden gespeichert. - Die im weiteren Verlauf des Verfahrens aufgenommenen Bilder der Umgebung werden dann analogen Bildanalyseverfahren unterworfen, um die in dem Referenzbild identifizierten Merkmale auch in diesen Bildern aufzufinden und die entsprechenden Parameter der Merkmakle in den weiteren Bildern zu bestimmen. Aus einem Vergleich der Parameter des Referenzbildes mit den Parametern bei einem der weiteren Bilder kann eine geänderte Ausrichtung der Kamera
8 bei Aufnahme des weiteren Bilds verglichen mit der Ausrichtung bei Aufnahme des Referenzbildes berechnet werden. Die geänderte Ausrichtung gibt die Neigung des Saugroboters1 bezogen auf die Referenzlage an. - Der ermittelte Wert der Neigung kann zum einen innerhalb von Sicherheitseinrichtungen, die ein Weiterfahren bei einem drohenden Kippen des Saugroboters
1 verhindern, verwendet werden oder auch zur Korrektur der Abbildungen der Umgebung des Saugroboters1 bei der Positionsbestimmung und/oder Navigation und/oder Hinderniserkennung eingesetzt werden. Eine Bildkorrektur umfasst beispielsweise ein Entzerren eines Bilds unter Berücksichtigung der bestimmten Neigung. Zur Positionsbestimmung und/oder zur Navigation und/oder Hinderniserkennung werden dann die entzerrten Bilder verwendet. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102007016802 B3 [0003]
Claims (7)
- Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters, der eine Kamera (
8 ) zur Aufnahme von Bildern einer Umgebung des Roboters und eine Steuereinrichtung (7 ) zur Auswertung der Bilder der Kamera (8 ) aufweist, mit den folgenden Schritten: – Aufnehmen von zumindest zwei Bildern der Umgebung des Roboters durch die Kamera (8 ), wobei zumindest eines der Bilder aufgenommen wird, wenn sich der selbstfahrende Roboter in einer Referenzlage befindet; – Identifizieren von charakteristischen Merkmalen in den zumindest zwei Bildern und – Bestimmen einer Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern. - Verfahren nach Anspruch 1, bei dem als charakteristische Merkmale Abbilder von Kanten und/oder Ecken und/oder weitere prominente Merkmale innerhalb der Umgebung des Roboters identifiziert werden.
- Verfahren nach Anspruch 1 oder 2, bei dem die Bilder der Kamera (
8 ) zudem zur Positionsbestimmung und/oder zur Navigation des selbstfahrenden Roboters verwendet werden. - Verfahren nach Anspruch 3, bei dem die Bilder nach der Bestimmung der Neigung unter Berücksichtigung der bestimmten Neigung entzerrt werden und die entzerrten Bilder zur Positionsbestimmung und/oder zur Navigation verwendet werden.
- Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Referenzlage vorliegt, wenn sich der Roboter in oder an einer Ladestation befindet.
- Selbstfahrender Roboter, insbesondere selbstfahrendes Bodenbearbeitungsgerät, aufweisend – eine Kamera (
8 ) zur Aufnahme von Bildern einer Umgebung des Roboters und – eine Steuereinrichtung (7 ) zur Auswertung der Bilder der Kamera (8 ), dadurch gekennzeichnet, dass die Steuereinrichtung (7 ) dazu eingerichtet ist, in zumindest zwei von der Kamera (8 ) aufgenommenen Bildern der Umgebung des Roboters, von denen zumindest eines in einer Referenzlage aufgenommen ist, charakteristische Merkmale zu identifizieren und eine Neigung des selbstfahrenden Roboters relativ zu der Referenzlage anhand eines Vergleichs der Position und/oder Ausrichtung der charakteristischen Merkmale in den zumindest zwei Bildern zu bestimmen. - Selbstfahrender Roboter nach Anspruch 6, bei dem die Kamera (
8 ) ein weites Blickfeld aufweist und insbesondere eine Panorama-Kamera ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012112741.7A DE102012112741B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012112741.7A DE102012112741B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102012112741A1 true DE102012112741A1 (de) | 2014-06-26 |
DE102012112741B4 DE102012112741B4 (de) | 2022-10-27 |
Family
ID=50878456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012112741.7A Active DE102012112741B4 (de) | 2012-12-20 | 2012-12-20 | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102012112741B4 (de) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6296317B1 (en) * | 1999-10-29 | 2001-10-02 | Carnegie Mellon University | Vision-based motion sensor for mining machine control |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
DE102007016802B3 (de) | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
-
2012
- 2012-12-20 DE DE102012112741.7A patent/DE102012112741B4/de active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6296317B1 (en) * | 1999-10-29 | 2001-10-02 | Carnegie Mellon University | Vision-based motion sensor for mining machine control |
DE10133761A1 (de) * | 2001-07-11 | 2003-01-30 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zur virtuellen Lagebestimmung eines Fahrzeugaufbaus |
DE102007016802B3 (de) | 2007-04-05 | 2008-05-15 | Miele & Cie. Kg | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes |
Also Published As
Publication number | Publication date |
---|---|
DE102012112741B4 (de) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112010002823B4 (de) | Reinigungsroboter, Schmutzerkennungsvorrichtung davon und Reinigungsverfahren des Roboters | |
EP2977844B1 (de) | Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes | |
EP3389355B1 (de) | System und verfahren zur bearbeitung eines bodens mit einer mobilen robotereinheit | |
DE102007016802B3 (de) | Verfahren zur Navigation eines selbstfahrenden Bodenbearbeitungsgerätes | |
EP2755101B1 (de) | Selbstfahrender Roboter und Verfahren zur Abstandsbestimmung bei einem selbstfahrenden Roboter | |
DE10323225B4 (de) | Ortsmarkenerfassungsverfahren für eine Roboterreinigungsvorrichtung und das Verfahren verwendende Roboterreinigungsvorrichtung | |
EP3408719B1 (de) | Verfahren zum erstellen einer umgebungskarte für ein selbsttätig verfahrbares bearbeitungsgerät | |
EP3416018B1 (de) | System mit mindestens zwei bodenbearbeitungsgeräten | |
EP2680097B1 (de) | Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts | |
EP3454715B1 (de) | System und ein verfahren zur reinigung eines fussbodens mit einem reinigungsroboter | |
EP3416019B1 (de) | System mit mindestens zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten | |
DE102016008064A1 (de) | Kraftfahrzeug mit einem Fahrzeugdach | |
DE102013104547A1 (de) | Selbstfahrendes Bodenbearbeitungsgerät und optisches System für ein selbstfahrendes Bodenbearbeitungsgerät | |
DE102017118382A1 (de) | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes | |
DE102019101338A1 (de) | System aus einem ausschließlich manuell geführten Bodenbearbeitungsgerät und einem ausschließlich automatisch betriebenen Bodenbearbeitungsgerät sowie Verfahren zum Betrieb eines solchen Systems | |
DE102017112794A1 (de) | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes | |
DE102017120800A1 (de) | Saugreinigungsgerät mit einer Saugdüse | |
DE102016125319A1 (de) | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs | |
DE102012112036A1 (de) | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät | |
DE102019109596A1 (de) | System aus einem manuell geführten Bodenbearbeitungsgerät, einem ausschließlich automatisch betriebenen Bodenbearbeitungsgerät und einer Recheneinrichtung | |
EP3559773A1 (de) | Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes | |
DE102012112740B4 (de) | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Neigung eines selbstfahrenden Roboters | |
DE102014110201B3 (de) | Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter | |
DE102014105506B4 (de) | Robotsauger und Verfahren zum Betrieb eines solchen Robotsaugers | |
EP2743789B1 (de) | Selbstfahrender Roboter und Verfahren zur Bestimmung einer Drehstellung mindestens eines Antriebsrads eines selbstfahrenden Roboters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R083 | Amendment of/additions to inventor(s) | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |