DE60011674T2 - Autonomes mehrplattform robotersystem - Google Patents
Autonomes mehrplattform robotersystem Download PDFInfo
- Publication number
- DE60011674T2 DE60011674T2 DE60011674T DE60011674T DE60011674T2 DE 60011674 T2 DE60011674 T2 DE 60011674T2 DE 60011674 T DE60011674 T DE 60011674T DE 60011674 T DE60011674 T DE 60011674T DE 60011674 T2 DE60011674 T2 DE 60011674T2
- Authority
- DE
- Germany
- Prior art keywords
- robot
- functional
- navigation
- autonomous mobile
- robots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000006870 function Effects 0.000 claims abstract description 44
- 238000013507 mapping Methods 0.000 claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 75
- 230000033001 locomotion Effects 0.000 claims description 34
- 230000003068 static effect Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 7
- 230000003252 repetitive effect Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000004807 localization Effects 0.000 abstract description 4
- 230000003864 performance function Effects 0.000 abstract 1
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004140 cleaning Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000001934 delay Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0295—Fleet control by at least one leading vehicle of the fleet
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Cleaning In General (AREA)
Description
- GEBIET DER ERFINDUNG
- Die vorliegende Erfindung betrifft allgemein mobile Robotersysteme und insbesondere betrifft sie ein System und ein Verfahren zum Zuweisen von Kartierungs-, Ortsbestimmungs-, Planungs-, Steuer- und Aufgabendurchführungs-Funktionen in einer autonomen Mehrplattform-Roboterumgebung.
- ALLGEMEINER STAND DER TECHNIK
- Mobile Roboter sind entworfen, entwickelt und eingesetzt worden, um eine Vielzahl von Aufgaben wie Reinigung und Sicherheit wahr zu nehmen. Die meisten mobilen Roboter sind nicht autonom: das bedeutet, dass sie nicht in der Lage sind, autonom zu navigieren. Die wirtschaftlichen Vorteile, die durch nicht autonome Roboter bereitgestellt werden, sind begrenzt durch das nicht anpassungsfähige Verhalten der Roboter und ihre aufwändigen Installationskosten. Oft müssen Fachleute auf diesem Gebiet der Technik angeheuert und bezahlt werden, um die Roboter für bestimmte Wege und Aufgaben vorweg zu programmieren. Es kann notwendig sein, Objekte in der Umgebung einzubauen, um die Roboter zu lenken, wie dies Schienen, eingebaute, Signale ausstrahlende Drähte, Marker oder Fühler sind. Weitere Modifikationen der Umgebung können auch notwendig sein, um die Installations- und Betriebsprobleme gering zu halten.
- Einige mobile nicht autonome Roboter können Hindernisse erkennen, die ihre Wege blockieren, und können anhalten oder geringfügig von ihren Wegen abweichen, um solche Hindernisse zu vermeiden. Wenn die Umgebung jedoch deutlich wie durch Bewegen eines großen Einrichtungsgegenstands modifiziert ist, reagieren herkömmliche nicht autonome Roboter nicht richtig. Ein Teil oder der gesamte Installationsvorgang muss oftmals wiederholt werden. In Hinblick auf diese Einschränkungen werden nicht autonome Roboter üblicherweise nur auf unveränderlichen und sehr wertvollen Wegen eingesetzt. Obwohl einige nicht autonome Roboter auf zufälliger Bewegung aufbauen, um ihre Aufgaben zu erfüllen, wie Schwimmbeckenreinigungsroboter, eignen sich nur eine begrenzte Anzahl von Anwendungen für diesen Lösungsweg.
- Völlig autonome mobile Roboter haben sich über die Forschungslabore in den letzten Jahren hinaus entwickelt. Autonome Roboter sind in der Lage, durch ihre Umgebung mittels Erfassen und Reagieren auf ihre Umgebungen und die Umgebungsbedingungen zu navigieren. Autonome Roboternavigation umfasst vier Hauptaufgaben: Kartieren, Ortsbestimmung, Planung und Steuerung. Diese eng verwandten Konzepte sind analog dem Stellen der Fragen "Wo bin ich?" (Kartieren und Ortsbestimmung), gefolgt von "Wo will ich sein?" oder "Was will ich tun?" (Planen) und schließlich "Wie komme ich dorthin?" oder "Wie kann ich das durchführen?" (Steuerung).
- Sobald das Kartieren abgeschlossen ist, müssen die laufende Position des Roboters, die Ausrichtung und die Veränderungsrate in der Landkarte bestimmt werden. Dieser Vorgang wird als Ortbestimmung bezeichnet. Autonome Roboter, welche auf 2D-Kartieren und Ortsbestimmung vertrauen, sind nicht in der Lage mit entsprechender Verlässlichkeit auf Grund der relativen Einfachheit der Karte zu navigieren. Die Roboter verlaufen sich oft, bleiben. stecken oder fallen hin. Der Einsatz von dynamischem 3D-Kartieren und Ortsbestimmung erlaubt im Gegensatz dazu eine Navigation, die verlässlicher ist, umfasst aber komplexe Berechnungen, welche einen großen Aufwand an Verarbeitungsüberbau erfordern. 3D-Karten weisen typischerweise Millionen von Zellen auf, welche einfache Betriebsabläufe wie Richtzeichenermittlung, Ortsbestimmung und Planung vom Rechenaufwand intensiv gestalten. Die sich daraus ergebenden verarbeitungsbedingten Verzögerungen beschränken die Geschwindigkeit der Roboterbewegung und der Aufgabenerfüllung.
- Sobald das Kartieren und die Ortsbestimmung abgeschlossen sind, müssen die Aufgabenplanung und Aufgabendurchführung angegangen werden. Einiges an Ortsbestimmung wird immer noch während der Aufgabendurchführung erforderlich sein. Mit einem Roboter, welcher versucht, sich örtlich zu bestimmen, während er Aufgaben durchführt, führt dies zu nicht annehmbaren Verzögerungen. Wenn mehrere Roboter eingesetzt werden, sind die Nachteile, die oben beschrieben sind, immer noch vorhanden und müssen in mehrfacher Weise behandelt werden.
- Ein überwachter autonomer Reaktionsroboter für Sicherheitsaufgaben wird durch Ciccimaro et al. in American Nuclear Society 8th International Topical Meeting on Robotics beschrieben und Fernsteuerungssysteme (ANS'99) und kollektive Gestaltungen von zusammen wirkenden Robotern werden in "A Taxonomy for Multi-agent Robotics" von Dudek et al., Autonomous Robots, Seiten 5 bis 29, beschrieben.
- Angesichts der obigen Ausführungen besteht Bedarf an einem autonomen Mehr-Robotersystem, welches schnelles, genaues und Kosten effizientes Kartieren und örtliches Bestimmen als auch wirksames Planen und Zuteilen von Aufgaben aufweist.
- KURZDARSTELLUNG DER ERFINDUNG
- Gemäß der vorliegenden Erfindung wird ein System von mobilen Robotern, ein Verfahren zum Mehr-Roboter-Betrieb und für einen autonomen, mobilen Navigationsroboter, wie in den angeschlossenen Ansprüchen dargelegt, bereit gestellt.
- Für jede Aufgabe arbeiten ein Navigationsroboter und ein gegebener Funktionsroboter paarweise zusammen.
- Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen werden wenigstens einem Navigationsroboter zugewiesen und funktionale Aufgaben werden einem oder mehreren Funktionsrobotern zugewiesen. In einer Umsetzung wird das System zum Reinigen des Inneren eines Hauses oder Büros verwendet. In dieser Umsetzung führen die Funktionsroboter die Aufgaben des Staubsaugens, Aufwaschens, Wischens, Reinigens von Badezimmereinrichtungen usw. durch, während der Navigationsroboter die Funktionsroboter navigiert, bewegt und überwacht.
- In einer Ausführungsform führt der Navigationsroboter alle oder im Wesentlichen alle Berechnungen des Kartierens, örtlichen Bestimmens, Planens und Steuerns sowohl für sich selbst als auch für die Funktionsroboter durch. Dementsprechend ist der Navigationsroboter mit Sensoren und Sensorverarbeitungshardware, welche für diese Aufgaben erforderlich ist, ausgestattet. Die Funktionsroboter in dieser Ausführungsform führen im Gegenzug keine oder nur einige wenige der Berechnungen zur örtlichen Bestimmung, Planung oder Steuerung durch und sind daher nicht mit Sensoren oder Hardware, welche für diese Zwecke eingesetzt wird, ausgestattet.
- Dementsprechend ist in einer Ausführungsform ein System autonomer Roboter bereit gestellt, umfassend: wenigstens einen ersten mobilen Roboter, welcher so konfiguriert ist, um eine oder mehrere wieder kehrende Aufgaben innerhalb eines Flächenbereichs auszuführen; und wenigstens einen zweiten Roboter, welcher so konfiguriert ist, um die gesamte Bewegung des wenigstens einen ersten Roboters in einem Flächenbereich zu lenken.
- In einer anderen Ausführungsform wird ein Verfahren zum Durchführen einer wieder kehrenden Aufgabe innerhalb eines Flächenbereichs bereit gestellt, umfassend die Schritte: Durchführen der wieder kehrenden Aufgabe mit wenigstens einem ersten mobilen Roboter; und Lenken der gesamten Bewegung an dem wenigstens einen ersten Roboter in einem Flächenbereich mit wenigstens einem zweiten Roboter.
- In noch einer anderen Ausführungsform der vorliegenden Erfindung wird ein System von autonomen, mobilen Robotern, welche in einer Umgebung arbeiten, bereitgestellt. Das System umfasst einen oder mehrere mobile Funktionsroboter, welche für die Durchführung funktionaler Aufgaben verantwortlich sind. Das System umfasst des Weiteren einen oder mehrere mobile Navigationsroboter, welche sich selbst und den(die) Funktionsroboter innerhalb der Umgebung lokalisieren, die Aufgaben, welche durch den(die) Funktionsroboter durchgeführt werden müssen, planen und den(die) Funktionsroboter während der Aufgabendurchführung steuern. In einer Ausführungsform bleibt(en), wenn sich ein Funktionsroboter bewegt, der(die) Navigationsroboter, welche(r) ihn steuert, ortsfest.
- In noch einer anderen Ausführungsform der vorliegenden Erfindung wird ein Verfahren für den autonomen Mehr-Roboter-Betrieb bereitgestellt. Das Verfahren umfasst die Schritte:
- (a) Bereitstellen wenigstens eines Navigationsroboters und wenigstens eines Funktionsroboters;
- (b) mit dem wenigstens einen Navigationsroboter Erstellen einer Karte der Umgebung;
- (c) mit dem wenigstens einen Navigationsroboter Erfassen des Aufenthaltsorts des wenigstens einen Navigationsroboters und des wenigstens einen Funktionsroboters auf der Karte;
- (d) mit dem wenigstens einen Navigationsroboter Planen von Aufgaben, die durch den wenigstens einen Funktionsroboter ausgeführt werden sollen;
- (e) mit dem wenigstens einen Funktionsroboter Ausführen der Aufgaben, die durch den wenigstens einen Navigationsroboter geplant wurden; und
- (f) mit dem wenigstens einen Navigationsroboter Steuern und Verfolgen des wenigstens einen Funktionsroboters während der Aufgabenausführung.
- Die vorliegende Erfindung stellt auch ein Verfahren zum Umsetzen eines autonomen mobilen Plattformsystems bereit. Das Verfahren umfasst die Schritte:
- Bereitstellen einer Mehrzahl mobiler Plattformen;
- Zuweisen der Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen an einen ersten Satz mobiler Plattformen;
- Zuweisen funktionaler Aufgabenerfüllungsfunktionen an einen zweiten Satz mobiler Plattformen;
- Kartieren der Umgebung, örtliches Bestimmen im Wesentlichen aller Plattformen innerhalb der Umgebung und Planen der Aufgabenausführung mit dem ersten Satz mobiler Plattformen;
- Durchführen der Aufgaben mit dem zweiten Satz mobiler Plattformen; und
- Steuern und Verfolgen der Aufgabendurchführung durch den zweiten Satz Plattformen mit dem ersten Satz Plattformen.
- Weitere Merkmale und Vorteile dieser Erfindung als auch die Struktur des Betriebs der verschiedenen Ausführungsformen werden genau im Folgenden mit Bezugnahme auf die begleitenden Zeichnungen beschrieben.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die vorliegende Erfindung wird mit Bezugnahme auf die begleitenden Zeichnungen beschrieben. In den Zeichnungen bezeichnen gleiche Bezugsziffern gleiche oder funktional ähnliche Elemente.
-
1 ist ein Blockdiagramm eines Mehr-Roboter-Systems gemäß der vorliegenden Erfindung. -
2 ist ein Blockdiagramm eines Navigationsroboters gemäß der vorliegenden Erfindung. -
3 ist ein Blockdiagramm, welches die Kommunikation zwischen einem Navigationsroboter und einem Funktionsroboter darstellt. -
4 ist ein Blockdiagramm eines Funktionsroboters gemäß der vorliegenden Erfindung. -
5 ist ein Blockdiagramm, welches einen Navigationsroboter zeigt, wie er einen Funktionsroboter um ein Hindernis herum manövriert. -
6 ist ein Blockdiagramm, welches einen Navigationsroboter zeigt, wie er sich selbst in Richtung eines Funktionsroboters manövriert. -
7a ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter sich selbst innerhalb einer dynamischen Karte der Umgebung örtlich bestimmt. -
7b ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter das Vorausplanen durchführt. -
7c ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter die Funktionsroboter während der Aufgabenausführung steuert und verfolgt. -
8 ist ein Flussdiagramm, welches ein Verfahren zum Umsetzen eines Mehr-Roboter-Systems gemäß der vorliegenden Erfindung zeigt. - GENAUE BESCHREIBUNG DER ERFINDUNG
- 1. EINLEITUNG
- Die vorliegende Erfindung betrifft ein System und Verfahren zum Zuweisen der Kartierung, der Ortbestimmung, Planung, Steuerung und Aufgabendurchführung in einer Mehr-Roboter-Umgebung. Insbesondere und gemäß einer Ausführungsform der Erfindung sind die Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen einer mobilen Plattform (dem Navigationsroboter) zugewiesen und die Aufgabendurchführungsfunktionen der wenigstens einen zweiten mobilen Plattform (dem Funktionsroboter) zugewiesen.
- Die vorliegende Erfindung überwindet die Nachteile herkömmlicher Systeme, die derzeit in Verwendung stehen, indem nahezu Echtzeitmanövrierung und Aufgabenerfüllung bereitgestellt wird. Eine ideale Anwendung der vorliegenden Erfindung besteht in der Haushalts- oder Büroreinigung, welche typischerweise vielzählige und sich wiederholende Aufgaben wie Staubsaugen, Zusammenkehren und Abwischen mit sich bringt. Die vorliegende Erfindung könnte jedoch in jeder Umgebung, wo mehrere Roboter manövriert werden, um zugewiesene Aufgaben auszuführen, umgesetzt werden.
- 2. SYSTEMKOMPONENTEN
-
1 ist ein Blockdiagramm eines Mehr-Roboter-Systems100 gemäß der vorliegenden Erfindung. Das System100 umfasst einen Navigationsroboter110 , mehrere Funktionsroboter120 und (wahlweise) eine Basisstation130 . Es sollte beachtet werden, dass die Basisstation130 , obwohl sie Vorteile mit sich bringt, die im Folgenden beschrieben werden, in keiner Ausführungsform unbedingt erforderlich ist. - Die Basisstation
130 , wenn eingeschlossen, kann mit Ladestationen ausgestattet sein, um die mobilen Roboter110 und120 wiederum aufzuladen. Darüber hinaus kann die Basisstation130 so konfiguriert sein, um bei der Aufgabenausführung unterstützend zu wirken. Wenn zum Beispiel das System100 in einer Wohnungsreinigungsumgebung umgesetzt wird, kann die Basisstation13D mit einem Papierkorb, einem Müllkorb, einem Wasserbehälter und Ähnlichem ausgestattet sein, um in der Durchführung der angeforderten Aufgaben zu helfen. - In einer Ausführungsform ist der Navigationsroboter
110 für alle oder im Wesentlichen alle Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen verantwortlich. Er erzeugt und hält die Umgebungskarte, eine Liste der zu erfüllenden Aufgaben, einen Aufgabenablaufplan und einen Ladezeitplan auf Stand. Der Navigationsroboter110 ist mit allen Sensoren und aller Hardware konfiguriert, die zum Navigieren und Manövrieren seiner selbst als auch der Funktionsroboter120 erforderlich ist. In diesem Bezug weist der Navigationsroboter110 einen Sender zum Kommunizieren von Befehlen an die Funktionsroboter120 auf. - Die Funktionsroboter
120 führen besondere Aufgaben aus und können so gestaltet und bemessen sein, um die Ausführung jener Aufgaben zu ermöglichen. Die Roboter120 sind mit Empfängern zum Empfangen der Befehle vom Navigationsroboter110 ausgestattet und, wie in1 gezeigt, einmalige Formen oder Markierungen122 können den Robotern120 zugewiesen sein, um den Navigationsroboter110 in der Erkennung, Ortsbestimmung und Verfolgung der Funktionsroboter zu unterstützen. In einer Ausführungsform sind die Roboter120 vorzugsweise nicht mit zusätzlichen Sensoren, Sensorhardware und Ähnlichem ausgestattet, da der Navigationsroboter110 diese Funktionen ausführt. Wenn erwünscht, können jedoch die Roboter120 mit Sensoren und Ähnlichem ausgestattet sein, um ihre Funktionalität zu verbessern. - a. NAVIGATIONSROBOTER
-
2 ist ein Blockdiagramm eines Navigationsroboters110 gemäß der vorliegenden Erfindung. Die besondere Umsetzung des Roboters110 , gezeigt in2 , ist zu bloß veranschaulichenden Zwecken bereit gestellt und sollte nicht dahingehend ausgelegt werden, dass eine besondere körperliche Architektur für den Navigationsroboter110 erforderlich ist. - Ein Sensor
202 ist auf dem Navigationsroboter110 angebracht. Der Sensor202 kann jede Art Sensor sein, die für die Roboterumgebung geeignet ist und es können auch mehrere Sensoren eingesetzt werden. Er kann in einer feststehenden Position angebracht oder alternativ derart konfiguriert sein, dass er in der Lage ist, die Position und Ausrichtung relativ zum Navigationsroboter110 zu verändern. In Abhängigkeit vom Sensortyp und der Systemkomplexität kann die Position und Ausrichtung des Sensors202 der Steuerung des Navigationsroboters110 unterliegen oder auch nicht. - In einer beispielhaften Umsetzung ist der Sensor
202 eine Kamera, welche optische Bilder der umliegenden Umgebung aufzeichnet. In einer anderen Umsetzung umfasst der Sensor202 einen Satz Kameras, um eine Stereosicht zum Erzielen detaillierterer und genauerer Information über die Roboterumgebung bereit zu stellen. Andere Sensorwahlmöglichkeiten umfassen, sind aber nicht darauf beschränkt, Radar, Lichtmaser betriebenes Radar, Sonar und/oder Kombinationen derselben. Der Betrieb und die Konfiguration solcher Sensoren wird den Durchschnittsfachleuten auf diesem Gebiet der Technik vertraut sein. Der Navigationsroboter110 umfasst des Weiteren den Steuerteil204 , die Energiequelle und das Energieversorgungssystem206 , den Sender208 , den Motorsteuerteil210 , Motor212 und die Räder214 . Der Steuerteil204 umfasst einen Prozessor oder eine Zentralrecheneinheit (CPU)216 , einen Zwischenspeicher oder RAM218 und einen nicht flüchtigen Speicher220 . Informationen wie Karten und Arbeitsplanlisten werden im nicht flüchtigen Speicher220 gespeichert, welcher in einer Umsetzung ein EPROM oder EEPROM ist. Der Steuerteil204 empfängt und verarbeitet Information vom Sensor202 in Bezug auf die umliegende Umgebung des Roboters. Diese kann Information wie die örtliche Position des Navigationsroboters110 , die örtliche Position der anderen Funktionsroboter120 , in der Nähe befindlicher Richtzeichen und so weiter umfassen. Der Steuerteil204 verwendet diese Information, um zu bestimmen, welche Aufgaben oder Bewegungen als Nächstes auftreten. - Der Steuerteil
204 steuert, basierend auf der verfügbaren Information, die Ortsveränderung und das Manövrieren des Navigationsroboters110 . Das Verfahren und die Mittel, durch welche der Navigationsroboter110 sich selbst manövriert und die Fortbewegung bewirkt, wird als "Regelkreis" bezeichnet und umfasst den Motorsteuerteil210 , den Motor212 und die Räder214 . Der Steuerteil204 sendet, basierend auf der Information vom Sensor202 , geeignete Befehle an den Motorsteuerteil210 . Der Motorsteuerteil210 regelt den Motor212 gemäß diesen Befehlen. Der Motor212 seinerseits treibt die Räder214 an. In einigen Umsetzungen kann in Abhängigkeit vom Verfahren und der Komplexität der Fortbewegung der Regelkreis auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen. Der Regelkreis kann auch Wegstreckendaten sammeln und diese an den Steuerteil204 übertragen. - Wie in
3 dargestellt, steuert der Steuerteil204 in einer Ausführungsform auch die Bewegung der Funktionsroboter120 mittels des Senders208 . Der Steuerteil204 verarbeitet die Sensoreingabe201 , die vom Sensor202 empfangen wird, um zu bestimmen, welche Aufgabe, Bewegung oder andere Funktion des(der) Funktionsroboter als Nächstes unternommen werden sollte. Der Sender208 überträgt geeignete Steuersignale209 an den Empfänger302 des Funktionsroboters120 . - Der Sender
208 und der Empfänger302 können jedes geeignete Kommunikationsmittel und -medium verwenden. In einer Umsetzung werden akustische Wellen für die Kommunikation zwischen Navigationsroboter110 und Funktionsroboter120 eingesetzt. In einem Umsetzungsbeispiel würde eine akustische Welle auf einer Frequenz Bewegung in eine Richtung (d.i. vom Navigationsroboter110 zum Funktionsroboter120 ) bedeuten, während eine akustische Welle auf einer anderen Frequenz Bewegung in eine andere Richtung (d.i. vom Funktionsroboter120 zum Navigationsroboter110 ) bedeutet. Andere geeignete Kommunikationsmittel umfassen, aber sind nicht darauf beschränkt, leitungsgebundene Kommunikation oder drahtlose Kommunikation, Infrarotsignale und magnetische Induktion. - b. FUNKTIONSROBOTER
-
4 ist ein Blockdiagramm eines Funktionsroboters120 gemäß einer Ausführungsform der vorliegenden Erfindung. Wiederum ist die besondere Umsetzung des Roboters120 , gezeigt in4 , zu bloß veranschaulichenden Zwecken bereit gestellt und sollte nicht dahingehend ausgelegt werden, dass eine besondere körperliche Architektur für den Roboter120 erforderlich ist. Wie oben beschrieben, umfasst der Funktionsroboter120 einen Empfänger302 . Der Regelkreis zum Bewegen und Manövrieren des Roboters120 umfasst die Energiequelle und das Energieversorgungssystem402 , den Motorsteuerteil404 , den Motor406 und die Räder408 . Steuersignale, die vom Navigationsroboter110 mittels des Empfängers302 empfangen werden, lenken den Motorsteuerteil404 . Der Steuerteil404 regelt den Motor406 , welcher seinerseits die Räder408 antreibt. Der Regelkreis kann auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen. - Die Energiequelle und die Versorgungsmodule des Navigationsroboters
110 und des Funktionsroboters120 können ähnlich oder identisch sein. Der Energiequellenabschnitt kann jede geeignete Energiequelle umfassen, darunter, aber nicht darauf beschränkt, Batterien, elektrische Auslässe, Brennstoffzellen, Verbrennungsmotoren und andere Motoren oder Kombinationen derselben. Der Energieversorgungsabschnitt bedient die Energiequelle und verteilt sie, um jede anwendbare Bedingung oder jedes anwendbare Erfordernis zu erfüllen. - 3. SYSTEMBETRIEB
- Wie oben erwähnt, stellt die vorliegende Erfindung ein System und ein Verfahren zum Zuweisen der Kartierung, der Ortbestimmung, Planung, Steuerung und Aufgabendurchführung in einer kommerziellen Mehr-Roboter-Umgebung bereit. Insbesondere sind in einer Ausführungsform die Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen einer mobilen Plattform (dem Navigationsroboter) zugewiesen und die Aufgabendurchführungsfunktionen sind der wenigstens einen zweiten mobilen Plattform (dem Funktionsroboter) zugewiesen. Jede Funktion (Kartierung, Ortbestimmung, Vorplanung, Planung und Steuerung und Aufgabendurchführung) ist im Folgenden besprochen.
- a. KARTIEREN
- In einer Ausführungsform führt der Navigationsroboter
110 alle oder im Wesentlichen alle Kartierungsfunktionen aus. Das Kartieren ist der Vorgang, durch welchen eine Darstellung der Umgebung erzeugt und mit Sensordaten und durch vorprogrammierte Eingabe aktualisiert wird. Mehrere Karten, die unterschiedliche Niveaus der Auflösung, Stabilität und/oder Koordinatensysteme aufweisen, können aufrechterhalten werden. Dynamisches Kartieren erhält die laufende dynamische Karte (CDM), welche eine auf Wahrscheinlichkeit aufbauende zweidimensionale (2D) oder dreidimensionale (3D) Karte der Umgebung des Roboters ist, auf Stand. Eine statische Karte des äußeren Umfangs (d.s. Raumwände oder Platzgrenzen) der Umgebung kann auch erzeugt werden. Die Karten, welche durch den Navigationsroboter110 erzeugt werden, werden im RAM218 oder im nicht flüchtigen Speicher220 gespeichert. - Der wiederholende Kartierungsvorgang umfasst im Wesentlichen die Schritte des Bewegens in eine neue Position, des Sammelns von Sensordaten der Objekte und Hindernisse im unmittelbaren Umgebungsbereich, des Durchführens der Ortsbestimmung und des Aktualisierens der dynamischen Karte, um die Information, die von den neuen Sensordaten abgeleitet wird, einfließen zu lassen. Dieser Vorgang ist rechenleistungsmäßig intensiv und zeitaufwändig. Wie erklärt werden wird, verringert die Zusammenführung dieser Kartierungsfunktionen im Navigationsroboter
110 jedoch die Zeit, die zum Kartieren erforderlich ist, auf einen Bruchteil der Zeit, welche herkömmliche Systeme zum Kartieren anfordern. - Wie oben bemerkt, kann zusätzlich zu einer dynamischen Karte der Umgebung eine statische Karte der äußeren Grenze der Umgebung erzeugt werden. Die Karte kann zum Beispiel die Wände eines Gebäudes oder die Grenzen eines Platzes umfassen. Sie kann vorbestimmt sein und in den Navigationsroboter
110 eingegeben werden oder alternativ kann der Navigationsroboter110 eine statische Karte der Umgebung erstellen, bevor die Aufgabendurchführung eingeleitet wird. Im letzteren Fall folgt in einer Ausführungsform der Navigationsroboter110 einer körperlich deutlichen Begrenzungslinie, wobei er eine dynamische Karte, während er sich bewegt, auf Stand hält und die Begrenzungslinieninformation aus der dynamischen Karte in die statische Karte einfügt. Der Vorgang setzt sich fort, bis die statische Karte vollständig, konsistent und stabil vorliegt. - Der Vorgang des Erzeugens der statischen Karte ist relativ langwierig und wiederholend. Vorzugsweise wird er genau einmal bei der. Einführung des Systems in eine neue Umgebung ausgeführt. Die genaue Methodologie, die eingesetzt wird, um die Karte zu erzeugen, hängt von den verwendeten Sensoren und den gewählten Algorithmen ab, um die notwendigen Berechnungen auszuführen. Sobald erzeugt, wird in einer Umsetzung die statische Karte dauerhaft im Navigationsroboter
110 gespeichert. Der Navigationsroboter110 kann seine Position auf der statischen Karte durch Erkennen von Richtzeichen und anderen körperlichen Attributen der Umgebung und durch Ausrichten der CDM innerhalb der statischen Karte festlegen. Kein Ursprung oder Bezugspunkt ist erforderlich. per Einsatz gewisser Annahmen kann die Zeit und den Rechnereinsatz, die erforderlich sind, um die statische Karte zu erzeugen, verkürzen. In einer Büro- oder Wohnungsumgebung zum Beispiel kann angenommen werden, dass Wände rechtwinkelig und gerade sind. Der Einsatz solcher Annahmen verringert die Zeit, die erforderlich ist, um die statische Karte zu erzeugen. - In einer Umsetzung umfasst der Kartierungsvorgang drei Karten, die von den Sensordaten erzeugt werden, welche von einem Paar von digitalen Stereokameras abgeleitet werden, die auf dem Navigationsroboter
110 angebracht sind. Die erste Karte in dieser Umsetzung ist eine temporäre Karte (TM) der unmittelbaren Umgebung des Navigationsroboters110 . Im Besonderen ist die temporäre Karte eine probalistische 3D-Darstellung, die vom letzten Stereobilderpaar der unmittelbar umliegenden Umgebung erzeugt wird. Die zweite Karte in dieser Umsetzung ist die laufende dynamische Karte (CDM). Die CDM ist eine probalistische 3D-Darstellung der Arbeitsumgebung und ist durch wiederholtes Einarbeiten von Information aus aufeinander folgenden temporären Karten erzeugt. Die CDM in dieser Umsetzung wird jedes Mal aktualisiert, wenn sich der Navigationsroboter bewegt. Die dritte Karte in dieser Umsetzung ist die statische Begrenzungslinienkarte (PM). Wie oben beschrieben, wird die PM erzeugt, während der Navigationsroboter110 der äußeren Begrenzung der Umgebung folgt. - In einer anderen Umsetzung wird (werden) die Karte(n) nicht durch den Navigationsroboter
110 erzeugt, sondern werden in den Navigationsroboter110 eingegeben oder sind in diesem vorprogrammiert. In einer weiteren Umsetzung wird eine statische Karte vor dem Aufgabenbeginn weder erzeugt noch eingegeben. In dieser Umsetzung beginnt der Navigationsroboter110 einfach mit einer leeren dynamischen Karte und aktualisiert sie, während die Aufgaben ausgeführt werden. - b. ORTSBESTIMMUNG
- In einer Ausführungsform ist der Navigationsroboter
110 sowohl für das Navigieren seiner selbst als auch der Funktionsroboter120 in der kartierten Umgebung verantwortlich. In dieser Ausführungsform ist der Navigationsroboter110 für alle oder im Wesentlichen alle Aspekte der Navigation unter Einschluss der Ortsbestimmung, Planung und Steuerung für sich selbst und die Funktionsroboter120 verantwortlich. Im Gegensatz dazu ist in herkömmlichen Systemen jeder mobile Roboter für seine eigene Ortsbestimmung, Planung und Steuerung verantwortlich. Jeder Roboter in solchen Systemen ist verantwortlich für das Navigieren und Manövrieren seiner selbst in die richtige Position, um die Aufgabe zu erfüllen. Solche Systeme unterliegen Verzögerungen durch Ortsbestimmungsberechnungen für alle Roboter, was den Aufgabenabschluss langsam und unwirtschaftlich macht. Die vorliegende Ausführungsform der Erfindung vermeidet solche Verzögerungen und erhöht den Wirkungsgrad durch Sammeln aller oder im Wesentlichen aller Navigationsfunktionen in einem Navigationsroboter110 und durch Minimieren des Ausmaßes an Bewegung für diesen Roboter. - Ortsbestimmung ist der Vorgang, durch welchen die laufende Position, die Ausrichtung und Rate der Veränderung in der Karte des Roboters bestimmt wird. Unterschiedliche Vorgangsweisen können zur Ortsbestimmung des Navigationsroboters und zur Ortsbestimmung der Funktionsroboter verwendet werden. Die Ortsbestimmung der Funktionsroboter ist relativ einfach, da der Navigationsroboter in einer Ausführungsform ortsfest oder im Wesentlichen ortsfest ist, wenn er den Ort der Funktionsroboter bestimmt, und daher seine Position innerhalb der laufenden dynamischen Karte kennt. In einer Umsetzung verfolgt der Navigationsroboter einfach die Funktionsroboter unter Verwendung seines Sichtsystems (Sensoren) und filtert die Sichtdaten mit einem Spurfolgefilter wie einem Kalman-Filter. Wenn sich der Funktionsroboter nur eine kurze Distanz bewegt oder sich gedreht hat, können die Sensoren
202 des Navigationsroboters diese Bewegung erfassen und den Funktionsroboter örtlich bestimmen. In Umsetzungen, welche eine Basisstation verwenden, kann die Ortsbestimmung der Funktionsroboter nahe der Basisstation auch schnell sichergestellt werden. - Die einmaligen Formen und/oder geometrischen Markierungen
122 auf den Funktionsrobotern120 können auch den Navigationsroboter110 beim örtlichen Bestimmen der Funktionsroboter120 unterstützen. Die Art des Sensors202 , welcher durch den Navigationsroboter110 verwendet wird, legt fest, ob eine einmalige Form oder Markierung eingesetzt wird und wie sie erkannt wird. In einer Umsetzung verwendet der Navigationsroboter110 ein neurales Netz, um die Sensordaten zu verarbeiten und besondere Formen zu erkennen. In einer anderen Umsetzung verwendet der Navigationsroboter sein Sicht- oder Sensorsystem, um beliebige Markierungen und/oder Formen zu erkennen. - Zusätzlich zur Ortsbestimmung der Funktionsroboter
120 muss der Navigationsroboter110 in einer Ausführungsform sich selbst nach einer Bewegung örtlich bestimmen. Die Ortsbestimmung des Navigationsroboters ist untrennbar mit dem Kartieren, insbesondere mit der Instandhaltung der laufenden dynamischen Karte verbunden (d.i. der Navigationsroboter muss wissen, wo er sich auf der CDM befindet, um die CDM auf Stand zu halten). Wo sowohl eine laufende dynamische Karte und eine statische Begrenzungskarte verwendet werden, umfasst die Ortsbestimmung das Bestimmen der örtlichen Position sowohl des Navigationsroboters als auch der Funktionsroboter auf diesen Karten. Es sollte auch beachtet werden, dass die CDM vorprogrammiert sein kann. - Der Vorgang des örtlichen Bestimmens des Navigationsroboters ist typischerweise umfassender als der Vorgang des örtlichen Bestimmens der Funktionsroboter. Potentielle Verfahren, durch welche der Navigationsroboter sich selbst örtlich bestimmen kann, umfassen Koppelnavigations-, Aktivnavigationszeichenerkennungs-, Aktivsensorerkennungs- und Richtzeichenerkennungs-Verfahren. Bei Verwendung der Koppelnavigation kann eine grobe Abschätzung der Veränderung der Roboterposition unter Einsatz von Wegstreckenzählung und Trägheitsnavigationssystemen aufrecht erhalten werden. Aktivnavigationszeichenortungsverfahren bestimmen die Position des Roboters durch Messen seines Abstands von Navigationszeichen, die an bekannten Positionen in der Umgebung angeordnet sind. Dreiecksaufnahme kann dann eingesetzt werden, um die Position des Roboters exakt fest zu legen. Aktive Sensorortsbestimmungsverfahren verfolgen die Position des Roboters mit Sensoren wie Digitalkameras, welche an bekannten feststehenden Positionen angeordnet sind. Richtzeichenerkennungsverfahren können verwendet werden, in welchen der Roboter die Position von Merkmalen und Richtzeichen innerhalb der Umgebung erkennt und weiß. Die erkannten Richtzeichenpositionen werden dazu verwendet, um die Position des Roboters zu berechnen.
- Auf Grund ihrer geringen Kosten und ihrer Einfachheit wird eine Form der Koppelnavigation (insbesondere Wegstreckenzählung) in einer Ausführungsform der Erfindung bevorzugt. Koppelnavigationsbestimmungsfehler können sich jedoch über die Zeit auf Grund von Faktoren wie Radschlupf und Versetzung anhäufen. Um diese Fehler zu kompensieren, können Hilfstechniken wie die oben besprochenen in Verbindung mit der Koppelnavigation eingesetzt werden. Umweltfaktoren und -einschränkungen können die Sinnhaftigkeit von Hilfstechniken begrenzen. Aktivnavigationszeichen- und Aktivsensorverfahren erfordern typischerweise den Einbau ortsfremder Objekte wie Kameras oder reflektierende Bänder in der Umgebung des Roboters. Während der Einbau solcher Objekte in einer Fabrik und in industriellen Einrichtungen annehmbar sein kann, ist dies üblicherweise nicht so in Wohnungen, Büros oder im Freien. Aus diesen Gründen wird der Einsatz von Richtzeichenerkennung zur Verfeinerung der Koppelnavigationsortsbestimmung in einer Ausführungsform der Erfindung bevorzugt.
- Auch wenn die Koppelnavigation in Verbindung mit einer Hilfstechnik wie der Richtzeichenerkennung eingesetzt wird, mindern Faktoren wie begrenzte Sensorauflösung typischerweise die Genauigkeit der Ortsbestimmung. Eine Anzahl von Ortsbestimmungsalgorithmen, wie die Markov und Monte Carlo Algorithmen, können eingesetzt werden, um die Ortbestimmungsgenauigkeit weiter zu verbessern.
-
7a ist ein Flussdiagramm, welches die Unterschritte darstellt, die in einer Ausführungsform des Kartierungs- und Ortsbestimmungsvorgangs720 für den Navigationsroboter110 umfasst sind. Bei Schritt721 erhält der Navigationsroboter110 Sensordaten von seiner unmittelbaren Umgebung. In einer Ausführungsform wird ein Paar von Digitalstereokameras verwendet, um die Sensordaten zu erzielen. Aus dem Stereobildpaar wird eine neue temporäre Karte (TM) in Schritt722 erzeugt und relativ zur laufenden dynamischen Karte (CDM) ausgerichtet (Schritt723 ). Um die temporäre und die laufende Karte abzugleichen, wird ein Satz von Positionsschätzungen PEn–1.1...PEn–1.m erzeugt. Ein Ortsbestimmungsalgorithmus wie die Markov oder Monte Carlo Ortsbestimmungsalgorithmen kann verwendet werden, um diesen Satz von Schätzungen zu erzeugen. Der Fehlerbereich in den Positionsschätzungen bestimmt, wie groß der Faktor m ist. Die beste Schätzung PEn+1.k (1≤k≤m) aus dem Bereich wird ausgewählt und unter Verwendung von PEn+1.k wird aus der temporären Karte und den Sensordaten Information herausgeholt und der laufenden dynamischen Karte hinzugefügt (Schritt724 ). Die temporäre Karte wird dann verworfen. - Der Navigationsroboter
110 kann ortsfest bleiben (Schritt725 ), um die Rechenarbeit zu minimieren. In einer Ausführungsform verfolgt und steuert der Navigationsroboter110 die Funktionsroboter, während er ortsfest bleibt, wie unten beschrieben. In weiterer Folge muss sich der Navigationsroboter110 bewegen und beginnt sich in Richtung einer neuen Zielposition GPn+1 zu bewegen (Schritt726 ). Während sich der Navigationsroboter110 bewegt, kann er (wobei er in einer Umsetzung Koppelnavigationsverfahren einsetzt, wie oben beschrieben) für den Einsatz im Erzielen einer Schätzung seines Abstands und seiner Ausrichtung von PEn Wegstreckendaten sammeln (Schritt727 ). In einer Ausführungsform verfolgt der Navigationsroboter110 auch die Position eines oder mehrerer Funktionsroboter oder anderer erkannter Richtzeichen (durch einen Spurverfolgungsfilter), um eine verbesserte Abschätzung seiner laufenden Position bereit zu stellen. Wenn durch den Einsatz von Koppelnavigation und Richtzeichenerkennung wie oben beschrieben, der Navigationsroboter110 bestimmt, dass seine neueste Positionsschätzung PEn+1 innerhalb eines annehmbaren Schwellenwerts relativ zu der neuen Zielposition GPn+1 liegt (Entscheidungsknoten728 ), hört er auf und kehrt zu Schritt711 zurück, um den Ortsbestimmungs- und Kartierungsvorgang zu wiederholen. - c. VORPLANUNG
- In einer Ausführungsform kann der Navigationsroboter
110 Information über die Umgebung sammeln und Informationssammlung und Vorplanung ausführen. Die verschiedenen Unterschritte, die in einer Ausführungsform des Informationssammlungs- und Vorplanungsvorgangs umfasst sein können, sind genauer in7b dargestellt. Es sollte beachtet werden, dass die Schritte, die in7b dargestellt sind, in jeder beliebigen Ordnung ausgeführt werden können und dass jeder der Schritte wahlweise ist. Das bedeutet, die Informationssammlung und die Vorplanung können ohne einige der aufgelisteten Schritte erzielt werden und einige der aufgelisteten Schritte können im Navigationsroboter110 vorprogrammiert sein oder eingegeben werden. - In Schritt
731 sammelt der Navigationsroboter110 zusätzliche Daten wie die Merkmale des Raums oder der Umgebung, in welcher einer oder mehrere der Funktionsroboter vorhanden sind (d.s. Größe, Reinigungserfordernisse usw.) und die Arten der Oberflächen, welche in jenen Räumen vorhanden sind. In einer Ausführungsform werden Daten für jeden der Funktionsroboter im System gesammelt. Diese Daten können unter Verwendung derselben Sensoren gesammelt werden, die für das Kartieren und die Ortsbestimmung verwendet werden, oder es können alternativ unterschiedliche Sensoren verwendet werden, um Daten zu sammeln. Wenn ein Sensor zum Kartieren und zur Ortsbestimmung verwendet wird, kann es zum Beispiel notwendig sein, einen unterschiedlichen Sensor wie eine Kamera zum Sammeln von Daten wie Raumoberflächenarten einzusetzen. - In Schritt
732 bestimmt der Navigationsroboter110 , welche Funktionsroboter120 für die Aufgabenausführung verfügbar sind. Alternativ kann diese Information in den Navigationsroboter110 eingegeben werden oder in diesem vorprogrammiert sein oder es kann sich einfach um nicht notwendige Information handeln. Als Nächstes bestimmt in Schritt733 der Navigationsroboter110 , welche Aufgaben ausgeführt werden müssen. Wiederum kann diese Information im Navigationsroboter110 vorprogrammiert sein, mittels einer Schnittstelle eingegeben werden oder mittels einer Kombination von Vorprogrammierung und Eingabe bestimmt werden. - Unter Verwendung der Information, die in den Schritten
731 -733 gesammelt wurde, gleicht der Navigationsroboter110 die verfügbaren Funktionsroboter mit den Aufgaben, die erfüllt werden müssen, ab (Schritt734 ) und entwickelt einen Aufgabenzeitplan (Schritt735 ). Jede Aufgabe kann in Unteraufgaben unterteilt werden, um die Navigationsroboterbewegung zu minimieren und den Wirkungsgrad zu steigern. - d. PLANUNG UND STEUERUNG
- In einer Ausführungsform steuert der Navigationsroboter
110 die Funktionsroboter120 , um die geplanten Aufgaben auszuführen. Die Schritte, die in der Planung und Steuerung umfasst sind, sind genauer in7c dargestellt. In Schritt742 wartet der Navigationsroboter110 auf den Zeitpunkt (gemäß dem Aufgabenzeitplan, der wie oben beschrieben entwickelt wurde), um die Ausführung der nächsten geplanten Aufgabe zu beginnen. Zum Zeitpunkt oder vor dem Erreichen des Zeitpunkts für die nächste Aufgabe berechnet in Schritt744 der Navigationsroboter110 wiederholend die nächste Unteraufgabe der niedrigsten Ebene. Beispiele von Unteraufgaben der niedrigsten Ebene umfassen das Einschalten von Motoren und das Verfolgen eines Roboters, bis ein Ereignis eintritt. Der Navigationsroboter bewegt sich selbst oder bewegt und/oder steuert den(die) geeigneten Funktionsroboter, um jede Unteraufgabe auszuführen (Schritt746 ). Der Navigationsroboter110 gibt die geeigneten Steuersignale209 an die Funktionsroboter120 über seinen Sender208 aus (siehe3 ). Dieser Planungs- und Regelkreis wird wiederholt, bis die gesamte Aufgabe abgeschlossen ist (Entscheidungsknoten748 ). - Der Navigationsroboter
110 lenkt die Funktionsroboter120 entlang der geplanten Routen unter Verwendung der Regelkreise der Funktionsroboter. Wie oben beschrieben, umfasst in einer Ausführungsform der Regelkreis zum Bewegen und Manövrieren des Roboters120 die Energiequelle und das Energieversorgungssystem402 , den Motorsteuerteil404 , den Motor406 und die Räder408 . Die Steuersignale, welche vom Navigationsroboter110 mittels des Empfängers302 empfangen werden, steuern den Motorsteuerteil404 . Der Steuerteil404 steuert den Motor406 , welcher seinerseits die Räder408 antreibt. Der Regelkreis kann auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen. - Während sich der Funktionsroboter
120 bewegt, verharrt in einer Ausführungsform der Navigationsroboter110 ortsfest und verfolgt den Fortschritt des Funktionsroboters. Eine Anzahl von geeigneten Spurverfolgungsalgorithmen ist den Durchschnittsfachleuten auf diesem Gebiet der Technik bekannt. Das Unbewegthalten des Navigationsroboters110 verringert die rechentechnischen Aufwand für die Ortsbestimmung, wie er im Zusammenhang mit den Spurverfolgungsalgorithmen auftritt, in großem Umfang. Darüber hinaus verringert den Einsatz eines ortsfesten Navigationsroboters Verzögerungen, wie sie mit dem Navigieren um unvorhergesehene Hindernisse in Zusammenhang stehen. Der Navigationsroboter110 kann zuerst einen Funktionsroboter verwenden, um die geplante Route zu prüfen. Wenn eine Kollision auftritt, weiß der Navigationsroboter110 noch immer seine eigene Position und kann die Position des Funktionsroboters verfolgen, während er ihn lenkt, einen alternativen Pfad zu nehmen. Wie in5 gezeigt, kann der Navigationsroboter110 Hindernisse510 mittels Sensoreingabe530 "sehen" und kann einen Funktionsroboter120 um das Hindernis510 herum mittels des Regelkreises520 lenken. Dies ist weit weniger rechentechnisch aufwändig als die Verwendung des Navigationsroboters110 selbst, um die Aufgaben eines Funktionsroboters auszuführen oder wenn der Funktionsroboter120 den Spurverfolgungsvorgang selbst ausführen müsste. - In einer Ausführungsform ist der Navigationsroboter
110 in der Lage, die Funktionsroboter zu verfolgen und zu steuern, während sich die Funktionsroboter mit einer Rate bewegen, die wesentlich schneller ist als die jenige, die in herkömmlichen Systemen anzutreffen ist. Insbesondere in einer Ausführungsform ist das vorliegende System zur Bewegung mit einer Rate fähig, die wesentlich schneller ist als ein Fuß pro Sekunde pro 1.000 MIPS. Zusätzlich kann der Navigationsroboter110 ausreichend Verarbeitungsleistung aufweisen, um einige oder alle Kartierungs- und Ortsbestimmungsfunktionen auszuführen, während er gleichzeitig die Funktionsroboter verfolgt und steuert. - Im Zuge der Ereignisse kann der Navigationsroboter
110 sich selbst neu positionieren müssen, um das Verfolgen der Funktionsroboter120 fort zu setzen. Typischerweise tritt dies auf, wenn die Funktionsroboter sich weit weg bewegen müssen oder sich aus dem Sichtkontakt bewegt haben. Wenn der Navigationsroboter110 feststellt, dass er sich neu positionieren muss, befiehlt er in einer Ausführungsform den Funktionsrobotern, die Bewegung einzustellen, und bewegt sich dann, wobei er den Funktionsroboter als ein Richtzeichen einsetzt. - Wie in
6 gezeigt, verwendet der Navigationsroboter110 , wenn er sich bewegt, in einer Umsetzung die Sensoreingabe610 , um ein Dreieck von einem Funktionsroboter120 und einem anderen Richtzeichen612 wie der Ecke eines Raums oder einem Fenster aufzunehmen. Unter Verwendung dieser Daten bewegt sich der Navigationsroboter110 dann in die richtige Position. Wenn der Navigationsroboter110 an der neuen Stelle ankommt, führt er eine dynamische Kartierung und Ortsbestimmung (wie oben beschrieben) durch, um sicher zu stellen, dass er weiß, wo er sich befindet. Dieser Vorgang kann mehrere Minuten dauern, da Richtzeichen entfernt oder verdeckt sein können und Fehler in der Karte oder den Ortsdaten vorhanden sein können. Dieser wiederholende Vorgang ist relativ schnell im Vergleich zu herkömmlichen Verfahren, da wenigstens ein Richtzeichen, welches genau bekannte Abmessungen aufweist, immer in der Nähe des Navigationsroboters110 ist. Sobald der Navigationsroboter110 sich ausreichend nahe an die Funktionsroboter120 heran bewegt hat, kehrt in einer Umsetzung das Verfahren zu Schritt744 (7c ) zurück und der Navigationsroboter110 berechnet die nächste Unteraufgabe zur weiteren Aufgabenausführung. Die wiederholte Berechnung von Unteraufgaben beruht auf Algorithmen, welche die Bewegung des Navigationsroboters minimieren. - In einer Umsetzung verfolgt der Navigationsroboter
110 den(die) Funktionsroboter, während er(sie) seine(ihre) Aufgaben durchführt(en). In einer Umsetzung verwendet der Navigationsroboter110 ein Bewegungsmodell der Bewegung, die für die Aufgabe erforderlich ist, um beim Verfolgen der Roboter Unterstützung zu haben. Das Bewegungsmodell umfasst die erwarteten linearen Geschwindigkeiten und die Winkelgeschwindigkeiten und -beschleunigungen der Funktionsroboter für eine gegebene Oberflächenart und Eingabesätze für die Motoren und Stellglieder des Roboters. Sobald das Bewegungsmodell eine grobe Schätzung des Ortes des Funktionsroboters bereitstellt, kann der Navigationsroboter110 seine Sensoren202 einsetzen, um genauere Daten zu erzielen. Verschiedene Filteralgorithmen können eingesetzt werden, um die Bewegungsmodellfehler auszufiltern. In einer Umsetzung wird Kalman-Filtern eingesetzt. Andere geeignete Filteralgorithmen, wie sie den Durchschnittsfachleuten auf diesem Gebiet der Technik bekannt sind, wie g-h und Benedict-Bordner, können ebenfalls eingesetzt werden. Im Wesentlichen werden x-y und Ausrichtungsdaten verfolgt und der Filteralgorithmus verringert die Fehler auf Grund des Bewegungsmodells und der Sensoreingabe. - Beim Entscheidungsknoten
748 (7c ) bestimmt der Navigationsroboter110 , ob die gesamte Aufgabe oder die Unteraufgabe abgeschlossen ist. Wenn die Aufgabe abgeschlossen ist, kehrt das Verfahren zu Schritt742 zurück und der Navigationsroboter110 wartet auf den Zeitpunkt, um die nächste Aufgabe oder Unteraufgabe zu beginnen. In einer Umsetzung umfasst der Abschluss der Aufgabe die Rückkehr des Navigationsroboters110 und der Funktionsroboter zu einer Basisstation130 (1 ) zum Wiederaufladen. In diesem Zusammenhang sollte beachtet werden, dass über die gesamte Bewegungs- und Aufgabenausführung hinweg der Navigationsroboter110 die Energieniveaus der Funktionsroboter abschätzen und überwachen und sie zum Wiederaufladen zurück kehren lassen kann, wenn dies notwendig ist. - Zum Bewegen und Ausführen ihrer Aufgaben können einige Funktionsroboter wie Staubsauger Energie aus Wandauslässen anstatt aus selbst mitgeführter Energieversorgung erfordern. In einem System, welches solche Roboter verwendet, können der Navigationsroboter
110 und der Funktionsroboter als Team arbeiten, um den Wandauslass zu orten und den Funktionsroboter in den Auslass anzustecken. Wenn der(die) Funktionsroboter sich zu weit von einem besonderen Auslass wegbewegen muss(müssen), können sich der Navigationsroboter110 und die Funktionsroboter vom Auslass abstecken und zu einem anderen bewegen. - Der Fortschritt, den die vorliegende Erfindung gegenüber den Systemen nach dem Stand der Technik darstellt, ist am besten durch ein Beispiel veranschaulicht. Wir betrachten die Aufgabe des Staubsaugens eines 20' × 20' großen Raums. Angenommen, auf Grund der Abmessungen des Roboters muss sich ein Roboter acht lineare Fuß bewegen, um einen Quadratfuß des Bodens zu säubern. Mit einem Ortsbestimmungsalgorithmus, welcher zwei Sekunden Verarbeitung pro zurückgelegtem linearen Fuß auf einem 100 MIPS-Prozessor braucht, würde die Ortsbestimmungsberechnung 20 × 20 × 8 × 2 = 6400 Sekunden verbrauchen. Dies ist eine Berechnungsverzögerung von ungefähr 1 3/4 Stunden.
- Gemäß der vorliegenden Erfindung führt im Gegensatz dazu in einer Ausführungsform ein Funktionsroboter
120 das gesamte oder im Wesentlichen das gesamte Staubsaugen unter der Steuerung des Navigationsroboters110 durch. Unter der Annahme, dass sich der Navigationsroboter110 viermal während des Staubsaugens an Orte, die 10 Fuß auseinander liegen, bewegen muss, erfordern die Ortsbestimmungsberechnungen unter Verwendung eines Spurverfolgungsalgorithmus, der 40 Millisekunden pro zurück gelegtem, linearem Fuß benötigt: - 4 × 10 × 2 = 80
Sekunden für
den Navigationsroboter
110 ; und - 20 × 20 × 8 × 0,04 = 128 Sekunden für den Funktionsroboter.
- Die Gesamtverzögerung beträgt nur 208 Sekunden, was eine Verbesserung um mehr als den Faktor 30 bedeutet.
- 4. ALTERNATIVE AUSFÜHRUNGSFORMEN
- Eine Ausführungsform der Erfindung wurde gezeigt und oben beschrieben. Alternative Ausführungsformen der Erfindung sind ebenfalls vorgedacht. Eine zweite Ausführungsform der Erfindung zum Beispiel überlegt den Einsatz von mehr als einem Navigationsroboter. In der zweiten Ausführungsform ist ein erster oder Navigationssatz von Plattformen (mobile Roboter) verantwortlich für alle oder im Wesentlichen alle Kartierungs-, Ortsbestimmungs-, Planung- und Steuerungsfunktionen und ein zweiter oder Funktionssatz von Plattformen ist für die funktionale Aufgabendurchführung verantwortlich. Der erste Satz von Robotern ist dann. für Planung, Navigation und Verfolgung der Aufgabenausführung durch den zweiten Satz von Robotern verantwortlich. Die zweite Ausführungsform der Erfindung kann geeignet sein, wo zu viele Funktionsroboter für einen Navigationsroboter zu befehlen und steuern sind oder wo die Funktionsroboter über eine besonders große geographische Fläche verstreut. sind.
- In einer dritten Ausführungsform der Erfindung ist jeder Roboter sowohl als ein Navigationsroboter als auch als ein Funktionsroboter konfiguriert. Ein Roboter, welcher in Bewegung oder Aufgabenausführung engagiert ist, lässt einiges oder alles von seiner Navigation und der dazu gehörigen Rechnerleistung durch einen oder mehrere der anderen Roboter durchführen. Die anderen Roboter können ortsfest verharren, während sie diese Navigation und Rechnerarbeit durchführen. Die Roboter können Positions daten über drahtlose Kommunikationsverbindung kommunizieren. Diese Ausführungsform vereinfacht die Ortsbestimmung weiter, da die Roboter einander verfolgen und kein Roboter sich selbst verfolgen muss.
- In einer vierten Ausführungsform der Erfindung werden wieder Funktionsroboter, welche zum Kartieren, Ortsbestimmen, Planen und Steuern in der Lage sind, eingesetzt. In dieser Ausführungsform führen jedoch die Funktionsroboter eines oder mehrere aktive oder passive Navigationszeichen mit sich herum. Die Roboter positionieren das(die) Navigationszeichen und verwenden dann ihre Abstände von dem(den) Navigationszeichen, um ihre Position mittels Dreiecksaufnahme zu bestimmen.
- Schließlich könnte in jeder der vorangehenden Ausführungsformen ein ortsfester Computer oder eine andere mobile Plattform dazu abgestellt sein, einige oder alle Datenverarbeitung und Rechnerleistung auszuführen. In solch einer Konfiguration kann jeder Navigationsroboter mit geeigneten Sensoren zum Sammeln von Daten ausgerüstet sein. Die Sensordaten können entweder roh oder teilweise verarbeitet dem vorgesehenen Computer oder anderen mobilen Plattformen für die weitere Verarbeitung mittels eines Funknetzwerks oder anderer geeigneter Kommunikationsmittel übertragen werden. Der dafür abgestellte Computer kann die notwendigen Rechenleistungen ausführen und die Ergebnisse an den Navigationsroboter kommunizieren.
- 5. VERFAHREN DER UMSETZUNG EINES MEHR-PLATTFORM-ROBOTER-SYSTEMS
- Ein Verfahren
800 zum Umsetzen des Systems der vorliegenden Erfindung ist in8 dargestellt. In Schritt802 ist ein autonomes System, welches zwei oder mehrere körperlich getrennte mobile Plattformen umfasst, bereit gestellt. In Schritt804 werden die Funktionen des Kartierens, der Ortsbestimmung, des Planens und Steuerns einer ersten Untergruppe des Systems zugewiesen, welche mindestens eine der körperlich einzelnen Plattformen umfasst. Die Plattformen, die in dieser ersten Untergruppe umfasst sind, werden als die Navigationsplattformen bezeichnet. - In Schritt
806 wird die Verantwortlichkeit für die funktionale Aufgabenausführung einer zweiten Untergruppe des Systems zugewiesen, die Plattformen umfasst, die nicht zur ersten Untergruppe gehören. Die Plattformen, welche in dieser zweiten Untergruppe umfasst sind, werden als Funktionsplattformen bezeichnet. In Schritt808 erstellen die Navigationsplattformen eine Karte der Umgebung, bestimmen die Ortspositionen aller Roboter innerhalb der Umgebung und planen den Aufgabenausführungsablauf. Diese Aufgaben können in kleinere Aufgaben unterteilt werden, um das Verfolgen leichter durchführbar zu machen und um die Notwendigkeit, die Navigationsroboter zu bewegen, zu begrenzen. Im Schritt810 können die Navigationsroboter ortsfest bleiben, während sie die Funktionsplattformen bei der Ausführung der zugewiesenen Aufgaben steuern. Im Schritt812 , welcher wahlweise ist, können sich die Navigationsroboter in eine neue Position bewegen, wobei sie eine oder mehrere der Funktionsplattformen als ein Richtzeichen verwenden.
Claims (54)
- System (
100 ,1 ;3 ) mobiler Roboter, betrieben in einer Umgebung betrieben und umfassend: einen oder mehrere im Wesentlichen nicht selbstständige(n) mobile(n) Funktionsroboter (120 ,1 ,3 ,4 ), der(die) so konfiguriert ist(sind), um eine funktionale Aufgabe auszuführen; und einen oder mehrere selbstständige(n) mobile(n) Navigationsroboter (110 ,1 ,3 ,4 ), der(die) so konfiguriert ist(sind), um sich selbst und den(die) Funktionsroboter in der Umgebung anfänglich und, während sich der Funktionsroboter bewegt, örtlich zu bestimmen (723 und727 ,7a ), wobei jeder Navigationsroboter einen oder mehrere Sensoren umfasst (202 ,2 ,3 ) zum Sammeln von Daten (201 ,3 ;530 ,5 ;721 ,7a ;731 ,7b ) über die Umgebung, und einen Sender (208 ,2 ,3 ) zum Senden von wenigstens Steuersignalen, die funktionale Aufgaben bezeichnen, (209 ,3 ) an den(die) Funktionsroboter, und wobei eine Steuereinheit (204 ,2 ) zum Planen und Steuern der Aufgaben und Bewegung des einen oder der mehreren nicht selbstständigen Funktionsroboter(s) innerhalb der Umgebung bereit gestellt ist. - System gemäß Anspruch 1, wobei der(die) selbstständige(n) mobile(n) Navigatorroboter (
110 ,1 ,2 ,3 ) so konfiguriert ist(sind), um sich selbst und den(die) Funktionsroboter innerhalb der Umgebung örtlich zu bestimmen (723 und727 ,7a ), wobei eine Verbindung aus Spurverfolgung (5 ;725 ,7a ;746 ,7c ) und Anhaltspunkterkennung (726 und727 ,7a ;610 –612 ,6 ) eingesetzt wird. - System gemäß Anspruch 1 oder 2, wobei der(die) Funktionsroboter als Anhaltspunkte ausgenützt wird(werden) (
812 ,8 ;610 ,6 ). - System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter so konfiguriert ist, um eine Landkarte der Umgebung zu speichern (
722 und724 ,7a ;808 ,8 ). - System gemäß jedem der Ansprüche 1 bis 4, wobei der(die) Navigationsroboter ortsfest bleibt(bleiben), wenn der(die) Funktionsroboter sich gerade bewegt (bewegen).
- System gemäß jedem der Ansprüche 1 bis 4, wobei der(die) Funktionsroboter ortsfest bleibt(bleiben), wenn der(die) Navigationsroboter sich gerade bewegt (bewegen).
- System gemäß jedem der vorangehenden Ansprüche, wobei jeder Funktionsroboter einen Empfänger zum Empfangen der Steuersignale vom Navigationsroboter umfasst.
- System aus Anspruch 1, wobei der(die) Navigationsroboter und der(die) Funktionsroboter miteinander verdrahtet sind.
- System gemäß jedem der Ansprüche 2 bis 8, wobei der(die) Navigationsroboter die Bewegung des(der) Funktionsroboter(s) steuert und die tatsächliche Bewegung unter Verwendung seiner Sensoren verfolgt.
- System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter eine dynamische Landkarte der Umgebung erstellt, wobei Sensordaten von seiner unmittelbaren Umgebung bezogen werden, eine vorläufige Landkarte aus den Sensordaten geschaffen wird, die vorläufige Landkarte in die dynamische Landkarte einbezogen wird und er sich an einen neuen Ort bewegt, um neue Sensordaten zu erhalten.
- System gemäß jedem der Ansprüche 1 bis 10, wobei jeder Navigationsroboter eine statische Landkarte der Umgebung durch Abfahren des äußeren Umfangs der Umgebung und Eintragen desselben in eine Landkarte erstellt.
- System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter die Aufgaben, die durch den Funktionsroboter ausgeführt werden sollen, in einem Speicher aufbewahrt (
218 und220 ,2 ). - System gemäß jedem der vorangehenden Ansprüche, wobei der Navigationsroboter die Aufgaben, die durch den Funktionsroboter ausgeführt werden sollen, durch Bestimmen, welche Aufgaben abgeschlossen werden müssen, plant, wobei er den(die) Funktionsroboter einer bestimmten Aufgabe angepasst zuteilt und einen Aufgabenzeitplan entwickelt.
- System gemäß jedem der vorangehenden Ansprüche, wobei die Steuereinheit die Aufgaben, die durch die Funktionsroboter ausgeführt werden sollen, plant und die Funktionsroboter während der Aufgabenausführung steuert.
- System gemäß jedem der vorangehenden Ansprüche, wobei die Steuereinheit in wenigstens einem der autonomen mobilen Navigationsroboter angeordnet ist.
- System gemäß jedem der Ansprüche 1 bis 14 und des Weiteren umfassend eine Basisstation zur Unterstützung beim Abschließen der Aufgaben, zur Verfolgung des(der) Funktionsroboter(s) oder zum Wiederaufladen der Roboter.
- System gemäß jedem der Ansprüche 1 bis 14, wobei Berechnungen, die im Zusammenhang mit der örtlichen Erfassung stehen, durch einen ortsfesten Computer ausgeführt werden und dem(den) Navigationsroboter(n) übermittelt werden.
- System gemäß jedem der Ansprüche 1 bis 14, zusätzlich umfassend eine oder mehrere Berechnungsplattform(en) in Verbindung mit einem oder mehreren autonomen mobilen Navigationsroboter(n).
- System gemäß Anspruch 18, wobei die Berechnungsplattform(en) ortsfest oder mobil sein kann(können).
- System gemäß Anspruch 19, wobei die Sensordaten an die Berechnungsplattform(en) zur weiteren Verarbeitung übertragen werden.
- System gemäß jedem der vorangehenden Ansprüche, wobei der(die) Navigationsroboter sich selbst zusätzlich unter Verwendung von Koppelnavigation örtlich bestimmt(bestimmen).
- System gemäß jedem der vorangehenden Ansprüche, wobei die Sensoren eine oder mehrere Kamera(s) umfassen.
- System gemäß jedem der vorangehenden Ansprüche, wobei die Sensoren eine oder mehrere digitale Kamera(s) umfassen.
- System gemäß jedem der vorangehenden Ansprüche, wobei der eine oder die mehreren nicht autonomen mobilen Funktionsroboter so konfiguriert ist(sind), um eine oder mehrere sich wiederholende Aufgaben innerhalb eines Flächenbereichs auszuführen.
- System gemäß jedem der vorangehenden Ansprüche, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um den Flächenbereich als Landkarte zu erfassen.
- System gemäß Anspruch 25, wobei jeder Navigationsroboter einen Speicher (
218 und220 ,2 ) zum Speichern von Landkarten (722 und724 ,7a ) der Umgebung umfasst. - System gemäß Anspruch 25, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um den Aufenthaltsort des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu bestimmen.
- System gemäß Anspruch 27, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um die Gesamtbewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu planen.
- System gemäß Anspruch 28, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um die Gesamtbewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu verfolgen.
- Verfahren für den Betrieb vieler Roboter (
1 ,3 ) in einer Umgebung, wobei das Verfahren umfasst: (a) Bereitstellen wenigstens eines autonomen mobilen Navigationsroboters (110 ,1 ,2 ,3 ) und wenigstens eines im Wesentlichen nicht autonomen mobilen Funktionsroboters (120 ,1 ,3 ,4 ); (b) Erfassen des Aufenthaltsorts (723 und727 ,7a ;808 ,8 ) mit wenigstens einem Navigationsroboter des wenigstens einen Navigationsroboters und des wenigstens einen Funktionsroboters in der Ausgangsstellung und während sich der wenigstens eine Funktionsroboter bewegt; (c) Planen mit dem wenigstens einen Navigationsroboter von Aufgaben (732 –735 ,7b ;742 –744 ,7c ;808 ,8 ), die durch den wenigstens einen Funktionsroboter ausgeführt werden sollen, und Übertragen von wenigstens Steuersignalen, welche die geplanten Aufgaben anzeigen; (d) Ausführen der durch den wenigstens einen Navigationsroboter geplanten Aufgaben mit dem wenigstens einen Funktionsroboter (810 ,8 ); und (e) Steuern und Verfolgen (5 ;725 ,7a ;746 ,7c ;810 ,8 ) mit dem wenigstens einen Navigationsroboter des wenigstens einen Funktionsroboters während der Aufgabenausführung, wobei das Steuern das Anweisen der Bewegung des wenigstens einen nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst. - Verfahren gemäß Anspruch 30, des weiteren umfassend das Erzeugen einer laufenden dynamischen Landkarte mit dem wenigstens einen Navigationsroboter, wobei die folgenden Schritte eingesetzt werden: Erhalten von Sensordaten über die unmittelbare Umgebung des Navigationsroboters; Erstellen einer vorläufigen Landkarte aus den erhaltenen Sensordaten; Einbeziehen der vorläufigen Landkarte in eine laufende dynamische Landkarte; Bewegen des Navigationsroboters auf einen neuen Ort; und Wiederholen (b) durch Erhalten von Sensordaten an dem neuen Aufenthaltsort.
- Verfahren gemäß Anspruch 31, des Weiteren umfassend das Erstellen einer statischen Umkreislandkarte mit dem wenigstens einen Navigationsroboter durch Folgen und landkartenmäßiges Erfassen des äußeren Umkreises der Umgebung.
- Verfahren gemäß jedem der Ansprüche 30 bis 32, wobei in Schritt (b) das örtliche Erfassen des Funktionsroboters das Verfolgen des Funktionsroboters unter Verwendung eines visuellen Systems, das auf dem Navigationsroboter angebracht ist, umfasst.
- Verfahren gemäß jedem der Ansprüche 30 bis 32, wobei in Schritt (b) das örtliche Erfassen des Navigationsroboters die folgenden Schritte umfasst: Bewegen des Navigationsroboters in Richtung einer neuen Position; Abschätzen der gegenwärtigen Position des Navigationsroboters unter Verwendung von Koppelnavigation und/oder Richtzeichenerkennungstechniken; Bestimmen, ob die gegenwärtige Position ungefähr gleich der neuen Position ist, und wenn sie das nicht ist, Fortfahren, sich in Richtung der neuen Position zu bewegen; wenn die gegenwärtige Position ungefähr gleich der neuen Position ist: Anhalten des Navigationsroboters und Erhalten neuer Sensordaten, Erstellen einer vorläufigen Landkarte aus den neuen Sensordaten, Verwenden eines Ortsbestimmungsalgorithmus, um die vorläufige Landkarte mit einer Landkarte der Umgebung abzugleichen, und Einbeziehen der Information aus der vorläufigen Landkarte in die Karte der Umgebung.
- Verfahren gemäß jedem der Ansprüche 30 bis 34, wobei (c) wenigstens eine Handlung umfasst, die aus der Gruppe ausgewählt ist, die umfasst: Sammeln von Daten über Räume und Oberflächen in der Umgebung; Bestimmen, welche Funktionsroboter verfügbar sind, um die Aufgaben auszuführen; Bestimmen, welche Aufgaben fertig gestellt werden müssen; Abgleichen der verfügbaren Funktionsroboter mit den Aufgaben, die fertig gestellt werden müssen; und Entwickeln eines Aufgabenzeitplans.
- Verfahren gemäß jedem der Ansprüche 30 bis 35, wobei (e) das Folgende umfasst: dem Funktionsroboter befehlen, sich in eine richtige Position zu bewegen, um die Aufgabenausführung zu beginnen; Verfolgen des Funktionsroboters, während er sich in die richtige Position bewegt; wenn sich der Funktionsroboter zu weit weg bewegt, um das Verfolgen möglich zu erhalten, dem Funktions roboter befehlen, anzuhalten und den Navigationsroboter näher an den Funktionsroboter zu bewegen; wenn der Funktionsroboter die richtige Position erreicht, dem Funktionsroboter befehlen, die Aufgabenausführung zu beginnen; und den Funktionsroboter während der Aufgabenausführung verfolgen.
- Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der Navigationsroboter ortsfest bleibt, während er die Bewegung und die Aufgabenausführung des Funktionsroboters verfolgt.
- Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der autonome mobile Navigationsroboter ortsfest bleibt, während er die Aufgabenausführung durch den nicht autonomen mobilen Funktionsroboter steuert.
- Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der autonome mobile Navigationsroboter sich in eine neue Position bewegt, wobei er den nicht autonomen mobilen Funktionsroboter als Richtzeichen verwendet.
- Verfahren gemäß jedem der Ansprüche 30 bis 39, zusätzlich umfassend das Zuweisen von funktionalen Aufgabenausführungsfunktionen an den nicht autonomen mobilen Funktionsroboter, und wobei das Bestimmen der Aufenthaltsorte mit Bezug auf im Wesentlichen alle mobilen Roboter in der Umgebung durchgeführt wird.
- Verfahren gemäß jedem der Ansprüche 30 bis 40, wobei das Bestimmen der Aufenthaltsorte und das Verfolgen das Navigieren des wenigstens einen nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst und wobei das Steuern das Anweisen der Bewegung des nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst.
- Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte das landkartengemäße Aufnehmen der Umgebung durch den autonomen mobilen Navigationsroboter umfasst.
- Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte das Bestimmen des Ortes der nicht autonomen mobilen Funktionsroboter unter Verwendung des autonomen mobilen Navigationsroboters umfasst.
- Verfahren gemäß Anspruch 41, des Weiteren umfassend das Planen der Bewegung der nicht autonomen mobilen Funktionsroboter in dem Flächenbereich unter Verwendung des autonomen mobilen Navigationsroboters.
- Verfahren gemäß Anspruch 41, wobei das Verfolgen das ununterbrochene Überwachen der Bewegung der nicht autonomen mobilen Funktionsroboter umfasst.
- Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte Richtzeichenerkennung umfasst.
- Verfahren gemäß Anspruch 41 oder 42, wobei wenigstens ein nicht autonomer mobiler Funktionsroboter als ein Richtzeichen verwendet wird.
- Verfahren gemäß Anspruch 42, wobei das Bestimmen der Aufenthaltsorte Koppelnavigation umfasst.
- Verfahren gemäß Anspruch 30, zusätzlich umfassend das miteinander Verdrahten des wenigstens einen autonomen mobilen Navigationsroboters und des wenigstens einen nicht autonomen mobilen Funktionsroboters.
- Verfahren gemäß Anspruch 30, zusätzlich umfassend das Bereitstellen einer oder mehrerer Navigationsberech nungsplattform(en), wobei das Verarbeiten der Navigationsinformation durch eine oder mehrere Berechnungsplattform(en) in Verbindung mit den Navigationsrobotern unterstützt wird.
- Verfahren gemäß Anspruch 50, wobei die Berechnungsplattform(en) ortsfest oder mobil sein kann(können).
- Verfahren gemäß Anspruch 50, zusätzlich umfassend das Übertragen von Sensordaten des wenigstens einen autonomen mobilen Navigationsroboters an die Berechnungsplattform(en) zur weiteren Verarbeitung.
- Verfahren gemäß Anspruch 31, zusätzlich umfassend das Steuern der Bewegung des wenigstens einen im Wesentlichen nicht autonomen mobilen Funktionsroboters und das Verfolgen der tatsächlichen Bewegung des im Wesentlichen nicht autonomen mobilen Funktionsroboters unter Verwendung der Sensordaten.
- Autonomer mobiler Navigationsroboter zum Betrieb in einem System (
100 ,1 ;3 ) mit einem oder mehreren im Wesentlichen nicht autonomen mobilen Funktionsrobotern (120 ,1 ,3 ,4 ), die so konfiguriert sind, um funktionale Aufgaben auszuführen, und mit einer Steuereinheit (204 ,2 ) zum Planen der Aufgaben des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) und zum Anweisen der Bewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb einer Umgebung, wobei der Navigationsroboter umfasst: Mittel zum Lokalisieren (723 und727 ,7a ) von sich selbst und des(der) Funktionsroboter(s) innerhalb der Umgebung zu Beginn und wenn sich der Funktionsroboter bewegt; und einen Sender (208 ,2 ,3 ) zum Übertragen von wenigstens Steuersignalen, welche die geplanten Aufgaben (209 ,3 ) des(der) Funktionsroboter(s) bezeichnen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US449177 | 1989-12-13 | ||
US09/449,177 US6374155B1 (en) | 1999-11-24 | 1999-11-24 | Autonomous multi-platform robot system |
PCT/US2000/032220 WO2001038945A1 (en) | 1999-11-24 | 2000-11-22 | Autonomous multi-platform robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60011674D1 DE60011674D1 (de) | 2004-07-22 |
DE60011674T2 true DE60011674T2 (de) | 2005-07-14 |
Family
ID=23783190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60011674T Expired - Lifetime DE60011674T2 (de) | 1999-11-24 | 2000-11-22 | Autonomes mehrplattform robotersystem |
Country Status (9)
Country | Link |
---|---|
US (2) | US6374155B1 (de) |
EP (1) | EP1240562B1 (de) |
JP (1) | JP4951180B2 (de) |
CN (1) | CN1188762C (de) |
AT (1) | ATE269554T1 (de) |
AU (1) | AU1796301A (de) |
CA (1) | CA2392231C (de) |
DE (1) | DE60011674T2 (de) |
WO (1) | WO2001038945A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018204704A1 (de) * | 2018-03-28 | 2019-10-02 | Zf Friedrichshafen Ag | System zum Überwachen eines Überwachungsbereichs |
Families Citing this family (356)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3822361B2 (ja) * | 1998-07-10 | 2006-09-20 | 株式会社日立製作所 | 配光制御素子およびこれを備えた表示装置 |
US8412377B2 (en) * | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) * | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
AT412196B (de) * | 2000-03-17 | 2004-11-25 | Keba Ag | Verfahren zur zuordnung einer mobilen bedien- und/oder beobachtungseinrichtung zu einer maschine sowie bedien- und/oder beobachtungseinrichtung hierfür |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
US6741054B2 (en) | 2000-05-02 | 2004-05-25 | Vision Robotics Corporation | Autonomous floor mopping apparatus |
US6507771B2 (en) * | 2000-07-10 | 2003-01-14 | Hrl Laboratories | Method and apparatus for controlling the movement of a plurality of agents |
US7330776B1 (en) * | 2000-10-06 | 2008-02-12 | Innovation First, Inc. | System, apparatus, and method for managing and controlling robot competitions |
US20030056252A1 (en) * | 2000-10-11 | 2003-03-20 | Osamu Ota | Robot apparatus, information display system, and information display method |
SE0004465D0 (sv) | 2000-12-04 | 2000-12-04 | Abb Ab | Robot system |
SE0004466D0 (sv) | 2000-12-04 | 2000-12-04 | Abb Ab | Mobile Robot |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6690134B1 (en) * | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
KR100922506B1 (ko) | 2001-03-16 | 2009-10-20 | 비젼 로보틱스 코포레이션 | 카니스터형 자동 진공 청소기 및 그 시스템 및 이를 사용하여 진공청소를 하는 방법 |
JP4398153B2 (ja) * | 2001-03-16 | 2010-01-13 | ヴィジョン・ロボティクス・コーポレーション | 画像センサの有効ダイナミックレンジを増加させる装置及び方法 |
DE50208417D1 (de) * | 2001-04-05 | 2006-11-23 | Siemens Ag | Roboterintelligenz in natürlichen umgebungen |
AU767561B2 (en) * | 2001-04-18 | 2003-11-13 | Samsung Kwangju Electronics Co., Ltd. | Robot cleaner, system employing the same and method for reconnecting to external recharging device |
US6763282B2 (en) * | 2001-06-04 | 2004-07-13 | Time Domain Corp. | Method and system for controlling a robot |
US7429843B2 (en) | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
US7117067B2 (en) * | 2002-04-16 | 2006-10-03 | Irobot Corporation | System and methods for adaptive control of robotic devices |
US7844364B2 (en) | 2002-04-16 | 2010-11-30 | Irobot Corporation | Systems and methods for dispersing and clustering a plurality of robotic devices |
JP2004133882A (ja) * | 2002-05-10 | 2004-04-30 | Royal Appliance Mfg Co | 自律性マルチプラットフォーム・ロボットシステム |
US20050149256A1 (en) * | 2002-05-10 | 2005-07-07 | Siemens Aktiengesellschaft | Device for determining the position by means of fixed and/or variable landmarks |
US6836701B2 (en) * | 2002-05-10 | 2004-12-28 | Royal Appliance Mfg. Co. | Autonomous multi-platform robotic system |
JP4043289B2 (ja) * | 2002-05-27 | 2008-02-06 | シャープ株式会社 | 探索ロボットシステム |
US7742845B2 (en) * | 2002-07-22 | 2010-06-22 | California Institute Of Technology | Multi-agent autonomous system and method |
US6925357B2 (en) | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
US6904335B2 (en) | 2002-08-21 | 2005-06-07 | Neal Solomon | System, method and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system |
US7054716B2 (en) * | 2002-09-06 | 2006-05-30 | Royal Appliance Mfg. Co. | Sentry robot system |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
KR100468107B1 (ko) * | 2002-10-31 | 2005-01-26 | 삼성광주전자 주식회사 | 외부충전장치를 갖는 로봇청소기 시스템 및 로봇청소기의외부충전장치 접속방법 |
US6845303B1 (en) * | 2002-11-05 | 2005-01-18 | Lockheed Martin Corporation | Micro-satellite and satellite formation for inverse and distributed proximity operations |
GB2409734B (en) * | 2002-11-11 | 2007-01-03 | Alfred Schurmann | Determination and control of activities of an emotional system |
US7145478B2 (en) * | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
KR100492588B1 (ko) * | 2003-01-23 | 2005-06-03 | 엘지전자 주식회사 | 자동 주행 청소기의 위치정보 인식장치 |
GB2398394B (en) * | 2003-02-14 | 2006-05-17 | Dyson Ltd | An autonomous machine |
US20040244138A1 (en) * | 2003-03-14 | 2004-12-09 | Taylor Charles E. | Robot vacuum |
US7805220B2 (en) | 2003-03-14 | 2010-09-28 | Sharper Image Acquisition Llc | Robot vacuum with internal mapping system |
US6804580B1 (en) * | 2003-04-03 | 2004-10-12 | Kuka Roboter Gmbh | Method and control system for controlling a plurality of robots |
US7418312B2 (en) * | 2003-09-19 | 2008-08-26 | Sony Corporation | Robot apparatus and walking control method thereof |
JP2005103722A (ja) * | 2003-09-30 | 2005-04-21 | Toshiba Corp | 協調ロボット装置、システム、およびナビゲーションロボット装置 |
AU2004294651A1 (en) * | 2003-10-21 | 2005-06-16 | Proxy Aviation Systems, Inc. | Methods and apparatus for unmanned vehicle control |
US7376487B2 (en) * | 2003-11-25 | 2008-05-20 | International Business Machines Corporation | Nesting negotiation for self-mobile devices |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US20050204438A1 (en) | 2004-02-26 | 2005-09-15 | Yulun Wang | Graphical interface for a remote presence system |
KR100571834B1 (ko) * | 2004-02-27 | 2006-04-17 | 삼성전자주식회사 | 청소 로봇의 바닥 먼지 검출 방법 및 장치 |
US7720554B2 (en) | 2004-03-29 | 2010-05-18 | Evolution Robotics, Inc. | Methods and apparatus for position estimation using reflected light sources |
JP4377744B2 (ja) * | 2004-05-13 | 2009-12-02 | 本田技研工業株式会社 | ロボット制御装置 |
EP1776624A1 (de) | 2004-06-24 | 2007-04-25 | iRobot Corporation | Programmier- und diagnosewerkzeug für einen beweglichen roboter |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US11209833B2 (en) | 2004-07-07 | 2021-12-28 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
US7840308B2 (en) * | 2004-09-10 | 2010-11-23 | Honda Motor Co., Ltd. | Robot device control based on environment and position of a movable robot |
KR100664053B1 (ko) * | 2004-09-23 | 2007-01-03 | 엘지전자 주식회사 | 로봇청소기의 청소툴 자동 교환 시스템 및 방법 |
US7271702B2 (en) * | 2004-09-23 | 2007-09-18 | International Business Machines Corporation | Method and system for autonomous correlation of sensed environmental attributes with entities |
JP4460411B2 (ja) * | 2004-10-01 | 2010-05-12 | 本田技研工業株式会社 | ロボット制御装置 |
US7341224B1 (en) * | 2004-10-14 | 2008-03-11 | Osann Jr Robert | Miniature expendable surveillance balloon system |
JP4478584B2 (ja) * | 2005-01-17 | 2010-06-09 | 株式会社ミツトヨ | 位置制御装置、測定装置および加工装置 |
KR100776215B1 (ko) | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
ATE468062T1 (de) | 2005-02-18 | 2010-06-15 | Irobot Corp | Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung |
US7389156B2 (en) * | 2005-02-18 | 2008-06-17 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US7620476B2 (en) | 2005-02-18 | 2009-11-17 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US7873962B2 (en) * | 2005-04-08 | 2011-01-18 | Xerox Corporation | Distributed control systems and methods that selectively activate respective coordinators for respective tasks |
US8819103B2 (en) * | 2005-04-08 | 2014-08-26 | Palo Alto Research Center, Incorporated | Communication in a distributed system |
US7791741B2 (en) * | 2005-04-08 | 2010-09-07 | Palo Alto Research Center Incorporated | On-the-fly state synchronization in a distributed system |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US7706007B2 (en) * | 2005-04-08 | 2010-04-27 | Palo Alto Research Center Incorporated | Synchronization in a distributed system |
US20060235584A1 (en) * | 2005-04-14 | 2006-10-19 | Honeywell International Inc. | Decentralized maneuver control in heterogeneous autonomous vehicle networks |
DE102005017456B4 (de) * | 2005-04-15 | 2007-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Anordnung mit einer Vielzahl relativ zu einer technischen Oberfläche angeordneten, unabhängig voneinander, eigenfortbewegungsfähigen Plattformen |
KR100738890B1 (ko) | 2005-07-22 | 2007-07-12 | 엘지전자 주식회사 | 이동로봇을 이용한 홈 네트워킹 시스템 |
US7610122B2 (en) * | 2005-08-16 | 2009-10-27 | Deere & Company | Mobile station for an unmanned vehicle |
US7456596B2 (en) * | 2005-08-19 | 2008-11-25 | Cisco Technology, Inc. | Automatic radio site survey using a robot |
JP4185926B2 (ja) * | 2005-08-26 | 2008-11-26 | ファナック株式会社 | ロボット協調制御方法及びシステム |
KR100645381B1 (ko) * | 2005-08-31 | 2006-11-14 | 삼성광주전자 주식회사 | 로봇청소기의 외부충전 복귀장치 및 복귀방법 |
US7267020B2 (en) * | 2005-08-31 | 2007-09-11 | Honeywell International, Inc. | Apparatus for structural testing |
KR100674564B1 (ko) * | 2005-09-08 | 2007-01-29 | 삼성광주전자 주식회사 | 액체공급 스테이션을 구비한 이동로봇 시스템 및액체공급방법 |
US9198728B2 (en) | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
US7996109B2 (en) * | 2005-10-14 | 2011-08-09 | Aethon, Inc. | Robotic ordering and delivery apparatuses, systems and methods |
KR100834761B1 (ko) * | 2005-11-23 | 2008-06-05 | 삼성전자주식회사 | 이동 로봇의 자기 위치 인식 방법 및 장치 |
EP2270619B1 (de) | 2005-12-02 | 2013-05-08 | iRobot Corporation | Modularer Roboter |
US9144360B2 (en) | 2005-12-02 | 2015-09-29 | Irobot Corporation | Autonomous coverage robot navigation system |
EP2544065B1 (de) | 2005-12-02 | 2017-02-08 | iRobot Corporation | Robotersystem |
EP2120122B1 (de) | 2005-12-02 | 2013-10-30 | iRobot Corporation | Abdeckungsrobotermobilität |
EP2816434A3 (de) | 2005-12-02 | 2015-01-28 | iRobot Corporation | Roboter mit autonomem Wirkungsbereich |
US8577538B2 (en) * | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
EP1991253B1 (de) * | 2006-02-10 | 2013-07-31 | Wake Forest University Health Sciences | Nervenregenerierung mit keratinbiomaterial |
ES2681523T3 (es) | 2006-03-17 | 2018-09-13 | Irobot Corporation | Robot para el cuidado del césped |
DE102006017057A1 (de) * | 2006-04-11 | 2007-10-18 | Siemens Ag | Vorrichtung zur Steuerung von, insbesondere mobilen, autonomen Einheiten |
US8108092B2 (en) | 2006-07-14 | 2012-01-31 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
US20070271011A1 (en) * | 2006-05-12 | 2007-11-22 | Samsung Electronics Co., Ltd. | Indoor map building apparatus, method, and medium for mobile robot |
US8326469B2 (en) * | 2006-07-14 | 2012-12-04 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
EP3031377B1 (de) | 2006-05-19 | 2018-08-01 | iRobot Corporation | Müllentfernung aus reinigungsrobotern |
US20070271002A1 (en) * | 2006-05-22 | 2007-11-22 | Hoskinson Reed L | Systems and methods for the autonomous control, automated guidance, and global coordination of moving process machinery |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US8849679B2 (en) | 2006-06-15 | 2014-09-30 | Intouch Technologies, Inc. | Remote controlled robot system that provides medical images |
US7668621B2 (en) | 2006-07-05 | 2010-02-23 | The United States Of America As Represented By The United States Department Of Energy | Robotic guarded motion system and method |
US7801644B2 (en) * | 2006-07-05 | 2010-09-21 | Battelle Energy Alliance, Llc | Generic robot architecture |
US7587260B2 (en) * | 2006-07-05 | 2009-09-08 | Battelle Energy Alliance, Llc | Autonomous navigation system and method |
US7620477B2 (en) * | 2006-07-05 | 2009-11-17 | Battelle Energy Alliance, Llc | Robotic intelligence kernel |
US7211980B1 (en) * | 2006-07-05 | 2007-05-01 | Battelle Energy Alliance, Llc | Robotic follow system and method |
US8965578B2 (en) | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
US7974738B2 (en) * | 2006-07-05 | 2011-07-05 | Battelle Energy Alliance, Llc | Robotics virtual rail system and method |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US8271132B2 (en) | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US7584020B2 (en) * | 2006-07-05 | 2009-09-01 | Battelle Energy Alliance, Llc | Occupancy change detection system and method |
US8843244B2 (en) * | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
US20100066587A1 (en) * | 2006-07-14 | 2010-03-18 | Brian Masao Yamauchi | Method and System for Controlling a Remote Vehicle |
US7636645B1 (en) * | 2007-06-18 | 2009-12-22 | Ailive Inc. | Self-contained inertial navigation system for interactive control using movable controllers |
CN100449444C (zh) * | 2006-09-29 | 2009-01-07 | 浙江大学 | 移动机器人在未知环境中同时定位与地图构建的方法 |
KR100749806B1 (ko) * | 2006-09-29 | 2007-08-17 | 한국전자통신연구원 | 무선 네트워크 기반의 해양 및 하천 작업용 로봇선단과작업로봇 제어방법 |
US7843431B2 (en) | 2007-04-24 | 2010-11-30 | Irobot Corporation | Control system for a remote vehicle |
CN1945351B (zh) * | 2006-10-21 | 2010-06-02 | 中国科学院合肥物质科学研究院 | 一种机器人导航定位系统及导航定位方法 |
KR100809353B1 (ko) * | 2006-12-19 | 2008-03-05 | 삼성전자주식회사 | 무선 주파수 신호를 이용한 거리 측정 방법 및 장치 |
US7865285B2 (en) * | 2006-12-27 | 2011-01-04 | Caterpillar Inc | Machine control system and method |
US8265793B2 (en) | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
KR101168481B1 (ko) | 2007-05-09 | 2012-07-26 | 아이로보트 코퍼레이션 | 자동 커버리지 로봇 |
US9160783B2 (en) | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
US8255092B2 (en) | 2007-05-14 | 2012-08-28 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
US8577498B2 (en) * | 2007-05-21 | 2013-11-05 | Panasonic Corporation | Automatic transfer method, transfer robot, and automatic transfer system |
WO2008154408A1 (en) * | 2007-06-06 | 2008-12-18 | Tobey Wayland E | Modular hybrid snake arm |
US8972306B2 (en) * | 2007-08-31 | 2015-03-03 | Raytheon Company | System and method for sensor tasking |
US20090062958A1 (en) * | 2007-08-31 | 2009-03-05 | Morris Aaron C | Autonomous mobile robot |
KR101409990B1 (ko) * | 2007-09-14 | 2014-06-23 | 삼성전자주식회사 | 로봇의 위치를 계산하기 위한 장치 및 방법 |
TW200922659A (en) * | 2007-11-22 | 2009-06-01 | Univ Nat Central | Carrier device of guide toy with automatic positioning functions |
TW200922660A (en) * | 2007-11-22 | 2009-06-01 | Univ Nat Central | Interactive guide toy vehicle apparatus |
WO2009136969A2 (en) * | 2008-01-22 | 2009-11-12 | Carnegie Mellon University | Apparatuses, systems, and methods for apparatus operation and remote sensing |
US8838268B2 (en) * | 2008-01-28 | 2014-09-16 | Seegrid Corporation | Service robot and method of operating same |
US8755936B2 (en) * | 2008-01-28 | 2014-06-17 | Seegrid Corporation | Distributed multi-robot system |
JP5606927B2 (ja) * | 2008-01-28 | 2014-10-15 | シーグリッド コーポレーション | サービスロボットによって収集された時空間情報のリパーパシングを行うための方法 |
WO2009097334A2 (en) * | 2008-01-28 | 2009-08-06 | Seegrid Corporation | Methods for real-time and near-real time interactions with robots that service a facility |
CN101953172A (zh) * | 2008-02-13 | 2011-01-19 | 塞格瑞德公司 | 分布式多机器人系统 |
US8915692B2 (en) * | 2008-02-21 | 2014-12-23 | Harvest Automation, Inc. | Adaptable container handling system |
US10875182B2 (en) | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
US8179418B2 (en) | 2008-04-14 | 2012-05-15 | Intouch Technologies, Inc. | Robotic based health care system |
US8170241B2 (en) | 2008-04-17 | 2012-05-01 | Intouch Technologies, Inc. | Mobile tele-presence system with a microphone system |
US8126598B2 (en) * | 2008-04-30 | 2012-02-28 | Honeywell International Inc. | Method and apparatus for data download from a mobile vehicle |
US9193065B2 (en) * | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
US9842192B2 (en) | 2008-07-11 | 2017-12-12 | Intouch Technologies, Inc. | Tele-presence robot system with multi-cast features |
US20100017026A1 (en) * | 2008-07-21 | 2010-01-21 | Honeywell International Inc. | Robotic system with simulation and mission partitions |
US20100063652A1 (en) * | 2008-09-11 | 2010-03-11 | Noel Wayne Anderson | Garment for Use Near Autonomous Machines |
US8340819B2 (en) | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
US8996165B2 (en) | 2008-10-21 | 2015-03-31 | Intouch Technologies, Inc. | Telepresence robot with a camera boom |
US8463435B2 (en) | 2008-11-25 | 2013-06-11 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US9138891B2 (en) | 2008-11-25 | 2015-09-22 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
KR101572851B1 (ko) | 2008-12-22 | 2015-11-30 | 삼성전자 주식회사 | 동적 환경에서 모바일 플랫폼의 지도 작성방법 |
US8849680B2 (en) | 2009-01-29 | 2014-09-30 | Intouch Technologies, Inc. | Documentation through a remote presence robot |
TWI680928B (zh) | 2009-04-10 | 2020-01-01 | 美商辛波提克有限責任公司 | 垂直升降系統及在多層儲存結構往返運送空的貨箱單元之方法 |
US8897920B2 (en) | 2009-04-17 | 2014-11-25 | Intouch Technologies, Inc. | Tele-presence robot system with software modularity, projector and laser pointer |
IT1394283B1 (it) * | 2009-05-07 | 2012-06-06 | Scuola Superiore Di Studi Universitari E Di Perfez | Sistema robotico autonomo per l'esecuzione di task in ambienti urbani, non strutturati e/o parzialmente strutturati |
US8384755B2 (en) | 2009-08-26 | 2013-02-26 | Intouch Technologies, Inc. | Portable remote presence robot |
US11399153B2 (en) | 2009-08-26 | 2022-07-26 | Teladoc Health, Inc. | Portable telepresence apparatus |
CN101691037B (zh) * | 2009-10-09 | 2012-10-03 | 南京航空航天大学 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
US11154981B2 (en) | 2010-02-04 | 2021-10-26 | Teladoc Health, Inc. | Robot user interface for telepresence robot system |
US8234010B2 (en) * | 2010-02-16 | 2012-07-31 | Deere & Company | Tethered robot positioning |
US8079433B2 (en) * | 2010-02-16 | 2011-12-20 | Deere & Company | Retractable line guidance for self-propelled machines |
US8800107B2 (en) | 2010-02-16 | 2014-08-12 | Irobot Corporation | Vacuum brush |
US8670017B2 (en) | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
US8918213B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US8935005B2 (en) | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US10343283B2 (en) | 2010-05-24 | 2019-07-09 | Intouch Technologies, Inc. | Telepresence robot system that can be accessed by a cellular phone |
US10808882B2 (en) | 2010-05-26 | 2020-10-20 | Intouch Technologies, Inc. | Tele-robotic system with a robot face placed on a chair |
US8483873B2 (en) | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
US20120195491A1 (en) * | 2010-07-21 | 2012-08-02 | Palo Alto Research Center Incorporated | System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing |
JP5745067B2 (ja) | 2010-09-24 | 2015-07-08 | アイロボット・コーポレーション | Vslam最適化のためのシステムおよび方法 |
US9264664B2 (en) | 2010-12-03 | 2016-02-16 | Intouch Technologies, Inc. | Systems and methods for dynamic bandwidth allocation |
US10822168B2 (en) | 2010-12-15 | 2020-11-03 | Symbotic Llc | Warehousing scalable storage structure |
US9475649B2 (en) | 2010-12-15 | 2016-10-25 | Symbolic, LLC | Pickface builder for storage and retrieval systems |
US9008884B2 (en) | 2010-12-15 | 2015-04-14 | Symbotic Llc | Bot position sensing |
US20120191517A1 (en) | 2010-12-15 | 2012-07-26 | Daffin Jr Mack Paul | Prepaid virtual card |
US8998554B2 (en) | 2010-12-15 | 2015-04-07 | Symbotic Llc | Multilevel vertical conveyor platform guides |
WO2012099694A1 (en) | 2010-12-30 | 2012-07-26 | Irobot Corporation | Coverage robot navigation |
US8930019B2 (en) | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
US12093036B2 (en) | 2011-01-21 | 2024-09-17 | Teladoc Health, Inc. | Telerobotic system with a dual application screen presentation |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
EP2668008A4 (de) | 2011-01-28 | 2018-01-24 | Intouch Technologies, Inc. | Schnittstelle mit einem mobilen telepräsenzroboter |
KR102041093B1 (ko) | 2011-04-11 | 2019-11-06 | 크라운 이큅먼트 코포레이션 | 조정된 경로 계획기를 사용하는 다수의 자동화 비-홀로노믹 차량들을 효율적으로 스케줄링하는 방법 및 장치 |
US10769739B2 (en) | 2011-04-25 | 2020-09-08 | Intouch Technologies, Inc. | Systems and methods for management of information among medical providers and facilities |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
US20140058634A1 (en) | 2012-08-24 | 2014-02-27 | Crown Equipment Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
TWI622540B (zh) | 2011-09-09 | 2018-05-01 | 辛波提克有限責任公司 | 自動化儲存及取放系統 |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US9147173B2 (en) | 2011-10-31 | 2015-09-29 | Harvest Automation, Inc. | Methods and systems for automated transportation of items between variable endpoints |
US8676425B2 (en) | 2011-11-02 | 2014-03-18 | Harvest Automation, Inc. | Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots |
US8836751B2 (en) | 2011-11-08 | 2014-09-16 | Intouch Technologies, Inc. | Tele-presence system with a user interface that displays different communication links |
KR20130051679A (ko) * | 2011-11-10 | 2013-05-21 | 한국전자통신연구원 | 군집지능 라우팅 로봇 장치와 이를 포함하는 이동경로 제어 시스템 |
US8937410B2 (en) | 2012-01-17 | 2015-01-20 | Harvest Automation, Inc. | Emergency stop method and system for autonomous mobile robots |
SG11201400966UA (en) * | 2012-01-25 | 2014-04-28 | Adept Technology Inc | Positive and negative obstacle avoidance system for a mobile robot |
KR20130087881A (ko) * | 2012-01-30 | 2013-08-07 | 한국전자통신연구원 | 원격 관제 시스템을 이용한 무인 감시 장치 및 방법, 무인 감시를 위한 로봇 제어 단말 |
US8428777B1 (en) * | 2012-02-07 | 2013-04-23 | Google Inc. | Methods and systems for distributing tasks among robotic devices |
US9008839B1 (en) | 2012-02-07 | 2015-04-14 | Google Inc. | Systems and methods for allocating tasks to a plurality of robotic devices |
DK2791748T3 (da) | 2012-02-08 | 2020-11-09 | Omron Robotics And Safety Tech Inc | Opgavestyringssystem for en flåde af autonome mobile robotter |
US8700250B1 (en) * | 2012-03-15 | 2014-04-15 | The Boeing Company | Airport transportation system |
US10054933B2 (en) * | 2012-03-27 | 2018-08-21 | Sirqul, Inc. | Controlling distributed device operations |
US9251313B2 (en) | 2012-04-11 | 2016-02-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US8902278B2 (en) | 2012-04-11 | 2014-12-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
WO2013176758A1 (en) | 2012-05-22 | 2013-11-28 | Intouch Technologies, Inc. | Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
CN102662350B (zh) * | 2012-05-31 | 2013-11-27 | 东南大学 | 主从式多机器人协作系统的轨迹示教与规划方法 |
TWM451103U (zh) * | 2012-10-30 | 2013-04-21 | Agait Technology Corp | 行走裝置 |
US9178370B2 (en) * | 2012-12-28 | 2015-11-03 | Irobot Corporation | Coverage robot docking station |
US8880340B2 (en) * | 2013-01-04 | 2014-11-04 | The Boeing Company | Augmented mobile platform localization |
CN103092203A (zh) * | 2013-01-15 | 2013-05-08 | 深圳市紫光杰思谷科技有限公司 | 主从机器人之间相对运动的控制方法 |
CN103135117B (zh) * | 2013-02-05 | 2014-12-03 | 中国人民解放军国防科学技术大学 | 一种分散式多机器人协同定位方法 |
US9469208B2 (en) | 2013-03-15 | 2016-10-18 | Symbotic, LLC | Rover charging system |
US9481517B2 (en) | 2013-03-15 | 2016-11-01 | Symbotic, LLC | Multiposition lift |
TWI594933B (zh) | 2013-03-15 | 2017-08-11 | 辛波提克有限責任公司 | 自動化貯藏及取放系統 |
CN103257353B (zh) * | 2013-05-30 | 2015-02-11 | 东南大学 | 一种混杂式多移动机器人系统无线定位方法 |
US9187188B2 (en) * | 2013-07-02 | 2015-11-17 | Premium Aerotec Gmbh | Assembly inspection system and method |
US10894663B2 (en) | 2013-09-13 | 2021-01-19 | Symbotic Llc | Automated storage and retrieval system |
EP2851760A1 (de) | 2013-09-19 | 2015-03-25 | Rigas Tehniska universitate | System mit mehreren Robotern |
GB2539776A (en) * | 2013-12-10 | 2016-12-28 | Halliburton Energy Services Inc | Continuous live tracking system for placement of cutting elements |
US8825226B1 (en) | 2013-12-17 | 2014-09-02 | Amazon Technologies, Inc. | Deployment of mobile automated vehicles |
CN103760853A (zh) * | 2014-01-08 | 2014-04-30 | 深圳先进技术研究院 | 一种可伸缩扫地多机器人方法与系统 |
CN103760852A (zh) * | 2014-01-08 | 2014-04-30 | 深圳先进技术研究院 | 一种可扩展扫地多机器人方法与系统 |
WO2015105712A1 (en) * | 2014-01-10 | 2015-07-16 | Irobot Corporation | Autonomous mobile robot |
US10279488B2 (en) * | 2014-01-17 | 2019-05-07 | Knightscope, Inc. | Autonomous data machines and systems |
US9329597B2 (en) | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
US9792434B1 (en) | 2014-01-17 | 2017-10-17 | Knightscope, Inc. | Systems and methods for security data analysis and display |
US10514837B1 (en) | 2014-01-17 | 2019-12-24 | Knightscope, Inc. | Systems and methods for security data analysis and display |
US9535421B1 (en) * | 2014-02-28 | 2017-01-03 | Savioke, Inc. | Mobile delivery robot with interior cargo space |
EP3126921B1 (de) | 2014-03-31 | 2021-02-24 | iRobot Corporation | Autonomer beweglicher roboter |
TWI505801B (zh) | 2014-05-09 | 2015-11-01 | Kinpo Elect Inc | 室內機器人與其定位方法 |
US10754352B1 (en) * | 2014-06-25 | 2020-08-25 | Santa Clara University | Multi-robot gradient based adaptive navigation system |
US10363656B1 (en) * | 2014-06-25 | 2019-07-30 | Santa Clara University | Multi-robot gradient based adaptive navigation system |
US9314929B2 (en) | 2014-08-21 | 2016-04-19 | Elwha Llc | Systems, devices, and methods including a wheelchair-assist robot |
US9314928B2 (en) * | 2014-08-21 | 2016-04-19 | Elwha Llc | Systems, devices, and methods including a wheelchair-assist robot |
US10099379B2 (en) | 2014-08-21 | 2018-10-16 | Elwha Llc | Systems, devices, and methods including a wheelchair-assist robot |
CA2958619C (en) * | 2014-08-27 | 2023-05-16 | Ponsse Oyj | Method, arrangement and user interface for presenting data describing forest work unit operation |
US10311731B1 (en) * | 2014-09-16 | 2019-06-04 | Knightscope, Inc. | Autonomous parking monitor |
CN105988469A (zh) * | 2015-02-10 | 2016-10-05 | 苏州宝时得电动工具有限公司 | 自动行走设备 |
US9510505B2 (en) | 2014-10-10 | 2016-12-06 | Irobot Corporation | Autonomous robot localization |
US9516806B2 (en) | 2014-10-10 | 2016-12-13 | Irobot Corporation | Robotic lawn mowing boundary determination |
CN105563449B (zh) * | 2014-10-13 | 2017-10-24 | 航天科工智能机器人有限责任公司 | 一种移动机器人道路跟随方法 |
JP6732746B2 (ja) * | 2014-11-26 | 2020-07-29 | アイロボット・コーポレーション | 機械視覚システムを使用した、同時位置測定マッピングを実施するためのシステム |
US9928474B1 (en) | 2014-12-12 | 2018-03-27 | Amazon Technologies, Inc. | Mobile base utilizing transportation units for delivering items |
US9420741B2 (en) | 2014-12-15 | 2016-08-23 | Irobot Corporation | Robot lawnmower mapping |
US9538702B2 (en) | 2014-12-22 | 2017-01-10 | Irobot Corporation | Robotic mowing of separated lawn areas |
WO2016142794A1 (en) | 2015-03-06 | 2016-09-15 | Wal-Mart Stores, Inc | Item monitoring system and method |
US20180099846A1 (en) | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
US10239740B2 (en) | 2015-03-06 | 2019-03-26 | Walmart Apollo, Llc | Shopping facility assistance system and method having a motorized transport unit that selectively leads or follows a user within a shopping facility |
US12084824B2 (en) | 2015-03-06 | 2024-09-10 | Walmart Apollo, Llc | Shopping facility assistance systems, devices and methods |
US9995050B2 (en) * | 2015-03-26 | 2018-06-12 | Aqua Products, Inc. | Method and apparatus for communicating over a two-wire power cable between an external power supply and a self-propelled robotic swimming pool cleaner |
US9623562B1 (en) * | 2015-04-10 | 2017-04-18 | X Development Llc | Adjusting robot safety limits based on network connectivity |
US20170341235A1 (en) | 2016-05-27 | 2017-11-30 | General Electric Company | Control System And Method For Robotic Motion Planning And Control |
CN104932495A (zh) * | 2015-05-13 | 2015-09-23 | 刘鹏军 | 基于无线网络协同工作的清洁机器人系统 |
CN106272398A (zh) * | 2015-05-27 | 2017-01-04 | 鸿富锦精密工业(深圳)有限公司 | 机器人的驱动组件、机器人及机器人系统 |
DE102015008188B3 (de) * | 2015-06-25 | 2016-06-16 | Kuka Roboter Gmbh | Abfahren einer vorgegebenen Bahn mit einem Roboter |
US9889559B2 (en) * | 2015-06-26 | 2018-02-13 | Intel Corporation | Robotic system for updating devices |
US9910761B1 (en) | 2015-06-28 | 2018-03-06 | X Development Llc | Visually debugging robotic processes |
US11115798B2 (en) | 2015-07-23 | 2021-09-07 | Irobot Corporation | Pairing a beacon with a mobile robot |
US10034421B2 (en) | 2015-07-24 | 2018-07-31 | Irobot Corporation | Controlling robotic lawnmowers |
DE102015215101A1 (de) * | 2015-08-07 | 2017-02-09 | Robert Bosch Gmbh | Verfahren und System zum Betreiben einer selbsttätig mobilen Plattform |
US10960544B2 (en) | 2015-10-28 | 2021-03-30 | Bar-Ilan University | Robotic cooperative system |
CN105353725B (zh) * | 2015-11-18 | 2017-12-19 | 南京埃斯顿机器人工程有限公司 | 用于工业机器人的过辅助点姿态空间圆弧插补方法 |
US9969082B1 (en) | 2016-01-05 | 2018-05-15 | Boston Dynamics, Inc. | Robotic systems and methods for task scoring and selection |
CN111123922B (zh) * | 2016-01-22 | 2022-05-13 | 科沃斯机器人股份有限公司 | 空气净化机器人或自移动机器人系统的控制方法 |
US10782686B2 (en) | 2016-01-28 | 2020-09-22 | Savioke, Inc. | Systems and methods for operating robots including the handling of delivery operations that cannot be completed |
US10021830B2 (en) | 2016-02-02 | 2018-07-17 | Irobot Corporation | Blade assembly for a grass cutting mobile robot |
US10459063B2 (en) | 2016-02-16 | 2019-10-29 | Irobot Corporation | Ranging and angle of arrival antenna system for a mobile robot |
JP6726388B2 (ja) * | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | ロボット制御システム |
CA2961938A1 (en) | 2016-04-01 | 2017-10-01 | Wal-Mart Stores, Inc. | Systems and methods for moving pallets via unmanned motorized unit-guided forklifts |
DE102016206781A1 (de) * | 2016-04-21 | 2017-10-26 | Kuka Roboter Gmbh | Verfahren zur Steuerung einer Mehrzahl von mobilen fahrerlosen Manipulatorsystemen |
US9943959B2 (en) | 2016-04-25 | 2018-04-17 | Disney Enterprises, Inc. | Map localizing with partially obstructed ranging devices for autonomous robots and vehicles |
JP6844124B2 (ja) | 2016-06-14 | 2021-03-17 | 富士ゼロックス株式会社 | ロボット制御システム |
WO2018004694A1 (en) * | 2016-07-01 | 2018-01-04 | Intel Corporation | Charging miniature devices |
US10216188B2 (en) * | 2016-07-25 | 2019-02-26 | Amazon Technologies, Inc. | Autonomous ground vehicles based at delivery locations |
JP6973393B2 (ja) * | 2016-07-29 | 2021-11-24 | 日本電産株式会社 | 移動体誘導システム、移動体、誘導装置およびコンピュータプログラム |
DE102016010775A1 (de) | 2016-09-08 | 2018-03-08 | Sven Templin | Positionierungsassistiertes handgeführtes Gerät |
DE202016005473U1 (de) | 2016-09-08 | 2017-12-11 | Sven Templin | Positionierungsassistiertes handgeführtes Gerät |
US10248120B1 (en) | 2016-09-16 | 2019-04-02 | Amazon Technologies, Inc. | Navigable path networks for autonomous vehicles |
US10303171B1 (en) | 2016-09-29 | 2019-05-28 | Amazon Technologies, Inc. | Autonomous ground vehicles providing ordered items in pickup areas |
US10222798B1 (en) | 2016-09-29 | 2019-03-05 | Amazon Technologies, Inc. | Autonomous ground vehicles congregating in meeting areas |
US10245993B1 (en) | 2016-09-29 | 2019-04-02 | Amazon Technologies, Inc. | Modular autonomous ground vehicles |
US10241516B1 (en) | 2016-09-29 | 2019-03-26 | Amazon Technologies, Inc. | Autonomous ground vehicles deployed from facilities |
CN106378794A (zh) * | 2016-10-19 | 2017-02-08 | 上海发那科机器人有限公司 | 一种机器人移动不间断供电装置 |
CN106648614B (zh) * | 2016-11-05 | 2021-05-18 | 杭州畅动智能科技有限公司 | 基于模块化平台的机器人开发系统架构及其主控单元 |
CN106527446B (zh) * | 2016-12-02 | 2020-11-13 | 北京小米移动软件有限公司 | 扫地机器人的控制方法及装置 |
EP3557417A4 (de) * | 2016-12-16 | 2020-03-25 | Sony Corporation | Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren |
DE102016125224A1 (de) * | 2016-12-21 | 2018-06-21 | Vorwerk & Co. Interholding Gmbh | Verfahren zur Navigation und Selbstlokalisierung eines sich autonom fortbewegenden Bearbeitungsgerätes |
US10308430B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Distribution and retrieval of inventory and materials using autonomous vehicles |
US10310499B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Distributed production of items from locally sourced materials using autonomous vehicles |
US10310500B1 (en) | 2016-12-23 | 2019-06-04 | Amazon Technologies, Inc. | Automated access to secure facilities using autonomous vehicles |
US20180190014A1 (en) * | 2017-01-03 | 2018-07-05 | Honeywell International Inc. | Collaborative multi sensor system for site exploitation |
US10500717B2 (en) | 2017-01-11 | 2019-12-10 | Stilwell Technology and Robotics, LLC | Robotic interfaces |
PL3355148T3 (pl) * | 2017-01-27 | 2020-04-30 | Wheel.Me As | Układ do autonomicznego przestawiania urządzenia zamocowanego do jezdnych urządzeń |
JP6434550B2 (ja) * | 2017-02-06 | 2018-12-05 | ファナック株式会社 | 可搬型ロボット |
DE102017103986A1 (de) * | 2017-02-27 | 2018-08-30 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters |
US11862302B2 (en) | 2017-04-24 | 2024-01-02 | Teladoc Health, Inc. | Automated transcription and documentation of tele-health encounters |
DE102017109219A1 (de) * | 2017-04-28 | 2018-10-31 | RobArt GmbH | Verfahren für die Roboternavigation |
US9939814B1 (en) * | 2017-05-01 | 2018-04-10 | Savioke, Inc. | Computer system and method for automated mapping by robots |
US11969902B1 (en) * | 2017-05-22 | 2024-04-30 | AI Incorporated | Method for robotic devices to interact with each other |
AU2018203588B2 (en) | 2017-06-05 | 2019-11-14 | Bissell Inc. | Autonomous floor cleaning system |
WO2019013989A1 (en) | 2017-07-14 | 2019-01-17 | Irobot Corporation | BLADE ASSEMBLY FOR MOBILE GRASS CUTTING ROBOT |
US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
CN107491049B (zh) * | 2017-08-29 | 2020-08-11 | 湖南格兰博智能科技有限责任公司 | 一种多设备协同作业方法和协同作业装置 |
JP2019059004A (ja) * | 2017-09-28 | 2019-04-18 | セイコーエプソン株式会社 | ロボットシステム |
SG10201708171QA (en) * | 2017-10-04 | 2019-05-30 | Arche Information Inc | A comprehensive multi-agent robotics management system |
US10994418B2 (en) * | 2017-12-13 | 2021-05-04 | X Development Llc | Dynamically adjusting roadmaps for robots based on sensed environmental data |
US11237877B2 (en) * | 2017-12-27 | 2022-02-01 | Intel Corporation | Robot swarm propagation using virtual partitions |
US11614746B2 (en) * | 2018-01-05 | 2023-03-28 | Irobot Corporation | Mobile cleaning robot teaming and persistent mapping |
FR3078178B1 (fr) | 2018-02-20 | 2020-02-28 | Universite De Reims Champagne-Ardenne | Procede d’interconnexion entre robots |
WO2019204013A1 (en) | 2018-04-20 | 2019-10-24 | Covidien Lp | Systems and methods for surgical robotic cart placement |
US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
WO2019216578A1 (en) * | 2018-05-11 | 2019-11-14 | Samsung Electronics Co., Ltd. | Method and apparatus for executing cleaning operation |
TWI673660B (zh) * | 2018-05-29 | 2019-10-01 | 廣達電腦股份有限公司 | 用於機器人之自動充電系統以及方法 |
CN108789409B (zh) * | 2018-06-21 | 2022-02-11 | 中科新松有限公司 | 一种机器人控制方法、装置、介质和机器人集群 |
KR102096564B1 (ko) * | 2018-06-25 | 2020-04-02 | 엘지전자 주식회사 | 복수의 자율주행 청소기 |
EP3605399A1 (de) * | 2018-07-31 | 2020-02-05 | Tata Consultancy Services Limited | Systeme und verfahren zur semantischen wissensbasierten dynamischen nutzenberechnung |
WO2020050494A1 (en) | 2018-09-06 | 2020-03-12 | Lg Electronics Inc. | A robot cleaner and a controlling method for the same |
KR102252033B1 (ko) | 2018-09-06 | 2021-05-14 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
US11432697B2 (en) * | 2018-09-06 | 2022-09-06 | Lg Electronics Inc. | Robot cleaner and a controlling method for the same |
US11161245B2 (en) * | 2018-10-25 | 2021-11-02 | Wells Fargo Bank, N.A. | Systems and methods for secure locker feeders |
US11392130B1 (en) | 2018-12-12 | 2022-07-19 | Amazon Technologies, Inc. | Selecting delivery modes and delivery areas using autonomous ground vehicles |
KR102198187B1 (ko) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | 이동 로봇 |
CN109933071B (zh) * | 2019-04-01 | 2020-07-14 | 珠海市一微半导体有限公司 | 一种机器人回座的控制方法 |
US11471813B2 (en) * | 2019-04-26 | 2022-10-18 | Lg Electronics Inc. | Air cleaner |
US11772638B2 (en) | 2019-05-07 | 2023-10-03 | Motional Ad Llc | Systems and methods for planning and updating a vehicle's trajectory |
WO2020241933A1 (ko) | 2019-05-30 | 2020-12-03 | 엘지전자 주식회사 | 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법 |
CN110262495B (zh) * | 2019-06-26 | 2020-11-03 | 山东大学 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
TWI756560B (zh) * | 2019-08-23 | 2022-03-01 | 和碩聯合科技股份有限公司 | 無線通信系統、無線通信方法以及自走式裝置 |
US11260970B2 (en) | 2019-09-26 | 2022-03-01 | Amazon Technologies, Inc. | Autonomous home security devices |
US10796562B1 (en) | 2019-09-26 | 2020-10-06 | Amazon Technologies, Inc. | Autonomous home security devices |
CN110968055A (zh) * | 2019-10-08 | 2020-04-07 | 株洲中车时代电气股份有限公司 | 一种机器人协同控制方法及设备 |
EP3816752A1 (de) * | 2019-10-29 | 2021-05-05 | IMS Gear SE & Co. KGaA | Fahrerloses transportsystem zum transportieren von gegenständen sowie verfahren zum betreiben eines fahrerlosen transportsystems zum transportieren von gegenständen |
US11719005B2 (en) * | 2019-11-13 | 2023-08-08 | Merlie Schwartz | Autonomous power trowel |
US11809200B1 (en) * | 2019-12-06 | 2023-11-07 | Florida A&M University | Machine learning based reconfigurable mobile agents using swarm system manufacturing |
US11584633B2 (en) | 2019-12-30 | 2023-02-21 | Oliver Crispin Robotics Limited | Robotic systems and methods for vehicle fueling and charging |
US11413979B2 (en) | 2019-12-30 | 2022-08-16 | Oliver Crispin Robotics Limited | Robotic systems and methods for vehicle fueling and charging |
US11648843B2 (en) * | 2019-12-30 | 2023-05-16 | Oliver Crispin Robotics Limited | Robotic systems and methods for vehicle fueling and charging |
US20210209543A1 (en) * | 2020-01-06 | 2021-07-08 | Amazon Technologies, Inc. | Directing secondary delivery vehicles using primary delivery vehicles |
DE102020100447A1 (de) | 2020-01-10 | 2021-07-15 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines Systems mit zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten sowie System zur Durchführung eines solchen Verfahrens |
US11521382B2 (en) | 2020-02-09 | 2022-12-06 | Stout Industrial Technology, Inc. | Machine vision plant tracking system for precision agriculture |
CA3167221A1 (en) | 2020-02-09 | 2021-08-12 | Jeffrey L. Antle | Smart tool arm for precision agriculture |
CN111037575B (zh) * | 2020-03-13 | 2020-06-26 | 广东博智林机器人有限公司 | 机器人指令传输、处理方法、装置、电子设备及存储介质 |
CN111506078B (zh) * | 2020-05-13 | 2021-06-11 | 北京洛必德科技有限公司 | 一种机器人导航方法及系统 |
CN111880531A (zh) * | 2020-07-09 | 2020-11-03 | 珠海格力电器股份有限公司 | 一种移动控制方法、移动设备及移动控制装置 |
US11119485B1 (en) * | 2020-10-07 | 2021-09-14 | Accenture Global Solutions Limited | Drone operational advisory engine |
EP4015357A1 (de) | 2020-12-15 | 2022-06-22 | Fq Ip Ab | Navigator |
US12096896B2 (en) * | 2020-12-22 | 2024-09-24 | Honeywell International Inc. | Autonomous space sterilization of air and floor with contamination index |
CN113093765B (zh) * | 2021-04-16 | 2022-04-08 | 西南交通大学 | 一种通用的agv集群控制系统设计框架及方法 |
US11810050B2 (en) | 2021-08-20 | 2023-11-07 | Ford Global Technologies, Llc | Robotic package delivery with ad-hoc network fusion localization |
KR20230053314A (ko) * | 2021-10-14 | 2023-04-21 | 삼성전자주식회사 | 로봇, 로봇 시스템 및 그 제어 방법 |
US12110050B2 (en) | 2021-12-14 | 2024-10-08 | Fq Ip Ab | Navigator |
CN114637024A (zh) * | 2022-04-01 | 2022-06-17 | 北京石头世纪科技股份有限公司 | 激光定位系统及方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8313339D0 (en) | 1983-05-14 | 1983-06-22 | Gen Electric Co Plc | Vehicle guidance |
US4709265A (en) | 1985-10-15 | 1987-11-24 | Advanced Resource Development Corporation | Remote control mobile surveillance system |
US5179329A (en) | 1989-04-25 | 1993-01-12 | Shinko Electric Co., Ltd. | Travel control method, travel control device, and mobile robot for mobile robot systems |
JPH08381B2 (ja) | 1989-07-27 | 1996-01-10 | 株式会社不二越 | 産業用ロボットシステム及びその制御方法 |
JP2679346B2 (ja) | 1990-03-28 | 1997-11-19 | 神鋼電機株式会社 | 移動ロボットシステムにおける充電制御方式 |
JP2783456B2 (ja) | 1990-11-16 | 1998-08-06 | ファナック株式会社 | ロボットの座標系設定方式 |
US5266875A (en) | 1991-05-23 | 1993-11-30 | Massachusetts Institute Of Technology | Telerobotic system |
JP2880590B2 (ja) | 1991-07-24 | 1999-04-12 | 株式会社不二越 | 産業用ロボットの同期制御方法 |
JP3410508B2 (ja) * | 1993-04-30 | 2003-05-26 | 茂男 廣瀬 | 自立走行ロボット群システム |
US5382885A (en) | 1993-08-09 | 1995-01-17 | The University Of British Columbia | Motion scaling tele-operating system with force feedback suitable for microsurgery |
JP2692725B2 (ja) * | 1993-09-21 | 1997-12-17 | 工業技術院長 | 自律型移動ロボット群システムの制御方法 |
JPH07129237A (ja) * | 1993-11-01 | 1995-05-19 | Nippon Telegr & Teleph Corp <Ntt> | 移動ロボットの環境内位置認識方法 |
DE4408329C2 (de) * | 1994-03-11 | 1996-04-18 | Siemens Ag | Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert |
KR100219709B1 (ko) | 1994-03-15 | 1999-09-01 | 윤종용 | 디지탈무선통신장치에있어서송수신신호처리회로 |
SE502834C2 (sv) | 1994-03-29 | 1996-01-29 | Electrolux Ab | Förfarande och anordning för avkänning av hinder vid självgående anordning |
DE4414192C2 (de) * | 1994-04-22 | 1996-06-13 | Siemens Ag | Verfahren zur Ermittlung einer Sicherheitszone um eine selbstbewegliche mobile Einheit |
JPH07295643A (ja) * | 1994-04-26 | 1995-11-10 | Minolta Co Ltd | 走行経路制御装置 |
US6028672A (en) * | 1996-09-30 | 2000-02-22 | Zheng J. Geng | High speed three dimensional imaging method |
JP3569326B2 (ja) * | 1994-11-18 | 2004-09-22 | 茂男 廣瀬 | 情報融合システムおよびロボット誘導システム |
DE19521358C1 (de) * | 1995-06-12 | 1996-09-05 | Siemens Ag | Verfahren zur Schlupfermittlung einer autonomen mobilen Einheit mit Dreiradkinematik |
JPH095076A (ja) * | 1995-06-21 | 1997-01-10 | Fuji Heavy Ind Ltd | 複数移動体の相互位置関係検出方法及びその装置 |
JPH0981236A (ja) | 1995-09-12 | 1997-03-28 | Denso Corp | 移動通信装置 |
US5819008A (en) | 1995-10-18 | 1998-10-06 | Rikagaku Kenkyusho | Mobile robot sensor system |
JPH09244730A (ja) | 1996-03-11 | 1997-09-19 | Komatsu Ltd | ロボットシステムおよびロボットの制御装置 |
DE59701408D1 (de) * | 1996-07-02 | 2000-05-11 | Siemens Ag | Verfahren zur erstellung einer zellular strukturierten umgebungskarte von einer selbstbeweglichen mobilen einheit, welche sich mit hilfe mit auf wellenreflexion basierenden sensoren in der umgebung orientiert |
JP3647584B2 (ja) * | 1996-12-26 | 2005-05-11 | 富士通株式会社 | 学習型自己定位装置 |
US6252544B1 (en) * | 1998-01-27 | 2001-06-26 | Steven M. Hoffberg | Mobile communication device |
US6459955B1 (en) | 1999-11-18 | 2002-10-01 | The Procter & Gamble Company | Home cleaning robot |
JP3721939B2 (ja) | 2000-05-16 | 2005-11-30 | 松下電器産業株式会社 | 移動作業ロボット |
JP3721940B2 (ja) | 2000-05-16 | 2005-11-30 | 松下電器産業株式会社 | 移動作業ロボット |
-
1999
- 1999-11-24 US US09/449,177 patent/US6374155B1/en not_active Expired - Fee Related
-
2000
- 2000-11-22 CN CNB008162433A patent/CN1188762C/zh not_active Expired - Fee Related
- 2000-11-22 WO PCT/US2000/032220 patent/WO2001038945A1/en active IP Right Grant
- 2000-11-22 DE DE60011674T patent/DE60011674T2/de not_active Expired - Lifetime
- 2000-11-22 CA CA2392231A patent/CA2392231C/en not_active Expired - Fee Related
- 2000-11-22 AU AU17963/01A patent/AU1796301A/en not_active Abandoned
- 2000-11-22 JP JP2001540436A patent/JP4951180B2/ja not_active Expired - Fee Related
- 2000-11-22 EP EP00980742A patent/EP1240562B1/de not_active Expired - Lifetime
- 2000-11-22 AT AT00980742T patent/ATE269554T1/de not_active IP Right Cessation
-
2002
- 2002-03-08 US US10/094,703 patent/US6496755B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018204704A1 (de) * | 2018-03-28 | 2019-10-02 | Zf Friedrichshafen Ag | System zum Überwachen eines Überwachungsbereichs |
Also Published As
Publication number | Publication date |
---|---|
JP4951180B2 (ja) | 2012-06-13 |
US20020095239A1 (en) | 2002-07-18 |
WO2001038945A9 (en) | 2002-05-16 |
ATE269554T1 (de) | 2004-07-15 |
CA2392231C (en) | 2010-10-19 |
EP1240562A1 (de) | 2002-09-18 |
EP1240562B1 (de) | 2004-06-16 |
WO2001038945A1 (en) | 2001-05-31 |
US6496755B2 (en) | 2002-12-17 |
CN1188762C (zh) | 2005-02-09 |
CN1399734A (zh) | 2003-02-26 |
JP2003515801A (ja) | 2003-05-07 |
DE60011674D1 (de) | 2004-07-22 |
AU1796301A (en) | 2001-06-04 |
CA2392231A1 (en) | 2001-05-31 |
US6374155B1 (en) | 2002-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60011674T2 (de) | Autonomes mehrplattform robotersystem | |
EP3659001B1 (de) | Magnetometer für die roboternavigation | |
EP3590014B1 (de) | Verfahren zur steuerung eines autonomen, mobilen roboters | |
DE102015119865B4 (de) | Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters | |
EP2812766B1 (de) | Verfahren zum automatischen auslösen einer selbstlokalisierung | |
WO2018024897A1 (de) | Verfahren zur steuerung eines autonomen mobilen roboters | |
CA2428360C (en) | Autonomous multi-platform robotic system | |
WO2019043171A1 (de) | Bewegungsplanung für autonome mobile roboter | |
WO2017140726A1 (de) | Verfahren zur steuerung eines autonomen mobilen roboters | |
DE102017127180A1 (de) | Bodenbearbeitung mittels eines autonomen mobilen Roboters | |
EP3682305A1 (de) | Exploration einer unbekannten umgebung durch einen autonomen mobilen roboter | |
DE102016114594A1 (de) | Verfahren zur Steuerung eines autonomen mobilen Roboters | |
DE102017104427A1 (de) | Verfahren zur Steuerung eines autonomen, mobilen Roboters | |
DE102012112036A1 (de) | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät | |
DE102016114593A1 (de) | Verfahren zur Steuerung eines autonomen mobilen Roboters | |
EP3559773B1 (de) | Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes | |
CN116700297B (zh) | 基于畜舍作业机器人的自主导航控制系统和控制方法 | |
DE102020115513A1 (de) | Korrektur von digitalen modellen | |
DE102020116431A1 (de) | Korrektur von digitalen modellen | |
EP3812869B1 (de) | Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten | |
EP2741161A2 (de) | Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Positionsbestimmung bei einem selbstfahrenden Bodenbearbeitungsgerät | |
Jarvis | Terrain-aware path guided mobile robot teleoperation in virtual and real space | |
DE102004013811A1 (de) | Verfahren zur flächendeckenden Befahrung eines Gebietes sowie Fahrzeug zur Durchführung des Verfahrens | |
DE112020004037T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm | |
EP3974932A1 (de) | Robotersystem und verfahren zur steuerung eines angetrieben bewegbaren roboters eines robotersystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |