DE60011674T2 - Autonomes mehrplattform robotersystem - Google Patents

Autonomes mehrplattform robotersystem Download PDF

Info

Publication number
DE60011674T2
DE60011674T2 DE60011674T DE60011674T DE60011674T2 DE 60011674 T2 DE60011674 T2 DE 60011674T2 DE 60011674 T DE60011674 T DE 60011674T DE 60011674 T DE60011674 T DE 60011674T DE 60011674 T2 DE60011674 T2 DE 60011674T2
Authority
DE
Germany
Prior art keywords
robot
functional
navigation
autonomous mobile
robots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60011674T
Other languages
English (en)
Other versions
DE60011674D1 (de
Inventor
A. Bret WALLACH
A. Harvey KOSELKA
L. David GOLLAHER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VISION ROBOTICS CORP SAN DIEGO
Vision Robotics Corp
Original Assignee
VISION ROBOTICS CORP SAN DIEGO
Vision Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VISION ROBOTICS CORP SAN DIEGO, Vision Robotics Corp filed Critical VISION ROBOTICS CORP SAN DIEGO
Publication of DE60011674D1 publication Critical patent/DE60011674D1/de
Application granted granted Critical
Publication of DE60011674T2 publication Critical patent/DE60011674T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Cleaning In General (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft allgemein mobile Robotersysteme und insbesondere betrifft sie ein System und ein Verfahren zum Zuweisen von Kartierungs-, Ortsbestimmungs-, Planungs-, Steuer- und Aufgabendurchführungs-Funktionen in einer autonomen Mehrplattform-Roboterumgebung.
  • ALLGEMEINER STAND DER TECHNIK
  • Mobile Roboter sind entworfen, entwickelt und eingesetzt worden, um eine Vielzahl von Aufgaben wie Reinigung und Sicherheit wahr zu nehmen. Die meisten mobilen Roboter sind nicht autonom: das bedeutet, dass sie nicht in der Lage sind, autonom zu navigieren. Die wirtschaftlichen Vorteile, die durch nicht autonome Roboter bereitgestellt werden, sind begrenzt durch das nicht anpassungsfähige Verhalten der Roboter und ihre aufwändigen Installationskosten. Oft müssen Fachleute auf diesem Gebiet der Technik angeheuert und bezahlt werden, um die Roboter für bestimmte Wege und Aufgaben vorweg zu programmieren. Es kann notwendig sein, Objekte in der Umgebung einzubauen, um die Roboter zu lenken, wie dies Schienen, eingebaute, Signale ausstrahlende Drähte, Marker oder Fühler sind. Weitere Modifikationen der Umgebung können auch notwendig sein, um die Installations- und Betriebsprobleme gering zu halten.
  • Einige mobile nicht autonome Roboter können Hindernisse erkennen, die ihre Wege blockieren, und können anhalten oder geringfügig von ihren Wegen abweichen, um solche Hindernisse zu vermeiden. Wenn die Umgebung jedoch deutlich wie durch Bewegen eines großen Einrichtungsgegenstands modifiziert ist, reagieren herkömmliche nicht autonome Roboter nicht richtig. Ein Teil oder der gesamte Installationsvorgang muss oftmals wiederholt werden. In Hinblick auf diese Einschränkungen werden nicht autonome Roboter üblicherweise nur auf unveränderlichen und sehr wertvollen Wegen eingesetzt. Obwohl einige nicht autonome Roboter auf zufälliger Bewegung aufbauen, um ihre Aufgaben zu erfüllen, wie Schwimmbeckenreinigungsroboter, eignen sich nur eine begrenzte Anzahl von Anwendungen für diesen Lösungsweg.
  • Völlig autonome mobile Roboter haben sich über die Forschungslabore in den letzten Jahren hinaus entwickelt. Autonome Roboter sind in der Lage, durch ihre Umgebung mittels Erfassen und Reagieren auf ihre Umgebungen und die Umgebungsbedingungen zu navigieren. Autonome Roboternavigation umfasst vier Hauptaufgaben: Kartieren, Ortsbestimmung, Planung und Steuerung. Diese eng verwandten Konzepte sind analog dem Stellen der Fragen "Wo bin ich?" (Kartieren und Ortsbestimmung), gefolgt von "Wo will ich sein?" oder "Was will ich tun?" (Planen) und schließlich "Wie komme ich dorthin?" oder "Wie kann ich das durchführen?" (Steuerung).
  • Sobald das Kartieren abgeschlossen ist, müssen die laufende Position des Roboters, die Ausrichtung und die Veränderungsrate in der Landkarte bestimmt werden. Dieser Vorgang wird als Ortbestimmung bezeichnet. Autonome Roboter, welche auf 2D-Kartieren und Ortsbestimmung vertrauen, sind nicht in der Lage mit entsprechender Verlässlichkeit auf Grund der relativen Einfachheit der Karte zu navigieren. Die Roboter verlaufen sich oft, bleiben. stecken oder fallen hin. Der Einsatz von dynamischem 3D-Kartieren und Ortsbestimmung erlaubt im Gegensatz dazu eine Navigation, die verlässlicher ist, umfasst aber komplexe Berechnungen, welche einen großen Aufwand an Verarbeitungsüberbau erfordern. 3D-Karten weisen typischerweise Millionen von Zellen auf, welche einfache Betriebsabläufe wie Richtzeichenermittlung, Ortsbestimmung und Planung vom Rechenaufwand intensiv gestalten. Die sich daraus ergebenden verarbeitungsbedingten Verzögerungen beschränken die Geschwindigkeit der Roboterbewegung und der Aufgabenerfüllung.
  • Sobald das Kartieren und die Ortsbestimmung abgeschlossen sind, müssen die Aufgabenplanung und Aufgabendurchführung angegangen werden. Einiges an Ortsbestimmung wird immer noch während der Aufgabendurchführung erforderlich sein. Mit einem Roboter, welcher versucht, sich örtlich zu bestimmen, während er Aufgaben durchführt, führt dies zu nicht annehmbaren Verzögerungen. Wenn mehrere Roboter eingesetzt werden, sind die Nachteile, die oben beschrieben sind, immer noch vorhanden und müssen in mehrfacher Weise behandelt werden.
  • Ein überwachter autonomer Reaktionsroboter für Sicherheitsaufgaben wird durch Ciccimaro et al. in American Nuclear Society 8th International Topical Meeting on Robotics beschrieben und Fernsteuerungssysteme (ANS'99) und kollektive Gestaltungen von zusammen wirkenden Robotern werden in "A Taxonomy for Multi-agent Robotics" von Dudek et al., Autonomous Robots, Seiten 5 bis 29, beschrieben.
  • Angesichts der obigen Ausführungen besteht Bedarf an einem autonomen Mehr-Robotersystem, welches schnelles, genaues und Kosten effizientes Kartieren und örtliches Bestimmen als auch wirksames Planen und Zuteilen von Aufgaben aufweist.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird ein System von mobilen Robotern, ein Verfahren zum Mehr-Roboter-Betrieb und für einen autonomen, mobilen Navigationsroboter, wie in den angeschlossenen Ansprüchen dargelegt, bereit gestellt.
  • Für jede Aufgabe arbeiten ein Navigationsroboter und ein gegebener Funktionsroboter paarweise zusammen.
  • Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen werden wenigstens einem Navigationsroboter zugewiesen und funktionale Aufgaben werden einem oder mehreren Funktionsrobotern zugewiesen. In einer Umsetzung wird das System zum Reinigen des Inneren eines Hauses oder Büros verwendet. In dieser Umsetzung führen die Funktionsroboter die Aufgaben des Staubsaugens, Aufwaschens, Wischens, Reinigens von Badezimmereinrichtungen usw. durch, während der Navigationsroboter die Funktionsroboter navigiert, bewegt und überwacht.
  • In einer Ausführungsform führt der Navigationsroboter alle oder im Wesentlichen alle Berechnungen des Kartierens, örtlichen Bestimmens, Planens und Steuerns sowohl für sich selbst als auch für die Funktionsroboter durch. Dementsprechend ist der Navigationsroboter mit Sensoren und Sensorverarbeitungshardware, welche für diese Aufgaben erforderlich ist, ausgestattet. Die Funktionsroboter in dieser Ausführungsform führen im Gegenzug keine oder nur einige wenige der Berechnungen zur örtlichen Bestimmung, Planung oder Steuerung durch und sind daher nicht mit Sensoren oder Hardware, welche für diese Zwecke eingesetzt wird, ausgestattet.
  • Dementsprechend ist in einer Ausführungsform ein System autonomer Roboter bereit gestellt, umfassend: wenigstens einen ersten mobilen Roboter, welcher so konfiguriert ist, um eine oder mehrere wieder kehrende Aufgaben innerhalb eines Flächenbereichs auszuführen; und wenigstens einen zweiten Roboter, welcher so konfiguriert ist, um die gesamte Bewegung des wenigstens einen ersten Roboters in einem Flächenbereich zu lenken.
  • In einer anderen Ausführungsform wird ein Verfahren zum Durchführen einer wieder kehrenden Aufgabe innerhalb eines Flächenbereichs bereit gestellt, umfassend die Schritte: Durchführen der wieder kehrenden Aufgabe mit wenigstens einem ersten mobilen Roboter; und Lenken der gesamten Bewegung an dem wenigstens einen ersten Roboter in einem Flächenbereich mit wenigstens einem zweiten Roboter.
  • In noch einer anderen Ausführungsform der vorliegenden Erfindung wird ein System von autonomen, mobilen Robotern, welche in einer Umgebung arbeiten, bereitgestellt. Das System umfasst einen oder mehrere mobile Funktionsroboter, welche für die Durchführung funktionaler Aufgaben verantwortlich sind. Das System umfasst des Weiteren einen oder mehrere mobile Navigationsroboter, welche sich selbst und den(die) Funktionsroboter innerhalb der Umgebung lokalisieren, die Aufgaben, welche durch den(die) Funktionsroboter durchgeführt werden müssen, planen und den(die) Funktionsroboter während der Aufgabendurchführung steuern. In einer Ausführungsform bleibt(en), wenn sich ein Funktionsroboter bewegt, der(die) Navigationsroboter, welche(r) ihn steuert, ortsfest.
  • In noch einer anderen Ausführungsform der vorliegenden Erfindung wird ein Verfahren für den autonomen Mehr-Roboter-Betrieb bereitgestellt. Das Verfahren umfasst die Schritte:
    • (a) Bereitstellen wenigstens eines Navigationsroboters und wenigstens eines Funktionsroboters;
    • (b) mit dem wenigstens einen Navigationsroboter Erstellen einer Karte der Umgebung;
    • (c) mit dem wenigstens einen Navigationsroboter Erfassen des Aufenthaltsorts des wenigstens einen Navigationsroboters und des wenigstens einen Funktionsroboters auf der Karte;
    • (d) mit dem wenigstens einen Navigationsroboter Planen von Aufgaben, die durch den wenigstens einen Funktionsroboter ausgeführt werden sollen;
    • (e) mit dem wenigstens einen Funktionsroboter Ausführen der Aufgaben, die durch den wenigstens einen Navigationsroboter geplant wurden; und
    • (f) mit dem wenigstens einen Navigationsroboter Steuern und Verfolgen des wenigstens einen Funktionsroboters während der Aufgabenausführung.
  • Die vorliegende Erfindung stellt auch ein Verfahren zum Umsetzen eines autonomen mobilen Plattformsystems bereit. Das Verfahren umfasst die Schritte:
    • Bereitstellen einer Mehrzahl mobiler Plattformen;
    • Zuweisen der Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen an einen ersten Satz mobiler Plattformen;
    • Zuweisen funktionaler Aufgabenerfüllungsfunktionen an einen zweiten Satz mobiler Plattformen;
    • Kartieren der Umgebung, örtliches Bestimmen im Wesentlichen aller Plattformen innerhalb der Umgebung und Planen der Aufgabenausführung mit dem ersten Satz mobiler Plattformen;
    • Durchführen der Aufgaben mit dem zweiten Satz mobiler Plattformen; und
    • Steuern und Verfolgen der Aufgabendurchführung durch den zweiten Satz Plattformen mit dem ersten Satz Plattformen.
  • Weitere Merkmale und Vorteile dieser Erfindung als auch die Struktur des Betriebs der verschiedenen Ausführungsformen werden genau im Folgenden mit Bezugnahme auf die begleitenden Zeichnungen beschrieben.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird mit Bezugnahme auf die begleitenden Zeichnungen beschrieben. In den Zeichnungen bezeichnen gleiche Bezugsziffern gleiche oder funktional ähnliche Elemente.
  • 1 ist ein Blockdiagramm eines Mehr-Roboter-Systems gemäß der vorliegenden Erfindung.
  • 2 ist ein Blockdiagramm eines Navigationsroboters gemäß der vorliegenden Erfindung.
  • 3 ist ein Blockdiagramm, welches die Kommunikation zwischen einem Navigationsroboter und einem Funktionsroboter darstellt.
  • 4 ist ein Blockdiagramm eines Funktionsroboters gemäß der vorliegenden Erfindung.
  • 5 ist ein Blockdiagramm, welches einen Navigationsroboter zeigt, wie er einen Funktionsroboter um ein Hindernis herum manövriert.
  • 6 ist ein Blockdiagramm, welches einen Navigationsroboter zeigt, wie er sich selbst in Richtung eines Funktionsroboters manövriert.
  • 7a ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter sich selbst innerhalb einer dynamischen Karte der Umgebung örtlich bestimmt.
  • 7b ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter das Vorausplanen durchführt.
  • 7c ist ein Flussdiagramm, welches ein Verfahren darstellt, durch welches der Navigationsroboter die Funktionsroboter während der Aufgabenausführung steuert und verfolgt.
  • 8 ist ein Flussdiagramm, welches ein Verfahren zum Umsetzen eines Mehr-Roboter-Systems gemäß der vorliegenden Erfindung zeigt.
  • GENAUE BESCHREIBUNG DER ERFINDUNG
  • 1. EINLEITUNG
  • Die vorliegende Erfindung betrifft ein System und Verfahren zum Zuweisen der Kartierung, der Ortbestimmung, Planung, Steuerung und Aufgabendurchführung in einer Mehr-Roboter-Umgebung. Insbesondere und gemäß einer Ausführungsform der Erfindung sind die Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen einer mobilen Plattform (dem Navigationsroboter) zugewiesen und die Aufgabendurchführungsfunktionen der wenigstens einen zweiten mobilen Plattform (dem Funktionsroboter) zugewiesen.
  • Die vorliegende Erfindung überwindet die Nachteile herkömmlicher Systeme, die derzeit in Verwendung stehen, indem nahezu Echtzeitmanövrierung und Aufgabenerfüllung bereitgestellt wird. Eine ideale Anwendung der vorliegenden Erfindung besteht in der Haushalts- oder Büroreinigung, welche typischerweise vielzählige und sich wiederholende Aufgaben wie Staubsaugen, Zusammenkehren und Abwischen mit sich bringt. Die vorliegende Erfindung könnte jedoch in jeder Umgebung, wo mehrere Roboter manövriert werden, um zugewiesene Aufgaben auszuführen, umgesetzt werden.
  • 2. SYSTEMKOMPONENTEN
  • 1 ist ein Blockdiagramm eines Mehr-Roboter-Systems 100 gemäß der vorliegenden Erfindung. Das System 100 umfasst einen Navigationsroboter 110, mehrere Funktionsroboter 120 und (wahlweise) eine Basisstation 130. Es sollte beachtet werden, dass die Basisstation 130, obwohl sie Vorteile mit sich bringt, die im Folgenden beschrieben werden, in keiner Ausführungsform unbedingt erforderlich ist.
  • Die Basisstation 130, wenn eingeschlossen, kann mit Ladestationen ausgestattet sein, um die mobilen Roboter 110 und 120 wiederum aufzuladen. Darüber hinaus kann die Basisstation 130 so konfiguriert sein, um bei der Aufgabenausführung unterstützend zu wirken. Wenn zum Beispiel das System 100 in einer Wohnungsreinigungsumgebung umgesetzt wird, kann die Basisstation 13D mit einem Papierkorb, einem Müllkorb, einem Wasserbehälter und Ähnlichem ausgestattet sein, um in der Durchführung der angeforderten Aufgaben zu helfen.
  • In einer Ausführungsform ist der Navigationsroboter 110 für alle oder im Wesentlichen alle Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen verantwortlich. Er erzeugt und hält die Umgebungskarte, eine Liste der zu erfüllenden Aufgaben, einen Aufgabenablaufplan und einen Ladezeitplan auf Stand. Der Navigationsroboter 110 ist mit allen Sensoren und aller Hardware konfiguriert, die zum Navigieren und Manövrieren seiner selbst als auch der Funktionsroboter 120 erforderlich ist. In diesem Bezug weist der Navigationsroboter 110 einen Sender zum Kommunizieren von Befehlen an die Funktionsroboter 120 auf.
  • Die Funktionsroboter 120 führen besondere Aufgaben aus und können so gestaltet und bemessen sein, um die Ausführung jener Aufgaben zu ermöglichen. Die Roboter 120 sind mit Empfängern zum Empfangen der Befehle vom Navigationsroboter 110 ausgestattet und, wie in 1 gezeigt, einmalige Formen oder Markierungen 122 können den Robotern 120 zugewiesen sein, um den Navigationsroboter 110 in der Erkennung, Ortsbestimmung und Verfolgung der Funktionsroboter zu unterstützen. In einer Ausführungsform sind die Roboter 120 vorzugsweise nicht mit zusätzlichen Sensoren, Sensorhardware und Ähnlichem ausgestattet, da der Navigationsroboter 110 diese Funktionen ausführt. Wenn erwünscht, können jedoch die Roboter 120 mit Sensoren und Ähnlichem ausgestattet sein, um ihre Funktionalität zu verbessern.
  • a. NAVIGATIONSROBOTER
  • 2 ist ein Blockdiagramm eines Navigationsroboters 110 gemäß der vorliegenden Erfindung. Die besondere Umsetzung des Roboters 110, gezeigt in 2, ist zu bloß veranschaulichenden Zwecken bereit gestellt und sollte nicht dahingehend ausgelegt werden, dass eine besondere körperliche Architektur für den Navigationsroboter 110 erforderlich ist.
  • Ein Sensor 202 ist auf dem Navigationsroboter 110 angebracht. Der Sensor 202 kann jede Art Sensor sein, die für die Roboterumgebung geeignet ist und es können auch mehrere Sensoren eingesetzt werden. Er kann in einer feststehenden Position angebracht oder alternativ derart konfiguriert sein, dass er in der Lage ist, die Position und Ausrichtung relativ zum Navigationsroboter 110 zu verändern. In Abhängigkeit vom Sensortyp und der Systemkomplexität kann die Position und Ausrichtung des Sensors 202 der Steuerung des Navigationsroboters 110 unterliegen oder auch nicht.
  • In einer beispielhaften Umsetzung ist der Sensor 202 eine Kamera, welche optische Bilder der umliegenden Umgebung aufzeichnet. In einer anderen Umsetzung umfasst der Sensor 202 einen Satz Kameras, um eine Stereosicht zum Erzielen detaillierterer und genauerer Information über die Roboterumgebung bereit zu stellen. Andere Sensorwahlmöglichkeiten umfassen, sind aber nicht darauf beschränkt, Radar, Lichtmaser betriebenes Radar, Sonar und/oder Kombinationen derselben. Der Betrieb und die Konfiguration solcher Sensoren wird den Durchschnittsfachleuten auf diesem Gebiet der Technik vertraut sein. Der Navigationsroboter 110 umfasst des Weiteren den Steuerteil 204, die Energiequelle und das Energieversorgungssystem 206, den Sender 208, den Motorsteuerteil 210, Motor 212 und die Räder 214. Der Steuerteil 204 umfasst einen Prozessor oder eine Zentralrecheneinheit (CPU) 216, einen Zwischenspeicher oder RAM 218 und einen nicht flüchtigen Speicher 220. Informationen wie Karten und Arbeitsplanlisten werden im nicht flüchtigen Speicher 220 gespeichert, welcher in einer Umsetzung ein EPROM oder EEPROM ist. Der Steuerteil 204 empfängt und verarbeitet Information vom Sensor 202 in Bezug auf die umliegende Umgebung des Roboters. Diese kann Information wie die örtliche Position des Navigationsroboters 110, die örtliche Position der anderen Funktionsroboter 120, in der Nähe befindlicher Richtzeichen und so weiter umfassen. Der Steuerteil 204 verwendet diese Information, um zu bestimmen, welche Aufgaben oder Bewegungen als Nächstes auftreten.
  • Der Steuerteil 204 steuert, basierend auf der verfügbaren Information, die Ortsveränderung und das Manövrieren des Navigationsroboters 110. Das Verfahren und die Mittel, durch welche der Navigationsroboter 110 sich selbst manövriert und die Fortbewegung bewirkt, wird als "Regelkreis" bezeichnet und umfasst den Motorsteuerteil 210, den Motor 212 und die Räder 214. Der Steuerteil 204 sendet, basierend auf der Information vom Sensor 202, geeignete Befehle an den Motorsteuerteil 210. Der Motorsteuerteil 210 regelt den Motor 212 gemäß diesen Befehlen. Der Motor 212 seinerseits treibt die Räder 214 an. In einigen Umsetzungen kann in Abhängigkeit vom Verfahren und der Komplexität der Fortbewegung der Regelkreis auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen. Der Regelkreis kann auch Wegstreckendaten sammeln und diese an den Steuerteil 204 übertragen.
  • Wie in 3 dargestellt, steuert der Steuerteil 204 in einer Ausführungsform auch die Bewegung der Funktionsroboter 120 mittels des Senders 208. Der Steuerteil 204 verarbeitet die Sensoreingabe 201, die vom Sensor 202 empfangen wird, um zu bestimmen, welche Aufgabe, Bewegung oder andere Funktion des(der) Funktionsroboter als Nächstes unternommen werden sollte. Der Sender 208 überträgt geeignete Steuersignale 209 an den Empfänger 302 des Funktionsroboters 120.
  • Der Sender 208 und der Empfänger 302 können jedes geeignete Kommunikationsmittel und -medium verwenden. In einer Umsetzung werden akustische Wellen für die Kommunikation zwischen Navigationsroboter 110 und Funktionsroboter 120 eingesetzt. In einem Umsetzungsbeispiel würde eine akustische Welle auf einer Frequenz Bewegung in eine Richtung (d.i. vom Navigationsroboter 110 zum Funktionsroboter 120) bedeuten, während eine akustische Welle auf einer anderen Frequenz Bewegung in eine andere Richtung (d.i. vom Funktionsroboter 120 zum Navigationsroboter 110) bedeutet. Andere geeignete Kommunikationsmittel umfassen, aber sind nicht darauf beschränkt, leitungsgebundene Kommunikation oder drahtlose Kommunikation, Infrarotsignale und magnetische Induktion.
  • b. FUNKTIONSROBOTER
  • 4 ist ein Blockdiagramm eines Funktionsroboters 120 gemäß einer Ausführungsform der vorliegenden Erfindung. Wiederum ist die besondere Umsetzung des Roboters 120, gezeigt in 4, zu bloß veranschaulichenden Zwecken bereit gestellt und sollte nicht dahingehend ausgelegt werden, dass eine besondere körperliche Architektur für den Roboter 120 erforderlich ist. Wie oben beschrieben, umfasst der Funktionsroboter 120 einen Empfänger 302. Der Regelkreis zum Bewegen und Manövrieren des Roboters 120 umfasst die Energiequelle und das Energieversorgungssystem 402, den Motorsteuerteil 404, den Motor 406 und die Räder 408. Steuersignale, die vom Navigationsroboter 110 mittels des Empfängers 302 empfangen werden, lenken den Motorsteuerteil 404. Der Steuerteil 404 regelt den Motor 406, welcher seinerseits die Räder 408 antreibt. Der Regelkreis kann auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen.
  • Die Energiequelle und die Versorgungsmodule des Navigationsroboters 110 und des Funktionsroboters 120 können ähnlich oder identisch sein. Der Energiequellenabschnitt kann jede geeignete Energiequelle umfassen, darunter, aber nicht darauf beschränkt, Batterien, elektrische Auslässe, Brennstoffzellen, Verbrennungsmotoren und andere Motoren oder Kombinationen derselben. Der Energieversorgungsabschnitt bedient die Energiequelle und verteilt sie, um jede anwendbare Bedingung oder jedes anwendbare Erfordernis zu erfüllen.
  • 3. SYSTEMBETRIEB
  • Wie oben erwähnt, stellt die vorliegende Erfindung ein System und ein Verfahren zum Zuweisen der Kartierung, der Ortbestimmung, Planung, Steuerung und Aufgabendurchführung in einer kommerziellen Mehr-Roboter-Umgebung bereit. Insbesondere sind in einer Ausführungsform die Kartierungs-, Ortsbestimmungs-, Planungs- und Steuerungsfunktionen einer mobilen Plattform (dem Navigationsroboter) zugewiesen und die Aufgabendurchführungsfunktionen sind der wenigstens einen zweiten mobilen Plattform (dem Funktionsroboter) zugewiesen. Jede Funktion (Kartierung, Ortbestimmung, Vorplanung, Planung und Steuerung und Aufgabendurchführung) ist im Folgenden besprochen.
  • a. KARTIEREN
  • In einer Ausführungsform führt der Navigationsroboter 110 alle oder im Wesentlichen alle Kartierungsfunktionen aus. Das Kartieren ist der Vorgang, durch welchen eine Darstellung der Umgebung erzeugt und mit Sensordaten und durch vorprogrammierte Eingabe aktualisiert wird. Mehrere Karten, die unterschiedliche Niveaus der Auflösung, Stabilität und/oder Koordinatensysteme aufweisen, können aufrechterhalten werden. Dynamisches Kartieren erhält die laufende dynamische Karte (CDM), welche eine auf Wahrscheinlichkeit aufbauende zweidimensionale (2D) oder dreidimensionale (3D) Karte der Umgebung des Roboters ist, auf Stand. Eine statische Karte des äußeren Umfangs (d.s. Raumwände oder Platzgrenzen) der Umgebung kann auch erzeugt werden. Die Karten, welche durch den Navigationsroboter 110 erzeugt werden, werden im RAM 218 oder im nicht flüchtigen Speicher 220 gespeichert.
  • Der wiederholende Kartierungsvorgang umfasst im Wesentlichen die Schritte des Bewegens in eine neue Position, des Sammelns von Sensordaten der Objekte und Hindernisse im unmittelbaren Umgebungsbereich, des Durchführens der Ortsbestimmung und des Aktualisierens der dynamischen Karte, um die Information, die von den neuen Sensordaten abgeleitet wird, einfließen zu lassen. Dieser Vorgang ist rechenleistungsmäßig intensiv und zeitaufwändig. Wie erklärt werden wird, verringert die Zusammenführung dieser Kartierungsfunktionen im Navigationsroboter 110 jedoch die Zeit, die zum Kartieren erforderlich ist, auf einen Bruchteil der Zeit, welche herkömmliche Systeme zum Kartieren anfordern.
  • Wie oben bemerkt, kann zusätzlich zu einer dynamischen Karte der Umgebung eine statische Karte der äußeren Grenze der Umgebung erzeugt werden. Die Karte kann zum Beispiel die Wände eines Gebäudes oder die Grenzen eines Platzes umfassen. Sie kann vorbestimmt sein und in den Navigationsroboter 110 eingegeben werden oder alternativ kann der Navigationsroboter 110 eine statische Karte der Umgebung erstellen, bevor die Aufgabendurchführung eingeleitet wird. Im letzteren Fall folgt in einer Ausführungsform der Navigationsroboter 110 einer körperlich deutlichen Begrenzungslinie, wobei er eine dynamische Karte, während er sich bewegt, auf Stand hält und die Begrenzungslinieninformation aus der dynamischen Karte in die statische Karte einfügt. Der Vorgang setzt sich fort, bis die statische Karte vollständig, konsistent und stabil vorliegt.
  • Der Vorgang des Erzeugens der statischen Karte ist relativ langwierig und wiederholend. Vorzugsweise wird er genau einmal bei der. Einführung des Systems in eine neue Umgebung ausgeführt. Die genaue Methodologie, die eingesetzt wird, um die Karte zu erzeugen, hängt von den verwendeten Sensoren und den gewählten Algorithmen ab, um die notwendigen Berechnungen auszuführen. Sobald erzeugt, wird in einer Umsetzung die statische Karte dauerhaft im Navigationsroboter 110 gespeichert. Der Navigationsroboter 110 kann seine Position auf der statischen Karte durch Erkennen von Richtzeichen und anderen körperlichen Attributen der Umgebung und durch Ausrichten der CDM innerhalb der statischen Karte festlegen. Kein Ursprung oder Bezugspunkt ist erforderlich. per Einsatz gewisser Annahmen kann die Zeit und den Rechnereinsatz, die erforderlich sind, um die statische Karte zu erzeugen, verkürzen. In einer Büro- oder Wohnungsumgebung zum Beispiel kann angenommen werden, dass Wände rechtwinkelig und gerade sind. Der Einsatz solcher Annahmen verringert die Zeit, die erforderlich ist, um die statische Karte zu erzeugen.
  • In einer Umsetzung umfasst der Kartierungsvorgang drei Karten, die von den Sensordaten erzeugt werden, welche von einem Paar von digitalen Stereokameras abgeleitet werden, die auf dem Navigationsroboter 110 angebracht sind. Die erste Karte in dieser Umsetzung ist eine temporäre Karte (TM) der unmittelbaren Umgebung des Navigationsroboters 110. Im Besonderen ist die temporäre Karte eine probalistische 3D-Darstellung, die vom letzten Stereobilderpaar der unmittelbar umliegenden Umgebung erzeugt wird. Die zweite Karte in dieser Umsetzung ist die laufende dynamische Karte (CDM). Die CDM ist eine probalistische 3D-Darstellung der Arbeitsumgebung und ist durch wiederholtes Einarbeiten von Information aus aufeinander folgenden temporären Karten erzeugt. Die CDM in dieser Umsetzung wird jedes Mal aktualisiert, wenn sich der Navigationsroboter bewegt. Die dritte Karte in dieser Umsetzung ist die statische Begrenzungslinienkarte (PM). Wie oben beschrieben, wird die PM erzeugt, während der Navigationsroboter 110 der äußeren Begrenzung der Umgebung folgt.
  • In einer anderen Umsetzung wird (werden) die Karte(n) nicht durch den Navigationsroboter 110 erzeugt, sondern werden in den Navigationsroboter 110 eingegeben oder sind in diesem vorprogrammiert. In einer weiteren Umsetzung wird eine statische Karte vor dem Aufgabenbeginn weder erzeugt noch eingegeben. In dieser Umsetzung beginnt der Navigationsroboter 110 einfach mit einer leeren dynamischen Karte und aktualisiert sie, während die Aufgaben ausgeführt werden.
  • b. ORTSBESTIMMUNG
  • In einer Ausführungsform ist der Navigationsroboter 110 sowohl für das Navigieren seiner selbst als auch der Funktionsroboter 120 in der kartierten Umgebung verantwortlich. In dieser Ausführungsform ist der Navigationsroboter 110 für alle oder im Wesentlichen alle Aspekte der Navigation unter Einschluss der Ortsbestimmung, Planung und Steuerung für sich selbst und die Funktionsroboter 120 verantwortlich. Im Gegensatz dazu ist in herkömmlichen Systemen jeder mobile Roboter für seine eigene Ortsbestimmung, Planung und Steuerung verantwortlich. Jeder Roboter in solchen Systemen ist verantwortlich für das Navigieren und Manövrieren seiner selbst in die richtige Position, um die Aufgabe zu erfüllen. Solche Systeme unterliegen Verzögerungen durch Ortsbestimmungsberechnungen für alle Roboter, was den Aufgabenabschluss langsam und unwirtschaftlich macht. Die vorliegende Ausführungsform der Erfindung vermeidet solche Verzögerungen und erhöht den Wirkungsgrad durch Sammeln aller oder im Wesentlichen aller Navigationsfunktionen in einem Navigationsroboter 110 und durch Minimieren des Ausmaßes an Bewegung für diesen Roboter.
  • Ortsbestimmung ist der Vorgang, durch welchen die laufende Position, die Ausrichtung und Rate der Veränderung in der Karte des Roboters bestimmt wird. Unterschiedliche Vorgangsweisen können zur Ortsbestimmung des Navigationsroboters und zur Ortsbestimmung der Funktionsroboter verwendet werden. Die Ortsbestimmung der Funktionsroboter ist relativ einfach, da der Navigationsroboter in einer Ausführungsform ortsfest oder im Wesentlichen ortsfest ist, wenn er den Ort der Funktionsroboter bestimmt, und daher seine Position innerhalb der laufenden dynamischen Karte kennt. In einer Umsetzung verfolgt der Navigationsroboter einfach die Funktionsroboter unter Verwendung seines Sichtsystems (Sensoren) und filtert die Sichtdaten mit einem Spurfolgefilter wie einem Kalman-Filter. Wenn sich der Funktionsroboter nur eine kurze Distanz bewegt oder sich gedreht hat, können die Sensoren 202 des Navigationsroboters diese Bewegung erfassen und den Funktionsroboter örtlich bestimmen. In Umsetzungen, welche eine Basisstation verwenden, kann die Ortsbestimmung der Funktionsroboter nahe der Basisstation auch schnell sichergestellt werden.
  • Die einmaligen Formen und/oder geometrischen Markierungen 122 auf den Funktionsrobotern 120 können auch den Navigationsroboter 110 beim örtlichen Bestimmen der Funktionsroboter 120 unterstützen. Die Art des Sensors 202, welcher durch den Navigationsroboter 110 verwendet wird, legt fest, ob eine einmalige Form oder Markierung eingesetzt wird und wie sie erkannt wird. In einer Umsetzung verwendet der Navigationsroboter 110 ein neurales Netz, um die Sensordaten zu verarbeiten und besondere Formen zu erkennen. In einer anderen Umsetzung verwendet der Navigationsroboter sein Sicht- oder Sensorsystem, um beliebige Markierungen und/oder Formen zu erkennen.
  • Zusätzlich zur Ortsbestimmung der Funktionsroboter 120 muss der Navigationsroboter 110 in einer Ausführungsform sich selbst nach einer Bewegung örtlich bestimmen. Die Ortsbestimmung des Navigationsroboters ist untrennbar mit dem Kartieren, insbesondere mit der Instandhaltung der laufenden dynamischen Karte verbunden (d.i. der Navigationsroboter muss wissen, wo er sich auf der CDM befindet, um die CDM auf Stand zu halten). Wo sowohl eine laufende dynamische Karte und eine statische Begrenzungskarte verwendet werden, umfasst die Ortsbestimmung das Bestimmen der örtlichen Position sowohl des Navigationsroboters als auch der Funktionsroboter auf diesen Karten. Es sollte auch beachtet werden, dass die CDM vorprogrammiert sein kann.
  • Der Vorgang des örtlichen Bestimmens des Navigationsroboters ist typischerweise umfassender als der Vorgang des örtlichen Bestimmens der Funktionsroboter. Potentielle Verfahren, durch welche der Navigationsroboter sich selbst örtlich bestimmen kann, umfassen Koppelnavigations-, Aktivnavigationszeichenerkennungs-, Aktivsensorerkennungs- und Richtzeichenerkennungs-Verfahren. Bei Verwendung der Koppelnavigation kann eine grobe Abschätzung der Veränderung der Roboterposition unter Einsatz von Wegstreckenzählung und Trägheitsnavigationssystemen aufrecht erhalten werden. Aktivnavigationszeichenortungsverfahren bestimmen die Position des Roboters durch Messen seines Abstands von Navigationszeichen, die an bekannten Positionen in der Umgebung angeordnet sind. Dreiecksaufnahme kann dann eingesetzt werden, um die Position des Roboters exakt fest zu legen. Aktive Sensorortsbestimmungsverfahren verfolgen die Position des Roboters mit Sensoren wie Digitalkameras, welche an bekannten feststehenden Positionen angeordnet sind. Richtzeichenerkennungsverfahren können verwendet werden, in welchen der Roboter die Position von Merkmalen und Richtzeichen innerhalb der Umgebung erkennt und weiß. Die erkannten Richtzeichenpositionen werden dazu verwendet, um die Position des Roboters zu berechnen.
  • Auf Grund ihrer geringen Kosten und ihrer Einfachheit wird eine Form der Koppelnavigation (insbesondere Wegstreckenzählung) in einer Ausführungsform der Erfindung bevorzugt. Koppelnavigationsbestimmungsfehler können sich jedoch über die Zeit auf Grund von Faktoren wie Radschlupf und Versetzung anhäufen. Um diese Fehler zu kompensieren, können Hilfstechniken wie die oben besprochenen in Verbindung mit der Koppelnavigation eingesetzt werden. Umweltfaktoren und -einschränkungen können die Sinnhaftigkeit von Hilfstechniken begrenzen. Aktivnavigationszeichen- und Aktivsensorverfahren erfordern typischerweise den Einbau ortsfremder Objekte wie Kameras oder reflektierende Bänder in der Umgebung des Roboters. Während der Einbau solcher Objekte in einer Fabrik und in industriellen Einrichtungen annehmbar sein kann, ist dies üblicherweise nicht so in Wohnungen, Büros oder im Freien. Aus diesen Gründen wird der Einsatz von Richtzeichenerkennung zur Verfeinerung der Koppelnavigationsortsbestimmung in einer Ausführungsform der Erfindung bevorzugt.
  • Auch wenn die Koppelnavigation in Verbindung mit einer Hilfstechnik wie der Richtzeichenerkennung eingesetzt wird, mindern Faktoren wie begrenzte Sensorauflösung typischerweise die Genauigkeit der Ortsbestimmung. Eine Anzahl von Ortsbestimmungsalgorithmen, wie die Markov und Monte Carlo Algorithmen, können eingesetzt werden, um die Ortbestimmungsgenauigkeit weiter zu verbessern.
  • 7a ist ein Flussdiagramm, welches die Unterschritte darstellt, die in einer Ausführungsform des Kartierungs- und Ortsbestimmungsvorgangs 720 für den Navigationsroboter 110 umfasst sind. Bei Schritt 721 erhält der Navigationsroboter 110 Sensordaten von seiner unmittelbaren Umgebung. In einer Ausführungsform wird ein Paar von Digitalstereokameras verwendet, um die Sensordaten zu erzielen. Aus dem Stereobildpaar wird eine neue temporäre Karte (TM) in Schritt 722 erzeugt und relativ zur laufenden dynamischen Karte (CDM) ausgerichtet (Schritt 723). Um die temporäre und die laufende Karte abzugleichen, wird ein Satz von Positionsschätzungen PEn–1.1...PEn–1.m erzeugt. Ein Ortsbestimmungsalgorithmus wie die Markov oder Monte Carlo Ortsbestimmungsalgorithmen kann verwendet werden, um diesen Satz von Schätzungen zu erzeugen. Der Fehlerbereich in den Positionsschätzungen bestimmt, wie groß der Faktor m ist. Die beste Schätzung PEn+1.k (1≤k≤m) aus dem Bereich wird ausgewählt und unter Verwendung von PEn+1.k wird aus der temporären Karte und den Sensordaten Information herausgeholt und der laufenden dynamischen Karte hinzugefügt (Schritt 724). Die temporäre Karte wird dann verworfen.
  • Der Navigationsroboter 110 kann ortsfest bleiben (Schritt 725), um die Rechenarbeit zu minimieren. In einer Ausführungsform verfolgt und steuert der Navigationsroboter 110 die Funktionsroboter, während er ortsfest bleibt, wie unten beschrieben. In weiterer Folge muss sich der Navigationsroboter 110 bewegen und beginnt sich in Richtung einer neuen Zielposition GPn+1 zu bewegen (Schritt 726). Während sich der Navigationsroboter 110 bewegt, kann er (wobei er in einer Umsetzung Koppelnavigationsverfahren einsetzt, wie oben beschrieben) für den Einsatz im Erzielen einer Schätzung seines Abstands und seiner Ausrichtung von PEn Wegstreckendaten sammeln (Schritt 727). In einer Ausführungsform verfolgt der Navigationsroboter 110 auch die Position eines oder mehrerer Funktionsroboter oder anderer erkannter Richtzeichen (durch einen Spurverfolgungsfilter), um eine verbesserte Abschätzung seiner laufenden Position bereit zu stellen. Wenn durch den Einsatz von Koppelnavigation und Richtzeichenerkennung wie oben beschrieben, der Navigationsroboter 110 bestimmt, dass seine neueste Positionsschätzung PEn+1 innerhalb eines annehmbaren Schwellenwerts relativ zu der neuen Zielposition GPn+1 liegt (Entscheidungsknoten 728), hört er auf und kehrt zu Schritt 711 zurück, um den Ortsbestimmungs- und Kartierungsvorgang zu wiederholen.
  • c. VORPLANUNG
  • In einer Ausführungsform kann der Navigationsroboter 110 Information über die Umgebung sammeln und Informationssammlung und Vorplanung ausführen. Die verschiedenen Unterschritte, die in einer Ausführungsform des Informationssammlungs- und Vorplanungsvorgangs umfasst sein können, sind genauer in 7b dargestellt. Es sollte beachtet werden, dass die Schritte, die in 7b dargestellt sind, in jeder beliebigen Ordnung ausgeführt werden können und dass jeder der Schritte wahlweise ist. Das bedeutet, die Informationssammlung und die Vorplanung können ohne einige der aufgelisteten Schritte erzielt werden und einige der aufgelisteten Schritte können im Navigationsroboter 110 vorprogrammiert sein oder eingegeben werden.
  • In Schritt 731 sammelt der Navigationsroboter 110 zusätzliche Daten wie die Merkmale des Raums oder der Umgebung, in welcher einer oder mehrere der Funktionsroboter vorhanden sind (d.s. Größe, Reinigungserfordernisse usw.) und die Arten der Oberflächen, welche in jenen Räumen vorhanden sind. In einer Ausführungsform werden Daten für jeden der Funktionsroboter im System gesammelt. Diese Daten können unter Verwendung derselben Sensoren gesammelt werden, die für das Kartieren und die Ortsbestimmung verwendet werden, oder es können alternativ unterschiedliche Sensoren verwendet werden, um Daten zu sammeln. Wenn ein Sensor zum Kartieren und zur Ortsbestimmung verwendet wird, kann es zum Beispiel notwendig sein, einen unterschiedlichen Sensor wie eine Kamera zum Sammeln von Daten wie Raumoberflächenarten einzusetzen.
  • In Schritt 732 bestimmt der Navigationsroboter 110, welche Funktionsroboter 120 für die Aufgabenausführung verfügbar sind. Alternativ kann diese Information in den Navigationsroboter 110 eingegeben werden oder in diesem vorprogrammiert sein oder es kann sich einfach um nicht notwendige Information handeln. Als Nächstes bestimmt in Schritt 733 der Navigationsroboter 110, welche Aufgaben ausgeführt werden müssen. Wiederum kann diese Information im Navigationsroboter 110 vorprogrammiert sein, mittels einer Schnittstelle eingegeben werden oder mittels einer Kombination von Vorprogrammierung und Eingabe bestimmt werden.
  • Unter Verwendung der Information, die in den Schritten 731-733 gesammelt wurde, gleicht der Navigationsroboter 110 die verfügbaren Funktionsroboter mit den Aufgaben, die erfüllt werden müssen, ab (Schritt 734) und entwickelt einen Aufgabenzeitplan (Schritt 735). Jede Aufgabe kann in Unteraufgaben unterteilt werden, um die Navigationsroboterbewegung zu minimieren und den Wirkungsgrad zu steigern.
  • d. PLANUNG UND STEUERUNG
  • In einer Ausführungsform steuert der Navigationsroboter 110 die Funktionsroboter 120, um die geplanten Aufgaben auszuführen. Die Schritte, die in der Planung und Steuerung umfasst sind, sind genauer in 7c dargestellt. In Schritt 742 wartet der Navigationsroboter 110 auf den Zeitpunkt (gemäß dem Aufgabenzeitplan, der wie oben beschrieben entwickelt wurde), um die Ausführung der nächsten geplanten Aufgabe zu beginnen. Zum Zeitpunkt oder vor dem Erreichen des Zeitpunkts für die nächste Aufgabe berechnet in Schritt 744 der Navigationsroboter 110 wiederholend die nächste Unteraufgabe der niedrigsten Ebene. Beispiele von Unteraufgaben der niedrigsten Ebene umfassen das Einschalten von Motoren und das Verfolgen eines Roboters, bis ein Ereignis eintritt. Der Navigationsroboter bewegt sich selbst oder bewegt und/oder steuert den(die) geeigneten Funktionsroboter, um jede Unteraufgabe auszuführen (Schritt 746). Der Navigationsroboter 110 gibt die geeigneten Steuersignale 209 an die Funktionsroboter 120 über seinen Sender 208 aus (siehe 3). Dieser Planungs- und Regelkreis wird wiederholt, bis die gesamte Aufgabe abgeschlossen ist (Entscheidungsknoten 748).
  • Der Navigationsroboter 110 lenkt die Funktionsroboter 120 entlang der geplanten Routen unter Verwendung der Regelkreise der Funktionsroboter. Wie oben beschrieben, umfasst in einer Ausführungsform der Regelkreis zum Bewegen und Manövrieren des Roboters 120 die Energiequelle und das Energieversorgungssystem 402, den Motorsteuerteil 404, den Motor 406 und die Räder 408. Die Steuersignale, welche vom Navigationsroboter 110 mittels des Empfängers 302 empfangen werden, steuern den Motorsteuerteil 404. Der Steuerteil 404 steuert den Motor 406, welcher seinerseits die Räder 408 antreibt. Der Regelkreis kann auch Servomotoren, Stellglieder, Sender und Ähnliches umfassen.
  • Während sich der Funktionsroboter 120 bewegt, verharrt in einer Ausführungsform der Navigationsroboter 110 ortsfest und verfolgt den Fortschritt des Funktionsroboters. Eine Anzahl von geeigneten Spurverfolgungsalgorithmen ist den Durchschnittsfachleuten auf diesem Gebiet der Technik bekannt. Das Unbewegthalten des Navigationsroboters 110 verringert die rechentechnischen Aufwand für die Ortsbestimmung, wie er im Zusammenhang mit den Spurverfolgungsalgorithmen auftritt, in großem Umfang. Darüber hinaus verringert den Einsatz eines ortsfesten Navigationsroboters Verzögerungen, wie sie mit dem Navigieren um unvorhergesehene Hindernisse in Zusammenhang stehen. Der Navigationsroboter 110 kann zuerst einen Funktionsroboter verwenden, um die geplante Route zu prüfen. Wenn eine Kollision auftritt, weiß der Navigationsroboter 110 noch immer seine eigene Position und kann die Position des Funktionsroboters verfolgen, während er ihn lenkt, einen alternativen Pfad zu nehmen. Wie in 5 gezeigt, kann der Navigationsroboter 110 Hindernisse 510 mittels Sensoreingabe 530 "sehen" und kann einen Funktionsroboter 120 um das Hindernis 510 herum mittels des Regelkreises 520 lenken. Dies ist weit weniger rechentechnisch aufwändig als die Verwendung des Navigationsroboters 110 selbst, um die Aufgaben eines Funktionsroboters auszuführen oder wenn der Funktionsroboter 120 den Spurverfolgungsvorgang selbst ausführen müsste.
  • In einer Ausführungsform ist der Navigationsroboter 110 in der Lage, die Funktionsroboter zu verfolgen und zu steuern, während sich die Funktionsroboter mit einer Rate bewegen, die wesentlich schneller ist als die jenige, die in herkömmlichen Systemen anzutreffen ist. Insbesondere in einer Ausführungsform ist das vorliegende System zur Bewegung mit einer Rate fähig, die wesentlich schneller ist als ein Fuß pro Sekunde pro 1.000 MIPS. Zusätzlich kann der Navigationsroboter 110 ausreichend Verarbeitungsleistung aufweisen, um einige oder alle Kartierungs- und Ortsbestimmungsfunktionen auszuführen, während er gleichzeitig die Funktionsroboter verfolgt und steuert.
  • Im Zuge der Ereignisse kann der Navigationsroboter 110 sich selbst neu positionieren müssen, um das Verfolgen der Funktionsroboter 120 fort zu setzen. Typischerweise tritt dies auf, wenn die Funktionsroboter sich weit weg bewegen müssen oder sich aus dem Sichtkontakt bewegt haben. Wenn der Navigationsroboter 110 feststellt, dass er sich neu positionieren muss, befiehlt er in einer Ausführungsform den Funktionsrobotern, die Bewegung einzustellen, und bewegt sich dann, wobei er den Funktionsroboter als ein Richtzeichen einsetzt.
  • Wie in 6 gezeigt, verwendet der Navigationsroboter 110, wenn er sich bewegt, in einer Umsetzung die Sensoreingabe 610, um ein Dreieck von einem Funktionsroboter 120 und einem anderen Richtzeichen 612 wie der Ecke eines Raums oder einem Fenster aufzunehmen. Unter Verwendung dieser Daten bewegt sich der Navigationsroboter 110 dann in die richtige Position. Wenn der Navigationsroboter 110 an der neuen Stelle ankommt, führt er eine dynamische Kartierung und Ortsbestimmung (wie oben beschrieben) durch, um sicher zu stellen, dass er weiß, wo er sich befindet. Dieser Vorgang kann mehrere Minuten dauern, da Richtzeichen entfernt oder verdeckt sein können und Fehler in der Karte oder den Ortsdaten vorhanden sein können. Dieser wiederholende Vorgang ist relativ schnell im Vergleich zu herkömmlichen Verfahren, da wenigstens ein Richtzeichen, welches genau bekannte Abmessungen aufweist, immer in der Nähe des Navigationsroboters 110 ist. Sobald der Navigationsroboter 110 sich ausreichend nahe an die Funktionsroboter 120 heran bewegt hat, kehrt in einer Umsetzung das Verfahren zu Schritt 744 (7c) zurück und der Navigationsroboter 110 berechnet die nächste Unteraufgabe zur weiteren Aufgabenausführung. Die wiederholte Berechnung von Unteraufgaben beruht auf Algorithmen, welche die Bewegung des Navigationsroboters minimieren.
  • In einer Umsetzung verfolgt der Navigationsroboter 110 den(die) Funktionsroboter, während er(sie) seine(ihre) Aufgaben durchführt(en). In einer Umsetzung verwendet der Navigationsroboter 110 ein Bewegungsmodell der Bewegung, die für die Aufgabe erforderlich ist, um beim Verfolgen der Roboter Unterstützung zu haben. Das Bewegungsmodell umfasst die erwarteten linearen Geschwindigkeiten und die Winkelgeschwindigkeiten und -beschleunigungen der Funktionsroboter für eine gegebene Oberflächenart und Eingabesätze für die Motoren und Stellglieder des Roboters. Sobald das Bewegungsmodell eine grobe Schätzung des Ortes des Funktionsroboters bereitstellt, kann der Navigationsroboter 110 seine Sensoren 202 einsetzen, um genauere Daten zu erzielen. Verschiedene Filteralgorithmen können eingesetzt werden, um die Bewegungsmodellfehler auszufiltern. In einer Umsetzung wird Kalman-Filtern eingesetzt. Andere geeignete Filteralgorithmen, wie sie den Durchschnittsfachleuten auf diesem Gebiet der Technik bekannt sind, wie g-h und Benedict-Bordner, können ebenfalls eingesetzt werden. Im Wesentlichen werden x-y und Ausrichtungsdaten verfolgt und der Filteralgorithmus verringert die Fehler auf Grund des Bewegungsmodells und der Sensoreingabe.
  • Beim Entscheidungsknoten 748 (7c) bestimmt der Navigationsroboter 110, ob die gesamte Aufgabe oder die Unteraufgabe abgeschlossen ist. Wenn die Aufgabe abgeschlossen ist, kehrt das Verfahren zu Schritt 742 zurück und der Navigationsroboter 110 wartet auf den Zeitpunkt, um die nächste Aufgabe oder Unteraufgabe zu beginnen. In einer Umsetzung umfasst der Abschluss der Aufgabe die Rückkehr des Navigationsroboters 110 und der Funktionsroboter zu einer Basisstation 130 (1) zum Wiederaufladen. In diesem Zusammenhang sollte beachtet werden, dass über die gesamte Bewegungs- und Aufgabenausführung hinweg der Navigationsroboter 110 die Energieniveaus der Funktionsroboter abschätzen und überwachen und sie zum Wiederaufladen zurück kehren lassen kann, wenn dies notwendig ist.
  • Zum Bewegen und Ausführen ihrer Aufgaben können einige Funktionsroboter wie Staubsauger Energie aus Wandauslässen anstatt aus selbst mitgeführter Energieversorgung erfordern. In einem System, welches solche Roboter verwendet, können der Navigationsroboter 110 und der Funktionsroboter als Team arbeiten, um den Wandauslass zu orten und den Funktionsroboter in den Auslass anzustecken. Wenn der(die) Funktionsroboter sich zu weit von einem besonderen Auslass wegbewegen muss(müssen), können sich der Navigationsroboter 110 und die Funktionsroboter vom Auslass abstecken und zu einem anderen bewegen.
  • Der Fortschritt, den die vorliegende Erfindung gegenüber den Systemen nach dem Stand der Technik darstellt, ist am besten durch ein Beispiel veranschaulicht. Wir betrachten die Aufgabe des Staubsaugens eines 20' × 20' großen Raums. Angenommen, auf Grund der Abmessungen des Roboters muss sich ein Roboter acht lineare Fuß bewegen, um einen Quadratfuß des Bodens zu säubern. Mit einem Ortsbestimmungsalgorithmus, welcher zwei Sekunden Verarbeitung pro zurückgelegtem linearen Fuß auf einem 100 MIPS-Prozessor braucht, würde die Ortsbestimmungsberechnung 20 × 20 × 8 × 2 = 6400 Sekunden verbrauchen. Dies ist eine Berechnungsverzögerung von ungefähr 1 3/4 Stunden.
  • Gemäß der vorliegenden Erfindung führt im Gegensatz dazu in einer Ausführungsform ein Funktionsroboter 120 das gesamte oder im Wesentlichen das gesamte Staubsaugen unter der Steuerung des Navigationsroboters 110 durch. Unter der Annahme, dass sich der Navigationsroboter 110 viermal während des Staubsaugens an Orte, die 10 Fuß auseinander liegen, bewegen muss, erfordern die Ortsbestimmungsberechnungen unter Verwendung eines Spurverfolgungsalgorithmus, der 40 Millisekunden pro zurück gelegtem, linearem Fuß benötigt:
    • 4 × 10 × 2 = 80 Sekunden für den Navigationsroboter 110; und
    • 20 × 20 × 8 × 0,04 = 128 Sekunden für den Funktionsroboter.
  • Die Gesamtverzögerung beträgt nur 208 Sekunden, was eine Verbesserung um mehr als den Faktor 30 bedeutet.
  • 4. ALTERNATIVE AUSFÜHRUNGSFORMEN
  • Eine Ausführungsform der Erfindung wurde gezeigt und oben beschrieben. Alternative Ausführungsformen der Erfindung sind ebenfalls vorgedacht. Eine zweite Ausführungsform der Erfindung zum Beispiel überlegt den Einsatz von mehr als einem Navigationsroboter. In der zweiten Ausführungsform ist ein erster oder Navigationssatz von Plattformen (mobile Roboter) verantwortlich für alle oder im Wesentlichen alle Kartierungs-, Ortsbestimmungs-, Planung- und Steuerungsfunktionen und ein zweiter oder Funktionssatz von Plattformen ist für die funktionale Aufgabendurchführung verantwortlich. Der erste Satz von Robotern ist dann. für Planung, Navigation und Verfolgung der Aufgabenausführung durch den zweiten Satz von Robotern verantwortlich. Die zweite Ausführungsform der Erfindung kann geeignet sein, wo zu viele Funktionsroboter für einen Navigationsroboter zu befehlen und steuern sind oder wo die Funktionsroboter über eine besonders große geographische Fläche verstreut. sind.
  • In einer dritten Ausführungsform der Erfindung ist jeder Roboter sowohl als ein Navigationsroboter als auch als ein Funktionsroboter konfiguriert. Ein Roboter, welcher in Bewegung oder Aufgabenausführung engagiert ist, lässt einiges oder alles von seiner Navigation und der dazu gehörigen Rechnerleistung durch einen oder mehrere der anderen Roboter durchführen. Die anderen Roboter können ortsfest verharren, während sie diese Navigation und Rechnerarbeit durchführen. Die Roboter können Positions daten über drahtlose Kommunikationsverbindung kommunizieren. Diese Ausführungsform vereinfacht die Ortsbestimmung weiter, da die Roboter einander verfolgen und kein Roboter sich selbst verfolgen muss.
  • In einer vierten Ausführungsform der Erfindung werden wieder Funktionsroboter, welche zum Kartieren, Ortsbestimmen, Planen und Steuern in der Lage sind, eingesetzt. In dieser Ausführungsform führen jedoch die Funktionsroboter eines oder mehrere aktive oder passive Navigationszeichen mit sich herum. Die Roboter positionieren das(die) Navigationszeichen und verwenden dann ihre Abstände von dem(den) Navigationszeichen, um ihre Position mittels Dreiecksaufnahme zu bestimmen.
  • Schließlich könnte in jeder der vorangehenden Ausführungsformen ein ortsfester Computer oder eine andere mobile Plattform dazu abgestellt sein, einige oder alle Datenverarbeitung und Rechnerleistung auszuführen. In solch einer Konfiguration kann jeder Navigationsroboter mit geeigneten Sensoren zum Sammeln von Daten ausgerüstet sein. Die Sensordaten können entweder roh oder teilweise verarbeitet dem vorgesehenen Computer oder anderen mobilen Plattformen für die weitere Verarbeitung mittels eines Funknetzwerks oder anderer geeigneter Kommunikationsmittel übertragen werden. Der dafür abgestellte Computer kann die notwendigen Rechenleistungen ausführen und die Ergebnisse an den Navigationsroboter kommunizieren.
  • 5. VERFAHREN DER UMSETZUNG EINES MEHR-PLATTFORM-ROBOTER-SYSTEMS
  • Ein Verfahren 800 zum Umsetzen des Systems der vorliegenden Erfindung ist in 8 dargestellt. In Schritt 802 ist ein autonomes System, welches zwei oder mehrere körperlich getrennte mobile Plattformen umfasst, bereit gestellt. In Schritt 804 werden die Funktionen des Kartierens, der Ortsbestimmung, des Planens und Steuerns einer ersten Untergruppe des Systems zugewiesen, welche mindestens eine der körperlich einzelnen Plattformen umfasst. Die Plattformen, die in dieser ersten Untergruppe umfasst sind, werden als die Navigationsplattformen bezeichnet.
  • In Schritt 806 wird die Verantwortlichkeit für die funktionale Aufgabenausführung einer zweiten Untergruppe des Systems zugewiesen, die Plattformen umfasst, die nicht zur ersten Untergruppe gehören. Die Plattformen, welche in dieser zweiten Untergruppe umfasst sind, werden als Funktionsplattformen bezeichnet. In Schritt 808 erstellen die Navigationsplattformen eine Karte der Umgebung, bestimmen die Ortspositionen aller Roboter innerhalb der Umgebung und planen den Aufgabenausführungsablauf. Diese Aufgaben können in kleinere Aufgaben unterteilt werden, um das Verfolgen leichter durchführbar zu machen und um die Notwendigkeit, die Navigationsroboter zu bewegen, zu begrenzen. Im Schritt 810 können die Navigationsroboter ortsfest bleiben, während sie die Funktionsplattformen bei der Ausführung der zugewiesenen Aufgaben steuern. Im Schritt 812, welcher wahlweise ist, können sich die Navigationsroboter in eine neue Position bewegen, wobei sie eine oder mehrere der Funktionsplattformen als ein Richtzeichen verwenden.

Claims (54)

  1. System (100, 1; 3) mobiler Roboter, betrieben in einer Umgebung betrieben und umfassend: einen oder mehrere im Wesentlichen nicht selbstständige(n) mobile(n) Funktionsroboter (120, 1, 3, 4), der(die) so konfiguriert ist(sind), um eine funktionale Aufgabe auszuführen; und einen oder mehrere selbstständige(n) mobile(n) Navigationsroboter (110, 1, 3, 4), der(die) so konfiguriert ist(sind), um sich selbst und den(die) Funktionsroboter in der Umgebung anfänglich und, während sich der Funktionsroboter bewegt, örtlich zu bestimmen (723 und 727, 7a), wobei jeder Navigationsroboter einen oder mehrere Sensoren umfasst (202, 2, 3) zum Sammeln von Daten (201, 3; 530, 5; 721, 7a; 731, 7b) über die Umgebung, und einen Sender (208, 2, 3) zum Senden von wenigstens Steuersignalen, die funktionale Aufgaben bezeichnen, (209, 3) an den(die) Funktionsroboter, und wobei eine Steuereinheit (204, 2) zum Planen und Steuern der Aufgaben und Bewegung des einen oder der mehreren nicht selbstständigen Funktionsroboter(s) innerhalb der Umgebung bereit gestellt ist.
  2. System gemäß Anspruch 1, wobei der(die) selbstständige(n) mobile(n) Navigatorroboter (110, 1, 2, 3) so konfiguriert ist(sind), um sich selbst und den(die) Funktionsroboter innerhalb der Umgebung örtlich zu bestimmen (723 und 727, 7a), wobei eine Verbindung aus Spurverfolgung (5; 725, 7a; 746, 7c) und Anhaltspunkterkennung (726 und 727, 7a; 610612, 6) eingesetzt wird.
  3. System gemäß Anspruch 1 oder 2, wobei der(die) Funktionsroboter als Anhaltspunkte ausgenützt wird(werden) (812, 8; 610, 6).
  4. System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter so konfiguriert ist, um eine Landkarte der Umgebung zu speichern (722 und 724, 7a; 808, 8).
  5. System gemäß jedem der Ansprüche 1 bis 4, wobei der(die) Navigationsroboter ortsfest bleibt(bleiben), wenn der(die) Funktionsroboter sich gerade bewegt (bewegen).
  6. System gemäß jedem der Ansprüche 1 bis 4, wobei der(die) Funktionsroboter ortsfest bleibt(bleiben), wenn der(die) Navigationsroboter sich gerade bewegt (bewegen).
  7. System gemäß jedem der vorangehenden Ansprüche, wobei jeder Funktionsroboter einen Empfänger zum Empfangen der Steuersignale vom Navigationsroboter umfasst.
  8. System aus Anspruch 1, wobei der(die) Navigationsroboter und der(die) Funktionsroboter miteinander verdrahtet sind.
  9. System gemäß jedem der Ansprüche 2 bis 8, wobei der(die) Navigationsroboter die Bewegung des(der) Funktionsroboter(s) steuert und die tatsächliche Bewegung unter Verwendung seiner Sensoren verfolgt.
  10. System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter eine dynamische Landkarte der Umgebung erstellt, wobei Sensordaten von seiner unmittelbaren Umgebung bezogen werden, eine vorläufige Landkarte aus den Sensordaten geschaffen wird, die vorläufige Landkarte in die dynamische Landkarte einbezogen wird und er sich an einen neuen Ort bewegt, um neue Sensordaten zu erhalten.
  11. System gemäß jedem der Ansprüche 1 bis 10, wobei jeder Navigationsroboter eine statische Landkarte der Umgebung durch Abfahren des äußeren Umfangs der Umgebung und Eintragen desselben in eine Landkarte erstellt.
  12. System gemäß jedem der vorangehenden Ansprüche, wobei jeder Navigationsroboter die Aufgaben, die durch den Funktionsroboter ausgeführt werden sollen, in einem Speicher aufbewahrt (218 und 220, 2).
  13. System gemäß jedem der vorangehenden Ansprüche, wobei der Navigationsroboter die Aufgaben, die durch den Funktionsroboter ausgeführt werden sollen, durch Bestimmen, welche Aufgaben abgeschlossen werden müssen, plant, wobei er den(die) Funktionsroboter einer bestimmten Aufgabe angepasst zuteilt und einen Aufgabenzeitplan entwickelt.
  14. System gemäß jedem der vorangehenden Ansprüche, wobei die Steuereinheit die Aufgaben, die durch die Funktionsroboter ausgeführt werden sollen, plant und die Funktionsroboter während der Aufgabenausführung steuert.
  15. System gemäß jedem der vorangehenden Ansprüche, wobei die Steuereinheit in wenigstens einem der autonomen mobilen Navigationsroboter angeordnet ist.
  16. System gemäß jedem der Ansprüche 1 bis 14 und des Weiteren umfassend eine Basisstation zur Unterstützung beim Abschließen der Aufgaben, zur Verfolgung des(der) Funktionsroboter(s) oder zum Wiederaufladen der Roboter.
  17. System gemäß jedem der Ansprüche 1 bis 14, wobei Berechnungen, die im Zusammenhang mit der örtlichen Erfassung stehen, durch einen ortsfesten Computer ausgeführt werden und dem(den) Navigationsroboter(n) übermittelt werden.
  18. System gemäß jedem der Ansprüche 1 bis 14, zusätzlich umfassend eine oder mehrere Berechnungsplattform(en) in Verbindung mit einem oder mehreren autonomen mobilen Navigationsroboter(n).
  19. System gemäß Anspruch 18, wobei die Berechnungsplattform(en) ortsfest oder mobil sein kann(können).
  20. System gemäß Anspruch 19, wobei die Sensordaten an die Berechnungsplattform(en) zur weiteren Verarbeitung übertragen werden.
  21. System gemäß jedem der vorangehenden Ansprüche, wobei der(die) Navigationsroboter sich selbst zusätzlich unter Verwendung von Koppelnavigation örtlich bestimmt(bestimmen).
  22. System gemäß jedem der vorangehenden Ansprüche, wobei die Sensoren eine oder mehrere Kamera(s) umfassen.
  23. System gemäß jedem der vorangehenden Ansprüche, wobei die Sensoren eine oder mehrere digitale Kamera(s) umfassen.
  24. System gemäß jedem der vorangehenden Ansprüche, wobei der eine oder die mehreren nicht autonomen mobilen Funktionsroboter so konfiguriert ist(sind), um eine oder mehrere sich wiederholende Aufgaben innerhalb eines Flächenbereichs auszuführen.
  25. System gemäß jedem der vorangehenden Ansprüche, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um den Flächenbereich als Landkarte zu erfassen.
  26. System gemäß Anspruch 25, wobei jeder Navigationsroboter einen Speicher (218 und 220, 2) zum Speichern von Landkarten (722 und 724, 7a) der Umgebung umfasst.
  27. System gemäß Anspruch 25, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um den Aufenthaltsort des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu bestimmen.
  28. System gemäß Anspruch 27, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um die Gesamtbewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu planen.
  29. System gemäß Anspruch 28, wobei der eine oder die mehreren autonomen mobilen Navigationsroboter so konfiguriert ist(sind), um die Gesamtbewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb des Flächenbereichs zu verfolgen.
  30. Verfahren für den Betrieb vieler Roboter (1, 3) in einer Umgebung, wobei das Verfahren umfasst: (a) Bereitstellen wenigstens eines autonomen mobilen Navigationsroboters (110, 1, 2, 3) und wenigstens eines im Wesentlichen nicht autonomen mobilen Funktionsroboters (120, 1, 3, 4); (b) Erfassen des Aufenthaltsorts (723 und 727, 7a; 808, 8) mit wenigstens einem Navigationsroboter des wenigstens einen Navigationsroboters und des wenigstens einen Funktionsroboters in der Ausgangsstellung und während sich der wenigstens eine Funktionsroboter bewegt; (c) Planen mit dem wenigstens einen Navigationsroboter von Aufgaben (732735, 7b; 742744, 7c; 808, 8), die durch den wenigstens einen Funktionsroboter ausgeführt werden sollen, und Übertragen von wenigstens Steuersignalen, welche die geplanten Aufgaben anzeigen; (d) Ausführen der durch den wenigstens einen Navigationsroboter geplanten Aufgaben mit dem wenigstens einen Funktionsroboter (810, 8); und (e) Steuern und Verfolgen (5; 725, 7a; 746, 7c; 810, 8) mit dem wenigstens einen Navigationsroboter des wenigstens einen Funktionsroboters während der Aufgabenausführung, wobei das Steuern das Anweisen der Bewegung des wenigstens einen nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst.
  31. Verfahren gemäß Anspruch 30, des weiteren umfassend das Erzeugen einer laufenden dynamischen Landkarte mit dem wenigstens einen Navigationsroboter, wobei die folgenden Schritte eingesetzt werden: Erhalten von Sensordaten über die unmittelbare Umgebung des Navigationsroboters; Erstellen einer vorläufigen Landkarte aus den erhaltenen Sensordaten; Einbeziehen der vorläufigen Landkarte in eine laufende dynamische Landkarte; Bewegen des Navigationsroboters auf einen neuen Ort; und Wiederholen (b) durch Erhalten von Sensordaten an dem neuen Aufenthaltsort.
  32. Verfahren gemäß Anspruch 31, des Weiteren umfassend das Erstellen einer statischen Umkreislandkarte mit dem wenigstens einen Navigationsroboter durch Folgen und landkartenmäßiges Erfassen des äußeren Umkreises der Umgebung.
  33. Verfahren gemäß jedem der Ansprüche 30 bis 32, wobei in Schritt (b) das örtliche Erfassen des Funktionsroboters das Verfolgen des Funktionsroboters unter Verwendung eines visuellen Systems, das auf dem Navigationsroboter angebracht ist, umfasst.
  34. Verfahren gemäß jedem der Ansprüche 30 bis 32, wobei in Schritt (b) das örtliche Erfassen des Navigationsroboters die folgenden Schritte umfasst: Bewegen des Navigationsroboters in Richtung einer neuen Position; Abschätzen der gegenwärtigen Position des Navigationsroboters unter Verwendung von Koppelnavigation und/oder Richtzeichenerkennungstechniken; Bestimmen, ob die gegenwärtige Position ungefähr gleich der neuen Position ist, und wenn sie das nicht ist, Fortfahren, sich in Richtung der neuen Position zu bewegen; wenn die gegenwärtige Position ungefähr gleich der neuen Position ist: Anhalten des Navigationsroboters und Erhalten neuer Sensordaten, Erstellen einer vorläufigen Landkarte aus den neuen Sensordaten, Verwenden eines Ortsbestimmungsalgorithmus, um die vorläufige Landkarte mit einer Landkarte der Umgebung abzugleichen, und Einbeziehen der Information aus der vorläufigen Landkarte in die Karte der Umgebung.
  35. Verfahren gemäß jedem der Ansprüche 30 bis 34, wobei (c) wenigstens eine Handlung umfasst, die aus der Gruppe ausgewählt ist, die umfasst: Sammeln von Daten über Räume und Oberflächen in der Umgebung; Bestimmen, welche Funktionsroboter verfügbar sind, um die Aufgaben auszuführen; Bestimmen, welche Aufgaben fertig gestellt werden müssen; Abgleichen der verfügbaren Funktionsroboter mit den Aufgaben, die fertig gestellt werden müssen; und Entwickeln eines Aufgabenzeitplans.
  36. Verfahren gemäß jedem der Ansprüche 30 bis 35, wobei (e) das Folgende umfasst: dem Funktionsroboter befehlen, sich in eine richtige Position zu bewegen, um die Aufgabenausführung zu beginnen; Verfolgen des Funktionsroboters, während er sich in die richtige Position bewegt; wenn sich der Funktionsroboter zu weit weg bewegt, um das Verfolgen möglich zu erhalten, dem Funktions roboter befehlen, anzuhalten und den Navigationsroboter näher an den Funktionsroboter zu bewegen; wenn der Funktionsroboter die richtige Position erreicht, dem Funktionsroboter befehlen, die Aufgabenausführung zu beginnen; und den Funktionsroboter während der Aufgabenausführung verfolgen.
  37. Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der Navigationsroboter ortsfest bleibt, während er die Bewegung und die Aufgabenausführung des Funktionsroboters verfolgt.
  38. Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der autonome mobile Navigationsroboter ortsfest bleibt, während er die Aufgabenausführung durch den nicht autonomen mobilen Funktionsroboter steuert.
  39. Verfahren gemäß jedem der Ansprüche 30 bis 36, wobei der autonome mobile Navigationsroboter sich in eine neue Position bewegt, wobei er den nicht autonomen mobilen Funktionsroboter als Richtzeichen verwendet.
  40. Verfahren gemäß jedem der Ansprüche 30 bis 39, zusätzlich umfassend das Zuweisen von funktionalen Aufgabenausführungsfunktionen an den nicht autonomen mobilen Funktionsroboter, und wobei das Bestimmen der Aufenthaltsorte mit Bezug auf im Wesentlichen alle mobilen Roboter in der Umgebung durchgeführt wird.
  41. Verfahren gemäß jedem der Ansprüche 30 bis 40, wobei das Bestimmen der Aufenthaltsorte und das Verfolgen das Navigieren des wenigstens einen nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst und wobei das Steuern das Anweisen der Bewegung des nicht autonomen mobilen Funktionsroboters in der Umgebung umfasst.
  42. Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte das landkartengemäße Aufnehmen der Umgebung durch den autonomen mobilen Navigationsroboter umfasst.
  43. Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte das Bestimmen des Ortes der nicht autonomen mobilen Funktionsroboter unter Verwendung des autonomen mobilen Navigationsroboters umfasst.
  44. Verfahren gemäß Anspruch 41, des Weiteren umfassend das Planen der Bewegung der nicht autonomen mobilen Funktionsroboter in dem Flächenbereich unter Verwendung des autonomen mobilen Navigationsroboters.
  45. Verfahren gemäß Anspruch 41, wobei das Verfolgen das ununterbrochene Überwachen der Bewegung der nicht autonomen mobilen Funktionsroboter umfasst.
  46. Verfahren gemäß Anspruch 41, wobei das Bestimmen der Aufenthaltsorte Richtzeichenerkennung umfasst.
  47. Verfahren gemäß Anspruch 41 oder 42, wobei wenigstens ein nicht autonomer mobiler Funktionsroboter als ein Richtzeichen verwendet wird.
  48. Verfahren gemäß Anspruch 42, wobei das Bestimmen der Aufenthaltsorte Koppelnavigation umfasst.
  49. Verfahren gemäß Anspruch 30, zusätzlich umfassend das miteinander Verdrahten des wenigstens einen autonomen mobilen Navigationsroboters und des wenigstens einen nicht autonomen mobilen Funktionsroboters.
  50. Verfahren gemäß Anspruch 30, zusätzlich umfassend das Bereitstellen einer oder mehrerer Navigationsberech nungsplattform(en), wobei das Verarbeiten der Navigationsinformation durch eine oder mehrere Berechnungsplattform(en) in Verbindung mit den Navigationsrobotern unterstützt wird.
  51. Verfahren gemäß Anspruch 50, wobei die Berechnungsplattform(en) ortsfest oder mobil sein kann(können).
  52. Verfahren gemäß Anspruch 50, zusätzlich umfassend das Übertragen von Sensordaten des wenigstens einen autonomen mobilen Navigationsroboters an die Berechnungsplattform(en) zur weiteren Verarbeitung.
  53. Verfahren gemäß Anspruch 31, zusätzlich umfassend das Steuern der Bewegung des wenigstens einen im Wesentlichen nicht autonomen mobilen Funktionsroboters und das Verfolgen der tatsächlichen Bewegung des im Wesentlichen nicht autonomen mobilen Funktionsroboters unter Verwendung der Sensordaten.
  54. Autonomer mobiler Navigationsroboter zum Betrieb in einem System (100, 1; 3) mit einem oder mehreren im Wesentlichen nicht autonomen mobilen Funktionsrobotern (120, 1, 3, 4), die so konfiguriert sind, um funktionale Aufgaben auszuführen, und mit einer Steuereinheit (204, 2) zum Planen der Aufgaben des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) und zum Anweisen der Bewegung des einen oder der mehreren nicht autonomen mobilen Funktionsroboter(s) innerhalb einer Umgebung, wobei der Navigationsroboter umfasst: Mittel zum Lokalisieren (723 und 727, 7a) von sich selbst und des(der) Funktionsroboter(s) innerhalb der Umgebung zu Beginn und wenn sich der Funktionsroboter bewegt; und einen Sender (208, 2, 3) zum Übertragen von wenigstens Steuersignalen, welche die geplanten Aufgaben (209, 3) des(der) Funktionsroboter(s) bezeichnen.
DE60011674T 1999-11-24 2000-11-22 Autonomes mehrplattform robotersystem Expired - Lifetime DE60011674T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US449177 1989-12-13
US09/449,177 US6374155B1 (en) 1999-11-24 1999-11-24 Autonomous multi-platform robot system
PCT/US2000/032220 WO2001038945A1 (en) 1999-11-24 2000-11-22 Autonomous multi-platform robot system

Publications (2)

Publication Number Publication Date
DE60011674D1 DE60011674D1 (de) 2004-07-22
DE60011674T2 true DE60011674T2 (de) 2005-07-14

Family

ID=23783190

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60011674T Expired - Lifetime DE60011674T2 (de) 1999-11-24 2000-11-22 Autonomes mehrplattform robotersystem

Country Status (9)

Country Link
US (2) US6374155B1 (de)
EP (1) EP1240562B1 (de)
JP (1) JP4951180B2 (de)
CN (1) CN1188762C (de)
AT (1) ATE269554T1 (de)
AU (1) AU1796301A (de)
CA (1) CA2392231C (de)
DE (1) DE60011674T2 (de)
WO (1) WO2001038945A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204704A1 (de) * 2018-03-28 2019-10-02 Zf Friedrichshafen Ag System zum Überwachen eines Überwachungsbereichs

Families Citing this family (348)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3822361B2 (ja) * 1998-07-10 2006-09-20 株式会社日立製作所 配光制御素子およびこれを備えた表示装置
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) * 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
AT412196B (de) * 2000-03-17 2004-11-25 Keba Ag Verfahren zur zuordnung einer mobilen bedien- und/oder beobachtungseinrichtung zu einer maschine sowie bedien- und/oder beobachtungseinrichtung hierfür
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
US6741054B2 (en) 2000-05-02 2004-05-25 Vision Robotics Corporation Autonomous floor mopping apparatus
US6507771B2 (en) * 2000-07-10 2003-01-14 Hrl Laboratories Method and apparatus for controlling the movement of a plurality of agents
US7330776B1 (en) * 2000-10-06 2008-02-12 Innovation First, Inc. System, apparatus, and method for managing and controlling robot competitions
KR20020067696A (ko) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
SE0004466D0 (sv) * 2000-12-04 2000-12-04 Abb Ab Mobile Robot
SE0004465D0 (sv) 2000-12-04 2000-12-04 Abb Ab Robot system
US6690134B1 (en) * 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
CN1316814C (zh) * 2001-03-16 2007-05-16 幻影自动化机械公司 增大图像传感器有效动态范围的系统和方法
CN1271967C (zh) 2001-03-16 2006-08-30 幻影自动化机械公司 自控移动箱式真空吸尘器
WO2002082195A2 (de) * 2001-04-05 2002-10-17 Siemens Aktiengesellschaft Roboterintelligenz in natürlichen umgebungen
AU767561B2 (en) * 2001-04-18 2003-11-13 Samsung Kwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for reconnecting to external recharging device
US6763282B2 (en) * 2001-06-04 2004-07-13 Time Domain Corp. Method and system for controlling a robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
US7117067B2 (en) * 2002-04-16 2006-10-03 Irobot Corporation System and methods for adaptive control of robotic devices
US7844364B2 (en) * 2002-04-16 2010-11-30 Irobot Corporation Systems and methods for dispersing and clustering a plurality of robotic devices
US20050149256A1 (en) * 2002-05-10 2005-07-07 Siemens Aktiengesellschaft Device for determining the position by means of fixed and/or variable landmarks
JP2004133882A (ja) * 2002-05-10 2004-04-30 Royal Appliance Mfg Co 自律性マルチプラットフォーム・ロボットシステム
US6836701B2 (en) 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
JP4043289B2 (ja) * 2002-05-27 2008-02-06 シャープ株式会社 探索ロボットシステム
US7742845B2 (en) * 2002-07-22 2010-06-22 California Institute Of Technology Multi-agent autonomous system and method
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
WO2004018158A2 (en) 2002-08-21 2004-03-04 Neal Solomon Organizing groups of self-configurable mobile robotic agents
US7054716B2 (en) * 2002-09-06 2006-05-30 Royal Appliance Mfg. Co. Sentry robot system
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
KR100468107B1 (ko) * 2002-10-31 2005-01-26 삼성광주전자 주식회사 외부충전장치를 갖는 로봇청소기 시스템 및 로봇청소기의외부충전장치 접속방법
US6845303B1 (en) * 2002-11-05 2005-01-18 Lockheed Martin Corporation Micro-satellite and satellite formation for inverse and distributed proximity operations
GB2409734B (en) * 2002-11-11 2007-01-03 Alfred Schurmann Determination and control of activities of an emotional system
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
KR100492588B1 (ko) * 2003-01-23 2005-06-03 엘지전자 주식회사 자동 주행 청소기의 위치정보 인식장치
GB2398394B (en) * 2003-02-14 2006-05-17 Dyson Ltd An autonomous machine
US7805220B2 (en) 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
US20040204792A1 (en) * 2003-03-14 2004-10-14 Taylor Charles E. Robotic vacuum with localized cleaning algorithm
US6804580B1 (en) * 2003-04-03 2004-10-12 Kuka Roboter Gmbh Method and control system for controlling a plurality of robots
US7418312B2 (en) * 2003-09-19 2008-08-26 Sony Corporation Robot apparatus and walking control method thereof
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
AU2004294651A1 (en) * 2003-10-21 2005-06-16 Proxy Aviation Systems, Inc. Methods and apparatus for unmanned vehicle control
US7376487B2 (en) * 2003-11-25 2008-05-20 International Business Machines Corporation Nesting negotiation for self-mobile devices
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
KR100571834B1 (ko) * 2004-02-27 2006-04-17 삼성전자주식회사 청소 로봇의 바닥 먼지 검출 방법 및 장치
WO2005098476A1 (en) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
JP4377744B2 (ja) * 2004-05-13 2009-12-02 本田技研工業株式会社 ロボット制御装置
ATE536577T1 (de) 2004-06-24 2011-12-15 Irobot Corp Fernbediente ablaufsteuerung und verfahren für eine autonome robotervorrichtung
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US11209833B2 (en) 2004-07-07 2021-12-28 Irobot Corporation Celestial navigation system for an autonomous vehicle
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7840308B2 (en) * 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
US7271702B2 (en) * 2004-09-23 2007-09-18 International Business Machines Corporation Method and system for autonomous correlation of sensed environmental attributes with entities
KR100664053B1 (ko) * 2004-09-23 2007-01-03 엘지전자 주식회사 로봇청소기의 청소툴 자동 교환 시스템 및 방법
JP4460411B2 (ja) * 2004-10-01 2010-05-12 本田技研工業株式会社 ロボット制御装置
US7341224B1 (en) * 2004-10-14 2008-03-11 Osann Jr Robert Miniature expendable surveillance balloon system
JP4478584B2 (ja) * 2005-01-17 2010-06-09 株式会社ミツトヨ 位置制御装置、測定装置および加工装置
KR100776215B1 (ko) 2005-01-25 2007-11-16 삼성전자주식회사 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7389156B2 (en) * 2005-02-18 2008-06-17 Irobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
ES2346343T3 (es) 2005-02-18 2010-10-14 Irobot Corporation Robot autonomo de limpieza de superficies para una limpieza en seco y en mojado.
US8819103B2 (en) * 2005-04-08 2014-08-26 Palo Alto Research Center, Incorporated Communication in a distributed system
US7873962B2 (en) * 2005-04-08 2011-01-18 Xerox Corporation Distributed control systems and methods that selectively activate respective coordinators for respective tasks
US7791741B2 (en) * 2005-04-08 2010-09-07 Palo Alto Research Center Incorporated On-the-fly state synchronization in a distributed system
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
US7706007B2 (en) * 2005-04-08 2010-04-27 Palo Alto Research Center Incorporated Synchronization in a distributed system
US20060235584A1 (en) * 2005-04-14 2006-10-19 Honeywell International Inc. Decentralized maneuver control in heterogeneous autonomous vehicle networks
DE102005017456B4 (de) * 2005-04-15 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Anordnung mit einer Vielzahl relativ zu einer technischen Oberfläche angeordneten, unabhängig voneinander, eigenfortbewegungsfähigen Plattformen
KR100738890B1 (ko) 2005-07-22 2007-07-12 엘지전자 주식회사 이동로봇을 이용한 홈 네트워킹 시스템
US7610122B2 (en) * 2005-08-16 2009-10-27 Deere & Company Mobile station for an unmanned vehicle
US7456596B2 (en) * 2005-08-19 2008-11-25 Cisco Technology, Inc. Automatic radio site survey using a robot
JP4185926B2 (ja) * 2005-08-26 2008-11-26 ファナック株式会社 ロボット協調制御方法及びシステム
US7267020B2 (en) * 2005-08-31 2007-09-11 Honeywell International, Inc. Apparatus for structural testing
KR100645381B1 (ko) * 2005-08-31 2006-11-14 삼성광주전자 주식회사 로봇청소기의 외부충전 복귀장치 및 복귀방법
KR100674564B1 (ko) * 2005-09-08 2007-01-29 삼성광주전자 주식회사 액체공급 스테이션을 구비한 이동로봇 시스템 및액체공급방법
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
CA2837477C (en) 2005-10-14 2016-06-21 Aethon, Inc. Robotic ordering and delivery apparatuses, systems and methods
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
ES2706727T3 (es) 2005-12-02 2019-04-01 Irobot Corp Sistema de robot
KR101214715B1 (ko) * 2005-12-02 2012-12-21 아이로보트 코퍼레이션 커버리지 로봇 이동성
EP2816434A3 (de) 2005-12-02 2015-01-28 iRobot Corporation Roboter mit autonomem Wirkungsbereich
EP1969438B1 (de) 2005-12-02 2009-09-09 iRobot Corporation Modularer roboter
EP2466411B1 (de) * 2005-12-02 2018-10-17 iRobot Corporation Robotersystem
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
WO2007095151A2 (en) * 2006-02-10 2007-08-23 Wake Forest University Health Sciences Nerve regeneration employing keratin biomaterials
EP1996987B1 (de) 2006-03-17 2018-10-31 iRobot Corporation Eingrenzung für roboter
DE102006017057A1 (de) * 2006-04-11 2007-10-18 Siemens Ag Vorrichtung zur Steuerung von, insbesondere mobilen, autonomen Einheiten
US20070271011A1 (en) * 2006-05-12 2007-11-22 Samsung Electronics Co., Ltd. Indoor map building apparatus, method, and medium for mobile robot
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
EP2548492B1 (de) 2006-05-19 2016-04-20 iRobot Corporation Müllentfernung aus Reinigungsrobotern
US20070271002A1 (en) * 2006-05-22 2007-11-22 Hoskinson Reed L Systems and methods for the autonomous control, automated guidance, and global coordination of moving process machinery
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US8965578B2 (en) 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US7584020B2 (en) * 2006-07-05 2009-09-01 Battelle Energy Alliance, Llc Occupancy change detection system and method
US7668621B2 (en) 2006-07-05 2010-02-23 The United States Of America As Represented By The United States Department Of Energy Robotic guarded motion system and method
US8271132B2 (en) 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
US7801644B2 (en) * 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US8843244B2 (en) * 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
US20100066587A1 (en) * 2006-07-14 2010-03-18 Brian Masao Yamauchi Method and System for Controlling a Remote Vehicle
US7636645B1 (en) * 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
KR100749806B1 (ko) * 2006-09-29 2007-08-17 한국전자통신연구원 무선 네트워크 기반의 해양 및 하천 작업용 로봇선단과작업로봇 제어방법
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
US7843431B2 (en) 2007-04-24 2010-11-30 Irobot Corporation Control system for a remote vehicle
CN1945351B (zh) * 2006-10-21 2010-06-02 中国科学院合肥物质科学研究院 一种机器人导航定位系统及导航定位方法
KR100809353B1 (ko) * 2006-12-19 2008-03-05 삼성전자주식회사 무선 주파수 신호를 이용한 거리 측정 방법 및 장치
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
KR101301834B1 (ko) 2007-05-09 2013-08-29 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
US8577498B2 (en) * 2007-05-21 2013-11-05 Panasonic Corporation Automatic transfer method, transfer robot, and automatic transfer system
WO2008154408A1 (en) * 2007-06-06 2008-12-18 Tobey Wayland E Modular hybrid snake arm
US8972306B2 (en) * 2007-08-31 2015-03-03 Raytheon Company System and method for sensor tasking
US20090062958A1 (en) * 2007-08-31 2009-03-05 Morris Aaron C Autonomous mobile robot
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법
TW200922659A (en) * 2007-11-22 2009-06-01 Univ Nat Central Carrier device of guide toy with automatic positioning functions
TW200922660A (en) * 2007-11-22 2009-06-01 Univ Nat Central Interactive guide toy vehicle apparatus
US8774950B2 (en) * 2008-01-22 2014-07-08 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
US8755936B2 (en) * 2008-01-28 2014-06-17 Seegrid Corporation Distributed multi-robot system
CN101970187A (zh) * 2008-01-28 2011-02-09 塞格瑞德公司 用于对服务机器人所收集的时空信息进行再利用的方法
EP2249998B1 (de) * 2008-01-28 2013-03-20 Seegrid Corporation Verfahren zur wechselwirkung mit robotern in echtzeit
EP2252190B1 (de) 2008-01-28 2012-05-23 Seegrid Corporation Dienstleistungsroboter und betriebsverfahren dafür
JP5469097B2 (ja) * 2008-02-13 2014-04-09 シーグリッド コーポレーション 分散型マルチロボット・システム
US8915692B2 (en) * 2008-02-21 2014-12-23 Harvest Automation, Inc. Adaptable container handling system
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US8126598B2 (en) * 2008-04-30 2012-02-28 Honeywell International Inc. Method and apparatus for data download from a mobile vehicle
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US20100017026A1 (en) * 2008-07-21 2010-01-21 Honeywell International Inc. Robotic system with simulation and mission partitions
US20100063652A1 (en) * 2008-09-11 2010-03-11 Noel Wayne Anderson Garment for Use Near Autonomous Machines
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
KR101572851B1 (ko) 2008-12-22 2015-11-30 삼성전자 주식회사 동적 환경에서 모바일 플랫폼의 지도 작성방법
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
TWI680928B (zh) 2009-04-10 2020-01-01 美商辛波提克有限責任公司 垂直升降系統及在多層儲存結構往返運送空的貨箱單元之方法
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
IT1394283B1 (it) * 2009-05-07 2012-06-06 Scuola Superiore Di Studi Universitari E Di Perfez Sistema robotico autonomo per l'esecuzione di task in ambienti urbani, non strutturati e/o parzialmente strutturati
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
CN101691037B (zh) * 2009-10-09 2012-10-03 南京航空航天大学 一种基于主动视觉感知和混沌演化的移动机器人定位方法
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8234010B2 (en) * 2010-02-16 2012-07-31 Deere & Company Tethered robot positioning
US8079433B2 (en) * 2010-02-16 2011-12-20 Deere & Company Retractable line guidance for self-propelled machines
EP3192419B1 (de) 2010-02-16 2021-04-07 iRobot Corporation Staubsaugerbürste
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US8483873B2 (en) 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20120195491A1 (en) * 2010-07-21 2012-08-02 Palo Alto Research Center Incorporated System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9008884B2 (en) 2010-12-15 2015-04-14 Symbotic Llc Bot position sensing
US8998554B2 (en) 2010-12-15 2015-04-07 Symbotic Llc Multilevel vertical conveyor platform guides
US10822168B2 (en) 2010-12-15 2020-11-03 Symbotic Llc Warehousing scalable storage structure
US9475649B2 (en) 2010-12-15 2016-10-25 Symbolic, LLC Pickface builder for storage and retrieval systems
US20120191517A1 (en) 2010-12-15 2012-07-26 Daffin Jr Mack Paul Prepaid virtual card
WO2012099694A1 (en) * 2010-12-30 2012-07-26 Irobot Corporation Coverage robot navigation
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US8965579B2 (en) 2011-01-28 2015-02-24 Intouch Technologies Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
BR112013026178A2 (pt) 2011-04-11 2019-10-01 Crown Equipment Ltd método e sistema para coordenar o planejamento de trajeto
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
TWI622540B (zh) 2011-09-09 2018-05-01 辛波提克有限責任公司 自動化儲存及取放系統
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US9147173B2 (en) 2011-10-31 2015-09-29 Harvest Automation, Inc. Methods and systems for automated transportation of items between variable endpoints
US8676425B2 (en) 2011-11-02 2014-03-18 Harvest Automation, Inc. Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
KR20130051679A (ko) * 2011-11-10 2013-05-21 한국전자통신연구원 군집지능 라우팅 로봇 장치와 이를 포함하는 이동경로 제어 시스템
US8937410B2 (en) 2012-01-17 2015-01-20 Harvest Automation, Inc. Emergency stop method and system for autonomous mobile robots
EP3113055B1 (de) * 2012-01-25 2021-06-02 OMRON Corporation System zur vermeidung negativer hindernisse für einen mobilen roboter
KR20130087881A (ko) * 2012-01-30 2013-08-07 한국전자통신연구원 원격 관제 시스템을 이용한 무인 감시 장치 및 방법, 무인 감시를 위한 로봇 제어 단말
US8428777B1 (en) * 2012-02-07 2013-04-23 Google Inc. Methods and systems for distributing tasks among robotic devices
US9008839B1 (en) * 2012-02-07 2015-04-14 Google Inc. Systems and methods for allocating tasks to a plurality of robotic devices
EP2791748B8 (de) 2012-02-08 2020-10-28 Omron Robotics and Safety Technologies, Inc. Auftragsverwaltungssystem für eine flotte autonomer mobiler roboter
US8700250B1 (en) * 2012-03-15 2014-04-15 The Boeing Company Airport transportation system
US10054933B2 (en) * 2012-03-27 2018-08-21 Sirqul, Inc. Controlling distributed device operations
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
EP2852881A4 (de) 2012-05-22 2016-03-23 Intouch Technologies Inc Grafische benutzerschnittstellen mit touchpad -ansteuerungsschnittstellen für telemedizinische vorrichtungen
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
CN102662350B (zh) * 2012-05-31 2013-11-27 东南大学 主从式多机器人协作系统的轨迹示教与规划方法
TWM451103U (zh) * 2012-10-30 2013-04-21 Agait Technology Corp 行走裝置
US9178370B2 (en) * 2012-12-28 2015-11-03 Irobot Corporation Coverage robot docking station
US8880340B2 (en) * 2013-01-04 2014-11-04 The Boeing Company Augmented mobile platform localization
CN103092203A (zh) * 2013-01-15 2013-05-08 深圳市紫光杰思谷科技有限公司 主从机器人之间相对运动的控制方法
CN103135117B (zh) * 2013-02-05 2014-12-03 中国人民解放军国防科学技术大学 一种分散式多机器人协同定位方法
US11565598B2 (en) 2013-03-15 2023-01-31 Symbotic Llc Rover charging system with one or more charging stations configured to control an output of the charging station independent of a charging station status
KR102436007B1 (ko) 2013-03-15 2022-08-25 심보틱 엘엘씨 자동화된 저장 및 인출 방법 및 자동화된 저장 및 인출 시스템
TWI594933B (zh) 2013-03-15 2017-08-11 辛波提克有限責任公司 自動化貯藏及取放系統
CN103257353B (zh) * 2013-05-30 2015-02-11 东南大学 一种混杂式多移动机器人系统无线定位方法
US9187188B2 (en) * 2013-07-02 2015-11-17 Premium Aerotec Gmbh Assembly inspection system and method
JP6523296B2 (ja) 2013-09-13 2019-05-29 シムボティック エルエルシー 自動保管および取出システム
EP2851760A1 (de) 2013-09-19 2015-03-25 Rigas Tehniska universitate System mit mehreren Robotern
GB2539776A (en) * 2013-12-10 2016-12-28 Halliburton Energy Services Inc Continuous live tracking system for placement of cutting elements
US8825226B1 (en) 2013-12-17 2014-09-02 Amazon Technologies, Inc. Deployment of mobile automated vehicles
CN103760852A (zh) * 2014-01-08 2014-04-30 深圳先进技术研究院 一种可扩展扫地多机器人方法与系统
CN103760853A (zh) * 2014-01-08 2014-04-30 深圳先进技术研究院 一种可伸缩扫地多机器人方法与系统
US9457471B2 (en) * 2014-01-10 2016-10-04 Irobot Corporation Autonomous mobile robot
US10514837B1 (en) 2014-01-17 2019-12-24 Knightscope, Inc. Systems and methods for security data analysis and display
US10279488B2 (en) * 2014-01-17 2019-05-07 Knightscope, Inc. Autonomous data machines and systems
US9329597B2 (en) 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
US9792434B1 (en) 2014-01-17 2017-10-17 Knightscope, Inc. Systems and methods for security data analysis and display
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
EP3889717A1 (de) 2014-03-31 2021-10-06 iRobot Corporation Autonomer beweglicher roboter
TWI505801B (zh) 2014-05-09 2015-11-01 Kinpo Elect Inc 室內機器人與其定位方法
US10363656B1 (en) * 2014-06-25 2019-07-30 Santa Clara University Multi-robot gradient based adaptive navigation system
US10754352B1 (en) * 2014-06-25 2020-08-25 Santa Clara University Multi-robot gradient based adaptive navigation system
US10099379B2 (en) 2014-08-21 2018-10-16 Elwha Llc Systems, devices, and methods including a wheelchair-assist robot
US9314928B2 (en) * 2014-08-21 2016-04-19 Elwha Llc Systems, devices, and methods including a wheelchair-assist robot
US9314929B2 (en) 2014-08-21 2016-04-19 Elwha Llc Systems, devices, and methods including a wheelchair-assist robot
RU2722081C2 (ru) * 2014-08-27 2020-05-26 Понссе Ойй Способ, устройство и пользовательский интерфейс для представления данных, описывающих функционирование лесохозяйственного рабочего объекта
US10311731B1 (en) * 2014-09-16 2019-06-04 Knightscope, Inc. Autonomous parking monitor
CN105988469A (zh) * 2015-02-10 2016-10-05 苏州宝时得电动工具有限公司 自动行走设备
US9510505B2 (en) 2014-10-10 2016-12-06 Irobot Corporation Autonomous robot localization
US9516806B2 (en) 2014-10-10 2016-12-13 Irobot Corporation Robotic lawn mowing boundary determination
CN105563449B (zh) * 2014-10-13 2017-10-24 航天科工智能机器人有限责任公司 一种移动机器人道路跟随方法
JP6732746B2 (ja) * 2014-11-26 2020-07-29 アイロボット・コーポレーション 機械視覚システムを使用した、同時位置測定マッピングを実施するためのシステム
US9928474B1 (en) 2014-12-12 2018-03-27 Amazon Technologies, Inc. Mobile base utilizing transportation units for delivering items
US9420741B2 (en) 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
US9538702B2 (en) 2014-12-22 2017-01-10 Irobot Corporation Robotic mowing of separated lawn areas
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US9534906B2 (en) 2015-03-06 2017-01-03 Wal-Mart Stores, Inc. Shopping space mapping systems, devices and methods
US9995050B2 (en) * 2015-03-26 2018-06-12 Aqua Products, Inc. Method and apparatus for communicating over a two-wire power cable between an external power supply and a self-propelled robotic swimming pool cleaner
US9623562B1 (en) * 2015-04-10 2017-04-18 X Development Llc Adjusting robot safety limits based on network connectivity
US20170341235A1 (en) 2016-05-27 2017-11-30 General Electric Company Control System And Method For Robotic Motion Planning And Control
CN104932495A (zh) * 2015-05-13 2015-09-23 刘鹏军 基于无线网络协同工作的清洁机器人系统
CN106272398A (zh) * 2015-05-27 2017-01-04 鸿富锦精密工业(深圳)有限公司 机器人的驱动组件、机器人及机器人系统
DE102015008188B3 (de) * 2015-06-25 2016-06-16 Kuka Roboter Gmbh Abfahren einer vorgegebenen Bahn mit einem Roboter
US9889559B2 (en) * 2015-06-26 2018-02-13 Intel Corporation Robotic system for updating devices
US9910761B1 (en) 2015-06-28 2018-03-06 X Development Llc Visually debugging robotic processes
US11115798B2 (en) 2015-07-23 2021-09-07 Irobot Corporation Pairing a beacon with a mobile robot
US10034421B2 (en) 2015-07-24 2018-07-31 Irobot Corporation Controlling robotic lawnmowers
DE102015215101A1 (de) * 2015-08-07 2017-02-09 Robert Bosch Gmbh Verfahren und System zum Betreiben einer selbsttätig mobilen Plattform
CN108602189B (zh) * 2015-10-28 2022-01-25 巴伊兰大学 机器人协作系统
CN105353725B (zh) * 2015-11-18 2017-12-19 南京埃斯顿机器人工程有限公司 用于工业机器人的过辅助点姿态空间圆弧插补方法
US9969082B1 (en) 2016-01-05 2018-05-15 Boston Dynamics, Inc. Robotic systems and methods for task scoring and selection
CN106997177B (zh) * 2016-01-22 2020-01-21 科沃斯机器人股份有限公司 空气净化机器人或自移动机器人系统的控制方法
US10782686B2 (en) 2016-01-28 2020-09-22 Savioke, Inc. Systems and methods for operating robots including the handling of delivery operations that cannot be completed
US10021830B2 (en) 2016-02-02 2018-07-17 Irobot Corporation Blade assembly for a grass cutting mobile robot
US10459063B2 (en) 2016-02-16 2019-10-29 Irobot Corporation Ranging and angle of arrival antenna system for a mobile robot
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
DE102016206781A1 (de) * 2016-04-21 2017-10-26 Kuka Roboter Gmbh Verfahren zur Steuerung einer Mehrzahl von mobilen fahrerlosen Manipulatorsystemen
US9943959B2 (en) 2016-04-25 2018-04-17 Disney Enterprises, Inc. Map localizing with partially obstructed ranging devices for autonomous robots and vehicles
JP6844124B2 (ja) 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
CN109804522B (zh) 2016-07-01 2023-04-04 英特尔公司 给微型设备充电
US10216188B2 (en) * 2016-07-25 2019-02-26 Amazon Technologies, Inc. Autonomous ground vehicles based at delivery locations
WO2018021457A1 (ja) * 2016-07-29 2018-02-01 日本電産株式会社 移動体誘導システム、移動体、誘導装置およびコンピュータプログラム
DE202016005473U1 (de) 2016-09-08 2017-12-11 Sven Templin Positionierungsassistiertes handgeführtes Gerät
DE102016010775A1 (de) 2016-09-08 2018-03-08 Sven Templin Positionierungsassistiertes handgeführtes Gerät
US10248120B1 (en) 2016-09-16 2019-04-02 Amazon Technologies, Inc. Navigable path networks for autonomous vehicles
US10245993B1 (en) 2016-09-29 2019-04-02 Amazon Technologies, Inc. Modular autonomous ground vehicles
US10303171B1 (en) 2016-09-29 2019-05-28 Amazon Technologies, Inc. Autonomous ground vehicles providing ordered items in pickup areas
US10222798B1 (en) 2016-09-29 2019-03-05 Amazon Technologies, Inc. Autonomous ground vehicles congregating in meeting areas
US10241516B1 (en) 2016-09-29 2019-03-26 Amazon Technologies, Inc. Autonomous ground vehicles deployed from facilities
CN106378794A (zh) * 2016-10-19 2017-02-08 上海发那科机器人有限公司 一种机器人移动不间断供电装置
CN106648614B (zh) * 2016-11-05 2021-05-18 杭州畅动智能科技有限公司 基于模块化平台的机器人开发系统架构及其主控单元
CN106527446B (zh) 2016-12-02 2020-11-13 北京小米移动软件有限公司 扫地机器人的控制方法及装置
EP3557417A4 (de) * 2016-12-16 2020-03-25 Sony Corporation Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE102016125224A1 (de) 2016-12-21 2018-06-21 Vorwerk & Co. Interholding Gmbh Verfahren zur Navigation und Selbstlokalisierung eines sich autonom fortbewegenden Bearbeitungsgerätes
US10308430B1 (en) 2016-12-23 2019-06-04 Amazon Technologies, Inc. Distribution and retrieval of inventory and materials using autonomous vehicles
US10310499B1 (en) 2016-12-23 2019-06-04 Amazon Technologies, Inc. Distributed production of items from locally sourced materials using autonomous vehicles
US10310500B1 (en) 2016-12-23 2019-06-04 Amazon Technologies, Inc. Automated access to secure facilities using autonomous vehicles
US20180190014A1 (en) * 2017-01-03 2018-07-05 Honeywell International Inc. Collaborative multi sensor system for site exploitation
US10500717B2 (en) * 2017-01-11 2019-12-10 Stilwell Technology and Robotics, LLC Robotic interfaces
EP3355148B8 (de) * 2017-01-27 2019-07-31 Wheel.me AS System zur autonomen neupositionierung einer vorrichtung, die an rollgeräten angeschlossen ist
JP6434550B2 (ja) * 2017-02-06 2018-12-05 ファナック株式会社 可搬型ロボット
DE102017103986A1 (de) * 2017-02-27 2018-08-30 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Roboters
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
DE102017109219A1 (de) * 2017-04-28 2018-10-31 RobArt GmbH Verfahren für die Roboternavigation
US9939814B1 (en) * 2017-05-01 2018-04-10 Savioke, Inc. Computer system and method for automated mapping by robots
US11969902B1 (en) * 2017-05-22 2024-04-30 AI Incorporated Method for robotic devices to interact with each other
AU2018203588B2 (en) * 2017-06-05 2019-11-14 Bissell Inc. Autonomous floor cleaning system
US11470774B2 (en) 2017-07-14 2022-10-18 Irobot Corporation Blade assembly for a grass cutting mobile robot
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
CN107491049B (zh) * 2017-08-29 2020-08-11 湖南格兰博智能科技有限责任公司 一种多设备协同作业方法和协同作业装置
JP2019059004A (ja) * 2017-09-28 2019-04-18 セイコーエプソン株式会社 ロボットシステム
SG10201708171QA (en) * 2017-10-04 2019-05-30 Arche Information Inc A comprehensive multi-agent robotics management system
US10994418B2 (en) * 2017-12-13 2021-05-04 X Development Llc Dynamically adjusting roadmaps for robots based on sensed environmental data
US11237877B2 (en) * 2017-12-27 2022-02-01 Intel Corporation Robot swarm propagation using virtual partitions
US11614746B2 (en) * 2018-01-05 2023-03-28 Irobot Corporation Mobile cleaning robot teaming and persistent mapping
FR3078178B1 (fr) * 2018-02-20 2020-02-28 Universite De Reims Champagne-Ardenne Procede d’interconnexion entre robots
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US11457788B2 (en) * 2018-05-11 2022-10-04 Samsung Electronics Co., Ltd. Method and apparatus for executing cleaning operation
TWI673660B (zh) * 2018-05-29 2019-10-01 廣達電腦股份有限公司 用於機器人之自動充電系統以及方法
CN108789409B (zh) * 2018-06-21 2022-02-11 中科新松有限公司 一种机器人控制方法、装置、介质和机器人集群
KR102096564B1 (ko) * 2018-06-25 2020-04-02 엘지전자 주식회사 복수의 자율주행 청소기
EP3605399A1 (de) * 2018-07-31 2020-02-05 Tata Consultancy Services Limited Systeme und verfahren zur semantischen wissensbasierten dynamischen nutzenberechnung
US11432697B2 (en) * 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
KR102252034B1 (ko) * 2018-09-06 2021-05-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2020050494A1 (en) 2018-09-06 2020-03-12 Lg Electronics Inc. A robot cleaner and a controlling method for the same
US11161245B2 (en) * 2018-10-25 2021-11-02 Wells Fargo Bank, N.A. Systems and methods for secure locker feeders
US11392130B1 (en) 2018-12-12 2022-07-19 Amazon Technologies, Inc. Selecting delivery modes and delivery areas using autonomous ground vehicles
KR102198187B1 (ko) * 2018-12-28 2021-01-04 엘지전자 주식회사 이동 로봇
WO2020218652A1 (ko) * 2019-04-26 2020-10-29 엘지전자 주식회사 공기 청정기
GB2600552B (en) * 2019-05-07 2022-12-07 Motional Ad Llc Systems and methods for planning and updating a vehicle's trajectory
WO2020241933A1 (ko) 2019-05-30 2020-12-03 엘지전자 주식회사 슬레이브 로봇을 제어하는 마스터 로봇 및 그의 구동 방법
CN110262495B (zh) * 2019-06-26 2020-11-03 山东大学 可实现移动机器人自主导航与精确定位的控制系统及方法
TWI756560B (zh) * 2019-08-23 2022-03-01 和碩聯合科技股份有限公司 無線通信系統、無線通信方法以及自走式裝置
US10796562B1 (en) 2019-09-26 2020-10-06 Amazon Technologies, Inc. Autonomous home security devices
WO2021061810A1 (en) 2019-09-26 2021-04-01 Amazon Technologies, Inc. Autonomous home security devices
CN110968055A (zh) * 2019-10-08 2020-04-07 株洲中车时代电气股份有限公司 一种机器人协同控制方法及设备
US11719005B2 (en) * 2019-11-13 2023-08-08 Merlie Schwartz Autonomous power trowel
US11809200B1 (en) * 2019-12-06 2023-11-07 Florida A&M University Machine learning based reconfigurable mobile agents using swarm system manufacturing
US11413979B2 (en) 2019-12-30 2022-08-16 Oliver Crispin Robotics Limited Robotic systems and methods for vehicle fueling and charging
US11648843B2 (en) * 2019-12-30 2023-05-16 Oliver Crispin Robotics Limited Robotic systems and methods for vehicle fueling and charging
US11584633B2 (en) 2019-12-30 2023-02-21 Oliver Crispin Robotics Limited Robotic systems and methods for vehicle fueling and charging
US20210209543A1 (en) * 2020-01-06 2021-07-08 Amazon Technologies, Inc. Directing secondary delivery vehicles using primary delivery vehicles
DE102020100447A1 (de) 2020-01-10 2021-07-15 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines Systems mit zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten sowie System zur Durchführung eines solchen Verfahrens
US11521382B2 (en) 2020-02-09 2022-12-06 Stout Industrial Technology, Inc. Machine vision plant tracking system for precision agriculture
EP4100891A4 (de) 2020-02-09 2024-03-13 Stout Industrial Tech Inc Maschinensichtsteuerungssystem für die präzisionslandwirtschaft
CN111037575B (zh) * 2020-03-13 2020-06-26 广东博智林机器人有限公司 机器人指令传输、处理方法、装置、电子设备及存储介质
CN111506078B (zh) * 2020-05-13 2021-06-11 北京洛必德科技有限公司 一种机器人导航方法及系统
CN111880531A (zh) * 2020-07-09 2020-11-03 珠海格力电器股份有限公司 一种移动控制方法、移动设备及移动控制装置
US11119485B1 (en) * 2020-10-07 2021-09-14 Accenture Global Solutions Limited Drone operational advisory engine
EP4015357A1 (de) 2020-12-15 2022-06-22 Fq Ip Ab Navigator
CN114578772B (zh) * 2021-04-16 2023-08-11 青岛中车四方车辆物流有限公司 一种agv集群控制系统设计框架及方法
US11810050B2 (en) 2021-08-20 2023-11-07 Ford Global Technologies, Llc Robotic package delivery with ad-hoc network fusion localization
KR20230053314A (ko) * 2021-10-14 2023-04-21 삼성전자주식회사 로봇, 로봇 시스템 및 그 제어 방법

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8313339D0 (en) 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle guidance
US4709265A (en) 1985-10-15 1987-11-24 Advanced Resource Development Corporation Remote control mobile surveillance system
US5179329A (en) 1989-04-25 1993-01-12 Shinko Electric Co., Ltd. Travel control method, travel control device, and mobile robot for mobile robot systems
JPH08381B2 (ja) 1989-07-27 1996-01-10 株式会社不二越 産業用ロボットシステム及びその制御方法
JP2679346B2 (ja) 1990-03-28 1997-11-19 神鋼電機株式会社 移動ロボットシステムにおける充電制御方式
JP2783456B2 (ja) 1990-11-16 1998-08-06 ファナック株式会社 ロボットの座標系設定方式
US5266875A (en) 1991-05-23 1993-11-30 Massachusetts Institute Of Technology Telerobotic system
JP2880590B2 (ja) 1991-07-24 1999-04-12 株式会社不二越 産業用ロボットの同期制御方法
JP3410508B2 (ja) * 1993-04-30 2003-05-26 茂男 廣瀬 自立走行ロボット群システム
US5382885A (en) 1993-08-09 1995-01-17 The University Of British Columbia Motion scaling tele-operating system with force feedback suitable for microsurgery
JP2692725B2 (ja) * 1993-09-21 1997-12-17 工業技術院長 自律型移動ロボット群システムの制御方法
JPH07129237A (ja) * 1993-11-01 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> 移動ロボットの環境内位置認識方法
DE4408329C2 (de) * 1994-03-11 1996-04-18 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
KR100219709B1 (ko) 1994-03-15 1999-09-01 윤종용 디지탈무선통신장치에있어서송수신신호처리회로
SE502834C2 (sv) 1994-03-29 1996-01-29 Electrolux Ab Förfarande och anordning för avkänning av hinder vid självgående anordning
DE4414192C2 (de) * 1994-04-22 1996-06-13 Siemens Ag Verfahren zur Ermittlung einer Sicherheitszone um eine selbstbewegliche mobile Einheit
JPH07295643A (ja) * 1994-04-26 1995-11-10 Minolta Co Ltd 走行経路制御装置
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
JP3569326B2 (ja) * 1994-11-18 2004-09-22 茂男 廣瀬 情報融合システムおよびロボット誘導システム
DE19521358C1 (de) * 1995-06-12 1996-09-05 Siemens Ag Verfahren zur Schlupfermittlung einer autonomen mobilen Einheit mit Dreiradkinematik
JPH095076A (ja) * 1995-06-21 1997-01-10 Fuji Heavy Ind Ltd 複数移動体の相互位置関係検出方法及びその装置
JPH0981236A (ja) 1995-09-12 1997-03-28 Denso Corp 移動通信装置
US5819008A (en) 1995-10-18 1998-10-06 Rikagaku Kenkyusho Mobile robot sensor system
JPH09244730A (ja) 1996-03-11 1997-09-19 Komatsu Ltd ロボットシステムおよびロボットの制御装置
DE59701408D1 (de) * 1996-07-02 2000-05-11 Siemens Ag Verfahren zur erstellung einer zellular strukturierten umgebungskarte von einer selbstbeweglichen mobilen einheit, welche sich mit hilfe mit auf wellenreflexion basierenden sensoren in der umgebung orientiert
JP3647584B2 (ja) * 1996-12-26 2005-05-11 富士通株式会社 学習型自己定位装置
US6252544B1 (en) * 1998-01-27 2001-06-26 Steven M. Hoffberg Mobile communication device
AU1775401A (en) 1999-11-18 2001-05-30 Procter & Gamble Company, The Home cleaning robot
JP3721939B2 (ja) 2000-05-16 2005-11-30 松下電器産業株式会社 移動作業ロボット
JP3721940B2 (ja) 2000-05-16 2005-11-30 松下電器産業株式会社 移動作業ロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204704A1 (de) * 2018-03-28 2019-10-02 Zf Friedrichshafen Ag System zum Überwachen eines Überwachungsbereichs

Also Published As

Publication number Publication date
AU1796301A (en) 2001-06-04
EP1240562B1 (de) 2004-06-16
US6496755B2 (en) 2002-12-17
US6374155B1 (en) 2002-04-16
JP4951180B2 (ja) 2012-06-13
CA2392231C (en) 2010-10-19
DE60011674D1 (de) 2004-07-22
CN1188762C (zh) 2005-02-09
CN1399734A (zh) 2003-02-26
JP2003515801A (ja) 2003-05-07
US20020095239A1 (en) 2002-07-18
WO2001038945A9 (en) 2002-05-16
ATE269554T1 (de) 2004-07-15
EP1240562A1 (de) 2002-09-18
CA2392231A1 (en) 2001-05-31
WO2001038945A1 (en) 2001-05-31

Similar Documents

Publication Publication Date Title
DE60011674T2 (de) Autonomes mehrplattform robotersystem
EP3659001B1 (de) Magnetometer für die roboternavigation
EP3590014B1 (de) Verfahren zur steuerung eines autonomen, mobilen roboters
DE102015119865B4 (de) Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
EP3709853B1 (de) Bodenbearbeitung mittels eines autonomen mobilen roboters
CN109725233B (zh) 一种变电站智能巡检系统及其巡检方法
EP3494446A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
CA2428360C (en) Autonomous multi-platform robotic system
WO2017140726A1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
WO2019043171A1 (de) Bewegungsplanung für autonome mobile roboter
DE102016114594A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
DE102012112036A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
EP3555721A1 (de) Verfahren zur erstellung einer umgebungskarte für ein bearbeitungsgerät
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
DE102016114593A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
DE102020115513A1 (de) Korrektur von digitalen modellen
EP2741161B1 (de) Selbstfahrendes bodenbearbeitungsgerät und verfahren zur positionsbestimmung bei einem selbstfahrenden bodenbearbeitungsgerät
DE102020116431A1 (de) Korrektur von digitalen modellen
EP3974932B1 (de) Robotersystem und verfahren zur steuerung eines angetrieben bewegbaren roboters eines robotersystems
Jarvis Terrain-aware path guided mobile robot teleoperation in virtual and real space
CN116700297B (zh) 基于畜舍作业机器人的自主导航控制系统和控制方法
DE102004013811A1 (de) Verfahren zur flächendeckenden Befahrung eines Gebietes sowie Fahrzeug zur Durchführung des Verfahrens
DE112020004037T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102022207829A1 (de) Verfahren zum Hinzufügen eines oder mehrerer Ankerpunkte zu einer Karte einer Umgebung
Jarvis Mobile Robot Localisation and Terrain-Aware Path Guidance for Teleoperation in Virtual and Real Space

Legal Events

Date Code Title Description
8364 No opposition during term of opposition