DE102019213032A1 - Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters - Google Patents

Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters Download PDF

Info

Publication number
DE102019213032A1
DE102019213032A1 DE102019213032.1A DE102019213032A DE102019213032A1 DE 102019213032 A1 DE102019213032 A1 DE 102019213032A1 DE 102019213032 A DE102019213032 A DE 102019213032A DE 102019213032 A1 DE102019213032 A1 DE 102019213032A1
Authority
DE
Germany
Prior art keywords
robot
navigation unit
based navigation
internal state
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019213032.1A
Other languages
English (en)
Inventor
Claude Toussaint
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Navel Robotics GmbH
Original Assignee
Navel Robotics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Navel Robotics GmbH filed Critical Navel Robotics GmbH
Priority to DE102019213032.1A priority Critical patent/DE102019213032A1/de
Priority to PCT/EP2020/073589 priority patent/WO2021037776A1/de
Publication of DE102019213032A1 publication Critical patent/DE102019213032A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

Roboter 10, umfassend: eine Navigationseinheit, die dafür eingerichtet ist, eine geeignete Fortbewegungsroute 20 des Roboters 10 von einem Startpunkt A zu einem Zielpunkt B zu bestimmen, eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters 10 zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters 10 die Fortbewegungsroute 20 und/oder die Fortbewegungsdynamik des Roboters 10 anzupassen, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.

Description

  • Die vorliegende Erfindung betrifft einen Roboter mit einer Verhaltenssteuerungseinheit bzw. ein Verfahren zur Verhaltenssteuerung eines Roboters.
  • Soziale Roboter sind Roboter, die mit Menschen interagieren können. Sie unterstützen Menschen bei unterschiedlichen Aufgaben in ihrem Alltagsleben oder dienen zur Unterhaltung. Im Gegensatz zur Industrierobotik steht in der sozialen Robotik nicht das autonome Verhalten der Roboter im Mittelpunkt, sondern die Interaktion zwischen Menschen und Roboter.
  • Vor diesem Hintergrund hat die moderne soziale Robotik die Tendenz, Roboter als menschähnliche Wesen zu gestalten und ihnen Emotionen oder Persönlichkeiten zuzuschreiben. Dafür liegt der Schwerpunkt in der Forschung nicht nur auf der Modellierung der Emotionen eines Roboters, sondern auch auf der Verhaltenssteuerung des Roboters basierend auf den modellierten Emotionen, um die Emotionen auszudrücken und von einem Nutzer oder Nutzerin wahrgenommen zu werden, wodurch eine Mensch-Maschine-Interaktion ermöglicht wird.
  • Im Stand der Technik werden verschiedene Lösungen für ein Verhaltenssteuerungssystem oder ein Emotionsdarstellungssystem entwickelt, welches vor allem einen Emotionszustand eines Roboters durch eine Vorrichtung an dem Roboter oder durch ein Verhalten des Roboters an einen Benutzer kommuniziert, wobei die Lösungen im Wesentlichen in den folgenden Kategorien zusammenfassen lassen:
    • - Akustische Systeme, wobei ein Roboter seine Emotionen durch Sounds oder Sprache ausdrückt,
    • - Optische Systeme, wobei ein Roboter LED-Augen aufweist und je nach seinem Emotionszustand die Helligkeit und/oder die Farbe seiner LED-Augen einstellt,
    • - Gesichtsausdrücke, wobei ein Roboter seine Emotionen durch Lidschläge oder verschiedene Augapfelbewegungen ausdrückt,
    • - Einfache Körperbewegungen wie Kopfbewegungen oder Armbewegungen eines Roboters.
  • Die oben genannten Lösungen im Stand der Technik haben jedoch die Nachteile, dass entweder zusätzliche Hardware zur Emotionsdarstellung eines Roboters eingesetzt werden muss, oder die Emotionsdarstellung nicht intuitiv genug ist, um von Menschen wahrgenommen zu werden. Zudem erlauben viele solche Systeme nur eine beschränkte Darstellungsvarianz, die für die Darstellung zahlreicher Emotionszustände eines Roboters nicht ausreichen könnte.
  • Es ist daher Aufgabe der vorliegenden Erfindung, gemäß den nachfolgenden Aspekten eine alternative oder verbesserte Verhaltenssteuerungslösung für soziale Roboter anzubieten, welche eine oder mehrere der vorstehend genannten Nachteile des Stands der Technik adressiert.
  • Gemäß einem ersten Aspekt der Erfindung wird die Aufgabe gelöst durch einen Roboter, umfassend eine Navigationseinheit, die dafür eingerichtet ist, eine geeignete Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt zu bestimmen, eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, und eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters anzupassen, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.
  • Mobile Roboter müssen in der Lage sein, nach einem Befehl zu einem Zielort zu fahren. Dafür ist fast jeder mobile Roboter mit einer Navigationseinheit ausgestattet, die verschiedene Sensoren umfassen, die dafür eingerichtet sind, die Position des Roboters und die Umgebung ständig zu erfassen. Auf Basis der erfassten Daten und einer vorgespeicherten Karte ist die Navigationseinheit dafür eingerichtet, eine geeignete Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt zu bestimmen. Die vorgespeicherte Karte wird vorzugsweise durch erfasste Umgebungsinformationen ständig aktualisiert. Die Navigation eines Roboters umfasst normalerweise eine globale Navigation und eine lokale Navigation. Die globale Navigation dient dazu, eine grobe Planung der Fortbewegungsroute von dem Startpunkt zu dem Zielpunkt durchzuführen, wobei z.B. eine kürzeste Fortbewegungsroute ausgewählt wird, in der Sackgassen oder Umwege vermieden werden. Im Gegensatz dazu wird bei der lokalen Navigation das Erreichen eines nahen Punkts auf dem Weg, wie z.B. das Durchlaufen einer Engstelle, angestrebt, wobei die Änderung der nahen Umgebung wie z.B. eines plötzlich auftretenden Hindernisses oder einer vorbeilaufenden Person bei der Bestimmung der Fortbewegungsroute auch eine Rolle spielt. Die geeignete Fortbewegungsroute des Roboters kann durch die globale Navigation, die lokale Navigation oder das Zusammenspiel von beidem bestimmt werden.
  • Die Zustandsbestimmungseinheit ist dafür eingerichtet, einen internen Zustand des Roboters zu bestimmen. Der interne Zustand kann ein modellierter Emotionszustand, ein durch die modellierte Persönlichkeit des Roboters bestimmter Zustand, ein Betriebszustand wie z.B. der Batteriezustand, irgend ein anderer interner Zustand des Roboters, oder eine Kombination der oben genannten Zustände des Roboters sein. Ein Emotionszustand oder eine Persönlichkeit eines Roboters kann durch Benutzer vordefiniert werden, oder durch erfasste Umgebungsinformationen und im System vorgespeicherten Regel bestimmt werden.
  • Die Verhaltenssteuerungseinheit ist dafür eingerichtet, den durch die Zustandsbestimmungseinheit bestimmten internen Zustand an einen Benutzer zu kommunizieren, welches folglich die Interaktion zwischen dem Benutzer und dem Roboter ermöglicht. Die Verhaltenssteuerungseinheit ist dafür eingerichtet, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters anzupassen. Dafür ist vorzugswese jeder Zustand einer bestimmten Anpassungsstrategie der Fortbewegungsroute und/oder der Fortbewegungsdynamik des Roboters mittels wenigstens einer Datenbank zugeordnet, die dafür eingerichtet ist, von der Verhaltenssteuerungseinheit abgefragt zu werden, um die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands zu bestimmen.
  • Im Vergleich zum Stand der Technik wird mit der vorliegenden Erfindung für die Zustandsdarstellung des Roboters keine zusätzliche Hardware verwendet, welche daher eine Kosteneffizienz aufweist. Zudem ermöglicht die Anpassung der Fortbewegungsroute und/oder der Fahrdynamik des Roboters eine hohe Varianz an der Darstellung verschiedener Zustände. Darüber hinaus könnte solche Zustandsdarstellung von Menschen einfacher wahrgenommen werden, welches für eine reibungslose Mensch-Roboter-Interaktion eine wichtige Rolle spielt.
  • In einer bevorzugten Ausführungsform ist der Roboter ein selbstbalancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist. Selbstbalancierende Roboter wie Ballbots sind in den letzten Jahren zunehmend in den Soziale-Robotik-Bereichen eingesetzt, wobei solche Roboter im Vergleich zu traditionellen Robotern eine viel lebendigere Fortbewegungsdynamik aufweisen. Ein Ballbot balanciert sich auf einer Kugel selbständig und bewegt sich darauf fort, wobei dieser Aufbau die freie Bewegung des Roboters in jeder Richtung und die Rotation um die eigene Achse ermöglicht. Zudem muss ein Ballbot für jede Änderung der Geschwindigkeit seinen Schwerpunk verlagern, welches folglich zu einer Neigung des Körpers des Ballbots führt. Umgekehrt könnte die Geschwindigkeit des Ballbots auch durch die Einstellung des Neigungswinkels beeinflusst werden.
  • Somit kann eine Änderung eines vorbestimmten Fortbewegungspfades und/oder einer Fortbewegungsdynamik wie z.B. einer Geschwindigkeit, eines Neigungswinkels, einer Gierrate und/oder einer Beschleunigung des Ballbots von Menschen im Vergleich zu traditionellen Robotern noch intuitiver wahrgenommen werden. Zudem erlaubt ein Ballbot im Vergleich zu traditionellen Robotern eine noch höhere Varianz an verschiedenen Fortbewegungsdynamiken, die für die Darstellung einer unerschöpflichen Vielfalt an Emotionszuständen verwendet werden können.
  • In einer weiteren bevorzugten Ausführungsform ist die Zustandsbestimmungseinheit dafür eingerichtet, den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters zu bestimmen. Die Persönlichkeit eines Roboters könnte ein modellierter Charakter wie z.B. „faul“, „arrogant“, „ruhig“, „aufgeschossen“ sein, ein Hobby, oder irgendeine andere modellierte Eigenschaft, die einer Persönlichkeit der Menschen nachempfunden ist.
  • Ein Emotionszustand des Roboters ist vorzugsweise durch eine Emotionsklasse und eine Emotionsintensität definiert. Bei der Modellierung der Emotionen könnten beispielsweise die im Stand der Technik häufig verwendeten sechs Basisemotionsklasse - Ärger, Ekel oder Abneigung, Furcht, Freude, Trauer und Überraschung - verwendet werden. Weitere Emotionsklassen könnten durch Benutzer frei definiert werden. Zudem definiert vorzugsweise eine Emotionsintensität den Emotionszustand des Roboters mit, die die Intensität oder die Stärke der jeweiligen Emotion beschreibt.
  • Die Verhaltenssteuerungseinheit ist vorzugsweise dafür eingerichtet, je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anzupassen: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters. Hier ist anzumerken, dass eine Einstellung eines Parameters bei einem selbst balancierenden Roboter wie z.B. einem Ballbot, wie bereits diskutiert, zu einer Änderung eines anderen Parameters führen kann.
  • Ein Roboter hat selbst natürlich keine Emotionen. Stattdessen werden die Emotionen eines Roboters simuliert oder modelliert, die den Emotionen der Menschen nachempfunden sind. Somit umfasst der Roboter nach dem ersten Aspekt der vorliegenden Erfindung vorzugsweise ferner eine Emotionszustandsbestimmungseinheit, die dafür eingerichtet ist, den Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder wenigstens eines vorbestimmten internen Zustands des Roboters zu bestimmen.
  • Die Umgebungsinformationen können alle Informationen in der Umgebung sein, die durch die Emotionszustandsbestimmungseinheit des Roboters erfasst werden, wie z.B. die Helligkeit des Raums in dem der Roboter sich bewegt, das Gesicht oder das Gesichtsausdruck eines gegenüberstehenden Person, die Temperatur des Raums, das Geräusch in der Umgebung usw. Der wenigstens eine vorbestimmte interne Zustand des Roboters könnte ein vorbestimmter Emotionszustand, ein vorbestimmter Betriebszustand, ein durch die modellierte Persönlichkeit des Roboters vorbestimmter Zustand, oder irgendein anderer interner Zustand des Roboters sein. Beispielsweise kann der vorbestimmte interne Zustand ein Wachheitszustand (Arousal) des Roboters sein, welcher vom Benutzer vorgegeben wird, oder durch ein maschinelles Lernen entwickelt wird, oder durch einen anderen internen Zustand des Roboters bestimmt wird. Die erfasste Umgebungsinformationen und der wenigstens eine vorbestimmte interne Zustand des Roboters können entweder getrennt oder gemeinsam den Emotionszustand eines Roboters bestimmen.
  • Die Umgebungsinformationen werden vorzugsweise durch einen oder mehrere Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden. Die erfassten Umgebungsinformationen durch externe Sensoren werden vorzugsweise an eine Kommunikationsschnittstelle des Roboters zurückgeschickt und an die Emotionszustandsbestimmungseinheit weitergeleitet. Die Kommunikation kann kabelgebunden oder kabellos sein.
  • Die eine oder die mehreren Sensoren sind vorzugsweise wenigstens ausgewählt aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor. Die erfassten Daten von einem oder mehreren der oben genannten Sensoren werden beispielsweise mit im System vorgegebenen Regel verglichen, wodurch ein Emotionszustand des Roboters bestimmt wird. Zum Beispiel wird ein Roboter „sehr froh“, wenn er einen Bekannten wiedersieht. Der Emotionszustand „sehr froh“ wird dadurch bestimmt, dass eine an dem Roboter vorgesehene Kamera ein oder mehrere Bilder einer gegenüberstehenden Person erfasst, die anschließend mit den im System gespeicherten historischen Daten verglichen und analysiert werden, und darauf basierend es erkannt wird, dass die Person ein alter Bekannte des Roboters ist, den er bereits lange nicht gesehen hat.
  • Erfindungsgemäß umfasst der Roboter eine Navigationseinheit für die Bestimmung einer geeigneten Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt, wobei die Navigationseinheit vorzugsweise eine bildbasierte Navigationseinheit, eine Tiefenbild-basierte Navigationseinheit, eine Satelliten-basierte Navigationseinheit, eine Mobilfunk-basierte Navigationseinheit, eine WLAN-basierte Navigationseinheit, eine Radar-basierte Navigationseinheit, eine Lidar-basierte Navigationseinheit, eine Ultraschall-basierte Navigationseinheit, eine Infrarot-basierte Navigationseinheit, eine RFID-basierte Navigationseinheit, eine Bluetooth-basierte Navigationseinheit, eine ZigBee-basierte Navigationseinheit, oder eine Kombination davon ist.
  • Während die Satelliten-basierte Navigationseinheit und die Mobilfunk-basierte Navigationseinheit im Wesentlichen für die Outdoor-Navigation und für die globale Navigation verwendet werden, finden die anderen oben genannten Navigationseinheiten sowohl für die Outdoor-Navigation als auch für die Indoor-Navigation Anwendung. Zudem sind die bildbasierte Navigationseinheit, die Tiefenbild-basierte Navigationseinheit, die Ultraschall-basierte Navigationseinheit, die Radar-basierte Navigationseinheit und die Lidar-basierte für die lokale Navigation von großer Bedeutung.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird die Aufgabe gelöst durch ein Verfahren zur Verhaltenssteuerung eines Roboters, umfassend: Bestimmen einer geeigneten Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt, Bestimmen eines internen Zustands des Roboters, Anpassen der Fortbewegungsroute und/oder der Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren. Wie bereits unter dem ersten Aspekt der vorliegenden Erfindung diskutiert wurde, schlagen sich die Vorteile eines solchen Verfahrens vor allem in einer besseren Wahrnehmung der Emotionsdarstellung des Roboters, einer Ersparnis zusätzlicher Hardware und einer erhöhten Varianz der Emotionsdarstellung nieder.
    In einer bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist.
  • Vorzugsweise bestimmt das Verfahren den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters.
  • Ein Emotionszustand des Roboters ist vorzugsweise durch eine Emotionsklasse und eine Emotionsintensität definiert.
  • In einer weiteren bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung passt das Verfahren je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter an: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters.
  • Vorzugsweise umfasst das Verfahren ferner ein Bestimmen eines Emotionszustands des Roboters, wobei den Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder eines vorbestimmten internen Zustands des Roboters bestimmt wird.
  • Die Umgebungsinformationen werden vorzugsweise erfasst durch einen oder mehrere Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind.
  • Der eine oder die mehreren Sensoren sind vorzugsweise wenigstens ausgewählt aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor.
  • In einer weiteren bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung wird die geeignete Fortbewegungsroute mittels einer bildbasierten Navigationseinheit, einer Tiefenbild-basierten Navigationseinheit, einer Satelliten-basierten Navigationseinheit, einer Mobilfunk-basierten Navigationseinheit, einer WLAN-basierten Navigationseinheit, einer Radar-basierten Navigationseinheit, einer Lidar-basierten Navigationseinheit, einer Ultraschall-basierten Navigationseinheit, einer Infrarot-basierten Navigationseinheit, einer RFID-basierten Navigationseinheit, einer Bluetooth-basierten Navigationseinheit, einer ZigBee-basierten Navigationseinheit, oder einer Kombination davon bestimmt.
  • Gemäß einem dritten Aspekt der Erfindung wird die Aufgabe gelöst durch einen Roboter, umfassend: eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters eine Bewegung des Roboters auf einer Stelle oder eine Herumbewegung des Roboters um eine Stelle zu steuern, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Verhaltenssteuerungseinheit dafür eingerichtet ist, die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter zu steuern: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters. Somit kann der interne Zustand eines Roboters auch durch eine Bewegung des Roboters auf einer gleichen Stelle oder eine Herumbewegung um einer Stelle dargestellt werden. Der Roboter kann beispielsweise sich auf einer Stelle drehen, oder sich um eine Stelle hin und her bewegen, um seinen internen Zustand an den Benutzer zu kommunizieren.
  • In einer bevorzugten Ausführungsform gemäß dem dritten Aspekt der Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist. Eine Bewegung eines Ballbots in diesem Fall kann beispielsweise eine Drehung des Ballbots um eine bestimmte Gierrate auf einer Stelle sein, oder ein Hin- und Herwackeln des Ballbots um eine Stelle sein.
  • Gemäß einem vierten Aspekt der Erfindung wird die Aufgabe gelöst durch ein Verfahren zur Verhaltenssteuerung eines Roboters, umfassend: Bestimmen eines internen Zustands des Roboters, Steuern einer Bewegung des Roboters auf einer Stelle oder einer Herumbewegung des Roboters um eine Stelle auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter gesteuert wird: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters.
  • In einer bevorzugten Ausführungsform gemäß dem vierten Aspekt der Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist.
  • Die Erfindung wird nachfolgend anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung des Einflusses einer Beschleunigung auf den Neigungswinkel eines Ballbots
    • 2 eine schematische Darstellung einer Ausführungsform der vorliegenden Erfindung
    • 3 eine schematische Darstellung einer weiteren Ausführungsform der vorliegenden Erfindung
  • 1 zeigt den Einfluss einer Beschleunigung auf den Neigungswinkel eines Ballbots 1, wobei der Pfeil die Fortbewegungsrichtung des Ballbots und die Buchstabe „a“ eine Beschleunigung des Ballbots andeutet. Wie bereits vorgestellt, ist ein Ballbot ein selbstbalancierender Roboter, wobei das Gleichgewicht des Ballbots gehalten wird, indem der Ballbot seinen Schwerpunkt mit der Veränderung seiner Geschwindigkeit verlagert. Wenn der Ballbot beschleunigt (a>0), neigt sich sein Körper in die Fortbewegungsrichtung um einen bestimmten Winkel, um das Gleichgewicht zu halten. Wenn sich der Ballbot verzögert (a<0), neigt sich sein Körper um einen bestimmten Winkel entgegen der Fortbewegungsrichtung. Wenn sich der Ballbot mit einer gleichen Geschwindigkeit fortbewegt, wird sein Körper aufrecht gehalten, wobei der Neigungswinkel null ist. Umgekehrt könnte eine Einstellung eines Neigungswinkels des Ballbots seine Geschwindigkeit auch beeinflussen. Somit ist das Fahrverhalten des Ballbots durch die Einstellung einer Geschwindigkeit, eines Neigungswinkels und/oder auch einer Gierrate des Ballbots sehr dynamisch und lässt sich von einem Benutzer einfach und intuitiv wahrnehmen. Zudem kann die Geschwindigkeit, der Neigungswinkel und auch die Gierrate nach Belieben eingestellt werden, sodass eine hohe Varianz an Fahrverhalten des Ballbots möglich ist. Somit ist die Anpassung der Fahrdynamik eines Ballbots für die Emotionsdarstellung und folglich für eine Mensch-Roboter-Interaktion sehr gut geeignet.
  • 2 zeigt eine schematische Darstellung einer Ausführungsform der vorliegenden Erfindung. Der Ballbot 10 empfängt einen Befehl von einem Benutzer, nach dem der Ballbot vom Startpunkt A zum Zielpunkt B fahren soll. Eine in dem Ballbot vorgesehene Navigationseinheit bestimmt zunächst eine kürzeste Fortbewegungsroute 20 von dem Startpunkt A zu dem Zielpunkt B. Der Ballbot 10 umfasst ferner eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Ballbots 10 zu bestimmen. Auf Basis des bestimmten internen Zustands passt eine in dem Ballbot 10 vorgesehene Verhaltenssteuerungseinheit die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Ballbots 10 an, um den internen Zustand des Ballbots 10 dem Benutzer darzustellen. Je nach dem bestimmten internen Zustand kann der Ballbot entweder der von der Navigationseinheit bestimmte Fortbewegungsroute 20 folgen, oder eine angepasste Fortbewegungsroute von dem Startpunkt A zu dem Zielpunkt B, wie z.B. eine in 2 gezeigte Route 30, verwenden. Zudem kann die Fahrdynamik durch die Einstellung der Geschwindigkeit, der Beschleunigung und/oder der Gierrate des Ballbots 10 während der Fortbewegung auf der jeweiligen Fortbewegungsroute angepasst werden, um verschiedene interne Zustände des Ballbots darzustellen. Im Folgenden werden ein paar beispielhafte Szenarien gezeigt:
    • - Wenn der Ballbot sachlich d.h. mit geringer Emotionsausprägung ist, fährt er geradlinig auf der Route 20 ohne Fahrdynamikänderung. Die Körperhaltung ist gerade, aufrecht und „steif“;
    • - Wenn der Ballbot einen hohen „Arousal“ hat, sich z.B. auf etwas freut, fährt er sehr dynamisch mit abwechselnden Beschleunigungen, Entschleunigungen auf einer angepassten kurvigen Fortbewegungsroute, was einen sehr energetischen Ausdruck vermittelt;
    • - Wenn der Ballbot „müde“ ist, fährt er langsamer und etwas torkelnder mit langsamen Fahrdynamikänderungen (ähnlich einem etwas betrunkenen Menschen auf einem Fahrrad);
    • - Wenn der Ballbot sich „entspannt freut“, fährt er tanzend in regelmäßigen Schwingungen auf der geplanten Route.
  • Zudem kann auch ausschließlich eine Bewegung eines Ballbots 100 initiiert oder angepasst werden, um einen internen Zustand des Ballbots 100 darzustellen. Beispielsweise dreht sich der Ballbot 100 mit einer bestimmten Gierrate auf einer gleichen Stelle, wenn er stolz ist. Oder wie in 3 dargestellt, wackelt sich der Ballbot 100 auf einer Stelle hin und her, um seine Freude z.B. bei einem Wiedersehen auszudrücken.

Claims (22)

  1. Roboter (1, 10), umfassend: eine Navigationseinheit, die dafür eingerichtet ist, eine geeignete Fortbewegungsroute (20) des Roboters von einem Startpunkt (A) zu einem Zielpunkt (B) zu bestimmen, eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute (20) und/oder die Fortbewegungsdynamik des Roboters anzupassen, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.
  2. Roboter nach Anspruch 1, dadurch gekennzeichnet, dass der Roboter (1, 10) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 10) ist.
  3. Roboter nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass die Zustandsbestimmungseinheit dafür eingerichtet ist, den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters zu bestimmen.
  4. Roboter nach Anspruch 3, dadurch gekennzeichnet, dass ein Emotionszustand des Roboters durch eine Emotionsklasse und eine Emotionsintensität definiert ist.
  5. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verhaltenssteuerungseinheit dafür eingerichtet ist, je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anzupassen: - eine Geschwindigkeit des Roboters, - eine Gierrate des Roboters, - eine Beschleunigung des Roboters, - ein Neigungswinkel des Roboters.
  6. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Roboter ferner eine Emotionszustandsbestimmungseinheit umfasst, die dafür eingerichtet ist, den Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder wenigstens eines vorbestimmten internen Zustands des Roboters zu bestimmen.
  7. Roboter nach Anspruch 6, dadurch gekennzeichnet, dass die Umgebungsinformationen durch einen oder mehreren Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden.
  8. Roboter nach Anspruch 7, dadurch gekennzeichnet, dass der eine oder die mehreren Sensoren wenigstens ausgewählt sind aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor.
  9. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Navigationseinheit eine bildbasierte Navigationseinheit, eine Tiefenbild-basierte Navigationseinheit, eine Satelliten-basierte Navigationseinheit, eine Mobilfunk-basierte Navigationseinheit, eine WLAN-basierte Navigationseinheit, eine Radar-basierte Navigationseinheit, eine Lidar-basierte Navigationseinheit, eine Ultraschall-basierte Navigationseinheit, eine Infrarot-basierte Navigationseinheit, eine RFID-basierte Navigationseinheit, eine Bluetooth-basierte Navigationseinheit, eine ZigBee-basierte Navigationseinheit, oder eine Kombination davon ist.
  10. Verfahren zur Verhaltenssteuerung eines Roboters (1, 10), umfassend: - Bestimmen einer geeigneten Fortbewegungsroute (20) des Roboters von einem Startpunkt (A) zu einem Zielpunkt (B), - Bestimmen eines internen Zustands des Roboters, - Anpassen der Fortbewegungsroute (20) und/oder der Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Roboter (1, 10) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 10) ist.
  12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass das Verfahren den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters bestimmt.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass ein Emotionszustand des Roboters durch eine Emotionsklasse und eine Emotionsintensität definiert ist.
  14. Verfahren nach einem der Ansprüche 10-13, dadurch gekennzeichnet, dass das Verfahren je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anpasst: - eine Geschwindigkeit des Roboters, - eine Gierrate des Roboters, - eine Beschleunigung des Roboters, - ein Neigungswinkel des Roboters.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ferner ein Bestimmen eines Emotionszustands des Roboters umfasst, wobei das Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder eines vorbestimmten internen Zustands des Roboters bestimmt wird.
  16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Umgebungsinformationen durch einen oder mehreren Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden.
  17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass der eine oder die mehreren Sensoren wenigstens ausgewählt sind aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor.
  18. Verfahren nach einem der Ansprüche 10-17, dadurch gekennzeichnet, dass die geeignete Fortbewegungsroute mittels einer bildbasierten Navigationseinheit, einer Tiefenbild-basierten Navigationseinheit, einer Satelliten-basierten Navigationseinheit, einer Mobilfunk-basierten Navigationseinheit, einer WLAN-basierten Navigationseinheit, einer Radar-basierten Navigationseinheit, einer Lidar-basierten Navigationseinheit, einer Ultraschall-basierten Navigationseinheit, einer Infrarot-basierten Navigationseinheit, einer RFID-basierten Navigationseinheit, einer Bluetooth-basierten Navigationseinheit, einer ZigBee-basierten Navigationseinheit, oder einer Kombination davon bestimmt.
  19. Roboter (1, 100), umfassend: eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters eine Bewegung des Roboters auf einer Stelle oder eine Herumbewegung des Roboters um eine Stelle zu steuern, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Verhaltenssteuerungseinheit dafür eingerichtet ist, die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter zu steuern: - eine Geschwindigkeit des Roboters, - eine Gierrate des Roboters, - eine Beschleunigung des Roboters, - ein Neigungswinkel des Roboters.
  20. Roboter nach Anspruch 19, dadurch gekennzeichnet, dass der Roboter (1, 100) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 100) ist.
  21. Verfahren zur Verhaltenssteuerung eines Roboters (1, 100), umfassend: - Bestimmen eines internen Zustands des Roboters, - Steuern einer Bewegung des Roboters auf einer Stelle oder einer Herumbewegung des Roboters um eine Stelle auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter gesteuert wird: - eine Geschwindigkeit des Roboters, - eine Gierrate des Roboters, - eine Beschleunigung des Roboters, - ein Neigungswinkel des Roboters.
  22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass der Roboter (1, 100) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 100) ist.
DE102019213032.1A 2019-08-29 2019-08-29 Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters Pending DE102019213032A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019213032.1A DE102019213032A1 (de) 2019-08-29 2019-08-29 Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters
PCT/EP2020/073589 WO2021037776A1 (de) 2019-08-29 2020-08-24 Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213032.1A DE102019213032A1 (de) 2019-08-29 2019-08-29 Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters

Publications (1)

Publication Number Publication Date
DE102019213032A1 true DE102019213032A1 (de) 2021-03-04

Family

ID=72240425

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213032.1A Pending DE102019213032A1 (de) 2019-08-29 2019-08-29 Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters

Country Status (2)

Country Link
DE (1) DE102019213032A1 (de)
WO (1) WO2021037776A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
DE112017003651T5 (de) * 2016-07-20 2019-04-04 Groove X, Inc. Autonom agierender Roboter, der Körperkontakt versteht
DE112017003497T5 (de) * 2016-07-11 2019-05-02 Groove X, Inc. Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170239982A1 (en) * 2016-02-24 2017-08-24 The Goodyear Tire & Rubber Company Magnetically coupled spherical tire for a self-propelled vehicle
CN109070330B (zh) * 2016-04-08 2022-07-15 Groove X 株式会社 认生的行为自主型机器人
GB2570405B (en) * 2016-09-02 2022-05-11 Groove X Inc Autonomously acting robot, server, and behavior control program
US20190111563A1 (en) * 2017-10-16 2019-04-18 Anki, Inc. Custom Motion Trajectories for Robot Animation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
DE112017003497T5 (de) * 2016-07-11 2019-05-02 Groove X, Inc. Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017003651T5 (de) * 2016-07-20 2019-04-04 Groove X, Inc. Autonom agierender Roboter, der Körperkontakt versteht

Also Published As

Publication number Publication date
WO2021037776A1 (de) 2021-03-04

Similar Documents

Publication Publication Date Title
DE69921563T2 (de) System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt
DE102018108200B4 (de) Systeme und Verfahren zur Verringerung von Aufmerksamkeitsverminderung während die Bereitschaft beibehalten wird mittels Augmented Reality in einem Fahrzeug
DE19734307C2 (de) Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE112019003755T5 (de) Lernen von Fahrerverhalten und Fahrcoaching-Strategie mittels künstlicher Intelligenz
DE112008001884T5 (de) Bahnplanungsvorrichtung, Bahnplanungsverfahren und sich bewegender Körper
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE102015013319A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs, Kraftfahrzeug und Computerprogramm
DE102015115666A1 (de) Leistungsfahrsystem und Leistungsfahrverfahren
DE102018200011A1 (de) Testsystem und Verfahren zum Testen einer Steuerung eines zumindest teilweise autonom fahrenden Fahrzeugs in einer virtuellen Umgebung
DE102005035903A1 (de) Generische KI-Architektur für ein Multiagenten-System
EP3571543B1 (de) Unterhaltungssystem für ein kraftfahrzeug und verfahren zum betreiben eines unterhaltungssystems
EP2615826B1 (de) Wahrscheinlichkeitsbasierte Bestimmung eines Ansteuerungsmodus für eine Bildstabilisierungseinrichtung
DE102017118534A1 (de) Verbesserte fahrzeugbedienung
DE102015003882A1 (de) Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und Virtual-Reality-System
DE102014208973A1 (de) Vorrichtung für ein Fahrerassistenzsystem, Verfahren und Computerprogramm
DE112017000101T5 (de) Fahrassistenzvorrichtung
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
EP3703981A1 (de) Verfahren zur anpassung eines komforts eines fahrzeugs, regelvorrichtung und fahrzeug
EP3392111A1 (de) Verfahren und vorrichtung zum ermitteln einer visuellen ablenkung eines fahrers eines fahrzeugs
DE102016225222A1 (de) Verfahren und Vorrichtung zur Beeinflussung eines Interaktionsablaufs
DE102019116713B4 (de) Verfahren, Vorrichtung und Fortbewegungsmittel für eine kinetosevermeidende Darstellung einer virtuellen Flüssigkeit in einer Datenbrille im Fortbewegungsmittel
DE102019213032A1 (de) Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters
DE202019104109U1 (de) Kraftfeld um eingelernte Positionen eines Robotermanipulators
DE102017007854A1 (de) Vorrichtung und Verfahren zur Informationsausgabe und/oder Informationseingabe innerhalb eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000