DE112017002606B4 - Autonom handelnder Roboter, der Kleidung trägt - Google Patents

Autonom handelnder Roboter, der Kleidung trägt Download PDF

Info

Publication number
DE112017002606B4
DE112017002606B4 DE112017002606.7T DE112017002606T DE112017002606B4 DE 112017002606 B4 DE112017002606 B4 DE 112017002606B4 DE 112017002606 T DE112017002606 T DE 112017002606T DE 112017002606 B4 DE112017002606 B4 DE 112017002606B4
Authority
DE
Germany
Prior art keywords
robot
clothing
action
autonomous robot
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112017002606.7T
Other languages
English (en)
Other versions
DE112017002606T5 (de
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017002606T5 publication Critical patent/DE112017002606T5/de
Application granted granted Critical
Publication of DE112017002606B4 publication Critical patent/DE112017002606B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting

Abstract

Autonom handelnder Roboter (100), umfassend:ein nichtflüchtiges, computerlesbares Medium, das konfiguriert ist, Anweisungen darauf zu speichern;einen Sensor (128), der konfiguriert ist, eine Berührung auf einer Körperoberfläche des autonom handelnden Roboters (100) zu erkennen;einen Detektor, der konfiguriert ist, zu erkennen, ob der autonom handelnde Roboter (100) Kleidung trägt;einen mit dem nichtflüchtigen, computerlesbaren Medium verbundenen Prozessor, wobei der Prozessor konfiguriert ist, die Anweisungen auszuführen für:das Spezifizieren eines Vorgangs des autonom handelnden Roboters (100), wobei das Spezifizieren des Vorgangs das Ändern von Verhaltensmerkmalen des autonom handelnden Roboters (100) als Reaktion auf eine Bestimmung umfasst, dass der autonom handelnde Roboter (100) Kleidung trägt, unddas Erhöhen der Empfindlichkeit des Sensors (128) als Reaktion auf die Bestimmung, dass der autonom handelnde Roboter (100) Kleidung trägt;einen Antriebsmechanismus (120), der konfiguriert ist, den spezifizierten Vorgang auszuführen, wobei die Verhaltensmerkmale eine Bewegung mit Handlungseinschränkungen oder eine Sonderbewegung (242), jeweils abhängig von der getragenen Kleidung, sind und wobei die Handlungseinschränkung aufgrund von Handlungseinschränkungsinformationen (240) vorgenommen wird und die Handlungseinschränkungsinformationen (240) eine Stärke angeben, mit der die verschiedenen Bewegungen geregelt werden.

Description

  • Die vorliegende Erfindung betrifft einen Roboter, der autonom eine Handlung entsprechend einem internen Zustand oder einer äußeren Umgebung auswählt.
  • Auf der Suche nach Trost hält ein Mensch ein Haustier. Aus verschiedenen Gründen, wie beispielsweise der Tatsache, dass man sich nicht genügend Zeit für die Betreuung eines Haustieres verschaffen kann, dass man kein Wohnumfeld hat, in dem ein Haustier gehalten werden kann, dass man eine Allergie hat oder dass man den Gedanken hasst, durch den Tod getrennt zu werden, gibt es währenddessen viele Menschen, die darauf verzichten, ein Haustier zu halten. Falls es einen Roboter gäbe, der die Rolle eines Haustieres übernähme, könnte es sein, dass Menschen, die kein Haustier halten können, auch eine Art von Trost erhielten, die ein Haustier bietet (siehe Patentdokument 1).
  • Patentdokument 1: JP-A-2000-323219
  • Ferner sind aus den Dokumenten DE 299 04 916 U1 , US 6 505 098 B1 , US 2003/0109 959 A1 , JP 2005-13391 A sowie JP 2000-93664 A verschiedene Robotersysteme mit Sensoren und Funktionen bekannt.
  • Ein Mensch hat eine Tendenz, zu versuchen, einem Ziel der Zuneigung Kleidung anzuziehen. Beispielsweise versucht ein Mensch, Zuneigung auszudrücken, indem er versucht, sogar einem leblosen Objekt wie einem Stofftier verschiedene Kleidungssachen anzuziehen. Ein Grund für die Beliebtheit kleiner Hunde ist, dass kleine Hunde der menschlichen Sehnsucht nachkommen, einem Ziel der Zuneigung hübsche Kleidung anzuziehen. Folglich wird angenommen, dass das Mitgefühl gegenüber dem Roboter erheblich gesteigert werden könnte, wenn ein Roboter so beschaffen wäre, dass ein Mensch den Wunsch verspürt, dem Roboter Kleidung anzuziehen.
  • Die Erfindung, bei der es sich um eine Erfindung handelt, die auf der Grundlage der bisher beschriebenen Idee durchgeführt wurde, hat als Aufgabe die Bereitstellung einer Technologie, die Verhaltensmerkmale ändert, wenn einem Roboter Kleidung angezogen wird.
  • Ein autonom handelnder Roboter in einem Aspekt der Erfindung beinhaltet eine Vorgangssteuerungseinheit, die einen Vorgang des Roboters steuert, einen Antriebsmechanismus, der einen von der Vorgangssteuerungseinheit spezifizierten Vorgang ausführt, und eine Ausstattungserkennungseinheit, die vom Roboter getragene Kleidung erkennt.
  • Die Vorgangssteuerungseinheit ändert die Verhaltensmerkmale des Roboters entsprechend der getragenen Kleidung.
  • Gemäß der Erfindung lässt sich das Mitgefühl gegenüber einem Roboter leicht erhöhen.
    • [1(a)] 1(a) ist eine vordere Außenansicht eines Roboters.
    • [1(b)] 1(b) ist eine seitliche Außenansicht des Roboters.
    • [2] 2 ist eine vordere Außenansicht eines Roboters beim Tragen von Kleidung.
    • [3] 3 ist eine Schnittansicht, die schematisch einen Aufbau des Roboters darstellt.
    • [4] 4 ist ein Konfigurationsdiagramm eines Robotersystems.
    • [5] 5 ist eine schematische Ansicht einer Emotionskarte.
    • [6] 6 ist ein Hardwarekonfigurationsdiagramm des Roboters.
    • [7] 7 ist ein funktionelles Blockdiagramm des Robotersystems.
    • [8] 8 ist ein Diagramm, das schematisch eine Beziehung zwischen einer Leistung und einer Betätigungsgröße eines Stellglieds darstellt.
    • [9] 9 ist ein Datenstrukturdiagramm einer Speichereinheit für Handlungseinschränkungsinformationen.
    • [10] 10 ist ein Flussdiagramm, das ein Vorgangskorrekturverfahren beim Tragen von Kleidung anzeigt.
    • [11] 11 ist ein Datenstrukturdiagramm einer Speichereinheit für Sonderbewegungen.
    • [12] 12 ist ein funktionelles Blockdiagramm des Robotersystems in einem geänderten Beispiel.
    • [13] 13 ist ein Datenstrukturdiagramm einer Speichereinheit für Verbundenheitsinformationen.
  • 1(a) eine vordere Außenansicht eines Roboters 100. 1(b) eine seitliche Außenansicht des Roboters 100.
  • Der Roboter 100 in dieser Ausführungsform ist ein autonom handelnder Roboter, der eine Handlung oder Geste basierend auf einer äußeren Umgebung und einem internen Zustand bestimmt. Die äußere Umgebung wird durch verschiedene Arten von Sensoren erkannt, wie beispielsweise eine Kamera oder einen Thermosensor. Der innere Zustand wird als verschiedene Parameter quantifiziert, die Emotionen des Roboters 100 ausdrücken. Diese werden nachfolgend beschrieben.
  • Unter der Voraussetzung einer Innenraumhandlung weist der Roboter 100 beispielsweise einen Innenbereich eines Eigenheims als einen Handlungsbereich auf. Im Folgenden wird ein mit dem Roboter 100 beschäftigter Mensch als „Benutzer“ bezeichnet, und ein Benutzer, der ein Mitglied eines Haushalts ist, zu dem der Roboter 100 gehört, wird als „Besitzer“ bezeichnet.
  • Ein Körper 104 des Roboters 100 hat überall eine abgerundete Form und beinhaltet eine Außenhaut, die aus einem weichen Material ausgebildet ist, das Elastizität aufweist, wie beispielsweise Urethan, Gummi, ein Harz oder eine Faser. Der Roboter 100 kann bekleidet sein. Durch die Annahme des abgerundeten, weichen und angenehm zu berührenden Körpers 104 vermittelt der Roboter 100 dem Benutzer ein Gefühl der Sicherheit und ein angenehmes taktiles Gefühl.
  • Ein Gesamtgewicht des Roboters 100 beträgt 15 Kilogramm oder weniger, vorzugsweise 10 Kilogramm oder weniger und am besten 5 Kilogramm oder weniger. Die meisten Babys beginnen bis zum 13. Monat nach der Geburt selbstständig zu laufen. Ein durchschnittliches Gewicht eines Babys 13 Monate nach der Geburt beträgt etwas mehr als 9 Kilogramm für Jungen und etwas weniger als 9 Kilogramm für Mädchen. Wenn das Gesamtgewicht des Roboters 100 10 Kilogramm oder weniger beträgt, kann ein Benutzer deshalb den Roboter 100 mit einer Anstrengung halten, die praktisch gleichwertig mit dem Halten eines Babys ist, das nicht selbstständig gehen kann. Ein durchschnittliches Gewicht eines Babys weniger als 2 Monate nach der Geburt beträgt sowohl für Jungen als auch für Mädchen weniger als 5 Kilogramm. Wenn das Gesamtgewicht des Roboters 100 5 Kilogramm oder weniger beträgt, kann ein Benutzer infolgedessen den Roboter 100 mit einer Anstrengung halten, die praktisch gleichwertig mit dem Halten eines sehr kleinen Babys ist.
  • Die Vorteile eines Benutzers, den Roboter 100 leicht halten zu können und den Roboter 100 halten zu wollen, werden durch die Attribute wie angemessenes Gewicht und Rundheit, Weichheit und Annehmlichkeit des Berührens realisiert. Aus den gleichen Gründen beträgt die Höhe des Roboters 100 1,2 Meter oder weniger, vorzugsweise 0,7 Meter oder weniger. Die Möglichkeit des Gehaltenwerdens ist ein wichtiges Konzept des Roboters 100 in dieser Ausführungsform.
  • Der Roboter 100 beinhaltet drei Räder für das Fortbewegen auf drei Rädern. Wie in den Zeichnungen gezeigt, beinhaltet der Roboter 100 ein Paar Vorderräder 102 (ein linkes Rad 102a und ein rechtes Rad 102b) und ein Hinterrad 103. Die Vorderräder 102 sind Antriebsräder, und das Hinterrad 103 ist ein angetriebenes Rad. Obwohl die Vorderräder 102 keinen Lenkmechanismus aufweisen, können die Drehzahl und die Drehrichtung individuell gesteuert werden. Das Hinterrad 103 ist aus einem sogenannten Omni-Rad ausgebildet und dreht sich frei, um zu bewirken, dass sich der Roboter 100 vorwärts und rückwärts sowie nach links und rechts bewegt. Durch das Steuern, dass die Drehzahl des rechten Rades 102b größer ist als die des linken Rades 102a, kann sich der Roboter 100 nach links drehen oder sich gegen den Uhrzeigersinn drehen. Durch das Steuern, dass die Drehzahl des linken Rades 102a größer ist als die des rechten Rades 102b, kann sich der Roboter 100 nach rechts drehen oder sich gegen den Uhrzeigersinn drehen.
  • Die Vorderräder 102 und das Hinterrad 103 können mittels eines Antriebsmechanismus (ein Schwenkmechanismus und ein Verbindungsmechanismus) vollständig in dem Körper 104 gelagert werden. Ein größerer Abschnitt von jedem Rad ist von dem Körper 104 auch beim Fortbewegen verdeckt, aber wenn jedes Rad vollständig in dem Körper 104 gelagert ist, befindet sich der Roboter 100 in einem Zustand der Bewegungsunfähigkeit. Das heißt, der Körper 104 senkt sich ab und sitzt auf einer Bodenfläche F, begleitet von einem Vorgang der Aufnahme der Räder. Im sitzenden Zustand kommt eine in einem Bodenabschnitt des Körpers 104 ausgebildete flache Sitzfläche 108 (eine Bodenunterseite) mit der Bodenfläche F in Berührung.
  • Der Roboter 100 weist zwei Arme 106 auf. Die Arme 106 weisen keine Funktion des Greifens eines Objekts auf. Die Arme 106 können einfache Handlungen wie beispielsweise Heben, Winken und Schwingen ausführen. Die beiden Arme 106 können auch einzeln gesteuert werden.
  • Eine Kamera ist in einem Auge 110 integriert. Das Auge 110 ist unter Verwendung eines Flüssigkristallelements oder eines organischen EL-Elements auch zur Bildanzeige in der Lage. Zusätzlich zu der im Auge 110 integrierten Kamera sind im Roboter 100 verschiedene Sensoren wie beispielsweise ein Mikrofon mit hoher Richtwirkung und ein Ultraschallsensor montiert. Ein Lautsprecher ist ebenfalls integriert, und der Roboter 100 ist auch zur einfachen Sprache in der Lage.
  • An einem Kopfabschnitt des Roboters 100 ist ein Horn 112 befestigt. Da der Roboter 100 wie vordem beschrieben leichtgewichtig ist, kann ein Benutzer den Roboter 100 auch durch Anpacken des Horns 112 hochheben.
  • 2 ist eine vordere Außenansicht des Roboters 100 beim Tragen von Kleidung.
  • Ein Benutzer kann die Kleidung 180 dem Roboter 100 anziehen. Es gibt verschiedene Arten der Kleidung 180. Ein RFID (Radio Frequency Identifier) -Etikett ist in die Kleidung 180 eingenäht. Das RFID-Etikett sendet eine „Kleidungskennung“, die die Kleidung im Nahbereich identifiziert. Durch das Auslesen der Kleidungskennung aus dem RFID-Etikett kann der Roboter 100 erkennen, dass der Roboter 100 die Kleidung 180 trägt, und erkennt die Kategorie der Kleidung 180, die der Roboter 100 trägt. Der Roboter 100 kann mehrere Elemente der Kleidung 180 in Lagen tragen.
  • Verschiedene Arten von kleidungsbezogenen Informationen (im Folgenden gemeinsam als „Kleidungsattributinformationen“ bezeichnet) sind mit der Kleidungskennung korreliert. Die Kleidungsattributinformationen werden von einem Server 200 verwaltet, der nachfolgend beschrieben wird und mit dem Roboter 100 koordiniert ist, oder von einer externen Datenbank 182, die von einem Bekleidungshersteller oder dergleichen betrieben wird. Einzelheiten der Kleidungsattributinformationen werden nachfolgend beschrieben.
  • 3 ist eine Schnittansicht, die schematisch einen Aufbau des Roboters 100 darstellt.
  • Wie in 3 gezeigt, beinhaltet der Körper 104 des Roboters 100 einen Grundrahmen 308, einen Hauptkörperrahmen 310, ein aus Harz hergestelltes Radabdeckungspaar 312 und eine Außenhaut 314. Der Grundrahmen 308 ist aus Metall ausgebildet und trägt einen inneren Mechanismus zusammen mit dem Konfigurieren einer Welle des Körpers 104. Der Grundrahmen 308 ist durch eine obere Platte 332 und eine untere Platte 334 konfiguriert, die vertikal durch mehrere Seitenplatten 336 verbunden sind. Zwischen den mehreren Seitenplatten 336 ist ein ausreichender Abstand vorgesehen, sodass eine Belüftung möglich ist. Eine Batterie 118, eine Steuerungsschaltung 342 und verschiedene Arten von Stellgliedern sind im Inneren des Grundrahmens 308 untergebracht.
  • Der Hauptkörperrahmen 310 ist aus einem Harzmaterial ausgebildet und beinhaltet einen Kopfabschnittsrahmen 316 und einen Rumpfabschnittsrahmen 318. Der Kopfabschnittsrahmen 316 ist von hohler halbkugelförmiger Form und bildet ein Kopfabschnittsrahmentragwerk des Roboters 100 aus. Der Rumpfabschnittsrahmen 318 ist von gestufter zylindrischer Form und bildet ein Rumpfabschnittsrahmentragwerk des Roboters 100 aus. Der Rumpfabschnittsrahmen 318 ist integral mit dem Grundrahmen 308 verbunden. Der Kopfabschnittsrahmen 316 ist an einem oberen Endabschnitt des Rumpfabschnittsrahmens 318 so befestigt, dass er relativ verschiebbar ist.
  • Drei Wellen, nämlich eine Gierwelle 320, eine Nickwelle 322 und eine Rollwelle 324 sowie ein Stellglied 326 zum Antreiben jeder Welle, um sie zu drehen, sind im Kopfabschnittsrahmen 316 vorgesehen. Das Stellglied 326 beinhaltet mehrere Servomotoren, um jede Welle einzeln anzutreiben. Die Gierwelle 320 wird für eine Kopfschüttelhandlung angetrieben, die Nickwelle 322 wird für eine Nickhandlung angetrieben und die Rollwelle 324 wird für eine Kopfneigehandlung angetrieben.
  • Eine Platte 325, die die Gierwelle 320 trägt, ist an einem oberen Abschnitt des Kopfabschnittsrahmens 316 befestigt. Mehrere Lüftungslöcher 327 zur Sicherung der Lüftung zwischen den oberen und unteren Abschnitten sind der Platte 325 ausgebildet.
  • Eine aus Metall hergestellte Grundplatte 328 ist vorgesehen, um den Kopfabschnittsrahmen 316 und einen inneren Mechanismus davon von unten zu tragen. Die Grundplatte 328 ist über einen Querverbindungsmechanismus 329 (ein Pantographmechanismus) mit der Platte 325 verbunden, und über ein Gelenk 330 mit der oberen Platte 332 (der Grundrahmen 308) verbunden.
  • Der Rumpfabschnittsrahmen 318 beherbergt den Grundrahmen 308 und einen Radantriebsmechanismus 370. Der Radantriebsmechanismus 370 beinhaltet eine Schwenkwelle 378 und ein Stellglied 379. Ein Abschnitt der unterer Hälfte des Rumpfabschnittsrahmens 318 ist von geringer Breite, um einen Gehäuseraum S des Vorderrades 102 zwischen den Radabdeckungen 312 auszubilden.
  • Die Außenhaut 314 ist aus Urethangummi ausgebildet und bedeckt den Hauptkörperrahmen 310 und die Radabdeckungen 312 von einer Außenseite. Die Arme 106 sind integral mit der Außenhaut 314 geformt. In einem oberen Endabschnitt der Außenhaut 314 ist ein Öffnungsabschnitt 390 zum Einbringen von Außenluft vorgesehen.
  • 4 ist ein Konfigurationsdiagramm eines Robotersystems 300.
  • Das Robotersystem 300 beinhaltet den Roboter 100, den Server 200 und mehrere externe Sensoren 114. Die mehreren externen Sensoren 114 (externe Sensoren 114a, 114b und so weiter bis 114n) werden im Voraus in einem Haus installiert. Der externe Sensor 114 kann an einer Wandfläche des Hauses befestigt sein oder kann auf einem Boden platziert sein. Positionskoordinaten des externen Sensors 114 sind im Server 200 registriert. Die Positionskoordinaten sind als x- und y-Koordinaten in dem Haus definiert, das als Handlungsbereich des Roboters 100 vorgesehen ist.
  • Der Server 200 ist in dem Haus installiert. Der Server 200 und der Roboter 100 in dieser Ausführungsform korrespondieren eins zu eins. Der Server 200 bestimmt eine grundlegende Handlung des Roboters 100 basierend auf Informationen, die von den im Roboter 100 integrierten Sensoren und den mehreren externen Sensoren 114 erhalten werden.
  • Der externe Sensor 114 dient zur Verstärkung der Sinnesorgane des Roboters 100, und der Server 200 dient zur Verstärkung der Intelligenz des Roboters 100.
  • Der externe Sensor 114 sendet regelmäßig ein drahtloses Signal (nachfolgend „Robotersuchsignal“ genannt) einschließlich der ID (nachfolgend „Bakenkennung“ genannt) des externen Sensors 114. Beim Empfangen des Robotersuchsignals gibt der Roboter 100 ein drahtloses Signal (nachfolgend „Roboterantwortsignal“ genannt) einschließlich Bakenkennung zurück. Der Server 200 misst eine Zeit vom Senden des Robotersuchsignals durch den externen Sensor 114 bis zum Empfangen des Roboterantwortsignals und misst eine Entfernung vom externen Sensor 114 zum Roboter 100. Durch Messen der Entfernung zwischen jedem der mehreren externen Sensoren 114 und dem Roboter 100 ermittelt der Server 200 die Positionskoordinaten des Roboters 100.
  • Natürlich kann auch ein Verfahren eingesetzt werden, bei dem der Roboter 100 regelmäßig seine eigenen Positionskoordinaten an den Server 200 sendet.
  • 5 ist eine schematische Ansicht einer Emotionskarte 116.
  • Die Emotionskarte 116 ist eine im Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt eine Handlung entsprechend der Emotionskarte 116 aus. Die in 5 gezeigte Emotionskarte 116 zeigt eine Größe einer emotionalen Verbundenheit oder Abneigung gegenüber einem Ort des Roboters 100. Eine x-Achse und eine y-Achse der Emotionskarte 116 geben zweidimensionale Raumkoordinaten an. Eine z-Achse gibt eine Größe einer emotionalen Verbundenheit oder Abneigung an. Wenn ein z-Wert ein positiver Wert ist, ist eine Verbundenheit mit einem Ort hoch, und wenn der z-Wert ein negativer Wert ist, ist der Roboter 100 dem Ort gegenüber abgeneigt.
  • Auf der Emotionskarte 116 von 5 ist eine Koordinate P1 ein Punkt in einem Innenraum, der vom Server 200 als Handlungsbereich des Roboters 100 verwaltet wird, bei dem eine Emotion der Anziehung hoch ist (nachfolgend als bevorzugter Punkt bezeichnet). Der bevorzugte Punkt kann ein „sicherer Ort“ sein, beispielsweise hinter einem Sofa oder unter einem Tisch, oder kann ein Ort sein, an dem sich Menschen treffen, oder ein lebendiger Ort, wie ein Wohnzimmer. Der sichere Ort kann auch ein Ort sein, an dem der Roboter 100 in der Vergangenheit sanft gestreichelt oder berührt wurde.
  • Eine Definition, welche Art von Ort der Roboter 100 bevorzugt, ist willkürlich, aber es ist generell wünschenswert, dass ein Ort, der von kleinen Kindern oder von kleinen Tieren wie Hunden oder Katzen bevorzugt wird, als bevorzugter Punkt festgelegt wird.
  • Eine Koordinate P2 ist ein Punkt, an dem eine Emotion der Abneigung hoch ist (nachfolgend „unerwünschter Punkt“ genannt). Der unerwünschte Punkt kann ein Ort sein, wo es ein lautes Geräusch gibt, wie beispielsweise in der Nähe eines Fernsehers, ein Ort, wo es wahrscheinlich ein Leck gibt, wie ein Badezimmer oder ein Waschraum, ein geschlossener Raum oder ein dunkler Ort, ein Ort, wo der Roboter 100 von einem Benutzer grob behandelt wurde und der eine unangenehme Erinnerung oder Ähnliches hervorruft.
  • Eine Definition, welche Art von Ort der Roboter 100 nicht mag, ist ebenfalls willkürlich, aber es ist generell wünschenswert, dass ein Ort, der von kleinen Kindern oder von kleinen Tieren wie Hunden oder Katzen gefürchtet wird, als unerwünschter Punkt festgelegt wird.
  • Eine Koordinate Q gibt eine aktuelle Position des Roboters 100 an. Der Server 200 identifiziert Positionskoordinaten des Roboters 100 unter Verwendung des Robotersuchsignals, das regelmäßig von den mehreren externen Sensoren 114 übertragen wird, und des Roboterantwortsignals, das auf das Robotersuchsignal antwortet. Wenn beispielsweise der externe Sensor 114 mit der Bakenkennung = 1 und der externe Sensor 114 mit der Bakenkennung = 2 jeweils den Roboter 100 erkennen, erhält der Server 200 die Entfernungen des Roboters 100 von den beiden externen Sensoren 114 und erhält die Positionskoordinaten des Roboters 100 aus den Entfernungen.
  • Alternativ sendet der externe Sensor 114 mit der Bakenkennung = 1 das Robotersuchsignal in mehrere Richtungen, und der Roboter 100 gibt das Roboterantwortsignal beim Empfangen des Robotersuchsignals zurück. Auf diese Weise kann der Server 200 feststellen, in welcher Richtung und in welcher Entfernung sich der Roboter 100 von welchem externen Sensor 114 befindet. Zudem kann der Server 200 in einer anderen Ausführungsform eine vom Roboter 100 zurückgelegte Entfernung aus der Drehzahl des Vorderrades 102 oder des Hinterrades 103 berechnen, wodurch die aktuelle Position ermittelt wird, oder kann die aktuelle Position anhand eines von der Kamera erhaltenen Bildes ermitteln.
  • Wenn die in 5 gezeigte Emotionskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in eine Richtung hin zum bevorzugten Punkt (Koordinate P1) oder in eine Richtung weg vom unerwünschten Punkt (Koordinate P2).
  • Die Emotionskarte 116 ändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 ankommt, nimmt der z-Wert (Anziehungsemotion) an der Koordinate P1 im Laufe der Zeit ab. Aus diesem Grund kann der Roboter 100 ein tierähnliches Verhalten nachahmen, wenn er am bevorzugten Punkt (Koordinate P1) ankommt, „emotional zufrieden zu sein“, und sich mit der Zeit an dem Ort „zu langweilen“. In der gleichen Weise wird die Emotion der Abneigung an der Koordinate P2 im Laufe der Zeit abgeschwächt. Zusammen mit dem Ablauf der Zeit ergibt sich ein neuer bevorzugter Punkt oder unerwünschter Punkt, weswegen der Roboter 100 eine neue Handlungsauswahl durchführt. Der Roboter 100 weist „Interesse“ an einem neuen bevorzugten Punkt auf und führt unaufhörlich eine neue Handlungsauswahl durch.
  • Die Emotionskarte 116 drückt emotionale Schwankungen als einen internen Zustand des Roboters 100 aus. Der Roboter 100 steuert einen bevorzugten Punkt an, vermeidet einen unerwünschten Punkt, bleibt eine Weile am bevorzugten Punkt und führt mit der Zeit die nächste Handlung aus. Mit dieser Art von Steuerung kann die Handlungsauswahl des Roboters 100 eine menschen- oder tierähnliche Handlungsauswahl sein.
  • Karten, die eine Handlung des Roboters 100 beeinflussen (nachfolgend zusammenfassend als „Handlungskarten“ bezeichnet), sind nicht auf die in 5 gezeigte Art der Emotionskarte 116 beschränkt. Beispielsweise können verschiedene Handlungskarten wie Neugierde, ein Wunsch, Angst zu vermeiden, ein Wunsch, Sicherheit zu finden, und ein Wunsch, körperliche Behaglichkeit wie Ruhe, gedämpftes Licht, Kühle oder Wärme zu finden, definiert sein. Ferner kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Mittelwert der z-Werte von jeder der mehreren Handlungskarten gebildet wird.
  • Der Roboter 100 kann zusätzlich zu einer Handlungskarte auch Parameter aufweisen, die eine Größe verschiedener Emotionen oder Sinne angeben. Wenn beispielsweise ein Wert eines Einsamkeitsgefühlsparameters zunimmt, kann ein Gewichtungskoeffizient einer Handlungskarte, die Orte bewertet, an denen sich der Roboter 100 wohlfühlt, hochgesetzt werden, und der Wert dieses Emotionsparameters verringert werden, wenn der Roboter 100 einen Zielpunkt erreicht. In der gleichen Weise genügt es, dass ein Gewichtungskoeffizient einer Handlungskarte, die Orte bewertet, an denen die Neugierde befriedigt wird, hochgesetzt wird, wenn ein Wert eines Parameters, der ein Gefühl der Langeweile angibt, zunimmt.
  • 6 ist ein Hardwarekonfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 beinhaltet einen internen Sensor 128, einen Kommunikator 126, eine Speichervorrichtung 124, einen Prozessor 122, einen Antriebsmechanismus 120 und die Batterie 118. Der Antriebsmechanismus 120 beinhaltet den vordem beschriebenen Radantriebsmechanismus 370. Der Prozessor 122 und die Speichervorrichtung 124 sind in der Steuerungsschaltung 342 enthalten. Die Einheiten sind miteinander durch eine Stromleitung 130 und eine Signalleitung 132 verbunden. Die Batterie 118 versorgt über die Stromleitung 130 jede Einheit mit Strom. Jede Einheit sendet und empfängt über die Signalleitung 132 ein Steuersignal. Die Batterie 118 ist ein wiederaufladbarer Lithium-Ionen-Akku und ist eine Stromquelle für den Roboter 100.
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die im Roboter 100 integriert sind. Insbesondere ist der interne Sensor 128 eine Kamera, ein Mikrofon mit hoher Richtwirkung, ein Infrarotsensor, ein Thermosensor, ein Berührungssensor, ein Beschleunigungssensor, ein Geruchssensor und dergleichen. Der Geruchssensor ist ein bereits bekannter Sensor, der ein Prinzip anwendet, bei dem sich der elektrische Widerstand entsprechend einer Adsorption eines Moleküls, das eine Geruchsquelle bildet, ändert. Der Geruchssensor teilt verschiedene Gerüche in mehrere Arten von Kategorien ein (nachfolgend „Geruchskategorien“ genannt).
  • Der Kommunikator 126 ist ein Kommunikationsmodul, das die drahtlose Kommunikation mit dem Server 200 und verschiedenen Arten von externen Vorrichtungen als Ziel durchführt, wie beispielsweise dem externen Sensor 114 und einer im Besitz des Benutzers befindlichen mobilen Vorrichtung. Die Speichervorrichtung 124 ist aus einem nichtflüchtigen Speicher und einem flüchtigen Speicher konfiguriert und speichert ein Computerprogramm und verschiedene Arten von Festlegungsinformationen. Der Prozessor 122 ist Mittel zur Ausführung eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Stellglied, das einen internen Mechanismus steuert. Darüber hinaus sind eine Anzeigevorrichtung, ein Lautsprecher und dergleichen ebenfalls montiert.
  • Der Prozessor 122 wählt eine Handlung des Roboters 100 aus, während er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Verschiedene Arten von externen Informationen, die vom internen Sensor 128 erhalten werden, beeinflussen ebenfalls die Handlungsauswahl. Der Antriebsmechanismus 120 steuert hauptsächlich die Räder (Vorderräder 102) und den Kopfabschnitt (den Kopfabschnittsrahmen 316). Der Antriebsmechanismus 120 ändert eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des Roboters 100, indem er die Drehzahl und die Drehrichtung von jedem der beiden Vorderräder 102 ändert. Außerdem kann der Antriebsmechanismus 120 auch die Räder (die Vorderräder 102 und das Hinterrad 103) anheben und absenken. Wenn sich die Räder heben, sind die Räder vollständig im Körper 104 gelagert, und der Roboter 100 kommt über die Sitzfläche 108 mit der Bodenfläche F in Kontakt und nimmt den sitzenden Zustand an.
  • 7 ist ein funktionelles Blockdiagramm des Robotersystems 300.
  • Wie vordem beschrieben, beinhaltet das Robotersystem 300 den Roboter 100, den Server 200 und mehrere externe Sensoren 114. Jede Komponente des Roboters 100 und des Servers 200 wird durch Hardware realisiert, die einen Computer beinhaltet, der aus einer CPU (Zentralprozessoreinheit), verschiedenen Arten von Koprozessoren und dergleichen, einer Speichervorrichtung, die ein Speicher oder eine Speicherung ist, und einer drahtgebundenen oder drahtlosen Kommunikationsleitung, die den Computer und die Speichervorrichtung verbindet, sowie Software, die in der Speichervorrichtung gespeichert ist und dem Computer einen Verarbeitungsbefehl liefert, gebildet ist. Ein Computerprogramm kann aus einem Gerätetreiber, einem Betriebssystem, verschiedenen Arten von Anwendungsprogrammen, die in einer oberen Schicht davon angeordnet sind, und einer Bibliothek, die den Programmen eine gemeinsame Funktion zur Verfügung stellt, konfiguriert sein. Jeder nachstehend beschriebene Block bezeichnet einen Funktionseinheitsblock statt einer Hardwareeinheitkonfiguration.
  • Ein Teil der Funktionen des Roboters 100 kann durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können durch den Roboter 100 realisiert werden.
  • Der Server 200 beinhaltet eine Kommunikationseinheit 204, eine Datenverarbeitungseinheit 202 und eine Datenspeichereinheit 206.
  • Die Kommunikationseinheit 204 verwaltet einen Prozess der Kommunikation mit dem externen Sensor 114, der externen Datenbank 182 und dem Roboter 100. Die Datenspeichereinheit 206 speichert verschiedene Arten von Daten. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Verfahren auf der Grundlage der von der Kommunikationseinheit 204 erfassten Daten und den in der Datenspeichereinheit 206 gespeicherten Daten aus. Die Datenverarbeitungseinheit 202 arbeitet ebenfalls als eine Schnittstelle der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die externe Datenbank 182 speichert Kleidungsattributinformationen. Die Kleidungsattributinformationen in dieser Ausführungsform beinhalten zwei Arten, nämlich (1) Handlungseinschränkungsinformationen und (2) eine Sonderbewegung. Handlungseinschränkungsinformationen sind Informationen, die eine Stärke angeben, mit der die Kleidung die Bewegung des Roboters 100 regelt, insbesondere die Bewegung der verschiedenen Arten von Stellgliedern. Eine Sonderbewegung ist ein spezifischer Vorgang, der mit der Kleidung korreliert und der Kleidung eigen ist. Einzelheiten davon werden nachfolgend beschrieben.
  • Die Datenspeichereinheit 206 beinhaltet eine Speichereinheit für Grundbewegungen 232, eine Kartenspeichereinheit 216, eine Speichereinheit für individuelle Daten 218, eine Speichereinheit für Handlungseinschränkungsinformationen 240 und eine Speichereinheit für Sonderbewegungen 242.
  • Der Roboter 100 weist verschiedene Vorgangsmuster (Bewegungen) auf. Verschiedene Bewegungen sind definiert, wie beispielsweise das Schwenken eines Arms, das Annähern an einen Besitzer während des Drehens und das genaue Beobachten eines Besitzers mit geneigtem Kopf. Die Bewegungen beinhalten eine „Grundbewegung“, die anfänglich im Roboter 100 eingestellt wurde, und eine besondere „Sonderbewegung“, die mit der Kleidung korreliert, wenn der Roboter 100 die Kleidung trägt.
  • Die Speichereinheit für Grundbewegungen 232 speichert eine Bewegungsdatei, die Steuerungseinzelheiten der Grundbewegung definiert. Die Speichereinheit für Sonderbewegungen 242 enthält eine Bewegungsdatei einer besonderen Sonderbewegung, die mit der Kleidungskennung und der Kleidung korreliert ist. Wenn die Kleidung in Lagen getragen wird, kann eine Sonderbewegung vorbereitet werden, die einer Kombination mehrerer Kleidungsstücke entspricht (Einzelheiten werden nachfolgend beschreiben). Jede Bewegung ist durch eine Bewegungskennung gekennzeichnet. Die Speichereinheit für Sonderbewegungen 242 wird im Folgenden in Verbindung mit 11 beschrieben. Bewegungsdateien einer Grundbewegung und einer Sonderbewegung werden in eine Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Welche Bewegung ausgeführt werden soll, kann vom Server 200 oder vom Roboter 100 bestimmt werden.
  • Viele Bewegungen des Roboters 100 sind als zusammengesetzte Bewegungen konfiguriert, die mehrere Einzelbewegungen beinhalten. Wenn sich der Roboter 100 beispielsweise einem Besitzer nähert, kann die Annäherung als eine Kombination aus einer Bewegung der Einheit der Richtungsänderung, um dem Besitzer gegenüberzustehen, einer Bewegung der Einheit, die sich nähert und dabei einen Arm hebt, einer Bewegung der Einheit, die sich nähert und dabei den Körper schüttelt und einer Bewegung der Einheit, die sitzt und dabei beide Arme hebt, ausgedrückt werden. Durch Kombinieren dieser vier Bewegungsarten wird eine Bewegung realisiert, die darin besteht, „sich einem Besitzer zu nähern, auf dem Weg einen Arm zu heben und sich schließlich nach dem Schütteln des Körpers hinzusetzen“. Ein Drehwinkel, eine Winkelgeschwindigkeit und dergleichen eines im Roboter 100 vorgesehenen Stellglieds ist definiert, dass mit einer Zeitachse in einer Bewegungsdatei korreliert ist. Verschiedene Bewegungen werden ausgeführt, indem jedes Stellglied zusammen mit dem Zeitablauf entsprechend der Bewegungsdatei (Stellgliedsteuerungsinformationen) gesteuert wird.
  • Eine Umstellzeit beim Wechseln von einer vorhergehenden Bewegung der Einheit zu einer nachfolgenden Bewegung der Einheit wird als „Intervall“ bezeichnet. Es genügt, dass ein Intervall entsprechend der Zeit definiert ist, die für eine Änderung der Bewegung der Einheit oder Einzelheiten einer Bewegung benötigt wird. Eine Länge eines Intervalls kann geregelt werden.
  • Im Folgenden werden die Einstellungen zum Steuern des Verhaltens des Roboters 100, wie beispielsweise welche Bewegung wann gewählt wird, und Regeln der Leistung jedes Stellglieds, wenn eine Bewegung umgesetzt wird, gemeinsam als „Verhaltensmerkmale“ bezeichnet.
  • Die Kartenspeichereinheit 216 speichert mehrere Handlungskarten. Die Speichereinheit für individuelle Daten 218 speichert Informationen über einen Benutzer, insbesondere über einen Besitzer. Insbesondere speichert die Speichereinheit für individuelle Daten 218 verschiedene Arten von Parametern, wie beispielsweise die Vertrautheit bezüglich eines Benutzers sowie körperliche Merkmale und Verhaltensmerkmale eines Benutzers. Die Speichereinheit für individuelle Daten 218 kann auch andere Attributinformationen wie Alter und Geschlecht speichern. Die Speichereinheit für Handlungseinschränkungsinformationen 240 korreliert Handlungseinschränkungsinformationen, das heißt Informationen, die angeben, inwieweit die Kleidung eine Handlung des Roboters 100 einschränkt, mit der Kleidungskennung. Die Speichereinheit für Handlungseinschränkungsinformationen 240 wird im Folgenden in Verbindung mit 9 beschrieben. Handlungseinschränkungsinformationen werden ebenfalls in den Roboter 100 heruntergeladen und in einer Speichereinheit für Handlungseinschränkungsinformationen 138 gespeichert.
  • Der Roboter 100 identifiziert einen Benutzer anhand der körperlichen Merkmale oder Verhaltensmerkmale des Benutzers. Der Roboter 100 filmt mit der integrierten Kamera ständig eine Außenumgebung. Ferner extrahiert der Roboter 100 die körperlichen Merkmale und Verhaltensmerkmale einer in einem Bild erscheinenden Person. Die körperlichen Merkmale können körperinhärente visuelle Merkmale wie beispielsweise eine Körpergröße, eine gewählte Bekleidung, ein Vorhandensein oder Fehlen einer Brille, eine Hautfarbe, eine Haarfarbe oder eine Ohrgröße sein, oder können auch andere Merkmale wie beispielsweise eine durchschnittliche Körpertemperatur, einen Geruch und eine Sprachqualität beinhalten. Die Verhaltensmerkmale sind insbesondere verhaltensbegleitende Merkmale, wie beispielsweise ein Ort, den der Benutzer bevorzugt, eine Lebhaftigkeit der Bewegung und ein Vorhandensein oder Fehlen des Rauchens. So extrahiert der Roboter 100 beispielsweise Verhaltensmerkmale, dass ein als Vater identifizierter Besitzer oft außerhalb des Hauses ist und zu Hause oft bewegungslos auf einem Sofa liegt, aber eine Mutter oft in einer Küche ist und ein Aktivitätsbereich umfassend ist.
  • Der Roboter 100 clustert Benutzer, die mit hoher Häufigkeit erscheinen, als „Besitzer“, basierend auf körperlichen Merkmalen und Verhaltensmerkmalen, die aus einer großen Menge von Bildinformationen oder anderen Messinformationen gewonnen werden.
  • Obwohl ein Verfahren zur Identifizierung eines Benutzers anhand der Benutzerkennung einfach und zuverlässig ist, ist es eine Voraussetzung, dass der Benutzer eine Vorrichtung hat, die eine Benutzerkennung bereitstellen kann. Währenddessen ist das Verfahren zur Identifizierung eines Benutzers anhand von körperlichen Merkmalen oder Verhaltensmerkmalen dergestalt, dass ein Bilderkennungsverfahren umfangreich ist, aber es hat den Vorteil, dass auch ein Benutzer, der keine mobile Vorrichtung hat, identifiziert werden kann. Eines der beiden Verfahren kann allein angewendet werden, oder die Benutzeridentifikation kann unter Verwendung der beiden Verfahren zusammen in ergänzender Weise durchgeführt werden.
  • In dieser Ausführungsform werden die Benutzer auf der Grundlage von körperlichen Merkmalen und Verhaltensmerkmalen geclustert, und ein Benutzer wird unter Verwendung von Deep-Learning (ein mehrschichtiges neuronales Netzwerk) identifiziert. Einzelheiten werden nachfolgend beschrieben.
  • Der Roboter 100 weist für jeden Benutzer einen internen Vertrautheitsparameter auf. Wenn der Roboter 100 eine Handlung erkennt, die eine Zuneigung gegenüber dem Roboter 100 andeutet, wie beispielsweise das Anheben des Roboters 100 oder das Sprechen mit dem Roboter 100, nimmt die Vertrautheit bezüglich dieses Benutzers zu. Die Vertrautheit nimmt bezüglich eines Benutzers ab, der nicht mit dem Roboter 100 beschäftigt ist, eines Benutzers, der sich grob verhält oder eines selten angetroffenen Benutzers.
  • Die Datenverarbeitungseinheit 202 beinhaltet eine Positionsverwaltungseinheit 208, eine Kartenverwaltungseinheit 210, eine Erkennungseinheit 212, eine Vorgangssteuerungseinheit 222 und eine Vertrautheitsverwaltungseinheit 220.
  • Die Positionsverwaltungseinheit 208 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des in 4 beschriebenen Verfahrens. Die Positionsverwaltungseinheit 208 kann auch die Positionskoordinaten eines Benutzers in Echtzeit nachverfolgen.
  • Die Kartenverwaltungseinheit 210 ändert den Parameter jeder Koordinate in den mehreren Handlungskarten unter Verwendung des in Verbindung mit 5 beschriebenen Verfahrens. Die Kartenverwaltungseinheit 210 kann eine der mehreren Handlungskarten auswählen oder kann einen gewichteten Mittelwert der z-Werte der mehreren Handlungskarten bilden. Beispielsweise wird angenommen, dass die z-Werte bei einer Koordinate R1 und einer Koordinate R2 auf einer Handlungskarte A die Werte 4 und 3 haben, und die z-Werte bei der Koordinate R1 und der Koordinate R2 auf einer Handlungskarte B die Werte -1 und 3 haben. Bei der Bildung eines einfachen Mittelwerts beträgt der gesamte z-Wert bei der Koordinate R1 4 - 1 = 3, und der gesamte z-Wert bei der Koordinate R2 beträgt 3 + 3 = 6, weswegen der Roboter 100 in Richtung der Koordinate R2 statt in Richtung der Koordinate R1 steuert.
  • Wenn die Handlungskarte A 5-fach bezüglich der Handlungskarte B gewichtet wird, beträgt der gesamte z-Wert bei der Koordinate R1 4 * 5 - 1 = 19 und der gesamte z-Wert an der Koordinate R2 3 * 5 + 3 = 18, weswegen der Roboter 100 in Richtung der Koordinate R1 steuert.
  • Die Erkennungseinheit 212 erkennt eine äußere Umgebung. In die Erkennung der äußeren Umgebung sind verschiedene Arten der Erkennung einbezogen, wie beispielsweise die Erkennung von Wetter oder Jahreszeit basierend auf Temperatur und Luftfeuchtigkeit, und die Erkennung von Schutz (ein sicherer Bereich) basierend auf einem Maß an Licht und Temperatur. Die Erkennungseinheit 212 beinhaltet ferner eine Personenerkennungseinheit 214 und eine Reaktionserkennungseinheit 228. Die Personenerkennungseinheit 214 erkennt eine Person anhand eines Bildes, das von der im Roboter 100 integrierten Kamera gefilmt wurde, und extrahiert die körperlichen Merkmale und Verhaltensmerkmale der Person. Ferner bestimmt die Personenerkennungseinheit 214 basierend auf den in der Speichereinheit für individuelle Daten 218 registrierten körperlichen Merkmalsinformationen und Verhaltensmerkmalsinformationen welcher Person, wie beispielsweise einem Vater, einer Mutter oder einem ältesten Sohn, der gefilmte Benutzer, das heißt, der Benutzer, den der Roboter 100 ansieht, entspricht. Die Personenerkennungseinheit 214 beinhaltet eine Ausdruckserkennungseinheit 230. Die Ausdruckserkennungseinheit 230 leitet ein Gefühl eines Benutzers unter Verwendung der Bilderkennung eines Ausdrucks des Benutzers ab.
  • Zusätzlich zu einer Person extrahiert die Personenerkennungseinheit 214 beispielsweise auch Merkmale einer Katze oder eines Hundes, die bzw. der ein Haustier ist.
  • Die Reaktionserkennungseinheit 228 erkennt verschiedene Reaktionshandlungen, die bezüglich des Roboters 100 durchgeführt werden, und klassifiziert die Handlungen als angenehme oder unangenehme Handlungen. Die Reaktionserkennungseinheit 228 erkennt ebenfalls eine Reaktionshandlung eines Besitzers bezüglich einer Handlung des Roboters 100, wodurch die Reaktionshandlung als positive oder negative Reaktion klassifiziert wird.
  • Angenehme und unangenehme Handlungen werden in Abhängigkeit davon unterschieden, ob eine Reaktionshandlung eines Benutzers angenehm oder unangenehm für ein Tier ist. Zum Beispiel ist das Umarmtwerden eine angenehme Handlung für den Roboter 100, und das Getretenwerden ist eine unangenehme Handlung für den Roboter 100. Positive und negative Reaktionen werden in Abhängigkeit davon unterschieden, ob eine Reaktionshandlung eines Benutzers auf eine angenehme Emotion oder eine unangenehme Emotion des Benutzers hinweist. Zum Beispiel ist das Umarmtwerden eine positive Reaktion, die auf eine angenehme Emotion des Benutzers hinweist, und das Getretenwerden ist eine negative Reaktion, die auf eine unangenehme Emotion des Benutzers hinweist.
  • Die Vorgangssteuerungseinheit 222 des Servers 200 bestimmt eine Bewegung und des Roboters 100 in Zusammenarbeit mit einer Vorgangssteuerungseinheit 150 des Roboters 100. Die Vorgangssteuerungseinheit 222 des Servers 200 stellt einen Bewegungszielpunkt des Roboters 100 und eine Bewegungsroute für den Bewegungszielpunkt zusammen, basierend auf einer Handlungskartenauswahl durch die Kartenverwaltungseinheit 210. Die Vorgangssteuerungseinheit 222 stellt mehrere Bewegungsrouten zusammen und kann danach eine beliebige der Bewegungsrouten auswählen. Die Vorgangssteuerungseinheit 222 wählt eine Bewegung des Roboters 100 aus mehreren Grundbewegungen der Speichereinheit für Grundbewegungen 232 oder eine Sonderbewegung der Speichereinheit für Sonderbewegungen 242 aus. Eine Auswahlwahrscheinlichkeit ist mit jeder Bewegung für jede Situation korreliert. Beispielsweise ist ein Auswahlverfahren definiert, bei dem eine Bewegung A mit einer Wahrscheinlichkeit von 20 % ausgeführt wird, wenn eine angenehme Handlung von einem Besitzer ausgeführt wird, und eine Bewegung B mit einer Wahrscheinlichkeit von 5 % ausgeführt wird, wenn eine Temperatur 30 Grad oder mehr erreicht.
  • Die Vertrautheitsverwaltungseinheit 220 verwaltet die Vertrautheit für jeden Benutzer. Wie vordem beschrieben, ist die Vertrautheit als ein Teil der individuellen Daten in der Speichereinheit für individuelle Daten 218 registriert. Wenn eine angenehme Handlung erkannt wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit bezüglich dieses Benutzers. Wenn eine unangenehme Handlung erkannt wird, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit. Außerdem nimmt die Vertrautheit eines Besitzers, der während eines längeren Zeitraums nicht visuell erkannt wurde, allmählich ab.
  • Der Roboter 100 beinhaltet eine Kommunikationseinheit 142, eine Datenverarbeitungseinheit 136, eine Datenspeichereinheit 148 und einen Antriebsmechanismus 120.
  • Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe 6) und verwaltet einen Vorgang der Kommunikation mit dem externen Sensor 114 und dem Server 200. Die Datenspeichereinheit 148 speichert verschiedene Arten von Daten. Die Datenspeichereinheit 148 entspricht der Speichervorrichtung 124 (siehe 6). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Verfahren auf der Grundlage der von der Kommunikationseinheit 142 erfassten Daten und den in der Datenspeichereinheit 148 gespeicherten Daten aus. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 und einem vom Prozessor 122 ausgeführten Computerprogramm. Die Datenverarbeitungseinheit 136 arbeitet ebenfalls als eine Schnittstelle der Kommunikationseinheit 142, des internen Sensors 128, des Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Die Datenspeichereinheit 148 beinhaltet die Bewegungsspeichereinheit 160, die verschiedene Bewegungsarten des Roboters 100 definiert, und die Speichereinheit für Handlungseinschränkungsinformationen 138.
  • Eine Bewegungsdatei, in die verschiedene Arten von Bewegungsdateien von der Speichereinheit für Grundbewegungen 232 und der Speichereinheit für Sonderbewegungen 242 des Servers 200 heruntergeladen werden, ist in der Bewegungsspeichereinheit 160 des Roboters 100 gespeichert. Eine Bewegung ist durch eine Bewegungskennung gekennzeichnet. Ein Vorgangszeitpunkt, eine Vorgangszeit, eine Vorgangsrichtung und dergleichen der verschiedenen Stellgliedarten (der Antriebsmechanismus 120) sind chronologisch in der Bewegungsdatei definiert, um verschiedene Bewegungen auszuführen, wie beispielsweise das Hinsetzen durch Einfahren der Vorderräder 102, das Anheben des Arms 106, den Roboter 100 eine drehende Handlung ausführen lassen, indem bewirkt wird, dass sich die beiden Vorderräder 102 rückwärts drehen oder nur ein Vorderrad 102 dreht, das Schütteln, indem die Vorderräder 102 in einem Zustand gedreht werden, in dem die Vorderräder 102 eingefahren sind, oder das einmalige Anhalten und Zurückschauen beim Bewegen weg von einem Benutzer.
  • Die Speichereinheit für Handlungseinschränkungsinformationen 138 speichert in gleicher Weise wie die Speichereinheit für Handlungseinschränkungsinformationen 240 des Servers 200 Handlungseinschränkungsinformationen zur Kleidung.
  • Die Kommunikationseinheit 142 beinhaltet eine Bewegungserfassungseinheit 184. Wenn eine Kleidungskennung erkannt wird, das heißt, wenn ein Tragen von Kleidung erkannt wird, erfasst die Bewegungserfassungseinheit 184 die der Kleidungskennung entsprechenden Kleidungsattributinformationen (Handlungseinschränkungsinformationen und eine Sonderbewegung) vom Server 200. Wenn der Server 200 nicht über die Kleidungsattributinformationen der vom Roboter 100 getragenen Kleidung verfügt, lädt der Server 200 die Kleidungsattributinformationen herunter, indem er eine Anfrage an die externe Datenbank 182 stellt.
  • Die Datenverarbeitungseinheit 136 beinhaltet eine Ausstattungserkennungseinheit 186, eine Einschränkungsbestimmungseinheit 188, eine Erkennungseinheit 156 und die Vorgangssteuerungseinheit 150.
  • Die Vorgangssteuerungseinheit 150 des Roboters 100 bestimmt eine Bewegung des Roboters 100 in Zusammenarbeit mit der Vorgangssteuerungseinheit 222 des Servers 200. Ein Teil der Bewegungen kann vom Server 200 bestimmt werden und andere Bewegungen können vom Roboter 100 bestimmt werden. Auch wenn der Roboter 100 eine Bewegung bestimmt, kann der Server 200 die Bewegung bestimmen, wenn eine Verarbeitungslast des Roboters 100 hoch ist. Eine Bewegung, die eine Basis bildet, kann im Server 200 bestimmt werden, und eine zusätzliche Bewegung kann im Roboter 100 bestimmt werden. Es ist ausreichend, dass die Aufteilung eines Bewegungsbestimmungsverfahrens zwischen dem Server 200 und dem Roboter 100 nach den Vorgaben des Robotersystems 300 konzipiert ist.
  • Die Vorgangssteuerungseinheit 150 des Roboters 100 bestimmt zusammen mit der Vorgangssteuerungseinheit 222 des Servers 200 eine Bewegungsrichtung des Roboters 100. Eine auf einer Handlungskarte basierende Bewegung kann vom Server 200 bestimmt werden, und eine sofortige Bewegung, wie beispielsweise das Vermeiden eines Hindernisses, kann durch die Vorgangssteuerungseinheit 150 des Roboters 100 bestimmt werden. Der Antriebsmechanismus 120 bewirkt, dass sich der Roboter 100 durch Antreiben der Vorderräder 102 gemäß einer Anweisung der Vorgangssteuerungseinheit 150 auf einen Zielpunkt zubewegt.
  • Obwohl es eine Handlungskarte ist, die das Hauptelement der Bewegungsrichtung des Roboters 100 bestimmt, kann der Roboter 100 auch eine Handlung entsprechend der Vertrautheit durchführen.
  • Die Vorgangssteuerungseinheit 150 des Roboters 100 weist den Antriebsmechanismus 120 an, eine ausgewählte Bewegung auszuführen. Der Antriebsmechanismus 120 steuert jedes Stellglied entsprechend der Bewegungsdatei.
  • Die Vorgangssteuerungseinheit 150 kann auch eine Bewegung des Hochhaltens beider Arme 106 als eine Geste der Bitte um „eine Umarmung“ durchführen, wenn sich ein Benutzer mit einem hohen Grad an Vertrautheit in der Nähe befindet, und kann auch eine Bewegung des Nicht-länger-umarmt-werden-Wollens ausführen, indem abwechselnd und wiederholt bewirkt wird, dass sich die rechten und linken Vorderräder 102 in Gegenrichtung drehen und in einem eingefahrenen Zustand anhalten, wenn die „Umarmung“ langweilig wird. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 verschiedene Bewegungen ausführt, indem er die Vorderräder 102, den Arm 106 und den Hals (den Kopfeinheitrahmen 316) entsprechend einer Anweisung der Vorgangssteuerungseinheit 150 antreibt.
  • Beim Lesen der Kleidungskennung von dem in der Kleidung 180 eingebetteten RFID-Etikett bestimmt die Ausstattungserkennungseinheit 186, dass die Kleidung 180 angezogen wurde. Der Kleidungskennung kann im Nahbereich gelesen werden. Wenn mehrere Kleidungskennungen gelesen werden, wird bestimmt, dass die Kleidung in Lagen getragen wird. Wenn in der Bewegungsspeichereinheit 160 bereits Kleidungsattributinformationen entsprechend der Kleidungskennung vorhanden sind, ändert die Vorgangssteuerungseinheit 150 eine Vorgangseinstellung gemäß den Kleidungsattributinformationen mittels eines nachfolgend beschriebenen Verfahrens.
  • Zusätzlich zu einem RFID-Etikett kann die Ausstattungserkennungseinheit 186 erkennen, dass Kleidung mit verschiedenen Verfahren angezogen wurde.
  • Beispielsweise kann die Ausstattungserkennungseinheit 186 bestimmen, dass Kleidung angezogen wurde, wenn eine Innentemperatur des Roboters 100 ansteigt. Angezogene Kleidung kann anhand eines Bildes mit der Kamera erkannt werden. Ein kapazitiver Sensor kann über einen weiten Bereich der Außenhaut 314 installiert sein, und die Ausstattungserkennungseinheit 186 kann bestimmen, dass Kleidung angezogen wurde, wenn der kapazitive Sensor eine Berührung über einen weiten Bereich erkennt. Im Folgenden wird das Erkennen, dass Kleidung angezogen wurde, das auf physikalischen Informationen wie Bildinformationen, Temperaturinformationen oder taktilen Informationen statt auf einem RFID-Etikett basiert, als „physikalische Erkennung“ bezeichnet.
  • Ein Besitzer möchte den Roboter 100 möglicherweise in Kleidung kleiden, die keine Kleidungskennung aufweist, z. B. Kleidung, die vom Besitzer hergestellt wurde. Im Folgenden wird Kleidung, für die die Kleidungskennung mit einem RFID-Etikett registriert ist, als „offizielle Kleidung“ bezeichnet, und Kleidung, für die keine Kleidungskennung mit einem RFID-Etikett registriert ist, als „inoffizielle Kleidung“ bezeichnet. Wenn nicht besonders unterschieden, wird Kleidung einfach „Kleidung“ genannt.
  • Wenn es keine Kleidungsattributinformationen gibt, die der Kleidungskennung in der Bewegungsspeichereinheit 160 entsprechen, sendet die Bewegungserfassungseinheit 184 die Kleidungskennung an den Server 200 und lädt Kleidungsattributinformationen (eine Bewegungsdatei und Handlungseinschränkungsinformationen) herunter. Wenn es auch auf dem Server 200 keine Kleidungsattributinformationen gibt, lädt der Server 200 die Kleidungsattributinformationen von der externen Datenbank 182 herunter. Wenn es auch in der externen Datenbank 182 keine Kleidungsattributinformationen gibt, wird die Kleidung als inoffizielle Kleidung behandelt.
  • Die Einschränkungsbestimmungseinheit 188 bestimmt eine Handlungseinschränkung von Kleidung basierend auf Handlungseinschränkungsinformationen unter Kleidungsattributinformationen. Die Vorgangssteuerungseinheit 150 korrigiert einen Vorgang des Roboters 100 basierend auf einem Ergebnis der Bestimmung. Im Falle von inoffizieller Kleidung misst die Vorgangssteuerungseinheit 150 die auf jedes Stellglied angelegten Leistung und eine Betätigungsgröße davon und zeichnet die Messungen als Betriebsdaten auf. Die Einschränkungsbestimmungseinheit 188 bestimmt basierend auf den Betriebsdaten die Handlungseinschränkung.
  • Die Erkennungseinheit 156 analysiert vom internen Sensor 128 erhaltene externe Informationen. Die Erkennungseinheit 156 ist zur visuellen Erkennung (eine visuelle Einheit), Geruchserkennung (eine Geruchseinheit), Klangerkennung (eine Höreinheit) und taktilen Erkennung (eine taktile Einheit) in der Lage.
  • Die Erkennungseinheit 156 filmt mithilfe der integrierten Kamera (dem internen Sensor 128) regelmäßig einen äußeren Betrachtungswinkel und erkennt ein sich bewegendes Objekt wie beispielsweise eine Person oder ein Haustier. Merkmale davon werden zu dem Server 200 übertragen, und die Personenerkennungseinheit 214 des Servers 200 extrahiert die körperlichen Merkmale des sich bewegenden Objekts. Zudem erkennt die Erkennungseinheit 156 auch einen Geruch des Benutzers und eine Stimme des Benutzers. Der Geruch und Klang (Stimme) werden nach einem bereits bekannten Verfahren in mehrere Arten eingeteilt.
  • Wenn eine starke Kraft auf den Roboter 100 ausgeübt wird, erkennt die Erkennungseinheit 156 dies mithilfe eines eingebauten Beschleunigungssensors, und die Reaktionserkennungseinheit 228 des Servers 200 erkennt, dass eine „gewalttätige Handlung“ von einem Benutzer in der Nähe durchgeführt wurde. Wenn ein Benutzer den Roboter 100 durch Greifen des Horns 112 anhebt, kann dies ebenfalls als gewalttätige Handlung erkannt werden. Wenn ein Benutzer in einem Zustand des Gegenüberstehens mit dem Roboter 100 in einem bestimmten Lautstärkebereich und einem bestimmten Frequenzband spricht, kann die Personenerkennungseinheit 228 des Servers 200 erkennen, dass eine „Sprechhandlung“ bezüglich des Roboters 100 durchgeführt wurde. Wenn eine Temperatur im Bereich der Körpertemperatur erkannt wird, erkennt die Reaktionserkennungseinheit 228 des Servers 200 außerdem, dass eine „Berührungshandlung“ von einem Benutzer durchgeführt wurde, und wenn eine Aufwärtsbeschleunigung in einem Zustand erkannt wird, in dem eine Berührung erkannt wird, erkennt die Reaktionserkennungseinheit 228 des Servers 200, dass eine „Umarmung“ durchgeführt wurde. Körperkontakt, wenn ein Benutzer den Körper 104 anhebt, kann ebenfalls wahrgenommen werden, und eine Umarmung kann auch durch eine auf die Vorderräder 102 wirkende Last erkannt werden, die abnimmt.
  • Die Reaktionserkennungseinheit 228 des Servers 200 erkennt verschiedene Arten von Reaktionen eines Benutzers gegenüber dem Roboter 100. „Angenehm“ oder „unangenehm“, „positiv“ oder „negativ“ sind mit einem Teil von typischen Reaktionshandlungen unter verschiedenen Arten von Reaktionshandlungen korreliert. Im Allgemeinen sind fast alle Reaktionshandlungen, die angenehme Handlungen sind, positive Reaktionen, und fast alle Reaktionshandlungen, die unangenehme Handlungen sind, sind negative Reaktionen. Angenehme und unangenehme Handlungen beziehen sich auf die Vertrautheit, und positive und negative Reaktionen beeinflussen die Handlungsauswahl des Roboters 100.
  • Eine Reihe von Erkennungsverfahren, einschließlich Erkennen, Analysieren und Bestimmen, können von der Erkennungseinheit 212 des Servers 200 allein ausgeführt werden oder von der Erkennungseinheit 156 des Roboters 100 allein ausgeführt werden, oder die beiden können die Erkennungsverfahren unter Aufteilung der Rollen ausführen.
  • Die Vertrautheitsverwaltungseinheit 220 des Servers 200 ändert die Vertrautheit gegenüber einem Benutzer gemäß einer von der Erkennungseinheit 156 erkannten Reaktionshandlung. Im Wesentlichen nimmt die Vertrautheit gegenüber einem Benutzer zu, der eine angenehme Handlung ausführt, während die Vertrautheit gegenüber einem Benutzer, der eine unangenehme Handlung ausführt, abnimmt.
  • Die Erkennungseinheit 212 des Servers 200 kann bestimmen, ob eine Reaktion angenehm oder unangenehm ist, und die Kartenverwaltungseinheit 210 des Servers 200 kann auf einer Handlungskarte, die die „Verbundenheit mit einem Ort“ darstellt, den z-Wert des Punktes ändern, an dem die angenehme oder unangenehme Handlung ausgeführt wurde. Wenn beispielsweise eine angenehme Handlung in einem Wohnzimmer ausgeführt wird, kann die Kartenverwaltungseinheit 210 einen bevorzugten Punkt mit hoher Wahrscheinlichkeit im Wohnzimmer festlegen. In diesem Fall wird ein positiver Rückmeldungsnutzen dadurch realisiert, dass der Roboter 100 das Wohnzimmer favorisiert und das Wohnzimmer weiter favorisiert, da er Empfänger einer angenehmen Handlung im Wohnzimmer ist.
  • Die Personenerkennungseinheit 214 des Servers 200 erkennt ein sich bewegendes Objekt aus verschiedenen Arten von Daten, die vom externen Sensor 114 oder dem internen Sensor 128 erhalten werden, und extrahiert daraus Merkmale (körperliche Merkmale und Verhaltensmerkmale). Darüber hinaus führt die Personenerkennungseinheit 214 eine Clusteranalyse mehrerer sich bewegende Objekte anhand dieser Merkmale durch. Nicht nur ein Mensch, sondern auch ein Haustier wie beispielsweise ein Hund oder eine Katze können ein Ziel der Analyse als bewegliches Objekt sein.
  • Der Roboter 100 führt regelmäßig eine Bildaufnahme aus, und die Personenerkennungseinheit 214 erkennt ein sich bewegendes Objekt aus den Bildern und extrahiert Merkmale des sich bewegenden Objekts. Wenn ein sich bewegendes Objekt erkannt wird, werden körperliche Merkmale und Verhaltensmerkmale auch vom Geruchssensor, dem integrierten Mikrofon mit hoher Richtwirkung, dem Temperatursensor und dergleichen extrahiert. Wenn beispielsweise ein sich bewegendes Objekt in einem Bild erscheint, werden verschiedene Merkmale extrahiert, wie beispielsweise ein Bart, aktiv sein am frühen Morgen, das Tragen von roter Kleidung, das Riechen von Parfüm, eine laute Stimme, das Tragen einer Brille, das Tragen eines Rockes, das Vorhandensein von weißen Haaren, groß sein, füllig sein, sonnengebräunt sein oder sich auf einem Sofa befinden.
  • Wenn ein sich bewegendes Objekt (Benutzer) mit Bart oft am frühen Morgen aktiv ist (steht früh auf) und selten rote Kleidung trägt, wird ein erstes Profil erstellt, das ein Cluster (Benutzer) ist, das früh aufsteht, einen Bart hat und nicht oft rote Kleidung trägt. Währenddessen wird ein zweites Profil erstellt, das ein Cluster (Benutzer) ist, das eine Brille trägt und einen Rock trägt, aber definitiv keinen Bart hat, wenn ein sich bewegendes Objekt mit Brille oft einen Rock trägt, das sich bewegende Objekt aber keinen Bart hat.
  • Obwohl es sich bei dem vorstehend genannten Beispiel um ein einfaches Beispiel handelt, werden das erste Profil, das einem Vater entspricht, und das zweite Profil, das einer Mutter entspricht, nach dem vordem beschriebenen Verfahren gebildet, und der Roboter 100 erkennt, dass es in diesem Haus mindestens zwei Benutzer (Eigentümer) gibt.
  • Man beachte, dass der Roboter 100 nicht erkennen muss, dass das erste Profil der „Vater“ ist. In allen Fällen reicht es aus, dass der Roboter 100 eine Figur erkennen kann, die „ein Cluster mit Bart ist, oft früh aufsteht und selten rote Kleidung trägt“.
  • Es wird angenommen, dass der Roboter 100 ein sich bewegendes Objekt (Benutzer) in einem Zustand, in dem diese Art der Clusteranalyse abgeschlossen ist, neu erkennt.
  • Zu diesem Zeitpunkt extrahiert die Personenerkennungseinheit 214 des Servers 200 Merkmale von Messinformationen eines Bildes oder dergleichen, die vom Roboter 100 erhalten wurden, und bestimmt unter Verwendung von Deep-Learning (ein mehrschichtiges neuronales Netzwerk), welchem Cluster ein sich bewegendes Objekt in der Nähe des Roboters 100 entspricht. Wenn beispielsweise ein sich bewegendes Objekt mit einem Bart erkannt wird, ist die Wahrscheinlichkeit hoch, dass das sich bewegende Objekt der Vater ist. Wenn das sich bewegende Objekt früh am Morgen aktiv ist, ist es noch sicherer, dass das sich bewegende Objekt dem Vater entspricht. Wenn währenddessen ein sich bewegendes Objekt erkannt wird, das eine Brille trägt, besteht die Möglichkeit, dass das sich bewegende Objekt die Mutter ist. Wenn das sich bewegende Objekt einen Bart hat, ist das sich bewegende Objekt weder die Mutter noch der Vater, weswegen die Personenerkennungseinheit 214 bestimmt, dass das sich bewegende Objekt eine neue Person ist, die nicht clusteranalysiert wurde.
  • Die Bildung eines Clusters durch Merkmalsextraktion (Clusteranalyse) und die Anwendung auf eine clusterbegleitende Merkmalsextraktion (Deep-Learning) können gleichzeitig ausgeführt werden.
  • Die Vertrautheit mit einem sich bewegenden Objekt (Benutzer) ändert sich entsprechend der Art der Behandlung des Roboters 100 durch den Benutzer.
  • Der Roboter 100 legt eine hohe Vertrautheit fest für eine häufig angetroffene Person, eine Person, die den Roboter 100 häufig berührt, und eine Person, die häufig mit dem Roboter 100 spricht. Währenddessen nimmt die Vertrautheit für eine selten gesehene Person ab, eine Person, die den Roboter 100 nicht oft berührt, eine gewalttätige Person und eine Person, die mit lauter Stimme schimpft. Der Roboter 100 ändert die Vertrautheit jedes Benutzers auf der Grundlage verschiedener Elemente der Informationen des Außenwinkels, die von den Sensoren erfasst werden (visuell, taktil und akustisch).
  • Der eigentliche Roboter 100 führt autonom eine komplexe Handlungsauswahl entsprechend einer Handlungskarte aus. Der Roboter 100 handelt, während er von mehreren Handlungskarten beeinflusst ist, die auf verschiedenen Parametern wie beispielsweise Einsamkeit, Langeweile und Neugierde basieren. Wenn die Wirkung der Handlungskarten beseitigt ist oder bei einem internen Zustand, bei dem die Wirkung der Handlungskarten gering ist, versucht der Roboter 100 im Wesentlichen, sich einer Person mit hoher Vertrautheit zu nähern, und versucht, sich von einer Person mit niedriger Vertrautheit zu entfernen.
  • Die Handlungen des Roboters 100 sind nachstehend entsprechend der Vertrautheit eingeteilt.
  • (1) Ein Cluster mit extrem hoher Vertrautheit
  • Der Roboter 100 drückt nachdrücklich ein Gefühl der Zuneigung aus, indem er sich einem Benutzer nähert (nachfolgend als „Annäherungshandlung“ bezeichnet) und eine liebevolle Geste ausführt, die im Voraus als eine Geste definiert ist, die Wohlwollen gegenüber einer Person andeutet.
  • (2) Ein Cluster mit vergleichsweise hoher Vertrautheit
  • Der Roboter 100 führt nur eine Annäherungshandlung aus.
  • (3) Ein Cluster mit vergleichsweise niedriger Vertrautheit
  • Der Roboter 100 führt keine besondere Handlung aus.
  • (4) Ein Cluster mit besonders niedriger Vertrautheit
  • Der Roboter 100 führt eine Rückzugshandlung aus.
  • Gemäß dem bisher beschriebenen Steuerungsverfahren nähert sich der Roboter 100 dem Benutzer, wenn er einen Benutzer mit hoher Vertrautheit findet, und entfernt sich umgekehrt vom Benutzer, wenn er einen Benutzer mit niedriger Vertrautheit findet. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 durch die Verhaltensweise eine sogenannte „Schüchternheit“ ausdrücken. Wenn ein Besucher (ein Benutzer A mit niedriger Vertrautheit) erscheint, kann sich der Roboter 100 außerdem vom Besucher wegbewegen und auf ein Familienmitglied (ein Benutzer B mit hoher Vertrautheit) zubewegen. In diesem Fall kann Benutzer B wahrnehmen, dass der Roboter 100 schüchtern ist und sich unwohl fühlt und sich auf Benutzer B verlässt. Durch diese Art von Verhaltensausdruck werden bei Benutzer B die Freude, auserwählt zu sein und des sich auf ihn Verlassens, sowie ein damit verbundenes Gefühl der Zuneigung hervorgerufen.
  • Wenn indes der Benutzer A, der ein Besucher ist, den Roboter 100 häufig besucht und mit ihm spricht und ihn berührt, steigt die Vertrautheit des Roboters 100 gegenüber Benutzer A allmählich an, und der Roboter 100 hört auf, eine Schüchternheitshandlung (eine Rückzugshandlung) gegenüber Benutzer A auszuführen. Benutzer A kann auch Zuneigung gegenüber dem Roboter 100 empfinden, indem er wahrnimmt, dass sich der Roboter 100 an Benutzer A gewöhnt hat.
  • Die bisher beschriebene Handlungsauswahl muss nicht unbedingt ständig ausgeführt werden. Wenn beispielsweise ein interner Parameter, der die Neugier des Roboters 100 angibt, hoch ist, wird einer Handlungskarte Gewicht gegeben, aus der ein Ort ermittelt wird, an dem die Neugierde befriedigt wird, weswegen auch eine Möglichkeit besteht, dass der Roboter 100 keine von Vertrautheit beeinflusste Handlung auswählt. Wenn der im Flur installierte Außensensor 114 die Heimkehr eines Benutzers erfasst, kann der Roboter 100 mit maximaler Priorität auch eine Handlung zur Begrüßung des Benutzers ausführen.
  • 8 ist ein Diagramm, das schematisch eine Beziehung zwischen einer Leistung und einer Betätigungsgröße eines Stellglieds darstellt.
  • Eine horizontale Achse zeigt einen Ausgangswert (Ausgangsspannung) eines Stellglieds, und eine vertikale Achse zeigt eine tatsächliche Betätigungsgröße (Bewegungsgröße oder Rotationsgröße) des Stellglieds. Eine unbekleidete Charakteristik 190 zeigt eine Charakteristik, wenn der Roboter 100 die Kleidung 180 nicht trägt. Eine bekleidete Charakteristik 192 zeigt eine Charakteristik, wenn der Roboter 100 die Kleidung 180 trägt. Im entkleideten Zustand ist eine Betätigungsgröße, die einer Leistung P1 entspricht, D2. Da ein Betrieb des Roboters 100 beim Tragen der Kleidung 180 eingeschränkt ist, ist die Betätigungsgröße bezogen auf die Leistung P1 D1, was kleiner als D2 ist.
  • Um die Betätigungsgröße D2 im bekleideten Zustand des Roboters 100 zu realisieren, muss die Leistung des Stellglieds auf P2 eingestellt sein, was größer als P1 ist. Die Größe der Handlungseinschränkung ist bei jedem Kleidungsstück 180 unterschiedlich. Durch die Vorgangssteuerungseinheit 150 des Roboters 100, die die Leistung jeder Art von Stellglied gemäß der Handlungseinschränkung der Kleidung 180 regelt, wird auch beim Tragen der Kleidung 180 eine gegenüber dem ausgezogenen Zustand unveränderte Betätigungsgröße realisiert.
  • 9 ist ein Datenstrukturdiagramm einer Speichereinheit für Handlungseinschränkungsinformationen 240.
  • Die Kleidungskennung und Kleidungsaktionseinschränkungsinformationen sind in der Speichereinheit für Handlungseinschränkungsinformationen 240 des Servers 200 korreliert. Wie bereits beschrieben, beinhaltet der Roboter 100 mehrere Stellglieder. Beispielsweise hat Kleidung mit der Kleidungskennung = 01 (im Folgenden als „Kleidung (01)“ bezeichnet) keinerlei Auswirkung auf einen Vorgang eines Stellglieds 1, sondern schränkt den Vorgang eines Stellglieds 2 um 5 % ein. Um dies in Bezug auf 8 auszudrücken, entspricht die Betätigungsgröße D1 des Stellglieds 2 95 % von D2. Folglich muss die Vorgangssteuerungseinheit 150 beim Tragen der Kleidung (01) die Einstellung der Leistung des Stellglieds 2 so ändern, dass sie größer ist als beim ausgezogenen Zustand.
  • Wenn die Ausstattungserkennungseinheit 186 eine Kleidungskennung erkennt, bezieht sich die Einschränkungsbestimmungseinheit 188 auf die Handlungseinschränkungsinformationen und bestimmt die Handlungseinschränkung der Kleidung bezüglich jedes Stellglieds. Die Einschränkungsbestimmungseinheit 188 informiert die Vorgangssteuerungseinheit 150 über einen Ausgangsregelwert (Korrekturwert) für jedes Stellglied. Dementsprechend führt die Vorgangssteuerungseinheit 150 für jedes Stellglied eine Leistungsregelung, d. h. eine Vorgangskorrektur, durch.
  • Die Kleidungskennung und die Kategoriekennung können in der Speichereinheit für Handlungseinschränkungsinformationen 240 korreliert sein, und die Handlungseinschränkungsinformationen können für jedes Element der Kategoriekennung korreliert sein. Beispielsweise können allgemeine Handlungseinschränkungsinformationen in einer Kategorie festgelegt sein, die „Sommerkleidung“ entspricht. In diesem Fall genügt es, dass die Einschränkungsbestimmungseinheit 188 die Handlungseinschränkung aus der mit der Kleidungskennung korrelierten Kategoriekennung bestimmt.
  • 10 ist ein Flussdiagramm, das ein Vorgangskorrekturverfahren beim Tragen von Kleidung anzeigt.
  • Zunächst erkennt die Ausstattungserkennungseinheit 186 physikalisch, dass Kleidung getragen wird, basierend auf physikalischen Informationen wie Bildinformationen, Temperaturinformationen oder taktilen Informationen (S10). Wenn es nicht physikalisch erkannt werden kann, dass Kleidung getragen wird (N in S10), wird ein nachfolgender Prozess nicht ausgeführt. Wenn das Tragen von Kleidung physikalisch erkannt werden kann (Y in S10), bestimmt die Einschränkungsbestimmungseinheit 188 die Handlungseinschränkung der Kleidung (S14), wenn die Ausstattungserkennungseinheit 186 auch die Kleidungskennung (Y in S12) erkennen kann, das heißt, wenn offizielle Kleidung getragen wird. Wenn Handlungseinschränkungsinformationen in der Speichereinheit für Handlungseinschränkungsinformationen 138 des Roboters 100 gespeichert sind, bestimmt die Einschränkungsbestimmungseinheit 188 die Handlungseinschränkung basierend auf diesen Handlungseinschränkungsinformationen. Wenn keine Handlungseinschränkungsinformationen in der Speichereinheit für Handlungseinschränkungsinformationen 138 gespeichert werden, erfasst die Bewegungserfassungseinheit 184 die Handlungseinschränkungsinformationen vom Server 200.
  • Die Vorgangssteuerungseinheit 150 des Roboters 100 führt eine Vorgangskorrektur basierend auf den Handlungseinschränkungsinformationen (S16) durch. Insbesondere ändert die Vorgangssteuerungseinheit 150 die Einstellung der Leistung jedes Stellglieds basierend auf den Handlungseinschränkungsinformationen. Nach der Vorgangskorrektur betätigt die Vorgangssteuerungseinheit 150 tatsächlich jedes Stellglied und misst den Leistungswert und die Betätigungsgröße. Die Vorgangssteuerungseinheit 150 bezieht sich auf Vorgangsdaten, die eine Beziehung zwischen dem Leistungswert und der Betätigungsgröße anzeigen, und bestimmt, ob nach der Vorgangskorrektur (S18) eine gewünschte Betätigungsgröße realisiert wird.
  • Wenn die gewünschte Betätigungsgröße durch die Vorgangskorrektur von S16 (Y in S18) realisiert wird, legt die Vorgangssteuerungseinheit 150 ferner eine Sonderbewegung entsprechend der Kleidungskennung (S22) fest. Wenn es keine Bewegungsdatei einer Sonderbewegung in der Bewegungsspeichereinheit 160 des Roboters 100 gibt, erfasst die Bewegungserfassungseinheit 184 eine Bewegungsdatei vom Server 200.
  • Wenn indes die gewünschte Betätigungsgröße durch die Vorgangskorrektur (N in S18) nicht realisiert wird, führt der Roboter 100 einen Berichtsvorgang (S20) durch. In diesem Fall besteht eine Möglichkeit, dass sich der Roboter 100 trotz erkannter Kleidungskennung nicht richtig bewegen kann, weil die Kleidung nicht richtig getragen wird. Ein Berichtsvorgang ist ein Vorgang, der einen Besitzer darüber informiert, dass sich der Roboter 100 wegen der getragenen Kleidung nicht normal bewegen kann. Insbesondere führt die Vorgangssteuerungseinheit 150 einen Berichtsvorgang durch, bei dem beispielsweise bewirkt wird, dass das Auge aufleuchtet, Sprache ausgegeben wird oder der Körper geschüttelt wird. Es genügt, dass der Berichtsvorgang anfänglich als ein „typischer Vorgang (Bewegung), wenn Ihnen etwas erzählt wird“ vorab eingestellt ist, der dem Roboter 100 eigen ist.
  • Der Berichtsvorgang kann auch als Ablehnungsvorgang ausgedrückt werden. Ein Ablehnungsvorgang ist ein Vorgang, bei dem es der Roboter 100 ablehnt, die Kleidung 180 zu tragen. Insbesondere führt die Vorgangssteuerungseinheit 150 einen Ablehnungsvorgang durch, wie beispielsweise das Wegbewegen von einem Besitzer, das heftige Schütteln des Körpers oder überhaupt kein Bewegen. Es genügt, dass der Ablehnungsvorgang anfänglich als ein „typischer Vorgang (Bewegung), von Vorgängen, wenn Ihnen etwas erzählt wird, insbesondere bei einer Abneigung gegen etwas verwendet“ vorab eingestellt ist, der dem Roboter 100 eigen ist.
  • Obwohl die Bewegung des Roboters 100 durch Kleidung eingeschränkt ist, kann sich der Roboter 100 beim Tragen von Kleidung auf die gleiche Weise bewegen wie wenn keine Kleidung getragen wird, indem die Ausgangsregelung für jede Art von Stellglied entsprechend der Kleidung ausgeführt wird.
  • Wenn die Kleidungskennung nicht erkannt werden kann (N in S12), obwohl physikalisch erkannt werden kann, dass Kleidung getragen wird (Y in S10), das heißt, wenn inoffizielle Kleidung getragen wird, werden die Prozesse von S14 und S16 übersprungen. Im Falle von inoffizieller Kleidung reicht es aus, dass die Vorgangssteuerungseinheit 150 den Leistungswert und die Betätigungsgröße eines Stellglieds als Vorgangsdaten aufzeichnet, und die Einschränkungsbestimmungseinheit 188 bestimmt basierend auf den Vorgangsdaten die Größe der Handlungseinschränkung der inoffiziellen Kleidung. Die Vorgangssteuerungseinheit 150 führt die Leistungsregelung, d. h. die Vorgangskorrektur, für jedes Stellglied entsprechend einem Ergebnis der Bestimmung durch.
  • Wenn eine Handlungseinschränkung erkannt wird, obwohl das Tragen von Kleidung physikalisch nicht erkennbar ist, kann die Ausstattungserkennungseinheit 186 den Körper des Roboters 100 filmen und mittels Bilderkennung bestätigen, ob Kleidung getragen wird oder ob ein Objekt, das die Handlung einschränkt, am Körper haftet. Ferner kann ein Besitzer über ein Ergebnis der Bestätigung mithilfe von Sprache, Kommunikation oder einer schriftlichen Anzeige oder einem besonderen Berichtsvorgang oder dergleichen informiert werden.
  • 11 ist ein Datenstrukturdiagramm der Speichereinheit für Sonderbewegungen 242.
  • Die Handlungseinzelheiten des Roboters 100 können sich entsprechend der Kleidung ändern. Beispielsweise kann beim Tragen bestimmter Kleidung der Roboter 100 in die Lage versetzt werden, eine Sonderbewegung auszuführen, die der Kleidung eigen ist. Als Sonderbewegung ist es denkbar, beim Tragen eines Kostüms des Idols den gleichen Tanz wie ein Idol auszuführen, sich beim Tragen von Kleidung im japanischen Stil langsamer als sonst hinzusetzen, sich beim Tragen von Sportbekleidung energisch zu bewegen, und dergleichen.
  • Eine Sonderbewegung kann eine neue, zusätzliche Bewegung sein, die sich von einer Grundbewegung unterscheidet, oder kann eine Grundbewegung sein, die durch Regulierung verschiedener Arten der Festlegung der Grundbewegung angepasst wurde.
  • Wie in gezeigt, sind für die Kleidung eine „Tragebedingung“ und eine „Betätigungsbedingung“ festgelegt. Die Tragebedingung spezifiziert eine Situation, in der das Tragen der Kleidung vorgesehen ist (eine vorgesehene Tragebedingung). Der Roboter 100 erkennt das Tragen der Kleidung zu einem Zeitpunkt, der nicht der Tragebedingung als unangenehme Handlung entspricht. Die „Betätigungsbedingung“ ist ein Zeitpunkt, zu dem eine Sonderbewegung ausgeführt wird.
  • Beispielsweise hat die Kleidung (01) keine Tragebedingung. Aus diesem Grund kann die Kleidung (01) jederzeit dem Roboter 100 angezogen werden. Eine Sonderbewegung (C01) ist mit der Kleidung (01) korreliert, und die „Betätigungsbedingung“ der Sonderbewegung (C01) ist 10 Uhr morgens. Wenn der Roboter 100 die Kleidung (01) trägt, führt der Roboter 100 die Sonderbewegung (C01) mit einer vorbestimmten Wahrscheinlichkeit aus, wenn es 10 Uhr morgens wird.
  • Die Tragebedingung der Kleidung (02) ist „eine Lufttemperatur von 20 Grad oder höher“. Da die Kleidung (02) Sommerkleidung ist, führt die Vorgangssteuerungseinheit 150 einen Ablehnungsvorgang aus, die eine Abneigung gegen das Tragen der Kleidung (02) zeigt, wenn diese Kleidung (02) bei einer Lufttemperatur von weniger als 20 Grad getragen wird. Zwei Sonderbewegungen (C02 und C03) sind mit der Kleidung (02) korreliert. Die Betätigungsbedingung der Sonderbewegung (C02) ist „Musik A“. Wenn die Musik A beim Tragen der Kleidung (02) zu hören ist, führt die Vorgangssteuerungseinheit 150 die Sonderbewegung (C02) mit einer vorbestimmten Auswahlwahrscheinlichkeit aus. Die „Betätigungsbedingung“ der Sonderbewegung (C03) ist „drei Personen oder mehr visuell erkannt“. Wenn die eingebaute Kamera des Roboters 100 beim Tragen der Kleidung (02) drei oder mehr „Personen“ erkennt, wird die Sonderbewegung (C03) mit einer vorbestimmten Auswahlwahrscheinlichkeit ausgeführt.
  • Eine Sonderbewegung muss nicht fixiert sein. Beispielsweise kann eine Sonderbewegung für einen begrenzten Zeitraum vorbereitet werden. Es genügt, dass der Server 200 eine aktuelle Bewegungsdatei durch regelmäßigen Zugriff auf die externe Datenbank 182 erhält.
  • Wenn die Kleidung (01) und die Kleidung (03) in Lagen getragen werden, wird „ein Geburtstag“ als die „Betätigungsbedingung“ festgelegt. Wenn die Kleidung (01) und die Kleidung (03) am Geburtstag (Herstellungsdatum) des Roboters 100 in Lagen dem 100 angezogen werden, führt der Roboter 100 eine Sonderbewegung (C05) mit einer vorbestimmten Wahrscheinlichkeit aus. Wenn die Ausstattungserkennungseinheit 186 mehrere Kleidungskennungen erkennt, bestimmt die Ausstattungserkennungseinheit 186, dass Kleidung in Lagen getragen wird. Handlungseinschränkungsinformationen, wenn Kleidung in Lagen getragen wird, können separat vorbereitet werden, oder es kann eine Vorgangskorrektur basierend auf Handlungseinschränkungsinformationen von Kleidung durchgeführt werden, die als unterste von mehreren in Lagen getragenen Kleidungsstücken getragen wird. Die Vorgangskorrektur kann auch durch Berechnen eines Einschränkungswerts für jedes Stellglied durch Hinzufügen von Einschränkungsbedingungen für jedes einzelne von mehreren Kleidungsstücken durchgeführt werden.
  • Handlungseinschränkungsinformationen und eine Sonderbewegung können auch mit anderen Verzierungen als Kleidung korreliert werden. Eine Perücke, ein Hut, ein Täschchen, ein Accessoire, eine Krawatte, eine Brille und dergleichen sind als Verzierungen denkbar. Eine Sonderbewegung entsprechend einem Geruch wie beispielsweise Parfüm kann ebenfalls vorbereitet werden. Es genügt, dass die Ausstattungserkennungseinheit 186 erkennt, dass eine Verzierung getragen wird, indem sie eine Kennung erkennt, die die Verzierung identifiziert. Darüber hinaus können Handlungseinschränkungsinformationen oder eine Sonderbewegung als Reaktion auf eine Kombination aus Kleidung und einer Verzierung oder mehreren Verzierungen korreliert werden. Ferner kann die Vorgangssteuerungseinheit 150 bewirken, dass sich die Verhaltensmerkmale des Roboters 100 basierend auf den Handlungseinschränkungsinformationen oder der Sonderbewegung, die diesen Kombinationen entspricht, ändern.
  • Bisher wurden der Roboter 100 und das Robotersystem 300 einschließlich des Roboters 100 auf der Grundlage einer Ausführungsform beschrieben.
  • Der Roboter 100 führt eine Handlungsauswahl durch, die nicht mithilfe einer oder mehrerer Handlungskarten nachgebildet werden kann, und die schwer vorherzusagen und tierähnlich ist.
  • Das Verhalten einer Person wird durch verschiedene Faktoren beeinflusst, wobei die Kleidung einer davon ist. Die Stimmung einer Person ändert sich entsprechend der Kleidung, und das Verhalten ändert sich ebenfalls. Der Roboter 100 emuliert menschenähnliche Verhaltensmerkmale, indem er Verhaltensmerkmale entsprechend der Kleidung verändert. Es ist nicht wünschenswert, dass die Bewegung des Roboters 100 beim Tragen von Kleidung übermäßig langweilig wird. Da die Ausgänge jeder Art von Stellglied feinfühlig entsprechend der Kleidung geregelt werden, kann der Roboter 100 „Kleidung gut tragen“.
  • Eine Person verspürt einen Wunsch, einem Haustier Kleidung anzuziehen, aufgrund einer Mentalität, ein besonderes Gefühl von „mein Haustier ist etwas Besonderes“ genießen zu wollen, indem sie dem Haustier hübsche Kleidung anlegt, obwohl das Haustier genauso aussieht wie andere. Außerdem kann es auch ein Gefühl geben, dass man wieder etwas in hübsche Kinderkleidung kleiden möchte, nachdem ein Kind aufwächst. Der Roboter 100 in dieser Ausführungsform kann auf diese Art von natürlichem Ausdruck von Zuneigung durch eine Person reagieren.
  • Einem Kleidungshersteller kann durch eine Kombination aus Roboter 100 und Kleidung auch eine neue Geschäftsmöglichkeit bereitgestellt werden. Ein Kleidungshersteller kann einen neuen Kundenstamm erschließen, indem er an Kleidung denkt, die für den Roboter 100 geeignet ist, und eine Tragebedingung, eine Betätigungsbedingung und eine Sonderbewegung, die zur Kleidung passt. Zusätzlich zum Roboter 100 weist die Erfindung eine Möglichkeit auf, den mit dem Roboter 100 verbundenen Handel zu beleben.
  • Da die Erfindung nicht auf die bisher beschriebene Ausführungsform oder ein modifiziertes Beispiel beschränkt ist, können Komponenten geändert oder ausgeführt werden, ohne vom Umfang der Erfindung abzuweichen. Verschiedene Erfindungen können durch mehrere der in der bisher beschriebenen Ausführungsform oder dem modifizierten Beispiel offenbarten Komponenten ausgebildet sein, die gegebenenfalls kombiniert sind. Außerdem können einige Komponenten aus der in der bisher beschriebenen Ausführungsform gezeigten Gesamtheit oder dem modifizierten Beispiel entfernt sein.
  • Obwohl eine Beschreibung gegeben wurde, die davon ausgeht, dass das Robotersystem 300 aus einem Roboter 100, einem Server 200 und mehreren externen Sensoren 114 konfiguriert ist, kann ein Teil der Funktionen des Roboters 100 durch den Server 200 realisiert sein, und ein Teil oder alle Funktionen des Servers 200 können dem Roboter 100 zugeteilt sein. Ein Server 200 kann mehrere Roboter 100 steuern, oder mehrere Server 200 können einen oder mehrere der Roboter 100 in Zusammenarbeit steuern.
  • Eine von dem Roboter 100 und dem Server 200 verschiedene dritte Vorrichtung kann einen Teil der Funktionen verwalten. Eine Sammlung der Funktionen des Roboters 100 und der in 7 beschriebenen Funktionen des Servers 200 kann auch umfassend als ein „Roboter“ verstanden werden. Es genügt, dass ein Verfahren zum Verteilen der mehreren Funktionen, die zur Realisierung der Erfindung bezüglich eines oder mehrerer Hardwareelemente erforderlich sind, unter Berücksichtigung der Verarbeitungsfähigkeit jedes Hardwareelements, der für das Robotersystem 300 erforderlichen Spezifikationen und dergleichen bestimmt wird.
  • Wie bereits beschrieben, ist „der Roboter im engeren Sinne“ der Roboter 100 mit Ausnahme des Servers 200, aber „der Roboter im weiteren Sinne“ ist das Robotersystem 300. Es wird angenommen, dass eine Möglichkeit besteht, dass zukünftig viele Funktionen des Servers 200 im Roboter 100 integriert sind.
  • Der Roboter 100 in dieser Ausführungsform führt eine Vorgangskorrektur basierend auf Handlungseinschränkungsinformationen aus, die mit der Kleidung korreliert sind. Als modifiziertes Beispiel kann der Roboter 100 eine Vorgangskorrektur ausführen, während er eigentlich verschiedene Arten von Vorgängen ausführt. Beispielsweise misst der Roboter 100 regelmäßig die Leistung und die Betätigungsgröße eines Stellglieds und zeichnet die Messergebnisse als Vorgangsdaten auf. Es genügt, dass sich die Vorgangssteuerungseinheit 150 auf die Vorgangsdaten bezieht und die Leistung mithilfe von Rückführungsteuerung regelt, wenn es eine Abweichung zwischen der vom Stellgliedausgang vorgesehenen Betätigungsgröße und der tatsächlichen Betätigungsgröße gibt.
  • Der Roboter 100 kann einen vorbestimmten Leistungswert für ein Stellglied festlegen und das aktuelle Betätigungsgröße zu der Zeit messen. Mehrere Arten von Handlungseinschränkungseinstellungen werden im Voraus vorbereitet, von einer Handlungseinschränkungseinstellung, die ein Vorgangsregelungsverfahren spezifiziert, das einer leichten Handlungseinschränkung entspricht, bis zu einer Handlungseinschränkungseinstellung, die ein Vorgangsregelungsverfahren spezifiziert, das einer großen Handlungseinschränkung entspricht. Die Einschränkungsbestimmungseinheit 188 kann die Größe der Handlungseinschränkung aus den Vorgangsdaten bestimmen, und bestimmen, welcher Handlungseinschränkungseinstellung die Größe entspricht. Die in 9 gezeigten Handlungseinschränkungsinformationen sind mit jeder Handlungseinschränkungseinstellung korreliert. Es genügt, dass die Vorgangssteuerungseinheit 150 eine Vorgangskorrektur entsprechend der Handlungseinschränkungseinstellung ausführt. Selbst wenn der Roboter 100 keine Kleidungskennung erkennt, wird in diesem Fall die Handlungseinschränkung während des tatsächlichen Betreibens eines Stellglieds bestimmt, und die Vorgangskorrektur kann in geeigneter Weise entsprechend der Handlungseinschränkung ausgeführt werden.
  • Kleidung und Handlungseinschränkungsinformationen können korreliert sein, oder ein Kleidungsattribut und eine Handlungseinschränkungsinformation können korreliert sein. Beispielsweise können verschiedene Attribute wie Gewicht oder Beschaffenheit der Kleidung und Handlungseinschränkungsinformationen korreliert sein. Im Falle von Kleidung mit einem Gewicht von einem Kilogramm oder mehr kann im Voraus definiert sein, in welchem Maße die Leistung eines Stellglieds x zu regeln ist.
  • Das Tragen von Kleidung kann nicht nur anhand der Kleidungskennung, sondern auch anhand von physikalischen Informationen erkannt werden. Dies ist beispielsweise die Bilderkennung durch die Kamera, das Berühren eines kapazitiven Sensors oder dergleichen. Außerdem kann ein Berührungssensor an einer vorbestimmten Stelle oder vorzugsweise an mehreren Stellen auf der Außenhaut 314 des Roboters 100 installiert sein, und ein Tragen von einem Erfassungsgeräusch erkannt werden, das vom Berührungssensor beim Tragen von Kleidung abgegeben wird. Ein Lichtsensor wie beispielsweise eine CdS(Cadmiumsulfid)-Zelle kann an mehreren Stellen am Roboter 100 installiert sein, und es kann bestimmt werden, dass Kleidung angezogen wurde, wenn das erfasste Licht tagsüber schwächer wird. Darüber hinaus kann das Gewicht der Kleidung mit einem an der Schwenkwelle 378 vorgesehenen Dehnungsmessstreifen oder dergleichen erkannt werden.
  • Die vordem beschriebenen verschiedenen Arten der Trageerkennungsverfahren und Trageerkennung mithilfe von Kleidungskennung können zusammen verwendet werden. Trotz des Erkennens der Kleidungskennung kann die Vorgangssteuerungseinheit 150 einen Berichtsvorgang ausführen, wenn ein Tragen von Kleidung nicht durch die Kamera oder dergleichen bestätigt werden kann. Dies liegt daran, dass in diesem Fall eine Möglichkeit besteht, dass die Kleidung nicht richtig getragen wird. Die Vorgangssteuerungseinheit 150 kann durch Handlung mittels eines Berichtsvorgangs oder eines Ablehnungsvorgangs die Tatsache ausdrücken, dass die Kleidung nicht korrekt getragen wird. Das Gleiche gilt für das Tragen einer Verzierung.
  • Wenn Kleidung oder eine Verzierung getragen wird, wird nicht nur eine neue Bewegung als Sonderbewegung hinzugefügt, sondern es kann auch die Regelung einer Grundbewegung ausgeführt werden. Wenn beispielsweise Kleidung A getragen wird, kann die Auswahlwahrscheinlichkeit einer Grundbewegung A verringert sein, oder ein Teil der Bewegungen der Einheit, die eine Grundbewegung B konfigurieren, kann ersetzt oder weggelassen sein. Wenn die Kleidung A getragen wird, kann eine Grundbewegung C eine neue Bewegung der Einheit hinzugefügt sein oder ein Intervall einer Grundbewegung D kann geregelt sein. Mithilfe dieser Art der Feineinstellung kann ein sich entsprechend der Kleidung nur geringfügig änderndes Verhalten ausgedrückt werden. Beispielsweise kann das Verhalten, dass der Roboter 100 beim Tragen teurer Kleidung etwas leiser wird, ausgedrückt werden.
  • Kategorien wie „formal“, „teuer“, „dünn“, „mit Ärmeln oder ärmellos“ und „färbend“ können mit der Kleidung korreliert sein, und es kann ein Handlungsregelungsverfahren entsprechend der Kategorie und eine Sonderbewegung entsprechend der Kategorie festgelegt sein. Gemäß dieser Art von Festlegung kann ein subtiler Verhaltensausdruck wie beispielsweise eine eigentümliche Bewegung beim Tragen roter Kleidung oder eine eigentümliche Bewegung beim Tragen roter, teurer Kleidung ausgeführt werden.
  • Kleidung und Emotion können kombiniert sein. Beispielsweise ist eine Einstellung denkbar, bei der eine Auswahlwahrscheinlichkeit einer Sonderbewegung beim Tragen roter Kleidung zunimmt, wenn ein Einsamkeitsgefühl stark ist. Zusätzlich zur Emotion ist eine Kombination externer Umgebungsinformationen wie Wetter oder Helligkeit (Lichtmenge) und Kleidung denkbar. Die Auswahlwahrscheinlichkeit einer Sonderbewegung kann sich entsprechend des Alters (Anzahl der seit der Herstellung verstrichenen Jahre) des Roboters verringern. Je älter der Roboter ist, desto schwieriger ist es, eine Sonderbewegung auszuführen, wodurch das „Altern“ des Roboters ausgedrückt werden kann.
  • In dieser Ausführungsform wird eine Kleidungs-RFID als sendende Kleidungskennung bezeichnet. Als modifiziertes Beispiel können nicht nur die Kleidungskennung, sondern auch die Kleidungsattributinformationen in einem in die Kleidung eingenähten IC-Chip gespeichert sein. Der Roboter 100 kann Kleidungsattributinformationen, die der Kleidungskennung entsprechen, von einem Kleidungs-IC-Chip erfassen.
  • Zusätzlich zu einem Stellglied kann eine Erkennungsspannung (Erkennungsleistung) eines Sensors auch korrigiert werden, wenn Kleidung getragen wird. Wenn beispielsweise ein kapazitiver Sensor über einen weiten Bereich der Außenhaut 314 installiert ist und eine Berührung durch einen Besitzer erkannt wird, wird angenommen, dass die Empfindlichkeit der Berührungserkennung abnimmt, wenn Kleidung getragen wird. Wenn ein Anziehen von Kleidung erkannt wird, kann der Roboter 100 die Erkennungsempfindlichkeit korrigieren, indem er die Erkennungsspannung des kapazitiven Sensors erhöht.
  • In dieser Ausführungsform schwächt der Roboter 100 die Handlungseinschränkung ab, indem er die Stellgliedleistung erhöht, sodass es zu keiner übermäßigen Handlungseinschränkung durch Kleidung kommt. Als modifiziertes Beispiel kann die Stellgliedleistung über die Handlungseinschränkung hinaus erhöht sein. Obwohl es körperlich schwierig ist, sich zu bewegen, wenn bestimmte Kleidung getragen wird, kann in diesem Fall stattdessen eine Handlung der leichten Bewegung ausgedrückt werden. In diesem Fall kann durch eine Handlung ein Gefühl der Freiheit und Leichtigkeit beim Tragen bestimmter Kleidung ausgedrückt werden.
  • Wenn ein Tragen von Kleidung in einem Zustand erkannt wird, in dem die Kleidungskennung nicht erkannt werden kann, kann der Roboter 100 eine Ablehnungshandlung ausführen, die eine Abneigung gegen das Tragen der Kleidung zeigt. Außerdem können keine Handlungseinschränkungsinformationen erfasst werden, wenn die Kleidungskennung nicht erkannt werden kann, weshalb der Roboter 100 in diesem Fall automatisch eine Vorgangskorrektur durchführen kann, während er die Stellgliedleistung und die Betätigungsgröße überprüft.
  • 12 ist ein funktionelles Blockdiagramm des Robotersystems 300 in einem geänderten Beispiel.
  • Im Robotersystem 300 des geänderten Beispiels beinhaltet die Datenverarbeitungseinheit 202 des Servers 200 eine Verbundenheitsverwaltungseinheit 224. Die Verbundenheitsverwaltungseinheit 224 verwaltet die „Verbundenheit“ als einen Indexwert, der eine Größe der Verbundenheit des Roboters 100 zur Kleidung angibt. Die Datenspeichereinheit 206 beinhaltet eine Speichereinheit für Verbundenheitsinformationen 250. Die Speichereinheit für Verbundenheitsinformationen 250 ist eine Datenbank, in der die Verbundenheit zur Kleidung festgelegt ist. Eine Datenstruktur der Speichereinheit für Verbundenheitsinformationen 250 wird nachfolgend in Verbindung mit der folgenden 13 beschrieben.
  • 13 ist ein Datenstrukturdiagramm der Speichereinheit für Verbundenheitsinformationen 250.
  • Die Verbundenheit zur Kleidung ist in einem Bereich von -100 (Ablehnung) bis +100 (Vorliebe) indiziert. Gemäß 13 ist die Verbundenheit zur Kleidung (02) 84, was bedeutet, dass der Roboter 100 die Kleidung (02) bevorzugt. Währenddessen ist die Verbundenheit zur Kleidung (04) -90, was bedeutet, dass der Roboter 100 die Kleidung (04) ablehnt. Außerdem ist die Verbundenheit zur Kleidung (05) 0, was bedeutet, dass der Roboter 100 gegenüber der Kleidung (05) ein neutrales Gefühl hat.
  • Die Verbundenheitsverwaltungseinheit 224 ändert die Verbundenheit entsprechend einer Reaktionshandlung eines Benutzers gegenüber dem Roboter 100. Wie bereits beschrieben, erkennt die Reaktionserkennungseinheit 228 eine Reaktionshandlung, die bezüglich des Roboters 100 ausgeführt wird, und klassifiziert die Handlung als eine angenehme oder unangenehme Handlung. Wenn eine angenehme Handlung erkannt wird, wenn der Roboter 100 die Kleidung (01) trägt, erhöht die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zur Kleidung (01). Wird währenddessen eine unangenehme Handlung erkannt, wenn der Roboter 100 die Kleidung (02) trägt, verringert die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zur Kleidung (02). Infolgedessen spiegeln sich eine mit der Kleidung verbundene Erfahrung und eine damit verbundene angenehme oder unangenehme Emotion (Erinnerung) als Verbundenheit zur Kleidung wider. Beispielsweise sind das Umarmtwerden, Gestreicheltwerden, genau Beobachtetwerden, während einer vorbestimmten Zeit oder länger einen Benutzer mit einer Vertrautheit eines vorbestimmten Wertes oder größer kontinuierlich visuell zu erkennen, die im Vergleich zu einer früheren Aufzeichnung hohe Häufigkeit des Lächelns eines Benutzers, der Erhalt positiver Bemerkungen von einem Benutzer wie „du siehst hübsch aus“, „das steht dir“, „das ist cool“ und dergleichen als angenehme Handlungen denkbar. Geschlagen zu werden, fallen gelassen zu werden, getreten zu werden, während einer vorbestimmten Zeit oder länger einen Benutzer mit einer Vertrautheit eines vorbestimmten Wertes oder größer kontinuierlich nicht visuell erkennen zu können, die im Vergleich zu einer früheren Aufzeichnung niedrige Häufigkeit des Lächelns eines Benutzers, der Erhalt negativer Bemerkungen von einem Benutzer wie „du siehst nicht hübsch aus“, „das steht dir nicht“, „das ist doof“ und dergleichen sind als unangenehme Handlungen vorstellbar.
  • Die Vorgangssteuerungseinheit 150 des Roboters 100 (oder die Vorgangssteuerungseinheit 222 des Servers 200) ändert die Verhaltensmerkmale des Roboters 100 entsprechend der Verbundenheit zur Kleidung. Wenn der Roboter 100 beispielsweise Kleidung trägt, zu der die Verbundenheit höher als ein Schwellenwert T1 ist, kann die Vorgangssteuerungseinheit 150 den Leistungswert jedes Stellglieds höher als üblich festlegen. In 8 ist die Leistung P2 zur Realisierung der Betätigungsgröße D2 festgelegt. Wenn die Verbundenheit zur Kleidung höher als der Schwellenwert T1 ist, kann die Vorgangssteuerungseinheit 150 eine Leistung P3 höher als die Leistung P2 festlegen. Gemäß dieser Art von Steuerungsverfahren wird die Bewegung des Roboters 100 beim Tragen von gemochter Kleidung leichter als üblich.
  • Wenn der Roboter 100 andererseits Kleidung trägt, zu der die Verbundenheit niedriger als ein Schwellenwert T2 (< Schwellenwert T1) ist, kann die Vorgangssteuerungseinheit 100 den Leistungswert jedes Stellglieds niedriger als üblich festlegen. In 8 kann eine Leistung P4 zur Realisierung der Betätigungsgröße D2 niedriger als die Leistung P2 festgelegt sein. Gemäß dieser Art von Steuerungsverfahren wird die Bewegung des Roboters 100 beim Tragen von nicht gemochter Kleidung schwerfälliger als üblich. Durch die Leichtigkeit der Bewegung des Roboters 100, die entsprechend der Verbundenheit zur Kleidung verändert wird, kann die Präferenz des Roboters 100 bezüglich der Kleidung durch Handlung ausgedrückt werden.
  • Wie bereits beschrieben, ist eine Sonderbewegung mit der Kleidung korreliert. Wenn der Roboter 100 Kleidung trägt und die Betätigungsbedingung der Sonderbewegung erfüllt ist, führt der Roboter 100 die Sonderbewegung mit einer vorbestimmten Wahrscheinlichkeit aus. Die Vorgangssteuerungseinheit 222 kann die Auswahlwahrscheinlichkeit der Sonderbewegung entsprechend der Verbundenheit ändern. Das heißt, die Vorgangssteuerungseinheit 222 kann die Auswahlwahrscheinlichkeit der Sonderbewegung umso höher festlegen, je größer die Verbundenheit zur Kleidung ist, und die Auswahlwahrscheinlichkeit der Sonderbewegung umso niedriger festlegen, je geringer die Verbundenheit zur Kleidung ist. Gemäß dieser Art von Steuerungsverfahren kann die Vorliebe des Roboters 100 für Kleidung durch eine Handlung ausgedrückt werden, die der Wahrscheinlichkeit entspricht, dass eine Sonderbewegung ausgeführt wird.
  • Darüber hinaus kann die Vorgangssteuerungseinheit 222 entsprechend der Verbundenheit die Auswahlwahrscheinlichkeit einer vorbestimmten Grundbewegung ändern, die mit einem Verhaltensausdruck von „Freude“, „Glück“ oder „Genuss“ korreliert, wenn der Roboter 100 einem Benutzer folgt oder dergleichen. Die Vorgangssteuerungseinheit 222 kann die Länge eines Intervalls entsprechend der Verbundenheit ändern. Insbesondere kann die Vorgangssteuerungseinheit 222 eine rege Bewegung des Roboters 100 ausdrücken, indem sie das Intervall so festlegt, dass es umso kürzer ist, je größer die Verbundenheit zur Kleidung ist. Auf die gleiche Weise kann die Vorgangssteuerungseinheit 222 die Schwerfälligkeit des Roboters 100 zum Ausdruck bringen, indem sie das Intervall so festlegt, dass es umso länger ist, je geringer die Verbundenheit zur Kleidung ist. Auch gemäß dieser Art von Steuerungsverfahren können Verhaltensausdrücke wie „sich beim Tragen seiner Lieblingskleider pudelwohl fühlen“ und „sich beim Tragen ungeliebter Kleidung niedergeschlagen fühlen“ realisiert werden.
  • Die Vorgangssteuerungseinheit 222 kann Verhaltensmerkmale des Roboters 100 entsprechend der Verbundenheit zur Kleidung nicht nur beim Tragen der Kleidung, sondern auch vor dem Anziehen der Kleidung ändern. Wenn ein Benutzer dem Roboter 100 Kleidung anzieht, erkennt die Erkennungseinheit 212 die Kleidung anhand eines Bildes. Bildinformationen können in der Speichereinheit für Verbundenheitsinformationen 250 mit jedem Kleidungsstück korreliert sein. Die Erkennungseinheit 212 kann Kleidung identifizieren, indem sie ein von der Kamera aufgenommenes Kleidungsbild mit einem in der Speichereinheit für Verbundenheitsinformationen 250 registrierten Kleidungsbild vergleicht, und die Vorgangssteuerungseinheit 222 kann die Verhaltensmerkmale des Roboters 100 entsprechend der Verbundenheit zur Kleidung ändern.
  • Die Vorgangssteuerungseinheit 222 kann eine Bewegung des Roboters 100 entsprechend der Verbundenheit zur präsentierten Kleidung auswählen. Beispielsweise definiert die Speichereinheit für Grundbewegungen 232 Bewegungen des Vergnügens, wie beispielsweise Drehen oder Anheben des Armes 106, und Bewegungen der Ablehnung, wie beispielsweise Zurückziehen, Weglaufen oder Abwenden. Die Vorgangssteuerungseinheit 222 kann eine Bewegung des Vergnügens wählen, wenn Kleidung mit einer Verbundenheit eines vorbestimmten Wertes oder höher, zum Beispiel 70 oder höher, präsentiert wird, und eine Bewegung der Ablehnung ausführen, wenn Kleidung mit einer Verbundenheit eines vorbestimmten Wertes oder niedriger, zum Beispiel -40 oder niedriger, präsentiert wird. Gemäß dieser Art von Steuerungsverfahren kann eine „Meinung“ des Roboters 100, wie „Ich will das tragen“ oder „Ich will das nicht tragen“, durch eine Handlung vor dem Anziehen der Kleidung ausgedrückt werden.
  • Die Verbundenheit kann entsprechend einer Reaktionshandlung änderbar sein, oder es kann ein fester Wert für jedes Kleidungsstück festgelegt werden. Außerdem kann es Kleidung geben, zu der sich die Verbundenheit als Reaktion auf eine Reaktionshandlung ändern kann, und Kleidung, zu der sich die Verbundenheit wahrscheinlich nicht ändern wird. Die Verbundenheitsverwaltungseinheit 224 kann die Verbundenheit entsprechend der Jahreszeit oder der Lufttemperatur abändern. Wenn beispielsweise Kleidung, bei der die Tragebedingung nicht erfüllt ist, dem Roboter 100 angezogen wird, kann die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zur Kleidung nach unten korrigieren. Auf die gleiche Weise kann die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zur Kleidung bei jedem Tragen der Kleidung nach oben korrigieren. Im Hinblick auf Kleidung, bei der seit dem letzten Tragen Zeit verstrichen ist, kann die Verbundenheitsverwaltungseinheit 224 umgekehrt die Verbundenheit zur Kleidung entsprechend dem Fortschreiten der Zeit allmählich verringern.
  • Wenn die Verbundenheit zur roten Kleidung A zunimmt, kann die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zu anderer roter Kleidung B erhöhen. Gemäß dieser Art von Steuerungsverfahren kann auch die „Vorliebe“ für ein „Attribut“ „rot“ ausgedrückt werden. Auf die gleiche Weise kann die Verbundenheitsverwaltungseinheit 224 die Verbundenheit zu anderer schwarzer Kleidung D verringern, wenn die Verbundenheit zu schwarzer Kleidung C abnimmt. Gemäß dieser Art von Steuerungsverfahren kann die „Abneigung“ gegen ein „Attribut“ „schwarz“ ausgedrückt werden.
  • Obwohl am Roboter 100 ein Verfahren zur Wasserdichtheit durchgeführt wird, ist das Gehen nach draußen bei Regen nicht empfohlen. Im Gegenzug kann der Roboter 100 beim Tragen einer wasserdichten Ausstattung wie z. B. Regenbekleidung im Regen nach draußen gehen. Durch das Tragen eines Neoprenanzuges kann der Roboter 100 auch ein Schwimmbad oder ein Bad betreten. Die Ausstattungserkennungseinheit 186 kann ein Tragen von wasserdichter Ausstattung mithilfe von Bilderkennung, RFID oder dergleichen erkennen. Die Erkennungseinheit 212 erkennt mittels Bilderkennung ein Rausgehen in den Regen oder eine Bewegung zu einem Badezimmer, einem Schwimmbad oder dergleichen. Beim Erkennen eines Rausgehens in den Regen oder dergleichen in einem Zustand, in dem keine wasserdichter Ausstattung getragen wird, führt die Vorgangssteuerungseinheit 222 die bisher beschriebene Ablehnungsbewegung aus.
  • Der Roboter 100 kann Kleidung mittels RFID oder Bilderkennung erkennen. Darüber hinaus kann die Ausstattungserkennungseinheit 186 eine Kleidungskategorie durch eine an der Kleidung befestigte Plastikkarte identifizieren, die in eine im Roboter 100 ausgebildete Einführungsöffnung eingeführt ist. Ein oder mehrere Löcher sind in der Plastikkarte ausgebildet, und die Kleidungskennung wird durch eine Zahl und eine Position der Löcher spezifiziert. Kleidung kann mithilfe dieser Art von Lochkartenverfahren erkannt werden. Die Ausstattungserkennungseinheit 186 kann eine Kleidungskategorie mithilfe eines an der Kleidung angebrachten zweidimensionalen Codes erkennen.
  • Wie bereits beschrieben, ist eine Sonderbewegung mit der Kleidung korreliert. Wenn der Roboter 100 Kleidung trägt und die Situation, in der der Roboter 100 platziert ist, die Betätigungsbedingung der Sonderbewegung erfüllt, führt der Roboter 100 die Sonderbewegung aus. Ob die Betätigungsbedingung erfüllt ist oder nicht, wird mithilfe von Informationen bestimmt, die von den verschiedenen Arten von Sensoren des Roboters 100 oder einer Kommunikationsfunktion gewonnen werden. Die Betätigungsbedingung ist durch die Aufnahme von Informationen, die eine bei der Bestimmung zu verwendende Vorrichtung spezifizieren, und eine Bestimmungsbedingung für einen Erkennungswert der Vorrichtung definiert. Wenn beispielsweise die Betätigungsbedingung als „wenn die Raumtemperatur 25 Grad oder mehr erreicht“ definiert ist und ein „Temperatursensor“ als die Bestimmungsvorrichtung spezifiziert ist, ist „25 Grad oder mehr“ als Bestimmungsbedingung angegeben. Wenn die Betätigungsbedingung „wenn die Musik A gehört wird“ ist, ist ein „Mikrofon“ als Bestimmungsvorrichtung spezifiziert und ein Wellenformmuster, eine bestimmte Lautstärke oder dergleichen der Musik A sind als Bestimmungsbedingung spezifiziert. Außerdem können mehrere Bedingungen spezifiziert sein, beispielsweise „wenn die Musik A gehört wird und ein Benutzer anwesend ist“. Natürlich kann die Betätigungsbedingung selbst als ein Programm bereitgestellt sein, beispielsweise als ein Skript, das in der Datenverarbeitungseinheit 136 des Roboters 100 ausgeführt werden kann, als ein Programmmodul zum Bestimmen der Betätigungsbedingung mit einem Tragen von Kleidung als Auslösereinlesung und als ein bei Bedarf ausgeführtes Bestimmungsverfahren als eine Betätigungsbedingungs-Bestimmungseinheit. In der gleichen Weise ist die vordem beschriebene Tragebedingung auch durch die Aufnahme von Informationen, die eine bei der Bestimmung zu verwendende Vorrichtung spezifizieren, und eine Bestimmungsbedingung für einen Erkennungswert der Vorrichtung definiert.
  • Ferner kann die Tragebedingung selbst als ein Programm bereitgestellt sein, das in der Datenverarbeitungseinheit 136 des Roboters 100 ausgeführt werden kann, als ein Programmmodul zum Bestimmen der Tragebedingung mit einem Tragen von Kleidung als Auslösereinlesung und als ein bei Bedarf ausgeführtes Bestimmungsverfahren als eine Tragebedingungs-Bestimmungseinheit. Wenn ein Tragen von Kleidung durch die Ausstattungserkennungseinheit 186 erkannt wird, wird die mit der Kleidung korrelierte Tragebedingung bestimmt, woraufhin die Betätigungsbedingung bei Bedarf bestimmt wird.
  • Obwohl davon ausgegangen wird, dass die Ausstattungserkennungseinheit 186 einen Erkennungsvorgang ausführt, wenn Kleidung angezogen wurde, wird vorhergesagt, dass sich der Tragezustand des Roboters 100, wenn er in einem Zustand des Tragens von Kleidung arbeitet, durch das Rutschen oder Reißen der Kleidung während des Betriebs ändert. Aus diesem Grund können die Ausstattungserkennungseinheit 186 und die Einschränkungsbestimmungseinheit 188 den Tragezustand in einem bestimmten Zeitintervall erkennen. Wenn der Roboter 100 während einer vorbestimmten Zeit oder länger zum Laden oder dergleichen stoppt, kann der Tragezustand erkannt werden, bevor eine Handlung aus dem gestoppten Zustand wieder gestartet wird.
  • Bezugszeichenliste
  • [4]
  • 200 -
    SERVER
    [6]
    118 -
    BATTERIE
    120 -
    ANTRIEBSMECHANISMUS
    122 -
    PROZESSOR
    124 -
    SPEICHERVORRICHTUNG
    126 -
    KOMMUNIKATOR
    128 -
    INTERNER SENSOR
    [7]
    100 -
    ROBOTER
    114 -
    EXTERNER SENSOR
    120 -
    ANTRIEBSMECHANISMUS
    136 -
    DATENVERARBEITUNGSEINHEIT
    138 -
    SPEICHEREINHEIT FÜR HANDLUNGSEINSCHRÄNKUNGSINFORMA TIONEN
    142 -
    KOMMUNIKATIONSEINHEIT
    148 -
    DATENSPEICHEREINHEIT
    150 -
    VORGANGSSTEUERUNGSEINHEIT
    156 -
    ERKENNUNGSEINHEIT
    160 -
    BEWEGUNGSSPEICHEREINHEIT
    182 -
    EXTERNE DATENBANK
    184 -
    BEWEGUNGSERFASSUNGSEINHEIT
    186 -
    AUSSTATTUNGSERKENNUNGSEINHEIT
    188 -
    EINSCHRÄNKUNGSBESTIMMUNGSEINHEIT
    200 -
    SERVER
    202 -
    DATENVERARBEITUNGSEINHEIT
    204 -
    KOMMUNIKATIONSEINHEIT
    206 -
    DATENSPEICHEREINHEIT
    208 -
    POSITIONSVERWALTUNGSEINHEIT
    210-
    KARTENVERWALTUNGSEINHEIT
    212 -
    ERKENNUNGSEINHEIT
    214 -
    PERSONENERKENNUNGSEINHEIT
    216 -
    KARTENSPEICHEREINHEIT
    218 -
    SPEICHEREINHEIT FÜR INDIVIDUELLE DATEN
    220 -
    VERTRAUTHEITSVERWALTUNGSEINHEIT
    222 -
    VORGANGSSTEUERUNGSEINHEIT
    228 -
    REAKTIONSERKENNUNGSEINHEIT
    230 -
    AUSDRUCKSERKENNUNGSEINHEIT
    232 -
    SPEICHEREINHEIT FÜR GRUNDBEWEGUNGEN
    240 -
    SPEICHEREINHEIT FÜR HANDLUNGSEINSCHRÄNKUNGSINFORMATIONEN
    242 -
    SPEICHEREINHEIT FÜR SONDERBEWEGUNGEN
    [8]
    • BETÄTIGUNGSGRÖSSE
    • LEISTUNG
    [9]
    • KLEIDUNGSKENNUNG
    • HANDLUNGSEINSCHRÄNKUNG (%)
    • STELLGLIED 1
    • STELLGLIED 2
    • STELLGLIED N
    [10]
    BEGINN
    S10-
    IRGENDEINE KLEIDUNG
    S12-
    KLEIDUNGSKENNUNG ERKANNT
    S14-
    HANDLUNGSEINSCHRÄNKUNGSBESTIMMUNG
    S16-
    VORGANGSKORREKTUR
    S18-
    GEEIGNET?
    S20-
    BERICHT
    S22-
    REGISTRIERUNG BEWEGUNGSDATEI ENDE
    [11]
    • KLEIDUNGSKENNUNG
    • TRAGEBEDINGUNG
    • LUFTTEMPERATUR 20 GRAD ODER HÖHER
    • GUTES WETTER
    • SONDERBEWEGUNG
    • BETÄTIGUNGSBEDINGUNG
    • 10 UHR MORGENS
    • MUSIK A
    • GEBURTSTAG
    • KINDERTAG
    • LUFTTEMPERATUR 5 GRAD ODER NIEDRIGER
    [12]
  • 100 -
    ROBOTER
    114 -
    EXTERNER SENSOR
    120 -
    ANTRIEBSMECHANISMUS
    136 -
    DATENVERARBEITUNGSEINHEIT
    138 -
    SPEICHEREINHEIT FÜR HANDLUNGSEINSCHRÄNKUNGSINFORMATIONEN
    142 -
    KOMMUNIKATIONSEINHEIT
    148 -
    DATENSPEICHEREINHEIT
    150 -
    VORGANGSSTEUERUNGSEINHEIT
    156 -
    ERKENNUNGSEINHEIT
    160 -
    BEWEGUNGSSPEICHEREINHEIT
    182 -
    EXTERNE DATENBANK
    184 -
    BEWEGUNGSERFASSUNGSEINHEIT
    186 -
    AUSSTATTUNGSERKENNUNGSEINHEIT
    188 -
    EINSCHRÄNKUNGSBESTIMMUNGSEINHEIT
    200 -
    SERVER
    202 -
    DATENVERARBEITUNGSEINHEIT
    204 -
    KOMMUNIKATIONSEINHEIT
    206 -
    DATENSPEICHEREINHEIT
    208 -
    POSITIONSVERWALTUNGSEINHEIT
    210-
    KARTENVERWALTUNGSEINHEIT
    212 -
    ERKENNUNGSEINHEIT
    214 -
    PERSONENERKENNUNGSEINHEIT
    216 -
    KARTENSPEICHEREINHEIT
    218 -
    SPEICHEREINHEIT FÜR INDIVIDUELLE DATEN
    220 -
    VERTRAUTHEITSVERWALTUNGSEINHEIT
    222 -
    VORGANGSSTEUERUNGSEINHEIT
    228 -
    REAKTIONSERKENNUNGSEINHEIT
    230 -
    AUSDRUCKSERKENNUNGSEINHEIT
    232 -
    SPEICHEREINHEIT FÜR GRUNDBEWEGUNGEN
    240 -
    SPEICHEREINHEIT FÜR HANDLUNGSEINSCHRÄNKUNGSINFORMA TIONEN
    242 -
    SPEICHEREINHEIT FÜR SONDERBEWEGUNGEN
    250 -
    SPEICHEREINHEIT FÜR VERBUNDENHEITSINFORMATIONEN
    [13]
    • KLEIDUNGSKENNUNG
    • VERBUNDENHEIT

Claims (20)

  1. Autonom handelnder Roboter (100), umfassend: ein nichtflüchtiges, computerlesbares Medium, das konfiguriert ist, Anweisungen darauf zu speichern; einen Sensor (128), der konfiguriert ist, eine Berührung auf einer Körperoberfläche des autonom handelnden Roboters (100) zu erkennen; einen Detektor, der konfiguriert ist, zu erkennen, ob der autonom handelnde Roboter (100) Kleidung trägt; einen mit dem nichtflüchtigen, computerlesbaren Medium verbundenen Prozessor, wobei der Prozessor konfiguriert ist, die Anweisungen auszuführen für: das Spezifizieren eines Vorgangs des autonom handelnden Roboters (100), wobei das Spezifizieren des Vorgangs das Ändern von Verhaltensmerkmalen des autonom handelnden Roboters (100) als Reaktion auf eine Bestimmung umfasst, dass der autonom handelnde Roboter (100) Kleidung trägt, und das Erhöhen der Empfindlichkeit des Sensors (128) als Reaktion auf die Bestimmung, dass der autonom handelnde Roboter (100) Kleidung trägt; einen Antriebsmechanismus (120), der konfiguriert ist, den spezifizierten Vorgang auszuführen, wobei die Verhaltensmerkmale eine Bewegung mit Handlungseinschränkungen oder eine Sonderbewegung (242), jeweils abhängig von der getragenen Kleidung, sind und wobei die Handlungseinschränkung aufgrund von Handlungseinschränkungsinformationen (240) vorgenommen wird und die Handlungseinschränkungsinformationen (240) eine Stärke angeben, mit der die verschiedenen Bewegungen geregelt werden.
  2. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Bestimmen einer Handlungseinschränkung der Kleidung, und das Regeln des Antriebsmechanismus (120) basierend auf der bestimmten Handlungseinschränkung der Kleidung.
  3. Autonom handelnder Roboter (100) nach Anspruch 2, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Bestimmen der Handlungseinschränkung der Kleidung basierend auf einer vorbestimmten Korrelation zwischen Handlungseinschränkungsinformationen (240) und identifizierenden Informationen für die Kleidung auszuführen.
  4. Autonom handelnder Roboter (100) nach Anspruch 3, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ausführen eines vorbestimmten Berichtsvorgangs als Reaktion auf die bestimmte Handlungseinschränkung auszuführen, die sich von den mit der Kleidung verknüpften Handlungseinschränkungsinformationen unterscheidet.
  5. Autonom handelnder Roboter (100) nach Anspruch 2, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Auswählen einer Handlungseinschränkungseinstellung aus den mehreren Handlungseinschränkungseinstellungen basierend auf Vorgangsdaten des Antriebsmechanismus (120), nachdem bei dem autonom handelnden Roboter (100) erkannt wurde, dass er Kleidung trägt, und das Regeln des Antriebsmechanismus (120) entsprechend der ausgewählten Handlungseinschränkungseinstellung.
  6. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Bestimmen der Handlungseinschränkung der Kleidung, wobei eine Größe der Handlungseinschränkung auf der Basis von Vorgangsdaten des Antriebsmechanismus als Reaktion darauf bestimmt wird, dass (1) der Prozessor keine Kleidungsidentifikationsinformationen empfängt und (2) der Detektor darauf hinweist, dass der autonom handelnde Roboter (100) Kleidung trägt, und das Regeln des Antriebsmechanismus (120) basierend auf der bestimmten Handlungseinschränkung.
  7. Autonom handelnder Roboter (100) nach Anspruch 4, wobei der Detektor konfiguriert ist, Kleidungsidentifikationsinformationen zu erkennen, und der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Regeln des Antriebsmechanismus (120) basierend auf Handlungseinschränkungsinformationen (240), die im Voraus mit den Kleidungsidentifikationsinformationen korreliert werden, und das Ausführen des vorbestimmten Berichtsvorgangs als Reaktion auf die bestimmte Handlungseinschränkung, die sich von den Handlungseinschränkungsinformationen (240) unterscheidet.
  8. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ändern der Empfindlichkeit des Sensors (128) basierend auf einer Kategorie der Kleidung auszuführen.
  9. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ändern der Verhaltensmerkmale des autonom handelnden Roboters (100) basierend auf einer Kategorie der Kleidung auszuführen.
  10. Autonom handelnder Roboter (100) nach Anspruch 9, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ausführen eines vorbestimmten Ablehnungsvorgangs als Reaktion darauf auszuführen, dass die getragene Kleidung eine Tragebedingung nicht erfüllt.
  11. Autonom handelnder Roboter (100) nach Anspruch 10, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Auswählen eines spezifischen Vorgangs auszuführen, der mit der Kleidung korreliert ist.
  12. Autonom handelnder Roboter (100) nach Anspruch 11, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen, um eine Bewegungsdatei, die den spezifischen Vorgang definiert, von einer externen Datenbank zu erfassen.
  13. Autonom handelnder Roboter (100) nach Anspruch 11, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Auswählen des spezifischen Vorgangs als Reaktion darauf auszuführen, dass eine mit dem spezifischen Vorgang korrelierte Betätigungsbedingung erkannt wird.
  14. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Erkennen einer Verzierung, die von dem autonom handelnden Roboter (100) getragen wird, und das Ändern der Verhaltensmerkmale des autonom handelnden Roboters (100) basierend auf einer Kombination der Kleidung und der Verzierung.
  15. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ausführen eines Vorgangs auszuführen, der als Reaktion auf einen vorgesehenen Tragezustand, der sich von der erkannten Kleidung unterscheidet, das Tragen von Kleidung ablehnt.
  16. Autonom handelnder Roboter (100) nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ändern der Verhaltensmerkmale des Roboters (100) basierend auf einer mit der Kleidung korrelierten Verbundenheit auszuführen.
  17. Autonom handelnder Roboter (100) nach Anspruch 16, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Erkennen der Kleidung anhand eines erhaltenen Bildes, und das Ändern der Verhaltensmerkmale des autonom handelnden Roboters (100) basierend auf der mit der Kleidung korrelierten Verbundenheit als Reaktion auf das Erkennen, dass die erkannte Kleidung vom autonom handelnden Roboter (100) getragen wird.
  18. Autonom handelnder Roboter (100) nach Anspruch 16, wobei der Prozessor ferner konfiguriert ist, die Anweisungen auszuführen für: das Aktualisieren einer Verbundenheit mit einem Kleidungsstück, wobei das Aktualisieren der Verbundenheit mit dem Kleidungsstück auf einer erkannten Handlung durch einen Benutzer basiert, während der autonom handelnde Roboter (100) das Kleidungsstück trägt.
  19. Autonom handelnder Roboter (100) nach Anspruch 18, wobei der Prozessor ferner konfiguriert ist, die Anweisungen zum Ändern der Verhaltensmerkmale des autonom handelnden Roboters (100) basierend auf der Verbundenheit mit dem Kleidungsstück als Reaktion auf eine Bestimmung, dass der autonom handelnde Roboter (100) das Kleidungsstück trägt, auszuführen.
  20. Autonom handelnder Roboter (100), umfassend: ein nichtflüchtiges, computerlesbares Medium, das konfiguriert ist, Anweisungen darauf zu speichern; einen Detektor zum Erkennen eines Kleidungsstücks, das von dem autonom handelnden Roboter (100) getragen wird; einen mit dem nichtflüchtigen, computerlesbaren Medium verbundenen Prozessor, wobei der Prozessor konfiguriert ist, die Anweisungen auszuführen für: das Ändern einer Verbundenheit des Roboters (100) mit dem Kleidungsstück basierend auf einer erkannten Handlung durch einen Benutzer als Reaktion darauf, dass der autonom handelnde Roboter (100) das Kleidungsstück trägt, wobei die Verbundenheit in einem Bereich von Ablehnen bis Vorliebe indiziert ist, das Erkennen des Kleidungsstücks anhand eines erhaltenen Bildes, und das Spezifizieren eines Vorgangs des autonom handelnden Roboters (100) basierend auf der Verbundenheit mit dem Kleidungsstück als Reaktion darauf, dass das Kleidungsstück erkannt wird; und einen Antriebsmechanismus (120), der konfiguriert ist, den spezifizierten Vorgang auszuführen, wobei die Verhaltensmerkmale eine Bewegung mit Handlungseinschränkungen oder eine Sonderbewegung (242), jeweils abhängig von der getragenen Kleidung, sind und wobei die Handlungseinschränkung aufgrund von Handlungseinschränkungsinformationen (240) vorgenommen wird und die Handlungseinschränkungsinformationen (240) eine Stärke angeben, mit der die verschiedenen Bewegungen geregelt werden.
DE112017002606.7T 2016-07-08 2017-06-07 Autonom handelnder Roboter, der Kleidung trägt Active DE112017002606B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016135713 2016-07-08
JP2016-135713 2016-07-08
PCT/JP2017/021099 WO2018008323A1 (ja) 2016-07-08 2017-06-07 服を着る自律行動型ロボット

Publications (2)

Publication Number Publication Date
DE112017002606T5 DE112017002606T5 (de) 2019-02-21
DE112017002606B4 true DE112017002606B4 (de) 2020-06-25

Family

ID=60912586

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002606.7T Active DE112017002606B4 (de) 2016-07-08 2017-06-07 Autonom handelnder Roboter, der Kleidung trägt

Country Status (6)

Country Link
US (1) US11198221B2 (de)
JP (2) JP6409207B2 (de)
CN (1) CN109414824B (de)
DE (1) DE112017002606B4 (de)
GB (1) GB2564822B (de)
WO (1) WO2018008323A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019026420A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
WO2019146422A1 (ja) * 2018-01-25 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよびロボット
KR102497042B1 (ko) * 2018-01-29 2023-02-07 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
JP7326707B2 (ja) * 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2021165866A (ja) * 2018-07-10 2021-10-14 ソニーグループ株式会社 管理装置および方法、制御装置および方法、並びに管理システム
JP7420387B2 (ja) 2018-12-14 2024-01-23 Groove X株式会社 衣装を着用するロボット
CN111452035A (zh) * 2019-01-22 2020-07-28 中国移动通信集团终端有限公司 机器人的控制方法及机器人
CN109877834A (zh) * 2019-03-12 2019-06-14 广东小天才科技有限公司 多屏显示机器人、方法和装置、显示机器人和显示方法
US11883963B2 (en) * 2019-06-03 2024-01-30 Cushybots Corporation Robotic platform for interactive play using a telepresence robot surrogate
US11904252B1 (en) * 2020-06-24 2024-02-20 Savanna Palafox Therapeutic device
WO2023248697A1 (ja) * 2022-06-24 2023-12-28 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000093664A (ja) 1998-09-18 2000-04-04 Takara Co Ltd 組合せ玩具
DE29904916U1 (de) 1998-12-15 2000-07-13 Tiger Electronics Ltd Interaktives Spielzeug
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
US6505098B1 (en) 1999-10-29 2003-01-07 Sony Corporation Robot system, robot device, and its cover
US20030109959A1 (en) 2000-10-20 2003-06-12 Shigeru Tajima Device for controlling robot behavior and method for controlling it
JP2005013391A (ja) 2003-06-25 2005-01-20 Takara Co Ltd 作動玩具

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US5733131A (en) * 1994-07-29 1998-03-31 Seiko Communications Holding N.V. Education and entertainment device with dynamic configuration and operation
US5752880A (en) * 1995-11-20 1998-05-19 Creator Ltd. Interactive doll
US5746602A (en) * 1996-02-27 1998-05-05 Kikinis; Dan PC peripheral interactive doll
US6160540A (en) * 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
JP2001191275A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
JP2002086380A (ja) * 2000-09-12 2002-03-26 Sony Corp 脚式ロボット及びその制御方法
US7066781B2 (en) * 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法
JP4335501B2 (ja) * 2002-07-24 2009-09-30 株式会社エヌ・ティ・ティ・ドコモ モーションコントロールシステム及び制御装置並びにモーションコントロール方法
JP3885019B2 (ja) * 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
TWI262777B (en) * 2004-04-21 2006-10-01 Jason Yan Robotic vacuum cleaner
US20060178775A1 (en) * 2005-02-04 2006-08-10 George Zhang Accelerometer to monitor movement of a tool assembly attached to a robot end effector
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
JP5311294B2 (ja) * 2010-04-28 2013-10-09 株式会社安川電機 ロボットの接触位置検出装置
CN102339023B (zh) * 2010-07-16 2013-11-13 华宝通讯股份有限公司 机械装置控制系统
JP5765095B2 (ja) * 2011-06-30 2015-08-19 富士通株式会社 ロボット、状況認識方法および状況認識プログラム
US20160059142A1 (en) * 2014-08-28 2016-03-03 Jaroslaw KROLEWSKI Interactive smart doll
US10311400B2 (en) * 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
CN107025009B (zh) * 2015-09-18 2020-03-27 延世大学校产协力团 高灵敏度压力传感器及利用其的输入装置
GB2563785B (en) * 2016-03-28 2021-03-03 Groove X Inc Autonomously acting robot that performs a greeting action
SE1650402A1 (en) * 2016-03-29 2017-09-30 Furhat Robotics Ab Customization of robot
JP6354796B2 (ja) * 2016-06-23 2018-07-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
TWI575428B (zh) * 2016-08-02 2017-03-21 Rong-Jing Xu 觸控輔助結構及其應用裝置
US10663361B2 (en) * 2016-10-13 2020-05-26 The Trustees Of Columbia University In The City Of New York Systems and methods for tactile sensing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000093664A (ja) 1998-09-18 2000-04-04 Takara Co Ltd 組合せ玩具
DE29904916U1 (de) 1998-12-15 2000-07-13 Tiger Electronics Ltd Interaktives Spielzeug
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム
US6505098B1 (en) 1999-10-29 2003-01-07 Sony Corporation Robot system, robot device, and its cover
US20030109959A1 (en) 2000-10-20 2003-06-12 Shigeru Tajima Device for controlling robot behavior and method for controlling it
JP2005013391A (ja) 2003-06-25 2005-01-20 Takara Co Ltd 作動玩具

Also Published As

Publication number Publication date
CN109414824B (zh) 2022-07-26
JP6409207B2 (ja) 2018-10-24
DE112017002606T5 (de) 2019-02-21
US11198221B2 (en) 2021-12-14
CN109414824A (zh) 2019-03-01
JP6884401B2 (ja) 2021-06-09
WO2018008323A1 (ja) 2018-01-11
US20190160683A1 (en) 2019-05-30
JP2019022935A (ja) 2019-02-14
GB2564822A (en) 2019-01-23
JPWO2018008323A1 (ja) 2018-07-05
GB201818887D0 (en) 2019-01-02
GB2564822B (en) 2021-08-18

Similar Documents

Publication Publication Date Title
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
DE112017003497B4 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017001573B4 (de) Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
DE112017001874T5 (de) Autonom handelnder Roboter mit Schüchternheit
DE112018005034B4 (de) Autonom handelnder Roboter, der den Begleiter anblickt
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
DE112017004512T5 (de) Autonom agierender Roboter, der einen natürlichen Abstand hält
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
DE112017002589T5 (de) Autonom handelnder Roboter und Computerprogramm
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
JP6671577B2 (ja) 人を識別する自律行動型ロボット
DE112017004414T5 (de) Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
DE112018000722T5 (de) Roboter mit einer weichen Außenhaut
DE112018001700T5 (de) Für Robotergelenk geeignete Gelenkstruktur
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final