DE60036599T2 - Robotervorrichtung, steuerverfahren und aufzeichnungsmedium - Google Patents

Robotervorrichtung, steuerverfahren und aufzeichnungsmedium Download PDF

Info

Publication number
DE60036599T2
DE60036599T2 DE60036599T DE60036599T DE60036599T2 DE 60036599 T2 DE60036599 T2 DE 60036599T2 DE 60036599 T DE60036599 T DE 60036599T DE 60036599 T DE60036599 T DE 60036599T DE 60036599 T2 DE60036599 T2 DE 60036599T2
Authority
DE
Germany
Prior art keywords
light
emotion
robot
unit
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60036599T
Other languages
English (en)
Other versions
DE60036599D1 (de
Inventor
Makoto Inoue
Takeshi Yamagishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE60036599D1 publication Critical patent/DE60036599D1/de
Publication of DE60036599T2 publication Critical patent/DE60036599T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/24Details or accessories for drive mechanisms, e.g. means for winding-up or starting toy engines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0042Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction
    • H02J7/0044Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries characterised by the mechanical construction specially adapted for holding portable devices containing batteries
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J7/00Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries
    • H02J7/0047Circuit arrangements for charging or depolarising batteries or for supplying loads from batteries with monitoring or indicating devices or circuits
    • H02J7/0048Detection of remaining charge capacity or state of charge [SOC]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Description

  • Die vorliegende Erfindung betrifft einen Roboter und dessen Steuerverfahren und ein Aufzeichnungsmedium und ist für einen Haustierroboter anwendbar.
  • In den vergangenen Jahren wurde ein vierbeiniger laufender Haustierroboter, der Aktionen automatisch entsprechend der Regie vom Benutzer und der Umgebung durchführt, durch die Anmelderin der vorliegenden Erfindung entwickelt. Dieser Roboter hat eine Form ähnlich wie Hunde und Katzen, welche in üblichen Haushalten groß gezogen werden, und wirkt entsprechend der Regie vom Benutzer und der Umgebung.
  • Bei einem derartigen Haustierroboter kann, wenn die Emotion, beispielsweise "Ärger" und "Freude" als Antwort auf eine Handlung des Benutzers ausgedrückt werden kann, beispielsweise ein "Hieb" und "Klaps", der Benutzer mit dem Haustierroboter ruhig kommunizieren. Folglich kann in betracht gezogen werden, dass die Zuneigung und die Wissbegierde gegenüber dem Haustierroboter verbessert werden kann, und der Unterhaltungsfaktor weiter verbessert werden kann.
  • Die vorliegende Erfindung wurde aus obiger Sicht entwickelt und versucht, einen Roboter sowie dessen Steuerverfahren und Aufzeichnungsmedium bereitzustellen, womit man in der Lage ist, den Unterhaltungsfaktor weiter zu verbessern.
  • Die japanische Patentanmeldungsveröffentlichung JP-A 63 192 423 offenbart einen Roboter gemäß dem Oberbegriff des Patentanspruchs 1.
  • Die japanische Gebrauchsmusteranmeldung JP-U 64 019 492 offenbart eine Puppenamüsiereinrichtung, bei der Augen durch Aufflackern von licht-emittierenden Dioden gebildet werden.
  • Die vorliegende Erfindung liefert einen Roboter nach Anspruch 1, ein Robotersteuerverfahren nach Anspruch 9 und ein Aufzeichnungsmedium nach Anspruch 14.
  • Damit kann Kommunikation zwischen dem Benutzer und dem Roboter ruhig ausgeführt werden, und eine Robotereinrichtung, ein Steuerverfahren und ein Aufzeichnungsmedium, die in der Lage sind, den Unterhaltungsfaktor weiter zu verbessern, können realisiert werden.
  • Die Erfindung wird weiter mittels eines Ausführungsbeispiels mit Hilfe der beiliegenden Zeichnungen beschrieben, in denen:
  • 1 eine perspektivische Ansicht ist, welche den Aufbau eines Haustierroboters gemäß der Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ein Blockdiagramm ist, welches den Aufbau eines Haustierroboters zeigt;
  • 3 eine perspektivische Ansicht, welche den Aufbau der LED zeigt;
  • 4 eine perspektivische Ansicht ist, welche den Aufbau der LED zeigt;
  • 5 ein Blockdiagramm ist, welches die Verarbeitung der Steuerung zeigt;
  • 6 ein kurz gefasstes Ablaufdiagramm ist, welches jede Bewegung zeigt;
  • 7 ein Konzeptdiagramm ist, welches den Wahrscheinlichkeitsautomat zeigt;
  • 8 ein Konzeptdiagramm ist, welches die Zustandsübergangstabelle zeigt; und
  • 9 ein kurz gefasstes Ablaufdiagramm ist, welches die weitere Ausführungsform zeigt.
  • Mit Hilfe der beiliegenden Zeichnungen wird anschließend eine Ausführungsform der vorliegenden Erfindung ausführlich beschrieben.
  • (1) Aufbau des Haustierroboters 1 nach der Ausführungsform der vorliegenden Erfindung.
  • In 1 bezeichnet das Bezugszeichen 1 allgemein einen Haustierroboter nach der Ausführungsform der vorliegenden Erfindung. Dieser Haustierroboter 1 besitzt Fußeinheiten 3A3D, welche entsprechend mit der vorderen und hinteren sowie der rechten und linken Seite der Körpereinheit 2 verbunden sind, und eine Kopfeinheit 4 und eine Schwanzeinheit 5, die mit dem vorderen Teil bzw. dem hinteren Teil der Körpereinheit 2 verbunden sind.
  • In diesem Fall sind, wie in 2 gezeigt ist, eine Steuerung 10 zum Steuern des gesamten Betriebs dieses Haustierroboters 1 und eine Batterie 11 als Spannungsquelle des Haustierroboters 1 sowie eine interne Sensoreinheit 14, welche aus einem Batteriesensor 12 und einem Temperatursensor 13 besteht, in der Körpereinheit 2 aufbewahrt.
  • Außerdem ist in der Kopfeinheit 4 eine CCD-Kamera (ladungs-gekoppelte Kamera) 15, welche als reale "Augen" funktioniert, eine externe Sensoreinheit 18, welche aus einem Mikrophon 16, welches als Ohren funktioniert, und einem Berührungssensor 17 besteht, und eine LED 19 (licht-emittierende Diode), welche als "Augen" der Erscheinungsform zuliebe funktioniert, und ein Lautsprecher 20, der als "Mund" funktioniert, entsprechend auf den vorher festgelegten Positionen angeordnet.
  • Außerdem sind Betätigungsorgane 211 21n für mehrere Freiheitsgrade an den Gelenken der Beineinheiten 3A3D, den Verbindungsteilen der Beineinheiten 3A3D und der Körpereinheit 2, dem Verbindungsteil der Kopfeinheit 4 bzw. der Körpereinheit 2 und dem Wurzelteil des Schwanzes 5A in der Schwanzeinheit 5 angeordnet (1).
  • Danach schießt die CCD-Kamera 15 der Kopfeinheit 4 ein Bild des Umgebungszustandes und überträgt das resultierende Bildsignal S1A zur Steuerung 10. Außerdem nimmt das Mikrophon 16 die Befehlstöne, beispielsweise "laufen", "hinlegen" oder "nach einem Ball jagen", welche von dem Benutzer angegeben werden, als musikalische Werte über ein Tonbefehlsorgan (in der Figur nicht gezeigt) auf und überträgt das resultierende Audiosignal S1B zur Steuerung 10.
  • Außerdem ist, wie aus 1 deutlich wird, der Berührungssensor 17 auf dem oberen Teil der Kopfeinheit 4 vorgesehen und erfasst den Druck, der durch die reale Handlung empfangen wird, beispielsweise "Klaps" und "Hieb" vom Benutzer und gibt das Erfassungsergebnis an die Steuerung 10 als Druckermittlungssignal S1C aus.
  • Weiter gibt der Batteriesensor 12, der die verbleibende Stärke der Batterie 11 erfasst, das Ermittlungsergebnis an die Steuerung 10 als Erfassungssignal S2A für die restliche Batteriestärke aus, während der Temperatursensor 13 die Innentemperatur des Haustierroboters 1 erfasst und das Erfassungsergebnis an die Steuerung 10 als Temperaturerfassungssignal S2B überträgt.
  • Die Steuerung 10 beurteilt den Umgebungs- und Intern-Zustand des Haustierroboters 1, Anweisungen vom Benutzer und das Vorhandensein oder Nichtvorhandensein von Handlungen vom Benutzer auf Basis des Bildsignals S1A, des Audiosignals S1B und des Druckerfassungssignals S1C (anschließend werden diese alle als externes Sensorsignal 51 bezeichnet), welche von der CCD-Kamera 15, dem Mikrophon 16 bzw. dem Berührungssensor 17 der externen Sensoreinheit 18 zugeführt werden, und das Erfassungssignal S2A über die restliche Batteriestärke und das Temperaturerfassungssignal S2B (anschließend werden diese alle zusammen als internes Sensorsignal S2 bezeichnet), die vom Batteriesensor bzw. vom Wärmesensor der internen Sensoreinheit 14 zugeführt werden.
  • Danach bestimmt die Steuerung 10 die folgende Handlung auf Basis dieses Beurteilungsergebnisses und des Steuerprogramms, welches vorher im Speicher 10A gespeichert wurde, und, durch Ansteuern der notwendigen Betätigungsorgane 211 21n bewirkt sie auf Basis des Bestimmungsergebnisses, dass die Kopfeinheit 4 nach oben und unten sowie nach rechts und links schwenkt, und bewirkt, dass der Schwanz der Schwanzeinheit 5 schwenkt, oder durch Ansteuern aller Beineinheiten 3A3D bewirkt, dass der Roboter läuft.
  • Außerdem gibt in diesem Fall durch Liefern des vorher festgelegten Audiosignals S3 an den Lautsprecher 20, wenn erforderlich, die Steuerung 10 Töne auf Basis des Audio signals S3 nach außen hin aus, oder veranlasst durch Ausgeben des LED-Ansteuersignals S4 an die LED 19 als "Augen" in Erscheinungsform, dass die LED 19 aufflackert.
  • Folglich kann dieser Haustierroboter 1 automatisch auf Basis der Umgebungsbedingung und des internen Zustands und des Vorhandenseins oder Nichtvorhandenseins des Befehls oder der Annäherung vom Benutzer handeln.
  • Danach wird der ausführliche Aufbau der LED 19 als "Augen" der Erscheinungsform des Haustierroboters 1 zuliebe in 3 beschrieben. Wie aus 3 deutlich wird, weist die LED 19 zwei Rot-LED 19R1 und 19R2 auf, die entsprechend Rotlicht emittieren, und zwei Grün-LED 19G1 und 19G2 , die entsprechend Grünlicht emittieren.
  • In diesem Fall hat jede Rot-LED 19R1 und 19R2 der licht-emittierenden Einheit eine geradlinige Form mit der vorher festgelegten Länge. Diese sind ungefähr auf der mittleren Stufe in der Längsrichtung der Kopfeinheit 4 angeordnet, so dass diese enger werden, wenn die Kopfeinheit 4 nach vorne voranschreitet, welche durch einen Pfeil a gezeigt ist. Somit kann bei diesem Haustierroboter 1 durch gleichzeitiges Aufleuchtenlassen dieser Rot-LEDs 19R1 und 19R2 dieser Haustierroboter den Ausdruck "Ärger" zeigen, als ob er ärgerlich wird, indem er seine Augen nach oben dreht.
  • Außerdem haben alle Grün-LED 19G1 und 19G2 dieser licht-emittierenden Einheit eine Bogenform mit der vorher festgelegten Länge. Diese sind auf unmittelbar vorhergehenden Stellen der entsprechenden Rot-LED 19R1 und 19R2 auf der Kopfeinheit 4 angeordnet, wobei diese innerhalb des Bogens in der Vorderrichtung angeordnet sind (ein Pfeil a). Mit dieser Anordnung kann durch Aufleuchten dieser Rot-LED 19G1 , 19G2 zusammen dieser Haustierroboter den Ausdruck zeigen "Freude", als ob er lachen würde.
  • Bei diesem Haustierroboter 1 ist das obere Teil des boxförmigen Körpers von dem nahen vorderen Rand der Kopfeinheit 4 bis zur unmittelbar vor dem Berührungssensor 17 mit einer schwarzen halbdurchlässigen Abdeckung 4a übergedeckt, welche aus beispielsweise Kunststoffgebildet ist, so dass diese roten LED 19R1 , 19R2 und die grünen LED 19G1 , 19G2 nach obenhin übergedeckt sind.
  • Somit ist es bei diesem Haustierroboter 1 schwierig, dass sie von außerhalb bestätigt werden, wenn die LED 19 nicht aufleuchtet. Wenn dagegen die LED 19 aufleuchtet, können diese leicht optisch von außerhalb bestätigt werden. Damit kann das Empfinden einer realen Unordnung, welches durch die Erscheinung von "Augen" von zwei Arten verursacht wird (rote LED 19R1 , 19R2 und grüne LED 19G1 , 19G2 ) effektiv vermieden werden.
  • In diesem Zusammenhang ist bei diesem Haustierroboter 1 die optische Achse der CCD-Kamera 15, die wie reale "Augen" funktioniert, parallel mit einem Pfeil a auf dem Randteil der Kopfeinheit 4 angeordnet. Damit kann der vordere Zustand, dem die Kopfeinheit 4 zugewandt ist, sicher durch diese CCD-Kamera 1 fotografiert werden.
  • (2) Verarbeitung der Steuerung 10
  • Anschließend wird die Verarbeitung der Steuerung 10 im Haustierroboter 1 ausführlich wie folgt beschrieben:
    Die Steuerung 10 führt verschiedene Verarbeitungen, wie oben beschrieben, gemäß dem Steuerprogramm durch, welches im Speicher 10A gespeichert ist. Der Verarbeitungsinhalt dieser Steuerung 10 kann gemäß den Funktionen klassifiziert werden, welche in 5 gezeigt sind, d.h., einer Zustandserkennungseinheit 30 zum Erkennen des externen und inneren Zustands, einer Emotions-/Instinktmodelleinheit 31 zum Bestimmen des Zustands des Fühlens und des Instinkts auf Basis des Erkennungsergebnisses der Zustandserkennungseinheit 30, einer Aktionsbestimmungseinheit 32 zum Bestimmen der nachfolgenden Handlung auf Basis des Erkennungsergebnisses der Zustandserkennungseinheit 30 und des Ausgangssignals der Emotions-/Instinktmodelleinheit 31, und einer Handlungsbildungseinheit 33, um zu veranlassen, dass der Haustierroboter die Handlung entsprechend dem Bestimmungsergebnis der Aktionserfassungseinheit 32 bildet.
  • Danach werden die Zustandserkennungseinheit 30, Bewegungs-Instinktmodelleinheit 31, die Handlungserfassungseinheit 32 und die Handlungsbildungseinheit 33 ausführlich wie folgt beschrieben.
  • (2-1) Aufbau der Zustandserkennungseinheit 30
  • Die Zustanderkennungseinheit 30 erkennt den spezifischen Zustand auf Basis des externen Informationssignals S1, welches von der externen Sensoreinheit 18 abgegeben wird (2) und des internen Informationssignals S2, welches von der internen Sensoreinheit 14 abgegeben wird (2) und teilt das Erkennungsergebnis der Bewegungs-/Instinktmodelleinheit 31 und der Handlungserfassungseinheit 32 als eine Bedingungserkennungsinformation S10 mit.
  • In der Praxis überwacht die Zustandserkennungseinheit 30 konstant das Bildsignal S1A, welches von der CCD-Kamera 15 (2) der externen Sensoreinheit 18 geliefert wird. Wenn sie beispielsweise einen "roten runden Gegenstand" oder "eine vertikale Ebene" erfasst, erkennt sie, dass es "einen Ball gibt" oder "dass es eine Wand gibt" und teilt das Erkennungsergebnis der Bewegungs-/Instinktmodelleinheit 31 und der Handlungserfassungseinheit 32 mit.
  • Außerdem überwacht die Zustandserkennungseinheit 30 das Audiosignal S1B, welches vom Mikrophon 16 geliefert wird (2). Wenn sie erkennt, dass der Befehlston, beispielsweise "laufen", "hinlegen" oder "nach einem Ball jagen" auf Basis des Audiosignals S1B zugeführt wird, teilt sie das Erkennungsergebnis der Emotion-/Instinktmodelleinheit 31 und der Aktionserfassungseinheit 32 mit.
  • Außerdem überwacht die Zustandserkennungseinheit 30 laufend das Druckerfassungssignal S1C (2), welches vom Berührungssensor 17 geliefert wird (2). Wenn sie den Druck von mehr als den vorher festgelegten Schwellenwert und die kurze Zeitdauer (beispielsweise weniger als 2 Sekunden) erfasst, erkennt sie, dass dies "ein Stoß ist (beschimpft wurde)". Wenn sie den Druck von weniger als den vorher festgelegte Schwellenwert und die lange Zeitdauer (beispielsweise über 2 Sekunden) erfasst, erkennt sie, dass er "getätschelt wird (gelobt wird)" und teilt das Erkennungsergebnis der Emotion-/Instinktmodelleinheit 31 und der Handlungserfassungseinheit 32 mit.
  • Außerdem überwacht die Zustandserkennungseinheit 30 laufend das Temperaturerfassungssignal S2B (2), welches vom Temperatursensor 13 (2) der internen Sensoreinheit 14 (2) geliefert wird. Wenn sie die Temperatur von mehr als eine vorher festgelegte Temperatur ermittelt, erkennt sie, dass die "interne Temperatur nach oben gegangen ist" und teilt das Erkennungsergebnis der Emotion-/Instinktmodelleinheit 31 und der Handlungserfassungseinheit 32 mit.
  • (2-2) Aufbau der Emotions-/Instinktmodelleinheit 31
  • Die Emotions-/Instinktmodelleinheit 31 hält den Parameter, um die Stärke der emotionalen Handlung über eine Gesamtheit von 6 emotionellen Handlungen zu zeigen, "Freude", "Traurigkeit", "Überraschung", "Furcht", "kein Appetit" und "Ärger" bei jeder emotionellen Handlung. Dann aktualisiert die Emotions-/Instinktmodelleinheit 31 nacheinander den Parameterwert jeder emotionellen Handlung auf Basis des spezifischen Erkennungsergebnisses, beispielsweise "gestoßen" und "getätschelt", welches von der Zustandserkennungseinheit 30 entsprechend als Zustanderkennungsinformation S10 geliefert wird, die Handlungserfassungsinformation S12, welche die erfasste Ausgangshandlung zeigt, welche von der Handlungserfassungseinheit 32 geliefert wird, und die abgelaufene Zeit.
  • Insbesondere berechnet auf Basis des Grads des Erkennungsergebnisses, das auf Basis der Zustandserkennungsinformation S10 erlangt wird, und der Ausgangsaktion auf Basis der Aktionserfassungsinformation S12, die bei der emotionellen Handlung (welche vorher festgelegt ist) handelt, und dem Grad der Steuerung und der Stimulation, welche von der anderen emotionellen Handlung empfangen werden, die Emotions-/Instinktmodelleinheit 31 den Parameterwert der emotionellen Handlung im folgenden Zyklus E[t + 1] unter Verwendung der folgenden Gleichung: E[t + 1] = E[t] + k0 × ΔE[t] (1)wobei die Menge der Änderung der emotionalen Handlung, die durch die vorher festgelegte Gleichung berechnet wird, = E[t];
    der laufende Parameterwert der emotionellen Handlung = E[t];
    der Koeffizient, der den Grad der Änderung von seiner emotionellen Handlung zeigt, welche dem Erkennungsergebnis entspricht, = k0.
  • Danach aktualisiert die Emotion-/Instinktmodelleinheit 31 den Parameterwert dieser emotionellen Handlung, wobei er dieses Berechnungsergebnis mit dem aktuellen Parameterwert der emotionellen Aktivität E[t] ersetzt. In diesem Zusammenhang wird, welcher emotionelle Aktionsparameterwert zu jedem Erkennungsergebnis und jeder Ausgangsaktivität aktualisiert werden würde, vorher festgelegt. Wenn beispielsweise das Erkennungsergebnis beispielsweise "Stoß" angegeben wird, steigt der Parameterwert der emotionellen Handlung "Ärger" an, und der Parameterwert der emotionellen Handlung von "Freude" fällt ab. Wenn das Erkennungsergebnis, beispielsweise "getätschelt" vorliegt, steigt der Parameterwert der emotionellen Handlung von "Freude" an, und der Parameterwert der emotionellen Handlung "Traurigkeit" fällt ab. In diesem Zusammenhang sind ausführlichere Erläuterungen für jede dieser emotionellen Handlungen und ein Beispiel von konkreten Ursachen, wie diese emotionellen Handlungen variiert werden, in 6 gezeigt.
  • In ähnlicher Weise hält die Emotions-/Instinktmodelleinheit 31 den Parameter, der die Stärke des Wunsches pro Wunsch auf vier unterschiedlichen Wünschen zeigt, "Wunsch nach Übung", "Wunsch nach Liebe", "Appetit auf Futter" und "Neugierigkeit". Danach aktualisiert die Emotions-/Instinktmodelleinheit 31 nacheinander diese Parameterwerte der Wünsche auf Basis des Erkennungsergebnisses von der Zustandserkennungseinheit 30, der abgelaufenen Zeit und der Information von der Handlungserfassungseinheit 32.
  • Insbesondere berechnet die Emotions-/Instinktmodelieinheit 31 den Parameterwert des Wunsches I[k + 1] im folgenden Zyklus unter Verwendung der folgenden Gleichung bei dem festen Zyklus auf Basis der Ausgangshandlung des Haustierroboters 1, der abgelaufenen Zeit und des Erkennungsergebnisses in Bezug auf "Wunsch nach Übung", "Wunsch nach Liebe" und "Neugierigkeit". I[k+ 1] = I[k] + k1 × ΔI[k] (2)wobei das Maß der Wunschänderung, welches durch die folgende Gleichung zu berechnen ist, gleich ΔI [k] ist;
    der Parameterwert des Wunsches auf Abziehung gleich I[k] ist; und
    der Koeffizient, welcher das Empfinden dieses Wunsches zeigt, gleich k1 ist. Durch Ersetzen dieses Berechnungsergebnisses durch den aktuellen Wunschparameterwert I[k] wird dieser Wunschparameterwert aktualisiert. In diesem Zusammenhang wird, welcher Wunschparameterwert zu ändern ist, vorher bestimmt. Wenn eine Information, welche informiert, dass die Handlung vorgenommen wurde, von der Aktionserfassungseinheit 32 empfangen wird, wird der Parameterwert von "Wunsch nach Übung" abfallen.
  • Auf Basis des Batterieladungszustands-Erfassungssignals S2A (2), welches über die Zustandserkennungseinheit 30 geliefert wird, berechnet außerdem die Emotions-/Instinktmodelleinheit 31 den Parameterwert von "Appetit auf Futter" I[k + 1] unter Verwendung der folgenden Gleichung bei dem festen Zyklus. I[k] = 100 – BL (3)wobei der Batterieladezustand gleich BL ist.
  • Dann aktualisiert die Emotions-/Instinktmodelleinheit 31 den Parameterwert von "Appetit auf Futter", wobei dieses Berechnungsergebnis durch den aktuellen Appetitparameterwert I[k] ersetzt wird.
  • In diesem Zusammenhang wird gemäß der Ausführungsform der vorliegenden Erfindung der Parameterwert der Bewegung und jedes Wunsches so geregelt, dass dieser sich innerhalb des Bereichs 0 bis 100 ändern werden, und auch die Koeffizientenwerte k0 und k1 werden individuell für jede Emotion und jeden Wunsch eingestellt.
  • (2-3) Aufbau der Aktionserfassungseinheit 32
  • Die Aktionserfassungseinheit 32 erfasst die nächste Handlung auf Basis der Zustandserkennungsinformation S10, welche von der Zustandserkennungseinheit 30 geliefert wird, des Parameterwerts jeder Emotion und jedes Wunsches in der Emotions-/Instinktmodelleinheit 31, des Aktionsmodells, welches im Speicher 10A vorher gespeichert wurde und der abgelaufenen Zeit, und sendet das Erfassungsergebnis an die Emotions-/Instinktmodelleinheit 31 und die Aktionsbildungseinheit 33 als Aktionserfassungsinformation S12.
  • In diesem Fall verwendet als Verfahren zum Erfassen der nächsten Handlung die Aktionserfassungseinheit 32 den Algorithmus, der als Wahrscheinlichkeitsautomat bezeichnet wird, um zu bestimmen, ob von einem Knoten KNOTEN0 auf den gleichen übergegangen wird oder welchen anderen KNOTEN0-KNOTENn auf Basis der Übergangswahrscheinlichkeit P0–Pn, die entsprechend auf Bogen ARC0–ARCn eingestellt wurde, welche jeden Knoten KNOTEN0–KNOTENn verbinden.
  • Insbesondere ist eine Zustandsübergangstabelle 40 für jeden Knoten KNOTEN0–KNOTENn, wie in 8 gezeigt ist, im Speicher 10A als ein Handlungsmodell gespeichert, und die Aktionserfassungseinheit 32 erfasst die nächste Aktion auf Basis dieser Zustandsübergangstabelle 40.
  • In diesem Zeitpunkt werden in der Zustandsübergangstabelle 40 die zugeführten Ereignisse (Erkennungsergebnis der Zustandserkennungseinheit 30), welche den Übergang als erforderlich in diesen Knoten KNOTEN0–KNOTENn machen, in Spalte "zugeführte Ereignis" in der Prioritätsreihenfolge aufgelistet, und die Zusatzzustände über diesen Zustand sind in den jeweiligen Zeilen in den Spalten "Namen von Daten" und "Rang von Daten" beschrieben.
  • Folglich wird im Knoten KNOTEN100, der in der Zustandstabelle von 8 definiert ist, folgendes zur Voraussetzung zum Übertragen zu sich selbst oder zu dem anderen Knoten; d.h., wenn das Erkennungsergebnis "einen Ball ermittelt (BALL)" gegeben ist, ist "Größe (SIZE)" des Balls, welche mit dem Erkennungsergebnis geliefert wird, im Bereich "Bereich von 0 bis 1000 (0, 1000)", und, wenn das Erkennungsergebnis "Hindernis ermittelt" geliefert wird, ist "der Abstand" zu diesem Hindernis, der mit dem Erkennungsergebnis geliefert wird, der "Bereich von 0 bis 100 (0, 1000)".
  • In diesem Knoten KNOTEN100 kann außerdem sogar in dem Fall, wenn kein Erkennungsergebnis eingegeben wird, wenn entweder einer der Parameterwerte von emotionellen Handlungen "Freude", "Überraschung" oder "Traurigkeit" unter den Parameterwerten jeder emotionellen Handlung und jeden Wunsches der Emotions-/Instinktmodelleinheit 31, auf welche sich die Handlungserfassungseinheit 32 bezieht, periodisch im Bereich "von 0 bis 100 (50, 100)" liegt, dieser zu sich selbst oder zum anderen Knoten übertragen werden.
  • Außerdem sind in der Zustandsübergangstabelle 40 die Namen von Knoten, welche vom Knoten KNOTEN0–KNOTENn übertragen werden können, in den Reihen "Knoten des Übergangsendes" in der Spalte "Übergangswahrscheinlichkeit zu anderen Knoten" aufgelistet. Simultan wird die Übergangswahrscheinlichkeit dieses Knotens KNOTEN0–KNOTENn in diesem Zeitpunkt, wenn alle Zustände, welche in jeder Zeile "Namen des gelieferten Ereignisses", "Datenwert" und "Bereich der Daten" erfüllt sind, auf der Zeile des Knotens KNOTEN0–KNOTENn in der Spalte von "Übergangswahrscheinlichkeit zu anderen Knoten" beschrieben, und die Handlung oder Bewegung, die in diesem Moment ausgegeben wird, wird in der Zeile "Ausgabe von Handlung" beschrieben. In diesem Zusammenhang wird die Summe der Übergangswahrscheinlichkeit jeder Zeile in der Spalte "Übergangswahrscheinlichkeit zu anderen Knoten" zu 100%.
  • Folglich kann in Bezug auf den Knoten KNOTEN100 diese Beispiels, wenn das Erkennungsergebnis, dass "Größe" dieses Balls von dem "Bereich von 0 bis 100 (0, 1000)" geliefert wird, dies zum "Knoten KNOTEN120" mit der Wahrscheinlichkeit von "30%" übertragen werden, und in diesem Augenblick wird die Aktion oder Bewegung "Aktion" ausgesendet.
  • Das Aktionsmodell besteht aus einer Anzahl von Knoten KNOTEND–KNOTENn, die als Zustandsübergangstabelle 40 beschrieben wurden, die miteinander verknüpft sind.
  • Mit dieser Anordnung erfasst, wenn die Zustandserkennungsinformation S10 von der Zustandserkennungseinheit 30 geliefert wird und/oder die feste Zeit abgelaufen ist, da die Handlung, die durchgeführt wurde, die letzte ist, die Aktionserfassungseinheit 32 die nächste Aktion oder Bewegung (Aktion oder Bewegung, welche in der Zeile "Ausgabeaktion" beschrieben wurde) bei Verwendung der Zustandsübergangstabelle 40 des entsprechenden Knotens KNOTEN0–KNOTENn unter dem Handlungsmodell, welches im Speicher 10A gespeichert ist, und gibt das Erfassungsergebnis an die Emotions-/Instinktmodelleinheit 31 und die Handlungsbildungseinheit 33 als Handlungserfassungsinformation S12 aus.
  • (2-3) Verarbeitung der Handlungsbildungseinheit 33
  • Auf Basis der Handlungserfassungsinformation S12, welche von der Handlungserfassungseinheit geliefert wird, überträgt die Handlungsbildungseinheit 33 Ansteuersignale S131–S13n, zu den notwendigen Betätigungsgliedern 211 21n (2) und überträgt das notwendige Audiosignal S3 an den Lautsprecher 20 (2) und sendet das LED-Ansteuersignal S4 zur LED 19.
  • Somit steuert auf Basis der Ansteuersignale 131 13n die Aktionsbildungseinheit 33 die notwendigen Betätigungsglieder 211 21n auf den vorher festgelegten Zustand und/oder gibt Töne auf Basis des Audiosignals 3 vom Lautsprecher 20 aus und/oder lässt die LED mit dem aufflackernden Muster auf Basis des LED-Ansteuersignals S3 aufflackern.
  • (3) Beziehung zwischen Emotion und "Augen"-Aufflackern
  • Danach wird bei diesem Haustierroboter die Beziehung zwischen dem Emotionsausdruck und dem Aufflackern der LED 19, welche als "Augen" der Erscheinungsform zuliebe funktioniert, in den folgenden Abschnitten beschrieben.
  • Bei diesem Haustierroboter 1 werden die nachfolgende Handlung und Bewegung auf Basis der entsprechenden Zustandsübergangstabelle 40 (8) in der Handlungserfassungseinheit 32 bestimmt, welche eine von Funktionen der Steuerung 10 ist, wie oben beschrieben.
  • In diesem Fall ist die Handlung, um jede Grün-LED 19G1, 19G2 von der LED 19 zum Aufflackern zu bringen, mit der Ausgangshandlung (beispielsweise "Handlung 2" in 8) entsprechend dem Erkennungsergebnis von "getätschelt (PAT)" verbunden.
  • In dem Zeitpunkt, wenn das Erkennungsergebnis von "Klaps" von der Zustandserkennungseinheit 30 geliefert wird, erfasst die Aktionserfassungseinheit 32 die nachfolgende Aktion und Bewegung unter Verwendung der entsprechenden Zustandsübergangstabelle 40 wie oben beschrieben, sowie die Übertragung der erfassten Aktion und Bewegung zur Aktionsbildungseinheit 33 als Aktionserfassungsinformation S12, liest den Parameterwert "Freude" in der Emotions-/Instinktmodelleinheit 31 und teilt dies der Aktionsbildungseinheit 33 mit.
  • Somit veranlasst in diesem Zeitpunkt durch Ansteuern der notwendigen Betätigungsglieder 211 21n die Aktionsbildungseinheit 33, dass diese die spezifische "Freude" ausdrücken. Außerdem oder anstelle davon lässt sie jede Grün-LED 19G1 , 19G2 aufflackern, damit, umso größer der Wert wird, desto schneller der Aufflackerzyklus wird. Mit dieser Anordnung kann der Haustierroboter 1 die Emotion "Freude" ausdrücken, als ob er lachen würde.
  • Ähnlich ist die Aktion, um jede Rot-LED 19R1 19R2 in der LED 19 aufflackern zu lassen, mit jeder Ausgangsaktion (beispielsweise "Aktion 3" in 8) verbunden, entsprechend mit dem Erkennungsergebnis, beispielsweise "Hieb" in der Zustandsübergangstabelle.
  • Wenn das Erkennungsergebnis "Hieb" von der Zustandserkennungseinheit 30 geliefert wird, bestimmt außerdem die Aktionserfassungseinheit 32 die folgende Aktion und Bewegung unter Verwendung der entsprechenden Zustandsübergangstabelle 40, sowie das Senden der erfassten Aktion und Bewegung von der Aktionsbildungseinheit 33 als Aktionserfassungsinformation S12, liest den Wert des Parameters "Ärger" in der Emotions-/Instinktmodelleinheit 31 und teilt dies der Aktionsbildungseinheit 33 mit.
  • Damit veranlasst in diesem Augenblick die Aktionsbildungseinheit 33 durch Ansteuern des notwendigen Betätigungsglieds 211 21n auf Basis der Aktionserfassungsinformation S12, welche von der Aktionserfassungseinheit 32 geliefert wird, dass der Roboter handelt, um den spezifizierten "Ärger" auszudrücken, oder anstelle davon veranlasst, dass jede Rot-LED 19R1 , 19R2 entsprechend dem Wert des Parameters "Ärger" in diesem Zeitpunkt aufflackert, so dass, um so größer der Wert wird, desto schneller der Aufflackerzyklus wird. Mit dieser Anordnung kann der Haustierroboter 1 die Emotion von "Ärger" ausdrücken, als ob er ärgerlich sei.
  • Dagegen ist die Aktion, um jede Rot-LED 19R1 , 19R2 und jede Grün-LED 19G1 , 19G2 der LED aufflackern zu lassen, mit jeder Ausgangsaktion (beispielsweise "AKTION 4" in 8) entsprechend dem spezifischen Erkennungsergebnis verbunden, um die vorher festgelegte "Überraschung" auszudrücken, beispielsweise "große Tonausgabe (SOUND)" in der Zustandsübergangstabelle 40.
  • Wenn die Aktionserfassungseinheit 32 mit dem spezifischen Erkennungsergebnis, um "Überraschung" auszudrücken, von der Zustandserkennungseinheit 30 beliefert wird, bestimmt sie außerdem die folgende Aktion und Bewegung unter Nutzung der entsprechenden Zustandsübergangstabelle 40 und teilt dieses Erfassungsergebnis der Aktionsbildungseinheit 33 mit.
  • Somit veranlasst in diesem Augenblick die Aktionsbildungseinheit 33 unter Ansteuerung des notwendigen Betätigungsorgans 2121 auf Basis der Aktionserfassungsinformation S12, welche von der Aktionserfassungseinheit 32 geliefert wird, dass der Haustierroboter 1 die Aktion durchführt, welche das spezifizierte "Überraschen" zeigt und gleichzeitig jede Rot-LED 19R1 , 19R2 und jede Grün-LED 19G1 , 19G2 nacheinander und abwechselnd aufflackern zu lassen. Damit kann der Haustierroboter 1 die Bewegung "Überraschung" durch abwechselndes Wiederholen des Ausdrucks von Lachen und des Ausdrucks von Ärger zum Ausdruck bringen.
  • Mit der obigen Anordnung kann dieser Haustierroboter 1 die Emotion "Freude", "getätschelt" zu werden, die Emotion "Ärger", um "geschlagen zu werden" und die Emotion "Überraschung" zum spezifizierten Erkennungsergebnis durch Aufflackernlassen jeder Rot-LED 19R1 , 19R2 und/oder jeder Grün-LED 19G1 , 19G2 als Ausdruck ausdrücken.
  • (4) Arbeitsweise und Wirkung der vorliegenden Ausführungsform
  • Gemäß dem obigen Aufbau flackern bei diesem Haustierroboter 1, wenn der Benutzer das obere Teil (Berührungssensor 17) der Kopfeinheit 4 stößt, die Rot-LED 19R1 und 19R2 simultan auf, und der Roboter drückt die Emotion "Ärger" aus, als ob er ärgerlich sein würde, wobei er seine Augen nach oben dreht. Wenn dagegen der Benutzer den Roboter tätschelt, flackert die Grün-LED 19G1 , 19G2 simultan auf, und der Roboter drückt die Emotion "Freude" aus, als ob er lachen würde. Wenn ein lauter Ton in dem Umgebungsbereich erzeugt wird, flackert außerdem die Rot-LED 19R1 , 19R2 und die Grün-LED 19G1 , 19G2 abwechselnd auf und der Roboter bringt die Emotion "Überraschung" zum Ausdruck, als ob er überrascht würde, wobei er seine Augen öffnet und schließt.
  • Folglich kann mit diesem Haustierroboter 1 der Benutzer leicht den Emotionszustand dieses Haustierroboters 1 auf Basis des Aufflackerzustands der LED 19 erkennen. Da außerdem der Roboter die Emotion entsprechend der Aktion des Benutzers zum Ausdruck bringt, beispielsweise "Klaps" oder "Stoß", kann die Kommunikation zwischen dem Benutzer und dem Roboter ruhiger ausgeführt werden.
  • Gemäß dem obigen Aufbau kann, da die Emotion des Haustierroboters 1 durch Aufflackern der LED 19 als "Augen" der Erscheinungsform zuliebe realisiert wird, die Kommunikation mit dem Benutzer ruhiger durchgeführt werden, wodurch der Haustierroboter in der Lage ist, den Unterhaltungsfaktor bemerkenswert zu verbessern, realisiert werden kann.
  • (5) Weitere Ausführungsformen
  • Die oben beschriebene Ausführungsform hat sich mit dem Fall befasst, wo die vorliegende Erfindung bei einem vierbeinigen laufenden Haustierroboter 1, der wie in 1 aufgebaut ist, angewandt wird. Die vorliegende Erfindung ist jedoch nicht nur darauf beschränkt, sondern kann breit auf die Robotereinrichtung angewandt werden, welche verschiedene andere Formen hat (einschließlich als Spielzeug).
  • Außerdem hat sich die oben beschriebene Ausführungsform mit dem Fall befasst, wo die LED 19 als licht-emittierende Einrichtung angewandt wird. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, sondern kann kurz ausgedrückt bei verschiedenen anderen licht-emittierenden Einrichtungen angewandt werden, welche Licht emittieren, können breit verwendet werden.
  • In diesen Fällen kann als licht-emittierendes Element 50, welches in Form einer Matrix und eine farbige oder schwarze und weiße Anzeige angeordnet ist, angewandt werden. Durch Anwenden dieser licht-emittierenden Einrichtung kann eine Vielzahl von Formen als Augen der Erscheinungsform zuliebe angezeigt werden, und dadurch kann eine Vielzahl von Ausdruckweisen zum Ausdruck gebracht werden.
  • Außerdem hat sich die oben beschriebene Ausführungsform mit dem Fall befasst, wo drei Emotionen (Emotionsaktionen) "Freude", "Ärger" und "Überraschung" zum Ausdruck gebracht werden, gemäß dem Lichtemissionszustand der LED 19, welche als Augen der Erscheinungsform zuliebe funktioniert. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, sondern es können zusätzlich zu diesen Emotionen oder anstelle dieser Emotionen die weiteren Emotionen (Emotionsaktionen) gemäß dem Lichtemissionszustand der LED 19 ausgedrückt werden.
  • Außerdem hat sich die oben beschriebene Ausführungsform mit dem Fall befasst, wo die LED für zwei Farben einer Rot-LED 19R1 , 19R2 und einer Grün-LED 19G1 , 19G2 als LED 19 verwendet wird. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, sondern es kann auch die LED einer Farbe oder mehr als drei Farben bereitgestellt werden, und diese können das Licht mit einem vorher festgelegten Lichtemissionsmuster entsprechend den Emotionen emittieren.
  • Außerdem hat sich die oben beschriebene Ausführungsform mit dem Fall befasst, den Aufflackerzyklus der LED 19 schneller zu machen, je stärker die Emotion wird. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, sondern es kann auch die Helligkeit des emittierenden Lichts der LED 19 gesteigert werden, je stärker die Emotion wird. Kurz ausgedrückt, wenn das Lichtemissionsmuster der LED 19 entsprechend der Stärke der Emotion geändert würde, können verschiedene weitere Lichtemissionsmuster als Lichtemissionsmuster angewandt werden.
  • Die oben beschriebene Ausführungsform hat sich außerdem mit dem Fall befasst, wo die CCD-Kamera 15, das Mikrophon 16 und der externe Sensor 17 als externer Sensor angewandt werden, um den externen Zustand und das externe Eingangssignal zu erfassen. Die vorliegende Erfindung ist jedoch nicht nur darauf beschränkt, sondern kurz ausgedrückt, wenn der Sensor diesen externen Zustand und das externe Eingangssignal erfassen kann, können verschiedene andere Sensoren breit als externe Sensoren zusätzlich und anstelle dieser Sensoren angewandt werden.
  • Die oben beschriebene Ausführungsform hat sich außerdem mit dem Fall befasst, wo der Speicher 10A als Aufzeichnungsmedium zum Aufzeichnen des Steuerprogramms im Haustierroboter 1 angewandt wird. Die vorliegende Erfindung ist jedoch nicht nur darauf beschränkt, sondern kurz ausgedrückt können, wenn das Aufzeichnungsmedium, welches das Steuerprogramm aufzeichnen kann und dieses reproduzieren kann, verschiedene weitere Aufzeichnungsmedien breit angewandt werden.
  • Außerdem hat sich die oben beschriebene Ausführungsform mit dem Fall befasst, dass der Berührungssensor 17 auf dem oberen Teil der Kopfeinheit 4 des Haustierroboters 1 angeordnet ist. Die vorliegende Erfindung ist jedoch nicht nur auf diesen Fall beschränkt, sondern der Berührungssensor kann auf einer anderen Stelle angeordnet sein. Durch Anordnen des Berührungssensors 17 vor dem Kopf oder auf dem Scheitel des Kopfteils kann Kommunikation zwischen dem Haustierroboter 1 und dem Benutzer leicht durchgeführt werden, und veranlasst werden, dass der Benutzer leicht sein Gefühl gegenüber dem Haustierroboter 1 übertragen kann. Und dies wird offensichtlich durch Erfahrung bestätigt und aus der Praxis bestätigt.
  • Die oben beschriebene Ausführungsform hat sich außerdem mit dem Fall befasst, wo der Berührungssensor 17 als Einrichtung zum Erfassen der Bewegung von dem Benutzer angewandt wird, beispielsweise "Hieb" oder "Klaps". Die vorliegende Erfindung ist jedoch nicht nur darauf beschränkt, sondern es kann auch ein Schalter anstelle des Berührungssensors 17 vorgesehen sein. Durch die Erfassung der Bewegung, beispielsweise "Hieb" vom Benutzer durch Einschalten bzw. Ausschalten dieses Schalters kann die LED 19 aufflackern, auf Basis des Erfassungsergebnisses, und die Emotion des Haustierroboters kann zum Ausdruck gebracht werden.
  • Industrielle Verwertbarkeit
  • Die vorliegende Erfindung kann bei einem Unterhaltungsroboter angewandt werden, beispielsweise einem Haustierroboter.
  • 1
    Haustierroboter
    4
    Kopfeinheit
    4A
    halbtransparente Abdeckung
    10
    Steuerung
    10A
    Berührungssensor
    15
    CCD-Kamera
    16
    Mikrophon
    17
    Berührungssensor
    19R1, 19R2
    rote LED
    19G1, 19G2
    grüne LED
    211–212
    Betätigungsorgan
    30
    Zustandserkennungseinheit
    31
    Emotion-/Instinktmodelleinheit
    32
    Handlungserfassungseinheit
    33
    Handlungsbildungseinheit
    40
    Zustandsübergangstabelle
    S3
    Audiosignal
    S4
    LED-Ansteuersignal
    S10
    Zustandserkennungsinformation
    S11
    Handlungserfassungsinformation
    S12
    Ansteuersignal

Claims (14)

  1. Roboter (1), der aufweist: eine licht-emittierende Einrichtung (19), welche der Erscheinungsform zuliebe als Augen arbeitet; einen externen Sensor (18) zum Erfassen eines externen Zustands und/oder eines Eingangssignals von außerhalb; und eine Steuereinrichtung (10) zum Erzeugen eines Steuersignals für die lichtemittierende Einrichtung, um eine Emotion auf Basis eines Ausgangssignals des externen Sensors (18) auszudrücken; dadurch gekennzeichnet, dass die Steuereinrichtung (10) eine Modelleinheit (31) aufweist, die betriebsfähig ist, einen variablen Parameter zu modellieren, um einen Wunsch des Roboters auszudrücken und um zu bewirken, dass das Steuersignal eine Funktion der Intensität des variablen Parameters ist.
  2. Roboter nach Anspruch 1, wobei die licht-emittierende Einrichtung (19) eine licht-emittierende Diode ist.
  3. Roboter nach Anspruch 1 oder 2, wobei die Steuereinrichtung (10) betriebsfähig ist, ein Steuersignal zu erzeugen, welches die Intensität der Emotion durch ein aufflackerndes Musters der licht-emittierenden Einrichtung (19) ausdrückt.
  4. Roboter nach Anspruch 1 oder 2, der mehrere licht-emittierende Einrichtungen (19R, 19G) aufweist, die betriebsfähig sind, Licht unterschiedlicher Farben entsprechend zu emittieren, wobei die Steuereinrichtung (10) betriebsfähig ist, ein Steuersignal zu erzeugen, welches die Emotion durch die Farbe des aufflackernden Lichts, welches durch die lichtemittierende Einrichtung emittiert wird, ausdrückt.
  5. Roboter nach Anspruch 1 oder 2, der eine Bewegungseinheit und eine Ansteuereinheit, um die Bewegungseinheit anzusteuern, aufweist, wobei die Steuereinrichtung (10) betriebsfähig ist, ein Steuersignal zu erzeugen, welches die Bewegung ausdrückt, wobei die Ansteuereinrichtung gesteuert wird und die Bewegungseinheit mit einem vorher festgelegten Muster zusätzlich angesteuert wird, um zu bewirken, dass die licht-emittierende Einrichtung aufflackert.
  6. Roboter nach Anspruch 1 oder 2, wobei die Steuereinrichtung (10) betriebsfähig ist, um: ein Emotionsmodell in der Modelleinheit (31) zu aktualisieren, in welcher eine vorher-gehaltene Emotion auf Basis des Ausgangssignals des externen Sensors (18) moduliert ist; die Bewegung auf Basis des aktualisierten Bewegungsmodells zu erfassen; und die licht-emittierende Einrichtung (19) aufflackern zu lassen, so dass die erfasste Emotion ausgedrückt wird.
  7. Roboter nach Anspruch 1 oder 2, wobei die licht-emittierende Einrichtung lichtemittierende Einheiten mehrerer Formen gemäß der Emotion, die auszudrücken ist, hat.
  8. Roboter nach einem der vorhergehenden Ansprüche, wobei die licht-emittierende Einrichtung (19) auf einem Kopf (4) des Roboters angeordnet ist und mit einer halbdurchlässigen Abdeckung übergedeckt ist.
  9. Steuerverfahren für einen Roboter (1), der eine licht-emittierende Einrichtung (19), die der Erscheinungsform zuliebe als Augen arbeitet, und einen externen Sensor (18) aufweist, um einen externen Zustand und/oder eine Eingabe von außerhalb zu erfassen, wobei das Verfahren das Erzeugen (10) eines Steuersignals für die licht-emittierende Einrichtung (19) aufweist, um eine Emotion auf Basis eines Ausgangssignals des externen Sensors (18) auszudrücken, wobei das Verfahren dadurch gekennzeichnet ist durch Modellieren (31) eines variablen Parameters, um einen Wunsch des Roboters auszudrücken, und um zu Veranlassen, dass das Steuersignal eine Funktion der Intensität des variablen Parameters ist.
  10. Steuerverfahren nach Anspruch 9, wobei die Intensität der Emotion durch ein aufflackerndes Musters der licht-emittierenden Einrichtung (19) ausgedrückt wird.
  11. Steuerverfahren nach Anspruch 9 für einen Roboter, der eine Mehrfachlicht-Emissionseinrichtung (19R, 19G) aufweist, welche Licht unterschiedlicher Farben entspre chend emittiert, wobei die Emission durch die Farbe des aufflackernden Lichts ausgedrückt wird, welches durch die licht-emittierende Einrichtung emittiert wird.
  12. Steuerverfahren nach Anspruch 9 für einen Roboter, der eine Bewegungseinheit und eine Steuereinrichtung aufweist, um die Bewegungseinheit anzusteuern, wobei die Emotion durch Steuern der Ansteuereinrichtung ausgedrückt wird, und die Bewegungseinheit zusätzlich angesteuert wird, um zu bewirken, dass die licht-emittierende Einrichtung (19) aufflackert.
  13. Steuerverfahren nach Anspruch 9, welche aufweist: Aktualisieren eines Emotionsmodells, in welchem eine vorher-gehaltene Emotion moduliert ist, auf Basis des Ausgangssignals des externen Sensors (18); Erfassen von Emotion auf Basis des aktualisierten Emotionsmodells; und Aufflackern der licht-emittierenden Einrichtung (19), so dass die erfasste Emotion ausgedrückt wird.
  14. Aufzeichnungsmedium, bei dem ein Steuerprogramm für einen Roboter (1), der eine licht-emittierende Einrichtung (19), welche der Erscheinungsform zuliebe als Augen arbeitet, und einen externer Sensor (18) zum Erfassen eines externen Zustands und/oder einer Eingabe von außerhalb hat, aufgezeichnet ist, wobei das Steuerprogramm die Schritte eines Verfahrens nach einem der Ansprüche 9 bis 13 aufweist.
DE60036599T 1999-05-10 2000-05-10 Robotervorrichtung, steuerverfahren und aufzeichnungsmedium Expired - Lifetime DE60036599T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP12927999 1999-05-10
JP12927999 1999-05-10
PCT/JP2000/002990 WO2000068879A1 (fr) 1999-05-10 2000-05-10 Dispositif robot, son procede de commande et support d'enregistrement

Publications (2)

Publication Number Publication Date
DE60036599D1 DE60036599D1 (de) 2007-11-15
DE60036599T2 true DE60036599T2 (de) 2008-02-07

Family

ID=15005664

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60036599T Expired - Lifetime DE60036599T2 (de) 1999-05-10 2000-05-10 Robotervorrichtung, steuerverfahren und aufzeichnungsmedium

Country Status (7)

Country Link
US (2) US6458011B1 (de)
EP (1) EP1120740B1 (de)
JP (1) JP4518229B2 (de)
KR (1) KR20010071833A (de)
CN (1) CN1304516A (de)
DE (1) DE60036599T2 (de)
WO (2) WO2000068880A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017003480B4 (de) * 2016-07-11 2021-01-21 Groove X, Inc. Autonom handelnder Roboter

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6616464B1 (en) * 1999-05-10 2003-09-09 Sony Corporation Robot device
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2003060745A (ja) * 2001-08-22 2003-02-28 Sony Corp 情報伝達装置、情報伝達方法及びモニタ装置
KR100624403B1 (ko) 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7165637B2 (en) * 2004-11-04 2007-01-23 The Boeing Company Robotic all terrain surveyor
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP4893887B2 (ja) * 2007-04-02 2012-03-07 本田技研工業株式会社 充電装置
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US8057275B2 (en) * 2008-09-23 2011-11-15 Hasbro, Inc. Toy with pivoting portions capable of rolling over and methods thereof
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법
AU2012368731A1 (en) 2012-02-03 2014-08-21 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US20140273728A1 (en) * 2013-03-15 2014-09-18 Rehco, Llc Motorized and non-motorized interactive character
CN105243967A (zh) * 2015-09-29 2016-01-13 塔米智能科技(北京)有限公司 一种支持多种颜色的led点阵机器人面部结构
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
WO2017187620A1 (ja) 2016-04-28 2017-11-02 富士通株式会社 ロボット
US11150255B2 (en) * 2016-07-12 2021-10-19 EMULATE, Inc. Additive channels
CN106904226B (zh) * 2017-03-10 2022-12-23 杭州宇树科技有限公司 一种电驱动四足机器人的腿部动力系统结构
US11407120B2 (en) * 2017-04-28 2022-08-09 Sony Corporation Control device, and control method
USD848549S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy dog
USD848550S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy bulldog
USD848552S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy horse
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
JP1622873S (ja) * 2017-12-29 2019-01-28 ロボット
EP3705237A4 (de) * 2017-10-31 2020-12-02 Sony Corporation Robotervorrichtung
JP7238796B2 (ja) * 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN108499128A (zh) * 2018-04-17 2018-09-07 郭斌 一种智能机器人玩具
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
CN112970034A (zh) * 2018-10-30 2021-06-15 索尼集团公司 信息处理设备、信息处理方法和程序
JP7081577B2 (ja) * 2019-10-31 2022-06-07 カシオ計算機株式会社 ロボット
USD985645S1 (en) * 2021-04-16 2023-05-09 Macroact Inc. Companion robot
USD986985S1 (en) * 2022-05-27 2023-05-23 Jinwei Chen Dog robot toy
USD1030917S1 (en) * 2022-07-15 2024-06-11 Shenzhen Tbz Technology Co., Ltd. Artificial intelligence robot dog

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP2593149B2 (ja) * 1987-02-04 1997-03-26 株式会社 ナムコ 感情表現玩具
JPS63191582A (ja) * 1987-02-05 1988-08-09 株式会社明電舎 ロボツトの歩行装置
JPS6419492U (de) * 1987-07-20 1989-01-31
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
JP3956414B2 (ja) * 1996-11-19 2007-08-08 ソニー株式会社 ロボット装置及びロボット装置の制御方法
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6095887A (en) * 1998-02-24 2000-08-01 Onilco Innovacion S.A. Doll capable of walking with unsteady steps and with falling and upright recovery motions
EP1034899B1 (de) * 1998-06-09 2011-03-30 Sony Corporation Manipulator und verfahren zur steuerung seiner lage
JP2000317876A (ja) * 1999-05-10 2000-11-21 Sony Corp ロボット装置
JP2001239479A (ja) * 1999-12-24 2001-09-04 Sony Corp 脚式移動ロボット及びロボットのための外装モジュール
AU2001259610A1 (en) * 2000-05-09 2001-11-20 Hasbro, Inc. Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
US6705917B2 (en) * 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017003480B4 (de) * 2016-07-11 2021-01-21 Groove X, Inc. Autonom handelnder Roboter
US11213763B2 (en) 2016-07-11 2022-01-04 Groove X, Inc. Autonomously acting robot

Also Published As

Publication number Publication date
EP1120740B1 (de) 2007-10-03
CN1304516A (zh) 2001-07-18
EP1120740A1 (de) 2001-08-01
JP4518229B2 (ja) 2010-08-04
US6591923B2 (en) 2003-07-15
US20030019671A1 (en) 2003-01-30
WO2000068880A1 (fr) 2000-11-16
US6458011B1 (en) 2002-10-01
WO2000068879A1 (fr) 2000-11-16
DE60036599D1 (de) 2007-11-15
KR20010071833A (ko) 2001-07-31
EP1120740A4 (de) 2005-08-31

Similar Documents

Publication Publication Date Title
DE60036599T2 (de) Robotervorrichtung, steuerverfahren und aufzeichnungsmedium
DE60111677T2 (de) Roboter und handlungsbestimmtes Verfahren für Roboter
DE60118317T2 (de) Autonom Roboter
DE60027133T2 (de) Ein ferngesteuertes spielzeug
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
DE60028933T2 (de) Programmierbares spielzeug mit kommunikationsmittel
DE102019206644B3 (de) Verfahren zum Betrieb einer Umgebungsbeleuchtungseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
DE60215504T2 (de) Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
DE69430456T2 (de) Bildanzeigevorrichtung
DE60014735T2 (de) Verfahren zur Gesamtoptimierung einer Charakteristik und Vorrichtung zur Durchführung dafür
DE69800570T2 (de) Ferngesteuertes Spielzeug in einer Geschäftsverpackung
DE69122446T2 (de) Überwachungssystem
KR20020008848A (ko) 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
EP0869710B1 (de) Vorrichtung zur verabreichung und/oder aufbewahrung von tiernahrung
DE69607003T2 (de) Verfahren und vorrichtung zum steuern eines beweglichen geräts
TW544614B (en) Editing device, editing method and recording medium for robot
WO2001070468A1 (fr) Determination de l'action d'un robot et robot
DE29904916U1 (de) Interaktives Spielzeug
DE602004009156T2 (de) Verfahren zur steuerung von beleuchtungsparametern,steuereinrichtung, beleuchtungssystem
DE10045117A1 (de) Frei spezifizierbare Geometrie- und Klangsteuerung
DE102013101800A1 (de) Spielzeug mit Identifikationsfähigkeit
JP4524524B2 (ja) ロボット装置及びその制御方法
JP4385281B2 (ja) ロボット装置及びその制御方法
JP4411503B2 (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)