DE60111677T2 - Roboter und handlungsbestimmtes Verfahren für Roboter - Google Patents

Roboter und handlungsbestimmtes Verfahren für Roboter Download PDF

Info

Publication number
DE60111677T2
DE60111677T2 DE60111677T DE60111677T DE60111677T2 DE 60111677 T2 DE60111677 T2 DE 60111677T2 DE 60111677 T DE60111677 T DE 60111677T DE 60111677 T DE60111677 T DE 60111677T DE 60111677 T2 DE60111677 T2 DE 60111677T2
Authority
DE
Germany
Prior art keywords
user
action
robot
information
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60111677T
Other languages
English (en)
Other versions
DE60111677D1 (de
Inventor
Tsuyoshi Shinagawa-ku Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE60111677D1 publication Critical patent/DE60111677D1/de
Application granted granted Critical
Publication of DE60111677T2 publication Critical patent/DE60111677T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Description

  • Die vorliegende Erfindung bezieht sich auf einen Roboter und auf ein Verfahren zum Betreiben eines Roboters.
  • Die WO-A-99 54 015 (Creator Ltd.) offenbart ein interaktives Spielzeug. Ein Computer speichert Information in Bezug auf Benutzer, beispielsweise persönliche Information, welche den Namen des Benutzers enthält, und einen speziellen Benutzercode oder "Geheimnamen". Der Computer identifiziert den Benutzer von beispielsweise dem "Geheimnamen" des Benutzers, der durch ein Spracherkennungsprogramm gesprochen und ermittelt werden kann. Der Benutzer steuert die Auswahl und die Ausgabe des Audioinhalts durch das Spielzeug. Der Computer kann den Audioinhalt durch beispielsweise Verwendung des Namens des Benutzers im Inhalt personalisieren.
  • Der Audioinhalt kann eine interaktive Geschichte sein. Der Computer wählt Sparten in der Geschichte gemäß der Benutzereingabe mit dem Spielzeug.
  • Der Inhalt, der einem bestimmten Benutzer gezeigt wird, kann in Abhängigkeit von vergangenen Interaktionen des Benutzers mit dem Spielzeug ausgewählt werden.
  • Sogar, obwohl der Inhalt interaktiv ist, reagiert grundsätzlich das interaktive Spielzeug gleichförmig auf alle Benutzer dahingehend, dass unterschiedliche Benutzer, die auf die gleiche Weise mit dem Spielzeug handeln, das gleiche Ergebnis erzeugen werden.
  • Vor einiger Zeit wurde ein Roboter vorgeschlagen, der automatisch gemäß der Umgebungsinformation (externe Elemente) und der internen Information (interne Elemente) handelt. Beispielsweise ist ein solcher Roboter ein so genannter Haustierroboter als Robotereinrichtung im Format eines Tiers, eines Nachahmungsorganismus oder eines virtuellen Organismus, der auf einer Anzeigeeinrichtung oder dgl. eines Computersystems angezeigt wird.
  • Die oben beschriebenen Robotereinrichtungen können automatisch handeln, beispielsweise gemäß einem Wort oder einer Anweisung von einem Benutzer. Beispielsweise offenbart die japanische ungeprüfte Patentanmeldungsveröffentlichung Nr. H10-28 90 06 ein Verfahren zum Entscheiden der Aktion I der Basis von Pseudoemotionen.
  • Alle herkömmlichen Robotereinrichtungen reagieren in der Zwischenzeit in der gleichen Art und Weise auf jeden Benutzer. Das heißt, die Robotereinrichtungen reagieren gleichmäßig auf unterschiedliche Benutzer und ändern ihre Reaktionen in Abhängigkeit von den Benutzern nicht.
  • Wenn die Robotereinrichtungen die Benutzer identifizieren und unterschiedlich auf verschiedene Benutzer reagieren, ist es möglich, sich an interaktiven Handlungen mit jedem Benutzer zu erfreuen.
  • Somit ist es im Hinblick auf den obigen Stand der Technik eine Aufgabe der vorliegenden Erfindung, einen Roboter, der in der Lage ist, unterschiedlich auf unterschiedliche Benutzer zu reagieren, sowie ein Verfahren zum Betreiben eines Roboters bereitzustellen.
  • Ein Roboter gemäß einem Merkmal der vorliegenden Erfindung weist auf:
    eine Einrichtung zum Ermitteln von Information, die sich auf die Identität eines Benutzers bezieht;
    eine Identifizierungs-Einrichtung, um einen Benutzer von mehreren identifizierbaren Benutzern auf der Basis der ermittelten Information zu identifizieren; und
    eine Aktionseinrichtung zum Offenbaren einer Aktion entsprechend dem einen Benutzer, der durch die Identifizierungseinrichtung identifiziert ist;
    dadurch gekennzeichnet, dass die Aktionseinrichtung eine Aktionsauswahleinrichtung aufweist, welche mehrere unterschiedliche Automaten endlicher Wahrscheinlichkeit für entsprechende der mehreren identifizierbaren Benutzer aufweist, wobei die Aktionsauswahleinrichtung eingerichtet ist, einen der Automaten endlicher Wahrscheinlichkeit entsprechend dem einen identifizierten Benutzer auszuwählen.
  • Bei dem Roboter, der diesen Aufbau hat, wird ein Benutzer von mehreren identifizierbaren Benutzern durch die Identifikationseinrichtung auf der Basis der Information des Benutzers identifiziert, die durch die Ermittlungseinrichtung ermittelt wird, und eine Aktion entsprechend dem einem Benutzer, der durch die Identifikationseinrichtung identifiziert wird, wird durch die Aktionssteuerungseinrichtung offenbart, wobei der Roboter unterschiedlich auf unterschiedliche Benutzer reagiert.
  • Ein anderes Merkmal der vorliegenden Erfindung stellt ein Verfahren zum Betreiben eines Roboters bereit, welches das Ermitteln von Information in Bezug darauf aufweist, einen Benutzer zu identifizieren:
    Identifizieren eines Benutzers von mehreren identifizierbaren Benutzern auf der Basis der ermittelten Information, und
    Offenbaren einer Aktion entsprechend dem identifizierten Benutzer,
    gekennzeichnet durch
    Speichern von mehreren Automaten endlicher Wahrscheinlichkeit für entsprechende der mehreren identifizierbaren Benutzer und Auswählen eines der Automaten endlicher Wahrscheinlichkeit entsprechend dem einen identifizierten Benutzer.
  • Gemäß diesem Aktionsentscheidungsverfahren für einen Roboter identifiziert der Roboter einen Benutzer von mehreren identifizierbaren Benutzern und reagiert entsprechend auf den einen Benutzer.
  • Eine Ausführungsform der Erfindung wird lediglich beispielhaft mit Hilfe der beiliegenden Zeichnungen beschrieben, in denen:
  • 1 eine perspektivische Ansicht ist, die den äußeren Aufbau einer Robotereinrichtung zeigt, als ein Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 ein Blockdiagramm ist, welches den Schaltungsaufbau der Robotereinrichtung zeigt;
  • 3 ein Blockdiagramm ist, welches den Softwareaufbau der Robotereinrichtung zeigt;
  • 4 ein Blockdiagramm ist, welches den Aufbau einer Middleware-Ebene beim Softwareaufbau der Robotereinrichtung zeigt;
  • 5 ein Blockdiagramm ist, welches den Aufbau einer Anwendungsebene beim Softwareaufbau der Robotereinrichtung zeigt;
  • 6 ein Blockdiagramm ist, welches den Aufbau einer Aktionsmodell-Bibliothek in der Anwendungsebene zeigt;
  • 7 eine Ansicht ist, um einen endlichen Wahrscheinlichkeitsautomaten zu erläutern, der Information für eine Aktionsentscheidung der Robotereinrichtung ist;
  • 8 eine Statusübergangstabelle zeigt, welche für jeden Knoten des endlichen Wahrscheinlichkeitsautomaten vorbereitet ist;
  • 9 ein Blockdiagramm ist, welches ein Benutzererkennungssystem der Robotereinrichtung zeigt;
  • 10 ein Blockdiagramm ist, welches einen Benutzeridentifikationsabschnitt und einen Aktionstabellenabschnitt im Benutzererkennungssystem zeigt;
  • 11 ein Blockdiagramm ist, welches einen Benutzerregistrierungsabschnitt im Benutzererkennungssystem zeigt;
  • 12 Aktionstabellendaten als Aktionsinformation der Robotereinrichtung zeigt, in welcher ein endlicher Wahrscheinlichkeitsautomat entsprechend von mehreren Benutzern verwendet wird;
  • 13 Aktionstabellendaten als Aktionsinformation der Robotereinrichtung zeigt, bei denen ein Teil des endlichen Wahrscheinlichkeitsautomaten gemäß mehreren Benutzern vorbereitet ist;
  • 14 den Fall zeigt, wo Übergangswahrscheinlichkeitsdaten des endlichen Wahrscheinlichkeitsautomaten gemäß mehreren Benutzern vorbereitet sind;
  • 15 ein Blockdiagramm ist, welches die spezielle Struktur des Benutzeridentifikationsabschnitts im Benutzererkennungssystem zeigt;
  • 16 eine grafische Darstellung ist, um ein registriertes Kontaktmuster zu erläutern;
  • 17 eine grafische Darstellung ist, um das aktuell gemessene Kontaktmuster zu erläutern;
  • 18 eine grafische Darstellung ist, um die Verteilung von Auswertungsinformation des Benutzers zu erläutern; und
  • 19 ein Flussdiagramm ist, welches das Verfahren zeigt, um ein aktuell gemessenes Kontaktmuster zu erlangen und um ein Auswertungssignal zu erlangen.
  • Ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung wird nun hier ausführlich mit Hilfe der beiliegenden Zeichnungen beschrieben. Bei dieser Ausführungsform wird die vorliegende Erfindung bei einer Robotereinrichtung angewandt, die gemäß Umgebungsinformation und interner Information (Information der Robotereinrichtung selbst) autonom handelt.
  • Bei der Ausführungsform wird der Aufbau der Robotereinrichtung zunächst beschrieben, und dann wird die Anwendung der vorliegenden Erfindung auf die Robotereinrichtung ausführlich beschrieben.
  • (1) Aufbau der Robotereinrichtung gemäß der Ausführungsform
  • Wie in 1 gezeigt ist, ist eine Robotereinrichtung 1 ein so genannter Haustierroboter, der einen "Hund" nachahmt. Die Robotereinrichtung 1 besteht aus Verbindungsgliedmaßeneinheiten 3A, 3B, 3C und 3D an den vorderen und hinteren Bereichen auf der rechten und der linken Seite einer Rumpfeinheit 2, die eine Kopfeinheit 4 und eine Schwanzeinheit 5 an einem vorderen Endbereich bzw. einem hinteren Endbereich der Rumpfeinheit 2 verbindet.
  • In der Rumpfeinheit 2 sind ein Steuerabschnitt 16, der gebildet ist, indem eine CPU (Zentralverarbeitungseinheit) 10, ein DRAM (dynamischer wahlfreier Zugriffsspeicher) 11, ein Flash-ROM (Nur-Lese-Speicher) 12, eine PC-Kartenschnittstellenschaltung 13 und eine Signalverarbeitungsschaltung 14 über einen internen Bus 15 verbunden sind, und eine Batterie 17 als Spannungsquelle der Robotereinrichtung untergebracht, wie in 2 gezeigt ist. Außerdem sind ein Winkelgeschwindigkeitssensor 18 und ein Beschleunigungssensor 19 zum Ermitteln der Richtung und der Beschleunigung der Bewegung der Robotereinrichtung 1 in der Rumpfeinheit 2 untergebracht.
  • In der Kopfeinheit 4 sind eine CCD-Kamera 20 (Kamera mit ladungsgekoppelter Einrichtung) zum Abbilden des externen Status, ein Berührungssensor 21 zum Ermitteln des Drucks, der über eine körperliche Aktion angelegt wird, beispielsweise "Schlagen" oder "Stoßen" durch einen Benutzer, ein Abstandssensor 22 zum Messen des Abstandes in Bezug auf ein Objekt, welches vorne angeordnet ist, ein Mikrophon 23 zum Aufnehmen von externen Tönen, ein Lautsprecher 24 zum Ausgeben eines Tons, beispielsweise eines Bellens, und eine LED (licht-emittierende Diode) (nicht gezeigt), die den "Augen" der Robotereinrichtung 1 äquivalent ist, an vorher festgelegten Positionen angeordnet.
  • Außerdem sind an den Gelenkbereichen der Gliedmaßeneinheiten 3A bis 3D die Verbindungsbereiche zwischen den Gliedmaßeneinheiten 3A bis 3D und der Rumpfeinheit 2, der Verbindungsbereich zwischen der Kopfeinheit 4 und der Rumpfeinheit 2, und der Verbindungsbereich eines Schwanzes 5A der Schwanzeinheit 5, Betätigungsorgane 251 bis 25n und Potentionsmeter 261 bis 26n , die entsprechende Freiheitsgrade aufweisen, vorgesehen.
  • Diese verschiedenen Sensoren, beispielsweise der Winkelgeschwindigkeitssensor 18, der Beschleunigungssensor 19, der Berührungssensor 21, der Abstandssensor 22, das Mikrophon 23, der Lautsprecher 24 und die Potentionsmeter 261 bis 26n und die Betätigungsorgane 261 bis 26n mit der Signalverarbeitungsschaltung 14 des Steuerabschnitts 16 über entsprechende Knoten 271 bis 27n verbunden. Die CCD-Kamera 20 und die Batterie 17 sind unmittelbar mit der Signalverarbeitungsschaltung 14 verbunden.
  • Die Signalverarbeitungsschaltung 14 nimmt sequentiell Sensordaten, Bilddaten und Tondaten herein, die von den oben beschriebenen Sensoren geliefert werden, und speichert diese Daten nacheinander an vorher festgelegten Positionen im DRAM 11 über den internen Bus 15. Außerdem nimmt die Signalverarbeitungsschaltung 14 Restbatterie-Kapazitätsdaten herein, die die Restbatteriekapazität zum Ausdruck bringen, die von der Batterie 17 geliefert werden, und speichert diese Daten an einer vorher festgelegten Position im DRAM 11.
  • Die Sensordaten, die Bilddaten, die Tondaten und die Restbatterie-Kapazitätsdaten, die im DRAM 11 somit gespeichert sind, werden später durch die CPU 10 verwendet, um die Arbeitsweise der Robotereinrichtung 1 zu steuern.
  • In der Praxis liest im Anfangszustand, wenn die Spannung der Robotereinrichtung 1 eingeschaltet wird, die CPU 10 unmittelbar oder über die Schnittstellenschaltung 13 ein Steuerprogramm, welches in einer Speicherkarte 28 gespeichert ist, die in einen PC-Kartenschlitz, der nicht gezeigt ist, in der Rumpfeinheit 2 geladen ist, oder im Flash-ROM 12 gespeichert ist, und speichert das Steuerprogramm im DRAM 11.
  • Später unterscheidet die CPU 10 den Status der Robotereinrichtung selbst, den Umgebungsstatus und das Vorhandensein/Nichtvorhandensein einer Instruktion oder einer Aktion vom Benutzer auf der Basis der Sensordaten, der Bilddaten, der Tondaten, der Restbatterie-Kapazitätsdaten, die nacheinander im DRAM 11 von der Signalverarbeitungsschaltung 14 wie oben beschrieben gespeichert wurden.
  • Außerdem entscheidet die CPU 10 eine nachfolgende Aktion auf der Basis des Ergebnisses der Unterscheidung und des Steuerungsprogramms, welches im DRAM 11 gespeichert ist, und steuert die notwendigen Betätigungsorgane 251 bis 25n auf der Basis des Entscheidungsergebnisses an. Somit verursacht die CPU 10, dass die Robotereinrichtung 1 die Kopfeinheit 4 nach oben/nach unten und nach links/nach rechts schüttelt, oder den Schwanz 5A der Schwanzeinheit 5 bewegt, oder die Gliedmaßeneinheiten 3A bis 3D ansteuert, damit sie laufen.
  • In diesem Fall erzeugt die CPU 10 Tondaten wenn notwendig und liefert diese Tondaten als Tonsignal über die Signalverarbeitungsschaltung 14 zum Lautsprecher 24, wodurch somit ein Ton auf der Basis des Tonsignals nach außenhin abgegeben wird. Die CPU 10 schaltet außerdem die LED ein oder aus oder lässt die LED blinken.
  • Auf diese Weise kann die Robotereinrichtung 1 automatisch gemäß ihrem Status, dem Umgebungsstatus oder einer Instruktion oder Aktion vom Benutzer handeln.
  • (2) Softwarekonfiguration des Steuerungsprogramms
  • Die Softwarekonfiguration des oben beschriebenen Steuerungsprogramms in der Robotereinrichtung 1 ist so, wie in 3 gezeigt ist. In 3 ist eine Einrichtungsansteuerungsebene 30 auf der untersten Ebene des Steuerungsprogramms angeordnet und wird durch einen Einrichtungsansteuerungssatz 31 gebildet, der aus mehreren Einrichtungsansteuerungen besteht. In diesem Fall ist jede Einrichtungsansteuerung ein Objekt, für das erlaubt wird, unmittelbar auf Hardware unter Verwendung eines üblichen Computers, beispielsweise auf die CCD-Kamera 20 (2), und einen Timer zuzugreifen, und führt Verarbeitung als Antwort auf eine Unterbrechung von der entsprechenden Hardware durch.
  • Ein Roboterserverobjekt 32 ist auf einer oberen Ebene als die Einrichtungsansteuerungsebene 30 angeordnet und besteht aus einem virtuellen Roboter 33, der durch eine Softwaregruppe gebildet ist, um eine Schnittstelle bereitzustellen, um auf die Hardware zuzugreifen, beispielsweise die oben beschriebenen verschiedenen Sensoren und die Betätigungsorgane 251 bis 25n , einem Leistungsmanager 34, der aus einer Softwaregruppe zum Verwalten des Schaltens der Spannungsquelle gebildet ist, einem Einrichtungsansteuerungsmanager 35, der aus einer Softwaregruppe gebildet ist, um verschiedene andere Einrichtungsansteuerungen zu verwalten, und einem geplanten Roboter 36, der aus einer Softwaregruppe gebildet ist, um den Mechanismus der Robotereinrichtung 1 zu verwalten.
  • Ein Managerobjekt 37 besteht aus einem Objektmanager 38 und einem Servicemanager 39. In diesem Fall ist der Objektmanager 38 eine Softwaregruppe, um das Starten und das Beendigen der Softwaregruppen zu verwalten, welche im Roboterserverobjekt 32, in der Middleware-Ebene 40 und der Anwendungsebene 41 enthalten sind. Der Servicemanager 39 ist eine Softwaregruppe, um die Verbindung von Objekten auf der Basis der Verbindungsinformation zwischen Objekten zu verwalten, welche in einer Verbindungsdatei beschrieben sind, die auf der Speicherkarte 28 gespeichert ist (2).
  • Die Middleware-Ebene 40 ist auf einer weiter oberen Ebene als das Roboterserverobjekt 32 angeordnet und wird durch eine Softwaregruppe gebildet, um die Basisfunktionen der Robotereinrichtung 1 bereitzustellen, beispielsweise Bildverarbeitung und Tonverarbeitung. Die Anwendungsebene 41 ist auf einer weiter oberen Ebene als die Middleware-Ebene 40 angeordnet und besteht aus einer Softwaregruppe, um die Aktion der Robotereinrichtung 1 auf der Basis des Ergebnisses der Verarbeitung zu entscheiden, die durch die Softwaregruppe ausgeführt wird, die die Middleware-Ebene 40 bildet.
  • Die speziellen Softwarekonfigurationen der Middleware-Ebene 40 und der Anwendungsebene 41 sind in 4 bzw. 5 gezeigt.
  • Die Middleware-Ebene 40 besteht aus einem Erkennungssystem 60, welche Signalverarbeitungsmodule 50 bis 58 zur Geräuschermittlung, zur Temperaturermittlung, zur Helligkeitsermittlung, zur Maßstabserkennung, zur Abstandsermittlung, zur Lageermittlung, zur Ermittlung einer Berührung durch einen Sensor, zur Bewegungsermittlung und zur Farberkennung und ein Eingangssemantik-Umsetzermodul 59 hat, und aus einem Erkennungssystem 69, welches ein Ausgangssemantik-Umsetzermodul 68 und Signalverarbeitungsmodule 61 bis 67 zur Lageverwaltung, Spurführung, Bewegungswiedergabe, Laufen, Wiederherstellung von einem Sturz, LED-Beleuchten und Tonwiedergabe, wie in 4 gezeigt ist, hat.
  • Die Signalverarbeitungsmodule 50 bis 58 im Erkennungssystem 60 nehmen geeignete Daten der verschiedenen Sensordaten, Bilddaten und Tondaten herein, die vom DRAM 11 (2) durch den virtuellen Roboter 33 des Roboterserverobjekts 32 gelesen werden, führen dann vorher festgelegte Verarbeitung auf der Basis der Daten durch und liefern das Ergebnis der Verarbeitung zum Eingangssemantik-Umsetzermodul 59. In diesem Fall besteht der virtuelle Roboter 33 aus einer Einheit, um Signale gemäß einem vorher festgelegten Protokoll zu liefern/zu empfangen oder umzusetzen.
  • Das Eingangssemantik-Umsetzermodul 59 erkennt seinen Status und den Umgebungsstatus, beispielsweise "es ist laut", "es ist heiß", "es ist hell", "ich ermittelte einen Ball", "ich ermittelte einen Sturz", "ich wurde geschlagen", "ich wurde gestoßen", "ich hörte eine Tonleiter von do-mi-so", "ich ermittelte ein sich bewegendes Objekt", oder "ich ermittelte ein Hindernis", und eine Instruktion oder Aktion vom Benutzer und gibt das Erkennungsergebnis an die Anwendungsebene 41 aus (5).
  • Die Anwendungsebene 41 besteht aus fünf Modulen, d.h., einer Aktionsmodell-Bibliothek 70, einem Aktionsschaltmodul 71, einem Lernmodul 72, einem Emotionsmodell 73 und einem Instinktmodell 74, wie in 5 gezeigt ist.
  • In der Aktionsmodell-Bibliothek sind unabhängige Aktionsmodelle 701 bis 70n entsprechend mehreren Zustandsposten vorgesehen, welche vorher ausgewählt wurden, beispielsweise "der Fall, wo die verbleibende Batteriekapazität kurz ist", "der Fall zum Wiederherstellen von einem Sturz", "der Fall zum Vermeiden eines Hindernisses", "der Fall zum Ausdrücken einer Emotion", und "der Fall, wo ein Ball ermittelt wird", wie in 6 gezeigt ist.
  • Wenn das Ergebnis der Erkennung vom Eingangssemantik-Umsetzungsmodul 59 geliefert wird oder wenn eine bestimmte Zeit verstrichen ist, wo das letzte Erkennungsergebnis bereitgestellt wurde, entscheiden die Aktionsmodelle 701 bis 70n nachfolgende Aktionen wenn notwendig in Bezug auf einen Parameterwert einer entsprechenden Emotion, der im Emotionsmodell 73 gehalten wird, und einem Parameterwert eines entsprechenden Wunsches, der im Instinktmodell 74 gehalten wird, was später beschrieben wird, und geben die Ergebnisse der Entscheidung an das Aktionsschaltmodul 71 aus.
  • Bei dieser Ausführungsform verwenden als Verfahren zum Entscheiden nachfolgender Aktionen die Aktionsmodelle 701 bis 70n einen Algorithmus, der als endlicher Wahrscheinlichkeitsroboter bezeichnet wird, so dass, welcher der Knoten (Zustände) KNOTEN0 bis KNOTENn zur Bestimmung des Übergangs von einem anderen der Knoten Knoten0 bis KNOTENn wird, hinsichtlich der Wahrscheinlichkeit auf der Basis von Übergangswahr scheinlichkeiten P1 bis Pn entschieden wird, die für Bögen BOGEN1 bis BOGENn1 festgelegt werden, welche jeweiligen Knoten KNOTEN0 bis KNOTENn verbinden, wie in 7 gezeigt ist.
  • Insbesondere haben die Aktionsmodelle 701 bis 70n eine Statusübergangstabelle 80, wie in 8 gezeigt ist, für jeden Knoten KNOTEN0 bis KNOTENn entsprechend den Knoten KNOTEN0 bis KNOTENn, die ihre jeweiligen Aktionsmodelle 701 bis 70n bilden.
  • In der Statusübergangstabelle 80 sind Eingangsereignisse (Erkennungsergebnisse) als Übergangszustände bei den Knoten KNOTEN0 bis KNOTENn in der Reihe "Namen des Eingangsereignisses" in einer bevorzugten Reihenfolge aufgelistet, und weitere Zustände in Bezug auf die Übergangszustände sind in den jeweiligen Spalten in den Reihen "Namen von Daten" und "Bereich von Daten" beschrieben.
  • Daher sind bei einem Knoten KNOTEN100, der in der Statusübergangstabelle 80 von 8 gezeigt ist, die Zustände zur Übertragung zu einem anderen Knoten so, dass, wenn das Erkennungsergebnis zu der Wirkung, dass "ein Ball ermittelt wird (BALL)" geliefert wird, die "Größe (GRÖSSE)" des Balls, die zusammen mit dem Erkennungsergebnis b bereitgestellt wird, innerhalb eines Bereichs von "0 bis 1000" liegt, und, dass, wenn das Erkennungsergebnis zu dem Effekt, dass "ein Hindernis ermittelt wird (HINDERNIS)" geliefert wird, der "Abstand (ABSTAND)" zum Hindernis, der zusammen mit dem Erkennungsergebnis geliefert wird, innerhalb eines Bereichs von "0 bis 100" liegt.
  • An diesem Knoten KNOTEN100, sogar wenn es keine Eingabe irgendeines Erkennungsergebnisses gibt, kann der Übergang zu einem anderen Knoten durchgeführt werden, wenn der Parameterwert von "Spiel", "Überraschung" und "Traurigkeit", der im Emotionsmodell 73 gehalten wird, innerhalb eines Bereichs von "50 bis 100" der Parameterwerte von Emotionen und Wünschen liegt, die im Emotionsmodell 73 im Instinktmodell 74 gehalten werden, auf die periodisch durch die Aktionsmodelle 701 bis 70n bezuggenommen wird.
  • In der Statusübergangstabelle 80 sind die Namen von Knoten, für die ein Übergang von den Knoten KNOTEN0 bis KNOTENn durchgeführt werden kann, in der Spalte "Übergangsbestimmungsknoten" im Abschnitt "Übergangswahrscheinlichkeit zu anderen Knoten" aufgelistet. Außerdem werden die Übergangswahrscheinlichkeiten zu den anderen Knoten KNOTEN0 bis KNOTENn, zu den ein Übergang durchgeführt werden kann, wenn alle Bedingungen, welche in den Reihen "Name des Eingangsereignisses", "Name der Daten" und "Bereich von Daten" beschrieben werden, erfüllt sind, in entsprechenden Teilen im Abschnitt "Übertragungswahrscheinlichkeit auf andere Knoten2 beschrieben". Aktionen, welche bei Übergang zu den Knoten KNOTEN0 bis KNOTENn ausgegeben werden sollten, sind in der Reihe "Ausgangsaktion" im Abschnitt "Übergangswahrscheinlichkeit auf andere Knoten" beschrieben. Die Summe der Wahrscheinlichkeiten der entsprechenden Knoten im Abschnitt "Übertragungswahrscheinlichkeit auf andere Knoten" beträgt 100%.
  • Daher kann am Knoten KNOTEN100, der in der Statusübergangstabelle 80 von 8 gezeigt ist, wenn beispielsweise das Erkennungsergebnis zu dem Effekt geliefert wird, dass "ein Ball ermittelt wird (BALL), und dass die "Größe" des Balls innerhalb eines Bereichs von "0 bis 1000" liegt, ein Übergang zu einem "Knoten KNOTEN120" mit einer Wahrscheinlichkeit von 30% durchgeführt werden, und eine Aktion "AKTION 1" wird danach ausgegeben.
  • Die Aktionsmodelle 701 bis 70n sind so ausgebildet, dass eine Anzahl dieser Knoten KNOTEN0 bis KNOTENn, die in der Form der Statusübergangstabellen 80 beschrieben sind, verbunden sind. Wenn das Ergebnis der Erkennung von dem Eingangssemantik-Umsetzer-Modul 59 geliefert wird, entscheiden die Aktionsmodelle 701 bis 70n über nächste Aktionen im Hinblick auf die Wahrscheinlichkeit unter Verwendung der Statusübergangstabellen der entsprechenden Knoten KNOTEN0 bis KNOTENn und geben die Entscheidungsergebnisse an das Aktionsumschaltmodul 71 aus.
  • Bei einem Benutzererkennungssystem werden, was später beschrieben wird, unterschiedliche Aktionsmodelle zum Aufbauen von Aktionsinformation auf der Basis des endlichen Wahrscheinlichkeitsautomaten für unterschiedliche Benutzer bereitgestellt, und die Robotereinrichtung 1 entscheidet ihre Aktion gemäß dem Aktionsmodell (endliche Wahrscheinlichkeitsautomat) entsprechend dem identifizierten einen Benutzer. Durch Ändern der Übergangswahrscheinlichkeit zwischen Knoten wird die Aktion für jeden identifizierten Benutzer variiert.
  • Das Aktionsumschaltmodul 71 wählt eine Aktion aus, welche vom Aktionsmodell der Aktionsmodelle 701 bis 70n ausgegeben wird, welches die höchste vorher festgelegte Priorität hat, von den Aktionen, welche von den Aktionsmodellen 701 bis 70n der Aktionsmodell-Bibliothek 70 ausgegeben werden, und überträgt einen Befehl mit dem Effekt, dass die ausgewählte Aktion ausgeführt werden sollte (anschließend als Aktionsbefehl bezeichnet) zum Ausgangssemantik-Umsetzungs-Modul 68 der Middleware-Ebene 40. Bei dieser Ausführungsform ist die höhere Priorität für die Aktionsmodelle 701 bis 70n eingestellt, welche auf der unteren Seite in 6 beschrieben wurden.
  • Auf der Basis der Aktionsbeendigungsinformation, welche vom Ausgangssemantik-Umsetzungs-Modul 68 nach Beendigung der Aktion geliefert wird, informiert das Akti onsumschaltmodul 71 das Lernmodul 72, das Emotionsmodul 73 und das Instinktmodul 74 von der Beendigung der Aktion.
  • Das Lernmodul 72 liefert das Ergebnis der Erkennung des Lehrens, welches als eine Aktion vom Benutzer empfangen wird, beispielsweise "geschlagen worden" oder "gestoßen worden" der Ergebnisse der Erkennung, welche vom Eingangs-Semantik-Umsetzer-Modul 59 bereitgestellt wird.
  • Auf der Basis des Ergebnisses der Erkennung und der Information vom Aktionsumschaltmodul 71 ändert das Lernmodul 72 die Übergangswahrscheinlichkeiten entsprechend den Aktionsmodellen 701 bis 70n in der Aktionsmodell-Bibliothek 70, um so die Wahrscheinlichkeit der Offenbarung der Aktion abzusenken, wenn dieses "gestoßen (ausgeschöpft)" ist, und um die Wahrscheinlichkeit der Offenbarung der Aktion anzuheben, wenn diese "geschlagen (gelobt)" ist.
  • Das Emotionsmodell 73 hält Parameter, welche die Stärke von insgesamt 6 Emotionen zeigen, d.h. "Spiel", "Traurigkeit", "Angst", "Überraschung", "Abscheu" und "Gefahr". Das Emotionsmodell 73 aktualisiert periodisch die Parameterwerte dieser Emotionen auf der Basis der speziellen Erkennungsergebnisse, beispielsweise "gestoßen worden" und "geschlagen worden", die von dem Eingangssemantik-Umsetzer-Modul 59, dem Zeitablauf und der Mitteilung von dem Aktionsumschaltmodul 71 bereitgestellt werden.
  • Insbesondere berechnet das Emotionsmodell 73 einen Parameterwert E[t + 1] der Emotion des nächsten Zyklus unter Verwendung der folgenden Gleichung (1), wobei ΔE[t] die Varianzmenge in der Emotion in diesem Zeitpunkt zeigt, die im gemäß einer vorher festgelegten Betriebsgleichung auf der Basis des Erkennungsergebnisses berechnet wird, welches vom Eingangs-Semantik-Umsetzungs-Modul 59 bereitgestellt wird, der Aktion der Robotereinrichtung 1 in diesem Zeitpunkt und dem Zeitablauf von dem vorherigen Aktualisieren, und ki einen Koeffizienten zeigt, der die Intensität der Emotion zeigt. Das Emotionsmodell 73 aktualisiert dann den Parameterwert der Bewegung, wobei dieser durch den laufenden Parameterwert E[t] der Emotion ersetzt wird. Das Emotionsmodell 73 aktualisiert in ähnlicher Weise die Parameterwerte alle Emotionen. E[t + 1] = E[t] + ke × ΔE[t] (1)
  • Es wird vorher festgelegt, bis zu welchem Ausmaß die Ergebnisse der Erkennung und der Information vom Ausgangssemantik-Umsetzungs-Modul 68 die Menge an Varianz ΔE[t] im Parameterwert jeder Bewegung beeinflussen. Beispielsweise beeinträchtigt das Ergebnis der Erkennung in Bezug auf den Effekt, dass er "gestoßen" wurde, stark die Menge an Varianz ΔE[t] im Parameterwert der Emotion "Ärger", und das Ergebnis der Erkennung in Bezug auf den Effekt, dass er "geschlagen" wurde, beeinträchtigt stark die Menge an Varianz ΔE[t] im Parameterwert der Emotion "Spiel".
  • Die Information von dem Ausgangssemantik-Umsetzer-Modul 68 ist sogenannte Rückführinformation der Aktion (Aktionsbeendigungsinformation), d.h., Information über das Offenbarungsergebnis der Aktion. Das Emotionsmodell 73 ändert außerdem die Emotionen gemäß dieser Information. Beispielsweise wird der Emotionspegel "Ärger" abgesenkt, wobei die Aktion "bellen" hergenommen wird. Die Information vom Ausgangssemantik-Umsetzer-Modul 68 wird außerdem dem Lernmodul 72 zugeführt, und das Lernmodul 72 ändert die Übergangswahrscheinlichkeit entsprechend den Aktionsmodulen 701 bis 70n auf der Basis der Information.
  • Die Rückführung in Bezug auf das Ergebnis der Aktion kann außerdem über das Ausgangssignal des Aktionsumschaltmoduls 71 (Aktion mit Emotion) ausgeführt werden. Das Instinktmodul 74 hält Parameter, welche die Stärke von vier Wünschen zeigen, die voneinander unabhängig sind, d.h., "Wunsch nach Übung (Übung)", "Wunsch nach Liebe (Liebe)", "Appetit" und "Kuriosität". Das Instinktmodul 74 aktualisiert periodisch die Parameterwerte dieser Wünsche auf der Basis der Erkennungsergebnisse, welche vom Eingangssemantik-Umsetzer-Modul 59 bereitgestellt werden, dem Zeitablauf und der Information vom Aktionsumschaltmodul 71.
  • Insbesondere berechnet in Bezug auf "Wunsch nach Übung", "Wunsch nach Liebe" und "Kuriosität" das Instinktmodul 74 einen Parameterwert I[k + 1] des Wunsches im nächsten Zyklus unter Verwendung der folgenden Gleichung (2) in einem vorher festgelegten Zyklus, wobei ΔI[k] die Menge an Varianz im Wunsch in diesem Zeitpunkt zeigt, die gemäß einer vorher festgelegten Betriebsgleichung berechnet wurde, auf der Basis der Erkennungsergebnisse, dem Zeitablauf und der Mitteilung vom Ausgangssemantik-Umsetzer-Modul 68, und ki einen Koeffizienten zeigt, der die Intensität des Wunsches zeigt. Das Instinktmodul 74 aktualisiert dann den Parameterwert des Wunsches, wobei er das Berechnungsergebnis durch den laufenden Parameterwert I[k] des Wunsches ersetzt. Das Instinktmodul 74 aktualisiert in ähnlicher Weise die Parameterwerte der Wünsche mit Ausnahme "Appetit". I[k + 1] = I[k] + ki × ΔI[k] (2)
  • Bis zu welchem Ausmaß die Erkennungsergebnisse und die Mitteilung von dem Ausgangssemantik-Umsetzer-Modul 68 die Menge an Varianz ΔI[k] im Parameterwert jedes Wunsches beeinflussen, wird vorher festgelegt. Beispielsweise beeinträchtigt die Mitteilung vom Ausgangssemantik-Umsetzer-Modul 68 die Menge an Varianz ΔI[k] im Parameterwert "Ermüdung" stark.
  • Der Parameterwert kann auch in der folgenden Art und Weise bestimmt werden.
  • Beispielsweise wird ein Parameterwert "Schmerz" bereitgestellt. "Schmerz" beeinträchtigt "Traurigkeit" im Emotionsmodell 73.
  • Auf der Basis der Häufigkeit wird eine abnormale Lage hergenommen, die über das Signalverarbeitungsmodul 55 zur Lageermittlung und das Eingangssemantik-Umsetzermodul 59 der Middleware-Ebene 40 mitgeteilt wird, ein Parameterwert I[k] "Schmerz" wird unter Verwendung der folgenden Gleichung (3) berechnet, wobei N die Häufigkeit zeigt, K1 die Stärke des Schmerzes zeigt und K2 eine Konstante der Reduktionsgeschwindigkeit des Schmerzes zeigt. Dann wird der Parameterwert "Schmerz" geändert, indem das Berechnungsergebnis durch den laufenden Parameterwert I[k] von Schmerz ersetzt wird. Wenn I[k] kleiner als 0 ist, werden I[k] = 0, t = 0 und N = 0 verwendet, I[k] = K1 × N – K1 × t (3)
  • Alternativ wird ein Parameterwert für "Fieber" bereitgestellt. Auf der Basis von Temperaturdaten vom Signalverarbeitungsmodul 51 zur Temperaturermittlung wird, die über das Eingangssemantik-Umsetzer-Modul 59 bereitgestellt werden, wird ein Parameterwert I[k] von "Fieber" unter Verwendung der folgenden Gleichung (4) berechnet, wobei T die Temperatur zeigt, T0 die Umgebungstemperatur zeigt, und K3 einen Temperaturanstiegskoeffizienten zeigt. Dann wird der Parameterwert "Fieber" durch Ersetzen des Berechnungsergebnisses mit dem laufenden Parameterwert I[k] "Fieber" aktualisiert. Wenn T – T0 kleiner als 0 ist, wird I[k] = 0 verwendet. I[k] = (T – T0) × K3 (4)
  • In Bezug auf "Appetit" im Instinktmodell 74 wird auf der Basis der Restbatterie-Kapazitätsdaten (Information, welche durch ein Modul erhalten wird, um die Batterierestkapazität zu ermitteln, was nicht gezeigt ist), die über das Eingangssemantik-Umsetzer-Modul 59 bereitgestellt werden, ein Parameterwert I[k) von "Appetit" unter Verwendung der folgenden Gleichung (5) in einem vorher festgelegten Zyklus berechnet, wobei BL die Restbatteriekapazität darstellt. Dann wird der Parameterwert "Appetit" durch Ersetzen des Berechnungsergebnisses mit dem laufenden Parameterwert I[k] von "Appetit" aktualisiert. I[k] = 100 – BL (5)
  • Alternativ wird ein Parameterwert "Durst" bereitgestellt. Auf der Basis der Änderungsgeschwindigkeit der Restbatteriekapazität, welche über das Eingangssemantik-Umsetzer-Modul 59 geliefert wird, wird der Parameterwert I[k] von "Durst" unter Verwendung der folgenden Gleichung (6) berechnet, wobei BL(t) die Restbatteriekapazität in einem Zeitpunkt t darstellt und die Restbatteriekapazitätsdaten in den Zeitpunkten t1 und t2 erlangt werden. Da nach wird der Parameterwert von "Durst" durch Ersetzen des Berechnungsergebnisses mit dem laufenden Parameterwert I[k] von "Durst" aktualisiert. I[k] = {BL(t2) – BL(t1)}/(t2 – t1) (6)
  • Bei der vorliegenden Ausführungsform werden die Parameterwerte der Emotionen und der Wünsche (Instinkte) so reguliert, dass sie innerhalb eines Bereichs von 0 bis 100 variieren. Die Werte der Koeffizienten ke und ki werden individuell für die Emotionen und die Wünsche festgelegt.
  • Dagegen liefert das Ausgangssemantik-Umsetzer-Modul 68 der Middleware-Ebene 40 abstrakte Aktionsbefehle, beispielsweise "bewege dich nach vorne", "sei zufrieden", "belle oder kläffe", oder "laufen (fange einen Ball)", die von dem Aktionsumschaltmodul 71 in der Anwendungsebene 41 zu den entsprechenden Signalverarbeitungsmodulen 61 bis 67 im Erkennungssystem 69 geliefert werden, wie in 4 gezeigt ist.
  • Wenn die Aktionsbefehle geliefert werden, erzeugen die Signalverarbeitungsmodule 61 bis 67 Servobefehlswerte, die den entsprechenden Betätigungsorganen 251 bis 25n bereitgestellt werden, um die Aktionen auszuführen, und Tondaten eines Tons, die von dem Lautsprecher 24 (2) auszugeben sind, und/oder Ansteuerdaten, die zur LED der "Augen" zu liefern sind, auf der Basis der Aktionsbefehle. Die Signalverarbeitungsmodule 61 bis 67 übertragen dann sequentiell diese Daten zu den entsprechenden Betätigungsorganen 251 bis 25n , zum Lautsprecher 24 oder zur LED über den virtuellen Roboter 33 des Roboterserverobjekts 32 und der Signalverarbeitungsschaltung 14 (2).
  • Auf diese Art und Weise kann auf der Basis des Steuerungsprogramms die Robotereinrichtung 1 autonom als Antwort auf den Status der Einrichtung, des Umgebungsstatus und der Instruktion oder der Aktion von Benutzer selbst handeln.
  • (3) Änderung von Instinkt und Emotion gemäß der Umgebung
  • In der Robotereinrichtung 1 werden zusätzlich zur oben beschriebenen Konfiguration die Emotionen und die Instinkte gemäß den Grad von drei Zuständen geändert, d.h., "Geräusch", "Temperatur" und "Beleuchtung" (anschließend als Umgebungszustände bezeichnet) der Umgebung. Beispielsweise wird die Robotereinrichtung 1 fröhlich, wenn die Umgebung "hell" ist, während die Robotereinrichtung 1 stumm wird, wenn die Umgebung "dunkel" ist.
  • Insbesondere ist in der Robotereinrichtung 1 ein Temperatursensor (nicht gezeigt) zum Ermitteln der Umgebungstemperatur an einer vorher festgelegten Position zusätzlich zur CCD-Kamera 20, der Abstandssensor 22, der Berührungssensor 21 und das Mikrophon 23 als externe Sensoren zum Ermitteln des Umgebungszustands vorgesehen. Als entsprechende Konfiguration sind die Signalverarbeitungsmodule 50 bis 52 zur Geräuschermittlung, Temperaturermittlung und Helligkeitsermittlung im Erkennungssystem 60 der Middleware-Ebene 40 vorgesehen.
  • Das Signalverarbeitungsmodul für Geräuschermittlung 50 ermittelt den Umgebungsgeräuschpegel auf der Basis der Tondaten von Mikrophon 23 (2), welche über den virtuellen Roboter 33 des Roboterserverobjekts 33 geliefert werden, und gibt das Ermittlungsergebnis an das Eingangssemantik-Umsetzer-Modul 59 aus.
  • Das Signalverarbeitungsmodul zur Temperaturermittlung 51 ermittelt die Umgebungstemperatur auf der Basis der Sensordaten vom Temperatursensor, die über den virtuellen Roboter 33 geliefert werden, und gibt das Ermittlungsergebnis an das Eingangssemantik-Umsetzungs-Modul 59 aus.
  • Das Signalverarbeitungsmodul zur Helligkeitsermittlung 52 ermittelt die Umgebungsbeleuchtung auf der Basis der Bilddaten von der CCD-Kamera 20 (2), welche über den virtuellen Roboter 33 geliefert werden, und gibt das Ermittlungsergebnis an das Eingangssemantik-Umsetzer-Modul 59 aus.
  • Das Eingangssemantik-Umsetzer-Modul 59 erkennt den Grad des Umgebungs-"Geräusches", der Umgebungs-"Temperatur" und der Umgebungs-"Beleuchtung" auf der Basis der Ausgangssignale von den Signalverarbeitungsmodulen 50 bis 52, und gibt das Erkennungsergebnis an die internen Zustandsmodule in der Anwendungsebene 41 aus (5).
  • Insbesondere erkennt das Eingangssemantik-Umsetzungs-Modul 59 den Grad des Umgebungs-"Geräusches" auf der Basis des Ausgangssignals vom Signalverarbeitungsmodul für Geräuschermittlung 50 und gibt das Erkennungsergebnis über die Wirkung, dass es "laut ist" oder dass es "ruhig ist", an das Emotionsmodell 73 und das Instinktmodell 74 aus.
  • Das Eingangssemantik-Umsetzer-Modul 59 erkennt außerdem den Grad der Umgebungs-"Temperatur" auf der Basis des Ausgangssignals vom Signalverarbeitungsmodul für Temperaturermittlung 51 und gibt das Erkennungsergebnis in Bezug auf die Wirkung "dass es heiß ist" oder "kalt ist" an das Emotionsmodell 73 und das Instinktmodell 74 aus.
  • Außerdem erkennt das Eingangssemantik-Umsetzer-Modul 59 den Grad der Umgebungs-"Beleuchtung" auf der Basis des Ausgangssignals vom Signalverarbeitungsmodul für Helligkeitsermittlung 52 und gibt das Erkennungsergebnis in Bezug auf den Effekt, dass "es hell ist" oder dass es "dunkel ist" an das Emotionsmodell 73 und das Instinktmodell 74 aus.
  • Das Emotionsmodell 73 ändert jeden Parameterwert gemäß der Gleichung (1) auf der Basis der Erkennungsergebnisse, welche vom Eingangssemantik-Umsetzer-Modul 59 geliefert werden, wie oben beschrieben, periodisch.
  • Danach erhöht oder vermindert das Emotionsmodell 73 den Wert des Koeffizienten ke in der Gleichung (1) in Bezug auf die vorher festgelegte entsprechende Emotion auf der Basis der Erkennungsergebnisse von "Geräusch", "Temperatur" und "Beleuchtung", welche vom Eingangssemantik-Umsetzer-Modul 59 geliefert werden.
  • Wenn insbesondere das Erkennungsergebnis in Bezug auf die Wirkung, dass es "laut ist" geliefert wird, vergrößert das Emotionsmodell 73 den Wert des Koeffizienten ke in Bezug auf die Emotion "Ärger" um eine vorher festgelegte Zahl. Wenn dagegen das Erkennungsergebnis in Bezug auf den Effekt, dass es "ruhig ist" geliefert wird, vermindert das Emotionsmodell 73 den Koeffizienten ke in Bezug auf die Emotion von "Ärger" um eine vorher festgelegte Zahl. Somit wird der Parameterwert von "Ärger" durch den Einfluss des Umgebungs-"Geräusches" geändert.
  • Wenn dagegen das Erkennungsergebnis auf die Wirkung, dass es "heiß ist" geliefert wird, vermindert das Emotionsmodell 73 den Wert des Koeffizienten ke in Bezug auf die Emotion von "Spiel" um eine vorher festgelegte Zahl. Wenn dagegen das Erkennungsergebnis auf die Wirkung, dass es "kalt ist" geliefert wird, erhöht das Emotionsmodell 73 den Koeffizienten ke in Bezug auf die Emotion "Traurigkeit" um eine vorher festgelegte Zahl. Damit wird der Parameterwert von "Traurigkeit" durch den Einfluss der Umgebungs-"Temperatur" geändert.
  • Wenn dagegen das Erkennungsergebnis auf die Wirkung, dass es "hell ist" geliefert wird, vergrößert das Emotionsmodell 73 den Wert des Koeffizienten ke in Bezug auf die Emotion von "Spiel" um eine vorher festgelegte Zahl. Wenn dagegen das Erkennungsergebnis auf den Effekt, dass es "dunkel ist" geliefert wird, vergrößert das Emotionsmodell 73 den Koeffizienten ke in Bezug auf die Emotion von "Gefahr" um eine vorher festgelegte Zahl. Somit wird der Parameterwert "Angst" durch den Einfluss der Umgebungs-"Beleuchtung" geändert.
  • In ähnlicher Weise ändert das Instinktmodell 74 den Parameterwert jedes Wunsches gemäß den Gleichungen (2) bis (6) auf der Basis der Erkennungsergebnisse periodisch, welche vom Eingangssemantik-Umsetzungs-Modul 59 geliefert werden, wie oben beschrieben.
  • Das Instinktmodul 74 vergrößert oder vermindert den Wert des Koeffizienten ki in der Gleichung (2) in Bezug auf den vorher festgelegten entsprechenden Wunsch auf der Basis der Erkennungsergebnisse von "Geräusch", "Temperatur", und "Beleuchtung", die von dem Eingangssemantik-Umsetzer-Modul 59 geliefert werden.
  • Wenn insbesondere das Erkennungsergebnis auf die Wirkung, dass es "laut ist" oder "hell ist", geliefert wird, vermindert das Instinktmodell 74 den Wert des Koeffizienten ki in Bezug auf "müde" um eine vorher festgelegte Zahl. Wenn dagegen das Erkennungsergebnis auf die Wirkung, dass es "ruhig ist" oder "dunkel ist" geliefert wird, erhöht das Instinktmodell 74 den Koeffizienten ki in Bezug auf "müde" um eine vorher festgelegte Zahl. Wenn das Erkennungsergebnis auf den Effekt, dass es "heiß ist" oder "kalt ist" geliefert wird, vergrößert das Instinktmodell 74 den Koeffizienten ki in Bezug auf "müde" um eine vorher festgelegte Zahl.
  • Folglich neigt in der Robotereinrichtung 1, wenn die Umgebung "laut" ist, der Parameterwert von "Ärger" dazu, anzusteigen, und der Parameterwert von "müde" neigt dazu, abzunehmen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass diese insgesamt wie "irritiert" aussieht. Wenn dagegen die Umgebung "ruhig" ist, neigt der Parameterwert von "Ärger" dazu, abzunehmen, und der Parameterwert von "müde" neigt dazu, anzusteigen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass diese insgesamt als "zahm" aussieht.
  • Wenn die Umgebung "heiß" ist, neigt der Parameterwert "Spiel" dazu, abzunehmen, und der Parameterwert "müde" neigt dazu, anzusteigen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass sie insgesamt als "träge" aussieht. Wenn dagegen die Umgebung "kalt" ist, neigt der Parameterwert "Traurigkeit" dazu, anzusteigen, und der Parameterwert "müde" neigt dazu, anzusteigen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass sie aussieht insgesamt "wie kalt anfühlend".
  • Wenn die Umgebung "hell" ist, neigt der Parameterwert "Spiel" dazu, anzusteigen, und der Parameterwert "müde" neigt dazu, abzunehmen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass sie insgesamt "fröhlich" aussieht. Wenn dagegen die Umgebung "dunkel" ist, neigt der Parameterwert "Spiel" dazu, anzusteigen, und der Parameterwert "müde" neigt dazu, anzusteigen. Daher verhält sich die Robotereinrichtung 1 in einer Weise, dass sie insgesamt "ruhig" aussieht.
  • Die Robotereinrichtung 1, die wie oben beschrieben aufgebaut ist, kann den Emotionszustand und die Instinkte gemäß der Information der Robotereinrichtung selbst und der externen Information ändern, und kann autonom als Antwort auf den Zustand von Emotionen und Instinkten handeln.
  • (4) Aufbau für Benutzererkennung
  • Die Anwendung der vorliegenden Erfindung auf die Robotereinrichtung wird nun ausführlich beschrieben.
  • Die Robotereinrichtung, bei der die vorliegende Erfindung angewandt wird, ist so aufgebaut, dass sie in der Lage ist, mehrere Benutzer zu identifizieren und unterschiedlich auf die jeweiligen Benutzer zu reagieren. Ein Benutzeridentifikationssystem der Robotereinrichtung 1, welches unterschiedliche Reaktionen auf entsprechende Benutzer ermöglicht, ist so aufgebaut, wie in 9 gezeigt ist.
  • Das Benutzeridentifikationssystem besitzt einen Sensor 101, einen Benutzerregistrierungsabschnitt 110, einen Benutzeridentifikationsabschnitt 120, eine Benutzeridentifikations-Informationsdatenbank 102, einen Aktionstabellenabschnitt 130, einen Aktionsinstruktions-Ausübungsabschnitt 103 und einen Ausgabeabschnitt 104.
  • Bei dem Benutzeridentifikationssystem identifiziert der Benutzeridentifikationsabschnitt 120 Benutzer auf der Basis eines Ausgangssignals vom Sensor 101. In diesem Fall wird ein Benutzer in Bezug auf Information über mehrere Benutzer identifiziert, die vorher in der Benutzeridentifikations-Informationsdatenbank 102 durch den Benutzerregistrierungsabschnitt 110 registriert ist. Der Aktionstabellenabschnitt 130 erzeugt eine Aktionstabelle entsprechend dem einem Benutzer auf der Basis des Ergebnisses der Identifikation vom Benutzeridentifikationsabschnitt 120, und eine Aktion wird aktuell durch den Aktionsinstruktions-Ausübungsabschnitt 103 und dem Ausgabeabschnitt 104 gemäß der Aktionstabelle, welche durch den Aktionstabellenabschnitt 130 erzeugt wird, ausgegeben.
  • Bei einem solchen Aufbau bildet der Sensor 101 eine Ermittlungseinrichtung, um Information über einen Benutzer zu ermitteln, und der Benutzeridentifikationsabschnitt 120 bildet eine Identifikationseinrichtung, um einem Benutzer von mehreren identifizierbaren Benutzern auf der Basis der Information über einen Benutzer, die durch den Sensor 101 ermittelt wurde, zu identifizieren. Der Aktionstabellenabschnitt 130, der Aktionsinstruktions-Ausübungsabschnitt 103 und der Ausgabeabschnitt 104 bilden eine Aktionssteuerungseinrichtung, um eine Offenbarung einer Aktion entsprechend dem einem Benutzer zu veranlassen, der durch den Benutzeridentifikationsabschnitt 120 identifiziert wurde.
  • Der Benutzerregistrierungsabschnitt 110 bildet eine Registrierungseinrichtung, um Information über mehrere Benutzer (Benutzeridentifikationsinformation) für die Benutzeridentifikations-Informationsdatenbank 102 vorher zu registrieren. Die Komponenten dieses Benutzeridentifikationssystems werden nun ausführlich beschrieben.
  • Der Benutzeridentifikationsabschnitt 120 identifiziert einen Benutzer von mehreren registrierten Benutzern. Insbesondere besitzt der Benutzeridentifikationsabschnitt 120 einen Benutzerinformationsdetektor 121, einen Benutzerinformationsextraktor 122 und eine Benutzeridentifikationseinheit 123, wie in 10 gezeigt ist, und identifiziert somit einen Benutzer.
  • Der Benutzerinformationsdetektor 121 setzt ein Sensorsignal vom Sensor 101 in eine Benutzeridentifikationsinformation (Benutzeridentifikationssignal) um, die für die Benutzeridentifikation verwendet werden soll. Der Benutzerinformationsdetektor 121 ermittelt die charakteristische Quantität des Benutzers vom Sensorsignal und setzt diese in die Benutzeridentifikationsinformation um. In diesem Fall kann der Sensor 101 eine Ermittlungseinrichtung sein, welche in der Lage ist, die Kenndaten des Benutzers zu ermitteln, wie die CCD-Kamera 20, welche in 2 gezeigt ist, um Bildinformation zu ermitteln, der Berührungssensor 21, um Druckinformation zu ermitteln, oder das Mikrophon 23, um Toninformation zu ermitteln. Beispielsweise ermittelt die CCD-Kamera 20 ein charakteristisches Teil des Gesichts als die charakteristische Quantität, und das Mikrophon 23 ermittelt ein charakteristisches Teil der Stimme als die charakteristische Quantität.
  • Der Benutzerinformationsdetektor 121 gibt die ermittelte Benutzeridentifikationsinformation an die Benutzeridentifikationseinheit 123 aus. Information von dem Benutzerinformationsextraktor 122 (registrierte Benutzeridentifikationsinformation) wird ebenfalls an die Benutzeridentifikationseinheit 123 ausgegeben.
  • Der Benutzerinformationsextraktor 122 extrahiert die Benutzeridentifikationsinformation (Benutzeridentifikationssignal), die vorher registriert wurde, von der Benutzeridentifikations-Informationsdatenbank 102 und gibt die extrahierte Benutzeridentifikationsinformation (anschließend als registrierte Benutzeridentifikationsinformation bezeichnet) an die Benutzeridentifikationseinheit 123 aus.
  • In diesem Fall besteht die Benutzeridentifikations-Informationsdatenbank 102 aus einer Vielfalt von Information in Bezug auf Benutzer einschließlich der registrierten Benutzeridentifikationsinformation für die Benutzeridentifikation. Beispielsweise wird die charakteristische Quantität des Benutzers als registrierte Benutzeridentifikationsinformation verwendet. Die Registrierung der Benutzeridentifikationsinformation in der Benutzeridentifikations-Informationsdatenbank 102 wird durch den Benutzerregistrierungsabschnitt 110 ausgeführt, der in 9 gezeigt ist.
  • Insbesondere besitzt der Benutzerregistrationsabschnitt 110 einen Benutzerinformationsdetektor 111 und einen Benutzerinformationsregistrator 112, wie in 11 gezeigt ist.
  • Der Benutzerinformationsdetektor 111 ermittelt Information (Sensorsignal) vom Sensor 101 als Benutzeridentifikationsinformation (Benutzeridentifikationssignal). In dem Fall, wo der Sensor 101 die CCD-Kamera 20, der Berührungssensor 21 oder das Mikrophon 23, wie oben beschrieben, ist, gibt der Benutzerinformationsdetektor 111 Bildinformation, Druckinformation oder Toninformation, die von einem solchen Sensor 101 ausgegeben werden, an den Benutzerinformationsregistrierer 112 als Benutzeridentifikationsinformation aus.
  • Um außerdem einen Vergleich zwischen der Benutzeridentifikationsinformation, welche durch den Benutzerinformationsdetektor 121 des Benutzeridentifikationsabschnitts 120 ermittelt wurde, und der registrierten Benutzeridentifikationsinformation, die in der Benutzeridentifikations-Informationsdatenbank 102 registriert wurde, zu ermöglichen, gibt der Benutzerinformationsdetektor 111 Information des gleichen Ausgangsformats wie das des Benutzerinformationsdetektors 121 des Benutzeridentifikationsabschnitts 120 an den Benutzerinformationsregistrator 112 aus. Das heißt, beispielsweise dass der Benutzerinformationsdetektor 111 vom Sensorsignal die Benutzercharakteristikquantität ermittelt, die ähnlich der charakteristischen Quantität des Benutzers ist, die durch den Benutzerinformationsdetektor 121 des Benutzeridentifikationsabschnitts 120 ermittelt wurde.
  • Außerdem ist ein Schalter oder eine Taste zum Herausnehmen der Benutzeridentifikationsinformation in der Robotereinrichtung 1 vorgesehen, und der Benutzerinformationsdetektor 111 beginnt mit der Aufnahme der Benutzeridentifikationsinformation als Antwort auf eine Betätigung dieses Schalters oder der Taste durch den Benutzer.
  • Der Benutzerinformationsregistrator 112 schreibt die Benutzeridentifikationsinformation vom Benutzerinformationsdetektor 111 in die Benutzeridentifikations-Informationsdatenbank 102.
  • Die Benutzeridentifikationsinformation wird vorher in der Benutzeridentifikations-Informationsdatenbank 102 durch den Benutzerregistrierungsabschnitt 110 wie oben beschrieben registriert. Über ähnliche Prozeduren wird die Benutzeridentifikationsinformation von mehreren Benutzern in der Benutzeridentifikations-Informationsdatenbank 102 registriert.
  • Unter Bezugnahme wiederum auf 10 vergleicht die Benutzeridentifikationseinheit 123 des Benutzeridentifikationsabschnitts 120 die Benutzeridentifikationsinformation von dem Benutzerinformationsdetektor 121 mit der registrierten Benutzeridentifikationsinformation vom Benutzerinformationsextraktor 122, um somit den Benutzer zu identifizieren. Beispielsweise wird die Benutzeridentifikationsinformation durch Musterübereinstimmung verglichen. In dem Fall, wo die Benutzeridentifikationsinformation aus der charakteristischen Quantität des Benutzers besteht, kann die Musterübereinstimmungs-Verarbeitung für die Benutzerinformation mit einer hohen Geschwindigkeit ausgeführt werden.
  • Es kann Priorität der registrierten Benutzeridentifikationsinformation verliehen werden. Obwohl ein Vergleich der Benutzeridentifikationsinformation in Bezug auf mehrere Benutzer ausgeführt wird, ist es möglich, einen Vergleich mit vorher festgelegter registrierter Benutzeridentifikationsinformation in Bezug auf die Priorität zu beginnen und somit den Benutzer in einer kurzen Zeit zu spezifizieren.
  • Beispielsweise wird höhere Priorität einem Benutzer verliehen, mit dem die Robotereinrichtung 1 mit einer größeren Anzahl von Gelegenheiten in Kontakt kam. In diesem Fall nimmt die Robotereinrichtung 1 die Identifikationsaufzeichnung des Benutzers auf und gibt Priorität der registrierten Benutzeridentifikationsinformation auf der Basis der aufgezeichneten Information. Das heißt, wenn die Robotereinrichtung 1 in Kontakt mit dem Benutzer mit einer größeren Anzahl von Gelegenheiten kam, wird dieser höhere Priorität verliehen, und die registrierte Benutzeridentifikationsinformation mit hoher Priorität wird früh als ein Vergleichsobjekt verwendet. Somit ist es möglich, den Benutzer in einer kurzen Zeit zu spezifizieren.
  • Die Benutzeridentifikationseinheit 123 gibt das Ergebnis der Identifikation, welche somit erhalten wird, an den Aktionstabellenabschnitt 130 aus. Beispielsweise gibt die Benutzeridentifikationseinheit 123 die identifizierte Benutzerinformation als Benutzerkennzeichen (Benutzerkennzeichensignal) aus.
  • Der Benutzeridentifikationsabschnitt 120, der somit durch den Benutzerinformationsdetektor 121 und dgl. aufgebaut ist, vergleicht die Benutzeridentifikationsinformation, welche vom Sensor 101 ermittelt wird, mit der registrierten Benutzeridentifikationsinformation, die vorher registriert wird, um somit dem Benutzer zu identifizieren. Der Benutzeridentifikationsabschnitt 120 wird später ausführlich unter Verwendung eines Beispiels beschrieben, bei dem der Benutzer durch einen Drucksensor identifiziert wird.
  • Der Aktionstabellenabschnitt 130 wählt eine Aktion entsprechend dem Benutzer aus. Insbesondere besitzt der Aktionstabellenabschnitt 130 einen Aktionstabellenselektor 131 und einen Aktionsinstruktionsselektor 132, wie in 10 gezeigt ist.
  • Der Aktionstabellenselektor 131 wählt Aktionstabellendaten als Aktionsinformation auf der Basis des Benutzerkennzeichens von dem Benutzeridentifikationsabschnitt 120 aus. Insbesondere hat der Aktionstabellenselektor 131 mehrere Aktionstabellendaten entsprechend mehreren Benutzern und wählt Aktionstabellendaten entsprechend dem Benutzerkennzeichen aus. Die Aktionstabellendaten sind notwendige Information, um die zukünftige Ak tion der Robotereinrichtung 1 zu bestimmen, und sie besteht aus mehreren Stellen und Aktionen, welche einen Übergang zueinander ermöglichen. Insbesondere sind die Aktionstabellendaten die oben beschriebene Aktionsmodell- und Aktionsinformation, mit der eine Aktion durch einen endlichen Wahrscheinlichkeitsautomaten vorgeschrieben wird.
  • Der Aktionstabellenselektor 131 gibt die ausgewählten Aktionstabellendaten entsprechend dem Benutzerkennzeichen an den Aktionsinstruktionsselektor 132 aus.
  • Der Aktionsinstruktionsselektor 132 wählt ein Aktionsinstruktionssignal auf der Basis der Aktionstabellendaten, welche durch den Aktionstabellenselektor 131 ausgewählt wurden, aus, und gibt das Aktionsinstruktionssignal an den Aktionsinstruktions-Ausübungsabschnitt 103 aus. Das heißt, in dem Fall, wo die Aktionstabellendaten aus einem endlichen Wahrscheinlichkeitsautomaten bestehen, besteht das Aktionsinstruktionssignal aus Information, um eine Bewegung oder eine Lage (Zielbewegung oder Lage), die bei jeden Knoten auszuführen ist (KNOTEN), zu realisieren.
  • Der Aktionstabellenabschnitt 130, der somit durch den Aktionstabellenselektor 131 und dgl. ausgebildet ist, wählt die Aktionstabellendaten auf der Basis des Benutzerkennzeichens aus, welches das Identifikationsergebnis vom Benutzeridentifikationsabschnitt 120 ist. Dann gibt der Aktionstabellenabschnitt 130 das Aktionsinstruktionssignal auf der Basis der ausgewählten Aktionstabellendaten an den Aktionsinstruktions-Ausübungsabschnitt 103 aus.
  • Der Modus zum Halten der Aktionstabellendaten (endlicher Wahrscheinlichkeitsautomat) im Aktionstabellenselektor 131 wird nun beschrieben.
  • Der Aktionstabellenselektor 131 hält mehrere endliche Wahrscheinlichkeitsautomaten (Aktionstabellendaten) DT1, DT2, DT3, DT4 entsprechend mehreren Benutzern, wie in 12 gezeigt ist. Damit wählt der Aktionstabellenselektor 131 einen entsprechenden endlichen Wahrscheinlichkeitsautomaten gemäß dem Benutzerkennzeichen aus und gibt den ausgewählten endlichen Wahrscheinlichkeitsautomaten an den Aktionsinstruktionsselektor 132 aus. Der Aktionsinstruktionsselektor 132 gibt ein Aktionsinstruktionssignal auf der Basis des endlichen Wahrscheinlichkeitsautomaten aus, der durch den Aktionstabellenselektor 131 ausgewählt wurde.
  • Alternativ kann der Aktionstabellenselektor 131 endliche Wahrscheinlichkeitsautomaten zum Vorschreiben von Aktionen halten, mit einem Teil davon entsprechend für jeden Benutzer, wie in 13 gezeigt ist. Das heißt, der Aktionstabellenselektor 131 kann einen endlichen Wahrscheinlichkeitsautomaten DM eines Basisteils und endliche Wahrscheinlich keitsautomaten DS1, DS2, DS3, DS4 für entsprechende Benutzer als Aktionstabellendaten halten.
  • Bei dem in 12 gezeigten Beispiel wird ein endlicher Wahrscheinlichkeitsautomat als vollständige Daten entsprechend mehreren Benutzern gehalten. Wie jedoch in 13 gezeigt ist, ist es auch möglich, einen Teil des endlichen Wahrscheinlichkeitsautomaten für jeden Benutzer zu halten. Obwohl das Merkmal der vorliegenden Erfindung darin besteht, dass die Robotereinrichtung 1 unterschiedlich auf unterschiedliche Benutzer reagiert, muss die Reaktion nicht notwendigerweise in Bezug auf alle Aktionen unterschiedlich sein, und einige allgemeine Aktionen können allgemein sein.
  • Somit hält der Aktionstabellenselektor 131 einen Teil des endlichen Wahrscheinlichkeitsautomaten gemäß mehreren Benutzern. In einem solchen Fall ist es durch Einstellen eines Basisknotens im endlichen Wahrscheinlichkeitsautomaten DM des Basisteils und der endlichen Wahrscheinlichkeitsautomaten DS1, DS2, DS3, DS4, die speziell für die jeweiligen Benutzer vorbereitet sind, möglich, zwei endliche Automaten zu verbinden und diese wie ein einzelnes Stück an Information zur Aktionsentscheidung zu handhaben.
  • Durch Halten eines Teils des endlichen Wahrscheinlichkeitsautomaten gemäß mehreren Benutzern anstelle des Haltens des gesamten endlichen Wahrscheinlichkeitsautomaten kann die Datenmenge, die zu halten ist, reduziert werden. Als Ergebnis kann die Speicherresource effektiv genutzt werden.
  • Der Aktionstabellenselektor 131 kann außerdem Aktionstabellendaten entsprechend jedem Benutzer als Übergangswahrscheinlichkeitsdaten DP halten, wie in 14 gezeigt ist.
  • Wie oben beschrieben schreibt der endliche Wahrscheinlichkeitsautomat den Übergang zwischen Knoten unter Verwendung der Wahrscheinlichkeit vor. Die Übergangswahrscheinlichkeitsdaten können gemäß mehreren Benutzern gehalten werden. Beispielsweise werden, wie in 14 gezeigt ist, die Übergangswahrscheinlichkeitsdaten DP entsprechend mehreren Benutzern gemäß der Adresse jedes Bogens im endlichen Wahrscheinlichkeitsautomaten DP gehalten. In dem in 14 gezeigten Beispiel werden die Übergangswahrscheinlichkeitsdaten von Bögen, welche von Knoten "A", "B", "C", ... mit anderen Knoten verbunden sind, gehalten, und die Übergangswahrscheinlichkeit des Bogens des endlichen Wahrscheinlichkeitsautomaten wird durch die Übergangswahrscheinlichkeitsdaten von "Benutzer 2" vorgeschrieben.
  • Wenn die Übertragungswahrscheinlichkeit, welche für jeden Bogen des endlichen Wahrscheinlichkeitsautomaten vorgesehen ist, für jeden Benutzer gehalten wird, ist es mög lich, gleichförmige Knoten (Posten oder Bewegungen) unabhängig vom Benutzer vorzubereiten und die Übertragungswahrscheinlichkeit zwischen Knoten in Abhängigkeit vom Benutzer zu variieren. Damit kann die Speicherresource effektiv im Vergleich zu dem Fall genutzt werden, wo der endliche Wahrscheinlichkeitsroboter für jeden Benutzer wie oben beschrieben gehalten wird.
  • Die Aktionstabellendaten, die oben beschrieben wurden, werden durch den Aktionstabellenselektor 131 gemäß dem Benutzer ausgewählt, und der Aktionsinstruktionsselektor 132 gibt Aktionsinstruktionsinformation auf der Basis der Aktionstabellendaten an den Aktionsinstruktions-Ausübungsabschnitt 103 in der nachfolgenden Stufe aus.
  • Der Aktionsinstruktions-Ausübungsabschnitt 103 gibt ein Bewegungsinstruktionssignal zum Ausüben der Aktion auf der Basis des Aktionsinstruktionssignals aus, welches vom Aktionstabellenabschnitt 130 ausgegeben wird. Insbesondere entsprechen das oben beschriebene Ausgangssemantik-Umsetzer-Modul 68 und die Signalverarbeitungsmodule 61 bis 67 diesen Abschnitten.
  • Der Ausgangsabschnitt 104 ist ein Bewegungsabschnitt, der durch einen Motor oder dgl. in der Robotereinrichtung 1 angesteuert wird, und arbeitet auf der Basis des Bewegungsinstruktionssignals vom Aktionsinstruktions-Ausübungsabschnitt 103. Insbesondere ist der Ausgangsabschnitt 104 eine jede der Einrichtungen, welche durch die Befehle von dem Signalverarbeitungsmodul 61 bis 67 gesteuert werden.
  • Die Struktur des Benutzeridentifikationssystems und die Verarbeitung in jedem Aufbauabschnitt sind oben beschrieben. Die Robotereinrichtung 1 identifiziert den Benutzer unter Verwendung eines Benutzeridentifikationssystems, wählt danach Aktionstabellendaten entsprechend dem Benutzer auf der Basis des Identifikationsergebnisses aus, und offenbart eine Aktion auf der Basis der ausgewählten Aktionstabellendaten. Somit reagiert die Robotereinrichtung 1 auf unterschiedliche Benutzer unterschiedlich. Daher kann man sich an Reaktionen auf Basis von Interaktionen mit jedem Benutzer erfreuen, und die Unterhaltungseigenschaft der Robotereinrichtung 1 wird verbessert.
  • Bei der oben beschriebenen Ausführungsform wird die vorliegende Erfindung auf eine Robotereinrichtung 1 angewandt. Die vorliegende Erfindung ist noch nicht auf diese Ausführungsform beschränkt. Beispielsweise kann das Benutzeridentifikationssystem auch bei einem Schauspielorganismus oder einem virtuellen Organismus angewandt werden, der auf einer Anzeigeeinrichtung eines Computersystems angezeigt wird.
  • In der oben beschriebenen Ausführungsform sind die Aktionstabellendaten, welche für jeden Benutzer vorbereitet sind, ein endlicher Wahrscheinlichkeitsautomat. Die vor liegende Erfindung ist jedoch nicht darauf beschränkt. Wichtig ist, dass die Daten ein Aktionsmodell sind, um die Aktion der Computereinrichtung 1 vorzuschreiben, die für jeden Benutzer vorgeschrieben ist.
  • Es ist außerdem möglich, einen Übereinstimmungssatz für jeden Benutzer vorzubereiten. Ein Übereinstimmungssatz ist eine Informationsgruppe, die mehrere Informationsstücke für einen Benutzer aufweist. Insbesondere weist die Informationsgruppe charakteristische Information für jeden Benutzer auf, beispielsweise unterschiedliche Gesichtausdrücke und unterschiedliche Stimmen, die in Bezug auf den einen Benutzer erhalten werden.
  • Nach einer Spezifizierung (Identifizierung) des Benutzers wird die Musterübereinstimmung eines Gesichtsausdrucks oder einer Instruktion vom Benutzer unter Verwendung des Übereinstimmungssatzes des Benutzers ausgeführt, um somit eine Reaktion in Bezug auf den Benutzer mit einer hohen Geschwindigkeit zu ermöglichen, d.h., eine reibungslose Interaktion mit dem Benutzer. Diese Verarbeitung basiert auf der Annahme, dass, nachdem ein Benutzer spezifiziert ist, der Benutzer in Kontakt mit der Robotereinrichtung 1 nicht geändert wird.
  • Die spezifische Struktur des Benutzeridentifikationsabschnitts 120 wird anschließend in Bezug auf den Fall beschrieben, um den Benutzer dadurch zu identifizieren, indem der Drucksensor betätigt wird.
  • Beispielsweise hat im Benutzeridentifikationsabschnitt 120 der Benutzerinformationsdetektor 121 einen Druckermittlungsabschnitt 141 und einen Schlagartermittlungsabschnitt 142, und die Benutzeridentifikationseinheit 123 besitzt einen Schlagart-Auswertungs-Signalberechnungsabschnitt 143 und einen Benutzerbestimmungsabschnitt 144, wie in 15 gezeigt ist. Ein Drucksensor 101a wird als Sensor verwendet.
  • Der Druckermittlungsabschnitt 141 wird mit einem elektrischen Signal S1 vom Drucksensor 101a beliefert, der am Kinnbereich oder dem Kopfbereich der Robotereinrichtung 1 angebracht ist. Beispielsweise ist der Drucksensor 101a, der am Kopfbereich angebracht ist, der oben beschriebene Berührungssensor 21.
  • Der Druckermittlungsabschnitt 141 ermittelt, dass auf den Drucksensor 101a gedrückt wurde, auf der Basis des elektrischen Ausgangsignals S1 vom Drucksensor 101a. Ein Signal (Druckermittlungssignal) S2 vom Druckermittlungsabschnitt 141 wird an den Schlagartermittlungsabschnitt 142 ausgegeben.
  • Der Schlagart-Ermittlungsabschnitt 142 erkennt, dass auf das Kinn oder den Kopf geschlagen wurde, auf der Basis des Eingangssignals vom Druckermittlungssignal S2. Normalerweise wird eine andere Information an den Drucksensor 101a ausgegeben. Beispiels weise bewirkt die Robotereinrichtung 1, dass der Drucksensor 101a (Berührungssensor 21) eine Aktion "stoßen" oder "schlagen" durch den Benutzer ermittelt und eine Aktion entsprechend "beschimpft" oder "gelobt" wie oben beschrieben ausführt. Das heißt, das Ausgangssignal vom Drucksensor 101a wird ebenfalls für andere Zwecke als dazu verwendet, die Information für Benutzerinformation zu erzeugen. Daher erkennt der Schlagartermittlungsabschnitt 142, ob das Druckermittlungssignal S2 zur Benutzeridentifikation dient oder nicht.
  • Wenn insbesondere das Druckermittlungssignal S2 grob einem vorher festgelegten Muster zugeführt wird, erkennt der Schlagart-Ermittlungsabschnitt 142, dass das Druckermittlungssignal S2 ein Eingangssignal zur Benutzeridentifikation ist. Wenn anders ausgedrückt lediglich das Druckermittlungssignal S2 in einem vorher festgelegten Muster ist, wird erkannt, dass das Druckermittlungssignal S2 ein Signal zur Benutzeridentifikation ist.
  • Durch dieses Verwenden des Druckermittlungsabschnitts 141 und des Schlagart-Ermittlungsabschnitts 142 ermittelt der Benutzerinformationsdetektor 121 das Signal zur Benutzeridentifikation von den Signalen, die vom Drucksensor 101a geliefert werden. Das Druckermittlungssignal (Benutzeridentifikationsinformation) S2, welches als Signal zur Benutzeridentifikation durch den Schlagart-Ermittlungsabschnitt 142 erkannt wird, wird an den Schlagart-Auswertungssignal-Berechnungsabschnitt 143 ausgegeben.
  • Der Schlagart-Auswertungssignal-Berechnungsabschnitt 143 erlangt Auswertungsinformation zur Benutzeridentifikation vom Druckermittlungssignal S2, welches diesem zugeführt wird. Insbesondere vergleicht der Schlagart-Auswertungssignal-Berechnungsabschnitt 143 das Muster des Druckermittlungssignals S2 mit einem registrierten Muster, welches vorher registriert wurde, und erlangt einen Auswertungswert als Ergebnis des Vergleichs. Der Auswertungswert, der durch den Schlagart-Auswertungssignal-Berechnungsabschnitt 143 erlangt wird, wird als Auswertungssignal S3 dem Benutzerbestimmungsabschnitt 144 zugeführt. Auf der Basis des Auswertungssignals S3 bestimmt der Benutzerbestimmungsabschnitt 144 die Person, die auf den Drucksensor 101a geschlagen hat.
  • Die Prozedur zum Erlangen der Auswertungsinformation des Benutzers durch den Schlagart-Auswertungssignal-Berechnungsabschnitt 143 wird nun ausführlich beschrieben. In diesem Fall wird der Benutzer gemäß sowohl dem Eingangsignal vom Drucksensor, welcher auf dem Kinnbereich vorgesehen ist, als auch dem Eingangssignal vom Drucksensor (Berührungssensor 21), welcher auf dem Kopfbereich vorgesehen ist, identifiziert.
  • Der Schlagart-Auswertungssignal-Berechnungsabschnitt 143 vergleicht das Kontaktmuster, welches vorher registriert wurde (registriertes Kontaktmuster), mit dem Kontakt muster, welches aktuell vom Drucksensor 101a über das Schlagen des Kinnbereichs oder des Kopfbereichs (aktuell gemessenes Kontaktmuster) erlangt wird.
  • Der Fall, wo das registrierte Kontaktmuster als ein Muster registriert wird, wie in 16 gezeigt ist, wird nun beschrieben. Das registrierte Kontaktmuster dient als Registrierungsbenutzer-Identifikationsinformation, welche für die Benutzeridentifikations-Informationsdatenbank 102 registriert ist.
  • Das registrierte Kontaktmuster, welches in 16 gezeigt ist, wird durch eine Anordnung einer Kontaktzeit (Druckzeit) des Drucksensors 101a1 auf den Kinnbereich gebildet, einer Kontaktzeit (Druckzeit) des Drucksensors 101a2 (Berührungssensor 21) auf den Kopfbereich, und einer Nichtkontaktzeit (Nichtdruckzeit), bei der weder der Drucksensor 101a1 noch der Drucksensor 101a2 berührt wird.
  • Das Kontaktmuster ist nicht auf dieses Beispiel beschränkt. Obwohl das registrierte Kontaktmuster in diesem Beispiel zeigt, dass der Drucksensor 101a1 auf dem Kinnbereich und der Drucksensor 101a2 auf dem Kopfbereich nicht berührt (gedrückt) werden, ist es auch möglich, ein registriertes Kontaktmuster zu verwenden, welches zeigt, dass der Drucksensor 101a1 auf dem Kinnbereich und der Drucksensor 101a2 auf dem Kopfbereich simultan berührt (gedrückt) werden.
  • In dem Fall, wo die Daten des registrierten Kontaktmusters durch Di[ti, p] (i ist eine ganze Zahl) ausgedrückt werden, wobei t eine dimensionslose Zeitmenge (Zeitelement) zeigt und p einen Ausgangswert des Drucksensors (Ermittlungssignalelement) zeigt, enthält das registrierte Kontaktmuster, welches in 16 gezeigt ist, einen Satz D von fünf Daten (i = 1, 2, ... 5), d.h., Kontaktdaten D1 des Drucksensors 101a1 auf dem Kinnbereich, Nichtkontaktdaten D2 der Drucksensoren, erste Kontaktdaten D3 des Drucksensors 101a2 auf den Kopfbereich, Nichtkontaktdaten D4 der Drucksensoren und zweite Kontaktdaten D5 des Drucksensors 101a2 auf dem Kopfbereich, wie in der folgenden Tabelle 1 gezeigt ist.
  • Tabelle 1
    Figure 00270001
  • Die dimensionslose Zeitquantität wird auf der Basis der totalen Zeit T (100 + 50 + 100 + 50 + 100 [ms]) des registrierten Kontaktmusters gemacht. p1 ist ein Ausgangswert (beispielsweise "1" des Drucksensors 101a1 auf den Kinnbereich, und p2 ist ein Ausgangswert (beispielsweise "2" des Drucksensors 101a2 auf den Kopfbereich. Der Zweck zum Verwenden der dimensionslosen Zeit als Daten des Kontaktmusters dient dazu, die Zeitabhängigkeit zu beseitigen und die Robustheit bei der Umsetzung in das Auswertungssignal durch den Schlagart-Auswertungssignal-Berechnungsabschnitt 143 zu realisieren.
  • Ein Benutzer, der beabsichtigt, über Vergleich mit dem registrierten Kontaktmuster identifiziert zu werden, wie oben beschrieben, muss auf den Drucksensor 101a in einer Weise schlagen, um mit dem registrierten Muster übereinzustimmen. Beispielsweise sei angenommen, dass ein aktuell gemessenes Kontaktmuster, wie in 17 gezeigt ist, erhalten wird, wenn der Benutzer die Drucksensoren 101a1 , 101a2 auf dem Kinnbereich und dem Kopfbereich betätigt, um zu versuchen, identifiziert zu werden.
  • Wenn die Daten des aktuell gemessenen Kontaktmusters durch Di'[ti', p] (i ist eine ganze Zahl) ausgedrückt werden, wobei t' eine dimensionslose Zeitquantität zeigt, weist das aktuell gemessene Kontaktmuster, welches in 17 gezeigt ist, einen Satz D' (= D1', D2', D3', D4', D5') von fünf Daten (i = 1, 2, ..., 5) D1', D2', D3', D4', D5' auf, wie in der folgenden Tabelle 2 gezeigt ist.
  • Tabelle 2
    Figure 00280001
  • Der Schlagart-Auswertungssignal-Berechnungsabschnitt 143 vergleicht das aktuell gemessene Kontaktmuster, welches im oben beschriebenen Format zum Ausdruck kommt, mit dem registrierten Kontaktmuster. Im Zeitpunkt des Vergleichs wird das registrierte Kontaktmuster von der Benutzeridentifikations-Informationsdatenbank 102 durch den Benutzerinformationsextraktor 122 gelesen.
  • Insbesondere werden die aktuell gemessenen Daten D1', D2', D3', D4', D5', die das aktuell gemessene Kontaktmuster bilden, mit den registrierten Daten D1, D2, D3, D4, D5 verglichen, die entsprechend das registrierte Kontaktmuster bilden.
  • Bei dem Vergleich werden die Zeitelemente der aktuell gemessenen Daten D1', D2', D3', D4', D5' und diejenigen der registrierten Daten D1, D2, D3, D4, D5 miteinander verglichen und eine Abweichung zwischen diesen wird ermittelt. Insbesondere werden die fünf aktuell gemessenen Daten mit den registrierten Daten verglichen, und die Verteilung Su wird berechnet. Die Verteilung Su wird als eine Gleichung (9) aus den Gleichungen (7) und (8) geliefert. ui = ti – ti' (7) xu = Σui/5 (8) Su = Σ(ti – xu)2/(5 – 1) (9)
  • Aus dieser Verteilung wird ein Auswertungswert X gemäß einer Gleichung (10) bereitgestellt X = 1 – Su (10)
  • Durch die oben beschriebene Prozedur wird der Auswertungswert X durch den Schlagart-Auswertungssignal-Bereclhnungsabschnitt 143 erhalten.
  • Der Benutzerbestimmungsabschnitt 144 führt die Benutzerbestimmung (Unterscheidung) auf der Basis des Auswertungswerts (Auswertungssignal S3) durch, welches durch den Schlagart-Auswertungssignal-Berechnungsabschnitt 143 wie oben beschrieben berechnet wird. Insbesondere, wenn der Auswertungswert näher an "1" ist, gibt es eine höhere Wahrscheinlichkeit des "Benutzers". Daher wird ein Schwellenwert auf einen Wert in der Nähe von "1" gesetzt, und der Auswertungswert wird miteinander verglichen, und, wenn der Auswertungswert den Schwellenwert übersteigt, wird der "Benutzer" spezifiziert. Alternativ vergleicht der Benutzerbestimmungsabschnitt 144 den Schwellenwert mit dem Auswertungswert, wobei die Verlässlichkeit des Drucksensors 101a in betracht gezogen wird. Beispielsweise wird der Auswertungswert mit der "Verlässlichkeit" des Sensors multipliziert.
  • Bei der Benutzerbestimmung durch den Benutzerbestimmungsabschnitt 144 wird dagegen der Unterschied zwischen der aktuell gemessenen Zeit und der registrierten Zeit (oder der Abteilung zwischen der dimensionslosen Quantität der aktuell gemessenen Zeit und der dimensionslosen Menge der registrierten Zeit) herausgefunden. In dem Fall beispielsweise, wo die Differenz (ti – ti') zwischen der dimensionslosen Zeitmenge ti des registrierten Kontaktmusters und der dimensionslosen Zeitmenge ti' des aktuell gemessenen Kontaktmusters in betracht gezogen wird, werden insgesamt kohärente Daten wie in 18 gezeigt ist, erzeugt. Daher ist es sogar für den wirklichen Benutzer schwierig, den Drucksensor 101a perfekt in Übereinstimmung mit dem registrierten Kontaktmuster zu betätigen. Die Verlässlichkeit des Drucksensors 101a muss ebenfalls in betracht gezogen werden.
  • Somit ist es unter Verwendung der Verteilung wie den Auswertungswert möglich, einen genauen Vergleich auszuführen.
  • Der oben beschriebene Auswertungswert wird über die Prozedur, die in 19 gezeigt ist, erhalten.
  • Im Schritt ST1 wird die Ermittlung der charakteristischen Daten des Benutzers (Daten, welche das aktuell gemessene Kontaktmuster bilden) begonnen. Im nächsten Schritt ST2 wird unterschieden, ob es eine Eingabe zum Beenden der Benutzeridentifikation gibt oder nicht. Wenn es eine Eingabe zum Beenden gibt, läuft die Verarbeitung weiter zum Schritt ST7. Wenn es keine Eingabe zum Beenden gibt, läuft das Verfahren weiter zum Schritt ST3.
  • Wenn es insbesondere keine Eingabe für den Drucksensor 101a eine bestimmte Zeitdauer lang gibt, wird eine Eingabe zum Beenden der Benutzeridentifikation vom oberen Steuerabschnitt zum Datenerlangungsabschnitt bereitgestellt (Schlagart-Ermittlungsabschnitt 142 oder Schlagart-Auswertungssignal-Berechnungsabschnitt 143). Gemäß dieser Eingabe wird bei und nach dem Schritt ST7 die Verarbeitung, das Druckermittlungssignal S2 zu erlangen, im Schlagermittlungsabschnitt 142 beendet, oder es wird die Berechnung des Auswertungswerts im Schlagart-Auswertungssignal-Berechnungsabschnitt 143 begonnen.
  • Dagegen wird im Schritt ST3 unterschieden, ob der Drucksensor 101a des nächsten Musters betätigt wurde oder nicht. Wenn der Drucksensor 101a des nächsten Musters betätigt wurde, erlangt der Drucksensor 101a im Schritt ST4 Daten der Nichtkontaktzeit [Zeit(i)', 0], bis der Drucksensor 101a betätigt ist. In diesem Fall zeigt die Zeit (i)' die aktuell gemessene Zeit, die nicht dimensionslos gemacht wird.
  • In den nachfolgenden Schritten ST5 und ST6 wird unterschieden, ob die Hand vom Drucksensor 101a gelöst wurde oder nicht, und die Daten der Kontaktzeit [Zeit(i + 1)', p] werden erlangt. Insbesondere wird im Schritt ST5 eine Selbstschleife bei Unterscheidung verwendet, ob die Hand vom Drucksensor 101a gelöst wurde oder nicht, und, wenn die Hand vom Drucksensor 101a gelöst wurde, läuft das Verfahren weiter zum Schritt ST6, um die Daten der Nichtkontaktzeit [Zeit(i + 1)', p] zu erlangen, bis der Drucksensor 101a betätigt ist. Nachdem die Daten der Nichtkontaktzeit [Zeit(i + 1)', p] im Schritt ST6 erlangt sind, wird, ob es eine Eingabe zum Beenden gibt oder nicht, wiederum im Schritt ST2 unterschieden.
  • Im Schritt ST7 wird als Ergebnis der Unterscheidung in Bezug auf den Effekt, dass es eine Eingabe zum Beenden im Schritt ST2 gibt, das Verhältnis der Kontaktzeit des Drucksensors 101a und der Nichtkontaktzeit des Drucksensors in Bezug auf die gesamte Zeitdauer berechnet. Das heißt, Daten der dimensionslosen Kontaktzeit und Nichtkontaktzeit werden erlangt. Insbesondere wird die gesamte Zeitperiode T der aktuellen Messung gemäß einer Gleichung (11) berechnet, wo die Zeit (i)' die aktuell gemessene Zeit darstellt, während des Drucksensors 101a betätigt wird, und die Daten ti' der aktuell gemessenen Zeit als eine dimensionslose Menge werden gemäß einer Gleichung (12) berechnet. Damit wird ein Satz an Daten Di'[ti, p] des aktuell gemessenen Kontaktmusters berechnet. T = ΣZeit(i)' (11) ti' = Zeit(i)'/T (12)
  • Im nächsten Schritt ST8 wird der Auswertungswert (Auswertungssignal) gemäß der oben beschriebenen Prozedur berechnet. Somit kann der Auswertungswert erlangt werden. Auf der Basis eines derartigen Auswertungswerts bestimmt der Benutzerbestimmungsabschnitt 144 den Benutzer.
  • Unter derartiger Verwendung des Schlagart-Auswertungssignal-Berechnungsabschnitts 143 und des Benutzerbestimmungsabschnitts 144 vergleicht die Benutzeridentifikationseinheit 123 die Benutzeridentifikationsinformation (aktuell gemessenes Kontaktmuster) vom Schlagartermittlungsabschnitt 142 mit der registrierten Benutzeridentifikationsinformation (registriertes Kontaktmuster) vom Benutzerinformationsextraktor 122 und identifiziert den Benutzer. Die Benutzeridentifikationseinheit 123 gibt den spezifizierten Benutzer (Information) als Benutzerkennzeichen an den Aktionstabellenabschnitt 130 wie oben beschrieben aus.
  • Das Benutzererkennungssystem in der Robotereinrichtung 1 ist oben beschrieben. Unter Verwendung es Benutzeridentifikationssystems kann die Robotereinrichtung 1 den Benutzer identifizieren und unterschiedlich auf unterschiedliche Benutzer reagieren. Damit wird die Unterhaltungseigenschaft der Robotereinrichtung verbessert.
  • Bei dem Roboter gemäß der vorliegenden Erfindung wird auf der Basis der Information eines Benutzers, der durch die Ermittlungseinrichtung ermittelt wird, um Information eines Benutzers zu ermitteln, ein Benutzer von mehreren identifizierbaren Benutzern durch die Identifikationseinrichtung identifiziert, und eine Aktion entsprechend dem einen Benutzer, der durch die Identifikationseinrichtung identifiziert wird, wird durch die Aktionssteuerungseinrichtung offenbart. Daher kann der Roboter einen Benutzer aus mehreren identifizierbaren Benutzern identifizieren und entsprechend auf den einen Benutzer reagieren.
  • Bei dem Aktionsentscheidungsverfahren für einen Roboter nach der vorliegenden Erfindung wird auf der Basis der Information eines Benutzers, der durch eine Ermittlungseinrichtung ermittelt wird, ein Benutzer aus mehreren identifizierbaren Benutzern identifiziert, und eine Aktion entsprechend dem identifizierten Benutzer wird offenbart. Daher kann der Roboter einem Benutzer aus mehreren identifizierbaren Benutzern identifizieren und entsprechend dem einen Benutzer reagieren.

Claims (9)

  1. Roboter, der aufweist: eine Einrichtung (101, 20, 21, 23) zum Ermitteln von Information, die sich auf die Identität eines Benutzers bezieht; eine Identifizierungs-Einrichtung (102, 120), um einen Benutzer von mehreren identifizierbaren Benutzern auf der Basis der ermittelten Information zu identifizieren; und eine Aktionseinrichtung (130, 103, 104) zum Offenbaren einer Aktion entsprechend dem einen Benutzer, der durch die Identifizierungseinrichtung identifiziert ist; dadurch gekennzeichnet, dass die Aktionseinrichtung (130, 103, 104) eine Aktionsauswahleinrichtung (130, 131, 132) aufweist, welche mehrere unterschiedliche Automaten endlicher Wahrscheinlichkeit für entsprechende der mehreren identifizierbaren Benutzer aufweist, wobei die Aktionsauswahleinrichtung (130, 131, 132) eingerichtet ist, einen der Automaten endlicher Wahrscheinlichkeit entsprechend dem einen identifizierten Benutzer auszuwählen.
  2. Roboter nach Anspruch 1, wobei die Aktionsauswahleinrichtung (130, 131, 132) mehrere Automaten endlicher Wahrscheinlichkeit für entsprechende Benutzer speichert, von denen jeder Automaten vollständiger Wahrscheinlichkeit aufweist.
  3. Roboter nach Anspruch 1, wobei die Aktionsauswahleinrichtung (130, 131, 132) einen Automaten endlicher Wahrscheinlichkeit speichert, der allen mehreren Benutzern gemeinsam ist, und mehrere unterschiedliche Automaten endlicher Wahrscheinlichkeit für entsprechende der Benutzer.
  4. Roboter nach Anspruch 1, wobei die Aktionsauswahleinrichtung Daten speichert, die allen Benutzern in Bezug auf die Knoten gemeinsam sind, und Übergänge zwischen den Knoten eines Automaten endlicher Wahrscheinlichkeit, und mehrere unterschiedliche Datensätze für entsprechende der Benutzer, welche die Wahrscheinlichkeiten von Übergängen zwischen Knoten definieren.
  5. Roboter nach einem der vorhergehenden Ansprüche, wobei die Ermittlungseinrichtung (101, 20, 21, 23) eines oder mehrerer von einer Kamera (20), einem Berührungssensor (21) und einem Mikrophon (23) aufweist.
  6. Roboter nach einem der vorhergehenden Ansprüche, wobei die Identifikationseinrichtung (102, 120) eingerichtet ist, höhere Priorität einem Benutzer zu geben, je größer die Anzahl von Gelegenheiten ist, bei denen der Benutzer identifiziert wird.
  7. Roboter nach einem der vorhergehenden Ansprüche, der eine Einrichtung aufweist, um Information in Bezug auf die Identität der Benutzer vor ihrer Verwendung des Roboters zu registrieren und zu speichern.
  8. Roboter nach einem der vorhergehenden Ansprüche, wobei der Roboter einen Motor aufweist, der durch die Aktionseinrichtung gesteuert wird, um die Aktion zu offenbaren.
  9. Verfahren zum Betreiben eines Roboters, der eine Ermittlungsinformation aufweist, die sich auf die Identifizierung eines Benutzers bezieht: Identifizieren eines Benutzers von mehreren identifizierbaren Benutzern auf der Basis der ermittelten Information, und Offenbaren einer Aktion entsprechend dem identifizierten Benutzer, gekennzeichnet durch Speichern von mehreren Automaten endlicher Wahrscheinlichkeit für entsprechende der mehreren identifizierbaren Benutzer und Auswählen eines der Automaten endlicher Wahrscheinlichkeit entsprechend dem einen identifizierten Benutzer.
DE60111677T 2000-03-31 2001-03-28 Roboter und handlungsbestimmtes Verfahren für Roboter Expired - Fee Related DE60111677T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000101349 2000-03-31
JP2000101349A JP2001277166A (ja) 2000-03-31 2000-03-31 ロボット及びロボットの行動決定方法

Publications (2)

Publication Number Publication Date
DE60111677D1 DE60111677D1 (de) 2005-08-04
DE60111677T2 true DE60111677T2 (de) 2006-05-04

Family

ID=18615414

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60111677T Expired - Fee Related DE60111677T2 (de) 2000-03-31 2001-03-28 Roboter und handlungsbestimmtes Verfahren für Roboter

Country Status (6)

Country Link
US (1) US6539283B2 (de)
EP (1) EP1151779B1 (de)
JP (1) JP2001277166A (de)
KR (1) KR20010095176A (de)
CN (1) CN1103659C (de)
DE (1) DE60111677T2 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6616464B1 (en) * 1999-05-10 2003-09-09 Sony Corporation Robot device
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
WO2002086651A2 (en) * 2001-04-23 2002-10-31 Koninklijke Philips Electronics N.V. Method of controlling an apparatus
US6484068B1 (en) * 2001-07-24 2002-11-19 Sony Corporation Robot apparatus and method for controlling jumping of robot device
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
KR100429975B1 (ko) * 2001-12-21 2004-05-03 엘지전자 주식회사 로봇의 행동학습 강화방법
KR100429976B1 (ko) * 2002-02-01 2004-05-03 엘지전자 주식회사 로봇의 행동학습방법
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US20040002790A1 (en) * 2002-06-28 2004-01-01 Paul Senn Sensitive devices and sensitive applications
US7118443B2 (en) 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
US7319302B2 (en) * 2004-02-16 2008-01-15 Honda Motor Co., Ltd. Gate generating system for mobile robot
US20050203600A1 (en) 2004-03-12 2005-09-15 Scimed Life Systems, Inc. Collapsible/expandable tubular electrode leads
KR100762653B1 (ko) * 2004-03-31 2007-10-01 삼성전자주식회사 캐릭터 육성 시뮬레이션을 제공하는 이동 통신 장치 및 방법
US7747350B2 (en) 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
JP4612398B2 (ja) * 2004-11-11 2011-01-12 Necインフロンティア株式会社 照合装置および照合方法
US7565200B2 (en) * 2004-11-12 2009-07-21 Advanced Neuromodulation Systems, Inc. Systems and methods for selecting stimulation sites and applying treatment, including treatment of symptoms of Parkinson's disease, other movement disorders, and/or drug side effects
US8588979B2 (en) * 2005-02-15 2013-11-19 Sony Corporation Enhancements to mechanical robot
JP4808036B2 (ja) * 2006-02-15 2011-11-02 富士通株式会社 電子機器
US7427220B2 (en) * 2006-08-02 2008-09-23 Mcgill University Amphibious robotic device
US8128500B1 (en) * 2007-07-13 2012-03-06 Ganz System and method for generating a virtual environment for land-based and underwater virtual characters
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
US9626487B2 (en) * 2007-12-21 2017-04-18 Invention Science Fund I, Llc Security-activated production device
US9818071B2 (en) * 2007-12-21 2017-11-14 Invention Science Fund I, Llc Authorization rights for operational components
US9071436B2 (en) * 2007-12-21 2015-06-30 The Invention Science Fund I, Llc Security-activated robotic system
US8752166B2 (en) * 2007-12-21 2014-06-10 The Invention Science Fund I, Llc Security-activated operational components
US8286236B2 (en) * 2007-12-21 2012-10-09 The Invention Science Fund I, Llc Manufacturing control system
US20090164379A1 (en) * 2007-12-21 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Conditional authorization for security-activated device
US8429754B2 (en) * 2007-12-21 2013-04-23 The Invention Science Fund I, Llc Control technique for object production rights
US9128476B2 (en) * 2007-12-21 2015-09-08 The Invention Science Fund I, Llc Secure robotic operational system
US20110178619A1 (en) * 2007-12-21 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Security-activated robotic tasks
KR101048406B1 (ko) * 2008-12-17 2011-07-11 한국전자통신연구원 사용자 자세를 사용자 명령으로 인식하는 게임 시스템 및 방법
US8406926B1 (en) * 2011-05-06 2013-03-26 Google Inc. Methods and systems for robotic analysis of environmental conditions and response thereto
CN103179157A (zh) * 2011-12-22 2013-06-26 张殿礼 一种智能网络机器人及控制方法
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
US10391636B2 (en) * 2013-03-15 2019-08-27 Sqn Venture Income Fund, L.P. Apparatus and methods for providing a persistent companion device
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN106926258B (zh) * 2015-12-31 2022-06-03 深圳光启合众科技有限公司 机器人情绪的控制方法和装置
CN105867633B (zh) * 2016-04-26 2019-09-27 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
CN107307852A (zh) * 2016-04-27 2017-11-03 王方明 智能机器人系统
CN107309883A (zh) * 2016-04-27 2017-11-03 王方明 智能机器人
JP6844124B2 (ja) * 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
WO2018000266A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
CN106462124A (zh) * 2016-07-07 2017-02-22 深圳狗尾草智能科技有限公司 一种基于意图识别控制家电的方法、系统及机器人
GB2566881B (en) * 2016-07-11 2022-04-13 Groove X Inc Autonomously acting robot whose activity amount is controlled
CN106227347B (zh) * 2016-07-26 2019-05-21 北京光年无限科技有限公司 面向智能机器人的通讯方法、设备及通讯系统
CN107336246B (zh) * 2017-06-15 2021-04-30 重庆柚瓣科技有限公司 养老机器人的拟人化系统
CN107378945B (zh) * 2017-07-21 2019-12-13 武汉蛋玩科技有限公司 宠物型机器人及交互、传输方法
JP6577532B2 (ja) 2017-07-28 2019-09-18 ファナック株式会社 機械学習装置、及びユーザ識別装置
JP1622873S (ja) 2017-12-29 2019-01-28 ロボット
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
JP6720958B2 (ja) * 2017-12-22 2020-07-08 カシオ計算機株式会社 駆動装置、駆動方法及びプログラム
JP6781183B2 (ja) * 2018-03-26 2020-11-04 ファナック株式会社 制御装置及び機械学習装置
CN113727767B (zh) * 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
KR102619973B1 (ko) 2018-11-28 2024-01-02 삼성전자주식회사 복수의 태스크들을 스케줄링하는 전자 장치 및 그의 동작 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JP3254994B2 (ja) * 1995-03-01 2002-02-12 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
WO1999032203A1 (en) * 1997-12-19 1999-07-01 Smartoy Ltd. A standalone interactive toy
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
CA2296119A1 (en) * 1998-04-16 1999-10-28 Creator Ltd. Interactive toy

Also Published As

Publication number Publication date
DE60111677D1 (de) 2005-08-04
EP1151779B1 (de) 2005-06-29
US20020024312A1 (en) 2002-02-28
EP1151779A2 (de) 2001-11-07
EP1151779A3 (de) 2003-05-14
KR20010095176A (ko) 2001-11-03
JP2001277166A (ja) 2001-10-09
US6539283B2 (en) 2003-03-25
CN1103659C (zh) 2003-03-26
CN1318454A (zh) 2001-10-24

Similar Documents

Publication Publication Date Title
DE60111677T2 (de) Roboter und handlungsbestimmtes Verfahren für Roboter
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
DE602004004324T2 (de) System und Verfahren zur Sprachkommunikation und Roboter
DE60216411T2 (de) Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung
DE60215296T2 (de) Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
DE60118317T2 (de) Autonom Roboter
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
KR20020008848A (ko) 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
DE60215504T2 (de) Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
DE102012101152C5 (de) System und Verfahren zur automatischen Kontrolle der korrekten Durchführung einer Fitnessübung
WO2020233851A1 (de) Kopplung von mehreren künstlich lernenden einheiten mit einer projektionsebene
JP2003175480A (ja) ロボット装置及びその行動制御方法、連想記憶装置及び連想記憶方法
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
Sperati et al. Bio-inspired model learning visual goals and attention skills through contingencies and intrinsic motivations
Chen et al. Visual hide and seek
JP4296736B2 (ja) ロボット装置
WO2022106645A1 (de) Verfahren und system zum verarbeiten von eingabewerten
Becker et al. Connecting feelings and thoughts-modeling the interaction of emotion and cognition in embodied agents
CN108133737A (zh) 啮齿类动物恐惧实验视频分析方法及装置
KR20020067696A (ko) 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP7414735B2 (ja) 複数のロボットエフェクターを制御するための方法
Zhang et al. Spatio–temporal multimodal developmental learning
Weng et al. The developmental approach to artificial intelligence: Concepts, developmental algorithms and experimental results

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee