DE69921563T2 - System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt - Google Patents

System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt Download PDF

Info

Publication number
DE69921563T2
DE69921563T2 DE69921563T DE69921563T DE69921563T2 DE 69921563 T2 DE69921563 T2 DE 69921563T2 DE 69921563 T DE69921563 T DE 69921563T DE 69921563 T DE69921563 T DE 69921563T DE 69921563 T2 DE69921563 T2 DE 69921563T2
Authority
DE
Germany
Prior art keywords
behavior
user
unit
pseudo
personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69921563T
Other languages
English (en)
Other versions
DE69921563D1 (de
Inventor
Takashi Iwata-shi Mizokawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Motor Co Ltd
Original Assignee
Yamaha Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Motor Co Ltd filed Critical Yamaha Motor Co Ltd
Publication of DE69921563D1 publication Critical patent/DE69921563D1/de
Application granted granted Critical
Publication of DE69921563T2 publication Critical patent/DE69921563T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33056Reinforcement learning, agent acts, receives reward, emotion, action selective

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Toys (AREA)
  • Feedback Control In General (AREA)

Description

  • Diese Erfindung betrifft eine Vorrichtung gemäß des Oberbegriffs des Patentanspruches 1 und ein Verfahren gemäß des Oberbegriffs des Patentanspruches 19.
  • Bis dato sind verschiedene Steuerverfahren zur Steuerung eines Objektes in Übereinstimmung mit den Anforderungen eines Benutzer erhältlich. In US 5 367 454 ist z. B. eine interaktive Benutzeroberfläche zur Simulation menschlicher Emotionen offengelegt. Des weiteren ist in WO 98/06043 ein Verfahren und ein System zur Erstellung eines Drehbuches für interaktive Zeichentrickdarsteller offengelegt.
  • Bei derartigen Steuerverfahren bestimmt der Benutzer normalerweise einen gewünschten Zielwert als Ausgabe und das Objekt wird so gesteuert, dass die Ausgabe dem Zielwert entspricht, während die Ausgabe zurück in ein Steuersystem gespeist wird, welches Rückkopplung und Zielwert vergleicht, um die Ausgabe anzupassen. Bei diesen Verfahren kann sich die Ausgabe des gesteuerten Objektes durch Einspeisung der Ausgabe zurück in das System zum Zweck der Anpassung dieser Ausgabe dem Zielwert annähern, wobei eine Steuerung erreicht wird, die den Präferenzen des Benutzers gerecht wird.
  • Wird vom Benutzer ein Zielwert eingegeben, ist es relativ einfach, eine Ausgabe entsprechend der Präferenz des Benutzers zu erzielen. So ist beispielsweise eine durch eine Klimaanlage gesteuerte Lufttemperatur ein einfaches Objekt, da das Verhältnis zwischen Ausgabe (Kühlung oder Heizung) und dem Zielwert (Temperatur) einfach ist und darum jeder ein Thermostat der Klimaanlage auf einen Zielwert einstellen kann. Wenn jedoch das Verhältnis zwischen Ausgabe und Zielwert kompliziert ist, insbesondere in einem Steuersystem, in welchem die Abänderung eines Zielwertes nicht nur einen sondern mehrere Ausgabewerte beeinflusst, kann nur eine sachkundige Person den Zielwert ändern.
  • Da Menschen außerdem über Emotionen verfügen und diese momentane Präferenzen beeinflussen, z. B. wäre es schwierig, ein Objekt in einer Weise zu steuern, dass es den Benutzer immer zufrieden stellt, selbst wenn das Objekt oder die Vorrichtung speziell für einen einzelnen Benutzer konstruiert wurde.
  • Bei obigem herkömmlichen Steuersystem ist die Ausgabe des Objektes so gestaltet, dass sie immer den Zielwert erreicht. Je länger das Objekt verwendet wird, desto einfacher ist somit die Vorhersage des Verhaltens für den Benutzer. Kann der Benutzer die Ausgabe des Objektes vorhersagen, kann das Objekt nicht zur kreativen Unterstützung der intellektuellen Arbeit des Benutzers oder seiner Wünsche dienen.
  • Herkömmliche Steuersysteme sind daher nicht in der Lage, einen adäquaten Wert auszugeben, was dem Benutzer letztendlich mehr Zufriedenheit verschafft als es ein Wert vermag, der aus der direkten Anweisung eines Benutzers folgt, insbesondere indem Emotionen und Pseudo-Emotionen und eine Persönlichkeit oder Pseudo-Persönlichkeit benutzt werden, welche im Objekt als Reaktion auf den Benutzer und die Umwelt in befriedigendem Maß erzeugt werden. Daher sollte die Persönlichkeit nicht nur Grundlage der Emotionen sondern allen Verhaltens sein.
  • Daher besteht ein Ziel der vorliegenden Erfindung darin, eine Vorrichtung und Verfahren bereitzustellen, welche fähig sind, zahlreiche Verhaltensmuster oder -kombinationen vorzubereiten, die im Voraus gespeichert werden und welche die Vorrichtung somit befähigen, auf jeden Benutzertyp schnell, natürlich und angepasst zu reagieren und sich mit Rücksicht auf die Individualität im Einklang mit dem Benutzer oder mit dem Gebrauch durch den Benutzer zu entwickeln.
  • Bei dieser Erfindung wird diese Zielstellung durch eine automatische Vorrichtung erreicht, welche sich so verhält, dass sie sich an den Benutzer anpasst und die Merkmale des Patentanspruches 1 beinhaltet.
  • Um die Möglichkeiten weiterzuentwickeln, ist es weiterhin von Vorteil, wenn die Erkennungseinheit den Benutzerbefehl erkennt, der nicht im benutzerbezogenen Status enthalten ist. Die Vorrichtung umfasst weiterhin: eine Bildungseinheit für befohlenes Verhalten, die programmiert ist, ein Muster befohlenen Verhaltens auszuwählen, wenn sie Signale des Benutzerbefehls erhält; und eine Verhaltenssteuereinheit, die programmiert ist, Verhalten zu steuern, indem sie die ausgewählten Muster autonomen Verhaltens und die ausgewählten Muster befohlenen Verhaltens auf der Grundlage eines vorher bestimmten Vorrangsbefehls zusammenfasst.
  • Ebenso möglich sind die Bereitstellung einer Abtasteinheit, die Signale vom Benutzer wahrnimmt, ein erster Datenspeicher, der den erkannten benutzerbezogenen Status und/oder den erkannten Befehl speichert und aktualisiert sowie ein zweiter Datenspeicher, welcher die gebildete Persönlichkeit speichert und aktualisiert, und in welchem die Aktualisierung unter vorher bestimmten Bedingungen vorgenommen wird.
  • Außerdem ist es von Vorteil, wenn die neue Verhaltensmuster erzeugende Einheit über eine Datenbank verfügt, in welcher ein Merkmalpool von Mustern autonomen Verhaltens gespeichert wird.
  • Bei oben beschriebenem Verfahren ist die neue Verhaltensmuster erzeugende Einheit vorzugsweise mit der Pseudo-Persönlichkeit erzeugenden Einheit verbunden, in welcher die neue Verhaltensmuster erzeugende Einheit in Intervallen aktiviert wird, die mit der herausgebildeten Pseudo-Persönlichkeit korrelieren.
  • Bei dem oben beschriebenen Verfahren können externe Informationen oder Umweltinformationen weggelassen werden, wenn die Vorrichtung unter eingeschränkten Umständen benutzt wird oder wenn die externen oder Umweltinformationen mit der Ausführung des Benutzerbefehls nichts zu tun haben oder wenn der Benutzer dies so wünscht.
  • Die Vorrichtung der vorliegenden Erfindung ist nicht eingeschränkt und beinhaltet sämtliche Objekte, welche mit einem Benutzer interagieren und welche in der Lage sind, nicht nur vorgeschriebenes (befohlenes) Verhalten auszugeben sondern ebenso autonomes Verhalten zum Vorteil des Benutzers. So können beispielsweise Haushaltsgeräte, ein industrieller Roboter, ein Unterstützungssystem zur Forschung o. ä. gesteuert werden, indem das Steuersystem der vorliegenden Erfindung auf dem selben Prinzip wie oben basierend eingesetzt wird. Durch Veränderung von Elementen, welche in der zu verarbeitenden Information beinhaltet sind, kann die Steuervorrichtung auf dieselbe Weise gesteuert werden. In jedem Fall ist gemäß der vorliegenden Erfindung die Steuervorrichtung, an welche sich die vorliegende Erfindung anpasst, voraussichtlich mit Scheinintelligenz ausgestattet.
  • Des weiteren wird das oben genannte Ziel auf erfinderische Weise mittels eines Verfahrens zur Verhaltensanpassung einer Vorrichtung an die Merkmale eines Benutzers entsprechend des Patentanspruchs 19 erreicht.
  • Weitere bevorzugte Ausführungsbeispiele der vorliegenden Erfindung sind in den abhängigen Ansprüchen dargelegt.
  • Im folgenden wird die vorliegende Erfindung im Hinblick auf verschiedene Ausführungsbeispiele in Verbindung mit den begleitenden Zeichnungen detaillierter erklärt, wobei:
  • 1 ein schematisches Blockdiagramm ist, welches den funktionalen Aufbau des Steuersystems entsprechend der vorliegenden Erfindung illustriert;
  • 2 ein schematisches Blockdiagramm ist, welches ein Beispiel des gesamten Systems eines Unterstützungssystems gemäß der vorliegenden Erfindung darstellt;
  • 3 ein schematisches Flussdiagramm ist, welches das gesamte System eines Unterstützungssystems gemäß der vorliegenden Erfindung darstellt;
  • 4 ein schematisches Blockdiagramm ist, welches die Erkennungseinheit A für Benutzer- und Umweltinformationen darstellt, welche in 1 abgebildet ist;
  • 5 ein schematisches Flussdiagramm ist, welches Abläufe der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit darstellt, welche in 1 abgebildet ist;
  • 6 ein schematisches Flussdiagramm ist, welches Prozesse der Pseudo-Emotionen erzeugenden Einheit C darstellt, welche in 1 abgebildet ist;
  • 7 ein schematisches Flussdiagramm ist, welches Prozesse in der Entscheidungseinheit D für den emotionalen Ausdruck darstellt, welche in 1 abgebildet ist;
  • 8 ein schematisches Flussdiagramm ist, welches Prozesse der autonomes Verhalten erzeugenden Einheit E darstellt, welche in 1 abgebildet ist;
  • 9 ein schematisches Flussdiagramm ist, welches Prozesse in der neue Verhaltensmuster erzeugenden Einheit G darstellt, welche in 1 abgebildet ist;
  • 10 ein schematisches Flussdiagramm ist, welches Prozesse der Verhaltensplanungseinheit H darstellt, welche in 1 abgebildet ist;
  • 11 ein schematisches Flussdiagramm ist, welches Prozesse der Erzeugung jedes Datensatzes von Verhaltensinformationen auf der Grundlage von aktuellen Verhaltensinformationen bis zur Einstellung der abschließenden Verhaltensausgabe darstellt;
  • 12 ein schematisches Blockdiagramm ist, welches ein Beispiel des Gesamtsystems eines Haustierroboters entsprechend der vorliegenden Erfindung darstellt;
  • 13 ein schematisches Blockdiagramm ist, welches ein Gesamtsystem eines Haustierroboters entsprechend der vorliegenden Erfindung darstellt;
  • 14 ein schematisches Blockdiagramm ist, welches die Erkennungseinheit A für Benutzer- und Umweltinformationen darstellt, welche in 12 abgebildet ist;
  • 15 ein schematisches Flussdiagramm ist, welches Prozesse in der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit darstellt, welche in 12 abgebildet ist;
  • 16 ein schematisches Flussdiagramm ist, welches Prozesse in der Pseudo-Emotionen erzeugenden Einheit C darstellt, welche in 12 abgebildet ist;
  • 17 ein schematisches Flussdiagramm ist, welches Prozesse in der Entscheidungseinheit D für den emotionalen Ausdruck ist, welche in 12 abgebildet ist;
  • 18 ein schematisches Flussdiagramm ist, welches Prozesse der autonomes Verhalten erzeugenden Einheit E darstellt, welche in 12 abgebildet ist;
  • 19 ein schematisches Flussdiagramm ist, welches Prozesse in der neue Verhaltensmuster erzeugenden Einheit G darstellt, welche in 12 abgebildet ist;
  • 20 ein schematisches Flussdiagramm ist, welches Prozesse der Verhaltensplanungseinheit H darstellt, welche in 12 abgebildet ist;
  • 21 ein schematisches Flussdiagramm ist, welches Prozesse der Erzeugung jedes Datensatzes von Verhaltensinformationen auf der Grundlage von aktuellen Verhaltensinformationen bis zur Einstellung der abschließenden Verhaltensausgabe darstellt;
  • 22 ein schematischer Überblick über einen Bildschirm (Hauptbildschirm) eines Reiseunterstützungssystems entsprechend der vorliegenden Erfindung ist; und
  • 23 ein schematischer Überblick über einen Bildschirm (Zweitbildschirm) eines Reiseunterstützungssystems entsprechend der vorliegenden Erfindung ist.
  • Die Vorrichtung entsprechend der vorliegenden Erfindung ist eine intelligente, anpassungsfähige und benutzerfreundliche Einrichtung. Der Begriff „intelligent" meint, dass die Vorrichtung in der Lage ist, ihre Umwelt wahrzunehmen, Schlüsse über ihre Aufgaben zu ziehen, einen Handlungsablauf zu planen und diese Aktionen auszuführen. Der Begriff „anpassungsfähig" meint, dass die Vorrichtung sowohl in der Lage ist, auf unerwartete Situationen zu reagieren während sie ihre Pläne umsetzt als auch, dass sie in der Lage ist aus ihren Erfahrungen zu lernen und die Ausführung der permanent anstehenden Aufgaben zu verbessern. Der Begriff „benutzerfreundlich" meint nicht nur, dass der Benutzer in der Lage ist, auf eine natürliche Weise mit der Vorrichtung zu interagieren sondern auch, dass die Vorrichtung zunehmend mehr als ein „Freund" oder „Haustier" als eine „Maschine" betrachtet wird. Um diese Ziele zu erreichen, besitzt die Vorrichtung eine Pseudo-Persönlichkeit und Pseudo-Emotionen, so dass sie – zusätzlich zur autonomen und spontanen Ausführung ihrer eigenen Ziele – mit seinem Benutzer auf einem gefühlsbezogenen Niveau interagiert, und über seinen Benutzer lernt.
  • Grundlegender Aufbau
  • Die Erfindung wird mit Hilfe von Verweisen auf verschiedene in den Abbildungen dargestellte Ausführungsbeispiele erklärt. 1 ist ein schematisches Blockdiagramm, welches den funktionalen Aufbau der Vorrichtung illustriert.
  • In dieser Abbildung umfasst eine automatische Vorrichtung, welche sich an den Benutzer angepasst verhält:
    • – eine Abtasteinheit, welche Signale des Benutzerbefehls und vorbestimmte benutzerbezogene Signale erfasst, welche für die Ausführung des Befehls relevant jedoch nicht Teil des Befehls sind;
    • – eine Erkennungseinheit, welche den Benutzerbefehl und einen aktuellen benutzerbezogenen Status basierend auf dem erfassten Befehlssignal und den erfassten vorbestimmten Signalen erkennt;
    • – einen ersten Speicher, welcher den erkannten Befehl und den erkannten benutzerbezogenen Status speichert und aktualisiert;
    • – eine Pseudo-Persönlichkeit erzeugende Einheit, welche jedes Element der vorgegebenen Pseudo-Persönlichkeit festlegt, basierend auf dem benutzerbezogenen Status, welcher über eine vorgegebene Zeitdauer im ersten Speicher angesammelt wird, um die Pseudo-Persönlichkeit zu bilden. Besagte Pseudo-Persönlichkeit erzeugende Einheit verfügt über einen Speicher, welcher eine vorgegebene Beziehung zwischen den vorgegebenen Elementen der Pseudo-Persönlichkeit und dem benutzerbezogenen Status speichert;
    • – einen zweiten Speicher, welcher die gebildete Pseudo-Persönlichkeit speichert und aktualisiert und in welchem die Aktualisierung unter vorgegebenen Bedingungen stattfindet;
    • – eine Pseudo-Emotionen erzeugende Einheit, welche jedes Element der vorgegebenen Elemente der Pseudo-Emotion festlegt, basierend auf dem im ersten Speicher gespeicherten benutzerbezogenen Status und der im zweiten Speicher gespeicherten Pseudo-Persönlichkeit, um die Pseudo-Emotionen zu bilden. Besagte Pseudo-Emotionen erzeugende Einheit verfügt über einen Speicher, welcher eine vorgegebene Beziehung zwischen den vorgegebenen Elementen der Pseudo-Emotion, dem benutzerbezogenen Status und der Pseudo-Persönlichkeit speichert;
    • – eine autonomes Verhalten erzeugende Einheit, welche ein Muster autonomen Verhaltens basierend auf dem benutzerbezogenen Status, der Pseudo-Persönlichkeit und den Pseudo-Emotionen auswählt. Besagte Festlegeeinheit für autonomes Verhalten verfügt über einen Speicher, welcher eine vorgegebene Beziehung zwischen Mustern autonomen Verhaltens, dem benutzerbezogenen Status, der Pseudo-Persönlichkeit und den Pseudo-Emotionen speichert, wobei jedes Muster durch vielfache, vorgegebene Elemente erzeugt wird.
    • – eine neue Verhaltensmuster erzeugende Einheit, welche neue Muster autonomen Verhaltens generiert, indem sie Musterelemente zufällig oder nach vorgegebenen Regeln auswählt. Besagte neue Verhaltensmuster erzeugende Einheit verfügt über eine Datenbank, welche einen Pool an Elementen autonomer Verhaltensmuster speichert. Diese neu generierten Muster werden in den Speicher der Festlegeeinheit für autonomes Verhalten übertragen, wobei die neuen Muster die vorherigen unter vorgegebenen Bedingungen überschreiben;
    • – eine befohlenes Verhalten erzeugende Einheit, welches ein Muster befohlenen Verhaltens in Übereinstimmung mit dem erkannten Benutzerbefehl festlegt;
    • – eine Verhaltenssteuereinheit, welche Verhalten steuert, indem sie die ausgewählten Muster autonomen Verhaltens und die festgelegten Muster befohlenen Verhaltens basierend auf einer vorgegebenen Vorrangsordnung verbindet; und
    • – eine Ausgabevorrichtung, welche gesteuertes Verhalten ausgibt.
  • In oben benannten Einheiten werden nicht benutzerbezogene Informationen wie Umweltinformationen und externe Datenbankinformationen in die Eingabeinformation einbezogen, um ein komplexes Verhalten des Objektes zu bilden.
  • In oben benannten Einheiten umfasst die Vorrichtung vorzugsweise einen dritten Speicher, welcher mit der Verhaltenssteuereinheit verbunden ist, und welcher die durch die Pseudo-Emotionen-Bildungseinheit gebildete Pseudo-Emotion speichert und aktualisiert, wobei der zweite Speicher mit der Verhaltenssteuereinheit verbunden ist und wobei die im dritten Speicher gespeicherte Pseudo-Emotion und die im zweiten Speicher gespeicherte Pseudo-Persönlichkeit als Parameter für die von der Verhaltenssteuereinheit bereitgestellte vorgegebene Vorrangsordnung genutzt werden (in 1 durch gestrichelte Linie dargestellt). Des weiteren kann der erste Speicher mit der Verhaltenssteuereinheit verbunden werden, wobei der im ersten Speicher gespeicherte benutzerbezogene Status, die im zweiten Speicher gespeicherte Pseudo-Persönlichkeit und die im dritten Speicher gespeicherte Pseudo-Emotion als Parameter für die von der Verhaltenssteuereinheit bereitgestellte vorgegebene Vorrangsordnung genutzt werden. In oben benannten Strukturen kann das ausgegebene Verhalten autonomer und anpassungsfähiger sein (in 1 durch eine doppelte gestrichelte Linie dargestellt).
  • 211 zeigen ein Ausführungsbeispiel, in welchem die vorliegende Erfindung einem Reiseunterstützungssystem angepasst ist, welches einen Benutzer unterstützt wenn er einen Reiseplan erstellt. 1221 zeigen ein Ausführungsbeispiel, in welchem die vorliegende Erfindung einem Haustierroboter angepasst ist, welchen der Benutzer als Haustier halten kann. Die vorliegende Erfindung ist jedoch nicht auf diese Ausführungsbeispiele beschränkt, und dieses Steuersystem kann jeder anderen Vorrichtung angepasst werden, welche für den Benutzer als intelligente, anpassungsfähige und benutzerfreundliche Vorrichtung nützlich ist. Fakt ist, dass in Abhängigkeit von der Zielstellung der Vorrichtung und den Präferenzen des Benutzers geeignete Ein- und Ausgabedaten ausgewählt werden. In jedem Fall gleicht das Prinzip des Steuersystems dem in den Abbildungen dargestellten Prinzip.
  • Reiseunterstützungssystem
  • Dieses Reiseunterstützungssystem (im folgenden als „Unterstützungssystem bezeichnet") ist dafür vorgesehen, einen Benutzer bei der Erstellung einer Reiseplanung mit Motorrad, Auto, Zug oder zu Fuß zu unterstützen. Das Unterstützungssystem verfügt selbst über eine Pseudo-Emotion, welche sich in Reaktion auf die Interaktion mit dem Benutzer oder abhängig von den Umweltgegebenheiten ändert und über eine Pseudo-Persönlichkeit, welche sich basierend auf der Interaktion mit dem Benutzer oder seiner eigenen Erfahrung entwickelt. Entsprechend unterstützt das Unterstützungssystem den Benutzer bei der Ausarbeitung eines Planes basierend auf der Interaktion mit dem Benutzer und auf Informationen über die Umwelt (Fahrpläne, Straßenkarten, Verkehrsmeldungen, etc.), während die Vorrichtung ihre Pseudo-Emotion zum Ausdruck bringt oder eine autonome Reaktion bzw. eine Reaktion in Übereinstimmung mit dem Benutzerbefehl hervorbringt.
  • In der Praxis umfasst dieses Unterstützungssystem, um den Status des Benutzers oder der Umweltgegebenheiten zu erkennen, einen visuellen Sensor, einen haptischen Sensor, einen auditiven Sensor und ein Verfahren zum Zugriff auf externe Datenbanken. Des weiteren beinhaltet es eine Ausgabevorrichtung wie eine visuelle Ausgabevorrichtung und eine auditive Ausgabevorrichtung, um seine Pseudo-Emotionen oder Reaktionen auf den Benutzer anzuzeigen. Das Unterstützungssystem kann so konstruiert werden, dass es in einem Motorrad oder Automobil montiert wird oder vom Benutzer getragen wird.
  • Grundlegender Aufbau des Reiseunterstützungssystems
  • 2 ist ein schematisches Blockdiagramm, welches ein Beispiel des Gesamtsystems eines Unterstützungssystems entsprechend der vorliegenden Erfindung darstellt. Wie in der Abbildung dargestellt, umfasst das Unterstützungssystem:
    • – eine Erkennungseinheit A für Benutzer- und Umweltinformationen zur Erkennung des Status' eines Benutzers oder externer Informationen;
    • – eine Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit zur Einstellung einer Pseudo-Persönlichkeit durch Bezug auf das Resultat der Erkennung durch die Erkennungseinheit A;
    • – eine Pseudo-Emotionen erzeugende Einheit C zur Erzeugung von Pseudo-Emotionen basierend auf dem Resultat der Erkennung durch die Erkennungseinheit A und den Informationen über die Pseudo-Persönlichkeit, eingestellt durch die Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit;
    • – eine Entscheidungseinheit D für den emotionalen Ausdruck zur Entscheidung bzgl. der Arten des emotionalen Ausdrucks wie Ausdrucksmethoden, um Lachen oder Ärger auf der Grundlage der Informationen über die Pseudo-Emotion auf einer Anzeige auszudrücken;
    • – eine autonomes Verhalten erzeugende Einheit E zur Generierung autonomen Verhaltens basierend auf dem Ergebnis der Erkennung, der Informationen über die Pseudo-Persönlichkeit und der Informationen über die Pseudo-Emotionen;
    • – eine befohlenes Verhalten erzeugende Einheit F zur Generierung von Verhalten in Übereinstimmung mit dem Benutzerbefehl auf der Grundlage vom Ergebnis der Erkennung und mindestens dem vorangegangenem Verhalten, welches vorher vom System selbst ausgegeben wurde;
    • – eine neue Verhaltensmuster erzeugende Einheit G zur Generierung neuer Verhaltensmuster, welche in der Entscheidungseinheit D für den emotionalen Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet werden können, basierend auf der Information über die Pseudo-Persönlichkeit, der Information über die Pseudo-Emotionen und einer Datenbank, welche verschiedene Verhaltenselemente und Elemente des emotionalen Ausdrucks speichert; und
    • – eine Verhaltensplanungseinheit H zur Entscheidung über die Ausgabe des endgültigen Verhaltens, wobei die jeweilige Ausgabe der Entscheidungseinheit D für den emotionalen Ausdruck, der autonomes Verhalten erzeugenden Einheit E und der befohlenes Verhalten erzeugenden Einheit F verwendet wird. Dies geschieht auf der Grundlage der Ausgabe der Erkennung, der Informationen über Pseudo-Persönlichkeit und der Informationen über die Pseudo-Emotionen. Wie in 3 dargestellt, wiederholt das Unterstützungssystem, nachdem es aktiviert wurde, jeden Verarbeitungsschritt in den Einheiten A bis H bis das System abgeschaltet wird. Der Aufbau und die Funktion der einzelnen Einheiten wird unten detailliert dargestellt.
  • Erkennungseinheit für Benutzer- und externe Information
  • Wie in 2 dargestellt, umfasst die Erkennungseinheit A für Benutzer- und externe Information verschiedene Eingabevorrichtungen (z. B. eine auditive Eingabevorrichtung, eine visuelle Eingabevorrichtung, eine Bewertungs-Eingabevorrichtung, eine Tastatur, eine Kommunikationsvorrichtung, ein Thermometer, einen Beleuchtungsmesser (und/oder eine Uhr), eine Erkennungseinheit A1 der Benutzerbewertung, eine Erkennungseinheit A2 der Benutzeremotionen, eine Erkennungseinheit A3 des Benutzerbefehls, eine Erkennungseinheit A4 der externen Informationen und eine Ableitungseinheit A5 für aktuelle Benutzerinformation/-charakteristik. Die Erkennungseinheit A1 der Benutzerbewertung führt die Erkennungsverarbeitung auf der Grundlage der durch die Eingabevorrichtungen erhaltenen Informationen aus. Die Ableitungseinheit A5 für aktuelle Benutzerinformation/-charakteristik bestimmt einen aktuellen Benutzerstatus und Benutzercharakteristik wie die Benutzerpräferenzen oder leitet diese auf der Grundlage des Erkennungsergebnisses aus den benutzerbezogenen Erkennungseinheiten A1 bis A3 ab.
  • Bei oben benannten Vorrichtungen beinhaltet die Eingabevorrichtung ein Mikrofon als auditive Eingabevorrichtung, eine Kamera als visuelle Eingabevorrichtung, einen Schalter bzw. Hebel zur Eingabe der Benutzerbewertung als einer Eingabevorrichtung zur Bewertung und einer Antenne, einem Modem, einem Anschlussadapter oder einfach einem Eingabeport als Kommunikationsvorrichtung. Die Eingabevorrichtungen sind jedoch nicht auf die oben genannten Vorrichtungen beschränkt. Es kann jede im Handel erhältliche Eingabevorrichtung verwendet werden, die fähig ist, externe Informationen visuell, auditiv und/oder haptisch zu erfassen bzw. fähig ist, auf externe Datenbanken zuzugreifen.
  • Der Begriff „externe Information" meint nicht nur Informationen über unmittelbare Umweltgegebenheiten, in denen das System betrieben wird wie Temperatur, Helligkeit oder Zeit (im folgenden als „Umweltinformation" bezeichnet) sondern ebenso aus externen Datenbanken erhaltene Informationen, also andere als vom Benutzer oder vom System erhaltene Informationen.
  • 4 ist ein schematisches Blockdiagramm, welches die Erkennungseinheit A der Benutzer- und externen Informationen im Detail darstellt, um die Prozesse in jeder der Verarbeitungseinheiten A1 bis A5 der Erkennungseinheit A der Benutzer- und externen Informationen zu erläutern.
  • Wie in dieser Abbildung dargestellt, legt die Erkennungseinheit A1 der Benutzerbewertung die Benutzerbewertung als vom System ausgegebenes Verhalten fest und stellt das Resultat z. B. als Information über die Benutzerbewertung ein, indem sie einen Bewertungswert aus der Dateneingabe durch eine Eingabevorrichtung zur Bewertung, bestehend aus einem Hebel, berechnet. Dies erlaubt es dem Benutzer beispielsweise, seine/ihre Bewertung auf eine geeignete Stufe unter vielen Stufen abhängig von der Benutzerzufriedenheit einzugeben.
  • Die Erkennungseinheit A2 für Benutzeremotionen vermutet die aktuelle Benutzeremotion auf der Grundlage der aus der auditiven Information und dem Gesichtsausdruck des Benutzers gewonnenen Eigenschaften, wobei eine auditive Analyse (Analyse der Häufigkeitsverteilungen oder Tonlage des Geräusches der Stimme) und eine Analyse des Gesichtsausdrucks (Analyse basierend auf der Augen- bzw. Mundform) durchgeführt wird. Diese Analysen basieren auf der Eingabe der auditiven Information und dem Gesichtsausdruck des Benutzers in die auditive Eingabevorrichtung und in die visuelle Eingabevorrichtung. Des weiteren bestimmt die Erkennungseinheit A2 für Benutzeremotionen die aktuelle Benutzeremotion auf Grundlage der vermuteten Emotionen. Bei dem oben beschriebenem Verfahren werden die verschiedenen Emotionsmuster im Voraus durch Einteilung des emotionalen Ausdrucks des Benutzers in verschiedene Emotionsmuster wie heiter, traurig, überrascht, verärgert, angewidert oder ängstlich erhalten. Die emotionalen Ausdrucksmuster werden durch Unterteilung jedes Musters in verschiedene Stufen erkannt. Bei dem oben beschriebenen Verfahren kann die Vermutung über die Benutzeremotion auf der Grundlage der Eingabeinformation durch Verwendung einer unscharfen Logik mit vorgegebenen Regeln erfolgen oder indem Daten verwendet werden, welche dadurch gewonnen werden, dass die Beziehung zwischen Emotionen und Merkmalen von Geräusch/Stimme und Gesichtsausdrücken im Voraus gebildet oder zugeordnet wird bzw. durch die Verwendung geeigneter Funktionsgleichungen, falls in der Beziehung zwischen Emotionen und Merkmalen von Geräusch/Stimme und Gesichtsausdrücken Regelmäßigkeiten gefunden werden. Die in die Emotionserkennungseinheit A2 eingegebenen Informationen sind nicht auf obiges beschränkt und beinhalten sämtliche Informationen, die sich auf das Benutzerverhalten beziehen, welches durch die Benutzeremotionen beeinflusst wird oder dieses repräsentieren, z. B., die Art, die Tastatur zu betätigen. Wenn der Benutzer bei der Informationseingabe die selbe Taste mehrere Male ohne ersichtlichen Grund anschlägt, wird angenommen, dass er irritiert ist (niedrige Stufe von Ärger).
  • Die Erkennungseinheit A3 des Benutzerbefehls erkennt und bildet die Benutzerbefehlsinformation auf der Grundlage indirekter Befehlsinformation, welche durch die Analyse der Bedeutung des Geräusches/der Stimme erhalten wird, die von der auditiven Eingabevorrichtung erkannt wird, durch Analyse der Informationen über die Benutzergestik, welche von der visuellen Eingabevorrichtung erkannt wird und auf Grundlage direkter Befehlsinformation, welche über die Tastatur eingegeben wird. Die Befehlsinformation beinhaltet nicht nur direkte Befehle wie „Suche", oder „Erstelle einen Handlungsplan", sondern auch eine Anforderungsstufe für den Befehl wie „dringend" und „normal". Die Anforderungsstufe kann z. B. durch die Lautstärke der Benutzerstimme erkannt werden oder durch die Geschwindigkeit, mit welcher die Benutzersprache über die auditive Eingabevorrichtung eingegeben wird bzw. durch die Benutzergestik, welche über die visuelle Eingabevorrichtung eingegeben wird. Die Erkennungsmethoden beschränken sich nicht auf obige Ausführungen und beinhalten verschiedene Eingabeinformationen wie die Stärke des Hämmerns auf die Tastatur, wobei jede Taste mit einem druckempfindlichen Sensor versehen ist. Die von der mit einem druckempfindlichen Sensor versehenen Tastatur erhaltenen Informationen können im Erkennungsprozess in der Erkennungseinheit A2 für Benutzeremotionen verwendet werden.
  • Die Erkennungseinheit A4 für externe Informationen ermittelt externe Informationen wie neu veröffentlichte Informationen aus externen Datenbanken, den Vergangenheitsbericht des Benutzers zur Inanspruchnahme des Systems, Außentemperatur, Helligkeit, Zeit, und Datum, indem sie automatisch Informationen mittels externer Informationsnetzwerke wie dem Internet mit Hilfe der Kommunikationsvorrichtung sammelt und durch Verarbeitung der eingegebenen Informationen aus verschiedenen Sensoren wie dem Thermometer, Beleuchtungsmesser und der Uhr.
  • Die Ableitungseinheit A5 für aktuelle Benutzerinformation/-charakteristik bestimmt den aktuellen Status und die Charakteristik des Benutzers oder leitet diese auf der Grundlage der Erkennungsresultate der Erkennungseinheiten A1 bis A3 für benutzerbezogene Information, der später beschriebenen Informationen bzgl. aktuellem Vorrangsverhalten, der Informationen über emotionale Ausdrucksmuster und Information über autonome Verhaltensmuster ab. Die Ableitungseinheit A5 für aktuelle Benutzerinformation/-charakteristik aktualisiert anschließend die Daten der auf den Benutzer bezogenen Erkennungsinformation, welche in einem Benutzerinformationsspeicher 1 gespeichert sind.
  • Bei oben beschriebenem Verfahren schließt der aktuelle Benutzerstatus eine Zeitspanne innerhalb welcher der Benutzer vom System in einem Bereich lokalisiert werden kann, die jeweilige Stufe der Benutzeremotionen sowie die Benutzerbewertung in Bezug auf das vom System ausgegebene Verhalten ein. Die Benutzercharakteristik schließt die Häufigkeit des Auftretens jeder Emotion, die Veränderungsrate oder Variationsbreite der Emotionen, die vom Benutzer verwendeten Stichworttypen, die Häufigkeit der Verwendung der Stichwörter sowie den Durchschnittswert der Benutzerbewertung in Bezug auf das vom System ausgegebene Verhalten ein.
  • Die Ausgabe der Erkennungseinheit A3 für den Benutzerbefehl wird nicht nur in den Benutzerinformationsspeicher 1 übertragen, sondern außerdem in einen Speicher 2 für Benutzerbefehle, wobei die Informationen über den Benutzerbefehl im Speicher 2 aktualisiert werden. Die auf den Benutzerbefehl bezogenen Informationen umfassen z. B. die Befehlsinhalte, die Befehlsobjekte sowie die Befehlsbedingungen.
  • Die Ausgabe der Erkennungseinheit A4 für externe Information wird an einen Speicher 3 für externe Informationen übertragen, wobei die im Speicher 3 gespeicherte Information aktualisiert wird.
  • Einstelleinheit für Informationen zur Pseudo-Persönlichkeit
  • 5 ist ein schematisches Flussdiagramm, welches die Prozesse in der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit darstellt.
  • Die Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit ist so konstruiert, dass sie eine Gruppe von verschiedenen vorläufigen Persönlichkeiten als Pseudo-Persönlichkeit einstellt, wobei jede Persönlichkeit in verschiedene Stufen unterteilt ist. Auf der Grundlage der im Benutzerinformationsspeicher 1 gespeicherten Information wird die Stufe jeder vorläufigen Persönlichkeit eingestellt. Je höher die Stufe, desto mehr trägt die vorläufige Persönlichkeit zur Bildung der Pseudo-Emotionen und dem Handlungsplan bei. Die vorläufigen Persönlichkeiten umfassen z. B. „Ansteigen und Abfallen von Emotionen", „Gehorsam", „Aggressivität", „Neugier" und „Frohsinn". Jede vorläufige Persönlichkeit wird mit jeder Benutzercharakteristik korreliert, die im Benutzerinformationsspeicher 1 gespeichert ist. Dabei wird „Ansteigen und Abfallen der Emotionen" mit der Veränderungsrate oder Variationsbreite der Benutzeremotionen, „Gehorsam" wird mit der Häufigkeit des Auftretens der Benutzeremotion „Ärger" korreliert; „Aggressivität" wird mit der Bewertung des vom System ausgegebenen Verhaltens und der Häufigkeit des Auftretens jeder Emotion des Benutzers zur Zeit der Bewertung korreliert; „Neugier" wird korreliert mit der Variationsbreite der vom Benutzer am liebsten verwendeten Stichwörter, und „Frohsinn" wird korreliert mit der Häufigkeit des Auftretens der Benutzeremotion „Freude" und der positiven Bewertung des vom System ausgegebenen Verhaltens. Somit wird dabei die Stufe des Ansteigens und Abfallens der Emotionen erhöht, wenn diese beim Benutzer intensiv oder häufig schwanken. Wird der Benutzer oft zornig, wird die Stufe des Gehorsams herabgesetzt. Schätzt der Benutzer das vom System ausgegebene Verhalten positiv ein und ist er erfreut, wird die Stufe der Aggressivität heraufgesetzt. Verteilen sich die vom Benutzer bevorzugten Stichwörter auf verschiedene Bereiche, wird die Stufe der Neugier heraufgesetzt. Schätzt der Benutzer das vom System ausgegebene Verhalten oft als positiv ein und ist er erfreut, wird die Stufe des Frohsinns heraufgesetzt.
  • Die in der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit gebildete Pseudo-Persönlichkeit wird an einen Speicher 4 für Informationen über die Pseudo-Persönlichkeit ausgegeben, wobei die im Speicher 4 für Informationen über die Pseudo-Persönlichkeit gespeicherte Information aktualisiert wird. Das Aktualisieren kann durch das Verwenden der Eingabe aus der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit als neue Information zur Pseudo-Persönlichkeit und durch das Überschreiben der vorherigen Information, oder aber durch Hinzufügen der Stufen der vorläufigen Persönlichkeiten, die durch die Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit erhalten wurden, zu den vorherigen Informationen erfolgen. Das erste Verfahren gestattet der Pseudo-Persönlichkeit des Systems, auf die Benutzercharakteristik stark zu reagieren und letztere Methode gestattet der Pseudo-Persönlichkeit des Systems, sich im Einklang mit der Häufigkeit der Verwendung des Systems und mit der Zeit zu entwickeln, wobei sich der Benutzer an der Entwicklung der Pseudo-Persönlichkeit des Systems erfreuen kann. Es trifft insbesondere im Fall des letzteren Verfahrens zu, dass es möglich ist, sich an der Entwicklung der Pseudo-Persönlichkeit des Systems, welche über einen langen Zeitraum hinweg stattfindet, zu erfreuen, d. h., die Persönlichkeit entwickelt sich mehr zu einer menschenähnlichen, wenn die Stufen jeder vorläufigen Persönlichkeit auf verschiedene detaillierte Stufen eingestellt sind und die Ausgabe der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit niedrig eingestellt ist.
  • Pseudo-Emotionen erzeugende Einheit
  • 6 ist ein schematisches Flussdiagramm, welches die Prozesse in der Pseudo-Emotionen erzeugenden Einheit C darstellt.
  • Die Pseudo-Emotionen erzeugende Einheit C erhält die Ausgabe aus dem Benutzerinformationsspeicher 1, dem Speicher 3 für externe Informationen und dem Speicher 4 für Informationen über die Pseudo-Persönlichkeit. Dann generiert die Pseudo-Emotionen erzeugende Einheit C die Pseudo-Emotionsinformation des Systems auf der Grundlage der oben angegebenen Informationen.
  • Die Pseudo-Emotionen erzeugende Einheit C speichert verschiedene vorgegebene vorläufige Emotionen ab (wie „heiter", „traurig", „überrascht", „verärgert", „angewidert" und „ängstlich") und stellt die Stufe jeder vorläufigen Emotion basierend auf der vom Benutzerinformationsspeicher 1 und dem Speicher 3 für externe Informationen eingegebenen Information ein. In der Praxis kann die Stufe jeder vorläufigen Emotion durch Regeln oder Funktionsgleichungen bestimmt werden, welche die Stufe jeder vorläufigen Emotion mit der Information über den Benutzerstatus (wie Emotionsstufe und Bewertungsstufe), welche im Benutzerinformationsspeicher 1 gespeichert sind und den Informationen über Umweltinformationen korrelieren, welche im Speicher 3 für externe Informationen gespeichert sind. Die Beziehung zwischen den vorläufigen Emotionen, dem Benutzerstatus und den Umweltinformationen wird z. B. wie folgt gebildet: Je höher die Stufe „Ärger" unter den Benutzeremotionen ist, desto höher wird die Stufe „Traurigkeit" und desto niedriger wird die Stufe „Freude" unter den vorläufigen Benutzeremotionen. Je höher die Bewertungsstufe bzgl. des vom System ausgegebenen Verhaltens, desto höher wird die Stufe „Freude" und desto niedriger wird die Stufe „Traurigkeit". Je niedriger die aus den Umweltinformationen erhaltene Außentemperatur, desto höher wird die Stufe „Abscheu". Je dunkler die unmittelbare Umwelt, desto höher wird die Stufe „Angst".
  • Die Pseudo-Emotionen erzeugende Einheit C entscheidet, ob jede vorläufige in der Einheit C generierte Emotion von dort aus als Pseudo-Emotion ausgegeben wird. Dies geschieht mittels eines vorgegebenen Schwellenwertes, welcher für jede vorläufige Emotion eingestellt ist (nachstehend als „vorläufiger Emotionsschwellenwert" bezeichnet). Die Stufe einer nicht ausgegebenen vorläufigen Emotion wird auf 0 eingestellt, während die Stufe einer ausgegebenen vorläufigen Emotion auf eine geeignete Stufe auf der Grundlage der Information über die Pseudo-Persönlichkeit eingestellt wird. Eine Gruppe oben genannter vorläufiger Emotionen wird als Pseudo-Emotion ausgegeben.
  • Im Voraus wird der vorläufige Emotionsschwellenwert mit den Informationen über die Pseudo-Persönlichkeit korreliert und auf der Grundlage der Informationen über die Pseudo-Persönlichkeit, welche aus dem Speicher 4 für Informationen über die Pseudo-Persönlichkeit eingegeben wird, bestimmt. In der Praxis wird jeder vorläufige Emotionsschwellenwert auf eine solche Art korreliert, dass er sich in Übereinstimmung mit der Stufe jeder vorläufigen Emotion in der Information über die Pseudo-Persönlichkeit ändert. Je höher beispielsweise die Stufe des „Ansteigens und Abfallens der Emotionen", desto niedriger wird der Schwellenwert jeder vorläufigen Emotion. Im Gegensatz gilt, je niedriger die Stufe, desto höher wird der Schwellenwert für jede vorläufige Emotion. Je höher die Stufe des „Frohsinns", desto niedriger wird lediglich der Schwellenwert für „Freude" unter den anderen und desto höher werden die Schwellenwerte für die verbleibenden vorläufigen Emotionen. Bei den ersten Verfahren gilt, je höher die Stufe für „Ansteigen und Abfallen der Emotionen" in der Pseudo-Persönlichkeit, desto größer wird die Möglichkeit, den entsprechenden Schwellenwert zu überschreiten, wobei sich die Möglichkeit für den Ausdruck der vorläufigen Emotionen als Pseudo-Emotion erhöht, d. h., die Emotionsschwankung wird beachtlich. Bei dem letzteren Verfahren gilt, je höher die Stufe des „Frohsinns" in der Pseudo-Persönlichkeit, desto größer wird die Möglichkeit, den Schwellenwert von nur „Freude" zu überschreiten, womit das System heiter gestimmt wird. Um ein anderes Beispiel zu nennen, je höher die Stufe des „Gehorsams" in der Pseudo-Persönlichkeit, desto höher wird der Schwellenwert jeder vorläufigen Emotion. Im Gegensatz gilt, je niedriger die Stufe des „Gehorsams", desto niedriger wird der Schwellenwert für jede vorläufige Emotion. Wie oben beschrieben wird durch die Korrelation der vorläufigen Emotionsschwellenwerte mit den Stufen jeder vorläufigen Emotion in der Pseudo-Persönlichkeit die Wahrscheinlichkeit des Auftretens jeder Pseudo-Emotion abhängig von der Pseudo-Persönlichkeit verändert, und mit der Entwicklung der Pseudo-Persönlichkeit entwickelt sich auch die Art des Auftretens der Pseudo-Emotionen.
  • Nach der Berechnung des Schwellenwertes für jede vorläufige Emotion oder während einer solchen Berechnung werden der vorläufige Emotionsschwellenwert und die dazugehörige vorläufigen Emotion verglichen. Es werden nur die vorläufigen Emotionen einer Berechnung ihrer Stufe zur Ausgabe als eine Pseudo-Emotion unterzogen, deren Stufen höher sind als die zugehörigen vorläufigen Emotionsschwellenwerte. Die verbleibenden vorläufigen Emotionen außer der eingestellten Information werden gelöscht.
  • Die als Pseudo-Emotionen auszugebenden Stufen werden mit den Stufen der vorläufigen Persönlichkeit in der Pseudo-Persönlichkeit korreliert und können mit Hilfe von Regeln oder Funktionsgleichungen errechnet werden. In der Praxis gilt z. B., je höher beispielsweise die Stufe des „Ansteigens und Abfallens der Emotionen" in der Pseudo-Persönlichkeit, desto mehr nähern sich die Ausgabestufen der Pseudo-Emotionen den Stufen der vorläufigen Emotionen. Im Gegenzug gilt, je niedriger die Stufe des „Ansteigens und Abfallens der Emotionen" in der Pseudo-Persönlichkeit, desto weniger nah sind sich die Ausgabestufen der Pseudo-Emotionen und Stufen der vorläufigen Emotionen.
  • Die durch die oben genannten Prozesse erhaltenen Pseudo-Emotionen werden an einen Speicher 5 für Informationen über die Pseudo-Emotionen ausgegeben, wobei die im Speicher 5 gespeicherten Daten aktualisiert werden.
  • Entscheidungseinheit für den emotionalen Ausdruck
  • 7 ist ein schematisches Flussdiagramm, welches die Prozesse in der Entscheidungseinheit D für den emotionalen Ausdruck darstellt.
  • Die Entscheidungseinheit D für den emotionalen Ausdruck beurteilt die Stufe jeder vorläufigen Emotion aus der Pseudo-Emotionsinformation, welche aus dem Speicher 5 für Informationen über die Pseudo-Emotionen erhalten wird und bestimmt den auszugebenden emotionalen Ausdruck auf der Grundlage jener vorläufiger Emotionen, deren Stufen hoch oder größer als 0 sind.
  • Der emotionale Ausdruck wird unter einer Vielzahl an Mustern des emotionalen Ausdrucks in Relation zu den im Voraus in einem Speicher 6 für emotionale Ausdrucksmuster gespeicherten Pseudo-Emotionen ausgewählt. Praktisch beinhaltet der emotionale Ausdruck Veränderungen der Augen- und Mundform oder das Vergießen von Tränen, sofern eine visuelle Ausgabevorrichtung ein „Gesicht" generiert. Des weiteren kann der emotionale Ausdruck durch die Hintergrundfarbe des „Gesichtes" auf der Anzeige angezeigt werden bzw. durch Klänge, Stimmen oder Konversation unter Verwendung einer auditiven Ausgabevorrichtung. Bei dem oben beschriebenen Verfahren speichert der Speicher 6 für emotionale Ausdrucksmuster im Voraus Muster der Augen, des Mundes, der Tränen, der Hintergrundfarbe, des Geräusches und der Konversation in Relation zu jeder Stufe der vorläufigen Emotion.
  • Das Verfahren der Musterauswahl der Emotionsausdrücke in der Emotionsausdruckseinheit 0 kann einfach ein Verfahren sein, bei welcher dasjenige Muster des emotionalen Ausdrucks ausgewählt wird, welches der vorläufigen Emotion der höchsten Stufe entspricht. Vorzugsweise wird jedoch unter der Mustern der Emotionsausdrücke ein Muster nicht vorhandenen Ausdrucks (ausdruckslos) generiert, und wenn die Stufen aller vorläufigen Emotionen 0 betragen, wird das ausdruckslose Muster gewählt. Wenn die Stufen aller vorläufigen Emotionen, außer einer vorläufigen Emotion, 0 betragen, wird ein mit dieser einen vorläufigen Emotion entsprechendes Muster ausgewählt. Betragen die Stufen von mehr als einer aber nicht aller vorläufigen Emotionen mehr als 0, dann hat ein Muster einer vorläufigen Emotion einer höheren Stufe als die der anderen vorläufigen Emotionen Vorrang gegenüber den anderen. Des weiteren wird unter den verbleibenden Mustern ein Muster einer vorläufigen Emotion einer niedrigeren Stufe als die des ersten an der Stelle ausgewählt, an welcher das erste Muster nicht zutrifft. Bei oben beschriebenem Verfahren werden das erste und zweite Muster verbunden, um einen kombinierten Ausdruck zu generieren. Sind die Stufen aller vorläufiger Emotionen größer als 0, kann das ausdruckslose Muster ausgewählt werden. Auf diese Weise können die Pseudo-Emotionen auf eine komplexe Weise dargestellt werden.
  • Die Entscheidungseinheit D für den emotionalen Ausdruck bestimmt die emotionalen Ausdrucksmuster der Pseudo-Emotionen momentan in oben beschriebener Weise, stellt die Muster als emotionales Ausdrucksverhalten ein und gibt sie an die Verhaltensplanungseinheit H aus.
  • Autonomes Verhalten erzeugende Einheit
  • 8 ist ein schematisches Flussdiagramm, welches die Prozesse in der autonomes Verhalten erzeugenden Einheit E darstellt.
  • Die autonomes Verhalten erzeugende Einheit E wägt eine Vielzahl autonomer Verhaltensweisen, welche in einem Speicher 7 für autonome Verhaltensmuster eingestellt sind, gegeneinander ab. Dies geschieht auf der Grundlage spezifischer externer Informationen, der Benutzerinformationen, der Informationen über die Pseudo-Emotionen, und der Informationen über die Pseudo-Persönlichkeit, um einen Vorranggrad jedes autonomen Verhaltens zu bestimmen.
  • In dieser Ausführungsform setzen sich die autonomen Verhaltensmuster aus höheren und niedrigeren Verhaltensmustern zusammen. Zuerst werden die höheren Verhaltensmuster gegeneinander abgewogen, und nachdem ein höheres Verhaltensmuster mit einem höheren Wichtigkeitsgrad ausgewählt wurde, werden die niedrigeren Verhaltensmuster für das ausgewählte höhere Verhaltensmuster abgewogen, wodurch ein niedrigeres Verhaltensmuster einer höheren Wichtigkeitsgrades ausgewählt wird.
  • Die höheren Verhaltensmuster beinhalten beispielsweise „Anzeige neu herausgegebener Information", „Sprechen mit dem Benutzer" und „automatische Informationssammlung".
  • Jedes der Vielzahl an Verhaltensmustern wird mit den Stufen jeder externen Information, der Benutzerinformationen, der Informationen über Pseudo-Emotion und der Pseudo-Persönlichkeit korreliert, und der Wichtigkeitsgrad jedes Verhaltens wird auf der Grundlage der Stufe einer jeden Information bestimmt. In der Praxis werden z. B. im Bezug auf die externe bzw. Benutzerinformation der Status der Aktualisierung neu veröffentlichter Information, deren Menge, die Benutzeremotionen, Präferenzen, Persönlichkeit, Reaktionsintervalle des Benutzers und eine Zeitspanne, während derer der Benutzer innerhalb eines bestimmten Bereiches vom Systems lokalisiert werden kann in Zahlenwerte umgewandelt, welche anschließend mit jedem Wichtigkeitsgrad korreliert werden. In Bezug auf die Informationen über Pseudo-Emotion und Pseudo-Persönlichkeit werden die Stufe jeder vorläufigen Emotion und die Stufe jeder vorläufigen Persönlichkeit mit dem Wichtigkeitsgrad jedes Verhaltensmusters korreliert. Die Korrelation einer jeden Information mit jedem Wichtigkeitsgrad kann durch Verwendung von Funktionsgleichungen durchgeführt werden, insofern es zwischen ihnen eine Regelmäßigkeit gibt. Gibt es keine Regelmäßigkeit zwischen ihnen, können die Daten, welche ihre Beziehung darstellen, durch vorab durchgeführte Experimente erhalten werden.
  • Die autonomes Verhalten erzeugende Einheit E schreibt jedem Verhaltensmuster wie oben beschrieben einen Wichtigkeitsgrad zu und stellt dann ein Verhalten als autonome Verhaltensinformation ein, welches den höchsten Wichtigkeitsgrad besitzt und welches über eine bestimmte Zeitspanne nicht mehr ausgewählt wurde, seit nämliches Verhalten zuletzt ausgeführt wurde. Bei oben beschriebenem Verfahren ist das eingestellte Verhaltensmuster ein höheres Verhaltensmuster und die autonomes Verhalten erzeugende Einheit E schreibt einer Vielzahl an niedrigeren Verhaltensmustern für das eingestellte höhere Verhaltensmuster einen Wichtigkeitsgrad zu. Die niedrigeren Verhaltensmuster beinhalten z. B. „Scherzen", „Fragen", „Bericht über aktuellen Status", und „Knurren", welche sich auf das höhere Verhaltensmuster „Sprechen mit dem Benutzer" beziehen.
  • Die autonomes Verhalten erzeugende Einheit E schreibt den niedrigeren Verhaltensmustern einen Wichtigkeitsgrad zu und stellt anschließend ein Verhalten als autonome Verhaltensinformation ein, welches den höchsten Wichtigkeitsgrad hat. In einem in 8 dargestellten Ausführungsbeispiel wird das höhere Verhaltensmuster „Sprechen mit dem Benutzer" und außerdem „Fragen" ausgewählt, d. h., das Verhalten „Fragen" wird ausgewählt. Von den die niedrigeren Verhaltensmuster betreffenden Daten wird eine bestimmte Frage ausgewählt und dieses Verhalten wird als endgültiges autonomes Verhalten eingestellt. Bei dem oben beschriebenen Verfahren gilt, wenn eine Einzelheit aus einer Gruppe mit niedriger eingestuften Daten als die der niedrigeren Verhaltensmuster ausgewählt wird (niedrigere Stufe bzw. detailliertere Stufe), kann die Auswahl zufällig oder in Übereinstimmung mit den geeigneten Regeln getroffen werden, z. B., wenn der Befehl vom Benutzer aus der Benutzerinformation verstanden werden kann, können Wörter im Text des Befehls als Stichwörter für eine Stichwortsuche verwendet werden und eine Frage der größten Übereinstimmung mit den gesuchten Stichwörtern kann ausgewählt werden.
  • In dieser Ausführungsform wird die Zuschreibung von Wichtigkeitsgraden zu Verhaltensmustern in zwei Stufen durchgeführt, d. h., in sowohl den höheren Verhaltensmustern und den niedrigeren Verhaltensmustern und die endgültige autonome Verhaltensinformation wird aus einer Gruppe von niedrig-gestuften Daten ausgewählt. Der Auswahlprozess beschränkt sich nicht auf die oben genannten Angaben und kann auf drei oder mehr Stufen durchgeführt werden, wenn die Verhaltensmuster in drei oder mehr Stufen unterteilt sind. Falls die Stufen autonomer Verhaltensmuster, denen Wichtigkeitsgrade zugeschrieben werden, detailliert unterteilt sind, kann die Variationsbreite des autonomen Verhaltens erweitert werden.
  • Weiterhin ist in dieser Ausführungsform die automatische Informationssammlung eine von vielen autonomen Verhaltensmustern. Die automatische Informationssammlung kann jedoch unabhängig von den anderen autonomen Verhaltensmustern sein und kann ständig durchgeführt werden. In diesem Fall können die Intervalle der Informationssammlung und die Informationsauswahl nur in Übereinstimmung mit der Informationen über Pseudo-Persönlichkeit, der Informationen über Pseudo-Emotion und der Benutzerinformation geändert werden. Das heißt, obige Informationen und die Stufen der automatischen Informationssammlung können vorab miteinander korreliert werden. So erhöht sich beispielsweise die Stufe der automatischen Informationssammlung, je höher die Stufe „Aggressivität" in der Pseudo-Persönlichkeit ist, je höher die Stufe „Freude" in den Pseudo-Emotionen ist, und je höher die Stufe „ungeduldiger Charakter" in der Benutzerinformation ist, d. h., die Intervalle der Sammlung werden kürzer und die Informationsauswahl wird größer. Somit kann das System, während der Benutzer mit ihm interagiert, durch seine eigene Beurteilung Informationen sammeln, und die somit erhaltenen Daten bieten dem Benutzer höhere Zufriedenheit, weil vollständigeres autonomes Verhalten und befohlenes Verhalten generiert werden kann, wie unten beschrieben.
  • Neue Verhaltensmuster erzeugende Einheit
  • Sowohl der Speicher 6 für emotionale Ausdrucksmuster wie der Speicher 7 für autonome Verhaltensmuster, welche in der Entscheidungseinheit D für den emotionalen Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet werden, werden in der neue Verhaltensmuster erzeugenden Einheit G in geeigneten Intervallen aktualisiert.
  • 9 ist ein schematisches Flussdiagramm, welches die Prozesse in der neue Verhaltensmuster erzeugenden Einheit G darstellt.
  • Die neue Verhaltensmuster erzeugende Einheit G beurteilt die Intervalle zwischen der Erzeugung neuer Verhaltensmuster und der nachfolgenden Erzeugung neuer Verhaltensmuster auf der Grundlage der Informationen über Pseudo-Persönlichkeit. In der Praxis werden z. B. die Stufen der „Emotionsschwankung" oder „Aggressivität" in der Information über Pseudo-Persönlichkeit mit den Intervallen der Erzeugung korreliert. Die Korrelation wird z. B. so gestaltet, dass die Intervalle um so kürzer werden, je höher die Stufe „Aggressivität" ist.
  • Die neue Verhaltensmuster erzeugende Einheit G berechnet die Intervalle der Erzeugung neuer Verhaltensmuster und beurteilt anschließend auf der Grundlage der Intervalle und zufälliger Elementen, ob die Erzeugung neuer Verhaltensmuster aktiviert wird. Bei der Entscheidung für eine Aktivierung der Erzeugung verbindet die neue Verhaltensmuster erzeugende Einheit G und Verhaltenselemente, die in einer Datenbank 8 für emotionale Ausdruckselemente und in einer Datenbank 9 für autonome Verhaltenselemente gespeichert sind. Diese speichern im Voraus jeweils eine Anzahl von emotionalen Ausdrucksmustern und autonome Verhaltensmuster, wobei neue emotionale Ausdrucksmuster und neue autonome Verhaltensmuster eingestellt werden. Oben genannte Verbindungsprozesse können zufällig oder unter Verwendung genetischer Algorithmen ausgeführt werden. In der Praxis werden z. B. verschiedene Formen von Teilen des „Gesichts" wie Augen, Augenbrauen und Mund als emotionale Ausdruckselemente im Voraus in die Datenbank eingespeist, und neue Ausdrucksmuster von „Ärger" können zufällig generiert werden, indem in der Datenbank gespeicherte emotionale Ausdruckselemente verwendet werden. Bei oben beschriebenem Verfahren können die Verhaltensmuster emotionale Ausdrucksmuster beinhalten, d. h. ein einfach integrierter Speicher kann diese Informationsteile speichern und Prozesse für neue emotionale Ausdrucksmuster sowie Prozesse für autonome Verhaltensmuster können integriert werden.
  • Nach der Erzeugung neuer emotionaler Ausdrucksmuster und neuer autonomer Verhaltensmuster entsprechend obigem Prozess werden die neuen Muster mittels einer Datenbank für gesunden Menschenverstand und den Benutzerinformationen überprüft und überarbeitet, um extreme oder offensichtliche abstoßende Muster zu eliminieren. Die neuen Muster werden unter Einbezug von Vernunftaspekten mit Hilfe der Datenbank für gesunden Menschenverstand, die Informationen wie „wann wird Ärger ausgedrückt", „Augenwinkel sind nicht nach unten gezogen" enthält, überprüft und überarbeitet. Wenn der Benutzer z. B. eine Reaktion von Unbehagen zum Ausdruck bringt, wenn der Ausdruck „Ärger" mit „Knurren" assoziiert ist, wird das mit „Ärger" assoziierte Geräusch von „laut knurrend" in „leise knurrend" abgeändert. Auf der Grundlage der Benutzerreaktion oder -bewertung wird die Überprüfung mittels der Benutzerinformation ausgeführt.
  • Nachdem die neue Verhaltensmuster erzeugende Einheit G die neu generierten Muster wie oben beschrieben überprüft und überarbeitet, speichert die Einheit G die mit den neu generierten Mustern korrespondierenden aktuell verwendeten Verhaltensmuster temporär und passt anschließend die aktuellen Verhaltensmuster den neuen Verhaltensmustern temporär an. Diese temporären neuen Verhaltensmuster werden bewertet.
  • Die Bewertung der neuen Verhaltensmuster wird hauptsächlich auf der Grundlage der Benutzerbewertung in den Benutzerinformationen durchgeführt. Sind die neuen Verhaltensmuster nach der Verwendung der neuen Verhaltensmuster über eine bestimmte Zeitspanne unzureichend, werden die vorher gespeicherten Verhaltensmuster wieder aufgenommen. Ist das Resultat der Bewertung positiv, werden die neuen Verhaltensmuster in den jeweiligen Musterinformationsspeichern 6 und 7 gespeichert.
  • Befohlenes Verhalten erzeugende Einheit
  • Die befohlenes Verhalten erzeugende Einheit F generiert befohlenes Verhalten durch Verwendung von Informationen aus dem Speicher 3 für externe Informationen in Übereinstimmung mit dem in den Benutzerbefehlsinformationen enthaltenen Benutzerbefehl. In der Praxis beinhaltet das befohlene Verhalten in diesem Unterstützungs systems die Beantwortung von Benutzerfragen, die Konzepterstellung eines vom Benutzer verlangten Handlungsplanes, die Aufstellung eines detaillierten Handlungsplanes und die Bildung oder Simulation eines Handlungsplanes. Die Beantwortung der Benutzerfragen meint genauer betrachtet die Durchführung einer Suche unter Verwendung des Speichers 3 für externe Informationen und/oder der externen Datenbanken und das Anzeigen des Suchergebnisses, wenn der Benutzer das System anweist, eine Suche durchzuführen. Die Konzepterstellung eines Handlungsplanes und das Aufstellen eines detaillierten Planes bedeutet die Erstellung eines Reiseplanes, der das Reiseziel des Benutzers und touristische Attraktionen auf dem Weg zum Reiseziel anzeigt, die Erstellung einer Fahrtroute, wenn der Benutzer mit dem Auto oder dem Motorrad unterwegs ist und die Erstellung von Zugverbindungen, wenn der Benutzer mit dem Zug reist.
  • Bei oben beschriebener Vorgehensweise werden Erzeugungsprozesse für befohlenes Verhalten in der befohlenes Verhalten erzeugenden Einheit F durchgeführt, indem zumindest auf vorheriges vom System ausgegebenes Verhalten und die Informationen über Benutzerbewertung im Hinblick auf vorheriges Verhalten Bezug genommen wird. Wenn der Benutzer z. B. das System anweist, eine Suche durchzuführen und wenn das vorher ausgegebene Verhalten ein Resultat der Suche beinhaltet, bestimmt die befohlenes Verhalten erzeugende Einheit F, ob das in der vorherigen Suche verwendete Stichwort der Benutzeranfrage entsprach, basierend auf der Stufe der Benutzerbewertung im Hinblick auf das Ergebnis der vorherigen Suche. War die Stufe der Benutzerbewertung hoch, urteilt die Einheit F, dass der Benutzer mit dem in der Suche verwendeten Stichwort zufrieden ist, und die Einheit F führt eine zweite Suche mit dem selben Stichwort durch. War die Stufe der Benutzerbewertung niedrig, urteilt die Einheit F, dass der Benutzer mit dem in der Suche verwendeten Stichwort nicht zufrieden ist, und die Einheit F führt erneut eine erste Suche mit einem neuen Stichwort durch.
  • Wie oben beschrieben wird unter Bezugnahme auf die Benutzerbewertung und das vorher ausgegebene Verhalten das nächste befohlene Verhalten generiert, so dass Verhalten erzeugt werden kann, welches benutzergerechter ist.
  • Weiterhin kann die befohlenes Verhalten erzeugende Einheit F absolutes Verhalten zusätzlich zu dem oben erwähnten befohlenen Verhalten erzeugen. In der Praxis werden z. B. risikobezogene Stichwörter wie „Erdbeben", „regelmäßige Geschehnisse", und „starker Regen und Flutwarnung" oder allgemein unerwünschte Stichwörter als Risikoinformationsstichwörter gespeichert werden. Werden solche Risikoinformationsstichwörter in einem während des autonomen Verhaltens automatisch gesammelten Informationsteil gefunden, kann der Informationsteil so gestaltet werden, dass er als absolutes Verhalten angezeigt wird. Wie oben beschrieben, kann den Risiko informationen durch die autonome Erfassung von Risikoinformationen und der Einstellung der Informationen als absolutes Verhalten Vorrang gegenüber anderen Informationen zugeschrieben werden, und sie kann zusätzlich zum Handlungsplan angezeigt werden, wenn die Handlung des Benutzers das Reisen beinhaltet.
  • Verhaltensplanungseinheit
  • Die Verhaltensplanungseinheit H erhält Verhaltensinformationen von jeweils der Entscheidungseinheit D für den emotionalen Ausdruck, der autonomes Verhalten erzeugenden Einheit E und der befohlenes Verhalten erzeugenden Einheit F; stellt Vorranggrade für jede Verhaltensinformation auf der Grundlage der Informationen über die Pseudo-Persönlichkeit, der Informationen über die Pseudo-Emotionen und der Benutzerinformationen ein; generiert neue vorrangige Verhaltensinformationen; verbindet jede Verhaltensinformation auf der Grundlage der neuen vorrangigen Verhaltensinformationen und entscheidet über das endgültige Ausgabeverhalten.
  • 10 und 11 sind schematische Flussdiagramme, welche die Prozesse in der Verhaltensplanungseinheit H darstellen.
  • Die Verhaltensplanungseinheit H beurteilt zuerst, ob absolutes Verhalten erforderlich ist oder nicht. Zu diesem Zeitpunkt werden die Informationen über absolutes Verhalten auf Vorrang 1 eingestellt, wenn absolutes Verhalten erforderlich ist. Die Informationen über absolutes Verhalten beinhalten Informationen über absolutes Verhalten, welche in der oben beschriebenen befohlenes Verhalten erzeugenden Einheit generiert wird und Informationen über Verhalten, welches dringende Handlung in einer Situation wie z. B. dem Ausfall der Eingabevorrichtung erfordert.
  • Wenn das Ergebnis der Beurteilung über die Erfordernis absoluten Verhaltens lautet, dass dieses nicht erforderlich ist, wird für jede Verhaltensinformation mittels einer Tabelle zu Vorranggraden ein Vorranggrad bestimmt (1 bis 3, hier lautet der Vorrang 1, d. h., hoher Vorrang), welcher als neue vorrangige Verhaltensinformation eingestellt wird.
  • Die Tabelle zu Vorranggraden ist eine Tabelle, die den Vorranggrad definiert, wie in 10 beschrieben, z. B.: Lautet die Pseudo-Emotion „Freude", die Pseudo-Persönlichkeit „Gehorsam" und der Benutzerstatus „Ärger", wird das befohlene Verhalten auf Vorrang 1 gesetzt, das emotionale Ausdrucksverhalten auf Vorrang 2 und das autonome Verhalten auf Vorrang 3. Wie oben ist die Tabelle eine Datengruppe, in welcher ein Vorranggrad jeder Verhaltensinformation für eine Kombination sämtlicher Pseudo-Emotionen, Pseudo-Persönlichkeiten und Benutzerzuständen eingestellt wird. Das Verfahren der Bestimmung des Vorranggrades beschränkt sich allerdings nicht auf die oben genannten Beispiele und beinhaltet z. B. die Methode der unscharfen Logik, durch welche die Beziehung zwischen den Pseudo-Emotionen, Pseudo-Persönlichkeiten, Benutzerzuständen und Vorranggraden der Verhaltensinformation im Voraus definiert wird, wobei Zugehörigkeitsgleichungen von Verhaltensinformationen unter Bezug auf Vorranggrade aufgestellt werden.
  • Nach Einstellung der neuen vorrangigen Verhaltensinformationen werden das bereits ausgeführte Verhalten und das nicht auszuführende Verhalten gelöscht, und die verbleibenden Verhaltensmuster werden als unvollständige Verhaltensinformationen eingestellt. Diese unvollständigen Verhaltensinformationen werden als wichtiger eingestellt als die zuvor benannten neuen vorrangigen Verhaltensinformationen. Auf Grundlage der unvollständigen Verhaltensinformationen und der neuen vorrangigen Verhaltensinformationen werden die aktuelle vorrangige Verhaltensinformationen aktualisiert. Jede Verhaltensinformation wird auf Grundlage der aktuellen vorrangigen Verhaltensinformationen kombiniert.
  • 11 ist ein schematisches Flussdiagramm, welches die Prozesse der Erzeugung jeder Verhaltensinformationen auf der Grundlage von aktuellen Verhaltensinformationen bis zur Einstellung des endgültigen Ausgabeverhaltens darstellt.
  • Vermischtes Verhalten wird geschaffen, indem als erstes ein Verhalten mit einem höheren Vorranggrad eingestellt wird. Das heißt, jede Verhaltensinformation besteht aus einer Vielzahl an Verhaltensweisen und in der Praxis beinhaltet die Verhaltensinformation dieser Ausführungsform folgendes: Augen, Mund, Konversation, Anzeige, Suche und Datei. Die Verhaltensweisen in den Verhaltensinformationen werden in der Reihenfolge ihres Vorrangs eingestellt, und ein Verhalten in der Verhaltensinformation mit einem niedrigeren Vorrang wird nur dann eingestellt, wenn kein Konflikt mit den bereits durch die höheren vorrangigen Verhaltensinformationen definierten Verhaltensweisen entsteht, d. h., die Verhaltensweisen, welche nicht von den hohen vorrangigen Verhaltensinformationen definiert werden, können mit solchen der niedrigeren vorrangigen Verhaltensinformationen aufgefüllt werden.
  • In dem in 11 dargestellten Ausführungsbeispiel wird zuerst das durch das befohlene Verhalten definierte Verhalten (Anzeige: neu veröffentlichte Information) des höchsten Vorranges eingestellt. Zweitens wird das durch das emotionale Ausdrucksverhalten des Vorrangs 2 definierte Verhalten (Augen: lächelnde Augen; Mund: lächelnder Mund; Konversation: Pfeifen) eingestellt. Drittens wird das durch das befohlene Verhalten des Vorrangs 3 definierte Verhalten (Suche: heißer Frühling) eingestellt. Viertens (letztens) wird das durch das autonome Verhalten des Vorrangs 4 definierte Verhalten eingestellt. Wie aus obigem Beispiel deutlich wird, wurde das Verhalten durch das emotionale Ausdrucksverhalten des Vorrangs 2 „Konversation: Pfeifen" definiert, d. h., „Konversation" wurde bereits definiert, obwohl das autonome Verhalten des Vorrangs 4 „Konversation: Plaudern (Typ 3) definiert. Somit wird das durch das autonome Verhalten definierte Verhalten „Konversation" nicht angenommen. Der Grund dafür, dass es in obigem Beispiel zwei befohlene Verhaltensweisen in Bezug auf „Konversation" gibt ist, dass „befohlene Verhaltensinformation" in dem vorherigen unvollständigen Verhalten aufrecht erhalten wurde, d. h. den vorherigen unvollständigen Verhaltensinformationen wird Vorrang zugeschrieben.
  • Bildschirm
  • 22 und 23 sind schematische Überblicke über einen Bildschirm des Reiseunterstützungssystems entsprechend der vorliegenden Erfindung. 22 zeigt einen Hauptbildschirm, 23 einen Zweitbildschirm.
  • Dieses System kann in einem Auto installiert werden oder kann ein Laptop sein. Dieses System kann durch Betätigen einer Tastatur, Berührung eines Bildschirms oder durch verbale Instruktionen bedient werden. Ein am oberen linken Bildschirmrand angezeigtes Gesicht zeigt die aktuelle Emotion des Systems an. Ein Anzeigefeld auf der linken Seite zeigt den aktuellen Status des Benutzers, des Systems, der Umwelt, den Benutzertyp (Persönlichkeit) und den Systemcharakter (Persönlichkeit). Da dieses System noch nicht über einen signifikanten Zeitraum hinweg vom Benutzer verwendet wurde, hat es seine Pseudo-Persönlichkeit noch nicht vollständig entwickelt. Für die Sammlung von Umweltinformationen ist das System mit einem Lichtsensor, einem Temperatursensor, einem Drucksensor und einem auditiven Sensor ausgestattet, deren Werte in dem linken Anzeigefeld angezeigt werden. Für die Sammlung von Benutzerinformationen ist das System mit einem Positionssensor, einem auditiven Sensor und einem Berührungssensor ausgestattet, deren Werte in dem linken Anzeigefeld angezeigt werden. Das System ist außerdem mit einem Kommunikationsinstrument ausgestattet, um auf externe Datenbanken oder externe Informationsquellen zugreifen zu können. Das Ausgabeverhalten des Systems beinhaltet den Gesichtsausdruck (linke obere Ecke), schriftliche Meldung (oben in rechtem Anzeigefeld), eine Anzeige der Information (rechtes Anzeigefeld) und eine akustische Meldung (Stimme). In 22 möchte der Benutzer einen Reiseplan für seinen Urlaub erstellen und sitzt vor dem System. Das System fragt den Benutzer sowohl akustisch wie auch auf der Anzeige nach seinem Befinden. Die Antwort des Benutzers erfolgt schnell und es geht ihm gut. Dies resultiert in der Erzeugung eines Glücksgefühls im System, was auf dem Gesicht in der Ecke erkennbar ist. Das System fragt den Benutzer nach seinem Wunsch. Der Benutzer bittet um Suche nach einem Ort, welchen er besuchen könnte und das System listet in der Anzeige (siehe 23) entsprechende Optionen auf. Der Benutzer antwortet dem System nicht (er kann sich nicht entscheiden). Darum zeigt das System nun ein neutrales Gesicht statt eines glücklichen Gesichts. Unternimmt der Benutzer nichts spezielles, behält das System seinen geduldigen Charakter bei (zeigt auf der Anzeige „gehorchen" an) und die Ausdrucksschwellenwerte sind hoch (passiv). Findet der Benutzer einen Ort, den er besuchen will und zeigt sein Gefühl (glücklich), kann jedoch aus irgendeinem Grund die Reise nicht planen, zeigt das System ein trauriges Gefühl und schlägt einen alternativen Zeitplan vor, welchem der Benutzer möglicherweise zustimmt. Schließlich wird sich das System Charakterzüge ähnlich denen des Benutzers aneignen.
  • Auswirkungen
  • Wie oben beschrieben ist das Unterstützungssystem selbst entsprechend mit einer Pseudo-Persönlichkeit ausgestattet, welche sich durch die Interaktion mit dem Benutzerstatus entwickelt, verfügt über Pseudo-Emotionen, welche sich in Übereinstimmung mit dem Benutzerstatus und den externen Informationen ändern, wobei die Pseudo-Emotionen durch die Pseudo-Persönlichkeit gesteuert werden und die Pseudo-Persönlichkeit vom Benutzer abhängt, d. h., die für jeden Benutzer einzigartige Pseudo-Persönlichkeit wird in Übereinstimmung mit der Verwendung des Systems gebildet. Da die Pseudo-Persönlichkeit mittels der Pseudo-Emotionen ausgedrückt wird, kann sich der Benutzer der Förderung eines einzigartigen Unterstützungssystems während einer Entwicklungsperiode erfreuen, ähnlich dem Großziehen eines Kindes. Des weiteren kann der Benutzer ungefähr nach Beendigung der Entwicklungsphase eine „Freundschaft" mit dem Unterstützungssystem aufbauen.
  • Weiterhin ist das System so konstruiert, dass es aufgrund der Pseudo-Persönlichkeit und den durch die Pseudo-Persönlichkeit gesteuerten Pseudo-Emotionen autonomes Verhalten erzeugt. Daher steigt das Verständnis für die Benutzergefühle oder Präferenzen, je mehr das System verwendet wird. Das System kann den Benutzer in Angelegenheiten unterstützen, welche er nicht direkt zum Ausdruck bringt.
  • Da das Unterstützungssystem sowohl autonomes wie auch befohlenes Verhalten ausführen kann, muss der Benutzer ihm von Anbeginn keine detaillierten Befehle erteilen. Der Benutzer kann Bedingungen mittels Dialog mit dem System festlegen. Zusätzlich kann das Unterstützungssystem während des Dialoges eigene Vorschläge einbringen (wie z. B. neu herausgegebene Informationen). Somit kann mit dem Unterstützungssystem ein geeigneter Handlungsplan sehr leicht aufgestellt werden. Insbesondere, wenn die neue Verhaltensmuster erzeugende Einheit aktiviert ist, um neue Verhaltensmuster zu generieren (einschließlich neuer emotionaler Ausdrucks muster), ist es nicht notwendig, zahlreiche Verhaltensmuster in Verbindung mit der Pseudo-Persönlichkeit, den Pseudo-Emotionen und sonstigen Informationen (Benutzer- und externe Informationen) im Voraus vorzubereiten. Dieses System kann auf jeden Benutzertyp schneller, natürlicher und anpassungsfähiger reagieren.
  • Haustierroboter
  • Mit Verweis auf 1221 wird ein weiteres Ausführungsbeispiel beschrieben, an welche das Steuersystem der vorliegenden Erfindung angepasst ist. Dieses Ausführungsbeispiel ist ein Haustierroboter, welchen sich der Benutzer als Haustier halten kann.
  • Wie aus 1221 ersichtlich wird, entspricht das Steuersystems des Haustierroboters ungefähr dem des Unterstützungssystems, außer dass sich die Details an Informationen in jeder Verarbeitungseinheit und die Details der Ausgabeinformation unterscheiden. Um Wiederholungen zu vermeiden wird daher das Prinzip des Steuersystems hier nicht noch einmal erläutert. Diejenigen Aspekte, die sich vom Unterstützungssystem unterscheiden, werden unten erläutert.
  • Der Haustierroboter wurde entwickelt, um dem Benutzer eine Paraerfahrung einer Haustierhaltung zu ermöglichen. Der Haustierroboter verfügt selbst über eine Pseudo-Persönlichkeit, welche sich durch die Interaktion mit dem Benutzer und durch eigene Erfahrung entwickelt und über Pseudo-Emotionen, welche sich in Übereinstimmung mit der Interaktion mit Benutzer und unmittelbarer Umwelt verändern. In Abhängigkeit vom Status der Pseudo-Persönlichkeit und den Pseudo-Emotionen drückt der Haustierroboter Emotionen aus und reagiert auf den Benutzer autonom und/oder auf Anordnung. Als Resultat dessen ist der Haustierroboter befähigt, verschiedene Handlungen auszuführen.
  • In der Praxis ist der Haustierroboter, um den Status des Benutzers oder Umweltgegebenheiten zu erkennen, mit einem visuellen Sensor, einem haptischen Sensor, einem auditiven Sensor und einer Vorrichtung zum Zugriff auf externe Datenbanken ausgestattet. Des weiteren ist er mit einer Ausgabevorrichtung wie einer visuellen Ausgabevorrichtung und einer auditiven Ausgabevorrichtung ausgestattet, um seine Pseudo-Emotionen oder Reaktionen auf den Benutzer anzuzeigen und verfügt über Bewegungsmittel, welche als Hände und Füße fungieren, ein Bediengerät und einen Schwanz.
  • Grundlegender Aufbau des Haustierroboters
  • 12 ist ein schematisches Blockdiagramm, welches ein Beispiel des Gesamtsystems eines Haustierroboters entsprechend der vorliegenden Erfindung darstellt. Wie in der Abbildung dargestellt, besteht der Haustierroboter aus:
    • – einer Erkennungseinheit A für Benutzer- und Umweltinformationen zur Erkennung des Status' des Benutzers und von Umweltinformationen;
    • – einer Einstelleinheit B für Informationen über die Pseudo-Persönlichkeit für die Einstellung einer Pseudo-Persönlichkeit durch Bezugnahme auf das Ergebnis der Erkennung der Erkennungseinheit A;
    • – einer Pseudo-Emotionen erzeugenden Einheit C zur Erzeugung von Pseudo-Emotionen auf der Grundlage des Ergebnisses der Erkennung durch die Erkennungseinheit A und der Informationen über die Pseudo-Persönlichkeit, welche durch die Einstelleinheit B für Informationen über die Pseudo-Persönlichkeit eingestellt wird;
    • – einer Entscheidungseinheit D für den emotionalen Ausdruck zur Entscheidung über die Art des emotionalen Ausdrucks wie Ausdrucksweisen für Lachen oder Ärger auf einer Anzeige auf der Grundlage der Informationen über die Pseudo-Emotionen;
    • – einer autonomes Verhalten erzeugenden Einheit E zur Erzeugung autonomen Verhaltens auf der Grundlage des Ergebnisses der Erkennung, der Informationen über die Pseudo-Persönlichkeit und der Informationen über die Pseudo-Emotionen;
    • – einer befohlenes Verhalten erzeugenden Einheit F zur Erzeugung von Verhalten in Übereinstimmung mit dem Benutzerbefehl auf der Grundlage des Ergebnisses der Erkennung und zumindest dem vom System selbst vorher ausgegebenen Verhalten;
    • – einer neue Verhaltensmuster erzeugenden Einheit G zur Erzeugung von neuen Verhaltensmustern, welche in der Entscheidungseinheit D für den emotionalen Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet werden können, auf der Grundlage der Informationen über die Pseudo-Persönlichkeit, der Informationen über die Pseudo-Emotionen und einer Datenbank zur Speicherung verschiedener Verhaltenselemente und emotionaler Ausdruckselemente;
    • – und einer Verhaltensplanungseinheit H zur Entscheidung über das endgültig auszugebene Verhalten unter jeweiliger Verwendung der Ausgabe der Entscheidungseinheit D für den emotionalen Ausdruck, der autonomes Verhalten erzeugenden Einheit E und der befohlenes Verhalten erzeugenden Einheit F auf der Grundlage des Ergebnisses der Erkennung, der Informationen über die Pseudo-Persönlichkeit und der Informationen über die Pseudo-Emotionen.
  • Wie in 13 dargestellt, wiederholt das Unterstützungssystem nach seiner Aktivierung jeden Verarbeitungsschritt der Einheiten A bis H, bis das System abgeschaltet wird. Der Aufbau und die Funktion jeder Einheit wird nachstehend detailliert erläutert.
  • Erkennungseinheit für Benutzer- und Umweltinformationen
  • Wie in 12 dargestellt, umfasst die Erkennungseinheit A für Benutzer- und Umweltinformationen verschiedene Eingabevorrichtungen (z. B. eine auditive Eingabevorrichtung, eine visuelle Eingabevorrichtung, eine berührungsempfindliche Eingabeeinheit und/oder einen Erfassungseinheit für Umweltinformationen), eine Erkennungseinheit A1 für Benutzerbewertung, eine Erkennungseinheit A2 für Benutzeremotionen, eine Benutzererkennungseinheit A3, eine Erkennungseinheit A4 für Benutzerbefehle, eine Erkennungseinheit A5 für Umweltinformationen sowie eine Ableitungseinheit A6 für aktuelle Benutzerinformationen/-charakteristik. Die Erkennungseinheit A1 für Benutzerbewertung führt die Erkennungsverarbeitung auf der Grundlage der über die Eingabevorrichtungen erhaltenen Informationen durch. Die Ableitungseinheit A6 für aktuelle Benutzerinformationen/-charakteristik bestimmt einen aktuellen Benutzerstatus sowie die Benutzercharakteristik wie z. B. die Benutzerpräferenz auf der Grundlage des Erkennungsergebnisses aus den benutzerbezogenen Erkennungseinheiten A1 bis A3 oder leitet diese ab.
  • Bei oben beschriebenem Ausführungsbeispiel beinhaltet die Eingabevorrichtung ein Mikrofon als auditive Eingabevorrichtung, eine Kamera als visuelle Eingabevorrichtung, einen Berührungssensor als berührungsempfindliche Eingabeeinheit sowie einen Sensor zur Beleuchtungsmessung, einen Spannungssensor, einen Sensor zur Hinderniserfassung und einen Sensor zur Antriebserfassung (der als Sensor für Umweltinformationen eine Strecke erfasst, welche von der Antriebsvorrichtung zurückgelegt wurde). Die Eingabevorrichtungen sind jedoch nicht auf oben genannte Vorrichtungen beschränkt. Jede auf dem Markt erhältliche Eingabevorrichtung, die in der Lage ist, Benutzerstatus und Umweltinformationen visuell, auditiv und/oder durch Berührung zu erfassen, kann verwendet werden.
  • 14 ist ein schematisches Blockdiagramm, welches die Erkennungseinheit A für Benutzer- und Umweltinformationen im Detail aufzeigt, um die Vorgänge in den Verarbeitungseinheiten A1 bis A6 der Erkennungseinheit A für Benutzer- und Umweltinformationen zu erläutern.
  • Wie in dieser Abbildung dargestellt, legt die Erkennungseinheit A1 für Benutzerbewertung die Benutzerbewertung als vom Haustierroboter auszugebenes Verhalten fest und stellt das Ergebnis ein, z. B. als Information über die Benutzerbewertung auf der Grundlage der Art, auf welche der Benutzer auf den Haustierroboter reagiert. Diese Verhaltensweise kann vom Berührungssensor erfasst werden, z. B. wie der Benutzer den Haustierroboter berührt oder streichelt. Wird die Art der Berührung oder des Streichelns mit den Bewertungswerten im Voraus korreliert, können die Bewertungswerte bestimmt werden.
  • Die Erkennungseinheit A2 für Benutzeremotionen schätzt die aktuellen Benutzeremotionen auf Grundlage der in den auditiven Informationen und dem Gesichtausdruck des Benutzers gefundenen Merkmalen ein. Dabei wird eine auditive Analyse (Analyse der Häufigkeitsverteilungen und Tonhöhe des Geräusches/der Stimme) und eine Analyse des Gesichtsausdrucks (Analyse der Augen- und Mundform) durchgeführt auf Grundlage der auditiven Information und des Gesichtsausdrucks des Benutzers, welche von der auditiven Eingabevorrichtung bzw. der visuellen Eingabevorrichtung eingegeben werden. Außerdem bestimmt die Erkennungseinheit A2 für Benutzeremotionen die aktuellen Benutzeremotionen auf Grundlage der abgeschätzten Emotionen.
  • Die Benutzererkennungseinheit A3 erkennt, ob die vom Haustierroboter erfasste Person der Benutzer ist auf Grundlage des Ergebnisses der Erkennung der Position der Person und des Körpertyps der Person unter Verwendung einer visuellen Eingabevorrichtung und auf Grundlage des Analyseergebnisses von Geräusch/Stimme aus der Erkennungseinheit A2 für Benutzeremotionen.
  • Die Erkennungseinheit A4 für den Benutzerbefehl erkennt und bildet die Benutzerbefehlsinformation auf der Grundlage der Befehlsinformation, welche durch die Analyse der Bedeutung des Geräusches/der Stimme durch die auditive Eingabevorrichtung und durch Analyse der Informationen über die Benutzergestik durch die visuelle Eingabevorrichtung erhalten wird. Wenn der Benutzer z. B. sagt „Hol" und „mit seiner/ihrer Geste auf den Ball zeigt", wird die Benutzerbefehlsinformation durch eine Kombination wie folgt eingestellt: Der Befehl lautet „holen" und das Objekt ist „der Ball".
  • Die Erkennungseinheit A5 für Umweltinformationen erkennt den Standort eines Objektes auf Grundlage der Informationen aus der visuellen Eingabevorrichtung; erkennt die Fortbewegungsroute des Haustierroboters bei dessen autonomer Fortbewegung auf Grundlage der Informationen vom Sensor zur Antriebserfassung der Antriebsvorrichtung; wandelt Informationen wie Helligkeit, Vorhandensein oder Abwesenheit eines Hindernisses und die Höhe der elektrischen Leistung des Haustierroboters unter Verwendung verschiedener Sensoren in geeignete Formen um; stellt die umgewandelten Informationen ein und stellt auf ihnen basierend die Informationen über die den Haustierroboter umgebende Umwelt sowie den internen Status des Haustierroboters ein.
  • Die Ableitungseinheit A6 für aktuelle Benutzerinformationen/-charakteristik bestimmt den aktuellen Status und Charakteristik des Benutzers oder leitet diese auf der Grundlage der Erkennungsergebnisse der Erkennungseinheiten A1 bis A4 für benutzerbezogene Informationen, der später beschriebenen Informationen über aktuelles Vorrangsverhalten, der Informationen über emotionale Ausdrucksmuster sowie der Informationen über autonome Verhaltensmuster ab. Die Ableitungseinheit A6 für aktuelle Benutzerinformationen/-charakteristik aktualisiert anschließend die Daten der auf den Benutzer bezogenen Erkennungsinformationen, welche in einem Benutzerinformationsspeicher 1 gespeichert sind.
  • Bei oben beschriebenem Verfahren schließt der aktuelle Benutzerstatus die Stufe der Benutzeremotionen und Benutzerbewertung in Bezug auf das vom System ausgegebene Verhalten sowie den Standort des Benutzers ein. Die Benutzercharakteristik schließt die Häufigkeit des Auftretens jeder Emotion, die Veränderungsrate oder Variationsbreite der Emotionen, sowie den Durchschnittswert der Benutzerbewertung in Bezug auf das vom System ausgegebene Verhalten ein.
  • Die Ausgabe der Erkennungseinheit A4 für Benutzerbefehl wird an einen Speicher 2 für Benutzerbefehle übertragen, wobei die im Speicher 2 gespeicherte Informationen über den Benutzerbefehl aktualisiert werden.
  • Die auf den Benutzerbefehl bezogene Information beinhaltet z. B. die Inhalte des Befehls, das Objekt des Befehls und die Bedingungen des Befehls.
  • Die Ausgabe der Erkennungseinheit A5 für externe Informationen wird an einen Speicher 3 für externe Informationen übertragen, wobei die im Speicher 3 gespeicherten Informationen aktualisiert werden.
  • Einstelleinheit für Informationen über die Pseudo-Persönlichkeit
  • 15 ist ein schematisches Flussdiagramm, welches die Prozesse der Einstelleinheit B für Informationen über die Pseudo-Persönlichkeit darstellt.
  • Die Einstelleinheit B für Informationen über die Pseudo-Persönlichkeit ist so aufgebaut, dass sie eine Gruppe verschiedener vorläufiger Persönlichkeiten als Pseudo-Persönlichkeit einstellt, von denen jede in verschiedene Stufen unterteilbar ist. Auf Grundlage der im Speicher 2 für Benutzerbefehle gespeicherten Informationen wird die Stufe jeder vorläufigen Persönlichkeit eingestellt und je höher die Stufe, desto mehr trägt die vorläufige Persönlichkeit zur Bildung der Pseudo-Emotion und des Handlungsplans bei.
  • Wie ersichtlich ist, sind die Prozesse in der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit prinzipiell die gleichen wie jene im Unterstützungssystem. Die Details der Prozesse werden aus diesem Grund ausgelassen.
  • Pseudo-Emotionen erzeugende Einheit
  • 16 ist ein schematisches Flussdiagramm, welches Prozesse in der Pseudo-Emotionen erzeugenden Einheit C darstellt.
  • Die Pseudo-Emotionen erzeugende Einheit C erhält die Ausgabe aus dem Benutzerinformationsspeicher 1, dem Speicher 3 für externe Informationen und dem Speicher 4 für Informationen über die Pseudo-Persönlichkeit. Auf Grundlage der oben genannten Informationen erzeugt die Pseudo-Emotionen erzeugende Einheit C Informationen über die Pseudo-Emotionen des Systems.
  • Wie ersichtlich ist, sind die Prozesse in der Pseudo-Emotionen erzeugenden Einheit C prinzipiell die gleichen wie jene im Unterstützungssystem. Die Details der Prozesse werden aus diesem Grund ausgelassen.
  • Entscheidungseinheit für den emotionalen Ausdruck
  • 17 ist ein schematisches Flussdiagramm, welches die Prozesse in der Entscheidungseinheit D für den emotionalen Ausdruck darstellt.
  • Die Entscheidungseinheit D für den emotionalen Ausdruck beurteilt die Stufe jeder vorläufigen Emotion mittels der Informationen über die Pseudo-Emotionen, welche aus dem Speicher 5 für Informationen über die Pseudo-Emotionen erhalten wird und bestimmt den auszugebenden emotionalen Ausdruck auf Grundlage der vorläufigen Emotionen, deren Stufen hoch oder größer als 0 sind.
  • Der emotionale Ausdruck wird aus einer Vielzahl von Mustern des emotionalen Ausdrucks in Verbindung zu den Pseudo-Emotionen ausgewählt, welche im Voraus in einem Speicher 6 für emotionale Ausdrucksmuster gespeichert werden. Der emotionale Ausdruck beinhaltet in der Praxis Veränderungen von Gesichtsteilen wie Augen und Mund, wenn ein „Gesicht" mittels einer visuellen Ausgabevorrichtung generiert wird. Außerdem kann der emotionale Ausdruck durch Bewegung des Schwanzes oder des Haustierroboters selbst angezeigt werden. Bei oben beschriebenem Verfahren speichert der Speicher 6 für emotionale Ausdrucksmuster im Voraus Muster jedes Teils des „Gesichts" und Bewegungsmuster des Schwanzes oder des Haustierroboters selbst in Verbindung zu jeder Stufe jeder vorläufigen Emotion.
  • Das Auswahlverfahren für die Muster des emotionalen Ausdrucks in der Entscheidungseinheit D für den emotionalen Ausdruck kann einfach ein Verfahren sein, bei welchem dasjenige Muster des emotionalen Ausdrucks, welches der vorläufigen Emotion der höchsten Stufe entspricht, ausgewählt wird. Vorzugsweise wird jedoch ein Muster des Nicht-Vorhandenseins von Ausdruck (ausdruckslos) unter den Mustern der Emotionsausdrücke gebildet und wenn die Stufen aller vorläufigen Emotionen 0 betragen, wird das ausdruckslose Muster ausgewählt. Wenn die Stufen der vorläufigen Emotionen mit Ausnahme einer vorläufigen Emotion 0 betragen, wird ein Muster ausgewählt, welches dieser einen vorläufigen Emotion entspricht. Sind die Stufen mehr als einer, jedoch nicht aller vorläufiger Emotionen größer als 0, dann hat ein Muster einer vorläufigen Emotion einer höheren Stufe als die der anderen vorläufigen Emotionen Vorrang über die anderen Muster. Des weiteren wird unter den verbleibenden Mustern ein Muster einer vorläufigen Emotion einer niedrigeren Stufe als die der ersten dort ausgewählt, wo das erste Muster nicht zutrifft. Bei oben beschriebenem Verfahren werden das erste Muster und das zweite Muster miteinander verbunden, um einen kombinierten Ausdruck zu bilden. Betragen die Stufen aller vorläufiger Emotionen mehr als 0, kann das ausdruckslose Muster ausgewählt werden. Auf diese Weise können die Pseudo-Emotionen auf eine komplexe Weise angezeigt werden.
  • Die Entscheidungseinheit D für den emotionalen Ausdruck bestimmt die Muster des emotionalen Ausdrucks aus den Pseudo-Emotionen im Moment auf oben beschriebene Art, stellt die Muster als emotionales Ausdrucksverhalten ein und gibt diese an die Verhaltensplanungseinheit H aus.
  • Autonomes Verhalten erzeugende Einheit
  • 18 ist ein schematisches Flussdiagramm, welches die Prozesse in der autonomes Verhalten erzeugenden Einheit E darstellt.
  • Die autonomes Verhalten erzeugende Einheit E bestimmt jede Handlungsstufe einer Vielzahl von aufgegliederter autonomer Verhaltensweisen, welche in einem Speicher 7 für autonome Verhaltensmuster eingestellt sind, auf Grundlage jeder Stufe der Umweltinformationen, Benutzerinformationen, Informationen über Pseudo-Emotionen und Informationen über Pseudo-Persönlichkeit, um einen Vorranggrad für jede aufgegliederte autonome Verhaltensweise zu bestimmen. Bei oben beschriebenem Verfahren wird jede Umweltinformation, Benutzerinformation, Informationen über Pseudo-Emotionen und Informationen über Pseudo-Persönlichkeit in eine Vielzahl von Stufen unterteilt.
  • In diesem Ausführungsbeispiel werden die aufgegliederten Muster des autonomen Verhaltens für alle austauschbaren oder beweglichen Teile (wie Augen, Mund, Stimme, Höhe des Schwanzendes, Bewegung des Schwanzes, und Fortbewegung des Haustierroboters selbst) vorbereitet. Jede aufgegliederte autonome Verhaltensweise wird mit der Stufe jeder Information korreliert. Durch Hinzufügen oder Abziehen von Handlungsstufen von jeder aufgegliederten autonomen Verhaltensweise auf Grundlage der Stufe jeder Information, wird die Handlungsstufe jeder aufgegliederten autonomen Verhaltensweise bestimmt.
  • Neue Verhaltensmuster erzeugende Einheit
  • Sowohl der Speicher 6 für emotionale Ausdrucksmuster wie auch der Speicher 7 für autonome Verhaltensmuster, welche in der Entscheidungseinheit D für den emotionalen Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet werden, werden in der neue Verhaltensmuster erzeugenden Einheit G in geeigneten Intervallen aktualisiert.
  • 19 ist ein schematisches Flussdiagramm, welches die Prozesse in der neue Verhaltensmuster erzeugenden Einheit G zeigt, wie in 12 dargestellt.
  • Die neue Verhaltensmuster erzeugende Einheit G für beurteilt Intervalle zwischen der Erzeugung neuer Verhaltensmuster und der anschließenden Erzeugung neuer Verhaltensmuster auf Grundlage der Informationen über die Pseudo-Persönlichkeit. In der Anwendung werden z. B. die Stufen der „Emotionsschwankung" oder „Aggressivität" der Informationen über die Pseudo-Persönlichkeit mit den Intervallen der Erzeugung korreliert. Die Korrelation wird auf eine Weise vorgenommen, dass die Intervalle um so kürzer werden, je höher die Stufe der "Aggressivität" ist.
  • Die neue Verhaltensmuster erzeugende Einheit G für berechnet die Intervalle der Erzeugung neuer Verhaltensmuster und beurteilt dann, ob die Erzeugung neuer Verhaltensmuster auf Grundlage der Intervalle und zufälliger Elemente aktiviert wird. Bei einer Beurteilung über Aktivierung der Erzeugung verbindet die neue Verhaltensmuster erzeugende Einheit G für Verhaltenselemente, welche in einer Datenbank 8 für emotionale Ausdruckselemente gespeichert sind mit einer Datenbank 9 für autonome Verhaltenselemente, welche im Voraus eine Anzahl von Mustern des emotionalen Ausdrucks und in letzterem Fall Muster autonomen Verhaltens speichert, wobei neue Muster des emotionalen Ausdrucks und neue Muster autonomen Verhaltens eingestellt werden. Oben beschriebene verbindende Prozesse können zufällig oder durch Verwendung genetischer Algorithmen vorgenommen werden. In der Anwendung werden z. B. verschiedene Formen von Teilen des „Gesichts" wie Augen, verschiedene Bewegungen des Schwanzes, verschiedene Bewegungen des Haustierroboters selbst und verschiedene Ausdruckstypen im Voraus als Elemente des emotionalen Ausdrucks in eine Datenbank eingespeist. Dann können neue Ausdrucksmuster von „Ärger" unter Verwendung von in der Datenbank gespeicherten Elementen des emotionalen Ausdrucks zufällig erzeugt werden. Bei oben beschriebenem Verfahren können die Verhaltensmuster Muster des emotionalen Ausdrucks beinhalten, d. h. nur ein integrierter Speicher kann diese einzelnen Informationen speichern und Prozesse für neue Muster des emotionalen Ausdrucks und Prozesse für neue Muster autonomen Verhaltens können integriert werden.
  • Nach der Erzeugung neuer Muster des emotionalen Ausdrucks und neuer Muster autonomen Verhaltens gemäß oben beschriebenem Prozess werden diese Muster mit einer Datenbank für gesunden Menschenverstand und den Benutzerinformationen überprüft und überarbeitet, um extreme oder offensichtlich abstoßende Muster zu eliminieren. In der Anwendung werden die neuen Muster auf Grundlage der Datenbank für gesunden Menschenverstand, welche Informationen wie „wann ‚Ärger' ausgedrückt wird", „die Augenwinkel sind nicht nach unten gezogen" beinhaltet, überprüft und überarbeitet mit Bezug auf Kriterien des gesunden Menschenverstands. Des weiteren wird, wenn das mit dem Ausdruck von „Ärger" verbundene Geräusch von „laut knurren" z. B. in „leise knurren" abgeändert, wenn beim Ausdruck von „Ärger", welcher mit „Knurren" assoziiert wird, der Benutzer eine unbehagliche Reaktion zeigt. Eine Überprüfung auf Grundlage der Benutzerreaktion oder der Bewertung des Benutzers wird unter Verwendung der Benutzerinformationen vorgenommen. Eine Überprüfung auf Grundlage der Benutzerreaktion bzw. Bewertung des Benutzers wird unter Verwendung der Benutzerinformation vorgenommen.
  • Nachdem die neue Verhaltensmuster erzeugende Einheit G die neu erzeugten Muster in oben beschriebener Weise überprüft und überarbeitet hat, speichert die Einheit G die aktuell verwendeten Verhaltensmuster, welche den neu generierten Verhaltensmustern entsprechen, temporär und aktualisiert anschließend temporär die aktuellen Verhaltensmuster entsprechend den neuen Verhaltensmustern. Diese temporären neuen Verhaltensmuster werden bewertet.
  • Die Bewertung der neuen Verhaltensmuster wird hauptsächlich auf Grundlage der Benutzerbewertung in den Benutzerinformationen durchgeführt. Sind die Bewertungen der neuen Verhaltensmuster nach der Verwendung der neuen Verhaltensmuster über eine bestimmte Zeitspanne hinweg negativ, werden die gespeicherten vorherigen Verhaltensmuster wieder aufgenommen. Ist das Ergebnis der Bewertung positiv, werden die neuen Verhaltensmuster in den entsprechenden Musterinformationsspeichern 6 und 7 gespeichert.
  • befohlenes Verhalten erzeugende Einheit
  • Die befohlenes Verhalten erzeugende Einheit F erzeugt befohlenes Verhalten durch Verwendung der Informationen aus dem Speicher 3 für externe Informationen in Übereinstimmung mit dem Benutzerbefehl, welcher in der Benutzerbefehlsinformationen beinhaltet ist. In der Praxis, erzeugt die Einheit F bei diesem Ausführungsbeispiel Verhaltensinformationen auf Grundlage der Informationen aus dem Speicher für Umweltinformationen, welche die Erkennung der Lage des Balles beinhaltet, die Bewegung hin zum Objekt, das Holen des Balles und die Rückkehr zum Benutzer, wenn die Information über Benutzerbefehl lautet: (Befehl: Holen, Objekt: Ball).
  • Verhaltensplanungseinheit
  • Die Verhaltensplanungseinheit H erhält Verhaltensinformationen aus der Entscheidungseinheit D für den emotionalen Ausdruck, der autonomes Verhalten erzeugenden Einheit E, der befohlenes Verhalten erzeugenden Einheit F; stellt den Grad des Vorrangs für jede Verhaltensinformation auf Grundlage der Informationen über die Pseudo-Persönlichkeit, der Informationen über die Pseudo-Emotionen und Benutzerinformationen ein; erzeugt neuen Vorrang bezüglich der Verhaltensinformationen; verbindet jede Verhaltensinformation auf Grundlage des neuen, höchsten Vorranges der Verhaltensinformationen; und entscheidet letztlich über das endgültige auszugebende Verhalten.
  • 20 und 21 sind schematische Flussdiagramme, welche die Prozesse in der Verhaltensplanungseinheit H darstellen.
  • Die Verhaltensplanungseinheit H beurteilt zuerst, ob absolutes Verhalten erforderlich ist oder nicht. Wenn zu diesem Zeitpunkt absolutes Verhalten erforderlich ist, wird die absolute Verhaltensinformation auf Vorrang 1 eingestellt. Die absolute Verhaltensinformation beinhaltet Informationen über Verhalten, welches in einer Situation wie niedrige Batterieleistung und Stillstand auf Grund einer Kollision dringende Handlung erfordert. Die Bedingungen, welche dem absoluten Verhalten entsprechen, werden in der Verhaltensplanungseinheit H gespeichert.
  • Als Ergebnis der Beurteilung, ob absolutes Verhalten erforderlich ist oder nicht, wird ein Vorranggrad festgelegt (1 bis 3: in diesem Fall ist der Vorrang 1 hoher Vorrang), wenn kein absolutes Verhalten erforderlich ist. Dieser Vorranggrad wird für jede Verhaltensinformation auf Grundlage der Tabelle über Vorranggrade bestimmt und als neue Verhaltensinformation mit Vorrang eingestellt.
  • Die Tabelle über Vorranggrade ist eine Tabelle, welche den Vorranggrad definiert, wie in 20 dargestellt, z. B.: Ist die Pseudo-Emotion „Freude", die Pseudo-Persönlichkeit „Gehorsam" und der Benutzerstatus „Ärger", wird das befohlene Verhalten auf Vorrang 1 eingestellt, das emotionale Ausdrucksverhalten auf 2 und das autonome Verhalten auf 3. Wie oben beschrieben ist die Tabelle eine Datengruppe, in welcher ein Vorranggrad jeder Verhalteninformation für eine Kombination aller Pseudo-Emotionen, aller Pseudo-Persönlichkeiten und sämtlicher Benutzerzustände eingestellt wird. Das Verfahren zur Bestimmung des Vorranggrades ist jedoch nicht auf oben beschriebene Regeln beschränkt und beinhaltet z. B. die Methode der unscharfen Logik unter Verwendung von sogenannten Fuzzy-Regeln, welche im Voraus die Beziehung zwischen den Pseudo-Emotionen, den Pseudo-Persönlichkeiten, den Benutzerzuständen und den Vorranggraden der Verhaltensinformation definieren, wobei Zugehörigkeitsgleichungen der Verhaltensinformationen mit Bezug auf die Vorranggrade gebildet werden.
  • Nach der Einstellung der neuen Verhaltensinformation mit Vorrang werden das bereits ausgeführte Verhalten und das Verhalten, welches einer Ausführung nicht bedarf, gelöscht, und die verbleibenden Verhaltensmuster werden als unvollständige Verhaltensinformation eingestellt. Diese unvollständige Verhaltensinformation wird als wichtiger eingestellt als die zuvor benannten neuen Verhaltensinformationen mit Vorrang. Auf Grundlage der unvollständigen Verhaltensinformation und der neuen Verhaltensinformation mit Vorrang, wird die aktuelle Verhaltensinformation mit Vorrang aktualisiert. Jede Verhaltensinformation wird auf Grundlage der aktuellen Verhaltensinformation mit Vorrang verbunden.
  • 21 ist ein schematisches Flussdiagramm, welches die Prozesse von der Erzeugung jeder Verhaltensinformation auf Grundlage der aktuellen Verhaltensinformationen bis zur Einstellung des endgültig auszugebenden Verhaltens darstellt.
  • Verbundenes Verhalten wird generiert, indem eine Verhalten mit einem höheren Grad an Vorrang zuerst eingestellt wird. Das heißt, jede Verhaltensinformation besteht aus einer Vielzahl an Verhaltensweisen. In dem in 21 dargestellten Ausführungsbeispiel umfasst die Verhaltensinformation folgendes: Augen, Mund, Konversation, Fortbewegung und Information. Die Verhaltensweisen in den Verhaltensinformationen werden in der Reihenfolge ihres Vorrangs eingestellt. Ein Verhalten in der Verhaltensinformation niedrigeren Vorrangs wird nur dann eingestellt, wenn dies mit den bereits durch die Verhaltensinformationen höheren Vorrangs definierten Verhaltensweisen keine Konflikte verursacht, d. h. die Verhaltensweisen, welche durch die Verhaltensinformationen höheren Vorrangs nicht definiert werden, können mit denen in der Verhaltensinformationen niedrigeren Vorrangs aufgefüllt werden.
  • In dem in 21 dargestellten Ausführungsbeispiel wird dasjenige Verhalten zuerst eingestellt (Fortbewegung: Annäherung an Benutzer) welches durch das befohlene Verhalten höchsten Vorrangs definiert ist. Zweitens wird dasjenige Verhalten, welches durch das emotionale Ausdrucksverhalten dem Vorrang 2 definiert ist (Augen: lächelnde Augen, Mund: lächelnder Mund; Konversation: Pfeifen; Fortbewegung: Schwenken des Körpers) eingestellt. Drittens wird das Verhalten, welches durch das befohlene Verhalten des Vorrangs 3 definiert ist (Information: Anzeige der verbleibenden Batterieleistung) eingestellt. Viertens (letztens) wird dasjenige Verhalten, welches durch das autonome Verhalten des Vorrangs 4 definiert ist (Konversation: Pfeifen; Fortbewegung: Bewegung an helleren Platz) eingestellt. Wie aus obigem Beispiel ersichtlich wird, wird nur die Information über „Fortbewegung" im Verhalten des Vorrangs 1 verwendet und die Information über „Fortbewegung" im Verhalten niedrigeren Vorrangs wird nicht angenommen, obwohl die autonomen Verhaltensweisen des Vorrangs 1, 2 und 4 Informationen über „Fortbewegung" haben. Der Grund dafür, dass es bei dem oben beschriebenen Beispiel zwei befohlene Verhalten mit Bezug auf „Fortbewegung" gibt, besteht darin, dass die „befohlene Verhalteninformation" im vorherigen, unvollständigen Verhalten beibehalten wurde, d. h., der vorherigen unvollständigen Verhaltensinformation wurde Vorrang zugeschrieben.
  • Auswirkungen
  • Wie oben beschrieben ist der Haustierroboter entsprechend dieses Systems selbst mit einer Pseudo-Persönlichkeit, welche sich durch die Interaktion mit dem Benutzer entwickelt, und mit Pseudo-Emotionen ausgestattet, welche sich in Übereinstimmung mit dem Benutzerstatus, den Emotionen des Benutzers und den Umweltinformationen ändern, wobei die Pseudo-Emotionen durch die Pseudo-Persönlichkeit gesteuert werden und die Pseudo-Persönlichkeit sich in Abhängigkeit vom Benutzer ändert, d. h., die Pseudo-Persönlichkeit wird für jeden Benutzer im Einklang mit der Verwendung des Haustierroboters einzigartig gebildet. Da die Pseudo-Persönlichkeit durch die Pseudo-Emotionen ausgedrückt wird, kann sich der Benutzer am Aufziehen eines einzigartigen Haustierroboters während einer Entwicklungsperiode erfreuen, ähnlich dem Aufziehen eines Kindes. Des weiteren kann der Benutzer, etwa nach Beendigung der Entwicklungsperiode mit dem Haustierroboter eine „Freundschaft" aufbauen. Des weiteren ist der Haustierroboter so konstruiert, dass er autonomes Verhalten auf Grundlage der Pseudo-Persönlichkeit und von der Pseudo-Persönlichkeit gesteuerten Pseudo-Emotionen erzeugt. Je häufiger der Haustierroboter verwendet wird, desto mehr bildet sich dessen Persönlichkeit, wodurch es dem Haustierroboter ermöglicht wird, verschiedene Verhaltensweisen zu zeigen.
  • Da der Haustierroboter sich sowohl autonom wie befohlen verhalten kann, wird er niemals vollständig delinquent oder gehorsam sein. Verschiedene Handlungen halten das Interesse des Benutzers am Haustierroboter aufrecht. Insbesondere da die neue Verhaltensmuster erzeugende Einheit aktiviert ist, um neue Verhaltensmuster zu erzeugen (einschließlich neuer emotionaler Ausdrucksmuster), ist es nicht notwendig, im Voraus zahlreiche Verhaltensmuster in Verbindung mit der Pseudo-Persönlichkeit, den Pseudo-Emotionen und sonstigen Informationen (Benutzer- und Umweltinformationen) vorzubereiten. Das System kann auf jeden Benutzertyp schneller, natürlicher und anpassungsfähiger reagieren.
  • Technische Optionen
  • Es kann ein Roboteraufbau konstruiert werden, der für mobile Navigationsaufgaben geeignet ist, um bordeigene Audio- und Videoleistungen und eine Funkverbindung zu einem bordfremden Computer bereitzustellen. Vorhandene Techniken zum Farbabtasten zur Lokalisierung der Hände und des Kopfes des Benutzers können angepasst werden. Vorhandene Spracherkennungssoftware zur Erkennung einfacher gesprochener Befehle im Umfang von ein oder zwei Wörtern kann ebenso angepasst werden. Sämtliche Verfahren für einfache nonverbale Audioanalysen wie Intonationsanalysen zur Analyse des affektiven bzw. emotionalen Inhalts eines Befehls können angepasst werden. Vorhandene auf Datenbanken basierende reaktive Navigationsverfahren können angepasst werden, um das System mit der Fähigkeit auszustatten, in seiner Umwelt zu navigieren, ohne mit Hindernissen zu kollidieren. Hierbei können forschende Verhaltensweisen wie auch zielsuchende Verhaltensweisen kodiert werden, um die Bewegung an spezifische Ziele zu ermöglichen. Des weiteren können Fähigkeiten des „logischen Denkens" und eine Repertoire an Verhaltensweisen mittels eines geeigneten entscheidungsfindenden Algorithmus gebildet werden, welcher z. B. die Systemziele und vorrangigen Ziele, die aktuelle Umwelt oder Situation und Benutzerziele bzw. Benutzeremotion in Betracht zieht. Letztendlich kann jeder Algorithmus adaptiert werden, um das Systemverhalten in Reaktion auf unerwartete Situationen; zum Erlernen neuen Verhaltens, zum Erfassen der Umwelt und zum Erlernen der Benutzerpräferenzen anzugleichen.
  • Die Funktionsweise des Systems kann z. B. durch die Erweiterung eines verhaltensbasierten Subsystems (verantwortlich für die Interaktion des Systems mit der Umwelt auf „niedriger Stufe") durch parallel arbeitende Verarbeitungsmodule höherer Stufe (verantwortlich für die Interaktion des Systems mit der Umwelt auf „hoher Stufe") gestaltet werden.
  • Des weiteren können Korrelationen zwischen verschiedenen Informationen und Variablen unter Verwendung vorhandener Techniken wie neuronaler Netzwerke und genetischer Algorithmen im Voraus festgelegt werden, wenn die Korrelationen hoch komplex sind oder indem vorhandene Techniken wie Landkarten oder Funktionsgleichungen verwendet werden, wenn die Korrelationen eher einfacher Art sind. Diesbezüglich wird hier auf folgende Werke verwiesen: Da Ruan (Hrsg.) „Intelligent Hybrid Systems – Fuzzy Logic, Neural Networks, and Genetic Algorithms", Kluwer Academic Publishers (1997), J.-S. R. Jang, C.-T. Sun, E. Mizutani, „Neuro-Fuzzy and Soft Computing", Prentice Hall Upper Saddle River, NJ 07458 (1997), C.-T. Lin und C. S. George Lee, „Neural Fuzzy Systems" Prentice Hall Upper Saddle River, NJ 07458 (1998), und N. K. Kasabov, „Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering", The MIT Press (1996). Oben genannte Techniken können verbunden werden und für jede Technik kann eine Lernkontrolle adaptiert werden.
  • Die Erzeugung neuer Verhaltensweisen ist wichtig für das Erzielen einer hohen und schnellen Anpassungsfähigkeit, insbesondere auf Grundlage von Informationen über die den Roboter umgebenden Benutzer und der Umwelt. Diese Erzeugung wird am besten durch Verwendung genetischer Algorithmen durchgeführt. Genetische Algorithmen können angewandt werden, um schnell jegliche vorher festgelegte Beziehung, Kombination oder Vorrang zu entwickeln, wie jene in der Bildungseinheit für Pseudo-Persönlichkeit, der Bildungseinheit für Pseudo-Emotionen, der Bildungseinheit für autonomes Verhalten und der Verhaltenssteuereinheit gespeicherten Beziehungen, Kombinationen und Vorränge, um ein Objekt „aufzuziehen".
  • Die Daten über Pseudo-Persönlichkeit, z. B. mentale Informationen oder Intelligenzinformationen können auf einem separaten Speichermedium wie RAM oder CD gespeichert werden, so dass der Benutzer die Pseudo-Persönlichkeit in ein anderes Objekt einspeisen kann. Zusätzlich können die Daten mittels Kommunikationstechniken zu einem anderen Objekt übertragen werden. Unter Verwendung oben benannter Technologie kann eine Vielzahl von Pseudo-Persönlichkeiten vieler Objekte durch Überkreuzung erzeugt werden, um eine neue Pseudo-Persönlichkeit zu erzeugen. Des weiteren können die intelligenten Systemteile wie die Bildungseinheit für Pseudo-Persönlichkeit, Bildungseinheit für Pseudo-Emotion, die Bildungseinheit für autonomes Verhalten, die Bildungseinheit für befohlenes Verhalten, die Verhaltenssteuereinheit, die anderen Verarbeitungseinheiten und -speicher vom Objekt getrennt in einem Hauptcomputer gespeichert werden. Dabei wird zwischen dem Hauptcomputer und dem Objekt z. B. per Internet ein Netzwerk aufgebaut, so dass das Objekt kompakt gestaltet werden kann und über einfache Sensoren, eine Ausgabevorrichtung sowie Kommunikationsvorrichtung verfügen sollte, um mit dem Hauptcomputer zu kommunizieren.
  • Eine der Möglichkeiten das zu realisieren, besteht in einem Verhaltenssteuerungssystem mit einer Verhaltenseinheit, die programmiert ist, sich gemäß der Verhaltensparameter zu verhalten. Außerdem beinhaltet dieses System eine Eingabeeinheit, die programmiert ist, Signale auszugeben, wenn aus dem Verhalten resultierende Signale empfangen werden. Des weiteren beinhaltet das System ein abtrennbares Erinnerungsmedium zur Verknüpfung zwischen der Verhaltenseinheit und der Eingabeeinheit. Dieses Erinnerungsmedium speichert eine Verknüpfung zwischen den aus der Eingabeeinheit eingespeisten Signalen und den an die Verhaltenseinheit ausgegebenen Verhaltensparametern. Besagte Verknüpfung ist programmiert, auf Grundlage der Signale aus der Eingabeeinheit aktualisiert zu werden.
  • Besagtes Erinnerungsmedium kann in eine Persönlichkeitsbildungseinheit eingebunden werden, welche programmiert ist, eine Verknüpfung zwischen den aus der Eingabeeinheit eingespeisten Signalen und den an die Verhaltenseinheit ausgegebenen Verhaltensparametern zu bestimmen und welche programmiert ist, die Verknüpfung mittels der im Erinnerungsmedium gespeicherten Signale für die Eingabeeinheit zu aktualisieren.
  • Oben erwähntes Verhaltenssteuerungssystem kann außerdem eine emotionsbildende Einheit umfassen, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zu der persönlichkeitsbildenden Einheit bereitgestellt wird. Diese emotionsbildende Einheit ist programmiert, mittels der Signale aus der Eingabeeinheit eine Verknüpfung zwischen den aus der Eingabeeinheit eingespeisten Signalen und den zu ersten Verhaltensparametern hinzugefügten zweiten und an die Verhaltenseinheit ausgegebenen Verhaltensparametern zu bestimmen.
  • Außerdem kann dieses Verhaltenssteuerungssystem eine neues Verhalten erzeugende Einheit beinhalten, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zum Erinnerungsmedium bereitgestellt wird. Diese neues Verhalten erzeugende Einheit ist programmiert, neue Verhaltensmuster zufällig oder mittels vorher festgelegten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit auszugeben.
  • Oben erwähntes Netzwerk kann ein Netzwerk mit einer Vielzahl an autonomen Vorrichtungen sein, von denen sich jede an einen Benutzer anpassungsfähig verhält. Dieses Netzwerk umfasst eine Erfassungseinheit, welche vorher ausgewählte Signale der vom Benutzer verwendeten autonomen Vorrichtung erfasst. Außerdem beinhaltet das System eine Verhaltenseinheit, die programmiert ist, sich auf Grundlage der Verhaltensparameter zu verhalten. Des weiteren wird eine Eingabeeinheit bereitgestellt, welche programmiert ist, Signale auszugeben, wenn sie Signale durch die Erfassungseinheit empfängt, die aus dem Verhalten resultieren und Signalen, welche vom Netzwerk bereitgestellt werden. Zusätzlich wird eine Bildungseinheit für Verhaltensparameter zwischen der Verhaltenseinheit und der Eingabeeinheit bereitgestellt. Diese Bildungseinheit für Verhaltensparameter umfasst einen Speicher, welcher eine Verknüpfung zwischen aus der Eingabeeinheit eingespeisten Signalen und den von der Verhaltenseinheit ausgegebenen Verhaltensparametern speichert. Außerdem ist diese Bildungseinheit für Verhaltensparameter programmiert, besagte Verknüpfung mittels der aus der Eingabeeinheit erhaltenen Signale zu aktualisieren, wobei jede Vorrichtung mit der anderen durch ein Netzwerk verbunden ist.
  • In diesem Netzwerk umfasst jede Vorrichtung weiterhin eine emotionsbildende Einheit, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zur Bildungseinheit für Verhaltensparameter bereitgestellt wird. Diese emotionsbildende Einheit ist programmiert, mittels der Signale aus der Eingabeeinheit eine Verknüpfung zwischen den aus der Eingabeeinheit eingespeisten Signalen und den zu ersten Verhaltensparametern hinzugefügten zweiten und an die Verhaltenseinheit ausgegebenen Verhaltensparametern zu bestimmen.
  • Außerdem umfasst jede Vorrichtung eine neues Verhalten erzeugende Einheit, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zur Bildungseinheit für Verhaltensparameter bereitgestellt wird. Diese neues Verhalten erzeugende Einheit ist programmiert, neue Verhaltensmuster zufällig oder mittels vorher festgelegten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit auszugeben.
  • Ein weiteres mögliches Netzwerk kann ein Netzwerk mit einer Vielzahl an autonomen Vorrichtungen sein, von denen sich jede an einen Benutzer anpassungsfähig verhält. Dieses Netzwerk umfasst eine Erfassungseinheit, welche vorher ausgewählte Signale der vom Benutzer verwendeten autonomen Vorrichtung erfasst. Außerdem beinhaltet das System eine Verhaltenseinheit, die programmiert ist, sich auf Grundlage der Verhaltensparameter zu verhalten. Des weiteren wird eine Eingabeeinheit bereitgestellt, welche programmiert ist, Signale auszugeben, wenn sie Signale durch die Erfassungseinheit empfängt, die aus dem Verhalten resultieren und Signalen, welche vom Netzwerk bereitgestellt werden. Des weiteren wird eine Verhaltenseinheit bereitgestellt, welche programmiert ist, sich auf der Grundlage der Verhaltensparameter zu verhalten und eine Eingabeeinheit, welche programmiert ist, Signale auszugeben, wenn sie Signale durch die Erfassungseinheit empfängt, die aus dem Verhalten resultieren und Signalen, welche vom Netzwerk bereitgestellt werden.
  • Besagtes Netzwerk umfasst außerdem einen Hauptcomputer, welcher jede Vorrichtung mittels des Netzwerkes miteinander verbindet. Dieser Computer umfasst eine Bildungseinheit für Verhaltensparameter, welche zwischen der Verhaltenseinheit und der Eingabeeinheit jeder Vorrichtung durch das Netzwerk bereitgestellt wird. Außerdem umfasst besagte Bildungseinheit für Verhaltensparameter einen Speicher, welcher eine Verknüpfung zwischen aus der Eingabeeinheit eingespeisten Signalen und den von der Verhaltenseinheit jeder Vorrichtung ausgegebenen Verhaltensparametern speichert. Diese Bildungseinheit für Verhaltensparameter ist programmiert, besagte Verknüpfung jeder Vorrichtung mittels der Signale aus der Eingabeeinheit zu aktualisieren, wobei besagter Computer die Signale aus der Erfassungseinheit oder der Eingabeeinheit erhält.
  • Besagter Computer kann des weiteren eine emotionsbildende Einheit umfassen, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zur Bildungseinheit für Verhaltensparameter jeder Vorrichtung durch das Netzwerk bereitgestellt wird. Diese emotionsbildende Einheit ist programmiert, mittels der Signale aus der Eingabeeinheit jeder Vorrichtung eine Verknüpfung zwischen den aus der Eingabeeinheit eingespeisten Signalen und den zu ersten Verhaltensparametern hinzugefügten zweiten und an die Verhaltenseinheit jeder Vorrichtung ausgegebenen Verhaltensparametern zu bestimmen.
  • Außerdem kann dieser Computer eine neues Verhalten erzeugende Einheit beinhalten, welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zur Bildungseinheit für Verhaltensparameter jeder Vorrichtung bereitgestellt wird. Diese neues Verhalten erzeugende Einheit ist programmiert, neue Verhaltensmuster zufällig oder mittels vorher festgelegten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit jeder Vorrichtung auszugeben.
  • Andere Anwendungen
  • Das zu steuernde Objekt der vorliegenden Erfindung erfährt keine Beschränkung. Sämtliche Objekte, welche mit dem Benutzer interagieren und welche nicht nur vorgeschriebenes (befohlenes) Verhalten sondern auch autonomes Verhalten zum Vorteil des Benutzers ausgeben können, wie in dem ersten und zweiten Ausführungsbeispiel, wie ein Motor in einem Motorrad oder einem Auto, eine bordeigener Motor eines Schiffes, ein Industrieroboter zur Werkzeugfertigung, ein Roboter als Kommunikationspartner, ein Musikinstrument, ein in elektrischen Fahrzeugen betriebener Motor, ein Musikinstrument wie ein Keyboard, ein System zur Forschungsunterstützung, Haushaltsgeräte wie Herde oder ähnliches können durch die Einführung des Steuersystems der vorliegenden Erfindung auf Grundlage der selben Prinzipien der zuvor benannten Ausführungsform gesteuert werden. Im Übrigen können die externen Informationen oder Umweltinformation weggelassen werden, wenn das Objekt unter eingeschränkten Umständen eingesetzt wird oder wenn die externen bzw. Umweltinformationen nicht zum Umsetzen des Benutzerbefehls beitragen können oder der Benutzer dies nicht wünscht.
  • Wird vorliegende Erfindung auf ein zu steuernde Objekt in einem anderen Bereich oder zu einem anderen Zweck eingesetzt, kann das zu steuernde Objekt durch Abänderung der Informationen gesteuert werden, wie in oben beschriebenen Ausführungsbeispielen. In jedem Fall ist das zu steuernde Objekt entsprechend vorliegender Erfindung und auf welche vorliegende Erfindung angepasst ist, wahrscheinlich mit Scheinintelligenz ausgestattet.

Claims (26)

  1. Autonome Vorrichtung, die sich an einen Benutzer angepasst verhält, mit: (i) einer Erkennungseinheit, programmiert um einen benutzerbezogenen Status zu erkennen: (ii) einer emotionsbildenden Einheit, programmiert um Emotionen zu bilden, zusammengesetzt aus vorausgewählten Emotionselementen, wenn Signale des benutzerbezogenen Status und der Persönlichkeit auf der Grundlage einer vorbestimmten Beziehung zwischen den vorausgewählten Emotionselementen, dem benutzerbezogenen Status und der Persönlichkeit empfangen werden; (iii) einer autonomes Verhalten etablierenden Einheit, programmiert um ein Muster von selbständig regulierendem Verhalten auszuwählen, zusammengesetzt aus vorausgewählten Elementen, wenn Signale des benutzerbezogenen Status, der Persönlichkeit und der Emotionen auf der Grundlage einer vorbestimmten Beziehung zwischen Verhaltensmustern, dem benutzerbezogenen Status, der Persönlichkeit und den Emotionen empfangen werden; gekennzeichnet außerdem durch: (iv) eine persönlichkeitsbildende Einheit, programmiert um Personalität zu bilden, zusammengesetzt aus vorausgewählten Persönlichkeitselementen, wenn Signale des benutzerbezogenen Status, gesammelt für eine bestimmte Zeitdauer gesammelt werden, auf der Grundlage einer vorbestimmten Beziehung zwischen den vorausgewählten Persönlichkeitselementen und dem benutzerbezogenen Status; und (v) eine ein neues Verhaltensmuster erzeugende Einheit, programmiert um neue Verhaltensmuster durch zufälliges oder nach bestimmten Regeln erfolgendes Auswählen und Kombinieren der Musterelemente zu erzeugen, wobei die neuen Muster die vorhergehenden Muster unter vorbestimmten Bedingungen ersetzen.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Erkennungseinheit außerdem den Benutzerbefehl erkennt, der nicht in dem benutzerbezogenen Status enthalten sind und die Vorrichtung außerdem aufweist: eine ein befohlenes Verhaltensmuster etablierende Einheit, programmiert um ein Muster von befohlenem Verhalten auszuwählen, wenn Signale des Befehlswertes empfangen werden; und eine Verhaltenssteuereinheit, programmiert um das Verhalten durch Kombinieren des ausgewählten Musters von autonomen Verhalten und des ausgewählten Musters von befohlenem Verhalten zu steuern, auf der Grundlage einer vorbestimmten Vorrangsreihenfolge.
  3. Vorrichtung nach Anspruch 1 oder 2, gekennzeichnet außerdem durch: eine Erfassungseinheit, die Signale von dem Benutzer erfasst; einen ersten Speicher, der den erkannten benutzerbezogenen Status und/oder den erkannten Befehl speichert und aktualisiert; und einen zweiten Speicher, der die gebildete Personalität speichert und aktualisiert, wobei das Aktualisieren unter vorbestimmten Bedingungen stattfindet.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die ein neues Verhaltensmuster erzeugende Einheit eine Datenbasis hat, die einen Pool von Elementen der Muster von autonomen Verhalten speichert.
  5. Vorrichtung nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass: die Erfassungseinheit außerdem vorbestimmte nicht-benutzerbezogen Signale erfasst, die zur Vervollständigung des Befehls von Bedeutung, aber kein Teil des Befehls sind; die Erkennungseinheit außerdem einen nicht auf den aktuellen Benutzer bezogenen Status auf der Grundlage der erkannten, vorbestimmten Signale erkennt; der erste Speicher außerdem speichert und aktualisiert den erkannten, nicht auf den Benutzer bezogenen Status; die Pseudo-Emotionen-Bildungseinheit jedes Element der vorbestimmten Pseudo-Emotion-Elemente außerdem auf der Grundlage des nicht auf den Benutzer bezogenen Status zusätzlich zu dem benutzerbezogenen Status, gespeichert in dem ersten Speicher, und der Pseudo-Persönlichkeit, gespeichert in dem zweiten Speicher, um Pseudo-Emotionen zu bilden, etabliert; die vorbestimmte Beziehung, gespeichert in dem Speicher der Pseudo-Emotion-Bildungseinheit, außerdem den nicht auf den Benutzer bezogenen Status enthält, um die Beziehung zwischen den vorbestimmten Pseudo-Emotion-Elementen, den auf den Benutzer bezogenen Status, den nicht auf den Benutzer bezogenen Status und der Pseudo-Personalität zu bilden; die autonomes Verhalten etablierende Einheit ein Muster von autonomen Verhalten auswählt, außerdem zusätzlich zu dem auf den Benutzer bezogenen Status auf der Grundlage des nicht auf den Benutzer bezogenen Status, zusätzlich den auf den Benutzer bezogenen Status der Pseudo-Personalität und den Pseudo-Emotionen auswählt; und die vorbestimmte Beziehung, gespeichert in dem Speicher der autonomen verhaltensbildenden Einheit außerdem den nicht auf den Benutzer bezogenen Status enthält, um eine Beziehung zwischen den Mustern des autonomen Verhalten, des benutzerbezogenen Status, des nicht auf den Benutzer bezogenen Status, der Pseudo-Personalität und den Pseudo-Emotionen zu bilden.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die neue Verhaltensmuster-Erzeugungseinheit mit der Pseudo-Personalitäts-Bildungseinheit verbunden ist, wobei die neue Verhaltensmuster-Erzeugungseinheit in Abständen abgestimmt mit der gebildeten Pseudo-Personalität aktiviert wird.
  7. Vorrichtung nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet durch weiter aufweisend einen dritten Speicher, der die durch die Pseudo-Emotionen-Bildungseinheit gebildete Pseudo-Emotion speichert und aktualisiert, wobei der dritte Speicher mit der Verhaltenssteuereinheit verbunden ist, wobei der zweite Speicher außerdem mit der Verhaltenssteuereinheit verbunden ist, wobei die Pseudo-Emotion, gespeichert in dem dritten Speicher und die Pseudo-Personalität, gespeichert in dem zweiten Speicher, als Parameter der vorbestimmten Vorrangsreihenfolge, vorgesehen in der Verhaltenssteuereinheit, verwendet werden.
  8. Vorrichtung nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass der erste Speicher außerdem mit der Verhaltenssteuereinheit verbunden ist, wobei der benutzerbezogene Status, gespeichert in dem ersten Speicher, die Pseudo-Personalität, gespeichert in dem zweiten Speicher, und die Pseudo-Emotion, gespeichert in dem dritten Speicher, als Parameter der vorbestimmten Vorrangsreihenfolge, vorgesehen in der Verhaltenssteuereinheit, verwendet werden.
  9. Vorrichtung nach einem der Ansprüche 1 bis 8, gekennzeichnet außerdem durch: eine Verhaltenseinheit, programmiert um sich auf der Grundlage von Verhaltensparametern zu verhalten: eine Eingabeeinheit, programmiert um Signale auszugeben, wenn Signale erhalten werden, die aus dem Verhalten resultieren; und ein Speichermedium, das zwischen der Verhaltenseinheit und der Eingabeeinheit verbindbar und davon lösbar ist, wobei das Speichermedium eine Beziehung speichert zwischen den Signalen, eingegeben von der Eingabeeinheit, und von Verhaltensparametern, ausgegeben an die Verhaltenseinheit, wobei die Beziehung programmiert ist, auf der Grundlage der Signale von der Eingabeeinheit aktualisiert zu werden.
  10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass das Speichermedium in der Personalität-bildenden Einheit enthalten ist, das programmiert ist, eine Beziehung zwischen Signalen, eingegeben von der Eingabeeinheit, und Verhaltensparametern, ausgegeben an die Verhaltenseinheit, zu bestimmen und das programmiert ist eine Beziehung auf der Grundlage der Signale von der Eingabeeinheit, gespeichert in dem Speichermedium, zu aktualisieren.
  11. Vorrichtung nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Emotionen bildende Einheit zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zu der Personalität bildenden Einheit vorgesehen ist, wobei die Emotionen bildende Einheit programmiert ist, eine Beziehung zwischen Signalen, eingegeben von der Eingabeeinheit, und zweiten Verhaltensparametern, addiert zu den ersten Verhaltensparametern und ausgegeben an die Verhaltenseinheit auf der Grundlage von den Signalen von der Eingabeeinheit zu bestimmen.
  12. Vorrichtung nach einem der Ansprüche 9 bis 11, außerdem mit einer ein neues Verhalten erzeugende Einheit, vorgesehen zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zu dem Speichermedium, wobei die neue Verhalten erzeugende Einheit programmiert ist, neue Muster vom Verhalten per Zufall oder unter vorbestimmten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit auszugeben.
  13. Netzwerk aus einer Mehrzahl von autonomen Vorrichtungen nach einem der Ansprüche 1 bis 12, von denen sich jede angepasst an einen Benutzer verhält, die gekennzeichnet durch: eine Erfassungseinheit, die vorausgewählte Signale von einem Benutzer, der die autonome Vorrichtung verwendet, erfasst; eine Verhaltenseinheit, programmiert um sich auf der Grundlage von Verhaltensparametern zu verhalten; einer Eingabeeinheit, programmiert, um Signale auszugeben, wenn Signale durch die Erkennungseinheit empfangen werden, die aus dem Verhalten und Signalen, geschaffen durch das Netzwerk, resultieren; und eine Verhaltens-parameter-Bildungseinheit, vorgesehen zwischen der Verhaltenseinheit und der Eingabeeinheit, wobei die Verhaltens-parameter-Bildungseinheit einen Speicher aufweist, der eine Beziehung zwischen Signalen, eingegeben von der Eingabeeinheit, und Verhaltensparametern, ausgegeben an die Verhaltenseinheit, speichert, wobei die Verhaltens-parameter-Bildungseinheit programmiert ist, die Beziehung auf der Grundlage der Signale von der Eingabeeinheit zu aktualisieren, wobei jede Vorrichtung untereinander mit anderen Vorrichtungen durch das Netzwerk verbunden ist.
  14. Netzwerk nach Anspruch 13, dadurch gekennzeichnet, dass jede Vorrichtung außerdem eine emotionsbildende Einheit aufweist, vorgesehen zwischen der Eingabeeinheit und der Verhaltenseinheit, parallel zu der Verhaltens-parameter-Bildungseinheit, wobei die emotionsbildende Einheit programmiert ist eine Beziehung zwischen Signalen zu bestimmen, eingegeben von der Eingabeeinheit und zweiten Verhaltensparametern, addiert zu den ersten Verhaltensparametern und an die Verhaltenseinheit auf der Grundlage der Signale von der Eingabeeinheit ausgegeben.
  15. Netzwerk nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass jede Vorrichtung außerdem eine neues Verhalten-erzeugende Einheit zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zu der Verhaltens-parameter-Bildungseinheit aufweist, wobei die neues Verhalten erzeugende Einheit program miert ist, neue Muster des Verhaltens per Zufall oder unter vorbestimmten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit auszugeben.
  16. Netzwerk aus einer Mehrzahl von autonomen Vorrichtungen nach einem der Ansprüche 1 bis 12, von denen sich jede an einen Benutzer angepasst verhält, die aufweist, gekennzeichnet durch: eine Erfassungseinheit, die vorausgewählte Signale von einem Benutzer erfasst, der die autonome Vorrichtung verwendet; eine Verhaltenseinheit, programmiert, sich auf der Grundlage von Verhaltensparametern zu verhalten und eine Eingabeeinheit, programmiert um Signale auszugeben, wenn Signale durch die Erfassungseinheit erfasst werden, die aus dem Verhalten und Signalen, geschaffen durch das Netzwerk, resultieren; wobei das Netzwerk außerdem einen Hauptrechner aufweist, der jede Vorrichtung durch das Netzwerk verbindet, wobei der Rechner mit einer Verhaltens-parameter-Bildungseinheit, vorgesehen zwischen der Verhaltenseinheit und der Eingabeeinheit jeder Vorrichtung durch das Netzwerk verbunden ist, die Verhaltensparameter-Bildungseinheit einen Speicher aufweist, der eine Beziehung zwischen Signalen, eingegeben von der Eingabeeinheit, und Verhaltensparametern, ausgegeben an die Verhaltensmustereinheit jeder Vorrichtung, speichert, wobei die Verhaltensparameter-Bildungseinheit programmiert ist, die Beziehung jeder Vorrichtung auf der Grundlage von den Signalen von der Eingabeeinheit zu aktualisieren, wobei der Rechner die Signale von der Erfassungseinheit oder der Eingabeeinheit empfängt.
  17. Netzwerk nach Anspruch 16, dadurch gekennzeichnet, dass der Rechner außerdem eine emotionsbildende Einheit aufweist, vorgesehen zwischen der Eingabeeinheit und der Verhaltenseinheit, parallel zu der Verhaltensparameter-Bildungseinheit jeder Vorrichtung durch das Netzwerk, die emotionsbildende Einheit programmiert ist, um ein Verhältnis zu bestimmen zwischen den Signalen, eingegeben von der Eingabeeinheit und zweiten Verhaltensparametern, addiert zu den ersten Verhaltensparametern und ausgegeben zu der Verhaltenseinheit jeder Vorrichtung auf der Grundlage der Signale von der Eingabeeinheit jeder Vorrichtung.
  18. Netzwerk nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass der Rechner außerdem eines neues Verhalten erzeugende Einheit aufweist, vorgesehen zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zu der Verhaltensparameter-Erzeugungseinheit jeder Vorrichtung, wobei die neue Verhaltensmuster-Erzeugungseinheit programmiert ist, neue Muster vom Verhalten per Zufall oder unter vorbestimmten Regeln zu erzeugen und die neuen Muster an die Verhaltenseinheit jeder Vorrichtung auszugeben.
  19. Verfahren zum Anpassen des Verhaltens einer Vorrichtung an die Eigenschaften eines Benutzers, mit den Schritten von: (b) Erkennen des benutzerbezogenen Status; (c) Erzeugen von Emotionen, zusammengesetzt aus vorausgewählten Emotionselementen, basierend auf empfangenem benutzerbezogenen Status und der Personalität, bestehend auf einer vorbestimmten Beziehung zwischen den vorausgewählten Emotionselementen, dem benutzerbezogenen Status und der Personalität; (d) Auswählen eines Musters von autonomen Verhalten, zusammengesetzt aus vorausgewählten Elementen auf der Grundlage von benutzerbezogenen Status, der Persönlichkeit und den Emotionen auf der Grundlage einer vorbestimmten Beziehung zwischen Mustern des autonomen Verhalten des benutzerbezogenen Status, der Persönlichkeit und den Emotionen; gekennzeichnet durch außerdem die Schritte: (d) Erzeugen einer Persönlichkeit, zusammengesetzt aus vorausgewählten Persönlichkeitselementen auf der Grundlage von empfangenem benutzerbezogenen Status, aufgesammelt für eine vorbestimmte Zeitdauer auf der Grundlage einer vorbestimmten Beziehung zwischen den vorausgewählten Persönlichkeitselementen und dem benutzerbezogenen Status; (e) Erzeugen neuer Muster des autonomen Verhalten durch Auswählen und Kombinieren von Elementen von Mustern per Zufall oder unter vorbestimmten Regeln, wobei die neuen Muster die vorhergehenden Muster unter vorbestimmten Bedingungen überschreiben.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, dass außerdem in dem Schritt (b) der Befehl von dem Benutzer, der nicht in dem benutzerbezogenen Status enthalten ist, erkannt wird; und durch, außerdem die Schritte: (j) Auswählen eines Musters von befohlenem Verhalten in Übereinstimmung mit den empfangenen, erkannten Benutzerbefehl; und (k) Steuern des Verhaltens durch Kombinieren des ausgewählten Musters von autonomen und des ausgewählten Musters von befohlenem Verhalten auf der Grundlage der vorbestimmten Vorrangsreihenfolge.
  21. Verfahren nach Anspruch 19 oder 20, gekennzeichnet dadurch, außerdem die Schritte aufweisend von: (a) Erfassen der Signale von dem Benutzer; (b) Speichern und Aktualisieren des erkannten benutzerbezogenen Status und/oder des erkannten Befehls; und (e) Speichern und Aktualisieren der gebildeten Personalität, wobei das Aktualisieren unter vorbestimmten Bedingungen stattfindet.
  22. Verfahren nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass in dem Schritt (h) ein Pool von Elementen von Mustern von autonomen Verhalten unter Verwendung einer Datenbank gespeichert wird.
  23. Verfahren nach Anspruch 21 oder 22, gekennzeichnet dadurch, außerdem: im Schritt (a), Erfassen vorbestimmter nicht benutzerbezogenen Signale, die für die Ausführung des Befehls von Bedeutung, aber kein Teil des Befehls sind; im Schritt (b), Erkennen eines aktuellen, nicht-benutzerbezogenen Status auf der Grundlage der erfassten vorbestimmten Signale; im Schritt (c), Speichern und Aktualisieren des erkannten, nicht benutzerbezogenen Status; im Schritt (d), Etablieren jedes Elementes von vorbestimmten Pseudo-Emotionselementen außerdem auf der Grundlage des nicht benutzerbezogenen Status zusätzlich zu dem benutzerbezogenen Status, gespeichert im Schritt (c), und der Pseudo-Personalität, gespeichert in dem Schritt (e), um Pseudo-Emotionen zu bilden, wobei die vorbestimmte Beziehung, gespeichert in dem Speicher, außerdem den nicht-benutzerbezogenen Status enthält, um eine Beziehung zwischen den vorbestimmten Pseudo-Emotionselementen, dem benutzerbezogenen Status, dem nicht-benutzerbezogenen Status und der Pseudo-Personalität zu bilden; in dem Schritt (g), Wählen eines Musters von autonomen Verhalten auf der Grundlage außerdem des nicht-benutzerbezogenen Status zusätzlich zu dem auf den benutzerbezogenen Status, der Pseudo-Personalität und der Pseudo-Emotionen, wobei die vorbestimmte Beziehung, gespeichert in dem Speicher, außer dem den auf den nicht-benutzerbezogenen Status enthält, um eine Beziehung zwischen Mustern von autonomen Verhalten, dem benutzerbezogenen Status, dem nicht-benutzer bezogenen Status, der Pseudo-Personalität und den Pseudo-Emotionen zu bilden.
  24. Verfahren nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass der Schritt (h) in Abständen, in Korrelation mit der gebildeten Pseudo-Personalität aktiviert wird.
  25. Verfahren nach einem der Ansprüche 19 bis 24, gekennzeichnet dadurch, außerdem die Schritte des Speicherns und des Aktualisierens der in dem Schritt (f) gebildeten Pseudo-Emotion, wobei die gespeicherte und auf den neuesten Stand gebrachte Pseudo-Emotion und Pseudo-Persönlichkeit, gespeichert in dem Schritt (e), als Parameter der vorbestimmten Vorrangsreihenfolge, vorgesehen in dem Schritt (k), verwendet werden.
  26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass der benutzerbezogene Status in dem Schritt (c), die Pseudo-Persönlichkeit, gespeichert in dem Schritt (e), und die gespeicherte und aktualisierte Pseudo-Emotion als Parameter der vorbestimmten Vorrangsreihenfolge in dem Schritt (k) verwendet werden.
DE69921563T 1998-08-06 1999-08-06 System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt Expired - Fee Related DE69921563T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US130212 1998-08-06
US09/130,212 US6249780B1 (en) 1998-08-06 1998-08-06 Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object

Publications (2)

Publication Number Publication Date
DE69921563D1 DE69921563D1 (de) 2004-12-09
DE69921563T2 true DE69921563T2 (de) 2005-03-24

Family

ID=22443599

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69921563T Expired - Fee Related DE69921563T2 (de) 1998-08-06 1999-08-06 System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt

Country Status (3)

Country Link
US (2) US6249780B1 (de)
EP (1) EP0978770B1 (de)
DE (1) DE69921563T2 (de)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
US7089218B1 (en) 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
KR100721075B1 (ko) * 1998-09-10 2007-05-23 소니 가부시끼 가이샤 로봇 장치, 로봇 장치의 제어 방법, 표시 방법 및 컴퓨터로 판독 가능한 기록 매체
KR20010052699A (ko) * 1998-11-30 2001-06-25 이데이 노부유끼 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
US6473851B1 (en) * 1999-03-11 2002-10-29 Mark E Plutowski System for combining plurality of input control policies to provide a compositional output control policy
JP2000276206A (ja) * 1999-03-24 2000-10-06 Yamaha Motor Co Ltd 総合特性最適化方法及び装置
CN1205002C (zh) * 1999-05-10 2005-06-08 索尼公司 机器人装置及其控制方法
WO2000067961A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Robot et commande de ce robot
JP4573422B2 (ja) 1999-11-30 2010-11-04 シャープ株式会社 データ通信装置、データ通信システムおよびデータ通信方法を実現するプログラムを記録した機械読取可能な記録媒体
US6526395B1 (en) * 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002163005A (ja) * 2000-11-29 2002-06-07 Nikon Corp 制御系の設計方法、制御系、制御系の調整方法及び露光方法
WO2002067194A2 (en) * 2001-02-20 2002-08-29 I & A Research Inc. System for modeling and simulating emotion states
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2003072488A (ja) * 2001-08-31 2003-03-12 Sony Corp 車載装置、車両及び車両情報の処理方法
US7747549B2 (en) * 2001-09-25 2010-06-29 Rikan Long-term memory neural network modeling memory-chaining functions of the brain wherein a pointer holds information about mutually related neurons and neurons are classified hierarchically by degree of activation
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US8655804B2 (en) 2002-02-07 2014-02-18 Next Stage Evolution, Llc System and method for determining a characteristic of an individual
US7327505B2 (en) * 2002-02-19 2008-02-05 Eastman Kodak Company Method for providing affective information in an imaging system
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
US20040014014A1 (en) * 2002-03-22 2004-01-22 Soneticom, Inc. System and method for persuading a desired personal behavior
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP2004237022A (ja) * 2002-12-11 2004-08-26 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
EP1629359A4 (de) * 2003-04-07 2008-01-09 Sevenecho Llc Verfahren, system und software für erzählerische personalisierung digitaler medien
US7013005B2 (en) * 2004-02-11 2006-03-14 Hewlett-Packard Development Company, L.P. System and method for prioritizing contacts
CN1934581A (zh) * 2004-03-26 2007-03-21 A.G.I.株式会社 意念表达模型设备,心理效应程序,和意念表达模拟方法
GB0407260D0 (en) * 2004-03-31 2004-05-05 Ibm Accelerated solution of constraint satisfaction problems by partioning of the variable space
JP2005339237A (ja) * 2004-05-27 2005-12-08 Aruze Corp アプリケーション利用補助システム
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US20060248461A1 (en) * 2005-04-29 2006-11-02 Omron Corporation Socially intelligent agent software
US7944448B2 (en) * 2005-06-14 2011-05-17 Omron Corporation Apparatus and method for socially intelligent virtual entity
JP4456561B2 (ja) 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
US7814048B2 (en) * 2006-08-14 2010-10-12 Microsoft Corporation Knowledge extraction from online discussion forums
US7644060B2 (en) * 2006-11-06 2010-01-05 Kadri Faisal L Artificial psychology dialog player with aging simulation
TWI365416B (en) * 2007-02-16 2012-06-01 Ind Tech Res Inst Method of emotion recognition and learning new identification information
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine
US20080274812A1 (en) * 2007-05-02 2008-11-06 Inventec Corporation System of electronic pet capable of reflecting habits of user and method therefor and recording medium
WO2009031486A1 (ja) * 2007-09-06 2009-03-12 Olympus Corporation ロボット制御システム、ロボット、プログラム及び情報記憶媒体
US8442832B2 (en) * 2008-12-08 2013-05-14 Electronics And Telecommunications Research Institute Apparatus for context awareness and method using the same
US8262474B2 (en) * 2009-04-21 2012-09-11 Mcmain Michael Parker Method and device for controlling player character dialog in a video game located on a computer-readable storage medium
KR20110002757A (ko) * 2009-07-02 2011-01-10 삼성전자주식회사 감성 모델 장치, 감성 모델의 성향 학습 장치 및 방법
EP2296071A1 (de) * 2009-08-18 2011-03-16 Deere & Company Modulares und skalierbares Positionierungs- und Navigationssystem
KR101678018B1 (ko) 2010-01-22 2016-11-22 삼성전자주식회사 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
TWI413375B (zh) * 2010-03-04 2013-10-21 Gemtek Technology Co Ltd 路由裝置及相關的控制電路
US10157342B1 (en) * 2010-07-11 2018-12-18 Nam Kim Systems and methods for transforming sensory input into actions by a machine having self-awareness
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
KR101901417B1 (ko) * 2011-08-29 2018-09-27 한국전자통신연구원 감성기반 안전운전 자동차 서비스 시스템, 안전운전 서비스를 위한 감성인지 처리 장치 및 안전운전 서비스 장치, 감성기반 차량용 안전운전 서비스 방법
JP6047915B2 (ja) * 2012-05-01 2016-12-21 ソニー株式会社 エネルギー管理装置およびエネルギー管理方法
US8447419B1 (en) * 2012-05-02 2013-05-21 Ether Dynamics Corporation Pseudo-genetic meta-knowledge artificial intelligence systems and methods
US9141600B2 (en) * 2012-07-12 2015-09-22 Insite Innovations And Properties B.V. Computer arrangement for and computer implemented method of detecting polarity in a message
US10207405B2 (en) * 2014-03-31 2019-02-19 Christopher Deane Shaw Methods for spontaneously generating behavior in two and three-dimensional images and mechanical robots, and of linking this behavior to that of human users
KR20160004851A (ko) * 2014-07-04 2016-01-13 지유철 단말기로부터 제공되는 사용자의 상태정보를 활용하는 제어스테이션 및 이를 포함하는 제어시스템
US11036230B1 (en) * 2016-03-03 2021-06-15 AI Incorporated Method for developing navigation plan in a robotic floor-cleaning device
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN107515900B (zh) * 2017-07-24 2020-10-30 宗晖(上海)机器人有限公司 智能机器人及其事件备忘系统和方法
US20190111565A1 (en) * 2017-10-17 2019-04-18 True Systems, LLC Robot trainer
US20210197393A1 (en) * 2017-12-22 2021-07-01 Sony Corporation Information processing device, information processing method, and program
US10987594B2 (en) 2019-02-25 2021-04-27 Disney Enterprises, Inc. Systems and methods to elicit physical activity in users acting as caretakers of physical objects
US11076276B1 (en) 2020-03-13 2021-07-27 Disney Enterprises, Inc. Systems and methods to provide wireless communication between computing platforms and articles
CN111416809B (zh) * 2020-03-13 2022-09-30 国网河北省电力有限公司信息通信分公司 一种基于击键识别的持续性认证方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US5911581A (en) * 1995-02-21 1999-06-15 Braintainment Resources, Inc. Interactive computer program for measuring and analyzing mental ability
US5676551A (en) * 1995-09-27 1997-10-14 All Of The Above Inc. Method and apparatus for emotional modulation of a Human personality within the context of an interpersonal relationship
US5833437A (en) 1996-07-02 1998-11-10 Shurflo Pump Manufacturing Co. Bilge pump
EP0919031A4 (de) * 1996-08-02 2006-05-24 Univ New York Verfahren und system zur steuerung interaktiv animierter akteure
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface

Also Published As

Publication number Publication date
US6249780B1 (en) 2001-06-19
EP0978770A2 (de) 2000-02-09
US20020062297A1 (en) 2002-05-23
DE69921563D1 (de) 2004-12-09
EP0978770A3 (de) 2001-11-07
US6901390B2 (en) 2005-05-31
EP0978770B1 (de) 2004-11-03

Similar Documents

Publication Publication Date Title
DE69921563T2 (de) System und Methode zur Steuerung von Objekten durch Simulation von Gefühlen und Persönlichkeit im Objekt
US6430523B1 (en) Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
DE102018001342A1 (de) Verfahren und System zum Unterstützen des Fahrens eines Fahrzeugs und Computerprogrammprodukt
DE10045117C2 (de) Verfahren und Vorrichtung zur Echtzeit-Geometriesteuerung
US6594649B2 (en) Interactive artificial intelligence
WO2017167801A1 (de) Fahrerassistenzsystem zum unterstützen eines fahrers beim führen eines fahrzeugs
DE112017006567T5 (de) Autonomes fahrzeug mit fahrerausbildung
US6604091B2 (en) Interactive artificial intelligence
DE102018001365A1 (de) Fahrzeugfahrassistenzsystem, Verfahren zum Betreiben eines Fahrzeugfahrassistenzsystems und Computerprogrammprodukt
DE112017002606T5 (de) Autonom handelnder Roboter, der Kleidung trägt
CN110070188A (zh) 一种融合交互式强化学习的增量式认知发育系统及方法
DE102018001373A1 (de) Fahrzeugfahrassistenzsystem, Verfahren zum Steuern eines Fahrzeugfahrassistenzsystems und Computerprogrammprodukt
DE4001493A1 (de) Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten
DE102016210760A1 (de) Verfahren zur Interaktion zwischen einem Fahrzeug und Verkehrsteilnehmer
EP4302196A1 (de) Verfahren zum testen eines fahrerassistenzsystems eines fahrzeugs
DE102021110309A1 (de) Verfahren zum Modellieren eines menschlichen Fahrverhaltens zum Trainieren von Bewegungssteuerungen, die auf einem neuronalen Netzwerk basieren
DE102021203589A1 (de) Verfahren und Steuergerät zum Erkennen eines Fahrstils
DE60123312T2 (de) Vorrichtung zur Steuerung eines Kennwertes
DE112020006532T5 (de) Computersystem und verfahren mit ende-zu-ende modellierung für einen simulierten verkehrsagenten in einer simulationsumgebung
DE102021130768B4 (de) Verfahren zum Steigern einer Aufmerksamkeit eines Benutzers eines Kraftfahrzeugs, Assistenzeinrichtung, Kraftfahrzeug
Bellet et al. A framework for modelling driving knowledge
DE102021125744A1 (de) Computer-implementiertes Verfahren, Vorrichtung und Computerprogramm zum Steuern von ein oder mehreren Einstellungen eines Fahrzeugs
Scheidel et al. A Deep Reinforcement Learning Based Motion Cueing Algorithm for Vehicle Driving Simulation
Tang et al. Personalized Decision-Making and Control for Automated Vehicles Based on Generative Adversarial Imitation Learning
Feldmaier Perspectives on the Connection of Psychological Models of Emotion and Intelligent Machines

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee