-
Diese
Erfindung betrifft eine Vorrichtung gemäß des Oberbegriffs des Patentanspruches
1 und ein Verfahren gemäß des Oberbegriffs
des Patentanspruches 19.
-
Bis
dato sind verschiedene Steuerverfahren zur Steuerung eines Objektes
in Übereinstimmung mit
den Anforderungen eines Benutzer erhältlich. In
US 5 367 454 ist z. B. eine interaktive
Benutzeroberfläche
zur Simulation menschlicher Emotionen offengelegt. Des weiteren
ist in WO 98/06043 ein Verfahren und ein System zur Erstellung eines
Drehbuches für
interaktive Zeichentrickdarsteller offengelegt.
-
Bei
derartigen Steuerverfahren bestimmt der Benutzer normalerweise einen
gewünschten
Zielwert als Ausgabe und das Objekt wird so gesteuert, dass die
Ausgabe dem Zielwert entspricht, während die Ausgabe zurück in ein
Steuersystem gespeist wird, welches Rückkopplung und Zielwert vergleicht,
um die Ausgabe anzupassen. Bei diesen Verfahren kann sich die Ausgabe
des gesteuerten Objektes durch Einspeisung der Ausgabe zurück in das
System zum Zweck der Anpassung dieser Ausgabe dem Zielwert annähern, wobei
eine Steuerung erreicht wird, die den Präferenzen des Benutzers gerecht
wird.
-
Wird
vom Benutzer ein Zielwert eingegeben, ist es relativ einfach, eine
Ausgabe entsprechend der Präferenz
des Benutzers zu erzielen. So ist beispielsweise eine durch eine
Klimaanlage gesteuerte Lufttemperatur ein einfaches Objekt, da das
Verhältnis zwischen
Ausgabe (Kühlung
oder Heizung) und dem Zielwert (Temperatur) einfach ist und darum
jeder ein Thermostat der Klimaanlage auf einen Zielwert einstellen
kann. Wenn jedoch das Verhältnis
zwischen Ausgabe und Zielwert kompliziert ist, insbesondere in einem
Steuersystem, in welchem die Abänderung
eines Zielwertes nicht nur einen sondern mehrere Ausgabewerte beeinflusst,
kann nur eine sachkundige Person den Zielwert ändern.
-
Da
Menschen außerdem über Emotionen verfügen und
diese momentane Präferenzen
beeinflussen, z. B. wäre
es schwierig, ein Objekt in einer Weise zu steuern, dass es den
Benutzer immer zufrieden stellt, selbst wenn das Objekt oder die
Vorrichtung speziell für
einen einzelnen Benutzer konstruiert wurde.
-
Bei
obigem herkömmlichen
Steuersystem ist die Ausgabe des Objektes so gestaltet, dass sie
immer den Zielwert erreicht. Je länger das Objekt verwendet wird,
desto einfacher ist somit die Vorhersage des Verhaltens für den Benutzer.
Kann der Benutzer die Ausgabe des Objektes vorhersagen, kann das Objekt
nicht zur kreativen Unterstützung
der intellektuellen Arbeit des Benutzers oder seiner Wünsche dienen.
-
Herkömmliche
Steuersysteme sind daher nicht in der Lage, einen adäquaten Wert
auszugeben, was dem Benutzer letztendlich mehr Zufriedenheit verschafft
als es ein Wert vermag, der aus der direkten Anweisung eines Benutzers
folgt, insbesondere indem Emotionen und Pseudo-Emotionen und eine
Persönlichkeit
oder Pseudo-Persönlichkeit
benutzt werden, welche im Objekt als Reaktion auf den Benutzer und
die Umwelt in befriedigendem Maß erzeugt
werden. Daher sollte die Persönlichkeit
nicht nur Grundlage der Emotionen sondern allen Verhaltens sein.
-
Daher
besteht ein Ziel der vorliegenden Erfindung darin, eine Vorrichtung
und Verfahren bereitzustellen, welche fähig sind, zahlreiche Verhaltensmuster
oder -kombinationen vorzubereiten, die im Voraus gespeichert werden
und welche die Vorrichtung somit befähigen, auf jeden Benutzertyp
schnell, natürlich
und angepasst zu reagieren und sich mit Rücksicht auf die Individualität im Einklang
mit dem Benutzer oder mit dem Gebrauch durch den Benutzer zu entwickeln.
-
Bei
dieser Erfindung wird diese Zielstellung durch eine automatische
Vorrichtung erreicht, welche sich so verhält, dass sie sich an den Benutzer
anpasst und die Merkmale des Patentanspruches 1 beinhaltet.
-
Um
die Möglichkeiten
weiterzuentwickeln, ist es weiterhin von Vorteil, wenn die Erkennungseinheit den
Benutzerbefehl erkennt, der nicht im benutzerbezogenen Status enthalten
ist. Die Vorrichtung umfasst weiterhin: eine Bildungseinheit für befohlenes Verhalten,
die programmiert ist, ein Muster befohlenen Verhaltens auszuwählen, wenn
sie Signale des Benutzerbefehls erhält; und eine Verhaltenssteuereinheit,
die programmiert ist, Verhalten zu steuern, indem sie die ausgewählten Muster
autonomen Verhaltens und die ausgewählten Muster befohlenen Verhaltens
auf der Grundlage eines vorher bestimmten Vorrangsbefehls zusammenfasst.
-
Ebenso
möglich
sind die Bereitstellung einer Abtasteinheit, die Signale vom Benutzer
wahrnimmt, ein erster Datenspeicher, der den erkannten benutzerbezogenen
Status und/oder den erkannten Befehl speichert und aktualisiert
sowie ein zweiter Datenspeicher, welcher die gebildete Persönlichkeit
speichert und aktualisiert, und in welchem die Aktualisierung unter
vorher bestimmten Bedingungen vorgenommen wird.
-
Außerdem ist
es von Vorteil, wenn die neue Verhaltensmuster erzeugende Einheit über eine
Datenbank verfügt,
in welcher ein Merkmalpool von Mustern autonomen Verhaltens gespeichert
wird.
-
Bei
oben beschriebenem Verfahren ist die neue Verhaltensmuster erzeugende
Einheit vorzugsweise mit der Pseudo-Persönlichkeit erzeugenden Einheit
verbunden, in welcher die neue Verhaltensmuster erzeugende Einheit
in Intervallen aktiviert wird, die mit der herausgebildeten Pseudo-Persönlichkeit
korrelieren.
-
Bei
dem oben beschriebenen Verfahren können externe Informationen
oder Umweltinformationen weggelassen werden, wenn die Vorrichtung
unter eingeschränkten
Umständen
benutzt wird oder wenn die externen oder Umweltinformationen mit
der Ausführung
des Benutzerbefehls nichts zu tun haben oder wenn der Benutzer dies
so wünscht.
-
Die
Vorrichtung der vorliegenden Erfindung ist nicht eingeschränkt und
beinhaltet sämtliche
Objekte, welche mit einem Benutzer interagieren und welche in der
Lage sind, nicht nur vorgeschriebenes (befohlenes) Verhalten auszugeben
sondern ebenso autonomes Verhalten zum Vorteil des Benutzers. So können beispielsweise
Haushaltsgeräte,
ein industrieller Roboter, ein Unterstützungssystem zur Forschung
o. ä. gesteuert
werden, indem das Steuersystem der vorliegenden Erfindung auf dem
selben Prinzip wie oben basierend eingesetzt wird. Durch Veränderung
von Elementen, welche in der zu verarbeitenden Information beinhaltet
sind, kann die Steuervorrichtung auf dieselbe Weise gesteuert werden.
In jedem Fall ist gemäß der vorliegenden
Erfindung die Steuervorrichtung, an welche sich die vorliegende Erfindung
anpasst, voraussichtlich mit Scheinintelligenz ausgestattet.
-
Des
weiteren wird das oben genannte Ziel auf erfinderische Weise mittels
eines Verfahrens zur Verhaltensanpassung einer Vorrichtung an die
Merkmale eines Benutzers entsprechend des Patentanspruchs 19 erreicht.
-
Weitere
bevorzugte Ausführungsbeispiele der
vorliegenden Erfindung sind in den abhängigen Ansprüchen dargelegt.
-
Im
folgenden wird die vorliegende Erfindung im Hinblick auf verschiedene
Ausführungsbeispiele in
Verbindung mit den begleitenden Zeichnungen detaillierter erklärt, wobei:
-
1 ein schematisches Blockdiagramm
ist, welches den funktionalen Aufbau des Steuersystems entsprechend
der vorliegenden Erfindung illustriert;
-
2 ein schematisches Blockdiagramm
ist, welches ein Beispiel des gesamten Systems eines Unterstützungssystems
gemäß der vorliegenden
Erfindung darstellt;
-
3 ein schematisches Flussdiagramm
ist, welches das gesamte System eines Unterstützungssystems gemäß der vorliegenden
Erfindung darstellt;
-
4 ein schematisches Blockdiagramm
ist, welches die Erkennungseinheit A für Benutzer- und Umweltinformationen
darstellt, welche in 1 abgebildet
ist;
-
5 ein schematisches Flussdiagramm
ist, welches Abläufe
der Einstelleinheit B für
Informationen zur Pseudo-Persönlichkeit
darstellt, welche in 1 abgebildet
ist;
-
6 ein schematisches Flussdiagramm
ist, welches Prozesse der Pseudo-Emotionen
erzeugenden Einheit C darstellt, welche in 1 abgebildet ist;
-
7 ein schematisches Flussdiagramm
ist, welches Prozesse in der Entscheidungseinheit D für den emotionalen
Ausdruck darstellt, welche in 1 abgebildet
ist;
-
8 ein schematisches Flussdiagramm
ist, welches Prozesse der autonomes Verhalten erzeugenden Einheit
E darstellt, welche in 1 abgebildet
ist;
-
9 ein schematisches Flussdiagramm
ist, welches Prozesse in der neue Verhaltensmuster erzeugenden Einheit
G darstellt, welche in 1 abgebildet
ist;
-
10 ein schematisches Flussdiagramm ist,
welches Prozesse der Verhaltensplanungseinheit H darstellt, welche
in 1 abgebildet ist;
-
11 ein schematisches Flussdiagramm ist,
welches Prozesse der Erzeugung jedes Datensatzes von Verhaltensinformationen
auf der Grundlage von aktuellen Verhaltensinformationen bis zur
Einstellung der abschließenden
Verhaltensausgabe darstellt;
-
12 ein schematisches Blockdiagramm ist,
welches ein Beispiel des Gesamtsystems eines Haustierroboters entsprechend
der vorliegenden Erfindung darstellt;
-
13 ein schematisches Blockdiagramm ist,
welches ein Gesamtsystem eines Haustierroboters entsprechend der
vorliegenden Erfindung darstellt;
-
14 ein schematisches Blockdiagramm ist,
welches die Erkennungseinheit A für Benutzer- und Umweltinformationen
darstellt, welche in 12 abgebildet
ist;
-
15 ein schematisches Flussdiagramm ist,
welches Prozesse in der Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit
darstellt, welche in 12 abgebildet
ist;
-
16 ein schematisches Flussdiagramm ist,
welches Prozesse in der Pseudo-Emotionen
erzeugenden Einheit C darstellt, welche in 12 abgebildet ist;
-
17 ein schematisches Flussdiagramm ist,
welches Prozesse in der Entscheidungseinheit D für den emotionalen Ausdruck
ist, welche in 12 abgebildet
ist;
-
18 ein schematisches Flussdiagramm ist,
welches Prozesse der autonomes Verhalten erzeugenden Einheit E darstellt,
welche in 12 abgebildet
ist;
-
19 ein schematisches Flussdiagramm ist,
welches Prozesse in der neue Verhaltensmuster erzeugenden Einheit
G darstellt, welche in 12 abgebildet
ist;
-
20 ein schematisches Flussdiagramm ist,
welches Prozesse der Verhaltensplanungseinheit H darstellt, welche
in 12 abgebildet ist;
-
21 ein schematisches Flussdiagramm ist,
welches Prozesse der Erzeugung jedes Datensatzes von Verhaltensinformationen
auf der Grundlage von aktuellen Verhaltensinformationen bis zur
Einstellung der abschließenden
Verhaltensausgabe darstellt;
-
22 ein schematischer Überblick über einen
Bildschirm (Hauptbildschirm) eines Reiseunterstützungssystems entsprechend
der vorliegenden Erfindung ist; und
-
23 ein schematischer Überblick über einen
Bildschirm (Zweitbildschirm) eines Reiseunterstützungssystems entsprechend
der vorliegenden Erfindung ist.
-
Die
Vorrichtung entsprechend der vorliegenden Erfindung ist eine intelligente,
anpassungsfähige und
benutzerfreundliche Einrichtung. Der Begriff „intelligent" meint, dass die
Vorrichtung in der Lage ist, ihre Umwelt wahrzunehmen, Schlüsse über ihre
Aufgaben zu ziehen, einen Handlungsablauf zu planen und diese Aktionen
auszuführen.
Der Begriff „anpassungsfähig" meint, dass die
Vorrichtung sowohl in der Lage ist, auf unerwartete Situationen
zu reagieren während
sie ihre Pläne
umsetzt als auch, dass sie in der Lage ist aus ihren Erfahrungen
zu lernen und die Ausführung
der permanent anstehenden Aufgaben zu verbessern. Der Begriff „benutzerfreundlich" meint nicht nur,
dass der Benutzer in der Lage ist, auf eine natürliche Weise mit der Vorrichtung
zu interagieren sondern auch, dass die Vorrichtung zunehmend mehr
als ein „Freund" oder „Haustier" als eine „Maschine" betrachtet wird.
Um diese Ziele zu erreichen, besitzt die Vorrichtung eine Pseudo-Persönlichkeit und
Pseudo-Emotionen, so dass sie – zusätzlich zur autonomen
und spontanen Ausführung
ihrer eigenen Ziele – mit
seinem Benutzer auf einem gefühlsbezogenen
Niveau interagiert, und über
seinen Benutzer lernt.
-
Grundlegender
Aufbau
-
Die
Erfindung wird mit Hilfe von Verweisen auf verschiedene in den Abbildungen
dargestellte Ausführungsbeispiele
erklärt. 1 ist ein schematisches
Blockdiagramm, welches den funktionalen Aufbau der Vorrichtung illustriert.
-
In
dieser Abbildung umfasst eine automatische Vorrichtung, welche sich
an den Benutzer angepasst verhält:
- – eine
Abtasteinheit, welche Signale des Benutzerbefehls und vorbestimmte
benutzerbezogene Signale erfasst, welche für die Ausführung des Befehls relevant
jedoch nicht Teil des Befehls sind;
- – eine
Erkennungseinheit, welche den Benutzerbefehl und einen aktuellen
benutzerbezogenen Status basierend auf dem erfassten Befehlssignal und
den erfassten vorbestimmten Signalen erkennt;
- – einen
ersten Speicher, welcher den erkannten Befehl und den erkannten
benutzerbezogenen Status speichert und aktualisiert;
- – eine
Pseudo-Persönlichkeit
erzeugende Einheit, welche jedes Element der vorgegebenen Pseudo-Persönlichkeit
festlegt, basierend auf dem benutzerbezogenen Status, welcher über eine
vorgegebene Zeitdauer im ersten Speicher angesammelt wird, um die
Pseudo-Persönlichkeit
zu bilden. Besagte Pseudo-Persönlichkeit
erzeugende Einheit verfügt über einen
Speicher, welcher eine vorgegebene Beziehung zwischen den vorgegebenen
Elementen der Pseudo-Persönlichkeit und
dem benutzerbezogenen Status speichert;
- – einen
zweiten Speicher, welcher die gebildete Pseudo-Persönlichkeit
speichert und aktualisiert und in welchem die Aktualisierung unter
vorgegebenen Bedingungen stattfindet;
- – eine
Pseudo-Emotionen erzeugende Einheit, welche jedes Element der vorgegebenen
Elemente der Pseudo-Emotion festlegt, basierend auf dem im ersten
Speicher gespeicherten benutzerbezogenen Status und der im zweiten
Speicher gespeicherten Pseudo-Persönlichkeit, um die Pseudo-Emotionen
zu bilden. Besagte Pseudo-Emotionen erzeugende Einheit verfügt über einen
Speicher, welcher eine vorgegebene Beziehung zwischen den vorgegebenen
Elementen der Pseudo-Emotion, dem benutzerbezogenen Status und der
Pseudo-Persönlichkeit
speichert;
- – eine
autonomes Verhalten erzeugende Einheit, welche ein Muster autonomen
Verhaltens basierend auf dem benutzerbezogenen Status, der Pseudo-Persönlichkeit
und den Pseudo-Emotionen auswählt.
Besagte Festlegeeinheit für
autonomes Verhalten verfügt über einen
Speicher, welcher eine vorgegebene Beziehung zwischen Mustern autonomen
Verhaltens, dem benutzerbezogenen Status, der Pseudo-Persönlichkeit
und den Pseudo-Emotionen speichert, wobei jedes Muster durch vielfache,
vorgegebene Elemente erzeugt wird.
- – eine
neue Verhaltensmuster erzeugende Einheit, welche neue Muster autonomen
Verhaltens generiert, indem sie Musterelemente zufällig oder nach
vorgegebenen Regeln auswählt.
Besagte neue Verhaltensmuster erzeugende Einheit verfügt über eine
Datenbank, welche einen Pool an Elementen autonomer Verhaltensmuster
speichert. Diese neu generierten Muster werden in den Speicher der
Festlegeeinheit für
autonomes Verhalten übertragen,
wobei die neuen Muster die vorherigen unter vorgegebenen Bedingungen überschreiben;
- – eine
befohlenes Verhalten erzeugende Einheit, welches ein Muster befohlenen
Verhaltens in Übereinstimmung
mit dem erkannten Benutzerbefehl festlegt;
- – eine
Verhaltenssteuereinheit, welche Verhalten steuert, indem sie die
ausgewählten
Muster autonomen Verhaltens und die festgelegten Muster befohlenen
Verhaltens basierend auf einer vorgegebenen Vorrangsordnung verbindet;
und
- – eine
Ausgabevorrichtung, welche gesteuertes Verhalten ausgibt.
-
In
oben benannten Einheiten werden nicht benutzerbezogene Informationen
wie Umweltinformationen und externe Datenbankinformationen in die Eingabeinformation
einbezogen, um ein komplexes Verhalten des Objektes zu bilden.
-
In
oben benannten Einheiten umfasst die Vorrichtung vorzugsweise einen
dritten Speicher, welcher mit der Verhaltenssteuereinheit verbunden ist,
und welcher die durch die Pseudo-Emotionen-Bildungseinheit gebildete
Pseudo-Emotion speichert und aktualisiert, wobei der zweite Speicher
mit der Verhaltenssteuereinheit verbunden ist und wobei die im dritten
Speicher gespeicherte Pseudo-Emotion und die im zweiten Speicher
gespeicherte Pseudo-Persönlichkeit
als Parameter für
die von der Verhaltenssteuereinheit bereitgestellte vorgegebene Vorrangsordnung
genutzt werden (in 1 durch
gestrichelte Linie dargestellt). Des weiteren kann der erste Speicher
mit der Verhaltenssteuereinheit verbunden werden, wobei der im ersten
Speicher gespeicherte benutzerbezogene Status, die im zweiten Speicher
gespeicherte Pseudo-Persönlichkeit
und die im dritten Speicher gespeicherte Pseudo-Emotion als Parameter
für die
von der Verhaltenssteuereinheit bereitgestellte vorgegebene Vorrangsordnung genutzt
werden. In oben benannten Strukturen kann das ausgegebene Verhalten
autonomer und anpassungsfähiger
sein (in 1 durch eine
doppelte gestrichelte Linie dargestellt).
-
2–11 zeigen
ein Ausführungsbeispiel,
in welchem die vorliegende Erfindung einem Reiseunterstützungssystem
angepasst ist, welches einen Benutzer unterstützt wenn er einen Reiseplan
erstellt. 12–21 zeigen ein Ausführungsbeispiel,
in welchem die vorliegende Erfindung einem Haustierroboter angepasst
ist, welchen der Benutzer als Haustier halten kann. Die vorliegende
Erfindung ist jedoch nicht auf diese Ausführungsbeispiele beschränkt, und
dieses Steuersystem kann jeder anderen Vorrichtung angepasst werden,
welche für
den Benutzer als intelligente, anpassungsfähige und benutzerfreundliche
Vorrichtung nützlich
ist. Fakt ist, dass in Abhängigkeit
von der Zielstellung der Vorrichtung und den Präferenzen des Benutzers geeignete
Ein- und Ausgabedaten ausgewählt
werden. In jedem Fall gleicht das Prinzip des Steuersystems dem
in den Abbildungen dargestellten Prinzip.
-
Reiseunterstützungssystem
-
Dieses
Reiseunterstützungssystem
(im folgenden als „Unterstützungssystem
bezeichnet") ist dafür vorgesehen,
einen Benutzer bei der Erstellung einer Reiseplanung mit Motorrad,
Auto, Zug oder zu Fuß zu
unterstützen.
Das Unterstützungssystem
verfügt
selbst über
eine Pseudo-Emotion, welche sich in Reaktion auf die Interaktion
mit dem Benutzer oder abhängig
von den Umweltgegebenheiten ändert
und über
eine Pseudo-Persönlichkeit,
welche sich basierend auf der Interaktion mit dem Benutzer oder
seiner eigenen Erfahrung entwickelt. Entsprechend unterstützt das
Unterstützungssystem
den Benutzer bei der Ausarbeitung eines Planes basierend auf der
Interaktion mit dem Benutzer und auf Informationen über die
Umwelt (Fahrpläne,
Straßenkarten,
Verkehrsmeldungen, etc.), während
die Vorrichtung ihre Pseudo-Emotion zum Ausdruck bringt oder eine
autonome Reaktion bzw. eine Reaktion in Übereinstimmung mit dem Benutzerbefehl
hervorbringt.
-
In
der Praxis umfasst dieses Unterstützungssystem, um den Status
des Benutzers oder der Umweltgegebenheiten zu erkennen, einen visuellen Sensor,
einen haptischen Sensor, einen auditiven Sensor und ein Verfahren
zum Zugriff auf externe Datenbanken. Des weiteren beinhaltet es
eine Ausgabevorrichtung wie eine visuelle Ausgabevorrichtung und
eine auditive Ausgabevorrichtung, um seine Pseudo-Emotionen oder
Reaktionen auf den Benutzer anzuzeigen. Das Unterstützungssystem
kann so konstruiert werden, dass es in einem Motorrad oder Automobil
montiert wird oder vom Benutzer getragen wird.
-
Grundlegender Aufbau des
Reiseunterstützungssystems
-
2 ist ein schematisches
Blockdiagramm, welches ein Beispiel des Gesamtsystems eines Unterstützungssystems
entsprechend der vorliegenden Erfindung darstellt. Wie in der Abbildung
dargestellt, umfasst das Unterstützungssystem:
- – eine
Erkennungseinheit A für
Benutzer- und Umweltinformationen zur Erkennung des Status' eines Benutzers
oder externer Informationen;
- – eine
Einstelleinheit B für
Informationen zur Pseudo-Persönlichkeit
zur Einstellung einer Pseudo-Persönlichkeit durch Bezug auf das
Resultat der Erkennung durch die Erkennungseinheit A;
- – eine
Pseudo-Emotionen erzeugende Einheit C zur Erzeugung von Pseudo-Emotionen basierend auf
dem Resultat der Erkennung durch die Erkennungseinheit A und den
Informationen über
die Pseudo-Persönlichkeit,
eingestellt durch die Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit;
- – eine
Entscheidungseinheit D für
den emotionalen Ausdruck zur Entscheidung bzgl. der Arten des emotionalen
Ausdrucks wie Ausdrucksmethoden, um Lachen oder Ärger auf der Grundlage der
Informationen über
die Pseudo-Emotion auf einer Anzeige auszudrücken;
- – eine
autonomes Verhalten erzeugende Einheit E zur Generierung autonomen
Verhaltens basierend auf dem Ergebnis der Erkennung, der Informationen über die
Pseudo-Persönlichkeit
und der Informationen über
die Pseudo-Emotionen;
- – eine
befohlenes Verhalten erzeugende Einheit F zur Generierung von Verhalten
in Übereinstimmung
mit dem Benutzerbefehl auf der Grundlage vom Ergebnis der Erkennung
und mindestens dem vorangegangenem Verhalten, welches vorher vom
System selbst ausgegeben wurde;
- – eine
neue Verhaltensmuster erzeugende Einheit G zur Generierung neuer
Verhaltensmuster, welche in der Entscheidungseinheit D für den emotionalen
Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet
werden können,
basierend auf der Information über
die Pseudo-Persönlichkeit,
der Information über
die Pseudo-Emotionen und einer Datenbank, welche verschiedene Verhaltenselemente
und Elemente des emotionalen Ausdrucks speichert; und
- – eine
Verhaltensplanungseinheit H zur Entscheidung über die Ausgabe des endgültigen Verhaltens,
wobei die jeweilige Ausgabe der Entscheidungseinheit D für den emotionalen
Ausdruck, der autonomes Verhalten erzeugenden Einheit E und der
befohlenes Verhalten erzeugenden Einheit F verwendet wird. Dies
geschieht auf der Grundlage der Ausgabe der Erkennung, der Informationen über Pseudo-Persönlichkeit
und der Informationen über
die Pseudo-Emotionen. Wie in 3 dargestellt,
wiederholt das Unterstützungssystem,
nachdem es aktiviert wurde, jeden Verarbeitungsschritt in den Einheiten
A bis H bis das System abgeschaltet wird. Der Aufbau und die Funktion
der einzelnen Einheiten wird unten detailliert dargestellt.
-
Erkennungseinheit
für Benutzer-
und externe Information
-
Wie
in 2 dargestellt, umfasst
die Erkennungseinheit A für
Benutzer- und externe Information verschiedene Eingabevorrichtungen
(z. B. eine auditive Eingabevorrichtung, eine visuelle Eingabevorrichtung,
eine Bewertungs-Eingabevorrichtung, eine Tastatur, eine Kommunikationsvorrichtung,
ein Thermometer, einen Beleuchtungsmesser (und/oder eine Uhr), eine
Erkennungseinheit A1 der Benutzerbewertung, eine Erkennungseinheit
A2 der Benutzeremotionen, eine Erkennungseinheit A3 des Benutzerbefehls,
eine Erkennungseinheit A4 der externen Informationen und eine Ableitungseinheit
A5 für
aktuelle Benutzerinformation/-charakteristik. Die Erkennungseinheit
A1 der Benutzerbewertung führt
die Erkennungsverarbeitung auf der Grundlage der durch die Eingabevorrichtungen
erhaltenen Informationen aus. Die Ableitungseinheit A5 für aktuelle
Benutzerinformation/-charakteristik bestimmt einen aktuellen Benutzerstatus
und Benutzercharakteristik wie die Benutzerpräferenzen oder leitet diese
auf der Grundlage des Erkennungsergebnisses aus den benutzerbezogenen
Erkennungseinheiten A1 bis A3 ab.
-
Bei
oben benannten Vorrichtungen beinhaltet die Eingabevorrichtung ein
Mikrofon als auditive Eingabevorrichtung, eine Kamera als visuelle
Eingabevorrichtung, einen Schalter bzw. Hebel zur Eingabe der Benutzerbewertung
als einer Eingabevorrichtung zur Bewertung und einer Antenne, einem
Modem, einem Anschlussadapter oder einfach einem Eingabeport als
Kommunikationsvorrichtung. Die Eingabevorrichtungen sind jedoch
nicht auf die oben genannten Vorrichtungen beschränkt. Es
kann jede im Handel erhältliche
Eingabevorrichtung verwendet werden, die fähig ist, externe Informationen
visuell, auditiv und/oder haptisch zu erfassen bzw. fähig ist, auf
externe Datenbanken zuzugreifen.
-
Der
Begriff „externe
Information" meint
nicht nur Informationen über
unmittelbare Umweltgegebenheiten, in denen das System betrieben
wird wie Temperatur, Helligkeit oder Zeit (im folgenden als „Umweltinformation" bezeichnet) sondern
ebenso aus externen Datenbanken erhaltene Informationen, also andere
als vom Benutzer oder vom System erhaltene Informationen.
-
4 ist ein schematisches
Blockdiagramm, welches die Erkennungseinheit A der Benutzer- und externen
Informationen im Detail darstellt, um die Prozesse in jeder der
Verarbeitungseinheiten A1 bis A5 der Erkennungseinheit A der Benutzer-
und externen Informationen zu erläutern.
-
Wie
in dieser Abbildung dargestellt, legt die Erkennungseinheit A1 der
Benutzerbewertung die Benutzerbewertung als vom System ausgegebenes Verhalten
fest und stellt das Resultat z. B. als Information über die
Benutzerbewertung ein, indem sie einen Bewertungswert aus der Dateneingabe
durch eine Eingabevorrichtung zur Bewertung, bestehend aus einem
Hebel, berechnet. Dies erlaubt es dem Benutzer beispielsweise, seine/ihre
Bewertung auf eine geeignete Stufe unter vielen Stufen abhängig von
der Benutzerzufriedenheit einzugeben.
-
Die
Erkennungseinheit A2 für
Benutzeremotionen vermutet die aktuelle Benutzeremotion auf der Grundlage
der aus der auditiven Information und dem Gesichtsausdruck des Benutzers
gewonnenen Eigenschaften, wobei eine auditive Analyse (Analyse der
Häufigkeitsverteilungen
oder Tonlage des Geräusches
der Stimme) und eine Analyse des Gesichtsausdrucks (Analyse basierend
auf der Augen- bzw. Mundform) durchgeführt wird. Diese Analysen basieren
auf der Eingabe der auditiven Information und dem Gesichtsausdruck
des Benutzers in die auditive Eingabevorrichtung und in die visuelle
Eingabevorrichtung. Des weiteren bestimmt die Erkennungseinheit
A2 für
Benutzeremotionen die aktuelle Benutzeremotion auf Grundlage der
vermuteten Emotionen. Bei dem oben beschriebenem Verfahren werden
die verschiedenen Emotionsmuster im Voraus durch Einteilung des
emotionalen Ausdrucks des Benutzers in verschiedene Emotionsmuster
wie heiter, traurig, überrascht,
verärgert,
angewidert oder ängstlich
erhalten. Die emotionalen Ausdrucksmuster werden durch Unterteilung
jedes Musters in verschiedene Stufen erkannt. Bei dem oben beschriebenen
Verfahren kann die Vermutung über
die Benutzeremotion auf der Grundlage der Eingabeinformation durch
Verwendung einer unscharfen Logik mit vorgegebenen Regeln erfolgen
oder indem Daten verwendet werden, welche dadurch gewonnen werden,
dass die Beziehung zwischen Emotionen und Merkmalen von Geräusch/Stimme
und Gesichtsausdrücken
im Voraus gebildet oder zugeordnet wird bzw. durch die Verwendung
geeigneter Funktionsgleichungen, falls in der Beziehung zwischen
Emotionen und Merkmalen von Geräusch/Stimme
und Gesichtsausdrücken Regelmäßigkeiten
gefunden werden. Die in die Emotionserkennungseinheit A2 eingegebenen
Informationen sind nicht auf obiges beschränkt und beinhalten sämtliche
Informationen, die sich auf das Benutzerverhalten beziehen, welches
durch die Benutzeremotionen beeinflusst wird oder dieses repräsentieren,
z. B., die Art, die Tastatur zu betätigen. Wenn der Benutzer bei
der Informationseingabe die selbe Taste mehrere Male ohne ersichtlichen
Grund anschlägt, wird
angenommen, dass er irritiert ist (niedrige Stufe von Ärger).
-
Die
Erkennungseinheit A3 des Benutzerbefehls erkennt und bildet die
Benutzerbefehlsinformation auf der Grundlage indirekter Befehlsinformation, welche
durch die Analyse der Bedeutung des Geräusches/der Stimme erhalten
wird, die von der auditiven Eingabevorrichtung erkannt wird, durch
Analyse der Informationen über
die Benutzergestik, welche von der visuellen Eingabevorrichtung
erkannt wird und auf Grundlage direkter Befehlsinformation, welche über die
Tastatur eingegeben wird. Die Befehlsinformation beinhaltet nicht
nur direkte Befehle wie „Suche", oder „Erstelle
einen Handlungsplan",
sondern auch eine Anforderungsstufe für den Befehl wie „dringend" und „normal". Die Anforderungsstufe
kann z. B. durch die Lautstärke
der Benutzerstimme erkannt werden oder durch die Geschwindigkeit,
mit welcher die Benutzersprache über
die auditive Eingabevorrichtung eingegeben wird bzw. durch die Benutzergestik,
welche über
die visuelle Eingabevorrichtung eingegeben wird. Die Erkennungsmethoden beschränken sich
nicht auf obige Ausführungen
und beinhalten verschiedene Eingabeinformationen wie die Stärke des
Hämmerns
auf die Tastatur, wobei jede Taste mit einem druckempfindlichen
Sensor versehen ist. Die von der mit einem druckempfindlichen Sensor
versehenen Tastatur erhaltenen Informationen können im Erkennungsprozess in
der Erkennungseinheit A2 für
Benutzeremotionen verwendet werden.
-
Die
Erkennungseinheit A4 für
externe Informationen ermittelt externe Informationen wie neu veröffentlichte
Informationen aus externen Datenbanken, den Vergangenheitsbericht
des Benutzers zur Inanspruchnahme des Systems, Außentemperatur,
Helligkeit, Zeit, und Datum, indem sie automatisch Informationen
mittels externer Informationsnetzwerke wie dem Internet mit Hilfe
der Kommunikationsvorrichtung sammelt und durch Verarbeitung der eingegebenen
Informationen aus verschiedenen Sensoren wie dem Thermometer, Beleuchtungsmesser
und der Uhr.
-
Die
Ableitungseinheit A5 für
aktuelle Benutzerinformation/-charakteristik bestimmt den aktuellen Status
und die Charakteristik des Benutzers oder leitet diese auf der Grundlage
der Erkennungsresultate der Erkennungseinheiten A1 bis A3 für benutzerbezogene
Information, der später
beschriebenen Informationen bzgl. aktuellem Vorrangsverhalten, der
Informationen über
emotionale Ausdrucksmuster und Information über autonome Verhaltensmuster
ab. Die Ableitungseinheit A5 für
aktuelle Benutzerinformation/-charakteristik aktualisiert anschließend die
Daten der auf den Benutzer bezogenen Erkennungsinformation, welche
in einem Benutzerinformationsspeicher 1 gespeichert sind.
-
Bei
oben beschriebenem Verfahren schließt der aktuelle Benutzerstatus
eine Zeitspanne innerhalb welcher der Benutzer vom System in einem
Bereich lokalisiert werden kann, die jeweilige Stufe der Benutzeremotionen
sowie die Benutzerbewertung in Bezug auf das vom System ausgegebene
Verhalten ein. Die Benutzercharakteristik schließt die Häufigkeit des Auftretens jeder
Emotion, die Veränderungsrate
oder Variationsbreite der Emotionen, die vom Benutzer verwendeten
Stichworttypen, die Häufigkeit der
Verwendung der Stichwörter
sowie den Durchschnittswert der Benutzerbewertung in Bezug auf das
vom System ausgegebene Verhalten ein.
-
Die
Ausgabe der Erkennungseinheit A3 für den Benutzerbefehl wird nicht
nur in den Benutzerinformationsspeicher 1 übertragen,
sondern außerdem in
einen Speicher 2 für Benutzerbefehle,
wobei die Informationen über
den Benutzerbefehl im Speicher 2 aktualisiert werden. Die
auf den Benutzerbefehl bezogenen Informationen umfassen z. B. die
Befehlsinhalte, die Befehlsobjekte sowie die Befehlsbedingungen.
-
Die
Ausgabe der Erkennungseinheit A4 für externe Information wird
an einen Speicher 3 für
externe Informationen übertragen,
wobei die im Speicher 3 gespeicherte Information aktualisiert
wird.
-
Einstelleinheit für Informationen
zur Pseudo-Persönlichkeit
-
5 ist ein schematisches
Flussdiagramm, welches die Prozesse in der Einstelleinheit B für Informationen
zur Pseudo-Persönlichkeit
darstellt.
-
Die
Einstelleinheit B für
Informationen zur Pseudo-Persönlichkeit
ist so konstruiert, dass sie eine Gruppe von verschiedenen vorläufigen Persönlichkeiten
als Pseudo-Persönlichkeit
einstellt, wobei jede Persönlichkeit
in verschiedene Stufen unterteilt ist. Auf der Grundlage der im
Benutzerinformationsspeicher 1 gespeicherten Information
wird die Stufe jeder vorläufigen
Persönlichkeit
eingestellt. Je höher die
Stufe, desto mehr trägt
die vorläufige
Persönlichkeit
zur Bildung der Pseudo-Emotionen und dem Handlungsplan bei. Die
vorläufigen
Persönlichkeiten umfassen
z. B. „Ansteigen
und Abfallen von Emotionen", „Gehorsam", „Aggressivität", „Neugier" und „Frohsinn". Jede vorläufige Persönlichkeit
wird mit jeder Benutzercharakteristik korreliert, die im Benutzerinformationsspeicher 1 gespeichert
ist. Dabei wird „Ansteigen
und Abfallen der Emotionen" mit
der Veränderungsrate
oder Variationsbreite der Benutzeremotionen, „Gehorsam" wird mit der Häufigkeit des Auftretens der
Benutzeremotion „Ärger" korreliert; „Aggressivität" wird mit der Bewertung
des vom System ausgegebenen Verhaltens und der Häufigkeit des Auftretens jeder
Emotion des Benutzers zur Zeit der Bewertung korreliert; „Neugier" wird korreliert
mit der Variationsbreite der vom Benutzer am liebsten verwendeten
Stichwörter,
und „Frohsinn" wird korreliert
mit der Häufigkeit
des Auftretens der Benutzeremotion „Freude" und der positiven Bewertung des vom
System ausgegebenen Verhaltens. Somit wird dabei die Stufe des Ansteigens
und Abfallens der Emotionen erhöht,
wenn diese beim Benutzer intensiv oder häufig schwanken. Wird der Benutzer
oft zornig, wird die Stufe des Gehorsams herabgesetzt. Schätzt der
Benutzer das vom System ausgegebene Verhalten positiv ein und ist
er erfreut, wird die Stufe der Aggressivität heraufgesetzt. Verteilen
sich die vom Benutzer bevorzugten Stichwörter auf verschiedene Bereiche,
wird die Stufe der Neugier heraufgesetzt. Schätzt der Benutzer das vom System
ausgegebene Verhalten oft als positiv ein und ist er erfreut, wird
die Stufe des Frohsinns heraufgesetzt.
-
Die
in der Einstelleinheit B für
Informationen zur Pseudo-Persönlichkeit
gebildete Pseudo-Persönlichkeit
wird an einen Speicher 4 für Informationen über die
Pseudo-Persönlichkeit
ausgegeben, wobei die im Speicher 4 für Informationen über die
Pseudo-Persönlichkeit
gespeicherte Information aktualisiert wird. Das Aktualisieren kann
durch das Verwenden der Eingabe aus der Einstelleinheit B für Informationen
zur Pseudo-Persönlichkeit
als neue Information zur Pseudo-Persönlichkeit und durch das Überschreiben
der vorherigen Information, oder aber durch Hinzufügen der
Stufen der vorläufigen
Persönlichkeiten,
die durch die Einstelleinheit B für Informationen zur Pseudo-Persönlichkeit
erhalten wurden, zu den vorherigen Informationen erfolgen. Das erste Verfahren
gestattet der Pseudo-Persönlichkeit
des Systems, auf die Benutzercharakteristik stark zu reagieren und
letztere Methode gestattet der Pseudo-Persönlichkeit
des Systems, sich im Einklang mit der Häufigkeit der Verwendung des
Systems und mit der Zeit zu entwickeln, wobei sich der Benutzer
an der Entwicklung der Pseudo-Persönlichkeit des Systems erfreuen
kann. Es trifft insbesondere im Fall des letzteren Verfahrens zu,
dass es möglich
ist, sich an der Entwicklung der Pseudo-Persönlichkeit
des Systems, welche über
einen langen Zeitraum hinweg stattfindet, zu erfreuen, d. h., die
Persönlichkeit
entwickelt sich mehr zu einer menschenähnlichen, wenn die Stufen jeder
vorläufigen
Persönlichkeit
auf verschiedene detaillierte Stufen eingestellt sind und die Ausgabe
der Einstelleinheit B für
Informationen zur Pseudo-Persönlichkeit
niedrig eingestellt ist.
-
Pseudo-Emotionen erzeugende
Einheit
-
6 ist ein schematisches
Flussdiagramm, welches die Prozesse in der Pseudo-Emotionen erzeugenden
Einheit C darstellt.
-
Die
Pseudo-Emotionen erzeugende Einheit C erhält die Ausgabe aus dem Benutzerinformationsspeicher 1,
dem Speicher 3 für
externe Informationen und dem Speicher 4 für Informationen über die
Pseudo-Persönlichkeit.
Dann generiert die Pseudo-Emotionen erzeugende Einheit C die Pseudo-Emotionsinformation
des Systems auf der Grundlage der oben angegebenen Informationen.
-
Die
Pseudo-Emotionen erzeugende Einheit C speichert verschiedene vorgegebene
vorläufige Emotionen
ab (wie „heiter", „traurig", „überrascht", „verärgert", „angewidert" und „ängstlich") und stellt die
Stufe jeder vorläufigen
Emotion basierend auf der vom Benutzerinformationsspeicher 1 und
dem Speicher 3 für
externe Informationen eingegebenen Information ein. In der Praxis
kann die Stufe jeder vorläufigen
Emotion durch Regeln oder Funktionsgleichungen bestimmt werden,
welche die Stufe jeder vorläufigen
Emotion mit der Information über
den Benutzerstatus (wie Emotionsstufe und Bewertungsstufe), welche
im Benutzerinformationsspeicher 1 gespeichert sind und
den Informationen über
Umweltinformationen korrelieren, welche im Speicher 3 für externe
Informationen gespeichert sind. Die Beziehung zwischen den vorläufigen Emotionen,
dem Benutzerstatus und den Umweltinformationen wird z. B. wie folgt
gebildet: Je höher
die Stufe „Ärger" unter den Benutzeremotionen
ist, desto höher
wird die Stufe „Traurigkeit" und desto niedriger
wird die Stufe „Freude" unter den vorläufigen Benutzeremotionen.
Je höher
die Bewertungsstufe bzgl. des vom System ausgegebenen Verhaltens,
desto höher
wird die Stufe „Freude" und desto niedriger
wird die Stufe „Traurigkeit". Je niedriger die
aus den Umweltinformationen erhaltene Außentemperatur, desto höher wird
die Stufe „Abscheu". Je dunkler die
unmittelbare Umwelt, desto höher
wird die Stufe „Angst".
-
Die
Pseudo-Emotionen erzeugende Einheit C entscheidet, ob jede vorläufige in
der Einheit C generierte Emotion von dort aus als Pseudo-Emotion ausgegeben
wird. Dies geschieht mittels eines vorgegebenen Schwellenwertes,
welcher für
jede vorläufige
Emotion eingestellt ist (nachstehend als „vorläufiger Emotionsschwellenwert" bezeichnet). Die Stufe
einer nicht ausgegebenen vorläufigen
Emotion wird auf 0 eingestellt, während die Stufe einer ausgegebenen
vorläufigen
Emotion auf eine geeignete Stufe auf der Grundlage der Information über die
Pseudo-Persönlichkeit
eingestellt wird. Eine Gruppe oben genannter vorläufiger Emotionen
wird als Pseudo-Emotion ausgegeben.
-
Im
Voraus wird der vorläufige
Emotionsschwellenwert mit den Informationen über die Pseudo-Persönlichkeit
korreliert und auf der Grundlage der Informationen über die
Pseudo-Persönlichkeit, welche
aus dem Speicher 4 für
Informationen über die
Pseudo-Persönlichkeit
eingegeben wird, bestimmt. In der Praxis wird jeder vorläufige Emotionsschwellenwert
auf eine solche Art korreliert, dass er sich in Übereinstimmung mit der Stufe
jeder vorläufigen
Emotion in der Information über
die Pseudo-Persönlichkeit ändert. Je
höher beispielsweise
die Stufe des „Ansteigens
und Abfallens der Emotionen",
desto niedriger wird der Schwellenwert jeder vorläufigen Emotion.
Im Gegensatz gilt, je niedriger die Stufe, desto höher wird
der Schwellenwert für
jede vorläufige
Emotion. Je höher
die Stufe des „Frohsinns", desto niedriger
wird lediglich der Schwellenwert für „Freude" unter den anderen und desto höher werden die
Schwellenwerte für
die verbleibenden vorläufigen Emotionen.
Bei den ersten Verfahren gilt, je höher die Stufe für „Ansteigen
und Abfallen der Emotionen" in der
Pseudo-Persönlichkeit,
desto größer wird
die Möglichkeit,
den entsprechenden Schwellenwert zu überschreiten, wobei sich die
Möglichkeit
für den Ausdruck
der vorläufigen
Emotionen als Pseudo-Emotion erhöht,
d. h., die Emotionsschwankung wird beachtlich. Bei dem letzteren
Verfahren gilt, je höher
die Stufe des „Frohsinns" in der Pseudo-Persönlichkeit, desto
größer wird
die Möglichkeit,
den Schwellenwert von nur „Freude" zu überschreiten, womit
das System heiter gestimmt wird. Um ein anderes Beispiel zu nennen,
je höher
die Stufe des „Gehorsams" in der Pseudo-Persönlichkeit,
desto höher wird
der Schwellenwert jeder vorläufigen
Emotion. Im Gegensatz gilt, je niedriger die Stufe des „Gehorsams", desto niedriger
wird der Schwellenwert für jede
vorläufige
Emotion. Wie oben beschrieben wird durch die Korrelation der vorläufigen Emotionsschwellenwerte
mit den Stufen jeder vorläufigen Emotion
in der Pseudo-Persönlichkeit
die Wahrscheinlichkeit des Auftretens jeder Pseudo-Emotion abhängig von
der Pseudo-Persönlichkeit
verändert, und
mit der Entwicklung der Pseudo-Persönlichkeit entwickelt sich auch
die Art des Auftretens der Pseudo-Emotionen.
-
Nach
der Berechnung des Schwellenwertes für jede vorläufige Emotion oder während einer
solchen Berechnung werden der vorläufige Emotionsschwellenwert
und die dazugehörige
vorläufigen Emotion
verglichen. Es werden nur die vorläufigen Emotionen einer Berechnung
ihrer Stufe zur Ausgabe als eine Pseudo-Emotion unterzogen, deren
Stufen höher
sind als die zugehörigen
vorläufigen
Emotionsschwellenwerte. Die verbleibenden vorläufigen Emotionen außer der
eingestellten Information werden gelöscht.
-
Die
als Pseudo-Emotionen auszugebenden Stufen werden mit den Stufen
der vorläufigen
Persönlichkeit
in der Pseudo-Persönlichkeit
korreliert und können
mit Hilfe von Regeln oder Funktionsgleichungen errechnet werden.
In der Praxis gilt z. B., je höher
beispielsweise die Stufe des „Ansteigens
und Abfallens der Emotionen" in
der Pseudo-Persönlichkeit,
desto mehr nähern
sich die Ausgabestufen der Pseudo-Emotionen den Stufen der vorläufigen Emotionen.
Im Gegenzug gilt, je niedriger die Stufe des „Ansteigens und Abfallens
der Emotionen" in
der Pseudo-Persönlichkeit,
desto weniger nah sind sich die Ausgabestufen der Pseudo-Emotionen
und Stufen der vorläufigen
Emotionen.
-
Die
durch die oben genannten Prozesse erhaltenen Pseudo-Emotionen werden
an einen Speicher 5 für
Informationen über
die Pseudo-Emotionen ausgegeben, wobei die im Speicher 5 gespeicherten Daten
aktualisiert werden.
-
Entscheidungseinheit für den emotionalen
Ausdruck
-
7 ist ein schematisches
Flussdiagramm, welches die Prozesse in der Entscheidungseinheit
D für den
emotionalen Ausdruck darstellt.
-
Die
Entscheidungseinheit D für
den emotionalen Ausdruck beurteilt die Stufe jeder vorläufigen Emotion
aus der Pseudo-Emotionsinformation, welche aus dem Speicher 5 für Informationen über die Pseudo-Emotionen
erhalten wird und bestimmt den auszugebenden emotionalen Ausdruck
auf der Grundlage jener vorläufiger
Emotionen, deren Stufen hoch oder größer als 0 sind.
-
Der
emotionale Ausdruck wird unter einer Vielzahl an Mustern des emotionalen
Ausdrucks in Relation zu den im Voraus in einem Speicher 6 für emotionale
Ausdrucksmuster gespeicherten Pseudo-Emotionen ausgewählt. Praktisch
beinhaltet der emotionale Ausdruck Veränderungen der Augen- und Mundform
oder das Vergießen
von Tränen,
sofern eine visuelle Ausgabevorrichtung ein „Gesicht" generiert. Des weiteren kann der emotionale
Ausdruck durch die Hintergrundfarbe des „Gesichtes" auf der Anzeige angezeigt werden bzw.
durch Klänge, Stimmen
oder Konversation unter Verwendung einer auditiven Ausgabevorrichtung.
Bei dem oben beschriebenen Verfahren speichert der Speicher 6 für emotionale
Ausdrucksmuster im Voraus Muster der Augen, des Mundes, der Tränen, der
Hintergrundfarbe, des Geräusches
und der Konversation in Relation zu jeder Stufe der vorläufigen Emotion.
-
Das
Verfahren der Musterauswahl der Emotionsausdrücke in der Emotionsausdruckseinheit
0 kann einfach ein Verfahren sein, bei welcher dasjenige Muster
des emotionalen Ausdrucks ausgewählt wird,
welches der vorläufigen
Emotion der höchsten Stufe
entspricht. Vorzugsweise wird jedoch unter der Mustern der Emotionsausdrücke ein
Muster nicht vorhandenen Ausdrucks (ausdruckslos) generiert, und
wenn die Stufen aller vorläufigen
Emotionen 0 betragen, wird das ausdruckslose Muster gewählt. Wenn
die Stufen aller vorläufigen
Emotionen, außer einer
vorläufigen
Emotion, 0 betragen, wird ein mit dieser einen vorläufigen Emotion
entsprechendes Muster ausgewählt.
Betragen die Stufen von mehr als einer aber nicht aller vorläufigen Emotionen
mehr als 0, dann hat ein Muster einer vorläufigen Emotion einer höheren Stufe
als die der anderen vorläufigen Emotionen
Vorrang gegenüber
den anderen. Des weiteren wird unter den verbleibenden Mustern ein Muster
einer vorläufigen
Emotion einer niedrigeren Stufe als die des ersten an der Stelle
ausgewählt,
an welcher das erste Muster nicht zutrifft. Bei oben beschriebenem
Verfahren werden das erste und zweite Muster verbunden, um einen
kombinierten Ausdruck zu generieren. Sind die Stufen aller vorläufiger Emotionen
größer als
0, kann das ausdruckslose Muster ausgewählt werden. Auf diese Weise
können
die Pseudo-Emotionen auf eine komplexe Weise dargestellt werden.
-
Die
Entscheidungseinheit D für
den emotionalen Ausdruck bestimmt die emotionalen Ausdrucksmuster
der Pseudo-Emotionen momentan in oben beschriebener Weise, stellt
die Muster als emotionales Ausdrucksverhalten ein und gibt sie an
die Verhaltensplanungseinheit H aus.
-
Autonomes Verhalten erzeugende
Einheit
-
8 ist ein schematisches
Flussdiagramm, welches die Prozesse in der autonomes Verhalten erzeugenden
Einheit E darstellt.
-
Die
autonomes Verhalten erzeugende Einheit E wägt eine Vielzahl autonomer
Verhaltensweisen, welche in einem Speicher 7 für autonome
Verhaltensmuster eingestellt sind, gegeneinander ab. Dies geschieht
auf der Grundlage spezifischer externer Informationen, der Benutzerinformationen,
der Informationen über
die Pseudo-Emotionen,
und der Informationen über
die Pseudo-Persönlichkeit,
um einen Vorranggrad jedes autonomen Verhaltens zu bestimmen.
-
In
dieser Ausführungsform
setzen sich die autonomen Verhaltensmuster aus höheren und niedrigeren Verhaltensmustern
zusammen. Zuerst werden die höheren
Verhaltensmuster gegeneinander abgewogen, und nachdem ein höheres Verhaltensmuster
mit einem höheren
Wichtigkeitsgrad ausgewählt
wurde, werden die niedrigeren Verhaltensmuster für das ausgewählte höhere Verhaltensmuster
abgewogen, wodurch ein niedrigeres Verhaltensmuster einer höheren Wichtigkeitsgrades
ausgewählt
wird.
-
Die
höheren
Verhaltensmuster beinhalten beispielsweise „Anzeige neu herausgegebener
Information", „Sprechen
mit dem Benutzer" und „automatische
Informationssammlung".
-
Jedes
der Vielzahl an Verhaltensmustern wird mit den Stufen jeder externen
Information, der Benutzerinformationen, der Informationen über Pseudo-Emotion
und der Pseudo-Persönlichkeit
korreliert, und der Wichtigkeitsgrad jedes Verhaltens wird auf der
Grundlage der Stufe einer jeden Information bestimmt. In der Praxis
werden z. B. im Bezug auf die externe bzw. Benutzerinformation der
Status der Aktualisierung neu veröffentlichter Information, deren
Menge, die Benutzeremotionen, Präferenzen, Persönlichkeit,
Reaktionsintervalle des Benutzers und eine Zeitspanne, während derer
der Benutzer innerhalb eines bestimmten Bereiches vom Systems lokalisiert
werden kann in Zahlenwerte umgewandelt, welche anschließend mit
jedem Wichtigkeitsgrad korreliert werden. In Bezug auf die Informationen über Pseudo-Emotion
und Pseudo-Persönlichkeit
werden die Stufe jeder vorläufigen
Emotion und die Stufe jeder vorläufigen
Persönlichkeit
mit dem Wichtigkeitsgrad jedes Verhaltensmusters korreliert. Die
Korrelation einer jeden Information mit jedem Wichtigkeitsgrad kann
durch Verwendung von Funktionsgleichungen durchgeführt werden,
insofern es zwischen ihnen eine Regelmäßigkeit gibt. Gibt es keine
Regelmäßigkeit
zwischen ihnen, können
die Daten, welche ihre Beziehung darstellen, durch vorab durchgeführte Experimente
erhalten werden.
-
Die
autonomes Verhalten erzeugende Einheit E schreibt jedem Verhaltensmuster
wie oben beschrieben einen Wichtigkeitsgrad zu und stellt dann ein
Verhalten als autonome Verhaltensinformation ein, welches den höchsten Wichtigkeitsgrad
besitzt und welches über
eine bestimmte Zeitspanne nicht mehr ausgewählt wurde, seit nämliches
Verhalten zuletzt ausgeführt
wurde. Bei oben beschriebenem Verfahren ist das eingestellte Verhaltensmuster
ein höheres
Verhaltensmuster und die autonomes Verhalten erzeugende Einheit
E schreibt einer Vielzahl an niedrigeren Verhaltensmustern für das eingestellte
höhere
Verhaltensmuster einen Wichtigkeitsgrad zu. Die niedrigeren Verhaltensmuster
beinhalten z. B. „Scherzen", „Fragen", „Bericht über aktuellen
Status", und „Knurren", welche sich auf
das höhere
Verhaltensmuster „Sprechen
mit dem Benutzer" beziehen.
-
Die
autonomes Verhalten erzeugende Einheit E schreibt den niedrigeren
Verhaltensmustern einen Wichtigkeitsgrad zu und stellt anschließend ein Verhalten
als autonome Verhaltensinformation ein, welches den höchsten Wichtigkeitsgrad
hat. In einem in 8 dargestellten
Ausführungsbeispiel
wird das höhere
Verhaltensmuster „Sprechen
mit dem Benutzer" und
außerdem „Fragen" ausgewählt, d.
h., das Verhalten „Fragen" wird ausgewählt. Von
den die niedrigeren Verhaltensmuster betreffenden Daten wird eine
bestimmte Frage ausgewählt
und dieses Verhalten wird als endgültiges autonomes Verhalten eingestellt.
Bei dem oben beschriebenen Verfahren gilt, wenn eine Einzelheit
aus einer Gruppe mit niedriger eingestuften Daten als die der niedrigeren
Verhaltensmuster ausgewählt
wird (niedrigere Stufe bzw. detailliertere Stufe), kann die Auswahl
zufällig oder
in Übereinstimmung
mit den geeigneten Regeln getroffen werden, z. B., wenn der Befehl
vom Benutzer aus der Benutzerinformation verstanden werden kann,
können
Wörter
im Text des Befehls als Stichwörter
für eine
Stichwortsuche verwendet werden und eine Frage der größten Übereinstimmung
mit den gesuchten Stichwörtern
kann ausgewählt
werden.
-
In
dieser Ausführungsform
wird die Zuschreibung von Wichtigkeitsgraden zu Verhaltensmustern in
zwei Stufen durchgeführt,
d. h., in sowohl den höheren
Verhaltensmustern und den niedrigeren Verhaltensmustern und die
endgültige
autonome Verhaltensinformation wird aus einer Gruppe von niedrig-gestuften
Daten ausgewählt.
Der Auswahlprozess beschränkt
sich nicht auf die oben genannten Angaben und kann auf drei oder
mehr Stufen durchgeführt
werden, wenn die Verhaltensmuster in drei oder mehr Stufen unterteilt
sind. Falls die Stufen autonomer Verhaltensmuster, denen Wichtigkeitsgrade zugeschrieben
werden, detailliert unterteilt sind, kann die Variationsbreite des
autonomen Verhaltens erweitert werden.
-
Weiterhin
ist in dieser Ausführungsform
die automatische Informationssammlung eine von vielen autonomen
Verhaltensmustern. Die automatische Informationssammlung kann jedoch
unabhängig
von den anderen autonomen Verhaltensmustern sein und kann ständig durchgeführt werden.
In diesem Fall können
die Intervalle der Informationssammlung und die Informationsauswahl
nur in Übereinstimmung
mit der Informationen über
Pseudo-Persönlichkeit,
der Informationen über
Pseudo-Emotion und der Benutzerinformation geändert werden. Das heißt, obige
Informationen und die Stufen der automatischen Informationssammlung
können
vorab miteinander korreliert werden. So erhöht sich beispielsweise die
Stufe der automatischen Informationssammlung, je höher die
Stufe „Aggressivität" in der Pseudo-Persönlichkeit
ist, je höher
die Stufe „Freude" in den Pseudo-Emotionen
ist, und je höher
die Stufe „ungeduldiger
Charakter" in der
Benutzerinformation ist, d. h., die Intervalle der Sammlung werden
kürzer
und die Informationsauswahl wird größer. Somit kann das System,
während
der Benutzer mit ihm interagiert, durch seine eigene Beurteilung
Informationen sammeln, und die somit erhaltenen Daten bieten dem
Benutzer höhere
Zufriedenheit, weil vollständigeres
autonomes Verhalten und befohlenes Verhalten generiert werden kann,
wie unten beschrieben.
-
Neue Verhaltensmuster
erzeugende Einheit
-
Sowohl
der Speicher 6 für
emotionale Ausdrucksmuster wie der Speicher 7 für autonome
Verhaltensmuster, welche in der Entscheidungseinheit D für den emotionalen
Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet
werden, werden in der neue Verhaltensmuster erzeugenden Einheit
G in geeigneten Intervallen aktualisiert.
-
9 ist ein schematisches
Flussdiagramm, welches die Prozesse in der neue Verhaltensmuster erzeugenden
Einheit G darstellt.
-
Die
neue Verhaltensmuster erzeugende Einheit G beurteilt die Intervalle
zwischen der Erzeugung neuer Verhaltensmuster und der nachfolgenden
Erzeugung neuer Verhaltensmuster auf der Grundlage der Informationen über Pseudo-Persönlichkeit.
In der Praxis werden z. B. die Stufen der „Emotionsschwankung" oder „Aggressivität" in der Information über Pseudo-Persönlichkeit
mit den Intervallen der Erzeugung korreliert. Die Korrelation wird
z. B. so gestaltet, dass die Intervalle um so kürzer werden, je höher die Stufe „Aggressivität" ist.
-
Die
neue Verhaltensmuster erzeugende Einheit G berechnet die Intervalle
der Erzeugung neuer Verhaltensmuster und beurteilt anschließend auf
der Grundlage der Intervalle und zufälliger Elementen, ob die Erzeugung
neuer Verhaltensmuster aktiviert wird. Bei der Entscheidung für eine Aktivierung
der Erzeugung verbindet die neue Verhaltensmuster erzeugende Einheit
G und Verhaltenselemente, die in einer Datenbank 8 für emotionale
Ausdruckselemente und in einer Datenbank 9 für autonome
Verhaltenselemente gespeichert sind. Diese speichern im Voraus jeweils
eine Anzahl von emotionalen Ausdrucksmustern und autonome Verhaltensmuster,
wobei neue emotionale Ausdrucksmuster und neue autonome Verhaltensmuster
eingestellt werden. Oben genannte Verbindungsprozesse können zufällig oder unter
Verwendung genetischer Algorithmen ausgeführt werden. In der Praxis werden
z. B. verschiedene Formen von Teilen des „Gesichts" wie Augen, Augenbrauen und Mund als
emotionale Ausdruckselemente im Voraus in die Datenbank eingespeist,
und neue Ausdrucksmuster von „Ärger" können zufällig generiert
werden, indem in der Datenbank gespeicherte emotionale Ausdruckselemente
verwendet werden. Bei oben beschriebenem Verfahren können die
Verhaltensmuster emotionale Ausdrucksmuster beinhalten, d. h. ein
einfach integrierter Speicher kann diese Informationsteile speichern
und Prozesse für
neue emotionale Ausdrucksmuster sowie Prozesse für autonome Verhaltensmuster
können
integriert werden.
-
Nach
der Erzeugung neuer emotionaler Ausdrucksmuster und neuer autonomer
Verhaltensmuster entsprechend obigem Prozess werden die neuen Muster
mittels einer Datenbank für
gesunden Menschenverstand und den Benutzerinformationen überprüft und überarbeitet,
um extreme oder offensichtliche abstoßende Muster zu eliminieren.
Die neuen Muster werden unter Einbezug von Vernunftaspekten mit
Hilfe der Datenbank für
gesunden Menschenverstand, die Informationen wie „wann wird Ärger ausgedrückt", „Augenwinkel
sind nicht nach unten gezogen" enthält, überprüft und überarbeitet.
Wenn der Benutzer z. B. eine Reaktion von Unbehagen zum Ausdruck
bringt, wenn der Ausdruck „Ärger" mit „Knurren" assoziiert ist,
wird das mit „Ärger" assoziierte Geräusch von „laut knurrend" in „leise
knurrend" abgeändert. Auf
der Grundlage der Benutzerreaktion oder -bewertung wird die Überprüfung mittels
der Benutzerinformation ausgeführt.
-
Nachdem
die neue Verhaltensmuster erzeugende Einheit G die neu generierten
Muster wie oben beschrieben überprüft und überarbeitet,
speichert die Einheit G die mit den neu generierten Mustern korrespondierenden
aktuell verwendeten Verhaltensmuster temporär und passt anschließend die
aktuellen Verhaltensmuster den neuen Verhaltensmustern temporär an. Diese
temporären
neuen Verhaltensmuster werden bewertet.
-
Die
Bewertung der neuen Verhaltensmuster wird hauptsächlich auf der Grundlage der
Benutzerbewertung in den Benutzerinformationen durchgeführt. Sind
die neuen Verhaltensmuster nach der Verwendung der neuen Verhaltensmuster über eine
bestimmte Zeitspanne unzureichend, werden die vorher gespeicherten
Verhaltensmuster wieder aufgenommen. Ist das Resultat der Bewertung
positiv, werden die neuen Verhaltensmuster in den jeweiligen Musterinformationsspeichern 6 und 7 gespeichert.
-
Befohlenes Verhalten erzeugende
Einheit
-
Die
befohlenes Verhalten erzeugende Einheit F generiert befohlenes Verhalten
durch Verwendung von Informationen aus dem Speicher 3 für externe
Informationen in Übereinstimmung
mit dem in den Benutzerbefehlsinformationen enthaltenen Benutzerbefehl.
In der Praxis beinhaltet das befohlene Verhalten in diesem Unterstützungs systems
die Beantwortung von Benutzerfragen, die Konzepterstellung eines
vom Benutzer verlangten Handlungsplanes, die Aufstellung eines detaillierten
Handlungsplanes und die Bildung oder Simulation eines Handlungsplanes.
Die Beantwortung der Benutzerfragen meint genauer betrachtet die
Durchführung
einer Suche unter Verwendung des Speichers 3 für externe Informationen
und/oder der externen Datenbanken und das Anzeigen des Suchergebnisses,
wenn der Benutzer das System anweist, eine Suche durchzuführen. Die
Konzepterstellung eines Handlungsplanes und das Aufstellen eines
detaillierten Planes bedeutet die Erstellung eines Reiseplanes,
der das Reiseziel des Benutzers und touristische Attraktionen auf
dem Weg zum Reiseziel anzeigt, die Erstellung einer Fahrtroute,
wenn der Benutzer mit dem Auto oder dem Motorrad unterwegs ist und
die Erstellung von Zugverbindungen, wenn der Benutzer mit dem Zug
reist.
-
Bei
oben beschriebener Vorgehensweise werden Erzeugungsprozesse für befohlenes
Verhalten in der befohlenes Verhalten erzeugenden Einheit F durchgeführt, indem
zumindest auf vorheriges vom System ausgegebenes Verhalten und die
Informationen über
Benutzerbewertung im Hinblick auf vorheriges Verhalten Bezug genommen
wird. Wenn der Benutzer z. B. das System anweist, eine Suche durchzuführen und
wenn das vorher ausgegebene Verhalten ein Resultat der Suche beinhaltet,
bestimmt die befohlenes Verhalten erzeugende Einheit F, ob das in der
vorherigen Suche verwendete Stichwort der Benutzeranfrage entsprach,
basierend auf der Stufe der Benutzerbewertung im Hinblick auf das
Ergebnis der vorherigen Suche. War die Stufe der Benutzerbewertung
hoch, urteilt die Einheit F, dass der Benutzer mit dem in der Suche
verwendeten Stichwort zufrieden ist, und die Einheit F führt eine
zweite Suche mit dem selben Stichwort durch. War die Stufe der Benutzerbewertung
niedrig, urteilt die Einheit F, dass der Benutzer mit dem in der
Suche verwendeten Stichwort nicht zufrieden ist, und die Einheit
F führt
erneut eine erste Suche mit einem neuen Stichwort durch.
-
Wie
oben beschrieben wird unter Bezugnahme auf die Benutzerbewertung
und das vorher ausgegebene Verhalten das nächste befohlene Verhalten generiert,
so dass Verhalten erzeugt werden kann, welches benutzergerechter
ist.
-
Weiterhin
kann die befohlenes Verhalten erzeugende Einheit F absolutes Verhalten
zusätzlich zu
dem oben erwähnten
befohlenen Verhalten erzeugen. In der Praxis werden z. B. risikobezogene
Stichwörter
wie „Erdbeben", „regelmäßige Geschehnisse", und „starker
Regen und Flutwarnung" oder
allgemein unerwünschte
Stichwörter
als Risikoinformationsstichwörter
gespeichert werden. Werden solche Risikoinformationsstichwörter in
einem während
des autonomen Verhaltens automatisch gesammelten Informationsteil
gefunden, kann der Informationsteil so gestaltet werden, dass er
als absolutes Verhalten angezeigt wird. Wie oben beschrieben, kann
den Risiko informationen durch die autonome Erfassung von Risikoinformationen
und der Einstellung der Informationen als absolutes Verhalten Vorrang
gegenüber anderen
Informationen zugeschrieben werden, und sie kann zusätzlich zum
Handlungsplan angezeigt werden, wenn die Handlung des Benutzers
das Reisen beinhaltet.
-
Verhaltensplanungseinheit
-
Die
Verhaltensplanungseinheit H erhält
Verhaltensinformationen von jeweils der Entscheidungseinheit D für den emotionalen
Ausdruck, der autonomes Verhalten erzeugenden Einheit E und der
befohlenes Verhalten erzeugenden Einheit F; stellt Vorranggrade
für jede
Verhaltensinformation auf der Grundlage der Informationen über die
Pseudo-Persönlichkeit,
der Informationen über
die Pseudo-Emotionen und der Benutzerinformationen ein; generiert neue
vorrangige Verhaltensinformationen; verbindet jede Verhaltensinformation
auf der Grundlage der neuen vorrangigen Verhaltensinformationen
und entscheidet über
das endgültige
Ausgabeverhalten.
-
10 und 11 sind schematische Flussdiagramme,
welche die Prozesse in der Verhaltensplanungseinheit H darstellen.
-
Die
Verhaltensplanungseinheit H beurteilt zuerst, ob absolutes Verhalten
erforderlich ist oder nicht. Zu diesem Zeitpunkt werden die Informationen über absolutes
Verhalten auf Vorrang 1 eingestellt, wenn absolutes Verhalten erforderlich
ist. Die Informationen über
absolutes Verhalten beinhalten Informationen über absolutes Verhalten, welche
in der oben beschriebenen befohlenes Verhalten erzeugenden Einheit
generiert wird und Informationen über Verhalten, welches dringende
Handlung in einer Situation wie z. B. dem Ausfall der Eingabevorrichtung erfordert.
-
Wenn
das Ergebnis der Beurteilung über
die Erfordernis absoluten Verhaltens lautet, dass dieses nicht erforderlich
ist, wird für
jede Verhaltensinformation mittels einer Tabelle zu Vorranggraden
ein Vorranggrad bestimmt (1 bis 3, hier lautet der Vorrang 1, d.
h., hoher Vorrang), welcher als neue vorrangige Verhaltensinformation
eingestellt wird.
-
Die
Tabelle zu Vorranggraden ist eine Tabelle, die den Vorranggrad definiert,
wie in 10 beschrieben,
z. B.: Lautet die Pseudo-Emotion „Freude", die Pseudo-Persönlichkeit „Gehorsam" und der Benutzerstatus „Ärger", wird das befohlene
Verhalten auf Vorrang 1 gesetzt, das emotionale Ausdrucksverhalten
auf Vorrang 2 und das autonome Verhalten auf Vorrang 3. Wie oben
ist die Tabelle eine Datengruppe, in welcher ein Vorranggrad jeder
Verhaltensinformation für
eine Kombination sämtlicher
Pseudo-Emotionen,
Pseudo-Persönlichkeiten
und Benutzerzuständen
eingestellt wird. Das Verfahren der Bestimmung des Vorranggrades
beschränkt
sich allerdings nicht auf die oben genannten Beispiele und beinhaltet
z. B. die Methode der unscharfen Logik, durch welche die Beziehung
zwischen den Pseudo-Emotionen, Pseudo-Persönlichkeiten, Benutzerzuständen und
Vorranggraden der Verhaltensinformation im Voraus definiert wird,
wobei Zugehörigkeitsgleichungen
von Verhaltensinformationen unter Bezug auf Vorranggrade aufgestellt
werden.
-
Nach
Einstellung der neuen vorrangigen Verhaltensinformationen werden
das bereits ausgeführte
Verhalten und das nicht auszuführende
Verhalten gelöscht,
und die verbleibenden Verhaltensmuster werden als unvollständige Verhaltensinformationen eingestellt.
Diese unvollständigen
Verhaltensinformationen werden als wichtiger eingestellt als die
zuvor benannten neuen vorrangigen Verhaltensinformationen. Auf Grundlage
der unvollständigen
Verhaltensinformationen und der neuen vorrangigen Verhaltensinformationen
werden die aktuelle vorrangige Verhaltensinformationen aktualisiert.
Jede Verhaltensinformation wird auf Grundlage der aktuellen vorrangigen
Verhaltensinformationen kombiniert.
-
11 ist ein schematisches
Flussdiagramm, welches die Prozesse der Erzeugung jeder Verhaltensinformationen
auf der Grundlage von aktuellen Verhaltensinformationen bis zur
Einstellung des endgültigen
Ausgabeverhaltens darstellt.
-
Vermischtes
Verhalten wird geschaffen, indem als erstes ein Verhalten mit einem
höheren
Vorranggrad eingestellt wird. Das heißt, jede Verhaltensinformation
besteht aus einer Vielzahl an Verhaltensweisen und in der Praxis
beinhaltet die Verhaltensinformation dieser Ausführungsform folgendes: Augen,
Mund, Konversation, Anzeige, Suche und Datei. Die Verhaltensweisen
in den Verhaltensinformationen werden in der Reihenfolge ihres Vorrangs eingestellt,
und ein Verhalten in der Verhaltensinformation mit einem niedrigeren
Vorrang wird nur dann eingestellt, wenn kein Konflikt mit den bereits
durch die höheren
vorrangigen Verhaltensinformationen definierten Verhaltensweisen
entsteht, d. h., die Verhaltensweisen, welche nicht von den hohen
vorrangigen Verhaltensinformationen definiert werden, können mit
solchen der niedrigeren vorrangigen Verhaltensinformationen aufgefüllt werden.
-
In
dem in 11 dargestellten
Ausführungsbeispiel
wird zuerst das durch das befohlene Verhalten definierte Verhalten
(Anzeige: neu veröffentlichte Information)
des höchsten
Vorranges eingestellt. Zweitens wird das durch das emotionale Ausdrucksverhalten
des Vorrangs 2 definierte Verhalten (Augen: lächelnde Augen; Mund: lächelnder
Mund; Konversation: Pfeifen) eingestellt. Drittens wird das durch das
befohlene Verhalten des Vorrangs 3 definierte Verhalten (Suche:
heißer
Frühling)
eingestellt. Viertens (letztens) wird das durch das autonome Verhalten
des Vorrangs 4 definierte Verhalten eingestellt. Wie aus obigem
Beispiel deutlich wird, wurde das Verhalten durch das emotionale
Ausdrucksverhalten des Vorrangs 2 „Konversation: Pfeifen" definiert, d. h., „Konversation" wurde bereits definiert,
obwohl das autonome Verhalten des Vorrangs 4 „Konversation: Plaudern (Typ
3) definiert. Somit wird das durch das autonome Verhalten definierte
Verhalten „Konversation" nicht angenommen.
Der Grund dafür,
dass es in obigem Beispiel zwei befohlene Verhaltensweisen in Bezug
auf „Konversation" gibt ist, dass „befohlene Verhaltensinformation" in dem vorherigen
unvollständigen
Verhalten aufrecht erhalten wurde, d. h. den vorherigen unvollständigen Verhaltensinformationen wird
Vorrang zugeschrieben.
-
Bildschirm
-
22 und 23 sind schematische Überblicke über einen Bildschirm des Reiseunterstützungssystems
entsprechend der vorliegenden Erfindung. 22 zeigt einen Hauptbildschirm, 23 einen Zweitbildschirm.
-
Dieses
System kann in einem Auto installiert werden oder kann ein Laptop
sein. Dieses System kann durch Betätigen einer Tastatur, Berührung eines Bildschirms
oder durch verbale Instruktionen bedient werden. Ein am oberen linken
Bildschirmrand angezeigtes Gesicht zeigt die aktuelle Emotion des
Systems an. Ein Anzeigefeld auf der linken Seite zeigt den aktuellen
Status des Benutzers, des Systems, der Umwelt, den Benutzertyp (Persönlichkeit)
und den Systemcharakter (Persönlichkeit).
Da dieses System noch nicht über
einen signifikanten Zeitraum hinweg vom Benutzer verwendet wurde,
hat es seine Pseudo-Persönlichkeit
noch nicht vollständig
entwickelt. Für
die Sammlung von Umweltinformationen ist das System mit einem Lichtsensor,
einem Temperatursensor, einem Drucksensor und einem auditiven Sensor
ausgestattet, deren Werte in dem linken Anzeigefeld angezeigt werden.
Für die
Sammlung von Benutzerinformationen ist das System mit einem Positionssensor,
einem auditiven Sensor und einem Berührungssensor ausgestattet,
deren Werte in dem linken Anzeigefeld angezeigt werden. Das System
ist außerdem
mit einem Kommunikationsinstrument ausgestattet, um auf externe
Datenbanken oder externe Informationsquellen zugreifen zu können. Das Ausgabeverhalten
des Systems beinhaltet den Gesichtsausdruck (linke obere Ecke),
schriftliche Meldung (oben in rechtem Anzeigefeld), eine Anzeige der
Information (rechtes Anzeigefeld) und eine akustische Meldung (Stimme).
In 22 möchte der
Benutzer einen Reiseplan für
seinen Urlaub erstellen und sitzt vor dem System. Das System fragt
den Benutzer sowohl akustisch wie auch auf der Anzeige nach seinem
Befinden. Die Antwort des Benutzers erfolgt schnell und es geht
ihm gut. Dies resultiert in der Erzeugung eines Glücksgefühls im System,
was auf dem Gesicht in der Ecke erkennbar ist. Das System fragt
den Benutzer nach seinem Wunsch. Der Benutzer bittet um Suche nach
einem Ort, welchen er besuchen könnte
und das System listet in der Anzeige (siehe 23) entsprechende Optionen auf. Der Benutzer
antwortet dem System nicht (er kann sich nicht entscheiden). Darum
zeigt das System nun ein neutrales Gesicht statt eines glücklichen
Gesichts. Unternimmt der Benutzer nichts spezielles, behält das System
seinen geduldigen Charakter bei (zeigt auf der Anzeige „gehorchen" an) und die Ausdrucksschwellenwerte
sind hoch (passiv). Findet der Benutzer einen Ort, den er besuchen
will und zeigt sein Gefühl
(glücklich),
kann jedoch aus irgendeinem Grund die Reise nicht planen, zeigt
das System ein trauriges Gefühl
und schlägt
einen alternativen Zeitplan vor, welchem der Benutzer möglicherweise
zustimmt. Schließlich
wird sich das System Charakterzüge ähnlich denen
des Benutzers aneignen.
-
Auswirkungen
-
Wie
oben beschrieben ist das Unterstützungssystem
selbst entsprechend mit einer Pseudo-Persönlichkeit ausgestattet, welche
sich durch die Interaktion mit dem Benutzerstatus entwickelt, verfügt über Pseudo-Emotionen,
welche sich in Übereinstimmung
mit dem Benutzerstatus und den externen Informationen ändern, wobei
die Pseudo-Emotionen durch die Pseudo-Persönlichkeit gesteuert werden und
die Pseudo-Persönlichkeit
vom Benutzer abhängt,
d. h., die für
jeden Benutzer einzigartige Pseudo-Persönlichkeit
wird in Übereinstimmung
mit der Verwendung des Systems gebildet. Da die Pseudo-Persönlichkeit
mittels der Pseudo-Emotionen ausgedrückt wird, kann sich der Benutzer
der Förderung
eines einzigartigen Unterstützungssystems während einer
Entwicklungsperiode erfreuen, ähnlich dem
Großziehen
eines Kindes. Des weiteren kann der Benutzer ungefähr nach
Beendigung der Entwicklungsphase eine „Freundschaft" mit dem Unterstützungssystem
aufbauen.
-
Weiterhin
ist das System so konstruiert, dass es aufgrund der Pseudo-Persönlichkeit
und den durch die Pseudo-Persönlichkeit
gesteuerten Pseudo-Emotionen autonomes Verhalten erzeugt. Daher steigt
das Verständnis
für die
Benutzergefühle
oder Präferenzen,
je mehr das System verwendet wird. Das System kann den Benutzer
in Angelegenheiten unterstützen,
welche er nicht direkt zum Ausdruck bringt.
-
Da
das Unterstützungssystem
sowohl autonomes wie auch befohlenes Verhalten ausführen kann,
muss der Benutzer ihm von Anbeginn keine detaillierten Befehle erteilen.
Der Benutzer kann Bedingungen mittels Dialog mit dem System festlegen.
Zusätzlich
kann das Unterstützungssystem
während des
Dialoges eigene Vorschläge
einbringen (wie z. B. neu herausgegebene Informationen). Somit kann
mit dem Unterstützungssystem
ein geeigneter Handlungsplan sehr leicht aufgestellt werden. Insbesondere,
wenn die neue Verhaltensmuster erzeugende Einheit aktiviert ist,
um neue Verhaltensmuster zu generieren (einschließlich neuer
emotionaler Ausdrucks muster), ist es nicht notwendig, zahlreiche
Verhaltensmuster in Verbindung mit der Pseudo-Persönlichkeit,
den Pseudo-Emotionen und sonstigen Informationen (Benutzer- und externe Informationen)
im Voraus vorzubereiten. Dieses System kann auf jeden Benutzertyp
schneller, natürlicher
und anpassungsfähiger
reagieren.
-
Haustierroboter
-
Mit
Verweis auf 12–21 wird ein weiteres Ausführungsbeispiel
beschrieben, an welche das Steuersystem der vorliegenden Erfindung
angepasst ist. Dieses Ausführungsbeispiel
ist ein Haustierroboter, welchen sich der Benutzer als Haustier
halten kann.
-
Wie
aus 12–21 ersichtlich wird, entspricht
das Steuersystems des Haustierroboters ungefähr dem des Unterstützungssystems,
außer
dass sich die Details an Informationen in jeder Verarbeitungseinheit
und die Details der Ausgabeinformation unterscheiden. Um Wiederholungen
zu vermeiden wird daher das Prinzip des Steuersystems hier nicht noch
einmal erläutert.
Diejenigen Aspekte, die sich vom Unterstützungssystem unterscheiden,
werden unten erläutert.
-
Der
Haustierroboter wurde entwickelt, um dem Benutzer eine Paraerfahrung
einer Haustierhaltung zu ermöglichen.
Der Haustierroboter verfügt selbst über eine
Pseudo-Persönlichkeit,
welche sich durch die Interaktion mit dem Benutzer und durch eigene
Erfahrung entwickelt und über
Pseudo-Emotionen, welche sich in Übereinstimmung mit der Interaktion
mit Benutzer und unmittelbarer Umwelt verändern. In Abhängigkeit
vom Status der Pseudo-Persönlichkeit
und den Pseudo-Emotionen drückt
der Haustierroboter Emotionen aus und reagiert auf den Benutzer
autonom und/oder auf Anordnung. Als Resultat dessen ist der Haustierroboter
befähigt,
verschiedene Handlungen auszuführen.
-
In
der Praxis ist der Haustierroboter, um den Status des Benutzers
oder Umweltgegebenheiten zu erkennen, mit einem visuellen Sensor,
einem haptischen Sensor, einem auditiven Sensor und einer Vorrichtung
zum Zugriff auf externe Datenbanken ausgestattet. Des weiteren ist
er mit einer Ausgabevorrichtung wie einer visuellen Ausgabevorrichtung
und einer auditiven Ausgabevorrichtung ausgestattet, um seine Pseudo-Emotionen oder Reaktionen
auf den Benutzer anzuzeigen und verfügt über Bewegungsmittel, welche
als Hände
und Füße fungieren,
ein Bediengerät
und einen Schwanz.
-
Grundlegender
Aufbau des Haustierroboters
-
12 ist ein schematisches
Blockdiagramm, welches ein Beispiel des Gesamtsystems eines Haustierroboters
entsprechend der vorliegenden Erfindung darstellt. Wie in der Abbildung
dargestellt, besteht der Haustierroboter aus:
- – einer
Erkennungseinheit A für
Benutzer- und Umweltinformationen zur Erkennung des Status' des Benutzers und
von Umweltinformationen;
- – einer
Einstelleinheit B für
Informationen über
die Pseudo-Persönlichkeit
für die
Einstellung einer Pseudo-Persönlichkeit
durch Bezugnahme auf das Ergebnis der Erkennung der Erkennungseinheit
A;
- – einer
Pseudo-Emotionen erzeugenden Einheit C zur Erzeugung von Pseudo-Emotionen auf der Grundlage
des Ergebnisses der Erkennung durch die Erkennungseinheit A und
der Informationen über
die Pseudo-Persönlichkeit,
welche durch die Einstelleinheit B für Informationen über die
Pseudo-Persönlichkeit
eingestellt wird;
- – einer
Entscheidungseinheit D für
den emotionalen Ausdruck zur Entscheidung über die Art des emotionalen
Ausdrucks wie Ausdrucksweisen für Lachen
oder Ärger
auf einer Anzeige auf der Grundlage der Informationen über die
Pseudo-Emotionen;
- – einer
autonomes Verhalten erzeugenden Einheit E zur Erzeugung autonomen
Verhaltens auf der Grundlage des Ergebnisses der Erkennung, der Informationen über die
Pseudo-Persönlichkeit und
der Informationen über
die Pseudo-Emotionen;
- – einer
befohlenes Verhalten erzeugenden Einheit F zur Erzeugung von Verhalten
in Übereinstimmung
mit dem Benutzerbefehl auf der Grundlage des Ergebnisses der Erkennung
und zumindest dem vom System selbst vorher ausgegebenen Verhalten;
- – einer
neue Verhaltensmuster erzeugenden Einheit G zur Erzeugung von neuen
Verhaltensmustern, welche in der Entscheidungseinheit D für den emotionalen
Ausdruck und der autonomes Verhalten erzeugenden Einheit E verwendet
werden können,
auf der Grundlage der Informationen über die Pseudo-Persönlichkeit,
der Informationen über
die Pseudo-Emotionen und einer Datenbank zur Speicherung verschiedener
Verhaltenselemente und emotionaler Ausdruckselemente;
- – und
einer Verhaltensplanungseinheit H zur Entscheidung über das
endgültig
auszugebene Verhalten unter jeweiliger Verwendung der Ausgabe der
Entscheidungseinheit D für
den emotionalen Ausdruck, der autonomes Verhalten erzeugenden Einheit
E und der befohlenes Verhalten erzeugenden Einheit F auf der Grundlage
des Ergebnisses der Erkennung, der Informationen über die
Pseudo-Persönlichkeit
und der Informationen über
die Pseudo-Emotionen.
-
Wie
in 13 dargestellt, wiederholt
das Unterstützungssystem
nach seiner Aktivierung jeden Verarbeitungsschritt der Einheiten
A bis H, bis das System abgeschaltet wird. Der Aufbau und die Funktion
jeder Einheit wird nachstehend detailliert erläutert.
-
Erkennungseinheit für Benutzer-
und Umweltinformationen
-
Wie
in 12 dargestellt, umfasst
die Erkennungseinheit A für
Benutzer- und Umweltinformationen verschiedene Eingabevorrichtungen
(z. B. eine auditive Eingabevorrichtung, eine visuelle Eingabevorrichtung,
eine berührungsempfindliche
Eingabeeinheit und/oder einen Erfassungseinheit für Umweltinformationen),
eine Erkennungseinheit A1 für
Benutzerbewertung, eine Erkennungseinheit A2 für Benutzeremotionen, eine Benutzererkennungseinheit
A3, eine Erkennungseinheit A4 für
Benutzerbefehle, eine Erkennungseinheit A5 für Umweltinformationen sowie
eine Ableitungseinheit A6 für
aktuelle Benutzerinformationen/-charakteristik. Die Erkennungseinheit A1
für Benutzerbewertung
führt die
Erkennungsverarbeitung auf der Grundlage der über die Eingabevorrichtungen
erhaltenen Informationen durch. Die Ableitungseinheit A6 für aktuelle
Benutzerinformationen/-charakteristik bestimmt einen aktuellen Benutzerstatus
sowie die Benutzercharakteristik wie z. B. die Benutzerpräferenz auf
der Grundlage des Erkennungsergebnisses aus den benutzerbezogenen
Erkennungseinheiten A1 bis A3 oder leitet diese ab.
-
Bei
oben beschriebenem Ausführungsbeispiel
beinhaltet die Eingabevorrichtung ein Mikrofon als auditive Eingabevorrichtung,
eine Kamera als visuelle Eingabevorrichtung, einen Berührungssensor als
berührungsempfindliche
Eingabeeinheit sowie einen Sensor zur Beleuchtungsmessung, einen
Spannungssensor, einen Sensor zur Hinderniserfassung und einen Sensor
zur Antriebserfassung (der als Sensor für Umweltinformationen eine
Strecke erfasst, welche von der Antriebsvorrichtung zurückgelegt
wurde). Die Eingabevorrichtungen sind jedoch nicht auf oben genannte
Vorrichtungen beschränkt. Jede
auf dem Markt erhältliche
Eingabevorrichtung, die in der Lage ist, Benutzerstatus und Umweltinformationen
visuell, auditiv und/oder durch Berührung zu erfassen, kann verwendet
werden.
-
14 ist ein schematisches
Blockdiagramm, welches die Erkennungseinheit A für Benutzer- und Umweltinformationen
im Detail aufzeigt, um die Vorgänge
in den Verarbeitungseinheiten A1 bis A6 der Erkennungseinheit A
für Benutzer-
und Umweltinformationen zu erläutern.
-
Wie
in dieser Abbildung dargestellt, legt die Erkennungseinheit A1 für Benutzerbewertung
die Benutzerbewertung als vom Haustierroboter auszugebenes Verhalten
fest und stellt das Ergebnis ein, z. B. als Information über die
Benutzerbewertung auf der Grundlage der Art, auf welche der Benutzer
auf den Haustierroboter reagiert. Diese Verhaltensweise kann vom
Berührungssensor
erfasst werden, z. B. wie der Benutzer den Haustierroboter berührt oder streichelt.
Wird die Art der Berührung
oder des Streichelns mit den Bewertungswerten im Voraus korreliert,
können
die Bewertungswerte bestimmt werden.
-
Die
Erkennungseinheit A2 für
Benutzeremotionen schätzt
die aktuellen Benutzeremotionen auf Grundlage der in den auditiven
Informationen und dem Gesichtausdruck des Benutzers gefundenen Merkmalen
ein. Dabei wird eine auditive Analyse (Analyse der Häufigkeitsverteilungen
und Tonhöhe des
Geräusches/der
Stimme) und eine Analyse des Gesichtsausdrucks (Analyse der Augen-
und Mundform) durchgeführt
auf Grundlage der auditiven Information und des Gesichtsausdrucks
des Benutzers, welche von der auditiven Eingabevorrichtung bzw. der
visuellen Eingabevorrichtung eingegeben werden. Außerdem bestimmt
die Erkennungseinheit A2 für
Benutzeremotionen die aktuellen Benutzeremotionen auf Grundlage
der abgeschätzten
Emotionen.
-
Die
Benutzererkennungseinheit A3 erkennt, ob die vom Haustierroboter
erfasste Person der Benutzer ist auf Grundlage des Ergebnisses der
Erkennung der Position der Person und des Körpertyps der Person unter Verwendung
einer visuellen Eingabevorrichtung und auf Grundlage des Analyseergebnisses
von Geräusch/Stimme
aus der Erkennungseinheit A2 für
Benutzeremotionen.
-
Die
Erkennungseinheit A4 für
den Benutzerbefehl erkennt und bildet die Benutzerbefehlsinformation
auf der Grundlage der Befehlsinformation, welche durch die Analyse
der Bedeutung des Geräusches/der
Stimme durch die auditive Eingabevorrichtung und durch Analyse der
Informationen über
die Benutzergestik durch die visuelle Eingabevorrichtung erhalten
wird. Wenn der Benutzer z. B. sagt „Hol" und „mit seiner/ihrer Geste auf
den Ball zeigt",
wird die Benutzerbefehlsinformation durch eine Kombination wie folgt
eingestellt: Der Befehl lautet „holen" und das Objekt ist „der Ball".
-
Die
Erkennungseinheit A5 für
Umweltinformationen erkennt den Standort eines Objektes auf Grundlage
der Informationen aus der visuellen Eingabevorrichtung; erkennt
die Fortbewegungsroute des Haustierroboters bei dessen autonomer
Fortbewegung auf Grundlage der Informationen vom Sensor zur Antriebserfassung
der Antriebsvorrichtung; wandelt Informationen wie Helligkeit, Vorhandensein oder
Abwesenheit eines Hindernisses und die Höhe der elektrischen Leistung
des Haustierroboters unter Verwendung verschiedener Sensoren in
geeignete Formen um; stellt die umgewandelten Informationen ein
und stellt auf ihnen basierend die Informationen über die
den Haustierroboter umgebende Umwelt sowie den internen Status des
Haustierroboters ein.
-
Die
Ableitungseinheit A6 für
aktuelle Benutzerinformationen/-charakteristik bestimmt den aktuellen
Status und Charakteristik des Benutzers oder leitet diese auf der
Grundlage der Erkennungsergebnisse der Erkennungseinheiten A1 bis
A4 für
benutzerbezogene Informationen, der später beschriebenen Informationen über aktuelles
Vorrangsverhalten, der Informationen über emotionale Ausdrucksmuster sowie
der Informationen über
autonome Verhaltensmuster ab. Die Ableitungseinheit A6 für aktuelle
Benutzerinformationen/-charakteristik aktualisiert anschließend die
Daten der auf den Benutzer bezogenen Erkennungsinformationen, welche
in einem Benutzerinformationsspeicher 1 gespeichert sind.
-
Bei
oben beschriebenem Verfahren schließt der aktuelle Benutzerstatus
die Stufe der Benutzeremotionen und Benutzerbewertung in Bezug auf
das vom System ausgegebene Verhalten sowie den Standort des Benutzers
ein. Die Benutzercharakteristik schließt die Häufigkeit des Auftretens jeder Emotion,
die Veränderungsrate
oder Variationsbreite der Emotionen, sowie den Durchschnittswert
der Benutzerbewertung in Bezug auf das vom System ausgegebene Verhalten
ein.
-
Die
Ausgabe der Erkennungseinheit A4 für Benutzerbefehl wird an einen
Speicher 2 für
Benutzerbefehle übertragen,
wobei die im Speicher 2 gespeicherte Informationen über den
Benutzerbefehl aktualisiert werden.
-
Die
auf den Benutzerbefehl bezogene Information beinhaltet z. B. die
Inhalte des Befehls, das Objekt des Befehls und die Bedingungen
des Befehls.
-
Die
Ausgabe der Erkennungseinheit A5 für externe Informationen wird
an einen Speicher 3 für externe
Informationen übertragen,
wobei die im Speicher 3 gespeicherten Informationen aktualisiert
werden.
-
Einstelleinheit für Informationen über die
Pseudo-Persönlichkeit
-
15 ist ein schematisches Flussdiagramm,
welches die Prozesse der Einstelleinheit B für Informationen über die
Pseudo-Persönlichkeit darstellt.
-
Die
Einstelleinheit B für
Informationen über die
Pseudo-Persönlichkeit
ist so aufgebaut, dass sie eine Gruppe verschiedener vorläufiger Persönlichkeiten
als Pseudo-Persönlichkeit
einstellt, von denen jede in verschiedene Stufen unterteilbar ist.
Auf Grundlage der im Speicher 2 für Benutzerbefehle gespeicherten
Informationen wird die Stufe jeder vorläufigen Persönlichkeit eingestellt und je
höher die Stufe,
desto mehr trägt
die vorläufige
Persönlichkeit zur
Bildung der Pseudo-Emotion und des Handlungsplans bei.
-
Wie
ersichtlich ist, sind die Prozesse in der Einstelleinheit B für Informationen
zur Pseudo-Persönlichkeit
prinzipiell die gleichen wie jene im Unterstützungssystem. Die Details der
Prozesse werden aus diesem Grund ausgelassen.
-
Pseudo-Emotionen erzeugende
Einheit
-
16 ist ein schematisches
Flussdiagramm, welches Prozesse in der Pseudo-Emotionen erzeugenden Einheit C darstellt.
-
Die
Pseudo-Emotionen erzeugende Einheit C erhält die Ausgabe aus dem Benutzerinformationsspeicher 1,
dem Speicher 3 für
externe Informationen und dem Speicher 4 für Informationen über die
Pseudo-Persönlichkeit.
Auf Grundlage der oben genannten Informationen erzeugt die Pseudo-Emotionen
erzeugende Einheit C Informationen über die Pseudo-Emotionen des
Systems.
-
Wie
ersichtlich ist, sind die Prozesse in der Pseudo-Emotionen erzeugenden
Einheit C prinzipiell die gleichen wie jene im Unterstützungssystem.
Die Details der Prozesse werden aus diesem Grund ausgelassen.
-
Entscheidungseinheit für den emotionalen
Ausdruck
-
17 ist ein schematisches
Flussdiagramm, welches die Prozesse in der Entscheidungseinheit
D für den
emotionalen Ausdruck darstellt.
-
Die
Entscheidungseinheit D für
den emotionalen Ausdruck beurteilt die Stufe jeder vorläufigen Emotion
mittels der Informationen über
die Pseudo-Emotionen, welche aus dem Speicher 5 für Informationen über die
Pseudo-Emotionen erhalten wird und bestimmt den auszugebenden emotionalen
Ausdruck auf Grundlage der vorläufigen
Emotionen, deren Stufen hoch oder größer als 0 sind.
-
Der
emotionale Ausdruck wird aus einer Vielzahl von Mustern des emotionalen
Ausdrucks in Verbindung zu den Pseudo-Emotionen ausgewählt, welche
im Voraus in einem Speicher 6 für emotionale Ausdrucksmuster
gespeichert werden. Der emotionale Ausdruck beinhaltet in der Praxis
Veränderungen
von Gesichtsteilen wie Augen und Mund, wenn ein „Gesicht" mittels einer visuellen Ausgabevorrichtung
generiert wird. Außerdem
kann der emotionale Ausdruck durch Bewegung des Schwanzes oder des Haustierroboters
selbst angezeigt werden. Bei oben beschriebenem Verfahren speichert
der Speicher 6 für
emotionale Ausdrucksmuster im Voraus Muster jedes Teils des „Gesichts" und Bewegungsmuster des
Schwanzes oder des Haustierroboters selbst in Verbindung zu jeder
Stufe jeder vorläufigen
Emotion.
-
Das
Auswahlverfahren für
die Muster des emotionalen Ausdrucks in der Entscheidungseinheit D
für den
emotionalen Ausdruck kann einfach ein Verfahren sein, bei welchem
dasjenige Muster des emotionalen Ausdrucks, welches der vorläufigen Emotion
der höchsten
Stufe entspricht, ausgewählt wird.
Vorzugsweise wird jedoch ein Muster des Nicht-Vorhandenseins von
Ausdruck (ausdruckslos) unter den Mustern der Emotionsausdrücke gebildet und
wenn die Stufen aller vorläufigen
Emotionen 0 betragen, wird das ausdruckslose Muster ausgewählt. Wenn
die Stufen der vorläufigen
Emotionen mit Ausnahme einer vorläufigen Emotion 0 betragen, wird
ein Muster ausgewählt,
welches dieser einen vorläufigen
Emotion entspricht. Sind die Stufen mehr als einer, jedoch nicht
aller vorläufiger
Emotionen größer als
0, dann hat ein Muster einer vorläufigen Emotion einer höheren Stufe
als die der anderen vorläufigen
Emotionen Vorrang über
die anderen Muster. Des weiteren wird unter den verbleibenden Mustern
ein Muster einer vorläufigen
Emotion einer niedrigeren Stufe als die der ersten dort ausgewählt, wo das
erste Muster nicht zutrifft. Bei oben beschriebenem Verfahren werden
das erste Muster und das zweite Muster miteinander verbunden, um
einen kombinierten Ausdruck zu bilden. Betragen die Stufen aller
vorläufiger
Emotionen mehr als 0, kann das ausdruckslose Muster ausgewählt werden.
Auf diese Weise können
die Pseudo-Emotionen auf eine komplexe Weise angezeigt werden.
-
Die
Entscheidungseinheit D für
den emotionalen Ausdruck bestimmt die Muster des emotionalen Ausdrucks
aus den Pseudo-Emotionen im Moment auf oben beschriebene Art, stellt
die Muster als emotionales Ausdrucksverhalten ein und gibt diese an
die Verhaltensplanungseinheit H aus.
-
Autonomes Verhalten erzeugende
Einheit
-
18 ist ein schematisches
Flussdiagramm, welches die Prozesse in der autonomes Verhalten erzeugenden
Einheit E darstellt.
-
Die
autonomes Verhalten erzeugende Einheit E bestimmt jede Handlungsstufe
einer Vielzahl von aufgegliederter autonomer Verhaltensweisen, welche
in einem Speicher 7 für
autonome Verhaltensmuster eingestellt sind, auf Grundlage jeder
Stufe der Umweltinformationen, Benutzerinformationen, Informationen über Pseudo-Emotionen
und Informationen über
Pseudo-Persönlichkeit,
um einen Vorranggrad für
jede aufgegliederte autonome Verhaltensweise zu bestimmen. Bei oben
beschriebenem Verfahren wird jede Umweltinformation, Benutzerinformation,
Informationen über
Pseudo-Emotionen und Informationen über Pseudo-Persönlichkeit
in eine Vielzahl von Stufen unterteilt.
-
In
diesem Ausführungsbeispiel
werden die aufgegliederten Muster des autonomen Verhaltens für alle austauschbaren
oder beweglichen Teile (wie Augen, Mund, Stimme, Höhe des Schwanzendes, Bewegung
des Schwanzes, und Fortbewegung des Haustierroboters selbst) vorbereitet.
Jede aufgegliederte autonome Verhaltensweise wird mit der Stufe jeder
Information korreliert. Durch Hinzufügen oder Abziehen von Handlungsstufen
von jeder aufgegliederten autonomen Verhaltensweise auf Grundlage der
Stufe jeder Information, wird die Handlungsstufe jeder aufgegliederten
autonomen Verhaltensweise bestimmt.
-
Neue Verhaltensmuster
erzeugende Einheit
-
Sowohl
der Speicher 6 für
emotionale Ausdrucksmuster wie auch der Speicher 7 für autonome Verhaltensmuster,
welche in der Entscheidungseinheit D für den emotionalen Ausdruck
und der autonomes Verhalten erzeugenden Einheit E verwendet werden,
werden in der neue Verhaltensmuster erzeugenden Einheit G in geeigneten
Intervallen aktualisiert.
-
19 ist ein schematisches
Flussdiagramm, welches die Prozesse in der neue Verhaltensmuster
erzeugenden Einheit G zeigt, wie in 12 dargestellt.
-
Die
neue Verhaltensmuster erzeugende Einheit G für beurteilt Intervalle zwischen
der Erzeugung neuer Verhaltensmuster und der anschließenden Erzeugung
neuer Verhaltensmuster auf Grundlage der Informationen über die
Pseudo-Persönlichkeit.
In der Anwendung werden z. B. die Stufen der „Emotionsschwankung" oder „Aggressivität" der Informationen über die
Pseudo-Persönlichkeit
mit den Intervallen der Erzeugung korreliert. Die Korrelation wird
auf eine Weise vorgenommen, dass die Intervalle um so kürzer werden,
je höher
die Stufe der "Aggressivität" ist.
-
Die
neue Verhaltensmuster erzeugende Einheit G für berechnet die Intervalle
der Erzeugung neuer Verhaltensmuster und beurteilt dann, ob die Erzeugung
neuer Verhaltensmuster auf Grundlage der Intervalle und zufälliger Elemente
aktiviert wird. Bei einer Beurteilung über Aktivierung der Erzeugung verbindet
die neue Verhaltensmuster erzeugende Einheit G für Verhaltenselemente, welche
in einer Datenbank 8 für
emotionale Ausdruckselemente gespeichert sind mit einer Datenbank 9 für autonome Verhaltenselemente,
welche im Voraus eine Anzahl von Mustern des emotionalen Ausdrucks
und in letzterem Fall Muster autonomen Verhaltens speichert, wobei
neue Muster des emotionalen Ausdrucks und neue Muster autonomen
Verhaltens eingestellt werden. Oben beschriebene verbindende Prozesse
können
zufällig
oder durch Verwendung genetischer Algorithmen vorgenommen werden.
In der Anwendung werden z. B. verschiedene Formen von Teilen des „Gesichts" wie Augen, verschiedene
Bewegungen des Schwanzes, verschiedene Bewegungen des Haustierroboters
selbst und verschiedene Ausdruckstypen im Voraus als Elemente des
emotionalen Ausdrucks in eine Datenbank eingespeist. Dann können neue
Ausdrucksmuster von „Ärger" unter Verwendung
von in der Datenbank gespeicherten Elementen des emotionalen Ausdrucks
zufällig
erzeugt werden. Bei oben beschriebenem Verfahren können die
Verhaltensmuster Muster des emotionalen Ausdrucks beinhalten, d.
h. nur ein integrierter Speicher kann diese einzelnen Informationen
speichern und Prozesse für
neue Muster des emotionalen Ausdrucks und Prozesse für neue Muster
autonomen Verhaltens können
integriert werden.
-
Nach
der Erzeugung neuer Muster des emotionalen Ausdrucks und neuer Muster
autonomen Verhaltens gemäß oben beschriebenem
Prozess werden diese Muster mit einer Datenbank für gesunden
Menschenverstand und den Benutzerinformationen überprüft und überarbeitet, um extreme oder
offensichtlich abstoßende
Muster zu eliminieren. In der Anwendung werden die neuen Muster
auf Grundlage der Datenbank für
gesunden Menschenverstand, welche Informationen wie „wann ‚Ärger' ausgedrückt wird", „die Augenwinkel
sind nicht nach unten gezogen" beinhaltet, überprüft und überarbeitet
mit Bezug auf Kriterien des gesunden Menschenverstands. Des weiteren
wird, wenn das mit dem Ausdruck von „Ärger" verbundene Geräusch von „laut knurren" z. B. in „leise
knurren" abgeändert, wenn
beim Ausdruck von „Ärger", welcher mit „Knurren" assoziiert wird,
der Benutzer eine unbehagliche Reaktion zeigt. Eine Überprüfung auf
Grundlage der Benutzerreaktion oder der Bewertung des Benutzers
wird unter Verwendung der Benutzerinformationen vorgenommen. Eine Überprüfung auf
Grundlage der Benutzerreaktion bzw. Bewertung des Benutzers wird
unter Verwendung der Benutzerinformation vorgenommen.
-
Nachdem
die neue Verhaltensmuster erzeugende Einheit G die neu erzeugten
Muster in oben beschriebener Weise überprüft und überarbeitet hat, speichert
die Einheit G die aktuell verwendeten Verhaltensmuster, welche den
neu generierten Verhaltensmustern entsprechen, temporär und aktualisiert anschließend temporär die aktuellen
Verhaltensmuster entsprechend den neuen Verhaltensmustern. Diese
temporären
neuen Verhaltensmuster werden bewertet.
-
Die
Bewertung der neuen Verhaltensmuster wird hauptsächlich auf Grundlage der Benutzerbewertung
in den Benutzerinformationen durchgeführt. Sind die Bewertungen der
neuen Verhaltensmuster nach der Verwendung der neuen Verhaltensmuster über eine
bestimmte Zeitspanne hinweg negativ, werden die gespeicherten vorherigen
Verhaltensmuster wieder aufgenommen. Ist das Ergebnis der Bewertung
positiv, werden die neuen Verhaltensmuster in den entsprechenden
Musterinformationsspeichern 6 und 7 gespeichert.
-
befohlenes Verhalten erzeugende
Einheit
-
Die
befohlenes Verhalten erzeugende Einheit F erzeugt befohlenes Verhalten
durch Verwendung der Informationen aus dem Speicher 3 für externe
Informationen in Übereinstimmung
mit dem Benutzerbefehl, welcher in der Benutzerbefehlsinformationen
beinhaltet ist. In der Praxis, erzeugt die Einheit F bei diesem
Ausführungsbeispiel Verhaltensinformationen
auf Grundlage der Informationen aus dem Speicher für Umweltinformationen,
welche die Erkennung der Lage des Balles beinhaltet, die Bewegung hin
zum Objekt, das Holen des Balles und die Rückkehr zum Benutzer, wenn die
Information über
Benutzerbefehl lautet: (Befehl: Holen, Objekt: Ball).
-
Verhaltensplanungseinheit
-
Die
Verhaltensplanungseinheit H erhält
Verhaltensinformationen aus der Entscheidungseinheit D für den emotionalen
Ausdruck, der autonomes Verhalten erzeugenden Einheit E, der befohlenes
Verhalten erzeugenden Einheit F; stellt den Grad des Vorrangs für jede Verhaltensinformation
auf Grundlage der Informationen über
die Pseudo-Persönlichkeit,
der Informationen über
die Pseudo-Emotionen und Benutzerinformationen ein; erzeugt neuen
Vorrang bezüglich
der Verhaltensinformationen; verbindet jede Verhaltensinformation
auf Grundlage des neuen, höchsten
Vorranges der Verhaltensinformationen; und entscheidet letztlich über das
endgültige auszugebende
Verhalten.
-
20 und 21 sind schematische Flussdiagramme,
welche die Prozesse in der Verhaltensplanungseinheit H darstellen.
-
Die
Verhaltensplanungseinheit H beurteilt zuerst, ob absolutes Verhalten
erforderlich ist oder nicht. Wenn zu diesem Zeitpunkt absolutes
Verhalten erforderlich ist, wird die absolute Verhaltensinformation
auf Vorrang 1 eingestellt. Die absolute Verhaltensinformation beinhaltet
Informationen über
Verhalten, welches in einer Situation wie niedrige Batterieleistung
und Stillstand auf Grund einer Kollision dringende Handlung erfordert.
Die Bedingungen, welche dem absoluten Verhalten entsprechen, werden
in der Verhaltensplanungseinheit H gespeichert.
-
Als
Ergebnis der Beurteilung, ob absolutes Verhalten erforderlich ist
oder nicht, wird ein Vorranggrad festgelegt (1 bis 3: in diesem
Fall ist der Vorrang 1 hoher Vorrang), wenn kein absolutes Verhalten
erforderlich ist. Dieser Vorranggrad wird für jede Verhaltensinformation
auf Grundlage der Tabelle über Vorranggrade
bestimmt und als neue Verhaltensinformation mit Vorrang eingestellt.
-
Die
Tabelle über
Vorranggrade ist eine Tabelle, welche den Vorranggrad definiert,
wie in 20 dargestellt,
z. B.: Ist die Pseudo-Emotion „Freude", die Pseudo-Persönlichkeit „Gehorsam" und der Benutzerstatus „Ärger", wird das befohlene
Verhalten auf Vorrang 1 eingestellt, das emotionale Ausdrucksverhalten
auf 2 und das autonome Verhalten auf 3. Wie oben beschrieben ist
die Tabelle eine Datengruppe, in welcher ein Vorranggrad jeder Verhalteninformation
für eine
Kombination aller Pseudo-Emotionen, aller Pseudo-Persönlichkeiten
und sämtlicher Benutzerzustände eingestellt
wird. Das Verfahren zur Bestimmung des Vorranggrades ist jedoch
nicht auf oben beschriebene Regeln beschränkt und beinhaltet z. B. die
Methode der unscharfen Logik unter Verwendung von sogenannten Fuzzy-Regeln,
welche im Voraus die Beziehung zwischen den Pseudo-Emotionen, den Pseudo-Persönlichkeiten,
den Benutzerzuständen
und den Vorranggraden der Verhaltensinformation definieren, wobei
Zugehörigkeitsgleichungen der
Verhaltensinformationen mit Bezug auf die Vorranggrade gebildet
werden.
-
Nach
der Einstellung der neuen Verhaltensinformation mit Vorrang werden
das bereits ausgeführte
Verhalten und das Verhalten, welches einer Ausführung nicht bedarf, gelöscht, und
die verbleibenden Verhaltensmuster werden als unvollständige Verhaltensinformation
eingestellt. Diese unvollständige
Verhaltensinformation wird als wichtiger eingestellt als die zuvor
benannten neuen Verhaltensinformationen mit Vorrang. Auf Grundlage
der unvollständigen
Verhaltensinformation und der neuen Verhaltensinformation mit Vorrang,
wird die aktuelle Verhaltensinformation mit Vorrang aktualisiert.
Jede Verhaltensinformation wird auf Grundlage der aktuellen Verhaltensinformation
mit Vorrang verbunden.
-
21 ist ein schematisches
Flussdiagramm, welches die Prozesse von der Erzeugung jeder Verhaltensinformation
auf Grundlage der aktuellen Verhaltensinformationen bis zur Einstellung
des endgültig
auszugebenden Verhaltens darstellt.
-
Verbundenes
Verhalten wird generiert, indem eine Verhalten mit einem höheren Grad
an Vorrang zuerst eingestellt wird. Das heißt, jede Verhaltensinformation
besteht aus einer Vielzahl an Verhaltensweisen. In dem in 21 dargestellten Ausführungsbeispiel
umfasst die Verhaltensinformation folgendes: Augen, Mund, Konversation,
Fortbewegung und Information. Die Verhaltensweisen in den Verhaltensinformationen
werden in der Reihenfolge ihres Vorrangs eingestellt. Ein Verhalten
in der Verhaltensinformation niedrigeren Vorrangs wird nur dann
eingestellt, wenn dies mit den bereits durch die Verhaltensinformationen
höheren
Vorrangs definierten Verhaltensweisen keine Konflikte verursacht,
d. h. die Verhaltensweisen, welche durch die Verhaltensinformationen
höheren
Vorrangs nicht definiert werden, können mit denen in der Verhaltensinformationen niedrigeren
Vorrangs aufgefüllt
werden.
-
In
dem in 21 dargestellten
Ausführungsbeispiel
wird dasjenige Verhalten zuerst eingestellt (Fortbewegung: Annäherung an
Benutzer) welches durch das befohlene Verhalten höchsten Vorrangs definiert
ist. Zweitens wird dasjenige Verhalten, welches durch das emotionale
Ausdrucksverhalten dem Vorrang 2 definiert ist (Augen: lächelnde
Augen, Mund: lächelnder
Mund; Konversation: Pfeifen; Fortbewegung: Schwenken des Körpers) eingestellt.
Drittens wird das Verhalten, welches durch das befohlene Verhalten
des Vorrangs 3 definiert ist (Information: Anzeige der verbleibenden
Batterieleistung) eingestellt. Viertens (letztens) wird dasjenige
Verhalten, welches durch das autonome Verhalten des Vorrangs 4 definiert
ist (Konversation: Pfeifen; Fortbewegung: Bewegung an helleren Platz)
eingestellt. Wie aus obigem Beispiel ersichtlich wird, wird nur
die Information über „Fortbewegung" im Verhalten des
Vorrangs 1 verwendet und die Information über „Fortbewegung" im Verhalten niedrigeren
Vorrangs wird nicht angenommen, obwohl die autonomen Verhaltensweisen
des Vorrangs 1, 2 und 4 Informationen über „Fortbewegung" haben. Der Grund
dafür,
dass es bei dem oben beschriebenen Beispiel zwei befohlene Verhalten
mit Bezug auf „Fortbewegung" gibt, besteht darin,
dass die „befohlene
Verhalteninformation" im
vorherigen, unvollständigen
Verhalten beibehalten wurde, d. h., der vorherigen unvollständigen Verhaltensinformation
wurde Vorrang zugeschrieben.
-
Auswirkungen
-
Wie
oben beschrieben ist der Haustierroboter entsprechend dieses Systems
selbst mit einer Pseudo-Persönlichkeit,
welche sich durch die Interaktion mit dem Benutzer entwickelt, und
mit Pseudo-Emotionen ausgestattet, welche sich in Übereinstimmung
mit dem Benutzerstatus, den Emotionen des Benutzers und den Umweltinformationen ändern, wobei
die Pseudo-Emotionen durch die Pseudo-Persönlichkeit gesteuert werden
und die Pseudo-Persönlichkeit
sich in Abhängigkeit
vom Benutzer ändert,
d. h., die Pseudo-Persönlichkeit
wird für
jeden Benutzer im Einklang mit der Verwendung des Haustierroboters
einzigartig gebildet. Da die Pseudo-Persönlichkeit durch die Pseudo-Emotionen ausgedrückt wird,
kann sich der Benutzer am Aufziehen eines einzigartigen Haustierroboters
während
einer Entwicklungsperiode erfreuen, ähnlich dem Aufziehen eines
Kindes. Des weiteren kann der Benutzer, etwa nach Beendigung der
Entwicklungsperiode mit dem Haustierroboter eine „Freundschaft" aufbauen. Des weiteren
ist der Haustierroboter so konstruiert, dass er autonomes Verhalten
auf Grundlage der Pseudo-Persönlichkeit
und von der Pseudo-Persönlichkeit
gesteuerten Pseudo-Emotionen erzeugt. Je häufiger der Haustierroboter
verwendet wird, desto mehr bildet sich dessen Persönlichkeit,
wodurch es dem Haustierroboter ermöglicht wird, verschiedene Verhaltensweisen
zu zeigen.
-
Da
der Haustierroboter sich sowohl autonom wie befohlen verhalten kann,
wird er niemals vollständig
delinquent oder gehorsam sein. Verschiedene Handlungen halten das
Interesse des Benutzers am Haustierroboter aufrecht. Insbesondere
da die neue Verhaltensmuster erzeugende Einheit aktiviert ist, um
neue Verhaltensmuster zu erzeugen (einschließlich neuer emotionaler Ausdrucksmuster),
ist es nicht notwendig, im Voraus zahlreiche Verhaltensmuster in Verbindung
mit der Pseudo-Persönlichkeit,
den Pseudo-Emotionen und sonstigen Informationen (Benutzer- und
Umweltinformationen) vorzubereiten. Das System kann auf jeden Benutzertyp
schneller, natürlicher
und anpassungsfähiger
reagieren.
-
Technische Optionen
-
Es
kann ein Roboteraufbau konstruiert werden, der für mobile Navigationsaufgaben
geeignet ist, um bordeigene Audio- und Videoleistungen und eine
Funkverbindung zu einem bordfremden Computer bereitzustellen. Vorhandene
Techniken zum Farbabtasten zur Lokalisierung der Hände und
des Kopfes des Benutzers können
angepasst werden. Vorhandene Spracherkennungssoftware zur Erkennung einfacher
gesprochener Befehle im Umfang von ein oder zwei Wörtern kann
ebenso angepasst werden. Sämtliche
Verfahren für
einfache nonverbale Audioanalysen wie Intonationsanalysen zur Analyse
des affektiven bzw. emotionalen Inhalts eines Befehls können angepasst
werden. Vorhandene auf Datenbanken basierende reaktive Navigationsverfahren
können
angepasst werden, um das System mit der Fähigkeit auszustatten, in seiner
Umwelt zu navigieren, ohne mit Hindernissen zu kollidieren. Hierbei
können forschende
Verhaltensweisen wie auch zielsuchende Verhaltensweisen kodiert
werden, um die Bewegung an spezifische Ziele zu ermöglichen.
Des weiteren können
Fähigkeiten
des „logischen
Denkens" und eine
Repertoire an Verhaltensweisen mittels eines geeigneten entscheidungsfindenden
Algorithmus gebildet werden, welcher z. B. die Systemziele und vorrangigen
Ziele, die aktuelle Umwelt oder Situation und Benutzerziele bzw.
Benutzeremotion in Betracht zieht. Letztendlich kann jeder Algorithmus
adaptiert werden, um das Systemverhalten in Reaktion auf unerwartete
Situationen; zum Erlernen neuen Verhaltens, zum Erfassen der Umwelt
und zum Erlernen der Benutzerpräferenzen
anzugleichen.
-
Die
Funktionsweise des Systems kann z. B. durch die Erweiterung eines
verhaltensbasierten Subsystems (verantwortlich für die Interaktion des Systems
mit der Umwelt auf „niedriger
Stufe") durch parallel
arbeitende Verarbeitungsmodule höherer Stufe
(verantwortlich für
die Interaktion des Systems mit der Umwelt auf „hoher Stufe") gestaltet werden.
-
Des
weiteren können
Korrelationen zwischen verschiedenen Informationen und Variablen unter
Verwendung vorhandener Techniken wie neuronaler Netzwerke und genetischer
Algorithmen im Voraus festgelegt werden, wenn die Korrelationen hoch
komplex sind oder indem vorhandene Techniken wie Landkarten oder
Funktionsgleichungen verwendet werden, wenn die Korrelationen eher
einfacher Art sind. Diesbezüglich
wird hier auf folgende Werke verwiesen: Da Ruan (Hrsg.) „Intelligent Hybrid Systems – Fuzzy
Logic, Neural Networks, and Genetic Algorithms", Kluwer Academic Publishers (1997), J.-S.
R. Jang, C.-T. Sun, E. Mizutani, „Neuro-Fuzzy and Soft Computing", Prentice Hall Upper
Saddle River, NJ 07458 (1997), C.-T. Lin und C. S. George Lee, „Neural
Fuzzy Systems" Prentice
Hall Upper Saddle River, NJ 07458 (1998), und N. K. Kasabov, „Foundations
of Neural Networks, Fuzzy Systems, and Knowledge Engineering", The MIT Press (1996).
Oben genannte Techniken können
verbunden werden und für jede
Technik kann eine Lernkontrolle adaptiert werden.
-
Die
Erzeugung neuer Verhaltensweisen ist wichtig für das Erzielen einer hohen
und schnellen Anpassungsfähigkeit,
insbesondere auf Grundlage von Informationen über die den Roboter umgebenden
Benutzer und der Umwelt. Diese Erzeugung wird am besten durch Verwendung
genetischer Algorithmen durchgeführt.
Genetische Algorithmen können angewandt
werden, um schnell jegliche vorher festgelegte Beziehung, Kombination
oder Vorrang zu entwickeln, wie jene in der Bildungseinheit für Pseudo-Persönlichkeit,
der Bildungseinheit für
Pseudo-Emotionen, der Bildungseinheit für autonomes Verhalten und der
Verhaltenssteuereinheit gespeicherten Beziehungen, Kombinationen
und Vorränge, um
ein Objekt „aufzuziehen".
-
Die
Daten über
Pseudo-Persönlichkeit,
z. B. mentale Informationen oder Intelligenzinformationen können auf
einem separaten Speichermedium wie RAM oder CD gespeichert werden,
so dass der Benutzer die Pseudo-Persönlichkeit in ein anderes Objekt
einspeisen kann. Zusätzlich
können
die Daten mittels Kommunikationstechniken zu einem anderen Objekt übertragen
werden. Unter Verwendung oben benannter Technologie kann eine Vielzahl
von Pseudo-Persönlichkeiten
vieler Objekte durch Überkreuzung
erzeugt werden, um eine neue Pseudo-Persönlichkeit zu erzeugen. Des
weiteren können
die intelligenten Systemteile wie die Bildungseinheit für Pseudo-Persönlichkeit,
Bildungseinheit für
Pseudo-Emotion, die Bildungseinheit für autonomes Verhalten, die Bildungseinheit
für befohlenes
Verhalten, die Verhaltenssteuereinheit, die anderen Verarbeitungseinheiten
und -speicher vom Objekt getrennt in einem Hauptcomputer gespeichert
werden. Dabei wird zwischen dem Hauptcomputer und dem Objekt z.
B. per Internet ein Netzwerk aufgebaut, so dass das Objekt kompakt
gestaltet werden kann und über
einfache Sensoren, eine Ausgabevorrichtung sowie Kommunikationsvorrichtung
verfügen
sollte, um mit dem Hauptcomputer zu kommunizieren.
-
Eine
der Möglichkeiten
das zu realisieren, besteht in einem Verhaltenssteuerungssystem
mit einer Verhaltenseinheit, die programmiert ist, sich gemäß der Verhaltensparameter
zu verhalten. Außerdem
beinhaltet dieses System eine Eingabeeinheit, die programmiert ist,
Signale auszugeben, wenn aus dem Verhalten resultierende Signale
empfangen werden. Des weiteren beinhaltet das System ein abtrennbares
Erinnerungsmedium zur Verknüpfung zwischen
der Verhaltenseinheit und der Eingabeeinheit. Dieses Erinnerungsmedium
speichert eine Verknüpfung
zwischen den aus der Eingabeeinheit eingespeisten Signalen und den
an die Verhaltenseinheit ausgegebenen Verhaltensparametern. Besagte Verknüpfung ist
programmiert, auf Grundlage der Signale aus der Eingabeeinheit aktualisiert
zu werden.
-
Besagtes
Erinnerungsmedium kann in eine Persönlichkeitsbildungseinheit eingebunden
werden, welche programmiert ist, eine Verknüpfung zwischen den aus der
Eingabeeinheit eingespeisten Signalen und den an die Verhaltenseinheit
ausgegebenen Verhaltensparametern zu bestimmen und welche programmiert
ist, die Verknüpfung
mittels der im Erinnerungsmedium gespeicherten Signale für die Eingabeeinheit
zu aktualisieren.
-
Oben
erwähntes
Verhaltenssteuerungssystem kann außerdem eine emotionsbildende
Einheit umfassen, welche zwischen der Eingabeeinheit und der Verhaltenseinheit
parallel zu der persönlichkeitsbildenden
Einheit bereitgestellt wird. Diese emotionsbildende Einheit ist
programmiert, mittels der Signale aus der Eingabeeinheit eine Verknüpfung zwischen den
aus der Eingabeeinheit eingespeisten Signalen und den zu ersten
Verhaltensparametern hinzugefügten
zweiten und an die Verhaltenseinheit ausgegebenen Verhaltensparametern
zu bestimmen.
-
Außerdem kann
dieses Verhaltenssteuerungssystem eine neues Verhalten erzeugende
Einheit beinhalten, welche zwischen der Eingabeeinheit und der Verhaltenseinheit
parallel zum Erinnerungsmedium bereitgestellt wird. Diese neues
Verhalten erzeugende Einheit ist programmiert, neue Verhaltensmuster
zufällig
oder mittels vorher festgelegten Regeln zu erzeugen und die neuen
Muster an die Verhaltenseinheit auszugeben.
-
Oben
erwähntes
Netzwerk kann ein Netzwerk mit einer Vielzahl an autonomen Vorrichtungen sein,
von denen sich jede an einen Benutzer anpassungsfähig verhält. Dieses
Netzwerk umfasst eine Erfassungseinheit, welche vorher ausgewählte Signale
der vom Benutzer verwendeten autonomen Vorrichtung erfasst. Außerdem beinhaltet
das System eine Verhaltenseinheit, die programmiert ist, sich auf Grundlage
der Verhaltensparameter zu verhalten. Des weiteren wird eine Eingabeeinheit
bereitgestellt, welche programmiert ist, Signale auszugeben, wenn sie
Signale durch die Erfassungseinheit empfängt, die aus dem Verhalten
resultieren und Signalen, welche vom Netzwerk bereitgestellt werden.
Zusätzlich wird
eine Bildungseinheit für
Verhaltensparameter zwischen der Verhaltenseinheit und der Eingabeeinheit
bereitgestellt. Diese Bildungseinheit für Verhaltensparameter umfasst
einen Speicher, welcher eine Verknüpfung zwischen aus der Eingabeeinheit
eingespeisten Signalen und den von der Verhaltenseinheit ausgegebenen
Verhaltensparametern speichert. Außerdem ist diese Bildungseinheit
für Verhaltensparameter
programmiert, besagte Verknüpfung
mittels der aus der Eingabeeinheit erhaltenen Signale zu aktualisieren,
wobei jede Vorrichtung mit der anderen durch ein Netzwerk verbunden
ist.
-
In
diesem Netzwerk umfasst jede Vorrichtung weiterhin eine emotionsbildende
Einheit, welche zwischen der Eingabeeinheit und der Verhaltenseinheit
parallel zur Bildungseinheit für
Verhaltensparameter bereitgestellt wird. Diese emotionsbildende Einheit
ist programmiert, mittels der Signale aus der Eingabeeinheit eine
Verknüpfung
zwischen den aus der Eingabeeinheit eingespeisten Signalen und den zu
ersten Verhaltensparametern hinzugefügten zweiten und an die Verhaltenseinheit
ausgegebenen Verhaltensparametern zu bestimmen.
-
Außerdem umfasst
jede Vorrichtung eine neues Verhalten erzeugende Einheit, welche
zwischen der Eingabeeinheit und der Verhaltenseinheit parallel zur
Bildungseinheit für
Verhaltensparameter bereitgestellt wird. Diese neues Verhalten erzeugende
Einheit ist programmiert, neue Verhaltensmuster zufällig oder
mittels vorher festgelegten Regeln zu erzeugen und die neuen Muster
an die Verhaltenseinheit auszugeben.
-
Ein
weiteres mögliches
Netzwerk kann ein Netzwerk mit einer Vielzahl an autonomen Vorrichtungen
sein, von denen sich jede an einen Benutzer anpassungsfähig verhält. Dieses
Netzwerk umfasst eine Erfassungseinheit, welche vorher ausgewählte Signale
der vom Benutzer verwendeten autonomen Vorrichtung erfasst. Außerdem beinhaltet
das System eine Verhaltenseinheit, die programmiert ist, sich auf
Grundlage der Verhaltensparameter zu verhalten. Des weiteren wird
eine Eingabeeinheit bereitgestellt, welche programmiert ist, Signale
auszugeben, wenn sie Signale durch die Erfassungseinheit empfängt, die
aus dem Verhalten resultieren und Signalen, welche vom Netzwerk
bereitgestellt werden. Des weiteren wird eine Verhaltenseinheit
bereitgestellt, welche programmiert ist, sich auf der Grundlage
der Verhaltensparameter zu verhalten und eine Eingabeeinheit, welche
programmiert ist, Signale auszugeben, wenn sie Signale durch die
Erfassungseinheit empfängt,
die aus dem Verhalten resultieren und Signalen, welche vom Netzwerk
bereitgestellt werden.
-
Besagtes
Netzwerk umfasst außerdem
einen Hauptcomputer, welcher jede Vorrichtung mittels des Netzwerkes
miteinander verbindet. Dieser Computer umfasst eine Bildungseinheit
für Verhaltensparameter,
welche zwischen der Verhaltenseinheit und der Eingabeeinheit jeder
Vorrichtung durch das Netzwerk bereitgestellt wird. Außerdem umfasst
besagte Bildungseinheit für
Verhaltensparameter einen Speicher, welcher eine Verknüpfung zwischen
aus der Eingabeeinheit eingespeisten Signalen und den von der Verhaltenseinheit
jeder Vorrichtung ausgegebenen Verhaltensparametern speichert. Diese
Bildungseinheit für
Verhaltensparameter ist programmiert, besagte Verknüpfung jeder
Vorrichtung mittels der Signale aus der Eingabeeinheit zu aktualisieren, wobei
besagter Computer die Signale aus der Erfassungseinheit oder der
Eingabeeinheit erhält.
-
Besagter
Computer kann des weiteren eine emotionsbildende Einheit umfassen,
welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel
zur Bildungseinheit für
Verhaltensparameter jeder Vorrichtung durch das Netzwerk bereitgestellt wird.
Diese emotionsbildende Einheit ist programmiert, mittels der Signale
aus der Eingabeeinheit jeder Vorrichtung eine Verknüpfung zwischen
den aus der Eingabeeinheit eingespeisten Signalen und den zu ersten
Verhaltensparametern hinzugefügten
zweiten und an die Verhaltenseinheit jeder Vorrichtung ausgegebenen
Verhaltensparametern zu bestimmen.
-
Außerdem kann
dieser Computer eine neues Verhalten erzeugende Einheit beinhalten,
welche zwischen der Eingabeeinheit und der Verhaltenseinheit parallel
zur Bildungseinheit für
Verhaltensparameter jeder Vorrichtung bereitgestellt wird. Diese neues
Verhalten erzeugende Einheit ist programmiert, neue Verhaltensmuster
zufällig
oder mittels vorher festgelegten Regeln zu erzeugen und die neuen
Muster an die Verhaltenseinheit jeder Vorrichtung auszugeben.
-
Andere Anwendungen
-
Das
zu steuernde Objekt der vorliegenden Erfindung erfährt keine
Beschränkung.
Sämtliche Objekte,
welche mit dem Benutzer interagieren und welche nicht nur vorgeschriebenes
(befohlenes) Verhalten sondern auch autonomes Verhalten zum Vorteil
des Benutzers ausgeben können,
wie in dem ersten und zweiten Ausführungsbeispiel, wie ein Motor in
einem Motorrad oder einem Auto, eine bordeigener Motor eines Schiffes,
ein Industrieroboter zur Werkzeugfertigung, ein Roboter als Kommunikationspartner,
ein Musikinstrument, ein in elektrischen Fahrzeugen betriebener
Motor, ein Musikinstrument wie ein Keyboard, ein System zur Forschungsunterstützung, Haushaltsgeräte wie Herde
oder ähnliches können durch
die Einführung
des Steuersystems der vorliegenden Erfindung auf Grundlage der selben Prinzipien
der zuvor benannten Ausführungsform
gesteuert werden. Im Übrigen
können
die externen Informationen oder Umweltinformation weggelassen werden,
wenn das Objekt unter eingeschränkten
Umständen
eingesetzt wird oder wenn die externen bzw. Umweltinformationen
nicht zum Umsetzen des Benutzerbefehls beitragen können oder
der Benutzer dies nicht wünscht.
-
Wird
vorliegende Erfindung auf ein zu steuernde Objekt in einem anderen
Bereich oder zu einem anderen Zweck eingesetzt, kann das zu steuernde
Objekt durch Abänderung
der Informationen gesteuert werden, wie in oben beschriebenen Ausführungsbeispielen.
In jedem Fall ist das zu steuernde Objekt entsprechend vorliegender
Erfindung und auf welche vorliegende Erfindung angepasst ist, wahrscheinlich
mit Scheinintelligenz ausgestattet.