-
Die vorliegende Erfindung bezieht
sich auf Unterhaltungssysteme und insbesondere auf Spiel- und Geschichte-Systeme,
wobei eine oder mehrere computermodellierte Figuren durch eine virtuelle
Welt gehen, in Interaktion mit der Umwelt und anderen Figuren innerhalb
der Umwelt, unter direkter oder indirekter Steuerung eines Benutzers.
-
Figur-basierte Spiele oder interaktive
Dramen wurden als Netzwerk miteinander verbundener voraufgezeichneter
Szenen in einer "Story-net"-Gliederung von Verzweigungsknotenpunkten
modelliert. Bei jedem Knotenpunkt in dem Netzwerk ist eine Entscheidung
erforderlich, welche von drei oder vier möglichen Szenen als nächste wiedergegeben
wird, wobei es eine gemeinsame Richtung durch die geschriebene Geschichte gibt,
so dass der Benutzer letzten Endes die oder eine der möglichen
Schlussszenen erreicht. Beispiele verschiedener Geschichtsstrukturen,
von der nicht interaktiven "linearen" Form über die
Einführung
mehrerer Effekte und Spielelemente zu kompletten Verzweigungs-Geschichtsstrukturen
sind beschrieben worden in: "Flawed
Methods for Interactive Storytelling" von Chris Crawford, "Interactive Entertainment
Design", Heft 7,
Nr. 4, April 1994. Die Probleme des riesigen Datenaufwands, erforderlich
zum Schaffen nur einiger alternativer Wege durch eine Geschichtsstruktur
gegenüber
den Beschränkungen
herkömmlicher
(linearer) Geschichtstechniken werden beschrieben, und, während eine
Lösung
beansprucht wird, werden die Einzelheiten vorenthalten. Diese Probleme
der Interaktivität
gegenüber
der Geschichtslinie werden weiterhin in einem Artikel von demselben Author: "Interactivity, Plot,
Free Will, Determinism, Quantum Mechanics and Temporal Irreversibility" ind "Interactive Entertainment
Design", Heft 8,
Nr. 4, April 1995-beschrieben. In US Patent 6.393.073 von Best wird
ein Videospiel beschrieben, das die Form annimmt einer sich verzweigenden
Geschichte, die einen Dialog zwischen zwei oder mehr animierten
Figuren an einem Fernsehschirm und zwei oder mehr menschlichen Spielern simuliert.
Best besagt, dass eine Nicht-Spieler-Figur derart programmiert werden
sollte, dass es viele verschiedene alternative Sachen sagen kann,
und zwar abhängig
von dem, was ein Spieler oder eine vom Spieler gesteuerte Figur
gerade "gesagt" hat, wobei das Gesagte
aus einem Menü selektiert werden
kann, das zwei, drei oder vier solcher Aussagen zeigt. Verzweigung
des Dialogs rührt
aus diesem Selektionsvorgang her.
-
Wenn nun nur die Audioseite der aktiven
Unterhaltung betrachtet wird, erfordern die Figur-basierten Spiele
oder interaktiven Dramen einen Dialog zwischen den Figuren: Sprache
ist die einfachste Art um Meinungen und ein Gefühle zu übertragen und erzeugen folglich
ein Eintauchgefühl
für den
Benutzer durch Beziehung auf die Figuren. Bei herkömmlichen
Systemen, wie bei denen, die von Crawford beschrieben worden sind,
geschieht dies dadurch, dass lange vorher aufgezeichnete Sprachsequenzen
verwendet werden, welche die Tonspur bei der selektierten Szene
bilden, die jeder Zweigstelle der Geschichte folgt. Solche Systeme
sind, sogar als reine Audiounterhaltung, dennoch an die laufende
Verzweigungsstruktur gebunden, die zusätzlich zu den langen Perioden
ohne Variation, dennoch unterbindend in dem Aufwand von Daten, erforderlich
zur Speicherung sogar für
relativ wenig Abzweigungen.
-
Deswegen ist es u. a. eine Aufgabe
der vorliegenden Erfindung ein Figurbasiertes Audio-Unterhaltungssystem
zu schaffen mit mehr Möglichkeiten
für Variation,
während
weniger Audiodaten gespeichert werden müssen als bei den bisherigen
Systemen. Die vorliegende Erfindung wird durch die beiliegenden
Patentansprüche
definiert.
-
Durch Verwendung des Netzwerkes gekoppelter
Knotenpunkte braucht jedes Audiosegment (Sprache oder Toneffekte)
nur einmal gespeichert zu werden, wobei der betreffende Knotenpunkt
jeweils selektiert wird, wenn dieses Segment erforderlich ist. Der
Figur-Datenspeicher enthält
auf geeignete Weise eine Anzahl gespeicherter Attributwerte, wobei
die Selektion aus wenigstens zwei weiteren Knotenpunkten durch die
Befriedigung betreffender verschiedener Kombinationen von Attributeinstellungen
ermittelt wird, wobei wenigstens eine derselben auf geeignete Weise
eine Voreinstellung ist, gewählt
in dem Fall, wo keine der spezifizierten Kombinationen erfüllt wird.
-
Dieses "Audio Web" kann benutzt werden zum Erzeugen von
Konversationen zwischen zwei oder mehr virtuellen Figuren, je mit
einem eigenen Satz "persönlicher" Attribute in dem
Figurspeicher, wobei die Einstellung dieser Attribute die Strecke
definiert, welche die Konversation bei jedem Knotenpunkt nimmt.
-
Die Anordnung kann weiterhin einen
Funktionsaufrufspeicher enthalten, der eine Anzahl Befehle enthält, die
je eine betreffende Prozessorfunktion spezifizieren, wobei jeder
Funktionsaufruf mit wenigstens einem Knotenpunkt des Netzwerkes
assozüert
ist und durch den Prozessor aufgerufen und implementiert wird bei Selektion
des oder jedes assoziierten Knotenpunktes. Der Prozessor kann gesteuert
werden zum Ändern
wenigstens eines gespeicherten Attributwertes aus dem Figurdatenspeicher,
und zwar in Reaktion auf wenigstens einen Funktionsaufruf. Durch
Verwendung dieser Funktionsaufrufe wird die Konversationsstrecke
der Figuren mehr abhängig
von deren Reaktion auf die Konversation und auf die weiteren Figuren.
Ein oder mehrere weitere Knotenpunkte können in dem Netzwerk definiert
werden, je mit einem assoziierten Funktionsaufruf, aber ohne ein
betreffendes Audiosignalsegment. Diese Knotenpunkte ohne Audio können als "Bühnenrichtlinien" benutzt werden um
Merkmale der virtuellen Umgebung oder der Figuren zu ändern.
-
Es können vom Benutzer betätigbare
Eingabemittel vorgesehen sein, die mit dem Prozessor gekoppelt sind,
wobei die Eingaben durch den Benutzer die Selektion an einem oder
mehreren Knotenpunkten beeinflussen, wobei auf geeignete Art und
Weise die Einstellung wenigstens eines der gespeicherten Attributwerte
von dem Prozessor geändert
wird. Dadurch, dass zu Anfang die Attributwerte eingestellt oder
ständig
geändert
werden, kann der Benutzer die "Stimmung" der Figuren ändern und
dann hören,
wie dies die Strecke der Konversation und die Verhältnisse
der Figuren untereinander beeinflusst.
-
Die Anordnung kann die Audiodaten
zu einer einzelnen Einheit liefern oder sie kann eine Audiosignal-Wiedergabeanordnung
enthalten, die mit dem Audiodatenspeicher gekoppelt ist, der die
Ausgangsdatenströme
empfängt
und die Audiosignalsegmente wiedergibt.
-
Die vorliegende Erfindung schafft
ebenfalls eine entfernbare Speicheranordnung, wie ein Band oder eine
optische Platte, die als Audiodatenspeicher wirksam ist und die
Audiosignalsegment-Datenströme
zusammen mit den Daten des Netzwerkdatenspeichers festhält, wobei
diese Daten Indexinformation enthält (wie Spur- und Sektoradressen),
welche die betreffenden Speicherstellen jedes Audiosignalsegment-Datenstromes
identifiziert. Durch die Verwendung einer entfernbaren Speicheranordnung
könnte
die Anordnung geeignete Zugriffsmittel, wie eines Plattenlesers,
enthalten. Am Anfang einer Session werden die Netzwerkdaten und
die begleitende Indexinformation derart heruntergeladen, dass die
selektierten Audiosegmente dann mit ihren Spuradressen aufgerufen
werden können,
dies zum Minimieren von Zugriffsverzögerungen.
-
Ausführungsbeispiele der Erfindung
sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben.
Es zeigen:
-
1 einen
kleinen Teil eines Netzwerkes von Audio (Sprache) Segmenten; und
-
2 ein
Blockschaltbild einer Anordnung, worin die vorliegende Erfindung
einverleibt ist.
-
Die nachfolgende Beschreibung ist
eine "eine Geschichte
erzählende" Audioweb-Anordnung,
wobei Figuren miteinander konversieren, während sie in einer virtuellen
Welt interaktiv sind. Die Strecke, der die von den Figuren geführte Konversation
folgt, ist nicht vorgeschrieben, sondern geht stattdessen durch
eine als Netzwerk ausgebildete Sammlung von Knotenpunkten, die je
ein aus Sprache oder Toneffekten bestehendes kurzes Audiosegment
enthalten. Bei jedem Knotenpunkt wird eine Entscheidung getroffen,
welche Strecke einer Anzahl möglicher
Strecken (die zu betreffenden weiteren Knotenpunkten führen) gewählt wird.
Die Entscheidung wird auf Basis mehreren Bedingungen getroffen,
die auf jeden Knotenpunkt angewandt werden und auf Basis von Attributen
der jeweiligen Figuren, wenn diese bei diesem Knotenpunkt stehen,
was nachher noch näher
beschrieben wird.
-
1 zeigt
einen kleinen Teil des Audionetzwerkes mit Knotenpunkten A1– A7 mit
Sprachsegmenten einer ersten Figur und mit Knotenpunkten B1–B5 mit
Sprachsegmenten einer zweiten Figur. In dem ersten Knotenpunkt A1
sagt die erste Figur "Hallo": die Wahl des nächsten Knotenpunktes
(B1 oder A2) ist abhängig davon,
welche Bedingungen am Knotenpunkt A1 erfüllt werden. So kann beispielsweise
die entscheidende Bedingung mit einem Attribut der zweiten Figur
assoziiert sein, was dem Umstand entspricht, ob diese Figur redselig
ist oder nicht. Wenn das Attribut zu dem betreffenden Zeitpunkt
auf "redselig" gesetzt wird, wird
die Verzweigungsstrecke zu dem Knotenpunkt B 1 selektiert und die
zweite Figur wird antworten mit "Hallo", sonst soll die
erste Figur beim Knotenpunkt A2 das Gespräch fortsetzen mit der Frage "Wie geht's ?".
-
Die Wahl beim Knotenpunkt A2 ist
abhängig
von verschiedenen Bedingungen, so dass, obschon die zweite Figur
nicht redselig ist, sie eine direkte Frage beantworten wird. Die
bestimmende Bedingung beim Knotenpunkt A2 kann die aktuelle Einstellung
eines Attributs der zweiten Figur in Bezug auf sein allgemeines
Wohlbefinden sein, so dass diese Figur Folgendes antworten wird:
Nicht so gut heute" (Knotenpunkt
B2) oder "Gut, danke,
und wie geht's Ihnen
?" (Knotenpunkt
B3) je nach der Einstellung. Die Einstellung des entsprechenden Attributs
der ersten Figur kann die Antwort auf die Frage am Knotenpunkt B3
entscheiden.
-
Ein affektives Attribut zur Steigerung
der Wirklichkeit der Interaktion der Figur ist die "ich mag/ich mag nicht" "Meinung" der anderen Figur. Während einige
Attribute durch die ganze Interaktion der Figur hindurch feste Werte
halten können,
sind andere, wie "ich
mag / ich mag nicht" auf
geeignete Weise abhängig
von den Ergebnissen vorhergehender Interaktionen. Diese variablen
Attribute können
auf einfache Weise "ein" oder "aus" sein oder sie können komplexer
sein. Mit einem Ausgangs-Attribut mit dem Wert 50 in einer Skala
von 0–100
kann beispielsweise (d. h. doppelwertig zu der zweiten Figur) die
Streckenwahl an dem Knotenpunkt A1 eine Steigerung gleich 10 mit
sich bringen, wenn die Strecke über
den Knotenpunkt B1 gewählt
wird und eine Reduktion gleich 5, wenn die direkte Verzweigung zu
dem Knotenpunkt A2 gewählt
wird, wobei die Änderung des
Attributpegels das Ergebnis eines Funktionsaufrufs an dem Zielknotenpunkt
A2 ist. Das Ergebnis ist eine "mag
/ mag nicht" Attributeinstellung
von 60 oder 45, abhängig
davon, ob die zweite Figur an der Entscheidungsstelle des Knotenpunktes
A1 "redselig" ist. Die Einstellung
des "mag / mag nicht" Attributs kann dann
der entscheidende Faktor an dem Knotenpunkt B2 sein: wenn die Einstellung
50 oder höher
ist, hat die erste Figur eine doppelwertige oder freundliche Attitude
gegenüber
der zweiten Figur und wird antworten mit "Ach je" (Knotenpunkt A4) in Reaktion auf die
Mitteilung, dass es der zweiten Figur nicht so gut geht. Mit der
Einstellung des Attributs auf 45 aber hat die erste Figur sich gegenüber der
zweiten Figur als "mag
nicht" geäußert und möchte stattdessen
am Knotenpunkt A3 antworten mit "so
ein Pech".
-
Die Neuverwendung von Segmenten ist
bei dem Knotenpunkt A6 dargestellt ("schon gut") der in diesem Beispiel den beiden
Knotenpunkten A3 und A4 folgt. Im Endeffekt kann in Antwort auf
den Knotenpunkt B2 die erste Figur sagen: "schon gut, macht nichts" oder "Ach je, macht nichts". An dieser Stelle
soll eine wechselseitige Abhängigkeit
gemacht werden, wobei die Speicherung in dem gespeicherten Audio
durch dem zusätzlichen
Aufruf zu dem Audiospeicher versetzt wird, erforderlich beim Knotenpunkt
A3 oder A4. Kurze Sätze oder
sogar einzelne Wörter
ermöglichen
eine riesige Neuverwendbarkeit, aber steigern die Komplexität des Netzwerkes
und die Zugriffszeiten für
den Audiospeicher können
den Realismus mit kurzen aber bemerkenswerten Pausen zwischen aufeinander
folgend aufgerufenen Segmenten beeinflussen. Auf geeignete Weise können die
Audio- segmente an
Interpunktionsstellen aufgeteilt werden, wo eine leichte Zögerung natürlicher klingen
wird.
-
Wie aus 1 ersichtlich, wird das Aussprechen ein
und desselben Wortes bzw. ein und derselben Phrase durch verschiedene
Figuren mit separaten Knotenpunkten verarbeitet (beispielsweise
A1 und B2, A4 und B5) da die Audiosegmente zu diesem Zeitpunkt vorher
aufgezeichnet sind: dasselbe gilt auch für verschiedene Intonationen
einer bestimmten Phrase durch ein einzige Figur. Dort, wo das Audio
aus Text von Sprachsynthesizern hoher Qualität erzeugt wird, die imstande
sind, verschiedene Intonationen / Akzenten zu meistern, brauchen
Phrasen nur einmal gespeichert zu werden. Dies aber führt zu einer
anderen wechselseitigen Abhängigkeit:
während
es eine Reduktion in der Anzahl Knotenpunkten gibt, wird die Verzweigungsstruktur komplexer
und die Anzahl Bedingungen bei jedem Knotenpunkt nimmt mit der Notwendigkeit,
zu ermitteln, welche Figur spricht und der Einstellung des Intonationsattributs
bevor man zu der Auswertung der die Bedingungen bestimmende Verzweigungsselektion
kommen kann, zu.
-
Das "Verhalten" der Figuren wird abhängig sein
von der Art und Weise, wie sie modelliert werden. In einer Basis-Implementierung
können
sie auf einfache Weise in Termen eines Akzentes definiert werden,
der auf eine einstellte Weise reagiert, definiert durch die Knotenpunktbedingungen
auf Basis der aktuellen Attributeinstellungen. Vorzugsweise aber
werden die einzelnen Figuren als eine komplexe Sammlung aufeinander
bezogener Verhalten modelliert, die deutliche Persönlichkeitsmerkmale
entwickeln können,
je nachdem die Interaktion mit dem Geschichtsweb fortschreitet.
Regelbasierte Programmiersprachen werden bevorzugt um eine Kopplung
von beispielsweise Figur-Attributen zu ermöglichen, wie diese durch den
Durchgang durch die Knotenpunkte mit anderen intern vorhandenen
Attributen geändert
werden. Mit einer derartigen Kopplung kann die netzwerkgesteuerte Änderung
von Attributpegeln zu einer Änderung
anderer Attribute führen.
So kann beispielsweise eine Figur die netzwerkgesteuerten Attribute
froh /traurig und (eine andere Figur) mag / mag nicht haben, die
in der Basisimplementierung unabhängig voneinander sind. Bei
der komplexeren Figur kann eine Steigerung in der "Fröhlichkeit" Attributeinstellung
zu einer Steigerung in der "mag" Attributeinstellung
führen, da
die Figur eine freundlichere Meinung über die Mitfiguren erhält, je nachdem
ihre Stimmung besser wird. In einer Entwicklung kann die Figur ein
internes Attribut haben (beispielsweise Ehrlichkeit), das nicht
unmittelbar von den Funktionsaufrufen des Audiowebs gesteuert wird
(die an sich programmierte Regeln sein können), deren Einstellung das
Maß bestimmt,
in dem die Einstellung des Attributs glücklich/traurig die Einstellung
des Attributs mag/mag nicht beeinflusst. Solche interne Attribute
können
von dem Benutzer eingestellt werden oder können voreingestellt sein. Auf
alternative Weise können
sie durch die Interaktion der Figuren und durch deren Ergebnisse
beeinflusst werden: so kann beispielsweise eine ständig hohe
mag/mag nicht Attributeinstellung "Vertrauen" oder "Argwohn" in der Figur erzeugen mit einem ständigen Anstieg
oder Abfall der internen Ehrlichkeit Attributeinstellung.
-
Eine geeignete regelbasierte Echtzeit-Sprache
zum Spezifizieren solcher gegenseitig bezogenen Gruppen von Attributen
und deren Einfluss auf einander ist "Real Time ABLE" (RTA), beschrieben in "Proceedings of the
European Simulation Multiconference 1991" auf den Seiten 226–231. Weitere Beispiele der
Merkmale regelbasierter Sprachen sind gegeben in "The Behaviour Language:
User's Guide" von R A Brooks,
Al Memo 1227, Massachusetts Insitute of Technology, Artificial Intelligence
Laboratory, April 1990.
-
2 zeigt
eine Anordnung, in der die vorliegende Erfindung angewandt wird,
mit einem Prozessor 10, der über einen Datenbus 24 mit
einer Anzahl Datenspeicher 12, 14, 16, 18, 20, 22 zusammen
mit einer Audio-Wiedergabestufe 26 und einer Benutzer-Eingabevorrichtung 28 gekoppelt
ist. Der erste Speicher, der Audiospeicher 12, enthält alle
Sprach- und Tonsegmente, die mit den Knotenpunkten des Netzwerkes
assoziiert sind, und liefert diese, wenn aufgerufen, zu der Audio-Wiedergabestufe 26 zur
direkten Wiedergabe aus. Der Audiospeicher kann in die Anordnung
aufgenommen sein, oder er kann in einer entfernbaren Speicheranordnung,
wie einer optischen Scheibe, vorgesehen sein, wobei der Prozessor 10 über einen
geeigneten Leser auf die Daten zugreift. Auf geeignete Weise wird
die Netzwerkbeschreibung ebenfalls zu dem Netzwerkspeicher 14 heruntergeladen
(was noch näher
beschrieben wird) und zwar aus der Speicheranordnung, zusammen mit
Indexinformation, so dass jeder Knotenpunkt mit der Speicheradresse
des assoziierten Audiosegmentes assoziiert wird. Der Prozessor 10 kann
dann die Audiosegmente aus dem Speicher aufrufen, indem er sie unmittelbar
adressiert, wodurch Zugriffsverzögerungen
auf ein Minimum begrenzt werden.
-
Der nächste Speicher, der Netzwerkspeicher
14,
enthält
das Buchweb, einen Bestand, der das Netzwerk definiert, das die
Knotenpunkte miteinander koppelt. Ein Fragment des Buchwebbestandes
kann sein, wie in dem nachfolgenden Beispiel dargestellt:
| Bestand: | Erläuterung: |
| #2026,
14 | Knotenpunkt
Nummer 2026. Aufruffunktion Nummer 14, wenn dieser Knotenpunkt selektiert
wird. |
| >1150, 3,6,1 | Gehe
zu Knotenpunkt 1150 wenn die Bedingungen 3, 6 und 1 erfüllt sind. |
| >2040, 3,2 | Gehe
zu Knotenpunkt 2040 wenn die Bedingungen 3 und 2 erfüllt sind. |
| >2028 | Gehe
zu Knotenpunkt 2028 wenn die Verzweigungsbedingungen nicht erfüllt sind. |
| #2028 | Knotenpunkt
2028. Keine angehängte
Funktionen. |
| >2100, 3,2,4 | Gehe
zu Knotenpunkt 2100 wenn die Bedingungen 3, 2 und 4 erfüllt sind. |
| >1150, 3,2,1 | Gehe
zu Knotenpunkt 1150 wenn die Bedingungen 3, 2 und 1 erfüllt sind. |
| >2040, 3,2 | Gehe
zu Knotenpunkt 2040 wenn nur die Bedingungen 3 und 2 erfüllt sind. |
| >1810 | Voreinstellung
auf Knotenpunkt 1810 |
-
Wenn ein Knotenpunkt selektiert wird,
und zwar in der CPU 10, adressiert die Knotenpunktnummer das
geeignete Segment des gespeicherten Audios (über die Adressenleitung ADDR)
in dem Audiospeicher 12.
-
Die nächsten zwei Speicher 16, 18 enthalten
die Definitionen der Bedingungstests, die angewandt werden sollen
und die aktuellen Attributeinstellungen für jede Figur. Die Bedingungstests
können
längs der
Linien sein "ist
Attribut A größer als
50?", wobei Attribut
A das oben beschriebene mag/mag nicht Attribut ist, dessen aktueller
Wert in dem Figurspeicher 18 festgehalten wird.
-
Die Definition der jeweiligen Funktionen,
die an einem Knotenpunkt aufgerufen werden können, wird in dem Funktionsspeicher 20 festgehalten.
Diese Funktionen können
sich anwenden lassen auf die Figuren selbst, und zwar so verschieden
in einer oder mehreren Attributeinstellungen als geeignet zum Lernen
der Figur oder zum Erteilen der Information, die in dem Audiosegment
enthalten ist, das mit dem Knotenpunkt assozüert ist, bei dem das Segment
aufgerufen wird. Die Funktionen können ebenfalls die virtuelle
Welt beeinflussen, in der die Konversation stattfindet. Die Interaktion
zwischen den Figu ren kann verbessert werden, wenn sie zwischen verschiedenen "physikalischen" Umgebungen sich
bewegt, wie definiert in einem Modell der Szenarien der jeweiligen
virtuellen Welt, die in dem Weltspeicher 22 festgehalten
werden, wobei die aktuelle Umgebung an sich Gegenstand einer oder
mehrerer Bedingungen sein kann. So könnte beispielsweise eine aktuelle
Umgebung einer Gefängniszelle
eine Bedingung erfüllen,
die zu der Wahl des nächsten
Knotenpunkt-Audiosegmentes "Wie
gelangen wir hier hinaus?" statt "Es gefällt mir
hier" führt.
-
Die verschiedenen Szenarien würden sich
verkoppeln, wobei der Figurzugriff auf und die Bewegung zwischen
den verschiedenen Szenarien durch den speziellen Punkt in dem und
der Durchgang durch das Netzwerk bestimmt wird. Auf einem direkten
Pegel kann der Eingang in eine geschlossene Umgebung erfordern,
dass die Figur oder die Figuren durch den Knotenpunkt gegangen sind,
wo ein Passwort gegeben wurde. Auf einem indirekten Pegel kann eine
Bewegung in ein anderes Gebiet des Netzwerkes die Bewegung in eine neue
Umgebung auslösen.
Die Umgebung selber kann benutzt werden zum Auslösen von Audioeffekten über die
CPU 10 und innerhalb der Wiedergabestufe 26 zum
Erzeugen von beispielsweise Echo, wenn die Konversation in einer
Höhle oder
in einem Kerkerszenario stattfindet.
-
Diejenigen Merkmale, welche die Attribute
der Szenarien ändern,
einschließlich
der Selektion aus der virtuellen Welt, können von weiteren Knotenpunkten
des Netzwerkes ohne assoziierte Audiosegmente aufgerufen werden.
Diese weiteren Knotenpunkte wirken als "Bühhenrichtlinien", wie "Öffne die Tür": Bühnenrichtlinienknotenpunkte
können
selbstverständlich
assoziierte Audiosegmente haben, wie Toneffekte und diese sind mit
den Konversationssegmenten mit einverleibt.
-
Die Form der Benutzer-Eingabevorrichtung 28 wird
abhängig
sein von dem unterstützten
Pegel der Benutzer-Interaktion. Auf einem Basispegel kann die Benutzereingabe
einfach die Ausgangsselektion einer Gruppe von Spielern oder Umgebungen
aus einem Menü der
Verfügbaren
sein. Höhere
Pegel der Teilnahme können
eine Ausgangs- oder aktuelle Manipulation von Figur-Attributen (extern
oder intern) betreffen, wobei der Benutzer einen Schieberegler hat,
mit dem er beispielsweise das mag/mag nicht Attribut seiner "angenommenen" Figur in Bezug auf
seine Perzeption einer anderen Figur der Geschichte setzt.
-
Es dürfte einleuchten, dass die
oben beschriebenen Techniken und Anordnungen erweitert werden können um
Video einzuverleiben, obschon eine detaillierte Beschreibung außerhalb
des Rahmens der vorliegenden Erfindung liegt. Wenn die Web-Navigation in Abhängigkeit
von den Audio-Kopplungen verarbeitet wird, umfassen zusätzliche
Erwägungen
für hinzugefügtes Video
die Probleme von AudioNideo-Synchronisation, insbesondere für kurze
(d. h. ein einzelnes Wort) Audio-Segmente und die Möglichkeit
von Konversationssegmenten, die in mehr als nur einer virtuellen
Umgebung auftreten. Computer-erzeugte Figuren und Umgebungen können eine
dieser Probleme lindern: andere können weniger direkte sichtbare
Darstellungen erfordern, wie unbewegte Bilder der aktuellen Umgebung
mit überliegenden
Computer-erzeugten Bildern der Gesichter der Figuren, die jeweils ändern, wenn
eine betreffende Attributeinstellung sich ändert.
-
Aus der Lektüre der vorliegenden Beschreibung
dürften
dem Fachmann andere Abwandlungen einfallen. Solche Abwandlungen
können
andere Merkmale betreffen, die im Bereich der interaktiven Unterhaltungsgeräte bereits
bekannt und statt der oder zusätzlich
zu den hier bereits beschriebenen Merkmalen verwendbar sind. Der
Bereich der vorliegenden Erfindung wird nur durch die beiliegenden
Patentansprüche
begrenzt.
-
Text in der Zeichnung
-
1
-
- Hallo
- Hallo
- Wie geht's ?
- Nicht so gut heute
- Gut, danke, und wie geht's
Ihren ?
- So ein Pech Ach je ! Oh, gut
- Macht nichts Nicht so gut heute
- So ein Pech Ach je !
-
2
-
- Welt
- Funktion
- Figur
- Bedingung
- Netzwerk
- Adresse
- Audio
- Wiedergabe
- Benutzer-Eingabevomchtung