DE69723747T2 - Interaktives Audiounterhaltungsgerät - Google Patents

Interaktives Audiounterhaltungsgerät Download PDF

Info

Publication number
DE69723747T2
DE69723747T2 DE69723747T DE69723747T DE69723747T2 DE 69723747 T2 DE69723747 T2 DE 69723747T2 DE 69723747 T DE69723747 T DE 69723747T DE 69723747 T DE69723747 T DE 69723747T DE 69723747 T2 DE69723747 T2 DE 69723747T2
Authority
DE
Germany
Prior art keywords
data
network
nodes
node
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69723747T
Other languages
English (en)
Other versions
DE69723747D1 (de
Inventor
David Anthony Redhill Eves
Richard John Redhill Allen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69723747D1 publication Critical patent/DE69723747D1/de
Application granted granted Critical
Publication of DE69723747T2 publication Critical patent/DE69723747T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/40Network security protocols
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/30Definitions, standards or architectural aspects of layered protocol stacks
    • H04L69/32Architecture of open systems interconnection [OSI] 7-layer type protocol stacks, e.g. the interfaces between the data link level and the physical level
    • H04L69/322Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions
    • H04L69/329Intralayer communication protocols among peer entities or protocol data unit [PDU] definitions in the application layer [OSI layer 7]

Description

  • Die vorliegende Erfindung bezieht sich auf Unterhaltungssysteme und insbesondere auf Spiel- und Geschichte-Systeme, wobei eine oder mehrere computermodellierte Figuren durch eine virtuelle Welt gehen, in Interaktion mit der Umwelt und anderen Figuren innerhalb der Umwelt, unter direkter oder indirekter Steuerung eines Benutzers.
  • Figur-basierte Spiele oder interaktive Dramen wurden als Netzwerk miteinander verbundener voraufgezeichneter Szenen in einer "Story-net"-Gliederung von Verzweigungsknotenpunkten modelliert. Bei jedem Knotenpunkt in dem Netzwerk ist eine Entscheidung erforderlich, welche von drei oder vier möglichen Szenen als nächste wiedergegeben wird, wobei es eine gemeinsame Richtung durch die geschriebene Geschichte gibt, so dass der Benutzer letzten Endes die oder eine der möglichen Schlussszenen erreicht. Beispiele verschiedener Geschichtsstrukturen, von der nicht interaktiven "linearen" Form über die Einführung mehrerer Effekte und Spielelemente zu kompletten Verzweigungs-Geschichtsstrukturen sind beschrieben worden in: "Flawed Methods for Interactive Storytelling" von Chris Crawford, "Interactive Entertainment Design", Heft 7, Nr. 4, April 1994. Die Probleme des riesigen Datenaufwands, erforderlich zum Schaffen nur einiger alternativer Wege durch eine Geschichtsstruktur gegenüber den Beschränkungen herkömmlicher (linearer) Geschichtstechniken werden beschrieben, und, während eine Lösung beansprucht wird, werden die Einzelheiten vorenthalten. Diese Probleme der Interaktivität gegenüber der Geschichtslinie werden weiterhin in einem Artikel von demselben Author: "Interactivity, Plot, Free Will, Determinism, Quantum Mechanics and Temporal Irreversibility" ind "Interactive Entertainment Design", Heft 8, Nr. 4, April 1995-beschrieben. In US Patent 6.393.073 von Best wird ein Videospiel beschrieben, das die Form annimmt einer sich verzweigenden Geschichte, die einen Dialog zwischen zwei oder mehr animierten Figuren an einem Fernsehschirm und zwei oder mehr menschlichen Spielern simuliert. Best besagt, dass eine Nicht-Spieler-Figur derart programmiert werden sollte, dass es viele verschiedene alternative Sachen sagen kann, und zwar abhängig von dem, was ein Spieler oder eine vom Spieler gesteuerte Figur gerade "gesagt" hat, wobei das Gesagte aus einem Menü selektiert werden kann, das zwei, drei oder vier solcher Aussagen zeigt. Verzweigung des Dialogs rührt aus diesem Selektionsvorgang her.
  • Wenn nun nur die Audioseite der aktiven Unterhaltung betrachtet wird, erfordern die Figur-basierten Spiele oder interaktiven Dramen einen Dialog zwischen den Figuren: Sprache ist die einfachste Art um Meinungen und ein Gefühle zu übertragen und erzeugen folglich ein Eintauchgefühl für den Benutzer durch Beziehung auf die Figuren. Bei herkömmlichen Systemen, wie bei denen, die von Crawford beschrieben worden sind, geschieht dies dadurch, dass lange vorher aufgezeichnete Sprachsequenzen verwendet werden, welche die Tonspur bei der selektierten Szene bilden, die jeder Zweigstelle der Geschichte folgt. Solche Systeme sind, sogar als reine Audiounterhaltung, dennoch an die laufende Verzweigungsstruktur gebunden, die zusätzlich zu den langen Perioden ohne Variation, dennoch unterbindend in dem Aufwand von Daten, erforderlich zur Speicherung sogar für relativ wenig Abzweigungen.
  • Deswegen ist es u. a. eine Aufgabe der vorliegenden Erfindung ein Figurbasiertes Audio-Unterhaltungssystem zu schaffen mit mehr Möglichkeiten für Variation, während weniger Audiodaten gespeichert werden müssen als bei den bisherigen Systemen. Die vorliegende Erfindung wird durch die beiliegenden Patentansprüche definiert.
  • Durch Verwendung des Netzwerkes gekoppelter Knotenpunkte braucht jedes Audiosegment (Sprache oder Toneffekte) nur einmal gespeichert zu werden, wobei der betreffende Knotenpunkt jeweils selektiert wird, wenn dieses Segment erforderlich ist. Der Figur-Datenspeicher enthält auf geeignete Weise eine Anzahl gespeicherter Attributwerte, wobei die Selektion aus wenigstens zwei weiteren Knotenpunkten durch die Befriedigung betreffender verschiedener Kombinationen von Attributeinstellungen ermittelt wird, wobei wenigstens eine derselben auf geeignete Weise eine Voreinstellung ist, gewählt in dem Fall, wo keine der spezifizierten Kombinationen erfüllt wird.
  • Dieses "Audio Web" kann benutzt werden zum Erzeugen von Konversationen zwischen zwei oder mehr virtuellen Figuren, je mit einem eigenen Satz "persönlicher" Attribute in dem Figurspeicher, wobei die Einstellung dieser Attribute die Strecke definiert, welche die Konversation bei jedem Knotenpunkt nimmt.
  • Die Anordnung kann weiterhin einen Funktionsaufrufspeicher enthalten, der eine Anzahl Befehle enthält, die je eine betreffende Prozessorfunktion spezifizieren, wobei jeder Funktionsaufruf mit wenigstens einem Knotenpunkt des Netzwerkes assozüert ist und durch den Prozessor aufgerufen und implementiert wird bei Selektion des oder jedes assoziierten Knotenpunktes. Der Prozessor kann gesteuert werden zum Ändern wenigstens eines gespeicherten Attributwertes aus dem Figurdatenspeicher, und zwar in Reaktion auf wenigstens einen Funktionsaufruf. Durch Verwendung dieser Funktionsaufrufe wird die Konversationsstrecke der Figuren mehr abhängig von deren Reaktion auf die Konversation und auf die weiteren Figuren. Ein oder mehrere weitere Knotenpunkte können in dem Netzwerk definiert werden, je mit einem assoziierten Funktionsaufruf, aber ohne ein betreffendes Audiosignalsegment. Diese Knotenpunkte ohne Audio können als "Bühnenrichtlinien" benutzt werden um Merkmale der virtuellen Umgebung oder der Figuren zu ändern.
  • Es können vom Benutzer betätigbare Eingabemittel vorgesehen sein, die mit dem Prozessor gekoppelt sind, wobei die Eingaben durch den Benutzer die Selektion an einem oder mehreren Knotenpunkten beeinflussen, wobei auf geeignete Art und Weise die Einstellung wenigstens eines der gespeicherten Attributwerte von dem Prozessor geändert wird. Dadurch, dass zu Anfang die Attributwerte eingestellt oder ständig geändert werden, kann der Benutzer die "Stimmung" der Figuren ändern und dann hören, wie dies die Strecke der Konversation und die Verhältnisse der Figuren untereinander beeinflusst.
  • Die Anordnung kann die Audiodaten zu einer einzelnen Einheit liefern oder sie kann eine Audiosignal-Wiedergabeanordnung enthalten, die mit dem Audiodatenspeicher gekoppelt ist, der die Ausgangsdatenströme empfängt und die Audiosignalsegmente wiedergibt.
  • Die vorliegende Erfindung schafft ebenfalls eine entfernbare Speicheranordnung, wie ein Band oder eine optische Platte, die als Audiodatenspeicher wirksam ist und die Audiosignalsegment-Datenströme zusammen mit den Daten des Netzwerkdatenspeichers festhält, wobei diese Daten Indexinformation enthält (wie Spur- und Sektoradressen), welche die betreffenden Speicherstellen jedes Audiosignalsegment-Datenstromes identifiziert. Durch die Verwendung einer entfernbaren Speicheranordnung könnte die Anordnung geeignete Zugriffsmittel, wie eines Plattenlesers, enthalten. Am Anfang einer Session werden die Netzwerkdaten und die begleitende Indexinformation derart heruntergeladen, dass die selektierten Audiosegmente dann mit ihren Spuradressen aufgerufen werden können, dies zum Minimieren von Zugriffsverzögerungen.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:
  • 1 einen kleinen Teil eines Netzwerkes von Audio (Sprache) Segmenten; und
  • 2 ein Blockschaltbild einer Anordnung, worin die vorliegende Erfindung einverleibt ist.
  • Die nachfolgende Beschreibung ist eine "eine Geschichte erzählende" Audioweb-Anordnung, wobei Figuren miteinander konversieren, während sie in einer virtuellen Welt interaktiv sind. Die Strecke, der die von den Figuren geführte Konversation folgt, ist nicht vorgeschrieben, sondern geht stattdessen durch eine als Netzwerk ausgebildete Sammlung von Knotenpunkten, die je ein aus Sprache oder Toneffekten bestehendes kurzes Audiosegment enthalten. Bei jedem Knotenpunkt wird eine Entscheidung getroffen, welche Strecke einer Anzahl möglicher Strecken (die zu betreffenden weiteren Knotenpunkten führen) gewählt wird. Die Entscheidung wird auf Basis mehreren Bedingungen getroffen, die auf jeden Knotenpunkt angewandt werden und auf Basis von Attributen der jeweiligen Figuren, wenn diese bei diesem Knotenpunkt stehen, was nachher noch näher beschrieben wird.
  • 1 zeigt einen kleinen Teil des Audionetzwerkes mit Knotenpunkten A1– A7 mit Sprachsegmenten einer ersten Figur und mit Knotenpunkten B1–B5 mit Sprachsegmenten einer zweiten Figur. In dem ersten Knotenpunkt A1 sagt die erste Figur "Hallo": die Wahl des nächsten Knotenpunktes (B1 oder A2) ist abhängig davon, welche Bedingungen am Knotenpunkt A1 erfüllt werden. So kann beispielsweise die entscheidende Bedingung mit einem Attribut der zweiten Figur assoziiert sein, was dem Umstand entspricht, ob diese Figur redselig ist oder nicht. Wenn das Attribut zu dem betreffenden Zeitpunkt auf "redselig" gesetzt wird, wird die Verzweigungsstrecke zu dem Knotenpunkt B 1 selektiert und die zweite Figur wird antworten mit "Hallo", sonst soll die erste Figur beim Knotenpunkt A2 das Gespräch fortsetzen mit der Frage "Wie geht's ?".
  • Die Wahl beim Knotenpunkt A2 ist abhängig von verschiedenen Bedingungen, so dass, obschon die zweite Figur nicht redselig ist, sie eine direkte Frage beantworten wird. Die bestimmende Bedingung beim Knotenpunkt A2 kann die aktuelle Einstellung eines Attributs der zweiten Figur in Bezug auf sein allgemeines Wohlbefinden sein, so dass diese Figur Folgendes antworten wird: Nicht so gut heute" (Knotenpunkt B2) oder "Gut, danke, und wie geht's Ihnen ?" (Knotenpunkt B3) je nach der Einstellung. Die Einstellung des entsprechenden Attributs der ersten Figur kann die Antwort auf die Frage am Knotenpunkt B3 entscheiden.
  • Ein affektives Attribut zur Steigerung der Wirklichkeit der Interaktion der Figur ist die "ich mag/ich mag nicht" "Meinung" der anderen Figur. Während einige Attribute durch die ganze Interaktion der Figur hindurch feste Werte halten können, sind andere, wie "ich mag / ich mag nicht" auf geeignete Weise abhängig von den Ergebnissen vorhergehender Interaktionen. Diese variablen Attribute können auf einfache Weise "ein" oder "aus" sein oder sie können komplexer sein. Mit einem Ausgangs-Attribut mit dem Wert 50 in einer Skala von 0–100 kann beispielsweise (d. h. doppelwertig zu der zweiten Figur) die Streckenwahl an dem Knotenpunkt A1 eine Steigerung gleich 10 mit sich bringen, wenn die Strecke über den Knotenpunkt B1 gewählt wird und eine Reduktion gleich 5, wenn die direkte Verzweigung zu dem Knotenpunkt A2 gewählt wird, wobei die Änderung des Attributpegels das Ergebnis eines Funktionsaufrufs an dem Zielknotenpunkt A2 ist. Das Ergebnis ist eine "mag / mag nicht" Attributeinstellung von 60 oder 45, abhängig davon, ob die zweite Figur an der Entscheidungsstelle des Knotenpunktes A1 "redselig" ist. Die Einstellung des "mag / mag nicht" Attributs kann dann der entscheidende Faktor an dem Knotenpunkt B2 sein: wenn die Einstellung 50 oder höher ist, hat die erste Figur eine doppelwertige oder freundliche Attitude gegenüber der zweiten Figur und wird antworten mit "Ach je" (Knotenpunkt A4) in Reaktion auf die Mitteilung, dass es der zweiten Figur nicht so gut geht. Mit der Einstellung des Attributs auf 45 aber hat die erste Figur sich gegenüber der zweiten Figur als "mag nicht" geäußert und möchte stattdessen am Knotenpunkt A3 antworten mit "so ein Pech".
  • Die Neuverwendung von Segmenten ist bei dem Knotenpunkt A6 dargestellt ("schon gut") der in diesem Beispiel den beiden Knotenpunkten A3 und A4 folgt. Im Endeffekt kann in Antwort auf den Knotenpunkt B2 die erste Figur sagen: "schon gut, macht nichts" oder "Ach je, macht nichts". An dieser Stelle soll eine wechselseitige Abhängigkeit gemacht werden, wobei die Speicherung in dem gespeicherten Audio durch dem zusätzlichen Aufruf zu dem Audiospeicher versetzt wird, erforderlich beim Knotenpunkt A3 oder A4. Kurze Sätze oder sogar einzelne Wörter ermöglichen eine riesige Neuverwendbarkeit, aber steigern die Komplexität des Netzwerkes und die Zugriffszeiten für den Audiospeicher können den Realismus mit kurzen aber bemerkenswerten Pausen zwischen aufeinander folgend aufgerufenen Segmenten beeinflussen. Auf geeignete Weise können die Audio- segmente an Interpunktionsstellen aufgeteilt werden, wo eine leichte Zögerung natürlicher klingen wird.
  • Wie aus 1 ersichtlich, wird das Aussprechen ein und desselben Wortes bzw. ein und derselben Phrase durch verschiedene Figuren mit separaten Knotenpunkten verarbeitet (beispielsweise A1 und B2, A4 und B5) da die Audiosegmente zu diesem Zeitpunkt vorher aufgezeichnet sind: dasselbe gilt auch für verschiedene Intonationen einer bestimmten Phrase durch ein einzige Figur. Dort, wo das Audio aus Text von Sprachsynthesizern hoher Qualität erzeugt wird, die imstande sind, verschiedene Intonationen / Akzenten zu meistern, brauchen Phrasen nur einmal gespeichert zu werden. Dies aber führt zu einer anderen wechselseitigen Abhängigkeit: während es eine Reduktion in der Anzahl Knotenpunkten gibt, wird die Verzweigungsstruktur komplexer und die Anzahl Bedingungen bei jedem Knotenpunkt nimmt mit der Notwendigkeit, zu ermitteln, welche Figur spricht und der Einstellung des Intonationsattributs bevor man zu der Auswertung der die Bedingungen bestimmende Verzweigungsselektion kommen kann, zu.
  • Das "Verhalten" der Figuren wird abhängig sein von der Art und Weise, wie sie modelliert werden. In einer Basis-Implementierung können sie auf einfache Weise in Termen eines Akzentes definiert werden, der auf eine einstellte Weise reagiert, definiert durch die Knotenpunktbedingungen auf Basis der aktuellen Attributeinstellungen. Vorzugsweise aber werden die einzelnen Figuren als eine komplexe Sammlung aufeinander bezogener Verhalten modelliert, die deutliche Persönlichkeitsmerkmale entwickeln können, je nachdem die Interaktion mit dem Geschichtsweb fortschreitet. Regelbasierte Programmiersprachen werden bevorzugt um eine Kopplung von beispielsweise Figur-Attributen zu ermöglichen, wie diese durch den Durchgang durch die Knotenpunkte mit anderen intern vorhandenen Attributen geändert werden. Mit einer derartigen Kopplung kann die netzwerkgesteuerte Änderung von Attributpegeln zu einer Änderung anderer Attribute führen. So kann beispielsweise eine Figur die netzwerkgesteuerten Attribute froh /traurig und (eine andere Figur) mag / mag nicht haben, die in der Basisimplementierung unabhängig voneinander sind. Bei der komplexeren Figur kann eine Steigerung in der "Fröhlichkeit" Attributeinstellung zu einer Steigerung in der "mag" Attributeinstellung führen, da die Figur eine freundlichere Meinung über die Mitfiguren erhält, je nachdem ihre Stimmung besser wird. In einer Entwicklung kann die Figur ein internes Attribut haben (beispielsweise Ehrlichkeit), das nicht unmittelbar von den Funktionsaufrufen des Audiowebs gesteuert wird (die an sich programmierte Regeln sein können), deren Einstellung das Maß bestimmt, in dem die Einstellung des Attributs glücklich/traurig die Einstellung des Attributs mag/mag nicht beeinflusst. Solche interne Attribute können von dem Benutzer eingestellt werden oder können voreingestellt sein. Auf alternative Weise können sie durch die Interaktion der Figuren und durch deren Ergebnisse beeinflusst werden: so kann beispielsweise eine ständig hohe mag/mag nicht Attributeinstellung "Vertrauen" oder "Argwohn" in der Figur erzeugen mit einem ständigen Anstieg oder Abfall der internen Ehrlichkeit Attributeinstellung.
  • Eine geeignete regelbasierte Echtzeit-Sprache zum Spezifizieren solcher gegenseitig bezogenen Gruppen von Attributen und deren Einfluss auf einander ist "Real Time ABLE" (RTA), beschrieben in "Proceedings of the European Simulation Multiconference 1991" auf den Seiten 226–231. Weitere Beispiele der Merkmale regelbasierter Sprachen sind gegeben in "The Behaviour Language: User's Guide" von R A Brooks, Al Memo 1227, Massachusetts Insitute of Technology, Artificial Intelligence Laboratory, April 1990.
  • 2 zeigt eine Anordnung, in der die vorliegende Erfindung angewandt wird, mit einem Prozessor 10, der über einen Datenbus 24 mit einer Anzahl Datenspeicher 12, 14, 16, 18, 20, 22 zusammen mit einer Audio-Wiedergabestufe 26 und einer Benutzer-Eingabevorrichtung 28 gekoppelt ist. Der erste Speicher, der Audiospeicher 12, enthält alle Sprach- und Tonsegmente, die mit den Knotenpunkten des Netzwerkes assoziiert sind, und liefert diese, wenn aufgerufen, zu der Audio-Wiedergabestufe 26 zur direkten Wiedergabe aus. Der Audiospeicher kann in die Anordnung aufgenommen sein, oder er kann in einer entfernbaren Speicheranordnung, wie einer optischen Scheibe, vorgesehen sein, wobei der Prozessor 10 über einen geeigneten Leser auf die Daten zugreift. Auf geeignete Weise wird die Netzwerkbeschreibung ebenfalls zu dem Netzwerkspeicher 14 heruntergeladen (was noch näher beschrieben wird) und zwar aus der Speicheranordnung, zusammen mit Indexinformation, so dass jeder Knotenpunkt mit der Speicheradresse des assoziierten Audiosegmentes assoziiert wird. Der Prozessor 10 kann dann die Audiosegmente aus dem Speicher aufrufen, indem er sie unmittelbar adressiert, wodurch Zugriffsverzögerungen auf ein Minimum begrenzt werden.
  • Der nächste Speicher, der Netzwerkspeicher 14, enthält das Buchweb, einen Bestand, der das Netzwerk definiert, das die Knotenpunkte miteinander koppelt. Ein Fragment des Buchwebbestandes kann sein, wie in dem nachfolgenden Beispiel dargestellt:
    Bestand: Erläuterung:
    #2026, 14 Knotenpunkt Nummer 2026. Aufruffunktion Nummer 14, wenn dieser Knotenpunkt selektiert wird.
    >1150, 3,6,1 Gehe zu Knotenpunkt 1150 wenn die Bedingungen 3, 6 und 1 erfüllt sind.
    >2040, 3,2 Gehe zu Knotenpunkt 2040 wenn die Bedingungen 3 und 2 erfüllt sind.
    >2028 Gehe zu Knotenpunkt 2028 wenn die Verzweigungsbedingungen nicht erfüllt sind.
    #2028 Knotenpunkt 2028. Keine angehängte Funktionen.
    >2100, 3,2,4 Gehe zu Knotenpunkt 2100 wenn die Bedingungen 3, 2 und 4 erfüllt sind.
    >1150, 3,2,1 Gehe zu Knotenpunkt 1150 wenn die Bedingungen 3, 2 und 1 erfüllt sind.
    >2040, 3,2 Gehe zu Knotenpunkt 2040 wenn nur die Bedingungen 3 und 2 erfüllt sind.
    >1810 Voreinstellung auf Knotenpunkt 1810
  • Wenn ein Knotenpunkt selektiert wird, und zwar in der CPU 10, adressiert die Knotenpunktnummer das geeignete Segment des gespeicherten Audios (über die Adressenleitung ADDR) in dem Audiospeicher 12.
  • Die nächsten zwei Speicher 16, 18 enthalten die Definitionen der Bedingungstests, die angewandt werden sollen und die aktuellen Attributeinstellungen für jede Figur. Die Bedingungstests können längs der Linien sein "ist Attribut A größer als 50?", wobei Attribut A das oben beschriebene mag/mag nicht Attribut ist, dessen aktueller Wert in dem Figurspeicher 18 festgehalten wird.
  • Die Definition der jeweiligen Funktionen, die an einem Knotenpunkt aufgerufen werden können, wird in dem Funktionsspeicher 20 festgehalten. Diese Funktionen können sich anwenden lassen auf die Figuren selbst, und zwar so verschieden in einer oder mehreren Attributeinstellungen als geeignet zum Lernen der Figur oder zum Erteilen der Information, die in dem Audiosegment enthalten ist, das mit dem Knotenpunkt assozüert ist, bei dem das Segment aufgerufen wird. Die Funktionen können ebenfalls die virtuelle Welt beeinflussen, in der die Konversation stattfindet. Die Interaktion zwischen den Figu ren kann verbessert werden, wenn sie zwischen verschiedenen "physikalischen" Umgebungen sich bewegt, wie definiert in einem Modell der Szenarien der jeweiligen virtuellen Welt, die in dem Weltspeicher 22 festgehalten werden, wobei die aktuelle Umgebung an sich Gegenstand einer oder mehrerer Bedingungen sein kann. So könnte beispielsweise eine aktuelle Umgebung einer Gefängniszelle eine Bedingung erfüllen, die zu der Wahl des nächsten Knotenpunkt-Audiosegmentes "Wie gelangen wir hier hinaus?" statt "Es gefällt mir hier" führt.
  • Die verschiedenen Szenarien würden sich verkoppeln, wobei der Figurzugriff auf und die Bewegung zwischen den verschiedenen Szenarien durch den speziellen Punkt in dem und der Durchgang durch das Netzwerk bestimmt wird. Auf einem direkten Pegel kann der Eingang in eine geschlossene Umgebung erfordern, dass die Figur oder die Figuren durch den Knotenpunkt gegangen sind, wo ein Passwort gegeben wurde. Auf einem indirekten Pegel kann eine Bewegung in ein anderes Gebiet des Netzwerkes die Bewegung in eine neue Umgebung auslösen. Die Umgebung selber kann benutzt werden zum Auslösen von Audioeffekten über die CPU 10 und innerhalb der Wiedergabestufe 26 zum Erzeugen von beispielsweise Echo, wenn die Konversation in einer Höhle oder in einem Kerkerszenario stattfindet.
  • Diejenigen Merkmale, welche die Attribute der Szenarien ändern, einschließlich der Selektion aus der virtuellen Welt, können von weiteren Knotenpunkten des Netzwerkes ohne assoziierte Audiosegmente aufgerufen werden. Diese weiteren Knotenpunkte wirken als "Bühhenrichtlinien", wie "Öffne die Tür": Bühnenrichtlinienknotenpunkte können selbstverständlich assoziierte Audiosegmente haben, wie Toneffekte und diese sind mit den Konversationssegmenten mit einverleibt.
  • Die Form der Benutzer-Eingabevorrichtung 28 wird abhängig sein von dem unterstützten Pegel der Benutzer-Interaktion. Auf einem Basispegel kann die Benutzereingabe einfach die Ausgangsselektion einer Gruppe von Spielern oder Umgebungen aus einem Menü der Verfügbaren sein. Höhere Pegel der Teilnahme können eine Ausgangs- oder aktuelle Manipulation von Figur-Attributen (extern oder intern) betreffen, wobei der Benutzer einen Schieberegler hat, mit dem er beispielsweise das mag/mag nicht Attribut seiner "angenommenen" Figur in Bezug auf seine Perzeption einer anderen Figur der Geschichte setzt.
  • Es dürfte einleuchten, dass die oben beschriebenen Techniken und Anordnungen erweitert werden können um Video einzuverleiben, obschon eine detaillierte Beschreibung außerhalb des Rahmens der vorliegenden Erfindung liegt. Wenn die Web-Navigation in Abhängigkeit von den Audio-Kopplungen verarbeitet wird, umfassen zusätzliche Erwägungen für hinzugefügtes Video die Probleme von AudioNideo-Synchronisation, insbesondere für kurze (d. h. ein einzelnes Wort) Audio-Segmente und die Möglichkeit von Konversationssegmenten, die in mehr als nur einer virtuellen Umgebung auftreten. Computer-erzeugte Figuren und Umgebungen können eine dieser Probleme lindern: andere können weniger direkte sichtbare Darstellungen erfordern, wie unbewegte Bilder der aktuellen Umgebung mit überliegenden Computer-erzeugten Bildern der Gesichter der Figuren, die jeweils ändern, wenn eine betreffende Attributeinstellung sich ändert.
  • Aus der Lektüre der vorliegenden Beschreibung dürften dem Fachmann andere Abwandlungen einfallen. Solche Abwandlungen können andere Merkmale betreffen, die im Bereich der interaktiven Unterhaltungsgeräte bereits bekannt und statt der oder zusätzlich zu den hier bereits beschriebenen Merkmalen verwendbar sind. Der Bereich der vorliegenden Erfindung wird nur durch die beiliegenden Patentansprüche begrenzt.
  • Text in der Zeichnung
  • 1
    • Hallo
    • Hallo
    • Wie geht's ?
    • Nicht so gut heute
    • Gut, danke, und wie geht's Ihren ?
    • So ein Pech Ach je ! Oh, gut
    • Macht nichts Nicht so gut heute
    • So ein Pech Ach je !
  • 2
    • Welt
    • Funktion
    • Figur
    • Bedingung
    • Netzwerk
    • Adresse
    • Audio
    • Wiedergabe
    • Benutzer-Eingabevomchtung

Claims (12)

  1. Computermodell-Zeichenbasiertes Audiounterhaltungsgerät mit Netzwerkdaten und Zeichendatenspeichern (14,18), die mit einem Datenprozessor (10) gekoppelt sind; wobei der Netzwerkdatenspeicher (14) Daten enthält, die ein Netzwerk vorwärts gekoppelter Knotenpunkte, wobei wenigstens einige Knotenpunkte Vorwärtskopplungen zu zwei oder mehr weiteren Knotenpunkten haben und wobei der Datenprozessor für die sequentielle Selektion gekoppelter Knotenpunkte des Netzwerkes konfiguriert worden ist und wobei ein Audiodatenspeicher (12) eine Anzahl Audiosignal-Datenströme enthält, die je einmal gespeichert sind und die kombinierbar sind zum Definieren eines betreffenden Audiosignalsegmentes für jeden Knotenpunkt des Netzwerkes, wobei der Audiodatenspeicher mit dem Netzwerkdatenspeicher und dem Prozessor gekoppelt ist und gesteuert wird zum Ausgeben des genannten Audiosignalsegmentes bei Selektion des betreffenden Knotenpunktes, dadurch gekennzeichnet, dass jeder Zeichendatenspeicher (18) wenigstens einen gespeicherten Attributwert enthält und eine Selektion aus den genannten Kopplungen mit wenigstens zwei weiteren Knotenpunkten durch den genannten Attributwert bestimmt wird.
  2. Gerät nach Anspruch 1, wobei der genannte Zeichendatenspeicher eine Anzahl gespeicherter Attributwerte enthält, wobei die Selektion aus den genannten Kopplungen mit wenigstens zwei weiteren Knotenpunkten durch die Befriedigung betreffender verschiedener Kombinationen von Attributeinstellungen.
  3. Gerät nach Anspruch 2, wobei die Selektion einer Kopplung aus einer Vielzahl von Kopplungen mit betreffenden weiteren Knotenpunkten eine vorgegebene Selektion ist, die gemacht wird, wenn keine der genannten betreffenden verschiedenen Kombinationen von Attributeinstellungen erfüllt wird.
  4. Gerät nach einem der Ansprüche 1 bis 3, wobei das Gerät weiterhin einen Funktionsrufspeicher (20) enthält, der eine Anzahl Befehle umfasst, die je eine betreffende Prozessorfunktion spezifizieren, wobei jeder Funktionsruf mit wenigstens einem Knotenpunkt des Netzwerkes assoziiert ist und bei Selektion des oder jedes assoziierten Knotenpunktes von dem Prozessor aufgerufen und implementiert wird.
  5. Gerät nach Anspruch 4, wobei ein oder mehrere weitere Knotenpunkte in dem Netzwerk definiert sind, wobei der oder jeder derartige weitere Knotenpunkt einen assoziierten Funktionsruf hat, aber kein betreffendes Audiosignalsegment.
  6. Gerät nach Anspruch 4, wobei der Prozessor gesteuert wird zum Modifizieren wenigstens eines gespeicherten Attributwertes aus dem genannten Zeichendatenspeicher in Reaktion auf wenigstens einen Funktionsruf.
  7. Gerät nach einem der Ansprüche 1 bis 6, weiterhin mit von dem Benutzer betätigbaren Eingabemitteln (28), die mit dem genannten Datenprozessor gekoppelt sind, wobei die Eingabe vom Benutzer die genannte Selektion aus Kopplungen mit wenigstens zwei weiteren Knotenpunkten von einem oder mehreren Knotenpunktes des Netzwerkes beeinflußt.
  8. Gerät nach Anspruch 7, wobei der Prozessor die Einstellung wenigstens eines gespeicherten Attributwertes in Abhängigkeit von der genannten Eingabe durch den Benutzer ändert.
  9. Gerät nach einem der Ansprüche 1 bis 8, weiterhin mit einem Audiosignal-Wiedergabegerät (26), das mit dem genannten Audiodatenspeicher (12) gekoppelt ist, das die Datenströme. Die daraus geliefert werden empfängt und die definierten betreffenden Audiosignalsegmente wiedergibt.
  10. Gerät nach einem der Ansprüche 1 bis 9, wobei wenigstens der genannte Audiodatenspeicher eine entfernbare Speicheranordnung umfasst, wobei das Gerät weiterhin Mittel aufweist um auf die Audiosignal-Segmentdatenströme davon zuzugreifen.
  11. Entfernbare Speicheranordnung zur Verwendung in dem Gerät nach Anspruch 10, welche die genannten Audiosignal-Datenströme zusammen mit den genannten Daten des genannten Netzwerkdatenspeichers enthält, wobei diese Daten Indexinformation enthalten, welche die betreffenden Speicherstellen jedes Audiosignaldatenstroms identifizieren und auch Definitionen von Kopplungsselektionsbedingungentests die genannten Attributwerte betreffend.
  12. Speicheranordnung nach Anspruch 11, wobei die genannte Anordnung eine optische Platte ist und die genannte Indexinformation Spur- und Sektoradressen für die Audiosignal-Datenströme identifiziert.
DE69723747T 1996-02-07 1997-01-27 Interaktives Audiounterhaltungsgerät Expired - Lifetime DE69723747T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9602431.0A GB9602431D0 (en) 1996-02-07 1996-02-07 Interactive audio entertainment apparatus
GB9602431 1996-02-07

Publications (2)

Publication Number Publication Date
DE69723747D1 DE69723747D1 (de) 2003-09-04
DE69723747T2 true DE69723747T2 (de) 2004-04-22

Family

ID=10788247

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69723747T Expired - Lifetime DE69723747T2 (de) 1996-02-07 1997-01-27 Interaktives Audiounterhaltungsgerät

Country Status (6)

Country Link
US (1) US5873057A (de)
EP (1) EP0789308B1 (de)
JP (1) JPH09215860A (de)
KR (1) KR100512387B1 (de)
DE (1) DE69723747T2 (de)
GB (1) GB9602431D0 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1176608A (ja) * 1997-09-04 1999-03-23 Konami Co Ltd 遊技者の性格を反映したゲームの展開制御方法、ビデオゲーム装置及び記録媒体
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6249292B1 (en) * 1998-05-04 2001-06-19 Compaq Computer Corporation Technique for controlling a presentation of a computer generated object having a plurality of movable components
JP3178426B2 (ja) * 1998-07-29 2001-06-18 日本電気株式会社 自然言語対話システム及び自然言語対話プログラム記録媒体
US6163794A (en) * 1998-10-23 2000-12-19 General Magic Network system extensible by users
US7198490B1 (en) 1998-11-25 2007-04-03 The Johns Hopkins University Apparatus and method for training using a human interaction simulator
US8321411B2 (en) 1999-03-23 2012-11-27 Microstrategy, Incorporated System and method for management of an automatic OLAP report broadcast system
US20050261907A1 (en) 1999-04-12 2005-11-24 Ben Franklin Patent Holding Llc Voice integration platform
US6408272B1 (en) * 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
US20050091057A1 (en) * 1999-04-12 2005-04-28 General Magic, Inc. Voice application development methodology
US8607138B2 (en) 1999-05-28 2013-12-10 Microstrategy, Incorporated System and method for OLAP report generation with spreadsheet report within the network user interface
US9208213B2 (en) 1999-05-28 2015-12-08 Microstrategy, Incorporated System and method for network user interface OLAP report formatting
JP2001009157A (ja) * 1999-06-30 2001-01-16 Konami Co Ltd ビデオゲームの制御方法、ビデオゲーム装置、並びにビデオゲームのプログラムを記録したコンピュータ読み取り可能な媒体
US8130918B1 (en) 1999-09-13 2012-03-06 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with closed loop transaction processing
US6658093B1 (en) * 1999-09-13 2003-12-02 Microstrategy, Incorporated System and method for real-time, personalized, dynamic, interactive voice services for travel availability information
US6526395B1 (en) * 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
JP3425548B2 (ja) 2000-02-14 2003-07-14 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおけるアナウンス音声出力方法及びアナウンス音声出力プログラムが記録されたコンピュータ読み取り可能な記録媒体
US7246315B1 (en) 2000-05-10 2007-07-17 Realtime Drama, Inc. Interactive personal narrative agent system and method
US7019741B2 (en) * 2001-03-23 2006-03-28 General Electric Company Methods and systems for simulating animation of web-based data files
US7920682B2 (en) 2001-08-21 2011-04-05 Byrne William J Dynamic interactive voice interface
US20040139481A1 (en) * 2002-10-11 2004-07-15 Larry Atlas Browseable narrative architecture system and method
US7904812B2 (en) * 2002-10-11 2011-03-08 Web River Media, Inc. Browseable narrative architecture system and method
CN101827124B (zh) * 2002-11-13 2011-12-28 教育考试服务中心 用于分布式网络上的考试的系统和方法
US20040166484A1 (en) * 2002-12-20 2004-08-26 Mark Alan Budke System and method for simulating training scenarios
US8082499B2 (en) * 2006-03-21 2011-12-20 Electronic Arts, Inc. Graphical interface for interactive dialog
US8262474B2 (en) * 2009-04-21 2012-09-11 Mcmain Michael Parker Method and device for controlling player character dialog in a video game located on a computer-readable storage medium
US20110175309A1 (en) * 2010-01-15 2011-07-21 Chicco Usa, Inc. Stroller basket
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3960380A (en) * 1974-09-16 1976-06-01 Nintendo Co., Ltd. Light ray gun and target changing projectors
EP0016314A1 (de) * 1979-02-05 1980-10-01 Best, Robert MacAndrew Verfahren und Vorrichtung zum gesprochenen Dialog zwischen einem Videobild und einem Menschen
US4305131A (en) * 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
US4333152A (en) * 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US4445187A (en) * 1979-02-05 1984-04-24 Best Robert M Video games with voice dialog
US4752836A (en) * 1984-09-07 1988-06-21 Ivex Corporation Method and apparatus for reproducing video images to simulate movement within a multi-dimensional space
US4766541A (en) * 1984-10-24 1988-08-23 Williams Electronics Games, Inc. Apparatus for generating interactive video game playfield environments
JP2638151B2 (ja) * 1988-10-28 1997-08-06 レーム プロパティズ ビーブイ 会話補助装置
JP2849111B2 (ja) * 1989-03-28 1999-01-20 日本電信電話株式会社 学習機能付き自然文意味解析処理装置
US5161034A (en) * 1989-07-18 1992-11-03 Wnm Ventures Inc. Branching table for interactive video display
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
US5695401A (en) * 1991-12-20 1997-12-09 Gordon Wilson Player interactive live action athletic contest
JP3279684B2 (ja) * 1992-11-17 2002-04-30 株式会社日立製作所 音声インタフェース・ビルダ・システム
JPH06161902A (ja) * 1992-11-26 1994-06-10 Nintendo Co Ltd 補助記憶媒体の真偽判別装置およびそれに用い られる補助記憶装置
ZA943336B (en) * 1993-05-19 1995-08-11 Menashe Julian Interactive computerised gaming system with remote terminals
US5539822A (en) * 1994-04-19 1996-07-23 Scientific-Atlanta, Inc. System and method for subscriber interactivity in a television system
US5692212A (en) * 1994-06-22 1997-11-25 Roach; Richard Gregory Interactive multimedia movies and techniques
US5581706A (en) * 1994-06-30 1996-12-03 Rca Thomson Licensing Corporation Method forming an audio/video interactive data signal
US5604855A (en) * 1994-09-28 1997-02-18 Crawford; Christopher C. Computer story generation system and method using network of re-usable substories
US5680533A (en) * 1994-10-31 1997-10-21 Nintendo Co., Ltd. Videographics program/video game fabricating system and method
US5682511A (en) * 1995-05-05 1997-10-28 Microsoft Corporation Graphical viewer interface for an interactive network system
US5676551A (en) * 1995-09-27 1997-10-14 All Of The Above Inc. Method and apparatus for emotional modulation of a Human personality within the context of an interpersonal relationship

Also Published As

Publication number Publication date
JPH09215860A (ja) 1997-08-19
GB9602431D0 (en) 1996-04-03
EP0789308A3 (de) 1998-07-01
DE69723747D1 (de) 2003-09-04
KR100512387B1 (ko) 2006-01-27
KR970062947A (ko) 1997-09-12
US5873057A (en) 1999-02-16
EP0789308B1 (de) 2003-07-30
EP0789308A2 (de) 1997-08-13

Similar Documents

Publication Publication Date Title
DE69723747T2 (de) Interaktives Audiounterhaltungsgerät
US7198490B1 (en) Apparatus and method for training using a human interaction simulator
DE60035001T2 (de) Sprachsynthese mit Prosodie-Mustern
DE69531106T2 (de) Verfahren zum interaktiven programmieren
US5692212A (en) Interactive multimedia movies and techniques
EP1282112B1 (de) Verfahren zur Unterstützung des Korrekturlesens eines spracherkannten Textes mit an die Erkennungszuverlässigkeit angepasstem Wiedergabegeschwindigkeitsverlauf
André et al. Three RoboCup simulation league commentator systems
Mak et al. Anchoring and contextual variation in the early stages of incidental word learning during reading
DE60207217T2 (de) Verfahren zum ermöglichen der sprachinteraktion mit einer internet-seite
Kerttula “What an eccentric performance”: storytelling in online let’s plays
Spierling et al. Towards accessible authoring tools for interactive storytelling
Dolan In Defense of the Discourse: Materialist Feminism, Postmodernism, Poststructuralism... And Theory
Hartelius Wikipedia and the emergence of dialogic expertise
DE112021006096T5 (de) Verändern der benutzeroberfläche einer anwendung während einer aufzeichnungssitzung
Spierling Interactive digital storytelling: towards a hybrid conceptual approach
EP1159733B1 (de) Verfahren und anordnung zur bestimmung eines repräsentativen lautes
Wahyuni et al. Challenges and solutions to develop critical thinking with the British Parliamentary Debate System in EFL classrooms.
EP1133764B1 (de) Trainingsgerät und -verfahren mit einem simulator der menschlichen interaktion
Corradini et al. Animating an interactive conversational character for an educational game system
James Discourse analysis
DE102007063136B4 (de) Interaktives Gehörtraining
Bonnotte et al. Cognitive representations of predicates and the use of past tenses in French: A developmental approach
DE60014483T2 (de) Gerät und Verfahren zur Wiedergabe einer Sprachdatei
DE69814442T2 (de) Strukturerkennung
Nakasone et al. ISRST: An interest based storytelling model using rhetorical relations

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition