DE10127558A1 - Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese - Google Patents

Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese

Info

Publication number
DE10127558A1
DE10127558A1 DE10127558A DE10127558A DE10127558A1 DE 10127558 A1 DE10127558 A1 DE 10127558A1 DE 10127558 A DE10127558 A DE 10127558A DE 10127558 A DE10127558 A DE 10127558A DE 10127558 A1 DE10127558 A1 DE 10127558A1
Authority
DE
Germany
Prior art keywords
text
facial expressions
gesture
behavior
profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10127558A
Other languages
English (en)
Inventor
Holger R Scholl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Original Assignee
Philips Corporate Intellectual Property GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Corporate Intellectual Property GmbH filed Critical Philips Corporate Intellectual Property GmbH
Priority to DE10127558A priority Critical patent/DE10127558A1/de
Priority to DE60208199T priority patent/DE60208199T2/de
Priority to PCT/IB2002/002051 priority patent/WO2002099784A1/en
Priority to EP02735723A priority patent/EP1402515B1/de
Priority to AT02735723T priority patent/ATE313845T1/de
Priority to JP2003502816A priority patent/JP4714410B2/ja
Priority to US10/479,555 priority patent/US9092885B2/en
Publication of DE10127558A1 publication Critical patent/DE10127558A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/12Rule based animation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)
  • Information Transfer Between Computers (AREA)
  • Document Processing Apparatus (AREA)
  • Collating Specific Patterns (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung, bei dem die Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit einem Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil synthetisiert wird, falls ein Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese legimitiert.

Description

Die Erfindung bezieht sich auf ein Verfahren zur Verarbeitung einer Textbeschreibung und ist von Bedeutung für das technische Gebiet der Text- und Sprachsynthese. In gleicher Weise bezieht sich die Erfindung aber auch auf ein Verfahren zur Verarbeitung einer Gestik-, Mimik- und/oder Verhaltensbeschreibung und ist daher auch von Bedeutung für die Synthese von Bildinformation.
Sprachsynthesesysteme, d. h. Systeme zur Überführung von geschriebenem Text in gesprochene Sprache, spielen in vielen Anwendungen eine Rolle. Beispiele sind telefonische Auskunfts- oder Transaktionssysteme, bei denen zunächst in Textform zusammengestellte Systemantworten einem Benutzer vorgelesen werden müssen. Konkrete Beispiele sind Systeme zur Fahrplan- oder Aktienkursauskunft und zum Kauf von Tickets oder Aktien. Weitere Anwendungen finden sich aber auch in den so genannten "Unified Messaging" Systemen, die dazu dienen, den Zugriff auf Dokumente über verschiedene Medien wie z. B. PC, Telefon, Bildtelefon und Faxgerät zu ermöglichen. Auch hier müssen in Text­ form vorliegende Dokumente einem über Telefon zugreifendem Benutzer vorgelesen werden.
Die Flexibilität insbesondere von automatischen Dialogsystemen wie den telefonischen Auskunfts- oder Transaktionssystemen kann über die Sprachsynthese hinaus weiter erhöht werden, indem man den Sprachsynthesesystemen noch eine Textsynthese vorschaltet. In diesem Fall fallen die vom System zu vermittelnden Informationen zunächst nur in Form reiner semantischer Informationseinheiten an, die dann erst vom Textsynthesesystem durch konkrete Wahl des Sprachstils, z. B. elaboriert oder restringiert, wortreich oder knapp, des Vokabulars, und/oder anderer Charakteristiken wie z. B. dem Höflichkeits­ niveau und/oder speziellen Charakteristika der Anwendung in einen Text umgesetzt werden.
So kann beispielsweise ein Telefonauskunftssystem zunächst auf eine Benutzeranfrage nur die Information "Ort: München, Vorwahl: 089, Vorname: Susanne, Name: Meyer, Geschlecht: weiblich, Telefonnummer: 45446538" aus einer Datenbank heraussuchen und dem Textsynthesesystem zur Verfügung stellen. Dieses kann daraus dann z. B. den Satz bilden: "Die von Ihnen gewünschte Telefonnummer von Frau Susanne Meyer lautet 45, 44, 65, 38. Die Vorwahl ist München, 089."
Eine solche Arbeitsteilung zwischen der Wissenskomponente eines automatischen Dialog­ systems, der Textsynthese und der Sprachsynthese erhöht die Flexibilität des Systement­ wurfs und der Systempflege bei später notwendig werdenden Änderungen erheblich und ist in praktischen Systemen daher weit verbreitet. So lässt sich durch diese Trennung z. B. ein solches System sehr viel leichter auf eine neue Sprache übertragen, da durch eine solche Übertragung z. B. die Wissenskomponente überhaupt nicht berührt wird.
Für die Zwecke einer kompakten Darstellung werden in dieser Anmeldung die der Text- und Sprachsynthese als Eingangsdaten zur Verfügung gestellten Rohinformationen als Textbeschreibung bezeichnet, und der Begriff der Sprachsynthese wird dahingehend erweitert, dass er auch den vorher als Textsynthese bezeichneten Schritt umfasst. Entsprechend bezeichnet der Ausdruck Sprachprofil die Gesamtheit der von den Sprach­ synthesesystemen zur Synthese benutzten weiteren Informationsquellen wie z. B. die oben erwähnten Elemente des Sprachstils, der Wortwahl, des Höflichkeitsniveaus und der An­ wendungscharakteristika. Je nach Ausgestaltung kann aber auch die Textbeschreibung neben den reinen semantischen Informationen auch bereits Anweisungen z. B. zur Text­ synthese enthalten. So kann in einem extremen Fall z. B. durch die Textbeschreibung doch bereits der Text vorgegeben werden, so dass das Sprachprofil im wesentlichen nur noch die Intonationsweise und die zur Sprachsynthese benutzte Stimme enthält. Die Begriffe Text­ beschreibung und Sprachprofil sollen daher in dieser Anwendung alle diese möglichen Ausgestaltungen umfassen.
Neben der Sprachsynthese von Textbeschreibungen ist auch die Bildsynthese von Gestik und/oder Mimik möglich. So ist es z. B. sinnvoll, um die Menge der zu übertragenden Daten zu reduzieren, bei Bildtelefonie die Bilder nur in stark komprimierter Form zu übertragen. Dabei lassen sich durch die Verwendung von Bilderkennung auf der Sender- und von Bildsynthese auf der Empfängerseite hohe Komprimierungsraten erreichen, da nur eine Bildbeschreibung übertragen werden muss. Analog zur Sprachsynthese ist es dabei nötig, dass auf der Empfängerseite analog zum Sprachprofil Gestik- und Mimikprofile vor­ handen sind, deren Charakteristiken für die Synthese benutzt werden. Zu einem solchen Gestik- und Mimikprofil können dann die Gesichtszüge und Körperkonturen einer bestimmten Person gehören. Die Profile können jedoch auch weitere auf ihre Gestik und Mimik bezogene Eigenheiten der Person umfassen, wie beispielsweise die Art, wie diese Person lächelt und wie sie eine bestimmte Handbewegung ausführt. Die Syntheseverfahren versuchen dann z. B., die synthetisierte Sprache, Gestik und Mimik echten Äußerungen dieser Person möglichst anzunähern.
In einer weiteren Stufe kann neben Sprache, Gestik und Mimik auch Verhalten synthe­ tisiert werden. Ein Beispiel für Verhalten ist die Problemlösestrategie einer Person oder eines Systems, also z. B. die Art, wie ein Bahnauskunftssystem die zur Auskunftserteilung benötigten Angaben zu Ausgangspunkt, Ziel und Zeitpunkt der gewünschten Verbindung erfragt. Verhalten erstreckt sich somit typischerweise über einen längeren Zeitraum der Interaktion eines Systems mit einem Benutzer. Analog zur Sprache, Gestik und Mimik lässt es sich aus einer Verhaltensbeschreibung mit Hilfe eines Verhaltensprofils synthe­ tisieren.
Die für eine Synthese benötigten Text-, Gestik-, Mimik- und/oder Verhaltensbeschrei­ bungen können direkt eingegeben werden oder aber auch durch einen Erkennungsvorgang aus Sprach- und/oder Bildsignalen gewonnen werden. Weiter ist es auch denkbar, bei Vor­ liegen einer Textbeschreibung eine dazu passende Gestik-, und/oder Mimikbeschreibung automatisch zu generieren. Bei Fragen könnten so z. B. die Augenbrauen hochgezogen und bei Ausrufen der Zeigefinger erhoben werden. Auch ließen sich entsprechende Gestik- und/oder Mimiksteueranweisungen, falls gewünscht auch zusammen mit Steueranweisun­ gen für die Sprachsynthese, in die Textbeschreibung integrieren. Umgekehrt könnten auch für bestimmte Gestik- und/oder Mimikereignisse geeignete Texte generiert werden. Ein erstauntes Gesicht könnte so den Ausruf "Oh!" generieren. Weiter ist offensichtlich, dass enge Beziehungen auch zwischen Verhalten, Sprache, Gestik und Mimik bestehen.
Kooperatives Verhalten ist so z. B. typisch bekleidet von höflichen Formulierungen, freundlichen Gesten und lächelnder Mimik.
Diese Beispiele zeigen, dass sich Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibun­ gen in vielfältiger Weise mit Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen synthe­ tisieren lassen, z. B. also eine Textbebeschreibung sowohl zu einer Sprachsynthese als auch zu einer Gestik- und/oder zu einer Mimiksynthese benutzt werden kann.
Wessen Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil für eine solche Synthese herangezogen wird, kann sich nach Art und Aufgabe der zu synthetisierenden Beschrei­ bung richten. Geht es beispielsweise um ein Bildtelefonat zwischen zwei Teilnehmer, so wird es der Normalfall sein, dass die Text-, Gestik-, Mimik- und Verhaltensbeschrei­ bungen mit den Profilen des jeweiligen Autors der Sendeseite auf der Empfängerseite synthetisiert werden. Als weitere Anwendung ist jedoch auch das Versenden akustisch und visuell animierter elektronischer Grußkarten denkbar. Z. B. könnte ein Absender für einen seiner Freunde ein für diesen Zweck eigens komponiertes Geburtstaglied selbst aufnehmen, für den Vortrag des Liedes bei seinem Freund jedoch das Profil eines bekannten Sängers auswählen. Auf der Empfängerseite könnten also Text-, Gestik-, Mimik- und Verhaltens­ beschreibung des Senders in eine audiovisuelle Darstellung umgesetzt werden, die den bekannten Sänger zeigt, wie er den Text des Senders mit Gestik, Mimik und Verhalten des Senders vorträgt. Je nach Wunsch des Senders oder auch Empfängers könnte zum Vortrag des Textes des Senders jedoch auch Gestik, Mimik und Verhalten des Sängers benutzt werden.
Neben den Profilen echter Personen könnten auch künstlich geschaffene Profile Ver­ wendung finden. So ist es z. B. bei einigen Internetanwendungen üblich, die Benutzer­ führung durch künstliche Charaktere, so genannte Avatare vornehmen zu lassen. Auch solche künstlich geschaffenen Profile sind für die Synthese von Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibungen benutzbar.
Die US 6,035,273 offenbart ein Sprachkommunikationssystem, das mit einer geringen Datenübertragungsrate auskommt. Dazu werden auf der Senderseite die sprachlichen Äußerungen des Senders einer Spracherkennung zugeführt und auf diese Weise in Text umgesetzt (speech to text). Der Text wird zur Empfängerseite übertragen, was eine geringe Datenrate von ungefähr 160-300 Bits pro Sekunde erfordert. Auf der Empfängerseite wird der Text mit dem Sprachprofil des Senders sprachsynthetisiert, d. h. wieder in Sprache umgewandelt (text to speech).
Um dazu der Empfängerseite das Sprachprofil des Senders zugänglich zu machen, nennt die US 6,035,273 mehrere Möglichkeiten. So kann z. B. der Sender sein Sprachprofil zusammen mit dem Text mitschicken. Das Sprachprofil kann aber auch in einer an einem Netzwerk angeschlossenen Einrichtung (remote CTD, incorporated into a switching system or other network element) gespeichert und über das Netzwerk vom Empfänger abgerufen werden. Weiter kann das Sprachprofil, statt mit dem Text mitgeschickt zu werden, auch separat z. B. vor der Textübertragung an den Empfänger übermittelt werden (transmit speech profiles between CTD's).
Während die US 6,035,273 die Nutzung von Spracherkennung und anschließender Sprachsynthese mit dem Sprachprofil des Senders als effiziente Übertragungstechnik für Sprachkommunikation offenbart, sieht sie jedoch keine Schutzmechanismen für die Benutzung des Sprachprofils vor. Denkt man aber z. B. an den möglichen Missbrauch solcher Sprachprofile, insbesondere im Zusammenhang mit den o. g. Einsatzmöglichkeiten der Sprachprofile bekannter Persönlichkeiten, so wird das Schutzbedürfnis von Sprach­ profilen schon aus Gründen des Persönlichkeitsschutzes offenbar. Z. B. könnte ein bekannter Sänger seine Sprach-, Gestik-, Mimik- und Verhaltensprofile nur gegen Bezah­ lung zur Verfügung stellen wollen und u. U. auch nur für die Darbietung ausgesuchter Text-, Gestik, Mimik- und/ oder Verhaltensbeschreibungen. Die freie Verfügbarkeit seiner Sprach-, Gestik-, Mimik- und Verhaltensprofile würde daher einem Missbrauch seines Selbstbestimmungsrechtes Tür und Tor öffnen. Entsprechendes gilt für den Schutz künst­ lich erstellter Profile z. B. von Avataren, in deren Entwicklung vielleicht viel Aufwand geflossen ist.
Aufgabe der Erfindung ist es daher, ein Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/ oder Verhaltensbeschreibung der eingangs genannten Art zu schaffen, das die Interessen der Besitzer der für die Sprach-, Gestik-, Mimik- und/oder Verhaltenssynthese zu benutzenden Sprach-, Gestik-, Mimik- und/oder Verhaltensprofile an einer kontrol­ lierten Verwendung ihrer Profile ausreichend berücksichtigt.
Diese Aufgabe wird gelöst einerseits durch ein
  • - Verfahren zur Verarbeitung einer Text-, Gestik, Mimik- und/oder Verhaltensbe­ schreibung, bei dem die Tat-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit einem Sprach-, Gestik-, Mimik- und/ader Verhaltensprofil synthetisiert wird, falls ein Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltens­ profils zur Synthese legitimiert,
und andererseits durch ein
  • - System, das zur Verarbeitung einer Text-, Gestik-, Mimik- und/ oder Verhaltens­ beschreibung vorgesehen ist, wobei die Text-, Gestik, Mimik- und/oder Verhaltens­ beschreibung mir einem Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil synthe­ tisiert wird, falls ein Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/ oder Verhaltensprofils zur Synthese legitimiert.
Durch die Einführung eines Berechtigungscodes in das Verfahren kann überprüft werden, ob ein Benutzer des Verfahrens eine Berechtigung zur Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese besitzt. Dadurch werden die Interessen der Besitzer der für die Sprach-, Gestik-, Mimik- und/oder Verhaltenssynthese zu benutzenden Sprach-, Gestik-, Mimik- und/oder Verhaltensprofile an einer kontrollierten Verwendung ihrer Profile gewahrt.
Anspruch 2 sieht eine Ausführungsform des Verfahrens vor, in dem überprüft wird, ob der Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltens­ profils zur Synthese einer konkret vorliegenden Text-, Gestik-, Mimik- und/oder Verhal­ tensbeschreibung legitimiert. Anspruch 3 beschreibt eine Ausgestaltung, in dem ein Berechtigungscode für eine vorgegebene Anzahl von Fällen zur Legitimation verwendet werden darE Dazu gehört beispielsweise der Fall, in dem ein Benutzer des Verfahrens einen Berechtigungscode erworben hat, der es ihm gestattet, die Sprach-, Gestik-, Mimik- und Verhaltensprofile eines bekannten Sängers 5-mal zu verwenden, oder auch der Fall, in dem der Benutzer diese Profnle nur 2-mal für die Synthese einer einzigen, durch den Berechtigungscode gekennzeichneten Text-, Gestik-, Mimik- und/oder Verhaltensbe­ schreibung verwenden darf.
Der Anspruch 4 beschreibt eine Ausführungsform, in welcher der Berechtigungscode in verschlüsselter Form im Verfähren verwendet wird. Dies lässt sich einerseits als Sicherheits­ maßnahme bei der Übertragung des Berechtigungscodes über ein Netzwerk einsetzen, um ein Abhören des Berechtigungscodes durch Unbefugte zu verhindern oder zumindest zu erschweren. Andererseits ergibt sich dadurch aber auch z. B. die Möglichkeit, bei einem Berechtigungscode, der gemäß Anspruch 2 nur die Synthese einer konkreten Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung legitimiert, die Integrität des Zusammenhangs zwischen Berechtigungscode und Text-, Gestik-, Mimik- und/oder Verhaltensbeschrei­ bung und Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil zu wahren, d. h. z. B. die Verwendung des Berechtigungscodes für einen gefälschten Text zu verhindern oder zumindest zu erschweren.
Diese und weitere Aspekte und Vorteile der Erfindung werden im Folgenden an Hand der Ausführungsbeispiele und insbesondere an Hand der beigefügten Zeichnungen näher erläutert. Es zeigen:
Fig. 1 eine Ausführungsform eines Systemaufbaus, in dem ein erfindungsgemäßes Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung durchgeführt werden kann,
Fig. 2 den schematischen Ablauf des Erwerbs eines Berechtigungscodes zur Sprachsynthese eines Textes mit dem Sprachprofil einer bekannten Person in Form eines Flussdiagramms,
Fig. 3 den schematischen Ablauf einer Benutzung eines Berechtigungscodes zur Sprachsynthese eines Textes mit dem Sprachprofil einer bekannten Person und Versand des synthetisierten Textes an eine Zielrufnummer in Form eines Flussdiagramms,
Fig. 4a, 4b den schematischen Ablauf des Erstellens, Versendens, Empfangens und der Sprachsynthese eines Textes mit dem Sprachprofil des Textautors in Form zweier Flussdiagramme.
Die Fig. 1 zeigt eine Ausführungsform eines Systemaufbaus, in dem ein erfindungs­ gemäßes Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltens­ beschreibung durchgeführt werden kann. In ihr sind verschiedene Komponenten darge­ stellt, die unterschiedliche Möglichkeiten zur Benutzung des erfindungsgemäßen Ver­ fahrens bieten. Diese Komponenten können daher je nach einzelner Ausführungsform alle gemeinsam oder auch nur zum. Teil vorhanden sein.
Die in Fig. 1 dargestellten Geräte sind über ein Netzwerk 20, beispielsweise das Internet oder ein Telefonnetzwerk, drahtgebunden oder auch drahtlos miteinander verbunden. Dabei kann diese Verbindung über längere Zeit bestehen oder auch nur bei Bedarf wie z. B. im Falle eines Telefonats zeitweise hergestellt werden.
Es sind vier Geräte dargestellt, über die ein Benutzer mit dem Netzwerk 20 verbunden sein kann: ein öffentliches Benutzerterminal 10, ein Laptop 50, ein PC 60 und ein Telefon 70. Das öffentliche Benutzerterminal 10 verfügt über ein Display 11, eine Eingabetastatur 12, eine Mikrofon-/Lautsprecherkombination 13, einen Eingabeschlitz 14 für eine Chipkarte und eine Verarbeitungseinheit 42. Weiter sind an das Netzwerk 20 Verarbeitungsein­ heiten 40. . .41 und Datenspeicher 30. . .31 angeschlossen.
Mögliche erfindungsgemäße Benutzungsszenarien des in Fig. 1 dargestellten Systemaufbaus werden jetzt an Hand der in den folgenden Figuren dargebotenen Flussdiagramme beschrieben.
Fig. 2 zeigt den schematischen Ablauf des Erwerbs eines Berechtigungscodes zur Sprach­ synthese eines Textes mit dem Sprachprofil einer bekannten Person in Form eines Fluss­ diagramms. Im Startblock 101 nimmt ein Benutzer Kontakt zu einem erfindungsgemäßen System zur Textverarbeitung auf. Dazu stellt er z. B. an seinem heimischen PC 60 über das Internet 20 durch Eintippen einer entsprechenden Internetadresse eine Kommunikations­ verbindung zu einer Verarbeitungseinheit 40. . .41 her. Im Prozessblock 102 fragt ihn dann die Verarbeitungseinheit 40. . .41, was er tun möchte.
Die weitere Kontrolle verzweigt nach dem Entscheidungsblock 103, je nachdem, was der Benutzer möchte. Hier wird angenommen, dass der Benutzer einen Berechtigungscode erwerben will, der es ihm gestattet, einen bestimmten Text mehrmals mit dem Sprachprofil einer bekannten Person XY sprachsynthetisieren zu lassen. In diesem Fall verzweigt die Kontrolle zu Block 105, andernfalls zu dem hier nicht näher ausgeführten Block 104, der die anderen Benutzermöglichkeiten behandelt.
Im Block 105 fordert die Verarbeitungseinheit 40. . .41 den Benutzer auf, ihr den Namen der gewünschten bekannten Person zu übermitteln. Im Block 106 wird sodann geprüft, ob der Verarbeitungseinheit 40. . .41 die genannte Person bekannt ist. Ist dies nicht der Fall, so erfolgt im hier nicht näher ausgeführten Block 107 eine Alternativbehandlung. Andernfalls verzweigt die Kontrolle nach Block 106 zu Block 108.
In Block 108 wird der Benutzer dann sukzessive aufgefordert, den Text und die Anzahl der gewünschten Benutzungen des Sprachprofils der bekannten Person einzugeben sowie den Preis für den gewünschten Berechtigungscode zu bezahlen. Diese Bezahlung kann z. B. durch die Angabe einer Kreditkartennummer erfolgen. Bei Benutzung eines öffentlichen Benutzerterminals 10 anstelle des PCs 60 kann sie aber auch durch Einschieben beispiels­ weise einer Bezahlkarte in den Eingabeschlitz 14 des öffentlichen Benutzerterminals 10 abgewickelt werden. Bei dem Text kann es sich um eine Eigenkomposition des Benutzers handeln, der im Block 108 dann der Verarbeitungseinheit 40. . .41 übermittelt wird. Alternativ ist es aber auch denkbar, dass der Benutzer im Dialog mit der Verarbeitungs­ einheit 40. . .41 einen auf einem der Datenspeicher 30. . .31 vorbereiteten Text auswählt. Dabei kann es sich beispielshalber um ein allgemein bekanntes Geburtstagslied handeln.
Anschließend generiert die Verarbeitungseinheit 40. . .41 einen Berechtigungscode für die gewünschte Verwendung, z. B. in Form einer eindeutigen zufälligen Ziffernfolge, speichert diesen auf einem der Datenspeicher 30. . .31 und teilt ihn dem Benutzer mit. Wurde der Verarbeitungseinheit 40. . .41 hier Text vom Benutzer mitgeteilt, so kann auch dieser auf einem der Datenspeicher 30. . .31 gespeichert werden. Weiter werden auch die not­ wendigen Verwaltungsinformationen auf einem der Datenspeicher 30. . .31 gespeichert, die den Zusammenhang zwischen Berechtigungscode, Text und Sprachprofil der bekannten Person herstellen und die Anzahl der Benutzungen des Berechtigungscodes enthalten.
Im Block 110 wird der Benutzer schließlich nach weiteren Wünschen gefragt. Die Benutzerantwort wird im Block 111 ausgewertet. Hat der Benutzer weitere Wünsche, so wird die Kontrolle wieder an Block 103 zur Auswertung übergeben. Hat er dagegen keine weiteren Wünsche, so wird die Interaktion im Endblock 112 beendet.
Fig. 3 zeigt den schematischen Ablauf einer Benutzung eines Berechtigungscodes zur Sprachsynthese eines Textes mit dem Sprachprofil einer bekannten Person und Versand des synthetisierten Textes an eine Zielrufnummer in Form eines Flussdiagramms. Die Blöcke 201, 202, 203 und 204 entsprechen sinngemäß den Blöcken 101, 102, 103 und 104 der Fig. 2. Allerdings nehmen wir jetzt an, dass der Benutzer einen zuvor z. B. nach dem Schema der Fig. 2 erworbenen Berechtigungscode nutzen möchte, um den gewünsch­ ten Text mit dem Sprachprofil der gewünschten bekannten Person sprachsynthetisieren und anschließend an eine Telefonzielrufnummer seiner Wahl verschicken zu lassen. Um eine der Verarbeitungseinheiten 40. . .41 zu kontaktieren, kann er dazu beispielsweise einen Laptop 50, einen PC 60 oder ein Telefon 70 nutzen. Er kann aber auch ein öffent­ liches Benutzerterminal 10 nutzen und dann z. B. mit dessen lokaler Verarbeitungs­ einheit 42 zu kommunizieren, die sich bei Bedarf über das Netzwerk 20 mit einer der Verarbeitungseinheiten 40. . .41 in Verbindung setzen kann.
Im Block 205 fordert die Verarbeitungseinheit 40. . .41, 42 den Benutzer auf, den Berechtigungscode einzugeben. Je nach Systemausgestaltung und Anwendungsfall kann auch zur Eingabe einer eindeutigen Kennzeichnung der bekannten Person und/oder des Textes aufgefordert werden. Hier wird jedoch angenommen, dass der Berechtigungscode in einem Szenario entsprechend der Fig. 2 erworben wurde und eindeutig zu einer bekannten Person und einem bestimmten Text gehört und dieser Zusammenhang im System z. B. in einem der Datenspeicher 30. . .31 gespeichert ist. Alternativ könnte der Berechtigungs­ code aber auch nur das Sprachprofil kennzeichnen und z. B. die einmalige Synthese eines beliebigen Textes, der kürzer als eine Maximallänge ist, gestatten. Dann müsste an dieser Stelle natürlich der zu synthetisierende Text der Verarbeitungseinheit 40. . .41, 42 bekannt gemacht werden.
Im Block 206 wird die Gültigkeit des Berechtigungscodes für die gewünschte Verwendung geprüft. Je nach Anwendungsfall gehören zu dieser Prüfung die Fragen, ob der Berech­ tigungscode zu dem gewünschten Sprachprofil gehört, ob er zu dem zu synthetisierenden Text gehört, und ob der Berechtigungscode nicht bereits erschöpft ist, d. h. ob er bereits für die vorgesehene maximale Anzahl von Verwendungen benutzt wurde.
Ist der Berechtigungscode ungültig, so erfolgt im Block 207 eine hier nicht näher ausge­ führte weitere Behandlung der Interaktion. Ansonsten fordert die Verarbeitungseinheit 40 41, 42 den Benutzer im Block 208 auf, die Zielrufnummer anzugeben, an den der sprachsynthetisierte Text geschickt werden soll. Ebenfalls erfolgt in diesem Block die Sprachsynthese des Textes, die Anwahl der Telefonzielrufnummer, und das Vorlesen des sprachsynthetisierten Textes für einen sich auf dieser Zielrufnummer meldenden Teil­ nehmer.
Dabei kann dieser Block im einzelnen auf vielerlei Art ausgestaltet werden. Z. B. kann die Verarbeitungseinheit 40. . .41, 42 den Benutzer zunächst mit dem Teilnehmer verbinden, damit der Benutzer feststellen kann, ob sich auch der gewünschte Teilnehmer gemeldet hat, und er diesem ankündigen kann, dass die Verarbeitungseinheit 40. . .41, 42 ihm jetzt einen Text vorliest. Dabei kann der Benutzer z. B. bei Benutzung eines Telefons 70 durch Drücken der Erdtaste wieder eine Verbindung zur Verarbeitungseinheit 40. . .41, 42 erhalten. Statt dessen kann die Verarbeitungseinheit 40. . .41, 42 dem Teilnehmer aber auch selbst einen Ankündigungstext vorlesen. Sollte sich zunächst kein Teilnehmer melden, so kann die Verarbeitungseinheit 40. . .41, 42 nach einer Verzögerungszeit wieder versuchen, eine Verbindung zur Zielrufnummer herzustellen. Alternativ kann der Benutzer aber beispielsweise auch vorsehen, in diesem Fall den sprachsynthetisierten Text als Audio-Anhang an eine Email an eine Email-Adresse zu senden, die er dann natürlich dem System mitteilen muss.
Nach dem Block 208 entsprechen die weiteren Verarbeitungsstufen 210, 211 und 212 wieder sinngemäß den Blöcken 110, 111 und 112 der Fig. 2.
Die Fig. 4a und 4b zeigen den schematischen Ablauf des Erstellens, Versendens, Empfangens und der Sprachsynthese eines Textes mit dem Sprachprofil des Textautors in Form zweier Flussdiagramme.
Fig. 4a zeigt zunächst das Erstellen und Versenden eines Textes zusammen mit dem Sprachprofil des Textautors als Email. Nach dem Start im Block 301 wird im Block 302 der Text erstellt. Im Block 303 wird sodann ein Berechtigungscode generiert, der den Text und das Sprachprofil des Autors kennzeichnet. Um einen solchen Berechtigungscode zu erzeugen, können z. B. Text und Sprachprofil als eine fortlaufende Bitfolge dargestellt werden, die dann mit Hilfe eines Hashing-Verfahrens auf eine Zahl handhabbarer Größe abgebildet wird. Um nun die Integrität des Zusammenhangs zwischen Text, Sprachprofil und Berechtigungscode sicherzustellen, wird der Berechtigungscode ebenfalls noch im Block 303 nach einem asymmetrischen Verschlüsselungsverfahren wie beispielsweise dem RSA-Algorithmus mit dem privaten Schlüssel des Textautors verschlüsselt.
Im Block 304 wird der Text zusammen mit dem Sprachprofil des Autors, dem verschlüs­ selten Berechtigungscode und einer eindeutigen Kennung des Autors als Email verschickt. Der Prozess endet sodann im Block 305.
Fig. 4b zeigt Empfangen und Sprachsynthese des empfangenen Textes mit dem Sprach­ profil des Textautors. Nach dem Startblock 310 wird zunächst im Block 311 eine Email mit einem Text, dem Sprachprofil des Textautors, einem verschlüsselten Berechtigungs­ code und einer eindeutigen Kennung des Autors empfangen. Auch werden im Block 311 Text, Sprachprofil, verschlüsselter Berechtigungscode und Autorenkennung an ein erfindungsgemäßes Textverarbeitungssystem übergeben.
Dieses prüft im Block 312 die Gültigkeit des Berechtigungscodes. Dazu wird als erstes der verschlüsselte Berechtigungscode mit dem öffentlichen Schlüssel des Textautors ent­ schlüsselt. Gelingt dieser Entschlüsselungsvorgang und stimmt der entschlüsselte Berech­ tigungscode bei dem oben geschilderten Hashing-Verfahren mit dem Hashwert des über­ gegebenen Textes und Sprachprofils überein, so ist der Berechtigungscode gültig.
Ist der Berechtigungscode ungültig, so wird im hier nicht näher ausgeführten Block 313 eine weitere Behandlung der Interaktion mit dem Empfänger vorgenommen. Andernfalls erfolgt im Block 314 die Sprachsynthese des Textes mit dem Sprachprofil und die Audio­ ausgabe des synthetisierten Textes, worauf die Interaktion mit dem Empfänger im Block 315 beendet wird.
In den Fig. 4a und 4b stellt der mit dem privaten Schlüssel des Textautors verschlüsselte Berechtigungscode zusammen mit der eindeutigen Kennung des Autors eine Signatur zum Beweis der Authentizität des Textes und Sprachprofils dar, die ein erfindungsgemäßes Textverarbeitungssystem dazu benutzt, die Berechtigung der Benutzung des Sprachprofils zur Sprachsynthese des Textes zu prüfen.
In einer Abwandlung dieses Szenarios könnte ein Textautor generell die Benutzung seines Sprachprofils zur Sprachsynthese seiner Texte erlauben wollen. In diesem Falle würde es genügen, wenn der Textautor einmalig sein Sprachprofil einem auf der Empfängerseite eingesetztem erfindungsgemäßem Textverarbeitungssystem zur Speicherung zur Verfügung stellt und sodann nur noch seine Texte nach dem Stand der Technik signiert und ver­ sendet. Das auf der Empfängerseite eingesetzte erfindungsgemäße Textverarbeitungssystem benutzt dann den durch die Signatur erbrachten Authentizitätsnachweis eines Textes des Autors dazu, die Benutzung des Sprachprofils des Autors zur Sprachsynthese des Textes zu erlauben.
Die in den Fig. 2, 3, 4a und 4b dargestellten Benutzungsszenarien eines erfindungsge­ mäßen Textverarbeitungssystems sind nur Beispiele vieler weiterer denkbarer Varianten. So wird darauf hingewiesen, dass in den Fig. 2 und 3 eine stark dezentralisierte Architektur mit über ein Netzwerk 20 kommunizierenden Komponenten beschrieben wurde, während in den Fig. 4a und 4b ein eher lokales Szenario dargeboten wurde, bei dem alle notwen­ digen Aktionen lokal auf Sender- bzw. Empfängerseite erfolgen und ein Netzwerk nur zur Übermittlung einer Email verwendet wird. Es ist offensichtlich, dass sich diese Architek­ turen mischen lassen, im Falle der Fig. 4a und 4b also beispielshalber das Sprachprofil nicht notwendigerweise mit übertragen werden muss, wenn es statt dessen auf einem der Datenspeicher 30. . .31 vorhanden ist und die Empfängerseite es sich von dort beschaffen kann.
Weiter wurde aus Gründen der Kompaktheit in der Figurenbeschreibung immer nur von einem Textverarbeitungssystem gesprochen. Es ist jedoch offensichtlich, dass die Erfindung sich in gleicher Weise für die Verarbeitung einer Text-, Gestik-, Mimik- und/ oder Verhal­ tensbeschreibung eignet. Auch lässt sich die Erfindung gemeinsam mit Sprach-, Gestik, Mimik- und/oder Verhaltenserkennungssystemen einsetzen, welche die Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibungen mittels eines Erkennungsprozesses selbsttätig erstellen. Auch wird noch einmal auf die bereits eingangs erwähnten Möglichkeiten hin­ gewiesen, dass sich Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibungen in viel­ fältiger Weise mit Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen synthetisieren lassen.

Claims (5)

1. Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung, bei dem die Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit einem Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil synthetisiert wird, falls ein Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese legitimiert.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit dem Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil synthetisiert wird, falls der Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese der Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung legitimiert.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Text-, Gestik, Mimik- und/oder Verhaltensbeschreibung mit dem Sprach-, Gestik, Mimik- und/oder Verhaltensprofil synthetisiert wird, falls die Anzahl der Fälle, in denen der Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese bereits legitimiert hat, kleiner als eine gegebene erste Anzahl ist, und/oder falls die Anzahl der Fälle, in denen der Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/ oder Verhaltensprofils zur Synthese der Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung bereits legitimiert hat, kleiner als eine gegebene zweite Anzahl ist.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Berechtigungscode verschlüsselt ist und im Verfahren entschlüsselt wird, wobei insbesondere ein asymmetrisches Kryptographieverfahren, insbesondere das RSA-Verfahren oder eine elliptische Kurve, zur Ver- und Entschlüsselung verwendet wird.
5. System, das zur Verarbeitung einer Text-, Gestik-, Mimik- undl oder Verhaltensbeschreibung vorgesehen ist, wobei die Tat-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit eünem Sprach-, Gestik-, Mimik- und/oder Verhaltensprofil synthetisiert wird, falls ein Berechtigungscode die Benutzung des Sprach-, Gestik-, Mimik- und/oder Verhaltensprofils zur Synthese legitimiert.
DE10127558A 2001-06-06 2001-06-06 Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese Withdrawn DE10127558A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE10127558A DE10127558A1 (de) 2001-06-06 2001-06-06 Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese
DE60208199T DE60208199T2 (de) 2001-06-06 2002-06-05 Verfahren zur Verarbeitung eines Texts, einer Geste, eines Gesichtsausdruckes und/oder Verhaltensbeschreibung mit einer Prüfung auf Autorisierung für die Verwendung entsprechender Profile für die Synthese
PCT/IB2002/002051 WO2002099784A1 (en) 2001-06-06 2002-06-05 Method of processing a text, gesture, facial expression, and/or behavior description comprising a test of the authorization for using corresponding profiles for synthesis
EP02735723A EP1402515B1 (de) 2001-06-06 2002-06-05 VERFAHREN ZUR VERARBEITUNG EINES TEXTES, EINER gESTE, EINES gESICHTSAUSDRUCKES UND/ODER VERHALTENSBESCHREIBUNG MIT EINER PRÜFUNG AUF AUTORISIERUNG FÜR DIE VERWENDUNG ENTSPRECHENDER PROFILE FÜR DIE SYNTHESE
AT02735723T ATE313845T1 (de) 2001-06-06 2002-06-05 Verfahren zur verarbeitung eines textes, einer geste, eines gesichtsausdruckes und/oder verhaltensbeschreibung mit einer prüfung auf autorisierung für die verwendung entsprechender profile für die synthese
JP2003502816A JP4714410B2 (ja) 2001-06-06 2002-06-05 対応するプロファイルの合成に対する使用許可テストを有するテキスト・ディスクリプション、ジェスチャ・ディスクリプション、顔の表情ディスクリプション、及び/又は、挙動ディスクリプションを処理する方法
US10/479,555 US9092885B2 (en) 2001-06-06 2002-06-05 Method of processing a text, gesture, facial expression, and/or behavior description comprising a test of the authorization for using corresponding profiles for synthesis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10127558A DE10127558A1 (de) 2001-06-06 2001-06-06 Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese

Publications (1)

Publication Number Publication Date
DE10127558A1 true DE10127558A1 (de) 2002-12-12

Family

ID=7687444

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10127558A Withdrawn DE10127558A1 (de) 2001-06-06 2001-06-06 Verfahren zur Verarbeitung einer Text-, Gestik-, Mimik- und/oder Verhaltensbeschreibung mit Überprüfung der Benutzungsberechtigung von Sprach-, Gestik-, Mimik- und/oder Verhaltensprofilen zur Synthese
DE60208199T Expired - Lifetime DE60208199T2 (de) 2001-06-06 2002-06-05 Verfahren zur Verarbeitung eines Texts, einer Geste, eines Gesichtsausdruckes und/oder Verhaltensbeschreibung mit einer Prüfung auf Autorisierung für die Verwendung entsprechender Profile für die Synthese

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60208199T Expired - Lifetime DE60208199T2 (de) 2001-06-06 2002-06-05 Verfahren zur Verarbeitung eines Texts, einer Geste, eines Gesichtsausdruckes und/oder Verhaltensbeschreibung mit einer Prüfung auf Autorisierung für die Verwendung entsprechender Profile für die Synthese

Country Status (6)

Country Link
US (1) US9092885B2 (de)
EP (1) EP1402515B1 (de)
JP (1) JP4714410B2 (de)
AT (1) ATE313845T1 (de)
DE (2) DE10127558A1 (de)
WO (1) WO2002099784A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726840B2 (en) 2014-07-31 2020-07-28 Google Llc Conversational agent response determined using a sentiment

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7607097B2 (en) 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
US8131549B2 (en) 2007-05-24 2012-03-06 Microsoft Corporation Personality-based device
CN104143139A (zh) * 2014-08-07 2014-11-12 辽宁蓝卡医疗投资管理有限公司 基于面部表情的付款方法及系统
US9288303B1 (en) 2014-09-18 2016-03-15 Twin Harbor Labs, LLC FaceBack—automated response capture using text messaging
US10282530B2 (en) 2016-10-03 2019-05-07 Microsoft Technology Licensing, Llc Verifying identity based on facial dynamics
US10848973B2 (en) * 2018-10-16 2020-11-24 Rovi Guides, Inc. System and method to retrieve a secure message when a display of a mobile device is inaccessible

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2529044B1 (fr) * 1982-06-18 1986-06-20 Inst Nat Rech Inf Automat Procedes et dispositifs de telecommunications visuelles, notamment a l'usage des sourds
US4558176A (en) * 1982-09-20 1985-12-10 Arnold Mark G Computer systems to inhibit unauthorized copying, unauthorized usage, and automated cracking of protected software
US4707858A (en) * 1983-05-02 1987-11-17 Motorola, Inc. Utilizing word-to-digital conversion
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
JP3018370B2 (ja) * 1990-02-20 2000-03-13 ブラザー工業株式会社 楽音再生システム
JPH0410734A (ja) * 1990-04-27 1992-01-14 Canon Inc 情報処理装置
US5559927A (en) * 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
JP3299797B2 (ja) * 1992-11-20 2002-07-08 富士通株式会社 合成画像表示システム
US5878396A (en) * 1993-01-21 1999-03-02 Apple Computer, Inc. Method and apparatus for synthetic speech in facial animation
JPH0766832A (ja) * 1993-08-26 1995-03-10 Fujitsu Ltd マルチメディア電子メ−ル方式
US5657426A (en) * 1994-06-10 1997-08-12 Digital Equipment Corporation Method and apparatus for producing audio-visual synthetic speech
US6285380B1 (en) * 1994-08-02 2001-09-04 New York University Method and system for scripting interactive animated actors
US6029195A (en) * 1994-11-29 2000-02-22 Herz; Frederick S. M. System for customized electronic identification of desirable objects
US5892900A (en) * 1996-08-30 1999-04-06 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
US5893132A (en) * 1995-12-14 1999-04-06 Motorola, Inc. Method and system for encoding a book for reading using an electronic book
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US5764901A (en) * 1995-12-21 1998-06-09 Intel Corporation Record and playback in a data conference
WO1997033416A1 (en) * 1996-03-07 1997-09-12 American Express Travel Related Services Company, Inc. Methods and apparatus for providing a prepaid, remote memory transaction account with voice indicia
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6035273A (en) * 1996-06-26 2000-03-07 Lucent Technologies, Inc. Speaker-specific speech-to-text/text-to-speech communication system with hypertext-indicated speech parameter changes
JPH1031587A (ja) * 1996-07-15 1998-02-03 Hitachi Ltd データ端末装置およびコンピュータプログラム
US5915238A (en) * 1996-07-16 1999-06-22 Tjaden; Gary S. Personalized audio information delivery system
JPH1063365A (ja) * 1996-08-14 1998-03-06 Casio Comput Co Ltd データ配送システム並びにその方法、装置及び記 録媒体
US6028960A (en) * 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US5889860A (en) * 1996-11-08 1999-03-30 Sunhawk Corporation, Inc. Encryption system with transaction coded decryption key
US5949882A (en) * 1996-12-13 1999-09-07 Compaq Computer Corporation Method and apparatus for allowing access to secured computer resources by utilzing a password and an external encryption algorithm
AU6049298A (en) * 1997-01-31 1998-08-25 T-Netix, Inc. System and method for detecting a recorded voice
US5940799A (en) * 1997-09-15 1999-08-17 Motorola, Inc. System and method for securing speech transactions
JPH11196122A (ja) * 1997-12-25 1999-07-21 Canon Inc 電子メール転送システム、方法、メール取出装置および情報機器
US6466213B2 (en) * 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
US6219639B1 (en) * 1998-04-28 2001-04-17 International Business Machines Corporation Method and apparatus for recognizing identity of individuals employing synchronized biometrics
JP3125746B2 (ja) * 1998-05-27 2001-01-22 日本電気株式会社 人物像対話装置及び人物像対話プログラムを記録した記録媒体
US6343361B1 (en) * 1998-11-13 2002-01-29 Tsunami Security, Inc. Dynamic challenge-response authentication and verification of identity of party sending or receiving electronic communication
JP2000200229A (ja) * 1999-01-07 2000-07-18 Nec Corp 有償情報配布システムおよび有償情報配布方法
JP3389186B2 (ja) * 1999-04-27 2003-03-24 松下電器産業株式会社 半導体メモリカード及び読み出し装置
JP4253918B2 (ja) * 1999-04-28 2009-04-15 株式会社エクォス・リサーチ エージェント装置
JP2000330873A (ja) * 1999-05-18 2000-11-30 M Ken:Kk コンテンツ流通システムおよびその方法、記録媒体
US6449343B1 (en) * 1999-11-08 2002-09-10 At&T Corp. System and method for creation and conversion of electronic mail messages for delivery to telephone recipients
US6384829B1 (en) * 1999-11-24 2002-05-07 Fuji Xerox Co., Ltd. Streamlined architecture for embodied conversational characters with reduced message traffic
US6526395B1 (en) * 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
US6813607B1 (en) * 2000-01-31 2004-11-02 International Business Machines Corporation Translingual visual speech synthesis
US6539354B1 (en) * 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
US7277855B1 (en) * 2000-06-30 2007-10-02 At&T Corp. Personalized text-to-speech services
WO2002037471A2 (en) * 2000-11-03 2002-05-10 Zoesis, Inc. Interactive character system
US7091976B1 (en) * 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
WO2003023577A1 (en) * 2001-11-12 2003-03-20 Network Research Lab Limited Method and device for protecting information against unauthorised use
US7461028B2 (en) * 2001-11-27 2008-12-02 Pitney Bowes Inc. Method and system for authorizing use of a transaction card

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726840B2 (en) 2014-07-31 2020-07-28 Google Llc Conversational agent response determined using a sentiment
US11423902B2 (en) 2014-07-31 2022-08-23 Google Llc Conversational agent response determined using a sentiment
US11900938B2 (en) 2014-07-31 2024-02-13 Google Llc Conversational agent response determined using a sentiment

Also Published As

Publication number Publication date
US9092885B2 (en) 2015-07-28
JP2004537785A (ja) 2004-12-16
US20040148176A1 (en) 2004-07-29
WO2002099784A1 (en) 2002-12-12
JP4714410B2 (ja) 2011-06-29
EP1402515A1 (de) 2004-03-31
DE60208199T2 (de) 2006-08-10
DE60208199D1 (de) 2006-01-26
ATE313845T1 (de) 2006-01-15
EP1402515B1 (de) 2005-12-21

Similar Documents

Publication Publication Date Title
Wodak et al. Approaches to media texts
Smith Voices from the WELL: The logic of the virtual commons
Cottle Global crisis reporting
Barnett New media, old problems: new technology and the political process
DE602005002156T2 (de) Befehlsgesteuertes System zum Rundsenden von Gruppen-Kurznachrichten (SMS) mit mobilem Nachrichtenempfänger und Kommunikations-Server
Martella et al. Populism and emotions: Italian political leaders’ communicative strategies to engage Facebook users
Carey The mass media and democracy: Between the modern and the postmodern
DE60124985T2 (de) Sprachsynthese
DE202015009885U1 (de) Priorisierung von Nachrichten
US20010056468A1 (en) Method of information display and communication system using the method
El-Nawawy et al. Political blogging and (re) envisioning the virtual public sphere: Muslim—Christian discourses in two Egyptian blogs
EP0980565B1 (de) Verfahren zur anpassung eines referenzdatensatzes anhand mindestens eines eingabedatensatzes durch einen rechner
DE102007048518A1 (de) System und Verfahren zur Kommunikationsarchivierung durch einen Dritten
DE60208199T2 (de) Verfahren zur Verarbeitung eines Texts, einer Geste, eines Gesichtsausdruckes und/oder Verhaltensbeschreibung mit einer Prüfung auf Autorisierung für die Verwendung entsprechender Profile für die Synthese
EP1524629A1 (de) Berechtigungskontrollverfahren sowie dafür geeignete Vorrichtungen
DE60125674T2 (de) Informationsanzeige
DE10297256T5 (de) Informationsübermittlungssystem
DE60211699T2 (de) Tragbares system zum speichern und emittieren voreingerichteter codes für authentisierungszwecke und verwendetes authentisierungsverfahren
Natale Exploring virtual legal presence: the present and the promise
Lehtisaari Formation of media policy in Russia: The case of the Iarovaia law
Wilkins Wearing shades in the bright future of digital media: Limitations of narratives of media power in Egyptian resistance
Wirth et al. How to measure appropriation? Towards an integrative model of mobile phone appropriation
Türkoğlu et al. Political polarisation on social media: Competing understandings of democracy in Turkey
Pang et al. Social media and social movements: Weak publics, the online space, spatial relations, and collective action in Singapore
WO2017148840A1 (de) Überprüfen von zugangsberechtigungen mit mobilen kontrollgeräten

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PHILIPS INTELLECTUAL PROPERTY & STANDARDS GMBH, 20

8139 Disposal/non-payment of the annual fee