DE102004061884B4 - Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern - Google Patents

Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern Download PDF

Info

Publication number
DE102004061884B4
DE102004061884B4 DE102004061884A DE102004061884A DE102004061884B4 DE 102004061884 B4 DE102004061884 B4 DE 102004061884B4 DE 102004061884 A DE102004061884 A DE 102004061884A DE 102004061884 A DE102004061884 A DE 102004061884A DE 102004061884 B4 DE102004061884 B4 DE 102004061884B4
Authority
DE
Germany
Prior art keywords
user
animation
interaction
users
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102004061884A
Other languages
English (en)
Other versions
DE102004061884A1 (de
Inventor
Christian REISSMÜLLER
Frank SCHÜLER
Markus Knaup
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Combots Product GmbH and Co KG
Original Assignee
Combots Product GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Combots Product GmbH and Co KG filed Critical Combots Product GmbH and Co KG
Priority to DE102004061884A priority Critical patent/DE102004061884B4/de
Priority to CA002551782A priority patent/CA2551782A1/en
Priority to JP2006550136A priority patent/JP2007520005A/ja
Priority to EP05701278A priority patent/EP1714465A1/de
Priority to PCT/EP2005/000939 priority patent/WO2005074235A1/de
Priority to US10/597,557 priority patent/US20080214214A1/en
Publication of DE102004061884A1 publication Critical patent/DE102004061884A1/de
Application granted granted Critical
Publication of DE102004061884B4 publication Critical patent/DE102004061884B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M7/00Arrangements for interconnection between switching centres
    • H04M7/0024Services and arrangements where telephone services are combined with data services
    • H04M7/0036Services and arrangements where telephone services are combined with data services where the data service is an information service

Abstract

Verfahren zur Telekommunikation zwischen mindestens zwei Nutzern über ein Telekommunikationsnetzwerk (40), wobei der erste Nutzer über ein erstes Endgerät und der zweite Nutzer über ein zweites Endgerät mit dem Telekommunikationsnetzwerk (40) verbunden ist, und wobei jedem Nutzer ein virtueller Stellvertreter (5, 6) zugeordnet ist, mit den folgenden Schritten:
– Darstellung der beiden Stellvertreter (5, 6) am ersten Endgerät und am zweiten Endgerät;
– Übertragung einer Information vom ersten Nutzer zum zweiten Nutzer und umgekehrt durch eine Animation mindestens eines Stellvertreters (5, 6) und durch eine Interaktion zwischen den Stellvertretern (5, 6), wobei die Animation und/oder Interaktion in Antwort auf einen Drag&Drop-Befehl eines Nutzers erfolgt und wobei in Abhängigkeit von vorgebbaren Kriterien, die Angaben über zumindest den einen der beiden Nutzer umfassen und die in einem Nutzerprofil abgespeichert werden, das mindestens einem der beiden Nutzer zugeordnet wird, zumindest diesem Nutzer eine Auswahl an zu übertragenden Animationen und/oder Interaktionen vorgeschlagen...

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein Verfahren und ein System mittels welcher mindestens zwei Nutzer über entsprechende Endgeräte miteinander kommunizieren können. Die Kommunikation wird durch die Verwendung von virtuellen Stellvertretern erweitert und unterstützt.
  • Seit einiger Zeit gibt es neben herkömmlicheren Kommunikationsmitteln wie Telefon, Fax oder Email einen weiteren Kommunikationsdienst, welcher unter dem Begriff „Instant Messaging" (IM) bekannt geworden ist. Bei diesem Kommunikationsdienst können mehrere Nutzer unter Verwendung eines Client-Programms in Echtzeit miteinander schriftliche Nachrichten austauschen oder auch „chatten". Dabei wird der von einem Nutzer eingegebene Text in Echtzeit an die anderen teilnehmenden Nutzer übermittelt. Diese können dann wiederum durch Texteingabe auf übermittelte Textnachrichten antworten.
  • Nachteilig beim Instant Messaging ist, dass diese Form der Kommunikation auf den Austausch von reinen Textnachrichten beschränkt ist. Um diesen Nachteil zu überwinden und um die Ausdrucksmöglichkeiten beim Instant Messaging zu erweitern, verwenden viele Nutzer so genannte „Emoticons". Emoticons sind ein Gesicht oder auch „Smiley" nachbildende Zeichenfolgen, die bei der schriftlichen elektronischen Kommunikation benutzt werden, um Stimmungs- und Gefühlszustände auszudrücken.
  • Auch wenn Dank der „Emoticons" die Ausdrucksmöglichkeiten im Rahmen des Instant Messaging geringfügig erweitert werden können, fehlt es hier weiterhin an einer Möglichkeit, einem Chat-Partner insbesondere Emotionen und Stimmungen auf vielschichtige, deutliche, ansprechende und multimediale Weise mitzuteilen.
  • Die WO 2004/079530 A2 beschreibt eine grafische Benutzerschnittstelle auf einem Bildschirm zur Verwendung eines Computers, um unter Verwendung eines Avatars zu kommunizieren.
  • Die US 2004/0220850 A1 beschreibt ein Verfahren zur Vereinfachung von viralem Marketing, bei dem eine Mehrzahl von Computernutzern über einen Satz miteinander verbundener Terminals kommunizieren und online Erfahrungen teilen.
  • In der US 6,784,901 B1 wird ein Chatsystem, ein Verfahren und ein Computerprogramm zur Auslieferung einer Nachricht zwischen einem Sender und einem Empfänger in einem dreidimensionalen Mehrbenutzerumfeld beschrieben.
  • Aufgabe der Erfindung
  • Es ist daher eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System vorzuschlagen, mit welchen mindestens zwei Nutzer von Telekommunikationsendgeräten auf vielschichtige, ansprechende und multimediale Art und Weise in Echtzeit miteinander kommunizieren können. Das erfindungsgemäße Verfahren und das erfindungsgemäße System sollen insbesondere eine besonders direkte, vielseitige und abwechslungsreiche Mitteilung von Stimmungen, Emotionen und Gefühlszuständen ermöglichen.
  • Beschreibung der Erfindung
  • Zur Lösung der soeben benannten Aufgabe schlägt die vorliegende Erfindung ein Verfahren zur Telekommunikation zwischen mindestens zwei Nutzern gemäß Anspruch 1 vor. Daneben ist ein System gemäß Anspruch 25 vorgesehen.
  • Um der Klarheit willen wird im Folgenden stets der Fall einer lediglich binären Kommunikation zwischen einem ersten und einem zweiten Nutzer beschrieben. Die Erfindung umfasst aber selbstverständlich auch entsprechend gestaltete Kommunikationen zwischen drei oder auch mehr Nutzern.
  • Bei dem erfindungsgemäßen Verfahren wird die Kommunikation zwischen den zwei Nutzern durch die Verwendung von virtuellen Stellvertretern wesentlich erweitert und verbessert. Die Nutzer sind nunmehr zum Austausch von Informationen nicht mehr ausschließlich an die Schriftform gebunden, sondern können durch eine Animation ihres jeweiligen Stellvertreters dem Kommunikationspartner unmittelbar visuell und akustisch Informationen zuspielen. Der virtuelle Stellvertreter repräsentiert nicht nur den jeweiligen Nutzer, sondern umfasst auch Kommunikationsfunktionen, insbesondere die nachfolgend beschriebenen Funktionen für eine non-verbale Kommunikation. Somit ist jeder Stellvertreter nicht nur als grafisches Element zu verstehen, sondern auch als Programmelement oder -objekt für ein Anwenderprogramm, das auf den Endgerät des jeweiligen Nutzers zum Zwecke der Kommunikation mit dem anderen Nutzer läuft. Bei den Stellvertretern handelt es sich also auch um kleine Kommunikations-Steuerprogramme. Die Stellvertreter werden daher im folgenden auch als „Communications Robots", kurz „ComBots" bezeichnet.
  • Unter Telekommunikation ist im Kontext der Erfindung die Kommunikation zwischen den zwei Nutzern über eine gewisse Distanz hinweg zu verstehen, und zwar in einem sehr umfassenden Verständnis. Das bedeutet, dass alle Arten von Kommunikation über beliebige Kommunikationsnetze umfasst sind. Beispielsweise erfolgt diese über ein Telekommunikationsnetzwerk, wobei es sich hierbei beispielhaft um ein Telefonnetzwerk, ein Funknetz, ein Rechnernetzwerk, ein Satellitennetzwerk oder einer Kombination dieser Netzwerke handeln kann. Bevorzugt umfasst das erfindungsgemäße Netzwerk das Internet oder auch das World Wide Web.
  • Sowohl der erste Nutzer als auch der zweite Nutzer kommunizieren miteinander über so genannte Endgeräte. Diese Endgeräte dienen zur Telekommunikation und ermöglichen den visuellen, akustischen und/oder schriftlichen Austausch von Informationen zwischen den Nutzern. Bei diesen Endgeräten kann es sich um Telefone, Handys, PDAs, Rechner oder ähnlichem handeln. Die Nutzer können auch über jeweils unterschiedliche Geräte miteinander kommunizieren. Bevorzugt handelt es sich bei den Endgeräten um Internet fähige Rechner oder auch Computer.
  • Im Kontext der Erfindung ist ein „Nutzer" als natürliche Person oder auch als menschliches Individuum zu sehen.
  • Erfindungsgemäß ist jedem Nutzer bei der stattfindenden Telekommunikation ein virtueller Stellvertreter (ComBot) zugeordnet. Dieser virtuelle Stellvertreter kann auch als Doppelgänger oder Avatar bezeichnet werden. Es handelt sich dabei um einen graphischen Platzhalter, welcher den jeweiligen Nutzer repräsentiert. Beispielsweise kann ein Nutzer als virtuellen Stellvertreter eine bekannte Comic-Figur wie Donald Duck oder Bart Simpson besitzen. Dem Nutzer wird seine ihn repräsentierende graphische Figur während der Kommunikation auf seinem Endgerät dargestellt. Zeitgleich sieht der Nutzer auch ein weiteres graphisches Objekt, welches für seinen Kommunikationspartner steht.
  • Einem Kommunikationspartner kann so auf neuartige Weise eine Information, wie bspw. eine Gefühlsäußerung, mitgeteilt werden, indem der virtuelle Stellvertreter des Mitteilenden entsprechend animiert wird. Zusätzlich oder alternativ kann auch eine Interaktion zwischen den beiden Stellvertretern dargestellt werden.
  • Dass ein Stellvertreter animiert wird, bedeutet, dass dessen graphische Darstellung sich visuell und/oder akustisch in der Zeit verändert. Ein Stellvertreter ist somit nicht lediglich ein statisches Bild oder Symbol, sondern dynamisch und kann unterschiedlichste Handlungen vornehmen. So kann ein Stellvertreter z.B. zum Zeichen des Grußes winken.
  • Wenn eine Interaktion zwischen zwei Stellvertretern erfolgt, bedeutet dies, dass nicht lediglich jeder Stellvertreter unabhängig von dem anderen animiert wird. Vielmehr reagiert der eine Stellvertreter auf die Aktion des anderen Stellvertreters und umgekehrt. Es findet also ein aufeinander bezogenes Handeln zwischen den beiden Stellvertretern statt, die beiden Stellvertreter beeinflussen sich gegenseitig und treten in eine Wechselbeziehung ein. So kann z.B. der eine Stellvertreter in Antwort auf ein Winken des anderen Stellvertreters zurückwinken.
  • Vorzugsweise erfolgt die Animation und/oder Interaktion der Stellvertreter in Antwort auf einen Nutzerbefehl, insbesondere in Antwort auf einen Drag&Drop-Befehl des Nutzers. So kann der Nutzer seinen Stellvertreter individuell steuern, um durch die Steuerung des Stellvertreters bspw. seine derzeitige Stimmung seinem Kommunikationspartner zu verdeutlichen. Die Steuerung erfolgt durch eine entsprechende Bedienung des jeweiligen Endgerätes, das vorzugsweise ein Personal Computer ist. Wenn das Endgerät über eine graphische Benutzeroberfläche (Desktop) mit einer Maus-artigen Steuerung verfügt, kann der Benutzer auf besonders einfache Weise durch Ziehen und Fallenlassen (Drag&Drop) eine Animation oder Interaktion seines Stellvertreters auslösen. Dazu bewegt der Nutzer seinen Mauszeiger auf eine graphische Abbildung derjenigen Animation, welche sein Stellvertreter durchführen soll und „zieht" diese Abbildung auf die graphische Darstellung seines Stellvertreters. Dazu kann auch ein vordefinierten Bereich des Desktops oder vom Anwenderprogramm erzeugtes Fenster oder Fensterbereich dienen.
  • Bevorzugt kann auch in Antwort auf einen Befehl des ersten Nutzers eine Animation des Stellvertreters des zweiten Nutzers erfolgen und umgekehrt. Mit dieser Funktion wird auf einfache Weise die beschriebene Interaktion zwischen den Stellvertretern möglich. Diese Funktion ist insbesondere dann nützlich, wenn der eine Nutzer seinen Stellvertreter eine Aktion durchführen lassen will, die eine Auswirkung auf den Stellvertreter des anderen Nutzers haben soll. So kann der erste Nutzer bspw. seinen Stellvertreter dazu anweisen, einen Gegenstand nach dem Stellvertreter des anderen Nutzers zu werfen. In Antwort auf den Wurfbefehl des ersten Nutzers und die graphische Darstellung des Wurfes nach dem Stellvertreter des zweiten Nutzers, erfolgt eine entsprechende „Reaktion" des beworfenen Stellvertreters in Form einer entsprechenden Animation. Durch einen Steuerbefehl des ersten Nutzers wird also so eine Animation des Stellvertreters des zweiten Nutzers ausgelöst. So kann sich sogar eine Art Video- oder Computerspiel zwischen den beiden Nutzern unter Verwendung der beiden Stellvertreter entwickeln. Bevorzugt kann der erste Nutzer eine derartige Animation des Stellvertreters des zweiten Nutzers durch das beschriebene Drag&Drop auf den Stellvertreter des zweiten Nutzers erzielen.
  • Vorzugsweise wird die in Antwort auf einen Nutzerbefehl erfolgende Animation und/oder Interaktion zeitgleich, parallel und in Echtzeit auf beiden Endgeräten der beiden Nutzer dargestellt. Dies bedeutet, dass beide Nutzer auf ihrem jeweiligen Endgerät sozusagen live das Verhalten der Stellvertreter in Antwort auf die eingegebenen Befehle nach verfolgen können.
  • Je nach dem wie schnell und direkt der Austausch über die Stellvertreter erfolgen soll, können die zur Animation der Stellvertreter von den Nutzern eingegebenen Steuerbefehle unterschiedlich verarbeitet werden. So kann ein neu eingegebener Nutzerbefehl zu einem direkten Abbruch einer laufenden Animation oder Interaktion führen; im Anschluss an den Abbruch erfolgt dann sofort die vom Nutzer erwünschte neue Animation. Stattdessen kann auch in Antwort auf eine neue Nutzereingabe zunächst die laufende Animation oder Interaktion abgeschlossen werden, so dass die erwünschte Animation direkt im Anschluss an die abgeschlossen Animation erfolgt. Weiterhin kann auch bei mehreren schnell hintereinander unter Umständen beidseitig erfolgenden Nutzerbefehlen eine Einreihung der erwünschten Animationen oder Interaktionen in eine Warteliste durchzuführender Animationen oder Interaktionen erfolgen. Die von den Nutzern angegebenen Animationen werden dann gemäß der Warteliste nach einander abgearbeitet.
  • Im Übrigen kann auch der Abbruch einer durch den ersten Nutzer ausgelösten ersten Animation oder Interaktion und ein Ersetzen der ersten Animation oder Interaktion durch eine zweite durch den zweiten Nutzer ausgelöste Animation oder Interaktion und umgekehrt erfolgen. Wenn beispielsweise der erste Nutzer eine Interaktion auslöst, mit welcher sein Stellvertreter auf den Stellvertreter des zweiten Nutzers einen Pfeil abschießt, könnte der zweite Nutzer diese Interaktion unterbrechen, indem er seinen Stellvertreter anweist, den Pfeil mit einem Schild abzuwehren. Diese zweite Interaktion könnte der erste Nutzer wiederum durch Auslösung einer weiteren Interaktion unterbrechen und so fort. So kann sich ein regelrechtes interaktives Aktions- und Reaktionsspiel zwischen den beiden Nutzern unter Verwendung der Stellvertreter entwickeln.
  • Der Ablauf der Interaktion kann abhängig von vorgebbaren Parametern sein, die die Nutzer vorgeben und/oder die im System in Nutzerprofilen abgelegt sind, die den Nutzern zugeordnet sind. Die Parameter können z.B. Angaben zur Person des jeweiligen Nutzers umfassen, wie etwa seine Nationalität, seinen Wohnort oder momentanen Aufenthaltsort, seine Vorlieben und Hobbys usw. Somit können z.B. Eigenheiten in der Kommunikation, insbesondere Gesten, berücksichtigt werden, die für die jeweilige Nationalität oder den Kulturkreis spezifisch sind. Auch kann mittels Datenerfassung und statistischer Funktionen das jeweilige Nutzerprofil vom System verwaltet und auf den aktuellen Stand gebracht werden, so dass für den Stellvertreter (ComBot) des jeweiligen Nutzer die passenden Interaktionen automatisch eingesetzt werden oder zumindest dem Nutzer eine passende Auswahl angeboten wird, z.B. eine Anzahl der bevorzugten Interaktionen (Favoriten). Das System verfügt also über eine Funktion, die automatisch die Interaktionen anhand der Parameter ändert und anpasst. Diese Autofunktion kann der Nutzer jederzeit an- und abschalten.
  • Gemäß einem weiteren eigenständigen erfinderischen Aspekt kann zur weiteren Erweiterung der Kommunikationstiefe zwischen den Nutzern auch eine Erkennung einer durch einen Nutzer in sein Endgerät erfolgte Sprach- oder Texteingabe erfolgen. Die erkannte Sprach- oder Texteingabe wird dann analysiert, so dass deren Bedeutung erfasst wird.
  • Weiterhin kann auch eine Video-Erkennung (bspw. mittels einer Videokamera) der Mimik eines Nutzers und deren Analyse und Deutung erfolgen. So können vorzugsweise die Gesichtsausdrücke eines Nutzers aufgenommen und auf bestimmte Gefühlsäußerungen hin ausgewertet werden.
  • Im Anschluss an die Analyse und Deutung können dem Nutzer mehrere passende Animations- oder Interaktionsmöglichkeiten im Einklang mit dem Sinngehalt seiner Sprach- oder Texteingabe oder seiner Mimik bereitgestellt werden. Wenn der Nutzer also z.B. schriftlich, sprachlich oder durch seinen Gesichtsausdruck zu erkennen gibt, dass er sich freut, können dem Nutzer zur entsprechenden Animation seines Stellvertreters passende Freude ausdrückende Animationen (die Animation „Lächeln" oder „Lachen" oder „Hüpfen" etc...) vorgeschlagen werden.
  • Statt einer Vorschlagsfunktion kann auch direkt und automatisch eine Animation eines Stellvertreters und/oder eine Interaktion zwischen den Stellvertretern im Einklang mit dem Sinngehalt der Sprach- oder Texteingabe oder der Mimik erfolgen. In diesem Fall kann automatisch der Sinngehalt einer Sprach- oder Textnachricht oder der Mimik ermittelt werden und in Folge dessen ebenso automatisch das Verhalten des entsprechenden Stellvertreters an den Sinngehalt der Sprach- oder Textnachricht oder der Mimik angepasst werden. Wenn die Sprach- oder Textnachricht oder Mimik eines Nutzers also bspw. „Ich bin traurig" lautet, kann der Stellvertreter des Nutzers automatisch einen traurigen Gesichtsausdruck annehmen. Alternativ kann auch zunächst eine Bestätigung des Nutzers erfolgen, bevor der Stellvertreter den erkannten Sinngehalt nachahmt. Die automatische Erkennung des Sinngehalts einer Textnachricht kann auch als „Parsen" bezeichnet werden. Dabei wird im Text nach Schlüsselwörtern und Begriffen gesucht, zu denen dann entsprechende Animationen und ggf. Interaktionen dem Nutzer angeboten werden und/oder vom System automatisch in die Kommunikation eingesetzt werden. Eine solche Funktion „Parsen" kann auch entsprechend auf nicht-textliche Nachrichten, insbesondere auf Sprachnachrichten angewendet werden. Zudem kann bei der Analyse der Nachrichteninhalte auch Information über den Nutzer verwendet werden, die aus dem im System gespeicherten Nutzerprofil abgefragt werden. So können dort Informationen über Schreib- und Sprechgewohnheiten des jeweiligen Nutzers gespeichert sein, die dann bei der Umsetzung in Animationen und Interaktionen berücksichtigt werden.
  • Die zusätzliche Funktion der Analyse und Deutung einer Mimik, einer Sprach- oder Texteingabe eines Nutzers ist insbesondere dann vorteilhaft, wenn die beiden Nutzer neben der Kommunikation über die Stellvertreter nebenher in gewohnter Weise über Text- und/oder Sprachnachrichten (z.B. über VoIP und/oder Instant Messaging) oder Webcams miteinander kommunizieren.
  • Um eine besonders einfache und intuitive Eingabe von Steuerbefehlen an die Stellvertreter zu ermöglichen, erfolgt die Darstellung der Animations- und Interaktionsmöglichkeiten der Stellvertreter in einer tabellarischen Übersicht. Die tabellarische Übersicht findet bei Endgeräten Anwendung, die dem Nutzer eine graphische Benutzeroberfläche zur Verfügung stellen. So kann der Nutzer anhand der graphisch dargestellten Tabelle, welche die zur Verfügung stehenden Steuerbefehle in Form von kleinen graphischen Symbolen („Icons" oder auch „Thumbnails") enthält, eine Aktion auswählen, die von einem Stellvertreter durchgeführt werden soll. Die Übersichtstabelle kann auch als Gitter, Matrix oder Raster bezeichnet werden.
  • Bevorzugt weist die tabellarische Übersicht eine festgelegte Anzahl von Klassen auf, unter welchen die Animations- und Interaktionsmöglichkeiten zusammengefasst und abrufbar sind. So kann die tabellarische Übersicht aus einer zwei-mal-drei Matrix bestehen, wobei jedes der sechs Felder der Matrix für eine der sechs abschließend festgelegten Klassen steht. Besonders bevorzugt sind unter den sechs Klassen jeweils die Animationen zu den Bereichen „Stimmung", „Liebe", „Themen", „Kommentar", „Aggression" und „Events" zusammengefasst.
  • Wenn außerdem den Nutzern eine Zeichenfunktion zur Ermöglichung einer Echtzeitübertragung eines Zeichnens eines Nutzers auf seinem Endgerät an den anderen Nutzer auf dessen Endgerät bereitgestellt wird, ergibt sich noch eine weitere Art der Kommunikation für die Nutzer. Dabei kann ein Nutzer auf seiner graphischen Benutzeroberfläche mit einem Zeichenwerkzeug eine Zeichnung erstellen. Das Erstellen der Zeichnung kann der andere Nutzer und Kommunikationspartner dann in Echtzeit auf seinem Endgerät mitverfolgen. So können auch Informationen übermittelt werden, die sich schriftlich oder über die Stellvertreter nur schwer darstellen lassen.
  • Weiterhin kann es vorgesehen sein, in die Ansichten der beiden kommunizierenden Nutzer eine Stimmungsanzeige zu integrieren, welche die gegenwärtige jeweilige Stimmung der beiden Stellvertreter angibt. Diese Stimmungsanzeige kann in Form eines Stimmungsbalkens und/oder in Form eines mehr oder weniger lachenden Gesichtes („Smiley") verwirklicht sein. So kann jeder Nutzer direkt sehen, wie die Stimmung des eigenen und des fremden Stellvertreters gerade aussieht. Im Laufe der Animation der Stellvertreter und in Folge deren Austausches kann die jeweilige Stimmungsanzeige variieren.
  • Wenn zusätzlich auch eine automatische Animation eines Stellvertreters als Reaktion auf eine Veränderung der Stimmungsanzeige erfolgt, ist das Verhalten des Stellvertreters besonders abwechslungsreich und lebensecht. So kann bspw. der Stellvertreter des ersten Nutzers automatisch anfangen, vor Freude zu hüpfen, wenn dessen Stimmungsanzeige einen bestimmten Grenzwert überschritten hat.
  • Die Stimmungsanzeige kann in verschiedenster Form dargestellt werden, z.B. auch in Form eines „Fieberthermometers" oder einer „Fieberkurve". Auch durch eine farbliche oder andersartige Umgestaltung des Stellvertreters (ComBot) kann die momentane Stimmungslage oder Laune des Nutzers angezeigt werden. Besonders vorteilhaft ist es, wenn die Kommunikationstiefe auch von der momentanen Stimmungslage abhängig gemacht wird. Dazu wertet das System die aktuelle Stimmungsanzeige aus und verändert entsprechend die Animationen und/oder Interaktionen bezüglich des Stellvertreters (ComBot) dieses Nutzers.
  • Vorzugsweise erfolgt die Darstellung der beiden Stellvertreter am ersten Endgerät spiegelbildlich oder auch spiegelverkehrt zu der Darstellung der beiden Stellvertreter am zweiten Endgerät. Dies bedeutet bspw., dass jeder Nutzer seinen Stellvertreter stets auf der linken Seite und den Stellvertreter des anderen Nutzers auf der rechten Seite sieht. Dadurch ist eine klare Zuordnung selbst bei identischen Stellvertretern gewährleistet.
  • Weitere besondere Vorteile ergeben sich wenn folgende zusätzliche Merkmale erfüllt werden:
    Vorzugsweise erfolgt die eine Animation des mindestens einen Stellvertreters und/oder die Interaktion zwischen den Stellvertretern abhängig von vorgebbaren Kriterien insbesondere von Kriterien, die in einem Nutzerprofil abgespeichert wird, das mindestens einem der beiden Nutzer zugeordnet wird.
  • Außerdem kann mindestens einem der beiden Nutzer eine Auswahl an zu übertragenden Animationen und/oder Interaktionen bereit gestellt werden. Dabei kann auch dies in Abhängigkeit von vorgebbaren Kriterien erfolgen, insbesondere von Kriterien, die in einem Nutzerprofil abgespeichert werden, das mindestens einem der beiden Nutzer zugeordnet wird. Zumindest diesem Nutzer wird eine Auswahl an zu übertragenden Animationen und/ oder Interaktionen vorgeschlagen.
  • In diesem Zusammenhang können als Kriterien Angaben über zumindest den einen der beiden Nutzer vorgegeben werden, insbesondere Angaben zu Geschlecht, Alter, Nationalität, Muttersprache, Sprechgewohnheiten -oder muster, Aufenthaltsort, Interessen und/oder Hobbys.
  • Auch ist es vorteilhaft, wenn die eine Animation des mindestens einen Stellvertreters und/oder die Interaktion zwischen den Stellvertretern in Antwort auf einen Drag&Drop-Befehl eines Nutzers erfolgt, wobei der Drag&Drop-Befehl sich auf den eigenen Stellvertreter dieses Nutzers oder auf den Stellvertreter des anderen Nutzers bezieht, und wobei die Animation bzw. Interaktion in Abhängigkeit davon erfolgt, auf welchen der beiden Stellvertreter sich der Drag&Drop-Befehl bezieht.
  • Im Zusammenhang mit dem Erkennen von Sprach- oder Texteingaben bzw. Video-Erkennung kann dies in Abhängigkeit von vorgebbaren Kriterien erfolgen, insbesondere von Kriterien, die in einem Nutzerprofil abgespeichert werden, das mindestens einem der beiden Nutzer zugeordnet wird. Dabei ist es vorteilhaft, wenn die vorgebbaren Kriterien Angaben über zumindest den einen der beiden Nutzer umfassen, insbesondere Angaben zu Geschlecht, Alter, Nationalität, Muttersprache, Sprechgewohnheiten oder -muster, Aufenthaltsort, Interessen und/oder Hobbys.
  • Auch kann die Animation des mindestens einen Stellvertreters und/oder die Interaktion zwischen den Stellvertretern abhängig von der Stimmungsanzeige sein, die für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt. Aber auch umgekehrt kann die Stimmungsanzeige, die für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt, abhängig von der übertragenen Emotion und/oder Interaktion verändert werden. Ebenso kann die mindestens einem der beiden Nutzer bereit gestellte Auswahl an zu übertragenden Animationen und/ oder Interaktionen in Abhängigkeit von der Stimmungsanzeige bereit gestellt werden, die für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt.
  • Es ist vorteilhaft, wenn die Auswahl an zu übertragenden Animationen und/ oder Interaktionen in Form von zusammen gestellten Gruppierungen und/oder Klassen bereit gestellt wird. In diesem Zusammenhang kann die Zusammenstellung der Klassen und/oder die Auswahl der Animationen und/ oder Interaktionen automatisch und pseudo-zufalls-gesteuert erfolgen.
  • Schließlich umfasst die vorliegende Erfindung auch ein System zur Durchführung der soeben beschriebenen erfindungsgemäßen Verfahren.
  • Kurzbeschreibung der Figuren
  • 1 zeigt eine Gesamtansicht einer Benutzeroberfläche eines Nutzers zur Durchführung des erfindungsgemäßen Verfahrens;
  • 2a bis 2c zeigen alternative Ausführungsformen erfindungsgemäßer Benutzeroberflächen;
  • 3a und 3b zeigen beispielhaft eine Interaktion zwischen zwei virtuellen Stellvertretern;
  • 4a und 4b zeigen zwei Ausführungsformen der erfindungsgemäßen Tabellen zur Auswahl eines Steuerbefehls;
  • 5 zeigt unterschiedliche Steuermöglichkeiten, die dem Nutzer anhand der Tabellen gemäß 4a und 4b zur Verfügung stehen;
  • 6 zeigt die erfindungsgemäße Texterkennung und – deutung (Parsen);
  • 7a bis 7d zeigen verschiedene Verarbeitungsmöglichkeiten der von den Nutzern abgegebenen Steuerbefehle;
  • 8 zeigt die jeweils spiegelverkehrte Ansicht beider Nutzer;
  • 9 bis 27 zeigen beispielhaft den Ablauf einer Kommunikation zwischen zwei Nutzern unter Verwendung des erfindungsgemäßen Verfahrens und Systems;
  • 28 zeigt ein Beispiel für eine komplexe Kommunikation mit textbasierten Elementen und mit erfindungsgemäß ausgestalteten Elementen.
  • Beschreibung bevorzugter Ausführungsformen
  • Zum besseren Verständnis werden nun beispielhaft bevorzugte Ausführungsformen der vorliegenden Erfindung beschrieben.
  • Im Folgenden wird angenommen, dass ein erster Nutzer namens „Franz" mit seiner Bekannten „Manuela", welche die zweite Nutzerin darstellt, eine Kommunikation durchführt. Dabei kommunizieren die beiden mittels ihrer jeweiligen Computer über das Internet. Zur Kommunikation miteinander verfügen sowohl Franz als auch Manuela über eine auf ihrem jeweiligen Rechner ablaufende Kommunikationsanwendung. Die Benutzeroberfläche 1 dieser Anwendung ist beispielhaft in 1 dargestellt.
  • Die Benutzeroberfläche 1 ist diejenige Oberfläche, welche Franz zur Kommunikation mit Manuela verwendet. 1 gibt also wieder, was Franz bei der Kommunikation mit Manuela auf seinem Bildschirm sieht. Manuela verfügt auf dem Bildschirm ihres Computers über eine zu der Benutzeroberfläche 1 analog aufgebaute Oberfläche.
  • Im Folgenden wird nun der Aufbau der Benutzeroberfläche 1 beschrieben.
  • Die Benutzeroberfläche 1 ist als eigenständiges Fenster mit drei Hauptabschnitten 2, 3 und 4 verwirklicht. Der Abschnitt 2 kann als Animationsabschnitt bezeichnet werden. In diesem Abschnitt sind die virtuellen Stellvertreter 5 und 6 von Franz und Manuela dargestellt. Der Abschnitt 3 ist der Text- und Steuerabschnitt. Hier werden die zwischen Franz und Manuela ausgetauschten Textnachrichten dargestellt. Im Abschnitt 3 sind auch die Schaltfelder zur Steuerung der Kommunikation untergebracht. Der Abschnitt 4 schließlich ist die Menüleiste.
  • Im Animationsabschnitt 2 sind die zwei virtuellen Stellvertreter 5 und 6 (ComBots) beider Nutzer zu erkennen. Beim virtuellen Stellvertreter 5 von Franz handelt es sich um ein Auto während der virtuelle Stellvertreter 6 von Manuela eine Puppe ist. Zur besseren Zuordnung der Stellvertreter befinden sich über diesen Namensschilder 7 und 8. Wie es in 1 zu erkennen ist, durchläuft der Stellvertreter 5 von Franz gerade eine Animationsphase und sendet an den Stellvertreter 6 von Manuela Herzen 9 aus. So drückt Franz im Wege seines Stellvertreters 5 seine Zuneigung für Manuela aus.
  • In den jeweiligen Ecken über den Stellvertretern 5 und 6 sind kleine Fenster 10a und 10b angeordnet. Diese Fenster zeigen an, welche Aktionen von dem jeweiligen Nutzer gerade durchgeführt werden. Wenn z.B. im Fenster 10b ein Stift erscheint, dann weiß Franz, dass Manuela gerade die später im Detail beschriebene Zeichenfunktion verwendet.
  • Der Text- und Steuerungsabschnitt 3 ist in einen Nachrichtenbereich 11, einen Steuerungsbalken 12 und einen Entwurfsbereich 13 unterteilt. Im Nachrichtenbereich 11 sind die zwischen Franz und Manuela bereits ausgetauschten Textnachrichten zu erkennen. Um eine Textnachricht an Manuela zu verfassen und zu übermitteln, bedient sich Franz des Entwurfsabschnittes 13. In diesen Abschnitt 13 kann Franz mittels seiner Tastatur eine Textnachricht an Manuela schreiben. Sobald Franz die Textnachricht erstellt hat, kann er diese durch Drücken der Schaltfläche 14 an Manuela übermitteln. Die versandte Sprachnachricht erscheint dann sowohl im Nachrichtenbereich 11 von Franz als auch im Nachrichtenbereich von Manuela.
  • Um seinen Stellvertreter 5 zu steuern, verwendet Franz den Steuerungsbalken 12. Der Steuerungsbalken 12 verfügt über mehrere Schaltflächen 15. Mit diesen Schaltflächen 15 können unterschiedliche Animationen der Stellvertreter 5 und 6 ausgelöst werden. So kann durch Ziehen des Herzsymbols auf Franz Auto und Fallenlassen die in 1 angedeutete „Herz-Animation" ausgelöst werden. Durch Ziehen des Boxhandschuhes auf Manuelas Puppe kann der Stellvertreter 5 von Franz dazu veranlasst werden, der Puppe einen Faustschlag zu verpassen.
  • Durch Drücken der Schaltfläche 16 kann eine Übersichtstabelle mit weiteren Steuerungsbefehlen geöffnet werden, wie sie beispielhaft in den 4a und 4b dargestellt ist.
  • Die Schaltfläche 17 ermöglicht das Öffnen und Schließen (Ein- und Ausblenden) des Animationsabschnittes 2.
  • Über die als Stift-Symbol dargestellte Schaltfläche 18 kann Franz zudem innerhalb des Nachrichtenabschnitts 11 freihändig beliebige Figuren zeichnen, welche in Echtzeit im Nachrichtenabschnitt von Manuela nachvollzogen werden. Ein Beispiel einer solchen gezeichneten Figur ist mit dem Bezugszeichen 19 hervorgehoben. Außerdem wird im Kontext des Abschnitts 11 auch symbolisch die bereits ausgetauschten Emotionen angezeigt, d.h. die zur Historie dieser noch laufenden Kommunikation gehörenden Emotionen angezeigt. Hier wird z.B. eine mit dem Bezugszeichen 19H versehene und als „Boxhandschuh" dargestellte Emotion angezeigt, nämlich eine eher aggressive Emotion, die „Franz" zuvor an „Manuela" geschickt hatte. Durch Mausklick auf das Symbol 19H dieser historischen Emotion kann diese sofort spontan wiederholt werden.
  • Über die Menüleiste 4 kann eine Historie ggf. aller vergangener Kommunikationssitzungen (durch Drücken des Schaltfeldes „history") aufgerufen werden. Weiterhin ist es auch möglich, auf eigene Dateien zuzugreifen (durch Drücken des Schaltfeldes „files"), um diese gegebenenfalls dem Kommunikationspartner zu übermitteln. Schließlich kann auch über das Schaltfeld „surf*2" eine Sitzung zum gemeinsamen Surfen im Internet gestartet werden.
  • Die 2a zeigt eine alternative Ausgestaltung des Animationsabschnittes 2. Im Unterschied zur 1 verfügt hier der Abschnitt 2 zusätzlich über Stimmungsanzeigen 20.1 und 20.2 . Die Stimmungsanzeige 20.1 ist ein stilisiertes Gesicht (ein „Smiley"), welches durch seinen Gesichtsausdruck die aktuelle Stimmung des zugehörigen Stellvertreters und damit des entsprechenden Nutzers verdeutlicht. Wie es zu erkennen ist, ist die Stimmung von „Franz" besser als diejenige von „Vroni", da das Lachen der Stimmungsanzeige 20.1a (Smiley) bei „Franz" breiter ist als der Smiley 20.1b bei „Vroni". Die Stimmungsanzeige kann alternativ oder zusätzlich auch in Form von Stimmungsbalken 20.2a bzw. 20.2b verwirklicht sein. Hier gibt die Länge des Balkens die Güte der Stimmung an.
  • Die 2b und 2c zeigen im Vergleich zu 1 zwei weitere Varianten der Darstellung der Interaktion zwischen zwei virtuellen Stellvertretern. Dargestellt ist jeweils der Desktop des Nutzers „Franz".
  • Im Falle der 2b ist der virtuelle Stellvertreter (ComBot) 21 seiner Kommunikationspartnerin „Vroni" auf dem Desktop 23 abgelegt. Will nun „Franz" an „Vroni" eine Emotion senden, dann veranlasst er dies durch Mausklick oder Drag&Drop auf den ComBot 21 von „Vroni". In diesem Fall einer sog. „ausgesendeten Emotion" erscheint sogleich auf dem Desktop 23 des Senders („Franz") die Darstellung einer Gedankenblase 24, so wie es die 2c zeigt. Innerhalb der Gedankenblase 24 sind beide ComBots 22 und 21 dargestellt sowie die Übertragung der Emotion selbst, hier z.B. ein fliegendes Herz, das von Franz ComBot 22 zu Vroni's ComBot 21 fliegt. Auf dem Desktop von Vroni (nicht dargestellt) erscheint alles spiegelbildlich.
  • Im Fall einer „empfangenen Emotion" passiert folgendes auf dem Desktop des Empfängers: Der Stellvertreter 21 von „Vroni" wird zunächst von dem Empfänger „Franz" in der Regel nicht weiter beachtet. Jedoch kann plötzlich und automatisch in Zuordnung zu dem abgelegten Stellvertreter 21 eine Gedanken- oder Sprechblase 24 erscheinen, wenn die Kommunikationspartnerin „Vroni" von ihrem Rechner aus einen entsprechenden Animationsbefehl an den Rechner des Nutzers „Franz" übermittelt hat. Die Animation der beiden Stellvertreter 21 und 22 erfolgt dann in der geöffneten Gedankenblase 24.
  • Zusätzlich stellt das System noch folgende Hinweis- oder Notizfunktion bereit: Wenn der Empfänger „Franz" nicht auf diese Emotion antwortet, indem er manuell darauf reagiert oder wenn das System keine automatische Reaktion veranlasst, wird zum ComBot 21 von Vroni noch ein Hinweis 21Z auf diese empfangene Emotion angezeigt. Dieser Hinweis 21Z ist z.B. die aktuelle Anzahl der noch nicht beantworteten Emotionen. Sollte also der potentielle Empfänger „Franz" bei eingehenden Emotionen nicht anwesend sein, so kann er später sofort erkennen, ob und wie viele Emotionen während seiner Abwesenheit eingegangen sind und kann dann darauf reagieren.
  • Vorzugsweise wird auf bei einer empfangenen Emotion eine Sprechblase dargestellt, bei einer ausgehenden Emotion jedoch eine Gedankenblase. Die unterschiedliche Darstellungsweise kann sich aber auch darauf beziehen, ob eine Emotion bereits übertragen wird oder nicht. Will ein Nutzer lediglich das Übertragen einer Emotion vorbereiten (Editiermodus und/oder Vorschaumodus), dann erscheint auf seinem Desktop eine Gedankenblase. Auf dem Desktop des Kommunikationspartners erscheint zunächst noch nichts. Sobald jedoch die Emotion übertragen wird (Interaktionsmodus) erscheint auf beiden Desktops eine Sprechblase. Eine andere Variante zeigt die 2c:
    Bei der 2c sind die beiden virtuellen Stellvertreter 21 und 22 auf dem jeweiligen Desktop 23 abgelegt. Hier erfolgt die Animation durch Zusammenfassung der beiden Stellvertreter in einer Gesamtdarstellung, einer sog. „Arena", die vorzugsweise die Form eines Schlauchs oder auch Zylinders 25 hat.
  • Die 3a und 3b zeigen beispielhaft eine typische Interaktion zwischen zwei virtuellen Stellvertretern 26 und 27. Der linke Stellvertreter 26 (ComBot „Männchen" ) wurde von seinem Besitzer durch Auswahl des Animationsbefehls „Bombe" dazu animiert, eine Bombe auf den Stellvertreter 27 (ComBot „Auto") des Kommunikationspartners zu werfen. Infolgedessen wird der virtuelle Stellvertreter 27 von der Bombe getroffen und explodiert (s. 3b). Der hinter dem Stellvertreter 26 stehende Nutzer kann die Handlung „Bomben werfen" bspw. dazu ausgewählt haben, um seine Verärgerung über den gegenüberstehenden Kommunikationspartner auszudrücken.
  • Die 4a und 4b veranschaulichen zwei Ausführungsformen 28a und 28b der Befehlstabelle, welche durch Drücken der Schaltfläche 16 (siehe 1) aufgerufen werden kann.
  • Bei der Tabelle 28a sind im Wesentlichen alle Aktionen, die mittels eines virtuellen Stellvertreters (ComBot) durchgeführt werden können, in einem Gesamtgitter 29 dargestellt. Jede zur Verfügung stehende Animation wird durch ein entsprechendes quadratisches Icon in der Tabelle 28a repräsentiert. Dabei können die Icons jeweils nach gemeinsamen Gruppierungen angeordnet sein (z.B. nach „Liebe", „Freundschaft", etc.). Das Gesamtgitter 29 ist in zwei Abschnitte 30a und 30b unterteilt. Im ersten Abschnitt 30a befinden sich die grundlegenden Animationen („Basic Emotions"), die jedem Nutzer frei zur Verfügung stehen, wie Lachen, Weinen, etc. Im zweiten Abschnitt 30b hingegen befinden sich besondere Animationen („Gold Emotions"), die bei jedem Nutzer individuell verschieden sind. Diese Sonderfähigkeiten der Stellvertreter können von einem Nutzer bspw. durch Kauf, Tausch oder Handel mit anderen Nutzern erworben werden.
  • Es ist auch vorgesehen, dass in der Ausgangstabelle 29 (Übersichtstabelle) ein Icon nicht nur direkt für eine Emotion oder Animation steht, sondern stellvertretend für eine ganze Gruppe von Animationen. So steht das Herz-Icon 32 für die Gruppe der „Liebes-Animationen". Durch Drücken des Icons 32 wird eine weitere Unter-Tabelle 31 geöffnet, aus welcher der Nutzer dann die gewünschte Liebes-Animation für seinen Stellvertreter auswählen kann. Eine Gruppierung umfasst also mehrere Varianten einer Grunddarstellung einer Emotion, wie z.B. der hier beschriebenen Herz-Darstellung.
  • Diejenigen Animationen, welche sich keiner Gruppierung zuordnen lassen, werden in einer getrennten Spalte 33 dargestellt.
  • Bei der Ausführungsform nach 4b wird eine andere Art der Aufteilung der Emotionen gezeigt, wobei die Übersichtstabelle 28b auf sechs Felder beschränkt ist. Jedes dieser Felder steht für eine ganze Klasse von Animationen. Die jeweilige Klasse (z.B. Klasse 34 „Stimmung") wird durch Drücken des entsprechenden Feldes in der Tabelle 28b eingeblendet. Innerhalb der Klasse kann dann die gewünschte Animation ausgewählt werden. Eine andere Klasse umfasst z.B. alle Arten von aggressiven Emotionen und wird in der Ausgangstabelle 28b durch eine Bombe symbolisiert. Durch Mausklick auf dieses Symbol eröffnet sich die Untertabelle, in der verschiedenartige Emotionen zur Auswahl stehen. Die innerhalb einer Klasse zusammen gefassten Emotionen unterscheiden sich nicht nur hinsichtlich ihrer Darstellungsform, sondern grundsätzlich. Das bedeutet, dass verschiedenartige Emotionen einer Klasse zugeordnet sein können. Gemeinsam ist ihnen dieselbe Bedeutung, inhaltliche Aussage oder Grundstimmung. Die hier beschriebene Klasse für aggressive Emotionen umfasst z.B. eine Bomben-Animation, eine Blitz-Animation oder eine Schieß-Animation.
  • 5 veranschaulicht, wie anhand einer Tabelle 28 die erwünschte Animation durch einen Nutzer ausgewählt und ausgelöst wird. Es gibt dabei im Wesentlichen drei Varianten A bis C, wobei die ersten zwei Varianten mit dem Prinzip des „Drag&Drop" durchgeführt werden. Die drei Varianten sind durch entsprechende Pfeile angedeutet.
  • Bei der Variante A zieht der Nutzer das ausgewählte Icon auf den entsprechenden Stellvertreter und lässt es dort fallen. Der so angesprochene Stellvertreter führt dann sofort die erwünschte Animation durch. Im Beispiel gemäß 5 wird eine Gewitterwolke ausgewählt und auf den fremden Stellvertreter 6 gezogen. Dies hat zur Folge, dass vom eigenen Stellvertreter 5 des Nutzers eine Gewitterwolke an den fremden Stellvertreter 6 geschickt wird und diesen durchnässt.
  • Bei der Variante B wird das Icon in den Nachrichtenbereich 11 gezogen und dort fallen gelassen. Dies führt dazu, dass beim jeweiligen Kommunikationspartner das ausgewählte Icon in dessen Nachrichtenbereich erscheint. Der Kommunikationspartner kann dann durch Anklicken des Icons die vom Gegenüber übermittelte Animation auslösen.
  • Bei der Variante C wird das Icon durch den Nutzer einfach nur angeklickt. Dadurch wird das Icon in den Entwurfsbereich 13 an der dort aktuellen Cursorposition eingebunden. Beim Einbinden des Icons kann zusätzlich automatisch dem Nutzer ein passender Text angeboten werden. Wenn der Nutzer also z.B. das Icon „Geburtstagstorte" anklickt, kann im Entwurfsbereich 13 über der „Geburtstagstorte" noch der Text „Alles Gute zum Geburtstag!" erscheinen.
  • Durch Drücken des Senden-Knopfes 14 wird die geschriebene Textnachricht mit dem eingebundenen Icon an den Kommunikationspartner übersandt.
  • In 5 ist im Nachrichtenbereich 11 zudem noch ein kleines Gesicht 41 zu erkennen, welches auch als „Emoticon" bezeichnet wird. Derartige Gesichter, die eine bestimmte Stimmung ausdrücken, können wie gezeigt in den Nachrichtentext eingepflegt werden. Hierzu muss der Nutzer beim Abfassen einer Textnachricht im Entwurfsbereich 13 lediglich die Zeichenfolge des von ihm erwünschten Emoticons eingeben, z.B.:-). Diese Zeichenfolge wird dann automatisch in das entsprechende Gesicht umgewandelt, hier ☺. Bei Betätigung des Senden-Knopfes 14, wird der Text dann samt Emotinon dem Kommunikationspartner übermittelt.
  • Aus der in der Tabelle 28 angezeigten Auswahl von Emotionen kann auch jede einzelne Emotion per Doppelklick sofort aktiviert werden.
  • In 6 ist die automatische Texterkennung und -deutung („Parsen") dargestellt. Wenn ein Nutzer in seinen Entwurfsbereich 13 einen Text 35 eingibt, wird automatisch dessen Sinngehalt ermittelt. Sodann werden dem Nutzer die ermittelten Begriffe dargestellt, hier in Form einer Sprechblase 36. Gleichzeitig werden dem Nutzer zwei im Hinblick auf den Sinngehalt des soeben eingegebenen Textes wohl passende Animationen in Form der Icons 37 vorgeschlagen. Im Beispiel gemäß 6 hat der Nutzer einen Grußtext mit Geburtstagswünschen eingegeben. Dementsprechend werden dem Nutzer eine „Liebes-Animation" und eine „Geburtstagskuchen-Animation" vorgeschlagen. Es ist auch vorgesehen, dass die Animation des Stellvertreters automatisch in Antwort auf den Sinngehalt des eingegebenen Textes erfolgt, ohne Auswahlmöglichkeit durch den Nutzer.
  • In den 7a bis 7d werden verschiedene Alternativen zur Verarbeitung der von den Nutzern abgegebenen Animationsbefehlen veranschaulicht.
  • Bei der Alternative gemäß 7a wird eine Animation 38a des Stellvertreters sofort unterbrochen und durch eine neue Animation 38b ersetzt, wenn der Nutzer einen Befehl zur Durchführung der neuen Animation 38b an seinen Stellvertreter richtet. Bei dieser Verarbeitung der Steuerbefehle erfolgt eine direkte und verzögerungsfreie Umsetzung, so dass das Verhalten des Stellvertreters schnell und dynamisch wirkt.
  • Bei der Alternative gemäß 7b wird im Gegensatz zur 7a die Animation 38a zunächst zu Ende geführt, bevor die neue Animation 38b erfolgt. Die ursprünglich im Anschluss vorgesehene Animation 38c wird dabei unterdrückt.
  • Bei der Alternative gemäß 7c werden alle von den Nutzern ausgelösten Animationen linear nach einander abgearbeitet. Es findet keine Unterdrückung von Animationen statt. Die angeforderten Animationen werden also gemäß ihrer zeitlichen Reihenfolge in eine so genannte „Playlist" eingeordnet und nacheinander durchgeführt.
  • In 7d ist verdeutlicht, wie eine mehrfache Interaktion zwischen zwei Stellvertretern verarbeitet und abgespielt werden kann. Ein erster Nutzer lässt seinen Stellvertreter eine Aktion 38a durchführen. Diese wird dann durch eine Replik des Stellvertreters des zweiten Nutzers 39a unterbrochen, die ihrerseits stattdessen durchgeführt wird bis der Stellvertreter des ersten Nutzers wiederum durch die Aktion 38b reagiert.
  • In 8 sind die im Verhältnis zu einander spiegelverkehrten Animationsabschnitte 2a und 2b eines ersten und eines zweiten Nutzers dargestellt. Der erste Nutzer und der zweite Nutzer bedienen sich in beschriebener Weise ihres jeweiligen Animationsabschnittes 2a bzw. 2b, um über ihre Stellvertreter Emotionen miteinander auszutauschen. Der Austausch erfolgt über das Netzwerk 40 (z.B. dem Internet). Sowohl beim ersten Nutzer („my PC") als auch beim zweiten Nutzer („your PC") ist der eigene Stellvertreter auf der linken Seite dargestellt und der fremde Stellvertreter auf der rechten, so dass sich eine spiegelbildliche Ansicht ergibt. Bei der Kommunikation über die Stellvertreter sehen beide Nutzer in ihren jeweiligen Animationsabschnitten gleichzeitig denselben Ablauf. Man könnte also sagen, dass beide Nutzer „alles", d.h. die Gesamtheit aller ablaufenden Vorgänge sehen.
  • Im Übrigen ist noch vorgesehen, dass virtuelle Stellvertreter von Nutzern gekauft, gesammelt und getauscht werden können. So können einige Stellvertreter nur in limitierter Auflage existieren oder sogar einzigartig sein, so dass unterschiedliche Stellvertreter einen unterschiedlichen Handelswert besitzen. Mit dieser Maßnahme kann der Absatz und die Verbreitung der virtuellen Stellvertreter wesentlich verbessert werden.
  • Die 9 bis 27 zeigen ein Beispiel einer Kommunikation, wie sie zwischen Franz und Manuela ablaufen könnte. Die 9 bis 27 geben jeweils Momentaufnahmen („Screenshots") der Benutzeroberfläche 1 von Franz wieder. Dabei stellt 9 den Anfang der Kommunikation und 27 das Ende dar.
  • Um eine Kommunikationssitzung mit Manuela zu starten, drückt Franz mit seinem Mauscursor 41 auf die E-Schaltfläche 17 (s. 9). Dadurch wird der Animationsabschnitt 2 eingeblendet, in welchem die virtuellen Stellvertreter 5 und 6 von Franz und Manuela dargestellt sind (s. 10). Das Namensschild 8 von Manuela ist dunkel unterlegt, was bedeutet, dass Manuela noch nicht mit Franz verbunden ist, d.h. Manuela ist noch „offline". In 11 ist Manuela nun „online", was daran zu erkennen ist, dass Manuelas Namensschild 8 nun ebenso wie Franz Namensschild hell unterlegt ist. Außerdem ist auf Manuelas Stellvertreter nun ebenso ein Lichtkegel 42 gerichtet.
  • Wie es in 12 zu erkennen ist, hat Franz eine erste Textnachricht an Manuela gerichtet, auf welche Manuela auch sogleich antwortet (s. 13). Während Manuela ihren Text eingibt, erscheint bei Franz im Fenster 10b eine Hand, die anzeigt, dass Manuela gerade eine Handlung vornimmt. Im Anschluss an ihre Texteingabe zeichnet Manuela mit der bereits beschriebenen Zeichenfunktion ein „trauriges Gesicht" 19. Anhand des im Fenster 10b dargestellten Stiftes kann Franz erkennen, dass Manuela gerade zeichnet (s. 14).
  • In Antwort auf die leicht spöttische Zeichnung 19 von Manuela gibt Franz einen weiteren Text ein und bewegt seinen Mauscursor 41 auf die Animationsfläche 43, die einen „Boxhandschuh" darstellt (s. 15). Durch ein Drag&Drop bewegt Franz den Boxhandschuh 43 auf Manuelas Stellvertreter (s. 16), so dass eine Interaktion ausgelöst wird, bei welcher Franz Stellvertreter einen Boxhandschuh auf Manuelas Stellvertreter abfeuert (s. 17). Manuelas Stellvertreter wird von diesem getroffen und fällt um (s. 18). Daraufhin löst Manuela ihrerseits eine Interaktion aus, bei welcher ihr Stellvertreter den Stellvertreter von Franz mit einer Gewitterwolke überzieht (s. 19 bis 21). Um dies wieder gut zu machen, sendet Manuela anschließend über ihren Stellvertreter einen Kussmund an Franz Stellvertreter (s. 22).
  • Um seinem Wohlgefühl über den Kussmund Ausdruck zu verleihen, bewegt Franz seinen Mauscursor 41 diesmal auf das Herz 44 (s. 23) und zieht dieses auf seinen Stellvertreter (s. 24). Dadurch wird eine Animation ausgelöst, in welcher Franz Stellvertreter Herzchen aussendet (s. 25).
  • Schließlich bereitet Franz noch eine Textnachricht in seinem Entwurfsabschnitt 13 vor. Diese schmückt er mit einem mittels der Zeichenfunktion freihändig gezeichneten Abschlussgruß 45 aus (s. 26). Zum Absenden der Textnachricht drückt Franz mit seinem Mauscursor 41 auf den Senden-Knopf 14 (s. 27). Nach dem Absenden wird die Nachricht sowohl bei Franz als auch bei Manuela im jeweiligen Nachrichtenabschnitt dargestellt.
  • In der 28 ist eine andere Benutzeroberfläche 50 dargestellt. Diese hat ein alternatives Layout mit folgenden Bereichen:
    Zunächst gibt es einen Kommunikations-Bereich 51 (Communications Area), der einen Nachrichtenabschnitt umfasst und über den die aktuelle Kommunikation in Echtzeit oder Nahezu-Echtzeit erfolgt, und es gibt einem Vorbereitungs-Bereich 53 mit einem Entwurfsabschnitt, in dem der jeweilige Nutzer die von ihm beabsichtigten Beiträge (Text, Grafik, Emotionen etc.) vorbereiten kann, bevor er sie durch Betätigung des Senden-Knopfs an den anderen Nutzer abschickt. Außerdem ist auch ein Gleiter 52 mit Steuerungsbalken vorgesehen, die die Bereiche 51 und 53 voneinander trennt und der Steuerungselemente zur Texteingabe, zum Zeichnen usw. bereit stellt. Soweit entspricht der Aufbau dieser Oberfläche 50 im Wesentlichen auch dem der bereits in der 1 dargestellten Oberfläche.
  • Hier in der 28 ist nun auch ein Übersichts-Bereich 55 mit Historie vorgesehen, in dem alle bisherigen Kommunikationen aufgelistet sind. Die Auflistung kann chronologisch, thematisch oder Nutzer-bezogen sein. Am unteren Ende befindet sich noch ein Bereich 55 mit einer Menüleiste, die vergleichbar zu der in 1 dargestellten Menüleiste diverse Funktions-Knöpfe umfasst.
  • Das in der 28 gezeigte Layout hat zudem noch einen Navigations-Bereich 56, der dazu dient, innerhalb einer einzelnen (noch laufenden oder bereits abgeschlossenen) Kommunikation zu navigieren. Dazu dient u.a. ein verschiebbares Fenster mit Ausschnitt 51, der einen Teilbereich im Navigationsbereich erfasst, wobei dieser Teilbereich dann in dem Bereich 51 vergrößert dargestellt wird. Es handelt sich hier also um eine Vergrößerungs- oder Lupenfunktion. Bei einer laufenden Kommunikation läuft in Echtzeit der Ausschnitt 57 immer mit dem Bereich 51 mit.
  • Durch dieses „Mitlaufen" behält der Nutzer immer die Übersicht und Orientierung innerhalb der Kommunikation. Durch Verschieben des Ausschnitts 57 kann er jederzeit zu beliebigen Stellen springen, die dann vergrößert im Bereich 51 angezeigt werden, so dass der Nutzer genau an dieser Stelle die Kommunikation ggf. ergänzen kann. Somit wird ein verschachteltes Ergänzen und ggf. Ändern einer Kommunikation ermöglicht.
  • Die Benutzeroberfläche 50 hat zudem noch eine besonderen Bereich, in dem die Stellvertreter 5 und 6 (ComBots) der beiden Nutzer (hier das Auto von „Franz" bzw. das Auge von „Vroni") in Interaktion dargestellt werden. In diesem Fall wird aber nicht nur die non-verbale Kommunikation per Emotionen dargestellt, so wie es bereits zuvor beschrieben wurde (1-28). Es wird jetzt auch die übrige Kommunikation angezeigt, die zwischen den beiden Nutzern stattfindet, wie z.B. Übertragung von Dateien (File Transfer) oder Text (per Email, SMS), Instant Messaging oder Chat sowie Telefongespräche (VoIP, PSTN) usw. Dazu wird ein entsprechendes Symbol 58 animiert und in dargestellt, wie z.B. ein vom ComBot 5 zum ComBot 6 fliegendes Dokument, das eine Dateiübertragung anzeigt. Somit erhalten die Nutzer die Gesamtübersicht über alle Arten von Kommunikation, die zwischen ihnen erfolgt.
  • Mit dem soeben beschriebenen Kommunikationsverfahren und -system können zwei oder mehr Nutzer auf besonders ansprechende, vielseitige und abwechslungsreiche Weise miteinander kommunizieren. Durch die Verwendung von virtuellen Stellvertretern und deren Animation bzw. Interaktion können insbesondere auf besonders effektive und anschauliche Weise Stimmungen, Gefühle und Emotionen zwischen den Nutzern ausgetauscht werden.
  • Mit der beschriebenen Erfindung kann eine sehr komfortable non-verbale Kommunikation geführt werden, insbesondere durch die benutzerfreundliche Bedienung per Mausklicks und Drag&Drops. Die beschriebenen Stellvertreter (ComBots) und die Darstellung der zwischen ihnen stattfindenden Übertragung von Emotionen erzeugt einen sehr eingängige Eindruck bei den Nutzern und somit eine sehr anschauliche und direkte Übermittlung der jeweiligen Emotion, die sogar Gestik, Körpersprache und Mimik wiedergeben können. Die Interaktion zwischen den ComBots, insbesondere die vorgebbare und automatisch steuerbare Interaktion, bietet für die beteiligten Kommunikationspartner eine neuartige Form der Kommunikation, wobei die eigentliche Ebenen der inhaltlichen Mitteilung sich mit einer spielerischen Ebene vereint. Die persönlichen Eigenheiten und Vorlieben der Nutzer werden durch systemgestützte Erfassung und Auswertung von nutzerspezifischen Daten berücksichtigt und erhöhen den Komfort und die Akzeptanz der erfindungsgemäßen Kommunikation.
  • 1
    Benutzeroberfläche
    2
    Animationsabschnitt
    3
    Text- und Steuerungsabschnitt
    4
    Menüleiste
    5, 6
    Virtueller Stellvertreter
    7, 8
    Namensschild
    9
    Animation
    10
    Fenster
    11
    Nachrichtenabschnitt
    12
    Steuerungsbalken
    13
    Entwurfsabschnitt
    14
    Senden-Knopf
    15
    Animations-Schaltflächen
    16
    Tabellen-Schaltfläche
    17
    E-Schaltfläche
    18
    Zeichenwerkzeug
    19
    Zeichnung
    19H
    Symbol für historische Emotion
    20.1a,
    Stimmungsanzeige in Form von Smileys
    20.1b
    20.2a,
    Stimmungsanzeigebalken
    20.2b
    21, 22
    Virtueller Stellvertreter
    21Z
    Hinweis auf Anzahl von eingehenden Emotionen
    23
    Desktop
    24
    Gedankenblase
    25
    Zylinder
    26, 27
    Virtueller Stellvertreter
    28
    Animations-Tabelle
    29
    Gesamtgitter
    30
    Abschnitt
    31
    Unter-Tabelle
    32
    Icon
    33
    Spalte
    34
    Klasse
    35
    Text-Nachricht
    36
    Sprechblase
    37
    Icons
    38, 39
    Animation
    40
    Netzwerk
    41
    Mauscursor
    42
    Lichtkegel
    43
    Interaktions-Schaltfläche
    44
    Animations-Schaltfläche
    45
    Zeichnung
    50
    Benutzeroberfläche im alternativen Layout
    51
    Kommunikations-Bereich mit
    Nachrichtenabschnitt
    52
    Gleiter mit Steuerungsbalken
    53
    Vorbereitungs-Bereich mit Entwurfsabschnitt
    54
    Übersichts-Bereich mit Historie
    55
    Unterer Bereich mit Menüleiste
    56
    Navigations-Bereich
    57
    Ausschnitt im Navigationsbereich
    58
    animiertes Anzeige-Symbol für die laufende
    Kommunikation

Claims (25)

  1. Verfahren zur Telekommunikation zwischen mindestens zwei Nutzern über ein Telekommunikationsnetzwerk (40), wobei der erste Nutzer über ein erstes Endgerät und der zweite Nutzer über ein zweites Endgerät mit dem Telekommunikationsnetzwerk (40) verbunden ist, und wobei jedem Nutzer ein virtueller Stellvertreter (5, 6) zugeordnet ist, mit den folgenden Schritten: – Darstellung der beiden Stellvertreter (5, 6) am ersten Endgerät und am zweiten Endgerät; – Übertragung einer Information vom ersten Nutzer zum zweiten Nutzer und umgekehrt durch eine Animation mindestens eines Stellvertreters (5, 6) und durch eine Interaktion zwischen den Stellvertretern (5, 6), wobei die Animation und/oder Interaktion in Antwort auf einen Drag&Drop-Befehl eines Nutzers erfolgt und wobei in Abhängigkeit von vorgebbaren Kriterien, die Angaben über zumindest den einen der beiden Nutzer umfassen und die in einem Nutzerprofil abgespeichert werden, das mindestens einem der beiden Nutzer zugeordnet wird, zumindest diesem Nutzer eine Auswahl an zu übertragenden Animationen und/oder Interaktionen vorgeschlagen wird.
  2. Verfahren nach Anspruch 1, wobei in Antwort auf den Drag&Drop Befehl des ersten Nutzers eine Animation des Stellvertreters (6) des zweiten Nutzers erfolgt und umgekehrt.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Drag&Drop-Befehl sich auf den eigenen Stellvertreter (5) dieses Nutzers oder auf den Stellvertreter (6) des anderen Nutzers bezieht, und wobei die Animation und/oder Interaktion in Abhängigkeit davon erfolgt, auf welchen der beiden Stellvertreter (5, 6) sich der Drag&Drop-Befehl bezieht.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die in Antwort auf einen Nutzerbefehl erfolgende Animation und/oder Interaktion zeitgleich, parallel und in Echtzeit auf beiden Endgeräten der beiden Nutzer dargestellt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, mit einem der weiteren Schritte: – direkter Abbruch einer laufenden Animation oder Interaktion (38a) in Antwort auf einen neuen Nutzerbefehl zur Durchführung einer erwünschten Animation oder Interaktion (38b); – Abschluss der laufenden Animation oder Interaktion (38a) und Anschließen der erwünschten Animation oder Interaktion (38b) in Antwort auf einen Nutzerbefehl zur Durchführung der erwünschten Animation oder Interaktion (38b); – Einreihung einer erwünschten Animation oder Interaktion (38f) in eine Warteliste durchzuführender Animationen oder Interaktionen (38a-38e) in Antwort auf einen Nutzerbefehl zur Durchführung der erwünschten Animation oder Interaktion (38f); oder – Abbruch einer durch den ersten Nutzer ausgelösten ersten Animation oder Interaktion und Ersetzen der ersten Animation oder Interaktion durch eine zweite durch den zweiten Nutzer ausgelöste Animation oder Interaktion und umgekehrt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, mit den weiteren Schritten: – Erkennung einer durch einen Nutzer in ein Endgerät erfolgte Sprach- oder Texteingabe (35); und – Analyse und Deutung der Sprach- oder Texteingabe (35).
  7. Verfahren nach einem der vorhergehenden Ansprüche, mit den weiteren Schritten: – Video-Erkennung einer Mimik eines Nutzer; und – Analyse und Deutung der Mimik des Nutzers.
  8. Verfahren nach Anspruch 6 oder 7, mit dem weiteren Schritt: – Bereitstellung mehrerer passender Animations- oder Interaktionsmöglichkeiten im Einklang mit dem Sinngehalt der Sprach- oder Texteingabe (35) oder der Mimik.
  9. Verfahren nach Anspruch 6 oder 7 mit dem weiteren Schritt: – Animation eines Stellvertreters (5, 6) und/oder Interaktion zwischen den Stellvertretern (5, 6) im Einklang mit dem Sinngehalt der Sprach- oder Texteingabe (35) oder der Mimik.
  10. Verfahren nach einem der vorhergehenden Ansprüche mit dem weiteren Schritt: – Darstellung der Animations- und Interaktionsmöglichkeiten der Stellvertreter (5, 6) in einer tabellarischen Übersicht (28).
  11. Verfahren nach Anspruch 10, wobei die tabellarische Übersicht eine festgelegte Anzahl von Klassen aufweist, unter welchen die Animations- und Interaktionsmöglichkeiten zusammengefasst und abrufbar sind.
  12. Verfahren nach einem der vorhergehenden Ansprüche mit dem weiteren Schritt: – Bereitstellung einer Zeichenfunktion (18) zur Ermöglichung einer Echtzeitübertragung eines Zeichnens (19) eines Nutzers auf seinem Endgerät an den anderen Nutzer auf dessen Endgerät.
  13. Verfahren nach einem der vorhergehenden Ansprüche mit dem weiteren Schritt: – Darstellung einer Stimmungsanzeige (20) an den jeweiligen Endgeräten der beiden Nutzer, welche die gegenwärtige jeweilige Stimmung der beiden Stellvertreter (5, 6) angibt.
  14. Verfahren nach Anspruch 13, mit dem weiteren Schritt: – Animation eines Stellvertreters als Reaktion auf eine Veränderung der Stimmungsanzeige.
  15. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Darstellung der beiden Stellvertreter (5, 6) am ersten Endgerät spiegelbildlich zu der Darstellung der beiden Stellvertreter (5, 6) am zweiten Endgerät erfolgt.
  16. Verfahren nach einem der vorhergehenden Ansprüche, wobei die eine Animation des mindestens einen Stellvertreters (5, 6) und/oder die Interaktion zwischen den Stellvertretern (5, 6) abhängig von vorgebbaren Kriterien erfolgt.
  17. Verfahren nach einem der vorhergehenden Ansprüche, wobei die vorgebbaren Kriterien, Angaben zu Geschlecht, Alter, Nationalität, Muttersprache, Sprechgewohnheiten -oder muster, Aufenthaltsort, Interessen und/oder Hobbys über zumindest den einen der beiden Nutzer umfassen.
  18. Verfahren nach einem der Ansprüche 6 bis 8, wobei das Erkennen der Sprach- oder Texteingabe bzw. die Video-Erkennung in Abhängig von vorgebbaren Kriterien erfolgt.
  19. Verfahren nach Anspruch 18, wobei die vorgebbaren Kriterien Angaben über zumindest den einen der beiden Nutzer umfassen.
  20. Verfahren nach einem der Ansprüche 13 oder 14, wobei die eine Animation des mindestens einen Stellvertreters (5, 6) und/oder die Interaktion zwischen den Stellvertretern (5, 6) abhängig von der Stimmungsanzeige ist, die für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt.
  21. Verfahren nach einem der Ansprüche 13 oder 14, wobei die Stimmungsanzeige für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt, und wobei diese Stimmungsanzeige abhängig von der übertragenen Emotion und/oder Interaktion verändert wird.
  22. Verfahren nach einem der Ansprüche 13 bis 21, wobei die mindestens einem der beiden Nutzer bereit gestellte Auswahl an zu übertragenden Animationen und/ oder Interaktionen in Abhängigkeit von der Stimmungsanzeige bereitgestellt wird, die für zumindest einen der beiden Nutzer seine aktuelle emotionale Grundstimmung anzeigt.
  23. Verfahren nach einem der vorhergehenden Ansprüche, wobei die mindestens einem der beiden Nutzer bereit gestellte Auswahl an zu übertragenden Animationen und/ oder Interaktionen in Form von zusammen gestellten Gruppierungen und/oder Klassen bereitgestellt wird.
  24. Verfahren nach Anspruch 23, wobei zumindest die Zusammenstellung der Klassen und/oder die Auswahl der Animationen und/oder Interaktionen automatisch und pseudozufallsgesteuert erfolgen.
  25. System zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 24.
DE102004061884A 2004-01-30 2004-12-22 Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern Expired - Fee Related DE102004061884B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102004061884A DE102004061884B4 (de) 2004-12-22 2004-12-22 Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern
CA002551782A CA2551782A1 (en) 2004-01-30 2005-01-31 Method and system for telecommunication with the aid of virtual control representatives
JP2006550136A JP2007520005A (ja) 2004-01-30 2005-01-31 仮想代理を用いた電気通信の方法及びシステム
EP05701278A EP1714465A1 (de) 2004-01-30 2005-01-31 Verfahren und system zur telekommunikation mit virtuellen stellvertretern
PCT/EP2005/000939 WO2005074235A1 (de) 2004-01-30 2005-01-31 Verfahren und system zur telekommunikation mit virtuellen stellvertretern
US10/597,557 US20080214214A1 (en) 2004-01-30 2005-01-31 Method and System for Telecommunication with the Aid of Virtual Control Representatives

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004061884A DE102004061884B4 (de) 2004-12-22 2004-12-22 Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern

Publications (2)

Publication Number Publication Date
DE102004061884A1 DE102004061884A1 (de) 2006-07-13
DE102004061884B4 true DE102004061884B4 (de) 2007-01-18

Family

ID=36599157

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004061884A Expired - Fee Related DE102004061884B4 (de) 2004-01-30 2004-12-22 Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern

Country Status (1)

Country Link
DE (1) DE102004061884B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8504926B2 (en) * 2007-01-17 2013-08-06 Lupus Labs Ug Model based avatars for virtual presence
EP1995909A1 (de) * 2007-05-25 2008-11-26 France Telecom Dynamisches Bewertungsverfahren der Stimmung eines Benutzers von Instant-Messaging
US9665563B2 (en) * 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6476830B1 (en) * 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
US20030035341A1 (en) * 2001-08-17 2003-02-20 Blakley Robert A. Mixing impeller device and method
WO2003034196A1 (en) * 2001-10-19 2003-04-24 Dmates As Rich communication over internet
US20030156134A1 (en) * 2000-12-08 2003-08-21 Kyunam Kim Graphic chatting with organizational avatars
DE10220524A1 (de) * 2002-05-08 2003-11-27 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
US20040143633A1 (en) * 2003-01-18 2004-07-22 International Business Machines Corporation Instant messaging system with privacy codes
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
WO2004079530A2 (en) * 2003-03-03 2004-09-16 America Online, Inc. Using avatars to communicate
US20040220850A1 (en) * 2002-08-23 2004-11-04 Miguel Ferrer Method of viral marketing using the internet

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6476830B1 (en) * 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US20030156134A1 (en) * 2000-12-08 2003-08-21 Kyunam Kim Graphic chatting with organizational avatars
US20030035341A1 (en) * 2001-08-17 2003-02-20 Blakley Robert A. Mixing impeller device and method
WO2003034196A1 (en) * 2001-10-19 2003-04-24 Dmates As Rich communication over internet
DE10220524A1 (de) * 2002-05-08 2003-11-27 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
US20040220850A1 (en) * 2002-08-23 2004-11-04 Miguel Ferrer Method of viral marketing using the internet
US20040143633A1 (en) * 2003-01-18 2004-07-22 International Business Machines Corporation Instant messaging system with privacy codes
WO2004079530A2 (en) * 2003-03-03 2004-09-16 America Online, Inc. Using avatars to communicate

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FABERSJÖ, H. et al: "Amigo-Wireless Image Based Instant Messaging for Handheld Computers". In: Proceedings of CHI 2003, 5(1), S. 910-911, 5.-10. April 2003 *

Also Published As

Publication number Publication date
DE102004061884A1 (de) 2006-07-13

Similar Documents

Publication Publication Date Title
WO2005074235A1 (de) Verfahren und system zur telekommunikation mit virtuellen stellvertretern
DE60209261T2 (de) Rich-kommunikation über das internet
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
Cassell et al. Fully embodied conversational avatars: Making communicative behaviors autonomous
DE102006021399A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines einem dargestellten Symbol zugeordneten Auswahlmenüs
DE60206059T2 (de) Verfahren, system und speichermedium für ein ikonensprachenkommunikationswerkzeug
DE202015006142U1 (de) Elektronische Touch-Kommunikation
EP4062344A1 (de) Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem für ein fahrzeug
DE202010018483U1 (de) System zum Zusammenführen von Bearbeitungen für eine Konversation in einem gehosteten Konversationssystem
DE102011014232A1 (de) System and method for predicting meeting subjects logistics and resources
DE102020119588A1 (de) Erzeugen von individualisierten, personalisierten reaktionen auf social-media-inhalt
CN112000781A (zh) 用户对话中的信息处理方法、装置、电子设备及存储介质
CN112035714A (zh) 一种基于角色陪伴的人机对话方法
DE102004061884B4 (de) Verfahren und System zur Telekommunikation mit virtuellen Stellvertretern
DE60125674T2 (de) Informationsanzeige
DE112007001516T5 (de) Verfahren und System für eingebettete personalisierte Kommunikation
DE102006021376A1 (de) Verfahren und Vorrichtung zum Bereitstellen von angepassten Kommunikationsfenstern zur Kommunikation mit einem Kommunikationspartner in einer Anwendung auf einem Endgerät eines Benutzers
DE102005036424B3 (de) Kommunikationssystem für eine sichere Kommunikation zwischen Endgeräten von Kommunikationspartnern und Peripheriegeräte dafür
KR20070018843A (ko) 가상 상징물들을 이용한 전기통신 방법 및 시스템
KR100372929B1 (ko) 채팅 이미지 작성 방법
KR20060104980A (ko) 이모티콘과 아바타 연동처리 방법 및 시스템
EP1733545A1 (de) Kommunikationsroboter für verbesserte kommunikation und kontakte
EP1632274A1 (de) Online Multimedia Kreuzworträtsel
DE102006010770B4 (de) Verfahren zur Einladung, ein Kommunikationssystem zu nutzen, und zur Installation eines Kommunikationselementes, sowie eine das Verfahren ausführende Vorrichtung
EP0921482A2 (de) Vorrichtung und Verfahren zur Bestimmung von Verhaltensmustern von Konsumenten und Informationssuchenden in einer Open-Community-Plattform

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee