DE102009043277A1 - Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen - Google Patents

Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen Download PDF

Info

Publication number
DE102009043277A1
DE102009043277A1 DE102009043277A DE102009043277A DE102009043277A1 DE 102009043277 A1 DE102009043277 A1 DE 102009043277A1 DE 102009043277 A DE102009043277 A DE 102009043277A DE 102009043277 A DE102009043277 A DE 102009043277A DE 102009043277 A1 DE102009043277 A1 DE 102009043277A1
Authority
DE
Germany
Prior art keywords
data
participant
sign data
sign
interpretation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009043277A
Other languages
English (en)
Other versions
DE102009043277B4 (de
Inventor
Karen L. Barrett
Verna L. Iles
Moneyb Minhazuddin
Daniel Yazbek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avaya Inc
Original Assignee
Avaya Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avaya Inc filed Critical Avaya Inc
Publication of DE102009043277A1 publication Critical patent/DE102009043277A1/de
Application granted granted Critical
Publication of DE102009043277B4 publication Critical patent/DE102009043277B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Erfindung gibt Systeme, Geräte und Verfahren zur Gewinnung, Analyse und Mitteilung von Gebärdendaten an Teilnehmer einer Kommunikationssitzung an. Die vorliegende Erfindung ist besonders gut geeignet zur Verwendung in Video-Kommunikationssitzungen, bei denen die Teilnehmer wünschen könnten, sich der Hinweise bewusst zu sein, die ihre Gebärden anderen Teilnehmern geben. Die vorliegende Erfindung kann auch bei Nicht-Video-Kommunikationssitzungen eingesetzt werden, um Gebärdendaten und andere visuelle Indizien anderen Teilnehmern mitzuteilen, die ansonsten den sprechenden/agierenden Teilnehmer nicht anschauen können.

Description

  • BEREICH DER ERFINDUNG
  • Die Erfindung betrifft Kommunikationssysteme allgemein und im Besonderen den Abruf und die Verwendung visueller Warteschlangen bei Video-Kommunikationen.
  • HINTERGRUND
  • Es besteht oft eine Kommunikationslücke zwischen Menschen unterschiedlicher Kulturen. Insbesondere während Video-Konferenzen könnte sich ein Teilnehmer an der Kommunikationssitzung nicht bewusst sein, dass seine Körper/Gesichtsgebärden von anderen Kommunikationssitzungsteilnehmern auf eine bestimmte Art und Weise interpretiert werden. Dieser allgemeine Mangel an Bewusstsein kann darauf zurückzuführen sein, dass sich der Teilnehmer nicht bewusst ist, dass er bestimmte Gebärden macht, oder darauf, dass der Teilnehmer nicht versteht, wie eine bestimmte von ihm gemachte Gebärde in einer anderen Kultur interpretiert wird.
  • Zwar gibt es Entwicklungen in allgemeiner Gebärdenerkennung, jedoch sind die meisten vorhandenen Lösungen etwas begrenzt. Zum Beispiel beschreibt US-Patent Nr. 6,804,396 , dessen gesamter Inhalt durch diese Erwähnung hierin aufgenommen wird, ein System zur Erkennung von Gebärden, die von einem sich bewegenden Subjekt gemacht werden. Das System umfasst einen Schalldetektor zur Erfassung von Schall, einen oder mehrere Bildsensoren zur Aufzeichnung eines Bildes des sich bewegenden Subjekts, ein Menschenerkennungsgerät zur Erkennung eines Menschen anhand des von dem einen oder den mehreren Bildsensoren erfassten Bildes, und ein Gebärdenerkennungsgerät, das aktiviert wird, wenn der Schalldetektor eine menschliche Stimme erkennt, um eine Gebärde eines Menschen zu erkennen. Die Lösung zur Gebärdenerkennung im Patent '396 ist jedoch relativ einfach, und die Gebärdendaten werden nach ihrer Erfassung nicht sehr effektiv genutzt.
  • ZUSAMMENFASSUNG
  • Folglich besteht Bedarf an Lösungen für Video-Konferenzen, die Gebärdenerfassung und -interpretation an einen oder mehrere Teilnehmer übermitteln und diese erklärenden Daten an andere Teilnehmer sowie an den agierenden Teilnehmer verteilen. Es besteht insbesondere Bedarf, diese Daten zu verteilen, um Anderen zu helfen, Gebärden richtig zu interpretieren, und um den Agierenden einen Mechanismus bereitzustellen, um sich ihrer Gebärden und Aktionen bewusst zu werden.
  • Mit diesen und anderen Bedürfnissen befassen sich die verschiedenen Ausführungsformen und Konfigurationen der vorliegenden Erfindung. Somit besteht ein Aspekt der vorliegenden Erfindung darin, einen Mechanismus anzugeben, der kulturelle und/oder kommunikative Lücken überbrückt, insbesondere hinsichtlich der Erkennung und Interpretation der während einer Video-Konferenz übermittelten Gebärden. Zum Beispiel könnte sich ein Australier in einer Video-Verbindung mit einem Vorgesetzten in Japan befinden. Man weiß, dass Japaner verschiedene Gesichtsausdrücke haben, so dass die Gesichtsausdrücke des japanischen Vorgesetzten etwas anzeigen könnten, das von dem Australier nicht interpretiert wird, weil er nicht daran gewöhnt ist, solchen Gesichtsausdrücken eine Bedeutung beizumessen. Die Ausführungsformen der vorliegenden Erfindung geben Mechanismen an, die sich mit diesem Problem befassen.
  • Gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung wird ein Verfahren angegeben. Das Verfahren umfasst allgemein:
    Empfang einer Video-Eingabe eines ersten Teilnehmers, während der erste Teilnehmer an einer Kommunikationssitzung mit zumindest einem zweiten Teilnehmer beteiligt ist;
    Analyse der Video-Eingabe eines ersten Teilnehmers auf Gebärdendaten; und
    Übermittlung der Gebärdendaten an mindestens einen an der Kommunikationssitzung beteiligten Teilnehmer.
  • Zwar sind Mechanismen zur Erkennung von Gebärden seit einiger Zeit verfügbar, man glaubt jedoch, dass die aus der Erkennung der Gebärden gewonnenen Daten noch nie genutzt wurden, um Kommunikationen von Mensch zu Mensch zu verbessern. Insbesondere wurde die Verwendung von Gebärdendaten zur Verbesserung von Kommunikationen während Telefonverbindungen, Video-Verbindungen, Instant Messaging (sofortige Nachrichtenübertragung), Text-Nachrichtenübertragung und Ähnlichem noch nie in angemessener Weise eingesetzt. In Text-Kommunikationen werden Emoticons verwendet, um den Anwendern zu ermöglichen, Icons zu tippen oder auszuwählen, die ihre allgemeine Stimmung wiedergeben, aber diese Daten werden nicht aufgrund einer Analyse der tatsächlichen Gebärden des Anwenders empfangen. Dementsprechend gibt die vorliegende Erfindung eine Lösung an, um Gebärdendaten in Kommunikationssitzungen besser zu nutzen.
  • Somit besteht ein Aspekt der vorliegenden Erfindung darin, Gebärdendaten für einen oder mehrere Teilnehmer an einer Kommunikationssitzung zu analysieren.
  • Ein weiterer Aspekt der vorliegenden Erfindung besteht darin, diese Daten an die Kommunikationssitzungsteilnehmer zu verteilen. Diese Daten können von anderen, nicht agierenden Teilnehmern sowie von dem agierenden Teilnehmer, der seine Gebärden analysieren lässt, gemeinsam genutzt werden.
  • Ein weiterer Aspekt der vorliegenden Erfindung besteht darin, kommunikative und möglicherweise kulturelle Unterschiede zwischen den Kommunikationssitzungs teilnehmern so zu ermitteln, dass Gebärdendaten richtig interpretiert werden, bevor sie diesen Teilnehmern übermittelt werden. Außerdem können die Interpretationsdaten dem agierenden Teilnehmer als Rückmeldedaten zur Verfügung gestellt werden, was dem agierenden Teilnehmer ermöglicht, sich seiner Gebärden und der Auswirkung, die diese Gebärden auf andere Kommunikationssitzungsteilnehmer haben könnten, bewusst zu werden.
  • Der Begriff ”automatisch” und seine Abwandlungen, wie sie hier verwendet werden, beziehen sich auf jeglichen Prozess oder Vorgang, der während seiner Durchführung ohne körperliche Eingabe durch einen Menschen erfolgt. Ein Prozess oder Vorgang kann jedoch auch dann automatisch sein, wenn für seine Durchführung eine körperliche oder unkörperliche Eingabe durch einen Menschen, die er vor seiner Durchführung erhalten hat, verwendet wird. Eine Eingabe durch einen Menschen gilt als körperlich, wenn die Eingabe Einfluss darauf hat, wie der Prozess oder Vorgang durchgeführt wird. Eine Eingabe durch einen Menschen, welche der Durchführung des Prozesses oder Vorgangs zustimmt, gilt nicht als ”körperlich”.
  • Der Begriff ”computer-lesbares Medium”, wie er hier verwendet wird, bezieht sich auf jegliches materielle Speicher- und/oder Übertragungs-Medium, das daran beteiligt ist, einem Prozessor Befehle zur Ausführung zu geben. Ein solches Medium kann viele Formen annehmen, einschließlich, ohne jedoch darauf beschränkt zu sein, nichtflüchtige Medien, flüchtige Medien und Übertragungs-Medien. Zu den nichtflüchtigen Medien gehören zum Beispiel NVRAM oder Magnet- oder optische Platten. Zu den flüchtigen Medien gehören dynamische Speicher, wie z. B. Arbeitsspeicher. Zu den gängigen Formen computer-lesbarer Medien gehören zum Beispiel Floppy Disks, Disketten, Festplatten, Magnetbänder oder jegliche anderen magnetischen Medien, magnetisch-optische Medien, CD-ROMs, jegliche anderen optischen Medien, Lochkarten, Lochstreifen, jegliche anderen körperlichen Medien mit Lochmustern, RAMs, PROMs, EPROMs, FLASH-EPROMs, Festkörper-Medien wie Speicherkarten, jegliche anderen Speicher-Chips oder -Kassetten, Trägerwellen, wie im Folgenden beschrieben, oder jegliche anderen Medien, die ein Computer auslesen kann. Ein digitaler Dateianhang einer E-Mail oder eines anderen in sich geschlossenen Datenarchivs oder einer Menge von Archiven gilt als einem körperlichen Speichermedium gleichwertiges Verteilungsmedium. Ist das computer-lesbare Medium als Datenbank konfiguriert, so ist zu verstehen, dass die Datenbank jegliche Art von Datenbank sein kann, wie zum Beispiel relational, hierarchisch, objektorientiert und/oder Ähnliches. Folglich gilt, dass die Erfindung ein körperliches Speichermedium oder Verteilungsmedium und nach dem Stand der Technik anerkannte Äquivalente und Nachfolgemedien, in denen die Software-Implementierungen der vorliegenden Erfindung gespeichert sind, aufweist.
  • Die Begriffe ”ermitteln” und ”berechnen” und ihre Abwandlungen, wie sie hier verwendet werden, werden gegeneinander austauschbar verwendet und beinhalten jegliche Art von Methodologie, Prozess, mathematischer Operation oder Technik.
  • Der Begriff ”Modul”, wie er hier verwendet wird, bezieht sich auf jegliche bekannte oder später entwickelte Hardware, Software, Firmware, künstliche Intelligenz, Fuzzy-Logik oder Kombination von Hardware und Software, die in der Lage ist, die jenem Element zugeordnete Funktionalität auszuführen. Außerdem ist zu beachten, dass die Erfindung zwar anhand von Ausführungsbeispielen beschrieben wird, dass jedoch einzelne Aspekte der Erfindung gesondert beansprucht werden können.
  • Die vorstehenden Ausführungen sind eine vereinfachte Zusammenfassung der Erfindung, um einige Aspekte der Erfindung verständlich zu machen. Diese Zusammenfassung ist weder ein umfassender noch ein erschöpfender Überblick über die Erfindung und ihre verschiedenen Ausführungsformen. Sie soll weder Schlüssel- oder kritische Elemente der Erfindung darlegen noch den Umfang der Erfindung definieren, sondern ausgewählte Konzepte der Erfindung in vereinfachter Form präsentieren, als Einführung zu der weiter unten präsentierten ausführlichen Beschreibung. Man wird erkennen, dass andere Ausführungsformen der Erfindung möglich sind durch Verwendung eines oder mehrerer der oben dargelegten oder weiter unten ausführlich beschriebenen Merkmale, entweder einzeln oder kombiniert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das ein Kommunikationssystem gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung zeigt;
  • 2 ist ein Blockdiagramm, das ein Kommunikationsgerät gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung zeigt;
  • 3 ist ein Blockdiagramm, das eine gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung angewandte Datenstruktur zeigt; und
  • 4 ist ein Ablaufdiagramm, das ein Kommunikationsverfahren gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Erfindung wird weiter unten im Zusammenhang mit einem beispielhaften Kommunikationssystem veranschaulicht. Zwar ist die Erfindung gut geeignet zur Verwendung mit z. B. einem System, das einen oder mehrere Server und/oder eine oder mehrere Datenbanken verwendet, sie ist jedoch nicht beschränkt auf die Verwendung mit einer bestimmten Art von Kommunikationssystem oder Konfiguration von Systemelementen. Der Fachmann wird erkennen, dass die beschriebenen Techniken in jeglicher Kommunikationsanwendung eingesetzt werden können, in der es wünschenswert ist, Interpretationen der Teilnehmer an einer Kommunikationssitzung (z. B. Video-Konferenz, Text-Kommunikation, Telefonverbindung, E-Mail, usw.) zu überwachen und zu melden.
  • Die beispielhaften Systeme und Verfahren dieser Erfindung werden auch mit Bezug auf Kommunikations-Software, -Module und dazugehörige Kommunikations-Hardware beschrieben. Um jedoch die Beschreibung der vorliegenden Erfindung nicht unnötig kompliziert zu machen, beinhaltet die folgende Beschreibung keine allgemein bekannten Strukturen, Netzkomponenten und Geräte, die in Form eines Blockdiagramms dargestellt werden können, allgemein bekannt sind oder sonstwie kurz zusammengefasst sind.
  • Zum Zweck der Erklärung werden zahlreiche Einzelheiten dargelegt, um ein gründliches Verständnis der vorliegenden Erfindung zu erzielen. Es ist jedoch zu verstehen, dass die vorliegende Erfindung auf verschiedene Arten betrieben werden kann, die über die hier dargelegten speziellen Einzelheiten hinausgehen.
  • Ferner zeigen zwar die hier dargestellten beispielhaften Ausführungsformen die verschiedenen Komponenten des zusammengestellten Systems, jedoch ist zu verstehen, dass sich die verschiedenen Komponenten des Systems an Gegenstellen eines verteilten Netzes, wie zum Beispiel eines Kommunikationsnetzes und/oder des Internets, oder innerhalb eines dedizierten sicheren, ungesicherten und/oder verschlüsselten Systems befinden können. Somit ist zu verstehen, dass die Komponenten des Systems zu ein oder mehreren Geräten, wie zum Beispiel einem Unternehmens-Server oder einer Nebenstellenanlage, kombiniert werden können oder an einem bestimmten Knoten eines verteilten Netzes, wie zum Beispiel eines analogen und/oder digitalen Kommunikationsnetzes, zusammengestellt werden können. Aus der folgenden Beschreibung geht hervor, dass aus Gründen der Recheneffizienz die Komponenten des Systems an jeglichem Ort innerhalb eines verteilten Netzes angeordnet sein können, ohne den Betrieb des Systems zu beeinträchtigen. Zum Beispiel können sich die verschiedenen Komponenten in einem lokalen Server, bei einem oder mehreren Anwendern oder einer Kombination davon befinden. Ebenso können ein oder mehrere Funktionsteile des Systems unter einem Server, einem Gateway, einer Nebenstellenanlagen und/oder einem zugeordneten Kommunikationsgerät verteilt sein.
  • Es wird zunächst mit Bezug auf 1 ein beispielhaftes Kommunikationssystem 100 gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung beschrieben. Gemäß mindestens einer Ausführungsform der vorliegenden Erfin dung kann ein Kommunikationssystem 100 ein oder mehrere Kommunikationsgerate 108, die über ein Kommunikationsnetz 104 miteinander kommunizieren, umfassen. Die Kommunikationsgeräte 108 können jegliche Art von bekanntem Kommunikations- oder Verarbeitungsgerät sein, wie zum Beispiel PC, Laptop, Stift-Computer, Personal Digital Assistant (PDA), Mobiltelefon, intelligentes Telefon, herkömmliches Telefon oder Kombinationen davon. Allgemein kann jedes Kommunikationsgerät 108 dafür angepasst sein, Video, Audio, Text und/oder sonstige Datenkommunikationen mit anderen Kommunikationsgeräten 108 zu unterstützen.
  • Das Kommunikationsnetz 104 kann jegliche Art von Datentransportmedium umfassen und jegliche Art von Protokollen für den Transport von Nachrichten zwischen Endpunkten verwenden. Das Kommunikationsnetz 104 kann drahtgebundene und/oder drahtlose Kommunikationstechnologien beinhalten. Das Internet ist ein Beispiel für das Kommunikationsnetz 104, das ein IP-Netz darstellt, bestehend aus vielen Computern und anderen Kommunikationsgeräten, die sich auf der ganzen Welt befinden und durch viele Telefonsysteme und andere Mittel verbunden sind. Zu weiteren Beispielen für das Kommunikationsnetz 104 zählen, ohne jedoch darauf beschränkt zu sein, ein einfacher Standard-Fernsprechdienst, ein Integrated Services Digital Network (ISDN), das Festnetz, ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Session Initiation Protocol(SIP)-Netz und jegliche andere Art von paketvermitteltem oder leitungsvermitteltem Netz nach dem Stand der Technik. Zusätzlich ist zu verstehen, dass das Kommunikationsnetz 104 nicht auf eine bestimmte Netzart beschränkt sein muss und statt dessen aus einer Anzahl unterschiedlicher Netze und/oder Netzarten bestehen kann.
  • Das Kommunikationssystem 100 kann auch einen Konferenz-Server 112 umfassen. Der Konferenz-Server 112 kann so vorgesehen sein, dass er Mehrparteien-Kommunikationssitzungen ermöglicht. Zum Beispiel kann der Konferenz-Server 112 eine Konferenzbrücke oder einen Konferenzmischer beinhalten, auf den zwei oder mehr Kommunikationsgeräte 108 Zugriff haben können. Beispielsweise könnten die Anwender der Kommunikationsgeräte 108 die Dienste des Konferenz-Servers 112 anfordern, indem sie eine vom Konferenz-Server 112 unterstützte fest vorgegebene Nummer anwählen. Wenn erforderlich, könnte der Anwender auch ein Passwort oder einen Teilnehmer-Code angeben. Sobald der Anwender beim Konferenz-Server 112 authentifiziert worden ist, kann es diesem Anwender erlaubt werden, sein Kommunikationsgerät 108 mit anderen, ebenso beim Konferenz-Server 112 authentifizierten Kommunikationsgeräten 108 zu verbinden.
  • Zusätzlich dazu, dass der Konferenz-Server 112 allgemeine Konferenzkomponenten enthält, kann er auch Komponenten umfassen, die dafür angepasst sind, Gebärden von Teilnehmern an einer Kommunikationssitzung zu analysieren, zu interpretieren und/oder zu verteilen. Im Besonderen kann der Konferenz-Server 112 ein Gebärdenüberwachungsmodul und/oder Verhaltenserkennungsmodul umfassen, das dem Konferenz-Server 112 erlaubt, die Gebärden verschiedener Teilnehmer an einer Kommunikationssitzung zu analysieren und andere Aufgaben auszuführen, die mit der Funktionalität eines Gebärdenüberwachungsmoduls und/oder Verhaltenserkennungsmoduls in Einklang stehen. Der Konferenz-Server 112 kann verwendet werden, um Gebärdendaten für die Teilnehmer, die über den Konferenz-Server 112 kommunizieren, zu analysieren, zu interpretieren und/oder zu verteilen.
  • Alternativ könnte es Kommunikationssitzungsteilnehmern, die nicht den Konferenz-Server 112 verwenden (z. B. Teilnehmern an einer Punkt-zu-Punkt-Kommunikationssitzung oder sonstigen Art von Kommunikationssitzung, die nicht unbedingt Medien durch den Konferenz-Server 112 leitet) erlaubt sein, Gebärdendaten an den Konferenz-Server 112 senden zu lassen, wo sie analysiert, interpretiert und/oder unter anderen gekennzeichneten Teilnehmern verteilt werden können. Bei dieser speziellen Ausführungsform könnte ein Kommunikationsgerät 108, das nicht mit den Merkmalen für Analyse, Interpretation und/oder Verteilung von Ge bärdendaten versehen ist, trotzdem in der Lage sein, den Konferenz-Server 112 zu nutzen und von Ausführungsformen der vorliegenden Erfindung zu profitieren.
  • Mit Bezug auf 2 wird nun ein beispielhaftes Kommunikationsgerät 108 gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung beschrieben. Das Kommunikationsgerät 108 kann ein oder mehrere Kommunikationsanwendungen 204 umfassen, von denen mindestens eine ein Gebärdenüberwachungsmodul 208 umfasst. Das Gebärdenüberwachungsmodul 208 kann eine auf einem computer-lesbaren Medium gespeicherte Menge von Befehlen umfassen, die durch einen (nicht abgebildeten) Prozessor ausgeführt werden können. Das Gebärdenüberwachungsmodul 208 kann zuständig sein für die Erfassung von Bildern, üblicherweise in Form von Video-Frames, eines Anwenders des Kommunikationsgeräts 108. Wenn der Anwender an einer Kommunikationssitzung mit einem anderen Anwender beteiligt ist (z. B. wenn das Kommunikationsgerät 108 über das Kommunikationsnetz 104 eine Verbindung mit mindestens einem anderen Kommunikationsgerät aufgebaut hat), kann das Gebärdenüberwachungsmodul 208 dafür angepasst sein, die Bilddaten des Anwenders zu analysieren. Während seiner Analyse der Bilddaten kann das Gebärdenüberwachungsmodul 208 die Gebärden interpretieren, um bestimmte Gebärdendaten zu erhalten. Zu den Arten von Gebärdendaten, die man vom Gebärdenüberwachungsmodul 208 erhalten kann, gehören, ohne darauf beschränkt zu sein, allgemeine Stimmungsdaten (z. B. froh, traurig, wütend, ärgerlich, verwirrt, amüsiert, usw.) sowie spezielle nonverbale Kommunikationen (z. B. eine Nachricht, die durch Körpersprache und/oder Gesichtsbewegungen anstatt durch gesprochene oder getippte Worte zur Verfügung gestellt wird).
  • Das Gebärdenüberwachungsmodul 208 kann der Kultur des Anwenders des Kommunikationsgeräts 108 speziell angepasst sein. Wenn zum Beispiel der Anwender des Kommunikationsgeräts 108 Australier ist, dann kann das Gebärdenüberwachungsmodul 208 dafür angepasst sein, die Bilddaten für bestimmte australier-typische Gebärden zu analysieren. Ebenso kann, wenn der Anwender des Kommunikationsgeräts 108 Deutscher ist, das Gebärdenüberwachungsmodul 208 dafür angepasst sein, die Bilddaten für eine andere Untermenge von Gebärden zu analysieren.
  • Die Arten der vom Gebärdenüberwachungsmodul 208 angewandten Gebärdenerkennungsalgorithmen können variieren und können von den Verarbeitungsfähigkeiten des Kommunikationsgeräts 108 abhängen. Verschiedene Beispiele für Algorithmen, die vom Gebärdenüberwachungsmodul 208 angewandt werden können, werden in einem oder mehreren der US-Patente Nr. 5,594,810 , 6,072,494 , 6,256,400 , 6,393,136 und 6,804,396 beschrieben, und der gesamte Inhalt eines jeden dieser Patente wird durch diese Erwähnung hierin aufgenommen. Zu den vom Gebärdenüberwachungsmodul 208 angewandten Algorithmen können Algorithmen gehören, die die Gesichtsbewegungen, Handbewegungen, Körperbewegungen, usw. eines Anwenders analysieren. Diese Daten können einer bestimmten Kultur des agierenden Teilnehmers zugeordnet werden.
  • Die Kommunikationsanwendung 204 kann auch dafür angepasst sein, die Gebärdendaten für den agierenden Teilnehmer so zu interpretieren/zu übersetzen, dass sie mit einer Kultur eines anderen Teilnehmers übereinstimmen. Die Kommunikationsanwendung 204 kann ein Verhaltenserkennungsmodul 216 umfassen, das dafür angepasst ist, Gebärdendaten zu interpretieren/zu übersetzen sowie diese Daten den Teilnehmern an einer Kommunikationssitzung zur Verfügung zu stellen. Mit anderen Worten, das Gebärdenüberwachungsmodul 208 kann dafür angepasst sein, Bilddaten zu erfassen und Gebärdendaten aus diesen Bilddaten zu ermitteln, und dann kann das Verhaltenserkennungsmodul 216 dafür angepasst sein, die Gebärdendaten von der Kultur des agierenden Teilnehmers in eine Kultur eines anderen Kommunikationssitzungsteilnehmers zu übersetzen. Diese Übersetzung kann ermöglicht werden durch Referenzierung eines Teilnehmerdatenspeichers 212, der Daten über die dem agierenden Teilnehmer zugeordneten Kultur verwaltet. Der Teilnehmerdatenspeicher 212 kann auch Daten über die den anderen Kommunikationssitzungsteilnehmern zugeordneten Kulturen enthalten.
  • Die im Teilnehmerdatenspeicher 212 verwalteten Daten können während der Initialisierung der Kommunikationssitzung erstellt und von jedem Teilnehmer aus dessen zugeordnetem Kommunikationsgerät/zugeordneten Kommunikationsgeräten und/oder aus einer diese Daten enthaltenden Unternehmensdatenbank abgerufen werden.
  • Zum Beispiel kann das Verhaltenserkennungsmodul 216 in der Lage sein, eine Bedeutung der Gebärdendaten in einer Kultur auf eine Bedeutung der Gebärdendaten in einer anderen Kultur abzubilden. Dies ist besonders nützlich, wenn der agierende Teilnehmer und der zuschauende/zuhörende Teilnehmer signifikant unterschiedlichen Kulturen zugeordnet werden. Unter diesen Umständen kann es sein, dass der jeweilige Teilnehmer nicht erkennt, dass seine Gebärden dem anderen Teilnehmer eine bestimmte Bedeutung übermitteln. Die vorliegende Erfindung kann das Verhaltenserkennungsmodul 216 dabei unterstützen, die mehrfachen Bedeutungen, die eine bestimmte Gebärde haben kann, zu ermitteln und diese Bedeutungen einem, beiden, einer Untermenge oder allen Teilnehmern mitzuteilen. Somit können dem agierenden Teilnehmer die nonverbalen Kommunikationen, die er an seine Zuschauer schickt, bewusst gemacht werden, und den Zuschauern kann bewusst sein, was mit solchen nonverbalen Kommunikationen beabsichtigt ist.
  • Gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung kann die Interpretation von Gebärdendaten automatisch aus dem Verhaltenserkennungsmodul 216 gewonnen werden. Alternativ oder zusätzlich kann das Verhaltenserkennungsmodul 216 dafür angepasst sein, den agierenden Teilnehmer abzufragen, um zu ermitteln, ob diesem seine nonverbalen Nachrichten bewusst sind und/oder ob er den anderen Kommunikationssitzungsteilnehmern diese Nachrichten (oder andere Nachrichten) übermitteln will. Wenn sich zum Beispiel ein agierender Teilnehmer in einer Art und Weise bewegt, dass seine Gebärden erkennen lassen, dass er ärgerlich ist, kann das Verhaltenserkennungsmodul 216 diese Gebärden und die mögliche Bedeutung dieser Gebärden erkennen. Das Verhaltenserkennungsmodul 216 kann dann den agierenden Teilnehmerfragen, ob er beabsichtigt, diese Nachricht an die anderen Teilnehmer zu verbreiten oder ob es eine andere Nachricht gibt, die der agierende Teilnehmer den anderen Teilnehmern übermitteln möchte. Bejaht der Anwender, dass er diese Nachricht mitteilen möchte, können die ursprünglich vom Gebärdenüberwachungsmodul 208 erkannten Gebärdendaten den anderen Teilnehmern mitgeteilt werden. Ändert der agierende Teilnehmer die Nachricht, die den anderen Teilnehmern mitgeteilt werden soll, so kann das Gebärdenüberwachungsmodul 208 die den anderen Teilnehmern mitgeteilten Gebärdendaten gemäß der Eingabe des agierenden Teilnehmers abändern.
  • Zusätzlich zu Modulen für Analyse, Interpretation und/oder Mitteilung von Gebärdendaten an die Teilnehmer der Kommunikationssitzung enthält die Kommunikationsanwendung 204 auch Kommunikationsprotokolle 220, die von der Kommunikationsanwendung 204 verwendet werden, um Kommunikationen mit anderen Kommunikationsgeräten 108 über das Kommunikationsnetz 104 zu ermöglichen.
  • Das Kommunikationsgerät 108 kann ferner einen Anwendereingang 224, einen Anwenderausgang 228, eine Netzschnittstelle 232, ein Betriebssystem 236 und eine Stromversorgung 240 aufweisen. Das Betriebssystem 236 ist im Allgemeinen eine Anwendung niedrigerer Ebene, welche Navigation und Verwendung der Kommunikationsanwendung 204 und anderer im Kommunikationsgerät 108 gespeicherter Anwendungen ermöglicht.
  • Die Stromversorgung 240 kann einer internen Stromquelle, wie zum Beispiel einer Batterie oder Ähnlichem, entsprechen. Alternativ oder zusätzlich kann die Stromversorgung 240 einen Stromrichter umfassen, der dafür angepasst ist, den von einer Steckdose erhaltenen Wechselstrom in vom Kommunikationsgerät 108 verwendbaren Gleichstrom umzuwandeln.
  • Die Netzschnittstelle 232 kann Folgendes beinhalten, ohne jedoch darauf beschränkt zu sein: eine Netzschnittstellenkarte, ein Modem, einen drahtgebundenen Telefonieanschluss, einen seriellen oder parallelen Datenanschluss, einen Funkfrequenz-Broadcast-Transceiver, einen USB-Anschluss, oder andere drahtgebundene oder drahtlose Kommunikationsnetzschnittstellen.
  • Der Anwendereingang 224 kann zum Beispiel Folgendes beinhalten: eine Tastatur, einen Zifferntastenblock und ein Zeigegerät (z. B. Maus, Touch-Pad, Rollerball, usw.) in Kombination mit einem Bildschirm oder anderen Positions-Codierer. Ferner kann der Anwendereingang 224 Mechanismen für die Erfassung von Bildern eines Anwenders umfassen. Im Besonderen kann der Anwendereingang 224 eine Kamera oder eine andere Art von Video-Erfassungsgerät umfassen, das dafür angepasst ist, eine Serie von Bildern des Anwenders zu erfassen. Diese Daten können dem Gebärdenüberwachungsmodul 208 als Eingabe bereitgestellt werden.
  • Zu den Beispielen für Anwenderausgangsgeräte 228 gehören eine alphanumerische Anzeige, eine Flüssigkristallanzeige (LCD), eine Leuchtdiode (LED), eine Plasmaanzeige, ein Kathodenstrahlröhren-(CRT)-Bildschirm, ein Ruforgan und/oder Anzeigelampen. Gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung kann ein kombiniertes Anwendereingabe-/-ausgabegerät, wie zum Beispiel ein Touch-Screen-Gerät, vorgesehen sein.
  • Mit Bezug auf 3 wird nun eine beispielhafte Datenstruktur 300 gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung beschrieben. Die Datenstruktur 300 kann eine Anzahl von Datenfeldern zum Speichern von zur Analyse und Interpretation der Gebärdendaten verwendeten Daten aufweisen. Die Datenstruktur 300 kann im Datenspeicher 212 oder an jeglichem anderen Datenspeicherort, wie zum Beispiel einer Unternehmensdatenbank, verwaltet werden. Die Datenstruktur 300 kann für die Dauer der Kommunikationssitzung oder längere Zeiträume verwaltet werden. Zum Beispiel können einige Abschnitte der Datenstruktur 300 verwaltet werden, nachdem die Kommunikationssitzung beendet ist.
  • Zu den Arten von Feldern, welche die Datenstruktur 300 aufweisen kann, gehören, ohne darauf beschränkt zu sein, ein Gerätekennzeichenfeld 304, ein Anwenderkennzeichenfeld 308, ein Anwenderdatenfeld 312, ein Gebärdenhistorienfeld 316, ein Feld für aktuelle Gebärdeninterpretation 320 und ein Übersetzungsdatenfeld 324. Das Gerätekennzeichenfeld 304 und das Anwenderkennzeichenfeld 308 können verwendet werden, um Gerätekennzeichnungsdaten bzw. Anwenderkennzeichnungsdaten zu speichern. Zu den Beispielen für im Gerätekennzeichenfeld 304 gespeicherte Gerätekennzeichen können gehören: eine Internet Protocol(IP)-Adresse, eine Media Access Control(MAC)-Adresse, ein Universal Resource Identifier (URI), eine Telefonnummer, eine Durchwahlnummer, oder jeglicher sonstige Mechanismus zur Kennzeichnung von Kommunikationsgeräten 108. Ebenso kann das Anwenderkennzeichen einen Namen eines einem bestimmten Kommunikationsgerät 108 zugeordneten Anwenders beinhalten. Der Fachmann wird erkennen, dass einem einzigen Kommunikationsgerät 108 mehrere Anwender zugeordnet sein können (z. B. während einer Konferenzverbindung, bei der sich ein Konferenz-Kommunikationsgerät 108 in einem Raum mit mehreren Teilnehmern befindet).
  • Für jeden im Anwenderkennzeichenfeld 308 gekennzeichneten Anwender können die Daten des Anwenders im Anwenderdatenfeld 312 gespeichert sein. Im Besonderen können, wenn ein Anwender einer oder mehreren Kulturen zugeordnet wird, diese Daten im Anwenderdatenfeld 312 verwaltet werden. Zum Beispiel kann das Anwenderdatenfeld 312 kulturelle Daten für den jeweiligen Anwender speichern und kann ferner Daten umfassen, die verwendet werden, um in einer Kommunikationssitzung Gebärdendaten zwischen den Anwendern zu übersetzen.
  • Das Gebärdenhistorienfeld 316 kann Daten im Zusammenhang mit früheren Gebärden eines Kommunikationssitzungsteilnehmers umfassen. Diese historischen Gebärdendaten können genutzt werden, um zukünftige Gebärdendaten für einen bestimmten Anwender zu kennzeichnen. Ferner können die historischen Gebärdendaten die Antworten des Anwenders auf die vom Verhaltenserkennungsmodul 216 erzeugten Abfragen beinhalten. All diese Daten können nützlich sein bei der Analyse zukünftiger Gebärdendaten für jenen Anwender sowie bei der Ermittlung, ob eine Interpretation seiner Gebärdendaten erforderlich ist.
  • Das Feld für aktuelle Gebärdeninterpretation 320 kann Daten im Zusammenhang mit der aktuellen Analyse der Handlungen des Anwenders umfassen. Im Besonderen kann das Feld für aktuelle Gebärdeninterpretation 320 die während einer Kommunikationssitzung vom Gebärdenüberwachungsmodul 208 erhaltenen Analyseergebnisse speichern.
  • Das Übersetzungsdatenfeld 324 kann Übersetzungsdaten im Zusammenhang mit der aktuellen Analyse der Handlungen des Anwenders umfassen. Darüberhinaus kann das Übersetzungsdatenfeld 324 Daten umfassen, die verwendet werden, um die Bedeutung der Gebärdendaten aus einer Kultur auf eine andere Kultur abzubilden. Somit kann das Übersetzungsdatenfeld 324 die während einer Kommunikationssitzung vom Gebärdenerkennungsmodul 216 erhaltenen Interpretationsergebnisse sowie Daten, die vom Gebärdenerkennungsmodul 216 verwendet werden, um diese Übersetzungsdaten zu erhalten, speichern.
  • Mit Bezug auf 4 wird nun ein beispielhaftes Kommunikationsverfahren gemäß zumindest einigen Ausführungsformen der vorliegenden Erfindung beschrieben. Das Verfahren kann bei jeglicher Kommunikationssitzung zwischen zwei oder mehr Teilnehmern, die über ein Kommunikationsnetz 104 miteinander kommunizieren, eingesetzt werden. Zum Beispiel kann die Kommunikationssitzung eine Telefonkonferenz oder Video-Konferenz umfassen, bei der die Kommunikationsgeräte 108 untereinander einen Sprach-/Datenpfad durch das Kommunikationsnetz 104 aufbauen. Als weiteres Beispiel kann die Kommunikationssitzung eine textbasierte Kommunikationssitzung (z. B. eine E-Mail-basierte Kommunikations sitzung, eine IM-Sitzung, eine SMS-Sitzung oder Ähnliches) umfassen, bei der ein Anwender über das Kommunikationsnetz 104 eine Textnachricht an einen anderen Anwender sendet. Die Erzeugung einer Textnachricht kann die Instantiierung des in 4 gezeigten Kommunikationsverfahrens einleiten und dadurch die Erfassung, Analyse und eventuelle Interpretation der vom sendenden Anwender kommenden Gebärdendaten auslösen und diese Gebärdendaten in die Nachricht mit aufnehmen, bevor diese an den/die Zielempfänger gesendet wird.
  • Das Kommunikationsverfahren wird eingeleitet durch die Erfassung der von einem agierenden Teilnehmer kommenden Bild- und/oder Audio-Daten während einer Kommunikationssitzung (oder während der Erstellung einer textbasierten Nachricht während einer textbasierten Kommunikationssitzung) (Schritt 404). Art und Umfang der erfassten Bild- und/oder Audio-Daten können von den kulturellen Unterschieden zwischen den Teilnehmern abhängig sein. Zum Beispiel kann ein signifikanter kultureller Unterschied, wie zum Beispiel zwischen japanischen und kanadischen Teilnehmern, erfordern, mehr Gebärdendaten zu erfassen, da mehr Interpretation benötigt werden könnte, wohingegen ein geringerer kultureller Unterschied, wie zum Beispiel zwischen amerikanischen und kanadischen Teilnehmern, eventuell nicht so viel Interpretation benötigt und deshalb nicht so viele Bild- und/oder Audio-Daten erfordert.
  • Nachdem vom agierenden Teilnehmer Daten in angemessenem Umfang und von angemessener Art erfasst wurden, wird das Verfahren damit fortgesetzt, dass das Gebärdenüberwachungsmodul 208 die empfangenen Daten auf Gebärdendaten analysiert (Schritt 408). Das Gebärdenüberwachungsmodul 208 kann aus einer bestimmten Menge von Daten mehr als eine Art von Gebärdendaten gewinnen. Zum Beispiel kann das Gebärdenüberwachungsmodul 208 ermitteln, dass der agierende Teilnehmer eine bestimmte Stimmung (z. B. Verwirrung) sowie eine nonverbale Nachricht (z. B. ”Ich verstehe nicht. Bitte wiederholen Sie.”) übermittelt. Folglich können beide Arten von Gebärdendaten den erfassten Daten sowie dem agierenden Teilnehmer zugeordnet werden.
  • Dann können die Gebärdendaten an das Verhaltenserkennungsmodul 216 weitergegeben werden, wo die Gebärdendaten interpretiert werden (Schritt 412). Die vorgenommenen Interpretationen können je nach den kulturellen Unterschieden zwischen den Kommunikationssitzungsteilnehmern variieren. Somit kann, wenn die Kommunikationssitzung drei oder mehr Teilnehmer umfasst, die jeweils einer anderen Kultur zugeordnet werden, das Verhaltenserkennungsmodul 216 zwei oder mehr Interpretationen der Gebärdendaten erstellen.
  • Die Interpretation der Gebärdendaten und eventuell die ursprünglichen Gebärdendaten können dann dem/den anderen Kommunikationssitzungsteilnehmer(n) bereitgestellt werden (Schritt 416). Diese Daten können den anderen Anwendern mitgeteilt werden, indem diese Daten in die Nachricht selbst mit aufgenommen werden oder indem diese Daten getrennt von der Nachricht gesendet werden. Diese Interpretationsdaten werden dann den anderen Teilnehmern über ihr Kommunikationsgerät 108 bereitgestellt. Die Daten können in einem akustischen und/oder optischen Format bereitgestellt werden. Zum Beispiel können die Daten den anderen Teilnehmern über eine ”Whisper Page” oder einen anderen separaten Kommunikationskanal bereitgestellt werden. Als weiteres Beispiel können die Daten den anderen Teilnehmern über ein Icon und/oder eine Textnachricht, welche die Gebärdendaten und/oder deren Interpretation anzeigt, bereitgestellt werden.
  • Ebenso kann/können die Interpretation(en) der Gebärdendaten auch dem agierenden Teilnehmer bereitgestellt werden (Schritt 420). Das ermöglicht dem agierenden Teilnehmer, sich der Interpretationsdaten, die den anderen Teilnehmern mitgeteilt wurden, bewusst zu werden. Darüberhinaus ermöglicht diese Rückmeldung dem agierenden Teilnehmer zu ermitteln, ob er etwas übermittelt, das er nonverbal übermitteln möchte, oder ob er zufällig etwas übermittelt, das er nicht übermitteln möchte. Die Rückmeldedaten können in ähnlicher Weise, wie diese Daten den anderen Teilnehmern bereitgestellt wurden, in Form einer akustischen und/oder optischen Nachricht bereitgestellt werden.
  • Die Ausführung dieses Verfahrens kann fortgesetzt werden, bis die Kommunikationssitzung beendet ist. Der Fachmann wird jedoch erkennen, dass die aus einer Kommunikationssitzung gewonnenen Gebärdendaten gespeichert und in darauffolgenden Kommunikationssitzungen verwendet werden können. Zum Beispiel können die kulturellen Daten eines Teilnehmers in einem Kontaktprotokoll verwaltet werden, auf das das Gebärdenüberwachungsmodul 208 und/oder das Verhaltenserkennungsmodul 216 während späterer Kommunikationssitzungen zugreifen können.
  • Zwar wurde das oben beschriebene Ablaufdiagramm mit Bezug auf einen bestimmten Ablauf von Ereignissen erörtert, es ist jedoch zu verstehen, dass Änderungen an diesem Ablauf erfolgen können, ohne die Funktion der Erfindung wesentlich zu beeinflussen. Außerdem muss der genaue Ablauf der Ereignisse nicht unbedingt so erfolgen, wie es in den Ausführungsbeispielen dargelegt ist. Die hier veranschaulichten beispielhaften Techniken sind nicht auf die speziell veranschaulichten Ausführungsformen beschränkt, sondern können auch mit den anderen Ausführungsbeispielen verwendet werden, und jedes beschriebene Merkmal kann einzeln und getrennt beansprucht werden.
  • Die Systeme, Verfahren und Protokolle dieser Erfindung können zusätzlich zu oder anstelle von der beschriebenen Kommunikationsausrüstung implementiert werden auf einem Spezial-Computer, einem programmierten Mikroprozessor oder Mikrocontroller und einem oder mehreren peripheren integrierten Schaltelementen, einem ASIC oder einem anderen integrierten Schaltkreis, einem digitalen Signalprozessor, einem festverdrahteten elektronischen oder logischen Schaltkreis, wie zum Beispiel einem diskrete-Elemente-Schaltkreis, einem programmierbaren Logikbaustein, wie zum Beispiel einem PLD, PLA, FPGA, PAL, einem Kommunikationsgerät, wie zum Beispiel einem Telefon, jeglichem vergleichbaren Mittel, oder Ähnlichem. Grundsätzlich kann jedes Gerät, das in der Lage ist, eine Zustandsmaschine zu implementieren, die ihrerseits in der Lage ist, die hier veranschaulichte Methodologie zu implementieren, verwendet werden, um die verschiedenen Kommunikationsverfahren, -protokolle und -techniken gemäß dieser Erfindung zu implementieren.
  • Ferner können die beschriebenen Verfahren ohne Weiteres in Software implementiert werden, die Objekt- oder objektorientierte Software-Entwicklungsumgebungen verwendet, welche einen portablen Quell-Code liefern, der auf einer Vielzahl von Computer- oder Arbeitsstations-Plattformen verwendet werden kann. Alternativ kann das beschriebene System ganz oder teilweise in Hardware, die Standard-Logikschaltkreise oder ein VLSI-Design verwendet, implementiert werden. Ob für die Implementierung der Systeme gemäß dieser Erfindung Software oder Hardware verwendet wird, ist abhängig von den Geschwindigkeits- und/oder Effizienzanforderungen des Systems, der speziellen Funktion und den verwendeten speziellen Software- oder Hardware-Systemen oder Mikroprozessor- oder Mikrocomputersystemen. Die hier veranschaulichten Kommunikationssysteme, -verfahren und -protokolle können aufgrund der hier angegebenen funktionellen Beschreibung und mit allgemeinen Grundkenntnissen in Computer- und Kommunikations-Technik vom Fachmann mit durchschnittlichem Fachwissen in der anwendbaren Technik unter Verwendung jeglicher bekannter oder später entwickelter Systeme oder Strukturen, Geräte und/oder Software ohne Weiteres in Hardware und/oder Software implementiert werden.
  • Darüberhinaus können die beschriebenen Verfahren ohne Weiteres in Software implementiert werden, die auf einem Speichermedium gespeichert werden kann oder auf einem programmierten Allzweck-Computer unter Mitwirkung eines Controllers und eines Speichers, einem Spezial-Computer, einem Mikroprozessor oder Ähnlichem läuft. In diesen Fällen können die Systeme und Verfahren dieser Erfindung implementiert werden als ein in einen PC eingebettetes Programm, wie zum Beispiel ein Applet-, JAVA®- oder CGI-Script, als eine auf einem Server oder einer Computer-Arbeitsstation residente Ressource, als eine in ein dediziertes Kommunikationssystem oder eine Systemkomponente eingebettete Routine, oder Ähnliches. Das System kann auch implementiert werden, indem das System und/oder das Verfahren körperlich in ein Software- und/oder Hardware-System, wie zum Beispiel die Hardware- und Software-Systeme eines Kommunikationsgeräts oder -systems, eingebracht wird.
  • Es ist daher erkennbar, dass gemäß der vorliegenden Erfindung Systeme, Apparate und Verfahren angegeben wurden, die es kommunikationsfähigen Geräten erlauben, miteinander Umgang zu pflegen und eine gemeinsam genutzte Funktionalität einzurichten. Zwar wurde diese Erfindung in Verbindung mit einer Anzahl von Ausführungsformen beschrieben, es ist jedoch offensichtlich, dass viele Alternativen, Abwandlungen und Variationen für den Fachmann mit durchschnittlichem Fachwissen in der anwendbaren Technik erkennbar wären oder sind. Folglich ist beabsichtigt, alle solchen Alternativen, Abwandlungen, Äquivalente und Variationen, die in den Geist und Umfang dieser Erfindung fallen, zu umfassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6804396 [0003, 0003, 0031]
    • - US 5594810 [0031]
    • - US 6072494 [0031]
    • - US 6256400 [0031]
    • - US 6393136 [0031]

Claims (10)

  1. Verfahren, umfassend: Empfang einer Video-Eingabe eines ersten Teilnehmers, während der erste Teilnehmer an einer Kommunikationssitzung mit zumindest einem zweiten Teilnehmer beteiligt ist; Analyse der Video-Eingabe eines ersten Teilnehmers auf Gebärdendaten; und Übermittlung der Gebärdendaten an mindestens einen an der Kommunikationssitzung beteiligten Teilnehmer.
  2. Verfahren gemäß Anspruch 1, ferner umfassend: Interpretation der Gebärdendaten auf der Basis einer bekannten Kultur des zumindest zweiten Teilnehmers; Zuordnung der Interpretation der Gebärdendaten zu den Gebärdendaten; Übermittlung der Gebärdendaten und der Interpretation der Gebärdendaten an den ersten Teilnehmer; und wobei die Interpretation der Gebärdendaten über eine dem ersten Teilnehmer zugeordnete grafische Anwenderoberfläche und/oder einen hörbaren Mechanismus an den ersten Teilnehmer übermittelt wird.
  3. Verfahren gemäß Anspruch 2, bei dem die Interpretation Folgendes umfasst: Ermittlung einer dem zumindest zweiten Teilnehmer zugeordneten Kultur; Abbildung der von der Video-Eingabe empfangenen Gebärdendaten auf ausgewählte Gebärdendaten für die dem zumindest zweiten Teilnehmer zugeordneten Kultur; und wobei die Interpretation der Gebärdendaten die Abbildungsdaten und die ausgewählten Gebärdendaten umfasst.
  4. Verfahren gemäß Anspruch 1, ferner umfassend: Ermittlung einer möglichen Bedeutung der Gebärdendaten auf der Basis einer bekannten Kultur des ersten Teilnehmers; Zuordnung der möglichen Bedeutung der Gebärdendaten zu den Gebärdendaten; Übermittlung der Gebärdendaten und der möglichen Bedeutung der Gebärdendaten an den zumindest zweiten Teilnehmer; wobei die Ermittlung einer möglichen Bedeutung der Gebärdendaten Folgendes umfasst: Ermittlung einer dem ersten Teilnehmer zugeordneten Kultur; Abbildung der von der Video-Eingabe empfangenen Gebärdendaten auf ausgewählte Gebärdendaten für die dem ersten Teilnehmer zugeordneten Kultur; und wobei die Interpretation der Gebärdendaten die Abbildungsdaten und die ausgewählten Gebärdendaten umfasst.
  5. Kommunikationsgerät, umfassend: eine Anwendereingabe, die eingesetzt werden kann, um Video-Bilder eines ersten Teilnehmers während einer Kommunikationssitzung mit zumindest einem zweiten Teilnehmer aufzuzeichnen; und ein Gebährdenüberwachungsmodul, das eingesetzt werden kann, um die aufgezeichneten Video-Bilder des ersten Teilnehmers auf Gebärdendaten zu analysieren und die Gebärdendaten an mindestens einen Teilnehmer der Kommunikationssitzung zu übermitteln.
  6. Gerät gemäß Anspruch 5, ferner umfassend: ein Verhaltenserkennungsmodul, das eingesetzt werden kann, um die Gebärdendaten auf der Basis einer bekannten Kultur des zumindest zweiten Teilnehmers zu interpretieren und die Interpretation der Gebärdendaten den Gebärdendaten zuzuordnen; eine Anwenderausgabe, die eingesetzt werden kann, um die Gebärdendaten und die Interpretation der Gebärdendaten an den ersten Teilnehmer zu übermitteln; und wobei die Anwenderausgabe eine grafische Anwenderoberfläche und/oder eine hörbare Anwenderoberfläche umfasst.
  7. Gerät gemäß Anspruch 6, ferner umfassend einen Teilnehmerdatenspeicher, wobei das Verhaltenserkennungsmodul eingesetzt werden kann, um den Teilnehmerdatenspeicher zu referenzieren, um eine dem zumindest zweiten Teilnehmer zugeordnete Kultur zu ermitteln, und dann die aus den Video-Bildern empfangenen Gebärdendaten auf ausgewählte Gebärdendaten für die dem zumindest zweiten Teilnehmer zugeordnete Kultur abzubilden und dann die Abbildungsdaten und die ausgewählten Gebärdendaten in die Interpretation der Gebärdendaten mit aufzunehmen.
  8. Gerät gemäß Anspruch 5, ferner umfassend ein Verhaltenserkennungsmodul, das eingesetzt werden kann, um auf der Basis einer bekannten Kultur des ersten Teilnehmers eine mögliche Bedeutung der Gebärdendaten zu ermitteln, die mögliche Bedeutung der Gebärdendaten den Gebärdendaten zuzuordnen und dann die Gebärdendaten und die mögliche Bedeutung der Gebärdendaten an den zumindest zweiten Teilnehmer zu übermitteln.
  9. Gerät gemäß Anspruch 8, umfassend einen Teilnehmerdatenspeicher, wobei das Verhaltenserkennungsmodul eingesetzt werden kann, um den Teilnehmerdatenspeicher zu referenzieren, um eine dem ersten Teilnehmer zugeordnete Kultur zu ermitteln, die aus der Video-Eingabe empfangenen Gebärdendaten auf ausgewählte Gebärdendaten für die dem ersten Teilnehmer zugeordnete Kultur abzubilden und die Abbildungsdaten und die ausgewählten Gebärdendaten in die Interpretation der Gebärdendaten mit aufzunehmen.
  10. Gerät gemäß Anspruch 9, bei dem das Verhaltenserkennungsmodul eingesetzt werden kann, um durch Erstellung und Senden einer Abfrage einer beabsichtigten Bedeutung seiner Gebärde beim ersten Anwender eine mögliche Bedeutung der Gebärdendaten zu ermitteln, vom ersten Anwender eine Antwort auf die Abfrage zu empfangen und dann zumindest einen Teil der Antwort in die mögliche Bedeutung der Gebärdendaten aufzunehmen.
DE102009043277A 2009-04-01 2009-09-29 Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen Expired - Fee Related DE102009043277B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/416,702 2009-04-01
US12/416,702 US20100257462A1 (en) 2009-04-01 2009-04-01 Interpretation of gestures to provide visual queues

Publications (2)

Publication Number Publication Date
DE102009043277A1 true DE102009043277A1 (de) 2010-10-14
DE102009043277B4 DE102009043277B4 (de) 2012-10-25

Family

ID=41350498

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009043277A Expired - Fee Related DE102009043277B4 (de) 2009-04-01 2009-09-29 Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen

Country Status (5)

Country Link
US (1) US20100257462A1 (de)
JP (1) JP5548418B2 (de)
CN (1) CN101854510B (de)
DE (1) DE102009043277B4 (de)
GB (1) GB2469355B (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8875019B2 (en) 2010-03-16 2014-10-28 International Business Machines Corporation Virtual cultural attache
US8963987B2 (en) * 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
US8670018B2 (en) 2010-05-27 2014-03-11 Microsoft Corporation Detecting reactions and providing feedback to an interaction
JP2013009073A (ja) 2011-06-23 2013-01-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及びサーバ
US8976218B2 (en) * 2011-06-27 2015-03-10 Google Technology Holdings LLC Apparatus for providing feedback on nonverbal cues of video conference participants
US9077848B2 (en) 2011-07-15 2015-07-07 Google Technology Holdings LLC Side channel for employing descriptive audio commentary about a video conference
US20130104089A1 (en) * 2011-10-20 2013-04-25 Fuji Xerox Co., Ltd. Gesture-based methods for interacting with instant messaging and event-based communication applications
EP2693746B1 (de) * 2012-08-03 2015-09-30 Alcatel Lucent Verfahren und Vorrichtung zur Ermöglichung der visuellen Stummschaltung eines Teilnehmers während einer Videokonferenz
CN103856742B (zh) * 2012-12-07 2018-05-11 华为技术有限公司 视音频信息的处理方法、装置和系统
US9389765B2 (en) * 2013-03-12 2016-07-12 Google Inc. Generating an image stream
JP2015015623A (ja) * 2013-07-05 2015-01-22 シャープ株式会社 テレビ電話機、及び、プログラム
JP6175969B2 (ja) * 2013-08-09 2017-08-09 株式会社リコー 情報処理装置、情報処理システム及びプログラム
DE102014018205A1 (de) 2014-12-09 2016-06-09 Unify Gmbh & Co. Kg Konferenzsystem und Verfahren zum Steuern des Konferenzsystems
US10241990B2 (en) * 2015-08-26 2019-03-26 Microsoft Technology Licensing, Llc Gesture based annotations
US20170090582A1 (en) * 2015-09-24 2017-03-30 Intel Corporation Facilitating dynamic and intelligent geographical interpretation of human expressions and gestures
US9641563B1 (en) * 2015-11-10 2017-05-02 Ricoh Company, Ltd. Electronic meeting intelligence
CN105791692B (zh) 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 一种信息处理方法、终端及存储介质
EP3596656B1 (de) * 2018-05-25 2021-05-05 Kepler Vision Technologies B.V. Überwachung und analyse von körpersprache mit maschinellem lernen unter verwendung von systemen der künstlichen intelligenz zur verbesserung der wechselwirkung zwischen menschen sowie menschen und robotern

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594810A (en) 1993-09-30 1997-01-14 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6256400B1 (en) 1998-09-28 2001-07-03 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6393136B1 (en) 1999-01-04 2002-05-21 International Business Machines Corporation Method and apparatus for determining eye contact
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0450196B1 (de) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Datenverarbeitungssystem mit auf Gesten basierenden Eingabedaten
US5652849A (en) * 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
JP3835771B2 (ja) * 1996-03-15 2006-10-18 株式会社東芝 コミュニケーション装置及びコミュニケーション方法
US6072467A (en) * 1996-05-03 2000-06-06 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Continuously variable control of animated on-screen characters
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
WO1999057900A1 (en) * 1998-05-03 1999-11-11 John Karl Myers Videophone with enhanced user defined imaging system
JP2000333151A (ja) * 1999-05-20 2000-11-30 Fujitsu General Ltd テレビ会議システム
US6522333B1 (en) * 1999-10-08 2003-02-18 Electronic Arts Inc. Remote communication through visual representations
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US20010041328A1 (en) * 2000-05-11 2001-11-15 Fisher Samuel Heyward Foreign language immersion simulation process and apparatus
DE10029483A1 (de) * 2000-06-15 2002-01-03 Herbert J Christ Mobiles Kommunikationssystem für Hörbehinderte
US6801656B1 (en) * 2000-11-06 2004-10-05 Koninklijke Philips Electronics N.V. Method and apparatus for determining a number of states for a hidden Markov model in a signal processing system
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
NO315679B1 (no) * 2001-10-19 2003-10-06 Dmates As Rik kommunikasjon over internett
US8460103B2 (en) * 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
US7401295B2 (en) * 2002-08-15 2008-07-15 Simulearn, Inc. Computer-based learning system
US7607097B2 (en) * 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
US20050131744A1 (en) * 2003-12-10 2005-06-16 International Business Machines Corporation Apparatus, system and method of automatically identifying participants at a videoconference who exhibit a particular expression
EP1574971A1 (de) * 2004-03-10 2005-09-14 Alcatel Verfahren, hypermedia Browser, Netzwerkclient, Netzwerkserver und Computer Softwareprodukt zum Versehen gemeinschaftlicher Navigation von hypermedia Dokumenten
JP2006041886A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US7342587B2 (en) * 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US7995064B2 (en) * 2004-10-12 2011-08-09 Imvu, Inc. Computer-implemented chat system having dual channel communications and self-defining product structures
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
US8243116B2 (en) * 2007-09-24 2012-08-14 Fuji Xerox Co., Ltd. Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
CN101335869B (zh) * 2008-03-26 2011-11-09 北京航空航天大学 一种基于Soft-MCU策略的视频会议系统
EP2146490A1 (de) * 2008-07-18 2010-01-20 Alcatel, Lucent Benutzervorrichtung zum Austausch von Informationen auf der Basis von Gesten, Austausch von Informationen zwischen verschiedenen Benutzervorrichtungen auf der Basis von Gesten sowie entsprechende Geräte und Systeme
US20100073399A1 (en) * 2008-09-23 2010-03-25 Sony Ericsson Mobile Communications Ab Methods and devices for controlling a presentation of an object
KR101494388B1 (ko) * 2008-10-08 2015-03-03 삼성전자주식회사 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법
US20100153497A1 (en) * 2008-12-12 2010-06-17 Nortel Networks Limited Sharing expression information among conference participants
US8600731B2 (en) * 2009-02-04 2013-12-03 Microsoft Corporation Universal translator
US20100228825A1 (en) * 2009-03-06 2010-09-09 Microsoft Corporation Smart meeting room
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US20100253689A1 (en) * 2009-04-07 2010-10-07 Avaya Inc. Providing descriptions of non-verbal communications to video telephony participants who are not video-enabled

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594810A (en) 1993-09-30 1997-01-14 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6256400B1 (en) 1998-09-28 2001-07-03 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6393136B1 (en) 1999-01-04 2002-05-21 International Business Machines Corporation Method and apparatus for determining eye contact
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system

Also Published As

Publication number Publication date
DE102009043277B4 (de) 2012-10-25
GB2469355B (en) 2013-11-27
US20100257462A1 (en) 2010-10-07
JP5548418B2 (ja) 2014-07-16
GB0917010D0 (en) 2009-11-11
GB2469355A (en) 2010-10-13
JP2010246085A (ja) 2010-10-28
CN101854510B (zh) 2015-01-21
CN101854510A (zh) 2010-10-06

Similar Documents

Publication Publication Date Title
DE102009043277B4 (de) Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen
DE102010010689B4 (de) Join-US-Anruferprotokoll- und Anruferbeantwortungsnachrichten
DE60127078T2 (de) Vorrichtung für anhaltende Chatsitzungen
DE102011014130B4 (de) System und Verfahren zum Beitritt zu Konferenzverbindungen
EP2198589B1 (de) Verfahren zum ausführen einer auf einem netzwerkprotokoll, insbesondere tcp/ip und/oder udp, aufbauenden multimedialen kommunikation.
DE602005002156T2 (de) Befehlsgesteuertes System zum Rundsenden von Gruppen-Kurznachrichten (SMS) mit mobilem Nachrichtenempfänger und Kommunikations-Server
DE112010003363T5 (de) Mehrfache anwenderidentität und brückendarstellung
DE112011103893B4 (de) Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer
DE202012013297U1 (de) Elektronisches Werkzeug für Meetings
CN101017427B (zh) 电子会议系统、电子会议辅助方法和会议控制终端设备
DE102011010686A1 (de) Kontextabhängige Korrelationsmaschine
DE102011010440A1 (de) Geräteoberflächen für anwenderrolle, kontext und funktion undunterstützungssystem-mashups
DE102009031304B4 (de) Zuordnung von Sytemanfragen zu SMS-Anwenderantworten
DE102004039195A1 (de) Sofortnachrichten-Anwesenheits- und Identitätsverwaltung
DE102013211720B4 (de) System und Verfahren für langlebige kontextabhängige Interaktionen
CN108537699B (zh) 一种ar展示、在线互动知识及后台大数据测评系统
DE102011114277B4 (de) Globaler Konferenzplan für verteilte Brücken
DE112018001007T5 (de) Verfahren zum bereitstellen einer angepassten benutzerschnittstelle für eine gruppenkommunikation auf einem kommunikationsgerät
DE102010012549B4 (de) Verfahren und Vorrichtung für sequentiell geordnete Telefonie-Anwendungen nach dem Verbindungsabbau
DE69912456T2 (de) Verfahren und Vorrichtung zur Steuerung einer Fernmeldekonferenz
DE102022121067A1 (de) Screen, video-, audio- und textfreigabe in mehrparteien-video-konferenzen
EP1560140A1 (de) Verfahren und System zur elektronischen Interaktion in einem Netzwerk
DE102005048205B4 (de) Verfahren und System zur elektronischen Recherche zu Inhalten innerhalb einer Präsentation
CN111052258A (zh) 一种远程会诊的访问方法及会诊终端
DE102021213661A1 (de) Systeme und verfahren zur anzeidge von benutzern, die an einer kommunikationssitzung teilnehmen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130126

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee