DE112011103893T5 - Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer - Google Patents

Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer Download PDF

Info

Publication number
DE112011103893T5
DE112011103893T5 DE112011103893T DE112011103893T DE112011103893T5 DE 112011103893 T5 DE112011103893 T5 DE 112011103893T5 DE 112011103893 T DE112011103893 T DE 112011103893T DE 112011103893 T DE112011103893 T DE 112011103893T DE 112011103893 T5 DE112011103893 T5 DE 112011103893T5
Authority
DE
Germany
Prior art keywords
conference
terminal unit
unit
audio
session
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112011103893T
Other languages
English (en)
Other versions
DE112011103893B4 (de
Inventor
David Ogle
Bryan Daniel Osenbach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112011103893T5 publication Critical patent/DE112011103893T5/de
Application granted granted Critical
Publication of DE112011103893B4 publication Critical patent/DE112011103893B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42348Location-based services which utilize the location information of a target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2094Proximity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Eine Terminal-Einheit, die einem Teilnehmer einer Mehrpunktsitzung zugehörig ist, kann identifiziert werden. Der Mehrpunktsitzung können ein Video- und ein Audiodatenstrom zugehörig sein. Bei der Terminal-Einheit kann es sich um eine Datenverarbeitungseinheit handeln, die einen Audio- und Videoeingang und einen Videoausgang aufweist. Bei der Mehrpunktsitzung kann es sich um eine Konferenz handeln, der eine telefongestützte Sitzung zugehörig ist. Die Standorte einer Terminal-Einheit und einer Konferenzeinheit können ermittelt werden. Der Konferenzeinheit können ein Audioeingang und ein Audioausgang zugehörig sein. Wenn sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet, kann ein Audiodatenstrom der Terminal-Einheit beendet werden, und ein Audiodatenstrom der Konferenzeinheit kann empfangen werden. Ein Videodatenstrom und ein Audiodatenstrom können an dem Audio- und Videoausgang der Konferenzeinheit und der Terminal-Einheit gleichzeitig bereitgestellt werden. Bei dem Video- und dem Audiodatenstrom kann es sich um einen synchronisierten Datenstrom der Sitzung handeln.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf das Gebiet der Mehrpunktkonferenzen und auf Mehrpunktkonferenzen und insbesondere auf das Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer.
  • Hintergrundinformationen
  • Mehrpunktkonferenzen, die ein außerordentlich wertvolles Kommunikationswerkzeug darstellen, ermöglichen mehreren an verschiedenen Orten befindlichen Personen an einer gemeinsamen Sitzung teilzunehmen. Üblicherweise haben Mehrpunktkonferenzen die Form von Videokonferenzen, die eine visuelle Komponente und eine Audio-Komponente beinhalten. Die visuelle Komponente enthält häufig eine Kamera zum Aufnehmen von Videosignalen und eine Anzeige zum Darstellen der aufgenommenen Videosignale. Die Audio-Komponente enthält üblicherweise ein Mikrofon zum Aufzeichnen von Audiosignalen (z. B. Sprache) und einen Lautsprecher zum Wiedergeben der aufgezeichneten Audiosignale. Häufig wird eine Mehrpunkt-Steuereinheit (MCU) verwendet, damit mehrere Personen an einem Standort (z. B. Vorstandsetage) unter Verwendung einer zentralisierten Terminal-Einheit (z. B. eines Konferenztelefons) miteinander kommunizieren können.
  • In der veröffentlichten US-Patentanmeldung 2009/0033737 A1 (Goose, S. u. a. "Method and System for Video Conferencing in a Virtual Environment", 5. Februar 2009), werden ein Verfahren ein System zum Empfangen eines ersten Videosignals bei einem ersten Client und eines zweiten Videosignals bei einem zweiten Client beschrieben. Das empfangene erste Videosignal und ein Bild eines Konferenzraums werden bei dem ersten Client verknüpft, um ein erstes modifiziertes Videosignal zu erzeugen, das das Bild der ersten Person in dem Konferenzraum aufweist. Das empfangene zweite Videosignal und ein Bild eines Konferenzraums werden bei dem zweiten Client verknüpft, um ein zweites modifiziertes Videosignal zu erzeugen, das das Bild der zweiten Person in dem Konferenzraum aufweist.
  • Eines der Hauptprobleme besteht bei diesen Systemen darin, dass sie am gleichen Ort befindliche Personen nicht berücksichtigen, die unabhängige benutzerbezogene Audio/Video-Lösungen verwenden, um an einer bestimmten Videokonferenz aktiv teilzunehmen. Bei einer am gleichen Ort befindlichen Anordnung in einem Konferenzraum können z. B. Tonstörungen von anderen Benutzern eine erhebliche Verschlechterung eines Telefongesprächs bewirken. Der vom Laptop-Lautsprecher abgestrahlte Schall eines Benutzers kann von dem Mikrofon des Laptops eines anderen Benutzers aufgenommen werden und für alle Benutzer, die an der Konferenz teilnehmen, eine Rückkopplung oder ein Echo bewirken.
  • Ein weiteres, eher untergeordnetes Problem besteht in einer begrenzten Anzahl von Audiokanälen, die für eine vorhandene Konferenz zur Verfügung stehen. Derzeit können Benutzer, die sich am gleichen Ort befinden, nicht von dem Vorteil einer einzigen Audioquelle zum Freigeben von Ressourcen profitieren, um die Skalierbarkeit der Lösung zu erhöhen, während gleichzeitig die Inanspruchnahme der Ressourcen verringert wird.
  • Es besteht deswegen nach dem Stand der Technik ein Bedarf, sich den oben genannten Problemen zu widmen
  • Zusammenfassung
  • Ein Aspekt der vorliegenden Erfindung kann ein Verfahren, ein Computerprogrammprodukt, ein System und eine Vorrichtung zum Verbessern von Mehrpunkt-Konferenzen beinhalten. Bei diesem Aspekt kann eine Terminal-Einheit, die einem Teilnehmer der Mehrpunktsitzung zugehörig ist, identifiziert werden. Mit der Mehrpunktsitzung können ein Video- und ein Audiosignal-Datenstrom verbunden sein. Bei der Terminal-Einheit kann es sich um eine Datenverarbeitungseinheit handeln, die einen Audio- und einen Videoeingang und einen Videoausgang aufweist. Bei der Mehrpunktsitzung kann es sich um eine Konferenz mit einer zugehörigen Telefonsitzung handeln. Die Standorte der Terminal-Einheit und einer Konferenzeinheit können ermittelt werden. Die Konferenzeinheit kann mit einem Audioeingang und einem Audioausgang ausgestattet sein. Wenn sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet, kann der Audiodatenstrom der Terminal-Einheit beendet und ein Audiodatenstrom der Konferenzeinheit empfangen werden. Ein Videosignal-Datenstrom und ein Audiosignal-Datenstrom können an dem Audio- und Videoausgang der Konferenzeinheit und der Terminal-Einheit gleichzeitig übergeben werden. Bei dem Video- und dem Audiodatenstrom kann es sich um einen synchronisierten Datenstrom der Sitzung handeln.
  • Ein weiterer Aspekt der vorliegenden Erfindung kann ein System zum Verbessern der Mehrpunktkonferenz beinhalten, das eine Präsenz-Maschine, einen Bridge-Manager und eine Abbildungsstruktur aufweist. Die Präsenz-Maschine kann den Standort einer Terminal-Einheit ermitteln, die an einer Mehrpunktsitzung beteiligt ist. Der Terminal-Einheit können ein Audiodatenstrom und ein Videodatenstrom zugehörig sein. Bei der Mehrpunktsitzung kann es sich um eine Konferenz mit einer Telefonsitzung handeln. Der Bridge-Manager kann der Sitzung eine Konferenzeinheit hinzufügen und aus dieser entfernen, wobei zu der Konferenzeinheit ein Audiodatenstrom gehört. Die Abbildungsstruktur kann eine Konferenzeinheit mit einer eindeutigen Kennung und/oder einem Standort verknüpfen.
  • Aus einem weiteren Aspekt betrachtet stellt die vorliegende Erfindung ein Computerprogrammprodukt zum Verbessern von Mehrpunkt-Konferenzen bereit, wobei das Computerprogrammprodukt aufweist: ein computerlesbares Speichermedium, das durch eine Verarbeitungsschaltung gelesen werden kann und Befehle für die Ausführung durch die Verarbeitungsschaltung speichert, um ein Verfahren zum Ausführen der Schritte der Erfindung auszuführen.
  • Aus einem weiteren Aspekt betrachtet stellt die vorliegende Erfindung ein Computerprogramm bereit, das auf einem computerlesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers geladen werden kann und Software-Codeabschnitte aufweist, um die Schritte der Erfindung auszuführen, wenn das Programm auf einem Computer läuft.
  • Kurzbeschreibung der Zeichnungen
  • Die vorliegende Erfindung wird nun unter Bezugnahme auf bevorzugte Ausführungsformen lediglich beispielhaft beschrieben, wie in den folgenden Figuren dargestellt:
  • 1 ist ein Ablaufplan, der ein Verfahren zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt;
  • 2 ist ein schematisches Blockschaubild, das ein System zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt; und
  • 3 ist ein schematisches Blockschaubild, das eine Gruppe von Schnittstellen zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt.
  • Genaue Beschreibung der Erfindung
  • Wenn eine Person eine persönliche Einheit (z. B. ein Laptop) verwendet, um an einer Mehrpunkt-Konferenzsitzung am gleichen Ort wie die Terminal-Einheit (z. B. im gleichen Raum) teilzunehmen, können Probleme entstehen. Ein bekanntes Problem ist die Verschlechterung der Audioqualität infolge einer akustischen Rückkopplung. Zum Beispiel kann der abgestrahlte Schall vom Laptop-Lautsprecher einer Person in das Laptop-Mikrofon einer anderen Person gelangen und eine Rückkopplung oder ein Echo für alle Benutzer bewirken, die an der Konferenz teilnehmen. Daher muss die Person entweder die Verwendung der persönlichen Einheit beenden oder ihren Aufenthaltsort wechseln. In vielen Fällen können diese Lösungen die Sitzung nachteilig beeinflussen und für die vorhandene Infrastruktur unvorteilhaft sein, um flexible Sitzungskonfigurationen zu ermöglichen.
  • Die vorliegende Offenbarung ist eine Lösung zum Verbessern der Skalierbarkeit einer Mehrpunkt-Konferenz für sich am gleichen Ort befindliche Teilnehmer. Bei der Lösung kann eine Mehrpunktsitzung eine zentrale Konferenzeinheit nutzen, um Audiokanäle für alle Terminal-Einheiten (z. B. Laptop), die sich in der Nähe der Konferenzeinheit befinden, zusammenzuführen. Das heißt, eine in der Nähe befindliche Konferenzeinheit (z. B. ein Konferenztelefon) kann verwendet werden, um Audiosignale zu übermitteln, während die Terminal-Einheit verwendet werden kann, um Videosignale zu übermitteln. Daher können gemäß der Offenbarung die Gesamtzahl von Audiokanälen für die Sitzung verringert, die Skalierbarkeit verbessert und die Nutzung von Ressourcen verringert werden. In einer Ausführungsform kann die Lösung eine Komponente einer Architektur mit dem Protokoll Voice-over-Internet sein.
  • In einer Ausführungsform kann die Lösung bei einer Sitzung verwendet werden, die Möglichkeiten des Umschaltens von Videosignalen (z. B. Präsentation mit aktivem Sprecher) umsetzt. In der Ausführungsform können die von einer in der Nähe befindlichen Konferenzeinheit empfangenen Audiosignale analysiert werden, um einen aktiven Sprecher festzulegen, bei dem eine Auswahl zwischen einem proprietären und/oder einem herkömmlichen Audiodatenstrom möglich ist.
  • Wie dem Fachmann klar sein wird, können Aspekte der vorliegenden Erfindung als System, Verfahren oder Computerprogrammprodukt ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung die Form einer reinen Hardware-Ausführungsform, einer reinen Software-Ausführungsform (die Firmware, residente Software, Mikrocode usw. enthält) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hier alle allgemein als ”Schaltung”, ”Modul” oder ”System” bezeichnet werden können. Des Weiteren können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, die computerlesbaren Programmcode, der darauf verkörpert ist, aufweisen.
  • Jede Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann z. B. ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -vorrichtung oder -einheit oder jede geeignete Kombination des Vorhergehenden sein, ist jedoch nicht auf diese beschränkt. Zu spezifischeren Beispielen (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums würde Folgendes gehören: eine elektrische Verbindung mit einer oder mehreren Leitungen, eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), ein löschbarer programmierbarer Festwertspeicher (EPROM oder Flash-Speicher), ein Lichtwellenleiter, ein tragbarer Compactdisk-Festwertspeicher (CD-ROM), eine optische Speichereinheit, eine magnetische Speichereinheit oder jede geeignete Kombination des Vorhergehenden. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium jedes materielle Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung enthalten oder speichern kann.
  • Ein computerlesbares Signalmedium kann ein verbreitetes Datensignal mit einem computerlesbaren Programmcode, der darin z. B. im Basisband oder als Teil einer Trägerwelle verkörpert ist, enthalten. Ein derartiges verbreitetes Signal kann jede von einer Vielzahl von Formen annehmen, zu denen elektromagnetische, optische Formen oder jede geeignete Kombination hiervon gehören, die jedoch nicht darauf beschränkt sind. Ein computerlesbares Signalmedium kann jedes computerlesbare Medium sein, das kein computerlesbares Speichermedium ist und ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung kommunizieren, verbreiten oder transportieren kann.
  • Programmcode, der auf einem computerlesbaren Medium verkörpert ist, kann unter Verwendung jedes geeigneten Mediums übertragen werden, wozu drahtlose, leitungsgestützte, Lichtwellenleiterkabel-, HF-Medien oder jede geeignete Kombination aus dem Vorhergehenden gehören, die jedoch nicht auf diese beschränkt sind. Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Erfindung kann in jeder Kombination aus einer oder mehreren Programmiersprachen geschrieben sein, darunter eine objektorientierte Programmiersprache wie Java®, Smalltalk, C++ oder dergleichen und herkömmliche prozedurale Programmiersprachen wie etwa die Programmiersprache ”C” oder ähnliche Programmiersprachen. Der Programmcode kann nur auf dem Computer eines Benutzers, teilweise auf dem Computer eines Benutzers, als ein selbstständiges Software-Paket, teilweise auf dem Computer eines Benutzers und teilweise auf einem fernen Computer oder nur auf dem fernen Computer oder Server ausgeführt werden. In dem zuletzt genannten Szenario kann der ferne Computer mit dem Computer des Benutzers durch jeden Netzwerktyp verbunden sein, darunter ein Lokalbereichs-Netzwerks (LAN) oder ein Weitbereichs-Netzwerks (WAN), oder die Verbindung kann zu einem externen Computer (z. B. über das Internet unter Verwendung eines Internet-Dienstanbieters) hergestellt werden.
  • Java und alle auf Java beruhenden Handelsmarken und Logos sind Handelsmarken oder registrierte Handelsmarken von Oracle und/oder deren Konzerngesellschaften.
  • Aspekte der vorliegenden Erfindung sind hier unter Bezugnahme auf Ablaufplan-Darstellungen und/oder Blockschaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es ist klar, dass jeder Block der Ablaufplan-Darstellungen und/oder Blockschaubilder und Kombinationen von Blöcken in den Ablaufplan-Darstellungen und/oder Blockschaubildern durch Computerprogrammbefehle umgesetzt werden können. Diese Computerprogrammbefehle können einem Prozessor eines Mehrzweck-Computers, eines speziellen Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu bilden, so dass Befehle, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, Mittel zum Umsetzen der Funktionen/Wirkungen, die in dem Block oder den Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind, erzeugen.
  • Diese Computerprogrammbefehle können außerdem in einem computerlesbaren Medium gespeichert sein, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Einheiten anweisen kann, in einer bestimmten Weise zu funktionieren, so dass die in dem computerlesbaren Medium gespeicherten Befehle einen Herstellungsgegenstand produzieren, wozu Befehle gehören, die die Funktion/Wirkung umsetzen, die in dem Block/den Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind.
  • Die Computerprogrammbefehle können außerdem in einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder andere Einheiten geladen werden, um eine Reihe von Operationsschritten zu bewirken, die auf dem Computer, der anderen programmierbaren Datenverarbeitungsvorrichtung oder anderen Einheiten ausgeführt werden sollen, um einen mittels Computer umgesetzten Prozess zu erzeugen, so dass die Befehle, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Prozesse zum Umsetzen der Funktionen/Wirkungen, die in dem Block oder Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind, bereitstellen.
  • 1 ist eine Ablaufplan-Darstellung, die ein Verfahren 100 zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfindungsgemäßen Anordnungen veranschaulicht. Im Verfahren 100 kann eine Konferenzeinheit (z. B. ein Konferenztelefon) verwendet werden, um die Menge von Audiodatenströmen einer Mehrpunktsitzung für sich in der Nähe befindliche Einheiten zu verringern. Der hier verwendete Ausdruck am gleichen Ort befindlich kann das Vorhandensein einer Terminal-Einheit (z. B. eines Laptops) in der Nähe einer Konferenzeinheit (z. B. eines Konferenztelefons), das bei einer Mehrpunktsitzung zum Einsatz kommt, bedeuten. Bei einer Mehrpunktsitzung kann es sich um einen semipermanenten, interaktiven Datenaustausch zwischen drei oder mehr Datenübertragungseinheiten handeln. Eine Mehrpunktsitzung kann z. B. eine Konferenzschaltung zwischen vier Teilnehmern sein, die jeweils einen Laptop verwenden, um miteinander zu kommunizieren. Die Mehrpunktsitzung kann eine Audiokomponente, eine Videokomponente und dergleichen enthalten. Die Mehrpunktsitzung kann eine Telefonkonferenz, eine Videokonferenz, eine Netzkonferenz und dergleichen sein.
  • Der Ausdruck Mehrpunktsitzung wird hier im Zusammenhang mit Technologien des Protokolls Voice over Internet (VoIP-Technologien) verwendet. VoIP kann eine oder mehrere Methodiken zum Abwickeln von Datenübertragungen und Mehrpunktsitzungen über Internet-Protokoll bedeuten. Zu VoIP können Kommunikationsprotokolle, Übertragungstechnologien und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Zu Protokollen können Session Initiated Protocol, H.323, IP Multimedia Subsystem (IMS), Real-time Transport Protocol (RTP) und Session Description Protocol gehören, ohne jedoch auf diese beschränkt zu sein.
  • In einem Beispiel kann es sich bei der Konferenzeinheit um eine Telefoneinheit handeln, die Audiosignale während einer Mehrpunktsitzung übermitteln kann. In dem Beispiel kann ein Audiodatenstrom von der Telefoneinheit gleichzeitig mit Videosignalen von der Terminal-Einheit verwendet werden.
  • Im Schritt 105 kann eine Mehrpunktsitzung eingerichtet werden. Die Sitzung kann durch einen Teilnehmer ausgelöst werden, der mit einer Anwendung wie etwa einer Videokonferenz-Anwendung zusammenwirkt, die auf einer Terminal-Einheit ausgeführt wird. Im Schritt 110 können Terminal-Einheiten, die Teilnehmern zugehörig sind, der Sitzung angefügt werden. Die Terminal-Einheiten können anhand einer oder mehrerer eindeutiger Kennungen identifiziert werden. Zu eindeutigen Kennungen können eine Telefonnummer, eine Internet-Protocol-(IP-)Adresse, eine Media-Access-Control-(MAC-)Adresse und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Eine Kontaktliste, die Teilnehmer mit einer Terminal-Einheit verknüpft, kann z. B. geführt werden, wodurch eine schnelle Verwaltung von Teilnehmern und/oder Terminal-Einheiten ermöglicht wird. In einem Beispiel können Terminal-Einheiten über eine Teilnehmerliste, die einem Client (z. B. einer Terminal-Einheit) zugehörig ist, und/oder eine Einladungsliste, die einem Server (z. B. dem Server 230) zugehörig ist, in die Sitzung eingeführt werden.
  • Im Schritt 115 kann eine Terminal-Einheit ausgewählt werden. Die Terminal-Einheit kann anhand eines oder mehrerer Kriterien ausgewählt werden, zu denen Einheitenkennung, Teilnehmerinformationen und dergleichen gehören, die jedoch nicht auf diese beschränkt sind. Wenn im Schritt 120 der Standort der Terminal-Einheit von einem früheren Standort (z. B. während der Anrufauslösung) verschieden ist, kann das Verfahren zum Schritt 125 vorgehen, andernfalls zum Schritt 115 zurückkehren. Der Standort der Terminal-Einheit kann unter Verwendung einer oder mehrerer standortbezogener Technologien ermittelt werden, zu denen ein Global Positioning System (GPS), Assisted GPS (A-GPS), BLUETOOTH, Radio Frequency Identification (RFID) und dergleichen gehören, ohne auf diese beschränkt zu sein. In einem Beispiel kann der Standort der Terminal-Einheit durch wiederholtes Abfragen der Einheit nach einem aktuellen Standort erhalten werden. In einem anderen Beispiel kann der Standort der Terminal-Einheit durch die Terminal-Einheit beim Feststellen einer Standortänderung übermittelt werden.
  • Wenn im Schritt 125 eine in der Nähe befindliche Konferenzeinheit erkannt wird, kann das Verfahren zum Schritt 130 vorgehen, andernfalls zum Schritt 120 zurückkehren. Die Schritte 120, 125 können wiederholt werden, bis eine in der Nähe befindliche Konferenzeinheit (z. B. ein Konferenztelefon) erkannt wird. Die Nähe der Terminal-Einheit zu einer Konferenzeinheit kann anhand einer oder mehrerer konfigurierbaren Einstellungen festgelegt werden. In einem Beispiel kann die Nähe der Terminal-Einheit zu der Konferenzeinheit anhand eines physischen Abstands festgelegt werden. In dem Beispiel können ein oder mehrere Schwellenwerte verwendet werden, um eine Nähe zu begründen. Eine Konferenzeinheit kann sich z. B. in der Nähe befinden, wenn die Terminal-Einheit weniger als 1,22 m (4 feet) entfernt ist. In einer Ausführungsform können herkömmliche Proxemikwerte (z. B. persönlicher Abstand, sozialer Abstand) verwendet werden, um einen Schwellenwert festzulegen.
  • Im Schritt 130 kann die erkannte, in der Nähe befindliche Konferenzeinheit aktiviert werden, wenn die Konferenzeinheit nicht in Gebrauch ist. Ein Aktivieren kann eine oder mehrere Aktionen einschließen, die die Aufnahme der Konferenzeinheit in die Mehrpunktsitzung ermöglichen. In einem Beispiel kann die Kennung der Konferenzeinheit (z. B. Aliasname, Telefonnummer) anhand des Standorts der Terminal-Einheit automatisch ermittelt werden. In dem Beispiel kann die Kennung der Konferenzeinheit verwendet werden, um die Konferenzeinheit der Mehrpunktsitzung automatisch zuzuordnen. Eine Zuordnung kann z. B. verwendet werden, um die Telefonnummer der erkannten, in der Nähe befindlichen Konferenzeinheit zu ermitteln, die verwendet werden kann, um die Konferenzeinheit in die Sitzung einzuwählen. In einem anderen Beispiel kann die Konferenzeinheit manuell aktiviert und über eine oder mehrere Teilnehmeraktionen in die Mehrpunktsitzung eingefügt werden.
  • Im Schritt 135 kann der zu der Terminal-Einheit gehörige Audiodatenstrom beendet werden. Das heißt, Videosignale für einen Teilnehmer können von der Terminal-Einheit erfasst werden, und Audiosignale für den Teilnehmer können von der Konferenzeinheit aufgezeichnet werden. In einem Beispiel kann die Mehrpunktsitzung ein Umschalten von Videosignalen unterstützen, die einen Teilnehmer, der von Interesse ist (z. B. einen aktiven Sprecher), visuell darstellen. In dem Beispiel kann das Umschalten von Videosignalen aufrechterhalten werden, während gleichzeitig die Terminal-Einheit für eine Videosignaleingabe und die Konferenzeinheit für eine Audiosignaleingabe verwendet werden.
  • Wenn im Schritt 140 mehr Terminal-Einheiten vorhanden sind, die an der Sitzung beteiligt sind, kann das Verfahren zum Schritt 115 zurückkehren, andernfalls mit Schritt 145 fortfahren. Die Schritte 115 bis 140 können während der Mehrpunktsitzung ständig ausgeführt werden, wodurch während der Sitzung eine dynamische Ressourcenzuweisung erfolgen kann. Im Schritt 145 kann die Sitzung beendet werden, und das Verfahren kann enden.
  • Hier dargestellte Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht begrenzen. Es sollte klar sein, dass das Verfahren 100 während einer Mehrpunktsitzung in Echtzeit oder Quasi-Echtzeit ausgeführt werden kann. Es sollte klar sein, dass die Schritte 115 bis 140 jederzeit während einer Mehrpunktsitzung ausgeführt werden können. In einem Beispiel können die Schritte 115 bis 140 am Beginn der Sitzung ausgeführt werden. In einem anderen Beispiel können die Schritte 15 bis 140 in Reaktion darauf ausgeführt werden, dass eine Einheit nach dem Beginn einer Sitzung in die Sitzung eingetreten ist.
  • 2 ist eine schematische Darstellung, die ein System 200 zum Verbessern der Skalierbarkeit von Mehrpunktsitzungen für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfinderischen Anordnungen erläutert. Das System 200 kann im Kontext des Verfahrens 100 vorhanden sein. Im System 200 kann die Terminal-Einheit 210 gleichzeitig mit der Konferenzeinheit 250 verwendet werden, damit eine Skalierbarkeit der Mehrpunktsitzung erreicht werden kann. Komponenten des Systems 200 können über ein Netzwerk 270 zum Datenaustausch verbunden werden. In einer Ausführungsform kann das System 200 einem herkömmlichen System entsprechen, das für das Voice-over-Internet-Protokoll (VOIP) tauglich ist.
  • So wie hier dargestellt, kann es sich bei der Sitzung 236 um eine Mehrpunktsitzung in Verbindung mit einer Datenverarbeitungseinheit 210, 230, 250 handeln. Es sollte klar sein, dass eine Datenverarbeitungseinheit 210 mehrere Datenverarbeitungseinheiten enthalten kann, die durch Teilnehmer (z. B. handelnde Personen) der Sitzung 236 betrieben werden. Vier Teilnehmer können z. B. persönliche Laptops (z. B. Videosignale) und ein Konferenztelefon (z. B. Audiosignale) verwenden, wobei sie während einer Mehrpunktsitzung einen Konferenzraum belegen. Die Sitzung 236 kann Sitzungsinformationen 237, einen Sitzungsverlauf, eine Sitzungskonfiguration und dergleichen enthalten.
  • Bei dem Videosignal 262 kann es sich um ein digital codiertes Eingabeelement handeln, das vom Videosignaleingang 215 der Komponente erhalten wird. Um das Videosignal 262 zu charakterisieren, können Vollbilder pro Sekunde, Verschachtelung, Auflösung, Bildformat, Farbraum, Komprimierung, Bitrate und dergleichen herangezogen werden, ohne jedoch auf diese beschränkt zu sein. Das Videosignal 262 kann den Bedingungen eines oder mehrerer herkömmlicher und/oder proprietärer Codierformate genügen, zu denen H.264, Motion Picture Expert Group 4 (MPEG-4), H.261, H.263 und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein.
  • Bei dem Audiosignal 260 kann es sich um ein digital codiertes Eingabeelement handeln, das vom Audioeingang 252 der Komponente empfangen wird. Das Audiosignal 260 kann durch Abtastrate, Dynamikbereich, Kompression und dergleichen charakterisiert werden, ohne auf diese beschränkt zu sein. Das Audiosignal 260 kann den Bedingungen eines oder mehrerer herkömmlicher und/oder proprietärer Formate genügen, zu denen MPEG-4, Adaptive Multi-Rate (AMR), Advanced Audio Coding (AAC), Enhanced Variable Rate CODEC (EVRC), 3GPP und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform kann das Audiosignal 260 empfangen, codiert und in Echtzeit oder Quasi-Echtzeit zum Mehrpunkt-Server 230 übertragen werden.
  • Bei der Konferenzeinheit 250 kann es sich um eine zur Mehrpunktsitzung gehörende Hardware/Software-Komponente handeln, wodurch das Aufzeichnen und Wiedergeben des Audiosignals ermöglicht wird. Die Einheit 250 kann einen Audioeingang 252, einen Audioausgang 254, eine Schnittstelle 256, einen digitalen Signalprozessor (DSP), einen Speicher und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Die Einheit 250 kann ein VoIP-Telefon, ein Telepräsenz-System und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. In dem Beispiel kann die Einheit 250 ein Hardware-Telefon, ein Software-Telefon und jede Kombination hiervon sein. In einem anderen Beispiel kann die Einheit ein Videotelefon mit Konferenzfähigkeit sein. In noch einem anderen Beispiel kann die Einheit eine Komponente eines Videokonferenz-Systems sein. Es sollte klar sein, dass die Einheit Videokomponenten (z. B. Kamera, Anzeige) enthalten kann, die selektiv ausgeschaltet werden können.
  • Bei dem Audioeingang 252 kann es sich um eine oder mehrere Hardware/Software-Komponenten handeln, die Schallwellen (z. B. Sprache) empfangen können. Der Eingang 252 kann ein dynamisches Mikrofon, ein piezoelektrisches Mikrofon und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Der Audioeingang 252 kann das von in der Nähe befindlichen Teilnehmern eingegebene Audiosignal empfangen, das als Audiosignal 260 zum Server 230 übermittelt wird. In einem Beispiel kann das Audiosignal 260 vor der Übertragung verarbeitet werden. Eine Verarbeitung kann ein Ausblenden eines Störsignals, eine Verschlüsselung und dergleichen bedeuten, ist jedoch nicht auf diese beschränkt.
  • Bei dem Audioausgang 254 kann es sich um eine oder mehrere Hardware/Software-Komponenten handeln, die Schallwellen abstrahlen können. Der Audioausgang 254 kann eine Ausgabeeinheit wie etwa ein Lautsprecher sein. Der Audioausgang kann ein (nicht gezeigtes) Audiosignal übermitteln, das vom Mehrpunkt-Server 230 empfangen wird, der der Sitzung 236 zugehörig ist.
  • Bei der Schnittstelle 256 kann es sich um eine Hardware/Software-Komponente zum Zusammenwirken mit der Konferenzeinheit 250 handeln. Die Schnittstelle 256 kann Eingabekomponenten, Ausgabekomponenten und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Zu Eingabekomponenten können Tastatur, Tastenblock (z. B. Wählblock) und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Zu Ausgabekomponenten können Lautsprecher, Anzeige und dergleichen gehören, sind jedoch nicht auf diese beschränkt. In einer Ausführungsform kann die Schnittstelle 256 verwendet werden, um eine Einheit 250 in eine Mehrpunktsitzung 236 manuell einzufügen. In einer Ausführungsform kann die Einheit 250 für eine Audioeingabe verwendet werden und die Einheit 210 kann für eine gleichzeitige Videosignaleingabe verwendet werden.
  • Bei dem Mehrpunkt-Server 230 kann es sich um eine Hardware/Software-Komponente zum Verknüpfen von Video- und Audiosignalen handeln, die der Sitzung 236 zugehörig sind. Der Mehrpunkt-Server 230 kann einen Bridge-Manager 232, eine Präsenz-Maschine 234, eine A/V-Maschine 235, eine Sitzung 236, Konfigurationseinstellungen 238, einen Datenspeicher 240 und dergleichen enthalten, ohne auf diese beschränkt zu sein. In einem Beispiel kann der Mehrpunkt-Server eine Komponente eines H.323-Gatekeeper sein. In einem anderen Beispiel kann der Mehrpunkt-Server eine Komponente einer Mehrpunkt-Steuereinheit (MCU) sein. In einem Beispiel kann der Server 230 ein Netzwerkelement in einem Lokalbereichs-Netzwerk (LAN) oder einem Weitbereichs-Netzwerk (WAN) sein. In einer Ausführungsform kann der Mehrpunkt-Server 230 eine Komponente von IBM® Lotus® Unified Communications and Collaboration (UCC)-Software sein. Es sollte klar sein, dass die Komponenten 232 bis 240 optionale Komponenten sein können.
  • Bei dem Bridge-Manager 232 kann es sich um eine Hardware/Software-Komponente zum Verwalten der Steuerung der Sitzung 236 handeln. Zu Funktionalitäten des Managers 232 können ein Auslösen der Sitzung 236, ein Beenden der Sitzung 236, ein Manipulieren der Sitzungswechselwirkung der Einheit 210, ein Abwickeln der Sitzungswechselwirkung der Einheit 250, Adressenübersetzung, Protokollumsetzung, Anrufmanagement, Überprüfen der Identität, Verschlüsselung und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einem Beispiel kann der Manager 232 eine Adresse der Konferenzeinheit 250 automatisch wählen und die Einheit der Sitzung 236 zuordnen. In dem Beispiel kann der Manager 232 der Terminal-Einheit 210 signalisieren, die Audiosignaleingabe zu beenden und die Konferenzeinheit 250 veranlassen, das Empfangen einer Audiosignaleingabe zu beginnen.
  • Die Präsenz-Maschine 234 kann eine Hardware/Software-Entität zum Verfolgen des Standorts der Einheit 210 sein. Die Präsenz-Maschine 234 kann Präsenz-Informationen 237 für jeden Teilnehmer, der der Einheit 210 zugehörig ist, überwachen. Die Maschine 234 kann so konfiguriert sein, dass sie auf Zustände und/oder Standorte von einem oder mehreren Teilnehmern anspricht. In einer Ausführungsform kann die Maschine 234 die Einheit 210 veranlassen, das Empfangen einer Audiosignaleingabe von einem Teilnehmer zu beenden, falls sie sich in der Nähe der Audioeinheit 250 befindet, und das Erfassen einer Audiosignaleingabe auszulösen, falls sie sich nicht in der Nähe der Audioeinheit 250 befindet. In einem Beispiel kann die Präsenz-Maschine 234 eine externe Ressource sein (z. B. Präsenz-Server).
  • Bei Präsenz-Informationen 237 kann es sich um einen oder mehrere Datensätze handeln, die der Terminal-Einheit 210 der Sitzung 236 zugehörig sind. Zu Präsenz-Informationen 237 können Standort, Benutzerstatus und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Zu dem Standort kann ein geografischer Standort, Koordinaten (z. B. Kartesische Koordinaten), eine Zone und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Präsenz-Informationen 237 können durch die Präsenz-Maschine 234 automatisch verbreitet werden. Die Informationen 237 können verwendet werden, um zu ermitteln, ob sich eine Terminal-Einheit in der Nähe einer Konferenzeinheit 260 befindet. Die Informationen 237 können z. B. mit bekannten Standorten von Konferenzeinheiten verglichen werden, um zu ermitteln, ob sich ein Teilnehmer in der Nähe eines Konferenztelefons befindet.
  • Bei der A/V-Maschine 235 kann es sich um eine Hardware/Software-Komponente zum Synchronisieren des Audiosignals 260 auf das Videosignal 262 handeln. Die Maschine 235 kann herkömmliche und/oder proprietäre Synchronisationsmechanismen verwenden, zu denen Zeit-Stempel, relativer Zeit-Stempel und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform kann die Maschine 235 synchronisierte A/V-Signale 246 erzeugen, die an die Einheiten 210, 260 übermittelt werden können. In der Ausführungsform können synchronisierte A/V-Signale 246 in Echtzeit an geeignete Einheiten 210, 260 übermittelt werden. In einem Beispiel kann die Maschine 235 die Funktionalität eines Audiosignal-Synchronizers verwenden, damit eine Synchronisation zwischen Ton- und Videosignal (Lippensynchronisation) erreicht werden kann. Die Maschine 235 kann in Echtzeit oder Quasi-Echtzeit betrieben werden, wodurch erreicht wird, dass die Funktionalität des Systems 200 transparent ist. Die Maschine 235 kann einen oder mehrere herkömmliche und/oder proprietäre Mechanismen verwenden, um Latenzzeit, Jitter und andere Synchronisationsprobleme zu mindern, die beim Anschluss an ein Netzwerk auftreten können.
  • In einer Ausführungsform kann die Maschine 235 verwendet werden, um einen aktiven Sprecher aus einem Datenstrom des Audiosignals 260 zu ermitteln. In der Ausführungsform kann die Maschine 235 einen oder mehrere intelligente Algorithmen verwenden, um den besten aktiven Sprecher für den Datenstrom des Audiosignals 260 zu ermitteln. Algorithmen können eine Audiosignalanalyse (z. B. Sprachverarbeitung) ausführen, wozu Amplitudenanalyse, Äußerungsdauer und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein.
  • Bei den synchronisierten A/V-Signalen 246 kann es sich um einen Datensatz aus synchronisierten Audiosignalen und Videosignalen handeln, der durch die Maschine 235 erzeugt wird. Die synchronisierten A/V-Signale 246 können einen Audiodatenstrom, einen Videosignal-Datenstrom, Präsenz-Informationen, Metadaten und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform können die A/V-Signale 246 an geeignete Einheiten 210, 260 individuell übertragen werden. In dem Beispiel kann der Videosignal-Datenstrom der A/V-Signale 246 zur Einheit 210 übermittelt werden, und der Audiodatenstrom der A/V-Signale 246 kann gleichzeitig zur Konferenzeinheit 260 übertragen werden. Das heißt, die Audio- und Video-Ausgabe ist synchronisiert, was zu einer Lösung führt, die herkömmlichen Mehrpunktsitzungen ähnlich ist.
  • Bei den Konfigurationseinstellungen 238 kann es sich um eine oder mehrere Optionen zum Manipulieren des Verhaltens des Servers 230 handeln. Zu den Konfigurationseinstellungen 238 können Benutzer-Konfigurationseinstellungen, Systemeinstellungen und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Die Einstellungen 238 können eine Sitzungskonfiguration, Wählpläne, Anruf-Richtlinien, Richtlinien der Dienstgüte (Quality of Service, QoS), Alias-Informationen und dergleichen enthalten, sind jedoch nicht auf diese beschränkt.
  • Bei dem Datenspeicher 240 kann es sich um ein materielles Speichermedium handeln, um eine dauerhaft zu machen. Der Datenspeicher 240 kann ein Relational Database Management System (RDMBS), ein Object Oriented Database Management System (OODBMS) und dergleichen beinhalten, ist jedoch nicht auf diese beschränkt. Der Datenspeicher 240 kann eine Komponente eines Network Attached Storage (NAS), Storage Attached Network (SAN) und dergleichen sein.
  • Die kann ein Datensatz sein, der eine Verknüpfung von Terminal-Einheit und Konferenzeinheit in der Sitzung 236 ermöglicht. Die kann eine Terminal-Einheiten-Kennung, einen Terminal-Einheiten-Standort, Terminal-Einheiten-Eigenschaften, Teilnehmer-Informationen, Sitzungs-Informationen, eine Konferenzeinheiten-Kennung, einen Konferenzeinheiten-Standort, Konferenzeinheiten-Eigenschaften und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. Die kann verwendet werden, um eine Terminal-Einheit einer Konferenzeinheit zuzuordnen, um eine gleichzeitige Verwendung von Terminal-Einheit (z. B. Videosignal) und Konferenzeinheit (z. B. Audiosignal) zu ermöglichen. Der Abbildungseintrag 44 kann z. B. einen Tablet-Computer (z. B. Dev_A) einem Konferenztelefon (z. B. ConfD_A) zuordnen, um eine gleichzeitige Verwendung von Tablet- und Telefon-Ressourcen zu ermöglichen. Die kann automatisch und/oder manuell eingerichtet werden. In einem Beispiel kann die ständig in Echtzeit aktualisiert werden, um eine rasche Anpassung an Änderungen des Standorts der Terminal-Einheit 210 zu ermöglichen.
  • Bei der Terminal-Einheit 210 kann es sich um eine bei einer Mehrpunktsitzung verwendete Datenverarbeitungseinheit handeln. Bei der Terminal-Einheit 210 kann es sich um einen Desktop-Computer, einen Laptop-Computer, eine Tablet-Datenverarbeitungseinheit, ein Mobiltelefon, einen persönlichen digitalen Assistenten (PDA), eine Voice-over-Internet-Protokoll-fähige (VoIP-fähige) Einheit und dergleichen handeln, ohne jedoch auf diese beschränkt zu sein. Die Einheit 210 kann Hardware 211, Software 220 und eine Schnittstelle 224 enthalten, ist jedoch nicht auf diese beschränkt. Die Hardware 205 kann einen Prozessor 212, einen nichtflüchtigen Speicher 211, einen flüchtigen Speicher 213, einen Bus 214, einen Videosignal-Eingang 215, einen Videosignal-Ausgang 216, einen GPS-Empfänger 217, einen Transceiver 218 und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Die Software 220 kann ein Betriebssystem 221, eine Mehrpunkt-Anwendung 222 und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. In einer Ausführungsform kann die Terminal-Einheit 210 ein Laptop-Computer sein, der eine Mehrpunkt-Anwendung 222 ausführt. Es sollte klar sein, dass die Terminal-Einheit 210 Audiosignal-Eingabe/Ausgabe-Komponenten enthalten kann, die jedoch zur Klarheit selektiv weggelassen wurden.
  • Bei dem Prozessor 212 kann es sich um einen Abschnitt eines Datenverarbeitungssystems handeln, der Befehle eines Datenverarbeitungsprogramms (z. B. der Anwendung 222) ausführen kann. Der Prozessor 212 kann eine Zentraleinheit (CPU), einen Mikroprozessor, eine Grafik-Verarbeitungseinheit (GPU) und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. Der Prozessor 212 kann verwendet werden, um Eingaben vom A/V-Eingang 215 und Ausgaben vom A/V-Ausgang 216 zu verarbeiten. Die Verarbeitung kann das Ausblenden von Störsignalen, Pufferung und dergleichen beinhalten, ist jedoch nicht auf diese beschränkt.
  • Bei dem nichtflüchtigen Speicher 211 kann es sich um ein statisches Speichermedium handeln, um Sitzungsdaten (z. B. Konfigurationseinstellungen) im Zusammenhang mit der Sitzung 236 dauerhaft zu machen. Als Speicher 211 kommen ein Flash-Speicher, ein Festplattenlaufwerk und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein.
  • Bei dem flüchtigen Speicher 213 kann es sich um ein dynamisches Speichermedium handeln, um Sitzungsdaten (z. B. eine Videosignal-Eingabe) im Zusammenhang mit der Sitzung 236 vorübergehend dauerhaft zu machen. Als Speicher 213 kommen ein Direktzugriffsspeicher (RAM), ein dynamischer RAM (DRAM), ein statischer RAM (SRAM) und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein.
  • Der Bus 214 kann ein zwischengeschaltetes Teilsystem sein, um die Komponenten 212 bis 218 zum Austausch von Daten zu verbinden. Der Bus 214 kann seriell und/oder parallel sein, wodurch ein schnelles Übertragen von Daten zu und von den Komponenten 212 bis 218 ermöglicht wird. In einem Beispiel kann der Bus 214 Daten von den Komponenten 215, 216 zu Komponenten 212 bis 214, 218 übertragen.
  • Bei dem Videosignal-Eingang 216 kann es sich um eine Hardware-Komponente zum Empfangen von Videosignalen handeln, die von einem Teilnehmer eingegeben werden. Der Videosignal-Eingang 216 kann eine Komponente sein wie etwa eine ladungsgekoppelte Einheit (CCD). In einer Ausführungsform können Daten vom Videosignal-Eingang 216 in Echtzeit oder Quasi-Echtzeit empfangen, codiert und übertragen werden. In der Ausführungsform können empfangene Eingabedaten über den Prozessor 212 codiert und unter Verwendung des Transceivers 218 in Echtzeit als Videosignale 262 zum Server 230 übertragen werden.
  • Bei dem Videosignal-Ausgang 216 kann es sich um eine Hardware-Komponente zum Bereitstellen eines Videosignal-Abschnitts der synchronisierten A/V-Signale 246 im Zusammenhang mit der Sitzung handeln. Der Ausgang 216 kann A/V-Signale 246 vom Mehrpunkt-Server empfangen und den Videosignal-Abschnitt im Ausgang 216 bereitstellen. Das Videosignal eines Teilnehmers kann z. B. in der Schnittstelle der Anwendung 222 (z. B. der Schnittstelle 224) in dem Ausgang 216 bereitgestellt werden. Der Ausgang 216 kann eine Computeranzeige, eine Anzeige einer speziellen Datenübertragungseinheit und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Der Ausgang 216 kann herkömmlichen und/oder proprietären Techniken entsprechen, zu denen Liquid Crystal Display (LCD), Organic Light Emitting Diode (LED) und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein.
  • Bei dem GPS-Empfänger 217 kann es sich um eine Einheit handeln, die GPS-Daten auf der Grundlage eines automatisch ermittelten Standorts oder eines vom Benutzer spezifizierten Standorts empfangen kann. GPS-Daten können Abbildungsdaten, GPS-Koordinatendaten und dergleichen enthalten, sind jedoch nicht auf diese beschränkt. In einem Beispiel kann der GPS-Empfänger 217 eine externe Einheit sein, die mit der Einheit 210 zum Austausch von Daten verbunden ist.
  • Bei dem Transceiver 218 kann es sich um eine Komponente handeln, die einen Austausch von Daten zwischen den Komponenten 230, 250 ermöglicht. Bei dem Transceiver 218 kann es sich um einen Transceiver zur Computervernetzung, einen Hochfrequenz-(HF-)Transceiver und dergleichen handeln.
  • Die Anwendung 222 kann eine Software-Entität sein, die einen Austausch von (nicht gezeigten) Audiosignalen und Videosignalen 262 zum Mehrpunkt-Server 230 ermöglicht. Die Anwendung 222 kann auf den Standort der Einheit 210 anhand einer oder mehrerer individuell anpassungsfähiger Konfigurationen ansprechen. In einem Beispiel kann die Einheit 210 eine Audiosignaleingabe, die der Einheit 210 zugehörig ist, automatisch beenden/aktivieren, wenn sich die Nähe der Einheit 250 ändert. In einer Ausführungsform kann das Beenden/Aktivieren von Audiosignalen auf verbalen Äußerungen beruhen. In einer Konfiguration der Ausführungsform kann die Anwendung 222 Pausen in einem Audiodatenstrom, der durch eine Audiosignal-Eingabekomponente (z. B. Mikrofon) empfangen wird, ermitteln und die Audiosignaleingabe intelligent beenden/aktivieren. In dem Beispiel kann eine Schnittstellen-Benachrichtigung bereitgestellt werden, die einem Teilnehmer meldet, dass der Audiodatenstrom einer in der Nähe befindlichen Einheit 250 verwendet werden kann. In einem Beispiel kann die Anwendung 222 IBM Sametime® Software sein. IBM, Lotus und Sametime sind Warenzeichen von International Business Machines Corporation, die weltweit in vielen Gerichtsbarkeiten registriert sind.
  • Bei dem Netzwerk 270 kann es sich um eine Hardware/Software-Komponente handeln, die einen Austausch von Daten zwischen den Komponenten 210, 230, 250 ermöglicht. Das Netzwerk 270 kann leitungsgestützte Technologien, drahtlose Technologien und jede Kombination hiervon beinhalten, ohne jedoch auf diese beschränkt zu sein. Als leitungsgestützte Technologien kommen verdrillte Leitungen, Koaxialkabel, Lichtwellenleiter und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein. Zu drahtlosen Technologien können zellulare Systeme, ein Personal Communication Service(PCS-)System, ein drahtloses Nachbereichs-Netzwerk (WLAN), terrestrische Mikrowellen und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Das Netzwerk 270 kann Datenübertragungsprotokolle verwenden, zu denen Real-time Transport Protocol (RTP), RTP Control Protocol (RTCP), User Datagram Protocol, Internet-Protocol, H.323, Session Initiated Protocol und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein.
  • Hier dargestellte Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht begrenzen. Das System 200 kann eine Komponente eines verteilten Netzwerks, einer verteilten Datenverarbeitungsumgebung, Cloud-Datenverarbeitungsumgebung und dergleichen sein. Es sollte klar sein, dass die Funktionalität des Systems 200 in einer vorhandenen Mehrpunkt-Architektur umgesetzt werden kann. Es sollte angemerkt werden, dass die Übertragung von Daten des Systems 200 bidirektional und/oder in Echtzeit erfolgen kann. Des Weiteren kann das System 200 eine Wechselwirkung mit einer fremden Software und/oder Mehrpunkt-Konferenzeinheiten ermöglichen, denen die Funktionalität des Umschaltens von Videosignalen fehlen kann.
  • In einem Beispiel kann der Server 230 Ressourcen-Kapazitätsgrenzen automatisch erkennen und relevante Teilnehmer durch eine Schnittstellennachricht benachrichtigen, die an der Einheit 210 (z. B. Schnittstelle 224) bereitgestellt wird. In dem Beispiel kann die Nachricht einem Teilnehmer eine vorgeschlagene in der Nähe befindliche Konferenzeinheit 250 anbieten.
  • Wenn z. B. die Ressourcen des Servers 230 begrenzt sind, können ein oder mehrere Teilnehmer benachrichtigt werden, dass sich im Zusammenhang mit der Sitzung ein Konferenztelefon in der Nähe befindet.
  • 3 ist eine schematische Darstellung, die eine Gruppe von Schnittstellen 310, 340 zum Verbessern der Skalierbarkeit einer Mehrpunktsitzung für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfinderischen Anordnungen veranschaulicht. Die Schnittstelle 310, 340 kann im Kontext des Verfahrens 100 und des Systems 200 vorhanden sein. Bei der Schnittstelle 310, 340 kann es sich um einen Bildschirm handeln, der einem Konfigurationsfenster zugehörig ist. Die Schnittstelle 310, 340 kann clientseitigen Einstellungen, serverseitigen Einstellungen und dergleichen zugehörig sein. In einem Beispiel kann die Schnittstelle 310, 340 in der Schnittstelle 224 bereitgestellt werden. In einem anderen Beispiel kann die Schnittstelle 310, 340 in einer (nicht gezeigten) Schnittstelle bereitgestellt werden, die dem Server 230 zugehörig ist. In einem Beispiel kann die Schnittstelle 310, 340 einer oder mehreren Zonen in einer Netzwerk-Konfiguration zugehörig sein.
  • In der Schnittstelle 310 kann die Konfiguration der Konferenzeinheit eingerichtet und/oder verändert werden. Unter Verändern ist das Hinzufügen einer Konferenzeinheit, das Modifizieren der Konfiguration einer Konferenzeinheit, das Löschen einer Konferenzeinheit und dergleichen zu verstehen, ohne jedoch auf diese beschränkt zu sein. In einem Beispiel kann die Schnittstelle 310 eine serverseitige Einstellung sein, die dem Server 230 zugehörig ist. In dem Beispiel kann die Schnittstelle 310 eine Modifikation der ermöglichen.
  • Im Abschnitt 312 können verfügbare Konferenzeinheiten, die im System 200 registriert sind, bereitgestellt werden. In dem Abschnitt 312 kann eine Auswahl der Konferenzeinheit ausgeführt werden. Die Auswahl einer Konferenzeinheit kann ermöglichen, dass Aktionen 322 bis 324 ausgelöst werden.
  • Das Element 320 kann das automatisierte und/oder manuelle Hinzufügen einer Konferenzeinheit ermöglichen. In einem Beispiel kann das Element 320 einen Pop-up-Dialog bereitstellen, der das Eingeben von Einzelheiten der Konferenzeinheit ermöglicht. In einem anderen Beispiel kann das Element 320 einen Pop-up-Dialog bereitstellen, der eine Reihe von automatisch erfassten Konferenzeinheiten bereitstellt. Wenn eine Konferenzeinheit angefügt wird, kann die Einheit im System 200 registriert und im Abschnitt 312 bereitgestellt werden.
  • Das Element 322 kann eine Modifikation von registrierten Konferenzeinheiten über eine Einheitenauswahl im Abschnitt 312 ermöglichen. Das Element 322 kann ermöglichen, dass eine dynamische Einrichtung von Konferenzeinheiten-Einstellungen ausgeführt wird. In einem Beispiel kann das Element 222 einen Pop-up-Dialog bereitstellen, der aktuelle Einstellungen der Konferenzeinheit zeigt. In dem Beispiel kann eine Benutzereingabe empfangen werden, um Einstellungen der Konferenzeinheit zu ändern. Wenn sich zum Beispiel die Kennung einer Konferenzeinheit ändert, kann das Element 322 verwendet werden, um die Einstellung manuell so zu aktualisieren, dass sie die Änderung wiedergibt.
  • Das Element 324 kann ein Abmelden von Konferenzeinheiten vom System 200 ermöglichen. Das Element 324 kann eine ausgewählte Konferenzeinheit im Abschnitt 312 aus der Darstellung entfernen. In einem Beispiel können Einstellungen der Konferenzeinheit entfernt werden, wenn das Element 324 ausgewählt wird. In einem anderen Beispiel können Einstellungen der Konferenzeinheit automatisch dauerhaft gemacht werden. Das Element 324 kann z. B. verwendet werden, um Konferenzeinheiten zu entfernen, die infolge eines Einheitenfehlers entfernt und/oder ersetzt wurden.
  • In der Schnittstelle 340 können Einstellungen der Terminal-Einheiten-Konfiguration eingerichtet und/oder verändert werden. In der Schnittstelle 340 können Einstellungen 342 bis 346 verwendet werden, wenn eine Terminal-Einheit in die Nähe einer Konferenzeinheit eintritt und/oder diese verlässt. Die Einstellungen 342 bis 346 können dynamisch angewendet werden, um flexible Optionen der Echtzeit-Konfiguration zu ermöglichen. Es sollte klar sein, dass die Schnittstelle 340 nicht auf Terminal-Einheiten-Einstellungen beschränkt ist und Sitzungseinstellungen, Konferenzeinheiten-Einstellungen und dergleichen enthalten kann.
  • Durch die Einstellung 342 können Videosignal-Mechaniken beibehalten werden, wenn eine in der Nähe befindliche Konferenzeinheit verwendet wird. Wenn die Einstellung 342 freigegeben wird, kann das System 200 automatisch die geeignete Videosignal-Umsetzung zur Verwendung in der Sitzung 236 erfassen. Wenn in einem Beispiel das Umschalten eines Videosignals wie etwa eine Funktionalität „aktiver Sprecher” in einer Sitzung verwendet wird, kann das Umschalten des Videosignals unter Verwendung der Einstellung 342 aufrechterhalten werden.
  • Die Einstellung 346 kann eine Benachrichtigung des Benutzers (z. B. des Teilnehmers) ermöglichen, wenn Audiosignaleingaben infolge der Nähe zu einer Konferenzeinheit geändert werden. Die Einstellung 346 kann eine oder mehrere Optionen enthalten, um einen Benutzer zu benachrichtigen, wenn die Audiosignaleingabe in einer Terminal-Einheit beendet und/oder begonnen wird. Zum Beispiel kann ein Ton (z. B. ein Summersignal) bereitgestellt werden, wenn ein Benutzer die nähere Umgebung einer Konferenzeinheit verlässt, und die Audiosignaleingabe wird in der Terminal-Einheit begonnen.
  • Die Einstellung 346 kann ein oder mehrere sich in der Nähe befindliche Konferenzeinheiten, die zur Verfügung stehen, anhand der Nähe zur Terminal-Einheit bereitstellen. In einem Beispiel kann die Einstellung 346 eine manuelle Auswahl von sich in der Nähe befindlichen Konferenzeinheiten ermöglichen. In einem anderen Beispiel kann die Einstellung 346 eine automatische Auswahl einer Konferenzeinheit, die bereitgestellt werden soll, zulassen. Die Einstellung 346 kann z. B. einen Aliasnamen (z. B. Konferenzraum A) von Konferenzeinheiten bereitstellen, wodurch ein Teilnehmer die Konferenzeinheit einfach identifizieren kann.
  • Die hier bereitgestellten Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht einschränken. Bei der Schnittstelle 310, 340 kann es sich um eine grafische Benutzerschnittstelle, eine textgestützte Benutzerschnittstelle, eine sprachgestützte Benutzerschnittstelle, eine Schnittstelle mit gemischten Modi und dergleichen handeln. Die Funktionalität, die in der Schnittstelle 310, 340 ausgedrückt wird, kann in Dateimenüs, Kontextmenüs, Menüleisten, Werkzeugleisten und dergleichen vorhanden sein. Die Schnittstelle 310, 340 kann ein oder mehrere Elemente der grafischen Benutzerschnittstelle enthalten, wozu Kontrollkästchen, Menüauswahl-Dialoge, Comboboxen und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. Die Schnittstelle 310, 340 kann eine Eingabe und/oder eine Auswahl über herkömmliche und/oder proprietäre Mechanismen empfangen, wozu Tastatur, Maus, Fingerbewegungen und dergleichen gehören.
  • Der Ablaufplan und Blockschaubilder in den 1 bis 3 veranschaulichen die Architektur, Funktionalität und den Betrieb von möglichen Umsetzungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in dem Ablaufplan oder Blockschaubildern ein Modul, Segment oder Abschnitt von Code repräsentieren, das/der einen oder mehrere ausführbare Befehle zum Umsetzen der spezifizierten logischen Funktion(en) aufweist. Es sollte außerdem angemerkt werden, dass in einigen alternativen Umsetzungen die in dem Block angegebenen Funktionen nicht in der in den Figuren angegebenen Reihenfolge auftreten können. Zum Beispiel können zwei Blöcke, die nacheinander gezeigt sind, tatsächlich im Wesentlichen gleichzeitig ausgeführt werden oder die Blöcke können gelegentlich in Abhängigkeit von der beteiligten Funktionalität in der umgekehrten Reihenfolge ausgeführt werden. Es wird außerdem angemerkt, dass jeder Block der Blockschaubilder und/oder Ablaufplan-Darstellung und Kombinationen von Blöcken in den Blockschaubildern und/oder der Ablaufplan-Darstellung durch auf spezielle Hardware gestützte Systeme, die die spezifizierten Funktionen oder Wirkungen ausführen, oder Kombinationen aus spezieller Hardware und Computerbefehlen umgesetzt werden können.
  • Wie dem Fachmann klar sein wird, können Aspekte der vorliegenden Erfindung als System, Verfahren oder Computerprogramm oder Computerprogrammprodukt ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung einschließlich der beschriebenen Aspekte von „Software-Komponenten” (z. B. die Komponenten zum Identifizieren, Anfordern, Berechnen, Senden und Migrieren) die Form einer reinen Hardware-Ausführungsform, einer reinen Software-Ausführungsform (die Firmware, residente Software, Mikrocode usw. enthält) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hier alle allgemein als ”Schaltung”, ”Modul” oder ”System” bezeichnet werden können. Des Weiteren können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, die computerlesbaren Programmcode, der darauf verkörpert ist, aufweisen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Goose, S. u. a. ”Method and System for Video Conferencing in a Virtual Environment”, 5. Februar 2009 [0003]

Claims (18)

  1. Verfahren zum Verbessern von Mehrpunkt-Konferenzen, wobei das Verfahren aufweist: Identifizieren einer Terminal-Einheit, die zu einem Teilnehmer einer Mehrpunktsitzung gehört, wobei der Mehrpunktsitzung ein Mehrpunkt-Videodatenstrom und ein Mehrpunkt-Audiodatenstrom zugehörig sind, wobei es sich bei der Terminal-Einheit um eine Datenverarbeitungseinheit handelt, die einen Terminal-Einheiten-Audioeingang, einen Terminal-Einheiten-Videoeingang und einen Terminal-Einheiten-Videoausgang aufweist und wobei es sich bei der Mehrpunktsitzung um eine Konferenz mit einer Telefonsitzung handelt; Ermitteln des Standorts der Terminal-Einheit und einer Konferenzeinheit, wobei die Konferenzeinheit mit einem Konferenz-Audioeingang und einem Konferenz-Audioausgang ausgestattet ist; und Beenden eines Terminal-Einheiten-Audiodatenstroms, der dem Terminal-Einheiten-Audioeingang zugehörig ist, und Empfangen eines Konferenz-Audiodatenstroms von dem Konferenz-Audioeingang in Reaktion darauf, dass sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet; und gleichzeitiges Bereitstellen eines Terminal-Einheiten-Videodatenstroms an dem Terminal-Einheiten-Videoausgang und eines zweiten Konferenz-Audiodatenstroms an dem Konferenz-Audioausgang, wobei der Terminal-Einheiten-Videodatenstrom und der zweite Konferenz-Audiodatenstrom synchronisiert sind, und wobei der Terminal-Einheiten-Audiodatenstrom und der zweite Konferenz-Audiodatenstrom der Mehrpunktsitzung zugehörig sind.
  2. Verfahren nach Anspruch 1, das ferner aufweist: Bereitstellen wenigstens einer vorgeschlagenen Konferenzeinheit in der Nähe des Standort der wenigstens einer Terminal-Einheit.
  3. Verfahren nach Anspruch 2, das ferner aufweist: Zuordnen der wenigstens einen vorgeschlagenen Konferenzeinheit zu der Mehrpunktsitzung.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Mehrpunktsitzung mit der Fähigkeit einer Video-Umschaltung ausgestattet ist, wobei durch die Fähigkeit der Video-Umschaltung ein Teilnehmer-Videodatenstrom, der einem Teilnehmer von Interesse zugehörig ist, optisch angezeigt wird und wobei die Fähigkeit der Video-Umschaltung in Reaktion darauf, dass der Terminal-Einheiten-Audiodatenstrom beendet wird, aufrechterhalten wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt der gleichzeitigen Darstellung eine Lippensynchronisation aufweist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Telefonsitzung einer Sitzung nach dem Voice-over-Internet-Protokoll entspricht.
  7. Verfahren nach einem der vorhergehenden Ansprüche, das ferner aufweist: Empfangen eines zweiten Terminal-Einheiten-Audiodatenstroms von dem Terminal-Einheiten-Audioeingang und eines zweiten Terminal-Einheiten-Videodatenstroms von dem Terminal-Einheiten-Videoeingang in Reaktion darauf, dass sich die Terminal-Einheit nicht in der Nähe der Konferenzeinheit befindet; und Bereitstellen eines dritten Terminal-Einheiten-Videodatenstroms in dem Terminal-Einheiten-Videoausgang und eines dritten Terminal-Einheiten-Audiodatenstroms in dem Terminal-Einheiten-Audioausgang der Terminal-Einheit.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei es sich bei der Konferenzeinheit um eine Telefoneinheit und/oder eine Videotelefoneinheit und/oder ein Telepräsenzsystem handelt.
  9. System zum Verbessern von Mehrpunkt-Konferenzen, wobei das System aufweist: eine Präsenz-Maschine zum Ermitteln des Standorts einer Terminal-Einheit in Verbindung mit einer Mehrpunktsitzung, wobei der Terminal-Einheit ein Terminal-Einheiten-Audiodatenstrom und ein Terminal-Einheiten-Videodatenstrom zugehörig sind, wobei die Mehrpunktsitzung eine Konferenz mit einer Telefonsitzung ist; einen Bridge-Manager zum Hinzufügen oder Entfernen einer Konferenzeinheit zu bzw. aus der Sitzung, wobei der Konferenzeinheit ein Konferenz-Audiodatenstrom zugehörig ist; und eine Abbildungsstruktur zum Verknüpfen der Konferenzeinheit mit einer eindeutigen Kennung und/oder einem Standort.
  10. System nach Anspruch 9, das ferner aufweist: eine A/V-Maschine zum Synchronisieren eines Terminal-Einheiten-Videodatenstroms, der der Terminal-Einheit zugehörig ist, die durch einen Teilnehmer der Mehrpunktsitzung verwendet wird, und eines Konferenz-Audiodatenstroms, der der Konferenzeinheit zugehörig ist, wobei es sich bei dem Konferenz-Audiodatenstrom um Sprache des Teilnehmers handelt.
  11. System nach einem der Ansprüche 9 oder 10, wobei ein Standort der Abbildung ein geografischer Ort und/oder Koordinaten und/oder eine Zone ist.
  12. System nach einem der Ansprüche 9 bis 11, wobei eine eindeutige Kennung der Abbildungsstruktur eine Media-Access-Layer-(MAC-)Adresse und/oder eine Internet-Protocol-(IP-)-Adresse ist.
  13. System nach einem der Ansprüche 9 bis 12, wobei der Bridge-Manager ferner funktionsmäßig in der Lage ist, das Beenden des Terminal-Einheiten-Audiodatenstroms und/oder des Konferenz-Audiodatenstroms auszulösen.
  14. System nach einem der Ansprüche 9 bis 13, wobei die Präsenz-Maschine und/oder der Bridge-Manager und/oder die Abbildungsstruktur einer Mehrpunkt-Steuereinheit zugehörig sind.
  15. System nach einem der Ansprüche 9 bis 14, wobei zu dem Bridge-Manager ein H.323-Gatekeeper gehört.
  16. System nach Anspruch 9, das ferner aufweist: ein Mittel zum Beenden eines Terminal-Einheiten-Audiodatenstroms, der dem Terminal-Einheiten-Audioeingang zugehörig ist; ein Mittel zum Empfangen eines Konferenz-Audiodatenstroms von dem Konferenz-Audioeingang in Reaktion darauf, dass sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet; und ein Mittel zum Bereitstellen eines Terminal-Einheiten-Videodatenstroms an dem Terminal-Einheiten-Videoausgang und eines Konferenz-Audiodatenstroms an dem Konferenz-Audioausgang, wobei der Terminal-Einheiten-Videodatenstrom und der Konferenz-Audiodatenstrom synchronisiert sind und wobei der Terminal-Einheiten-Videodatenstrom und der zweite Konferenz-Audiodatenstrom der Mehrpunktsitzung zugehörig sind.
  17. Computerprogrammprodukt zum Verbessern von Mehrpunkt-Konferenzen, wobei das Computerprogrammprodukt ein computerlesbares Speichermedium aufweist, das durch eine Verarbeitungsschaltung gelesen werden kann und Befehle zur Ausführung durch die Verarbeitungsschaltung speichert, um ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.
  18. Computerprogramm, das auf einem computerlesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers ladbar ist und Software-Codeabschnitte aufweist, um das Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen, wenn das Programm auf einem Computer ausgeführt wird.
DE112011103893.3T 2010-11-24 2011-11-22 Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer Expired - Fee Related DE112011103893B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/953,556 US8416281B2 (en) 2010-11-24 2010-11-24 Multipoint conference scalability for co-located participants
US12/953,556 2010-11-24
PCT/EP2011/070645 WO2012069456A1 (en) 2010-11-24 2011-11-22 Improving multipoint conference scalability for co-located participants

Publications (2)

Publication Number Publication Date
DE112011103893T5 true DE112011103893T5 (de) 2013-09-19
DE112011103893B4 DE112011103893B4 (de) 2015-02-26

Family

ID=45092336

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011103893.3T Expired - Fee Related DE112011103893B4 (de) 2010-11-24 2011-11-22 Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer

Country Status (5)

Country Link
US (2) US8416281B2 (de)
CN (1) CN103229495B (de)
DE (1) DE112011103893B4 (de)
GB (1) GB2499759B (de)
WO (1) WO2012069456A1 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9432631B2 (en) * 2011-04-04 2016-08-30 Polaris Wireless, Inc. Surveillance system
GB2520451B (en) 2012-03-20 2015-09-30 Media Network Services As Data distribution system
TWI513320B (zh) * 2012-06-25 2015-12-11 Hon Hai Prec Ind Co Ltd 視訊會議裝置及其唇形同步的方法
JP5973289B2 (ja) * 2012-08-28 2016-08-23 京セラ株式会社 携帯端末、音声制御プログラムおよび音声制御方法
CN103684819A (zh) * 2012-09-07 2014-03-26 中兴通讯股份有限公司 配置参数的获取方法及装置
CN104469255A (zh) 2013-09-16 2015-03-25 杜比实验室特许公司 改进的音频或视频会议
US10122896B2 (en) 2012-12-14 2018-11-06 Avaya Inc. System and method of managing transmission of data between two devices
US8970651B2 (en) * 2012-12-14 2015-03-03 Avaya Inc. Integrating audio and video conferencing capabilities
US10320803B2 (en) * 2012-12-28 2019-06-11 Dish Technologies Llc Determining eligibility for multiple client media streaming
JP2014165888A (ja) * 2013-02-27 2014-09-08 Saxa Inc 会議端末、会議サーバ、会議システム、およびプログラム
JP2014165887A (ja) * 2013-02-27 2014-09-08 Saxa Inc 会議端末、およびプログラム
US9438993B2 (en) 2013-03-08 2016-09-06 Blackberry Limited Methods and devices to generate multiple-channel audio recordings
US9210198B2 (en) 2013-05-31 2015-12-08 Vonage Networks Llc Method and apparatus for transferring active communication session streams between devices
GB2526851B (en) * 2014-06-05 2021-02-24 Vodafone Ip Licensing Ltd Facilitating a conference call
JP6369212B2 (ja) * 2014-08-11 2018-08-08 富士ゼロックス株式会社 情報処理装置、情報処理システム、プログラム、及び記録媒体
EP3210373B1 (de) * 2015-07-09 2020-03-11 Ale International Mehrpunktkommunikationssystem und -verfahren
US10447795B2 (en) * 2015-10-05 2019-10-15 Polycom, Inc. System and method for collaborative telepresence amongst non-homogeneous endpoints
WO2018009209A1 (en) * 2016-07-08 2018-01-11 Hewlett-Packard Development Company, L.P. Muting microphones of physically colocated devices
US9774824B1 (en) * 2016-07-18 2017-09-26 Cisco Technology, Inc. System, method, and logic for managing virtual conferences involving multiple endpoints
KR102325764B1 (ko) * 2017-09-01 2021-11-11 삼성에스디에스 주식회사 컨퍼런스 시스템 및 상기 시스템에서의 오디오 컨퍼런스와 웹 컨퍼런스간 연동 방법
KR20190033750A (ko) * 2017-09-22 2019-04-01 삼성에스디에스 주식회사 컨퍼런스 시스템 및 상기 시스템에서의 이종 컨퍼런스간 참석자 정보 연계 장치 및 방법
US10708715B2 (en) * 2017-10-16 2020-07-07 Christopher Anthony Silva Method and system for 3-D location of mobile devices
JP7092048B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 多地点制御方法、装置及びプログラム
US10785271B1 (en) * 2019-06-04 2020-09-22 Microsoft Technology Licensing, Llc Multipoint conferencing sessions multiplexed through port
CN114616606A (zh) * 2019-08-19 2022-06-10 听波特公司 具有改进的目的地回放的多设备会议
US10771272B1 (en) * 2019-11-01 2020-09-08 Microsoft Technology Licensing, Llc Throttling and prioritization for multichannel audio and/or multiple data streams for conferencing
US12101199B1 (en) * 2023-07-21 2024-09-24 Capital One Services, Llc Conference system for use of multiple devices

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE261223T1 (de) 1994-09-16 2004-03-15 Sbc Techn Res Inc Adaptives mehrpunktvideogestaltungs- und überbrückungssystem
US5896128A (en) 1995-05-03 1999-04-20 Bell Communications Research, Inc. System and method for associating multimedia objects for use in a video conferencing system
CN100473159C (zh) * 1997-03-17 2009-03-25 松下电器产业株式会社 发送和接收动态图像数据的方法
US6952471B1 (en) * 2000-06-09 2005-10-04 Agere Systems Inc. Handset proximity muting
US7099288B1 (en) * 2001-10-16 2006-08-29 Sprint Communications Company L.P. Telephonic addressing for establishing simultaneous voice and computer network connections
FI112016B (fi) 2001-12-20 2003-10-15 Nokia Corp Konferenssipuhelujärjestely
US7046779B2 (en) 2002-02-15 2006-05-16 Multimedia Telesys, Inc. Video conference system and methods for use at multi-station sites
US7136398B1 (en) * 2002-03-14 2006-11-14 Cisco Technology, Inc. Method and apparatus for adding functionality to an existing conference call
US7325033B2 (en) 2002-07-18 2008-01-29 Clearcube Technology, Inc. Video conferencing system using video manager to provide picture-in-picture image to display devices located remotely from co-located computing systems
JP4185346B2 (ja) * 2002-10-18 2008-11-26 株式会社日立製作所 ストレージ装置及びその構成設定方法
US20040207719A1 (en) * 2003-04-15 2004-10-21 Tervo Timo P. Method and apparatus for exploiting video streaming services of mobile terminals via proximity connections
US7154526B2 (en) 2003-07-11 2006-12-26 Fuji Xerox Co., Ltd. Telepresence system and method for video teleconferencing
TWI245211B (en) * 2004-09-15 2005-12-11 High Tech Comp Corp Portable electronic apparatus and video conference system integrated with the same
US7468738B2 (en) 2005-04-27 2008-12-23 Sbc Knowledge Ventures, L.P. Method and system of multilocation video conferencing
US7876890B2 (en) * 2006-06-15 2011-01-25 Avaya Inc. Method for coordinating co-resident teleconferencing endpoints to avoid feedback
US7983406B2 (en) * 2007-03-19 2011-07-19 Avaya Inc. Adaptive, multi-channel teleconferencing system
US20080273078A1 (en) 2007-05-01 2008-11-06 Scott Grasley Videoconferencing audio distribution
US8279254B2 (en) 2007-08-02 2012-10-02 Siemens Enterprise Communications Gmbh & Co. Kg Method and system for video conferencing in a virtual environment
US9246924B2 (en) * 2007-12-13 2016-01-26 Sonim Technologies, Inc. Method for sharing service identity among multiple client devices in a real-time communications network
US8918541B2 (en) 2008-02-22 2014-12-23 Randy Morrison Synchronization of audio and video signals from remote sources over the internet
US8487975B2 (en) * 2009-01-27 2013-07-16 Lifesize Communications, Inc. Conferencing system utilizing a mobile communication device as an interface
US20110040836A1 (en) * 2009-05-04 2011-02-17 Andrew Allen System and method for implementing media and media control transfer between devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Goose, S. u. a. "Method and System for Video Conferencing in a Virtual Environment", 5. Februar 2009

Also Published As

Publication number Publication date
US8797379B2 (en) 2014-08-05
WO2012069456A1 (en) 2012-05-31
GB2499759A (en) 2013-08-28
CN103229495B (zh) 2015-07-22
US20120236110A1 (en) 2012-09-20
CN103229495A (zh) 2013-07-31
DE112011103893B4 (de) 2015-02-26
GB2499759B (en) 2017-09-13
GB201310461D0 (en) 2013-07-24
US20120127263A1 (en) 2012-05-24
US8416281B2 (en) 2013-04-09

Similar Documents

Publication Publication Date Title
DE112011103893B4 (de) Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer
US9935987B2 (en) Participation queue system and method for online video conferencing
US9329833B2 (en) Visual audio quality cues and context awareness in a virtual collaboration session
US9462224B2 (en) Guiding a desired outcome for an electronically hosted conference
DE102009043277B4 (de) Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen
US9705691B2 (en) Techniques to manage recordings for multimedia conference events
CA2874715C (en) Dynamic video and sound adjustment in a video conference
US8994781B2 (en) Controlling an electronic conference based on detection of intended versus unintended sound
CN106547469A (zh) 无线触控一体实现方法以及无线触控一体机
KR20110021748A (ko) 멀티미디어 회의 이벤트를 위한 미디어 콘텐츠를 관리하는 기술
US9888211B1 (en) Replacing live video of a meeting participant with recorded video of the meeting participant during an online meeting
DE202013012652U1 (de) Audio-Video Kommunikation, vermittelt durch einen Server verringerter Latenz
CN103703719A (zh) 使通信会话中的参与者静音
DE102011107992A1 (de) System und Verfahren zum Anmelden zu Ereignissen auf der Grundlage von Schlagwörtern
EP4082164A1 (de) Verfahren und system zum bereitstellen von dynamisch gesteuerten ansichtszuständen zur verbesserten beteiligung während kommunikationssitzungen
EP3005690B1 (de) Verfahren und system zum zuordnen einer externen vorrichtung zu einer videokonferenzsitzung
US20150341565A1 (en) Low data-rate video conference system and method, sender equipment and receiver equipment
DE102022121067A1 (de) Screen, video-, audio- und textfreigabe in mehrparteien-video-konferenzen
DE102021123577A1 (de) Audioqualitäts-feedback während einer live-übertragung von einer quelle
DE102022202645A1 (de) Systeme und verfahren zur bereitstellung elektronischer ereignisinformationen
KR20170013860A (ko) 오브젝트-기반 원격 회의 프로토콜
DE102007058585B4 (de) Vorrichtung und Verfahren zur Durchführung von Fernbesprechungen
DE102023114371A1 (de) Autofokus auf lautsprecher während kommunikationskonferenzen mit mehreren teilnehmern
US20160127687A1 (en) Methods and systems for streaming media transmission

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE

Representative=s name: SPIES DANNER & PARTNER PATENTANWAELTE PARTNERS, DE

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE

R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE

Representative=s name: SPIES DANNER & PARTNER PATENTANWAELTE PARTNERS, DE

R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE

R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final
R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee