DE112011103893T5 - Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer - Google Patents
Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer Download PDFInfo
- Publication number
- DE112011103893T5 DE112011103893T5 DE112011103893T DE112011103893T DE112011103893T5 DE 112011103893 T5 DE112011103893 T5 DE 112011103893T5 DE 112011103893 T DE112011103893 T DE 112011103893T DE 112011103893 T DE112011103893 T DE 112011103893T DE 112011103893 T5 DE112011103893 T5 DE 112011103893T5
- Authority
- DE
- Germany
- Prior art keywords
- conference
- terminal unit
- unit
- audio
- session
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000001360 synchronised effect Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 34
- 238000004590 computer program Methods 0.000 claims description 19
- 230000002708 enhancing effect Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 2
- 230000005236 sound signal Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 2
- 240000002853 Nelumbo nucifera Species 0.000 description 2
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1827—Network arrangements for conference optimisation or adaptation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42348—Location-based services which utilize the location information of a target
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/56—Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
- H04M3/567—Multimedia conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/20—Aspects of automatic or semi-automatic exchanges related to features of supplementary services
- H04M2203/2094—Proximity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
- Technisches Gebiet
- Die vorliegende Erfindung bezieht sich auf das Gebiet der Mehrpunktkonferenzen und auf Mehrpunktkonferenzen und insbesondere auf das Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer.
- Hintergrundinformationen
- Mehrpunktkonferenzen, die ein außerordentlich wertvolles Kommunikationswerkzeug darstellen, ermöglichen mehreren an verschiedenen Orten befindlichen Personen an einer gemeinsamen Sitzung teilzunehmen. Üblicherweise haben Mehrpunktkonferenzen die Form von Videokonferenzen, die eine visuelle Komponente und eine Audio-Komponente beinhalten. Die visuelle Komponente enthält häufig eine Kamera zum Aufnehmen von Videosignalen und eine Anzeige zum Darstellen der aufgenommenen Videosignale. Die Audio-Komponente enthält üblicherweise ein Mikrofon zum Aufzeichnen von Audiosignalen (z. B. Sprache) und einen Lautsprecher zum Wiedergeben der aufgezeichneten Audiosignale. Häufig wird eine Mehrpunkt-Steuereinheit (MCU) verwendet, damit mehrere Personen an einem Standort (z. B. Vorstandsetage) unter Verwendung einer zentralisierten Terminal-Einheit (z. B. eines Konferenztelefons) miteinander kommunizieren können.
- In der veröffentlichten US-Patentanmeldung 2009/0033737 A1 (Goose, S. u. a. "Method and System for Video Conferencing in a Virtual Environment", 5. Februar 2009), werden ein Verfahren ein System zum Empfangen eines ersten Videosignals bei einem ersten Client und eines zweiten Videosignals bei einem zweiten Client beschrieben. Das empfangene erste Videosignal und ein Bild eines Konferenzraums werden bei dem ersten Client verknüpft, um ein erstes modifiziertes Videosignal zu erzeugen, das das Bild der ersten Person in dem Konferenzraum aufweist. Das empfangene zweite Videosignal und ein Bild eines Konferenzraums werden bei dem zweiten Client verknüpft, um ein zweites modifiziertes Videosignal zu erzeugen, das das Bild der zweiten Person in dem Konferenzraum aufweist.
- Eines der Hauptprobleme besteht bei diesen Systemen darin, dass sie am gleichen Ort befindliche Personen nicht berücksichtigen, die unabhängige benutzerbezogene Audio/Video-Lösungen verwenden, um an einer bestimmten Videokonferenz aktiv teilzunehmen. Bei einer am gleichen Ort befindlichen Anordnung in einem Konferenzraum können z. B. Tonstörungen von anderen Benutzern eine erhebliche Verschlechterung eines Telefongesprächs bewirken. Der vom Laptop-Lautsprecher abgestrahlte Schall eines Benutzers kann von dem Mikrofon des Laptops eines anderen Benutzers aufgenommen werden und für alle Benutzer, die an der Konferenz teilnehmen, eine Rückkopplung oder ein Echo bewirken.
- Ein weiteres, eher untergeordnetes Problem besteht in einer begrenzten Anzahl von Audiokanälen, die für eine vorhandene Konferenz zur Verfügung stehen. Derzeit können Benutzer, die sich am gleichen Ort befinden, nicht von dem Vorteil einer einzigen Audioquelle zum Freigeben von Ressourcen profitieren, um die Skalierbarkeit der Lösung zu erhöhen, während gleichzeitig die Inanspruchnahme der Ressourcen verringert wird.
- Es besteht deswegen nach dem Stand der Technik ein Bedarf, sich den oben genannten Problemen zu widmen
- Zusammenfassung
- Ein Aspekt der vorliegenden Erfindung kann ein Verfahren, ein Computerprogrammprodukt, ein System und eine Vorrichtung zum Verbessern von Mehrpunkt-Konferenzen beinhalten. Bei diesem Aspekt kann eine Terminal-Einheit, die einem Teilnehmer der Mehrpunktsitzung zugehörig ist, identifiziert werden. Mit der Mehrpunktsitzung können ein Video- und ein Audiosignal-Datenstrom verbunden sein. Bei der Terminal-Einheit kann es sich um eine Datenverarbeitungseinheit handeln, die einen Audio- und einen Videoeingang und einen Videoausgang aufweist. Bei der Mehrpunktsitzung kann es sich um eine Konferenz mit einer zugehörigen Telefonsitzung handeln. Die Standorte der Terminal-Einheit und einer Konferenzeinheit können ermittelt werden. Die Konferenzeinheit kann mit einem Audioeingang und einem Audioausgang ausgestattet sein. Wenn sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet, kann der Audiodatenstrom der Terminal-Einheit beendet und ein Audiodatenstrom der Konferenzeinheit empfangen werden. Ein Videosignal-Datenstrom und ein Audiosignal-Datenstrom können an dem Audio- und Videoausgang der Konferenzeinheit und der Terminal-Einheit gleichzeitig übergeben werden. Bei dem Video- und dem Audiodatenstrom kann es sich um einen synchronisierten Datenstrom der Sitzung handeln.
- Ein weiterer Aspekt der vorliegenden Erfindung kann ein System zum Verbessern der Mehrpunktkonferenz beinhalten, das eine Präsenz-Maschine, einen Bridge-Manager und eine Abbildungsstruktur aufweist. Die Präsenz-Maschine kann den Standort einer Terminal-Einheit ermitteln, die an einer Mehrpunktsitzung beteiligt ist. Der Terminal-Einheit können ein Audiodatenstrom und ein Videodatenstrom zugehörig sein. Bei der Mehrpunktsitzung kann es sich um eine Konferenz mit einer Telefonsitzung handeln. Der Bridge-Manager kann der Sitzung eine Konferenzeinheit hinzufügen und aus dieser entfernen, wobei zu der Konferenzeinheit ein Audiodatenstrom gehört. Die Abbildungsstruktur kann eine Konferenzeinheit mit einer eindeutigen Kennung und/oder einem Standort verknüpfen.
- Aus einem weiteren Aspekt betrachtet stellt die vorliegende Erfindung ein Computerprogrammprodukt zum Verbessern von Mehrpunkt-Konferenzen bereit, wobei das Computerprogrammprodukt aufweist: ein computerlesbares Speichermedium, das durch eine Verarbeitungsschaltung gelesen werden kann und Befehle für die Ausführung durch die Verarbeitungsschaltung speichert, um ein Verfahren zum Ausführen der Schritte der Erfindung auszuführen.
- Aus einem weiteren Aspekt betrachtet stellt die vorliegende Erfindung ein Computerprogramm bereit, das auf einem computerlesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers geladen werden kann und Software-Codeabschnitte aufweist, um die Schritte der Erfindung auszuführen, wenn das Programm auf einem Computer läuft.
- Kurzbeschreibung der Zeichnungen
- Die vorliegende Erfindung wird nun unter Bezugnahme auf bevorzugte Ausführungsformen lediglich beispielhaft beschrieben, wie in den folgenden Figuren dargestellt:
-
1 ist ein Ablaufplan, der ein Verfahren zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt; -
2 ist ein schematisches Blockschaubild, das ein System zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt; und -
3 ist ein schematisches Blockschaubild, das eine Gruppe von Schnittstellen zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt. - Genaue Beschreibung der Erfindung
- Wenn eine Person eine persönliche Einheit (z. B. ein Laptop) verwendet, um an einer Mehrpunkt-Konferenzsitzung am gleichen Ort wie die Terminal-Einheit (z. B. im gleichen Raum) teilzunehmen, können Probleme entstehen. Ein bekanntes Problem ist die Verschlechterung der Audioqualität infolge einer akustischen Rückkopplung. Zum Beispiel kann der abgestrahlte Schall vom Laptop-Lautsprecher einer Person in das Laptop-Mikrofon einer anderen Person gelangen und eine Rückkopplung oder ein Echo für alle Benutzer bewirken, die an der Konferenz teilnehmen. Daher muss die Person entweder die Verwendung der persönlichen Einheit beenden oder ihren Aufenthaltsort wechseln. In vielen Fällen können diese Lösungen die Sitzung nachteilig beeinflussen und für die vorhandene Infrastruktur unvorteilhaft sein, um flexible Sitzungskonfigurationen zu ermöglichen.
- Die vorliegende Offenbarung ist eine Lösung zum Verbessern der Skalierbarkeit einer Mehrpunkt-Konferenz für sich am gleichen Ort befindliche Teilnehmer. Bei der Lösung kann eine Mehrpunktsitzung eine zentrale Konferenzeinheit nutzen, um Audiokanäle für alle Terminal-Einheiten (z. B. Laptop), die sich in der Nähe der Konferenzeinheit befinden, zusammenzuführen. Das heißt, eine in der Nähe befindliche Konferenzeinheit (z. B. ein Konferenztelefon) kann verwendet werden, um Audiosignale zu übermitteln, während die Terminal-Einheit verwendet werden kann, um Videosignale zu übermitteln. Daher können gemäß der Offenbarung die Gesamtzahl von Audiokanälen für die Sitzung verringert, die Skalierbarkeit verbessert und die Nutzung von Ressourcen verringert werden. In einer Ausführungsform kann die Lösung eine Komponente einer Architektur mit dem Protokoll Voice-over-Internet sein.
- In einer Ausführungsform kann die Lösung bei einer Sitzung verwendet werden, die Möglichkeiten des Umschaltens von Videosignalen (z. B. Präsentation mit aktivem Sprecher) umsetzt. In der Ausführungsform können die von einer in der Nähe befindlichen Konferenzeinheit empfangenen Audiosignale analysiert werden, um einen aktiven Sprecher festzulegen, bei dem eine Auswahl zwischen einem proprietären und/oder einem herkömmlichen Audiodatenstrom möglich ist.
- Wie dem Fachmann klar sein wird, können Aspekte der vorliegenden Erfindung als System, Verfahren oder Computerprogrammprodukt ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung die Form einer reinen Hardware-Ausführungsform, einer reinen Software-Ausführungsform (die Firmware, residente Software, Mikrocode usw. enthält) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hier alle allgemein als ”Schaltung”, ”Modul” oder ”System” bezeichnet werden können. Des Weiteren können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, die computerlesbaren Programmcode, der darauf verkörpert ist, aufweisen.
- Jede Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann z. B. ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -vorrichtung oder -einheit oder jede geeignete Kombination des Vorhergehenden sein, ist jedoch nicht auf diese beschränkt. Zu spezifischeren Beispielen (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums würde Folgendes gehören: eine elektrische Verbindung mit einer oder mehreren Leitungen, eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Festwertspeicher (ROM), ein löschbarer programmierbarer Festwertspeicher (EPROM oder Flash-Speicher), ein Lichtwellenleiter, ein tragbarer Compactdisk-Festwertspeicher (CD-ROM), eine optische Speichereinheit, eine magnetische Speichereinheit oder jede geeignete Kombination des Vorhergehenden. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium jedes materielle Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung enthalten oder speichern kann.
- Ein computerlesbares Signalmedium kann ein verbreitetes Datensignal mit einem computerlesbaren Programmcode, der darin z. B. im Basisband oder als Teil einer Trägerwelle verkörpert ist, enthalten. Ein derartiges verbreitetes Signal kann jede von einer Vielzahl von Formen annehmen, zu denen elektromagnetische, optische Formen oder jede geeignete Kombination hiervon gehören, die jedoch nicht darauf beschränkt sind. Ein computerlesbares Signalmedium kann jedes computerlesbare Medium sein, das kein computerlesbares Speichermedium ist und ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung kommunizieren, verbreiten oder transportieren kann.
- Programmcode, der auf einem computerlesbaren Medium verkörpert ist, kann unter Verwendung jedes geeigneten Mediums übertragen werden, wozu drahtlose, leitungsgestützte, Lichtwellenleiterkabel-, HF-Medien oder jede geeignete Kombination aus dem Vorhergehenden gehören, die jedoch nicht auf diese beschränkt sind. Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Erfindung kann in jeder Kombination aus einer oder mehreren Programmiersprachen geschrieben sein, darunter eine objektorientierte Programmiersprache wie Java®, Smalltalk, C++ oder dergleichen und herkömmliche prozedurale Programmiersprachen wie etwa die Programmiersprache ”C” oder ähnliche Programmiersprachen. Der Programmcode kann nur auf dem Computer eines Benutzers, teilweise auf dem Computer eines Benutzers, als ein selbstständiges Software-Paket, teilweise auf dem Computer eines Benutzers und teilweise auf einem fernen Computer oder nur auf dem fernen Computer oder Server ausgeführt werden. In dem zuletzt genannten Szenario kann der ferne Computer mit dem Computer des Benutzers durch jeden Netzwerktyp verbunden sein, darunter ein Lokalbereichs-Netzwerks (LAN) oder ein Weitbereichs-Netzwerks (WAN), oder die Verbindung kann zu einem externen Computer (z. B. über das Internet unter Verwendung eines Internet-Dienstanbieters) hergestellt werden.
- Java und alle auf Java beruhenden Handelsmarken und Logos sind Handelsmarken oder registrierte Handelsmarken von Oracle und/oder deren Konzerngesellschaften.
- Aspekte der vorliegenden Erfindung sind hier unter Bezugnahme auf Ablaufplan-Darstellungen und/oder Blockschaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es ist klar, dass jeder Block der Ablaufplan-Darstellungen und/oder Blockschaubilder und Kombinationen von Blöcken in den Ablaufplan-Darstellungen und/oder Blockschaubildern durch Computerprogrammbefehle umgesetzt werden können. Diese Computerprogrammbefehle können einem Prozessor eines Mehrzweck-Computers, eines speziellen Computers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu bilden, so dass Befehle, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, Mittel zum Umsetzen der Funktionen/Wirkungen, die in dem Block oder den Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind, erzeugen.
- Diese Computerprogrammbefehle können außerdem in einem computerlesbaren Medium gespeichert sein, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Einheiten anweisen kann, in einer bestimmten Weise zu funktionieren, so dass die in dem computerlesbaren Medium gespeicherten Befehle einen Herstellungsgegenstand produzieren, wozu Befehle gehören, die die Funktion/Wirkung umsetzen, die in dem Block/den Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind.
- Die Computerprogrammbefehle können außerdem in einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder andere Einheiten geladen werden, um eine Reihe von Operationsschritten zu bewirken, die auf dem Computer, der anderen programmierbaren Datenverarbeitungsvorrichtung oder anderen Einheiten ausgeführt werden sollen, um einen mittels Computer umgesetzten Prozess zu erzeugen, so dass die Befehle, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Prozesse zum Umsetzen der Funktionen/Wirkungen, die in dem Block oder Blöcken des Ablaufplans und/oder Blockschaubilds spezifiziert sind, bereitstellen.
-
1 ist eine Ablaufplan-Darstellung, die ein Verfahren100 zum Verbessern der Skalierbarkeit von Mehrpunkt-Konferenzen für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfindungsgemäßen Anordnungen veranschaulicht. Im Verfahren100 kann eine Konferenzeinheit (z. B. ein Konferenztelefon) verwendet werden, um die Menge von Audiodatenströmen einer Mehrpunktsitzung für sich in der Nähe befindliche Einheiten zu verringern. Der hier verwendete Ausdruck am gleichen Ort befindlich kann das Vorhandensein einer Terminal-Einheit (z. B. eines Laptops) in der Nähe einer Konferenzeinheit (z. B. eines Konferenztelefons), das bei einer Mehrpunktsitzung zum Einsatz kommt, bedeuten. Bei einer Mehrpunktsitzung kann es sich um einen semipermanenten, interaktiven Datenaustausch zwischen drei oder mehr Datenübertragungseinheiten handeln. Eine Mehrpunktsitzung kann z. B. eine Konferenzschaltung zwischen vier Teilnehmern sein, die jeweils einen Laptop verwenden, um miteinander zu kommunizieren. Die Mehrpunktsitzung kann eine Audiokomponente, eine Videokomponente und dergleichen enthalten. Die Mehrpunktsitzung kann eine Telefonkonferenz, eine Videokonferenz, eine Netzkonferenz und dergleichen sein. - Der Ausdruck Mehrpunktsitzung wird hier im Zusammenhang mit Technologien des Protokolls Voice over Internet (VoIP-Technologien) verwendet. VoIP kann eine oder mehrere Methodiken zum Abwickeln von Datenübertragungen und Mehrpunktsitzungen über Internet-Protokoll bedeuten. Zu VoIP können Kommunikationsprotokolle, Übertragungstechnologien und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Zu Protokollen können Session Initiated Protocol, H.323, IP Multimedia Subsystem (IMS), Real-time Transport Protocol (RTP) und Session Description Protocol gehören, ohne jedoch auf diese beschränkt zu sein.
- In einem Beispiel kann es sich bei der Konferenzeinheit um eine Telefoneinheit handeln, die Audiosignale während einer Mehrpunktsitzung übermitteln kann. In dem Beispiel kann ein Audiodatenstrom von der Telefoneinheit gleichzeitig mit Videosignalen von der Terminal-Einheit verwendet werden.
- Im Schritt
105 kann eine Mehrpunktsitzung eingerichtet werden. Die Sitzung kann durch einen Teilnehmer ausgelöst werden, der mit einer Anwendung wie etwa einer Videokonferenz-Anwendung zusammenwirkt, die auf einer Terminal-Einheit ausgeführt wird. Im Schritt110 können Terminal-Einheiten, die Teilnehmern zugehörig sind, der Sitzung angefügt werden. Die Terminal-Einheiten können anhand einer oder mehrerer eindeutiger Kennungen identifiziert werden. Zu eindeutigen Kennungen können eine Telefonnummer, eine Internet-Protocol-(IP-)Adresse, eine Media-Access-Control-(MAC-)Adresse und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Eine Kontaktliste, die Teilnehmer mit einer Terminal-Einheit verknüpft, kann z. B. geführt werden, wodurch eine schnelle Verwaltung von Teilnehmern und/oder Terminal-Einheiten ermöglicht wird. In einem Beispiel können Terminal-Einheiten über eine Teilnehmerliste, die einem Client (z. B. einer Terminal-Einheit) zugehörig ist, und/oder eine Einladungsliste, die einem Server (z. B. dem Server230 ) zugehörig ist, in die Sitzung eingeführt werden. - Im Schritt
115 kann eine Terminal-Einheit ausgewählt werden. Die Terminal-Einheit kann anhand eines oder mehrerer Kriterien ausgewählt werden, zu denen Einheitenkennung, Teilnehmerinformationen und dergleichen gehören, die jedoch nicht auf diese beschränkt sind. Wenn im Schritt120 der Standort der Terminal-Einheit von einem früheren Standort (z. B. während der Anrufauslösung) verschieden ist, kann das Verfahren zum Schritt125 vorgehen, andernfalls zum Schritt115 zurückkehren. Der Standort der Terminal-Einheit kann unter Verwendung einer oder mehrerer standortbezogener Technologien ermittelt werden, zu denen ein Global Positioning System (GPS), Assisted GPS (A-GPS), BLUETOOTH, Radio Frequency Identification (RFID) und dergleichen gehören, ohne auf diese beschränkt zu sein. In einem Beispiel kann der Standort der Terminal-Einheit durch wiederholtes Abfragen der Einheit nach einem aktuellen Standort erhalten werden. In einem anderen Beispiel kann der Standort der Terminal-Einheit durch die Terminal-Einheit beim Feststellen einer Standortänderung übermittelt werden. - Wenn im Schritt
125 eine in der Nähe befindliche Konferenzeinheit erkannt wird, kann das Verfahren zum Schritt130 vorgehen, andernfalls zum Schritt120 zurückkehren. Die Schritte120 ,125 können wiederholt werden, bis eine in der Nähe befindliche Konferenzeinheit (z. B. ein Konferenztelefon) erkannt wird. Die Nähe der Terminal-Einheit zu einer Konferenzeinheit kann anhand einer oder mehrerer konfigurierbaren Einstellungen festgelegt werden. In einem Beispiel kann die Nähe der Terminal-Einheit zu der Konferenzeinheit anhand eines physischen Abstands festgelegt werden. In dem Beispiel können ein oder mehrere Schwellenwerte verwendet werden, um eine Nähe zu begründen. Eine Konferenzeinheit kann sich z. B. in der Nähe befinden, wenn die Terminal-Einheit weniger als 1,22 m (4 feet) entfernt ist. In einer Ausführungsform können herkömmliche Proxemikwerte (z. B. persönlicher Abstand, sozialer Abstand) verwendet werden, um einen Schwellenwert festzulegen. - Im Schritt
130 kann die erkannte, in der Nähe befindliche Konferenzeinheit aktiviert werden, wenn die Konferenzeinheit nicht in Gebrauch ist. Ein Aktivieren kann eine oder mehrere Aktionen einschließen, die die Aufnahme der Konferenzeinheit in die Mehrpunktsitzung ermöglichen. In einem Beispiel kann die Kennung der Konferenzeinheit (z. B. Aliasname, Telefonnummer) anhand des Standorts der Terminal-Einheit automatisch ermittelt werden. In dem Beispiel kann die Kennung der Konferenzeinheit verwendet werden, um die Konferenzeinheit der Mehrpunktsitzung automatisch zuzuordnen. Eine Zuordnung kann z. B. verwendet werden, um die Telefonnummer der erkannten, in der Nähe befindlichen Konferenzeinheit zu ermitteln, die verwendet werden kann, um die Konferenzeinheit in die Sitzung einzuwählen. In einem anderen Beispiel kann die Konferenzeinheit manuell aktiviert und über eine oder mehrere Teilnehmeraktionen in die Mehrpunktsitzung eingefügt werden. - Im Schritt
135 kann der zu der Terminal-Einheit gehörige Audiodatenstrom beendet werden. Das heißt, Videosignale für einen Teilnehmer können von der Terminal-Einheit erfasst werden, und Audiosignale für den Teilnehmer können von der Konferenzeinheit aufgezeichnet werden. In einem Beispiel kann die Mehrpunktsitzung ein Umschalten von Videosignalen unterstützen, die einen Teilnehmer, der von Interesse ist (z. B. einen aktiven Sprecher), visuell darstellen. In dem Beispiel kann das Umschalten von Videosignalen aufrechterhalten werden, während gleichzeitig die Terminal-Einheit für eine Videosignaleingabe und die Konferenzeinheit für eine Audiosignaleingabe verwendet werden. - Wenn im Schritt
140 mehr Terminal-Einheiten vorhanden sind, die an der Sitzung beteiligt sind, kann das Verfahren zum Schritt115 zurückkehren, andernfalls mit Schritt145 fortfahren. Die Schritte115 bis140 können während der Mehrpunktsitzung ständig ausgeführt werden, wodurch während der Sitzung eine dynamische Ressourcenzuweisung erfolgen kann. Im Schritt145 kann die Sitzung beendet werden, und das Verfahren kann enden. - Hier dargestellte Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht begrenzen. Es sollte klar sein, dass das Verfahren
100 während einer Mehrpunktsitzung in Echtzeit oder Quasi-Echtzeit ausgeführt werden kann. Es sollte klar sein, dass die Schritte115 bis140 jederzeit während einer Mehrpunktsitzung ausgeführt werden können. In einem Beispiel können die Schritte115 bis140 am Beginn der Sitzung ausgeführt werden. In einem anderen Beispiel können die Schritte15 bis140 in Reaktion darauf ausgeführt werden, dass eine Einheit nach dem Beginn einer Sitzung in die Sitzung eingetreten ist. -
2 ist eine schematische Darstellung, die ein System200 zum Verbessern der Skalierbarkeit von Mehrpunktsitzungen für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfinderischen Anordnungen erläutert. Das System200 kann im Kontext des Verfahrens100 vorhanden sein. Im System200 kann die Terminal-Einheit210 gleichzeitig mit der Konferenzeinheit250 verwendet werden, damit eine Skalierbarkeit der Mehrpunktsitzung erreicht werden kann. Komponenten des Systems200 können über ein Netzwerk270 zum Datenaustausch verbunden werden. In einer Ausführungsform kann das System200 einem herkömmlichen System entsprechen, das für das Voice-over-Internet-Protokoll (VOIP) tauglich ist. - So wie hier dargestellt, kann es sich bei der Sitzung
236 um eine Mehrpunktsitzung in Verbindung mit einer Datenverarbeitungseinheit210 ,230 ,250 handeln. Es sollte klar sein, dass eine Datenverarbeitungseinheit210 mehrere Datenverarbeitungseinheiten enthalten kann, die durch Teilnehmer (z. B. handelnde Personen) der Sitzung236 betrieben werden. Vier Teilnehmer können z. B. persönliche Laptops (z. B. Videosignale) und ein Konferenztelefon (z. B. Audiosignale) verwenden, wobei sie während einer Mehrpunktsitzung einen Konferenzraum belegen. Die Sitzung236 kann Sitzungsinformationen237 , einen Sitzungsverlauf, eine Sitzungskonfiguration und dergleichen enthalten. - Bei dem Videosignal
262 kann es sich um ein digital codiertes Eingabeelement handeln, das vom Videosignaleingang215 der Komponente erhalten wird. Um das Videosignal262 zu charakterisieren, können Vollbilder pro Sekunde, Verschachtelung, Auflösung, Bildformat, Farbraum, Komprimierung, Bitrate und dergleichen herangezogen werden, ohne jedoch auf diese beschränkt zu sein. Das Videosignal262 kann den Bedingungen eines oder mehrerer herkömmlicher und/oder proprietärer Codierformate genügen, zu denen H.264, Motion Picture Expert Group 4 (MPEG-4), H.261, H.263 und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. - Bei dem Audiosignal
260 kann es sich um ein digital codiertes Eingabeelement handeln, das vom Audioeingang252 der Komponente empfangen wird. Das Audiosignal260 kann durch Abtastrate, Dynamikbereich, Kompression und dergleichen charakterisiert werden, ohne auf diese beschränkt zu sein. Das Audiosignal260 kann den Bedingungen eines oder mehrerer herkömmlicher und/oder proprietärer Formate genügen, zu denen MPEG-4, Adaptive Multi-Rate (AMR), Advanced Audio Coding (AAC), Enhanced Variable Rate CODEC (EVRC), 3GPP und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform kann das Audiosignal260 empfangen, codiert und in Echtzeit oder Quasi-Echtzeit zum Mehrpunkt-Server230 übertragen werden. - Bei der Konferenzeinheit
250 kann es sich um eine zur Mehrpunktsitzung gehörende Hardware/Software-Komponente handeln, wodurch das Aufzeichnen und Wiedergeben des Audiosignals ermöglicht wird. Die Einheit250 kann einen Audioeingang252 , einen Audioausgang254 , eine Schnittstelle256 , einen digitalen Signalprozessor (DSP), einen Speicher und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Die Einheit250 kann ein VoIP-Telefon, ein Telepräsenz-System und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. In dem Beispiel kann die Einheit250 ein Hardware-Telefon, ein Software-Telefon und jede Kombination hiervon sein. In einem anderen Beispiel kann die Einheit ein Videotelefon mit Konferenzfähigkeit sein. In noch einem anderen Beispiel kann die Einheit eine Komponente eines Videokonferenz-Systems sein. Es sollte klar sein, dass die Einheit Videokomponenten (z. B. Kamera, Anzeige) enthalten kann, die selektiv ausgeschaltet werden können. - Bei dem Audioeingang
252 kann es sich um eine oder mehrere Hardware/Software-Komponenten handeln, die Schallwellen (z. B. Sprache) empfangen können. Der Eingang252 kann ein dynamisches Mikrofon, ein piezoelektrisches Mikrofon und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Der Audioeingang252 kann das von in der Nähe befindlichen Teilnehmern eingegebene Audiosignal empfangen, das als Audiosignal260 zum Server230 übermittelt wird. In einem Beispiel kann das Audiosignal260 vor der Übertragung verarbeitet werden. Eine Verarbeitung kann ein Ausblenden eines Störsignals, eine Verschlüsselung und dergleichen bedeuten, ist jedoch nicht auf diese beschränkt. - Bei dem Audioausgang
254 kann es sich um eine oder mehrere Hardware/Software-Komponenten handeln, die Schallwellen abstrahlen können. Der Audioausgang254 kann eine Ausgabeeinheit wie etwa ein Lautsprecher sein. Der Audioausgang kann ein (nicht gezeigtes) Audiosignal übermitteln, das vom Mehrpunkt-Server230 empfangen wird, der der Sitzung236 zugehörig ist. - Bei der Schnittstelle
256 kann es sich um eine Hardware/Software-Komponente zum Zusammenwirken mit der Konferenzeinheit250 handeln. Die Schnittstelle256 kann Eingabekomponenten, Ausgabekomponenten und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Zu Eingabekomponenten können Tastatur, Tastenblock (z. B. Wählblock) und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Zu Ausgabekomponenten können Lautsprecher, Anzeige und dergleichen gehören, sind jedoch nicht auf diese beschränkt. In einer Ausführungsform kann die Schnittstelle256 verwendet werden, um eine Einheit250 in eine Mehrpunktsitzung236 manuell einzufügen. In einer Ausführungsform kann die Einheit250 für eine Audioeingabe verwendet werden und die Einheit210 kann für eine gleichzeitige Videosignaleingabe verwendet werden. - Bei dem Mehrpunkt-Server
230 kann es sich um eine Hardware/Software-Komponente zum Verknüpfen von Video- und Audiosignalen handeln, die der Sitzung236 zugehörig sind. Der Mehrpunkt-Server230 kann einen Bridge-Manager232 , eine Präsenz-Maschine234 , eine A/V-Maschine235 , eine Sitzung236 , Konfigurationseinstellungen238 , einen Datenspeicher240 und dergleichen enthalten, ohne auf diese beschränkt zu sein. In einem Beispiel kann der Mehrpunkt-Server eine Komponente eines H.323-Gatekeeper sein. In einem anderen Beispiel kann der Mehrpunkt-Server eine Komponente einer Mehrpunkt-Steuereinheit (MCU) sein. In einem Beispiel kann der Server230 ein Netzwerkelement in einem Lokalbereichs-Netzwerk (LAN) oder einem Weitbereichs-Netzwerk (WAN) sein. In einer Ausführungsform kann der Mehrpunkt-Server230 eine Komponente von IBM® Lotus® Unified Communications and Collaboration (UCC)-Software sein. Es sollte klar sein, dass die Komponenten232 bis240 optionale Komponenten sein können. - Bei dem Bridge-Manager
232 kann es sich um eine Hardware/Software-Komponente zum Verwalten der Steuerung der Sitzung236 handeln. Zu Funktionalitäten des Managers232 können ein Auslösen der Sitzung236 , ein Beenden der Sitzung236 , ein Manipulieren der Sitzungswechselwirkung der Einheit210 , ein Abwickeln der Sitzungswechselwirkung der Einheit250 , Adressenübersetzung, Protokollumsetzung, Anrufmanagement, Überprüfen der Identität, Verschlüsselung und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einem Beispiel kann der Manager232 eine Adresse der Konferenzeinheit250 automatisch wählen und die Einheit der Sitzung236 zuordnen. In dem Beispiel kann der Manager232 der Terminal-Einheit210 signalisieren, die Audiosignaleingabe zu beenden und die Konferenzeinheit250 veranlassen, das Empfangen einer Audiosignaleingabe zu beginnen. - Die Präsenz-Maschine
234 kann eine Hardware/Software-Entität zum Verfolgen des Standorts der Einheit210 sein. Die Präsenz-Maschine234 kann Präsenz-Informationen237 für jeden Teilnehmer, der der Einheit210 zugehörig ist, überwachen. Die Maschine234 kann so konfiguriert sein, dass sie auf Zustände und/oder Standorte von einem oder mehreren Teilnehmern anspricht. In einer Ausführungsform kann die Maschine234 die Einheit210 veranlassen, das Empfangen einer Audiosignaleingabe von einem Teilnehmer zu beenden, falls sie sich in der Nähe der Audioeinheit250 befindet, und das Erfassen einer Audiosignaleingabe auszulösen, falls sie sich nicht in der Nähe der Audioeinheit250 befindet. In einem Beispiel kann die Präsenz-Maschine234 eine externe Ressource sein (z. B. Präsenz-Server). - Bei Präsenz-Informationen
237 kann es sich um einen oder mehrere Datensätze handeln, die der Terminal-Einheit210 der Sitzung236 zugehörig sind. Zu Präsenz-Informationen237 können Standort, Benutzerstatus und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Zu dem Standort kann ein geografischer Standort, Koordinaten (z. B. Kartesische Koordinaten), eine Zone und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Präsenz-Informationen237 können durch die Präsenz-Maschine234 automatisch verbreitet werden. Die Informationen237 können verwendet werden, um zu ermitteln, ob sich eine Terminal-Einheit in der Nähe einer Konferenzeinheit260 befindet. Die Informationen237 können z. B. mit bekannten Standorten von Konferenzeinheiten verglichen werden, um zu ermitteln, ob sich ein Teilnehmer in der Nähe eines Konferenztelefons befindet. - Bei der A/V-Maschine
235 kann es sich um eine Hardware/Software-Komponente zum Synchronisieren des Audiosignals260 auf das Videosignal262 handeln. Die Maschine235 kann herkömmliche und/oder proprietäre Synchronisationsmechanismen verwenden, zu denen Zeit-Stempel, relativer Zeit-Stempel und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform kann die Maschine235 synchronisierte A/V-Signale246 erzeugen, die an die Einheiten210 ,260 übermittelt werden können. In der Ausführungsform können synchronisierte A/V-Signale246 in Echtzeit an geeignete Einheiten210 ,260 übermittelt werden. In einem Beispiel kann die Maschine235 die Funktionalität eines Audiosignal-Synchronizers verwenden, damit eine Synchronisation zwischen Ton- und Videosignal (Lippensynchronisation) erreicht werden kann. Die Maschine235 kann in Echtzeit oder Quasi-Echtzeit betrieben werden, wodurch erreicht wird, dass die Funktionalität des Systems200 transparent ist. Die Maschine235 kann einen oder mehrere herkömmliche und/oder proprietäre Mechanismen verwenden, um Latenzzeit, Jitter und andere Synchronisationsprobleme zu mindern, die beim Anschluss an ein Netzwerk auftreten können. - In einer Ausführungsform kann die Maschine
235 verwendet werden, um einen aktiven Sprecher aus einem Datenstrom des Audiosignals260 zu ermitteln. In der Ausführungsform kann die Maschine235 einen oder mehrere intelligente Algorithmen verwenden, um den besten aktiven Sprecher für den Datenstrom des Audiosignals260 zu ermitteln. Algorithmen können eine Audiosignalanalyse (z. B. Sprachverarbeitung) ausführen, wozu Amplitudenanalyse, Äußerungsdauer und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. - Bei den synchronisierten A/V-Signalen
246 kann es sich um einen Datensatz aus synchronisierten Audiosignalen und Videosignalen handeln, der durch die Maschine235 erzeugt wird. Die synchronisierten A/V-Signale246 können einen Audiodatenstrom, einen Videosignal-Datenstrom, Präsenz-Informationen, Metadaten und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. In einer Ausführungsform können die A/V-Signale246 an geeignete Einheiten210 ,260 individuell übertragen werden. In dem Beispiel kann der Videosignal-Datenstrom der A/V-Signale246 zur Einheit210 übermittelt werden, und der Audiodatenstrom der A/V-Signale246 kann gleichzeitig zur Konferenzeinheit260 übertragen werden. Das heißt, die Audio- und Video-Ausgabe ist synchronisiert, was zu einer Lösung führt, die herkömmlichen Mehrpunktsitzungen ähnlich ist. - Bei den Konfigurationseinstellungen
238 kann es sich um eine oder mehrere Optionen zum Manipulieren des Verhaltens des Servers230 handeln. Zu den Konfigurationseinstellungen238 können Benutzer-Konfigurationseinstellungen, Systemeinstellungen und dergleichen gehören, sind jedoch nicht auf diese beschränkt. Die Einstellungen238 können eine Sitzungskonfiguration, Wählpläne, Anruf-Richtlinien, Richtlinien der Dienstgüte (Quality of Service, QoS), Alias-Informationen und dergleichen enthalten, sind jedoch nicht auf diese beschränkt. - Bei dem Datenspeicher
240 kann es sich um ein materielles Speichermedium handeln, um eine240 kann ein Relational Database Management System (RDMBS), ein Object Oriented Database Management System (OODBMS) und dergleichen beinhalten, ist jedoch nicht auf diese beschränkt. Der Datenspeicher240 kann eine Komponente eines Network Attached Storage (NAS), Storage Attached Network (SAN) und dergleichen sein. - Die
236 ermöglicht. Die44 kann z. B. einen Tablet-Computer (z. B. Dev_A) einem Konferenztelefon (z. B. ConfD_A) zuordnen, um eine gleichzeitige Verwendung von Tablet- und Telefon-Ressourcen zu ermöglichen. Die210 zu ermöglichen. - Bei der Terminal-Einheit
210 kann es sich um eine bei einer Mehrpunktsitzung verwendete Datenverarbeitungseinheit handeln. Bei der Terminal-Einheit210 kann es sich um einen Desktop-Computer, einen Laptop-Computer, eine Tablet-Datenverarbeitungseinheit, ein Mobiltelefon, einen persönlichen digitalen Assistenten (PDA), eine Voice-over-Internet-Protokoll-fähige (VoIP-fähige) Einheit und dergleichen handeln, ohne jedoch auf diese beschränkt zu sein. Die Einheit210 kann Hardware211 , Software220 und eine Schnittstelle224 enthalten, ist jedoch nicht auf diese beschränkt. Die Hardware205 kann einen Prozessor212 , einen nichtflüchtigen Speicher211 , einen flüchtigen Speicher213 , einen Bus214 , einen Videosignal-Eingang215 , einen Videosignal-Ausgang216 , einen GPS-Empfänger217 , einen Transceiver218 und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Die Software220 kann ein Betriebssystem221 , eine Mehrpunkt-Anwendung222 und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. In einer Ausführungsform kann die Terminal-Einheit210 ein Laptop-Computer sein, der eine Mehrpunkt-Anwendung222 ausführt. Es sollte klar sein, dass die Terminal-Einheit210 Audiosignal-Eingabe/Ausgabe-Komponenten enthalten kann, die jedoch zur Klarheit selektiv weggelassen wurden. - Bei dem Prozessor
212 kann es sich um einen Abschnitt eines Datenverarbeitungssystems handeln, der Befehle eines Datenverarbeitungsprogramms (z. B. der Anwendung222 ) ausführen kann. Der Prozessor212 kann eine Zentraleinheit (CPU), einen Mikroprozessor, eine Grafik-Verarbeitungseinheit (GPU) und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. Der Prozessor212 kann verwendet werden, um Eingaben vom A/V-Eingang215 und Ausgaben vom A/V-Ausgang216 zu verarbeiten. Die Verarbeitung kann das Ausblenden von Störsignalen, Pufferung und dergleichen beinhalten, ist jedoch nicht auf diese beschränkt. - Bei dem nichtflüchtigen Speicher
211 kann es sich um ein statisches Speichermedium handeln, um Sitzungsdaten (z. B. Konfigurationseinstellungen) im Zusammenhang mit der Sitzung236 dauerhaft zu machen. Als Speicher211 kommen ein Flash-Speicher, ein Festplattenlaufwerk und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein. - Bei dem flüchtigen Speicher
213 kann es sich um ein dynamisches Speichermedium handeln, um Sitzungsdaten (z. B. eine Videosignal-Eingabe) im Zusammenhang mit der Sitzung236 vorübergehend dauerhaft zu machen. Als Speicher213 kommen ein Direktzugriffsspeicher (RAM), ein dynamischer RAM (DRAM), ein statischer RAM (SRAM) und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein. - Der Bus
214 kann ein zwischengeschaltetes Teilsystem sein, um die Komponenten212 bis218 zum Austausch von Daten zu verbinden. Der Bus214 kann seriell und/oder parallel sein, wodurch ein schnelles Übertragen von Daten zu und von den Komponenten212 bis218 ermöglicht wird. In einem Beispiel kann der Bus214 Daten von den Komponenten215 ,216 zu Komponenten212 bis214 ,218 übertragen. - Bei dem Videosignal-Eingang
216 kann es sich um eine Hardware-Komponente zum Empfangen von Videosignalen handeln, die von einem Teilnehmer eingegeben werden. Der Videosignal-Eingang216 kann eine Komponente sein wie etwa eine ladungsgekoppelte Einheit (CCD). In einer Ausführungsform können Daten vom Videosignal-Eingang216 in Echtzeit oder Quasi-Echtzeit empfangen, codiert und übertragen werden. In der Ausführungsform können empfangene Eingabedaten über den Prozessor212 codiert und unter Verwendung des Transceivers218 in Echtzeit als Videosignale262 zum Server230 übertragen werden. - Bei dem Videosignal-Ausgang
216 kann es sich um eine Hardware-Komponente zum Bereitstellen eines Videosignal-Abschnitts der synchronisierten A/V-Signale246 im Zusammenhang mit der Sitzung handeln. Der Ausgang216 kann A/V-Signale246 vom Mehrpunkt-Server empfangen und den Videosignal-Abschnitt im Ausgang216 bereitstellen. Das Videosignal eines Teilnehmers kann z. B. in der Schnittstelle der Anwendung222 (z. B. der Schnittstelle224 ) in dem Ausgang216 bereitgestellt werden. Der Ausgang216 kann eine Computeranzeige, eine Anzeige einer speziellen Datenübertragungseinheit und dergleichen enthalten, ist jedoch nicht auf diese beschränkt. Der Ausgang216 kann herkömmlichen und/oder proprietären Techniken entsprechen, zu denen Liquid Crystal Display (LCD), Organic Light Emitting Diode (LED) und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. - Bei dem GPS-Empfänger
217 kann es sich um eine Einheit handeln, die GPS-Daten auf der Grundlage eines automatisch ermittelten Standorts oder eines vom Benutzer spezifizierten Standorts empfangen kann. GPS-Daten können Abbildungsdaten, GPS-Koordinatendaten und dergleichen enthalten, sind jedoch nicht auf diese beschränkt. In einem Beispiel kann der GPS-Empfänger217 eine externe Einheit sein, die mit der Einheit210 zum Austausch von Daten verbunden ist. - Bei dem Transceiver
218 kann es sich um eine Komponente handeln, die einen Austausch von Daten zwischen den Komponenten230 ,250 ermöglicht. Bei dem Transceiver218 kann es sich um einen Transceiver zur Computervernetzung, einen Hochfrequenz-(HF-)Transceiver und dergleichen handeln. - Die Anwendung
222 kann eine Software-Entität sein, die einen Austausch von (nicht gezeigten) Audiosignalen und Videosignalen262 zum Mehrpunkt-Server230 ermöglicht. Die Anwendung222 kann auf den Standort der Einheit210 anhand einer oder mehrerer individuell anpassungsfähiger Konfigurationen ansprechen. In einem Beispiel kann die Einheit210 eine Audiosignaleingabe, die der Einheit210 zugehörig ist, automatisch beenden/aktivieren, wenn sich die Nähe der Einheit250 ändert. In einer Ausführungsform kann das Beenden/Aktivieren von Audiosignalen auf verbalen Äußerungen beruhen. In einer Konfiguration der Ausführungsform kann die Anwendung222 Pausen in einem Audiodatenstrom, der durch eine Audiosignal-Eingabekomponente (z. B. Mikrofon) empfangen wird, ermitteln und die Audiosignaleingabe intelligent beenden/aktivieren. In dem Beispiel kann eine Schnittstellen-Benachrichtigung bereitgestellt werden, die einem Teilnehmer meldet, dass der Audiodatenstrom einer in der Nähe befindlichen Einheit250 verwendet werden kann. In einem Beispiel kann die Anwendung222 IBM Sametime® Software sein. IBM, Lotus und Sametime sind Warenzeichen von International Business Machines Corporation, die weltweit in vielen Gerichtsbarkeiten registriert sind. - Bei dem Netzwerk
270 kann es sich um eine Hardware/Software-Komponente handeln, die einen Austausch von Daten zwischen den Komponenten210 ,230 ,250 ermöglicht. Das Netzwerk270 kann leitungsgestützte Technologien, drahtlose Technologien und jede Kombination hiervon beinhalten, ohne jedoch auf diese beschränkt zu sein. Als leitungsgestützte Technologien kommen verdrillte Leitungen, Koaxialkabel, Lichtwellenleiter und dergleichen infrage, ohne jedoch auf diese beschränkt zu sein. Zu drahtlosen Technologien können zellulare Systeme, ein Personal Communication Service(PCS-)System, ein drahtloses Nachbereichs-Netzwerk (WLAN), terrestrische Mikrowellen und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. Das Netzwerk270 kann Datenübertragungsprotokolle verwenden, zu denen Real-time Transport Protocol (RTP), RTP Control Protocol (RTCP), User Datagram Protocol, Internet-Protocol, H.323, Session Initiated Protocol und dergleichen gehören, ohne jedoch auf diese beschränkt zu sein. - Hier dargestellte Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht begrenzen. Das System
200 kann eine Komponente eines verteilten Netzwerks, einer verteilten Datenverarbeitungsumgebung, Cloud-Datenverarbeitungsumgebung und dergleichen sein. Es sollte klar sein, dass die Funktionalität des Systems200 in einer vorhandenen Mehrpunkt-Architektur umgesetzt werden kann. Es sollte angemerkt werden, dass die Übertragung von Daten des Systems200 bidirektional und/oder in Echtzeit erfolgen kann. Des Weiteren kann das System200 eine Wechselwirkung mit einer fremden Software und/oder Mehrpunkt-Konferenzeinheiten ermöglichen, denen die Funktionalität des Umschaltens von Videosignalen fehlen kann. - In einem Beispiel kann der Server
230 Ressourcen-Kapazitätsgrenzen automatisch erkennen und relevante Teilnehmer durch eine Schnittstellennachricht benachrichtigen, die an der Einheit210 (z. B. Schnittstelle224 ) bereitgestellt wird. In dem Beispiel kann die Nachricht einem Teilnehmer eine vorgeschlagene in der Nähe befindliche Konferenzeinheit250 anbieten. - Wenn z. B. die Ressourcen des Servers
230 begrenzt sind, können ein oder mehrere Teilnehmer benachrichtigt werden, dass sich im Zusammenhang mit der Sitzung ein Konferenztelefon in der Nähe befindet. -
3 ist eine schematische Darstellung, die eine Gruppe von Schnittstellen310 ,340 zum Verbessern der Skalierbarkeit einer Mehrpunktsitzung für sich am gleichen Ort befindliche Teilnehmer gemäß einer Ausführungsform der hier offenbarten erfinderischen Anordnungen veranschaulicht. Die Schnittstelle310 ,340 kann im Kontext des Verfahrens100 und des Systems200 vorhanden sein. Bei der Schnittstelle310 ,340 kann es sich um einen Bildschirm handeln, der einem Konfigurationsfenster zugehörig ist. Die Schnittstelle310 ,340 kann clientseitigen Einstellungen, serverseitigen Einstellungen und dergleichen zugehörig sein. In einem Beispiel kann die Schnittstelle310 ,340 in der Schnittstelle224 bereitgestellt werden. In einem anderen Beispiel kann die Schnittstelle310 ,340 in einer (nicht gezeigten) Schnittstelle bereitgestellt werden, die dem Server230 zugehörig ist. In einem Beispiel kann die Schnittstelle310 ,340 einer oder mehreren Zonen in einer Netzwerk-Konfiguration zugehörig sein. - In der Schnittstelle
310 kann die Konfiguration der Konferenzeinheit eingerichtet und/oder verändert werden. Unter Verändern ist das Hinzufügen einer Konferenzeinheit, das Modifizieren der Konfiguration einer Konferenzeinheit, das Löschen einer Konferenzeinheit und dergleichen zu verstehen, ohne jedoch auf diese beschränkt zu sein. In einem Beispiel kann die Schnittstelle310 eine serverseitige Einstellung sein, die dem Server230 zugehörig ist. In dem Beispiel kann die Schnittstelle310 eine Modifikation der - Im Abschnitt
312 können verfügbare Konferenzeinheiten, die im System200 registriert sind, bereitgestellt werden. In dem Abschnitt312 kann eine Auswahl der Konferenzeinheit ausgeführt werden. Die Auswahl einer Konferenzeinheit kann ermöglichen, dass Aktionen322 bis324 ausgelöst werden. - Das Element
320 kann das automatisierte und/oder manuelle Hinzufügen einer Konferenzeinheit ermöglichen. In einem Beispiel kann das Element320 einen Pop-up-Dialog bereitstellen, der das Eingeben von Einzelheiten der Konferenzeinheit ermöglicht. In einem anderen Beispiel kann das Element320 einen Pop-up-Dialog bereitstellen, der eine Reihe von automatisch erfassten Konferenzeinheiten bereitstellt. Wenn eine Konferenzeinheit angefügt wird, kann die Einheit im System200 registriert und im Abschnitt312 bereitgestellt werden. - Das Element
322 kann eine Modifikation von registrierten Konferenzeinheiten über eine Einheitenauswahl im Abschnitt312 ermöglichen. Das Element322 kann ermöglichen, dass eine dynamische Einrichtung von Konferenzeinheiten-Einstellungen ausgeführt wird. In einem Beispiel kann das Element222 einen Pop-up-Dialog bereitstellen, der aktuelle Einstellungen der Konferenzeinheit zeigt. In dem Beispiel kann eine Benutzereingabe empfangen werden, um Einstellungen der Konferenzeinheit zu ändern. Wenn sich zum Beispiel die Kennung einer Konferenzeinheit ändert, kann das Element322 verwendet werden, um die Einstellung manuell so zu aktualisieren, dass sie die Änderung wiedergibt. - Das Element
324 kann ein Abmelden von Konferenzeinheiten vom System200 ermöglichen. Das Element324 kann eine ausgewählte Konferenzeinheit im Abschnitt312 aus der Darstellung entfernen. In einem Beispiel können Einstellungen der Konferenzeinheit entfernt werden, wenn das Element324 ausgewählt wird. In einem anderen Beispiel können Einstellungen der Konferenzeinheit automatisch dauerhaft gemacht werden. Das Element324 kann z. B. verwendet werden, um Konferenzeinheiten zu entfernen, die infolge eines Einheitenfehlers entfernt und/oder ersetzt wurden. - In der Schnittstelle
340 können Einstellungen der Terminal-Einheiten-Konfiguration eingerichtet und/oder verändert werden. In der Schnittstelle340 können Einstellungen342 bis346 verwendet werden, wenn eine Terminal-Einheit in die Nähe einer Konferenzeinheit eintritt und/oder diese verlässt. Die Einstellungen342 bis346 können dynamisch angewendet werden, um flexible Optionen der Echtzeit-Konfiguration zu ermöglichen. Es sollte klar sein, dass die Schnittstelle340 nicht auf Terminal-Einheiten-Einstellungen beschränkt ist und Sitzungseinstellungen, Konferenzeinheiten-Einstellungen und dergleichen enthalten kann. - Durch die Einstellung
342 können Videosignal-Mechaniken beibehalten werden, wenn eine in der Nähe befindliche Konferenzeinheit verwendet wird. Wenn die Einstellung342 freigegeben wird, kann das System200 automatisch die geeignete Videosignal-Umsetzung zur Verwendung in der Sitzung236 erfassen. Wenn in einem Beispiel das Umschalten eines Videosignals wie etwa eine Funktionalität „aktiver Sprecher” in einer Sitzung verwendet wird, kann das Umschalten des Videosignals unter Verwendung der Einstellung342 aufrechterhalten werden. - Die Einstellung
346 kann eine Benachrichtigung des Benutzers (z. B. des Teilnehmers) ermöglichen, wenn Audiosignaleingaben infolge der Nähe zu einer Konferenzeinheit geändert werden. Die Einstellung346 kann eine oder mehrere Optionen enthalten, um einen Benutzer zu benachrichtigen, wenn die Audiosignaleingabe in einer Terminal-Einheit beendet und/oder begonnen wird. Zum Beispiel kann ein Ton (z. B. ein Summersignal) bereitgestellt werden, wenn ein Benutzer die nähere Umgebung einer Konferenzeinheit verlässt, und die Audiosignaleingabe wird in der Terminal-Einheit begonnen. - Die Einstellung
346 kann ein oder mehrere sich in der Nähe befindliche Konferenzeinheiten, die zur Verfügung stehen, anhand der Nähe zur Terminal-Einheit bereitstellen. In einem Beispiel kann die Einstellung346 eine manuelle Auswahl von sich in der Nähe befindlichen Konferenzeinheiten ermöglichen. In einem anderen Beispiel kann die Einstellung346 eine automatische Auswahl einer Konferenzeinheit, die bereitgestellt werden soll, zulassen. Die Einstellung346 kann z. B. einen Aliasnamen (z. B. Konferenzraum A) von Konferenzeinheiten bereitstellen, wodurch ein Teilnehmer die Konferenzeinheit einfach identifizieren kann. - Die hier bereitgestellten Zeichnungen dienen lediglich Erläuterungszwecken und sollten nicht so ausgelegt werden, dass sie die Erfindung in irgendeiner Hinsicht einschränken. Bei der Schnittstelle
310 ,340 kann es sich um eine grafische Benutzerschnittstelle, eine textgestützte Benutzerschnittstelle, eine sprachgestützte Benutzerschnittstelle, eine Schnittstelle mit gemischten Modi und dergleichen handeln. Die Funktionalität, die in der Schnittstelle310 ,340 ausgedrückt wird, kann in Dateimenüs, Kontextmenüs, Menüleisten, Werkzeugleisten und dergleichen vorhanden sein. Die Schnittstelle310 ,340 kann ein oder mehrere Elemente der grafischen Benutzerschnittstelle enthalten, wozu Kontrollkästchen, Menüauswahl-Dialoge, Comboboxen und dergleichen enthalten, ohne jedoch auf diese beschränkt zu sein. Die Schnittstelle310 ,340 kann eine Eingabe und/oder eine Auswahl über herkömmliche und/oder proprietäre Mechanismen empfangen, wozu Tastatur, Maus, Fingerbewegungen und dergleichen gehören. - Der Ablaufplan und Blockschaubilder in den
1 bis3 veranschaulichen die Architektur, Funktionalität und den Betrieb von möglichen Umsetzungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedener Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in dem Ablaufplan oder Blockschaubildern ein Modul, Segment oder Abschnitt von Code repräsentieren, das/der einen oder mehrere ausführbare Befehle zum Umsetzen der spezifizierten logischen Funktion(en) aufweist. Es sollte außerdem angemerkt werden, dass in einigen alternativen Umsetzungen die in dem Block angegebenen Funktionen nicht in der in den Figuren angegebenen Reihenfolge auftreten können. Zum Beispiel können zwei Blöcke, die nacheinander gezeigt sind, tatsächlich im Wesentlichen gleichzeitig ausgeführt werden oder die Blöcke können gelegentlich in Abhängigkeit von der beteiligten Funktionalität in der umgekehrten Reihenfolge ausgeführt werden. Es wird außerdem angemerkt, dass jeder Block der Blockschaubilder und/oder Ablaufplan-Darstellung und Kombinationen von Blöcken in den Blockschaubildern und/oder der Ablaufplan-Darstellung durch auf spezielle Hardware gestützte Systeme, die die spezifizierten Funktionen oder Wirkungen ausführen, oder Kombinationen aus spezieller Hardware und Computerbefehlen umgesetzt werden können. - Wie dem Fachmann klar sein wird, können Aspekte der vorliegenden Erfindung als System, Verfahren oder Computerprogramm oder Computerprogrammprodukt ausgeführt werden. Dementsprechend können Aspekte der vorliegenden Erfindung einschließlich der beschriebenen Aspekte von „Software-Komponenten” (z. B. die Komponenten zum Identifizieren, Anfordern, Berechnen, Senden und Migrieren) die Form einer reinen Hardware-Ausführungsform, einer reinen Software-Ausführungsform (die Firmware, residente Software, Mikrocode usw. enthält) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hier alle allgemein als ”Schaltung”, ”Modul” oder ”System” bezeichnet werden können. Des Weiteren können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, die computerlesbaren Programmcode, der darauf verkörpert ist, aufweisen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- Goose, S. u. a. ”Method and System for Video Conferencing in a Virtual Environment”, 5. Februar 2009 [0003]
Claims (18)
- Verfahren zum Verbessern von Mehrpunkt-Konferenzen, wobei das Verfahren aufweist: Identifizieren einer Terminal-Einheit, die zu einem Teilnehmer einer Mehrpunktsitzung gehört, wobei der Mehrpunktsitzung ein Mehrpunkt-Videodatenstrom und ein Mehrpunkt-Audiodatenstrom zugehörig sind, wobei es sich bei der Terminal-Einheit um eine Datenverarbeitungseinheit handelt, die einen Terminal-Einheiten-Audioeingang, einen Terminal-Einheiten-Videoeingang und einen Terminal-Einheiten-Videoausgang aufweist und wobei es sich bei der Mehrpunktsitzung um eine Konferenz mit einer Telefonsitzung handelt; Ermitteln des Standorts der Terminal-Einheit und einer Konferenzeinheit, wobei die Konferenzeinheit mit einem Konferenz-Audioeingang und einem Konferenz-Audioausgang ausgestattet ist; und Beenden eines Terminal-Einheiten-Audiodatenstroms, der dem Terminal-Einheiten-Audioeingang zugehörig ist, und Empfangen eines Konferenz-Audiodatenstroms von dem Konferenz-Audioeingang in Reaktion darauf, dass sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet; und gleichzeitiges Bereitstellen eines Terminal-Einheiten-Videodatenstroms an dem Terminal-Einheiten-Videoausgang und eines zweiten Konferenz-Audiodatenstroms an dem Konferenz-Audioausgang, wobei der Terminal-Einheiten-Videodatenstrom und der zweite Konferenz-Audiodatenstrom synchronisiert sind, und wobei der Terminal-Einheiten-Audiodatenstrom und der zweite Konferenz-Audiodatenstrom der Mehrpunktsitzung zugehörig sind.
- Verfahren nach Anspruch 1, das ferner aufweist: Bereitstellen wenigstens einer vorgeschlagenen Konferenzeinheit in der Nähe des Standort der wenigstens einer Terminal-Einheit.
- Verfahren nach Anspruch 2, das ferner aufweist: Zuordnen der wenigstens einen vorgeschlagenen Konferenzeinheit zu der Mehrpunktsitzung.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei die Mehrpunktsitzung mit der Fähigkeit einer Video-Umschaltung ausgestattet ist, wobei durch die Fähigkeit der Video-Umschaltung ein Teilnehmer-Videodatenstrom, der einem Teilnehmer von Interesse zugehörig ist, optisch angezeigt wird und wobei die Fähigkeit der Video-Umschaltung in Reaktion darauf, dass der Terminal-Einheiten-Audiodatenstrom beendet wird, aufrechterhalten wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt der gleichzeitigen Darstellung eine Lippensynchronisation aufweist.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei die Telefonsitzung einer Sitzung nach dem Voice-over-Internet-Protokoll entspricht.
- Verfahren nach einem der vorhergehenden Ansprüche, das ferner aufweist: Empfangen eines zweiten Terminal-Einheiten-Audiodatenstroms von dem Terminal-Einheiten-Audioeingang und eines zweiten Terminal-Einheiten-Videodatenstroms von dem Terminal-Einheiten-Videoeingang in Reaktion darauf, dass sich die Terminal-Einheit nicht in der Nähe der Konferenzeinheit befindet; und Bereitstellen eines dritten Terminal-Einheiten-Videodatenstroms in dem Terminal-Einheiten-Videoausgang und eines dritten Terminal-Einheiten-Audiodatenstroms in dem Terminal-Einheiten-Audioausgang der Terminal-Einheit.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei es sich bei der Konferenzeinheit um eine Telefoneinheit und/oder eine Videotelefoneinheit und/oder ein Telepräsenzsystem handelt.
- System zum Verbessern von Mehrpunkt-Konferenzen, wobei das System aufweist: eine Präsenz-Maschine zum Ermitteln des Standorts einer Terminal-Einheit in Verbindung mit einer Mehrpunktsitzung, wobei der Terminal-Einheit ein Terminal-Einheiten-Audiodatenstrom und ein Terminal-Einheiten-Videodatenstrom zugehörig sind, wobei die Mehrpunktsitzung eine Konferenz mit einer Telefonsitzung ist; einen Bridge-Manager zum Hinzufügen oder Entfernen einer Konferenzeinheit zu bzw. aus der Sitzung, wobei der Konferenzeinheit ein Konferenz-Audiodatenstrom zugehörig ist; und eine Abbildungsstruktur zum Verknüpfen der Konferenzeinheit mit einer eindeutigen Kennung und/oder einem Standort.
- System nach Anspruch 9, das ferner aufweist: eine A/V-Maschine zum Synchronisieren eines Terminal-Einheiten-Videodatenstroms, der der Terminal-Einheit zugehörig ist, die durch einen Teilnehmer der Mehrpunktsitzung verwendet wird, und eines Konferenz-Audiodatenstroms, der der Konferenzeinheit zugehörig ist, wobei es sich bei dem Konferenz-Audiodatenstrom um Sprache des Teilnehmers handelt.
- System nach einem der Ansprüche 9 oder 10, wobei ein Standort der Abbildung ein geografischer Ort und/oder Koordinaten und/oder eine Zone ist.
- System nach einem der Ansprüche 9 bis 11, wobei eine eindeutige Kennung der Abbildungsstruktur eine Media-Access-Layer-(MAC-)Adresse und/oder eine Internet-Protocol-(IP-)-Adresse ist.
- System nach einem der Ansprüche 9 bis 12, wobei der Bridge-Manager ferner funktionsmäßig in der Lage ist, das Beenden des Terminal-Einheiten-Audiodatenstroms und/oder des Konferenz-Audiodatenstroms auszulösen.
- System nach einem der Ansprüche 9 bis 13, wobei die Präsenz-Maschine und/oder der Bridge-Manager und/oder die Abbildungsstruktur einer Mehrpunkt-Steuereinheit zugehörig sind.
- System nach einem der Ansprüche 9 bis 14, wobei zu dem Bridge-Manager ein H.323-Gatekeeper gehört.
- System nach Anspruch 9, das ferner aufweist: ein Mittel zum Beenden eines Terminal-Einheiten-Audiodatenstroms, der dem Terminal-Einheiten-Audioeingang zugehörig ist; ein Mittel zum Empfangen eines Konferenz-Audiodatenstroms von dem Konferenz-Audioeingang in Reaktion darauf, dass sich die Terminal-Einheit in der Nähe der Konferenzeinheit befindet; und ein Mittel zum Bereitstellen eines Terminal-Einheiten-Videodatenstroms an dem Terminal-Einheiten-Videoausgang und eines Konferenz-Audiodatenstroms an dem Konferenz-Audioausgang, wobei der Terminal-Einheiten-Videodatenstrom und der Konferenz-Audiodatenstrom synchronisiert sind und wobei der Terminal-Einheiten-Videodatenstrom und der zweite Konferenz-Audiodatenstrom der Mehrpunktsitzung zugehörig sind.
- Computerprogrammprodukt zum Verbessern von Mehrpunkt-Konferenzen, wobei das Computerprogrammprodukt ein computerlesbares Speichermedium aufweist, das durch eine Verarbeitungsschaltung gelesen werden kann und Befehle zur Ausführung durch die Verarbeitungsschaltung speichert, um ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.
- Computerprogramm, das auf einem computerlesbaren Medium gespeichert ist und in den internen Speicher eines digitalen Computers ladbar ist und Software-Codeabschnitte aufweist, um das Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen, wenn das Programm auf einem Computer ausgeführt wird.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/953,556 US8416281B2 (en) | 2010-11-24 | 2010-11-24 | Multipoint conference scalability for co-located participants |
US12/953,556 | 2010-11-24 | ||
PCT/EP2011/070645 WO2012069456A1 (en) | 2010-11-24 | 2011-11-22 | Improving multipoint conference scalability for co-located participants |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112011103893T5 true DE112011103893T5 (de) | 2013-09-19 |
DE112011103893B4 DE112011103893B4 (de) | 2015-02-26 |
Family
ID=45092336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011103893.3T Expired - Fee Related DE112011103893B4 (de) | 2010-11-24 | 2011-11-22 | Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer |
Country Status (5)
Country | Link |
---|---|
US (2) | US8416281B2 (de) |
CN (1) | CN103229495B (de) |
DE (1) | DE112011103893B4 (de) |
GB (1) | GB2499759B (de) |
WO (1) | WO2012069456A1 (de) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9432631B2 (en) * | 2011-04-04 | 2016-08-30 | Polaris Wireless, Inc. | Surveillance system |
GB2520451B (en) | 2012-03-20 | 2015-09-30 | Media Network Services As | Data distribution system |
TWI513320B (zh) * | 2012-06-25 | 2015-12-11 | Hon Hai Prec Ind Co Ltd | 視訊會議裝置及其唇形同步的方法 |
JP5973289B2 (ja) * | 2012-08-28 | 2016-08-23 | 京セラ株式会社 | 携帯端末、音声制御プログラムおよび音声制御方法 |
CN103684819A (zh) * | 2012-09-07 | 2014-03-26 | 中兴通讯股份有限公司 | 配置参数的获取方法及装置 |
CN104469255A (zh) | 2013-09-16 | 2015-03-25 | 杜比实验室特许公司 | 改进的音频或视频会议 |
US10122896B2 (en) | 2012-12-14 | 2018-11-06 | Avaya Inc. | System and method of managing transmission of data between two devices |
US8970651B2 (en) * | 2012-12-14 | 2015-03-03 | Avaya Inc. | Integrating audio and video conferencing capabilities |
US10320803B2 (en) * | 2012-12-28 | 2019-06-11 | Dish Technologies Llc | Determining eligibility for multiple client media streaming |
JP2014165888A (ja) * | 2013-02-27 | 2014-09-08 | Saxa Inc | 会議端末、会議サーバ、会議システム、およびプログラム |
JP2014165887A (ja) * | 2013-02-27 | 2014-09-08 | Saxa Inc | 会議端末、およびプログラム |
US9438993B2 (en) | 2013-03-08 | 2016-09-06 | Blackberry Limited | Methods and devices to generate multiple-channel audio recordings |
US9210198B2 (en) | 2013-05-31 | 2015-12-08 | Vonage Networks Llc | Method and apparatus for transferring active communication session streams between devices |
GB2526851B (en) * | 2014-06-05 | 2021-02-24 | Vodafone Ip Licensing Ltd | Facilitating a conference call |
JP6369212B2 (ja) * | 2014-08-11 | 2018-08-08 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム、プログラム、及び記録媒体 |
EP3210373B1 (de) * | 2015-07-09 | 2020-03-11 | Ale International | Mehrpunktkommunikationssystem und -verfahren |
US10447795B2 (en) * | 2015-10-05 | 2019-10-15 | Polycom, Inc. | System and method for collaborative telepresence amongst non-homogeneous endpoints |
WO2018009209A1 (en) * | 2016-07-08 | 2018-01-11 | Hewlett-Packard Development Company, L.P. | Muting microphones of physically colocated devices |
US9774824B1 (en) * | 2016-07-18 | 2017-09-26 | Cisco Technology, Inc. | System, method, and logic for managing virtual conferences involving multiple endpoints |
KR102325764B1 (ko) * | 2017-09-01 | 2021-11-11 | 삼성에스디에스 주식회사 | 컨퍼런스 시스템 및 상기 시스템에서의 오디오 컨퍼런스와 웹 컨퍼런스간 연동 방법 |
KR20190033750A (ko) * | 2017-09-22 | 2019-04-01 | 삼성에스디에스 주식회사 | 컨퍼런스 시스템 및 상기 시스템에서의 이종 컨퍼런스간 참석자 정보 연계 장치 및 방법 |
US10708715B2 (en) * | 2017-10-16 | 2020-07-07 | Christopher Anthony Silva | Method and system for 3-D location of mobile devices |
JP7092048B2 (ja) * | 2019-01-17 | 2022-06-28 | 日本電信電話株式会社 | 多地点制御方法、装置及びプログラム |
US10785271B1 (en) * | 2019-06-04 | 2020-09-22 | Microsoft Technology Licensing, Llc | Multipoint conferencing sessions multiplexed through port |
CN114616606A (zh) * | 2019-08-19 | 2022-06-10 | 听波特公司 | 具有改进的目的地回放的多设备会议 |
US10771272B1 (en) * | 2019-11-01 | 2020-09-08 | Microsoft Technology Licensing, Llc | Throttling and prioritization for multichannel audio and/or multiple data streams for conferencing |
US12101199B1 (en) * | 2023-07-21 | 2024-09-24 | Capital One Services, Llc | Conference system for use of multiple devices |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE261223T1 (de) | 1994-09-16 | 2004-03-15 | Sbc Techn Res Inc | Adaptives mehrpunktvideogestaltungs- und überbrückungssystem |
US5896128A (en) | 1995-05-03 | 1999-04-20 | Bell Communications Research, Inc. | System and method for associating multimedia objects for use in a video conferencing system |
CN100473159C (zh) * | 1997-03-17 | 2009-03-25 | 松下电器产业株式会社 | 发送和接收动态图像数据的方法 |
US6952471B1 (en) * | 2000-06-09 | 2005-10-04 | Agere Systems Inc. | Handset proximity muting |
US7099288B1 (en) * | 2001-10-16 | 2006-08-29 | Sprint Communications Company L.P. | Telephonic addressing for establishing simultaneous voice and computer network connections |
FI112016B (fi) | 2001-12-20 | 2003-10-15 | Nokia Corp | Konferenssipuhelujärjestely |
US7046779B2 (en) | 2002-02-15 | 2006-05-16 | Multimedia Telesys, Inc. | Video conference system and methods for use at multi-station sites |
US7136398B1 (en) * | 2002-03-14 | 2006-11-14 | Cisco Technology, Inc. | Method and apparatus for adding functionality to an existing conference call |
US7325033B2 (en) | 2002-07-18 | 2008-01-29 | Clearcube Technology, Inc. | Video conferencing system using video manager to provide picture-in-picture image to display devices located remotely from co-located computing systems |
JP4185346B2 (ja) * | 2002-10-18 | 2008-11-26 | 株式会社日立製作所 | ストレージ装置及びその構成設定方法 |
US20040207719A1 (en) * | 2003-04-15 | 2004-10-21 | Tervo Timo P. | Method and apparatus for exploiting video streaming services of mobile terminals via proximity connections |
US7154526B2 (en) | 2003-07-11 | 2006-12-26 | Fuji Xerox Co., Ltd. | Telepresence system and method for video teleconferencing |
TWI245211B (en) * | 2004-09-15 | 2005-12-11 | High Tech Comp Corp | Portable electronic apparatus and video conference system integrated with the same |
US7468738B2 (en) | 2005-04-27 | 2008-12-23 | Sbc Knowledge Ventures, L.P. | Method and system of multilocation video conferencing |
US7876890B2 (en) * | 2006-06-15 | 2011-01-25 | Avaya Inc. | Method for coordinating co-resident teleconferencing endpoints to avoid feedback |
US7983406B2 (en) * | 2007-03-19 | 2011-07-19 | Avaya Inc. | Adaptive, multi-channel teleconferencing system |
US20080273078A1 (en) | 2007-05-01 | 2008-11-06 | Scott Grasley | Videoconferencing audio distribution |
US8279254B2 (en) | 2007-08-02 | 2012-10-02 | Siemens Enterprise Communications Gmbh & Co. Kg | Method and system for video conferencing in a virtual environment |
US9246924B2 (en) * | 2007-12-13 | 2016-01-26 | Sonim Technologies, Inc. | Method for sharing service identity among multiple client devices in a real-time communications network |
US8918541B2 (en) | 2008-02-22 | 2014-12-23 | Randy Morrison | Synchronization of audio and video signals from remote sources over the internet |
US8487975B2 (en) * | 2009-01-27 | 2013-07-16 | Lifesize Communications, Inc. | Conferencing system utilizing a mobile communication device as an interface |
US20110040836A1 (en) * | 2009-05-04 | 2011-02-17 | Andrew Allen | System and method for implementing media and media control transfer between devices |
-
2010
- 2010-11-24 US US12/953,556 patent/US8416281B2/en active Active
-
2011
- 2011-11-22 DE DE112011103893.3T patent/DE112011103893B4/de not_active Expired - Fee Related
- 2011-11-22 GB GB1310461.7A patent/GB2499759B/en not_active Expired - Fee Related
- 2011-11-22 WO PCT/EP2011/070645 patent/WO2012069456A1/en active Application Filing
- 2011-11-22 CN CN201180056224.9A patent/CN103229495B/zh not_active Expired - Fee Related
-
2012
- 2012-05-30 US US13/483,201 patent/US8797379B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
Goose, S. u. a. "Method and System for Video Conferencing in a Virtual Environment", 5. Februar 2009 |
Also Published As
Publication number | Publication date |
---|---|
US8797379B2 (en) | 2014-08-05 |
WO2012069456A1 (en) | 2012-05-31 |
GB2499759A (en) | 2013-08-28 |
CN103229495B (zh) | 2015-07-22 |
US20120236110A1 (en) | 2012-09-20 |
CN103229495A (zh) | 2013-07-31 |
DE112011103893B4 (de) | 2015-02-26 |
GB2499759B (en) | 2017-09-13 |
GB201310461D0 (en) | 2013-07-24 |
US20120127263A1 (en) | 2012-05-24 |
US8416281B2 (en) | 2013-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011103893B4 (de) | Verbessern der Skalierbarkeit einer Mehrpunktkonferenz für sich am gleichen Ort befindliche Teilnehmer | |
US9935987B2 (en) | Participation queue system and method for online video conferencing | |
US9329833B2 (en) | Visual audio quality cues and context awareness in a virtual collaboration session | |
US9462224B2 (en) | Guiding a desired outcome for an electronically hosted conference | |
DE102009043277B4 (de) | Interpretation von Gebärden, um visuelle Warteschlangen bereitzustellen | |
US9705691B2 (en) | Techniques to manage recordings for multimedia conference events | |
CA2874715C (en) | Dynamic video and sound adjustment in a video conference | |
US8994781B2 (en) | Controlling an electronic conference based on detection of intended versus unintended sound | |
CN106547469A (zh) | 无线触控一体实现方法以及无线触控一体机 | |
KR20110021748A (ko) | 멀티미디어 회의 이벤트를 위한 미디어 콘텐츠를 관리하는 기술 | |
US9888211B1 (en) | Replacing live video of a meeting participant with recorded video of the meeting participant during an online meeting | |
DE202013012652U1 (de) | Audio-Video Kommunikation, vermittelt durch einen Server verringerter Latenz | |
CN103703719A (zh) | 使通信会话中的参与者静音 | |
DE102011107992A1 (de) | System und Verfahren zum Anmelden zu Ereignissen auf der Grundlage von Schlagwörtern | |
EP4082164A1 (de) | Verfahren und system zum bereitstellen von dynamisch gesteuerten ansichtszuständen zur verbesserten beteiligung während kommunikationssitzungen | |
EP3005690B1 (de) | Verfahren und system zum zuordnen einer externen vorrichtung zu einer videokonferenzsitzung | |
US20150341565A1 (en) | Low data-rate video conference system and method, sender equipment and receiver equipment | |
DE102022121067A1 (de) | Screen, video-, audio- und textfreigabe in mehrparteien-video-konferenzen | |
DE102021123577A1 (de) | Audioqualitäts-feedback während einer live-übertragung von einer quelle | |
DE102022202645A1 (de) | Systeme und verfahren zur bereitstellung elektronischer ereignisinformationen | |
KR20170013860A (ko) | 오브젝트-기반 원격 회의 프로토콜 | |
DE102007058585B4 (de) | Vorrichtung und Verfahren zur Durchführung von Fernbesprechungen | |
DE102023114371A1 (de) | Autofokus auf lautsprecher während kommunikationskonferenzen mit mehreren teilnehmern | |
US20160127687A1 (en) | Methods and systems for streaming media transmission |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE Representative=s name: SPIES DANNER & PARTNER PATENTANWAELTE PARTNERS, DE Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE |
|
R082 | Change of representative |
Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE Representative=s name: SPIES DANNER & PARTNER PATENTANWAELTE PARTNERS, DE |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE |
|
R018 | Grant decision by examination section/examining division | ||
R084 | Declaration of willingness to licence | ||
R020 | Patent grant now final | ||
R082 | Change of representative |
Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE |
|
R082 | Change of representative |
Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |