ES2472715T3 - Barrido de audio en una conferencia con múltiples participantes - Google Patents

Barrido de audio en una conferencia con múltiples participantes Download PDF

Info

Publication number
ES2472715T3
ES2472715T3 ES11192109.4T ES11192109T ES2472715T3 ES 2472715 T3 ES2472715 T3 ES 2472715T3 ES 11192109 T ES11192109 T ES 11192109T ES 2472715 T3 ES2472715 T3 ES 2472715T3
Authority
ES
Spain
Prior art keywords
audio
audio signal
participant
participants
conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11192109.4T
Other languages
English (en)
Inventor
Hyeonkuk Jeong
Ryan Salsbury
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Application granted granted Critical
Publication of ES2472715T3 publication Critical patent/ES2472715T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Un medio legible por ordenador de un primer dispositivo de participante en una conferencia con múltiples participantes, almacenando el medio legible por ordenador un programa de ordenador que cuando es ejecutado por al menos una unidad de procesamiento del primer dispositivo participante crea un efecto de barrido estéreo, comprendiendo el programa de ordenador instrucciones para: mostrar representaciones de cada uno de al menos dos participantes diferentes en lugares distintos en un área de visualización; caracterizado porque el programa de ordenador comprende además instrucciones para: recibir una única señal de audio (220), en donde la única señal de audio (220) comprende audio mixto que comprende audio capturado a partir de dos o más de los al menos dos participantes, comprendiendo la única señal de audio recibida (220) datos indicativos de una intensidad de señal para cada uno de los diferentes participantes; y barrer la única señal de audio recibida (220) a lo largo de altavoces de audio utilizando el conjunto de los datos de intensidad de señal con el fin de crear un efecto que una ubicación percibida de una señal de audio de un participante en particular coincide con la ubicación del participante en particular en el área de visualización.

Description

Barrido de audio en una conferencia con múltiples participantes
CAMPO DE LA INVENCIÓN
La presente invención se refiere al procesado de audio en una conferencia con múltiples participantes.
ANTECEDENTES DE LA INVENCIÓN
Con la proliferaci�n de los ordenadores de propósito general, ha habido un aumento de la demanda para la realización de conferencias a través de ordenadores personales o de negocios. En tales conferencias, es deseable identificar rápidamente a los participantes que est�n hablando en un momento dado. Tal identificación, sin embargo, se vuelve difícil a medida que se añaden más participantes, en especial para los participantes que sólo reciben datos de audio. Esto se debe a que las aplicaciones de conferencia anteriores no proporcionan ningún pista visual o auditiva para ayudar a identificar hablantes activos durante una conferencia. Por lo tanto, existe una necesidad en la técnica de aplicaciones de conferencia que ayuden a un participante a identificar rápidamente los participantes que hablan activamente en la conferencia.
El documento US5548346 se refiere a un procedimiento de comunicación de múltiples ubicaciones para un sistema de videoconferencia adaptado para localizar la imagen de sonido al área central de la ventana en la que se muestra el interlocutor participante. Al localizar la imagen e sonido, se controlan el balance, la fase, y el retardo de los sonidos reproducidos por los altavoces.
RESUMEN DE LA INVENCIÓN
Algunas realizaciones proporcionan una arquitectura para establecer conferencias de audio con múltiples participantes a través de una red de ordenadores. Esta arquitectura tiene un distribuidor central que recibe señales de audio de uno o más participantes. El distribuidor central mezcla las señales recibidas y las transmite de vuelta a los participantes. En algunas realizaciones, el distribuidor central elimina eco eliminando la señal de audio de cada participante de la señal mezclada que el distribuidor central envía al participante en particular.
En algunas realizaciones, el distribuidor central calcula un indicador de intensidad de señal para la señal de audio de cada participante y pasa los indicios calculados junto con la señal de audio mezclado a cada participante. Algunas realizaciones utilizan entonces los signos de intensidad de señal para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante. Algunas realizaciones utilizan los indicios intensidad de la señal para activar el barrido de audio.
En algunas realizaciones, el distribuidor central produce una única señal mezclada que incluye el audio de todos los participantes. Esta corriente (junto con los indicios de intensidad de señal) se envía a todos los participantes. Durante la reproducción de este flujo, un participante silenciar� la reproducción de fondo si el participante mismo es el principal contribuyente. Este plan proporciona supresión de eco sin necesidad de flujos separados y distintos para cada participante. Este sistema requiere menos computación del distribuidor central. También, a través de multidifusi�n IP, el distribuidor central puede reducir sus necesidades de ancho de banda.
Los ordenadores del distribuidor central y de los participantes pueden tomar distintas formas. En otras palabras, estos ordenadores pueden integrarse en cualquier tipo de dispositivo, como un ordenadore de mesa independiente, ordenador portátil, y/o ordenador de mano u otro dispositivo de electrónica de consumo o de comunicación, centro multimedia, concentrador, etc.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Las características novedosas de la invención se exponen en las reivindicaciones adjuntas. Sin embargo con fines de explicación, se exponen varias realizaciones en las siguientes figuras.
La Figura 1 ilustra un ejemplo de la arquitectura de conferencia de audio/video de algunas realizaciones de la invención.
Las Figuras 2 y 3 ilustran cómo algunas realizaciones intercambian contenido de audio en una conferencia de audio/video con múltiples participantes.
La Figura 4 muestra los componentes software de la aplicación de conferencia de audio/video de algunas realizaciones de la invención.
La Figura 5 ilustra el módulo de punto focal de algunas realizaciones de la invención.
La Figura 6 es un diagrama de flujo que muestra la generación de audio mezclado por el punto focal en algunas de las realizaciones.
La Figura 7 ilustra cómo el protocolo RTP es utilizado por el módulo de punto focal en algunas realizaciones para transmitir el contenido de audio.
La Figura 8 ilustra el punto no focal de algunas realizaciones de la invención.
La Figura 9 ilustra cómo el protocolo RTP es utilizado por el módulo de punto no focal en algunas realizaciones para transmitir el contenido de audio.
La Figura 10 ilustra conceptualmente el flujo de la operación de decoficicaci�n del punto no focal no en algunas realizaciones.
La Figura 11 ilustra los medidores de nivel de audio que se muestran en algunas realizaciones de la invención.
La Figura 12 muestra una disposición ejemplar de las imágenes de los participantes sobre una de los pantallas de los participantes.
La Figura 13 es un diagrama de flujo que ilustra el proceso mediante el cual algunas realizaciones de la invención realizan el barrido de audio.
DESCRIPCI�N DETALLADA DE LA INVENCIÓN
En la siguiente descripción, se exponen numerosos detalles con fines de explicación. Sin embargo, un experto en la técnica se dar� cuenta de que la invención puede ser llevada a cabo sin el uso de estos detalles específicos. En otros casos, se muestran estructuras y dispositivos bien conocidos en forma de diagrama de bloques para no oscurecer la descripción de la invención con detalles innecesarios.
Algunas realizaciones proporcionan una arquitectura para establecer conferencias de audio/video con múltiples participantes. Esta arquitectura tiene un distribuidor central que recibe las señales de audio de uno o más participantes. El distribuidor central mezcla las señales recibidas y las transmite de vuelta a los participantes. En algunas realizaciones, el distribuidor central elimina eco eliminando de señal de audio de cada participante de la señal mezclada que el distribuidor central envía al participante en particular.
En algunas realizaciones, el distribuidor central calcula un indicador de intensidad de señal para la señal de audio de cada participante y pasa los indicios calculados junto con la señal de audio mezclado a cada participante. Algunas realizaciones a continuación, utilizan los indicios de intensidad de señal para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante. Algunas realizaciones utilizan los indicios intensidad de señal para activar el barrido de audio.
Varias realizaciones detalladas de la invención se describen a continuación. En estas realizaciones, el distribuidor central es el ordenador de uno de los participantes en la conferencia de audio/video. Un experto se dar� cuenta de que otras realizaciones se implementan de forma diferente. Por ejemplo, en algunas realizaciones el distribuidor central no es el ordenador de ninguno de los participantes en la conferencia.
I. VISIÓN GENERAL
La Figura 1 ilustra un ejemplo de arquitectura de conferencia 100 de algunas realizaciones de la invención. Esta arquitectura permite que varios participantes participen en una conferencia a través de varios ordenadores que est�n conectados mediante una red de ordenadores. En el ejemplo ilustrado en Figura 1, cuatro participantes A, B, C y D se participan en la conferencia a través de sus cuatro ordenadores y una red 105-120 (no mostrada) que conecta estos ordenadores. La red que conecta a estos ordenador s pueden ser cualquier red, como una red de área local, una red de área extensa, una red de redes (por ejemplo, Internet), etc.
La conferencia puede ser una conferencia de audio/video, o una conferencia solamente de audio, o una conferencia de audio/video para algunos de los participantes y una conferencia sólo de audio para los demás participantes. Durante la conferencia, el ordenador 105 de uno de los participantes (participante D en este ejemplo) sirve como distribuidor central de contenido de audio y/o vídeo (es decir, contenido de audio/video), como se muestra en Figura
1. Este distribuidor central 125 se denomina más adelante punto focal de la conferencia de múltiples participantes. Los ordenadores de los demás participantes se denominan a continuación máquinas no focales u ordenadores no focales.
Adem�s, la discusión a continuación se centra en las operaciones de audio de los ordenadores focales y no focales. El funcionamiento de vídeo de estos ordenadores se describe más detalladamente en la solicitud de patente estadounidense 11/118,553 titulada "Video Processing in a Multi-Participant Video Conference", presentada con el número expediente de abogado APLE.P0091. Además, en la solicitud de patente estadounidense 11/118,931 titulada " Multi-Participant Video Conference Setup", presentada con el número expediente de abogado APLE.P0084, describe cómo establecen algunas realizaciones una conferencia con múltiples participantes a través de una arquitectura de punto focal, como la que se ilustra en la Figura 1. Ambas solicitudes se incorporan aquí por referencia.
Como distribuidor central de contenidos de audio/video, el punto focal 125 recibe las señales de audio de cada participante, mezcla y codifica estas señales, y luego transmite la señal mezclada a cada una de los ordenadores no focales. La Figura 2 muestra un ejemplo de dicho intercambio de señales de audio para el ejemplo con cuatro participantes de Figura 1. Específicamente, la Figura 2 ilustra al punto focal 125 recibiendo las señales de audio comprimidas 205-215 de otros participantes. A partir de las señales de audio recibidas 205-215, el punto focal 125 genera una señal de audio mezclado 220 que incluye cada una de las señales recibidas de audio y la señal de audio del participante utilizando el ordenador de punto focal. El punto focal 125 comprime y transmite la señal de audio mezclado 220 a cada máquina no focal 110, 115, y 120.
En el ejemplo ilustrado en la Figura 2, la señal de audio mezclado 220 que se transmite a cada participante no focal en particular incluye también la señal de audio del participante no focal particular. En algunas realizaciones, sin embargo, el punto focal elimina una señal de audio de participante no focal particular de la señal de audio mezclado que el punto focal transmite al particular no focal particular. En estas realizaciones, el punto focal 125 elimina la señal de audio propia de cada participante de su señal de audio mezclado correspondiente con el fin de eliminar el eco cuando el audio mezclado se reproduce en altavoces del ordenador del participante.
La Figura 3 ilustra un ejemplo de esta eliminación para el ejemplo ilustrado en la Figura 2. Específicamente, la Figura 3 ilustra (1) para un participante, una señal de audio mezclado 305 que no tiene A la señal de audio 205 propia del participante A, (2) para el participante B, una señal de audio mezclado 310 que no tiene la señal de audio propia del participante B 210, y (3) para el participante C, una señal de audio mezclado 315 que no tiene la señal de audio propia del participante C 215.
Como se muestra en Figura 3, el punto focal 125 en algunas realizaciones calcula indicios de intensidad de señal para las señales de audio de los participantes, y adjunta los indicios de intensidad de señal mezclada a las señales que envía a cada participante. Los ordenadores no focales a continuación, utilizanr los indicios de intensidad de señal adjuntos para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante.
Algunas realizaciones también utilizan los indicios de intensidad de señal transmitida para barrer el audio a lo largo de los altavoces del ordenador de un participante, con el fin de ayudar a identificar oradores durante la conferencia. Este barrido crea un efecto tal que el audio asociado con un participante en particular se percibe como originario de una dirección que refleja la posición en la pantalla de la imagen o icono de ese participante. El efecto de barrido se crea mediante la introducción de pequeños retrasos de los canales izquierdo o derecho. El efecto posicional se basa en la percepción cerebral de pequeños retrasos y diferencias de fase. Los medidores de nivel de audio y el barrido de audio se describen a continuación más detalladamente.
Algunas realizaciones son implementadas por una aplicación de conferencia de audio/video que puede llevar a cabo tanto operaciones focales como no focales. La Figura 4 ilustra una arquitectura de software para una aplicación como esta. En concreto, esta Figura muestra una aplicación de conferencia de audio/video 405 que consta de dos módulos, un módulo de punto focal 410 y un módulo de punto no focal 415. Estos dos módulos 410 y 415, y la aplicación de conferencia de audio/video 405, se ejecutan sobre un sistema operativo del ordenador 420 de un participante en la conferencia.
Durante una conferencia con múltiples participantes, la aplicación de conferencia de audio/video 405 utiliza el módulo de punto focal 410, cuando esta aplicación est� sirviendo como punto focal de la conferencia, o utiliza el módulo de punto no focal 415 cuando no est� actuando como punto focal. El módulo de punto focal 410 lleva a cabo operaciones de procesado de audio de punto focal cuando la aplicación de conferencia de audio/video 405 es el punto focal de una conferencia de audio/video con múltiples participantes. Por otro lado, el módulo de punto focal 415 lleva a cabo las operaciones de procesado de audio de punto no focal cuando la aplicación 405 no es el punto focal de la conferencia. En algunas realizaciones, los módulos de punto focal y no focal 410 y 415 comparten determinados recursos.
El módulo de punto focal 410 se describe en la Sección II de este documento, mientras que el módulo de punto no focal 415 se describe en la Sección III.
II. EL MÓDULO DE PUNTO FOCAL
La Figura 5 ilustra el módulo de punto focal 410 de algunas realizaciones de la invención. El módulo de punto focal 410 se muestra durante una conferencia de audio/video con múltiples participantes. Con el fin de generalizar las operaciones de punto focal, el ejemplo de Figura 5 se ilustra teniendo un número arbitrario de participantes. Este número arbitrario se denota como "n", que representa un número mayor que 2. El módulo de punto focal genera 410 5 señales de audio mezclados para transmitir a los participantes no focales y lleva a cabo la presentación de audio para el participante de la conferencia que est� utilizando el ordenador de punto focal durante la videoconferencia. Para su funcionamiento de mezcla de audio, el módulo de punto focal 410 utiliza (1) un decodificador 525 y una memoria temporal intermedia 530 para cada señal de audio entrante, (2) una memoria temporal intermedia 532 para la señal de audio de punto focal, (3) un módulo de captura de audio 515, (3) una calculadora de intensidad de señal
10 de audio 580, y (4) un mezclador de audio 535 para cada señal de audio mezclado transmitida, y un codificador 550 para cada señal de audio mezclado transmitida. Para su funcionamiento de presentación de audio el ordenador de punto focal, el módulo de punto focal 410 también utiliza un mezclador de audio 545, un control de barrido de audio 560 y un control de medidor de nivel 570.
El funcionamiento de mezcla de audio del módulo de punto focal 410 se describir� ahora con referencia al proceso
15 de mezcla 600 que ilustra conceptualmente el flujo de funcionamiento en la Figura 6. El funcionamiento de la presentación de audio del módulo de punto focal se describe a continuación en la Sección III, junto con la presentación de audio del módulo de punto no focal.
Durante el proceso de mezcla de audio 600, dos o más decodificadores 525 reciben (en 605) dos o más señales de audio digitales 510 que contienen muestras de audio de dos o más módulos de puntos no focales. En algunas
20 realizaciones, las señales de audio recibidas est�n codificadas por los mismos o diferentes codecs de audio en los ordenadores no focales. Ejemplos de estos c�decs incluyen Qualcomm PureVoice, GSM, G.711 y codecs de audio ILBC.
El decodificador 525 decodifica y almacena (en 605) las señales de audio decodificadas en dos o más memorias temporales intermedias 530. En algunas realizaciones, el decodificador 525 para el flujo de audio de cada ordenador
25 que no sea el focal, utiliza un algoritmo de decodificación que es adecuado para el c�dec de audio utilizado por el ordenador no focal. Este decodificador se especifica durante el proceso que establece la conferencia de audio/video.
El módulo de punto focal 410 también captura audio del participante que est� utilizando el ordenador de punto focal, a través del micrófono 520 y el módulo de captura de audio 515. En consecuencia, después de 605, el módulo de
30 punto focal (en 610) capta una señal de audio del participante de punto focal y almacena esta señal de audio capturada en su memoria temporal intermedia correspondiente 532.
A continuación, en 615, el calculador de intensidad de señal de audio 580 calcula indicios de intensidad de señal correspondientes a la intensidad de cada señal recibida. El calculador de intensidad de señal de audio 580 asigna un peso a cada señal. En algunas realizaciones, el calculador de intensidad de señal de audio 580 calcula indicios de
35 intensidad de señal como la potencia en valor cuadrático medio (RMS) del flujo de audio proveniente del participante al punto focal. La intensidad RMS se calcula a partir de la siguiente fórmula:
donde N es el número de muestras utilizadas para calcular la intensidad RMS y Muestrai es la amplitud de i-�sima muestra. El número de muestras, N, que el calculador de intensidad de señal de audio 580 utiliza para calcular el
40 valor RMS depende de la tasa de muestreo de la señal. Por ejemplo, en algunas realizaciones de la invención donde la tasa de muestreo es de 8 KHz, la intensidad RMS puede ser calculada utilizando un trozo de 20 ms de datos de audio que contiene 160 muestras. Otras tasas de muestreo pueden requerir un número diferente de muestras.
A continuación, en 620, el proceso 600 utiliza los mezcladores de audio 535 y 545 para mezclar las señales de audio alacenadas temporalmente. Cada mezclador de audio 535 y 545 genera señales de audio mezclado de uno de los 45 participantes. La señal de audio mezclado para cada participante en particular incluye las señales de audio de todos los participantes, excepto la señal de audio del participante en particular. La eliminación de la señal de audio de un participante en particular de la mezcla que el participante en particular recibe elimina el eco cuando el sonido mezclado se reproduce en los altavoces del ordenador del participante. Los mezcladores 535 y 545 mezclan las
se�ales de audio generando (en 620) una suma ponderada de estas señales. Para obtener un valor de muestra de audio en un instante de muestreo en particular, se añaden todas las muestras en un momento de muestreo en particular en base a los valores de ponderaci�n calculados por el calculador de intensidad de señal de audio 580. En algunas realizaciones, los valores de ponderaci�n se determinan din�micamente en base a indicios de intensidad de señal calculados en 615 para alcanzar ciertos objetivos. Ejemplos de tales objetivos incluyen (1) la eliminación de las señales más débiles, que son típicamente atribuibles al ruido, y (2) la prevención de que una señal de audio de un participante abrume las señales de otros participantes, lo que acontece a menudo cuando uno de los participantes siempre habla más fuerte que otro o tiene mejor equipo de audio que el otro.
En algunas realizaciones, los mezcladores 535 y 545 adjuntan (en 625) los indicios de intensidad de señal de todas las señales de audio que se sumaron para generar la señal mezclada. Por ejemplo, la Figura 7 ilustra un paquete RTP (Protocolo de Transporte de Tiempo Real) 700 que algunas realizaciones utilizan para enviar una señal de audio mezclado 705 a un participante en particular. Como se muestra en esta Figura, los indicios de intensidad de señal 710-720 se adjuntan al final del paquete RTP 705.
A continuación, para el audio de los ordenadores no focales, los codificadores (550 a 630) codifican las señales de audio mezclado y las envian (en 635) a sus correspondientes módulos no focales. La señal de audio mezclado para el ordenador de punto focal se envía (en 635) sin codificar al control de barrido de audio 560. Además, en 635, los indicios de intensidad de señal se envían al medidor de nivel 570 del módulo de punto focal, el cual genera entonces los indicadores de nivel de volumen adecuados para su visualización en el dispositivo de visualización 575 del ordenador de punto focal.
Despu�s de 635, el procesos de mezcla de audio 600 determina (en 640) si el participante de conferencia de audio/video con múltiples participantes ha finalizado. Si es as�, el proceso 600 finaliza. De lo contrario, el proceso vuelve a 605 para recibir y decodificar señales de audio entrantes.
Un experto medio se dar� cuenta de que otras realizaciones podrían implementar el módulo de punto focal 410 de forma diferente. Por ejemplo, en algunas realizaciones, el punto focal 410 produce una única señal mezclada que incluye audio de cada participante. Este flujo junto con los indicios de intensidad de señal se envía a todos los participantes. Durante la reproducción de este flujo, un participante silenciar� la reproducción si el participante mismo es el principal contribuyente. Este sistema ahorra tiempo de computación en el punto focal y proporciona supresión de eco sin necesidad de flujos separados y distintos para cada participante. También, durante multidifusi�n IP, se puede reducir el ancho de banda del flujo de punto focal. En estas realizaciones, el punto focal 410 tiene un mezclador de audio 535 y un codificador 550.
III. EL MÓDULO DE PUNTO NO FOCAL
La Figura 8 ilustra un módulo de punto no focal 415 de una conferencia de audio/video de algunas realizaciones de la invención. En este ejemplo, el módulo de punto no focal 415 utiliza un decodificador 805, dos memorias temporales 810 y 880, un control de medidor de nivel 820, un control de barrido de audio 845, un módulo de captura de audio 875 y un codificador 870.
El módulo de punto focal no lleva a cabo operaciones de codificación y decodificación. Durante la operación de codificación, la señal de audio del micrófono del participante punto no foco de 860 es capturado por el módulo de captura de audio 875 y se almacena en su 880 correspondiente tampón intermedia. El codificador 870 codifica entonces el contenido del buffer intermedio 880 y lo envía al módulo de punto focal 410.
En algunas realizaciones que utilizan Protocolo de Transporte en Tiempo Real (RTP) para intercambiar señales de audio, la señal codificada de audio del participante no focal se envía al módulo de punto focal en un paquete 900 que incluye cabeceras RTP 910 junto con audio codificado 920, como se muestra en Figura 9.
El funcionamiento de decodificación del módulo de punto no focal 415 se describir� ahora con referencia al proceso 1000 que ilustra conceptualmente el flujo de operación en la Figura 10. Durante la operación de decodificación, el decodificador 805 recibe (en 1005) paquetes de audio del módulo de punto focal 410. El decodificador 805 decodifica (en 1010) cada paquete de audio recibido para obtener datos de audio mezclado e indicios de intensidad de señal asociados con los datos de audio. El decodificador 805 guarda (en 1010) los resultados en la memoria temporal 810.
Los indicios de intensidad de señal se envían al control de medidor de nivel 820 para mostrar (en 1015) los medidores de nivel de audio en la pantalla del participante no focal 830. En una conferencia de audio/video con múltiples participantes, es deseable identificar altavoces activos. Una característica novedosa de la presente invención es la de representar las intensidades de audio mediante la visualización del nivel de audio correspondiente a la intensidad de voz de cada orador. Los medidores de nivel que aparecen en la pantalla de cada participante expresan el nivel de volumen de los diferentes participantes, mientras que la señal de audio mezclado se est� escuchando por los altavoces 855. El nivel de volumen de cada participante puede representarse mediante un medidor de nivel separado, con lo cual se permite al espectador conocer los altavoces activos y el nivel de audio de cada participante en cualquier momento.
Los medidores de nivel son particularmente útiles cuando algunos de los participantes sólo reciben señales de audio durante la conferencia (es decir, algunos de los participantes son " participantes solo de audio"). Estos participantes no tienen las imágenes de vídeo para ayudar a proporcionar una indicación visual de los participantes que est�n hablando. La Figura 11 ilustra un ejemplo del uso de medidores de nivel en una conferencia solamente de audio de algunas realizaciones. En esta figura, el nivel de audio de cada participante 1110-1115 se coloca al lado del icono de ese participante 1120-1125. Tal y como se ilustra en Figura 11, algunas realizaciones muestran el nivel de voz del micrófono local 1130 por separado en la parte inferior de la pantalla. Un experto en la técnica debería comprender que la Figura 11 es sólo un ejemplo de la forma de mostrar los medidores de nivel en la pantalla de un participante. Pueden hacerse otras disposiciones de visualización sin alejarse de las enseñanzas de esta invención para calcular y la visualizar la intensidad relativa de las señales de audio en una conferencia.
Tras 1015, la señal de audio mezclado decodificada y los indicios de intensidad de señal almacenados en la memoria temporal intermedia 810 se envían (en 1020) al control de barrido audio 845 para controlar los altavoces de los participantes no focales 855. La operación de barrido de audio se describe más adelante con referencia a las Figuras 12 y 13.
Despu�s de 1020, el proceso de decodificación de audio 1000 determina (en 1025) si la conferencia de audio/video con múltiples participantes ha terminado. Si es as�, el proceso 1000 finaliza. De lo contrario, el proceso vuelve a 1005 para recibir y decodificar señales de audio entrantes.
El uso de barrido de audio para hacer que la ubicación de audio percibida coincida con la ubicación de vídeo es otra característica novedosa de la invención actual. Con el fin de ilustrar cómo se realiza el barrido de audio, la Figura 12 ilustra un ejemplo de una presentación en pantalla 1200 de videoconferencia en el caso de cuatro participantes en una videoconferencia. Como se muestra en la Figura 12, las imágenes de los otros tres participantes 1205-1215 se muestran horizontalmente en la pantalla de presentación 1200. La imagen propia del participante local 1220 se muestra opcionalmente con un tamaño más pequeño en relación a las imágenes de los otros participantes 12051215 en la parte inferior de la presentación de pantalla 1200.
Algunas realizaciones logran barrido de audio mediante una combinación de retardo de la señal y ajuste de la amplitud de la señal. Por ejemplo, cuando habla el participante cuya imagen 1205 se coloca en el lado izquierdo de la pantalla, el sonido procedente del altavoz derecho se cambia mediante una combinación de introducir un retardo y ajustar la amplitud para dar la sensación de que la voz viene desde el altavoz izquierdo.
La Figura 13 ilustra un proceso 1300 mediante el que funciona el control de barrido de audio del módulo no focal 845 en algunas realizaciones de la invención. Los indicios de intensidad de señal de cada señal de audio en la señal de audio mezclado se utiliza (en 1310) para identificar al participante que más contribuye a la señal de audio mezclado decodificada. A continuación, el proceso identifica (en 1315) la ubicación del participante o participantes identificados en 1310. El proceso utiliza entonces (en 1320-1330) una combinación de ajuste de amplitud y retardo de la señal para crear el efecto estéreo. Por ejemplo, si est� hablando el participante cuya imagen 1205 se muestra en el lado izquierdo del dispositivo de visualización de 1200, se introduce un retraso (en 1325) en el altavoz derecho y la amplitud del altavoz derecho se reduce opcionalmente para hacer que la señal desde el altavoz izquierdo parezca ser más fuerte.
De manera similar, si est� hablando el participante cuya imagen 1215 se muestra en el lado derecho del dispositivo de visualización de 1200, se introduce un retraso (en 1330) en el altavoz izquierdo y la amplitud del altavoz izquierdo se reduce opcionalmente para hacer que la señal del altavoz derecho parezca ser más fuerte. En contraste, si est� hablando el participante cuya imagen 1210 se muestra en el centro del dispositivo de visualización de 1200, no se hacen ajustes a las señales enviadas a los altavoces.
El barrido de audio ayuda a identificar la ubicación de los participantes que est�n hablando en la pantalla y produce efectos estéreo para una ubicación. En algunas realizaciones de la invención, se introduce un retardo de aproximadamente 1 milisegundo (1/1000 segundo) y la amplitud se reduce en un 5 a 10 por ciento durante el funcionamiento del barrido de audio. Un experto en la técnica, sin embargo, se dar� cuenta de que podrían utilizarse otras combinaciones de ajustes de amplitud y retrasos para crear un efecto similar.
En algunas realizaciones, algunas acciones de los participantes, tales como unirse a la conferencia, abandonar la conferencia, etc, pueden activar efectos de sonido de la interfaz en los ordenadores de otros participantes. Estos efectos de sonido también pueden ser barridos para indicar qué participante realiza la acción asociada.
En las realizaciones en las que el punto focal es también un participante en la conferencia (tales como la realización ilustrada en Figura 1), el módulo de punto focal también utiliza los procedimientos anteriormente descritos para presentar el audio al participante cuyo ordenador sirve como punto focal de la conferencia.
Aunque la invención ha sido descrita con referencia a numerosos detalles específicos, un experto en la técnica reconocer� que la invención puede realizarse de otras formas específicas. En otros lugares, pueden hacerse diversos cambios, y pueden sustituirse equivalentes por elementos descritos sin alejarse del verdadero alcance de la presente invención. As�, un experto en la técnica comprender� que la invención no est� limitada por los detalles ilustrativos anteriores, sino que debe estar definida por las reivindicaciones adjuntas.

Claims (15)

  1. REIVINDICACIONES
    1. Un medio legible por ordenador de un primer dispositivo de participante en una conferencia con múltiples participantes, almacenando el medio legible por ordenador un programa de ordenador que cuando es ejecutado por al menos una unidad de procesamiento del primer dispositivo participante crea un efecto de barrido estéreo, comprendiendo el programa de ordenador instrucciones para:
    mostrar representaciones de cada uno de al menos dos participantes diferentes en lugares distintos en un área de visualización;
    caracterizado porque
    el programa de ordenador comprende además instrucciones para:
    recibir una única señal de audio (220), en donde la única señal de audio (220) comprende audio mixto que comprende audio capturado a partir de dos o más de los al menos dos participantes, comprendiendo la única señal de audio recibida (220) datos indicativos de una intensidad de señal para cada uno de los diferentes participantes; y
    barrer la única señal de audio recibida (220) a lo largo de altavoces de audio utilizando el conjunto de los datos de intensidad de señal con el fin de crear un efecto que una ubicación percibida de una señal de audio de un participante en particular coincide con la ubicación del participante en particular en el área de visualización.
  2. 2. El medio legible por ordenador según la reivindicación 1, en el que el conjunto de instrucciones a barrer comprende conjuntos de instrucciones para:
    identificar la ubicación de la representación de la participante en particular visualizado en dicha área de visualización, y
    crear un retraso en al menos uno de los altavoces de audio para tener en cuenta la ubicación identificada de la representación del participante en particular.
  3. 3.
    El medio legible por ordenador según la reivindicación 1, en el que el único audio recibido est� en el protocolo de transferencia en tiempo real (RTP) que comprenden los paquetes de los datos de intensidad de señal.
  4. 4.
    El medio legible por ordenador según la reivindicación 1, en el que al menos una de las representaciones que aparecen en dicha área de visualización es al menos una de un icono, una imagen y un vídeo.
  5. 5.
    El medio legible por ordenador según la reivindicación 1, en el que la única señal de audio comprende una primera señal de audio capturada por un segundo dispositivo de la conferencia y una segunda señal de audio capturada por un tercer dispositivo de la conferencia.
  6. 6.
    El medio legible por ordenador según la reivindicación 5, en el que la única señal de audio es generada por el segundo dispositivo de la conferencia.
  7. 7.
    El medio legible por ordenador según la reivindicación 6, en el que los datos de intensidad de señal para una señal de audio en particular son calculados por el segundo dispositivo como una potencia de raíz cuadrada media (RMS) de la señal de audio en particular.
  8. 8.
    El medio legible por ordenador según la reivindicación 1, en el que las representaciones comprenden imágenes de vídeo capturadas por otros dispositivos participantes de la conferencia de vídeo.
  9. 9.
    El medio legible por ordenador según la reivindicación 8, en el que las representaciones comprenden imágenes de vídeo capturadas en el primer dispositivo participante.
  10. 10.
    Un procedimiento para proporcionar una aplicación de los medios de comunicación de conferencia para un primer dispositivo participante en una conferencia con múltiples participantes, comprendiendo el procedimiento:
    mostrar, en lugares distintos en un área de visualización de una interfaz gráfica de usuario (GUI), imágenes de vídeo de cada uno de una pluralidad de dispositivos de participantes de la conferencia de múltiples participantes;
    caracterizado por recibir una única señal de audio (220), en el que la única señal de audio (220) comprende audio mixto que comprende audio capturado a partir de dos o más de los al menos dos participantes, comprendiendo la única señal de audio recibida (220) datos indicativos de la intensidad de la señal de un componente de señal de audio de cada una de la pluralidad de dispositivos participantes; y
    especificar al menos un parámetro de reproducción para reproducir la única señal de audio (220) en base al menos en parte en la intensidad de señal del componente de señal de audio desde un dispositivo participante en particular para determinar que la señal de audio componente respectiva se origin� desde el participante en particular para crear un efecto de barrido en que una ubicación percibida del componente de señal de audio respectivo del dispositivo participante en particular coincide con la ubicación concreta de la imagen de vídeo del dispositivo participante en particular en el área de visualización.
  11. 11.
    El procedimiento según la reivindicación 10, en el que el primer dispositivo participante tiene un conjunto de altavoces estéreo y el efecto de barrido hace que el dispositivo reproduzca una señal de audio particular de un dispositivo participante en particular, de manera tal que la señal de audio particular sea percibida como procedente de un altavoz que est� más cerca de la ubicación distintiva de la imagen de vídeo desde el dispositivo participante en particular que un altavoz que est� más lejos de la ubicación distintiva.
  12. 12.
    El procedimiento según la reivindicación 10, en el que el primer dispositivo participante tiene un conjunto de altavoces estéreo con un primer altavoz más cerca de la ubicación distintiva de una imagen de vídeo particular, desde un dispositivo participante en particular, en donde el parámetro de reproducción especificado hace que la única señal de audio a reproducir a través del primer altavoz antes que a través del segundo altavoz cuando los datos de intensidad de señal indican que est� hablando un participante en el dispositivo determinado participante.
  13. 13.
    El procedimiento según la reivindicación 10, en el que el primer dispositivo participante tiene un conjunto de altavoces estéreo y el parámetro de reproducción especificado hace que la señal de audio se reproduzca a través de uno de los altavoces con una amplitud alterada.
  14. 14.
    El procedimiento según la reivindicación 10, que comprende capturar una señal de audio en el primer dispositivo participante.
  15. 15.
    El procedimiento según la reivindicación 10, que comprende descodificar la única señal de audio recibida.
    11
    12
    13
    14
    15
    16
    17
    Figura 11
    Figura 12
    18
    19
ES11192109.4T 2005-04-28 2006-04-27 Barrido de audio en una conferencia con múltiples participantes Active ES2472715T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/118,555 US7864209B2 (en) 2005-04-28 2005-04-28 Audio processing in a multi-participant conference
US118555 2005-04-28

Publications (1)

Publication Number Publication Date
ES2472715T3 true ES2472715T3 (es) 2014-07-02

Family

ID=37215530

Family Applications (3)

Application Number Title Priority Date Filing Date
ES06769904T Active ES2388179T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes
ES11192109.4T Active ES2472715T3 (es) 2005-04-28 2006-04-27 Barrido de audio en una conferencia con múltiples participantes
ES12164796.0T Active ES2445923T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES06769904T Active ES2388179T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES12164796.0T Active ES2445923T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes

Country Status (4)

Country Link
US (2) US7864209B2 (es)
EP (4) EP2479986B1 (es)
ES (3) ES2388179T3 (es)
WO (1) WO2006116644A2 (es)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7552389B2 (en) * 2003-08-20 2009-06-23 Polycom, Inc. Computer program and methods for automatically initializing an audio controller
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7949117B2 (en) 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
EP1936996A3 (en) 2005-04-28 2011-07-27 Apple Inc. Video processing in a multi-participant video conference
US8861701B2 (en) * 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
US7864209B2 (en) 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US7653250B2 (en) 2005-04-28 2010-01-26 Apple Inc. Adjusting sampling rate for encoding
US7817180B2 (en) 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
US7692682B2 (en) * 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US7899170B2 (en) * 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20070266092A1 (en) * 2006-05-10 2007-11-15 Schweitzer Edmund O Iii Conferencing system with automatic identification of speaker
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US8385233B2 (en) 2007-06-12 2013-02-26 Microsoft Corporation Active speaker identification
US8005023B2 (en) * 2007-06-14 2011-08-23 Microsoft Corporation Client-side echo cancellation for multi-party audio conferencing
KR101487434B1 (ko) 2007-11-14 2015-01-29 삼성전자 주식회사 디스플레이장치 및 그 제어방법
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
KR20100089287A (ko) * 2009-02-03 2010-08-12 삼성전자주식회사 텔레비전 시스템 및 그 제어방법
US9268398B2 (en) * 2009-03-31 2016-02-23 Voispot, Llc Virtual meeting place system and method
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8179417B2 (en) * 2009-07-22 2012-05-15 Hewlett-Packard Development Company, L.P. Video collaboration
US8520821B2 (en) * 2009-07-24 2013-08-27 Citrix Systems, Inc. Systems and methods for switching between computer and presenter audio transmission during conference call
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8570907B2 (en) 2010-04-07 2013-10-29 Apple Inc. Multi-network architecture for media data exchange
US20130298040A1 (en) * 2010-04-30 2013-11-07 American Teleconferencing Services, Ltd. Systems, Methods, and Computer Programs for Providing Simultaneous Online Conferences
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
CN101951492A (zh) * 2010-09-15 2011-01-19 中兴通讯股份有限公司 视频通话中视频录制的方法及装置
US8711736B2 (en) * 2010-09-16 2014-04-29 Apple Inc. Audio processing in a multi-participant conference
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US12093036B2 (en) 2011-01-21 2024-09-17 Teladoc Health, Inc. Telerobotic system with a dual application screen presentation
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8838722B2 (en) 2011-02-16 2014-09-16 Masque Publishing, Inc. Communications adaptable to mobile devices
US9270784B2 (en) 2011-02-16 2016-02-23 Masque Publishing, Inc. Peer-to-peer communications
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
JP5817276B2 (ja) * 2011-07-14 2015-11-18 株式会社リコー 多地点接続装置、映像音声端末、通信システム、及び信号処理方法
US9084001B2 (en) 2011-07-18 2015-07-14 At&T Intellectual Property I, Lp Method and apparatus for multi-experience metadata translation of media content with metadata
US8943396B2 (en) * 2011-07-18 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for multi-experience adaptation of media content
US9237362B2 (en) 2011-08-11 2016-01-12 At&T Intellectual Property I, Lp Method and apparatus for multi-experience translation of media content with sensor sharing
CN103050124B (zh) * 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US20130156204A1 (en) * 2011-12-14 2013-06-20 Mitel Networks Corporation Visual feedback of audio input levels
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9378614B2 (en) 2012-07-19 2016-06-28 Masque Publishing, Inc. Gaming machines players' communications
CN104469255A (zh) 2013-09-16 2015-03-25 杜比实验室特许公司 改进的音频或视频会议
US10086291B1 (en) 2012-10-02 2018-10-02 Masque Publishing, Inc. Communications between an A/V communications network and a system
WO2014100374A2 (en) 2012-12-19 2014-06-26 Rabbit, Inc. Method and system for content sharing and discovery
US9369670B2 (en) 2012-12-19 2016-06-14 Rabbit, Inc. Audio video streaming system and method
EP3031048B1 (en) * 2013-08-05 2020-02-19 Interactive Intelligence, INC. Encoding of participants in a conference setting
CN105684405B (zh) * 2013-11-07 2018-11-30 艾可慕株式会社 中继装置、声音通信系统、记录介质以及声音信号的中继方法
US10079941B2 (en) 2014-07-07 2018-09-18 Dolby Laboratories Licensing Corporation Audio capture and render device having a visual display and user interface for use for audio conferencing
US9665341B2 (en) 2015-02-09 2017-05-30 Sonos, Inc. Synchronized audio mixing
JP6972576B2 (ja) * 2017-02-22 2021-11-24 沖電気工業株式会社 通信装置、通信システム、通信方法及びプログラム
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US11770500B2 (en) * 2021-07-15 2023-09-26 Microchip Technology Incorporated System for managing a virtual meeting

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3649761A (en) 1970-01-23 1972-03-14 Bell Telephone Labor Inc Dial selective wideband intercommunication system
JPS5465274A (en) * 1977-11-04 1979-05-25 Hideji Hayashibe Device of automatically adjusting pid value of regulator
JPS5854705U (ja) * 1981-10-05 1983-04-14 株式会社山武 調節計
US4602326A (en) * 1983-12-12 1986-07-22 The Foxboro Company Pattern-recognizing self-tuning controller
US4847829A (en) * 1985-04-08 1989-07-11 Datapoint Corporation Video conferencing network
GB2251097B (en) * 1990-12-08 1995-05-10 Dowty Information Systems An adaptive data compression system
JP3308563B2 (ja) * 1991-07-15 2002-07-29 株式会社日立製作所 多地点テレビ会議システム
JP3297763B2 (ja) * 1993-02-01 2002-07-02 ソニー株式会社 データ伝送方法、コンセントレータ及び端末装置
US5392285A (en) * 1993-03-31 1995-02-21 Intel Corporation Cascading twisted pair ethernet hubs by designating one hub as a master and designating all other hubs as slaves
US5689641A (en) * 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5533112A (en) * 1994-03-31 1996-07-02 Intel Corporation Volume control in digital teleconferencing
US5838664A (en) * 1997-07-17 1998-11-17 Videoserver, Inc. Video teleconferencing system with digital transcoding
KR0163723B1 (ko) * 1995-03-20 1999-01-15 김광호 종합정보통신망을 이용한 화상회의시스템의 화상회의 제어장치
US5646678A (en) * 1995-03-30 1997-07-08 Northern Telecom Limited Digital video network with continuous audio presence at network sites
US5896128A (en) * 1995-05-03 1999-04-20 Bell Communications Research, Inc. System and method for associating multimedia objects for use in a video conferencing system
US5590127A (en) 1995-05-26 1996-12-31 Lucent Technologies Inc. Multimedia conference call providing adjustable bandwidth for individual communication terminals
JPH096404A (ja) 1995-06-20 1997-01-10 Toshiba Corp ディジタルpid制御装置
US6167432A (en) * 1996-02-29 2000-12-26 Webex Communications, Inc., Method for creating peer-to-peer connections over an interconnected network to facilitate conferencing among users
GB2313250B (en) 1996-05-17 2000-05-31 Motorola Ltd Method of managing system resources in a multimedia conferencing network
US5826083A (en) * 1996-06-20 1998-10-20 Intel Corporation CPU cycle consumption self-regulating method and apparatus
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing
JPH1075310A (ja) * 1996-08-29 1998-03-17 Nec Corp 多地点テレビ会議システム
US5964842A (en) * 1997-01-31 1999-10-12 Network Computing Devices, Inc. Method and apparatus for scaling data compression based on system capacity
FR2761562B1 (fr) * 1997-03-27 2004-08-27 France Telecom Systeme de visioconference
US5933417A (en) * 1997-06-16 1999-08-03 General Datacomm, Inc. Multimedia multipoint telecommunications reservation acceptance systems and controllers
US6487578B2 (en) * 1997-09-29 2002-11-26 Intel Corporation Dynamic feedback costing to enable adaptive control of resource utilization
TW351789B (en) * 1997-10-28 1999-02-01 Inventec Corp Multiple point network system and its trouble shooting
US6611503B1 (en) 1998-05-22 2003-08-26 Tandberg Telecom As Method and apparatus for multimedia conferencing with dynamic bandwidth allocation
ES2150380B1 (es) 1998-09-28 2001-04-01 Venelente Sl Sistema de gestion y control de maquinas expendedoras a traves de los canales de control de la telefonia movil digital.
US6697341B1 (en) * 1998-12-16 2004-02-24 At&T Corp. Apparatus and method for providing multimedia conferencing services with selective performance parameters
US6697476B1 (en) * 1999-03-22 2004-02-24 Octave Communications, Inc. Audio conference platform system and method for broadcasting a real-time audio conference over the internet
US6728221B1 (en) * 1999-04-09 2004-04-27 Siemens Information & Communication Networks, Inc. Method and apparatus for efficiently utilizing conference bridge capacity
FR2799209B1 (fr) 1999-09-30 2001-11-30 Framatome Sa Alliage a base de zirconium et procede de fabrication de composant pour assemblage de combustible nucleaire en un tel alliage
US6744460B1 (en) * 1999-10-04 2004-06-01 Polycom, Inc. Video display mode automatic switching system and method
JP2001128132A (ja) 1999-10-28 2001-05-11 Nippon Telegr & Teleph Corp <Ntt> ビデオ会議システム、方法、およびその方法を記録した記録媒体
US7321382B2 (en) * 1999-12-28 2008-01-22 Ntt Docomo, Inc. Virtual communication device configuring method and apparatus
US6300973B1 (en) * 2000-01-13 2001-10-09 Meir Feder Method and system for multimedia communication control
ATE282934T1 (de) 2000-01-19 2004-12-15 Joachim Hertel Verfahren und system zum anbieten von positionsabhängigen diensten an gsm/pcs teilnehmer
EP1126710A1 (en) * 2000-02-15 2001-08-22 Telefonaktiebolaget L M Ericsson (Publ) A method and an apparatus for video mixing of bit streams
US7280492B2 (en) * 2000-02-22 2007-10-09 Ncast Corporation Videoconferencing system
US6760749B1 (en) * 2000-05-10 2004-07-06 Polycom, Inc. Interactive conference content distribution device and methods of use thereof
US6629075B1 (en) * 2000-06-09 2003-09-30 Speechworks International, Inc. Load-adjusted speech recogintion
US6711212B1 (en) * 2000-09-22 2004-03-23 Industrial Technology Research Institute Video transcoder, video transcoding method, and video communication system and method using video transcoding with dynamic sub-window skipping
US7313593B1 (en) * 2000-10-24 2007-12-25 International Business Machines Corporation Method and apparatus for providing full duplex and multipoint IP audio streaming
US7266091B2 (en) * 2001-02-28 2007-09-04 The Trustees Of Columbia University In City Of New York System and method for conferencing in inter/intranet telephony
US7328240B2 (en) * 2001-06-28 2008-02-05 Intel Corporation Distributed multipoint conferencing
US20040022202A1 (en) * 2002-08-05 2004-02-05 Chih-Lung Yang Method and apparatus for continuously receiving images from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual images containing information concerning each of said video channels
US7096037B2 (en) * 2002-01-29 2006-08-22 Palm, Inc. Videoconferencing bandwidth management for a handheld computer system and method
US6633985B2 (en) * 2002-02-11 2003-10-14 Polycom, Inc. System and method for videoconferencing across networks separated by a firewall
US6915331B2 (en) * 2002-05-16 2005-07-05 Cisco Managed Solutions, Inc. End user control of a teleconferencing network through a data network
US7421471B2 (en) * 2002-05-17 2008-09-02 Sony Computer Entertainment America Inc. Configuration switching: dynamically changing between network communication architectures
US7362349B2 (en) * 2002-07-10 2008-04-22 Seiko Epson Corporation Multi-participant conference system with controllable content delivery using a client monitor back-channel
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
US6882971B2 (en) * 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
US7492387B2 (en) * 2002-08-05 2009-02-17 Chih-Lung Yang Implementation of MPCP MCU technology for the H.264 video standard
US7317791B2 (en) 2002-08-08 2008-01-08 International Business Machines Corporation Apparatus and method for controlling conference call participants
AU2003279015A1 (en) 2002-09-27 2004-04-19 Videosoft, Inc. Real-time video coding/decoding
JP3848235B2 (ja) * 2002-10-04 2006-11-22 ソニー株式会社 通信処理装置、通信処理システム、および方法、並びにコンピュータ・プログラム
US7474326B2 (en) * 2002-11-04 2009-01-06 Tandberg Telecom As Inter-network and inter-protocol video conference privacy method, apparatus, and computer program product
US8375082B2 (en) * 2003-04-17 2013-02-12 Hewlett-Packard Development Company, L.P. Communications systems and methods
US7454460B2 (en) * 2003-05-16 2008-11-18 Seiko Epson Corporation Method and system for delivering produced content to passive participants of a videoconference
KR100965437B1 (ko) * 2003-06-05 2010-06-24 인터트러스트 테크놀로지즈 코포레이션 P2p 서비스 편성을 위한 상호운용 시스템 및 방법
US20040257434A1 (en) * 2003-06-23 2004-12-23 Robert Davis Personal multimedia device video format conversion across multiple video formats
US7606181B1 (en) * 2003-06-30 2009-10-20 Nortel Networks Limited Apparatus, method, and computer program for processing audio information of a communication session
US20050018828A1 (en) * 2003-07-25 2005-01-27 Siemens Information And Communication Networks, Inc. System and method for indicating a speaker during a conference
US8659636B2 (en) * 2003-10-08 2014-02-25 Cisco Technology, Inc. System and method for performing distributed video conferencing
US7627678B2 (en) * 2003-10-20 2009-12-01 Sony Computer Entertainment America Inc. Connecting a peer in a peer-to-peer relay network
US20050099492A1 (en) * 2003-10-30 2005-05-12 Ati Technologies Inc. Activity controlled multimedia conferencing
US8046409B2 (en) * 2003-10-31 2011-10-25 Hewlett-Packard Development Company, L.P. Communications methods, collaboration session communications organizers, collaboration sessions, and articles of manufacture
US7474634B1 (en) * 2004-03-12 2009-01-06 West Corporation System, methods, and computer-readable media for expedited access to conference calls
US7881235B1 (en) 2004-06-25 2011-02-01 Apple Inc. Mixed media conferencing
US20050286443A1 (en) 2004-06-29 2005-12-29 Octiv, Inc. Conferencing system
US7760659B2 (en) * 2004-08-05 2010-07-20 Microsoft Corporation Transmission optimization for application-level multicast
US7496056B2 (en) * 2005-01-04 2009-02-24 Avaya Inc. Conference connections using dynamic topology switching for IP and circuit-switched fabrics
US7460495B2 (en) * 2005-02-23 2008-12-02 Microsoft Corporation Serverless peer-to-peer multi-party real-time audio communication system and method
US8861701B2 (en) 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
US7899170B2 (en) 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US7949117B2 (en) 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
US7692682B2 (en) 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US7864209B2 (en) * 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US7653250B2 (en) 2005-04-28 2010-01-26 Apple Inc. Adjusting sampling rate for encoding
EP1936996A3 (en) 2005-04-28 2011-07-27 Apple Inc. Video processing in a multi-participant video conference
EP1875769B1 (en) 2005-04-28 2018-03-28 Apple Inc. Multi-participant conferencing
US7817180B2 (en) 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
DE102018209270B4 (de) 2018-06-11 2022-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Herstellen einer Deckelbaugruppe für ein Zellgehäuse einer prismatischen Batteriezelle einer Hochvoltbatterie eines Kraftfahrzeugs, Batteriezelle sowie Hochvoltbatterie
US11386194B1 (en) 2021-07-09 2022-07-12 Oversec, Uab Generating and validating activation codes without data persistence

Also Published As

Publication number Publication date
EP1877148A4 (en) 2011-03-23
WO2006116644A2 (en) 2006-11-02
US8456508B2 (en) 2013-06-04
EP1877148A2 (en) 2008-01-16
ES2445923T3 (es) 2014-03-06
US20110074914A1 (en) 2011-03-31
EP2457625A1 (en) 2012-05-30
EP2479986B1 (en) 2013-11-13
EP1877148B1 (en) 2012-05-16
ES2388179T3 (es) 2012-10-10
US20060247045A1 (en) 2006-11-02
US7864209B2 (en) 2011-01-04
WO2006116644A3 (en) 2009-06-25
EP2439945A1 (en) 2012-04-11
EP2439945B1 (en) 2014-03-19
EP2479986A1 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
ES2472715T3 (es) Barrido de audio en una conferencia con múltiples participantes
EP3319344A1 (en) Method and apparatus for generating and playing audio signals, and system for processing audio signals
US8334891B2 (en) Multipoint conference video switching
ES2375537T3 (es) Un método de visualización de subt�?tulos y un dispositivo de control de videocomunicación.
US7012901B2 (en) Devices, software and methods for generating aggregate comfort noise in teleconferencing over VoIP networks
CN102638672B (zh) 用于多流多站点远程呈现会议系统的自动视频布局
JP5198567B2 (ja) ビデオ通信方法、システムおよび装置
US8249237B2 (en) Heterogeneous video conferencing
CN101809998B (zh) 用于多显示切换视频会议系统的音频方向性控制
US20140354766A1 (en) Distributed real-time media composer
US8787547B2 (en) Selective audio combination for a conference
US9497390B2 (en) Video processing method, apparatus, and system
US20170070615A1 (en) Perceptually Continuous Mixing in a Teleconference
JP2000270304A (ja) 多地点テレビ会議システム
US20130100239A1 (en) Method, apparatus, and system for processing cascade conference sites in cascade conference
WO2014094461A1 (zh) 视频会议中的视音频信息的处理方法、装置及系统
JP2009118316A (ja) 音声通信装置
JP2008141348A (ja) 通信装置
US11764984B2 (en) Teleconference method and teleconference system
KR101785381B1 (ko) 미디어 패킷 처리와 피어 연결이 분리된 분산 처리형 화상 통신 시스템 및 그 방법
Forchhammer et al. Virtual seminar room-modelling and experimentation in horizontal and vertical integration
JP2007013764A (ja) 映像音声配信システムおよび方法およびプログラム
JPH03172057A (ja) テレビ会議システムおよびテレビ会議用端末装置