ES2445923T3 - Procesado de audio en una conferencia con múltiples participantes - Google Patents

Procesado de audio en una conferencia con múltiples participantes Download PDF

Info

Publication number
ES2445923T3
ES2445923T3 ES12164796.0T ES12164796T ES2445923T3 ES 2445923 T3 ES2445923 T3 ES 2445923T3 ES 12164796 T ES12164796 T ES 12164796T ES 2445923 T3 ES2445923 T3 ES 2445923T3
Authority
ES
Spain
Prior art keywords
participant
audio
conference
participants
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12164796.0T
Other languages
English (en)
Inventor
Hyeonkuk Jeong
Ryan Salsbury
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Application granted granted Critical
Publication of ES2445923T3 publication Critical patent/ES2445923T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un procedimiento para crear un efecto de panoramización estéreo en una conferencia multimedia entre unapluralidad de participantes, comprendiendo el procedimiento: determinar que un segundo participante en la conferencia realiza una acción que provoca un efecto de sonidode interfaz de usuario que se reproducirá en un dispositivo de un primer participante; identificar una ubicación de una presentación de vídeo del segundo participante en un dispositivo devisualización del primer participante que muestra presentaciones de vídeo de al menos el segundoparticipante y un tercer participante; y en base a la ubicación identificada, panoramizar el efecto de sonido para la acción llevada a cabo a través delos altavoces de audio en el dispositivo del primer participante a fin de que el sonido asociado a la acciónaparezca como originario del lugar identificado de la presentación del video del segundo participante.

Description

Procesado de audio en una conferencia con múltiples participantes
CAMPO DE LA INVENCIÓN
La presente invención se refiere al procesado de audio en una conferencia con múltiples participantes.
ANTECEDENTES DE LA INVENCIÓN
Con la proliferación de los ordenadores de propósito general, ha habido un aumento de la demanda para la realización de conferencias a través de ordenadores personales o de negocios. En tales conferencias, es deseable identificar rápidamente a los participantes que están hablando en un momento dado. Tal identificación, sin embargo, se vuelve difícil a medida que se añaden más participantes, en especial para los participantes que sólo reciben datos de audio. Esto se debe a que las aplicaciones de conferencia anteriores no proporcionan ninguna pista visual o auditiva para ayudar a identificar hablantes activos durante una conferencia. Por lo tanto, existe una necesidad en la técnica de aplicaciones de conferencia que ayuden a un participante a identificar rápidamente los participantes que hablan activamente en la conferencia.
RESUMEN DE LA INVENCIÓN
Algunas realizaciones proporcionan una arquitectura para establecer conferencias de audio con múltiples participantes a través de una red de ordenadores. Esta arquitectura tiene un distribuidor central que recibe señales de audio de uno o más participantes. El distribuidor central mezcla las señales recibidas y las transmite de vuelta a los participantes. En algunas realizaciones, el distribuidor central elimina eco eliminando la señal de audio de cada participante de la señal mezclada que el distribuidor central envía al participante en particular.
En algunas realizaciones, el distribuidor central calcula un indicador de intensidad de señal para la señal de audio de cada participante y pasa los indicios calculados junto con la señal de audio mezclado a cada participante. Algunas realizaciones utilizan entonces los signos de intensidad de señal para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante. Algunas realizaciones utilizan los indicios intensidad de la señal para activar la panoramización de audio.
En algunas realizaciones, el distribuidor central produce una única señal mezclada que incluye el audio de todos los participantes. Esta corriente (junto con los indicios de intensidad de señal) se envía a todos los participantes. Durante la reproducción de este flujo, un participante silenciará la reproducción de fondo si el participante mismo es el principal contribuyente. Este plan proporciona supresión de eco sin necesidad de flujos separados y distintos para cada participante. Este sistema requiere menos computación del distribuidor central. También, a través de multidifusión IP, el distribuidor central puede reducir sus necesidades de ancho de banda.
Los ordenadores del distribuidor central y de los participantes pueden tomar distintas formas. En otras palabras, estos ordenadores pueden integrarse en cualquier tipo de dispositivo, como un ordenador de mesa independiente, ordenador portátil, y/o ordenador de mano u otro dispositivo de electrónica de consumo o de comunicación, centro multimedia, concentrador, etc.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Las características novedosas de la invención se exponen en las reivindicaciones adjuntas. Sin embargo con fines de explicación, se exponen varias realizaciones en las siguientes figuras.
La Figura 1 ilustra un ejemplo de la arquitectura de conferencia de audio/video de algunas realizaciones de la invención.
Las Figuras 2 y 3 ilustran cómo algunas realizaciones intercambian contenido de audio en una conferencia de audio/video con múltiples participantes.
La Figura 4 muestra los componentes software de la aplicación de conferencia de audio/video de algunas realizaciones de la invención.
La Figura 5 ilustra el módulo de punto focal de algunas realizaciones de la invención.
La Figura 6 es un diagrama de flujo que muestra la generación de audio mezclado por el punto focal en algunas de las realizaciones.
La Figura 7 ilustra cómo el protocolo RTP es utilizado por el módulo de punto focal en algunas realizaciones para transmitir el contenido de audio.
La Figura 8 ilustra el punto no focal de algunas realizaciones de la invención.
La Figura 9 ilustra cómo el protocolo RTP es utilizado por el módulo de punto no focal en algunas realizaciones para transmitir el contenido de audio.
La Figura 10 ilustra conceptualmente el flujo de la operación de decodificación del punto no focal no en algunas realizaciones.
La Figura 11 ilustra los medidores de nivel de audio que se muestran en algunas realizaciones de la invención.
La Figura 12 muestra una disposición ejemplar de las imágenes de los participantes sobre una de las pantallas de los participantes.
La Figura 13 es un diagrama de flujo que ilustra el proceso mediante el cual algunas realizaciones de la invención realizan la panoramización de audio.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
En la siguiente descripción, se exponen numerosos detalles con fines de explicación. Sin embargo, un experto en la técnica se dará cuenta de que la invención puede ser llevada a cabo sin el uso de estos detalles específicos. En otros casos, se muestran estructuras y dispositivos bien conocidos en forma de diagrama de bloques para no oscurecer la descripción de la invención con detalles innecesarios.
Algunas realizaciones proporcionan una arquitectura para establecer conferencias de audio/video con múltiples participantes. Esta arquitectura tiene un distribuidor central que recibe las señales de audio de uno o más participantes. El distribuidor central mezcla las señales recibidas y las transmite de vuelta a los participantes. En algunas realizaciones, el distribuidor central elimina eco eliminando de señal de audio de cada participante de la señal mezclada que el distribuidor central envía al participante en particular.
En algunas realizaciones, el distribuidor central calcula un indicador de intensidad de señal para la señal de audio de cada participante y pasa los indicios calculados junto con la señal de audio mezclado a cada participante. Algunas realizaciones a continuación, utilizan los indicios de intensidad de señal para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante. Algunas realizaciones utilizan los indicios intensidad de señal para activar la panoramización de audio.
Varias realizaciones detalladas de la invención se describen a continuación. En estas realizaciones, el distribuidor central es el ordenador de uno de los participantes en la conferencia de audio/video. Un experto se dará cuenta de que otras realizaciones se implementan de forma diferente. Por ejemplo, en algunas realizaciones el distribuidor central no es el ordenador de ninguno de los participantes en la conferencia.
I. VISIÓN GENERAL
La Figura 1 ilustra un ejemplo de arquitectura de conferencia 100 de algunas realizaciones de la invención. Esta arquitectura permite que varios participantes participen en una conferencia a través de varios ordenadores que están conectados mediante una red de ordenadores. En el ejemplo ilustrado en Figura 1, cuatro participantes A, B, C y D se participan en la conferencia a través de sus cuatro ordenadores y una red 105-120 (no mostrada) que conecta estos ordenadores. La red que conecta a estos ordenador s pueden ser cualquier red, como una red de área local, una red de área extensa, una red de redes (por ejemplo, Internet), etc.
La conferencia puede ser una conferencia de audio/video, o una conferencia solamente de audio, o una conferencia de audio/video para algunos de los participantes y una conferencia sólo de audio para los demás participantes. Durante la conferencia, el ordenador 105 de uno de los participantes (participante D en este ejemplo) sirve como distribuidor central de contenido de audio y/o vídeo (es decir, contenido de audio/video), como se muestra en Figura
1. Este distribuidor central 125 se denomina más adelante punto focal de la conferencia de múltiples participantes. Los ordenadores de los demás participantes se denominan a continuación máquinas no focales u ordenadores no focales.
Además, la discusión a continuación se centra en las operaciones de audio de los ordenadores focales y no focales. El funcionamiento de vídeo de estos ordenadores se describe más detalladamente en la solicitud de patente estadounidense 11/118,553 titulada "Video Processing in a Multi-Participant Video Conference", presentada con el número expediente de agente APLE.P0091. Además, en la solicitud de patente estadounidense 11/118,931 titulada " Multi-Participant Video Conference Setup", presentada con el número expediente de agente APLE.P0084, describe
cómo establecen algunas realizaciones una conferencia con múltiples participantes a través de una arquitectura de punto focal, como la que se ilustra en la Figura 1. Ambas solicitudes se incorporan aquí por referencia.
Como distribuidor central de contenidos de audio/video, el punto focal 125 recibe las señales de audio de cada participante, mezcla y codifica estas señales, y luego transmite la señal mezclada a cada una de los ordenadores no focales. La Figura 2 muestra un ejemplo de dicho intercambio de señales de audio para el ejemplo con cuatro participantes de Figura 1. Específicamente, la Figura 2 ilustra al punto focal 125 recibiendo las señales de audio comprimidas 205-215 de otros participantes. A partir de las señales de audio recibidas 205-215, el punto focal 125 genera una señal de audio mezclado 220 que incluye cada una de las señales recibidas de audio y la señal de audio del participante utilizando el ordenador de punto focal. El punto focal 125 comprime y transmite la señal de audio mezclado 220 a cada máquina no focal 110, 115, y 120.
En el ejemplo ilustrado en la Figura 2, la señal de audio mezclado 220 que se transmite a cada participante no focal en particular incluye también la señal de audio del participante no focal particular. En algunas realizaciones, sin embargo, el punto focal elimina una señal de audio de participante no focal particular de la señal de audio mezclado que el punto focal transmite al particular no focal particular. En estas realizaciones, el punto focal 125 elimina la señal de audio propia de cada participante de su señal de audio mezclado correspondiente con el fin de eliminar el eco cuando el audio mezclado se reproduce en altavoces del ordenador del participante.
La Figura 3 ilustra un ejemplo de esta eliminación para el ejemplo ilustrado en la Figura 2. Específicamente, la Figura 3 ilustra (1) para un participante, una señal de audio mezclado 305 que no tiene A la señal de audio 205 propia del participante A, (2) para el participante B, una señal de audio mezclado 310 que no tiene la señal de audio propia del participante B 210, y (3) para el participante C, una señal de audio mezclado 315 que no tiene la señal de audio 215 propia del participante C.
Como se muestra en Figura 3, el punto focal 125 en algunas realizaciones calcula indicios de intensidad de señal para las señales de audio de los participantes, y adjunta los indicios de intensidad de señal mezclada a las señales que envía a cada participante. Los ordenadores no focales a continuación, utilizan los indicios de intensidad de señal adjuntos para mostrar medidores de nivel de audio que indican los niveles de volumen de los diferentes participantes. En algunas realizaciones, los medidores de nivel de audio se muestran junto a la imagen o icono de cada participante.
Algunas realizaciones también utilizan los indicios de intensidad de señal transmitida para barrer el audio a lo largo de los altavoces del ordenador de un participante, con el fin de ayudar a identificar oradores durante la conferencia. Esta panoramización crea un efecto tal que el audio asociado con un participante en particular se percibe como originario de una dirección que refleja la posición en la pantalla de la imagen o icono de ese participante. El efecto de panoramización se crea mediante la introducción de pequeños retardos de los canales izquierdo o derecho. El efecto posicional se basa en la percepción cerebral de pequeños retardos y diferencias de fase. Los medidores de nivel de audio y la panoramización de audio se describen a continuación más detalladamente.
Algunas realizaciones son implementadas por una aplicación de conferencia de audio/video que puede llevar a cabo tanto operaciones focales como no focales. La Figura 4 ilustra una arquitectura de software para una aplicación como esta. En concreto, esta Figura muestra una aplicación de conferencia de audio/video 405 que consta de dos módulos, un módulo de punto focal 410 y un módulo de punto no focal 415. Estos dos módulos 410 y 415, y la aplicación de conferencia de audio/video 405, se ejecutan sobre un sistema operativo del ordenador 420 de un participante en la conferencia.
Durante una conferencia con múltiples participantes, la aplicación de conferencia de audio/video 405 utiliza el módulo de punto focal 410, cuando esta aplicación está sirviendo como punto focal de la conferencia, o utiliza el módulo de punto no focal 415 cuando no está actuando como punto focal. El módulo de punto focal 410 lleva a cabo operaciones de procesado de audio de punto focal cuando la aplicación de conferencia de audio/video 405 es el punto focal de una conferencia de audio/video con múltiples participantes. Por otro lado, el módulo de punto focal 415 lleva a cabo las operaciones de procesado de audio de punto no focal cuando la aplicación 405 no es el punto focal de la conferencia. En algunas realizaciones, los módulos de punto focal y no focal 410 y 415 comparten determinados recursos.
El módulo de punto focal 410 se describe en la Sección II de este documento, mientras que el módulo de punto no focal 415 se describe en la Sección III.
II. EL MÓDULO DE PUNTO FOCAL
La Figura 5 ilustra el módulo de punto focal 410 de algunas realizaciones de la invención. El módulo de punto focal 410 se muestra durante una conferencia de audio/video con múltiples participantes. Con el fin de generalizar las operaciones de punto focal, el ejemplo de Figura 5 se ilustra teniendo un número arbitrario de participantes. Este número arbitrario se denota como "n", que representa un número mayor que 2. El módulo de punto focal 410 genera señales de audio mezclados para transmitir a los participantes no focales y lleva a cabo la presentación de audio
para el participante de la conferencia que está utilizando el ordenador de punto focal durante la videoconferencia. Para su funcionamiento de mezcla de audio, el módulo de punto focal 410 utiliza (1) un decodificador 525 y una memoria temporal intermedia 530 para cada señal de audio entrante, (2) una memoria temporal intermedia 532 para la señal de audio de punto focal, (3) un módulo de captura de audio 515, (3) una calculadora de intensidad de señal de audio 580, y (4) un mezclador de audio 535 para cada señal de audio mezclado transmitida, y un codificador 550 para cada señal de audio mezclado transmitida. Para su funcionamiento de presentación de audio el ordenador de punto focal, el módulo de punto focal 410 también utiliza un mezclador de audio 545, un control de panoramización de audio 560 y un control de medidor de nivel 570.
El funcionamiento de mezcla de audio del módulo de punto focal 410 se describirá ahora con referencia al proceso de mezcla 600 que ilustra conceptualmente el flujo de funcionamiento en la Figura 6. El funcionamiento de la presentación de audio del módulo de punto focal se describe a continuación en la Sección III, junto con la presentación de audio del módulo de punto no focal.
Durante el proceso de mezcla de audio 600, dos o más decodificadores 525 reciben (en 605) dos o más señales de audio digitales 510 que contienen muestras de audio de dos o más módulos de puntos no focales. En algunas realizaciones, las señales de audio recibidas están codificadas por los mismos o diferentes códecs de audio en los ordenadores no focales. Ejemplos de estos códecs incluyen Qualcomm PureVoice, GSM, G.711 y códecs de audio ILBC.
El decodificador 525 decodifica y almacena (en 605) las señales de audio decodificadas en dos o más memorias temporales intermedias 530. En algunas realizaciones, el decodificador 525 para el flujo de audio de cada ordenador que no sea el focal, utiliza un algoritmo de decodificación que es adecuado para el códec de audio utilizado por el ordenador no focal. Este decodificador se especifica durante el proceso que establece la conferencia de audio/video.
El módulo de punto focal 410 también captura audio del participante que está utilizando el ordenador de punto focal, a través del micrófono 520 y el módulo de captura de audio 515. En consecuencia, después de 605, el módulo de punto focal (en 610) capta una señal de audio del participante de punto focal y almacena esta señal de audio capturada en su memoria temporal intermedia correspondiente 532.
A continuación, en 615, el calculador de intensidad de señal de audio 580 calcula indicios de intensidad de señal correspondientes a la intensidad de cada señal recibida. El calculador de intensidad de señal de audio 580 asigna un peso a cada señal. En algunas realizaciones, el calculador de intensidad de señal de audio 580 calcula indicios de intensidad de señal como la potencia en valor cuadrático medio (RMS) del flujo de audio proveniente del participante al punto focal. La intensidad RMS se calcula a partir de la siguiente fórmula:
Muestrai
donde N es el número de muestras utilizadas para calcular la intensidad RMS y Muestrai es la amplitud de i-ésima muestra. El número de muestras, N, que el calculador de intensidad de señal de audio 580 utiliza para calcular el valor RMS depende de la tasa de muestreo de la señal. Por ejemplo, en algunas realizaciones de la invención donde la tasa de muestreo es de 8 KHz, la intensidad RMS puede ser calculada utilizando un trozo de 20 ms de datos de audio que contiene 160 muestras. Otras tasas de muestreo pueden requerir un número diferente de muestras.
A continuación, en 620, el proceso 600 utiliza los mezcladores de audio 535 y 545 para mezclar las señales de audio alacenadas temporalmente. Cada mezclador de audio 535 y 545 genera señales de audio mezclado de uno de los participantes. La señal de audio mezclado para cada participante en particular incluye las señales de audio de todos los participantes, excepto la señal de audio del participante en particular. La eliminación de la señal de audio de un participante en particular de la mezcla que el participante en particular recibe elimina el eco cuando el sonido mezclado se reproduce en los altavoces del ordenador del participante. Los mezcladores 535 y 545 mezclan las señales de audio generando (en 620) una suma ponderada de estas señales. Para obtener un valor de muestra de audio en un instante de muestreo en particular, se añaden todas las muestras en un momento de muestreo en particular en base a los valores de ponderación calculados por el calculador de intensidad de señal de audio 580. En algunas realizaciones, los valores de ponderación se determinan dinámicamente en base a indicios de intensidad de señal calculados en 615 para alcanzar ciertos objetivos. Ejemplos de tales objetivos incluyen (1) la eliminación de las
señales más débiles, que son típicamente atribuibles al ruido, y (2) la prevención de que una señal de audio de un participante abrume las señales de otros participantes, lo que acontece a menudo cuando uno de los participantes siempre habla más fuerte que otro o tiene mejor equipo de audio que el otro.
En algunas realizaciones, los mezcladores 535 y 545 adjuntan (en 625) los indicios de intensidad de señal de todas las señales de audio que se sumaron para generar la señal mezclada. Por ejemplo, la Figura 7 ilustra un paquete RTP (Protocolo de Transporte de Tiempo Real) 700 que algunas realizaciones utilizan para enviar una señal de audio mezclado 705 a un participante en particular. Como se muestra en esta Figura, los indicios de intensidad de señal 710-720 se adjuntan al final del paquete RTP 705.
A continuación, para el audio de los ordenadores no focales, los codificadores (550 a 630) codifican las señales de audio mezclado y las envían (en 635) a sus correspondientes módulos no focales. La señal de audio mezclado para el ordenador de punto focal se envía (en 635) sin codificar al control de panoramización de audio 560. Además, en 635, los indicios de intensidad de señal se envían al medidor de nivel 570 del módulo de punto focal, el cual genera entonces los indicadores de nivel de volumen adecuados para su visualización en el dispositivo de visualización 575 del ordenador de punto focal.
Después de 635, el proceso de mezcla de audio 600 determina (en 640) si el participante de conferencia de audio/video con múltiples participantes ha finalizado. Si es así, el proceso 600 finaliza. De lo contrario, el proceso vuelve a 605 para recibir y decodificar señales de audio entrantes.
Un experto medio se dará cuenta de que otras realizaciones podrían implementar el módulo de punto focal 410 de forma diferente. Por ejemplo, en algunas realizaciones, el punto focal 410 produce una única señal mezclada que incluye audio de cada participante. Este flujo junto con los indicios de intensidad de señal se envía a todos los participantes. Durante la reproducción de este flujo, un participante silenciará la reproducción si el participante mismo es el principal contribuyente. Este sistema ahorra tiempo de computación en el punto focal y proporciona supresión de eco sin necesidad de flujos separados y distintos para cada participante. También, durante multidifusión IP, se puede reducir el ancho de banda del flujo de punto focal. En estas realizaciones, el punto focal 410 tiene un mezclador de audio 535 y un codificador 550.
III. EL MÓDULO DE PUNTO NO FOCAL
La Figura 8 ilustra un módulo de punto no focal 415 de una conferencia de audio/video de algunas realizaciones de la invención. En este ejemplo, el módulo de punto no focal 415 utiliza un decodificador 805, dos memorias temporales 810 y 880, un control de medidor de nivel 820, un control de panoramización de audio 845, un módulo de captura de audio 875 y un codificador 870.
El módulo de punto focal no lleva a cabo operaciones de codificación y decodificación. Durante la operación de codificación, la señal de audio del micrófono del participante punto no foco de 860 es capturado por el módulo de captura de audio 875 y se almacena en su 880 correspondiente tampón intermedia. El codificador 870 codifica entonces el contenido del buffer intermedio 880 y lo envía al módulo de punto focal 410.
En algunas realizaciones que utilizan Protocolo de Transporte en Tiempo Real (RTP) para intercambiar señales de audio, la señal codificada de audio del participante no focal se envía al módulo de punto focal en un paquete 900 que incluye cabeceras RTP 910 junto con audio codificado 920, como se muestra en Figura 9.
El funcionamiento de decodificación del módulo de punto no focal 415 se describirá ahora con referencia al proceso 1000 que ilustra conceptualmente el flujo de operación en la Figura 10. Durante la operación de decodificación, el decodificador 805 recibe (en 1005) paquetes de audio del módulo de punto focal 410. El decodificador 805 decodifica (en 1010) cada paquete de audio recibido para obtener datos de audio mezclado e indicios de intensidad de señal asociados con los datos de audio. El decodificador 805 guarda (en 1010) los resultados en la memoria temporal 810.
Los indicios de intensidad de señal se envían al control de medidor de nivel 820 para mostrar (en 1015) los medidores de nivel de audio en la pantalla del participante no focal 830. En una conferencia de audio/video con múltiples participantes, es deseable identificar altavoces activos. Una característica novedosa de la presente invención es la de representar las intensidades de audio mediante la visualización del nivel de audio correspondiente a la intensidad de voz de cada orador. Los medidores de nivel que aparecen en la pantalla de cada participante expresan el nivel de volumen de los diferentes participantes, mientras que la señal de audio mezclado se está escuchando por los altavoces 855. El nivel de volumen de cada participante puede representarse mediante un medidor de nivel separado, con lo cual se permite al espectador conocer los altavoces activos y el nivel de audio de cada participante en cualquier momento.
Los medidores de nivel son particularmente útiles cuando algunos de los participantes sólo reciben señales de audio durante la conferencia (es decir, algunos de los participantes son " participantes solo de audio"). Estos participantes no tienen las imágenes de vídeo para ayudar a proporcionar una indicación visual de los participantes que están
hablando. La Figura 11 ilustra un ejemplo del uso de medidores de nivel en una conferencia solamente de audio de algunas realizaciones. En esta figura, el nivel de audio de cada participante 1110-1115 se coloca al lado del icono de ese participante 1120-1125. Tal y como se ilustra en Figura 11, algunas realizaciones muestran el nivel de voz del micrófono local 1130 por separado en la parte inferior de la pantalla. Un experto en la técnica debería comprender que la Figura 11 es sólo un ejemplo de la forma de mostrar los medidores de nivel en la pantalla de un participante. Pueden hacerse otras disposiciones de visualización sin alejarse de las enseñanzas de esta invención para calcular y la visualizar la intensidad relativa de las señales de audio en una conferencia.
Tras 1015, la señal de audio mezclado decodificada y los indicios de intensidad de señal almacenados en la memoria temporal intermedia 810 se envían (en 1020) al control de panoramización de audio 845 para controlar los altavoces de los participantes no focales 855. La operación de panoramización de audio se describe más adelante con referencia a las Figuras 12 y 13.
Después de 1020, el proceso de decodificación de audio 1000 determina (en 1025) si la conferencia de audio/video con múltiples participantes ha terminado. Si es así, el proceso 1000 finaliza. De lo contrario, el proceso vuelve a 1005 para recibir y decodificar señales de audio entrantes.
El uso de panoramización de audio para hacer que la ubicación de audio percibida coincida con la ubicación de vídeo es otra característica novedosa de la invención actual. Con el fin de ilustrar cómo se realiza la panoramización de audio, la Figura 12 ilustra un ejemplo de una presentación en pantalla 1200 de videoconferencia en el caso de cuatro participantes en una videoconferencia. Como se muestra en la Figura 12, Las imágenes de los otros tres participantes 1205-1215 se muestran horizontalmente en la pantalla de presentación 1200. La imagen propia del participante local 1220 se muestra opcionalmente con un tamaño más pequeño en relación a las imágenes de los otros participantes 1205-1215 en la parte inferior de la presentación de pantalla 1200.
Algunas realizaciones logran panoramización de audio mediante una combinación de retardo de la señal y ajuste de la amplitud de la señal. Por ejemplo, cuando habla el participante cuya imagen 1205 se coloca en el lado izquierdo de la pantalla, el sonido procedente del altavoz derecho se cambia mediante una combinación de introducir un retardo y ajustar la amplitud para dar la sensación de que la voz viene desde el altavoz izquierdo.
La Figura 13 ilustra un proceso 1300 mediante el que funciona el control de panoramización de audio del módulo no focal 845 en algunas realizaciones de la invención. Los indicios de intensidad de señal de cada señal de audio en la señal de audio mezclado se utiliza (en 1310) para identificar al participante que más contribuye a la señal de audio mezclado decodificada. A continuación, el proceso identifica (en 1315) la ubicación del participante o participantes identificados en 1310. El proceso utiliza entonces (en 1320-1330) una combinación de ajuste de amplitud y retardo de la señal para crear el efecto estéreo. Por ejemplo, si está hablando el participante cuya imagen 1205 se muestra en el lado izquierdo del dispositivo de visualización 1200, se introduce un retardo (en 1325) en el altavoz derecho y la amplitud del altavoz derecho se reduce opcionalmente para hacer que la señal desde el altavoz izquierdo parezca ser más fuerte.
De manera similar, si está hablando el participante cuya imagen 1215 se muestra en el lado derecho del dispositivo de visualización 1200, se introduce un retardo (en 1330) en el altavoz izquierdo y la amplitud del altavoz izquierdo se reduce opcionalmente para hacer que la señal del altavoz derecho parezca ser más fuerte. En contraste, si está hablando el participante cuya imagen 1210 se muestra en el centro del dispositivo de visualización 1200, no se hacen ajustes a las señales enviadas a los altavoces.
La panoramización de audio ayuda a identificar la ubicación de los participantes que están hablando en la pantalla y produce contabilidad estéreo para ubicación. En algunas realizaciones de la invención, se introduce un retardo de aproximadamente 1 milisegundo (1/1000 segundo) y la amplitud se reduce en un 5 a 10 por ciento durante el funcionamiento de la panoramización de audio. Un experto en la técnica, sin embargo, se dará cuenta de que podrían utilizarse otras combinaciones de ajustes de amplitud y retardos para crear un efecto similar.
En algunas realizaciones, algunas acciones de los participantes, tales como unirse a la conferencia, abandonar la conferencia, etc., pueden activar efectos de sonido de la interfaz en los ordenadores de otros participantes. Estos efectos de sonido también pueden ser panoramizados para indicar qué participante realiza la acción asociada.
En las realizaciones en las que el punto focal es también un participante en la conferencia (tales como la realización ilustrada en Figura 1), el módulo de punto focal también utiliza los procedimientos anteriormente descritos para presentar el audio al participante cuyo ordenador sirve como punto focal de la conferencia.
Aunque la invención ha sido descrita con referencia a numerosos detalles específicos, un experto en la técnica reconocerá que la invención puede realizarse de otras formas específicas. En otros lugares, pueden hacerse diversos cambios, y pueden sustituirse equivalentes por elementos descritos sin alejarse del verdadero alcance de la presente invención. Así, un experto en la técnica comprenderá que la invención no está limitada por los detalles ilustrativos anteriores, sino que debe estar definida por las reivindicaciones adjuntas.

Claims (12)

  1. REIVINDICACIONES
    1. Un procedimiento para crear un efecto de panoramización estéreo en una conferencia multimedia entre una pluralidad de participantes, comprendiendo el procedimiento:
    determinar que un segundo participante en la conferencia realiza una acción que provoca un efecto de sonido 5 de interfaz de usuario que se reproducirá en un dispositivo de un primer participante;
    identificar una ubicación de una presentación de vídeo del segundo participante en un dispositivo de visualización del primer participante que muestra presentaciones de vídeo de al menos el segundo participante y un tercer participante; y
    en base a la ubicación identificada, panoramizar el efecto de sonido para la acción llevada a cabo a través de
    10 los altavoces de audio en el dispositivo del primer participante a fin de que el sonido asociado a la acción aparezca como originario del lugar identificado de la presentación del video del segundo participante.
  2. 2. El procedimiento según la reivindicación 1, en el que panoramizar el efecto de sonido de interfaz de usuario comprende crear un retardo en al menos uno de los altavoces de audio del primer participante.
  3. 3. El procedimiento según la reivindicación 1, en el que la acción que desencadena el efecto de sonido de 15 interfaz de usuario a reproducir comprende unirse a la conferencia.
  4. 4.
    El procedimiento según la reivindicación 1, en el que la acción que desencadena el efecto de sonido de interfaz de usuario a reproducir comprende salirse de la conferencia.
  5. 5.
    El procedimiento según la reivindicación 1, en el que la panoramización comprende reducir una amplitud de audio de al menos uno de los altavoces de audio del primer participante.
    20 6. El procedimiento según la reivindicación 1, en el que el dispositivo del primer participante es un dispositivo distribuidor central para la conferencia multimedia.
  6. 7.
    El procedimiento según la reivindicación 1, en el que el dispositivo del primer participante es un dispositivo distribuidor no central para la conferencia multimedia.
  7. 8.
    Un medio legible por máquina que almacena un programa de ordenador que cuando se ejecuta por al menos
    25 una unidad de procesamiento de un dispositivo de un primer participante crea un efecto de panoramización estéreo en una conferencia multimedia entre una pluralidad de participantes, incluyendo al primer participante, comprendiendo el programa de ordenador conjuntos de instrucciones para:
    determinar que un segundo participante en la conferencia realiza una acción que provoca un efecto de sonido de interfaz de usuario que se reproducirá en un dispositivo de un primer participante;
    30 identificar una ubicación de una presentación de vídeo del segundo participante en un dispositivo de visualización del primer participante que muestra presentaciones de vídeo de al menos el segundo participante y un tercer participante; y
    en base a la ubicación identificada, panoramizar el efecto de sonido para la acción que se realiza a través de los altavoces de audio en el dispositivo del primer participante a fin de que el sonido asociado a la acción
    35 aparezca como originario del lugar identificado de la presentación del video del segundo participante.
  8. 9. El medio legible por máquina según la reivindicación 8, en el que el conjunto de instrucciones para panoramizar el efecto de sonido comprende conjuntos de instrucciones para:
    crear un retardo en al menos uno de los altavoces de audio del primer participante; y
    reducir una amplitud de audio del al menos un altavoz de audio del primer participante.
    40 10. El medio legible por máquina según la reivindicación 8, en el que la presentación de vídeo del segundo participante se encuentra en el lado derecho del dispositivo de visualización del primer participante, en el que el al menos un altavoz de audio es un altavoz izquierdo del primer participante.
  9. 11.
    El medio legible por máquina según la reivindicación 8, en el que la acción que desencadena el efecto de sonido de interfaz de usuario a reproducir comprende uno de unirse y salir de la conferencia.
  10. 12.
    El medio legible por máquina según la reivindicación 8, en el que el segundo dispositivo de participante es un dispositivo distribuidor central de la conferencia multimedia, comprendiendo además el programa de ordenador conjuntos de instrucciones para:
    recibir una señal de audio mezclada desde el segundo dispositivo participante, la señal de audio mixto 5 comprendiendo señales de audio de los segundos y terceros participantes; y
    panoramizar el audio mezclado a través de los altavoces de audio con el fin de crear un efecto de que una localización percibida de una señal de audio de un participante en particular coincide con la ubicación de la representación de vídeo del participante en particular en el dispositivo de visualización.
  11. 13. El medio legible por máquina según la reivindicación 8, en el que el primer dispositivo participante es un
    10 dispositivo distribuidor central de la conferencia multimedia, comprendiendo además el programa de ordenador conjuntos de instrucciones para:
    recibir señales de audio desde los segundo y tercer dispositivos participantes; y
    generar señales de audio mezcladas de las señales de audio recibidas y audio capturado localmente en el primer dispositivo participante.
    15 14. El medio legible por máquina según la reivindicación 13, en el que el programa de ordenador comprende un conjunto de instrucciones para transmitir las señales de audio mezcladas a los segundo y tercer dispositivos participantes.
  12. 15. El medio legible por máquina según la reivindicación 13, en el que el programa de ordenador comprende un conjunto de instrucciones para entregar una señal de audio mezclada en el primer dispositivo participante.
    10
    11
    13
    16
    18
ES12164796.0T 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes Active ES2445923T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/118,555 US7864209B2 (en) 2005-04-28 2005-04-28 Audio processing in a multi-participant conference
US118555 2005-04-28

Publications (1)

Publication Number Publication Date
ES2445923T3 true ES2445923T3 (es) 2014-03-06

Family

ID=37215530

Family Applications (3)

Application Number Title Priority Date Filing Date
ES12164796.0T Active ES2445923T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes
ES06769904T Active ES2388179T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes
ES11192109.4T Active ES2472715T3 (es) 2005-04-28 2006-04-27 Barrido de audio en una conferencia con múltiples participantes

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES06769904T Active ES2388179T3 (es) 2005-04-28 2006-04-27 Procesado de audio en una conferencia con múltiples participantes
ES11192109.4T Active ES2472715T3 (es) 2005-04-28 2006-04-27 Barrido de audio en una conferencia con múltiples participantes

Country Status (4)

Country Link
US (2) US7864209B2 (es)
EP (4) EP2439945B1 (es)
ES (3) ES2445923T3 (es)
WO (1) WO2006116644A2 (es)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7552389B2 (en) * 2003-08-20 2009-06-23 Polycom, Inc. Computer program and methods for automatically initializing an audio controller
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
EP1878229A4 (en) 2005-04-28 2011-07-27 Apple Inc VIDEO PROCESSING IN MULTIPLE PARTICIPANT VIDEO CONFERENCE
US7817180B2 (en) 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
US7653250B2 (en) 2005-04-28 2010-01-26 Apple Inc. Adjusting sampling rate for encoding
US7949117B2 (en) 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
US7692682B2 (en) * 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
US8861701B2 (en) 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
US7899170B2 (en) * 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US7864209B2 (en) 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20070266092A1 (en) * 2006-05-10 2007-11-15 Schweitzer Edmund O Iii Conferencing system with automatic identification of speaker
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US8385233B2 (en) 2007-06-12 2013-02-26 Microsoft Corporation Active speaker identification
US8005023B2 (en) * 2007-06-14 2011-08-23 Microsoft Corporation Client-side echo cancellation for multi-party audio conferencing
KR101487434B1 (ko) 2007-11-14 2015-01-29 삼성전자 주식회사 디스플레이장치 및 그 제어방법
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) * 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
KR20100089287A (ko) * 2009-02-03 2010-08-12 삼성전자주식회사 텔레비전 시스템 및 그 제어방법
US9268398B2 (en) * 2009-03-31 2016-02-23 Voispot, Llc Virtual meeting place system and method
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8179417B2 (en) * 2009-07-22 2012-05-15 Hewlett-Packard Development Company, L.P. Video collaboration
US8520821B2 (en) * 2009-07-24 2013-08-27 Citrix Systems, Inc. Systems and methods for switching between computer and presenter audio transmission during conference call
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8433755B2 (en) 2010-04-07 2013-04-30 Apple Inc. Dynamic designation of a central distributor in a multi-participant conference
US20130298040A1 (en) * 2010-04-30 2013-11-07 American Teleconferencing Services, Ltd. Systems, Methods, and Computer Programs for Providing Simultaneous Online Conferences
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
CN101951492A (zh) 2010-09-15 2011-01-19 中兴通讯股份有限公司 视频通话中视频录制的方法及装置
US8711736B2 (en) 2010-09-16 2014-04-29 Apple Inc. Audio processing in a multi-participant conference
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9270784B2 (en) 2011-02-16 2016-02-23 Masque Publishing, Inc. Peer-to-peer communications
US8838722B2 (en) 2011-02-16 2014-09-16 Masque Publishing, Inc. Communications adaptable to mobile devices
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
JP5817276B2 (ja) * 2011-07-14 2015-11-18 株式会社リコー 多地点接続装置、映像音声端末、通信システム、及び信号処理方法
US9084001B2 (en) 2011-07-18 2015-07-14 At&T Intellectual Property I, Lp Method and apparatus for multi-experience metadata translation of media content with metadata
US8943396B2 (en) * 2011-07-18 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for multi-experience adaptation of media content
US9237362B2 (en) 2011-08-11 2016-01-12 At&T Intellectual Property I, Lp Method and apparatus for multi-experience translation of media content with sensor sharing
CN103050124B (zh) * 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US20130156204A1 (en) * 2011-12-14 2013-06-20 Mitel Networks Corporation Visual feedback of audio input levels
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
WO2013176760A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9378614B2 (en) 2012-07-19 2016-06-28 Masque Publishing, Inc. Gaming machines players' communications
CN104469255A (zh) 2013-09-16 2015-03-25 杜比实验室特许公司 改进的音频或视频会议
US10086291B1 (en) 2012-10-02 2018-10-02 Masque Publishing, Inc. Communications between an A/V communications network and a system
US9755847B2 (en) 2012-12-19 2017-09-05 Rabbit, Inc. Method and system for sharing and discovery
US9369670B2 (en) 2012-12-19 2016-06-14 Rabbit, Inc. Audio video streaming system and method
BR112016001757B1 (pt) 2013-08-05 2021-11-03 Interactive Intelligence, Inc Métodos para reduzir complexidade computacional de participantes em um cenário de comunicação em conferência de voz sobre ip
CN105684405B (zh) * 2013-11-07 2018-11-30 艾可慕株式会社 中继装置、声音通信系统、记录介质以及声音信号的中继方法
US10079941B2 (en) 2014-07-07 2018-09-18 Dolby Laboratories Licensing Corporation Audio capture and render device having a visual display and user interface for use for audio conferencing
US9665341B2 (en) 2015-02-09 2017-05-30 Sonos, Inc. Synchronized audio mixing
JP6972576B2 (ja) * 2017-02-22 2021-11-24 沖電気工業株式会社 通信装置、通信システム、通信方法及びプログラム
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US11770500B2 (en) * 2021-07-15 2023-09-26 Microchip Technology Incorporated System for managing a virtual meeting

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3649761A (en) 1970-01-23 1972-03-14 Bell Telephone Labor Inc Dial selective wideband intercommunication system
JPS5465274A (en) 1977-11-04 1979-05-25 Hideji Hayashibe Device of automatically adjusting pid value of regulator
JPS5854705U (ja) 1981-10-05 1983-04-14 株式会社山武 調節計
US4602326A (en) 1983-12-12 1986-07-22 The Foxboro Company Pattern-recognizing self-tuning controller
US4847829A (en) 1985-04-08 1989-07-11 Datapoint Corporation Video conferencing network
GB2251097B (en) 1990-12-08 1995-05-10 Dowty Information Systems An adaptive data compression system
JP3308563B2 (ja) * 1991-07-15 2002-07-29 株式会社日立製作所 多地点テレビ会議システム
JP3297763B2 (ja) * 1993-02-01 2002-07-02 ソニー株式会社 データ伝送方法、コンセントレータ及び端末装置
US5392285A (en) * 1993-03-31 1995-02-21 Intel Corporation Cascading twisted pair ethernet hubs by designating one hub as a master and designating all other hubs as slaves
US5689641A (en) * 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5533112A (en) * 1994-03-31 1996-07-02 Intel Corporation Volume control in digital teleconferencing
US5838664A (en) 1997-07-17 1998-11-17 Videoserver, Inc. Video teleconferencing system with digital transcoding
KR0163723B1 (ko) * 1995-03-20 1999-01-15 김광호 종합정보통신망을 이용한 화상회의시스템의 화상회의 제어장치
US5646678A (en) * 1995-03-30 1997-07-08 Northern Telecom Limited Digital video network with continuous audio presence at network sites
US5896128A (en) * 1995-05-03 1999-04-20 Bell Communications Research, Inc. System and method for associating multimedia objects for use in a video conferencing system
US5590127A (en) 1995-05-26 1996-12-31 Lucent Technologies Inc. Multimedia conference call providing adjustable bandwidth for individual communication terminals
JPH096404A (ja) 1995-06-20 1997-01-10 Toshiba Corp ディジタルpid制御装置
US6167432A (en) 1996-02-29 2000-12-26 Webex Communications, Inc., Method for creating peer-to-peer connections over an interconnected network to facilitate conferencing among users
GB2313250B (en) 1996-05-17 2000-05-31 Motorola Ltd Method of managing system resources in a multimedia conferencing network
US5826083A (en) 1996-06-20 1998-10-20 Intel Corporation CPU cycle consumption self-regulating method and apparatus
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing
JPH1075310A (ja) * 1996-08-29 1998-03-17 Nec Corp 多地点テレビ会議システム
US5964842A (en) 1997-01-31 1999-10-12 Network Computing Devices, Inc. Method and apparatus for scaling data compression based on system capacity
FR2761562B1 (fr) * 1997-03-27 2004-08-27 France Telecom Systeme de visioconference
US5933417A (en) 1997-06-16 1999-08-03 General Datacomm, Inc. Multimedia multipoint telecommunications reservation acceptance systems and controllers
US6487578B2 (en) 1997-09-29 2002-11-26 Intel Corporation Dynamic feedback costing to enable adaptive control of resource utilization
TW351789B (en) 1997-10-28 1999-02-01 Inventec Corp Multiple point network system and its trouble shooting
US6611503B1 (en) 1998-05-22 2003-08-26 Tandberg Telecom As Method and apparatus for multimedia conferencing with dynamic bandwidth allocation
ES2150380B1 (es) 1998-09-28 2001-04-01 Venelente Sl Sistema de gestion y control de maquinas expendedoras a traves de los canales de control de la telefonia movil digital.
US6697341B1 (en) 1998-12-16 2004-02-24 At&T Corp. Apparatus and method for providing multimedia conferencing services with selective performance parameters
US6697476B1 (en) 1999-03-22 2004-02-24 Octave Communications, Inc. Audio conference platform system and method for broadcasting a real-time audio conference over the internet
US6728221B1 (en) 1999-04-09 2004-04-27 Siemens Information & Communication Networks, Inc. Method and apparatus for efficiently utilizing conference bridge capacity
FR2799209B1 (fr) 1999-09-30 2001-11-30 Framatome Sa Alliage a base de zirconium et procede de fabrication de composant pour assemblage de combustible nucleaire en un tel alliage
US6744460B1 (en) 1999-10-04 2004-06-01 Polycom, Inc. Video display mode automatic switching system and method
JP2001128132A (ja) 1999-10-28 2001-05-11 Nippon Telegr & Teleph Corp <Ntt> ビデオ会議システム、方法、およびその方法を記録した記録媒体
US7321382B2 (en) 1999-12-28 2008-01-22 Ntt Docomo, Inc. Virtual communication device configuring method and apparatus
US6300973B1 (en) 2000-01-13 2001-10-09 Meir Feder Method and system for multimedia communication control
DE60015914T2 (de) 2000-01-19 2005-03-17 Hertel, Joachim Verfahren und System zum Anbieten von positionsabhängigen Diensten an GSM/PCS Teilnehmer
EP1126710A1 (en) 2000-02-15 2001-08-22 Telefonaktiebolaget L M Ericsson (Publ) A method and an apparatus for video mixing of bit streams
US7280492B2 (en) * 2000-02-22 2007-10-09 Ncast Corporation Videoconferencing system
US6760749B1 (en) 2000-05-10 2004-07-06 Polycom, Inc. Interactive conference content distribution device and methods of use thereof
US6629075B1 (en) 2000-06-09 2003-09-30 Speechworks International, Inc. Load-adjusted speech recogintion
US6711212B1 (en) * 2000-09-22 2004-03-23 Industrial Technology Research Institute Video transcoder, video transcoding method, and video communication system and method using video transcoding with dynamic sub-window skipping
US7313593B1 (en) * 2000-10-24 2007-12-25 International Business Machines Corporation Method and apparatus for providing full duplex and multipoint IP audio streaming
US7266091B2 (en) 2001-02-28 2007-09-04 The Trustees Of Columbia University In City Of New York System and method for conferencing in inter/intranet telephony
US7328240B2 (en) * 2001-06-28 2008-02-05 Intel Corporation Distributed multipoint conferencing
US20040022202A1 (en) * 2002-08-05 2004-02-05 Chih-Lung Yang Method and apparatus for continuously receiving images from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual images containing information concerning each of said video channels
US7096037B2 (en) 2002-01-29 2006-08-22 Palm, Inc. Videoconferencing bandwidth management for a handheld computer system and method
WO2003069445A2 (en) 2002-02-11 2003-08-21 Polycom, Inc. System and method for videoconferencing across a firewall
US6915331B2 (en) 2002-05-16 2005-07-05 Cisco Managed Solutions, Inc. End user control of a teleconferencing network through a data network
US7421471B2 (en) * 2002-05-17 2008-09-02 Sony Computer Entertainment America Inc. Configuration switching: dynamically changing between network communication architectures
US7362349B2 (en) * 2002-07-10 2008-04-22 Seiko Epson Corporation Multi-participant conference system with controllable content delivery using a client monitor back-channel
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
US6882971B2 (en) * 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
US7492387B2 (en) * 2002-08-05 2009-02-17 Chih-Lung Yang Implementation of MPCP MCU technology for the H.264 video standard
US7317791B2 (en) 2002-08-08 2008-01-08 International Business Machines Corporation Apparatus and method for controlling conference call participants
WO2004030369A1 (en) 2002-09-27 2004-04-08 Videosoft, Inc. Real-time video coding/decoding
JP3848235B2 (ja) * 2002-10-04 2006-11-22 ソニー株式会社 通信処理装置、通信処理システム、および方法、並びにコンピュータ・プログラム
US7474326B2 (en) 2002-11-04 2009-01-06 Tandberg Telecom As Inter-network and inter-protocol video conference privacy method, apparatus, and computer program product
US8375082B2 (en) 2003-04-17 2013-02-12 Hewlett-Packard Development Company, L.P. Communications systems and methods
US7454460B2 (en) * 2003-05-16 2008-11-18 Seiko Epson Corporation Method and system for delivering produced content to passive participants of a videoconference
AP2005003476A0 (en) * 2003-06-05 2005-12-31 Intertrust Tech Corp Interoperable systems and methods for peer-to-peerservice orchestration.
US20040257434A1 (en) 2003-06-23 2004-12-23 Robert Davis Personal multimedia device video format conversion across multiple video formats
US7606181B1 (en) * 2003-06-30 2009-10-20 Nortel Networks Limited Apparatus, method, and computer program for processing audio information of a communication session
US20050018828A1 (en) * 2003-07-25 2005-01-27 Siemens Information And Communication Networks, Inc. System and method for indicating a speaker during a conference
US8659636B2 (en) 2003-10-08 2014-02-25 Cisco Technology, Inc. System and method for performing distributed video conferencing
US7627678B2 (en) * 2003-10-20 2009-12-01 Sony Computer Entertainment America Inc. Connecting a peer in a peer-to-peer relay network
US20050099492A1 (en) * 2003-10-30 2005-05-12 Ati Technologies Inc. Activity controlled multimedia conferencing
US8046409B2 (en) 2003-10-31 2011-10-25 Hewlett-Packard Development Company, L.P. Communications methods, collaboration session communications organizers, collaboration sessions, and articles of manufacture
US7474634B1 (en) 2004-03-12 2009-01-06 West Corporation System, methods, and computer-readable media for expedited access to conference calls
US7881235B1 (en) 2004-06-25 2011-02-01 Apple Inc. Mixed media conferencing
US20050286443A1 (en) 2004-06-29 2005-12-29 Octiv, Inc. Conferencing system
US7760659B2 (en) 2004-08-05 2010-07-20 Microsoft Corporation Transmission optimization for application-level multicast
US7496056B2 (en) * 2005-01-04 2009-02-24 Avaya Inc. Conference connections using dynamic topology switching for IP and circuit-switched fabrics
US7460495B2 (en) * 2005-02-23 2008-12-02 Microsoft Corporation Serverless peer-to-peer multi-party real-time audio communication system and method
US7692682B2 (en) 2005-04-28 2010-04-06 Apple Inc. Video encoding in a video conference
WO2006116750A2 (en) 2005-04-28 2006-11-02 Apple Computer, Inc. Multi-participant conferencing
US7949117B2 (en) 2005-04-28 2011-05-24 Apple Inc. Heterogeneous video conferencing
EP1878229A4 (en) 2005-04-28 2011-07-27 Apple Inc VIDEO PROCESSING IN MULTIPLE PARTICIPANT VIDEO CONFERENCE
US7653250B2 (en) 2005-04-28 2010-01-26 Apple Inc. Adjusting sampling rate for encoding
US7899170B2 (en) 2005-04-28 2011-03-01 Apple Inc. Multi-participant conference setup
US7864209B2 (en) 2005-04-28 2011-01-04 Apple Inc. Audio processing in a multi-participant conference
US7817180B2 (en) 2005-04-28 2010-10-19 Apple Inc. Video processing in a multi-participant video conference
US8861701B2 (en) 2005-04-28 2014-10-14 Apple Inc. Multi-participant conference adjustments
DE102018209270B4 (de) 2018-06-11 2022-09-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Herstellen einer Deckelbaugruppe für ein Zellgehäuse einer prismatischen Batteriezelle einer Hochvoltbatterie eines Kraftfahrzeugs, Batteriezelle sowie Hochvoltbatterie
US11386194B1 (en) 2021-07-09 2022-07-12 Oversec, Uab Generating and validating activation codes without data persistence

Also Published As

Publication number Publication date
ES2472715T3 (es) 2014-07-02
US20110074914A1 (en) 2011-03-31
EP2439945A1 (en) 2012-04-11
EP2479986B1 (en) 2013-11-13
EP1877148B1 (en) 2012-05-16
US7864209B2 (en) 2011-01-04
WO2006116644A3 (en) 2009-06-25
EP2479986A1 (en) 2012-07-25
EP2439945B1 (en) 2014-03-19
EP2457625A1 (en) 2012-05-30
WO2006116644A2 (en) 2006-11-02
ES2388179T3 (es) 2012-10-10
EP1877148A2 (en) 2008-01-16
US20060247045A1 (en) 2006-11-02
US8456508B2 (en) 2013-06-04
EP1877148A4 (en) 2011-03-23

Similar Documents

Publication Publication Date Title
ES2445923T3 (es) Procesado de audio en una conferencia con múltiples participantes
ES2375537T3 (es) Un método de visualización de subt�?tulos y un dispositivo de control de videocomunicación.
US8334891B2 (en) Multipoint conference video switching
US8249237B2 (en) Heterogeneous video conferencing
US8861701B2 (en) Multi-participant conference adjustments
EP3319344A1 (en) Method and apparatus for generating and playing audio signals, and system for processing audio signals
JP5198567B2 (ja) ビデオ通信方法、システムおよび装置
CN101467423B (zh) 视频会议的性能增强
US20140354766A1 (en) Distributed real-time media composer
US20130094672A1 (en) Audio mixing processing method and apparatus for audio signals
US9497390B2 (en) Video processing method, apparatus, and system
US8787547B2 (en) Selective audio combination for a conference
US20160212383A1 (en) Video Conference Virtual Endpoints
JP2000270304A (ja) 多地点テレビ会議システム
US20130100239A1 (en) Method, apparatus, and system for processing cascade conference sites in cascade conference
US20120075408A1 (en) Technique for providing in-built audio/video bridge on endpoints capable of video communication over ip
US9667683B2 (en) Scalable architecture for media mixing
KR20180105594A (ko) 영상 회의 서비스를 위한 다지점 접속 제어 장치 및 방법
JPH05153583A (ja) 多地点間ビデオ通信方式
US20060230101A1 (en) Telecommunications system for diffusing a multimedia flux through a public communication network
JP2007013764A (ja) 映像音声配信システムおよび方法およびプログラム
Forchhammer et al. Virtual seminar room-modelling and experimentation in horizontal and vertical integration