ES2434995T3 - Sistema de micrófonos de conferencias - Google Patents

Sistema de micrófonos de conferencias

Info

Publication number
ES2434995T3
ES2434995T3 ES09779010T ES09779010T ES2434995T3 ES 2434995 T3 ES2434995 T3 ES 2434995T3 ES 09779010 T ES09779010 T ES 09779010T ES 09779010 T ES09779010 T ES 09779010T ES 2434995 T3 ES2434995 T3 ES 2434995T3
Authority
ES
Spain
Prior art keywords
audience
location
microphones
display device
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09779010T
Other languages
English (en)
Inventor
Morgan KJØLERBAKKEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SquareHead Tech AS
Original Assignee
SquareHead Tech AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=40561902&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2434995(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by SquareHead Tech AS filed Critical SquareHead Tech AS
Application granted granted Critical
Publication of ES2434995T3 publication Critical patent/ES2434995T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Método para controlar la salida de audio selectiva de sonido capturado, desde cualquier ubicación en unaaudiencia (50), por medio de un sistema que comprende por lo menos un conjunto de micrófonos (100) ubicado porencima o delante de dicha audiencia (50), estando por lo menos una cámara (150) enfocada a la audiencia (50), yllevando a cabo el método las siguientes etapas en un dispositivo de procesado de señales (200): - recibir una imagen general (250) de la audiencia (50) desde dicha cámara (150), y sonido desde dichaaudiencia (50) por medio de dicho conjunto de micrófonos (100); - presentar dicha imagen general (250) de la audiencia (50) junto con unos objetos de control (300) en undispositivo de visualización (350) que puede detectar la presencia y ubicación de una entrada táctil en unaubicación x,y dentro del área del dispositivo de visualización (350); - recibir unas entrada(s) táctil(es) en una o más ubicación(es) x,y en dicho dispositivo de visualización (350),que ordenan la ejecución de una acción específica en una ubicación(es) correspondiente(s) en la audiencia(50), y - aplicar un procesado de la señal en dicho dispositivo de procesado de señales (200) para llevar a cabo dichaacción controlando la orientación, la focalización y el nivel de sonido correspondiente al sonido provenientede los micrófonos de dicho conjunto de micrófonos (100), controlando de este modo uno o más micrófonosvirtuales en una o más ubicación(es) de la audiencia (50), correspondiéndose dicha(s) ubicación(es) con la(s)ubicación(es) de entrada en el dispositivo de visualización (350).

Description

Sistema de micrófonos de conferencias
Campo técnico
5 La presente invención se refiere al control direccional de sonido grabado. Más específicamente, la invención se refiere a un método y un sistema para controlar sonido proveniente de una audiencia proporcionando y controlando micrófonos virtuales.
10 Técnica anterior
Cuando tiene lugar una conferencia o una reunión, típicamente uno o más oradores se dirigen a una audiencia con varios participantes situados en un área delante del(de los) orador(es).
15 Cuando uno o más participantes desean decir algo, debe pasarse un micrófono a esa persona para que su voz sea oída por todos los participantes. Este método es engorroso y consume mucho tiempo.
No obstante, existen sistemas que comprenden conjuntos de micrófonos para captar y amplificar sonido proveniente de ubicaciones específicas.
20 La publicación propiedad de los solicitantes PCT/NO2006/000334 describe un método y un sistema para focalizar y orientar digitalmente, de forma direccional, sonido muestreado dentro de un área objetivo con el fin de producir una salida de audio selectiva para acompañar al vídeo. Esto se lleva a cabo mediante la recepción de datos de posición y de focalización desde una o más cámaras que filman un evento, y mediante el uso de estos datos de entrada para
25 generar sonido pertinente al que se da salida junto con la imagen.
Este sistema no resultará práctico para controlar sonido con facilidad, proveniente de una o más ubicaciones específicas en una audiencia. Cuando se está trabajando con una cámara, únicamente se puede señalar una ubicación al mismo tiempo, es decir, la ubicación a la que está apuntando y en la que está haciendo zoom la lente.
30 Además, el uso de este tipo de interfaz cuando el control del sonido es la finalidad principal no se considera cómodo para el usuario.
El documento EP-1 578 057 A da a conocer un sistema con un dispositivo de control, software de control y módulos de control de la infraestructura. Los módulos se pueden activar individualmente para controlar terminales extremos
35 multimedia, por ejemplo, proyectores, basándose en el software de control por medio de pantallas táctiles que están conectadas con interfaces serie RS232. Sobre la pantalla táctil se presenta información referente a posibles posiciones predefinidas de participantes.
La presente invención describe un método y un sistema cómodos para el usuario, para controlar uno o más
40 micrófonos “virtuales”. Un micrófono virtual se puede crear llevando a cabo un procesado de DSP (Procesador de señal digital) simultáneo de las señales provenientes de una combinación de los elementos individuales del conjunto de micrófonos. Esto se describe adicionalmente en la publicación antes citada.
El problema a solucionar por la presente invención se puede considerar que consiste en cómo proporcionar un 45 método y un sistema para un acceso y control sencillos de micrófonos virtuales.
Según la invención, este problema se ha solucionado proporcionando un dispositivo de visualización sensible al tacto, que muestra una imagen general de la audiencia, y usando este dispositivo de visualización para controlar uno
o más micrófonos virtuales. 50
Sumario
La presente invención comprende un método para controlar la salida de audio selectiva de sonidos capturados, desde cualquier ubicación en una audiencia, por medio de un sistema que comprende por lo menos un conjunto de 55 micrófonos ubicado por encima o delante de dicha audiencia, estando por lo menos una cámara enfocada a la audiencia. El método comprende las siguientes etapas llevadas a cabo en un dispositivo de procesado de señales:
-
recibir una imagen general de la audiencia desde dicha cámara, y sonido desde dicha audiencia por medio de
dicho conjunto de micrófonos; 60
-
presentar dicha imagen general de la audiencia junto con objetos de control sobre un dispositivo de visualización que puede detectar la presencia y ubicación de una entrada táctil en una ubicación (x, y) dentro del área del dispositivo de visualización;
-
recibir entrada(s) táctil(es) en una o más ubicación(es) (x, y) en dicho dispositivo de visualización, ordenando la ejecución de una acción específica en una ubicación(es) correspondiente(s) de la audiencia, y
-
aplicar un procesado de la señal en dicho dispositivo de procesado de señales para llevar a cabo dicha acción controlando la orientación, la focalización y el nivel de sonido correspondiente al sonido proveniente de los micrófonos de dicho conjunto de micrófonos, de manera que se controlan así uno o más micrófonos virtuales en una o más ubicación(es) de la audiencia, correspondiéndose dicha(s) ubicación(es) con la(s) ubicación(es) de entrada en el dispositivo de visualización.
La invención se describe también mediante un dispositivo de procesado y un sistema para llevar a cabo el mismo. Esto se define adicionalmente en las reivindicaciones principales.
En las reivindicaciones dependientes adjuntas se definen otras características.
Descripción detallada
A continuación se describirá detalladamente la invención en referencia a los dibujos, en donde:
la Fig. 1 muestra el sistema para controlar un conjunto de micrófonos;
la Fig. 2 muestra el dispositivo de visualización para controlar micrófonos virtuales para una audiencia;
la Fig. 3 muestra un sistema para controlar varios conjuntos de micrófonos.
La invención se describe por medio de un sistema para controlar la salida de audio selectiva de sonidos capturados, desde cualquier ubicación en una audiencia.
La Fig. 1 muestra el sistema para controlar un conjunto de micrófonos con el fin de permitir la salida de audio selectiva.
El sistema comprende un dispositivo de procesado 200, por lo menos un conjunto de micrófonos 100 ubicado por encima o delante de la audiencia 50, y por lo menos una cámara 150 enfocada a la audiencia 50, y un dispositivo de visualización 350 que puede detectar la presencia y ubicación de una entrada táctil, usada para controlar uno o más micrófonos virtuales en una o más ubicación(es) de la audiencia 50. Dichas unidades están conectadas entre sí todas ellas, o bien por cable, o bien de forma inalámbrica, o en una combinación de las mismas.
El dispositivo de procesado 200 se usa para controlar la salida de audio selectiva de los sonidos capturados, desde cualquier ubicación en una audiencia 50, y comprende medios para recibir una imagen general 250 de la audiencia 50 desde dicha cámara 150, junto con sonido de dicha audiencia 50 por medio de dicho conjunto de micrófonos 100. La imagen recibida se procesará antes de presentarla en el dispositivo de visualización 350.
El sonido es capturado por una unidad que comprende un conjunto de micrófonos de banda ancha ubicado por encima o delante de la audiencia.
Se pueden usar una o más cámaras 150 para capturar imágenes de la audiencia 50. Una o más cámaras pueden estar integradas en una unidad que comprenda dicho conjunto de micrófonos 100, o las cámaras se pueden posicionar en otras ubicaciones para capturar imágenes de la audiencia 50.
Las cámaras usadas pueden ser tanto videocámaras como cámaras fotográficas, o una combinación de las mismas.
Se obtiene un sistema compacto y robusto para grabar tanto sonido como imagen, integrando la(s) cámara(s) en la unidad que comprende el conjunto de micrófonos 100.
Para capturar todos los participantes en una audiencia con solamente una cámara, la cámara puede estar equipada con una lente de ojo de pez. Se sabe que las imágenes resultantes de una lente de este tipo producirán una distorsión de barril. Esta se corregirá en el dispositivo de procesado 200 antes de que las imágenes no distorsionadas resultantes se presenten en el dispositivo de visualización 350.
Para audiencias mayores, se pueden usar dos o más conjuntos de micrófonos 100 ubicados en ubicaciones diferentes por encima o delante de la audiencia 50. Esta configuración se describirá de forma más detallada posteriormente.
A continuación se describirá el control del sistema. El dispositivo de procesado 200 coordinará y controlará la salida de audio selectiva de sonidos capturados desde cualquier ubicación de una audiencia 50. Aunque según la invención pueden usarse más de una cámara 150 y un conjunto de micrófonos 100, en la descripción sucesiva del dispositivo de procesado 200 se incluirán, para simplificar, únicamente una cámara y un conjunto de micrófonos.
El dispositivo de procesado 200 comprende medios para recibir una imagen general 250 de la audiencia 50 desde una cámara 150, junto con sonido de una audiencia 50 por medio de un conjunto de micrófonos 100.
A continuación, el dispositivo de procesado 200 procesará la imagen dándole unas dimensiones tales que encaje en el dispositivo de visualización 350, eliminando artefactos, fondos y distorsiones no deseados antes de presentar la imagen sobre el dispositivo de visualización 350 como una imagen general 250 de la audiencia 50 junto con objetos de control 300.
Usando un dispositivo de visualización 350 que puede detectar la presencia y la ubicación de una entrada táctil en una ubicación (x, y) dentro del área del dispositivo de visualización 350, es posible controlar el procesado de la señal correspondiente a las señales de cada micrófono del conjunto de micrófonos 100. Este procesado de señales se lleva a cabo en el dispositivo de procesado 200.
El dispositivo de procesado 200 comprende medios para detectar una entrada(s) táctil(es) en una o más ubicación(es) (x, y) sobre dicho dispositivo de visualización 350, que le ordenan que lleve a cabo una acción específica en la(s) ubicación(es) correspondiente(s) de la audiencia 50.
La acción específica a llevar a cabo dependerá de la naturaleza de la(s) entrada(s) táctil(es) específica(es), y de la(s) ubicación(es) (x, y) sobre el dispositivo de visualización 350.
Basándose en esto, el dispositivo de procesado 200 llevará a cabo el procesado necesario de la señal para controlar la orientación, la focalización y el nivel de sonido correspondiente al sonido proveniente de los micrófonos de dicho conjunto de micrófonos 100, controlando así uno o más micrófonos virtuales en una o más ubicación(es) en la audiencia 50. Este procesado de la señal se describe en dicho documento PCT/NO2006/000334.
El control de la orientación y la focalización en una o más ubicaciones específicas de la audiencia 50 se realiza implementando un posicionamiento tridimensional (x, y, z) de una o más ubicaciones con respecto al conjunto de micrófonos 100. Z se calcula por medio del dispositivo de procesado 200 a partir de la ubicación (x, y) dentro de la audiencia y de la altura y el posible ángulo de inclinación conocidos del conjunto de micrófonos 100 por encima o delante de la audiencia 50.
El dispositivo de procesado 200 comprende también medios para ajustar aspectos geométricos que influyen en la propagación del sonido y la acústica de la sala en la que está ubicada la audiencia 50. Comprende también medios para ajustar la distorsión de barril producida por una lente de ojo de pez usada en una cámara 150.
El dispositivo de procesado 200 puede ser una unidad autónoma conectada a dicho dispositivo de visualización 350 y al conjunto de micrófonos 100. También puede ser una unidad integrada en dicho dispositivo de visualización 350 ó en el conjunto de micrófonos 100.
La Figura 2 muestra el dispositivo de visualización para controlar micrófonos virtuales para una audiencia. A la persona que controla el dispositivo de visualización 350 se le presentará una imagen general 250 de la audiencia 50 junto con objetos de control 300 sobre un dispositivo de visualización 350. Se proporcionará una entrada u orden tocando el dispositivo de visualización 350 en una o más ubicación(es) (x, y). Esto dará como resultado la ejecución de una acción específica en una ubicación(es) correspondiente(s) en la audiencia 50. El dispositivo de procesado 200 ejecutará la orden aplicando un procesado de señales para llevar a cabo la acción de acuerdo con la orden introducida mediante el control de la orientación, la focalización y el nivel de sonido correspondientes al sonido proveniente de los micrófonos de dicho conjunto de micrófonos 100. Esto controlará uno o más micrófonos virtuales en una o más ubicación(es) dentro de la audiencia 50.
Cuando se ejecuta una entrada táctil, es decir, se presiona la pantalla con un dedo o un dispositivo de puntero, en una ubicación sobre dicho dispositivo de visualización 350 que muestra la imagen 250 de la audiencia 50, la focalización en o desde esa ubicación cambiará haciendo que la ubicación sea un área activa 260 en caso de que la misma estuviera en ese momento inactiva, o, por el contrario, inactiva si la misma fuera en ese momento un área activa 260. Cuando un área del dispositivo de visualización 350 es un área activa 260, esto se indicará sobre el dispositivo de visualización 350, y el dispositivo de procesado 200 controlará el conjunto de micrófonos 100 para focalizarlos en esa área, proporcionando así un micrófono virtual para el área activa 260. Cuando se presione nuevamente el área activa, la misma se volverá inactiva, eliminando así el micrófono virtual.
Se pueden activar al mismo tiempo más de un área de la audiencia 50, proporcionando de este modo más de un micrófono virtual.
Cuando se presiona el objeto de control 300, el dispositivo de procesado 200 controlará el nivel de sonido del micrófono(s) virtual(es) activo(s). Al presionar el signo + se añadirá un área activa 260, y al presionar el – se eliminará un área activa 260.
Un movimiento de presión y arrastre de un área activa 260 trasladará esta área a otra ubicación sobre dicho dispositivo de visualización 350. Esto provocará que el dispositivo de procesado de señales 200 cambie la orientación y la focalización del sonido desde una ubicación correspondiente dentro de la audiencia a otra, dando como resultado un efecto de fundido.
5 La Figura 3 muestra un sistema para controlar varios conjuntos de micrófonos. En esta implementación de la invención, el sistema comprende dos o más conjuntos de micrófonos 100 ubicados en ubicaciones diferentes por encima o delante de la audiencia 50. Los mismos están conectados todos ellos al dispositivo de procesado 200.
10 La Figura 3A muestra una audiencia 50 cubierta por cuatro conjuntos de micrófonos 100 con cámaras integradas
150.
En este caso, el dispositivo de procesado 200 comprenderá medios para recibir señales de sonido desde varios conjuntos de micrófonos 100, concretamente cuatro, junto con imágenes de las cámaras 50, con el fin de presentar 15 imágenes procesadas de las cámaras sobre el dispositivo de visualización 350 junto con dicho objeto de control 300.
Las diferentes cámaras 150 y conjuntos de micrófonos 100 cubrirán, cada uno de ellos, diferentes áreas de una audiencia 50. A continuación estas áreas se presentarán sobre el dispositivo de visualización 350.
20 La Figura 3B muestra una primera forma de presentar la audiencia. Muestra que un área focalizada está visualizada en un tamaño mayor que las otras áreas. La ejecución de una entrada táctil sobre una de las áreas más pequeñas cambiará la focalización a esa área para controlar los micrófonos virtuales.
La Figura 3C muestra una segunda forma de presentar la audiencia. Todas las áreas se presentan con las mismas
25 dimensiones sobre el dispositivo de visualización 350. Esto permitirá el control sencillo del sonido proveniente de un micrófono virtual desde una primera ubicación en un área a una segunda ubicación en otra área ejecutando una acción de toque y arrastre.
La Figura 3D muestra la totalidad de las cuatro áreas de la fig. 3A, cubiertas por los diferentes conjuntos de
30 micrófonos y cámaras, en forma de una imagen de área total resultante que cubre la audiencia 50. Esto se obtiene en el dispositivo de procesado 200 procesando las imágenes mediante la unión entre sí sin costuras de las imágenes 250 de cada área.

Claims (20)

  1. REIVINDICACIONES
    1. Método para controlar la salida de audio selectiva de sonido capturado, desde cualquier ubicación en una audiencia (50), por medio de un sistema que comprende por lo menos un conjunto de micrófonos (100) ubicado por encima o delante de dicha audiencia (50), estando por lo menos una cámara (150) enfocada a la audiencia (50), y llevando a cabo el método las siguientes etapas en un dispositivo de procesado de señales (200):
    -
    recibir una imagen general (250) de la audiencia (50) desde dicha cámara (150), y sonido desde dicha audiencia (50) por medio de dicho conjunto de micrófonos (100);
    -
    presentar dicha imagen general (250) de la audiencia (50) junto con unos objetos de control (300) en un dispositivo de visualización (350) que puede detectar la presencia y ubicación de una entrada táctil en una ubicación x,y dentro del área del dispositivo de visualización (350);
    -
    recibir unas entrada(s) táctil(es) en una o más ubicación(es) x,y en dicho dispositivo de visualización (350), que ordenan la ejecución de una acción específica en una ubicación(es) correspondiente(s) en la audiencia (50), y
    -
    aplicar un procesado de la señal en dicho dispositivo de procesado de señales (200) para llevar a cabo dicha acción controlando la orientación, la focalización y el nivel de sonido correspondiente al sonido proveniente de los micrófonos de dicho conjunto de micrófonos (100), controlando de este modo uno o más micrófonos virtuales en una o más ubicación(es) de la audiencia (50), correspondiéndose dicha(s) ubicación(es) con la(s) ubicación(es) de entrada en el dispositivo de visualización (350).
  2. 2. Método según la reivindicación 1, caracterizado porque la recepción de una entrada táctil en una ubicación sobre dicho dispositivo de visualización (350) que muestra la imagen (250) de la audiencia (50) cambiará la focalización a
    o desde esa ubicación, haciendo que la ubicación sea un área activa (260) en caso de que la misma estuviera en ese momento inactiva, o un área inactiva (260) en caso de que fuera en ese momento un área activa (260), y siendo un área activa (260) un área (260) provista de un micrófono virtual, y no estando un área inactiva provista de ningún micrófono virtual.
  3. 3.
    Método según la reivindicación 1 y 2, caracterizado porque la recepción de una entrada táctil en una ubicación en dicho dispositivo de visualización (350) que muestra un objeto de control (300), ejercerá un control sobre el nivel de sonido de micrófono(s) virtual(es) activo(s), y añadirá o eliminará micrófonos virtuales.
  4. 4.
    Método según la reivindicación 1, caracterizado porque la recepción de una entrada táctil en una ubicación x,y en dicho dispositivo de visualización (350), seguida por un movimiento de arrastre a otra ubicación sobre dicho dispositivo de visualización (350), provocará que el dispositivo de procesado de señales (200) cambie la orientación y la focalización del sonido desde una ubicación correspondiente en la audiencia a otra.
  5. 5.
    Método según la reivindicación 1, caracterizado porque la orientación y focalización en una o más ubicaciones específicas en la audiencia (50) se lleva a cabo implementando un posicionamiento tridimensional para una o más ubicaciones con respecto al conjunto de micrófonos (100), siendo la focalización calculada a partir de dicha ubicación x,y y de la altura y el posible ángulo de inclinación conocidos del conjunto de micrófonos (100) por encima
    o delante de la audiencia (50).
  6. 6.
    Método según la reivindicación 5, caracterizado porque el procesado de señales que incluye el posicionamiento tridimensional incluye también ajustar los aspectos geométricos de la sala que influyen en la propagación del sonido en la sala en la que está ubicada la audiencia (50).
  7. 7.
    Método según la reivindicación 1, caracterizado porque el método comprende el uso de varias cámaras (150) y conjuntos de micrófonos (100) que cubren, cada uno de ellas, áreas diferentes de una audiencia (50), en donde estas áreas son presentadas en el dispositivo de visualización (350), estando visualizada en un tamaño mayor que las otras un área focalizada, y en donde una entrada táctil sobre una de las áreas más pequeñas cambiará la focalización hacia esa área para controlar los micrófonos virtuales.
  8. 8.
    Método según la reivindicación 1 y 4, caracterizado porque el método comprende el uso de varias cámaras (150) y conjuntos de micrófonos (100) que cubren, cada uno de ellos, áreas diferentes de una audiencia (50), y siendo estas áreas presentadas con las mismas dimensiones en el dispositivo de visualización (350), permitiendo así el control del sonido de los micrófonos virtuales desde una primera ubicación en un área o una segunda ubicación en otra área, llevando a cabo una acción de toque y arrastre.
  9. 9.
    Método según la reivindicación 1 y 8, caracterizado porque el método comprende el uso de varias cámaras (150) y conjuntos de micrófonos (100) que cubren, cada uno de ellos, áreas diferentes de una audiencia (50), y siendo estas áreas presentadas en el dispositivo de visualización (350) en forma de un área total que cubre la audiencia
    (50) mediante la unión entre sí sin costuras de las imágenes (250) de cada área.
  10. 10. Dispositivo de procesado (200) para controlar la salida de audio selectiva de sonidos capturados, desde cualquier ubicación en una audiencia (50), por medio de un sistema que comprende por lo menos un conjunto de micrófonos (100) ubicado por encima o delante de la audiencia (50), estando por lo menos una cámara (150) enfocada a la audiencia (50), comprendiendo el dispositivo de procesado (200):
    -
    unos medios para recibir una imagen general (250) de la audiencia (50) desde la cámara (150), y sonido de dicha audiencia (50) desde el conjunto de micrófonos (100);
    -
    unos medios para presentar dicha imagen general (250) de la audiencia (50) junto con objetos de control
    (300) en un dispositivo de visualización (350) para detectar la presencia y ubicación de una entrada táctil en una ubicación x,y dentro del área del dispositivo de visualización (350);
    -
    unos medios para recibir una o más ubicación(es) x,y de entrada(s) táctil(es) en dicho dispositivo de visualización (350), que ordenan al dispositivo de procesado de señales (200) que ejecute una acción específica en una ubicación(es) correspondiente(s) dentro de la audiencia (50), y
    -
    unos medios para llevar a cabo dicha acción específica controlando la orientación, la focalización y el nivel de sonido correspondiente al sonido proveniente de los micrófonos de dicho conjunto de micrófonos (100), controlando de este modo uno o más micrófonos virtuales en una o más ubicación(es) dentro de la audiencia (50), correspondiéndose dicha(s) ubicación(es) con la(s) ubicación(es) de entrada en el dispositivo de visualización (350).
  11. 11. Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque el dispositivo de procesado
    (200)
    para controlar la orientación y la focalización en una o más ubicaciones específicas dentro de la audiencia (50) comprende unos medios para implementar un posicionamiento tridimensional de una o más ubicaciones con respecto al conjunto de micrófonos (100), siendo la focalización calculada por medio del dispositivo de procesado
    (200)
    a partir de dicha ubicación x,y y de la altura y el posible ángulo de inclinación conocidos del conjunto de micrófonos (100) por encima o delante de la audiencia (50).
  12. 12.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque comprende unos medios para ajustar aspectos geométricos de la sala que influyen en la propagación del sonido en la sala en la que está ubicada la audiencia (50).
  13. 13.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque comprende unos medios para ajustar la distorsión de barril producida por una lente de ojo de pez usada en dicha cámara (150) con el fin de presentar una imagen no distorsionada en el dispositivo de visualización (350).
  14. 14.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque comprende unos medios para recibir señales de sonido desde dos o más conjuntos de micrófonos (100) e imágenes desde dos o más cámaras
    (50) para presentar las imágenes de las cámaras en dicho dispositivo de visualización (350) junto con dichos objetos de control (300).
  15. 15.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque está integrado en dicho dispositivo de visualización (350).
  16. 16.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque está integrado en dicho conjunto de micrófonos (100).
  17. 17.
    Dispositivo de procesado (200) según la reivindicación 10, caracterizado porque es una unidad autónoma conectada a dicho dispositivo de visualización (350) y al conjunto de micrófonos (100).
  18. 18.
    Sistema para controlar la salida de audio selectiva de sonidos capturados, de cualquier ubicación dentro de una audiencia (50), caracterizado porque comprende un dispositivo de procesado (200) según la reivindicación 10, por lo menos un conjunto de micrófonos (100) ubicado por encima o delante de la audiencia (50), y por lo menos una cámara (150) enfocada a la audiencia (50), y un dispositivo de visualización (350) que puede detectar la presencia y la ubicación de una entrada táctil, usada para controlar uno o más micrófonos virtuales en una o más ubicación(es) en la audiencia (50).
  19. 19.
    Sistema según la reivindicación 18, caracterizado porque dicha cámara (150) está integrada en una unidad con dicho conjunto de micrófonos (100).
  20. 20.
    Sistema según la reivindicación 18, caracterizado porque comprende dos o más conjuntos de micrófonos (100) ubicados en ubicaciones diferentes por encima o delante de la audiencia (50), y conectados a dicho dispositivo de procesado (200).
ES09779010T 2009-02-03 2009-02-03 Sistema de micrófonos de conferencias Active ES2434995T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2009/051199 WO2010088952A1 (en) 2009-02-03 2009-02-03 Conference microphone system

Publications (1)

Publication Number Publication Date
ES2434995T3 true ES2434995T3 (es) 2013-12-18

Family

ID=40561902

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09779010T Active ES2434995T3 (es) 2009-02-03 2009-02-03 Sistema de micrófonos de conferencias

Country Status (7)

Country Link
EP (1) EP2394444B1 (es)
CN (1) CN102308597B (es)
DK (1) DK2394444T3 (es)
EA (1) EA201190153A1 (es)
ES (1) ES2434995T3 (es)
PL (1) PL2394444T3 (es)
WO (1) WO2010088952A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102469295B (zh) * 2010-10-29 2015-03-11 华为终端有限公司 会议控制方法及相关设备和系统
EP2600637A1 (en) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for microphone positioning based on a spatial power density
JP2014143678A (ja) * 2012-12-27 2014-08-07 Panasonic Corp 音声処理システム及び音声処理方法
US9472201B1 (en) 2013-05-22 2016-10-18 Google Inc. Speaker localization by means of tactile input

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1215961A (zh) * 1998-07-06 1999-05-05 陆德宝 多媒体电子会议控制系统
EP1578057A1 (de) * 2004-03-15 2005-09-21 RoNexus Services AG Interaktives Kommunikationssystem für Veranstaltungen
US20080184115A1 (en) * 2007-01-29 2008-07-31 Fuji Xerox Co., Ltd. Design and design methodology for creating an easy-to-use conference room system controller
CN101076203A (zh) * 2007-06-15 2007-11-21 南京大学 拾取近场声源信号的传声器阵列
CN101290347B (zh) * 2008-06-13 2011-04-27 清华大学 用规则声阵列和单摄像机获取静止声源声场图像的方法

Also Published As

Publication number Publication date
CN102308597A (zh) 2012-01-04
PL2394444T3 (pl) 2014-04-30
DK2394444T3 (da) 2013-11-25
CN102308597B (zh) 2014-09-17
EA201190153A1 (ru) 2012-03-30
WO2010088952A1 (en) 2010-08-12
EP2394444B1 (en) 2013-08-14
EP2394444A1 (en) 2011-12-14

Similar Documents

Publication Publication Date Title
US20100254543A1 (en) Conference microphone system
US10206030B2 (en) Microphone array system and microphone array control method
JP6521604B2 (ja) 危険、又はその他の関心対象の事象があることを示すようにするオーディオパノラマの修正
US9913027B2 (en) Audio signal beam forming
US9648278B1 (en) Communication system, communication apparatus and communication method
WO2015144020A1 (zh) 增强录音的拍摄方法和摄像装置
CN106416292A (zh) 用于获取声信号的方法、电路、设备、系统和相关计算机可执行代码
US10664128B2 (en) Information processing apparatus, configured to generate an audio signal corresponding to a virtual viewpoint image, information processing system, information processing method, and non-transitory computer-readable storage medium
CN104580992A (zh) 一种控制方法及移动终端
JP6410769B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
ES2434995T3 (es) Sistema de micrófonos de conferencias
JP2016213677A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
US20220225049A1 (en) An apparatus and associated methods for capture of spatial audio
JP2010056710A (ja) 指向性スピーカ反射方向制御機能付プロジェクタ
KR20140057729A (ko) 근접 촬영 방법 및 이를 지원하는 단말기
JP2018019295A (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP2015106860A (ja) 監視撮影システム及びプログラム
JP2016119620A (ja) 指向性制御システム及び指向性制御方法
KR101844822B1 (ko) 입체 음향 캡처링 시스템 및 방법
JP2017028465A (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラム
KR20190086214A (ko) 지향성 마이크를 이용한 실감 시청 극대화 시스템 및 방법
US11937071B2 (en) Augmented reality system
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
JP2016082275A (ja) 撮像装置
JP2024130685A (ja) 表示方法、表示処理装置およびプログラム