ES2285834T3 - Metodo y sistema dpara procesar sonido dirigido en un entorno virtual acustico. - Google Patents

Metodo y sistema dpara procesar sonido dirigido en un entorno virtual acustico. Download PDF

Info

Publication number
ES2285834T3
ES2285834T3 ES99910399T ES99910399T ES2285834T3 ES 2285834 T3 ES2285834 T3 ES 2285834T3 ES 99910399 T ES99910399 T ES 99910399T ES 99910399 T ES99910399 T ES 99910399T ES 2285834 T3 ES2285834 T3 ES 2285834T3
Authority
ES
Spain
Prior art keywords
sound
filter
sound source
filters
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99910399T
Other languages
English (en)
Inventor
Jyri Huopaniemi
Riitta Vaananen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Application granted granted Critical
Publication of ES2285834T3 publication Critical patent/ES2285834T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves

Landscapes

  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Steroid Compounds (AREA)
  • Complex Calculations (AREA)
  • Executing Machine-Instructions (AREA)

Abstract

Método para procesar un entorno virtual acústico en un dispositivo electrónico, por el cual el entorno virtual acústico comprende por lo menos una fuente de sonido virtual (300), en el que se definen para la fuente de sonido (300) una cierta dirección de referencia (301) y un conjunto de direcciones (302, 303, 304, 305) que difieren con respecto a dicha cierta dirección de referencia (301), en el que para modelar cómo se dirige el sonido desde la por lo menos una fuente de sonido (300), se incorpora a la fuente de sonido una disposición de filtrado (306, 307, 308, 309) dependiente de la dirección con lo cual a cada dirección que difiere con respecto a la dirección de referencia determinada se le incorpora un filtro (306, 307, 308, 309) de manera que el efecto de la disposición de filtrado sobre el sonido depende de parámetros predeterminados referentes a cada filtro, en el que los parámetros referentes a cada filtro son factores de amplificación con vistas a determinar la amplificación relativa del sonido dirigido en direcciones diferentes desde la fuente de sonido.

Description

Método y sistema para procesar sonido dirigido en un entorno virtual acústico.
La presente invención se refiere a un método y a un sistema con los cuales se puede crear para un oyente una impresión audible artificial correspondiente a un cierto espacio. Particularmente la invención se refiere al procesado de sonido dirigido en dicha impresión audible y a la transmisión de la impresión audible resultante en un sistema en el que la información presentada al usuario se transmite, procesa y/o comprime de forma digital.
La expresión entorno virtual acústico significa una impresión audible con cuya ayuda el oyente de un sonido reproducido eléctricamente se puede imaginar que se encuentra en un cierto espacio. Con frecuencia, la intención de los entornos virtuales acústicos complicados es imitar un espacio real, a lo cual se le denomina auralización de dicho espacio. Este concepto se describe, por ejemplo, en el artículo de M. Kleiner, B.-I. Dalenbäck, P. Svensson: "Auralization - An Overview", 1993, J. Audio Eng. Soc., vol. 41, nº 11, págs. 861 a 875. La auralización se puede combinar de una manera natural con la creación de un entorno virtual visual, con lo cual un usuario provisto de pantallas y altavoces o auriculares adecuados puede inspeccionar un espacio real o imaginario deseado, e incluso "desplazarse" en dicho espacio, con lo cual obtiene una impresión visual y acústica diferente dependiendo de qué punto de dicho entorno seleccione como su punto de inspección.
La creación de un entorno virtual acústico se puede dividir en tres factores que son el modelado de la fuente de sonido, el modelado del espacio, y el modelado del oyente. La presente invención se refiere en particular al modelado de una fuente de sonido y a las primeras reflexiones del sonido.
Para modelar y procesar un entorno virtual visual y acústico se usa frecuentemente el lenguaje VRML97
(Lenguaje de Modelado de Realidad Virtual 97), y este lenguaje se trata en la publicación ISO/IEC JTC/SC24 IS 14772-1, 1997, Information Technology - Computer Graphics and Image Processing - The Virtual Reality
Modeling Language (VRML91), abril de 1997; y en las páginas correspondientes de la dirección de Internet
http://www.vrml.org/Specifications/VRML97/. Otro conjunto de normas que se está desarrollando mientras se está redactando esta solicitud de patente hace referencia al Java3D, el cual se va a convertir en el entorno de control y procesado del VRML, y el cual se describe, por ejemplo, en la publicación SUN Inc. 1997: JAVA 3D Especificación API 1.0; y en la dirección de Internet http://www.javasoft.com/-products/java-media/3D/forDevelopers/3Dguide/-. Además, la norma MPEG-4 (Grupo de Expertos en Imágenes en Movimiento 4) que se está desarrollando tiene como objetivo que una presentación multimedia transmitida a través de un enlace digital de comunicaciones pueda contener objetos reales y virtuales, los cuales conjuntamente forman un cierto entorno audiovisual. La norma MPEG-4 se describe en la publicación ISO/IEC JTC/SC29 WG11 CD 14496. 1997: Information technology - Coding of audiovisual objects. Noviembre de 1997; y en las páginas correspondientes de la dirección de Internet http://www.cselt.it/-mpeg/public/mpeg-4_cd.htm.
La figura 1 muestra un modelo de sonido dirigido conocido el cual se usa en el VRML97 y el MPEG-4. La fuente de sonido se encuentra situada en el punto 101 y en torno a la misma se han formado imaginariamente dos elipsoides 102 y 103 una dentro de la otra, con lo cual el foco de una elipsoide es común con la ubicación de la fuente de sonido y con lo cual los ejes principales de las elipsoides son paralelos. Los tamaños de las elipsoides 102 y 104 quedan representados por las distancias maxBack, maxFront, minBack y minFront medidas en la dirección del eje principal. La atenuación del sonido en función de la distancia queda representada por la curva 104. Dentro de la elipsoide interior 102 la intensidad del sonido es constante, y fuera de la elipsoide exterior 103 la intensidad del sonido es cero. Cuando se pasa a lo largo de cualquier línea recta a través del punto 101 alejándose de dicho punto 101 la intensidad del sonido disminuye linealmente 20 dB entre las elipsoides interior y exterior. En otras palabras, la atenuación A observada en un punto 105 ubicado entre las elipsoides se puede calcular a partir de la fórmula
A = - 20\ dB \cdot (d'/d'')
en la que d' es la distancia desde la superficie de la elipsoide interior al punto de observación, medida a lo largo de la línea recta que une los puntos 101 y 105, y d'' es la distancia entre las elipsoides interior y exterior, medida a lo largo de la misma línea recta.
En el Java3D, el sonido dirigido se modela con el concepto ConeSound el cual se ilustra en la figura 2. La figura presenta una sección de una cierta estructura de doble cono a lo largo de un plano que contiene el eje longitudinal común de los conos. La fuente de sonido se encuentra ubicada en el vértice común 203 de los conos 201 y 202. En las zonas tanto del cono anterior 201 como del cono posterior 202 el sonido se atenúa uniformemente. En la zona entre los conos se aplica una interpolación lineal. Para calcular la atenuación detectada en el punto de observación 204, debe conocerse la intensidad del sonido sin atenuación, la amplitud de los conos anterior y posterior, y el ángulo entre el eje longitudinal del cono anterior y la línea recta que une los puntos 203 y 204.
Uno de los métodos conocidos para modelar la acústica de un espacio que comprende superficies es el método de las fuentes imagen, en el cual a la fuente de sonido original se le asigna un conjunto de fuentes imagen imaginarias que son imágenes especulares de la fuente de sonido en relación con las superficies de reflexión a inspeccionar: se sitúa una fuente imagen detrás de cada superficie de reflexión a inspeccionar, con lo cual la distancia medida directamente desde esta fuente imagen al punto de inspección es igual que la distancia desde la fuente de sonido original pasando por la reflexión al punto de inspección. Además, el sonido de la fuente imagen llega al punto de inspección desde la misma dirección que el sonido reflejado real. La impresión audible se obtiene sumando los sonidos generados por las fuentes imagen.
Los métodos de la técnica anterior son muy farragosos en relación con el cálculo. Si se considera que el entorno virtual se transmite al usuario, por ejemplo, en forma de una emisión de difusión general o a través de una red de datos, en ese caso el receptor del usuario debería sumar continuamente el sonido generado incluso por miles de fuentes imagen. Por otra parte, la base del cálculo cambia siempre que el usuario decide cambiar la ubicación del punto de inspección. Además, las soluciones conocidas ignoran completamente el hecho de que además del ángulo de dirección la directividad del sonido depende fuertemente de su longitud de onda, en otras palabras, los sonidos con una altura tonal diferente van dirigidos de forma diferente.
A partir de la publicación PCT WO 99/21164 no publicada previamente, la cual se incluye en los términos del artículo 54(3) CPE, se conoce un método y un sistema para procesar un entorno virtual acústico. En dicho documento, las superficies del entorno a modelar se representan mediante filtros que tienen una cierta respuesta frecuencial. Para transmitir el entorno modelado en un formato de transmisión digital, basta con presentar de alguna manera las funciones de transferencia de todas las superficies esenciales pertenecientes al entorno. Este documento también da a conocer una etapa de filtrado la cual tiene en cuenta la directividad de la fuente de sonido al considerar cómo el sonido transmitido por la fuente sonora se dirige desde la fuente sonora hacia direcciones diferentes en el espacio a
modelar.
La publicación de solicitud de patente del Reino Unido número GB-A-2305092 da a conocer un método para la simulación de la calidad acústica producida por una fuente de sonido virtual y para la localización de esta fuente con respecto a uno o más oyentes, y una o más fuentes de sonido originales.
Según la invención se proporciona un método para procesar un entorno virtual acústico en un dispositivo electrónico, por el cual el entorno virtual acústico comprende por lo menos una fuente de sonido virtual, en el que se definen para la fuente de sonido una cierta dirección de referencia y un conjunto de direcciones que difieren con respecto a dicha cierta dirección de referencia, en el que para modelar cómo se dirige el sonido desde la por lo menos una fuente de sonido, se incorpora a la fuente de sonido una disposición de filtrado dependiente de la dirección con lo cual a cada dirección que difiere con respecto a la dirección de referencia determinada se le incorpora un filtro de manera que el efecto de la disposición de filtrado sobre el sonido depende de parámetros predeterminados referentes a cada filtro, en el que los parámetros referentes a cada filtro son factores de amplificación con vistas a determinar la amplificación relativa del sonido dirigido en direcciones diferentes desde la fuente de sonido.
De acuerdo con un segundo aspecto de la invención se proporciona un sistema para procesar el entorno virtual acústico que comprende por lo menos una fuente de sonido virtual, en el que se definen para la fuente de sonido una cierta dirección de referencia y un conjunto de direcciones que difieren con respecto a dicha cierta dirección de referencia, en el que el sistema comprende medios para crear una disposición de filtrado dependiente de la dirección incorporada a la fuente de sonido, que comprende filtros parametrizados cuyo efecto sobre la fuente de sonido depende de parámetros predeterminados referentes a cada filtro con lo cual el filtro se incorpora a cada dirección que difiere con respecto a la dirección de referencia determinada con vistas a modelar cómo se dirige el sonido desde la por lo menos una fuente de sonido perteneciente al entorno virtual acústico, en el que los parámetros referentes a cada filtro son factores de amplificación con vistas a determinar la amplificación relativa del sonido dirigido en direcciones diferentes desde la fuente de sonido.
El objetivo de ciertas formas de realización de la presente invención es presentar un método y un sistema con los cuales se puede transmitir un entorno virtual acústico hacia el usuario con una carga de cálculo razonable. Otro de los objetivos de la presente invención es presentar un método y un sistema los cuales pueden tener en cuenta cómo afectan a la dirección del sonido la altura tonal y la dirección de llegada del sonido.
Los objetivos de ciertas formas de realización de la invención se alcanzan modelando la fuente de sonido o su primera reflexión por medio de una función del sistema parametrizada en la que es posible fijar una dirección deseada del sonido con la ayuda de diferentes parámetros y tener en cuenta el modo en el que la dirección depende de la frecuencia y del ángulo de dirección.
El método según ciertas formas de realización de la invención está caracterizado porque para modelar cómo se dirige el sonido, a la fuente de sonido de un entorno virtual acústico se le incorpora una disposición de filtrado dependiente de la dirección de manera que el efecto de la disposición de filtrado sobre el sonido depende de parámetros predeterminados.
Las formas de realización de la invención hacen referencia asimismo a un sistema que está caracterizado porque comprende unos medios para generar un banco de filtros que comprende filtros parametrizados para modelar la dirección desde las fuentes de sonido pertenecientes al entorno virtual acústico.
Según ciertas formas de realización de la invención, el modelo de la fuente de sonido o la reflexión calculada a partir del mismo comprende filtros digitales dependientes de la dirección. Para el sonido se selecciona una cierta dirección de referencia, denominada azimut cero. Esta dirección se puede dirigir en cualquier dirección en el entorno virtual acústico. Además de ella, se selecciona una serie de otras direcciones, en las cuales se desea modelar cómo se dirige el sonido. Además, estas direcciones se pueden seleccionar arbitrariamente. Cada una de las otras direcciones seleccionadas se modela por medio de un filtro digital propio que tiene una función de transferencia la cual se puede seleccionar de manera que sea bien dependiente de la frecuencia o bien independiente de la frecuencia. En el caso de que el punto de inspección se sitúe en algún otro lugar que no sea exactamente en una dirección representada por un filtro, es posible formar diferentes interpolaciones entre las funciones de transferencia de los
filtros.
Cuando se desea modelar el sonido y cómo se dirige el mismo en un sistema en el que la información se debe transmitir en un formato digital, es necesario transmitir únicamente los datos sobre cada función de transferencia. El dispositivo de recepción, que conoce el punto de inspección deseado, determina que el sonido va dirigido desde la ubicación de la fuente de sonido hacia el punto de inspección con la ayuda de las funciones de transferencia que ha reconstruido. Si la ubicación del punto de inspección cambia en relación con el azimut cero, el dispositivo de recepción comprueba cómo se dirige el sonido hacia el punto de inspección nuevo. Puede disponerse de varias fuentes de sonido, con lo cual el dispositivo de recepción calcula cómo se dirige el sonido desde cada fuente de sonido hacia el punto de inspección y de forma correspondiente modifica el sonido que reproduce. A continuación, el oyente obtiene una impresión de un lugar de escucha posicionado correctamente, por ejemplo, en relación con una orquesta virtual en la que los instrumentos están ubicados en diferentes lugares y en la que los mismos están dirigidos de diferentes
maneras.
En una alternativa más avanzada, la banda de frecuencias inspeccionada se divide en subbandas, y para cada subbanda se presentan sus propios factores de amplificación en las direcciones seleccionadas. En otra de las versiones avanzadas, cada dirección inspeccionada se modela por medio de una función de transferencia general, para la cual se indican ciertos coeficientes que permiten la reconstrucción de las mismas funciones de transferencia.
A continuación se describe más detalladamente la invención haciendo referencia a formas de realización preferidas presentadas como ejemplos y las figuras adjuntas, en las cuales
la Figura 1 muestra un modelo conocido de sonido dirigido;
la Figura 2 muestra otro modelo conocido de sonido dirigido;
la Figura 3 muestra esquemáticamente un modelo de sonido dirigido según la invención;
la Figura 4 muestra una representación gráfica de cómo se dirige el sonido, generado por un modelo según la invención;
la Figura 5 muestra cómo se aplica la invención a un entorno virtual acústico;
la Figura 6 muestra un sistema según la invención;
la Figura 7a muestra más detalladamente una parte de un sistema según la invención; y
la Figura 7b muestra un detalle de la figura 7a.
Anteriormente se ha hecho referencia a las figuras 1 y 2 en relación con la descripción de la técnica anterior, de manera que en la siguiente descripción de la invención y sus formas de realización preferidas se hace referencia principalmente a las figuras 3 a 7b.
La figura 3 muestra la ubicación de una fuente de sonido en el punto 300 y la dirección 301 del azimut cero. En la figura se considera que se desea representar la fuente de sonido ubicada en el punto 300 con cuatro filtros, de entre los cuales el primero representa el sonido que se propaga desde la fuente de sonido en la dirección 302, el segundo representa el sonido que se propaga desde la fuente de sonido en la dirección 303, el tercero representa el sonido que se propaga desde la fuente de sonido en la dirección 304, y el cuarto representa el sonido que se propaga desde la fuente de sonido en la dirección 305. Se supone además, en la figura, que el sonido se propaga simétricamente en relación con la dirección 301 del azimut cero, de manera que de hecho cada una de las direcciones 302 a 305 representa cualquier dirección correspondiente sobre una superficie cónica que se obtiene rotando el radio que representa la dirección inspeccionada con respecto a la dirección 301 del azimut cero. La invención no se limita a estas consideraciones, aunque algunas características de la invención se entienden más fácilmente considerando en primer lugar una forma de realización simplificada de la invención. En la figura, las direcciones 302 a 305 se muestran como líneas equidistantes en el mismo plano, aunque las direcciones también se pueden seleccionar arbitrariamente.
Cada filtro mostrado en la figura 3 y que representa el sonido que se propaga en una dirección diferente con respecto a la dirección del azimut cero se muestra simbólicamente por medio de un bloque 306, 307, 308 y 309. Cada filtro está caracterizado por una cierta función de transferencia H_{i}, en la que i \in {1, 2, 3, 4}. Las funciones de transferencia de los filtros están normalizadas de manera que un sonido que se propaga en relación con el azimut cero es el mismo que el sonido como tal generado por la fuente de sonido. Como típicamente un sonido es una función del tiempo, el sonido generado por la fuente de sonido se presenta como X(t). Cada filtro 306 a 309 genera una respuesta Y_{i}(t), en la que i \in {1, 2, 3, 4}, según la ecuación
(1)Y_{i}(t) = H_{i} * X(t)
en la que * representa la convolución con respecto al tiempo. La respuesta Y_{i}(t) es el sonido dirigido en la dirección en cuestión.
En su forma más sencilla, la función de transferencia significa que el impulso X(t) se multiplica por un número real. Debido a que la selección del azimut cero como aquella dirección en la que se dirige el sonido con mayor intensidad es una opción natural, en ese caso las funciones de transferencia más sencillas de los filtros 306 a 309 son números reales entre cero y uno, incluidos estos límites.
Una simple multiplicación por números reales no tiene en cuenta la importancia de la altura tonal para la directividad del sonido. Una función de transferencia más versátil es aquella en la que el impulso se divide en bandas de frecuencia predeterminadas, y cada banda de frecuencias se multiplica por su propio factor de amplificación, el cual es un número real. Las bandas de frecuencias se pueden definir mediante un número que representa la frecuencia más alta de la banda de frecuencias. Alternativamente, a continuación se pueden presentar ciertos coeficientes de números reales para algunas frecuencias ilustrativas, con lo cual se aplica una interpolación adecuada entre estas frecuencias (por ejemplo, si se proporciona una frecuencia de 400 Hz y un factor 0,6; y una frecuencia de 1.000 Hz y el factor es 0,2, en ese caso con una interpolación directa se obtiene el factor 0,4 para la frecuencia 700 Hz).
En general, se puede decir que cada filtro 306 a 309 es un cierto filtro IIR o FIR (Respuesta Impulsional Infinita; Respuesta Impulsional Finita) que tiene una función de transferencia H la cual se puede expresar con la ayuda de una transformada Z H(z). Cuando se calcula la transformada Z X(z) del impulso X(t) y la transformada Z Y(z) del impulso Y(t), en ese caso se obtiene la definición
(2)H(z) = \frac{Y(z)}{X(x)} = \frac{\sum\limits^{M}_{k=0}b_{k}z^{-k}}{1 + \sum\limits^{N}_{k=1} a_{k}z^{-k}}
con lo cual basta con expresar los coeficientes [b_{0} b_{1} a_{1} b_{2} a_{2}...] usados en el modelado de la transformada Z para expresar una función de transferencia arbitraria. Los límites superiores N y M usados en los sumatorios representan aquella precisión con la cual se desea definir la función de transferencia. En la práctica, los mismos quedan determinados por cuánta capacidad hay disponible para almacenar y/o transmitir en un sistema de transmisión los coeficientes usados para modelar cada función de transferencia individual.
La figura 4 muestra cómo se dirige el sonido generado por una bocina, expresado mediante el azimut cero y según la invención también con otras funciones de transferencia dependientes de la frecuencia e interpolaciones entre ellas. La manera según la cual se dirige el sonido se modela en un sistema de coordenadas tridimensional en el que el eje vertical representa el volumen de sonido en decibelios, el primer eje horizontal representa el ángulo de dirección en grados con respecto al azimut cero, y el segundo eje horizontal representa la frecuencia del sonido en kilohertzios. Gracias a las interpolaciones, el sonido se representa por medio de una superficie 400. En el borde izquierdo superior de la figura, la superficie 400 está limitada por una línea horizontal 401, la cual expresa que el volumen es independiente con respecto a la frecuencia en la dirección del azimut cero. En el borde derecho superior, la superficie 400 está limitada por una línea casi horizontal 402, la cual indica que el volumen no depende del ángulo de dirección a frecuencias muy bajas (a frecuencias que se aproximan a 0 Hz). Las respuestas en frecuencia de los filtros que representan diferentes ángulos de dirección son curvas que comienzan a partir de la línea 402 y se extienden hacia abajo en pendiente hacia la izquierda en la figura. Los ángulos de dirección son equidistantes y su magnitudes son 22,5º, 45º, 67,5º, 90º, 112,5º, 135º, 157,5º y 180º. Por ejemplo, la curva 403 representa el volumen en función de la frecuencia en relación con el sonido que se propaga con el ángulo 157,5º medido con respecto al azimut cero, y esta curva muestra que en esta dirección las frecuencias más altas se atenúan más que las frecuencias bajas.
La invención resulta adecuada para la reproducción en equipos locales en los que el entorno virtual acústico se crea en la memoria del ordenador y se procesa en la misma conexión, o se lee de un soporte de almacenamiento, tal como un disco DVD (Disco Versátil Digital) y se reproduce para el usuario a través de medios de presentación audiovisual (pantallas, altavoces). La invención se puede aplicar además en un sistema en el que el entorno virtual acústico se genera en el equipo de un proveedor denominado de servicios y se transmite hacia el usuario a través de un sistema de transmisión. A un dispositivo, el cual reproduce para un usuario el sonido dirigido procesado según una manera de acuerdo con la invención, y el cual típicamente permite que el usuario seleccione en qué punto del entorno virtual acústico desea escuchar el sonido reproducido, se le denomina en general dispositivo de recepción. Esta expresión no pretende ser limitativa en relación con la invención.
\newpage
Cuando el usuario ha proporcionado al dispositivo de recepción información sobre en qué punto del entorno virtual acústico desea escuchar el sonido reproducido, el dispositivo de recepción determina de qué manera se dirige el sonido desde la fuente de sonido hacia dicho punto. En la figura 4, esto significa, en una inspección gráfica, que cuando el dispositivo de recepción ha determinado el ángulo entre el azimut cero de la fuente de sonido y la dirección del punto de inspección, a continuación corta la superficie 400 con un plano vertical que es paralelo al eje de frecuencias y corta el eje del ángulo de dirección por ese valor, el cual indica el ángulo entre el azimut cero y el punto de inspección. La sección entre la superficie 400 y dicho plano vertical es una curva que representa el volumen relativo del sonido detectado en la dirección del punto de inspección en función de la frecuencia. El dispositivo de recepción forma un filtro el cual ejecuta una respuesta en frecuencia según dicha curva, y dirige el sonido generado por la fuente de sonido a través del filtro que ha formado, antes de que el mismo se reproduzca para el usuario. Si el usuario decide cambiar la ubicación del punto de inspección, el dispositivo de recepción determina una curva nueva y crea un filtro nuevo según la manera descrita anteriormente.
La figura 5 muestra un entorno virtual acústico 500 que tiene tres fuentes de sonido virtuales 501, 502 y 503 las cuales se dirigen de forma diferente. El punto 504 representa el punto de inspección seleccionado por el usuario. Para explicar la situación mostrada en la figura 5, se crea, según la invención, para cada fuente de sonido 501, 502 y 503 un modelo propio que representa cómo se dirige el sonido, con lo cual el modelo en cada uno de los casos puede resultar de forma aproximada según las figuras 3 y 4, aunque teniendo en cuenta que el azimut cero tiene una dirección diferente para cada fuente de sonido virtual en el modelo. En este caso, el dispositivo de recepción debe crear tres filtros in dependientes para tener en cuenta cómo se dirige el sonido. Para crear el primer filtro, se determinan aquellas funciones de transferencia que modelan cómo se dirige el sonido transmitido por la primera fuente de sonido, y con la ayuda de las mismas y una interpolación se crea una superficie según la figura 4. Además se determina el ángulo entre la dirección del punto de inspección y el azimut cero 505 de la fuente de sonido 501, y con la ayuda de este ángulo se puede leer la respuesta en frecuencia en dicha dirección sobre la superficie antes mencionada. Se repiten las mismas operaciones por separado para cada fuente de sonido. El sonido que se reproduce para el usuario es la suma del sonido de la totalidad de las tres fuentes de sonido, y en esta suma cada sonido se ha filtrado con un filtro que modela cómo dirige dicho sonido.
Según la invención, además de las fuentes de sonido reales, también se pueden modelar reflexiones del sonido, en particular las primeras reflexiones. En la figura 5, por medio de un método de las fuentes imagen conocido de por sí se forma una fuente imagen 506 que representa cómo se refleja desde una pared adyacente el sonido transmitido por la fuente del sonido 503. Esta fuente imagen se puede procesar según la invención exactamente de la misma manera que las fuentes de sonido reales, en otras palabras, se puede determinar para la misma la dirección del azimut cero y la directividad del sonido (dependiente de la frecuencia, cuando sea necesario) en direcciones que difieren con respecto a la dirección del azimut cero. El dispositivo de recepción reproduce el sonido "generado" por la fuente imagen según el mismo principio que usa para el sonido generado por las fuentes de sonido reales.
La figura 6 muestra un sistema que tiene un dispositivo de transmisión 601 y un dispositivo de recepción 602. El dispositivo de transmisión 601 genera un cierto entorno virtual acústico el cual comprende por lo menos una fuente de sonido y las características acústicas de por lo menos un espacio, y transmite el entorno en cierto formato hacia el dispositivo de recepción 602. La transmisión se puede efectuar por ejemplo en forma de una radiodifusión digital de radio o televisión, o a través de una red de datos. La transmisión también puede englobar la generación, por parte del dispositivo de transmisión 601, de una grabación tal como un disco de DVD (Disco Versátil Digital) basándose en el entorno virtual acústico que ha generado, y la adquisición, por parte del usuario del dispositivo de recepción, de esta grabación para su uso. Una de las aplicaciones típicas distribuidas como grabación podría ser un concierto en el que la fuente de sonido es una orquesta que comprende instrumentos virtuales y el espacio es una sala de conciertos imaginaria modelada eléctricamente o real, con lo cual el usuario del dispositivo de recepción con su equipo puede escuchar cómo suena la actuación en diferentes lugares de la sala. Si este entorno virtual es audiovisual, en ese caso también comprende una sección visual realizada mediante gráficos por ordenador. La invención no requiere que el dispositivo de transmisión ni el dispositivo de recepción sean dispositivos diferentes, sino que el usuario puede crear un cierto entorno virtual acústico en un dispositivo y usar el mismo dispositivo para inspeccionar su creación.
En la forma de realización presentada en la figura 6, el usuario del dispositivo de transmisión crea un cierto entorno visual, tal como una sala de conciertos con la ayuda de las herramientas gráficas por ordenador 603, y una animación de vídeo, tal como los músicos y los instrumentos de una orquesta virtual con las herramientas correspondientes 604. Además, a través de un teclado 605, introduce ciertas directividades para las fuentes de sonido del entorno que creó, con la mayor preferencia las funciones de transferencia que representan cómo se dirige el sonido dependiendo de la frecuencia. El modelado de cómo se dirige el sonido también se puede basar en mediciones que se hayan realizado para fuentes de sonido reales; en ese caso, la información de directividad se lee típicamente de una base de datos 606. Los sonidos de los instrumentos virtuales se cargan de la base de datos 606. El dispositivo de transmisión procesa la información introducida por el usuario en flujos continuos de bits en los bloques 607, 608, 609 y 610, y combina los flujos continuos de bits en un flujo continuo de datos en el multiplexor 611. El flujo continuo de datos se suministra en cierto formato al dispositivo de recepción 602 en el que el demultiplexor 612 separa del flujo continuo de datos la sección de imagen que representa el entorno estático en el bloque 613, la sección de imagen dependiente del tiempo o la animación en el bloque 614, el sonido dependiente del tiempo en el bloque 615, y los coeficientes que representan la superficie en el bloque 616. Las secciones de imágenes se combinan en el bloque controlador de pantallas 617 y se suministran a la pantalla 618. Las señales que representan el sonido transmitido por las fuentes de sonido se suministran desde el bloque 615 hacia el banco de filtros 619 que tiene filtros con funciones de transferencia las cuales se reconstruyen con la ayuda de los parámetros a y b obtenidos a partir del bloque 616. El sonido generado por el banco de filtros se suministra a los auriculares 620.
Las figuras 7a y 7b muestran más detalladamente una disposición de filtrado del dispositivo de recepción con la cual es posible realizar el entorno virtual acústico a la manera según la invención. En las figuras también se tienen en cuenta otros factores relacionados con el procesado del sonido, y no solamente el modelado de la directividad del sonido según la invención. Los medios de retardo 721 generan las diferencias de tiempo mutuas de los diferentes componentes del sonido (por ejemplo, las diferencias de tiempo mutuas de sonidos que han sido reflejados por diferentes trayectorias, o de fuentes de sonido virtuales ubicadas a diferentes distancias). Al mismo tiempo, los medios de retardo 721 actúan como un demultiplexor el cual dirige los sonidos correctos hacia los filtros correctos 722, 723 y 734. Los filtros 722, 723 y 724 son filtros parametrizados los cuales se describen más detalladamente en la figura 7b. Las señales suministradas por los mismos se ramifican, por un lado, hacia los filtros 701, 702 y 703, y por otro lado a través de sumadores y un amplificador 704 hacia el sumador 705, los cuales junto con las ramificaciones de eco 706, 707, 708 y 709 y el sumador 710 y los amplificadores 711, 712, 713 y 714 forman un acoplamiento conocido de por sí, con el cual se puede generar un post-eco para una cierta señal. Los filtros 701, 702 y 703 son filtros direccionales conocidos de por sí los cuales tienen en cuenta las diferencias de la percepción auditiva del oyente en las diferentes direcciones, por ejemplo, según el modelo HRTF (Función de Transferencia Relativa a la Cabeza). En su forma más ventajosa, los filtros 701, 702 y 703 contienen también los denominados retardos ITD (Diferencia de Tiempo Interaural) los cuales modelan la diferencia de tiempo mutua de los componentes del sonido que llegan desde direcciones diferentes a los oídos del oyente.
En los filtros 701, 702 y 703, cada componente de la señal se divide en los canales derecho e izquierdo, o en un sistema multicanal en general en N canales. Todas las señales relacionadas con un cierto canal se combinan en el sumador 715 ó 716 y se dirigen hacia el sumador 717 ó 718, en el que a la señal se le suma el post-eco perteneciente a cada señal. Las líneas 719 y 720 conducen hacia los altavoces o hacia los auriculares. En la figura 7a, los puntos entre los filtros 723 y 724 y los filtros 702 y 703 significan que la invención no limita el número de filtros de los que dispone el banco de filtros del dispositivo de recepción. Puede haber incluso cientos o miles de filtros, dependiendo de la complejidad del entorno virtual acústico modelado.
La figura 7b muestra más detalladamente una posibilidad para la realización del filtro parametrizado 722 mostrado en la figura 7a. En la figura 7b, el filtro 722 comprende tres etapas de filtrado sucesivas 730, 731 y 732, de entre las cuales la primera etapa de filtrado 730 representa la atenuación de la propagación en un medio (en general el aire), la segunda etapa 731 representa la absorción que se produce en el material reflectante (se aplica particularmente en el modelado de las reflexiones), y la tercera etapa 732 tiene en cuenta tanto la distancia durante la cual se propaga el sonido en el medio desde la fuente de sonido (posiblemente a través de una superficie de reflexión) hacia el punto de inspección como las características del medio, tales como la humedad, la presión y la temperatura del aire. Para calcular la distancia, la primera etapa 730 obtiene, a partir del dispositivo de transmisión, información sobre la ubicación de la fuente de sonido en el sistema de coordenadas del espacio a modelar, y, a partir del dispositivo de recepción, información sobre las coordenadas del punto que el usuario ha seleccionado como punto de inspección. La primera etapa 730 obtiene los datos que describen las características del medio bien a partir del dispositivo de transmisión o bien a partir del dispositivo de recepción (el usuario del dispositivo de recepción puede estar habilitado para fijar unas características deseadas del medio). Por defecto, la segunda etapa 731 obtiene, a partir del dispositivo de transmisión, un coeficiente que describe la absorción de la superficie de reflexión, aunque también en este caso se le puede conceder al usuario del dispositivo de recepción una posibilidad de cambiar las características del espacio modelado. La tercera etapa 732 tiene en cuenta cómo se dirige el sonido transmitido por la fuente de sonido desde la fuente de sonido en diferentes direcciones en el espacio modelado: de este modo, la tercera etapa 732 materializa la invención presentada en esta solicitud de patente.
Anteriormente se ha descrito en general cómo se pueden procesar las características del entorno virtual acústico y cómo se pueden transmitir las mismas desde un dispositivo a otro dispositivo mediante el uso de parámetros. A continuación se describe cómo se aplica la invención a una cierta modalidad de transmisión de datos. El término multimedia significa una presentación mutuamente sincronizada de objetos audiovisuales para el usuario. Se cree que las presentaciones multimedia interactivas llegarán a usarse a gran escala en el futuro, por ejemplo, como forma de entretenimiento y en teleconferencias. A partir de la técnica anterior, se conoce una serie de normas que definen diferentes formas de transmisión de programas multimedia de forma eléctrica. En la presente solicitud de patente se describen particularmente las denominadas normas MPEG (Grupo de Expertos en Imágenes en Movimiento), de entre las cuales la norma MPEG-4, que está siendo preparada en el momento de la presentación de esta solicitud de patente, tiene como objetivo que la presentación multimedia transmitida pueda contener objetos reales y virtuales, los cuales conjuntamente forman un cierto entorno audiovisual. La invención no se limita en modo alguno a su uso únicamente en relación con la norma MPEG-4, sino que se puede aplicar, por ejemplo, en las ampliaciones de la norma VRML97, o incluso en normas audiovisuales futuras las cuales son desconocidas en el momento actual.
Un flujo continuo de datos según la norma MPEG-4 comprende objetos audiovisuales multiplexados los cuales pueden contener una sección que es continua en el tiempo (tal como un sonido sintetizado) y parámetros (tales como la ubicación de la fuente de sonido en el espacio a modelar). Los objetos se pueden definir de manera que sean jerárquicos, con lo cual los denominados objetos primitivos se encuentran en el nivel más bajo de la jerarquía. Además de los objetos, un programa multimedia según la norma MPEG-4 incluye la denominada descripción de la escena que contiene aquella información referente a las relaciones mutuas de los objetos y a la disposición de la configuración general del programa, codificándose y decodificándose por separado con respecto a los objetos reales dicha información, en su forma más ventajosa. A la descripción de la escena se le denomina también sección BIFS (Formato BInario para Descripción de escenas). La transmisión de un entorno virtual acústico según la invención se realiza de forma ventajosa usando el lenguaje de audio estructurado definido en la norma MPEG-4 (SAOL/SASL: Lenguaje de Audio Estructurado para Orquestas/Lenguaje de Audio Estructurado para Partituras) o en el lenguaje VRML97.
En los lenguajes mencionados anteriormente, en la actualidad se define un nodo Sonido el cual modela la fuente de sonido. Según la invención, es posible definir una extensión de un nodo Sonido conocido, al cual en la presente solicitud de patente se le denomina nodo SonidoDireccional. Además del nodo Sonido conocido, contiene también un campo, al cual en el presente caso se le denomina campo de directividad y el cual suministra la información requerida para reconstruir los filtros que representan la directividad del sonido. Anteriormente se presentaron tres alternativas diferentes para modelar los filtros, y por lo tanto a continuación se describe cómo se manifiestan estas alternativas en el campo de directividad de un nodo SonidoDireccional según la invención.
Según la primera alternativa, cada filtro que modela una dirección diferente con respecto a un cierto azimut cero se corresponde con una simple multiplicación por un factor de amplificación que es un número real normalizado entre 0 y 1. A continuación, el contenido del campo de directividad podría ser, por ejemplo, el siguiente:
((0,79 0,8) (1,57 0,6) (2,36 0,4) (3,14 0,2))
En esta alternativa, el campo de directividad contiene tantos pares de números como direcciones diferentes con respecto al azimut cero en el modelo de la fuente de sonido. El primer número de un par de números indica el ángulo en radianes entre la dirección en cuestión y el azimut cero, y el segundo número indica el factor de amplificación en dicha dirección.
De acuerdo con la segunda alternativa, el sonido en cada dirección que es diferente con respecto a la dirección del azimut cero se divide en bandas de frecuencias, de entre las cuales cada una presenta su propio factor de amplificación. El contenido del campo de directividad podría ser, por ejemplo, el siguiente:
((0,79 125,0 0,8 1000,0 0,6 4000,0 0,4)
(1,57 125,0 0,7 1000,0 0,5 4000,0 0,3)
(2,36 125,0 0,6 1000,0 0,4 4000,0 0,2)
(3,14 125,0 0,5 1000,0 0,3 4000,0 0,1))
En esta alternativa, el campo de directividad contiene tantos conjuntos de números, separados entre sí por paréntesis interiores, como direcciones diferentes con respecto a la dirección del azimut cero en el modelo de la fuente de sonido. En cada uno de los conjuntos de números, el primer número indica el ángulo en radianes entre la dirección en cuestión y el azimut cero. Después del primer número, hay unos pares de números, de entre los cuales el primero indica una cierta frecuencia en hertzios y el segundo es el factor de amplificación. Por ejemplo, el conjunto de números (0,79 125,0 0,8 1000,0 0,6 4000,0 0,4) se puede interpretar de manera que en la dirección 0,79 radianes se usa un factor de amplificación de 0,8 para las frecuencias de 0 a 125 Hz, se usa un factor de amplificación de 0,6 para las frecuencias de 125 a 1.000 Hz, y se usa un factor de amplificación de 0,4 para las frecuencias de 1.000 a 4.000 Hz. Alternativamente, es posible usar una notación en la que el conjunto de números antes mencionado signifique que en la dirección 0,79 radianes el factor de amplificación es 0,8 a la frecuencia 125 Hz, el factor de amplificación es 0,6 a la frecuencia 1.000 Hz, y el factor de amplificación es 0,4 a la frecuencia 4.000 Hz, y los factores de amplificación en otras frecuencias se calculan a partir de los anteriores mediante interpolación y extrapolación. Por lo que a la invención respecta, no es esencial la notación que se use, siempre que la notación usada sea conocida tanto para el dispositivo de transmisión como para el dispositivo de recepción.
Según la tercera alternativa, se aplica una función de transferencia en cada dirección que es diferente con respecto al azimut cero, y para definir la función de transferencia se proporcionan los coeficientes a y b de su transformada Z. El contenido del campo de directividad podría ser, por ejemplo, el siguiente
((45 b_{45,0} b_{45,1} a_{45,1} b_{45,2} a_{45,2} ...)
\quad
(90 b_{90,0} b_{90,1} a_{90,1} b_{90,2} a_{90,2} ...)
\quad
(135 b_{135,0} b_{135,1} a_{135,1} b_{135,2} a_{135,2} ...)
\quad
(180 b_{180,0} b_{180,1} a_{180,1} b_{180,2} a_{180,2} ...))
En esta alternativa, el campo de directividad también contiene tantos conjuntos de números, separados entre sí por paréntesis interiores, como direcciones que son diferentes con respecto a la dirección del azimut cero en el modelo de la fuente de sonido. En cada uno de los conjuntos de números, el primer número indica el ángulo, esta vez en grados, entre la dirección en cuestión y el azimut cero; en este caso, del mismo que en los casos anteriores, es posible usar también otras unidades angulares conocidas cualesquiera. Después del primer número, aparecen los coeficientes a y b que determinan la transformada Z de la función de transferencia usada en la dirección en cuestión. Los puntos después de cada conjunto de números indican que la invención no impone ninguna limitación sobre cuántos coeficientes a y b definen las transformadas Z de la función de transferencia. En conjuntos de números diferentes puede haber un número diferente de coeficientes a y b. En la tercera alternativa los coeficientes a y b también se podrían proporcionar en forma de sus propios vectores, de manera que sería posible un modelado eficaz de filtros FIR o IIR todo-polos de la misma manera que en la publicación de Ellis. S. de 1998: "Towards more realistic sound in VMRL". Proc. VRML '98, Monterey, USA, 16 a 19 de feb., 1998, págs. 95 a 100.

Claims (11)

1. Método para procesar un entorno virtual acústico en un dispositivo electrónico, por el cual el entorno virtual acústico comprende por lo menos una fuente de sonido virtual (300), en el que se definen para la fuente de sonido (300) una cierta dirección de referencia (301) y un conjunto de direcciones (302, 303, 304, 305) que difieren con respecto a dicha cierta dirección de referencia (301), en el que para modelar cómo se dirige el sonido desde la por lo menos una fuente de sonido (300), se incorpora a la fuente de sonido una disposición de filtrado (306, 307, 308, 309) dependiente de la dirección con lo cual a cada dirección que difiere con respecto a la dirección de referencia determinada se le incorpora un filtro (306, 307, 308, 309) de manera que el efecto de la disposición de filtrado sobre el sonido depende de parámetros predeterminados referentes a cada filtro, en el que los parámetros referentes a cada filtro son factores de amplificación con vistas a determinar la amplificación relativa del sonido dirigido en direcciones diferentes desde la fuente de sonido.
2. Método según la reivindicación 1, caracterizado porque dichos factores de amplificación comprenden factores de amplificación independientes para frecuencias diferentes del sonido en por lo menos una dirección determinada que difiere con respecto a la dirección de referencia.
3. Método según la reivindicación 1, caracterizado porque dichos parámetros referentes a cada filtro son los coeficientes [b_{0} b_{1} a_{1} b_{2} a_{2} ...] de la expresión del cociente
H(z) = \frac{Y(z)}{X(x)} = \frac{\sum\limits^{M}_{k=0}b_{k}z^{-k}}{1 + \sum\limits^{N}_{k=1} a_{k}z^{-k}}
de la transformada Z de la función de transferencia de los Filtros.
4. Método según la reivindicación 1, caracterizado porque para modelar cómo se dirige el sonido en otras direcciones que no sean la dirección de referencia, y en las direcciones determinadas que difieren con respecto a la dirección de referencia, el método comprende una interpolación (400) entre filtros incorporados a las direcciones determinadas que difieren con respecto a la dirección de referencia.
5. Método según la reivindicación 1, caracterizado porque el método comprende unas etapas, en las cuales
-
el dispositivo de transmisión genera un cierto entorno virtual acústico (500) que comprende fuentes de sonido (501, 502, 503, 504), con lo cual la manera en la que se dirige el sonido desde estas fuentes de sonido se modela mediante filtros cuyo efecto sobre el sonido depende de parámetros referentes a cada filtro,
-
el dispositivo de transmisión transmite hacia el dispositivo de recepción información sobre dichos parámetros referentes a cada filtro, y
-
para reconstruir el entorno virtual acústico, el dispositivo de recepción crea un banco de filtros que comprende filtros cuyo efecto sobre la señal acústica depende de parámetros referentes a cada filtro, y crea los parámetros referentes a cada filtro basándose en la información transmitida por el dispositivo de transmisión.
6. Método según la reivindicación 5, caracterizado porque el dispositivo de transmisión transmite hacia el dispositivo de recepción información sobre dichos parámetros referentes a cada filtro como parte de un flujo continuo de datos según la norma MPEG-4.
7. Método según la reivindicación 1, caracterizado porque dicha fuente de sonido es una reflexión (504).
8. Sistema para procesar el entorno virtual acústico que comprende por lo menos una fuente de sonido virtual (300), en el que se definen para la fuente de sonido (300) una cierta dirección de referencia (301) y un conjunto de direcciones (302, 303, 304, 305) que difieren con respecto a dicha cierta dirección de referencia (301), en el que el sistema comprende unos medios para crear una disposición de filtrado (619) dependiente de la dirección incorporada a la fuente de sonido (300), que comprende filtros parametrizados (306, 307, 308, 309), cuyo efecto sobre la fuente de sonido depende de parámetros predeterminados referentes a cada filtro (306, 307, 308, 309), con lo cual el filtro (306, 307, 308, 309) se incorpora a cada dirección que difiere con respecto a la dirección de referencia determinada con vistas a modelar cómo se dirige el sonido desde la por lo menos una fuente de sonido perteneciente al entorno virtual acústico, en el que los parámetros referentes a cada filtro son factores de amplificación con vistas a determinar la amplificación relativa del sonido dirigido en direcciones diferentes desde la fuente de
sonido.
\newpage
9. Sistema según la reivindicación 8, caracterizado porque el sistema comprende un dispositivo de transmisión (601) y un dispositivo de recepción (602) y unos medios para realizar una comunicación eléctrica entre el dispositivo de transmisión y el dispositivo de recepción.
10. Sistema según la reivindicación 8, caracterizado porque el sistema comprende unos medios de multiplexado (611) en el dispositivo de transmisión para añadir parámetros que representan los filtros parametrizados a un flujo continuo de datos según la norma MPEG-4, y unos medios de demultiplexado (612) en el dispositivo de recepción para detectar los parámetros que representan los filtros parametrizados a partir del flujo continuo de datos según la norma MPEG-4.
11. Sistema según la reivindicación 8, caracterizado porque comprende unos medios de multiplexado (611) en el dispositivo de transmisión para añadir parámetros que representan los filtros parametrizados a un flujo continuo de datos según la norma VRML97 ampliada, y unos medios de demultiplexado (612) en el dispositivo de recepción para detectar los parámetros que representan los filtros parametrizados a partir del flujo continuo de datos según la norma VRML97 ampliada.
ES99910399T 1998-03-23 1999-03-23 Metodo y sistema dpara procesar sonido dirigido en un entorno virtual acustico. Expired - Lifetime ES2285834T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI980649 1998-03-23
FI980649A FI116505B (fi) 1998-03-23 1998-03-23 Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä

Publications (1)

Publication Number Publication Date
ES2285834T3 true ES2285834T3 (es) 2007-11-16

Family

ID=8551352

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99910399T Expired - Lifetime ES2285834T3 (es) 1998-03-23 1999-03-23 Metodo y sistema dpara procesar sonido dirigido en un entorno virtual acustico.

Country Status (11)

Country Link
US (1) US7369668B1 (es)
EP (1) EP1064647B1 (es)
JP (2) JP4573433B2 (es)
KR (1) KR100662673B1 (es)
CN (1) CN1132145C (es)
AT (1) ATE361522T1 (es)
AU (1) AU2936999A (es)
DE (1) DE69935974T2 (es)
ES (1) ES2285834T3 (es)
FI (1) FI116505B (es)
WO (1) WO1999049453A1 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä
US6668177B2 (en) 2001-04-26 2003-12-23 Nokia Corporation Method and apparatus for displaying prioritized icons in a mobile terminal
US7032188B2 (en) 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
US6996777B2 (en) 2001-11-29 2006-02-07 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
US6934911B2 (en) 2002-01-25 2005-08-23 Nokia Corporation Grouping and displaying of contextual objects
JP2005094271A (ja) * 2003-09-16 2005-04-07 Nippon Hoso Kyokai <Nhk> 仮想空間音響再生プログラムおよび仮想空間音響再生装置
JP4516527B2 (ja) * 2003-11-12 2010-08-04 本田技研工業株式会社 音声認識装置
CN1969589B (zh) * 2004-04-16 2011-07-20 杜比实验室特许公司 用于创建音频场景的设备和方法
JP4789145B2 (ja) * 2006-01-06 2011-10-12 サミー株式会社 コンテンツ再生装置及びコンテンツ再生プログラム
JP4894386B2 (ja) * 2006-07-21 2012-03-14 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP5082327B2 (ja) * 2006-08-09 2012-11-28 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
GB0724366D0 (en) * 2007-12-14 2008-01-23 Univ York Environment modelling
JP5397131B2 (ja) * 2009-09-29 2014-01-22 沖電気工業株式会社 音源方向推定装置及びプログラム
JP5141738B2 (ja) * 2010-09-17 2013-02-13 株式会社デンソー 立体音場生成装置
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
WO2012168765A1 (en) * 2011-06-09 2012-12-13 Sony Ericsson Mobile Communications Ab Reducing head-related transfer function data volume
CN103152500B (zh) * 2013-02-21 2015-06-24 黄文明 多方通话中回音消除方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN109891503B (zh) * 2016-10-25 2021-02-23 华为技术有限公司 声学场景回放方法和装置
KR102113542B1 (ko) 2017-11-30 2020-05-21 서울과학기술대학교 산학협력단 심층신경망을 이용하여 음향 신호를 정규화하는 방법
US10705790B2 (en) * 2018-11-07 2020-07-07 Nvidia Corporation Application of geometric acoustics for immersive virtual reality (VR)
CN114630240B (zh) * 2022-03-16 2024-01-16 北京小米移动软件有限公司 方向滤波器的生成方法、音频处理方法、装置及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731848A (en) 1984-10-22 1988-03-15 Northwestern University Spatial reverberator
US5285165A (en) 1988-05-26 1994-02-08 Renfors Markku K Noise elimination method
FI90166C (fi) 1991-10-16 1993-12-27 Nokia Mobile Phones Ltd Cmos-kompander
FI89846C (fi) 1991-11-29 1993-11-25 Nokia Mobile Phones Ltd En deviationsbegraensare foer en fraon en radiotelefon utsaend signal
FI92535C (fi) 1992-02-14 1994-11-25 Nokia Mobile Phones Ltd Kohinan vaimennusjärjestelmä puhesignaaleille
EP0563929B1 (en) 1992-04-03 1998-12-30 Yamaha Corporation Sound-image position control apparatus
AU689439B2 (en) 1992-07-07 1998-04-02 Lake Technology Limited Digital filter having high accuracy and efficiency
JPH06292298A (ja) * 1993-03-31 1994-10-18 Sega Enterp Ltd 聴覚特性及びモニター環境を考慮した三次元仮想音像形成装置
JP3552244B2 (ja) * 1993-05-21 2004-08-11 ソニー株式会社 音場再生装置
JP3578783B2 (ja) 1993-09-24 2004-10-20 ヤマハ株式会社 電子楽器の音像定位装置
JPH0793367A (ja) * 1993-09-28 1995-04-07 Atsushi Matsushita 音声情報検索システム及び装置
US5485514A (en) 1994-03-31 1996-01-16 Northern Telecom Limited Telephone instrument and method for altering audible characteristics
US5659619A (en) 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
US5684881A (en) 1994-05-23 1997-11-04 Matsushita Electric Industrial Co., Ltd. Sound field and sound image control apparatus and method
JP3258195B2 (ja) * 1995-03-27 2002-02-18 シャープ株式会社 音像定位制御装置
JPH08272380A (ja) * 1995-03-30 1996-10-18 Taimuuea:Kk 仮想3次元空間音響の再生方法および装置
WO1997000514A1 (fr) * 1995-06-16 1997-01-03 Sony Corporation Procede et appareil de generation de son
FR2736499B1 (fr) 1995-07-03 1997-09-12 France Telecom Procede de diffusion d'un son avec une directivite donnee
FR2738099B1 (fr) 1995-08-25 1997-10-24 France Telecom Procede de simulation de la qualite acoustique d'une salle et processeur audio-numerique associe
US5790957A (en) 1995-09-12 1998-08-04 Nokia Mobile Phones Ltd. Speech recall in cellular telephone
FI102337B1 (fi) 1995-09-13 1998-11-13 Nokia Mobile Phones Ltd Menetelmä ja piirijärjestely audiosignaalin käsittelemiseksi
JP3296471B2 (ja) * 1995-10-09 2002-07-02 日本電信電話株式会社 音場制御方法および装置
FI100840B (fi) 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
JP3976360B2 (ja) * 1996-08-29 2007-09-19 富士通株式会社 立体音響処理装置
DE19646055A1 (de) 1996-11-07 1998-05-14 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Abbildung von Schallquellen auf Lautsprecher
JP3266020B2 (ja) * 1996-12-12 2002-03-18 ヤマハ株式会社 音像定位方法及び装置
FI116990B (fi) 1997-10-20 2006-04-28 Nokia Oyj Menetelmä ja järjestelmä akustisen virtuaaliympäristön käsittelemiseksi
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä

Also Published As

Publication number Publication date
JP2002508609A (ja) 2002-03-19
AU2936999A (en) 1999-10-18
DE69935974T2 (de) 2007-09-06
EP1064647A1 (en) 2001-01-03
FI980649A0 (fi) 1998-03-23
FI980649A (fi) 1999-09-24
CN1132145C (zh) 2003-12-24
JP4573433B2 (ja) 2010-11-04
WO1999049453A1 (en) 1999-09-30
KR100662673B1 (ko) 2006-12-28
KR20010034650A (ko) 2001-04-25
EP1064647B1 (en) 2007-05-02
ATE361522T1 (de) 2007-05-15
DE69935974D1 (de) 2007-06-14
CN1302426A (zh) 2001-07-04
US7369668B1 (en) 2008-05-06
JP2009055621A (ja) 2009-03-12
FI116505B (fi) 2005-11-30

Similar Documents

Publication Publication Date Title
ES2285834T3 (es) Metodo y sistema dpara procesar sonido dirigido en un entorno virtual acustico.
Serafin et al. Sonic interactions in virtual reality: State of the art, current challenges, and future directions
US6343131B1 (en) Method and a system for processing a virtual acoustic environment
KR100551605B1 (ko) 음원을 스피커로 프로젝팅하는 방법과 장치
Hulusic et al. Acoustic rendering and auditory–visual cross‐modal perception and interaction
RU2540774C2 (ru) Способ и устройство для воспроизведения стереофонического звука
Lokki et al. Creating interactive virtual auditory environments
JPH08272380A (ja) 仮想3次元空間音響の再生方法および装置
JP6246922B2 (ja) 音響信号処理方法
JP2023511862A (ja) 空間的に拡張された音源(Spatially Extended Sound Source)を再生する装置及び方法、又は固定化情報を用いて空間的に拡張された音源に対する記述を生成する装置及び方法
Kapralos et al. Auditory perception and spatial (3d) auditory systems
EP3777248A1 (en) An apparatus, a method and a computer program for controlling playback of spatial audio
Huopaniemi et al. DIVA virtual audio reality system
Faria et al. Audience-audio immersion experiences in the caverna digital
Lokki et al. Realtime audiovisual rendering and contemporary audiovisual art
RU2804014C2 (ru) Аудиоустройство и способ для него
Stewart Spatial auditory display for acoustics and music collections
Kapralos Auditory perception and virtual environments
Dobler et al. Enhancing three-dimensional vision with three-dimensional sound
KR20030002868A (ko) 삼차원 입체음향 구현방법 및 시스템
JP2010263295A (ja) スピーカ装置及び音の再生方法
Costantini et al. Adaptive room acoustic response simulation: a virtual 3D application
Koutsivitis et al. Reproduction of audiovisual interactive events in virtual ancient Greek spaces
Eickmeier An image model theory for stereophonic sound
Janssen A Reverberation Instrument Based on Perceptual Mapping.