WO2014195527A1 - Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan - Google Patents

Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan Download PDF

Info

Publication number
WO2014195527A1
WO2014195527A1 PCT/ES2013/070361 ES2013070361W WO2014195527A1 WO 2014195527 A1 WO2014195527 A1 WO 2014195527A1 ES 2013070361 W ES2013070361 W ES 2013070361W WO 2014195527 A1 WO2014195527 A1 WO 2014195527A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
calculation module
microphone
location
identification
Prior art date
Application number
PCT/ES2013/070361
Other languages
English (en)
French (fr)
Other versions
WO2014195527A9 (es
Inventor
Daniel SEIX FERNÁNDEZ
Francesc TICÓ CLAVERIA
Original Assignee
Aratechlabs, S.L.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aratechlabs, S.L. filed Critical Aratechlabs, S.L.
Priority to PCT/ES2013/070361 priority Critical patent/WO2014195527A1/es
Publication of WO2014195527A1 publication Critical patent/WO2014195527A1/es
Publication of WO2014195527A9 publication Critical patent/WO2014195527A9/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads

Definitions

  • the present invention patent application consists of a method and system of identification, calculation and visualization of acoustic phenomena between one or several microphones, sound collectors, by means of augmented reality, used for the optimization of the microphone pickup.
  • the sound produced by the instruments, the voices of the singers, the means of capturing them, and the speakers that reproduce these sounds, must be located in such a way that the interferences or interactions between them are the minimum possible and do not affect to the overall reproduction of the whole.
  • a sound technician has his experience, his faculties of hearing, instruments of spectrum measurement, sound pressure level, etc; and data collected from instruments, sensors (microphones) and sound players (speakers).
  • the purpose of the invention is to provide sound technicians with a tool that allows them to perform the optimum location of the sound collectors, without having to input any audio signal, and therefore prior to the creation of sound, by means of the calculation and visualization of technical parameters through augmented reality, achieving a more efficient use of time and an optimal configuration based on objective calculation parameters.
  • the invention is embodied in an identification-calculation-visualization system which consists of at least one identification means for the sensors and / or sound sources, a calculation module and a display means.
  • This system of identification-calculation-visualization allows to develop a method of optimization of the location and concrete addressing of the collectors, at a time when no sound emission has yet been made by the instruments, which is not done Necessary no audio signal input to the system.
  • the identification means recognize the audio sensors and / or sound sources, detecting their location and the directivity thereof, that is, the direction in which the sensor and / or sound source is located.
  • This identification can be produced by a system of physical markers, or by system of recognition of geometries of sound sources and / or sensors. In both cases it is necessary that the identification means have means of obtaining images, usually formed by a video camera, so that said images are processed by the calculation module and can be identified.
  • Said calculation module in addition to the data processing capacity, incorporates a database in which the characteristics of said sensors and sound sources are stored, since they have been introduced in the calculation module, together with others, as for example the acoustic characteristics, sound properties of the sound sources and their geometry, all of them in said database that the calculation module has.
  • the acoustic characteristics and sound properties that are available in said database are, among others, the curve of the polar pattern, sensitivity, filters and attenuation modes of each microphone, frequency response, sound pressure level, frequency range, different instruments, fundamental frequency, harmonics, etc.
  • This representation of the executed functionality is superimposed on the image taken from the sound collectors and / or the sound sources.
  • This computer vision application usually called augmented reality, achieves that at least one of the functionalities that the calculation module executes is monitored in real time.
  • each one of said functions an application of each one of the procedures of visualization in augmented reality of acoustic phenomena of microphony, being able to see the immediate result of said functionalities in the same moment that the user varies the location or direction of one of the sensors or of sound sources.
  • the images taken by the corresponding means are taken as a reference for the identification, location and directivity of the sound collectors and / or sound sources,
  • the identification of the sound collectors and / or sound sources causes the association of said elements to be created with their technical characteristics and sound properties collected in the databases
  • the user chooses the functionality that he wishes to see represented in the visualization media
  • the calculation module collects the data of the previous stages, and with the information of the database, executes the chosen performance-functionality, and performs the representation in the visualization means, - the user visualizes the selected functionality, together and superimposed with the captured image of said sound collectors and / or sound sources,
  • the user proceeds, if necessary, to the modification of the location and placement of the sound sensors and / or sound sources, arranging in the means of visualization of the update in real time of the selected functionality.
  • the first of the functionalities that is executed in the calculation module is to determine the polar pattern of the sensors.
  • the calculation module takes from the identification means the position and direction of the sound collectors. Once this location and direction is known, the calculation module relates it automatically or by means of manual designation, to a type of sensor with specific characteristics, with which it is possible to make a representation of the polar pattern of the same, and its correct visualization in the real space, by means of the visualization means, being able to observe the value of loss of acquisition according to said placement, and see, with respect to the sound source that is associated, the level of capture that it would have. Likewise, the system allows the modification of the collector placement and continue to see in real time, the new representation of the polar pattern to determine when the location is optimal.
  • the procedure that develops the polar pattern determination functionality is determined at least by the following steps: a) The calculation module takes from the identification means the data that allow to determine the position and direction of the sound collectors and / or sound sources.
  • the calculation module relates it to a type of sound sensor and / or sound source, with specific characteristics and sound properties.
  • the calculation module performs the polar pattern representation of the identified sound sensor, through the screen, being able to observe the value of the pickup loss according to said placement of the sound sensor.
  • This augmented reality visualization is done in real time, where any modification made by the user to correct the position of the microphone means the continuous representation of the polar pattern to determine when the location is optimal.
  • stereo microphone techniques which correspond to the techniques applied by the sound technicians to achieve different constructions-stereo amplitudes. These techniques are introduced in data libraries in the database of the calculation module, with which the user of the system simply has to choose the desired technique on one or more sound sources object of the technique.
  • This functionality provides a visual method of placing the sensors, starting from the location of at least one of the sensors, and using the chosen technique, the calculation module itself indicates the correct placement of the next sensor, reproducing said placement in the means of display, and therefore being able to see in real time by the visualization means, the location of the reference sensor and the desired location.
  • the calculation module takes from the identification means the data that allow to determine the position and direction of the sound collectors and / or sound sources,
  • the calculation module is responsible for executing said library, taking the location requirements of the sound collectors with respect to the location of one of said sound collectors. e) By taking a sound sensor from those that have been identified as reference, the module of calculation performs a representation in the display means of the correct location of the following sound collectors,
  • the user performs the location of the sensors taking into account the visual information provided by the functionality on the chosen technique.
  • the third of the basic functionalities performs the identification of the geometric places where phase cancellation occurs at certain frequencies, with the that allows us, seeing the location of the sensors and / or sources of sound, the places in which phase cancellations critical to said determined frequencies would be established, and therefore, where the sine waves of the captured sound are subtracted from one another by altering its value and affecting the perception of said sound.
  • the calculation module takes in the same way the position of the sensors and / or sound sources to be able to locate and identify them, and with their data and their sound properties allows us to establish the cancellation zones of the sound waves at the frequencies that are determined, either by means of a phase cancellation map, or by indicating the visualization of the sound source, offering phase cancellation data, which serve for their evaluation and allow making the necessary changes to avoid said cancellation.
  • This representation in the visualization means allows, from it, to vary in real time the zones of cancellation of phase and therefore place the sound sources in the points that are not hidden by said cancellation.
  • the procedure that develops the functionality of determination of the phase cancellation loci is composed at least by the following stages:
  • the calculation module takes from the identification means the data that allow to determine the position and direction of the sound collectors and / or sound sources.
  • This location data together with the characteristics of each of them, allows the determination, for each frequency characteristic of the sound sources, of the loci where phase cancellation occurs, executing a calculation based on the resolution of the model mathematical of the corresponding geometric place.
  • loci can be visualized by means of a phase cancellation map for each of the frequencies that are required. d) Alternatively, these loci if they coincide on a sound source and for their characteristic frequency, are shown on the screen, together with the data and values of the cancellation, that allow their correction. e) The user performs the location of the sound collectors avoiding the cancellation zones shown by the functionality.
  • the calculation module incorporates a function of memory of actions to avoid problems of recursion, taking the position of the sensors and / or sound sources, the variations made on them, which allows to warn the user of the changes that are made and that affect the suitability calculated in the other functionalities.
  • Figure 1 is a view of an array of sensors in a set of instruments of the battery type to be recorded.
  • Figure 2 is a view of the same arrangement of Figure 1 shown through the display means and where the polar pattern has been applied by the calculation module.
  • Figure 3 is an operating scheme of the general procedure of the location system of sound collectors.
  • Figure 4 is a view of a compact equipment that incorporates the entire system.
  • a sound source (11) such as a battery, formed by a set of instruments, on which microphones are installed (12). ) as sound collectors, in different positions to capture the different sounds they emit.
  • the identification-calculation-visualization system (10) object of the present patent allows the optimal realization of the location of the microphones
  • (10), as can be seen in the diagram developed in figure 3, are composed of a means of capturing images, preferably one or more video cameras (22), which make it possible to send them to the calculation module (23). ) of the images for the detection of the microphones (12), from which their class and the properties and characteristics in the database (24) available to the calculation module (23) have been introduced.
  • the detection of the microphones (12) and / or of the sound sources (11) is usually done by means of the detection of physical markers (13), which are placed in the microphone connector (12).
  • the calculation module (23) performs the association of the data associated with each microphone (12) and / or sound source (11), preferably automatically, although it can be indicated manually the identification of the type of microphone (12) and / or sound source (11) in question.
  • the identification of the microphones (12) and / or sound sources (11) is carried out by means of a geometry recognition system, without the need for placement of physical markers (13).
  • the identification system allows, besides knowing the location of the microphones (12) and / or sound sources (11), also know the position, that is, the direction of the microphones (12), and therefore the location of the microphones (12). the capsule, where it has the point of capture and its direction of capture.
  • the calculation module (23) has the indicated database (24), as well as a data processing means (25) that allows the identification process of the microphones (12) and / or sound sources ( 11), as well as the execution of at least one of the visualization features of acoustic phenomena available.
  • a data processing means (25) that allows the identification process of the microphones (12) and / or sound sources ( 11), as well as the execution of at least one of the visualization features of acoustic phenomena available.
  • there is an interaction means (28) with the user that allows him to identify microphones (12) and / or sound sources (11), as well as to choose the different functionalities and options that are proposed to execute.
  • the visualization of said functionalities can be said to be a computer vision system, performed in the visualization means, which preferably are computer screens (26). Alternatively said display can be made on screens of mobile devices, augmented reality glasses or similar systems.
  • the values of the relevant data will be represented in each of said functionalities. These data are in the case of the performance of stereo microphone techniques, the distance between the positions and the orientation, degrees of inclination, etc., of the microphone (12) to be positioned. In the case of the determination of the phase cancellation loci, the frequency data are provided, as well as the cancellation percentage.
  • the calculation module (23) creates a virtual image (17) of the execution of the functionalities, which is superimposed on the image captured by the camera (22), allowing to see the image as a whole and perform the optimization of the location of the microphones (12) visually.
  • calculation module comprises at least one of the following functionalities:
  • the calculation module (23) takes from the camera (22) the data that allows to determine the position and direction of the microphones (12) and / or sound sources (11).
  • the calculation module (23) relates it automatically or by manual designation, to a type of microphone (12) and / or sound source
  • the calculation module (23) performs the polar pattern representation of the microphone
  • the calculation module (23) takes from the camera (22) the data that allows to determine the position and direction of the microphones (12) and / or sound sources (11).
  • the calculation module (23) is responsible for executing said library, taking the location requirements of the microphones (12) with respect to the location of one of said microphones (12). f) By taking a microphone (12) of those that have been identified as reference, the calculation module makes a representation on the screen of the correct location of the following microphones, with which this functionality provides a visual method of placing the microphones (12).
  • the calculation module (23) takes from the camera (22) the data that allows to determine the position and direction of the microphones (12) and / or sound sources (11).
  • This location data together with the characteristics of each of them, allows the determination, for each frequency characteristic of sound sources (11), of the loci where phase cancellation occurs, executing a calculation based on the resolution of the mathematical model of the corresponding locus.
  • loci can be visualized by means of a phase cancellation map for each of the frequencies that are required. d) Alternatively, these loci if they coincide on a sound source (11) and for their characteristic frequency, are shown on the screen (26), together with the data and values of the cancellation, that allow their correction.
  • FIG. 4 of the invention there is a compact assembly (30) that incorporates in the same device of the three elements, identification, calculation and visualization, and that being a mobile device , allows to visualize next to the sound source (11) and / or the microphone (12), the correct location of the same, with the advantages of precision and time optimization that supposes.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

La presente solicitud de Patente de Invención consiste en un procedimiento y sistema de identificación, cálculo y visualización de fenómenos acústicos entre uno o varios captadores de sonido, mediante realidad aumentada, cuya finalidad es proporcionar a los técnicos de sonido una herramienta que le permita realizar la ubicación óptima de los captadores de sonido, sin tener que ingresar ninguna señal de audio, basándose en la visualización de al menos una funcionalidad de entre la determinación del patrón polar, ejecución de técnicas microfónicas estéreo y determinación de los lugares geométricos de cancelación de fase.

Description

PROCEDIMIENTO DE MONITORIZACION MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA Y SISTEMA DE ELEMENTOS QUE LO DESARROLLAN
Memoria Descriptiva
Objeto de la Invención.
La presente solicitud de Patente de Invención consiste en un procedimiento y sistema de identificación, cálculo y visualización de fenómenos acústicos entre uno o varios micrófonos, captadores de sonido, mediante realidad aumentada, utilizado para la optimización de la captación microfónica.
Estado de la Técnica:
En la actualidad, para establecer la configuración apropiada para las actividades profesionales en procesos de captación, cálculo y reproducción sonora, se requiere de un periodo previo de pruebas de sonido con todo el equipamiento involucrado encendido y preparado, y de un técnico de sonido con conocimientos especializados, que permitan conseguir la correcta ubicación de los sistemas y medios de captación y reproducción de audio.
El sonido producido por los instrumentos, las voces de los cantantes, los medios de captación de los mismos, y los altavoces que reproducen dichos sonidos, se deben ubicar de manera que las interferencias o interacciones entre unos y otros sean las mínimas posibles y no afecten a la reproducción global del conjunto.
Existen diversos problemas que se suceden tanto en las grabaciones de estudio como en las actuaciones de grupos, orquestas o similares, como son las cancelaciones de fase entre micrófonos, que producen alteraciones indeseadas en sonido resultante de la mezcla de ondas captadas por distintas fuentes. Otro de los problemas está relacionado con la directividad y sensitividad de los micrófonos, pues un micrófono podría captar más sonidos de los deseados, según su ubicación.
Para solucionar todo esto, en la actualidad, un técnico de sonido dispone de su experiencia, sus facultades de oído, instrumental de medida de espectro, nivel de presión sonora, etc; y los datos recopilados de instrumentos, captadores (micrófonos) y reproductores (altavoces) de sonido.
Incluso con estos recursos, la optimización de la ubicación de los captadores en conjuntos de instrumentos, como por ejemplo en una batería, que implica la optimización de alrededor de diez captadores, se hace prácticamente imposible. Esto implica tener el criterio del técnico como único parámetro de validación de la optimización de dicho sonido, siendo este un criterio profesional, pero de carácter subjetivo.
Por la patente WO2012063103 es conocido un sistema que a partir de la captación de sonido de los micrófonos, y por tanto de la necesaria emisión de sonido de las fuentes, permite representar diversas características del sonido emitido por dichas fuentes, así como visualizar dichos parámetros asociados a la emisión de sonido para realizar una configuración y modificación de la señal de audio que se recibe, limitándose dicha visualización de parámetros a una representación de los valores obtenidos con respecto a la captación de los micrófonos. De la misma manera la patente WO2011076286 nos muestra un sistema de visualización de los parámetros de sonido que están siendo captados por un dispositivo, encaminado a la reducción de ruido ambiente, y la grabación de conciertos, teniendo como base también la captación del sonido ambiente y la modificación de la señal acústica para corregirla.
Este tipo de soluciones dispone de varios inconvenientes, como es la necesidad de tener a las fuentes de sonido en funcionamiento para poder visualizar dichos parámetros, y que dicha visualización únicamente se refiere a la señal que emiten para poder configurar dicha señal y ser modificada, sin que se plantee la solución de origen, como es la correcta ubicación de micrófonos y las diferentes fuentes de sonido, ya que no aportan ninguna información para determinar cual es su óptima ubicación.
Por otro lado, tenemos que existen sistemas de realidad aumentada, en los que se introducen elementos virtuales en el espacio real a través de medios de visualización como pantallas, gafas o similares. Todo ello utilizando referencias claras como ubicaciones por GPS, referencias de edificios o marcadores asociados, que se componen de imágenes distintivas que puedan ser reconocidas mediante sistemas de visión por computador. Descripción de la invención:
La finalidad de la invención es proporcionar a los técnicos de sonido una herramienta que le permita realizar la ubicación óptima de los captadores de sonido, sin tener que ingresar ninguna señal de audio, y por tanto de forma previa a la creación de sonido, mediante el cálculo y visualización de parámetros técnicos a través de realidad aumentada, consiguiendo un uso más eficaz del tiempo y una configuración óptima a partir de parámetros objetivos de cálculo.
La invención se materializa en un sistema de identificación-cálculo-visualización que se compone de al menos unos medios de identificación para los captadores y/o fuentes de sonido, un módulo de cálculo y unos medios de visualización.
Este sistema de identificación-cálculo-visualización permite desarrollar un método de optimización de la ubicación y direccionamiento concreto de los captadores, en un momento en el que todavía no se ha realizado ninguna emisión sonora por parte de los instrumentos, con lo que no se hace necesaria ninguna entrada de señal de audio al sistema.
Se entiende por optimización de la ubicación y direccionamiento, entre otros, la correcta posición de los captadores de sonido teniendo en cuenta los valores de captación que se quieren obtener según la distancia y orientación respecto a la fuente de sonido, la obtención de forma correcta de una técnica microfónica estéreo, así como evitar la cancelación de fase del sonido captado.
Los medios de identificación reconocen los captadores de audio y/o fuentes de sonido, detectando su ubicación y la directividad del mismo, es decir, la dirección en la que se encuentra colocado el captador y/o fuente de sonido.
Esta identificación se puede producir por un sistema de marcadores físicos, o por sistema de reconocimiento de geometrías de las fuentes de sonido y/o captadores. En ambos casos se hace necesario que los medios de identificación dispongan de unos medios de obtención de imágenes, habitualmente formados por una cámara de video, para que dichas imágenes sean procesadas por el módulo de cálculo y se puedan identificar.
Dicho módulo de cálculo, además de la capacidad de procesamiento de datos, incorpora una base de datos en la que se almacenan las características de dichos captadores y fuentes de sonido, ya que han sido introducidas en el módulo de cálculo, junto con otras, como por ejemplo las características acústicas, propiedades sonoras de las fuentes de sonido y su geometría, todas ellas en dicha base de datos que dispone el módulo de cálculo. Las características acústicas y propiedades sonoras que se disponen en dicha base de datos son, entre otras, la curva del patrón polar, sensitividad, filtros y modos de atenuación de cada micrófono, respuesta en frecuencia, nivel de presión sonora, rango frecuencial, tesitura de diferentes instrumentos, frecuencia fundamental, harmónicos, etc.
Esta información, la ubicación y dirección de los captadores y sus características, sirven para que el módulo de cálculo establezca diferentes funcionalidades para ser representadas en los medios de visualizacion.
Esta representación de la funcionalidad ejecutada se realiza de forma superpuesta sobre la imagen tomada de los captadores de sonido y/o de las fuentes de sonido. Esta aplicación de visión por computador, llamada habitualmente realidad aumentada, consigue que se monitorice en tiempo real al menos una de las funcionalidades que el módulo de cálculo ejecuta, siendo cada una de dichas funcionales una aplicación de cada uno de los procedimientos de visualización en realidad aumentada de fenómenos acústicos de microfonia, pudiendo ver el resultado inmediato de dichas funcionalidades en el mismo momento que el usuario varia la ubicación o dirección de uno de los captadores o de las fuentes de sonido .
De forma complementaria a la visualización de las funcionalidades, se representarán los valores de los datos de relevancia en cada una de dichas funcionalidades .
De esta manera, tenemos el procedimiento de ubicación de los captadores de manera óptima, dispone de al menos las siguientes etapas:
- las imágenes tomadas por los correspondientes medios, son tomadas como referencia para la identificación, ubicación y directividad, de los captadores de sonido y/o fuentes de sonido,
- la identificación de los captadores sonido y/o fuentes de sonido hace que se cree la asociación de dichos elementos con sus características técnicas y propiedades sonoras recogidas en las bases de datos,
- el usuario elige la funcionalidad que desea ver representada en los medios de visualización,
- el módulo de cálculo recoge los datos de las etapas anteriores, y con las informaciones de la base de datos, ejecuta la funcionalidad-actuación escogida, y realiza la representación en los medios de visualización, - el usuario visualiza la funcionalidad escogida, juntamente y de forma superpuesta con la imagen captada de dichos captadores de sonido y/o fuentes de sonido,
- el usuario procede, si es necesario, a la modificación de la ubicación y colocación de los captadores de sonido y/o fuentes de sonido, disponiendo en los medios de visualización de la actualización en tiempo real de la funcionalidad escogida .
La primera de las funcionalidades que se ejecuta en el módulo de cálculo es la de determinar el patrón polar de los captadores. El módulo de cálculo toma de los medios de identificación la posición y dirección de los captadores de sonido. Una vez se conoce dicha ubicación y dirección, el módulo de cálculo lo relaciona automáticamente o mediante designación manual, a un tipo de captador con unas características especificas, con lo que se puede realizar una representación del patrón polar del mismo, y su correcta visualización en el espacio real, por medio de los medios de visualización, pudiendo observar el valor de perdida de captación según dicha colocación, y ver, con respecto a la fuente de sonido que va asociada, el nivel de captación que tendría. Así mismo el sistema permite la modificación de la colocación del captador y seguir viendo en tiempo real, la nueva representación del patrón polar para determinar en qué momento es óptima la ubicación.
De esta manera, el procedimiento que desarrolla la funcionalidad de determinación del patrón polar esta determinada al menos por las siguientes etapas: a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido.
b) Una vez se conoce dicha ubicación y dirección, el módulo de cálculo lo relaciona a un tipo de captador de sonido y/o fuente de sonido, con unas características específicas y propiedades sonoras .
c) En la base de datos se encuentran los tipos de captadores de sonido y fuentes de sonido con sus características y propiedades sonoras.
d) El módulo de cálculo realiza la representación del patrón polar del captador de sonido identificado, a través de la pantalla, pudiendo observar el valor de perdida de captación según dicha colocación del captador de sonido. e) Esta visualización en realidad aumentada se realiza en tiempo real, donde cualquier modificación realizada por el usuario para corregir la posición del micrófono, significa la continua representación del patrón polar para determinar en qué momento es óptima la ubicación.
Otra de las funcionalidades que se ejecutan en el módulo de cálculo, son las técnicas microfónicas estéreo, las cuales se corresponden con las técnicas aplicadas por los técnicos de sonido para conseguir diferentes construcciones-amplitudes de estéreo. Estas técnicas se encuentran introducidas en librerías de datos en la base de datos del módulo de cálculo, con lo que el usuario del sistema simplemente ha de elegir la técnica deseada sobre una o más fuentes de sonido objeto de la técnica.
Esta funcionalidad aporta un método visual de colocación de los captadores, partiendo de la ubicación de al menos uno de los captadores, y mediante la técnica elegida, el propio módulo de cálculo indica la correcta colocación del siguiente captador, reproduciéndose dicha colocación en los medios de visualización, y por tanto pudiendo ver en tiempo real por los medios de visualización, la ubicación del captador de referencia y de la ubicación deseada.
De esta manera, el procedimiento que desarrolla la funcionalidad de realización de técnicas microfónicas estéreo esta determinada al menos por las siguientes etapas :
a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido,
b) El usuario mediante los medios de interacción realiza la elección de las técnicas microfónicas estéreo que se quieren ejecutar,
c) Las técnicas microfónicas estéreo se encuentran introducidas en librerías de datos en la base de datos del módulo de cálculo,
d) El módulo de cálculo se encarga de ejecutar dicha librería, tomando los requisitos de ubicación de los captadores de sonido con respecto a la ubicación de uno de dichos captadores de sonido. e) Al tomar un captador de sonido de los que se han identificado como referencia, el módulo de cálculo realiza una representación en los medios de visualización de la correcta ubicación de los siguientes captadores de sonido,
f) El usuario realiza la ubicación de los captadores teniendo en cuenta la información visual aportada por la funcionalidad sobre la técnica escogida La tercera de las funcionalidades básicas realiza la identificación de los lugares geométricos donde se produce la cancelación de fase a frecuencias determinadas, con lo que nos permite, viendo la ubicación de los captadores y/o fuentes de sonido, los lugares en los que se establecerían cancelaciones de fase críticas a dichas frecuencias determinadas, y por tanto, donde las ondas senoidales del sonido captado se restan unas a otras alterando su valor y afectando a la percepción de dicho sonido.
En esta funcionalidad el módulo de cálculo toma de igual manera la posición de los captadores y/o fuentes de sonido para poder ubicarlas e identificarlas, y con los datos de los mismos y sus propiedades sonoras nos permite establecer las zonas de cancelación de las ondas sonoras a las frecuencias que se determinen, ya sea mediante mapa de cancelación de fase, o mediante la indicación sobre la visualización de la fuente de sonido, ofreciendo datos de la cancelación de fase, que sirvan para su valoración y permitan realizar los cambios oportunos para evitar dicha cancelación. Esta representación en los medios de visualización permite, a partir de ella, variar en tiempo real las zonas de cancelación de fase y por tanto colocar las fuentes de sonido en los puntos que no queden ocultas por dicha cancelación. De esta manera, el procedimiento que desarrolla la funcionalidad de determinación de los lugares geométricos de cancelación de fase esta compuesta al menos por las siguientes etapas:
a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido.
b) Estos datos de ubicación, juntamente con las características de cada uno de ellos permite la determinación, para cada frecuencia característica de las fuentes de sonido, de los lugares geométricos donde se produce cancelación de fase, ejecutando un cálculo basado en la resolución del modelo matemático del lugar geométrico correspondiente.
c) Estos lugares geométricos se pueden visualizar mediante un mapa de cancelación de fase para cada una de las frecuencias que se requieran. d) Alternativamente, estos lugares geométricos si coinciden sobre una fuente de sonido y para su frecuencia característica, son mostrados en la pantalla, junto con los datos y valores de la cancelación, que permitan su corrección. e) El usuario realiza la ubicación de los captadores de sonido evitando las zonas de cancelación mostradas por la funcionalidad.
Además de estas funciones asociadas a fenómenos acústicos, el módulo de cálculo incorpora una función de memoria de actuaciones para evitar problemas de recursividad, teniendo la posición de los captadores y/o fuentes de sonido, las variaciones realizadas sobre ellos, lo que permite avisar al usuario de los cambios que se realizan y que afectan a la idoneidad calculada en las otras funcionalidades.
Todas estas funcionalidades son ejecutadas de forma preferente por un programa informático, el cual a partir de su actuación sobre los elementos del sistema, y siguiendo los procedimientos anteriores, produce los efectos técnicos que permiten dar solución al problema descrito .
Por todo lo anterior, se consigue un procedimiento para la óptima ubicación de los captadores y/o fuentes de sonido, que se ejecuta en un sistema de realidad aumentada aplicado a fenómenos acústicos en un conjunto de microfonia, que permite la optimización de la colocación de dichos captadores, el cual ayuda de manera decisiva al técnico de sonido encargado de su configuración, consiguiendo un uso eficiente de tiempo, ya que no requiere el funcionamiento efectivo de los elementos activos, sólo su posición y aportando la información necesaria para encontrar la ubicación correcta de sistemas que utilizan varios captadores, difícilmente configurable manualmente de forma efectiva.
Otros detalles y características se irán poniendo de manifiesto en el transcurso de la descripción que a continuación se da, mostrándose una realización práctica de la invención a título ilustrativo pero no limitativo. Descripción de las figuras.
La figura 1 es un vista de una disposición de captadores en un conjunto de instrumentos del tipo batería que se quiere grabar. La figura 2 es una vista de la misma disposición de la figura 1 mostrada a través de los medios de visualización y donde se ha aplicado el patrón polar por el módulo de cálculo.
La figura 3 es un esquema de funcionamiento del procedimiento general del sistema de ubicación de captadores de sonido.
La figura 4 es una vista de un equipo compacto que incorpora todo el sistema.
Descripción de una de las realizaciones de la Invención.
En una de las realizaciones preferidas de la invención, tal y como puede verse en la figura 1, se dispone de una fuente de sonido (11) como es una batería, formada por un conjunto de instrumentos, sobre la que se instalan micrófonos (12) como captadores de sonido, en diferentes posiciones para captar los diferentes sonidos que emiten. El sistema de identificación-cálculo- visualización (10) objeto de la presente patente, permite la realización óptima de la ubicación de los micrófonos
(12), utilizando diferentes funcionalidades.
Los medios de identificación que forman el sistema
(10) , tal y como puede observarse en el diagrama desarrollado en la figura 3, están compuestos por unos medios de captación de imágenes, preferentemente una o más cámaras de vídeo (22), que hacen posible el envío al módulo de cálculo (23) de las imágenes para que se realice la detección de los micrófonos (12), de los cuales se han introducido su clase y las propiedades y características en la base de datos (24) de que dispone el módulo de cálculo (23) . La detección de los micrófonos (12) y/o de las fuentes de sonido (11) se realiza de manera habitual por medio de la detección de marcadores (13) físicos, que se colocan en el conector del micrófono (12). Una vez detectados los marcadores (13), el módulo de cálculo (23) realiza la asociación de los datos asociados a cada micrófono (12) y/o fuente de sonido (11) , preferentemente de forma automática, aunque puede indicarse de manera manual la identificación del tipo de micrófono (12) y/o fuente de sonido (11) de que se trata.
Alternativamente, la identificación de los micrófonos (12) y/o fuentes de sonido (11) se realiza mediante un sistema de reconocimiento de geometrías, sin necesidad de colocación de marcadores físicos (13) .
El sistema de identificación permite, además de conocer la ubicación de los micrófonos (12) y/o fuentes de sonido (11), saber también la posición, es decir, la dirección de los micrófonos (12), y por tanto la ubicación de la cápsula, donde tiene el punto de captación y su dirección de captación.
El módulo de cálculo (23) dispone de la base de datos (24) indicada, así como de unos medios de procesamiento de datos (25) que permite realizar el proceso de identificación de los micrófonos (12) y/o fuentes de sonido (11), así como la ejecución de al menos una de las funcionalidades de visualización de fenómenos acústicos de que dispone. Del mismo modo se dispone de unos medios de interacción (28) con el usuario que le permite identificar micrófonos (12) y/o fuentes de sonido (11), así como escoger las diferentes funcionalidades y opciones que se plantean para ejecutar. La visualización de dichas funcionalidades se puede decir que se trata de un sistema de visión por computador, realizándose en los medios de visualización, que preferentemente son pantallas de ordenador (26) . Alternativamente puede hacerse dicha visualización en pantallas de dispositivos móviles, gafas de realidad aumentada o sistemas similares.
Alternativamente, de forma complementaria a la visualización de las funcionalidades, se representarán los valores de los datos de relevancia en cada una de dichas funcionalidades. Estos datos son en el caso de la funcionalidad de realización de técnicas microfónicas estéreo, la distancia entre las posiciones y la orientación, grados de inclinación, etc., del micrófono (12) a posicionar. En el caso de la determinación de los lugares geométricos de cancelación de fase, se aportan los datos de frecuencia, asi como el porcentaje de cancelación .
En dichas pantallas (26), el módulo de cálculo (23) crea una imagen virtual (17) de la ejecución de las funcionalidades, la cual se sobrepone a la imagen captada por la cámara (22) , permitiendo ver la imagen en conjunto y realizar la optimización de la ubicación de los micrófonos (12) de forma visual.
Como se ha indicado el módulo de cálculo comprende al menos de una de las siguientes funcionalidades:
• Determinación del patrón polar
• Realización de técnicas microfónicas estéreo
• Determinación de lugares geométricos de cancelación de fase Para la ejecución de la determinación del patrón polar, se desarrolla un procedimiento que consta de las siguientes fases:
a) El módulo de cálculo (23) toma de la cámara (22) los datos que permiten determinar la posición y dirección de los micrófonos (12) y/o fuentes de sonido ( 11) .
b) Una vez se conoce dicha ubicación y dirección, el módulo de cálculo (23) lo relaciona automáticamente o mediante designación manual, a un tipo de micrófono (12) y/o fuente de sonido
(11) , con unas características específicas.
c) En la base de datos (24) se encuentran los tipos de micrófonos (12) y fuentes de sonido (11) con sus características y propiedades sonoras. d) El módulo de cálculo (23) realiza la representación del patrón polar del micrófono
(12) identificado, por medio de la pantalla (26), pudiendo observar el valor de perdida de captación según dicha colocación del micrófono (12) .
e) Esta visualización en realidad aumentada se realiza en tiempo real, donde cualquier modificación para corregir la posición del micrófono, significa la continua representación del patrón polar para determinar en qué momento es óptima la ubicación.
Para la realización de técnicas microfónicas estéreo, se desarrolla un procedimiento que consta de las siguientes fases: b) El módulo de cálculo (23) toma de la cámara (22) los datos que permiten determinar la posición y dirección de los micrófonos (12) y/o fuentes de sonido (11) .
c) El usuario mediante los medios de interacción (28) realiza la elección de las técnicas microfónicas estéreo que se quieren ejecutar.
d) Las técnicas microfónicas estéreo se encuentran introducidas en librerías de datos en la base de datos (24) del módulo de cálculo (23)
e) El módulo de cálculo (23) se encarga de ejecutar dicha librería, tomando los requisitos de ubicación de los micrófonos (12) con respecto a la ubicación de uno de dichos micrófonos (12). f) Al tomar un micrófono (12) de los que se han identificado como referencia, el módulo de cálculo realiza una representación en la pantalla de la correcta ubicación de los siguientes micrófonos, con lo que esta funcionalidad aporta un método visual de colocación de los micrófonos (12) .
Para la realización de la determinación de lugares eométricos de cancelación de fase, se desarrolla un rocedimiento que consta de las siguientes fases:
a) El módulo de cálculo (23) toma de la cámara (22) los datos que permiten determinar la posición y dirección de los micrófonos (12) y/o fuentes de sonido (11) .
b) Estos datos de ubicación, juntamente con las características de cada uno de ellos permite la determinación, para cada frecuencia característica de las fuentes de sonido (11), de los lugares geométricos donde se produce cancelación de fase, ejecutando un cálculo basado en la resolución del modelo matemático del lugar geométrico correspondiente.
c) Estos lugares geométricos se pueden visualizar mediante un mapa de cancelación de fase para cada una de las frecuencias que se requieran. d) Alternativamente, estos lugares geométricos si coinciden sobre una fuente de sonido (11) y para su frecuencia característica, son mostrados en la pantalla (26) , junto con los datos y valores de la cancelación, que permitan su corrección.
En otra realización alternativa, tal y como se muestra en la figura 4, de la invención se dispone de un conjunto compacto (30) que incorpora en un mismo dispositivo de los tres elementos, identificación, cálculo y visualización, y que siendo un dispositivo móvil, permite visualizar de forma próxima a la fuente de sonido (11) y/o al micrófono (12), la correcta ubicación de los mismos, con las ventajas de precisión y optimización de tiempo que supone.
Descrita suficientemente la presente invención en correspondencia con las figuras anexas, fácil es comprender que podrán introducirse en la misma cualesquiera modificaciones que se estimen convenientes siempre y cuando no se altere la esencia de la invención que queda resumida en las reivindicaciones siguientes.

Claims

R E I V I N D I C A C I O N E S:
Ia - "PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" de los que utilizan la toma de imágenes de los captadores de sonido y/o fuentes de sonido, sin utilizar la aportación de señales de sonido de los mismos, caracterizado en que se desarrollan al menos las siguientes etapas:
- las imágenes tomadas por los correspondientes medios, son tomadas como referencia para la identificación, ubicación y directividad, de los captadores de sonido y/o fuentes de sonido,
- la identificación de los captadores sonido y/o fuentes de sonido hace que se cree la asociación de dichos elementos con sus características técnicas y propiedades sonoras recogidas en las bases de datos,
- el usuario elige la funcionalidad que desea ver representada en los medios de visualización, de entre al menos una de las siguientes
• Determinación del patrón polar
• Realización de técnicas microfónicas estéreo
• Determinación de lugares geométricos de cancelación de fase,
- el módulo de cálculo recoge los datos de las etapas anteriores, y con las informaciones de la base de datos, ejecuta la funcionalidad escogida, y realiza la representación en los medios de visualización, - el usuario visualiza la funcionalidad escogida, juntamente y de forma superpuesta con la imagen captada de dichos captadores de sonido y/o fuentes de sonido,
- el usuario procede, si es necesario, a la modificación de la ubicación y colocación de los captadores de sonido y/o fuentes de sonido, disponiendo en los medios de visualización de la actualización en tiempo real de la funcionalidad escogida .
2 _ "PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la Ia reivindicación, caracterizado en que la funcionalidad es la ejecución de la determinación del patrón polar, que consta de las siguientes etapas:
a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido.
b) Una vez se conoce dicha ubicación y dirección, el módulo de cálculo lo relaciona a un tipo de captador de sonido y/o fuente de sonido, con unas características específicas y propiedades sonoras .
c) En la base de datos se encuentran los tipos de captadores de sonido y fuentes de sonido con sus características y propiedades sonoras.
d) El módulo de cálculo realiza la representación del patrón polar del captador de sonido identificado, a través de la apantalla, pudiendo observar el valor de perdida de captación según dicha colocación del captador de sonido, e) Esta visualización en realidad aumentada se realiza en tiempo real, donde cualquier modificación realizada por el usuario para corregir la posición del micrófono, significa la continua representación del patrón polar para determinar en qué momento es óptima la ubicación. 3 a _ «PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la Ia reivindicación, caracterizado en que la funcionalidad es la determinación de lugares geométricos de cancelación de fase que consta de las siguientes etapas :
a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido.
b) Estos datos de ubicación, juntamente con las características de cada uno de ellos permite la determinación, para cada frecuencia característica de las . fuentes de sonido, de los lugares geométricos donde se produce cancelación de fase, ejecutando un cálculo basado en la resolución del modelo matemático del lugar geométrico correspondiente.
c) Estos lugares geométricos se visualizan mediante un mapa de cancelación de fase para cada una de las frecuencias que se requieran.
d) Alternativamente, estos lugares geométricos si coinciden sobre una fuente de sonido y para su frecuencia característica, son mostrados en la pantalla, junto con los datos y valores de la cancelación, que permitan su corrección, e) El usuario realiza la ubicación de los captadores de sonido evitando las zonas de cancelación mostradas por la funcionalidad sobre la técnica escogida .
4 a _ »PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la Ia reivindicación, caracterizado en que la funcionalidad es la ejecución de técnicas microfónicas estéreo que consta de las siguientes etapas:
a) El módulo de cálculo toma de los medios de identificación los datos que permiten determinar la posición y dirección de los captadores de sonido y/o fuentes de sonido,
b) El usuario mediante los medios de interacción realiza la elección de las técnicas microfónicas estéreo que se quieren ejecutar,
c) Las técnicas microfónicas estéreo se encuentran introducidas en librerías de datos en la base de datos del módulo de cálculo,
d) El módulo de cálculo se encarga de ejecutar dicha librería, tomando los requisitos de ubicación de los captadores de sonido con respecto a la ubicación de uno de dichos captadores de sonido, e) Al tomar un captador de sonido de los que se han identificado como referencia, el módulo de cálculo realiza una representación en los medios de visualización de la correcta ubicación de los siguientes captadores de sonido, f) El usuario realiza la ubicación de los captadores teniendo en cuenta la información visual aportada por la funcionalidad sobre la técnica escogida. 5 a _ "PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la Ia reivindicación, caracterizado en que la identificación de los captadores de sonido y/o fuentes de sonido se realiza mediante el reconocimiento de la forma geométrica del mismo, asociándose con sus características técnicas y propiedades sonoras.
6a - "PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la Ia reivindicación, caracterizado en que la identificación de los captadores de sonido y/o fuentes de sonido se realiza mediante el reconocimiento de marcadores físicos, asociando a cada marcador la identificación del captador o fuente que le corresponde, con sus características técnicas y propiedades sonoras.
7 a _ «PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según reivindicaciones de la 2a a la 6a, caracterizado en que la asociación entre captador o fuente de sonido, y sus características técnicas y propiedades sonoras se realiza de manera automática al ser identificado dicho captador o fuente.
ga _ «PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según reivindicaciones de la 2a a la 6a, caracterizado en que la asociación entre captador o fuente de sonido, con sus características técnicas y propiedades sonoras se realiza de manera manual por el usuario. 9 a _ «PROCEDIMIENTO DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según reivindicaciones de la 2a a la 4a, caracterizado en que la representación en los medios de visualización incluye los valores de los datos característicos de dicha funcionalidad.
10a - "SISTEMA DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" que ejecuta el procedimiento definido en las reivindicaciones de la 1 a la 9, caracterizado en que el sistema se compone de al menos unos medios de identificación de la posición y de la dirección/geometría del captador o fuente de sonido, comunicando dichos medios de identificación con el módulo de cálculo el cual ejecuta al menos una de las funcionalidades que dispone el sistema :
• Determinación del patrón polar
• Realización de técnicas microfónicas estéreo
• Determinación de lugares geométricos de cancelación de fase,
realizando una reproducción de dichas funcionalidades en los medios de visualización, para procesar una imagen virtual que se sobre pone a la imagen captada real, donde el sistema es independiente de entradas de señales de audio, no disponiendo de ninguna entrada de señal de sonido de los captadores y/o fuentes de sonido.
11a - "SISTEMA DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONIA" según la 10a reivindicación, caracterizado en que los medios de identificación están formados por una o más cámaras de vídeo . 12a - "SISTEMA DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONÍA" según la
10a reivindicación, caracterizado en que el módulo de cálculo dispone de una base de datos de características y propiedades sonoras de los captadores y focos de sonidos.
13a - "SISTEMA DE MONITORIZACIÓN MEDIANTE REALIDAD AUMENTADA DE FENÓMENOS ACÚSTICOS EN MICROFONÍA" según la 10a reivindicación, caracterizado en que el sistema se encuentra formado por un conjunto que comprende todos sus elementos, compacto y transportable.
14a - "PROGRAMA DE ORDENADOR" ejecutado por el módulo de cálculo del sistema y según el procedimiento definido en las reivindicaciones anteriores que comprende código adaptado para realizar las etapas de:
- identificación y asociación de características de los captadores y/o fuentes de sonido,
determinación de la posición y orientación de dichos captadores y/o fuentes de sonido, ejecución de al menos una de las funcionalidades definidas en las reivindicaciones 2, 3 y 4:
• Determinación del patrón polar
• Realización de técnicas microfónicas estéreo
• Determinación de lugares geométricos de cancelación de fase,
- reproducción en los medios de visualización de la imagen virtual .
PCT/ES2013/070361 2013-06-05 2013-06-05 Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan WO2014195527A1 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/ES2013/070361 WO2014195527A1 (es) 2013-06-05 2013-06-05 Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2013/070361 WO2014195527A1 (es) 2013-06-05 2013-06-05 Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan

Publications (2)

Publication Number Publication Date
WO2014195527A1 true WO2014195527A1 (es) 2014-12-11
WO2014195527A9 WO2014195527A9 (es) 2015-02-26

Family

ID=52007598

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2013/070361 WO2014195527A1 (es) 2013-06-05 2013-06-05 Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan

Country Status (1)

Country Link
WO (1) WO2014195527A1 (es)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2286600T3 (es) * 2003-01-30 2007-12-01 Gesellschaft Zur Forderung Angewandter Informatik E.V. Procedimiento y dispositivo para la representacion de objetos acusticos en forma de imagenes.
US20090141986A1 (en) * 2000-11-06 2009-06-04 Boncyk Wayne C Image Capture and Identification System and Process
US20090175509A1 (en) * 2008-01-03 2009-07-09 Apple Inc. Personal computing device control using face detection and recognition
ES2399160B2 (es) * 2011-04-19 2013-07-19 Antonio Raúl LEAL RAMÍREZ Métodos, aparatos y aplicaciones para la calibración espacial de un entorno acústico

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090141986A1 (en) * 2000-11-06 2009-06-04 Boncyk Wayne C Image Capture and Identification System and Process
ES2286600T3 (es) * 2003-01-30 2007-12-01 Gesellschaft Zur Forderung Angewandter Informatik E.V. Procedimiento y dispositivo para la representacion de objetos acusticos en forma de imagenes.
US20090175509A1 (en) * 2008-01-03 2009-07-09 Apple Inc. Personal computing device control using face detection and recognition
ES2399160B2 (es) * 2011-04-19 2013-07-19 Antonio Raúl LEAL RAMÍREZ Métodos, aparatos y aplicaciones para la calibración espacial de un entorno acústico

Also Published As

Publication number Publication date
WO2014195527A9 (es) 2015-02-26

Similar Documents

Publication Publication Date Title
ES2811481T3 (es) Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos
ES2463395T3 (es) Aparato y procedimiento para medir una pluralidad de altavoces y arreglo de micrófono
KR102378762B1 (ko) 지향성의 사운드 변형
CN107211216B (zh) 用于提供虚拟音频再现的方法和装置
US10531220B2 (en) Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
US9854371B2 (en) Information processing system, apparatus and method for measuring a head-related transfer function
US20190313201A1 (en) Systems and methods for sound externalization over headphones
JP2021532355A (ja) 音響画像にタグを付けて関連付けるためのシステム及び方法
US9538156B2 (en) System and method for providing 3D sound
US11812235B2 (en) Distributed audio capture and mixing controlling
CN107113527A (zh) 确定扬声器位置变化的方法
CN107172566B (zh) 音频处理方法及装置
CN106370570A (zh) 颗粒物测量值的校准方法及装置
EP3819658A1 (en) Sound source positioning method using fisheye lens and device thereof
US10979806B1 (en) Audio system having audio and ranging components
CN104935913B (zh) 处理多个装置采集的音频或视频信号
WO2014195527A1 (es) Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y sistema de elementos que lo desarrollan
US10212529B1 (en) Holographic visualization of microphone polar pattern and range
US20130215010A1 (en) Portable electronic equipment and method of visualizing sound
Blaise et al. Acquisition & integration of spatial and acoustic features: A workflow tailored to small-scale heritage architecture
JP2007208866A (ja) カメラ
CN112927718B (zh) 感知周围环境的方法、装置、终端和存储介质
JP2019028817A (ja) 情報処理装置、タップ検出方法及びプログラム
JP5353316B2 (ja) 音場可視化装置
JP6070559B2 (ja) 画像表示装置及び方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886325

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13886325

Country of ref document: EP

Kind code of ref document: A1