ES2811481T3 - Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos - Google Patents

Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos Download PDF

Info

Publication number
ES2811481T3
ES2811481T3 ES17778324T ES17778324T ES2811481T3 ES 2811481 T3 ES2811481 T3 ES 2811481T3 ES 17778324 T ES17778324 T ES 17778324T ES 17778324 T ES17778324 T ES 17778324T ES 2811481 T3 ES2811481 T3 ES 2811481T3
Authority
ES
Spain
Prior art keywords
acoustic
sound
acoustic chamber
microphones
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17778324T
Other languages
English (en)
Inventor
Kai Saksela
Jonas Nyberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noiseless Acoustics Oy
Original Assignee
Noiseless Acoustics Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noiseless Acoustics Oy filed Critical Noiseless Acoustics Oy
Application granted granted Critical
Publication of ES2811481T3 publication Critical patent/ES2811481T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/10Amplitude; Power
    • G01H3/12Amplitude; Power by electric means
    • G01H3/125Amplitude; Power by electric means for representing acoustic field distribution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M3/00Investigating fluid-tightness of structures
    • G01M3/02Investigating fluid-tightness of structures by using fluid or vacuum
    • G01M3/04Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point
    • G01M3/24Investigating fluid-tightness of structures by using fluid or vacuum by detecting the presence of fluid at the leakage point using infrasonic, sonic, or ultrasonic vibrations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R19/00Electrostatic transducers
    • H04R19/005Electrostatic transducers using semiconductor materials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/003Mems transducers or their use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Una cámara (10) acústica, que comprende: - una carcasa (15); - un conjunto (32) de micrófonos configurados para recopilar información de sonido acústico y para convertir la información de sonido acústico en señales de sonido analógicas o digitales; - medios (33a) de procesamiento configurados para dividir las señales de sonido en componentes descriptivos y para determinar los niveles de sonido en una pluralidad de direcciones en un campo de visión de la cámara acústica, - los medios (33a) de procesamiento configurados para convertir los niveles de sonido determinados en un mapa de color con diferentes colores que visualizan diferentes niveles de sonido; - una cámara (34) óptica configurada para tomar una imagen o video del campo de visión, los medios (33a) de procesamiento configurados para combinar el mapa de color con la imagen o video tomados, ilustrando así las emisiones acústicas como una imagen combinada del campo de vista de la cámara acústica, y en donde - el conjunto (32) de micrófonos, los medios (33a) de procesamiento y la cámara (34) óptica están integrados en la carcasa (15); - un medio (33b) de clasificación configurado para determinar al menos un resultado de clasificación para los componentes descriptivos, en el que - la clasificación se realiza utilizando una tabla (71) de datos, que comprende datos de los componentes descriptivos y al menos un nombre o código correspondiente que describe la fuente o la razón del al menos un sonido en la información acústica recopilada; la cámara acústica caracterizada porque dicha tabla (71) de datos puede ser actualizada cognitivamente por el usuario, y porque - la sección transversal de la cámara (10) acústica tiene la forma de un triángulo con esquinas redondeadas, donde la sección transversal es paralela al plano del conjunto (32) de micrófonos.

Description

DESCRIPCIÓN
Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos
Campo de la invención
La presente invención se refiere a la detección de emisiones acústicas en varios lugares y posibles fuentes de audio, y a la visualización de las emisiones acústicas detectadas de manera práctica.
Antecedentes de la invención
Las cámaras acústicas son dispositivos que recogen señales de sonido del entorno con un conjunto de micrófonos, y que caracterizan las señales de sonido recopiladas de alguna manera deseada. La cámara acústica puede comprender también una cámara óptica. Debido a que las distancias entre cada micrófono y una fuente de sonido específica generalmente varían, las diferencias de retardo de tiempo entre las señales de audio recibidas en cada uno de los micrófonos se pueden tomar en el análisis. Debido a que la dirección del sonido entrante y los retrasos de tiempo están relacionados entre sí, una unidad de cálculo de la cámara acústica puede obtener información de dirección y potencia de la señal acústica. Además, el conjunto de micrófonos se puede sintonizar de alguna manera para crear un haz dirigido específicamente en una dirección deseada para el conjunto de micrófonos.
El documento US 2014/0241548 (“Kim”) describe una cámara acústica con un conjunto de micrófonos MEMS y la estructura interna del conjunto de micrófonos. La estructura es una ramificada, donde puede haber de 2 a 10 micrófonos por rama y de 2 a 10 ramas de tipo radial. Se puede formar una sola rama en forma de línea recta o en forma de espiral. Kim muestra una visualización acústica por colores en la pantalla.
El documento US 2014/0192201 (“Benoit”) describe un dispositivo pasivo de medición de señal acústica. El problema principal en Benoit es mover el conjunto de micrófonos (o una antena acústica) físicamente a través de diferentes lugares de un espacio mientras el dispositivo principal permanece en una posición fija. El conjunto de micrófonos se conecta así al dispositivo a través de cables. Benoit revela una estructura de soporte en forma redonda, en la que se pueden conectar los micrófonos, también en una disposición plana en forma redonda. También dos sensores ópticos de distancia están unidos al soporte. La electrónica de procesamiento de datos también se incluye en la estructura de soporte. El número de micrófonos en Benoit es de 3 a 16, y preferiblemente hay 8 micrófonos. Los datos se pueden enviar en forma inalámbrica a una unidad de procesamiento externa. Benoit puede tener un asa para uso portátil, o el dispositivo se puede fijar a un trípode. La pantalla de Benoit también puede tener una funcionalidad de pantalla táctil. El área acústica donde Benoit es capaz de detectar señales acústicas es de 20 Hz... 20 kHz. A partir de los niveles de señal acústica medidos en el área bajo investigación, Benoit crea una pluralidad de valores en forma de cuadrícula. Se puede tomar una fotografía, y encima de la imagen óptica tomada, el dispositivo puede agregar una imagen en color o una imagen en escala de grises que represente la cuadrícula creada de valores numéricos. La dimensión del grosor o profundidad del dispositivo de Benoit puede ser incluso inferior a 5 cm. No se analizan micrófonos MEMS en Benoit.
El problema de las soluciones anteriores es que muchas de las soluciones de la técnica anterior son físicamente bastante grandes y, por lo tanto, requieren un espacio innecesariamente grande para la carcasa de la cámara acústica. Esto lleva a un manejo más difícil de la cámara acústica, disminuyendo su utilidad en diversos espacios y diferentes situaciones de medición. Además, el intervalo de frecuencia es muy limitado en algunas soluciones conocidas (20 Hz - 20 kHz), y la resolución y precisión de la imagen acústica es limitada si solo se usan ocho micrófonos.
El documento WO 2016/148825 A1 (Cahill) y el documento US 2008/0260167 A1 (Kim) abordan estos problemas, pero pueden mejorarse aún más.
Sumario de la invención
La presente invención proporciona una cámara acústica de acuerdo con la reivindicación 1, y un método para medir, procesar y visualizar señales acústicas de acuerdo con la reivindicación 9.
Breve descripción de los dibujos
La Figura 1 ilustra una vista externa de la cámara acústica de acuerdo con la invención, que muestra dos lados del dispositivo real,
la Figura 2 ilustra una sección transversal vertical de la cámara acústica que muestra algunos de los principales elementos funcionales dentro del dispositivo,
la Figura 3 ilustra un diagrama de flujo de los principales elementos funcionales de la cámara acústica,
la Figura 4a ilustra un ejemplo de flujo de proceso, donde la clasificación del sonido se realiza dentro del dispositivo, la Figura 4b ilustra un ejemplo de flujo de proceso, donde la clasificación del sonido se realiza en una ubicación externa, la Figura 5 ilustra un ejemplo de posiciones seleccionadas para un conjunto de 124 micrófonos,
las Figuras 6a-c ilustran diversas vistas de la estructura interna de la cámara acústica,
la Figura 7 ilustra un ejemplo de una tabla de datos utilizada en el proceso de clasificación de las señales acústicas medidas,
la Figura 8 ilustra el procedimiento de prueba acústica con un altavoz externo, y
la Figura 9 ilustra un diagrama de flujo resumido del flujo de señal y el proceso de análisis de sonido realizado en la presente invención.
Descripción detallada de las realizaciones
La presente invención describe una cámara acústica que se proporciona para analizar y presentar las señales acústicas entrantes al usuario de una manera sofisticada. En una realización, la cámara acústica es un dispositivo portátil, y todas las partes principales se implementan dentro de una sola carcasa; excepto un posible altavoz externo que se pueda usar como fuente de sonido.
Una realización de la cámara acústica y su posible diseño exterior se ilustra en la Figura 1 desde dos direcciones de visualización diferentes. La cámara 10 acústica comprende una carcasa 15 que comprende los componentes funcionales en la parte superior de la cámara acústica y un asa 12. El asa puede comprender material elastomérico parcialmente en su superficie exterior (mostrado en color más oscuro). El extremo de detección de la carcasa 15 está redondeado por un marco 11, que también está hecho preferiblemente de un material elastomérico. El marco 11 tiene una forma delta redondeada en una realización, y la pared extrema de la carcasa 15 restringida por el marco es una pared extrema plana (representada como superficie negra). Cuando se mira la imagen en el lado derecho, una pantalla 13 táctil puede verse como un elemento rectangular, actuando así también como una interfaz de usuario. La pantalla se ubica en una alineación paralela con la pared extrema plana antes mencionada, en el extremo opuesto de la carcasa 15. Debajo de la pantalla 13 táctil, hay teclas 14 físicas, tres para ser exactos en este ejemplo. Las teclas físicas proporcionan una interfaz de usuario adicional para las funciones seleccionadas de la cámara 10 acústica. Alternativamente, puede haber un número seleccionado de teclas físicas. Además, en otra realización, el teclado puede comprender una rueda de desplazamiento que actúa como un medio de entrada para el usuario.
Detrás de la pared extrema plana de la carcasa 15, está ubicada una pluralidad de micrófonos en una disposición seleccionada. En una realización, hay 32-256 micrófonos como un conjunto de micrófonos, y en un ejemplo más específico, se pueden usar 124 micrófonos. Los micrófonos son preferiblemente micrófonos MEMS.
La carcasa de la cámara acústica puede comprender también conectores para la transferencia de datos externos. En una realización, se pueden usar conectores USB y Ethernet. Los conectores se pueden colocar justo debajo de la cubierta superior de la carcasa, en la parte superior de la pantalla. El usuario puede abrir manualmente una tapa 16 que se muestra en la Figura 1, y los conectores se colocan debajo de la tapa 16.
Se puede ver una vista en sección transversal de la cámara acústica en la Figura 2, desde una vista lateral en el lado izquierdo y desde la dirección supuesta de una fuente acústica examinada en el lado derecho. En la ilustración en sección transversal izquierda, el lado izquierdo de la cámara acústica está ocupado por una pantalla que es preferiblemente una pantalla LCD. La pantalla está conectada a una unidad de controlador de pantalla, que se muestra en dirección paralela con la pantalla. El siguiente elemento vertical es la unidad de ordenador. En la parte más a la derecha de la sección transversal de la cámara acústica, hay un conjunto de micrófonos MEMS en un micrófono PCB, y cada micrófono es omnidireccional. En este ejemplo, la cámara óptica se coloca en el centro del micrófono PCB. La placa vertical más larga en segundo lugar desde la derecha es una placa de potencia. La placa corta entre estas placas es una placa FPGA (FPGA = Field-programmable gate array, “matriz de puerta programable en campo”). La FPGA realiza el filtrado de las señales acústicas detectadas recibidas por los micrófonos. La FPGA realiza, además, el análisis direccional y, en base a este análisis, envía la imagen acústica a la unidad de ordenador. Volviendo a las funcionalidades en la unidad de ordenador, la unidad de ordenador combina la información de imagen acústica recibida de la FPGA con la imagen obtenida por la cámara óptica. Además, la unidad de ordenador puede procesar los datos para visualizar la información obtenida de la mejor manera en la pantalla. La unidad de ordenador puede seleccionar la longitud promedio de tiempo de la medición y también el ancho del área coloreada que señala las fuentes de ruido. Además, la unidad de ordenador puede enviar los resultados del análisis a una ubicación externa y mostrar el resultado obtenido en el paso de clasificación de las señales acústicas; ver más detalles al respecto más adelante. Volviendo a la Figura 2, en la parte superior izquierda de la sección transversal, hay un compartimento para conectores externos. Los conectores comprenden conectores USB y Ethernet para transferencia de datos externos. Los datos obtenidos por la cámara acústica se pueden transmitir así a una ubicación externa que puede ser, por ejemplo, un ordenador o servidor externo ubicado en la nube al que se puede acceder a través de una conexión a Internet. En referencia también a la Figura 1 anterior, los conectores externos se pueden colocar debajo de la tapa 16 visible en la ilustración del lado derecho. Las Figuras 6a-c ilustran más de la estructura interna del dispositivo acústico.
La Figura 3 ilustra los principales elementos funcionales de la cámara 10 acústica, como un diagrama de bloques que muestra también las direcciones del flujo de información entre diferentes elementos funcionales. Analizada en el orden de información o flujo de señal, la parte de detección principal de la cámara acústica con respecto a las señales de audio está formada por un conjunto 32 de micrófonos. Preferiblemente, cada micrófono usado 32 está especificado para tener un patrón polar omnidireccional. Por ejemplo, los micrófonos se instalan en una placa posterior en la carcasa de la cámara acústica, lo que da como resultado una direccionalidad efectiva de los micrófonos hacia la dirección a la que apunta la cámara acústica. Esto sucede en parte porque la placa posterior actúa como un reflector, y el haz efectivo resultante del conjunto de micrófonos tendrá una dirección principal alejada del usuario de la cámara acústica (es decir, en la dirección en que apunta el dispositivo). Como se discutió con anterioridad, el número de micrófonos se puede seleccionar preferiblemente desde 32 hasta 256 micrófonos. Una unidad 33 de cálculo realiza los pasos de procesamiento deseados para las señales obtenidas por el conjunto 32 de micrófonos. La unidad de cálculo realiza varias operaciones matemáticas para las señales obtenidas, que comprenden también el filtrado. Al filtrar con frecuencias de corte seleccionadas en forma apropiada, se puede evitar el ruido grave o agudo no deseado. Los resultados obtenidos de las operaciones realizadas por la unidad 33 de cálculo comprenden diferentes direcciones de llegada de las señales de sonido e intensidades de sonido en cada una de estas direcciones de llegada. La unidad 33 de cálculo puede implementarse como una unidad FPGA, es decir, como un circuito integrado programable.
Además de recopilar información acústica mediante el conjunto 32 de micrófonos, el entorno visual puede ser fotografiado simultáneamente por una cámara 34 óptica, cuando el dispositivo está en un modo de funcionamiento activo (es decir, “escucha” las señales acústicas con una posición y alineación determinadas de la cámara acústica). En la situación de uso real de la cámara acústica, se puede fijar en una determinada posición y dirección de direccionamiento (en el caso de un dispositivo en una ubicación fija), o apuntar manualmente a la dirección deseada (en el caso de un dispositivo portátil). En ambos sentidos, la medición acústica se realiza cuando el dispositivo se coloca de modo que apunte en una dirección específica. Se puede obtener una nueva posición de la cámara acústica moviendo la cámara acústica en forma manual u operativa (es decir, con un dron volador) a una nueva posición y direccionamiento. De esta manera, una medición en serie que cubre un área más grande (por ejemplo, un panorama horizontal de 360 grados) se puede realizar a través de una pluralidad de mediciones.
El ordenador 31 es la siguiente unidad funcional donde se alimentan tanto los resultados de cálculo de la unidad 33 de cálculo como la información de imagen obtenida por la cámara 34. El ordenador 31 cambia la información de intensidad de la señal acústica en un mapa de color donde diferentes colores visualizan distintas intensidades del sonido en diferentes direcciones. En un posible ejemplo, las intensidades de sonido más fuertes pueden tener un color rojo oscuro, y los siguientes valores de señal acústica con menor intensidad pueden visualizarse con rojo regular y, posteriormente, en naranja, amarillo, verde, turquesa y azul. Por lo general, con respecto a una fuente de sonido similar a un punto, una mancha en puntos de color rojo oscuro señala el centro de la fuente de sonido, y los círculos rojos rodean la zona roja oscura, el círculo o bucle naranja rodea el bucle rojo, y así sucesivamente, lo que indica la disminución de los niveles de intensidad del sonido. Por supuesto, los colores seleccionados se eligen simplemente con fines visuales, y los colores y su orden también podrían ser algo diferente.
El ordenador 31 luego combina el mapa de color de las intensidades de sonido en la imagen tomada con la cámara 34 óptica. Los cálculos y la combinación del mapa de color acústico y la imagen visual se realizan de modo que las fuentes de sonido reales se ajusten a sus ubicaciones dentro de la imagen con la mayor precisión posible. La imagen puede ser una imagen fija tomada con la cámara, o una grabación de video tomada con una cámara de video, o una sola imagen entre la grabación de video. En otras palabras, la adición del mapa de color acústico se puede realizar en una sola imagen fija o en un grupo de imágenes que forman una grabación de video.
La interfaz de entrada/salida se implementa con conectores 35 de E/S, ubicados preferiblemente debajo de una tapa de la carcasa. Los conectores 35 de e/s pueden comprender un conector USB y/o Ethernet para la transferencia de datos externos. Los conectores de E/S también pueden comprender un conector de alimentación externa para conectar una batería externa a la cámara acústica. Esto se puede usar en situaciones en las que, de alguna manera, las baterías internas no están disponibles o su carga está vacía.
La presentación de la imagen combinada se muestra en la pantalla 36a que puede ubicarse directamente en el lado opuesto de la carcasa en relación con el conjunto de micrófonos. Junto con la pantalla 36a tradicional, la interfaz entre el usuario y la cámara acústica requiere medios de entrada, que se denominan aquí como interfaz 37 de usuario. Esto comprende teclas y otros posibles tipos de botones o acoplamientos de deslizamiento o un teclado que puede usarse como un medio de entrada. Alternativamente, la pantalla puede ser una pantalla 36b táctil, permitiendo tanto las opciones de entrada para el usuario como la visualización de la imagen obtenida y/u otra información requerida en la pantalla. Adicionalmente, además de la pantalla 36b táctil, puede haber al menos un botón dedicado o programable o tecla 38 física fijada en la carcasa, por ejemplo, debajo de la pantalla táctil (como se muestra en la Figura 1; teclas 14 físicas).
Alternativamente, la pantalla que muestra los resultados obtenidos por la cámara puede ubicarse en una ubicación externa remota. También en tal caso, la interfaz de usuario puede ubicarse en una ubicación externa, y en un ejemplo, el usuario puede operar la cámara acústica en forma remota a través de una conexión a Internet. En el último caso, la cámara acústica puede ubicarse en una disposición fija o al menos está unida a una estructura o colocada en un pedestal.
La cámara acústica se puede proporcionar con un sensor 39 óptico de distancia. Cuando la cámara acústica se encuentra en la posición de medición con el ángulo de alineación deseado hacia el área circundante o el punto por medir, el sensor 39 óptico de distancia se puede activar. El sensor 39 óptico de distancia puede transmitir un haz de luz, por ejemplo, con un LED y medir el instante de tiempo de la luz reflejada. El sensor 39 óptico de distancia también puede basarse en la transmisión IR y la triangulación. También se puede usar cualquier otro sensor de distancia adecuado.
Las Figuras 4a y 4b ilustran ejemplos lógicos opcionales sobre cómo implementar los pasos de cálculo y análisis para las señales acústicas. Un primer ejemplo de análisis se muestra en la Figura 4a. Al principio, tanto el conjunto de micrófonos como la cámara óptica detectan y recopilan datos acústicos y visuales, respectivamente, en el paso 41. Después de eso, una unidad de cálculo o FPGA realiza una extracción en componentes para la señal acústica recibida de una dirección particular, marcada como “1)”. Después de eso, como paso 2), la FPGA o unidad de cálculo realiza una determinación de clasificación para los resultados obtenidos en el paso 1). Las acciones realizadas por la FPGA o la unidad de cálculo están marcadas con 42. Los resultados obtenidos en la FPGA o la unidad de cálculo se introducen en el ordenador 43. Con respecto a la presentación de los resultados obtenidos en este ejemplo, los resultados se transmiten a una ubicación externa o, como una opción alternativa, se muestran en la interfaz de usuario (IU) del dispositivo, como la pantalla del dispositivo. Además, el resultado de clasificación del paso 2) también se puede guardar en una ubicación externa, o mostrarse en formato de texto en la pantalla de la cámara acústica. La fase de presentar o guardar los resultados está marcada como el paso 44. La característica principal de los pasos de acuerdo con la Figura 4a es que todos los pasos de análisis principales se realizan localmente dentro de la cámara acústica.
La Figura 4b ilustra un segundo ejemplo del posible análisis realizado en la presente invención. Los pasos son los mismos en comparación con la situación en la Figura 4a, pero los pasos 42 y 44 se cambian. Después de recibir la información acústica y visual con los micrófonos y la cámara óptica en el paso 45, la FPGA o unidad de cálculo se configura para extraer meramente la señal acústica de una dirección particular en componentes, como el paso 1). No se realiza ninguna clasificación de los componentes acústicos obtenidos en esta etapa. Sin embargo, la información del componente de sonido se alimenta al ordenador 47, y además, esa información se transmite a una ubicación 48 externa. Con respecto a la clasificación de las señales acústicas, se realiza fuera de la cámara acústica. Puede ser un servidor externo o PC, o cualquier dispositivo externo accesible a través de una conexión a Internet. El resultado de clasificación obtenido externamente se puede obtener, finalmente, por ejemplo, a través de una interfaz de usuario externa como una pantalla de PC o, posiblemente, a través de una aplicación de Internet o una aplicación de teléfono inteligente, por ejemplo. La característica principal de los pasos según la Figura 4b es que los pasos de análisis se dividen entre la cámara acústica y el dispositivo externo detrás de la conexión a Internet.
Una realización práctica sobre cómo se lleva a cabo la clasificación con el uso de una tabla de datos, se ilustra más adelante en la Figura 7. En referencia a las Figuras 4a y 4b, la fase 1) en los pasos 42 y 46, es decir, el paso de extracción de componentes, se puede realizar utilizando una parte de la señal de sonido con ventana de tiempo, análisis Wavelet, cálculos de Cepstrum, utilizando cálculos de FFT (Fast Fourier Transform, “transformada rápida de Fourier”), o utilizando números estadísticos, por ejemplo. Sin embargo, la presente invención también puede aplicar algún otro método adecuado.
La fase 2) en el paso 42 puede implementarse usando redes neuronales artificiales, en una realización de la invención.
La clasificación de los sonidos recibidos puede usarse para dos tipos diferentes de información. Al principio, la porción de ventana de tiempo de la propia señal de sonido extraída de una dirección dada se puede alimentar al bloque de clasificación de sonido que realiza la clasificación. Alternativamente, las señales de sonido extraídas de una dirección dada pueden convertirse en metadatos. Dichos metadatos se definen para comprender cantidades estadísticas que se corresponden con la información de sonido recibida desde una dirección dada y, por lo tanto, requieren menos espacio y ancho de banda para procesarse. Este tipo de metadatos se puede alimentar luego al algoritmo de clasificación.
En relación con lo anterior, en el ejemplo de la Figura 4b, el ordenador puede transmitir la información del componente de sonido a una ubicación externa que puede ser un dispositivo externo. En otras palabras, las señales transmitidas son señales de sonido en tiempo real, o al menos cercanas al tiempo real, teniendo en cuenta los retrasos inevitables que surgen de los componentes del dispositivo.
Alternativamente, se realiza la conversión de la señal de sonido en una pieza de metadatos, y después de ello, el ordenador transmite los metadatos a una ubicación externa.
El algoritmo de clasificación como tal funciona como un proceso cognitivo que aplica datos históricos de sonidos recibidos con anterioridad y los datos de clasificación de esos sonidos. Cuando se recibe cierto sonido distintivo por primera vez, el usuario puede enseñar al dispositivo ingresando la información de clasificación del sonido a través de la interfaz de E/S, en una realización. Por ejemplo, cuando se examina una fuga de gas dentro de una tubería, puede verse como una marca clara en el borde de la tubería en la pantalla de la cámara acústica. El usuario puede clasificar el sonido como cierto tipo de fuga de gas (por ejemplo, una fuga de gas crítica o no crítica). Los posibles tipos de clasificaciones son numerosos, desde dispositivos que funcionan mal o tipos de error en sistemas o máquinas automáticas hasta fugas, por ejemplo, en varias tuberías, neumáticos, cámaras, carcasas, sistemas de aire acondicionado, o generalmente en espacios interiores o costuras de ventanas, etc. Otras opciones de clasificación pueden ser descargas eléctricas, ubicaciones acústicamente débiles dentro de las instalaciones y en estructuras fijas dentro de dichas instalaciones, como espacios de oficinas, bibliotecas, aulas y salas de conciertos, solo por nombrar algunos ejemplos.
En otra realización, la enseñanza se realiza de antemano. En tal caso, el usuario puede usar el dispositivo y la funcionalidad de clasificación sin tener que enseñar al dispositivo en consecuencia al principio.
Al usar la cámara acústica, hay dos situaciones principales; al principio, la cámara acústica puede medir el entorno acústico actual dentro de un determinado espacio, sin ninguna señal de excitación adicional presente cerca de la cámara acústica, como un altavoz como fuente de sonido. De esta manera, la cámara acústica grabará los sonidos naturales del entorno y puede rastrear cualquier sonido que indique un mal funcionamiento de una máquina o una fuga dentro de una tubería. La segunda situación principal es verificar el aislamiento acústico o las propiedades de propagación dentro de un espacio dedicado, y esto no puede realizarse en un entorno completamente silencioso. Esta situación se puede implementar colocando una fuente de sonido dedicada, como un altavoz que emite un volumen y tipo(s) de sonido seleccionados, por ejemplo, detrás de una pared del espacio medido. Al usar la cámara acústica, por ejemplo, en una sala de oficinas y apuntando la cámara acústica a posibles puntos débiles del sitio, como hacia los espacios entre los elementos de la pared u otros lugares no continuos dentro de las paredes, es posible rastrear los puntos débiles de la estructura cuando el altavoz está encendido, por ejemplo, en una sala de oficinas adyacente. Es posible cambiar las propiedades de salida de sonido del altavoz, por ejemplo, seleccionando ruido con contenido de frecuencia específico, como ruido blanco o rosa o ruido filtrado. Alternativamente, el sonido creado por el altavoz puede consistir en una sola frecuencia dada (es decir, un pitido continuo) u otra pieza pregrabada o generada de sonido natural o artificial. Más tarde, la Figura 8 ilustra este escenario en una imagen simplificada.
La Figura 5 ilustra un ejemplo de un posible conjunto de micrófono utilizado en conexión con la cámara acústica. En este ejemplo, se colocan 124 micrófonos en una disposición, que es una disposición ventajosa, pero, por supuesto, no es el único número aplicable de micrófonos ni la única disposición ventajosa en la presente invención. Los micrófonos se pueden ver como pequeños círculos en la sección transversal del dispositivo. Cabe destacar que esta no es la única disposición utilizable para los micrófonos, sino simplemente un ejemplo que presenta una sola opción entre la pluralidad de opciones posibles.
La Figura 6a ilustra una imagen tridimensional de la estructura interna de la cámara acústica, en una realización de la invención. El elemento superior de la Figura es una pantalla LCD. Como ejemplo de su tamaño, se puede usar una pantalla de 5”. Debajo de la pantalla, hay una placa de controlador LCD (que se muestra en negro). Esta placa de controlador se simplifica en la imagen y, por lo tanto, comprende una placa de circuito delgada. La placa del controlador LCD puede incluir componentes adicionales, y esta placa se puede fijar en el dispositivo conectándola a la superficie interna de la carcasa desde sus lados. El siguiente elemento debajo de la placa del controlador LCD es una placa de ordenador integrada (que se muestra con bordes blancos). Debajo de esta placa, hay una placa de alimentación (que se muestra en negro) que proporciona alimentación a diferentes componentes del dispositivo. Justo en el medio, debajo de la placa de alimentación, hay una placa de cámara que comprende la cámara óptica. Hacia la izquierda de la cámara, se coloca una placa FP-GA. El plano más bajo que se muestra en negro es un micrófono PCB. En una realización ventajosa, la forma del micrófono PCB es un triángulo redondeado, o una forma delta redondeada.
La Figura 6b ilustra otra vista de la estructura interna de la cámara acústica, que muestra también los conectores. Se colocan en la parte superior de la placa de ordenador integrada, y esta realización tiene cinco conectores que apuntan a la derecha, pero, por supuesto, el número de conectores puede variar según las necesidades del dispositivo.
La Figura 6c ilustra otra vista de la estructura interna de la cámara acústica. Ahora se muestran mejor otros dos conectores, y ambos se ubican también en la parte superior de la placa de ordenador integrada. El conector de la izquierda es un conector HDMI. El conector en su lado derecho es un conector estéreo estándar de 3,5 mm que se puede ubicar en la superficie exterior de la carcasa y, por lo tanto, se proporciona con cables internos entre los circuitos y la carcasa. Una posible ubicación para el conector estéreo de 3.5 mm se encuentra debajo de la pantalla LCD.
La Figura 7 muestra un ejemplo de una tabla de datos 71 que es utilizada por los medios de clasificación 33b en la clasificación de las señales acústicas recibidas. La tabla de datos 71 se muestra como una tabla de dos columnas. En la columna de la izquierda, los componentes descriptivos de los sonidos se enumeran como “Componente descriptivo A”, “Componente descriptivo B”, y así sucesivamente, con cinco grupos enumerados de combinaciones nombradas como A, B, C, D y E en esta realización. La columna derecha enumera un grupo de razones detrás de varias emisiones acústicas, y estas razones claras forman un ejemplo de varios resultados de clasificación. El motivo puede ser un nombre, un código o un tipo, y la información puede comprender además una información de magnitud o gravedad, por ejemplo, como una magnitud de un flujo de gas. En este ejemplo, los componentes descriptivos A corresponden a una fuga de gas no crítica, B corresponden a una fuga de gas crítica, C corresponden a una descarga eléctrica no crítica, D corresponden a una descarga eléctrica crítica y, finalmente, los componentes descriptivos E corresponden a una voz femenina. La tabla de datos 71 enlaza así los grupos de componentes descriptivos con una razón correspondiente que crea tal emisión acústica. Por ejemplo, cuando se observa que la emisión acústica comprende componentes descriptivos D lo suficientemente bien, o si los componentes descriptivos están más cerca de los componentes D pero más lejos de A, B, C y E, el algoritmo de clasificación determina que la razón de tal emisión acústica es una descarga eléctrica crítica.
La tabla de datos 71 puede comprender inicialmente ninguna o solo algunas clasificaciones diferentes, pero el sistema puede tener capacidades cognitivas para que la tabla de datos se pueda completar durante el uso real de la cámara acústica. Por ejemplo, es posible que, durante un proceso de prueba, la cámara acústica esté configurada para escuchar una fuga de gas real de una tubería, y el resultado se muestre en la pantalla táctil. El usuario puede ingresar el nombre o tipo u otra información de la fuente de sonido a través de la pantalla táctil, y los componentes descriptivos de sonido correspondientes pueden agregarse a la base de datos con la nueva descripción de sonido ingresada. De esta manera, el sistema de clasificación se vuelve cognitivo y obtiene mejores resultados después de cada pieza de datos de clasificación añadida.
En una realización, los medios de clasificación 33b determinan resultados más sofisticados de la parte física examinada o la máquina examinada. Esto significa que el nombre o el código en la tabla de datos 71 puede comprender información sobre la importancia de un error en el funcionamiento del dispositivo, o un parámetro que describa una condición de una máquina o de una parte de una máquina. Por ejemplo, los resultados de la clasificación pueden aparecer como “la condición del rodamiento es promedio (no crítica)”; “ la condición del rodamiento es pobre (crítica)”. En una realización, los medios 33b de clasificación proporcionan una razón y un valor de magnitud relacionado basado en el análisis. El resultado de salida puede ser, por ejemplo, como “un flujo de gas: 1,5 cm3/s”. De esta manera, la cámara acústica actúa como un dispositivo de medición para las magnitudes de un flujo de gas, por ejemplo, a lo largo de una tubería. También se pueden rastrear varias otras características medibles y situaciones de error de esta manera.
Además, un resultado de clasificación crítica puede completarse agregando una señal de alarma (ya sea en el dispositivo o en un dispositivo externo), o un mensaje de alarma en la pantalla de la cámara acústica. Por ejemplo, una señal de alarma en la cámara acústica puede ser creada por una luz LED dedicada, que se enciende cuando se obtiene un resultado acústico clasificado críticamente.
La Figura 8 ilustra el escenario de uso donde se pueden probar las propiedades acústicas de varias estructuras, elementos, componentes, carcasas o instalaciones internas generales. Esto requiere un altavoz 81 externo que se puede colocar, por ejemplo, detrás de una pared en una habitación contigua de un espacio de oficinas. El altavoz 81 podría colocarse dentro de una tubería grande, o dentro de un recipiente sellable, solo por nombrar algunos ejemplos.
Como se describió con anterioridad, el altavoz emite un sonido artificial o natural seleccionado con un volumen y un intervalo de frecuencia seleccionados, y la cámara 10 acústica se usa para medir estas señales acústicas detrás de la estructura física por examinar. Si la estructura medida es una pared interna en la oficina o en las instalaciones de la fábrica, el direccionamiento de la cámara 10 acústica puede moverse a través de las secciones de unión de la pared con otras paredes o techo, para encontrar los posibles puntos débiles de la estructura. De esta manera, es posible rastrear posibles discontinuidades en una estructura, áreas o secciones rotas, e incluso caminos más complejos de propagación de ruido dentro de los edificios, por ejemplo. Una opción para medir las propiedades acústicas dentro de un espacio de oficinas de varias habitaciones es realizar una secuencia de mediciones, donde las mediciones se realizan sobre cada pared interna de una oficina, por ejemplo.
La Figura 9 resume, además, los diversos pasos realizados en el proceso de análisis de sonido de acuerdo con la invención. Al principio, las emisiones acústicas se capturan con el conjunto de micrófonos, en este ejemplo con “n” micrófonos que se muestran en la parte superior izquierda de la ilustración. Las señales de sonido capturadas por los micrófonos se alimentan a la unidad de cálculo que realiza la transformación en “m” señales desde diferentes direcciones. Como se muestra en la Figura, el campo de visión bidimensional se puede dividir en un grupo de subáreas 1,2,..., 9,..., m, donde cada subárea está vinculada con la intensidad de señal acústica obtenida de esa subárea particular. El resultado es un grupo de señales 1, 2, 3,..., m. Estos valores se envían a un bloque de cálculo RMS (media cuadrática) antes de que el resultado se envíe al ordenador.
Además, volviendo al inicio del diagrama de flujo, la cámara acústica comprende una cámara óptica que se muestra aquí como “C”. La imagen tomada o una secuencia de imagen que forma una señal de video también se alimentan al ordenador.
En cambio, o además de las m señales del paso B alimentadas directamente al ordenador, las señales pueden tener una ventana discreta (un ejemplo muestra una ventana por un tiempo de 31,25 ms), antes de que se utilicen en el ordenador. Una alternativa adicional es realizar una operación matemática para las señales en ventana, que da como resultado un grupo de metadatos. Las operaciones correspondientes pueden ser, en una realización, una transformada rápida de Fourier (FFT), una transformada Wavelet o calcular un Cepstrum para las señales. Los metadatos obtenidos se envían al ordenador para continuar.
En una realización, los metadatos se someten, además, a la determinación de clasificación. Se puede realizar en la unidad de cálculo o en el ordenador. Este paso corresponde a la parte 2) en el paso 42 de la Figura 4a, donde la clasificación se realiza en la unidad de cálculo y se envía al ordenador.
El ordenador realiza el siguiente paso de la invención, que es una conversión a un mapa de calor. La información fuente comprende la imagen óptica (o imagen de video) y las m señales de diferentes direcciones obtenidas de la parte “B”. El resultado de la conversión realizada por el ordenador es una imagen combinada del área de la imagen junto con un mapa de color que indica puntos de emisiones acústicas.
Después de los cálculos, cualquier dato obtenido dentro del ordenador, como la imagen combinada del mapa de color, las señales con ventana o sin ventana, los metadatos y/o los resultados de clasificación se pueden enviar para su uso, análisis o presentación posterior al usuario, o para ser guardado en una ubicación externa. Estas acciones se muestran en la Figura 9 al alimentar la imagen combinada y otros datos obtenidos en una interfaz gráfica de usuario (GUI), como en una pantalla táctil de la cámara acústica. Además, los datos obtenidos y la imagen combinada pueden enviarse a una ubicación externa (mostrada aquí como “Nube”) para su uso posterior en un dispositivo externo seleccionado. En una solución opcional, donde la clasificación aún no se ha realizado, se puede realizar en un dispositivo externo, utilizando los datos enviados. En resumen, la visualización de los datos obtenidos y la clasificación de las emisiones acústicas se pueden realizar fuera de la cámara acústica propiamente dicha.
Con respecto a algunas otras características opcionales disponibles para la cámara acústica, el material acústicamente aislante y/o absorbente se puede colocar en la parte superior del micrófono PCB en una realización de la invención. Tal material absorbente, que atenúa adecuadamente los sonidos no deseados, puede ser un material similar a la espuma. El material absorbente puede tener forma de capa y tener un espesor aproximado de entre 1 y 2 cm. Un posible material adecuado para proteger la cámara acústica del ruido de alta frecuencia es el plástico de espuma con celdas abiertas. En una realización de la invención, la capa de material aislante está provista de agujeros pasantes que se ubican en la parte superior de las ubicaciones del micrófono. De esta manera, las señales acústicas directas llegarán a los micrófonos cuando la cámara acústica apunte a la dirección deseada, pero el ruido aislante que llega desde los lados es atenuado por el material aislante. Toda la capa aislante puede estar cubierta, finalmente, por una tela que también protege los agujeros.
La interfaz de usuario representada por la pantalla es preferiblemente una pantalla táctil resistiva 13, 36b. Las teclas físicas pueden comprender un interruptor de encendido/apagado (un interruptor de encendido) y un conjunto de teclas de selección que comprende un botón izquierdo, derecho, arriba y abajo junto con un botón de selección (OK o “ente?’) en el medio. También puede haber otras teclas físicas para otros fines específicos.
Las diferentes entidades físicas de la cámara acústica se colocan en una carcasa. En una realización, la cámara acústica comprende un asa para permitir escenarios de uso manual y de mano libre para el dispositivo. En una realización, la fuente de energía para la cámara acústica, tal como una disposición de batería, se coloca dentro del volumen definido por los bordes exteriores del asa. La disposición de la batería puede comprender una sola batería, o varias unidades de batería conectadas de la manera deseada, utilizando conexiones en serie y/o paralelas.
En otra realización, la cámara acústica con o sin el asa se puede unir a una estructura o vehículo fijo o móvil. Alternativamente, la cámara acústica se puede fijar a un pedestal (como un trípode o un podio) u otro tipo de estructura de base, que se puede colocar en el suelo. De esta manera, la cámara acústica se puede colocar con precisión en una ubicación determinada, y su alineación hacia el objetivo acústico interesante se puede seleccionar y fijar con precisión para las mediciones deseadas.
En una realización, las mediciones de las emisiones acústicas se pueden realizar en forma continua, y en ese caso, la ventana seleccionada se puede realizar en las emisiones acústicas entrantes. Para la medición continua con la cámara acústica, la imagen de video es particularmente útil. En esa situación, la imagen acústica resultante se crea como una imagen de video combinada con un mapa de emisión acústica de color actualizado adecuadamente.
Las áreas de aplicación para la cámara acústica presentada son increíblemente diversas. Se pueden rastrear diferentes tipos de fugas gaseosas o líquidas con la cámara acústica. Los posibles tipos de fugas son fugas de gas o aire a presión en la industria, fugas de gas en hospitales y fugas en aparatos de refrigeración, y fugas en recipientes de agua y otros vehículos. Las fugas de vacío también son rastreables con el dispositivo. Por ejemplo, la cámara acústica presentada puede usarse para rastrear fugas de aire en piezas fabricadas usando el proceso de moldeo por transferencia de resina asistida por vacío (VARTM). Con el método VARTM, la cámara acústica rastreará la ubicación o ubicaciones críticas de las fugas de aire mediante la detección de los sonidos creados por el aire que fluye a través de los puntos de fuga. La cámara acústica es muy útil en estas aplicaciones de seguimiento de fugas porque se puede usar para lograr una imagen completa del entorno completo que se examina, y no solo un lugar donde se espera que se produzca la fuga.
Un área de aplicación está examinando la estanqueidad de varias estructuras, puertas y elementos, tales como carcasas, alojamientos, contenedores, puertas a prueba de fuego, camarotes o cabinas de un vehículo terrestre, marítimo o aéreo, cuartos de almacenamiento, cuartos de refrigeración y otros espacios no presurizados. La cámara acústica puede realizar una prueba de una estructura o producto, por ejemplo, insertando gas a presión o vacío en la carcasa, y midiendo la carcasa desde diferentes lados con la cámara acústica, que luego revela los puntos de fuga en la carcasa (gas que fluye dentro o fuera de la carcasa). Alternativamente, la estanqueidad se puede examinar utilizando un dispositivo de fuente acústica, como un altavoz de ultrasonido. El dispositivo fuente acústico puede colocarse, por ejemplo, en el contenedor, mientras que la cámara acústica se puede colocar fuera del contenedor. Esto revela los lugares con fugas dentro de la estructura examinada. Un ejemplo adicional para verificar la estanqueidad de una tubería, por ejemplo, es colocar el altavoz dentro de la tubería, mientras que la cámara acústica se coloca fuera de la tubería para medir las posibles fugas acústicas y sus posiciones en la superficie exterior de la tubería.
Un área de aplicación está examinando el entorno acústico en espacios de oficina, hogares privados, lugares culturales como salas de conciertos y similares. Un altavoz funciona como fuente de sonido, mientras que la cámara acústica se puede utilizar para investigar rutas de transmisión de sonido, por ejemplo localizando reflejos.
La siguiente área de aplicación son varias líneas de alto voltaje donde pueden ocurrir diferentes situaciones de falla tales como fallas eléctricas debido a un aislamiento insuficiente. Tal avería eléctrica a menudo crea un rango audible y señales de ultrasonido que pueden rastrearse con la cámara acústica. Generalmente, se pueden examinar diversas conexiones, dispositivos o partes de un sistema eléctrico en este sentido. La cámara acústica muestra la imagen completa de todo el sistema, revelando ubicaciones en las que, por ejemplo, el material aislante no es suficiente y, por lo tanto, se produce una falla eléctrica.
Un área de aplicación está utilizando la cámara acústica para revelar pequeñas fugas en los neumáticos del vehículo. Esto puede extenderse a otras partes de los servicios de mantenimiento del vehículo, como revelar fugas en los sistemas de aire acondicionado, verificar la estanqueidad de las ventanas y los tubos de escape de un vehículo.
Un área de aplicación para la cámara acústica la está utilizando en varios sitios de construcción para ubicar partes de estructuras que aíslan mal el sonido. El dispositivo también se puede usar para verificar la calidad en todas las costuras y juntas de construcción, y también las características acústicas de los agujeros pasantes y el uso de las medidas para encontrar posibles grietas en las estructuras. La inspección de calidad que comprende el monitoreo durante el proyecto de construcción se puede realizar con el dispositivo, y después de la construcción real, el dispositivo se puede usar para rastrear ubicaciones problemáticas con respecto al aislamiento acústico. Se pueden verificar acústicamente varios tipos de edificios, que comprenden edificios de varios pisos, escuelas, bibliotecas públicas, salas de conciertos, locales de oficinas, solo por nombrar algunos ejemplos. Varios comercios y, por ejemplo, las autoridades municipales pueden aprovechar el uso del dispositivo para este tipo de aplicaciones.
Un área de aplicación está utilizando el dispositivo en proyectos de I D para revelar la fuente principal de ruido para varios dispositivos, máquinas, vehículos u otros productos. La fuente principal de ruido puede indicar una ubicación de una conexión errónea entre las partes o un mal funcionamiento en la operación del dispositivo. Por lo tanto, la cámara acústica se puede utilizar para desarrollar un producto o máquina con una calidad u operabilidad mejoradas.
Como ya se mencionó con anterioridad, un área de aplicación importante es la reducción de ruido, por ejemplo, para elementos constructivos de un edificio, o en una máquina utilizada en la industria. Por ejemplo, los cojinetes de un motor pueden emitir un sonido anormal debido al desgaste. En ese sentido, la cámara acústica es una herramienta útil en acciones de mantenimiento de diversos procesos industriales.
Un área de aplicación adicional está formada por varios propósitos de seguridad y monitoreo, donde la cámara acústica puede monitorear un espacio, callejón o puerta para intrusos no autorizados, por ejemplo, en almacenes, fábricas, oficinas y viviendas particulares, por ejemplo. En general, la cámara acústica se puede utilizar como una herramienta de visualización de sonidos, por ejemplo, uso educativo y militar, y tales visualizaciones también pueden ser utilizadas por diversas empresas y autoridades públicas, como ya se discutió con anterioridad. Además, con respecto a la posibilidad de uso militar y también situaciones de entrenamiento en el ejército, otra aplicación sería usar la cámara acústica en conexión con un arma de fuego. Por ejemplo, la cámara acústica, con su pantalla, se puede fijar a un arma de fuego, por ejemplo, hacia el borde exterior de su cañón de manera que la pantalla sea visible para el portador del arma de fuego. La pantalla también se puede colocar más cerca del usuario. La cámara acústica puede actuar como una herramienta de seguimiento para varios sonidos ambientales. El usuario de armas de fuego puede combinar el dispositivo con medios de protección auditiva, como protectores auditivos, para enfocar la atención en los sonidos de la cámara. Además, la cámara acústica fijada al arma de fuego puede actuar como una herramienta para rastrear incluso sonidos que se originan en lugares distantes o sin visibilidad directa. Un ejemplo para tal uso militar o una sesión de entrenamiento relacionada sería ayudar al usuario a rastrear los sonidos que se originan detrás de una pared o detrás de una esquina de una manzana. La invención también es adecuada para aplicarse con armas de fuego destinadas a la caza. Además, las áreas de aplicación se extienden al uso de juegos y entretenimiento, como conectar la cámara acústica a un arma de bolas de tinta, por ejemplo. Por supuesto, la cámara acústica puede actuar como una herramienta independiente en el uso de juegos o entretenimiento, o puede conectarse a algún otro dispositivo, herramienta o elemento, que no sean solo armas. Un ejemplo es un juego de búsqueda de tesoros para un grupo de jugadores, donde el dispositivo que lleva cada jugador puede comprender una funcionalidad GPS y una funcionalidad de cámara acústica de acuerdo con la invención.
La principal ventaja de la invención es que permite tomar una imagen acústica de un área más grande desde una dirección seleccionada y, por lo tanto, obtiene una vista completa de varias fuentes de sonido potenciales a la vez. Debido a que el dispositivo es preferiblemente un dispositivo portátil, es altamente manejable en espacios pequeños y en posiciones difíciles. Como el número de micrófonos es alto y los algoritmos de cálculo utilizados son eficientes, la información direccional de las fuentes de sonido es muy precisa. El dispositivo ofrece buenas posibilidades de conexión externa. Además, el dispositivo tiene acceso a Internet, y servicios y herramientas de análisis disponibles en una ubicación externa.
La forma triangular redondeada del dispositivo tiene la ventaja de que los sonidos que emergen de la dirección del usuario (detrás de la parte posterior del usuario humano que apunta la cámara acústica directamente en frente de él/ella) se eliminan bien, y el foco permanece en las fuentes de sonido presentes en frente de la cámara acústica. En comparación con el documento de la técnica anterior “Benoit”, la presente invención puede construirse en una carcasa más compacta porque la digitalización de las señales de sonido debe ser realizada por un convertidor A/D separado, mientras que, en la presente invención, esto se realiza directamente a través de micrófonos MEMS. En comparación con el documento de la técnica anterior “Kim”, la disposición del micrófono en Kim se define de manera muy específica, mientras que, en la presente invención, la disposición no aplica ninguna estructura de tipo rama. Además, Kim requiere más espacio en la carcasa del dispositivo que la presente invención, debido a un convertidor A/D separado. El documento Kim también tiene una interfaz de usuario separada (una laptop) que resulta en un uso más complejo del sistema porque contiene muchas partes operativas distintas. Además, Kim toma la energía de la red eléctrica de la fuente de alimentación y, por lo tanto, ninguna batería interna forma parte del dispositivo. Esto da como resultado que Kim es un sistema menos móvil, mientras que la presente invención es un sistema totalmente móvil. Además, el rango de frecuencia en la presente invención no es tan limitado como en la técnica anterior, donde la técnica anterior solo aplica frecuencias por debajo de 20 kHz. Además, la resolución y precisión de la imagen acústica es claramente mejor en la presente invención en comparación con las soluciones con solo ocho micrófonos. Una clara ventaja es la presencia de clasificación de sonidos. Proporciona información directa de la fuente de los sonidos, que el oído humano no puede escuchar fácilmente. Esta característica hace que la cámara acústica sea fácilmente utilizable por cualquier usuario, sin una amplia capacitación para el uso del dispositivo. Al encontrar varios componentes y piezas erróneos, la cámara acústica puede resolver directamente el problema e indicar la razón detrás, por ejemplo, un mal funcionamiento de una máquina.
La presente invención no se limita simplemente a los ejemplos presentados con anterioridad, sino que la invención puede variar dentro del alcance de las reivindicaciones.

Claims (14)

REIVINDICACIONES
1. Una cámara (10) acústica, que comprende:
- una carcasa (15);
- un conjunto (32) de micrófonos configurados para recopilar información de sonido acústico y para convertir la información de sonido acústico en señales de sonido analógicas o digitales;
- medios (33a) de procesamiento configurados para dividir las señales de sonido en componentes descriptivos y para determinar los niveles de sonido en una pluralidad de direcciones en un campo de visión de la cámara acústica, - los medios (33a) de procesamiento configurados para convertir los niveles de sonido determinados en un mapa de color con diferentes colores que visualizan diferentes niveles de sonido;
- una cámara (34) óptica configurada para tomar una imagen o video del campo de visión, los medios (33a) de procesamiento configurados para combinar el mapa de color con la imagen o video tomados, ilustrando así las emisiones acústicas como una imagen combinada del campo de vista de la cámara acústica, y en donde
- el conjunto (32) de micrófonos, los medios (33a) de procesamiento y la cámara (34) óptica están integrados en la carcasa (15);
- un medio (33b) de clasificación configurado para determinar al menos un resultado de clasificación para los componentes descriptivos, en el que
- la clasificación se realiza utilizando una tabla (71) de datos, que comprende datos de los componentes descriptivos y al menos un nombre o código correspondiente que describe la fuente o la razón del al menos un sonido en la información acústica recopilada; la cámara acústica caracterizada porque dicha tabla (71) de datos puede ser actualizada cognitivamente por el usuario, y porque
- la sección transversal de la cámara (10) acústica tiene la forma de un triángulo con esquinas redondeadas, donde la sección transversal es paralela al plano del conjunto (32) de micrófonos.
2. La cámara acústica de acuerdo con la reivindicación 1, caracterizada porque los componentes descriptivos y los niveles de sonido determinados se convierten en metadatos.
3. La cámara acústica de acuerdo con la reivindicación 2, caracterizada porque las señales de sonido y/o los metadatos están configurados para ser transmitidos a un dispositivo externo, en el que la clasificación está configurada para determinarse.
4. La cámara acústica de acuerdo con la reivindicación 1, caracterizada porque el conjunto (32) de micrófonos está ubicado en una disposición plana, o en una disposición en forma de cilindro, o en una disposición semiesférica.
5. La cámara acústica de acuerdo con la reivindicación 1, caracterizada porque el nombre o el código comprende información sobre la importancia de un error en el funcionamiento del dispositivo bajo prueba o del dispositivo por analizar o de un equipo bajo prueba, o un parámetro que describe una condición de una máquina o de una parte de una máquina.
6. La cámara acústica de acuerdo con la reivindicación 1, caracterizada porque la tabla (71) de datos está configurada para rellenarse a través de un proceso cognitivo donde las fuentes de sonido conocidas dan como resultado ciertas características de los componentes descriptivos, ya sea inicialmente o durante el uso de la cámara acústica con fuentes de ruido conocidas.
7. La cámara acústica de acuerdo con cualquiera de las reivindicaciones 1-6, caracterizada porque la cámara acústica comprende un medio de alarma configurado para activar una alarma visual o sonora, ya sea en la cámara acústica o en un dispositivo externo en caso de que la clasificación de los componentes descriptivos sea crítica, que comprende una fuga de gas, una descarga eléctrica o un mal funcionamiento en un dispositivo, máquina, vehículo o sistema bajo prueba.
8. La cámara acústica de acuerdo con cualquiera de las reivindicaciones 1-7, caracterizada porque una capa de material acústicamente aislante se coloca en la parte superior del conjunto (32) de micrófonos para atenuar el ruido acústico proveniente de los lados del conjunto (32) de micrófonos.
9. Un método para medir, procesar y visualizar señales acústicas, en el que el método comprende los pasos de:
- recopilar información de sonido acústico mediante una cámara (10) acústica que comprende un conjunto (32) de micrófonos;
- convertir la información de sonido acústico en señales de sonido analógicas o digitales;
- dividir las señales de sonido en componentes descriptivos y determinar los niveles de sonido en una pluralidad de direcciones en un campo de visión de dicha cámara (10) acústica;
- convertir los niveles de sonido determinados en un mapa de color con diferentes colores que visualizan diferentes niveles de sonido;
- tomar una imagen o video del campo de visión con una cámara (34) óptica;
- combinar el mapa de color con la imagen o video capturados, ilustrando así las emisiones acústicas como una imagen combinada del campo de visión de la cámara (10) acústica;
- determinar al menos un resultado de clasificación para los componentes descriptivos; y
- realizar la clasificación utilizando una tabla (71) de datos, que comprende datos de los componentes descriptivos y al menos un nombre o código correspondiente que describe la fuente o razón del al menos un sonido en la información acústica recopilada;
estando el método caracterizado porque dicha tabla (71) de datos puede ser actualizada cognitivamente por el usuario, y porque la sección transversal de la cámara (10) acústica está conformada en forma de un triángulo con esquinas redondeadas, donde la sección transversal es paralelo al plano del conjunto (32) de micrófonos.
10. El método de acuerdo con la reivindicación 9, caracterizado porque el método comprende, además, el paso de: - determinar un ángulo de una fuente acústica en relación con el conjunto (32) de micrófonos comparando los tiempos de recepción y/o fases de la información de sonido acústico entrante entre los micrófonos.
11. El método de acuerdo con cualquiera de las reivindicaciones 9-10, caracterizado porque el método comprende, además, el paso de permitir que el usuario elija un intervalo de frecuencia de interés configurando la frecuencia de corte de filtrado para la información de sonido acústico recopilada.
12. El método de acuerdo con cualquiera de las reivindicaciones 9-11, caracterizado porque el método comprende, además, los pasos de colocar un altavoz (81) externo en un espacio, y colocar la cámara (10) acústica detrás de una estructura medida a la vista del altavoz.
13. El método de acuerdo con la reivindicación 9, caracterizado porque el método comprende, además, el paso de llenar la tabla (71) de datos a través de un proceso cognitivo donde las fuentes de sonido conocidas dan como resultado ciertas características de los componentes descriptivos, ya sea inicialmente o durante el uso de la cámara (10) acústica con fuentes de ruido conocidas.
14. El método de acuerdo con la reivindicación 9 o 13, caracterizado porque el método comprende, además, los pasos de convertir los componentes descriptivos y niveles de sonido determinados en metadatos, y transmitir las señales de sonido y/o metadatos a un dispositivo externo, en el que la clasificación está configurada para ser determinada.
ES17778324T 2016-09-22 2017-09-07 Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos Active ES2811481T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI20165713A FI129137B (en) 2016-09-22 2016-09-22 ACOUSTIC CAMERA AND METHOD FOR DETECTING ACOUSTIC EMISSIONS FROM VARIOUS LOCATIONS AND EQUIPMENT
PCT/FI2017/050631 WO2018055232A1 (en) 2016-09-22 2017-09-07 An acoustic camera and a method for revealing acoustic emissions from various locations and devices

Publications (1)

Publication Number Publication Date
ES2811481T3 true ES2811481T3 (es) 2021-03-12

Family

ID=60009655

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17778324T Active ES2811481T3 (es) 2016-09-22 2017-09-07 Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos

Country Status (6)

Country Link
US (1) US10587970B2 (es)
EP (1) EP3516350B1 (es)
CN (1) CN109863375B (es)
ES (1) ES2811481T3 (es)
FI (1) FI129137B (es)
WO (1) WO2018055232A1 (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10609475B2 (en) 2014-12-05 2020-03-31 Stages Llc Active noise control and customized audio system
US10945080B2 (en) 2016-11-18 2021-03-09 Stages Llc Audio analysis and processing system
US10616453B2 (en) * 2017-01-11 2020-04-07 Nokia Technologies Oy Audio and visual system including a mask functioning for a camera module and an audio transducer module
US11209306B2 (en) 2017-11-02 2021-12-28 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
US11099075B2 (en) 2017-11-02 2021-08-24 Fluke Corporation Focus and/or parallax adjustment in acoustic imaging using distance information
JP7493491B2 (ja) * 2018-07-24 2024-05-31 フルークコーポレイション 標的シーンからの音響シグネチャを表すためのシステムおよび方法
US20210166659A1 (en) * 2018-08-24 2021-06-03 Maxell, Ltd. Head-up display device
EP3891477A2 (en) * 2018-12-03 2021-10-13 Sonelite Inc. Multi-wavefield flow sensing devices and related methods
CN113439447A (zh) * 2018-12-24 2021-09-24 Dts公司 使用深度学习图像分析的房间声学仿真
US11549792B2 (en) * 2019-02-15 2023-01-10 Marc R. Hogan Detachable tracking device for a hunting arrow
WO2020231886A2 (en) * 2019-05-10 2020-11-19 Jenkinson Glenn M Multifunctional device for use in augmented/virtual/mixed reality, law enforcement, medical, military, self defense, industrial, and other applications
CN110159930B (zh) * 2019-05-14 2024-05-17 深圳市勘察研究院有限公司 地下综合管廊检测的无人机及其系统
EP4042181A4 (en) * 2019-10-01 2023-11-15 Prosaris Solutions ULTRASONIC DETECTOR
FI20215099A1 (en) 2020-02-13 2021-08-14 Noiseless Acoustics Oy CALIBRATOR FOR ACOUSTIC CAMERAS AND OTHER SIMILAR APPLICATIONS
CN111707356B (zh) * 2020-06-24 2022-02-11 国网山东省电力公司电力科学研究院 用于无人机的噪声检测系统和无人机
CN112351232B (zh) * 2020-09-08 2023-10-13 莆田学院 一种多功能随堂录播装置及其录播方法
US11428599B2 (en) * 2020-10-14 2022-08-30 Distran Ag Method and apparatus for testing tightness of an enclosure
EP4264958A1 (en) * 2020-12-18 2023-10-25 Sorama Holding B.V. Integrated housing and passive cooling for an acoustic camera
CN112763058A (zh) * 2021-01-07 2021-05-07 国网河南省电力公司电力科学研究院 一种自定义坐标阵列噪声信号实时数据分析系统及方法
TWI783344B (zh) * 2021-01-11 2022-11-11 圓展科技股份有限公司 聲源追蹤系統及其方法
EP4047341A1 (en) * 2021-02-19 2022-08-24 Universiteit Antwerpen Detection of gas leaks from pressurized containers
CN113591876B (zh) * 2021-06-25 2023-08-08 东莞市鑫泰仪器仪表有限公司 一种三维全声波异常检测成像方法及装置
CN113567064B (zh) * 2021-08-03 2024-04-19 河北邯峰发电有限责任公司 一种声学成像仪检测方法
EP4145100A1 (en) 2021-09-05 2023-03-08 Distran Ltd Acoustic detection device and system with regions of interest
GB2611529A (en) 2021-10-05 2023-04-12 Mumbli Ltd A hearing wellness monitoring system and method
WO2023068856A1 (ko) * 2021-10-21 2023-04-27 (주)에스엠인스트루먼트 방폭 수단 또는 방수 수단이 구비된 음향 카메라
CN114563141B (zh) * 2022-02-25 2023-05-26 中国建筑标准设计研究院有限公司 一种门类密闭性能及其漏点位置的主动式检测方法
WO2024028784A1 (en) * 2022-08-04 2024-02-08 Magicmotorsport S.r.l. Diagnosis system for vehicle components

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL9201787A (nl) * 1992-10-14 1994-05-02 Jacobus Lambertus Van Merkstei Lokalisatie van storingen.
DE10304215A1 (de) * 2003-01-30 2004-08-19 Gesellschaft zur Förderung angewandter Informatik eV Verfahren und Vorrichtung zur bildgebenden Darstellung von akustischen Objekten sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium
NO318096B1 (no) * 2003-05-08 2005-01-31 Tandberg Telecom As Arrangement og fremgangsmate for lokalisering av lydkilde
AU2007221976B2 (en) * 2006-10-19 2009-12-24 Polycom, Inc. Ultrasonic camera tracking system and associated methods
KR100838239B1 (ko) * 2007-04-17 2008-06-17 (주)에스엠인스트루먼트 음질 표시 장치, 음질 표시 방법, 음질 표시 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
WO2011130673A2 (en) * 2010-04-16 2011-10-20 U.E. Systems, Inc. An ultrasonically controllable grease dispensing tool
CN101860776B (zh) * 2010-05-07 2013-08-21 中国科学院声学研究所 一种平面螺旋形传声器阵列
CN101865789B (zh) * 2010-06-30 2012-03-21 上海交通大学 近场声全息声像模式识别故障检测装置及其检测方法
KR101285391B1 (ko) 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법
GB201016352D0 (en) 2010-09-29 2010-11-10 Secr Defence Integrated audio visual acoustic detection
KR101213540B1 (ko) 2011-08-18 2012-12-18 (주)에스엠인스트루먼트 멤스 마이크로폰 어레이를 이용한 음향감지 장치 및 음향카메라
US8867891B2 (en) 2011-10-10 2014-10-21 Intellectual Ventures Fund 83 Llc Video concept classification using audio-visual grouplets
KR101213539B1 (ko) * 2012-09-03 2012-12-18 (주)에스엠인스트루먼트 멤스 마이크로폰 어레이를 이용한 음향감지 장치 및 음향카메라
CN102879080B (zh) * 2012-09-11 2014-10-15 上海交通大学 基于图像识别定位和声学传感器阵列测量的声场分析方法
CN103227971B (zh) * 2013-01-08 2014-10-29 中科声相(天津)科技有限公司 一种双向螺旋分布的多模式立体传声器阵列
FR3000862B1 (fr) 2013-01-08 2015-01-09 ACB Engineering Dispositifs passifs d'acquisition acoustique large bande et systemes passifs d'imagerie acoustique large bande.
EP3012650B1 (en) * 2013-06-21 2021-06-09 SM Instruments Co., Ltd. Mobile acoustic source tracking sensor and manufacturing method
FR3018023B1 (fr) * 2014-02-25 2017-07-07 Micro Db Dispositif d’identification de sources acoustiques
US9646227B2 (en) 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
DE102014217598A1 (de) * 2014-09-03 2016-03-03 Gesellschaft zur Förderung angewandter Informatik e.V. Verfahren und Anordnung zur Erfassung von akustischen und optischen Informationen sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
EP3001162A1 (de) * 2014-09-27 2016-03-30 CAE Software & Systems GmbH Schallquellenvisualisierungssystem und Umwandlungseinheit
US9736580B2 (en) 2015-03-19 2017-08-15 Intel Corporation Acoustic camera based audio visual scene analysis
JP5979458B1 (ja) * 2015-11-06 2016-08-24 パナソニックIpマネジメント株式会社 無人飛行体検知システム及び無人飛行体検知方法

Also Published As

Publication number Publication date
EP3516350A1 (en) 2019-07-31
EP3516350B1 (en) 2020-06-24
CN109863375B (zh) 2021-01-22
US10587970B2 (en) 2020-03-10
FI20165713A (fi) 2018-03-23
WO2018055232A1 (en) 2018-03-29
CN109863375A (zh) 2019-06-07
FI129137B (en) 2021-08-13
US20190261108A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
ES2811481T3 (es) Una cámara acústica y un método para revelar emisiones acústicas de varios lugares y dispositivos
US10771692B2 (en) Imaging systems and methods
ES2656868T3 (es) Dispositivo portátil, sistema y método de realidad virtual
KR101813443B1 (ko) 초음파 룸 맵핑을 이용한 초음파 스피커 어셈블리
US9854371B2 (en) Information processing system, apparatus and method for measuring a head-related transfer function
ES2463395T3 (es) Aparato y procedimiento para medir una pluralidad de altavoces y arreglo de micrófono
CN108139461A (zh) 超声波气体泄漏定位系统和方法
CN112703375A (zh) 用于投射和显示声学数据的系统和方法
US8594338B2 (en) Display apparatus
JP2018535410A (ja) 3次元空間検出システム、測位方法及びシステム
US10830884B2 (en) Manipulation of 3-D RF imagery and on-wall marking of detected structure
US20110248847A1 (en) Mobile asset location in structure
US20160043771A1 (en) Wafer scale. ultra-wide band (uwb) radiometer with sensor probe for disaster victim rescue
ES2625729T3 (es) Sistema y método de medición estereoscópica
CN106028999A (zh) 手术系统和医疗器具的干涉避免方法
WO2022081247A2 (en) Through-wall radar sensors networked together to create 2d and 3d combined views of an area
WO2017189689A1 (en) Rf in-wall image visualization
WO2017189687A1 (en) Optical image capture with position registration and rf in-wall composite image
US10571591B2 (en) RF in-wall image registration using optically-sensed markers
KR102193975B1 (ko) 실내공간 실시간 확인이 가능한 클라우드 이용 3d 실내공간 서비스 방법 및 시스템
JP2022514464A (ja) レーダーオーバーレイをもつ熱ディスプレイ
US20230052098A1 (en) Calibrator for acoustic cameras and other related applications
TWI682189B (zh) 座標感測裝置及感測方法
KR20230116134A (ko) 무인 비행 기반 이상 소음 탐지 장치
WO2014195527A9 (es) Procedimiento de monitorización mediante realidad aumentada de fenómenos acústicos en microfonía y/o en fuentes de sonido y sistema de elementos que lo desarrollan