ES2898717T3 - Sistemas, métodos, aparatos, y medios legibles por ordenador para un aumento de audio espacialmente selectivo - Google Patents
Sistemas, métodos, aparatos, y medios legibles por ordenador para un aumento de audio espacialmente selectivo Download PDFInfo
- Publication number
- ES2898717T3 ES2898717T3 ES12716739T ES12716739T ES2898717T3 ES 2898717 T3 ES2898717 T3 ES 2898717T3 ES 12716739 T ES12716739 T ES 12716739T ES 12716739 T ES12716739 T ES 12716739T ES 2898717 T3 ES2898717 T3 ES 2898717T3
- Authority
- ES
- Spain
- Prior art keywords
- signal
- component
- source component
- processing
- produce
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000003416 augmentation Effects 0.000 title description 24
- 238000012545 processing Methods 0.000 claims abstract description 112
- 230000003190 augmentative effect Effects 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 13
- 101000718497 Homo sapiens Protein AF-10 Proteins 0.000 claims description 22
- 102100026286 Protein AF-10 Human genes 0.000 claims description 22
- 230000001965 increasing effect Effects 0.000 claims description 11
- 210000000613 ear canal Anatomy 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 15
- 238000003491 array Methods 0.000 description 12
- 238000001914 filtration Methods 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 10
- 238000013519 translation Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 102100024522 Bladder cancer-associated protein Human genes 0.000 description 8
- 101150110835 Blcap gene Proteins 0.000 description 8
- 101100493740 Oryza sativa subsp. japonica BC10 gene Proteins 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 101001128431 Homo sapiens Myeloid-derived growth factor Proteins 0.000 description 7
- 102100031789 Myeloid-derived growth factor Human genes 0.000 description 7
- 239000011664 nicotinic acid Substances 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 101000666657 Homo sapiens Rho-related GTP-binding protein RhoQ Proteins 0.000 description 5
- 102100038339 Rho-related GTP-binding protein RhoQ Human genes 0.000 description 5
- 230000003321 amplification Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000005534 acoustic noise Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 101000656751 Haloarcula marismortui (strain ATCC 43049 / DSM 3752 / JCM 8966 / VKM B-1809) 30S ribosomal protein S24e Proteins 0.000 description 2
- 101100401568 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) MIC10 gene Proteins 0.000 description 2
- 101100421708 Schistosoma mansoni SM20 gene Proteins 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000017060 Arachis glabrata Nutrition 0.000 description 1
- 235000010777 Arachis hypogaea Nutrition 0.000 description 1
- 244000105624 Arachis hypogaea Species 0.000 description 1
- 235000018262 Arachis monticola Nutrition 0.000 description 1
- 102100022005 B-lymphocyte antigen CD20 Human genes 0.000 description 1
- 101150013553 CD40 gene Proteins 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 101000897405 Homo sapiens B-lymphocyte antigen CD20 Proteins 0.000 description 1
- 101000851376 Homo sapiens Tumor necrosis factor receptor superfamily member 8 Proteins 0.000 description 1
- 241000712899 Lymphocytic choriomeningitis mammarenavirus Species 0.000 description 1
- 102000003729 Neprilysin Human genes 0.000 description 1
- 108090000028 Neprilysin Proteins 0.000 description 1
- 102100040245 Tumor necrosis factor receptor superfamily member 5 Human genes 0.000 description 1
- 102100036857 Tumor necrosis factor receptor superfamily member 8 Human genes 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000007844 bleaching agent Substances 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 235000020232 peanut Nutrition 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000005336 safety glass Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- -1 sunglasses Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1781—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
- G10K11/17821—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
- G10K11/17823—Reference signals, e.g. ambient acoustic environment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1783—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
- G10K11/17837—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by retaining part of the ambient acoustic environment, e.g. speech or alarm signals that the user needs to hear
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
- G10K11/17853—Methods, e.g. algorithms; Devices of the filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
- G10K11/17853—Methods, e.g. algorithms; Devices of the filter
- G10K11/17854—Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
- G10K11/17857—Geometric disposition, e.g. placement of microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1787—General system configurations
- G10K11/17879—General system configurations using both a reference signal and an error signal
- G10K11/17881—General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1083—Reduction of ambient noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/01—Hearing devices using active noise cancellation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Otolaryngology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Neurosurgery (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Circuit For Audible Band Transducer (AREA)
- Headphones And Earphones (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Un método (M100) para procesar una señal multicanal que incluye un primer canal de entrada de audio y un segundo canal de entrada de audio, comprendiendo dicho método: realizar (T100) una operación de cancelación activa de ruido en el primer canal de entrada de audio para producir una señal antirruido; procesar (T200) la señal multicanal para obtener un componente fuente, incluyendo dicho procesamiento realizar una operación de procesamiento espacialmente selectiva en la señal multicanal para separar el componente fuente de un componente de fondo; procesar (T300) el componente fuente separado obtenido para producir un componente objetivo: producir una señal aumentada del componente objetivo, en donde la señal aumentada es una señal estéreo que proporciona una dirección de llegada percibida correspondiente a una dirección de llegada asociada con el componente fuente separado obtenido, en donde la dirección de llegada asociada con el componente fuente separado obtenido se determina a partir del primer canal de entrada de audio y el segundo canal de entrada de audio; y combinar (T400) la señal antirruido y la señal aumentada para producir una señal de salida de audio.
Description
DESCRIPCIÓN
Sistemas, métodos, aparatos, y medios legibles por ordenador para un aumento de audio espacialmente selectivo Antecedentes
Campo
Esta descripción se refiere al procesamiento de señales de audio.
Antecedentes
El término “realidad aumentada” (o AR) se refiere al aumento de un entorno percibido mediante información sensorial generada por ordenador. Por el contrario, el término “realidad virtual” se refiere a la sustitución del entorno real por un entorno simulado.
Se ha demostrado ampliamente el aumento visual de la realidad. En una aplicación de vídeo, es relativamente fácil reemplazar un elemento original del entorno con un elemento aumentado correspondiente simplemente aplicando el elemento aumentado como una superposición opaca para cubrir el elemento original. Un ejemplo de realidad visual aumentada es la línea amarilla “first down" generada por ordenador que ahora es una característica común de las transmisiones de partidos de fútbol. La publicación de patente US2010/0296668 A1 divulga métodos y dispositivos para el control automático de la cancelación activa de ruido, donde la señal de referencia de ruido es una señal multicanal y el filtro de cancelación activa de ruido está configurado para realizar una operación de procesamiento direccionalmente selectivo (por ejemplo, para atenuar el sonido de la dirección de la boca del usuario). Esto permite que los componentes útiles de la señal de salida de audio permanezcan fácilmente inteligibles cuando los escucha un usuario.
Resumen
La invención se define en las reivindicaciones independientes adjuntas.
Las características opcionales se definen en las reivindicaciones dependientes.
Breve descripción de los dibujos
La Figura 1A muestra un diagrama de flujo de un método M100 de acuerdo con una configuración general.
La Figura 1B muestra una vista superior del uso de casco auricular HS10 en la oreja derecha de un usuario.
Las Figuras 2A a 2D muestran diversas vistas de un casco auricular HS10 inalámbrico.
Las Figuras 3A a 3D muestran diversas vistas de un dispositivo HS20 de detección de audio portátil con diversos micrófonos.
Las Figuras 4A a 5C muestran secciones transversales horizontales de implementaciones ECR10, ECR20, ECR30, ECR40, ECR50 y ECR60 del lado derecho, respectivamente, de audífonos.
Las Figuras 6A y 6B muestran vistas superior y frontal, respectivamente, de un caso de uso típico de un par de auriculares.
La Figura 7A muestra un diagrama de bloques de un aparato A100 de acuerdo con una configuración general. La Figura 7B muestra un ejemplo de una división de elementos del aparato A100 entre un dispositivo ANC montado en la cabeza y un dispositivo PD10 de procesamiento.
La Figura 8A muestra un diagrama de bloques de una disposición que incluye una etapa AP10 de preprocesamiento de audio.
Las Figuras 8B y 8C muestran diagramas de bloques de disposiciones que incluyen una implementación AP20 de la etapa AP10 de preprocesamiento de audio.
La Figura 9A muestra un ejemplo de la izquierda de un auricular EB10.
La Figura 9B muestra un diagrama de bloques de una implementación A200 del aparato A100.
La Figura 10A muestra una vista lateral de un ejemplo de la izquierda de un auricular EB20.
La Figura 10B muestra una vista frontal de un ejemplo de auricular EB30.
La Figura 10C muestra un caso de uso de auriculares que llevan micrófonos ML10 y MR10.
La Figura 11 muestra un diagrama de bloques de una implementación A210 del aparato A200.
Las Figuras 12A-12E muestran ejemplos adicionales de dispositivos que pueden usarse para transportar micrófonos y/o un altavoz como se describe en el presente documento.
La Figura 13A muestra un diagrama de bloques de una implementación AR20 del módulo AR10.
La Figura 13B muestra un diagrama de bloques de una implementación AM20 del módulo AM10 de aumento.
La Figura 13C muestra un diagrama de bloques de una implementación SM20 del módulo SSP SM10.
La Figura 14A muestra un ejemplo de selección de uno deseado entre tres sectores espaciales.
La Figura 14B muestra un ejemplo de selección de uno deseado entre cinco sectores espaciales.
La Figura 14C muestra un diagrama de bloques de una implementación A200 del aparato A210.
La Figura 15 muestra una vista superior de un ejemplo de múltiples sectores espaciales seleccionables.
Las Figuras 16A y 16B muestran un ejemplo en el cual el esquema propuesto se usa para soportar una aplicación de “oído biónico”.
La Figura 17A muestra un ejemplo de un patrón espacial de ganancia de sonido percibida para un usuario A con oídos descubiertos.
La Figura 17B muestra un ejemplo de un patrón espacial de ganancia de sonido percibida para un usuario A.
La Figura 18A muestra un ejemplo de un patrón espacial de ganancia de audio percibida para un componente fuente separado.
La Figura 18B muestra un ejemplo de un patrón espacial de ganancia de audio percibida para un componente objetivo.
La Figura 19 muestra un ejemplo de un patrón espacial de ganancia de sonido percibida para un usuario A.
Las Figuras 20A y 20B muestran un ejemplo en el cual el esquema propuesto se usa para soportar la traducción de voz en vivo.
Las Figuras 21-24 muestran ejemplos de patrones espaciales de ganancia de sonido.
La Figura 25A muestra un diagrama de bloques de una implementación AR30 del módulo AR10 de procesamiento de realidad aumentada.
La Figura 25B muestra un diagrama de bloques de una implementación AM40 del módulo AM20 y AM30 de aumento.
La Figura 26A muestra un diagrama de bloques una implementación AR100 del módulo AR20 de La Figura 26B muestra un diagrama de bloques n aparato MF100 de acuerdo con una configurac La Figura 27A muestra un diagrama de bloques un sistema ANC general.
Las Figuras 27B y 27C muestran ejemplos de implementaciones HS15 y HS25 de auriculares HS10 y HS20, respectivamente.
Las Figuras 28A-C muestran las implementaciones EB32, ECR15, y ECR25 del auricular EB30 y los audífonos ECR20 y ECR20, respectivamente.
Descripción detallada
No se ha buscado el aumento de audio de la realidad porque es difícil controlar eficazmente un entorno de audio. Por ejemplo, un elemento de sonido entrante no se puede eliminar con una simple superposición como un elemento de vídeo, y es difícil pasar y bloquear selectivamente la llegada de sonidos naturales al oído del usuario.
Se puede usar un audífono convencional para mejorar la capacidad del usuario para escuchar sonidos ambientales. Si bien un audífono puede amplificar los sonidos ambientales, sin embargo, no los bloquea, por lo que dicho dispositivo no proporciona un control suficiente para aumentar la realidad del audio. Si bien se han utilizado auriculares pasivos para bloquear los sonidos ambientales, su capacidad de bloqueo es limitada.
Se pueden usar auriculares con cancelación activa de ruido (ANC) para cancelar el sonido ambiental a la vez que se escuchan medios pregrabados o una comunicación remota. Los sistemas, métodos, y aparatos descritos en el presente documento se pueden usar con un auricular de cancelación activa de ruido (ANC) de múltiples micrófonos (por ejemplo, estereofónicos) para proporcionar control selectivo y aumento de los sonidos ambientales. Se divulgan diversos casos de uso de realidad aumentada de audio y su implementación efectiva a través de auriculares ANC y dispositivos móviles.
A menos que esté expresamente limitado por su contexto, el término “señal” se usa en el presente documento para indicar cualquiera de sus significados ordinarios, que incluyen el estado de una ubicación de memoria (o conjunto de ubicaciones de memoria) expresado en un cable, bus, u otro medio de transmisión. A menos que esté expresamente limitado por su contexto, el término “generar” se usa en el presente documento para indicar cualquiera de sus significados ordinarios, tales como computar o de otro modo producir. A menos que esté expresamente limitado por su contexto, el término “calcular” se usa en el presente documento para indicar cualquiera de sus significados ordinarios, tales como computar, evaluar, estimar, y/o seleccionar entre una pluralidad de valores. A menos que esté expresamente limitado por su contexto, el término “obtener” se usa para indicar cualquiera de sus significados ordinarios, tales como calcular, derivar, recibir (por ejemplo, a partir de un dispositivo externo), y/o recuperar (por ejemplo, a partir de una matriz de almacenamiento elementos). A menos que esté expresamente limitado por su contexto, el término “seleccionar” se usa para indicar cualquiera de sus significados ordinarios, tales como identificar, indicar, aplicar, y/o usar al menos uno, y menos que todos, de un conjunto de dos o más. Cuando el término “que comprende” se usa en la presente descripción y reivindicaciones, no excluye otros elementos u operaciones. El término “con base en” (como en “A se basa en B”) se utiliza para indicar cualquiera de sus significados ordinarios, que incluyen los casos (i) “derivado de” (por ejemplo, “B es un precursor de A”), (ii) “con base en al menos” (por ejemplo, “A se basa en al menos B”) y, si es apropiado en el contexto particular, (iii) “igual a” (por ejemplo, “A es igual a B”). De manera similar, el término “en respuesta a” se usa para indicar cualquiera de sus significados ordinarios, que incluye “en respuesta a al menos”.
Las referencias a una “ubicación” de un micrófono de un dispositivo de detección de audio de múltiples micrófonos indican la ubicación del centro de una cara acústicamente sensible del micrófono, a menos que el contexto indique lo contrario. El término “canal” se usa a veces para indicar una ruta de señal y en otras ocasiones para indicar una señal transportada por dicha ruta, de acuerdo con el contexto particular. A menos que se indique lo contrario, el término “serie” se utiliza para indicar una secuencia de dos o más elementos. El término “logaritmo” se usa para indicar el logaritmo en base diez, aunque las extensiones de dicha operación a otras bases están dentro del alcance de esta divulgación. El término “componente de frecuencia” se utiliza para indicar uno entre un conjunto de frecuencias o bandas de frecuencia de una señal, tal como una muestra de una representación en el dominio de frecuencia de la señal (por ejemplo, producida por una transformada rápida de Fourier) o una subbanda de la señal (por ejemplo, una subbanda de escala de Bark o escala de mel).
A menos que se indique lo contrario, cualquier divulgación de una operación de un aparato que tiene una característica particular también está expresamente destinada a divulgar un método que tiene una característica análoga (y viceversa), y cualquier divulgación de una operación de un aparato de acuerdo con una configuración particular también está destinada expresamente para divulgar un método de acuerdo con una configuración análoga (y viceversa). El término “configuración” puede usarse en referencia a un método, aparato, y/o sistema de acuerdo con lo indicado por su contexto particular. Los términos “método”, “proceso”, “procedimiento”, y “técnica” se utilizan de forma genérica e intercambiable a menos que el contexto particular indique lo contrario. Los términos “aparato” y “dispositivo” también se utilizan de forma genérica e intercambiable a menos que el contexto particular indique lo contrario. Los términos “elemento” y “módulo” se utilizan normalmente para indicar una porción de una configuración mayor. A menos que esté expresamente limitado por su contexto, el término “sistema” se usa en el presente documento para indicar cualquiera de sus significados ordinarios, que incluyen “un grupo de elementos que interactúan para servir a un propósito común”. También se entenderá que cualquier incorporación por referencia de una porción de un documento incorpora definiciones de términos o variables a los que se hace referencia dentro de la porción, donde dichas definiciones aparecen en otra parte del documento, así como cualquier figura referenciada en la porción incorporada.
Se puede asumir que en las regiones de campo cercano y de campo lejano de un campo de sonido emitido, los frentes de onda son esféricos y planos, respectivamente. El campo cercano puede definirse como la región del espacio la cual está a menos de una longitud de onda de un receptor de sonido (por ejemplo, una matriz de micrófonos). De acuerdo con esta definición, la distancia al límite de la región varía inversamente con la frecuencia.
A frecuencias de doscientos, setecientos, y dos mil hercios, por ejemplo, la distancia a un límite de una longitud de onda es de aproximadamente 170, cuarenta y nueve, y diecisiete centímetros, respectivamente. En cambio, puede ser útil considerar que el límite de campo cercano/campo lejano está a una distancia particular de la matriz de micrófonos (por ejemplo, cincuenta centímetros de un micrófono de la matriz o del centroide de la matriz, o un metro o 1.5 metros de un micrófono de la matriz o del centroide de la matriz).
La cancelación activa de ruido (ANC, también llamada reducción activa de ruido) es una tecnología que reduce activamente el ruido acústico en el aire al generar una forma de onda que es una forma inversa de la onda de ruido (por ejemplo, que tiene el mismo nivel y una fase invertida), también denominada forma de onda “antifase” o “antirruido”. Un sistema ANC en general usa uno o más micrófonos para captar una señal de referencia de ruido externa, genera una forma de onda antirruido a partir de la señal de referencia de ruido, y reproduce la forma de onda antirruido a través de uno o más altavoces. Esta forma de onda antirruido interfiere destructivamente con la onda de ruido original para reducir el nivel de ruido que llega al oído del usuario.
Se puede usar un auricular ANC como se describe en el presente documento como un mecanismo eficaz para controlar el paso de los sonidos ambientales al oído del usuario y para mejorar la capacidad de escucha ambiental del usuario. El uso de un auricular ANC en el esquema propuesto puede proporcionar un reemplazo más efectivo de una señal de audio real con audio virtual que el que está disponible con las técnicas convencionales de realidad aumentada.
Un auricular ANC incluye típicamente uno o más micrófonos de referencia que se colocan cerca del oído del usuario para capturar los sonidos ambientales. Dicho micrófono o micrófonos también están ubicados ventajosamente para capturar señales de audio para aplicaciones de realidad aumentada y pueden usarse para proporcionar captura y procesamiento selectivos de sonidos ambientales para procesamiento y aumento de señal selectiva con base en la diversidad espacial.
La Figura 1A muestra un diagrama de flujo de un método M100 de procesamiento de una señal multicanal de acuerdo con una configuración general que incluye las tareas T100, T200, T300, y T400. La tarea T100 realiza una operación ANC en un primer canal de entrada de audio de la señal multicanal para producir una señal antirruido. La tarea T200 procesa la señal multicanal, la cual incluye el primer canal de entrada de audio y un segundo canal de entrada de audio, para obtener un componente fuente de la señal multicanal. La tarea T200 incluye realizar una operación de procesamiento espacialmente selectivo (SSP) en la señal multicanal para separar el componente fuente de un componente de fondo de la señal multicanal. La tarea T300 procesa el componente fuente obtenido para producir un componente objetivo. La tarea T300 normalmente incluye aumentar la perceptibilidad del componente fuente obtenido. La tarea T400 combina la señal antirruido y una señal aumentada que se basa en el componente objetivo para producir una señal de salida de audio.
Un audífono u otro auricular que tenga dos o más micrófonos es un tipo de dispositivo de detección de audio portátil (por ejemplo, un dispositivo de comunicaciones) que puede configurarse para realizar una implementación del método M100. Dichos auriculares pueden ser inalámbricos o con cable. Por ejemplo, un auricular inalámbrico puede configurarse para admitir telefonía semidúplex o dúplex completo a través de la comunicación con un dispositivo telefónico tal como un teléfono celular (por ejemplo, usando una versión del protocolo Bluetooth™ promulgada por el Grupo de Interés Especial de Bluetooth, Inc., Bellevue, WA).
Las Figuras 2A a 2D muestran diversas vistas de un auricular HS10 inalámbrico que puede configurarse para realizar una implementación del método M100. El auricular HS10 incluye una carcasa Z10 la cual lleva una matriz de dos micrófonos y un auricular Z20 que se extiende a partir de la carcasa. En general, la carcasa de un auricular puede ser rectangular o alargada de otro modo como se muestra en las Figuras 2A, 2B, y 2D (por ejemplo, con forma de minibrazo) o pueden ser más redondeadas o incluso circulares. La carcasa también puede incluir una batería y un procesador y/u otro circuito de procesamiento (por ejemplo, una placa de circuito impreso y componentes montados en ella) y puede incluir un puerto eléctrico (por ejemplo, un mini bus en serie universal (USB) u otro puerto para carga de la batería) y características de la interfaz de usuario, tal como uno o más interruptores de botón y/o LEDs. Normalmente, la longitud de la carcasa a lo largo de su eje principal está en el rango de una a tres pulgadas (2.5 cm a 7.6 cm).
En dicha implementación del método M100, el primer canal de entrada de audio se basa en una señal producida por un micrófono principal del auricular, y el primer canal de entrada de audio se basa en una señal producida por un micrófono secundario del auricular. Normalmente, cada micrófono se monta dentro de los auriculares detrás de uno o más pequeños orificios en la carcasa que sirven como puerto acústico. Las Figuras 2B a 2D muestran las ubicaciones del puerto Z50 acústico para un micrófono principal del dispositivo HS10 y el puerto Z40 acústico para un micrófono secundario del dispositivo HS10. El auricular Z20 dirige el sonido de un altavoz del auricular, el cual produce una señal acústica que se basa en la señal de salida de audio, al canal auditivo del usuario.
Un auricular también puede incluir un dispositivo de seguridad, tal como el gancho Z30 para la oreja, el cual normalmente se puede separar del auricular. Un gancho para la oreja externa puede ser reversible, por ejemplo, para permitir al usuario configurar el auricular para usar en cualquier oreja. Alternativamente, el audífono de un
auricular puede diseñarse como un dispositivo de seguridad interno (por ejemplo, un tapón para los oídos) el cual puede incluir un auricular desmontable para permitir que diferentes usuarios usen un auricular de diferente tamaño (por ejemplo, diámetro) para un mejor ajuste a la porción exterior del canal auditivo del usuario en particular. La Figura 1B muestra una vista superior del uso de auriculares HS10 en la oreja derecha de un usuario.
Las Figuras 3A a 3D muestran diversas vistas de un dispositivo HS20 de detección de audio portátil multimicrófono que es otro ejemplo de un auricular inalámbrico el cual puede configurarse para realizar una implementación del método M100. El dispositivo HS20 incluye una carcasa Z12 redondeada y elíptica y un auricular Z22 que puede configurarse como tapón para los oídos. Las Figuras 3A a 3D también muestran las ubicaciones del puerto Z52 acústico para el micrófono principal y el puerto Z42 acústico para el micrófono secundario del dispositivo HS20. Es posible que el puerto Z52 de micrófono primario esté al menos parcialmente ocluido (por ejemplo, mediante un botón de la interfaz de usuario).
Un auricular que tiene dos o más micrófonos, o un par de auriculares (los cuales normalmente están unidos por una banda que se coloca sobre la cabeza del usuario), cada uno con al menos un micrófono, es otro tipo de dispositivo de comunicaciones portátil que puede configurarse para realizar una implementación del método M100. Las Figuras 4A a 5C muestran secciones transversales horizontales de implementaciones ECR10, ECR20, ECR30, ECR40, ECR50, y ECR60 del lado derecho, respectivamente, de dichos auriculares (también llamados auriculares) que incluyen un altavoz RLS10 que está dispuesto para producir una señal acústica con base en la señal de salida de audio al oído del usuario. Dichos auriculares pueden configurarse para ser supraaurales (es decir, para descansar sobre el oído del usuario durante el uso sin encerrarlos) o circumaurales (es decir, para encerrar el oído del usuario durante el uso). Estos ejemplos también incluyen uno o más micrófonos MR10, m R20, MR30 que están dispuestos para recibir señales acústicas ambientales a través de un puerto acústico en la carcasa del auricular y para producir señales en las cuales se basan las señales de audio de entrada correspondientes. Puede ser conveniente aislar los micrófonos para que no reciban vibraciones mecánicas del altavoz RLS10 a través de la estructura del auricular. Se entenderá que las instancias del lado izquierdo de los diversos auriculares del lado derecho descritos en el presente documento se configuran de forma análoga. Las Figuras 6A y 6B muestran vistas superior y frontal, respectivamente, de un caso de uso típico de un par de cascos auriculares. Este ejemplo incluye una implementación ECR42 del auricular ECR40, un auricular ECL42 del lado izquierdo correspondiente, y una banda BD10 que une los dos auriculares.
La Figura 7A muestra un diagrama de bloques de un aparato A100 de acuerdo con una configuración general que incluye un filtro AF10 ANC, un módulo AR10 de procesamiento de realidad aumentada (AR), y una etapa AOIO de salida de audio. El aparato A100 puede usarse para realizar una implementación del método M100. Por ejemplo, el filtro AF10 ANC puede usarse para realizar la tarea T100, el módulo AR10 de procesamiento AR puede usarse para realizar las tareas T200 y T300, y la etapa AO10 de salida de audio puede usarse para realizar la tarea T400.
Durante el funcionamiento de un dispositivo de detección de audio de múltiples micrófonos como se describe en el presente documento, la disposición de dos o más micrófonos produce una señal multicanal en la cual cada canal se basa en la respuesta de uno de los micrófonos correspondientes al entorno acústico. Un micrófono puede recibir un sonido particular más directamente que otro micrófono, de tal modo que los canales correspondientes difieran entre sí para proporcionar colectivamente una representación más completa del entorno acústico que la que se puede capturar usando un solo micrófono.
Puede ser deseable que el dispositivo de detección de audio realice una o más operaciones de procesamiento en las señales producidas por los micrófonos para producir la señal multicanal correspondiente. Por ejemplo, dicho dispositivo puede incluir una disposición como se muestra en la Figura 8A que incluye una etapa AP10 de preprocesamiento de audio. La etapa AP10 de preprocesamiento de audio está configurada para realizar una o más de estas operaciones, las cuales pueden incluir (sin limitación) adaptación de impedancia, conversión de analógico a digital, control de ganancia, y/o filtrado en los dominios analógico y/o digital, de las señales producidas por los micrófonos para producir la señal MCS10 multicanal de tal manera que cada canal SI10 y SI20 se basa en una respuesta del micrófono correspondiente a una señal acústica.
La Figura 8B muestra un diagrama de bloques de dicha disposición que incluye una implementación AP20 de la etapa AP10 de preprocesamiento de audio que incluye las etapas PlOa y P10b de preprocesamiento analógicas. En un ejemplo, las etapas PlOa y PlOb están configuradas cada una para realizar una operación de filtrado de paso alto (por ejemplo, con una frecuencia de corte de 50, 100, o 200 Hz) en las señales correspondientes de los micrófonos MR10 y MR20.
Puede ser deseable que la etapa de preprocesamiento produzca la señal multicanal correspondiente como una señal digital, es decir, como una secuencia de muestras. Por ejemplo, la etapa AP20 de preprocesamiento de audio incluye convertidores de analógico a digital (ADCs) ClOa y C10b, cada uno de los cuales está dispuesto para muestras en el canal analógico correspondiente. Las frecuencias de muestreo típicas para aplicaciones acústicas incluyen 8 kHz, 12 kHz, 16 kHz, y otras frecuencias en el rango de aproximadamente 8 a aproximadamente 16 kHz, aunque también se pueden utilizar frecuencias de muestreo tan altas como aproximadamente 32, 44.1, 48, o 192
kHz. En este ejemplo particular, la etapa AP20 de preprocesamiento de audio también incluye las etapas P20a y P20b de preprocesamiento digital que están configuradas para realizar una o más operaciones de preprocesamiento (por ejemplo, cancelación de eco, reducción de ruido, y/o modelado espectral) en el canal digitalizado correspondiente para producir los canales SI10, SI20 correspondientes de la señal MCS10 multicanal. La Figura 8C muestra un ejemplo en el cual la etapa AP20 de preprocesamiento de audio está dispuesta para producir canales SI10 y SI20 de entrada de audio con base en señales producidas por los micrófonos ML10 y MR10 correspondientes.
Para un caso en cual el dispositivo ANC sea lo suficientemente grande (por ejemplo, un casco auricular), el aparato A100 puede implementarse dentro del dispositivo. En otros casos, puede ser deseable implementar algunos elementos del aparato A100 dentro del dispositivo ANC montado en la cabeza, y otros elementos del aparato A100 dentro de un dispositivo PD10 de procesamiento portátil. Ejemplos de un dispositivo de procesamiento de este tipo incluyen, sin limitación, un auricular de teléfono celular, teléfono inteligente, u otro dispositivo de comunicaciones móviles; un asistente digital personal (PDA) u otro dispositivo informático de mano; y una libreta portátil, ordenador portátil, ordenador portátil pequeño, ordenador tableta, u otro dispositivo informático portátil. La Figura 7B muestra un ejemplo de dicha división de elementos del aparato A100 entre el dispositivo ANC montado en la cabeza (por ejemplo, un casco auricular, auricular, o audífono como se describe en el presente documento) y el dispositivo PD10 de procesamiento. En este ejemplo, la porción A102A del aparato A100 (es decir, el filtro AF10 ANC y la etapa AO10 de salida de audio) se implementa dentro del dispositivo ANC, y la porción A102B del aparato A100 (es decir, el módulo AR10 de procesamiento AR) se implementa dentro de PD10. En esta y otras implementaciones del aparato A100, el módulo AR10 de procesamiento Ar se implementa típicamente en un dominio digital, a la vez que el filtro AF10 ANC puede implementarse para realizar el filtrado ANC en el dominio analógico o en un dominio digital, y de la misma manera, la etapa AO10 de salida de audio puede ser implementada para combinar las señales SG10 y SA10 para producir la señal SOIO de salida en el dominio analógico o en un dominio digital.
La comunicación de los canales SI10 y SI20 y la señal SG10 entre el dispositivo PD10 de procesamiento portátil y el dispositivo ANC puede ocurrir a través de un canal de transmisión por cable y/o inalámbrico. Ejemplos de métodos inalámbricos que pueden usarse para soportar dicho enlace de comunicaciones incluyen especificaciones de radio de baja potencia para comunicaciones de corto alcance (por ejemplo, de unas pocas pulgadas a unos pocos pies, es decir, en un rango de decímetro a metro) tal como Bluetooth (por ejemplo, un Casco Auricular u otro Perfil como se describe en la Especificación Principal de Bluetooth versión 4.0 [la cual incluye los protocolos Bluetooth Clásico, Bluetooth de alta velocidad, y Bluetooth de baja energía], Bluetooth SIG, Inc., Kirkland, WA), Peanut (QUALCOMM Incorporated, San Diego, cA), y ZigBee (por ejemplo, como se describe en Especificación ZigBee 2007 y/o la Especificación ZigBee RF4CE, ZigBee Alliance, San Ramón, CA). Otros canales de transmisión inalámbrica que pueden usarse entre dichos dispositivos incluyen canales que no son de radio, tales como infrarrojos y ultrasónicos.
En otro ejemplo, los micrófonos y el altavoz se implementan dentro de uno o más auriculares. La Figura 9A muestra un ejemplo a la izquierda de un auricular EB10 que incluye un altavoz LLS10 y micrófonos ML10 y ML20 en una implementación con cable. En este ejemplo, el micrófono ML20 está montado en una porción CB10 de cable semirrígido del cable CD10 a una distancia de aproximadamente tres a cuatro centímetros del micrófono ML10. El cable CB10 semirrígido puede configurarse para ser flexible y liviano pero lo suficientemente rígido para mantener el micrófono ML20 orientado en una dirección relativamente constante (por ejemplo, en relación con el micrófono ML10) durante el uso. La Figura 10A muestra una vista lateral de un ejemplo a la izquierda de otro auricular EB20 en el cual el micrófono ML20 está montado dentro de una porción de alivio de tensión del cable CD20 en el auricular de tal modo que el micrófono ML20 esté orientado en una dirección de avance relativamente constante (por ejemplo, en relación con el micrófono ML10) durante el uso.
En otro ejemplo, los micrófonos ML10 y MR10 se implementan dentro de los respectivos de un par de auriculares. La Figura 10B muestra una vista frontal de un ejemplo de un auricular EB30 que contiene el altavoz LLS10 izquierdo y el micrófono ML10 izquierdo. Durante el uso, el auricular EB30 se coloca en el oído izquierdo del usuario para dirigir una señal acústica producida por el altavoz LLS10 izquierdo (por ejemplo, a partir de una instancia de señal SO10 de salida de audio recibida a través del cable CD30) al canal auditivo del usuario. Puede ser deseable que una porción del auricular (por ejemplo, EB10, EB20, EB30) la cual dirige la señal acústica al canal auditivo del usuario esté hecha o cubierta por un material elástico, tal como un elastómero (por ejemplo, caucho de silicona), de tal modo que pueda llevarse cómodamente para formar un sello con el canal auditivo del usuario.
Para un caso en el cual la aplicación de realidad aumentada pasa una señal a través del oído del usuario, un auricular ANC también puede entregar la mayoría de los sonidos de alta fidelidad (por ejemplo, en términos de señal binaural). La Figura 9B muestra un diagrama de bloques de una implementación A200 del aparato A100 que incluye un segundo filtro AF20 ANC y una segunda etapa AO20 de salida de audio. Una segunda instancia AF20 del filtro AF10 ANC está configurada para producir una segunda señal SA20 antirruido que se basa en el segundo canal SI20 de entrada de audio, y una segunda instancia AO20 de la etapa AO10 de salida de audio está configurada para combinar la señal SG10 aumentada con la señal SA20 antirruido para producir una segunda señal SO20 de salida de audio.
Un dispositivo que incluye el aparato A200 se configura típicamente para incluir un micrófono y un altavoz que se colocan en uno de los oídos del usuario (por ejemplo, dentro de un casco auricular, auricular, o audífono como se describe en el presente documento) para proporcionar la primera señal SI10 de entrada de audio y para ser accionado por la señal SOIO de salida de audio, respectivamente, y otro micrófono y altavoz colocados en el otro de los oídos del usuario (por ejemplo, dentro de otro casco auricular, auricular, o audífono como se describe en el presente documento) para proporcionar una segunda señal SI20 de entrada de audio y para ser accionado por la señal SO20 de salida de audio, respectivamente. Por ejemplo, el aparato A200 puede implementarse dentro de uno o ambos de un par de cascos auriculares, auriculares (por ejemplo, cascos auriculares), o audífonos como se describe en el presente documento y/o dentro de una instancia de dispositivo PD10 de procesamiento portátil. Para un caso en el cual el aparato A200 se implemente con un par de cascos auriculares inalámbricos, dichos cascos auriculares pueden configurarse para transferir las respectivas señales de entrada y salida de audio con el dispositivo PD10 y/o entre sí utilizando cualquiera de los canales inalámbricos descritos en el presente documento.
El aparato A100 está implementado para recibir señales de entrada de audio de al menos dos micrófonos, pero se puede esperar un mejor rendimiento (por ejemplo, mayor selectividad direccional) si se utilizan más de dos micrófonos. La Figura 11 muestra un diagrama de bloques de una implementación A210 del aparato A200 que incluye una implementación AR12 del módulo AR10 de procesamiento Ar . En este ejemplo, el módulo AR12 está configurado para realizar una operación de procesamiento espacialmente selectiva en los canales SI10, SI20, y SI30 de entrada de audio para separar el componente fuente de un componente de fondo. El canal SI30 de entrada de audio puede basarse en una señal producida por un micrófono ML20, MR20 o MC10 adicional como se describe en el presente documento con referencia a diversos ejemplos de ubicaciones de micrófonos montados en la cabeza. Se entenderá que el módulo AR10 de procesamiento AR puede extenderse de manera similar de tal manera para procesar cuatro, cinco, o un número arbitrariamente mayor de canales de entrada de audio.
La Figura 10C muestra un caso de uso en el cual los auriculares que llevan micrófonos ML10, MR10 y los correspondientes altavoces izquierdo y derecho (no se muestran) se implementan para transferir las señales SI10, SI20, SI30 de entrada de audio y las señales SOIO, SO20 de salida de audio a partir de, una implementación del dispositivo PD10 de procesamiento portátil como un reproductor PD20 multimedia portátil sobre un cable CD40. En este caso, la tercera señal SI30 de entrada de audio se basa en una señal producida por el micrófono ML20 montado en cable.
Las Figuras 12A-12E muestran ejemplos adicionales de dispositivos que pueden usarse para transportar micrófonos y/o un altavoz como se describe en el presente documento. La Figura 12a muestra anteojos (por ejemplo, anteojos recetados, anteojos de sol, o anteojos de seguridad) con cada micrófono del par ML10, MR10 binaural montado en una patilla y otro micrófono MR20 montado en una patilla o la pieza de extremo correspondiente. La Figura 12B muestra un casco en el cual el micrófono MC10 está montado en la parte delantera de la cara del usuario (por ejemplo, en la boca del usuario) y cada micrófono del par ML10, MR10 binaural está montado en un lado correspondiente de la cabeza del usuario. Las Figuras 12C-E muestran ejemplos de gafas (por ejemplo, gafas de esquí) en las cuales cada micrófono del par ML10, MR10 binaural está montado en un lado correspondiente de la cabeza del usuario, y cada uno de estos ejemplos muestra una ubicación correspondiente diferente para el micrófono MC10 adicional. Ejemplos adicionales de ubicaciones para micrófonos para usar con una implementación del aparato A100 como se describe en el presente documento incluyen, pero no se limitan a lo siguiente: visera o ala de una gorra o sombrero; solapa, bolsillo en el pecho, o en el hombro.
El filtro AF10 de cancelación de ruido activo está configurado para recibir un primer canal SI10 de audio de entrada y para realizar una operación de cancelación de ruido activa para producir una señal SA10 antirruido correspondiente. Por lo general, es deseable configurar el filtro AF10 ANC para generar la señal SA10 antirruido para que coincida con el ruido acústico en amplitud y en sentido opuesto al ruido acústico en fase. El filtro AF10 también puede realizar operaciones de procesamiento de señales (por ejemplo, igualación o minimización de retraso de tiempo, amplificación de ganancia, y/o ecualización de respuesta de frecuencia) para lograr una cancelación de ruido óptima. Puede ser deseable configurar el filtro AF10 ANC para filtrar la señal de paso alto (por ejemplo, para atenuar señales acústicas de alta amplitud y baja frecuencia). Adicional o alternativamente, puede ser deseable configurar el filtro AF10 ANC para filtrar la señal de paso bajo (por ejemplo, de tal modo que el efecto ANC disminuya con la frecuencia a altas frecuencias). Debido a que la señal SA10 antirruido debería estar disponible en el momento en que el ruido acústico viaje a partir del micrófono al altavoz, el retraso de procesamiento causado por el filtro AF10 ANC no debería exceder un tiempo muy corto (típicamente alrededor de treinta a sesenta microsegundos).
El filtro AF10 puede configurarse para realizar la operación ANC en el dominio analógico y/o en un dominio digital, y en el dominio del tiempo y/o en un dominio de transformación (por ejemplo, una transformada de Fourier u otro dominio de frecuencia). Ejemplos de operaciones ANC que puede realizar el filtro AF10 ANC para producir la señal SA10 antirruido incluyen una operación de filtrado de inversión de fase, una operación de filtrado de mínimos cuadrados medios (lMs ) (por ejemplo, LMS de referencia filtrada (“x filtrado”), como se describe en la Publicación de Solicitud de Patente de Estados Unidos Número 2006/0069566 (Nadjar et al.) y en otros lugares), y un algoritmo de tierra virtual digital (por ejemplo, como se describe en la Patente de Estados Unidos Número 5.105.377 (Ziegler)). Otros ejemplos de operaciones de filtrado de LMS que pueden ser realizadas por el filtro AF10 ANC incluyen LMS
de error filtrado (“filtrado-E”), LMS de U filtrada, y otras variantes (por ejemplo, LMS de subbanda, LMS de tamaño de paso normalizado, etc.).
Para obtener una latencia muy baja (por ejemplo, del orden de diez microsegundos) en un dominio digital, puede ser deseable implementar el filtro AF10 ANC para realizar el filtrado ANC en un dominio de modulación de densidad de pulsos (PDM), y para adaptar los coeficientes de este filtro PDM utilizando un algoritmo que se ejecuta en un dominio de modulación de código de pulso (PCM). En dicho caso, el dominio PDM tiene una resolución baja (por ejemplo, un ancho de bits de uno, dos, o cuatro bits) y una tasa de muestreo muy alta (por ejemplo, del orden de 100 kHz, 1 MHz, o incluso 10 MHz), y el dominio PCM tiene una resolución más alta (por ejemplo, un ancho de bits de ocho, diez, doce, o dieciséis bits o más) y una frecuencia de reloj más baja (por ejemplo, del orden de uno o diez kHz, tal como ocho, 12, 16, 32, 44.1 o 48 kHz). El filtrado del Pd M se puede realizar mediante hardware digital, tal como una matriz de puertas programables en campo (FPGA), un circuito integrado específico de la aplicación (ASIC), o un producto estándar específico de la aplicación (ASSP). La adaptación de PCM se puede realizar usando una implementación de un algoritmo ANC adaptativo en un dominio de PCM usando software (por ejemplo, instrucciones para la ejecución por un procesador, tal como un DSP). Ejemplos de una implementación de este tipo del filtro AF10 ANC se describen, por ejemplo, en la Publicación de Solicitud de Patente de Estados Unidos Número 2011/0007907, titulado “SYSTEMS, METHODS, APPARATUS, AND COMPUTER-READABLE MEDIA FOR ADAPTIVE ACTIVE NOISE CANCELLATION”, publicada el 13 de enero de 2011. (Cabe señalar que el filtro ANC AF20 puede implementarse de manera similar como una segunda instancia de filtro ANC AF10 como se describe en el presente documento).
El módulo AR10 de procesamiento de realidad aumentada está configurado para procesar una señal multicanal que incluye el primer canal SI10 de entrada de audio y el segundo canal SI10 de entrada de audio y para producir la señal SG10 aumentada. La Figura 13A muestra un diagrama de bloques de una implementación AR20 del módulo AR10 que incluye un módulo SM10 de procesamiento espacialmente selectivo (SSP) y un módulo AM10 de aumento.
El módulo SM10 de procesamiento espacialmente selectivo (SSP) está configurado para incluir un filtro SSP configurado para realizar una operación SSP en la señal multicanal para separar un componente SC10 fuente de la señal multicanal de un componente de fondo. Dicha operación SSP puede basarse, por ejemplo, en diferencias de fase y/o diferencias de ganancia entre los canales de entrada de audio. Los sonidos de fuentes cercanas que están cerca de un eje de la matriz de micrófonos, por ejemplo, pueden distinguirse de un componente de fondo (por ejemplo, sonidos de fuentes distantes y sonidos difusos) con base en la diferencia de ganancia. En un ejemplo, el filtro SSP se implementa para separar el componente fuente con base en la proximidad, de tal modo que las tramas que tienen una diferencia de ganancia entre los canales que cumplen (alternativamente, que superan) un valor de umbral se separa de otras tramas. En tal caso, la ganancia de una trama para cada canal puede calcularse en el dominio del tiempo como la energía total (por ejemplo, suma de muestras cuadradas) o energía promedio por muestra, o en el dominio de frecuencia con base en, por ejemplo, una suma de magnitudes cuadradas.
También se puede usar una diferencia de ganancia entre canales para separar señales que llegan de un rango deseado de direcciones (es decir, en relación con un eje de la matriz de micrófonos) de un componente de fondo (por ejemplo, sonidos que llegan a partir de otras direcciones). La Figura 14A muestra un ejemplo en el cual el filtro SSP usa el estado de una relación entre la diferencia de ganancia GD[n] para la trama n de la señal multicanal y un valor de umbral de diferencia de ganancia Tl para separar las señales que llegan a partir de una deseada entre tres sectores espaciales (es decir, sector de fuego final 1, sector lateral 2, y sector de fuego final 3) de otras señales. La Figura 14B muestra un ejemplo en el cual el filtro SSP usa el estado de una relación entre la diferencia de ganancia GD[n] y un primer valor de umbral de diferencia de ganancia Tu, y el estado de una relación entre la diferencia de ganancia GD[n] y un segundo valor de umbral de diferencia de ganancia Tl2, para seleccionar señales que llegan de uno deseado entre cinco sectores espaciales. La Figura 15 muestra una vista superior de otro ejemplo de múltiples sectores espaciales seleccionables en una implementación que incluye cascos auriculares HS10 inalámbricos y cascos auriculares HS30 con un solo micrófono.
También se puede usar una diferencia de fase entre canales para separar señales que llegan de un rango deseado de direcciones de un componente de fondo (por ejemplo, sonidos que llegan de otras direcciones). En dicho caso, puede ser deseable configurar el filtro SSP para producir el componente fuente separado espacialmente de uno o más de los canales de entrada de audio pasando solo aquellos contenedores de frecuencia cuya diferencia de fase en la señal multicanal indica una dirección de llegada que está dentro del rango deseado.
La “coherencia direccional” de una señal multicanal se define como el grado en el cual los diversos componentes de frecuencia de la señal llegan a partir de la misma dirección. Para un par de canales idealmente coherente en la dirección, el valor de la relación entre la diferencia de fase y la frecuencia es igual a una constante k para todas las frecuencias, donde el valor de k está relacionado con la dirección de llegada 0 y el retraso de tiempo de llegada t. En otro ejemplo, el filtro SSP está configurado para pasar tramas que son suficientemente coherentes direccionalmente dentro del rango deseado de direcciones.
Otros ejemplos de operaciones SSP direccionalmente selectivas que pueden ser realizadas por un filtro SSP dentro del módulo SSP SM10 incluyen formación de haces y separación de fuente ciega (BSS). Ejemplos de enfoques de formación de haces que pueden usarse para generar uno o más filtros para seleccionar componentes en las direcciones correspondientes incluyen cancelación de lóbulos laterales generalizados (GSC), respuesta sin distorsión de varianza mínima (MVDr ), y formadores de haz de varianza mínima linealmente restringida (LCMV). Los ejemplos de métodos BSS incluyen el análisis de componentes independientes (ICA) y el análisis vectorial independiente (IVA), que operan dirigiendo haces nulos hacia fuentes puntuales de interferencia.
El filtro SSP puede configurarse para aplicar la operación de procesamiento espacialmente selectivo en una dirección fija (por ejemplo, para separar las señales que llegan a partir de una dirección hacia adelante del usuario de un componente de fondo que incluye señales que llegan a partir de otras direcciones). Alternativamente, el usuario puede seleccionar o indicar de otro modo una dirección de llegada deseada mediante, por ejemplo, una interfaz de usuario del dispositivo PD10 (por ejemplo, una pantalla táctil). En dicho caso, puede ser deseable que la porción del dispositivo montada en la cabeza incluya uno o más magnetómetros, giroscopios, y/o acelerómetros configurados para rastrear una rotación de la cabeza del usuario, de tal modo que el filtro SSP pueda implementarse para adaptarse para mantener la dirección seleccionada (relativa a una referencia externa fija, tal como el campo gravitacional y/o magnético de la tierra) a medida que gira la cabeza del usuario. Dicha adaptación puede incluir seleccionar un sector espacial diferente, por ejemplo, seleccionando una relación de umbral de diferencia de ganancia diferente, seleccionando una relación diferente de diferencia de fase a frecuencia, o seleccionando un diferente de un conjunto de filtros de formación de haces orientados en diferentes direcciones correspondientes.
Además de la separación del componente fuente en el dominio espacial como lo realiza el filtro SSP, también puede ser deseable implementar el módulo SSP SM10 para separar el componente fuente en uno o más dominios diferentes. La Figura 13C muestra un diagrama de bloques de una implementación SM20 del módulo SSP SM10 que incluye un filtro SSP SF10 como se describe en el presente documento y un filtro DF10 selectivo de dominio. El filtro DF10 está configurado para procesar el componente fuente separado espacialmente producido por el filtro SSP SF10 para separarlo en uno o más dominios adicionales. En un ejemplo, el filtro DF10 se implementa para realizar una operación de detección de actividad de voz (VAD) en el componente fuente separado espacialmente para separar las tramas activas de voz de las tramas inactivas de voz (por ejemplo, en el dominio del tiempo).
Dicha operación de VAD puede basarse en uno o más factores tales como energía de trama, relación señal/ruido, periodicidad, autocorrelación de la voz y/o residual (por ejemplo, residual de codificación de predicción lineal), tasa de cruce por cero, y/o primer coeficiente de reflexión. Dicha clasificación puede incluir comparar un valor o magnitud de tal factor con un valor umbral y/o comparar la magnitud de un cambio en dicho factor con un valor umbral. Alternativa o adicionalmente, dicha clasificación puede incluir comparar un valor o magnitud de dicho factor, tal como energía, o la magnitud de un cambio en dicho factor, en una banda de frecuencia con un valor similar en otra banda de frecuencia. Puede ser deseable implementar el filtro DF10 para realizar la detección de actividad de voz con base en múltiples criterios (por ejemplo, energía, tasa de cruce por cero, etc.) y/o una memoria de decisiones recientes de VAD. Un ejemplo de una operación de detección de actividad de voz que se puede realizar mediante el filtro DF10 incluye comparar las energías de banda alta y de banda baja del componente fuente espacialmente separado con los umbrales respectivos como se describe, por ejemplo, en la sección 4.7 (páginas 4-49 a 4-57). del documento 3GPP2 C.S0014-C, v1.0, titulado “Enhanced Variable Rate Codec, Speech Service Options 3, 68, and 70 for Wideband Spread Spectrum Digital Systems”, Enero de 2007 (disponible en línea en www-punto-3gpp-punto-org).
Adicional o alternativamente, el filtro DF10 puede implementarse para realizar una operación de análisis de codificación predictiva lineal (LPC) en el componente fuente separado espacialmente para soportar la separación del contenido de voz en el LPC y/o en el dominio del tiempo. En uno de estos ejemplos, el filtro DF10 se implementa para separar las tramas de voz de otro contenido con base, por ejemplo, en la estructura del formante (por ejemplo, un ancho de banda que no es demasiado estrecho y/o no demasiado ancho) y/o inclinación espectral. En otro ejemplo, el filtro DF10 se implementa para calcular una estimación de frecuencia de tono a partir del LPC residual y para separar tramas de voz particulares de otro contenido con base en un rango de frecuencia de tono indicado (por ejemplo, para seleccionar solo la voz de un hablante masculino, solo la voz de una hablante femenina, o solo llanto u otras vocalizaciones de un bebé). Dicha selección puede ser indicada por un usuario (por ejemplo, a través de una interfaz de usuario del dispositivo PD10). Un procedimiento de estimación de tono se describe, por ejemplo, en la sección 4.6.3 (páginas 4-44 a 4-49) del documento EVRC (Códec de Tasa Variable Mejorada) C.S0014-C, disponible en línea en www-punto-3gpp-punto-org. Dicho análisis LPC también puede usarse para separar tramas de voz de una persona en particular de otro contenido de voz.
Adicional o alternativamente, el filtro DF10 puede implementarse para producir el componente SC10 fuente procesando el componente fuente separado espacialmente para separar solo el contenido de voz en un idioma hablado indicado (por ejemplo, solo en inglés o solo en coreano). El idioma a seleccionar puede ser indicado por un usuario (por ejemplo, a través de una interfaz de usuario del dispositivo PD10). Por ejemplo, el filtro DF10 puede implementarse para utilizar el procesamiento del modelo de Markov oculto (HMM) para identificar las tramas del componente fuente separado que probablemente incluyan contenido en el idioma indicado.
El módulo AM10 de aumento está configurado para realizar una operación de aumento en el componente SC10 fuente para producir un componente objetivo y para producir una señal SG10 aumentada que se basa en el componente objetivo. La Figura 13B muestra un diagrama de bloques de una implementación AM20 del módulo AM10 de aumento que está configurado para emitir el componente TC10 objetivo como señal SG10 aumentada. El módulo AM20 de aumento incluye un módulo PM10 de procesamiento fuente que está configurado para procesar el componente SC10 fuente para producir el componente TC10 objetivo aumentando la perceptibilidad del componente SC10 fuente.
Los ejemplos de operaciones que puede realizar el módulo PM10 de procesamiento fuente para aumentar la perceptibilidad del componente SC10 fuente incluyen, sin limitación, las siguientes: amplificación, ecualización, desverberación, reducción de ruido, alteración de la velocidad de la voz, y cambio de tono de la voz. Dichas operaciones pueden ser seleccionadas y/o configuradas por el usuario a través de, por ejemplo, una interfaz de usuario del dispositivo PD10 (por ejemplo, una pantalla táctil).
El módulo PM10 de procesamiento fuente puede implementarse para desverberar el componente SC10 fuente mediante el filtrado inverso del componente usando una función de transferencia de habitación estimada. Puede ser deseable realizar dicho filtrado inverso sin el componente SC10 fuente de blanqueamiento. En un ejemplo, el componente de fondo del cual está separado espacialmente el componente SC10 fuente se usa para estimar la función de transferencia de habitación invertida.
El módulo PM10 de procesamiento fuente puede implementarse para ecualizar el componente SC10 fuente de acuerdo con la preferencia del usuario y/o para compensar una pérdida auditiva del usuario (por ejemplo, para aumentar las frecuencias altas). En otro ejemplo, el módulo PM10 de procesamiento fuente se implementa para realizar una operación de mejora psicoacústica de graves (PBE) extendiendo armónicamente el contenido de baja frecuencia del componente SC10 fuente. Dicha operación puede mejorar la perceptibilidad y/o la direccionalidad del contenido de baja frecuencia.
El módulo PM10 de procesamiento fuente puede implementarse para realizar una operación de reducción de ruido en el componente SC10 fuente. Dicha operación puede incluir, por ejemplo, reducir un nivel del componente SC10 fuente durante intervalos sin habla y/o sustracción espectral de una estimación de ruido del componente SC10 fuente, donde la estimación de ruido se calcula en el dominio de la frecuencia como un promedio de tiempo sobre intervalos sin voz y/o con base en un espectro de un componente que llega a partir de una dirección sin voz (por ejemplo, el componente de fondo del cual el componente SC10 fuente está separado espacialmente).
El módulo PM10 de procesamiento fuente puede implementarse para realizar una operación de alteración de la velocidad de voz en el componente SC10 fuente. Dicha operación, que se realiza expandiendo o comprimiendo una señal de voz en el tiempo, se usa típicamente para disminuir la velocidad del contenido de voz y típicamente incluye una operación de análisis LPC para separar la estructura formante de la residual, la cual proporciona información de tono. El módulo PM10 de procesamiento fuente puede implementarse para realizar dicha ralentización extendiendo la longitud de cada trama, insertando períodos de tono en segmentos de voz sonora y extendiendo de manera similar segmentos de voz sordos (por ejemplo, usando una señal de excitación aleatoria), y realizando una operación de síntesis LPC para reproducir el contenido de la voz a la velocidad deseada. Dicha ralentización también puede incluir la sustitución de períodos de silencio con el contenido de voz ampliado en el tiempo. El usuario puede configurar dicha operación de alteración de la velocidad de la voz seleccionando un factor de alteración de la velocidad (por ejemplo, 0.7, 0.75, 0.8, 0.9, 1.1, 1.2, 1.25, 1.3, etc.).
El módulo PM10 de procesamiento fuente puede implementarse para realizar una operación de cambio de tono de voz en el componente SC10 fuente para cambiar una frecuencia de tono del contenido de voz. El módulo PM10 de procesamiento fuente puede implementarse para realizar dicha operación realizando una operación de análisis LPC para extraer la información de tono, comprimiendo o expandiendo la señal residual sin cambiar la longitud de la trama y realizando una operación de síntesis LPC para reproducir el contenido de voz con el tono deseado. El usuario puede configurar dicha operación de alteración de la velocidad de la voz seleccionando un rango de tono deseado o un factor de alteración de tono (por ejemplo, en un rango de 0.5, 0.7 o 0.8 a 1.2, 1.4, 1.5, 1.7, o 2).
El módulo AM10 de aumento (o AM20) puede configurarse para incluir un módulo de control automático de ganancia (AGC) que está dispuesto para comprimir el rango dinámico de la señal SG10 aumentada. Dicho módulo puede configurarse para proporcionar una definición de margen superior y/o un ajuste de volumen maestro. Alternativa o adicionalmente, el módulo AM10 de aumento (o AM20) puede configurarse para incluir un limitador de picos que está dispuesto para limitar el nivel de la señal SG10 aumentada.
La etapa AOIO de salida de audio está configurada para combinar la señal SA10 antirruido y la señal SG10 aumentada para producir una señal SO10 de salida de audio. Por ejemplo, la etapa AO10 de salida de audio puede implementarse como un mezclador que está configurado para producir la señal SOIO de salida de audio mezclando la señal SA10 antirruido con la señal SG10 aumentada. La etapa AOIO de salida de audio también se puede configurar para producir la señal SOIO de salida de audio mediante la conversión de la señal SA10 antirruido, la señal SG10 aumentada, o una mezcla de las dos señales de una forma digital a una analógica y/o realizando
cualquier otra operación de procesamiento de audio deseada en dicha señal (por ejemplo, filtrando, amplificando, aplicando un factor de ganancia, y/o controlando un nivel de dicha señal). La etapa AOIO de salida de audio también se puede configurar para proporcionar una adaptación de impedancia a un altavoz, una ruta de transmisión de frecuencia de audio que conduce a un altavoz, y/u otra interfaz eléctrica, óptica, o magnética que está dispuesta para recibir o transferir la señal SOIO de salida de audio (por ejemplo, un conector de salida de audio, o una interfaz a un circuito de transmisión inalámbrica).
Puede ser deseable implementar el módulo AR10 de procesamiento AR (por ejemplo, para implementar el módulo AM10 o AM20 de aumento) para realizar una operación SSP en la señal SG10 aumentada para producir una salida de audio binaural. Por ejemplo, puede ser deseable producir una señal SG10 aumentada como una señal estéreo para proporcionar una dirección de llegada percibida que se parezca a la dirección original del componente fuente. Dicha configuración puede mejorar la experiencia de realidad aumentada del usuario al producir una señal binaural que corresponde al entorno real (por ejemplo, como se percibe visualmente). La Figura 14c muestra un diagrama de bloques de una implementación A220 del aparato A210 que incluye dicha implementación AR14 del módulo AR12 de procesamiento Ar . En dicho caso, el módulo AR14 de procesamiento AR puede incluir una implementación del módulo AM10 de aumento (o AM20) que realiza una operación de formación de haz o diferencia de ganancia (por ejemplo, control de balance) para producir la señal SG10 aumentada como un par de canales SG10a y SG10b estéreo, con base en información direccional similar obtenida (por ejemplo, como se describe en el presente documento) a partir de la señal de entrada multicanal.
Los casos de uso para una implementación del método M100 incluyen diversas aplicaciones valiosas para aumentar la perceptibilidad de un componente fuente de la señal multicanal. Una de dichas aplicaciones es la amplificación direccionalmente selectiva, la cual puede denominarse coloquialmente “oído biónico”. Otra de dichas aplicaciones es el reemplazo en vivo de una señal de voz recibida con una versión que ha sido, por ejemplo, traducida, ralentizada, ecualizada, y/o amplificada. El procesamiento de los sonidos ambientales capturados (es decir, por el casco auricular o por un dispositivo de procesamiento al cual está acoplado el casco auricular) para producir una señal aumentada aumentando la perceptibilidad de un componente fuente separado puede incluir una o más de las siguientes operaciones: sonidos capturados por fuentes o dirección de llegada; identificar las fuentes de interés de acuerdo con uno o más criterios (por ejemplo, dirección, distancia, reconocimiento de voz, clasificación de sonido); mejorar, transformar, bloquear, pasar, o de otro modo modificar el flujo separado; y/o aplicar un procesamiento de señales útil en un flujo seleccionado (por ejemplo, ecualización personalizada, ralentización de la voz, cambio de tono, y/o traducción de idiomas). Dicho procesamiento también puede incluir mezclar los sonidos procesados y reproducir la señal aumentada resultante en el oído del usuario.
En una aplicación de “oído biónico”, el usuario del aparato A100 percibe que los sonidos específicos del entorno se vuelven más perceptibles a la vez que otros sonidos se bloquean y/o se vuelven mucho menos perceptibles. Las Figuras 16A y 16B muestran un ejemplo en el cual se realiza una implementación del método M100 para soportar una aplicación de “oído biónico”. La Figura 16A describe lo que sucede en este ejemplo en el entorno real: el hablante B pregunta “¿Puedes venir aquí, abuela?” y el usuario A no puede oír o comprender la voz del hablante B debido a los sonidos que interfieren que llegan de otras direcciones.
La Figura 16B muestra lo que el usuario A escucha en el mismo escenario con realidad aumentada: una versión amplificada de la solicitud B del hablante, con los otros sonidos atenuados. En este ejemplo, el filtro AF10 ANC bloquea los sonidos ambientales, y el módulo AR10 de procesamiento AR realiza un procesamiento espacialmente selectivo de múltiples micrófonos para separar los sonidos de una o más fuentes o direcciones específicas. Dicha técnica puede usarse para obtener un patrón de ganancia de audio espacial como se muestra en la Figura 19 amplificando los sonidos de una fuente específica (hablante B) en el oído del usuario A, pero impidiendo que los sonidos ambientales genéricos pasen al oído del usuario A. El resultado es que el usuario A escucha poco sonido ambiental, excepto los sonidos de una fuente (o dirección) específica, los cuales se procesan y reproducen a través de un altavoz del dispositivo ANC. Otros casos de uso para una aplicación de “oído biónico” incluyen amplificar la voz de un profesor o conferenciante en tiempo real a la vez que se suprime el ruido ambiental.
La Figura 17A muestra un ejemplo de un patrón espacial de ganancia de sonido percibida para un usuario A con oídos descubiertos. En este ejemplo, una ganancia de uno equivale a una condición auditiva normal. La Figura 17B muestra un ejemplo de un patrón espacial de ganancia de sonido percibida para el usuario A usando una implementación binaural de un dispositivo ANC como se describe en el presente documento (por ejemplo, un par de cascos auriculares, auriculares, o audífonos con una implementación del aparato A200). Esta figura muestra un ejemplo de un patrón de ganancia de audio espacial producido con los filtros AF10 y AF20 ANC, en el cual la ganancia percibida del entorno ambiental se reduce en los oídos del usuario.
La Figura 18A muestra un ejemplo de un patrón espacial de ganancia de audio percibida para un componente fuente separado como se produce mediante una implementación direccionalmente selectiva de una operación de procesamiento de señales de múltiples micrófonos de la tarea T200. En este ejemplo, el sonido que llega de una dirección frontal del usuario se pasa con ganancia normal a la vez que los sonidos que llegan de otras direcciones se bloquean. La Figura 18B muestra un ejemplo de un patrón espacial de ganancia de audio percibida para un componente objetivo que se produce amplificando el componente fuente.
En este ejemplo de “oído biónico”, una matriz de micrófonos que incluye el micrófono de referencia ANC capta el sonido X ambiental (= voz Y del hablante B otro sonido Z ambiental direccional y difuso) y produce señales SI10 y SI20 de entrada de audio. El módulo AR10 de procesamiento AR realiza un procesamiento espacialmente selectivo de diversos micrófonos para separar el componente Y de voz (es decir, el componente SC10 fuente) del otro componente Z de sonido. El módulo AR10 de procesamiento AR también procesa la señal Y de voz para producir la señal Y' de voz objetivo. En este caso, dicho procesamiento incluye amplificar el componente Y de voz y también puede incluir el componente de ecualización Y, desverberando el componente Y para simular una distancia cercana y/o ralentizar el contenido de voz del componente Y (por ejemplo, en un 25% o 50%). El procesamiento espacialmente selectivo reduce el nivel del componente Z de sonido restante para producir un componente Z' escalado (= aZ, donde a << 1), y el módulo AR10 Ar genera una señal X' aumentada (= Y'+ Z') en el casco auricular ANC. El casco auricular ANC genera una señal antirruido para bloquear el sonido X ambiental del oído, y la etapa AOIO de salida de audio reproduce la señal aumentada X' en el oído del usuario.
El componente fuente seleccionado puede amplificarse (por ejemplo, como se ilustra en la Figura 18B) y/o de otro modo procesarse (por ejemplo, ecualizarse, ralentizarse, cambiarse de tono, y/o desverberarse como se describe en el presente documento) para aumentar la perceptibilidad del componente.
Las Figuras 20A y 20B muestran un ejemplo en el cual se realiza una implementación del método M100 para soportar la traducción de voz en vivo de un idioma hablado a otro. La Figura 20A describe lo que sucede en la realidad (por ejemplo, el hablante B pregunta “¿Habla usted español?”), y la Figura 20B representa lo que el usuario A escucha con realidad aumentada (por ejemplo, “¿Hablas español?”).
Un ejemplo como se muestra en las Figuras 20A y 20B puede implementarse de tal modo que el dispositivo ANC suprima la voz original del hablante B, pero se transmiten otros sonidos ambientales (por ejemplo, mediante una mezcla de tonos laterales con base en diversos micrófonos) al oído del usuario. En este caso, el usuario A escucha los sonidos existentes del entorno ambiental, excepto la voz del hablante B. El dispositivo PD10 de procesamiento puede configurarse para realizar una técnica s Sp de diversos micrófonos como se describe en el presente documento (por ejemplo, de acuerdo con las diferencias de fase entre canales y/o diferencias de ganancia entre canales) para separar selectivamente la voz del hablante B (por ejemplo, con base en la dirección de llegada estimada). El dispositivo PD10 de procesamiento también puede configurarse para extraer (por ejemplo, reconocer) y traducir la información de voz y para sintetizar un resultado de traducción contemporáneo (por ejemplo, a través de texto a voz (TTS)). Los sonidos TTS sintetizados luego se mezclan en el dispositivo ANC (opcionalmente con indicaciones direccionales).
El módulo AM10 de aumento (por ejemplo, el módulo PM10 de procesamiento fuente) se puede implementar para realizar la traducción de voz contemporánea procesando el componente SC10 fuente para realizar una operación de voz a texto (por ejemplo, utilizando el procesamiento del modelo de Markov oculto) para reconocer el contenido de voz, para traducir el texto reconocido del idioma fuente al idioma objetivo, y para realizar una operación de conversión de texto a voz para producir el componente TC10 objetivo. El módulo AM10 de aumento se puede implementar para producir el componente objetivo traducido en una voz o tono seleccionados por el usuario (por ejemplo, en una voz de tono bajo a tono medio) o para extraer y aplicar una o más características de la voz del hablante original (por ejemplo, frecuencia de tono). Puede ser deseable configurar el dispositivo PD10 para que muestre un icono que indique el idioma fuente particular que se está traduciendo (por ejemplo, una bandera nacional correspondiente). En un ejemplo similar, el usuario A puede escuchar una versión contemporánea de la voz del hablante B que se ha ralentizado, cambiado de tono, y/o ecualizado.
La Figura 18A muestra un ejemplo de un patrón espacial de ganancia de audio para el procesamiento de señales de múltiples micrófonos. En este ejemplo, el sonido que llega de una dirección frontal del usuario se pasa con ganancia normal a la vez que los sonidos que llegan de otras direcciones se bloquean. La Figura 21 muestra una aplicación del ejemplo de la Figura 18A para obtener un patrón de ganancia de audio espacial que pasa los sonidos de una fuente específica (hablante B) al oído del usuario A, pero bloquea los sonidos ambientales genéricos para que no pasen al oído del usuario A.
En este ejemplo de traducción contemporánea, una matriz de micrófonos que incluye el micrófono de referencia ANC capta el sonido X ambiental (= voz Y del hablante B todos los demás sonidos Z ambientales) y produce señales SI10 y SI20 de entrada de audio. El módulo AR10 de procesamiento AR realiza un procesamiento espacialmente selectivo de diversos micrófonos para separar el componente Y de voz (es decir, el componente SC10 fuente) del otro componente Z de sonido. El módulo AR10 de procesamiento AR también traduce la señal Y de voz al idioma objetivo (por ejemplo, a través de texto a voz o “TTS”) para producir la señal Y' de voz objetivo y genera una señal X' (= Y' Z) aumentada en el auricular ANC. Alternativa o adicionalmente, el módulo AR10 de procesamiento AR puede configurarse para ralentizar la señal Y en un 50% para generar Y' y/o para realizar un procesamiento adicional de aumento de la perceptibilidad como se describe en el presente documento (por ejemplo, cambio de tono, desverberación) para producir el componente objetivo. El auricular ANC genera una señal antirruido para bloquear el sonido X ambiental del oído, y la etapa AOIO de salida de audio reproduce la señal X' aumentada en el oído.
Como se señaló anteriormente, el aumento de audio puede incluir pasar otros sonidos ambientales (por ejemplo, el componente de fondo) a través del oído del usuario con el componente objetivo. Puede ser deseable aplicar diversas técnicas de procesamiento de señales por separado a múltiples fuentes de sonidos ambientales para generar una señal aumentada. En uno de dichos ejemplos, el usuario A está hablando con el hablante B en una acera cerca de una carretera. En este caso, el usuario A quiere escuchar al hablante B con el servicio de amplificación de voz (es decir, “oído biónico”), pero también quiere escuchar los sonidos del entorno de la acera. Al mismo tiempo, el usuario A no quiere escuchar ruidos fuertes en la carretera generados por coches. Un esquema de realidad aumentada con base en auriculares ANC como se describe en el presente documento puede proporcionar dicha experiencia de usuario, como se describe en el presente documento.
La Figura 22 muestra un ejemplo de un patrón espacial de ganancia de audio para el procesamiento de señales de múltiples micrófonos. En este ejemplo, el sonido que llega a partir de una dirección frontal del usuario se bloquea a la vez que los sonidos que llegan a partir de otras direcciones se pasan con ganancia normal. La Figura 23 muestra una aplicación del ejemplo de la Figura 22 para obtener un patrón de ganancia de audio espacial que transmite los sonidos ambientales al oído del usuario A, pero bloquea el sonido de una fuente específica (hablante B) para que no pase al oído del usuario A. Como se describe con referencia al ejemplo de traducción en vivo anterior, la voz que falta del hablante B se puede reemplazar con una versión traducida de la información de voz (por ejemplo, a través de TTS).
En un ejemplo de un escenario combinado como se ilustra en la Figura 24, el sonido que llega de un primer rango de direcciones se reemplaza con la traducción del idioma (por ejemplo, a través de tTs ), el sonido que llega de un segundo rango de direcciones se bloquea (por ejemplo, ruido de la carretera), y se transmite el sonido que llega a partir de un tercer rango de direcciones (por ejemplo, sonidos de la acera). El dispositivo ANC transmite sonidos ambientales (por ejemplo, sonidos de acera) al oído del usuario A, pero el procesamiento espacialmente selectivo bloquea el sonido de una fuente específica (hablante B) y una dirección de ruido específica para que no llegue al oído del usuario A. El procesamiento aumentado inyecta una versión amplificada (y posiblemente ralentizada) de la voz del hablante B al oído del usuario A. El usuario A escucha los sonidos de la acera y los sonidos procesados del hablante B, pero poco del ruido del coche en la carretera.
En este ejemplo espacialmente diverso, una matriz de micrófonos que incluye el micrófono de referencia ANC capta el sonido X ambiental (= voz Y del hablante B sonido Z de la acera ruido W de carretera) y produce señales SI10 y SI20 de entrada de audio. El módulo AR10 de procesamiento AR realiza un procesamiento espacialmente selectivo de diversos micrófonos para separar el componente Y de voz del usuario B (es decir, el componente SC10 fuente), los sonidos Z de la acera a partir de la dirección C, y el ruido W de la carretera a partir de la dirección D. El módulo AR10 de procesamiento AR procesa (por ejemplo, amplifica, ecualiza, desverbera, y/o ralentiza) la señal Y de voz para producir la señal Y' de voz objetivo, pasa el componente Z de sonido de la acera, y genera la señal X' (= Y' Z) aumentada en el dispositivo ANC. El dispositivo ANC genera una señal antirruido para bloquear el sonido X ambiental del oído, y la etapa AO10 de salida de audio reproduce la señal X' aumentada en el oído.
La Figura 25A muestra un diagrama de bloques de una implementación AR30 del módulo AR10 de procesamiento de realidad aumentada que incluye una implementación SF20 del filtro SSP SF10 y una implementación AM30 del módulo AM10 de aumento. El filtro SF20 está configurado para realizar una operación SSP en la señal multicanal para separar el componente SC10 fuente del componente BC10 de fondo. El filtro SF20 puede configurarse para producir el componente BC10 de fondo como una diferencia entre la señal multicanal y el componente fuente separado espacialmente (por ejemplo, como los contenedores o tramas de frecuencia no seleccionados). Alternativamente, el filtro SF20 puede implementarse para realizar una operación SSP en la señal multicanal para separar el componente BC10 de fondo del componente SC10 fuente y posiblemente de otro sonido. En este caso, el filtro SF20 puede implementarse para producir el componente BC10 de fondo usando cualquiera de las operaciones SSP descritas en el presente documento (por ejemplo, con base en ganancia y/o diferencias de fase, formación de haces, BSS).
Por ejemplo, el filtro SF20 puede implementarse para producir el componente BC10 de fondo a partir de la señal multicanal aplicando un filtro de formación de haz que tenga un haz ancho en una dirección distinta a la dirección del componente fuente. En otro ejemplo, el filtro SF20 se implementa para producir el componente BC10 de fondo a partir de la señal multicanal aplicando uno o más filtros de formación de haces que tienen haces nulos en las direcciones de las fuentes a excluir (por ejemplo, en la dirección del componente fuente y/o en la dirección de una fuente de ruido (por ejemplo, como en la dirección D de la fuente de ruido de la carretera W en el ejemplo discutido anteriormente)). El módulo AM30 de aumento está configurado para producir una implementación SG20 de la señal SG10 aumentada que se basa en el componente TC10 objetivo y en el componente BC10 de fondo separado.
La Figura 25B muestra un diagrama de bloques de una implementación AM40 del módulo AM20 y AM30 de aumento que incluye un mezclador MX10 configurado para mezclar (por ejemplo, para agregar) el componente TC10 objetivo con el componente BC10 de fondo separado para producir la señal SG20 aumentada.
Puede ser deseable implementar el módulo AR10 de procesamiento AR para detectar y pasar sonidos de advertencia, tales como una sirena, bocina de coche, alarma, u otro sonido destinado a advertir, alertar o captar la atención. Dichos sonidos son típicamente componentes tonales que tienen anchos de banda estrechos en comparación con otras señales de sonido, tales como componentes de voz y ruido. La Figura 26A muestra un diagrama de bloques de una implementación AR100 del módulo AR10 de procesamiento AR que incluye un detector WD10 de sonido de advertencia. El detector WD10 de sonido de advertencia está configurado para detectar un sonido que aparece solo dentro de un rango de frecuencia particular (por ejemplo, a partir de aproximadamente 500 o 1000 Hertz hasta aproximadamente dos o tres kilohercios), tiene un ancho de banda estrecho (por ejemplo, no mayor de aproximadamente cincuenta, cien, o doscientos Hertz), tiene un perfil de ataque agudo (por ejemplo, tiene un aumento de energía no menor a cincuenta, setenta y cinco, o cien por ciento de una trama a la siguiente), y/o tiene una frecuencia de tono que está por encima de un valor umbral (por ejemplo, el sonido del llanto de un bebé). El detector WD10 de sonido de advertencia puede configurarse para realizar dicha detección en el dominio del tiempo, el dominio LPC y/o en un dominio de transformación (por ejemplo, un dominio de Fourier u otro dominio de frecuencia) y para producir una indicación SW10 de advertencia correspondiente. En otro ejemplo, el detector WD10 de sonido de advertencia está configurado para detectar el sonido de un vehículo que se aproxima mediante la detección del efecto Doppler.
El módulo AR100 de procesamiento AR también incluye una implementación AM100 del módulo AM10 de aumento que está configurado para cancelar el aumento del componente SC10 fuente en respuesta a la indicación SW10 de advertencia. El módulo AR100 de procesamiento AR también puede configurarse para anular la operación ANC en respuesta a la indicación SW10 de advertencia y/o para proporcionar una indicación de audio adicional al usuario (por ejemplo, para generar un sonido de alarma).
La detección realizada por el detector WD10 de sonido de advertencia puede ser no direccional (por ejemplo, en un canal de entrada de audio, por separado en dos o más canales de entrada de audio, y/o en una suma de más de un canal de entrada de audio). Alternativamente, el detector WD10 puede implementarse para indicar una dirección del sonido de advertencia al módulo AM100 de aumento para la selección y/o aumento (por ejemplo, amplificación) del sonido de advertencia detectado. En una implementación binaural, dicho aumento puede incluir señales direccionales para indicar la dirección de llegada del sonido de advertencia al usuario. En dicho caso, puede ser deseable no anular la operación ANC y/o realizar una operación PBE en el sonido de advertencia para mejorar la directividad de las bajas frecuencias.
Las mejoras adicionales al método M100 y/o al aparato A100 pueden incluir traducción de audio del entorno escrito (por ejemplo, traducción de audio de signos en otro idioma). Las aplicaciones adicionales incluyen un bastón de sonido virtual configurado para producir un cambio en el tono para indicar obstáculos físicos, como una ayuda de navegación para un usuario con problemas de visión.
La Figura 26B muestra un diagrama de bloques de un aparato MF100 de acuerdo con una configuración general. El aparato MF100 incluye un medio F100 para realizar una operación de cancelación de ruido activa en el primer canal de entrada de audio para producir una señal antirruido (por ejemplo, como se describe en el presente documento con referencia a implementaciones de la tarea T100 y/o filtro AF10 ANC). El aparato MF100 también incluye medios F200 para procesar la señal multicanal para obtener un componente fuente, que incluye medios para realizar una operación de procesamiento espacialmente selectiva en la señal multicanal para separar el componente fuente de un componente de fondo (por ejemplo, como se describe en el presente documento con referencia a implementaciones de tarea t200 y/o módulo SSP SM10). El aparato MF100 también incluye medios F300 para procesar el componente fuente obtenido para producir un componente objetivo (por ejemplo, como se describe en el presente documento con referencia a implementaciones de la tarea T300 y/o módulo AM10 de aumento). El aparato MF100 también incluye medios F400 para combinar la señal antirruido y una señal aumentada que se basa en el componente objetivo para producir una señal de salida de audio (por ejemplo, como se describe en el presente documento con referencia a implementaciones de la tarea T400 y/o etapa AO10 de salida de audio).
La Figura 27A muestra un diagrama de bloques de un sistema ANC general. El filtro adaptativo W(z) se utiliza para estimar la función de transferencia de ruta primaria P(z) a partir de un micrófono de referencia (por ejemplo, micrófono ML10 o MR10), el cual detecta el ruido externo que se cancelará, a un micrófono de error, el cual está más cerca del canal auditivo del usuario que el micrófono de referencia (por ejemplo, está dentro del canal auditivo, está dirigido al canal auditivo, y/o está dentro del campo acústico emitido por el altavoz) y detecta el error acústico en el oído del usuario. También puede ser deseable estimar la función de transferencia de ruta secundaria S(z), la cual incluye la ruta eléctrica y acústica a partir de la señal antirruido generada por el filtro W(z) hasta la señal de error utilizada para adaptar el filtro W(z). Por ejemplo, el algoritmo LMS-X filtrado adapta el filtro W(z) con base en la señal de error y en una versión de la señal de referencia que se filtra mediante una estimación de S(z). Adicional o alternativamente, puede ser deseable tener en cuenta la función de transferencia de ruta de retroalimentación F(z) a partir de la señal antirruido al micrófono de referencia. La tarea T100 y/o el filtro AF10 ANC pueden implementarse de acuerdo con cualquiera de estos principios ANC. Por ejemplo, las Figuras 27B y 27C muestran ejemplos de implementaciones HS15 y HS25 de cascos auriculares HS10 y HS20, respectivamente, que incluyen cada uno una instancia de un micrófono ME10 de error ANC, y las Figuras 28A-C muestran implementaciones EB32, ECR15 y ECR25 similares del auricular EB30 y los auriculares ECR20 y ECR20, respectivamente.
De la Figura 27A, se puede entender que mezclar la señal SG10 aumentada con la señal SA10 antirruido puede hacer que la señal SG10 aumentada retroalimente acústicamente a la señal de referencia (por ejemplo, el canal de entrada de audio) y/o alimentar acústicamente a la señal de error. En consecuencia, puede ser deseable mezclar una versión invertida de la señal SG10 aumentada en una o ambas de la señal de referencia y la señal de error para reducir el efecto de la señal SG10 aumentada en la adaptación del filtro ANC.
Los métodos y aparatos divulgados en el presente documento se pueden aplicar en general en cualquier aplicación de detección de audio y/o transceptor, especialmente en instancias móviles o portátiles de dichas aplicaciones. Por ejemplo, la gama de configuraciones divulgadas en el presente documento incluye dispositivos de comunicaciones que residen en un sistema de comunicaciones de telefonía inalámbrica configurado para emplear una interfaz inalámbrica de acceso múltiple por división de código (CDMA). No obstante, los expertos en la técnica entenderán que un método y un aparato que tienen las características descritas en el presente documento pueden residir en cualquiera de los diversos sistemas de comunicación que emplean una amplia gama de tecnologías conocidas por los expertos en la técnica, tales como sistemas que emplean Voz sobre IP (VoIP) sobre canales de transmisión por cable y/o inalámbricos (por ejemplo, CDMA, TDMA, Fd Ma , y/o TD-SCDMA).
Se contempla expresamente y se divulga por la presente que los dispositivos de comunicaciones divulgados en el presente documento pueden adaptarse para su uso en redes que están conmutadas por paquetes (por ejemplo, redes por cable y/o inalámbricas dispuestas para transportar transmisiones de audio de acuerdo con protocolos tales como VoIP) y/o conmutación de circuitos. También se contempla expresamente y se divulga en el presente documento que los dispositivos de comunicaciones divulgados en el presente documento pueden adaptarse para su uso en sistemas de codificación de banda estrecha (por ejemplo, sistemas que codifican un rango de frecuencia de audio de aproximadamente cuatro o cinco kilohercios) y/o para su uso en sistemas de codificación de banda ancha (por ejemplo, sistemas que codifican frecuencias de audio superiores a cinco kilohercios), que incluyen los sistemas de codificación de banda ancha de banda completa y los sistemas de codificación de banda ancha de banda dividida.
La presentación anterior de las configuraciones descritas se proporciona para permitir que cualquier persona experta en la técnica realice o utilice los métodos y otras estructuras divulgadas en el presente documento. Los diagramas de flujo, diagramas de bloques, y otras estructuras que se muestran y describen en el presente documento son solo ejemplos, y otras variantes de estas estructuras también están dentro del alcance de la divulgación. Son posibles diversas modificaciones a estas configuraciones, y los principios genéricos presentados en el presente documento pueden aplicarse también a otras configuraciones. Por lo tanto, la presente divulgación no pretende limitarse a las configuraciones mostradas anteriormente, sino que solo está definida por las reivindicaciones adjuntas.
Los expertos en la técnica comprenderán que la información y las señales se pueden representar utilizando cualquiera de una diversidad de tecnologías y técnicas diferentes. Por ejemplo, los datos, instrucciones, comandos, información, señales, bits, y símbolos a los que se puede hacer referencia a lo largo de la descripción anterior pueden estar representados por voltajes, corrientes, ondas electromagnéticas, campos o partículas magnéticos, campos o partículas ópticos, o cualquier combinación de los mismos.
Los requisitos de diseño importantes para la implementación de una configuración como se divulga en el presente documento pueden incluir minimizar el retraso de procesamiento y/o la complejidad computacional (en general medida en millones de instrucciones por segundo o MIPS), especialmente para aplicaciones de computación intensiva, tales como aplicaciones para comunicaciones de voz a frecuencias de muestreo superiores a ocho kilohercios (por ejemplo, 12, 16, 32, 44.1, 48, o 192 kHz).
Los objetivos de un sistema de procesamiento de múltiples micrófonos como se describe en el presente documento pueden incluir lograr de diez a doce dB en la reducción de ruido general, preservar el nivel de voz y el color durante el movimiento de un hablante deseado, obtener una percepción de que el ruido se ha movido a un segundo plano. en lugar de una eliminación de ruido agresiva, desverberación de la voz, y/o habilitación de la opción de procesamiento posterior (por ejemplo, enmascaramiento y/o reducción de ruido) para una reducción de ruido más agresiva.
Un aparato como se divulga en el presente documento (por ejemplo, aparato A100, A200, MF100) puede implementarse en cualquier combinación de hardware con software, y/o con firmware, que se considera adecuado para la aplicación pretendida. Por ejemplo, los elementos de dicho aparato pueden fabricarse como dispositivos electrónicos y/u ópticos que residen, por ejemplo, en el mismo chip o entre dos o más chips en un chipset. Un ejemplo de dicho dispositivo es una matriz fija o programable de elementos lógicos, tales como transistores o puertas lógicas, y cualquiera de estos elementos puede implementarse como una o más de dichas matrices. Dos o más, o incluso todos, de estos elementos pueden implementarse dentro de la misma matriz o matrices. Dicha matriz o matrices se pueden implementar dentro de uno o más chips (por ejemplo, dentro de un chipset que incluye dos o más chips).
Uno o más elementos de las diversas implementaciones del aparato divulgado en el presente documento (por ejemplo, el aparato A100, A200, MF100) también pueden implementarse en su totalidad o en parte como uno o más conjuntos de instrucciones dispuestas para ejecutarse en una o más matrices programables o fijas de elementos lógicos, tales como microprocesadores, procesadores integrados, núcleos IP, procesadores de señales digitales, FPGAs (matrices de puertas programables en campo), ASSPs (productos estándar específicos de la aplicación), y ASICs (circuitos integrados específicos de la aplicación). Cualquiera de los diversos elementos de una implementación de un aparato como se divulga en el presente documento también puede incorporarse como uno o más ordenadores (por ejemplo, máquinas que incluyen una o más matrices programadas para ejecutar uno o más conjuntos o secuencias de instrucciones, también llamados “procesadores”), y dos o más, o incluso todos, de estos elementos pueden implementarse dentro del mismo ordenador u ordenadores.
Un procesador u otro medio de procesamiento como se divulga en el presente documento puede fabricarse como uno o más dispositivos electrónicos y/u ópticos que residen, por ejemplo, en el mismo chip o entre dos o más chips en un chipset. Un ejemplo de dicho dispositivo es una matriz fija o programable de elementos lógicos, tales como transistores o puertas lógicas, y cualquiera de estos elementos puede implementarse como una o más de tales matrices. Dicha matriz o matrices se pueden implementar dentro de uno o más chips (por ejemplo, dentro de un chipset que incluye dos o más chips). Ejemplos de dichas matrices incluyen matrices fijas o programables de elementos lógicos, tales como microprocesadores, procesadores integrados, núcleos IP, DSPs, FPGAs, ASSPs, y ASICs. Un procesador u otro medio de procesamiento como se divulga en el presente documento también se puede realizar como uno o más ordenadores (por ejemplo, máquinas que incluyen una o más matrices programadas para ejecutar uno o más conjuntos o secuencias de instrucciones) u otros procesadores. Es posible que un procesador como se describe en el presente documento se use para realizar tareas o ejecutar otros conjuntos de instrucciones que no están directamente relacionadas con el aumento de audio espacialmente selectivo, tal como una tarea relacionada con otra operación de un dispositivo o sistema en el cual el procesador está integrado (por ejemplo, un dispositivo de detección de audio). También es posible que parte de un método como se describe en el presente documento sea realizado por un procesador del dispositivo de detección de audio y que otra parte del método se realice bajo el control de uno o más procesadores.
Los expertos apreciarán que los diversos módulos ilustrativos, bloques lógicos, circuitos, y pruebas y otras operaciones descritas en relación con las configuraciones divulgadas en el presente documento pueden implementarse como hardware electrónico, software informático, o combinaciones de ambos. Dichos módulos, bloques lógicos, circuitos, y operaciones pueden implementarse o realizarse con un procesador de propósito general, un procesador de señal digital (DSP), un ASIC o ASSP, un FPGA u otro dispositivo lógico programable, puerta discreta o lógica de transistor, componentes de hardware discreto, o cualquier combinación de los mismos diseñada para producir la configuración como se divulga en el presente documento. Por ejemplo, dicha configuración puede implementarse al menos en parte como un circuito por cable, como una configuración de circuito fabricada en un circuito integrado específico de la aplicación, o como un programa de firmware cargado en un almacenamiento no volátil o un programa de software cargado a partir de o en un medio de almacenamiento de datos como código legible por máquina, siendo dicho código instrucciones ejecutables por una matriz de elementos lógicos tales como un procesador de propósito general u otra unidad de procesamiento de señales digitales. Un procesador de propósito general puede ser un microprocesador, pero como alternativa, el procesador puede ser cualquier procesador, controlador, microcontrolador, o máquina de estado convencional. Un procesador también puede implementarse como una combinación de dispositivos informáticos, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores junto con un núcleo DSP, o cualquier otra configuración de este tipo. Un módulo de software puede residir en un medio de almacenamiento no transitorio tal como RAM (memoria de acceso aleatorio), ROM (memoria de solo lectura), RAM no volátil (NVRAM) tal como flash RAM, ROM programable borrable (EPROM), ROM programable borrable de manera eléctrica (EEPROM), registros, disco duro, disco desmontable, o un CD-ROM; o en cualquier otra forma de medio de almacenamiento conocida en la técnica. Un medio de almacenamiento ilustrativo está acoplado al procesador de tal manera que el procesador pueda leer información de, y escribir información en, el medio de almacenamiento. Como alternativa, el medio de almacenamiento puede ser parte integral del procesador. El procesador y el medio de almacenamiento pueden residir en un ASIC. El ASIC puede residir en un terminal de usuario. Como alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en un terminal de usuario.
Se observa que los diversos métodos divulgados en el presente documento (por ejemplo, el método M100 y otros métodos divulgados a modo de descripción del funcionamiento de los diversos aparatos descritos en el presente documento) se pueden realizar mediante una matriz de elementos lógicos, tales como un procesador, y que los diversos elementos de un aparato como se describe en el presente documento pueden implementarse en parte como módulos diseñados para ejecutarse en dicha matriz. Como se usa en el presente documento, el término “módulo” o “submódulo” puede referirse a cualquier método, aparato, dispositivo, unidad o medio de almacenamiento de datos legible por ordenador que incluye instrucciones de ordenador (por ejemplo, expresiones lógicas) en forma de software, hardware o firmware. Debe entenderse que se pueden combinar múltiples módulos o sistemas en un módulo o sistema y que un módulo o sistema se puede separar en múltiples módulos o sistemas para realizar las mismas funciones. Cuando se implementa en software u otras instrucciones ejecutables por ordenador, los elementos de un proceso son esencialmente los segmentos de código para realizar las tareas relacionadas, tales como rutinas, programas, objetos, componentes, estructuras de datos, y similares. El término
“software” debe entenderse que incluye código fuente, código en lenguaje de conjunto, código máquina, código binario, firmware, macrocódigo, microcódigo, uno o más conjuntos o secuencias de instrucciones ejecutables por una matriz de elementos lógicos, y cualquier combinación de dichos ejemplos. El programa o los segmentos de código pueden almacenarse en un medio de almacenamiento legible por procesador o transmitirse mediante una señal de datos de ordenador incorporada en una onda portadora a través de un medio de transmisión o enlace de comunicación.
Las implementaciones de métodos, esquemas y técnicas divulgadas en el presente documento también pueden incorporarse de manera tangible (por ejemplo, en características tangibles legibles por ordenador de uno o más medios de almacenamiento legibles por ordenador como se enumeran en el presente documento) como uno o más conjuntos de instrucciones legibles y/o ejecutables por una máquina que incluye una matriz de elementos lógicos (por ejemplo, un procesador, microprocesador, microcontrolador, u otra máquina de estados finitos). El término “medio legible por ordenador” puede incluir cualquier medio que pueda almacenar o transferir información, que incluye los medios de almacenamiento volátiles, no volátiles, desmontables, y no desmontables. Ejemplos de un medio legible por ordenador incluyen un circuito electrónico, un dispositivo de memoria semiconductivo, una ROM, una memoria flash, una ROM borrable (EROM), un disquete u otro almacenamiento magnético, un CD-ROM/DVD u otro almacenamiento óptico, un disco duro, un medio de fibra óptica, un enlace de radiofrecuencia (RF), o cualquier otro medio que se pueda utilizar para almacenar la información deseada y al cual se pueda acceder. La señal de datos de ordenador puede incluir cualquier señal que pueda propagarse a través de un medio de transmisión como canales de red electrónica, fibras ópticas, enlaces de aire, electromagnéticos, de RF, etc. Los segmentos de código pueden descargarse a través de redes de ordenadores tales como Internet o una intranet. En cualquier caso, el alcance de la presente divulgación no debe interpretarse como limitado por dichas realizaciones.
Cada una de las tareas de los métodos descritos en el presente documento (por ejemplo, el método M100 y otros métodos divulgados a modo de descripción del funcionamiento de los diversos aparatos descritos en el presente documento) pueden incorporarse directamente en el hardware, en un módulo de software ejecutado por un procesador, o en una combinación de los dos. En una aplicación típica de una implementación de un método como se divulga en el presente documento, se configura una matriz de elementos lógicos (por ejemplo, puertas lógicas) para realizar una, más de una, o incluso todas las diversas tareas del método. Una o más (posiblemente todas) de las tareas también pueden implementarse como código (por ejemplo, uno o más conjuntos de instrucciones), incorporadas en un producto de programa informático (por ejemplo, uno o más medios de almacenamiento de datos, tales como discos, flash u otros tarjetas de memoria no volátiles, chips de memoria semiconductivos, etc.), que es legible y/o ejecutable por una máquina (por ejemplo, un ordenador) que incluye una matriz de elementos lógicos (por ejemplo, un procesador, microprocesador, microcontrolador, u otra máquina de estado finito). Las tareas de una implementación de un método como se divulga en el presente documento también pueden ser realizadas por más de una matriz o máquina de este tipo. En estas u otras implementaciones, las tareas se pueden realizar dentro de un dispositivo para comunicaciones inalámbricas, tal como un teléfono celular u otro dispositivo que tenga dicha capacidad de comunicación. Un dispositivo de este tipo puede configurarse para comunicarse con redes de conmutación de circuitos y/o de conmutación de paquetes (por ejemplo, utilizando uno o más protocolos tales como VoIP). Por ejemplo, dicho dispositivo puede incluir circuitos de RF configurados para recibir y/o transmitir tramas codificadas.
Se divulga expresamente que los diversos métodos divulgados en el presente documento pueden realizarse mediante un dispositivo de comunicaciones portátil (por ejemplo, un auricular, casco auricular, o asistente digital portátil (PDA)), y que los diversos aparatos descritos en el presente documento pueden incluirse dentro de dicho un dispositivo. Una aplicación típica en tiempo real (por ejemplo, en línea) es una conversación telefónica realizada utilizando un dispositivo móvil de este tipo.
En una o más realizaciones de ejemplo, las operaciones descritas en el presente documento pueden implementarse en hardware, software, firmware, o cualquier combinación de los mismos. Si se implementan en software, dichas operaciones pueden almacenarse o transmitirse a través de un medio legible por ordenador como una o más instrucciones o código. El término “medio legible por ordenador” incluye tanto los medios de almacenamiento legibles por ordenador como los medios de comunicación (por ejemplo, transmisión). A modo de ejemplo, y no de limitación, los medios de almacenamiento legibles por ordenador pueden comprender una matriz de elementos de almacenamiento, tales como memoria semiconductiva (la cual puede incluir, sin limitación, RAM dinámica o estática, ROM, EEPROM y/o RAM flash), o ferroeléctrica, magnetorresistiva, memoria ovónica, polimérica, o de cambio de fase; CD-ROM u otro almacenamiento en disco óptico; y/o almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético. Dichos medios de almacenamiento pueden almacenar información en la forma de instrucciones o estructuras de datos a las que puede acceder un ordenador. Los medios de comunicación pueden comprender cualquier medio que pueda usarse para transportar el código de programa deseado en la forma de instrucciones o estructuras de datos y al que pueda acceder un ordenador, que incluye cualquier medio que facilite la transferencia de un programa de ordenador de un lugar a otro. Además, cualquier conexión se denomina correctamente un medio legible por ordenador. Por ejemplo, si el software se transmite a partir de un sitio web, servidor, u otra fuente remota utilizando un cable coaxial, cable de fibra óptica, par trenzado, línea de abonado digital (DSL), o tecnología inalámbrica tal como infrarrojos, radio, y/o microondas, entonces el cable coaxial, cable de fibra óptica, par trenzado, DSL o tecnología inalámbrica tal como infrarrojos, radio, y/o microondas se incluyen en la
definición de medio. El disco y el disco magnético, como se usan en el presente documento, incluyen disco compacto (CD), disco láser, disco óptico, disco versátil digital (DVD), disquete, y disco Blu-ray™ (Blu-Ray Disc Association, Universal City, CA), donde los discos en general reproducen datos magnéticamente, a la vez que los discos reproducen datos ópticamente con láseres. Las combinaciones de los anteriores también deben incluirse dentro del alcance de los medios legibles por ordenador.
Un aparato de procesamiento de señales acústicas como se describe en el presente documento (por ejemplo, aparato A100, MF100) puede incorporarse en un dispositivo electrónico que acepta entrada de voz con el fin controlar ciertas operaciones, o puede beneficiarse de otra manera de la separación de los ruidos deseados de los ruidos de fondo, tales como dispositivos de comunicaciones. Diversas aplicaciones pueden beneficiarse de mejorar o separar el sonido claro deseado de los sonidos de fondo que se originan en múltiples direcciones. Dichas aplicaciones pueden incluir interfaces hombre-máquina en dispositivos electrónicos o informáticos que incorporan capacidades tales como reconocimiento y detección de voz, mejora y separación de voz, control activado por voz, y similares. Puede ser deseable implementar un aparato de procesamiento de señales acústicas de este tipo para que sea adecuado en dispositivos que solo proporcionan capacidades de procesamiento limitadas.
Los elementos de las diversas implementaciones de los módulos, elementos y dispositivos descritos en el presente documento pueden fabricarse como dispositivos electrónicos y/u ópticos que residen, por ejemplo, en el mismo chip o entre dos o más chips en un chipset. Un ejemplo de un dispositivo de este tipo es una matriz fija o programable de elementos lógicos, tales como transistores o puertas. Uno o más elementos de las diversas implementaciones del aparato descrito en el presente documento también pueden implementarse en su totalidad o en parte como uno o más conjuntos de instrucciones dispuestas para ejecutarse en una o más matrices fijas o programables de elementos lógicos tales como microprocesadores, procesadores integrados, núcleos IP, procesadores de señales digitales, FPGAs, ASSPs, y ASICs.
Es posible que uno o más elementos de una implementación de un aparato como se describe en el presente documento se utilicen para realizar tareas o ejecutar otros conjuntos de instrucciones que no están directamente relacionadas con una operación del aparato, tal como una tarea relacionada con otra operación de un dispositivo o sistema en el cual está integrado el aparato. También es posible que uno o más elementos de una implementación de dicho aparato tengan una estructura en común (por ejemplo, un procesador usado para ejecutar porciones de código correspondientes a diferentes elementos en diferentes momentos, un conjunto de instrucciones ejecutadas para realizar tareas correspondientes a diferentes elementos en diferentes momentos, o una disposición de dispositivos electrónicos y/u ópticos que realizan operaciones para diferentes elementos en diferentes momentos).
Claims (16)
1. Un método (M100) para procesar una señal multicanal que incluye un primer canal de entrada de audio y un segundo canal de entrada de audio, comprendiendo dicho método:
realizar (T100) una operación de cancelación activa de ruido en el primer canal de entrada de audio para producir una señal antirruido;
procesar (T200) la señal multicanal para obtener un componente fuente, incluyendo dicho procesamiento realizar una operación de procesamiento espacialmente selectiva en la señal multicanal para separar el componente fuente de un componente de fondo;
procesar (T300) el componente fuente separado obtenido para producir un componente objetivo:
producir una señal aumentada del componente objetivo, en donde la señal aumentada es una señal estéreo que proporciona una dirección de llegada percibida correspondiente a una dirección de llegada asociada con el componente fuente separado obtenido, en donde la dirección de llegada asociada con el componente fuente separado obtenido se determina a partir del primer canal de entrada de audio y el segundo canal de entrada de audio; y
combinar (T400) la señal antirruido y la señal aumentada para producir una señal de salida de audio.
2. El método de procesamiento de señales de acuerdo con la reivindicación 1, en donde dicho método comprende combinar el componente objetivo y el componente de fondo separado para producir la señal aumentada.
3. Un aparato configurado para procesar una señal multicanal que incluye un primer canal de entrada de audio y un segundo canal de entrada de audio, comprendiendo dicho aparato:
medios para realizar una operación (AF10) de cancelación activa de ruido en el primer canal de entrada de audio para producir una señal (SA10, SA20) antirruido;
medios para procesar (AR20) la señal multicanal para obtener un componente (SC10) fuente, dichos medios para procesar incluyen medios para realizar una operación (SM10, SF10) de procesamiento espacialmente selectiva en la señal multicanal para separar el componente (SC10) fuente de un componente de fondo;
medios para procesar (PM10) el componente fuente separado obtenido para producir un componente (TC10) objetivo;
medios para producir una señal aumentada a partir del componente objetivo, en donde la señal aumentada es una señal estéreo que proporciona una dirección de llegada percibida correspondiente a una dirección de llegada asociada con el componente fuente separado obtenido, en donde la dirección de llegada asociada con el componente fuente separado obtenido se determina a partir del primer canal de entrada de audio y el segundo canal de entrada de audio; y
medios para combinar (AO10, AO20) la señal (SA10, SA20) antirruido y la señal (SG10) aumentada para producir una señal (SOIO, SO20) de salida de audio.
4. El aparato de acuerdo con la reivindicación 3, en donde dicho aparato incluye medios para combinar el componente objetivo y el componente de fondo separado para producir la señal aumentada.
5. El aparato de acuerdo con una cualquiera de las reivindicaciones 3 y 4, en donde dicha operación de procesamiento espacialmente selectiva incluye aplicar un haz en una dirección de la fuente para producir el componente fuente.
6. El aparato de acuerdo con una cualquiera de las reivindicaciones 3-5, en donde dicha operación de procesamiento espacialmente selectiva incluye aplicar un haz nulo en la dirección de la fuente para producir el componente de fondo.
7. El aparato de acuerdo con la reivindicación 6, en donde dicha operación de procesamiento espacialmente selectiva incluye aplicar un segundo haz nulo en una dirección de una fuente de ruido para producir el componente de fondo.
8. El aparato de acuerdo con una cualquiera de las reivindicaciones 3-7, en donde dicha operación de procesamiento espacialmente selectivo se basa en al menos una entre, A, diferencias de fase entre el primer y segundo canales de entrada de audio y, B, diferencias de ganancia entre el primer y el segundo canales de entrada de audio.
9. El aparato de acuerdo con cualquiera de las reivindicaciones 3-8, en donde dichos medios para procesar el componente fuente separado obtenido comprenden medios para aumentar la perceptibilidad del componente fuente separado obtenido amplificando el componente fuente separado obtenido.
10. El aparato de acuerdo con cualquiera de las reivindicaciones 3-8, en donde dichos medios para procesar el componente fuente separado obtenido comprenden medios para aumentar la perceptibilidad del componente fuente separado obtenido en al menos uno entre comprimir un rango dinámico del componente fuente separado obtenido, desverberar el componente fuente separado obtenido y alterar un espectro de frecuencia del componente fuente separado obtenido.
11. El aparato de acuerdo con cualquiera de las reivindicaciones 3-8, en donde dichos medios para procesar el componente fuente separado obtenido comprenden medios para aumentar la perceptibilidad del contenido de voz del componente fuente separado obtenido traduciendo dicho contenido de voz de un primer idioma hablado a un segundo idioma hablado que es diferente del primer idioma hablado.
12. Aparato de acuerdo con una cualquiera de las reivindicaciones 3-8, en donde dichos medios para procesar el componente fuente separado obtenido comprenden medios para aumentar la perceptibilidad del contenido de voz del componente fuente separado obtenido variando la velocidad de dicho contenido de voz.
13. El aparato de acuerdo con cualquiera de las reivindicaciones 3-8, en donde dichos medios para procesar el componente fuente separado obtenido comprenden medios para aumentar la perceptibilidad del contenido de voz del componente fuente separado obtenido produciendo dicho componente objetivo para que tenga un mayor número de períodos de tono que dicho componente fuente separado obtenido.
14. El aparato de acuerdo con una cualquiera de las reivindicaciones 5-13, en donde dicho aparato comprende medios para activar un altavoz para producir una señal acústica que se basa en la señal de salida de audio, en donde el altavoz está dispuesto para llevarse en la oreja de un usuario y dirigido a un canal auditivo del usuario, y en donde dicha operación de cancelación activa de ruido se basa en una señal de error producida por un micrófono de error, en donde el micrófono de error está dispuesto para dirigirse al canal auditivo.
15. El aparato de acuerdo con cualquiera de las reivindicaciones 5-13, en donde dicha realización de una operación de procesamiento espacialmente selectiva en la señal multicanal para separar el componente fuente del componente de fondo incluye separar la voz de una persona distinta del usuario del componente de fondo.
16. Un medio de almacenamiento legible por ordenador que comprende instrucciones las cuales, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1-2.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161445974P | 2011-02-23 | 2011-02-23 | |
US13/401,688 US9037458B2 (en) | 2011-02-23 | 2012-02-21 | Systems, methods, apparatus, and computer-readable media for spatially selective audio augmentation |
PCT/US2012/026120 WO2012161781A1 (en) | 2011-02-23 | 2012-02-22 | Systems, methods, apparatus, and computer-readable media for spatially selective audio augmentation |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2898717T3 true ES2898717T3 (es) | 2022-03-08 |
Family
ID=46653491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES12716739T Active ES2898717T3 (es) | 2011-02-23 | 2012-02-22 | Sistemas, métodos, aparatos, y medios legibles por ordenador para un aumento de audio espacialmente selectivo |
Country Status (7)
Country | Link |
---|---|
US (1) | US9037458B2 (es) |
EP (1) | EP2679022B1 (es) |
JP (2) | JP2014511612A (es) |
KR (1) | KR101606966B1 (es) |
CN (1) | CN103392349B (es) |
ES (1) | ES2898717T3 (es) |
WO (1) | WO2012161781A1 (es) |
Families Citing this family (197)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007147077A2 (en) | 2006-06-14 | 2007-12-21 | Personics Holdings Inc. | Earguard monitoring system |
US11450331B2 (en) | 2006-07-08 | 2022-09-20 | Staton Techiya, Llc | Personal audio assistant device and method |
EP2044804A4 (en) | 2006-07-08 | 2013-12-18 | Personics Holdings Inc | PERSONAL HEARING AID AND METHOD |
US8917894B2 (en) | 2007-01-22 | 2014-12-23 | Personics Holdings, LLC. | Method and device for acute sound detection and reproduction |
US8254591B2 (en) | 2007-02-01 | 2012-08-28 | Personics Holdings Inc. | Method and device for audio recording |
US11750965B2 (en) | 2007-03-07 | 2023-09-05 | Staton Techiya, Llc | Acoustic dampening compensation system |
WO2008124786A2 (en) | 2007-04-09 | 2008-10-16 | Personics Holdings Inc. | Always on headwear recording system |
US11317202B2 (en) | 2007-04-13 | 2022-04-26 | Staton Techiya, Llc | Method and device for voice operated control |
US11683643B2 (en) | 2007-05-04 | 2023-06-20 | Staton Techiya Llc | Method and device for in ear canal echo suppression |
US10194032B2 (en) | 2007-05-04 | 2019-01-29 | Staton Techiya, Llc | Method and apparatus for in-ear canal sound suppression |
US11856375B2 (en) | 2007-05-04 | 2023-12-26 | Staton Techiya Llc | Method and device for in-ear echo suppression |
US10009677B2 (en) | 2007-07-09 | 2018-06-26 | Staton Techiya, Llc | Methods and mechanisms for inflation |
US8600067B2 (en) | 2008-09-19 | 2013-12-03 | Personics Holdings Inc. | Acoustic sealing analysis system |
US9129291B2 (en) | 2008-09-22 | 2015-09-08 | Personics Holdings, Llc | Personalized sound management and method |
US8554350B2 (en) | 2008-10-15 | 2013-10-08 | Personics Holdings Inc. | Device and method to reduce ear wax clogging of acoustic ports, hearing aid sealing system, and feedback reduction system |
US9138353B2 (en) | 2009-02-13 | 2015-09-22 | Personics Holdings, Llc | Earplug and pumping systems |
EP2586216A1 (en) | 2010-06-26 | 2013-05-01 | Personics Holdings, Inc. | Method and devices for occluding an ear canal having a predetermined filter characteristic |
US8908877B2 (en) | 2010-12-03 | 2014-12-09 | Cirrus Logic, Inc. | Ear-coupling detection and adjustment of adaptive response in noise-canceling in personal audio devices |
KR101909432B1 (ko) | 2010-12-03 | 2018-10-18 | 씨러스 로직 인코포레이티드 | 개인용 오디오 디바이스에서 적응형 잡음 제거기의 실수 제어 |
US10045321B2 (en) | 2010-12-30 | 2018-08-07 | Staton Techiya, Llc | Information processing using a population of data acquisition devices |
US10356532B2 (en) | 2011-03-18 | 2019-07-16 | Staton Techiya, Llc | Earpiece and method for forming an earpiece |
US10362381B2 (en) | 2011-06-01 | 2019-07-23 | Staton Techiya, Llc | Methods and devices for radio frequency (RF) mitigation proximate the ear |
US8948407B2 (en) | 2011-06-03 | 2015-02-03 | Cirrus Logic, Inc. | Bandlimiting anti-noise in personal audio devices having adaptive noise cancellation (ANC) |
US8958571B2 (en) * | 2011-06-03 | 2015-02-17 | Cirrus Logic, Inc. | MIC covering detection in personal audio devices |
US9824677B2 (en) | 2011-06-03 | 2017-11-21 | Cirrus Logic, Inc. | Bandlimiting anti-noise in personal audio devices having adaptive noise cancellation (ANC) |
US9318094B2 (en) | 2011-06-03 | 2016-04-19 | Cirrus Logic, Inc. | Adaptive noise canceling architecture for a personal audio device |
US9214150B2 (en) | 2011-06-03 | 2015-12-15 | Cirrus Logic, Inc. | Continuous adaptation of secondary path adaptive response in noise-canceling personal audio devices |
US9325821B1 (en) * | 2011-09-30 | 2016-04-26 | Cirrus Logic, Inc. | Sidetone management in an adaptive noise canceling (ANC) system including secondary path modeling |
US9014387B2 (en) | 2012-04-26 | 2015-04-21 | Cirrus Logic, Inc. | Coordinated control of adaptive noise cancellation (ANC) among earspeaker channels |
US9142205B2 (en) | 2012-04-26 | 2015-09-22 | Cirrus Logic, Inc. | Leakage-modeling adaptive noise canceling for earspeakers |
US9082387B2 (en) | 2012-05-10 | 2015-07-14 | Cirrus Logic, Inc. | Noise burst adaptation of secondary path adaptive response in noise-canceling personal audio devices |
US9318090B2 (en) | 2012-05-10 | 2016-04-19 | Cirrus Logic, Inc. | Downlink tone detection and adaptation of a secondary path response model in an adaptive noise canceling system |
US9319781B2 (en) | 2012-05-10 | 2016-04-19 | Cirrus Logic, Inc. | Frequency and direction-dependent ambient sound handling in personal audio devices having adaptive noise cancellation (ANC) |
US9123321B2 (en) | 2012-05-10 | 2015-09-01 | Cirrus Logic, Inc. | Sequenced adaptation of anti-noise generator response and secondary path response in an adaptive noise canceling system |
US9082388B2 (en) | 2012-05-25 | 2015-07-14 | Bose Corporation | In-ear active noise reduction earphone |
US9264524B2 (en) | 2012-08-03 | 2016-02-16 | The Penn State Research Foundation | Microphone array transducer for acoustic musical instrument |
US8884150B2 (en) * | 2012-08-03 | 2014-11-11 | The Penn State Research Foundation | Microphone array transducer for acoustical musical instrument |
WO2014039026A1 (en) | 2012-09-04 | 2014-03-13 | Personics Holdings, Inc. | Occlusion device capable of occluding an ear canal |
US9479872B2 (en) * | 2012-09-10 | 2016-10-25 | Sony Corporation | Audio reproducing method and apparatus |
US9532139B1 (en) | 2012-09-14 | 2016-12-27 | Cirrus Logic, Inc. | Dual-microphone frequency amplitude response self-calibration |
US9313572B2 (en) | 2012-09-28 | 2016-04-12 | Apple Inc. | System and method of detecting a user's voice activity using an accelerometer |
US9438985B2 (en) | 2012-09-28 | 2016-09-06 | Apple Inc. | System and method of detecting a user's voice activity using an accelerometer |
WO2014053024A1 (en) | 2012-10-05 | 2014-04-10 | Wolfson Dynamic Hearing Pty Ltd | Binaural hearing system and method |
US10194239B2 (en) * | 2012-11-06 | 2019-01-29 | Nokia Technologies Oy | Multi-resolution audio signals |
US9544692B2 (en) * | 2012-11-19 | 2017-01-10 | Bitwave Pte Ltd. | System and apparatus for boomless-microphone construction for wireless helmet communicator with siren signal detection and classification capability |
US10043535B2 (en) * | 2013-01-15 | 2018-08-07 | Staton Techiya, Llc | Method and device for spectral expansion for an audio signal |
US9107010B2 (en) | 2013-02-08 | 2015-08-11 | Cirrus Logic, Inc. | Ambient noise root mean square (RMS) detector |
US9369798B1 (en) | 2013-03-12 | 2016-06-14 | Cirrus Logic, Inc. | Internal dynamic range control in an adaptive noise cancellation (ANC) system |
US10306389B2 (en) | 2013-03-13 | 2019-05-28 | Kopin Corporation | Head wearable acoustic system with noise canceling microphone geometry apparatuses and methods |
US9257952B2 (en) | 2013-03-13 | 2016-02-09 | Kopin Corporation | Apparatuses and methods for multi-channel signal compression during desired voice activity detection |
US9414150B2 (en) | 2013-03-14 | 2016-08-09 | Cirrus Logic, Inc. | Low-latency multi-driver adaptive noise canceling (ANC) system for a personal audio device |
US9215749B2 (en) | 2013-03-14 | 2015-12-15 | Cirrus Logic, Inc. | Reducing an acoustic intensity vector with adaptive noise cancellation with two error microphones |
US9363596B2 (en) | 2013-03-15 | 2016-06-07 | Apple Inc. | System and method of mixing accelerometer and microphone signals to improve voice quality in a mobile device |
US9635480B2 (en) | 2013-03-15 | 2017-04-25 | Cirrus Logic, Inc. | Speaker impedance monitoring |
US9208771B2 (en) | 2013-03-15 | 2015-12-08 | Cirrus Logic, Inc. | Ambient noise-based adaptation of secondary path adaptive response in noise-canceling personal audio devices |
US9324311B1 (en) | 2013-03-15 | 2016-04-26 | Cirrus Logic, Inc. | Robust adaptive noise canceling (ANC) in a personal audio device |
US9467776B2 (en) | 2013-03-15 | 2016-10-11 | Cirrus Logic, Inc. | Monitoring of speaker impedance to detect pressure applied between mobile device and ear |
EP2984852B1 (en) * | 2013-04-08 | 2021-08-04 | Nokia Technologies Oy | Method and apparatus for recording spatial audio |
US10206032B2 (en) | 2013-04-10 | 2019-02-12 | Cirrus Logic, Inc. | Systems and methods for multi-mode adaptive noise cancellation for audio headsets |
US9462376B2 (en) | 2013-04-16 | 2016-10-04 | Cirrus Logic, Inc. | Systems and methods for hybrid adaptive noise cancellation |
CN103226197A (zh) * | 2013-04-16 | 2013-07-31 | 哈尔滨工程大学 | 一种基于音色参数模型的水下目标回波分类方法 |
US9460701B2 (en) | 2013-04-17 | 2016-10-04 | Cirrus Logic, Inc. | Systems and methods for adaptive noise cancellation by biasing anti-noise level |
US9478210B2 (en) | 2013-04-17 | 2016-10-25 | Cirrus Logic, Inc. | Systems and methods for hybrid adaptive noise cancellation |
US9578432B1 (en) | 2013-04-24 | 2017-02-21 | Cirrus Logic, Inc. | Metric and tool to evaluate secondary path design in adaptive noise cancellation systems |
US9712266B2 (en) * | 2013-05-21 | 2017-07-18 | Apple Inc. | Synchronization of multi-channel audio communicated over bluetooth low energy |
US9264808B2 (en) | 2013-06-14 | 2016-02-16 | Cirrus Logic, Inc. | Systems and methods for detection and cancellation of narrow-band noise |
US9747899B2 (en) * | 2013-06-27 | 2017-08-29 | Amazon Technologies, Inc. | Detecting self-generated wake expressions |
US9392364B1 (en) | 2013-08-15 | 2016-07-12 | Cirrus Logic, Inc. | Virtual microphone for adaptive noise cancellation in personal audio devices |
US11170089B2 (en) | 2013-08-22 | 2021-11-09 | Staton Techiya, Llc | Methods and systems for a voice ID verification database and service in social networking and commercial business transactions |
US9666176B2 (en) | 2013-09-13 | 2017-05-30 | Cirrus Logic, Inc. | Systems and methods for adaptive noise cancellation by adaptively shaping internal white noise to train a secondary path |
US9167082B2 (en) | 2013-09-22 | 2015-10-20 | Steven Wayne Goldstein | Methods and systems for voice augmented caller ID / ring tone alias |
US10405163B2 (en) * | 2013-10-06 | 2019-09-03 | Staton Techiya, Llc | Methods and systems for establishing and maintaining presence information of neighboring bluetooth devices |
US9620101B1 (en) | 2013-10-08 | 2017-04-11 | Cirrus Logic, Inc. | Systems and methods for maintaining playback fidelity in an audio system with adaptive noise cancellation |
US9324338B2 (en) * | 2013-10-22 | 2016-04-26 | Mitsubishi Electric Research Laboratories, Inc. | Denoising noisy speech signals using probabilistic model |
US10045135B2 (en) | 2013-10-24 | 2018-08-07 | Staton Techiya, Llc | Method and device for recognition and arbitration of an input connection |
ITTO20130968A1 (it) * | 2013-11-28 | 2015-05-29 | St Microelectronics Srl | Microfono a matrice e metodo di acquisizione di segnali acustici |
US9432762B2 (en) * | 2013-12-02 | 2016-08-30 | Blackberry Limited | Back cavity microphone implementation |
US9704472B2 (en) | 2013-12-10 | 2017-07-11 | Cirrus Logic, Inc. | Systems and methods for sharing secondary path information between audio channels in an adaptive noise cancellation system |
US10219071B2 (en) | 2013-12-10 | 2019-02-26 | Cirrus Logic, Inc. | Systems and methods for bandlimiting anti-noise in personal audio devices having adaptive noise cancellation |
US10382864B2 (en) | 2013-12-10 | 2019-08-13 | Cirrus Logic, Inc. | Systems and methods for providing adaptive playback equalization in an audio device |
US10043534B2 (en) | 2013-12-23 | 2018-08-07 | Staton Techiya, Llc | Method and device for spectral expansion for an audio signal |
US9414964B2 (en) | 2014-01-03 | 2016-08-16 | Harman International Industries, Inc. | Earplug for selectively providing sound to a user |
US9716939B2 (en) | 2014-01-06 | 2017-07-25 | Harman International Industries, Inc. | System and method for user controllable auditory environment customization |
US20170194019A1 (en) * | 2014-02-14 | 2017-07-06 | Donald James DERRICK | System for audio analysis and perception enhancement |
US9369557B2 (en) | 2014-03-05 | 2016-06-14 | Cirrus Logic, Inc. | Frequency-dependent sidetone calibration |
US9479860B2 (en) | 2014-03-07 | 2016-10-25 | Cirrus Logic, Inc. | Systems and methods for enhancing performance of audio transducer based on detection of transducer status |
US9648410B1 (en) | 2014-03-12 | 2017-05-09 | Cirrus Logic, Inc. | Control of audio output of headphone earbuds based on the environment around the headphone earbuds |
US9319784B2 (en) | 2014-04-14 | 2016-04-19 | Cirrus Logic, Inc. | Frequency-shaped noise-based adaptation of secondary path adaptive response in noise-canceling personal audio devices |
JP6268033B2 (ja) * | 2014-04-24 | 2018-01-24 | 京セラ株式会社 | 携帯端末 |
US9609416B2 (en) | 2014-06-09 | 2017-03-28 | Cirrus Logic, Inc. | Headphone responsive to optical signaling |
KR102242118B1 (ko) * | 2014-06-09 | 2021-04-20 | 삼성전자 주식회사 | 신호 보상 방법 및 장치 |
US10181315B2 (en) | 2014-06-13 | 2019-01-15 | Cirrus Logic, Inc. | Systems and methods for selectively enabling and disabling adaptation of an adaptive noise cancellation system |
US9478212B1 (en) | 2014-09-03 | 2016-10-25 | Cirrus Logic, Inc. | Systems and methods for use of adaptive secondary path estimate to control equalization in an audio device |
CN105530569A (zh) | 2014-09-30 | 2016-04-27 | 杜比实验室特许公司 | 耳机混合主动噪声消除和噪声补偿 |
US10163453B2 (en) | 2014-10-24 | 2018-12-25 | Staton Techiya, Llc | Robust voice activity detector system for use with an earphone |
US10497353B2 (en) * | 2014-11-05 | 2019-12-03 | Voyetra Turtle Beach, Inc. | Headset with user configurable noise cancellation vs ambient noise pickup |
EP3227884A4 (en) * | 2014-12-05 | 2018-05-09 | Stages PCS, LLC | Active noise control and customized audio system |
US10609475B2 (en) | 2014-12-05 | 2020-03-31 | Stages Llc | Active noise control and customized audio system |
US9622013B2 (en) * | 2014-12-08 | 2017-04-11 | Harman International Industries, Inc. | Directional sound modification |
US10575117B2 (en) * | 2014-12-08 | 2020-02-25 | Harman International Industries, Incorporated | Directional sound modification |
US10413240B2 (en) | 2014-12-10 | 2019-09-17 | Staton Techiya, Llc | Membrane and balloon systems and designs for conduits |
US9552805B2 (en) | 2014-12-19 | 2017-01-24 | Cirrus Logic, Inc. | Systems and methods for performance and stability control for feedback adaptive noise cancellation |
US20180270571A1 (en) * | 2015-01-21 | 2018-09-20 | Harman International Industries, Incorporated | Techniques for amplifying sound based on directions of interest |
DK3057337T3 (da) * | 2015-02-13 | 2020-05-11 | Oticon As | Høreapparat omfattende en adskilt mikrofonenhed til at opfange en brugers egen stemme |
US20160300562A1 (en) * | 2015-04-08 | 2016-10-13 | Apple Inc. | Adaptive feedback control for earbuds, headphones, and handsets |
US10709388B2 (en) | 2015-05-08 | 2020-07-14 | Staton Techiya, Llc | Biometric, physiological or environmental monitoring using a closed chamber |
US9760790B2 (en) * | 2015-05-12 | 2017-09-12 | Microsoft Technology Licensing, Llc | Context-aware display of objects in mixed environments |
US10418016B2 (en) | 2015-05-29 | 2019-09-17 | Staton Techiya, Llc | Methods and devices for attenuating sound in a conduit or chamber |
US20170018282A1 (en) * | 2015-07-16 | 2017-01-19 | Chunghwa Picture Tubes, Ltd. | Audio processing system and audio processing method thereof |
FR3039310B1 (fr) * | 2015-07-24 | 2017-08-18 | Orosound | Dispositif de controle actif de bruit |
FR3039311B1 (fr) * | 2015-07-24 | 2017-08-18 | Orosound | Dispositif de controle actif de bruit |
US10026388B2 (en) | 2015-08-20 | 2018-07-17 | Cirrus Logic, Inc. | Feedback adaptive noise cancellation (ANC) controller and method having a feedback response partially provided by a fixed-response filter |
US9578415B1 (en) | 2015-08-21 | 2017-02-21 | Cirrus Logic, Inc. | Hybrid adaptive noise cancellation system with filtered error microphone signal |
KR20170024913A (ko) * | 2015-08-26 | 2017-03-08 | 삼성전자주식회사 | 복수의 마이크들을 이용한 잡음 제거 전자 장치 및 잡음 제거 방법 |
US9947364B2 (en) | 2015-09-16 | 2018-04-17 | Google Llc | Enhancing audio using multiple recording devices |
US11631421B2 (en) * | 2015-10-18 | 2023-04-18 | Solos Technology Limited | Apparatuses and methods for enhanced speech recognition in variable environments |
US11277210B2 (en) | 2015-11-19 | 2022-03-15 | The Hong Kong University Of Science And Technology | Method, system and storage medium for signal separation |
EP3182406B1 (en) * | 2015-12-16 | 2020-04-01 | Harman Becker Automotive Systems GmbH | Sound reproduction with active noise control in a helmet |
WO2017106862A1 (en) * | 2015-12-18 | 2017-06-22 | Ppip Llc | Enpoint security appliance/sensor platform |
KR102549689B1 (ko) | 2015-12-24 | 2023-06-30 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 동작 제어 방법 |
EP3188507A1 (en) | 2015-12-30 | 2017-07-05 | GN Resound A/S | A head-wearable hearing device |
US9747887B2 (en) * | 2016-01-12 | 2017-08-29 | Bose Corporation | Systems and methods of active noise reduction in headphones |
US10616693B2 (en) | 2016-01-22 | 2020-04-07 | Staton Techiya Llc | System and method for efficiency among devices |
WO2017136573A1 (en) * | 2016-02-02 | 2017-08-10 | Dts, Inc. | Augmented reality headphone environment rendering |
US9997173B2 (en) * | 2016-03-14 | 2018-06-12 | Apple Inc. | System and method for performing automatic gain control using an accelerometer in a headset |
US10013966B2 (en) | 2016-03-15 | 2018-07-03 | Cirrus Logic, Inc. | Systems and methods for adaptive active noise cancellation for multiple-driver personal audio device |
WO2017190219A1 (en) | 2016-05-06 | 2017-11-09 | Eers Global Technologies Inc. | Device and method for improving the quality of in- ear microphone signals in noisy environments |
US10547947B2 (en) * | 2016-05-18 | 2020-01-28 | Qualcomm Incorporated | Device for generating audio output |
JP2018007256A (ja) * | 2016-07-04 | 2018-01-11 | イーエム−テック・カンパニー・リミテッドEM−TECH.Co.,Ltd. | オーディオフォーカシング機能を備える音声増幅装置 |
US10045110B2 (en) * | 2016-07-06 | 2018-08-07 | Bragi GmbH | Selective sound field environment processing system and method |
US11085871B2 (en) * | 2016-07-06 | 2021-08-10 | Bragi GmbH | Optical vibration detection system and method |
GB2552178A (en) * | 2016-07-12 | 2018-01-17 | Samsung Electronics Co Ltd | Noise suppressor |
CN106452498B (zh) * | 2016-11-08 | 2019-03-22 | 邦达诚科技(常州)有限公司 | 用于放射源环境的信息设备及其控制方法 |
JP6670224B2 (ja) * | 2016-11-14 | 2020-03-18 | 株式会社日立製作所 | 音声信号処理システム |
US10945080B2 (en) | 2016-11-18 | 2021-03-09 | Stages Llc | Audio analysis and processing system |
US9980075B1 (en) | 2016-11-18 | 2018-05-22 | Stages Llc | Audio source spatialization relative to orientation sensor and output |
US10616685B2 (en) * | 2016-12-22 | 2020-04-07 | Gn Hearing A/S | Method and device for streaming communication between hearing devices |
EP3346726A1 (en) | 2017-01-04 | 2018-07-11 | Harman Becker Automotive Systems GmbH | Arrangements and methods for active noise cancelling |
EP3583785A1 (en) * | 2017-02-20 | 2019-12-25 | Sonova AG | A method for operating a hearing system, a hearing system and a fitting system |
BR112019018089A2 (pt) * | 2017-03-07 | 2020-03-24 | Sony Corporation | Dispositivo e método de processamento de sinal, e, programa. |
US10878819B1 (en) * | 2017-04-25 | 2020-12-29 | United Services Automobile Association (Usaa) | System and method for enabling real-time captioning for the hearing impaired via augmented reality |
US20180324514A1 (en) * | 2017-05-05 | 2018-11-08 | Apple Inc. | System and method for automatic right-left ear detection for headphones |
IT201700073663A1 (it) * | 2017-06-30 | 2018-12-30 | Torino Politecnico | Audio signal digital processing method and system thereof |
US10567904B2 (en) * | 2017-08-23 | 2020-02-18 | Harman International Industries, Incorporated | System and method for headphones for monitoring an environment outside of a user's field of view |
CN107864419A (zh) * | 2017-10-23 | 2018-03-30 | 恒玄科技(上海)有限公司 | 一种用于主动降噪的模拟、数字混合降噪系统 |
US10405082B2 (en) | 2017-10-23 | 2019-09-03 | Staton Techiya, Llc | Automatic keyword pass-through system |
EP3664084B1 (en) | 2017-10-25 | 2024-04-17 | Samsung Electronics Co., Ltd. | Electronic device and control method therefor |
DK3477964T3 (da) | 2017-10-27 | 2021-05-25 | Oticon As | Høresystem, der er konfigureret til at lokalisere en mållydkilde |
CN107889002B (zh) * | 2017-10-30 | 2019-08-27 | 恒玄科技(上海)有限公司 | 颈环蓝牙耳机、颈环蓝牙耳机的降噪系统及降噪方法 |
US11540054B2 (en) * | 2018-01-03 | 2022-12-27 | Google Llc | Using auxiliary device case for translation |
WO2019157069A1 (en) * | 2018-02-09 | 2019-08-15 | Google Llc | Concurrent reception of multiple user speech input for translation |
CA3093304A1 (en) | 2018-03-09 | 2019-09-12 | Staton Techiya, Llc | Eartips and earphone devices, and systems and methods therefore |
US11607155B2 (en) | 2018-03-10 | 2023-03-21 | Staton Techiya, Llc | Method to estimate hearing impairment compensation function |
US10951994B2 (en) | 2018-04-04 | 2021-03-16 | Staton Techiya, Llc | Method to acquire preferred dynamic range function for speech enhancement |
WO2019199862A1 (en) * | 2018-04-09 | 2019-10-17 | Human, Incorporated | Translation system |
US11488590B2 (en) | 2018-05-09 | 2022-11-01 | Staton Techiya Llc | Methods and systems for processing, storing, and publishing data collected by an in-ear device |
CN112513976A (zh) * | 2018-05-16 | 2021-03-16 | 多特瑞尔技术有限公司 | 用于音频捕获的系统和方法 |
CN108648756A (zh) * | 2018-05-21 | 2018-10-12 | 百度在线网络技术(北京)有限公司 | 语音交互方法、装置和系统 |
US11122354B2 (en) | 2018-05-22 | 2021-09-14 | Staton Techiya, Llc | Hearing sensitivity acquisition methods and devices |
US11032664B2 (en) | 2018-05-29 | 2021-06-08 | Staton Techiya, Llc | Location based audio signal message processing |
EP3582511A3 (en) * | 2018-06-12 | 2020-03-18 | Harman International Industries, Incorporated | Directional sound modification |
US10602292B2 (en) | 2018-06-14 | 2020-03-24 | Magic Leap, Inc. | Methods and systems for audio signal filtering |
CN109068217B (zh) * | 2018-08-17 | 2020-08-07 | 歌尔科技有限公司 | 一种入耳式耳机的侧音增强方法、装置及入耳式耳机 |
GB2577564B (en) | 2018-09-28 | 2022-02-23 | Daal Noise Control Systems As | An active noise cancellation system for helmets |
US11068668B2 (en) * | 2018-10-25 | 2021-07-20 | Facebook Technologies, Llc | Natural language translation in augmented reality(AR) |
CN109360549B (zh) * | 2018-11-12 | 2023-07-18 | 北京搜狗科技发展有限公司 | 一种数据处理方法、穿戴设备和用于数据处理的装置 |
JP7407580B2 (ja) * | 2018-12-06 | 2024-01-04 | シナプティクス インコーポレイテッド | システム、及び、方法 |
US10638248B1 (en) * | 2019-01-29 | 2020-04-28 | Facebook Technologies, Llc | Generating a modified audio experience for an audio system |
DE102019001966B4 (de) * | 2019-03-21 | 2023-05-25 | Dräger Safety AG & Co. KGaA | Vorrichtung, System und Verfahren zur Audiosignalverarbeitung |
GB2582910A (en) * | 2019-04-02 | 2020-10-14 | Nokia Technologies Oy | Audio codec extension |
US11425494B1 (en) * | 2019-06-12 | 2022-08-23 | Amazon Technologies, Inc. | Autonomously motile device with adaptive beamforming |
AU2020316738B2 (en) * | 2019-07-21 | 2023-06-22 | Nuance Hearing Ltd. | Speech-tracking listening device |
IT201900015009A1 (it) * | 2019-08-26 | 2021-02-26 | Iinformatica S R L S | Dispositivo e relativo metodo per la trasmissione adattativa di dati |
US11164341B2 (en) * | 2019-08-29 | 2021-11-02 | International Business Machines Corporation | Identifying objects of interest in augmented reality |
CN110703200B (zh) * | 2019-09-25 | 2021-07-30 | 中国科学院声学研究所 | 基于声学超材料的单通道多声源定位与分离装置及方法 |
WO2021068167A1 (en) | 2019-10-10 | 2021-04-15 | Shenzhen Voxtech Co., Ltd. | Audio device |
CN110931034B (zh) * | 2019-11-27 | 2022-05-24 | 深圳市悦尔声学有限公司 | 一种送话拾音麦克风内置型耳机的拾音降噪方法 |
GB2590470A (en) * | 2019-12-19 | 2021-06-30 | Nokia Technologies Oy | Providing an audio object |
US11871184B2 (en) | 2020-01-07 | 2024-01-09 | Ramtrip Ventures, Llc | Hearing improvement system |
US11064294B1 (en) | 2020-01-10 | 2021-07-13 | Synaptics Incorporated | Multiple-source tracking and voice activity detections for planar microphone arrays |
JP2021135462A (ja) * | 2020-02-28 | 2021-09-13 | 日本電信電話株式会社 | ソースイメージ推定装置、ソースイメージ推定方法及びソースイメージ推定プログラム |
US11356757B2 (en) * | 2020-03-09 | 2022-06-07 | Bose Corporation | Individually assignable transducers to modulate sound output in open ear form factor |
US11284183B2 (en) | 2020-06-19 | 2022-03-22 | Harman International Industries, Incorporated | Auditory augmented reality using selective noise cancellation |
US11482238B2 (en) | 2020-07-21 | 2022-10-25 | Harman International Industries, Incorporated | Audio-visual sound enhancement |
EP3945735A1 (en) | 2020-07-30 | 2022-02-02 | Koninklijke Philips N.V. | Sound management in an operating room |
CN112151056B (zh) * | 2020-09-27 | 2023-08-04 | 浙江诺尔康神经电子科技股份有限公司 | 带自定义的智能耳蜗声音处理系统和方法 |
CN112365900B (zh) * | 2020-10-30 | 2021-12-24 | 北京声智科技有限公司 | 一种语音信号增强方法、装置、介质和设备 |
CN112333602B (zh) * | 2020-11-11 | 2022-08-26 | 支付宝(杭州)信息技术有限公司 | 信号处理方法、信号处理设备、计算机可读存储介质及室内用播放系统 |
CN113077779A (zh) * | 2021-03-10 | 2021-07-06 | 泰凌微电子(上海)股份有限公司 | 一种降噪方法、装置、电子设备以及存储介质 |
US11922919B2 (en) | 2021-04-09 | 2024-03-05 | Telink Semiconductor (Shanghai) Co., Ltd. | Method and apparatus for noise reduction, and headset |
TWI790718B (zh) * | 2021-08-19 | 2023-01-21 | 宏碁股份有限公司 | 會議終端及用於會議的回音消除方法 |
EP4210350A4 (en) * | 2021-11-19 | 2023-12-13 | Shenzhen Shokz Co., Ltd. | OPEN ACOUSTIC DEVICE |
CN114299976A (zh) * | 2022-03-06 | 2022-04-08 | 荣耀终端有限公司 | 音频数据处理方法及电子设备 |
US11890168B2 (en) * | 2022-03-21 | 2024-02-06 | Li Creative Technologies Inc. | Hearing protection and situational awareness system |
KR102613033B1 (ko) * | 2022-03-23 | 2023-12-14 | 주식회사 알머스 | 머리전달함수 기반의 이어폰, 이를 포함하는 전화디바이스 및 이를 이용하는 통화방법 |
US11847200B2 (en) * | 2022-03-29 | 2023-12-19 | Cirrus Logic Inc. | Methods and apparatus for system identification |
US11918440B1 (en) * | 2023-06-07 | 2024-03-05 | Sonura, LLC | Active acoustic aural development system and method |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58176861A (ja) | 1982-04-09 | 1983-10-17 | Sanyo Electric Co Ltd | 円筒型電池の製造方法 |
US5105377A (en) | 1990-02-09 | 1992-04-14 | Noise Cancellation Technologies, Inc. | Digital virtual earth active cancellation system |
JPH049834A (ja) | 1990-04-27 | 1992-01-14 | Canon Inc | カメラ |
JPH0416900A (ja) * | 1990-05-10 | 1992-01-21 | Clarion Co Ltd | 音声認識装置 |
WO1993026085A1 (en) | 1992-06-05 | 1993-12-23 | Noise Cancellation Technologies | Active/passive headset with speech filter |
JP3254789B2 (ja) | 1993-02-05 | 2002-02-12 | ソニー株式会社 | 補聴装置 |
JPH10126893A (ja) | 1996-10-18 | 1998-05-15 | Matsushita Electric Ind Co Ltd | 補聴器 |
JP3435686B2 (ja) | 1998-03-02 | 2003-08-11 | 日本電信電話株式会社 | 収音装置 |
CA2328953A1 (en) | 1999-02-16 | 2000-08-24 | Yugen Kaisha Gm&M | Speech converting device and method |
JP2003521202A (ja) * | 2000-01-28 | 2003-07-08 | レイク テクノロジー リミティド | 地理的な環境で使用される空間オーディオシステム。 |
US7206421B1 (en) * | 2000-07-14 | 2007-04-17 | Gn Resound North America Corporation | Hearing system beamformer |
JP2002135642A (ja) * | 2000-10-24 | 2002-05-10 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 音声翻訳システム |
US20030227476A1 (en) * | 2001-01-29 | 2003-12-11 | Lawrence Wilcock | Distinguishing real-world sounds from audio user interface sounds |
US7149691B2 (en) * | 2001-07-27 | 2006-12-12 | Siemens Corporate Research, Inc. | System and method for remotely experiencing a virtual environment |
CA2354755A1 (en) * | 2001-08-07 | 2003-02-07 | Dspfactory Ltd. | Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank |
US7415123B2 (en) * | 2001-09-26 | 2008-08-19 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for producing spatialized audio signals |
US7398209B2 (en) * | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
JP4328698B2 (ja) | 2004-09-15 | 2009-09-09 | キヤノン株式会社 | 素片セット作成方法および装置 |
US20060271370A1 (en) | 2005-05-24 | 2006-11-30 | Li Qi P | Mobile two-way spoken language translator and noise reduction using multi-directional microphone arrays |
WO2007028250A2 (en) * | 2005-09-09 | 2007-03-15 | Mcmaster University | Method and device for binaural signal enhancement |
GB0609248D0 (en) | 2006-05-10 | 2006-06-21 | Leuven K U Res & Dev | Binaural noise reduction preserving interaural transfer functions |
JP5130298B2 (ja) | 2006-10-10 | 2013-01-30 | シーメンス アウディオローギッシェ テヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング | 補聴器の動作方法、および補聴器 |
US20120051561A1 (en) * | 2006-12-05 | 2012-03-01 | Cohen Alexander J | Audio/sound information system and method |
JP5401760B2 (ja) * | 2007-02-05 | 2014-01-29 | ソニー株式会社 | ヘッドフォン装置、音声再生システム、音声再生方法 |
JP4799443B2 (ja) * | 2007-02-21 | 2011-10-26 | 株式会社東芝 | 受音装置及びその方法 |
WO2008119122A1 (en) | 2007-03-30 | 2008-10-09 | Personal Audio Pty Ltd | An acoustically transparent earphone |
WO2009110578A1 (ja) | 2008-03-03 | 2009-09-11 | 日本電信電話株式会社 | 残響除去装置、残響除去方法、残響除去プログラム、および記録媒体 |
US8170222B2 (en) | 2008-04-18 | 2012-05-01 | Sony Mobile Communications Ab | Augmented reality enhanced audio |
US9202455B2 (en) | 2008-11-24 | 2015-12-01 | Qualcomm Incorporated | Systems, methods, apparatus, and computer program products for enhanced active noise cancellation |
DK2211563T3 (da) | 2009-01-21 | 2011-12-19 | Siemens Medical Instr Pte Ltd | Fremgangsmåde og apparat til blind kildeadskillelse til forbedring af interferensestimering ved binaural Weiner-filtrering |
US20100185432A1 (en) | 2009-01-22 | 2010-07-22 | Voice Muffler Corporation | Headset Wireless Noise Reduced Device for Language Translation |
US9202456B2 (en) | 2009-04-23 | 2015-12-01 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation |
US8737636B2 (en) | 2009-07-10 | 2014-05-27 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for adaptive active noise cancellation |
US20110288860A1 (en) | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
US9053697B2 (en) | 2010-06-01 | 2015-06-09 | Qualcomm Incorporated | Systems, methods, devices, apparatus, and computer program products for audio equalization |
WO2011161487A1 (en) * | 2010-06-21 | 2011-12-29 | Nokia Corporation | Apparatus, method and computer program for adjustable noise cancellation |
US20120029912A1 (en) * | 2010-07-27 | 2012-02-02 | Voice Muffler Corporation | Hands-free Active Noise Canceling Device |
-
2012
- 2012-02-21 US US13/401,688 patent/US9037458B2/en active Active
- 2012-02-22 JP JP2013555522A patent/JP2014511612A/ja active Pending
- 2012-02-22 EP EP12716739.3A patent/EP2679022B1/en active Active
- 2012-02-22 KR KR1020137024671A patent/KR101606966B1/ko not_active IP Right Cessation
- 2012-02-22 WO PCT/US2012/026120 patent/WO2012161781A1/en active Application Filing
- 2012-02-22 CN CN201280010160.3A patent/CN103392349B/zh active Active
- 2012-02-22 ES ES12716739T patent/ES2898717T3/es active Active
-
2015
- 2015-06-03 JP JP2015113262A patent/JP6009619B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20130124573A (ko) | 2013-11-14 |
EP2679022B1 (en) | 2021-10-27 |
US20120215519A1 (en) | 2012-08-23 |
JP2015173502A (ja) | 2015-10-01 |
KR101606966B1 (ko) | 2016-03-28 |
JP6009619B2 (ja) | 2016-10-19 |
US9037458B2 (en) | 2015-05-19 |
CN103392349A (zh) | 2013-11-13 |
JP2014511612A (ja) | 2014-05-15 |
EP2679022A1 (en) | 2014-01-01 |
CN103392349B (zh) | 2016-05-25 |
WO2012161781A1 (en) | 2012-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2898717T3 (es) | Sistemas, métodos, aparatos, y medios legibles por ordenador para un aumento de audio espacialmente selectivo | |
ES2913870T3 (es) | Dispositivo para la reproducción del habla configurado para enmascarar el habla reproducida en una zona de habla enmascarada | |
US9913022B2 (en) | System and method of improving voice quality in a wireless headset with untethered earbuds of a mobile device | |
ES2364888T3 (es) | Dispositivo y procedimiento para generar una señal multicanal con un procesamiento de señal de voz. | |
US9313572B2 (en) | System and method of detecting a user's voice activity using an accelerometer | |
US11740859B2 (en) | Media-compensated pass-through and mode-switching | |
US9438985B2 (en) | System and method of detecting a user's voice activity using an accelerometer | |
KR101547035B1 (ko) | 다중 마이크에 의한 3차원 사운드 포착 및 재생 | |
EP2986028B1 (en) | Switching between binaural and monaural modes | |
WO2014191798A1 (en) | An audio scene apparatus | |
JP2013525848A (ja) | ボイスアクティビティ検出 | |
JP2023159381A (ja) | 音声認識オーディオシステムおよび方法 | |
JP2023536270A (ja) | 拡張現実におけるバイノーラル再生のためのヘッドホン等化および室内適応のためのシステムおよび方法 | |
US11890168B2 (en) | Hearing protection and situational awareness system | |
KR20150074642A (ko) | 음향 출력 장치에 입력된 외부 소리 신호에 대한 정보를 출력하는 방법 및 장치. | |
US20220021998A1 (en) | Method for generating sound and devices for performing same | |
JP5662711B2 (ja) | 音声変更装置、音声変更方法および音声情報秘話システム | |
US20230359430A1 (en) | Media-compensated pass-through and mode-switching | |
US20240056734A1 (en) | Selective modification of stereo or spatial audio | |
Talukder et al. | Exploiting Playback Device's Effect on Multi-channel Audio to Secure Voice Assistants | |
CN116594197A (zh) | 基于三麦克风定向声音收录的头部佩带装置 | |
CN113038315A (zh) | 一种语音信号处理方法及装置 |