CN115605952A - 用于多麦克风信号处理的数据增强的系统和方法 - Google Patents
用于多麦克风信号处理的数据增强的系统和方法 Download PDFInfo
- Publication number
- CN115605952A CN115605952A CN202180033325.8A CN202180033325A CN115605952A CN 115605952 A CN115605952 A CN 115605952A CN 202180033325 A CN202180033325 A CN 202180033325A CN 115605952 A CN115605952 A CN 115605952A
- Authority
- CN
- China
- Prior art keywords
- microphone
- signals
- frequency response
- frequency responses
- enhancement process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 230
- 238000012545 processing Methods 0.000 title description 95
- 230000004044 response Effects 0.000 claims abstract description 209
- 238000004590 computer program Methods 0.000 claims abstract description 19
- 238000001914 filtration Methods 0.000 claims description 14
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 description 208
- 238000012549 training Methods 0.000 description 34
- 238000003491 array Methods 0.000 description 28
- 238000010801 machine learning Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 17
- 238000009826 distribution Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000007812 deficiency Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000006978 adaptation Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 6
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 238000003331 infrared imaging Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 238000001931 thermography Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/808—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/01—Correction of time axis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/004—Monitoring arrangements; Testing arrangements for microphones
- H04R29/005—Microphone arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/20—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种方法、计算机程序产品和计算系统,用于接收来自多个麦克风中的每个麦克风的信号,从而定义多个信号。可以接收与至少一个麦克风相关联的一个或多个麦克风频率响应。可以至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
Description
相关申请
本申请要求于2020年5月8日提交的以下美国临时申请第63/022,269号的权利,其全部内容通过引用并入本文。
背景技术
自动临床文档化(ACD)可用于例如将转录的对话(例如,医生、患者和/或其他参与者,例如患者的家庭成员、护士、医生助理等)语音转换为格式化(例如,医疗)报告。这样的报告可以被检查,例如以确保医生、抄写员等报告的准确性。
为了提高ACD的语音处理的准确性,数据增强可以允许通过增强现有数据以表示新的条件,来生成用于机器学习系统的新训练数据。例如,数据增强已被用于提高对真实世界部署中的语音的噪声和混响以及其他不可预测特征的鲁棒性(例如,与受控环境相比,当在真实世界环境中捕获语音信号时的问题和不可预测特性)。
音频记录系统的各种物理特性可能导致语音处理性能的降低。例如,微电子机械系统(MEMS)麦克风通常可以包括机械设备,其感测声学空气压力并且在大多数流行的消费设备(例如,移动电话、视频会议系统和多麦克风阵列系统)中形成用于声学信号采集的主传感器。
MEMS麦克风可能存在各种缺陷。例如,这些MEMS麦克风的已知缺陷通常包括麦克风灵敏度缺陷、麦克风自噪声、麦克风频率响应和谐波失真。
当设计多麦克风系统或阵列时,通常假设系统或阵列中的所有麦克风完全匹配良好。然而,这在现实世界系统中通常并不准确。因此,虽然传统方法试图估计这些缺陷并对其进行补偿(例如,通常仅考虑麦克风灵敏度),或者通过依赖昂贵的校准过程来建立缺陷并补偿这些缺陷(这在大规模上是不可行的),但底层增强算法依赖于完全匹配的麦克风。
发明内容
在一个实现中,由计算机执行的计算机实现的方法可以包括但不限于接收来自多个麦克风中的每个麦克风的信号,从而定义多个信号。可以接收与至少一个麦克风相关联的一个或多个麦克风频率响应。可以至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
可以包括一个或多个以下特征。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:模拟表示麦克风频率响应的一个或多个模型。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:测量来自至少一个麦克风的频率响应。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:至少部分地基于一个或多个麦克风频率响应增强来多个信号的幅度分量和相位分量中的一个或多个。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:利用一个或多个麦克风频率响应对多个信号进行滤波。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:利用从一个或多个麦克风频率响应随机选择的麦克风频率响应对多个信号进行滤波。多个麦克风可以定义麦克风阵列。
在另一实现中,计算机程序产品驻留在计算机可读介质上,并具有存储在其上的多个指令。当由处理器执行时,指令使处理器执行操作包括但不限于接收来自多个麦克风中的每个麦克风的信号,从而定义多个信号。可以接收与至少一个麦克风相关联的一个或多个麦克风频率响应。可以至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
可以包括一个或多个以下特征。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:模拟表示麦克风频率响应的一个或多个模型。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:测量来自至少一个麦克风的频率响应。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:至少部分地基于一个或多个麦克风频率响应来增强多个信号的幅度分量和相位分量中的一个或多个。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:利用一个或多个麦克风频率响应对多个信号进行滤波。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:利用从一个或多个麦克风频率响应中随机选择的麦克风频率响应对多个信号进行滤波。多个麦克风可以定义麦克风阵列。
在另一实现中,计算系统包括处理器,并且存储器被配置为执行包括但不限于接收来自多个麦克风中的每个麦克风的语音信号,从而定义多个信号的操作。处理器还可以被配置为接收与至少一个麦克风相关联的一个或多个麦克风频率响应。处理器还可以被配置为至少部分基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
可以包括一个或多个以下特征。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:模拟表示麦克风频率响应的一个或多个模型。接收与至少一个麦克风相关联的一个或多个频率响应可以包括:测量来自至少一个麦克风的频率响应。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:至少部分地基于一个或多个麦克风频率响应来增强多个信号的幅度分量和相位分量中的一个或多个。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强:可以包括利用一个或多个麦克风频率响应对多个信号进行滤波。至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强可以包括:利用从一个或多个麦克风频率响应中随机选择的麦克风频率响应对多个信号进行滤波。多个麦克风可以定义麦克风阵列。
一个或多个实现的细节在附图和下面的描述中阐述。其他特征和优点将从说明书、附图和权利要求书中显而易见。
附图说明
图1是耦合到分布式计算网络的自动临床文档化计算机系统和数据增强过程的示意图;
图2是并入图1的自动临床文档化计算机系统的模块化ACD系统的示意图;
图3是被包括在图2的模块化ACD系统内的混合媒体ACD设备的示意图;
图4是图1的数据增强过程的一个实现的流程图;
图5至图6是根据图1的数据增强过程的各种实现的模块化ACD系统的示意图;
图7是图1的数据增强过程的一个实现的流程图;
图8是根据图1的数据增强过程的一个实现的模块化ACD系统的示意图;
图9是图1的数据增强过程的一个实现的流程图;
图10是根据图1的数据增强过程的一个实现的模块化ACD系统的示意图;
图11是根据图1的数据增强过程的一个实现的麦克风频率响应的示意图;
图12是图1的数据增强过程的一个实现的流程图;以及
图13是根据图1的数据增强过程的一个实现的模块化ACD系统的示意图。
各种附图中相同的附图标记表示相同的元件。
具体实施方式
系统概述:
参考图1,示出了数据增强过程10。如下面将更详细地讨论的,数据增强过程10可以被配置为使临床就诊信息的收集和处理自动化以生成/存储/分发医学记录。
数据增强过程10可以被实现为服务器侧过程、客户端侧过程或混合服务器侧/客户端侧过程。例如,数据增强过程10可以经由数据增强过程10s被实现为纯粹的服务器侧过程。备选地,数据增强过程10可以经由数据增强过程10c1、数据增强过程10c2、数据增强过程10c3和数据增强过程10c4中的一个或多个来实现为纯粹的客户端侧过程。备选地,数据增强过程10可以经由数据增强过程10s与数据增强过程10c1、数据增强过程10c2、数据增强过程10c3和数据增强过程10c4中的一个或多个相结合来实现为混合服务器侧/客户端侧过程。
因此,本公开中使用的数据增强过程10可以包括数据增强过程10s、数据增强过程10c1、数据增强过程10c2、数据增强过程10c3和数据增强过程10c4的任意组合。
数据增强过程10S可以是服务器应用,并且可以驻留在自动临床文档化(ACD)计算机系统12上并且可以由其执行,ACD计算机系统12可以被连接到网络14(例如,互联网或局域网)。ACD计算机系统12可以包括各种组件,其示例可以包括但不限于:个人计算机、服务器计算机、一系列服务器计算机、小型计算机、大型计算机、一个或多个网络附接存储(NAS)系统、一个或多个存储区域网络(SAN)系统、一个或多个平台即服务(PaaS)系统、一个或多个基础设施即服务(IaaS)系统、一个或多个软件即服务(SaaS)系统、基于云的计算系统、以及基于云的存储平台。
如本领域中已知的,SAN可以包括个人计算机、服务器计算机、一系列服务器计算机、小型计算机、大型计算机、RAID设备和NAS系统中的一个或多个。ACD计算机系统12的各种组件可以执行一个或多个操作系统,其示例可以包括但不限于:例如,MicrosoftWindows Servertm、Redhat Linuxtm、Unix或定制操作系统。
可以存储在耦合到ACD计算机系统12的存储设备16上的数据增强过程10s的指令集合和子例程可以由包括在ACD计算机系统12内的一个或多个处理器(未示出)和一个或多个存储器架构(未示出)来执行。存储设备16的示例可以包括但不限于:硬盘驱动器;RAID设备;随机存取存储器(RAM);只读存储器(ROM);以及所有形式的闪存存储设备。
网络14可以被连接到一个或多个辅助网络(例如,网络18),其示例可以包括但不限于:例如,局域网;广域网;或内联网。
各种IO请求(例如,IO请求20)可以从数据增强过程10s、数据增强过程10c1、数据增强过程10c2、数据增强过程10c3和/或数据增强过程10c4发送到ACD计算机系统12。IO请求20的示例可以包括但不限于数据写入请求(即,将内容写入ACD计算机系统12的请求)和数据读取请求(即,从ACD计算机系统12读取内容的请求)。
可以(分别)存储在(分别)耦合到ACD客户端电子设备28、30、32、34的存储设备20、22、24、26上的数据增强过程10c1、数据增强过程10c2、数据增强过程10c3和/或数据增强过程10c4的指令集合和子例程可以由(分别)并入ACD客户端电子设备28、30、32、34中的一个或多个处理器(未示出)和一个或多个存储器架构(未示出)来执行。存储设备20、22、24、26可以包括但不限于:硬盘驱动器;光盘驱动器;RAID设备;随机存取存储器(RAM);只读存储器(ROM),以及所有形式的闪存存储设备。ACD客户端电子设备28、30、32、34的示例可以包括但不限于,个人计算设备28(例如,智能电话、个人数字助理、膝上型计算机、笔记本计算机和台式计算机)、音频输入设备30(例如,手持麦克风、翻领麦克风、嵌入式麦克风(诸如嵌入眼镜、智能手机、平板计算机和/或手表中的麦克风)和音频记录设备)、显示设备32(例如,平板计算机、计算机监控器和智能电视),机器视觉输入设备34(例如,RGB成像系统、红外成像系统、紫外成像系统、激光成像系统、声纳成像系统、雷达成像系统和热成像系统)、混合设备(例如,包括一个或多个上述参考设备的功能的单个设备;未示出)、音频呈现设备(例如,扬声器系统、耳机系统或耳塞系统;未示出)、各种医学设备(例如,医学成像设备、心脏监控器、体重秤、体温计和血压机;未示出)以及专用网络设备(未示出)。
用户36、38、40、42可以通过网络14或通过辅助网络18直接访问ACD计算机系统12。此外,ACD计算机系统12可以通过辅助网络18连接到网络14,如链路线44所示。
各种ACD客户端电子设备(例如,ACD客户端电子设备28、30、32、34)可以直接或间接耦合到网络14(或网络18)。例如,个人计算设备28被示为经由硬连线网络连接直接耦合到网络14。此外,机器视觉输入设备34被示为经由硬连线网络连接直接耦合到网络18。音频输入设备30被示为经由在音频输入设备30和无线接入点(即,WAP)48之间建立的无线通信信道46无线耦合到网络14,WAP 48被示为直接耦合到网络14。WAP 48可以是例如能够在音频输入设备30和WAP 48之间建立无线通信信道46的IEEE 802.11a、802.11b、802.11g、802.11n、Wi-Fi和/或蓝牙设备。显示设备32被示为通过在显示设备32和WAP 52之间建立的无线通信信道50无线耦合到网络14,WAP 52被示为直接耦合到网络14。
各种ACD客户端电子设备(例如,ACD客户端电子设备28、30、32、34)可以各自执行操作系统,其示例可以包括但不限于Microsoft Windowstm、Apple Macintoshtm、RedhatLinuxtm或定制操作系统,其中各种ACD客户端电子设备(例如,ACD客户端电子设备28、30、32、34)和ACD计算机系统12的组合可以形成模块化ACD系统54。
还参考图2,示出了模块化ACD系统54的简化示例实施例,其被配置为使临床文档化自动化。模块化ACD系统54可以包括:机器视觉系统100,其被配置为获得关于患者就诊的机器视觉就诊信息102;音频记录系统104,其被配置为获得关于患者就诊的音频就诊信息106;以及计算机系统(例如,ACD计算机系统12),其被配置为(分别)从机器视觉系统100和音频记录系统104接收机器视觉就诊信息102和音频就诊信息106。模块化ACD系统54还可以包括:显示呈现(rendering)系统108,其被配置为呈现视觉信息110;以及音频呈现系统112,其被配置为呈现音频信息114,其中ACD计算机系统12可以被配置为(分别)向显示呈现系统108和音频呈现系统112提供视觉信息110和音频信息114。
机器视觉系统100的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备34,其示例可以包括但不限于,RGB成像系统、红外成像系统、紫外成像系统、激光成像系统、声纳成像系统、雷达成像系统和热成像系统)。音频记录系统104的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备30,其示例可以包括但不限于,手持麦克风、翻领麦克风、嵌入式麦克风(诸如嵌入眼镜、智能手机、平板计算机和/或手表内的麦克风)和音频记录设备)。显示呈现系统108的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备32,其示例可以包括但不限于,平板计算机、计算机监控器和智能电视)。音频呈现系统112的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,音频呈现设备116,其示例可以包括但不限于,扬声器系统、耳机系统和耳塞系统)。
如下面将更详细地讨论的,ACD计算机系统12可以被配置为访问一个或多个数据源118(例如,多个单独的数据源120、122、124、126、128),其示例可以包括但不限于,用户简档数据源、声纹数据源、声音特性数据源(例如,用于适配自动语音识别模型)、脸纹数据源、类人数据源、话语标识符数据源、可穿戴令牌标识符数据源、交互标识符数据源、医疗状况症状数据源、处方兼容性数据源、医疗保险覆盖范围数据源和家庭保健数据源中的一个或多个。虽然在该特定示例中示出了数据源118的五个不同示例,但这仅用于说明目的,并不旨在作为本公开的限制,因为其他配置是可能的并且被认为在本公开的范围内。
如下面将更详细地讨论的,模块化ACD系统54可以被配置为监控临床环境中的监控空间(例如,监控空间130),其中该临床环境的示例可以包括但不限于:医生办公室、医疗设施、医疗实践、医疗实验室、紧急护理设施、医疗诊所、急诊室、手术室、医院、长期护理设施、康复设施、护理室和临终关怀设施。因此,上述患者就诊的示例可以包括但不限于,患者访问一个或多个上述临床环境(例如,医生办公室、医疗设施、医疗实践、医疗实验室、紧急护理设施、医疗诊所、急诊室、手术室、医院、长期护理设施、康复设施、护理室和临终关怀设施)。
当上述临床环境更大或需要更高级别的分辨率时,机器视觉系统100可以包括多个分立机器视觉系统。如上所述,机器视觉系统100的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备34,其示例可以包括但不限于RGB成像系统、红外成像系统、紫外成像系统、激光成像系统、声纳成像系统、雷达成像系统和热成像系统)。因此,机器视觉系统100可以包括RGB成像系统、红外成像系统、紫外成像系统、激光成像系统、声纳成像系统、雷达成像系统和热成像系统中的每一个中的一个或多个。
当上述临床环境更大或需要更高级别的分辨率时,音频记录系统104可以包括多个分立的音频记录系统。如上所述,音频记录系统104的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备30,其示例可以包括但不限于手持麦克风、翻领麦克风、嵌入式麦克风(诸如嵌入眼镜、智能电话、平板计算机和/或手表内的麦克风)和音频记录设备)。因此,音频记录系统104可以包括手持麦克风、翻领麦克风、嵌入式麦克风(诸如嵌入眼镜、智能手机、平板计算机和/或手表内的麦克风)和音频记录设备中的每一个中一个或多个。
当上述临床环境更大或需要更高级别的分辨率时,显示呈现系统108可以包括多个分立的显示呈现系统。如上所述,显示呈现系统108的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,ACD客户端电子设备32,其示例可以包括但不限于,平板计算机、计算机监控器和智能电视)。因此,显示呈现系统108可以包括平板计算机、计算机监控器和智能电视中的每一个中的一个或多个。
当上述临床环境更大或需要更高级别的分辨率时,音频呈现系统112可以包括多个分立的音频呈现系统。如上所述,音频呈现系统112的示例可以包括但不限于:一个或多个ACD客户端电子设备(例如,音频呈现设备116,其示例可以包括但不限于,扬声器系统、耳机系统或耳塞系统)。因此,音频呈现系统112可以包括扬声器系统、耳机系统或耳塞系统中的每一个中的一个或多个。
ACD计算机系统12可以包括多个分立计算机系统。如上所述,ACD计算机系统12可以包括各种组件,其示例可以包括但不限于:个人计算机、服务器计算机、一系列服务器计算机、小型计算机、大型计算机、一个或多个网络附接存储(NAS)系统、一个或多个存储区域网络(SAN)系统、一个或多个平台即服务(PaaS)系统、一个或多个基础设施即服务(IaaS)系统、一个或多个软件即服务(SaaS)系统、基于云的计算系统、以及基于云的存储平台。因此,ACD计算机系统12可以包括个人计算机、服务器计算机、一系列服务器计算机、小型计算机、大型计算机、一个或多个网络附接存储(NAS)系统、一个或多个存储区域网络(SAN)系统、一个或多个平台即服务(PaaS)系统、一个或多个基础设施即服务(IaaS)系统、一个或多个软件即服务(SaaS)系统、基于云的计算系统和基于云的存储平台中的每一个中的一个或多个。
还参考图3,音频记录系统104可以包括具有多个分立麦克风配件的定向麦克风阵列200。例如,音频记录系统104可以包括多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218),其可以形成麦克风阵列200。如下面将更详细地讨论的,模块化ACD系统54可以被配置为经由包括在音频记录系统104内的分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218)形成一个或多个音频记录波束(beam)(例如,音频记录波束220、222、224)。
例如,模块化ACD系统54还可以被配置为将一个或多个音频记录波束(例如,音频记录波束220、222、224)引导(steer)到上述患者就诊的一个或多个就诊参与者(例如,就诊参与者226、228、230)。就诊参与者(例如,就诊参与者226、228、230)的示例可以包括但不限于:医疗专业人员(例如,医生、护士、医生助理、实验室技术人员、物理治疗师、抄写员(例如,转录员)和/或参与患者就诊的工作人员)、患者(例如,正在为患者就诊访问上述临床环境的人)和第三方(例如,参与患者就诊的患者的朋友、患者的亲属和/或患者的熟人)。
因此,模块化ACD系统54和/或音频记录系统104可以被配置为利用一个或多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218)来形成音频记录波束。例如,模块化ACD系统54和/或音频记录系统104可以被配置为利用音频采集设备210来形成音频记录波束220,从而使得能够捕获由就诊参与者226产生的音频(例如,语音)(因为音频采集设备210指向(即,定向)就诊参与者226)。此外,模块化ACD系统54和/或音频记录系统104可以被配置为利用音频采集设备204、206来形成音频记录波束222,从而使得能够捕获由就诊参与者228产生的音频(例如,语音)(因为音频采集设备204、206指向(即,定向)就诊参与者228)。此外,模块化ACD系统54和/或音频记录系统104可以被配置为利用音频采集设备212、214来形成音频记录波束224,从而使得能够捕获由就诊参与者230产生的音频(例如,语音)(因为音频采集设备212、214指向(即,定向)就诊参与者230)。此外,模块化ACD系统54和/或音频记录系统104可以被配置为利用零控预编码(null-steering precoding)来消除讲话者之间的干扰和/或噪声。
如本领域所公知的,零控预编码是一种空间信号处理方法,通过该方法,多天线发射机可以使无线通信中的多用户干扰信号归零,其中零控预编码可以减轻背景噪声和未知用户干扰的影响。
具体地,零控预编码可以是一种用于窄带信号的波束成形方法,其可以补偿在天线阵列的不同元件处从特定源接收信号的延迟。一般而言,为了提高天线阵列的性能,可以对传入信号进行求和以及求平均,其中可以对某些信号进行加权并且可以对信号延迟进行补偿。
机器视觉系统100和音频记录系统104可以是独立设备(如图2所示)。另外地/备选地,机器视觉系统100和音频记录系统104可以组合成一个封装(package)以形成混合媒体ACD设备232。例如,混合媒体ACD设备232可以被配置为安装到上述临床环境(例如,医生办公室、医疗设施、医疗实践、医疗实验室、紧急护理设施、医疗诊所、急诊室、手术室、医院、长期护理设施、康复设施、护理室和临终关怀设施)内的结构(例如,墙、天花板、梁、柱),从而允许容易地安装它们。此外,模块化ACD系统54可以被配置为在上述临床环境更大或需要更高级别的分辨率时,包括多个混合媒体ACD设备(例如,混合媒体ACD设备232)。
模块化ACD系统54还可以被配置为至少部分地基于机器视觉就诊信息102将一个或多个音频记录波束(例如,音频记录波束220、222、224)引导到患者就诊的一个或多个就诊参与者(例如,就诊参与者226、228、230)。如上所述,混合媒体ACD设备232(以及其中包括的机器视觉系统100/音频记录系统104)可以被配置为监控患者就诊的一个或多个就诊参与者(例如,就诊参与者226、228、230)。
具体地,机器视觉系统100(作为独立系统或作为混合媒体ACD设备232的组件)可以被配置为检测上述临床环境(例如,医生办公室、医疗设施、医疗实践、医疗实验室、紧急护理设施、医疗诊所、急诊室、手术室、医院、长期护理设施、康复设施、护理室和临终关怀设施)内的类人形状。并且当机器视觉系统100检测到这些类人形状时,模块化ACD系统54和/或音频记录系统104可以被配置为利用一个或多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218)来形成指向每个检测到的类人形状(例如,就诊参与者226、228、230)的音频记录波束(例如,音频记录波束220、222、224)。
如上所述,ACD计算机系统12可以被配置为(分别)从机器视觉系统100和音频记录系统104接收机器视觉就诊信息102和音频就诊信息106;并且可以被配置为(分别)向显示呈现系统108和音频呈现系统112提供视觉信息110和音频信息114。根据模块化ACD系统54(和/或混合媒体ACD设备232)的配置方式,ACD计算机系统12可以被包括在混合媒体ACD设备232内或混合媒体ACD设备232外部。
如上所述,ACD计算机系统12可以执行数据增强过程10的全部或一部分,其中数据增强过程10的指令集合和子例程(其可以存储在例如存储设备16、20、22、24、26中的一个或多个上)可以由ACD计算机系统12和/或一个或多个ACD客户端电子设备28、30、32、34来执行。
数据增强过程:
在与本公开一致的一些实现中,可以提供用于多通道语音处理系统(例如,神经增强(例如,波束成形)、多通道、端到端自动语音识别(MCE2E)系统等)的训练数据的数据增强的系统和方法,其具有一系列损坏配置文件,这允许底层语音处理算法“学习”以变得对麦克风系统的缺陷更加鲁棒。例如并且如上所述,数据增强允许通过增强现有数据以表示新的条件来为机器学习系统生成新的训练数据。例如,数据增强已被用于提高对真实世界部署中的语音的噪声和混响以及其他不可预测特性的鲁棒性(例如,与受控环境相比,当在真实世界环境中捕获语音信号时的问题和不可预测特性)。
在一些实现中,音频记录系统的各种物理特性可能导致语音处理性能的降低。例如,微电子机械系统(MEMS)麦克风通常可以包括机械设备,其感测声学空气压力并且在大多数流行的消费设备(例如,移动电话、视频会议系统和多麦克风阵列系统)中形成用于声学信号采集的主传感器。在一些实现中,麦克风通常可以包括分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218)、放大器和/或模数转换系统。
在一些实现中,MEMS麦克风可能受到各种缺陷的影响。例如,这些MEMS麦克风中的已知缺陷通常包括麦克风灵敏度缺陷、麦克风自噪声、麦克风频率响应和谐波失真。如下面将更详细地讨论的,麦克风灵敏度通常包括麦克风对给定声压级别的响应。这可以因设备而异(例如,在麦克风阵列中因麦克风而异)。麦克风自噪声通常包括麦克风在完全安静的环境中输出的噪声量。在一些实现中,该噪声的频谱形状可能使得它对某些频率的影响比对其他频率的影响更大,并且不同的麦克风可能具有不同的自噪声级别/特性。在一些实现中,麦克风可以在不同频率处具有非平坦幅度和/或非线性频率响应。在一些实现中,麦克风或麦克风阵列的外壳可以将频谱整形引入麦克风频率响应。谐波失真可以是对给定纯音输入信号的麦克风输出的失真量的测量。虽然已经提供了麦克风缺陷的几个示例,但是可以理解,在本公开的范围内,当使用多个麦克风(例如,如麦克风阵列104中)执行语音处理操作时,其他缺陷可能会引入问题。
在设计神经波束成形或MCE2E系统时,通常假设系统或阵列中的所有麦克风完全匹配良好。然而,至少出于上述原因,这在现实世界系统中通常并不准确。因此,虽然传统方法试图估计这些缺陷并对其进行补偿(例如,通常仅考虑麦克风灵敏度),或者通过依赖昂贵的校准过程来建立缺陷并补偿这些缺陷(这在大规模上是不可行的),但底层增强算法通常依赖于完全匹配的麦克风。
如下面将更详细地讨论的,本公开的实现可以通过用允许底层语音处理算法‘学习’以变得对麦克风系统缺陷更鲁棒的一系列损坏简档来增强用于波束成形和MCE2E系统的训练数据,来解决麦克风之间的缺陷。在一些实现中,(多个)底层语音处理系统可以学习以结合系统的优化标准来解决一系列麦克风系统或阵列缺陷;而不是依赖外部校准数据或辅助处理,其本身可能不是传统系统中理想的。本公开的实现还可以避免底层语音处理系统的任何额外处理开销,并且不需要昂贵且耗时的麦克风系统校准数据。本公开的实现可以通过在训练期间学习麦克风系统的缺陷来解决麦克风系统性能随时间推移而降低的问题。
如上所述并且至少参考图4至图6,数据增强过程10可以从多个麦克风中的每个麦克风接收400信号,从而定义多个信号。可以对多个信号执行402一个或多个基于麦克风间增益的增强,从而定义一个或多个麦克风间增益增强的信号。
还参考图5,并且在一些实现中,音频记录系统104可以包括具有多个分立麦克风配件的定向麦克风阵列200。例如,音频记录系统104可以包括多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218),其可以形成麦克风阵列200。在一些实现中,每个音频采集设备或麦克风可以包括麦克风组件、放大器和模数转换系统。如上所述,每个麦克风(例如,音频采集设备202、204、206、208、210、212、214、216、218)在每个麦克风的配置或操作中可能具有缺陷和/或不匹配。例如,麦克风阵列200中的每个麦克风可以包括影响每个麦克风处理语音信号的能力的各种物理特性。在一些实现中,麦克风配件、放大器、模数转换系统和/或麦克风外壳的组合可以改变与麦克风阵列200接收的信号相关联的麦克风间增益。
例如,假设麦克风202相对于其他麦克风引入例如两分贝增益,而麦克风212相对于其他麦克风引入例如一分贝增益。在该示例中,麦克风间增益不匹配可能导致语音处理系统(例如,语音处理系统300)进行错误或不准确的信号处理。因此,数据增强过程10可以对现有训练数据和/或从各种麦克风接收的信号执行402增强,以生成麦克风间增益增强的信号。这些麦克风间增益增强的信号可用于训练语音处理系统300以考虑麦克风阵列200中的麦克风之间的增益不匹配。
在一些实现中,数据增强过程10可以从多个麦克风中的每个麦克风接收400信号,从而定义多个信号。再次参考图5,并且在一些实现中,麦克风阵列200可以处理来自各种源的语音(例如,音频就诊信息106A-106C)。因此,麦克风202、204、206、208、210、212、214、216、218可以生成表示由麦克风阵列200处理的语音的信号(例如,多个信号500)。在一些实现中,数据增强过程10可以从麦克风202、204、206、208、210、212、214、216、218中的一些或每一个接收400信号。
在一些实现中,数据增强过程10可以对多个信号执行402一个或多个基于麦克风间增益的增强,从而定义一个或多个麦克风间增益增强的信号。基于麦克风间增益的增强信号通常可以包括信号或训练数据的增益的增强,该信号或训练数据表示与麦克风阵列中的麦克风之间的相对增益级别相关联的可变性或缺陷。如上所述,基于麦克风间增益的增强信号可以允许语音处理系统(例如,语音处理系统300)考虑麦克风增益级别之间的不匹配或变化,而不需要在具有麦克风阵列的传统语音处理系统中使用的昂贵且复杂的信号补偿技术。
在一些实现中,对多个信号执行402一个或多个基于麦克风间增益的增强可以包括将来自多个增益级别的增益级别应用404于来自每个麦克风的信号。再次参考图5,并且在一些实现中,数据增强过程10可以将多个增益级别(例如,多个增益级别502)应用404于多个信号(例如,多个信号500)。在一些实现中,从多个麦克风(例如,麦克风阵列200)接收400的多个信号500可以在执行402一个或多个基于麦克风间增益的增强之前的任何时间被接收。例如,多个信号500可以包括使用麦克风阵列200生成的训练数据。在一些实现中,多个信号可以包括在语音信号的实时处理期间接收400的信号。以此方式,多个信号可用于在相对于接收多个信号时的任何时间执行402基于麦克风间增益的增强。
在一些实现中,多个增益级别可以与特定麦克风或特定麦克风阵列相关联。例如,假设讲话者在会议室中讲话,会议室内部署了电话会议系统的麦克风阵列。在该示例中,麦克风阵列的麦克风的属性可以在由麦克风阵列处理的语音信号中引入基于麦克风间增益的变化。现在假设讲话者在分离的计算设备内向虚拟助手讲话。在该示例中,尽管环境特征保持不变(即,会议室),但虚拟助手的麦克风阵列可以具有可能与电话会议系统的麦克风阵列不同地影响信号处理的因素和特性。在一些实现中,麦克风阵列之间的区别可能对语音处理系统的性能具有各种影响。因此,数据增强过程10可以允许由一个麦克风阵列接收的语音信号用于训练具有其他麦克风阵列的语音处理系统和/或用于用新的适配数据适配语音处理系统或模型。
在一些实现中,数据增强过程10可以接收对目标麦克风阵列的选择。目标麦克风阵列可以包括一种类型的麦克风或麦克风阵列。在一些实现中,数据增强过程10可以通过提供与目标麦克风阵列相关联的特定的基于麦克风间增益的特性来接收对目标麦克风阵列的选择。在一些实现中,数据增强过程10可以利用图形用户界面来从目标麦克风阵列的库中接收对目标麦克风阵列的选择。在一个示例中,数据增强过程10可以接收对麦克风阵列的各种特性(例如,麦克风阵列的类型、麦克风阵列的麦克风的布置等)的选择(例如,经由图形用户界面),以定义目标麦克风阵列。如下面将更详细地讨论的,并且在一些实现中,数据增强过程10可以接收目标麦克风阵列的特性的范围或分布。虽然已经描述了图形用户界面的示例,但是可以理解,可以在本公开的范围内以各种方式选择目标麦克风阵列(例如,由用户手动选择、通过数据增强过程10自动选择、预定义的目标麦克风阵列等)。
在一些实现中,数据增强过程10可以至少部分地基于目标麦克风阵列对多个信号执行402一个或多个基于麦克风间增益的增强。如下面将更详细地讨论的,出于各种原因,可能希望增强与特定麦克风阵列相关联的多个信号。例如,并且在一些实现中,数据增强过程10可以对多个信号执行一个或多个基于麦克风间增益的增强,以利用多个信号训练具有目标麦克风阵列的语音处理系统。在该示例中,数据增强过程10可以利用由不同麦克风阵列接收的语音信号来训练语音处理系统,这可以允许语音处理系统使用增强的训练信号集合与各种麦克风阵列一起有效地利用。
在另一示例中,数据增强过程10可以对多个信号执行402一个或多个基于麦克风间增益的增强,以生成用于语音处理系统的附加训练数据,该语音处理系统在相同或相似类型的麦克风阵列之间具有不同级别的增益不匹配或变化。以此方式,数据增强过程10可以通过用表示麦克风阵列的麦克风中的缺陷的各种增益级别来增强训练数据集合,来训练语音处理系统对增益的变化更加鲁棒。虽然已经提供了两个用于利用麦克风间增益增强的信号的示例,但是可以理解,在本公开的范围内,数据增强过程10可以出于各种其他目的对多个信号执行基于麦克风间增益的增强。例如,并且在一些实现中,基于麦克风间增益的增强可以用于用新的适配数据(例如,基于麦克风间增益的增强)适配语音处理系统。
在一些实现中,可以使用一个或多个机器学习模型来模拟要应用于多个信号的多个增益级别。例如,可以使用一个或多个机器学习模型来模拟麦克风阵列的多个增益级别,该一个或多个机器学习模型被配置为“学习”麦克风阵列或单个麦克风的特性如何影响从麦克风阵列接收的信号的增益级别。如本领域中已知的,机器学习模型通常可以包括被训练为识别某些类型的模式的算法或算法组合。例如,根据可用信号的性质,机器学习方法通常可以分为三类:有监督学习、无监督学习和强化学习。如本领域中已知的,有监督学习可以包括向计算设备呈现示例输入及其期望的输出,其由“教师”给出,其中目标是学习将输入映射到输出的一般规则。在无监督学习的情况下,学习算法不会被赋予标签,让它自己找到输入中的结构。无监督学习本身可以是目标(发现数据中的隐藏模式),或者可以是达到目的的一种手段(特征学习)。如本领域中已知的,强化学习通常可以包括在动态环境中交互的计算设备,在该动态环境中,计算设备必须执行特定目标(例如驾驶车辆或与对手玩游戏)。当程序在自己的问题空间中导航时,程序会被提供类似于奖励的反馈,它试图最大化这些奖励。虽然已经提供了机器学习方法的三个示例,但是可以理解,在本公开的范围内,其他机器学习方法也是可能的。因此,数据增强过程10可以利用机器学习模型(例如,机器学习模型302)来模拟麦克风阵列或单个麦克风的特性如何影响从麦克风阵列接收的信号的增益级别。
在一些实现中,可以从一个或多个麦克风阵列测量要应用404于多个信号的多个增益级别。例如并且如上所述,数据增强过程10可以从麦克风阵列接收多个信号。在一些实现中,数据增强过程10可以确定麦克风阵列的每个麦克风的增益级别。例如,数据增强过程10可以定义麦克风阵列的增益级别范围(例如,通常针对每个麦克风和/或麦克风阵列)。如下面将更详细地讨论的,数据增强过程10可以定义麦克风阵列的增益级别的分布(例如,通常针对每个麦克风和/或麦克风阵列)。在一些实现中,增益级别的分布可以是频率的函数,使得通常针对特定麦克风和/或麦克风阵列,作为频率的函数观察到不同的增益级别。
在一些实现中,将来自多个增益级别的增益级别应用404于来自每个麦克风的信号可以包括:将来自预定义的增益级别范围的增益级别应用406于来自每个麦克风的信号。例如,预定义的增益级别范围可以包括最大增益级别和最小增益级别。在一个示例中,预定义的增益级别范围可以是默认的增益级别范围。在另一示例中,可以根据特定麦克风阵列的训练数据集来确定预定义的增益级别范围。在另一示例中,预定义的增益级别范围可以手动定义(例如,由用户通过用户界面)。虽然已经描述了可以如何定义增益级别范围的几个示例,但是可以理解,在本公开的范围内可以以各种方式定义预定义的增益级别范围。
继续上面的示例,假设麦克风202相对于其他麦克风引入例如两分贝增益,而麦克风212相对于麦克风阵列200的其他麦克风引入例如一分贝增益,尽管麦克风202、204、206、208、210、212、214、216、218是相同的。在该示例中,数据增强过程10可以将预定义的增益级别范围定义为例如零分贝到例如两分贝。数据增强过程10可以对来自每个麦克风202、204、206、208、210、212、214、216、218的每个信号应用406增益级别502,其范围从例如零分贝到例如两分贝。因此,数据增强过程10可以通过将预定义的增益级别范围中的多个增益级别应用406于每个麦克风的信号以生成麦克风间增益增强的信号504,来对每个信号执行402一个或多个基于麦克风间增益的增强。
在一些实现中,将来自多个增益级别的增益级别应用404于来自每个麦克风的信号可以包括:将来自预定义的增益级别范围的随机增益级别应用408于来自每个麦克风的信号。例如,数据增强过程10可以将从预定义的增益级别范围中随机选择的增益级别应用于每个麦克风的信号,以生成一个或多个麦克风间增益增强的信号(例如,麦克风间增益增强的信号504)。
在一些实现中,可以通过指定跨麦克风的最大和最小变化的参数来控制增益变化。例如,数据增强过程10可以接收对增益级别变化参数的选择(例如,从用户经由用户界面),以定义跨多个麦克风的增益级别的最大和/或最小变化。例如,增益级别变化参数可以包括增益级别的分布。在一些实现中,增益级别变化参数可以包括增益级别中的随机变化、根据高斯分布的增益级别变化、根据泊松分布的增益级别变化、和/或被配置为由机器学习模型学习的增益级别变化。因此,应当理解,增益级别变化参数可以包括任何类型的增益级别分布,从中可以将增益级别应用于一个或多个信号。在一些实现中,增益级别变化参数可以包括针对特定麦克风阵列或麦克风类型定义的默认增益级别变化参数。以此方式,数据增强过程10可以限制一个或多个麦克风间增益增强的信号的增益级别的变化。
在一些实现中,对一个或多个信号执行402一个或多个基于麦克风间增益的增强可以包括:将一个或多个信号转换410到频域。还参考图6并且在一些实现中,数据增强过程10可以将从多个麦克风(例如,多个麦克风202、204、206、208、210、212、214、216、218)接收的多个信号转换410为信号的频域表示(例如,多个基于频域的信号600)。在一些实现中,将一个或多个信号转换410到特征域可以包括从信号获得频率分量。在一些实现中,数据增强过程10可以通过对信号应用短时傅立叶变换(STFT)来从信号获得频率分量。虽然讨论了作为从信号获得频率分量的方式的STFT,但是可以理解,在本公开的范围内,可以使用其他变换来从信号中导出频率分量和/或将信号的时域表示转换为信号的频域表示。
在一些实现中,对一个或多个信号执行402一个或多个基于麦克风间增益的增强可以包括:将多个增益级别应用412于被转换到频域的一个或多个信号的多个频带。例如,麦克风阵列的增益级别可变性可能与频率相关。在一些实现中,数据增强过程10可以为多个频带定义多个增益级别。例如,数据增强过程10可以针对定义各种频带的增益级别的向量(例如,增益级别向量602)。在该示例中,增益级别向量602的每个条目可以对应于特定频率或频带。在一些实现中,数据增强过程10可以对每个频带应用412相同的增益级别,或者可以对从麦克风阵列接收的多个信号中的每个麦克风信号的每个频带应用412不同的增益级别。
在一些实现中,对一个或多个信号执行402一个或多个基于麦克风间增益的增强可以包括以下一项或多项:放大414一个或多个信号的至少一部分和衰减416一个或多个信号的至少一部分。例如,假设增益级别向量602为特定频带指定大于1的增益级别。在该示例中,数据增强过程10可以将来自每个麦克风的信号的频带放大414增益级别。在另一示例中,假设增益级别向量602为另一频带指定了小于1的增益级别。在该示例中,数据增强过程10可以将来自每个麦克风的信号的频带衰减416增益级别。因此,数据增强过程10可以通过放大414和/或衰减416麦克风阵列的每个麦克风的信号来对一个或多个信号执行402一个或多个基于麦克风间增益的增强。以此方式,数据增强过程10可以增强训练数据以解释或表示麦克风阵列的麦克风之间的麦克风间增益级别不匹配。
如上所述并且至少参考图7至图8,数据增强过程10可以从多个麦克风中的每个麦克风接收700语音信号,从而定义多个信号。可以接收702与麦克风自噪声相关联的一个或多个噪声信号。可以至少部分地基于与麦克风自噪声相关联的一个或多个噪声信号,对多个信号执行704一个或多个基于自噪声的增强,从而定义一个或多个基于自噪声的增强信号。
还参考图8,并且在一些实现中,音频记录系统104可以包括具有多个分立麦克风配件的定向麦克风阵列200。例如,音频记录系统104可以包括多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218),其可以形成麦克风阵列200。在一些实现中,每个音频采集设备或麦克风可以包括麦克风配件、放大器和/或模数转换系统。如上所述,每个麦克风(例如,音频采集设备202、204、206、208、210、212、214、216、218)在每个麦克风的配置或操作中可能具有缺陷和/或不匹配。例如,麦克风阵列200中的每个麦克风可以包括影响每个麦克风处理语音信号的能力的各种物理特性。在一些实现中,麦克风配件、放大器和/或模数转换系统的组合可能引入与麦克风阵列200接收的信号相关联的麦克风“自噪声”。如上所述,“自噪声”可以指麦克风在没有外部噪声的环境中定位时输出的噪声量。这种噪声的频谱形状可能对某些频率或频带的影响比其他频率或频带更大,并且不同的麦克风可能具有不同的自噪声级别或特性。
例如,假设麦克风204输出第一噪声信号,而麦克风214输出第二噪声信号。在该示例中,由每个麦克风输出的自噪声信号可能导致语音处理系统(例如,语音处理系统300)进行错误或不准确的信号处理。因此,数据增强过程10可以对现有训练数据和/或从各种麦克风接收700的信号执行704增强,以生成基于麦克风自噪声的增强信号。这些基于麦克风自噪声的增强信号可用于训练语音处理系统300以考虑由麦克风阵列200的特定麦克风输出的自噪声。
在一些实现中,数据增强过程10可以从多个麦克风中的每个麦克风接收700信号,从而定义多个信号。再次参考图8,并且在一些实现中,麦克风阵列200可以处理来自各种源的语音(例如,音频就诊信息106A-106C)。因此,麦克风202、204、206、208、210、212、214、216、218可以生成表示由麦克风阵列200处理的语音的信号(例如,多个信号500)。在一些实现中,数据增强过程10可以从麦克风202、204、206、208、210、212、214、216、218中的一些或每一个接收700信号。
在一些实现中,数据增强过程10可以接收702与麦克风自噪声相关联的一个或多个噪声信号。如上所述,并且在一些实现中,每个麦克风可以在没有任何外部噪声的情况下输出噪声信号。输出噪声信号或麦克风自噪声的特性可以基于麦克风配件、放大器和/或模数转换系统的机电属性。再次参考图8,数据增强过程10可以从各种源(例如,一个或多个机器学习模型、部署在无噪声环境中的麦克风的测量等)接收702与麦克风自噪声相关联的一个或多个噪声信号(例如,一个或多个噪声信号800)。
在一些实现中,接收702与麦克风自噪声相关联的一个或多个噪声信号可以包括:模拟706表示麦克风自噪声的模型。例如,可以使用一个或多个机器学习模型来模拟一个或多个噪声信号,该一个或多个机器学习模型被配置为“学习”麦克风阵列或单个麦克风的特性如何生成噪声。如上所述并且如本领域中已知的,机器学习模型通常可以包括被训练为识别某些类型的模式的算法或算法组合。在一些实现中,机器学习模型(例如,机器学习模型302)可以被配置为模拟麦克风的操作,以生成与麦克风自噪声相关联的一个或多个噪声信号(例如,一个或多个噪声信号800)。
在一些实现中,接收702与麦克风自噪声相关联的一个或多个噪声信号可以包括:测量708来自至少一个麦克风的自噪声。例如并且如上所述,数据增强过程10可以从麦克风阵列接收多个信号。在一些实现中,数据增强过程10可以确定麦克风阵列的每个麦克风的自噪声(例如,一个或多个噪声信号800)。例如,数据增强过程10可以定义麦克风阵列的自噪声信号的分布(例如,通常针对每个麦克风和/或麦克风阵列)。在一些实现中,自噪声信号的分布可以是频率的函数,使得通常针对特定麦克风和/或麦克风阵列,作为频率的函数观察到不同的噪声响应。
在一些实现中,数据增强过程10可以至少部分地基于与麦克风自噪声相关联的一个或多个噪声信号来对多个信号执行704一个或多个基于自噪声的增强,从而定义一个或多个基于自噪声的增强信号。基于自噪声的增强信号通常可以包括信号或训练数据的增强,以包括表示由麦克风生成的自噪声的噪声。如上所述,基于自噪声的增强信号可以允许语音处理系统(例如,语音处理系统300)考虑由麦克风输出的自噪声,而不需要在具有麦克风阵列的传统语音处理系统中使用的昂贵且复杂的信号补偿技术。
在一些实现中,一个或多个噪声信号可以与特定麦克风或麦克风阵列相关联。例如,假设讲话者在临床环境中讲话,该临床环境中部署有模块化ACD系统54的麦克风阵列。在该示例中,麦克风阵列的麦克风的属性可以输出由麦克风阵列处理的语音信号中的各种噪声信号或噪声信号分布。现在假设讲话者向位于临床环境中的分离计算设备内的虚拟助手讲话。在该示例中,尽管环境特征保持相同(即,临床环境),但虚拟助手的麦克风阵列可以具有可能与模块化ACD系统54的麦克风阵列不同地影响信号处理的因素和特性。在一些实现中,麦克风阵列之间的区别可能对语音处理系统的性能具有各种影响。因此,数据增强过程10可以允许由一个麦克风阵列接收的语音信号用于训练具有其他麦克风阵列的语音处理系统和/或用于用新的适配数据适配语音处理系统或模型。
在一些实现中,数据增强过程10可以接收对目标麦克风阵列的选择。目标麦克风阵列可以包括一种类型的麦克风或麦克风阵列。在一些实现中,数据增强过程10可以通过提供与目标麦克风阵列相关联的特定自噪声特性来接收对目标麦克风阵列的选择。在一些实现中,数据增强过程10可以利用图形用户界面来从目标麦克风阵列的库中接收对目标麦克风阵列的选择。在一个示例中,数据增强过程10可以接收对麦克风阵列的各种特性(例如,麦克风阵列的类型、麦克风阵列的麦克风的布置等)的选择(例如,经由图形用户界面),以定义目标麦克风阵列。如下面将更详细地讨论的,并且在一些实现中,数据增强过程10可以接收目标麦克风阵列的特性的范围或分布。虽然已经描述了图形用户界面的示例,但是可以理解,可以在本公开的范围内以各种方式选择目标麦克风阵列(例如,由用户手动选择、通过数据增强过程10自动选择、预定义的目标麦克风阵列等)。
在一些实现中,数据增强过程10可以至少部分地基于目标麦克风阵列对多个信号执行704一个或多个基于自噪声的增强。如下面将更详细地讨论的,出于各种原因,可能希望增加与特定麦克风阵列相关联的多个信号。例如,并且在一些实现中,数据增强过程10可以对多个信号执行一个或多个基于自噪声的增强,以利用多个信号训练具有目标麦克风阵列的语音处理系统。在该示例中,数据增强过程10可以利用由不同麦克风阵列接收的语音信号来训练语音处理系统,这可以允许语音处理系统使用增强的训练信号集合与各种麦克风阵列一起有效地利用。
在另一示例中,数据增强过程10可以对多个信号执行704一个或多个基于自噪声的增强,以生成用于语音处理系统的附加训练数据,其在相同或相似类型的麦克风或麦克风阵列中具有变化的自噪声。以此方式,数据增强过程10可以通过用表示麦克风阵列的麦克风中的缺陷的自噪声信号来增强训练数据集,来训练语音处理系统对麦克风自噪声更加鲁棒。虽然已经提供了用于利用基于自噪声的增强信号的两个示例,但是可以理解,在本公开的范围内,数据增强过程10可以针对各种其他目的对多个信号执行基于自噪声的增强。例如,并且在一些实现中,基于自噪声的增强可用于用新的适配数据(例如,基于自噪声的增强信号)来适配语音处理系统。
在一些实现中,至少部分地基于与麦克风自噪声相关联的一个或多个噪声信号对多个信号执行704一个或多个基于自噪声的增强可以包括:将来自一个或多个噪声信号的噪声信号添加710到来自每个麦克风的信号。例如,假设数据增强过程10接收702与麦克风204的自噪声相关联的第一噪声信号和与麦克风214的自噪声相关联的第二噪声信号。在该示例中,数据增强过程10可以将与麦克风204的自噪声相关联的第一噪声信号和与麦克风214的自噪声相关联的第二噪声信号添加到多个信号(例如,多个信号500)中的来自每个麦克风的信号。因此,数据增强过程10可以为来自每个麦克风的信号生成一个或多个基于自噪声的增强信号(例如,基于自噪声的增强信号802)。以此方式,数据增强过程10可以允许利用麦克风204的自噪声和麦克风214的自噪声来生成训练数据。虽然已经描述了麦克风阵列200中的两个麦克风的两个自噪声信号的示例,但是可以理解,在本公开的范围内,可以将任意数量的麦克风的任意数量的自噪声信号添加到来自每个麦克风的信号,以生成一个或多个基于自噪声的增强信号。
在一些实现中,将噪声信号添加710到来自每个麦克风的信号可以包括:至少部分地基于一个或多个基于自噪声的增强信号的预定义信噪比,将来自一个或多个噪声信号的噪声信号添加712到来自每个麦克风的信号。例如,数据增强过程10可以接收对一个或多个基于自噪声的增强信号的信噪比(SNR)的选择。在一些实现中,可以接收SNR比作为SNR参数的选择(例如,从用户经由用户界面)。在一些实现中,SNR参数可以包括为特定麦克风阵列或麦克风类型定义的默认SNR参数。
在一些实现中,将来自一个或多个噪声信号的噪声信号添加710到来自每个麦克风的信号可以包括:将来自一个或多个噪声信号的随机噪声信号添加714到来自每个麦克风的信号。例如并且如上所述,数据增强过程10可以接收与麦克风阵列的一个或多个麦克风的麦克风自噪声相关联的一个或多个噪声信号。继续上面的示例,假设数据增强过程10接收702与麦克风204的自噪声相关联的第一噪声信号和与麦克风214的自噪声相关联的第二噪声信号。在该示例中,数据增强过程10可以将随机噪声信号(例如,第一噪声信号和/或第二噪声信号)添加714到来自每个麦克风的信号(例如,来自每个麦克风202、204、206、208、210、212、214、216、218的信号)。以此方式,数据增强过程10可以为语音处理系统生成更多样的训练数据,其允许语音处理系统对麦克风阵列中的麦克风配件的麦克风自噪声更鲁棒。
如上所述并且至少参考图9至图11,数据增强过程10可以从多个麦克风中的每个麦克风接收900信号,从而定义多个信号。可以接收902与至少一个麦克风相关联的一个或多个麦克风频率响应。可以至少部分地基于一个或多个麦克风频率响应对多个信号执行904一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
还参考图10,并且在一些实现中,音频记录系统104可以包括具有多个分立麦克风配件的定向麦克风阵列200。例如,音频记录系统104可以包括多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218),其可以形成麦克风阵列200。在一些实现中,每个音频采集设备或麦克风可以包括麦克风配件、放大器和模数转换系统。如上所述,每个麦克风(例如,音频采集设备202、204、206、208、210、212、214、216、218)在每个麦克风的配置或操作中可能具有缺陷和/或不匹配。
例如,麦克风阵列200中的每个麦克风可以包括影响每个麦克风处理语音信号的能力的各种物理特性。在一些实现中,麦克风配件、放大器、模数转换系统和/或每个麦克风的外壳的组合可能引入麦克风频率响应。在一些实现中,麦克风频率响应可以指幅度方面的非平坦频率响应和相位方面的非线性频率响应,其指示不同频率处的麦克风灵敏度的改变。典型的MEMS麦克风展示了非平坦频率响应形状。例如,麦克风外壳还可以将频谱整形引入麦克风频率响应。还参考图11,并且在一些实现中,麦克风频率响应可以作为应用于麦克风的各种类型的覆盖物或垫片的函数而变化。因此,应当理解,麦克风的频率响应可以包括针对麦克风的不同物理特性的信号幅度和/或相位的变化。在一些实现中,改变麦克风阵列的一个或多个麦克风的麦克风频率响应可能导致语音处理系统对语音信号的错误处理。
例如,假设麦克风206以第一麦克风频率响应为特征,而麦克风216以第二频率响应为特征。在该示例中,由每个麦克风产生的麦克风频率响应可能导致语音处理系统(例如,语音处理系统300)进行错误或不准确的信号处理。因此,数据增强过程10可以对现有训练数据和/或从各种麦克风接收的信号900执行904增强,以生成基于麦克风频率响应的增强信号。这些基于麦克风频率响应的增强信号可用于训练语音处理系统300以考虑由麦克风阵列200中的特定麦克风生成的频率响应。
在一些实现中,数据增强过程10可以从多个麦克风中的每个麦克风接收信号900,从而定义多个信号。再次参考图10,并且在一些实现中,麦克风阵列200可以处理来自各种源的语音(例如,音频就诊信息106A-106C)。因此,麦克风202、204、206、208、210、212、214、216、218可以生成表示由麦克风阵列200处理的语音的信号(例如,多个信号500)。在一些实现中,数据增强过程10可以从麦克风202、204、206、208、210、212、214、216、218中的一些或每一个接收900信号。
在一些实现中,数据增强过程10可以接收902与至少一个麦克风相关联的一个或多个麦克风频率响应。如上所述,并且在一些实现中,每个麦克风可以基于麦克风的物理特性来生成频率响应。麦克风频率响应的形状(例如,在幅度和相位方面)可以基于麦克风配件、放大器、模数转换系统和/或麦克风外壳的机电属性。再次参考图10,数据增强过程10可以从各种源(例如,一个或多个机器学习模型、从对至少一个麦克风的频率响应的测量等)接收902与至少一个麦克风相关联的一个或多个麦克风频率响应(例如,一个或多个麦克风频率响应1000)。
在一些实现中,接收902与至少一个麦克风相关联的一个或多个频率响应可以包括:模拟906表示麦克风频率响应的一个或多个模型。例如,可以使用一个或多个机器学习模型来模拟一个或多个麦克风频率响应,该一个或多个机器学习模型被配置为“学习”各个麦克风的频率响应。如上所述并且如本领域中已知的,机器学习模型通常可以包括被训练为识别某些类型的模式的算法或算法组合。在一些实现中,机器学习模型(例如,机器学习模型302)可以被配置为模拟麦克风的操作以生成一个或多个频率响应(例如,一个或多个麦克风频率响应1000)。
在一些实现中,接收902与至少一个麦克风相关联的一个或多个频率响应可以包括:测量908来自至少一个麦克风的频率响应。例如并且如上所述,数据增强过程10可以从麦克风阵列接收多个信号。在一些实现中,数据增强过程10可以确定麦克风阵列的每个麦克风的频率响应。例如,数据增强过程10可以定义麦克风阵列的频率响应的分布(例如,通常针对每个麦克风和/或麦克风阵列)。
在一些实现中,数据增强过程10可以至少部分地基于一个或多个麦克风频率响应对多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。基于麦克风频率响应的增强信号通常可以包括信号或训练数据的增强,以包括作为频率的函数的信号或训练数据的相位和/或幅度的增强。如上所述,基于麦克风频率响应的增强信号可以允许语音处理系统(例如,语音处理系统300)考虑作为麦克风的频率的函数的相位和/或幅度变化,而不需要在具有麦克风阵列的传统语音处理系统中使用的昂贵且复杂的信号补偿技术。
在一些实现中,一个或多个麦克风频率响应可以与特定麦克风或麦克风阵列相关联。例如,假设讲话者在临床环境中讲话,该临床环境中部署有模块化ACD系统54的麦克风阵列。在该示例中,麦克风阵列的麦克风的属性可以生成各种频率响应。现在假设讲话者向位于临床环境中的分离计算设备内的虚拟助手讲话。在该示例中,尽管环境特征保持相同(即,临床环境),但虚拟助手的麦克风阵列可以具有可能与模块化ACD系统54的麦克风阵列不同地影响信号处理的因素和特性。在一些实现中,麦克风阵列之间的区别可能对语音处理系统的性能具有各种影响。因此,数据增强过程10可以允许由一个麦克风阵列接收的语音信号用于训练具有其他麦克风阵列的语音处理系统和/或用于用新的适配数据适配语音处理系统或模型。
在一些实现中,数据增强过程10可以接收对目标麦克风或麦克风阵列的选择。目标麦克风或麦克风阵列可以包括一种类型的麦克风或麦克风阵列。在一些实现中,数据增强过程10可以通过提供与目标麦克风或麦克风阵列相关联的特定频率响应来接收对目标麦克风或麦克风阵列的选择。在一些实现中,数据增强过程10可以利用图形用户界面来从目标麦克风阵列的库中接收对目标麦克风阵列的选择。在一个示例中,数据增强过程10可以接收对麦克风阵列的各种特性(例如,麦克风阵列的类型、麦克风阵列的麦克风的布置等)的选择(例如,经由图形用户界面),以定义目标麦克风阵列。如下面将更详细地讨论的,并且在一些实现中,数据增强过程10可以接收目标麦克风阵列的特性的范围或分布。虽然已经描述了图形用户界面的示例,但是可以理解,可以在本公开的范围内以各种方式选择目标麦克风阵列(例如,由用户手动选择、通过数据增强过程10自动选择、预定义的目标麦克风阵列等)。
在一些实现中,数据增强过程10可以至少部分地基于目标麦克风或麦克风阵列对多个信号执行904一个或多个基于麦克风频率响应的增强。如下面将更详细地讨论的,出于各种原因,可能希望增强与特定麦克风阵列相关联的多个信号。例如,并且在一些实现中,数据增强过程10可以对多个信号执行一个或多个基于麦克风频率响应的增强,以利用多个信号训练具有目标麦克风阵列的语音处理系统。在该示例中,数据增强过程10可以利用由不同麦克风阵列接收的语音信号来训练语音处理系统,这可以允许语音处理系统使用增强的训练信号集合与各种麦克风阵列一起有效地利用。
在另一示例中,数据增强过程10可以对多个信号执行一个或多个基于麦克风频率响应的增强,以生成用于语音处理系统的附加训练数据,其在相同或相似类型的麦克风阵列之中具有变化的频率响应。以此方式,数据增强过程10可以通过用各种频率响应或频率响应分布来增强训练数据集,来训练语音处理系统对频率响应的变化更鲁棒。虽然已经提供了用于利用基于麦克风频率响应的增强信号的两个示例,但是可以理解,在本公开的范围内,数据增强过程10可以针对各种其他目的对多个信号执行基于麦克风频率响应的增强。例如,并且在一些实现中,基于频率响应的增强可用于用新的适配数据适配语音处理系统(例如,基于麦克风频率响应的增强)。
在一些实现中,至少部分地基于一个或多个麦克风频率响应对多个信号执行904一个或多个基于麦克风频率响应的增强可以包括:至少部分地基于一个或多个麦克风频率响应来增强910多个信号的一个或多个幅度分量和相位分量。如上所述,并且在一些实现中,每个信号可以包括幅度分量和相位分量。继续上面的示例,假设麦克风206输出第一麦克风频率响应,而麦克风216输出第二频率响应。在该示例中,数据增强过程10可以利用与麦克风206相关联的第一麦克风频率响应幅度分量和/或相位分量和/或与麦克风216相关联的第二麦克风频率响应的幅度分量和/或相位分量来增强来自每个麦克风(例如,麦克风202、204、206、208、210、212、214、216、218)的信号。
在一些实现中,至少部分地基于一个或多个麦克风频率响应对多个信号执行904一个或多个基于麦克风频率响应的增强可以包括:利用一个或多个麦克风频率响应对多个信号进行滤波912。例如,数据增强过程10可以利用一个或多个麦克风频率响应(例如,一个或多个麦克风频率响应1000)对来自多个信号(例如,多个信号500)中的每个麦克风信号进行滤波。如本领域中已知的,对信号进行滤波可以包括在时域中对信号进行卷积并且在频域中将信号相乘。例如,信号卷积是组合两个信号以形成第三信号的数学方法,而在时域中卷积信号相当于在频域中将信号的频谱相乘。在一些实现中,利用一个或多个麦克风频率响应(例如,一个或多个麦克风频率响应1000)对多个信号(例如,多个信号500)进行滤波912可以生成一个或多个基于麦克风频率响应的增强信号(例如,一个或多个基于麦克风频率响应的增强信号1002)。
继续上面的示例,数据增强过程10可以至少部分地基于一个或多个麦克风频率响应,通过利用与麦克风206相关联的麦克风频率响应对多个信号500进行滤波912,来对多个信号执行一个或多个基于麦克风频率响应的增强,以生成一个或多个基于麦克风频率响应的增强信号1002。在该示例中,利用与麦克风206相关联的麦克风频率响应对多个信号500进行滤波可以生成多个信号的幅度和/或相位增强或变化。以此方式,数据增强过程10可以生成增强信号(例如,一个或多个基于麦克风频率响应的增强信号1002),其允许语音处理系统在处理语音信号时考虑特定麦克风的频率响应。
在一些实现中,至少部分地基于一个或多个麦克风频率响应对多个信号执行904一个或多个基于麦克风频率响应的增强可以包括:利用从一个或多个麦克风频率响应中随机选择的麦克风频率响应对多个信号进行滤波914。例如,数据增强过程10可以至少部分地基于一个或多个麦克风频率响应,通过利用从一个或多个麦克风频率响应1000中随机选择的幅度分量和/或相位分量对多个信号500进行滤波914,来对多个信号执行904一个或多个基于麦克风频率响应的增强。在该示例中,数据增强过程10可以从与麦克风206相关联的麦克风频率响应和/或与麦克风216相关联的麦克风频率响应中随机选择幅度分量和/或相位分量,以利用来自多个信号500的麦克风信号进行滤波914。虽然已经提供了例如两个频率响应的示例,但是可以理解,在本公开的范围内,数据增强过程10可以至少部分地基于一个或多个麦克风频率响应,通过从任意数量的麦克风频率响应中随机选择的幅度分量和/或相位分量对多个信号500进行滤波914,来对多个信号执行904一个或多个基于麦克风频率响应的增强。
如上所述并且至少参考图12至图13,数据增强过程10可以从多个麦克风中的每个麦克风接收1200信号,从而定义多个信号。可以确定1202与至少一个麦克风相关联的谐波失真。可以至少部分地基于与至少一个麦克风相关联的谐波失真,对多个信号执行1204一个或多个基于谐波失真的增强,从而定义一个或多个基于谐波失真的增强信号。
还参考图13,并且在一些实现中,音频记录系统可以包括具有多个分立麦克风组件的定向麦克风阵列200。例如,音频记录系统104可以包括多个分立音频采集设备(例如,音频采集设备202、204、206、208、210、212、214、216、218),其可以形成麦克风阵列200。在一些实现中,每个音频采集设备或麦克风可以包括麦克风配件、放大器和模数转换系统。如上所述,每个麦克风(例如,音频采集设备202、204、206、208、210、212、214、216、218)在每个麦克风的配置或操作中可能具有缺陷和/或不匹配。
例如,麦克风阵列200中的每个麦克风可以包括影响每个麦克风处理语音信号的能力的各种物理特性。在一些实现中,麦克风配件、放大器和/或模数转换系统的组合可能引入谐波失真。在一些实现中,谐波失真可以指对给定纯音输入信号的麦克风输出上的失真量的测量。在一些实现中,改变与麦克风阵列的一个或多个麦克风相关联的总谐波失真值可能导致语音处理系统对语音信号的错误处理。
例如,假设麦克风208输出第一总谐波失真,而麦克风218输出第二总谐波失真。在该示例中,由每个麦克风产生的总谐波失真可能导致语音处理系统(例如,语音处理系统300)进行错误或不准确的信号处理。因此,数据增强过程10可以对现有训练数据和/或从各种麦克风接收1200的信号执行1204增强,以生成基于谐波失真的增强信号。这些基于谐波失真的增强信号可用于训练语音处理系统300以考虑由麦克风阵列200中的特定麦克风生成的谐波失真。
在一些实现中,数据增强过程10可以从多个麦克风中的每个麦克风接收1200信号,从而定义多个信号。再次参考图13,并且在一些实现中,麦克风阵列200可以处理来自各种源的语音(例如,音频就诊信息106A-106C)。因此,麦克风202、204、206、208、210、212、214、216、218可以生成表示由麦克风阵列200处理的语音的信号(例如,多个信号500)。在一些实现中,数据增强过程10可以从麦克风202、204、206、208、210、212、214、216、218中的一些或每一个接收1200信号。
在一些实现中,数据增强过程10可以确定1202与至少一个麦克风相关联的总谐波失真。例如,并且如上所述,总谐波失真可以指对给定纯音输入信号的麦克风输出上的失真量的测量。麦克风的输出可以包括基波信号和相加在一起的多个谐波。在一些实现中,数据增强过程10可以接收与至少一个麦克风相关联的总谐波失真(例如,总谐波失真1300)。在一些实现中,数据增强过程10可以通过测量1206来自至少一个麦克风的总谐波失真来确定1202与至少一个麦克风相关联的总谐波失真。
例如,数据增强过程10可以通过每个麦克风(例如,麦克风配件、放大器和/或模数转换系统的组合)输入频率为“ω”的正弦信号。在该示例中,可以以原始频率(即“ω”)的n*ω(谐波)的倍数来添加附加内容。数据增强过程10可以通过测量来自输出信号的输入信号中不存在的附加信号内容来确定每个麦克风的总谐波失真。在一些实现中,数据增强过程10可以确定每个麦克风的多个谐波阶数(例如,输入频率的倍数)。如下面将更详细地讨论的,总谐波失真的谐波阶数可以用作参数(例如,谐波失真参数)以执行一个或多个基于谐波失真的增强。
再次参考图13,并且在一些实现中,假设数据增强过程10向至少一个麦克风(例如,麦克风208、218)提供纯正弦输入。在该示例中,数据增强过程10可以测量1206来自麦克风208、218的输出的任何附加内容(即,不包括在输入信号中的内容)。因此,数据增强过程10可以至少部分地基于来自麦克风208、218的输出的附加内容来确定1202麦克风208输出第一总谐波失真,而麦克风218输出第二总谐波失真。虽然已经描述了确定例如与两个麦克风相关联的两个总谐波失真的示例,但是可以理解,在本公开的范围内可以确定1202任意数量的麦克风的任意数量的总谐波失真。
在一些实现中,确定1202与至少一个麦克风相关联的总谐波失真可以包括模拟表示总谐波失真的一个或多个模型。例如,可以使用一个或多个机器学习模型来模拟总谐波失真,该一个或多个机器学习模型被配置为“学习”各个麦克风的总谐波失真。如上所述并且如本领域中已知的,机器学习模型通常可以包括被训练为识别某些类型的模式的算法或算法组合。在一些实现中,机器学习模型(例如,机器学习模型302)可以被配置为模拟麦克风的操作,以生成与至少一个麦克风相关联的总谐波失真(例如,总谐波失真1300)。
在一些实现中,确定1202与至少一个麦克风相关联的总谐波失真可以包括:接收1208与至少一个麦克风相关联的谐波失真参数。再次参考图13,并且在一些实现中,谐波失真参数(例如,谐波失真参数1302)可以指示与至少一个麦克风相关联的谐波的阶数。例如,谐波失真参数1302可以是与麦克风的输出相关联的或在麦克风的输出处生成的多个谐波(例如,谐波失真参数“1”可以引用一阶谐波;谐波失真参数“2”可以引用一阶和二阶谐波;以及谐波失真参数“n”可以引用“n”阶谐波)。在一些实现中,数据增强过程10可以利用图形用户界面来接收对谐波失真参数1302的选择。在一些实现中,谐波失真参数1302可以是可以由用户定义或选择的值来更新或替换的缺省值。
在一些实现中,数据增强过程10可以响应于确定1202与至少一个麦克风相关联的总谐波失真,来接收1208与至少一个麦克风相关联的谐波失真参数。例如,并且如上所述,当测量或模拟总谐波失真时,数据增强过程10可以确定由至少一个麦克风输出的谐波的数量。继续上面的示例,假设数据增强过程10确定1202麦克风208输出具有例如五次谐波的总谐波失真。以此方式,数据增强过程10可以将谐波失真参数1302定义为例如5,以表示与麦克风208相关联的谐波的阶数。
在一些实现中,数据增强过程10可以至少部分地基于与至少一个麦克风相关联的总谐波失真来对多个信号执行一个或多个基于谐波失真的增强,从而定义一个或多个基于谐波失真的增强信号。基于谐波失真的增强信号(例如,基于谐波失真的增强信号1304)通常可以包括信号或训练数据的增强,以包括表示由麦克风输出的谐波分量相加的信号中的增强。如上所述,基于谐波失真的增强信号可以允许语音处理系统(例如,语音处理系统300)考虑在麦克风的输出信号中生成的谐波分量,而不需要在具有麦克风阵列的传统语音处理系统中使用的昂贵且复杂的信号补偿技术。
在一些实现中,一个或多个总谐波失真(例如,总谐波失真1300)可以与特定麦克风或麦克风阵列相关联。例如,假设讲话者在临床环境中讲话,该临床环境中部署有模块化ACD系统54的麦克风阵列。在该示例中,麦克风阵列的麦克风的属性可以输出各种总谐波失真。现在假设讲话者向位于临床环境中的分离计算设备内的虚拟助手讲话。在该示例中,尽管环境特征保持相同(即,临床环境),但虚拟助手的麦克风阵列可以具有可能与模块化ACD系统54的麦克风阵列不同地影响信号处理的因素和特性。在一些实现中,麦克风阵列之间的区别可能对语音处理系统的性能具有各种影响。因此,数据增强过程10可以允许由一个麦克风阵列接收的语音信号用于训练具有其他麦克风阵列的语音处理系统和/或用于用新的适配数据适配语音处理系统或模型。
在一些实现中,数据增强过程10可以接收对目标麦克风或麦克风阵列的选择。目标麦克风或麦克风阵列可以包括一种类型的麦克风或麦克风阵列。在一些实现中,数据增强过程10可以通过提供与目标麦克风或麦克风阵列相关联的特定总谐波失真来接收对目标麦克风或麦克风阵列的选择。在一些实现中,数据增强过程10可以利用图形用户界面来接收在目标麦克风阵列的库中对目标麦克风阵列的选择。在一个示例中,数据增强过程10可以接收对麦克风阵列的各种特性(例如,麦克风阵列的类型、麦克风阵列的麦克风的布置等)的选择(例如,经由图形用户界面),以定义目标麦克风阵列。在一些实现中,数据增强过程10可以接收目标麦克风阵列的特性的范围或分布。虽然已经描述了图形用户界面的示例,但是可以理解,在本公开的范围内可以以各种方式选择目标麦克风阵列(例如,由用户手动选择、通过数据增强过程10自动选择、预定义的目标麦克风阵列等)。
在一些实现中,数据增强过程10可以至少部分地基于与至少一个麦克风相关联的总谐波失真来对多个信号执行1204一个或多个基于谐波失真的增强。如下面将更详细地讨论的,出于各种原因,可能希望增强与特定麦克风阵列相关联的多个信号。例如,并且在一些实现中,数据增强过程10可以对多个信号执行一个或多个基于谐波失真的增强,以利用多个信号训练具有目标麦克风阵列的语音处理系统。在该示例中,数据增强过程10可以利用由不同麦克风阵列接收的语音信号来训练语音处理系统,这可以允许语音处理系统使用增强的训练信号集合与各种麦克风阵列一起有效地利用。
在另一示例中,数据增强过程10可以对多个信号执行1204一个或多个基于谐波失真的增强,以生成用于语音处理系统的附加训练数据,其在相同或相似类型的麦克风阵列之间具有变化的总谐波失真。以此方式,数据增强过程10可以通过用各种谐波失真或谐波失真分布来增强训练数据集,来训练语音处理系统对谐波失真的变化更加鲁棒。虽然已经提供了用于利用基于谐波失真的增强信号的两个示例,但是可以理解,在本公开的范围内,数据增强过程10可以出于各种其他目的对多个信号执行基于谐波失真的增强。例如,并且在一些实现中,基于谐波失真的增强可用于利用新的适配数据(例如,基于谐波失真的增强1304)适配语音处理系统。
在一些实现中,至少部分地基于谐波失真参数对多个信号执行1204一个或多个基于谐波失真的增强可以包括:至少部分地基于谐波失真参数和谐波失真系数表来生成1210基于谐波失真的增强信号。例如,数据增强过程10可以利用谐波失真参数1302和谐波失真系数表来生成一个或多个基于谐波失真的增强信号(例如,基于谐波失真的增强信号1306)。在一些实现中,数据增强过程10可以参考来自被测量设备的样本(例如,从多个麦克风测量的总谐波失真)的共同总谐波失真系数表(例如,谐波失真系数表1306)。在一些实现中,数据增强过程10可以至少部分地基于如下公式1中所示的谐波失真参数和谐波失真系数表来生成1210基于谐波失真的增强信号,其中“N”是最高谐波失真的阶数(例如,基于谐波失真参数),并且“p[N]”表示第N次谐波对总谐波失真的贡献:
(1)谐波失真信号=p[0]·xN-1+[1]·xN-2+…+p[N-2]·x+p[N-1]
在一些实现中,数据增强过程10可以至少部分地基于从至少一个麦克风测量的总谐波失真来生成1212谐波失真系数表。在一个示例中,假设数据增强过程10测量1206与麦克风208相关联的总谐波失真。如上所述,假设数据增强过程10向麦克风208提供纯正弦输入。在该示例中,假设数据增强过程10针对来自麦克风208的输出的任何附加内容(即,不包括在输入信号中的内容)测量1206,并且确定麦克风208输出具有例如5个谐波分量(例如,麦克风208的输出信号中的1到5次谐波)的总谐波失真。数据增强过程10可以至少部分地基于麦克风208的输出信号来生成1212具有一个或多个谐波失真系数的谐波失真系数表1306。虽然上面的示例描述了从单个麦克风的总谐波失真生成具有谐波失真系数的谐波失真系数表,但是可以理解,在本公开的范围内,数据增强过程10可以为任意数量的麦克风生成1212具有任意数量的谐波失真系数的谐波失真系数表1306。
继续上面的示例,假设数据增强过程10确定1202麦克风208输出具有例如5次谐波的第一总谐波失真。在该示例中,数据增强过程10可以将麦克风208的谐波失真参数1302定义为“5”,指示5个谐波分量或阶数。在一些实现中,数据增强过程10可以查找或标识一个或多个谐波失真系数以利用麦克风208的谐波失真参数“5”应用于公式1。因此,数据增强过程10可以至少部分地基于谐波失真参数1302和谐波失真系数表1306,从多个信号(例如,多个信号500)生成一个或多个基于谐波失真的增强信号1304。以此方式,数据增强过程10可以增强多个信号500以对麦克风208的谐波失真更鲁棒。尽管以上示例包括至少部分地基于与一个麦克风相关联的谐波失真参数来生成一个或多个基于谐波失真的增强信号,但是可以理解,在本公开的范围内,针对任意数量的麦克风确定的任意数量的谐波失真参数和/或总谐波失真,可以生成任意数量的基于谐波失真的增强信号。
一般信息:
如本领域技术人员将理解的,本公开可以被实施为一种方法、系统或计算机程序产品。因此,本公开可以采取完全硬件实施例、完全软件实施例(包括固件、驻留软件、微代码等),或者是结合了软件和硬件方面的实施例的形式,本文通常可以将其统称为“电路”、“模块”或“系统”。此外,本公开可以采取计算机可用存储介质上的计算机程序产品的形式,在该介质中实施有计算机可用程序代码。
可以利用任何适合的计算机可用或计算机可读介质。计算机可用或计算机可读介质可以是例如但不限于电子、磁、光、电磁、红外或半导体系统、装置、设备或传播介质。计算机可读介质的更具体的示例(非穷举列表)可以包括以下内容:具有一条或多条导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光纤、便携式致密盘只读存储器(CD-ROM)、光存储设备、诸如支持互联网或内联网的那些传输介质的传输介质、或磁存储设备。计算机可用或计算机可读介质也可以是在其上打印程序的纸张或其他适合的介质,因为程序可以通过例如对纸张或其他介质的光学扫描来电子捕获,然后在必要时以适当的方式编译、解释或以其他方式处理,然后存储在计算机存储器中。在本文档的上下文中,计算机可用或计算机可读介质可以是可以包含、存储、通信、传播或传输由指令执行系统、装置或设备使用或与之结合的程序的任何介质。该计算机可用介质可以包括传播的数据信号,其具有在基带中或作为载波的一部分实施在其中的计算机可用程序代码。计算机可用程序代码可以使用任何适当的介质来传输,包括但不限于互联网、有线、光纤电缆、RF等。
用于执行本公开的操作的计算机程序代码可以用面向对象的编程语言编写,例如Java、Smalltalk、C++等。然而,用于执行本公开的操作的计算机程序代码也可以用传统过程编程语言来编写,诸如“C”编程语言或类似的编程语言。程序代码可以完全在用户的计算机上、部分在用户的计算机上、作为独立的软件包、部分在用户的计算机上且部分在远程计算机上或者完全在远程计算机或服务器上执行。在后一种情况下,远程计算机可以通过局域网/广域网/互联网(例如,网络14)连接到用户的计算机。
参考根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开。可以理解,流程图和/或框图的每个框以及流程图和/或框图中的框的组合可以由计算机程序指令来实现。这些计算机程序指令可以被提供给通用计算机/专用计算机/其他可编程数据处理装置的处理器,使得经由计算机或其他可编程数据处理装置的处理器执行的指令创建用于实现一个或多个流程图和/或框图框中指定的功能/动作的装置。
这些计算机程序指令也可以存储在计算机可读存储器中,其可以指示计算机或其他可编程数据处理装置以特定方式运行,使得存储在计算机可读存储器中的指令产生包括实现一个或多个流程图和/或框图框中指定的功能/动作的指令装置的制品。
计算机程序指令还可以被加载到计算机或其他可编程数据处理装置上,以使在计算机或其他可编程装置上执行一系列操作步骤以产生计算机实现的过程,使得在计算机或其他可编程装置上执行的指令提供用于实现一个或多个流程图和/或框图框中指定的功能/动作的步骤。
附图中的流程图和框图可以示出根据本公开的各种实施例的系统、方法和计算机程序产品的可能实现的架构、功能和操作。就此而言,流程图或框图中的每个框可以表示代码的模块、段或部分,其包括用于实现(多个)指定逻辑功能的一个或多个可执行指令。还应注意的是,在一些备选实现中,框中注明的功能可以以附图中注明的顺序发生。例如,事实上,连续显示的两个框可以基本上同时执行,或者这些框有时可以相反的顺序执行,根本不执行,或者根据所涉及的功能与任何其他流程图的任何组合来执行。还应注意的是,框图和/或流程图的每个框以及框图和/或流程图中的框的组合可以由执行指定功能或动作的基于专用硬件的系统、或专用硬件和计算机指令的组合来实现。
本文使用的术语仅用于描述特定实施例的目的,并不旨在限制本公开。如本文所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文另有明确指示。还应当理解,当在本说明书中使用时,术语“包括”和/或“包含”指定了所陈述的特征、整数、步骤、操作、元件和/或组件的存在,但不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
所附权利要求中的所有装置或步骤加上功能元件的对应结构、材料、动作和等同形式旨在根据具体要求保护的内容,包括用于结合其他要求保护的元件执行功能的任何结构、材料或动作。本公开的描述是为了说明和描述的目的而提出的,但并不旨在穷尽本公开或将本公开限于所公开的形式。在不背离本公开的范围和精神的情况下,许多修改和变化对于本领域的普通技术人员而言是显而易见的。选择和描述实施例是为了最好地解释本公开的原理和实际应用,并且使本领域普通技术人员能够理解具有适合于预期的特定用途的各种修改的各种实施例的公开。
已经描述了多个实现。在如此详细地并且参考其实施例描述了本申请的公开之后,显然,在不背离所附权利要求中限定的本公开的范围的情况下,修改和变型是可能的。
Claims (20)
1.一种在计算设备上执行的计算机实现的方法,包括:
接收来自多个麦克风中的每个麦克风的信号,从而定义多个信号;
接收与至少一个麦克风相关联的一个或多个麦克风频率响应;以及
至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
2.根据权利要求1所述的计算机实现的方法,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:模拟表示麦克风频率响应的一个或多个模型。
3.根据权利要求1所述的计算机实现的方法,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:测量来自所述至少一个麦克风的频率响应。
4.根据权利要求1所述的计算机实现的方法,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:至少部分地基于所述一个或多个麦克风频率响应来增强所述多个信号的幅度分量和相位分量中的一个或多个。
5.根据权利要求1所述的计算机实现的方法,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用所述一个或多个麦克风频率响应对所述多个信号进行滤波。
6.根据权利要求1所述的计算机实现的方法,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用从所述一个或多个麦克风频率响应随机选择的麦克风频率响应对所述多个信号进行滤波。
7.根据权利要求1所述的计算机实现的方法,其中所述多个麦克风定义麦克风阵列。
8.一种计算机程序产品,所述计算机程序产品驻留在非瞬态计算机可读介质上,所述非瞬态计算机可读介质上存储有多个指令,所述指令在由处理器执行时,使所述处理器执行操作,所述操作包括:
接收来自多个麦克风中的每个麦克风的语音信号,从而定义多个信号;
接收与至少一个麦克风相关联的一个或多个麦克风频率响应;以及
至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
9.根据权利要求8所述的计算机程序产品,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:模拟表示麦克风频率响应的一个或多个模型。
10.根据权利要求8所述的计算机程序产品,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:测量来自所述至少一个麦克风的频率响应。
11.根据权利要求8所述的计算机程序产品,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:至少部分地基于所述一个或多个麦克风频率响应来增强所述多个信号的幅度分量和相位分量中的一个或多个。
12.根据权利要求8所述的计算机程序产品,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用所述一个或多个麦克风频率响应对所述多个信号进行滤波。
13.根据权利要求8所述的计算机程序产品,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用从所述一个或多个麦克风频率响应随机选择的麦克风频率响应对所述多个信号进行滤波。
14.根据权利要求8所述的计算机程序产品,其中所述多个麦克风定义麦克风阵列。
15.一种计算系统,包括:
存储器;以及
处理器,所述处理器被配置为接收来自多个麦克风中的每个麦克风的语音信号,从而定义多个信号,其中所述处理器还被配置为接收与至少一个麦克风相关联的一个或多个麦克风频率响应,并且其中所述处理器还被配置为至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行一个或多个基于麦克风频率响应的增强,从而定义一个或多个基于麦克风频率响应的增强信号。
16.根据权利要求15所述的计算系统,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:模拟表示麦克风频率响应的一个或多个模型。
17.根据权利要求15所述的计算系统,其中接收与所述至少一个麦克风相关联的所述一个或多个频率响应包括:测量来自所述至少一个麦克风的频率响应。
18.根据权利要求15所述的计算系统,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:至少部分地基于所述一个或多个麦克风频率响应来增强所述多个信号的幅度分量和相位分量中的一个或多个。
19.根据权利要求15所述的计算系统,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用所述一个或多个麦克风频率响应对所述多个信号进行滤波。
20.根据权利要求15所述的计算系统,其中至少部分地基于所述一个或多个麦克风频率响应对所述多个信号执行所述一个或多个基于麦克风频率响应的增强包括:利用从所述一个或多个麦克风频率响应随机选择的麦克风频率响应对所述多个信号进行滤波。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063022269P | 2020-05-08 | 2020-05-08 | |
US63/022,269 | 2020-05-08 | ||
PCT/US2021/031374 WO2021226511A1 (en) | 2020-05-08 | 2021-05-07 | System and method for data augmentation for multi-microphone signal processing |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115605952A true CN115605952A (zh) | 2023-01-13 |
Family
ID=78413045
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180033647.2A Pending CN115552920A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033636.4A Pending CN115605953A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033335.1A Pending CN115606198A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033325.8A Pending CN115605952A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033186.9A Pending CN115516553A (zh) | 2020-05-08 | 2021-05-10 | 用于多麦克风自动临床文档化的系统和方法 |
CN202180033171.2A Pending CN115516555A (zh) | 2020-05-08 | 2021-05-10 | 用于多麦克风自动临床文档化的系统和方法 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180033647.2A Pending CN115552920A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033636.4A Pending CN115605953A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
CN202180033335.1A Pending CN115606198A (zh) | 2020-05-08 | 2021-05-07 | 用于多麦克风信号处理的数据增强的系统和方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180033186.9A Pending CN115516553A (zh) | 2020-05-08 | 2021-05-10 | 用于多麦克风自动临床文档化的系统和方法 |
CN202180033171.2A Pending CN115516555A (zh) | 2020-05-08 | 2021-05-10 | 用于多麦克风自动临床文档化的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (9) | US11676598B2 (zh) |
EP (6) | EP4147229A4 (zh) |
CN (6) | CN115552920A (zh) |
WO (9) | WO2021226503A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021226503A1 (en) | 2020-05-08 | 2021-11-11 | Nuance Communications, Inc. | System and method for data augmentation for multi-microphone signal processing |
EP4156719A1 (en) * | 2021-09-28 | 2023-03-29 | GN Audio A/S | Audio device with microphone sensitivity compensator |
Family Cites Families (192)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5930749A (en) | 1996-02-02 | 1999-07-27 | International Business Machines Corporation | Monitoring, identification, and selection of audio signal poles with characteristic behaviors, for separation and synthesis of signal contributions |
JP3522954B2 (ja) | 1996-03-15 | 2004-04-26 | 株式会社東芝 | マイクロホンアレイ入力型音声認識装置及び方法 |
US6130949A (en) | 1996-09-18 | 2000-10-10 | Nippon Telegraph And Telephone Corporation | Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor |
US6178248B1 (en) | 1997-04-14 | 2001-01-23 | Andrea Electronics Corporation | Dual-processing interference cancelling system and method |
US6084973A (en) | 1997-12-22 | 2000-07-04 | Audio Technica U.S., Inc. | Digital and analog directional microphone |
US20020095290A1 (en) | 1999-02-05 | 2002-07-18 | Jonathan Kahn | Speech recognition program mapping tool to align an audio file to verbatim text |
JP3863323B2 (ja) | 1999-08-03 | 2006-12-27 | 富士通株式会社 | マイクロホンアレイ装置 |
JP4815661B2 (ja) | 2000-08-24 | 2011-11-16 | ソニー株式会社 | 信号処理装置及び信号処理方法 |
US6748086B1 (en) | 2000-10-19 | 2004-06-08 | Lear Corporation | Cabin communication system without acoustic echo cancellation |
US7039198B2 (en) | 2000-11-10 | 2006-05-02 | Quindi | Acoustic source localization system and method |
US20030027600A1 (en) | 2001-05-09 | 2003-02-06 | Leonid Krasny | Microphone antenna array using voice activity detection |
US7349849B2 (en) | 2001-08-08 | 2008-03-25 | Apple, Inc. | Spacing for microphone elements |
GB0120450D0 (en) | 2001-08-22 | 2001-10-17 | Mitel Knowledge Corp | Robust talker localization in reverberant environment |
CA2479758A1 (en) | 2002-03-27 | 2003-10-09 | Aliphcom | Microphone and voice activity detection (vad) configurations for use with communication systems |
US20030236663A1 (en) | 2002-06-19 | 2003-12-25 | Koninklijke Philips Electronics N.V. | Mega speaker identification (ID) system and corresponding methods therefor |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7039199B2 (en) | 2002-08-26 | 2006-05-02 | Microsoft Corporation | System and process for locating a speaker using 360 degree sound source localization |
US7643641B2 (en) * | 2003-05-09 | 2010-01-05 | Nuance Communications, Inc. | System for communication enhancement in a noisy environment |
US6999593B2 (en) | 2003-05-28 | 2006-02-14 | Microsoft Corporation | System and process for robust sound source localization |
EP1489596B1 (en) | 2003-06-17 | 2006-09-13 | Sony Ericsson Mobile Communications AB | Device and method for voice activity detection |
JP4157581B2 (ja) | 2004-12-03 | 2008-10-01 | 本田技研工業株式会社 | 音声認識装置 |
US7991167B2 (en) | 2005-04-29 | 2011-08-02 | Lifesize Communications, Inc. | Forming beams with nulls directed at noise sources |
DE602005008914D1 (de) | 2005-05-09 | 2008-09-25 | Mitel Networks Corp | Verfahren und System zum Reduzieren der Trainingszeit eines akustischen Echokompensators in einem Vollduplexaudiokonferenzsystem durch akustische Strahlbildung |
US7702116B2 (en) | 2005-08-22 | 2010-04-20 | Stone Christopher L | Microphone bleed simulator |
EP1994788B1 (en) | 2006-03-10 | 2014-05-07 | MH Acoustics, LLC | Noise-reducing directional microphone array |
US8949120B1 (en) * | 2006-05-25 | 2015-02-03 | Audience, Inc. | Adaptive noise cancelation |
JP2007318438A (ja) | 2006-05-25 | 2007-12-06 | Yamaha Corp | 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム |
US7848529B2 (en) | 2007-01-11 | 2010-12-07 | Fortemedia, Inc. | Broadside small array microphone beamforming unit |
US20080177536A1 (en) | 2007-01-24 | 2008-07-24 | Microsoft Corporation | A/v content editing |
US8284951B2 (en) | 2007-05-29 | 2012-10-09 | Livescribe, Inc. | Enhanced audio recording for smart pen computing systems |
ATE504010T1 (de) | 2007-06-01 | 2011-04-15 | Univ Graz Tech | Gemeinsame positions-tonhöhenschätzung akustischer quellen zu ihrer verfolgung und trennung |
US8103027B2 (en) | 2007-06-06 | 2012-01-24 | Analog Devices, Inc. | Microphone with reduced parasitic capacitance |
US20090055178A1 (en) | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method of controlling personalized settings in a vehicle |
US8954324B2 (en) | 2007-09-28 | 2015-02-10 | Qualcomm Incorporated | Multiple microphone voice activity detector |
US8213598B2 (en) | 2008-02-26 | 2012-07-03 | Microsoft Corporation | Harmonic distortion residual echo suppression |
US8239203B2 (en) | 2008-04-15 | 2012-08-07 | Nuance Communications, Inc. | Adaptive confidence thresholds for speech recognition |
WO2010022453A1 (en) | 2008-08-29 | 2010-03-04 | Dev-Audio Pty Ltd | A microphone array system and method for sound acquisition |
JP5326934B2 (ja) | 2009-01-23 | 2013-10-30 | 株式会社Jvcケンウッド | 電子機器 |
US8442833B2 (en) | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Speech processing with source location estimation using signals from two or more microphones |
CN101510426B (zh) | 2009-03-23 | 2013-03-27 | 北京中星微电子有限公司 | 一种噪声消除方法及系统 |
US9202456B2 (en) | 2009-04-23 | 2015-12-01 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for automatic control of active noise cancellation |
GB2473267A (en) | 2009-09-07 | 2011-03-09 | Nokia Corp | Processing audio signals to reduce noise |
KR101601197B1 (ko) | 2009-09-28 | 2016-03-09 | 삼성전자주식회사 | 마이크로폰 어레이의 이득 조정 장치 및 방법 |
US8538035B2 (en) * | 2010-04-29 | 2013-09-17 | Audience, Inc. | Multi-microphone robust noise suppression |
US20110288860A1 (en) | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
US9031256B2 (en) | 2010-10-25 | 2015-05-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for orientation-sensitive recording control |
US8924204B2 (en) | 2010-11-12 | 2014-12-30 | Broadcom Corporation | Method and apparatus for wind noise detection and suppression using multiple microphones |
AR084090A1 (es) | 2010-12-03 | 2013-04-17 | Fraunhofer Ges Forschung | Metodo y aparato para adquisicion espacialmente selectiva del sonido mediante triangulacion acustica |
JP5857674B2 (ja) | 2010-12-22 | 2016-02-10 | 株式会社リコー | 画像処理装置、及び画像処理システム |
US9270807B2 (en) | 2011-02-23 | 2016-02-23 | Digimarc Corporation | Audio localization using audio signal encoding and recognition |
JP5668553B2 (ja) | 2011-03-18 | 2015-02-12 | 富士通株式会社 | 音声誤検出判別装置、音声誤検出判別方法、およびプログラム |
WO2012172618A1 (ja) | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | アレイマイクロホン装置および利得制御方法 |
US9536523B2 (en) | 2011-06-22 | 2017-01-03 | Vocalzoom Systems Ltd. | Method and system for identification of speech segments |
US9236837B2 (en) | 2011-08-25 | 2016-01-12 | Infineon Technologies Ag | System and method for low distortion capacitive signal source amplifier |
GB2495278A (en) | 2011-09-30 | 2013-04-10 | Skype | Processing received signals from a range of receiving angles to reduce interference |
US9716943B2 (en) | 2011-12-21 | 2017-07-25 | Nokia Technologies Oy | Audio lens |
US9241228B2 (en) | 2011-12-29 | 2016-01-19 | Stmicroelectronics Asia Pacific Pte. Ltd. | Adaptive self-calibration of small microphone array by soundfield approximation and frequency domain magnitude equalization |
US9197974B1 (en) | 2012-01-06 | 2015-11-24 | Audience, Inc. | Directional audio capture adaptation based on alternative sensory input |
US9037461B2 (en) | 2012-01-19 | 2015-05-19 | SpeakWrite, LLC | Methods and systems for dictation and transcription |
US20130282372A1 (en) | 2012-04-23 | 2013-10-24 | Qualcomm Incorporated | Systems and methods for audio signal processing |
US9736604B2 (en) | 2012-05-11 | 2017-08-15 | Qualcomm Incorporated | Audio user interaction recognition and context refinement |
US20130332156A1 (en) | 2012-06-11 | 2013-12-12 | Apple Inc. | Sensor Fusion to Improve Speech/Audio Processing in a Mobile Device |
US8885815B1 (en) | 2012-06-25 | 2014-11-11 | Rawles Llc | Null-forming techniques to improve acoustic echo cancellation |
US9485556B1 (en) | 2012-06-27 | 2016-11-01 | Amazon Technologies, Inc. | Speaker array for sound imaging |
DE112012006876B4 (de) * | 2012-09-04 | 2021-06-10 | Cerence Operating Company | Verfahren und Sprachsignal-Verarbeitungssystem zur formantabhängigen Sprachsignalverstärkung |
US9232310B2 (en) * | 2012-10-15 | 2016-01-05 | Nokia Technologies Oy | Methods, apparatuses and computer program products for facilitating directional audio capture with multiple microphones |
WO2014064324A1 (en) | 2012-10-26 | 2014-05-01 | Nokia Corporation | Multi-device speech recognition |
US9471090B2 (en) | 2012-11-21 | 2016-10-18 | Starkey Laboratories, Inc. | Method and apparatus for synchronizing hearing instruments via wireless communication |
US10102850B1 (en) | 2013-02-25 | 2018-10-16 | Amazon Technologies, Inc. | Direction based end-pointing for speech recognition |
US8666090B1 (en) * | 2013-02-26 | 2014-03-04 | Full Code Audio LLC | Microphone modeling system and method |
US9338551B2 (en) | 2013-03-15 | 2016-05-10 | Broadcom Corporation | Multi-microphone source tracking and noise suppression |
US9363596B2 (en) | 2013-03-15 | 2016-06-07 | Apple Inc. | System and method of mixing accelerometer and microphone signals to improve voice quality in a mobile device |
WO2014149050A1 (en) | 2013-03-21 | 2014-09-25 | Nuance Communications, Inc. | System and method for identifying suboptimal microphone performance |
US20140321664A1 (en) | 2013-04-25 | 2014-10-30 | Fortemedia, Inc. | Methods for dynamically programming a microphone |
US9892729B2 (en) | 2013-05-07 | 2018-02-13 | Qualcomm Incorporated | Method and apparatus for controlling voice activation |
US9549079B2 (en) | 2013-09-05 | 2017-01-17 | Cisco Technology, Inc. | Acoustic echo cancellation for microphone array with dynamically changing beam forming |
CN104424953B (zh) | 2013-09-11 | 2019-11-01 | 华为技术有限公司 | 语音信号处理方法与装置 |
WO2015065362A1 (en) | 2013-10-30 | 2015-05-07 | Nuance Communications, Inc | Methods and apparatus for selective microphone signal combining |
US9532138B1 (en) | 2013-11-05 | 2016-12-27 | Cirrus Logic, Inc. | Systems and methods for suppressing audio noise in a communication system |
US9472188B1 (en) | 2013-11-15 | 2016-10-18 | Noble Systems Corporation | Predicting outcomes for events based on voice characteristics and content of a contact center communication |
US9488716B2 (en) | 2013-12-31 | 2016-11-08 | Google Inc. | Microphone autolocalization using moving acoustic source |
JP2015155975A (ja) | 2014-02-20 | 2015-08-27 | ソニー株式会社 | 音信号処理装置、および音信号処理方法、並びにプログラム |
US9922667B2 (en) | 2014-04-17 | 2018-03-20 | Microsoft Technology Licensing, Llc | Conversation, presence and context detection for hologram suppression |
US9516409B1 (en) | 2014-05-19 | 2016-12-06 | Apple Inc. | Echo cancellation and control for microphone beam patterns |
JP2015222847A (ja) | 2014-05-22 | 2015-12-10 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
US9491545B2 (en) | 2014-05-23 | 2016-11-08 | Apple Inc. | Methods and devices for reverberation suppression |
US9900723B1 (en) | 2014-05-28 | 2018-02-20 | Apple Inc. | Multi-channel loudspeaker matching using variable directivity |
US9451361B2 (en) | 2014-07-08 | 2016-09-20 | Intel IP Corporation | Apparatus, method and system of communicating acoustic information of a distributed microphone array between mobile devices |
JP6460676B2 (ja) | 2014-08-05 | 2019-01-30 | キヤノン株式会社 | 信号処理装置および信号処理方法 |
US9800981B2 (en) | 2014-09-05 | 2017-10-24 | Bernafon Ag | Hearing device comprising a directional system |
US9305530B1 (en) | 2014-09-30 | 2016-04-05 | Amazon Technologies, Inc. | Text synchronization with audio |
US10009676B2 (en) | 2014-11-03 | 2018-06-26 | Storz Endoskop Produktions Gmbh | Voice control system with multiple microphone arrays |
WO2016076237A1 (ja) | 2014-11-10 | 2016-05-19 | 日本電気株式会社 | 信号処理装置、信号処理方法および信号処理プログラム |
US9508357B1 (en) | 2014-11-21 | 2016-11-29 | Apple Inc. | System and method of optimizing a beamformer for echo control |
US9298884B1 (en) | 2014-12-17 | 2016-03-29 | Vitaax Llc | Remote instruction and monitoring of health care |
US9412354B1 (en) | 2015-01-20 | 2016-08-09 | Apple Inc. | Method and apparatus to use beams at one end-point to support multi-channel linear echo control at another end-point |
US9749747B1 (en) | 2015-01-20 | 2017-08-29 | Apple Inc. | Efficient system and method for generating an audio beacon |
US9697826B2 (en) | 2015-03-27 | 2017-07-04 | Google Inc. | Processing multi-channel audio waveforms |
US9691413B2 (en) * | 2015-10-06 | 2017-06-27 | Microsoft Technology Licensing, Llc | Identifying sound from a source of interest based on multiple audio feeds |
BR122021007299B1 (pt) | 2015-10-08 | 2023-04-18 | Dolby International Ab | Método para decodificar uma representação de som ambissônica de ordem superior (hoa) compactada de um som ou campo sonoro |
TWI720052B (zh) | 2015-11-10 | 2021-03-01 | 美商Idac控股公司 | 無線傳輸/接收單元和無線通訊方法 |
KR102070965B1 (ko) | 2015-11-18 | 2020-01-29 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 소리 신호를 강화하는 소리 신호 처리 장치 및 방법 |
EP3389046B1 (en) | 2015-12-08 | 2021-06-16 | Sony Corporation | Transmission device, transmission method, reception device, and reception method |
US10381022B1 (en) | 2015-12-23 | 2019-08-13 | Google Llc | Audio classifier |
US9820036B1 (en) | 2015-12-30 | 2017-11-14 | Amazon Technologies, Inc. | Speech processing of reflected sound |
US10924872B2 (en) | 2016-02-23 | 2021-02-16 | Dolby Laboratories Licensing Corporation | Auxiliary signal for detecting microphone impairment |
US9992580B2 (en) | 2016-03-04 | 2018-06-05 | Avaya Inc. | Signal to noise ratio using decentralized dynamic laser microphones |
US9900685B2 (en) | 2016-03-24 | 2018-02-20 | Intel Corporation | Creating an audio envelope based on angular information |
US10037756B2 (en) | 2016-03-29 | 2018-07-31 | Sensory, Incorporated | Analysis of long-term audio recordings |
US9858340B1 (en) | 2016-04-11 | 2018-01-02 | Digital Reasoning Systems, Inc. | Systems and methods for queryable graph representations of videos |
EP3476135A1 (en) * | 2016-06-24 | 2019-05-01 | Harman Becker Automotive Systems GmbH | Method for simulating total harmonic distortion of a loudspeaker |
US20180018970A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Neural network for recognition of signals in multiple sensory domains |
KR102533016B1 (ko) | 2016-07-28 | 2023-05-17 | 에스케이하이닉스 주식회사 | 메모리 장치 및 이의 동작 방법 |
US9972339B1 (en) | 2016-08-04 | 2018-05-15 | Amazon Technologies, Inc. | Neural network based beam selection |
US10015588B1 (en) | 2016-12-20 | 2018-07-03 | Verizon Patent And Licensing Inc. | Beamforming optimization for receiving audio signals |
US10056091B2 (en) | 2017-01-06 | 2018-08-21 | Bose Corporation | Microphone array beamforming |
US9892744B1 (en) | 2017-02-13 | 2018-02-13 | International Business Machines Corporation | Acoustics based anomaly detection in machine rooms |
US10499139B2 (en) | 2017-03-20 | 2019-12-03 | Bose Corporation | Audio signal processing for noise reduction |
US10424315B1 (en) | 2017-03-20 | 2019-09-24 | Bose Corporation | Audio signal processing for noise reduction |
US10643609B1 (en) | 2017-03-29 | 2020-05-05 | Amazon Technologies, Inc. | Selecting speech inputs |
GB2561408A (en) | 2017-04-10 | 2018-10-17 | Cirrus Logic Int Semiconductor Ltd | Flexible voice capture front-end for headsets |
US10297267B2 (en) * | 2017-05-15 | 2019-05-21 | Cirrus Logic, Inc. | Dual microphone voice processing for headsets with variable microphone array orientation |
US10339950B2 (en) | 2017-06-27 | 2019-07-02 | Motorola Solutions, Inc. | Beam selection for body worn devices |
US9866308B1 (en) | 2017-07-27 | 2018-01-09 | Quantenna Communications, Inc. | Composite WiFi and acoustic spatial diagnostics for smart home management |
US20210233652A1 (en) | 2017-08-10 | 2021-07-29 | Nuance Communications, Inc. | Automated Clinical Documentation System and Method |
US20210243412A1 (en) | 2017-08-10 | 2021-08-05 | Nuance Communications, Inc. | Automated Clinical Documentation System and Method |
US20210210200A1 (en) | 2017-08-10 | 2021-07-08 | Nuance Communications, Inc. | Automated Clinical Documentation System and Method |
US11605448B2 (en) | 2017-08-10 | 2023-03-14 | Nuance Communications, Inc. | Automated clinical documentation system and method |
DE202018006448U1 (de) | 2017-08-17 | 2020-10-14 | Google Llc | Skalieren eines Bilds eines Gesichts eines Sprechers basierend auf dem Abstand eines Gesichts und einer Grösse einer Anzeige |
KR102424774B1 (ko) * | 2017-09-11 | 2022-07-25 | 주식회사 디비하이텍 | 멤스 마이크로폰 및 이의 제조 방법 |
KR102370642B1 (ko) | 2017-09-11 | 2022-03-07 | 주식회사 디비하이텍 | 멤스 마이크로폰 및 이의 제조 방법 |
US10090000B1 (en) | 2017-11-01 | 2018-10-02 | GM Global Technology Operations LLC | Efficient echo cancellation using transfer function estimation |
US11430421B2 (en) | 2017-11-01 | 2022-08-30 | Bose Corporation | Adaptive null forming and echo cancellation for selective audio pick-up |
US10339949B1 (en) | 2017-12-19 | 2019-07-02 | Apple Inc. | Multi-channel speech enhancement |
US10979805B2 (en) | 2018-01-04 | 2021-04-13 | Stmicroelectronics, Inc. | Microphone array auto-directive adaptive wideband beamforming using orientation information from MEMS sensors |
US11250382B2 (en) | 2018-03-05 | 2022-02-15 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US10313786B1 (en) | 2018-03-20 | 2019-06-04 | Cisco Technology, Inc. | Beamforming and gainsharing mixing of small circular array of bidirectional microphones |
US10957337B2 (en) * | 2018-04-11 | 2021-03-23 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
US11276407B2 (en) | 2018-04-17 | 2022-03-15 | Gong.Io Ltd. | Metadata-based diarization of teleconferences |
US10867610B2 (en) | 2018-05-04 | 2020-12-15 | Microsoft Technology Licensing, Llc | Computerized intelligent assistant for conferences |
US10621991B2 (en) | 2018-05-06 | 2020-04-14 | Microsoft Technology Licensing, Llc | Joint neural network for speaker recognition |
EP3575811A1 (en) | 2018-05-28 | 2019-12-04 | Koninklijke Philips N.V. | Optical detection of a communication request by a subject being imaged in the magnetic resonance imaging system |
US10667071B2 (en) * | 2018-05-31 | 2020-05-26 | Harman International Industries, Incorporated | Low complexity multi-channel smart loudspeaker with voice control |
CN112335261B (zh) | 2018-06-01 | 2023-07-18 | 舒尔获得控股公司 | 图案形成麦克风阵列 |
US11062727B2 (en) | 2018-06-13 | 2021-07-13 | Ceva D.S.P Ltd. | System and method for voice activity detection |
US10540883B1 (en) | 2018-06-19 | 2020-01-21 | Life360, Inc. | Methods and systems for audio-based danger detection and alert |
CN110364166B (zh) | 2018-06-28 | 2022-10-28 | 腾讯科技(深圳)有限公司 | 实现语音信号识别的电子设备 |
NL2021308B1 (en) * | 2018-07-16 | 2020-01-24 | Hazelebach & Van Der Ven Holding B V | Methods for a voice processing system |
US11288038B2 (en) | 2018-07-30 | 2022-03-29 | John Holst, III | System and method for voice recognition using a peripheral device |
US10431238B1 (en) | 2018-08-17 | 2019-10-01 | Apple Inc. | Memory and computation efficient cross-correlation and delay estimation |
US10622004B1 (en) | 2018-08-20 | 2020-04-14 | Amazon Technologies, Inc. | Acoustic echo cancellation using loudspeaker position |
US10580429B1 (en) | 2018-08-22 | 2020-03-03 | Nuance Communications, Inc. | System and method for acoustic speaker localization |
KR20230113831A (ko) | 2018-09-03 | 2023-08-01 | 스냅 인코포레이티드 | 음향 주밍 |
CN117319912A (zh) | 2018-09-13 | 2023-12-29 | 科利耳有限公司 | 使用正常事物的听力性能和康复和/或复原增强 |
DE102018216230A1 (de) | 2018-09-24 | 2020-03-26 | Siemens Healthcare Gmbh | Verfahren zu einem Erfassen eines Kommunikationssignals einer innerhalb eines Magnetresonanzuntersuchungsraums befindlichen Person und eine entsprechende Magnetresonanzvorrichtung |
US10726830B1 (en) | 2018-09-27 | 2020-07-28 | Amazon Technologies, Inc. | Deep multi-channel acoustic modeling |
US11508378B2 (en) | 2018-10-23 | 2022-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the same |
JP7407580B2 (ja) | 2018-12-06 | 2024-01-04 | シナプティクス インコーポレイテッド | システム、及び、方法 |
EP3675517B1 (en) | 2018-12-31 | 2021-10-20 | GN Audio A/S | Microphone apparatus and headset |
CN109905808B (zh) | 2019-03-13 | 2021-12-07 | 北京百度网讯科技有限公司 | 用于调节智能语音设备的方法和装置 |
US20200312315A1 (en) | 2019-03-28 | 2020-10-01 | Apple Inc. | Acoustic environment aware stream selection for multi-stream speech recognition |
US11158335B1 (en) | 2019-03-28 | 2021-10-26 | Amazon Technologies, Inc. | Audio beam selection |
EP3726529A1 (en) | 2019-04-16 | 2020-10-21 | Fraunhofer Gesellschaft zur Förderung der Angewand | Method and apparatus for determining a deep filter |
US11322148B2 (en) | 2019-04-30 | 2022-05-03 | Microsoft Technology Licensing, Llc | Speaker attributed transcript generation |
CN114051738B (zh) | 2019-05-23 | 2024-10-01 | 舒尔获得控股公司 | 可操纵扬声器阵列、系统及其方法 |
US11605279B2 (en) | 2019-06-12 | 2023-03-14 | The Quantum Group, Inc. | Remote distress monitor |
US11043207B2 (en) | 2019-06-14 | 2021-06-22 | Nuance Communications, Inc. | System and method for array data simulation and customized acoustic modeling for ambient ASR |
US11227679B2 (en) | 2019-06-14 | 2022-01-18 | Nuance Communications, Inc. | Ambient clinical intelligence system and method |
US11531807B2 (en) | 2019-06-28 | 2022-12-20 | Nuance Communications, Inc. | System and method for customized text macros |
US10777214B1 (en) | 2019-06-28 | 2020-09-15 | Amazon Technologies, Inc. | Method for efficient autonomous loudspeaker room adaptation |
US10887685B1 (en) | 2019-07-15 | 2021-01-05 | Motorola Solutions, Inc. | Adaptive white noise gain control and equalization for differential microphone array |
US11335331B2 (en) | 2019-07-26 | 2022-05-17 | Knowles Electronics, Llc. | Multibeam keyword detection system and method |
US20210035563A1 (en) | 2019-07-30 | 2021-02-04 | Dolby Laboratories Licensing Corporation | Per-epoch data augmentation for training acoustic models |
US11996108B2 (en) | 2019-08-01 | 2024-05-28 | Dolby Laboratories Licensing Corporation | System and method for enhancement of a degraded audio signal |
US11227586B2 (en) * | 2019-09-11 | 2022-01-18 | Massachusetts Institute Of Technology | Systems and methods for improving model-based speech enhancement with neural networks |
US10887709B1 (en) | 2019-09-25 | 2021-01-05 | Amazon Technologies, Inc. | Aligned beam merger |
US11551670B1 (en) | 2019-09-26 | 2023-01-10 | Sonos, Inc. | Systems and methods for generating labeled data to facilitate configuration of network microphone devices |
US11670408B2 (en) | 2019-09-30 | 2023-06-06 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
US12020696B2 (en) | 2019-10-21 | 2024-06-25 | Soundhound Ai Ip, Llc | Automatic synchronization for an offline virtual assistant |
US11238853B2 (en) | 2019-10-30 | 2022-02-01 | Comcast Cable Communications, Llc | Keyword-based audio source localization |
US11478211B2 (en) | 2019-12-03 | 2022-10-25 | Shanghai United Imaging Healthcare Co., Ltd. | System and method for noise reduction |
US11508379B2 (en) | 2019-12-04 | 2022-11-22 | Cirrus Logic, Inc. | Asynchronous ad-hoc distributed microphone array processing in smart home applications using voice biometrics |
US11227587B2 (en) | 2019-12-23 | 2022-01-18 | Peiker Acustic Gmbh | Method, apparatus, and computer-readable storage medium for adaptive null-voice cancellation |
US11145319B2 (en) | 2020-01-31 | 2021-10-12 | Bose Corporation | Personal audio device |
JP2023511836A (ja) | 2020-02-03 | 2023-03-23 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | ヒアラブル機能を有するワイヤレス型ヘッドセット |
CN111341341B (zh) | 2020-02-11 | 2021-08-17 | 腾讯科技(深圳)有限公司 | 音频分离网络的训练方法、音频分离方法、装置及介质 |
US11039013B1 (en) | 2020-04-10 | 2021-06-15 | Medallia, Inc. | Real-time contact center speech analytics, with critical call alerts, deployed across multiple security zones |
US11546690B2 (en) | 2020-04-27 | 2023-01-03 | Orcam Technologies Ltd. | Processing audio and video |
WO2021226503A1 (en) | 2020-05-08 | 2021-11-11 | Nuance Communications, Inc. | System and method for data augmentation for multi-microphone signal processing |
US11443760B2 (en) | 2020-05-08 | 2022-09-13 | DTEN, Inc. | Active sound control |
WO2021243634A1 (en) | 2020-06-04 | 2021-12-09 | Northwestern Polytechnical University | Binaural beamforming microphone array |
US11617044B2 (en) | 2021-03-04 | 2023-03-28 | Iyo Inc. | Ear-mount able listening device with voice direction discovery for rotational correction of microphone array outputs |
-
2021
- 2021-05-07 WO PCT/US2021/031363 patent/WO2021226503A1/en unknown
- 2021-05-07 EP EP21800532.0A patent/EP4147229A4/en active Pending
- 2021-05-07 WO PCT/US2021/031378 patent/WO2021226515A1/en unknown
- 2021-05-07 US US17/314,660 patent/US11676598B2/en active Active
- 2021-05-07 EP EP21799503.4A patent/EP4147458A4/en active Pending
- 2021-05-07 CN CN202180033647.2A patent/CN115552920A/zh active Pending
- 2021-05-07 CN CN202180033636.4A patent/CN115605953A/zh active Pending
- 2021-05-07 US US17/314,718 patent/US11670298B2/en active Active
- 2021-05-07 CN CN202180033335.1A patent/CN115606198A/zh active Pending
- 2021-05-07 WO PCT/US2021/031374 patent/WO2021226511A1/en unknown
- 2021-05-07 US US17/314,527 patent/US11699440B2/en active Active
- 2021-05-07 WO PCT/US2021/031369 patent/WO2021226507A1/en unknown
- 2021-05-07 EP EP21800149.3A patent/EP4147459A4/en active Pending
- 2021-05-07 US US17/314,601 patent/US11837228B2/en active Active
- 2021-05-07 EP EP21800936.3A patent/EP4147230A4/en active Pending
- 2021-05-07 CN CN202180033325.8A patent/CN115605952A/zh active Pending
- 2021-05-10 CN CN202180033186.9A patent/CN115516553A/zh active Pending
- 2021-05-10 US US17/315,890 patent/US11631411B2/en active Active
- 2021-05-10 US US17/315,857 patent/US11232794B2/en active Active
- 2021-05-10 EP EP21799808.7A patent/EP4147228B1/en active Active
- 2021-05-10 WO PCT/US2021/031516 patent/WO2021226574A1/en unknown
- 2021-05-10 WO PCT/US2021/031504 patent/WO2021226570A1/en active Application Filing
- 2021-05-10 US US17/315,955 patent/US20210350804A1/en not_active Abandoned
- 2021-05-10 WO PCT/US2021/031508 patent/WO2021226571A1/en active Application Filing
- 2021-05-10 WO PCT/US2021/031498 patent/WO2021226568A1/en active Application Filing
- 2021-05-10 US US17/315,829 patent/US20210350814A1/en not_active Abandoned
- 2021-05-10 CN CN202180033171.2A patent/CN115516555A/zh active Pending
- 2021-05-10 EP EP21800338.2A patent/EP4147227A4/en active Pending
- 2021-05-10 US US17/315,916 patent/US11335344B2/en active Active
- 2021-05-10 WO PCT/US2021/031512 patent/WO2021226573A1/en unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6889698B2 (ja) | 音声を増幅する方法及び装置 | |
US10368154B2 (en) | Systems, devices and methods for executing a digital audiogram | |
KR102191736B1 (ko) | 인공신경망을 이용한 음성향상방법 및 장치 | |
US20190320268A1 (en) | Systems, devices and methods for executing a digital audiogram | |
US11699440B2 (en) | System and method for data augmentation for multi-microphone signal processing | |
CN118541752A (zh) | 用于多麦克风系统的数据扩充系统和方法 | |
Shankar et al. | Efficient two-microphone speech enhancement using basic recurrent neural network cell for hearing and hearing aids | |
WO2019197002A1 (en) | Generating sound zones using variable span filters | |
Völk | Inter-and intra-individual variability in the blocked auditory canal transfer functions of three circum-aural headphones | |
CN117461042A (zh) | 针对语音处理基于自注意力组合多通道信号的系统和方法 | |
CN116868267A (zh) | 多通道语音压缩系统和方法 | |
Hawker et al. | A method of equal loudness compensation for uncalibrated listening systems | |
CN118633122A (zh) | 用于多麦克风系统的数据增强系统和方法 | |
US20230230581A1 (en) | Data augmentation system and method for multi-microphone systems | |
US20230230582A1 (en) | Data augmentation system and method for multi-microphone systems | |
Mekarzia | Measurement and adaptive identification of nonstationary acoustic impulse responses | |
Begault et al. | Forensic Sound Analyses of Cellular Telephone Recordings | |
Bell | Filtering to match hearing aid insertion gain to individual ear acoustics | |
WO2024033864A1 (en) | System and method for monitoring audio signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20231108 Address after: Washington State Applicant after: MICROSOFT TECHNOLOGY LICENSING, LLC Address before: Massachusetts Applicant before: Nuance Communications, Inc. |
|
TA01 | Transfer of patent application right |