CN113744731B - 多模态语音识别方法、系统及计算机可读存储介质 - Google Patents
多模态语音识别方法、系统及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113744731B CN113744731B CN202110913351.1A CN202110913351A CN113744731B CN 113744731 B CN113744731 B CN 113744731B CN 202110913351 A CN202110913351 A CN 202110913351A CN 113744731 B CN113744731 B CN 113744731B
- Authority
- CN
- China
- Prior art keywords
- target
- millimeter wave
- reseca
- block
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000005236 sound signal Effects 0.000 claims abstract description 106
- 230000004927 fusion Effects 0.000 claims abstract description 64
- 238000001228 spectrum Methods 0.000 claims abstract description 48
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 238000007499 fusion processing Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000003595 spectral effect Effects 0.000 claims description 24
- 238000012706 support-vector machine Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000000047 product Substances 0.000 description 20
- 230000003993 interaction Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 241000238558 Eucarida Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明公开了一种多模态语音识别方法、系统及计算机可读存储介质,该方法包括:当目标毫米波信号和目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数,并将第一对数梅尔频谱系数和第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;融合网络至少包括校准模块和映射模块;校准模块用于目标音频信号和目标毫米波信号进行相互特征校准;映射模块用于对校准后的毫米波特征和所述校准后的音频特征进行融合处理;将目标融合特征输入到语义特征网络中,以确定目标用户对应的语音识别结果。本发明能够达到高准确率语音识别的目的。
Description
技术领域
本发明涉及语音识别技术领域,特别是涉及一种多模态语音识别方法、系统及计算机可读存储介质。
背景技术
语音交互在智能交互场景中起着至关重要的作用,例如智能家居。语音交互提供了人与物联网设备之间的非接触式的人机交互。受益于深度学习和自然语言处理的发展,自动语音识别技术使语音交互的设备能准确获取用户说话内容。近年来,商用语音交互产品越来越受欢迎,例如智能扬声器(例如Amazon Echo和Google Home)、智能手机中的语音助手(例如Siri)以及车载语音控制交互(例如,特斯拉Model S/X/3/Y中的语音交互)。
然而,除了家庭场景以外,现如今的语音交互也需要解决公共场所(如街道、车站、大厅或聚会等)中更多样化的环境噪声(如交通噪声、商业噪声和附近的声音)。然而,基于麦克风阵列和音频的语音识别技术,要求音频信号是高信噪比且清晰的音频信号。因此,在噪音环境中,淹没在不可预测的噪音中的音频信号变得难以识别。此外,随着识别距离增长,语音质量也会逐渐衰减,从而影响识别准确率。为了解决上述这些困难,研究人员现利用多传感器信息融合进行语音增强和识别。比如,视听方法,将摄像机捕捉到的嘴唇运动与嘈杂的声音相结合,但受到照明条件、视线要求或遮挡的限制。超声辅助语音增强技术的工作距离虽然极短(20cm以内),但是要求特定的姿势。
发明内容
本发明的目的是提供一种多模态语音识别方法、系统及计算机可读存储介质,以达到高准确率语音识别的目的。
为实现上述目的,本发明提供了如下方案:
一种多模态语音识别方法,包括:
获取目标毫米波信号和目标音频信号;
当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的;
将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征;
将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
可选的,所述获取目标毫米波信号和目标音频信号,具体包括:
获取毫米波雷达采集的目标毫米波信号;
获取麦克风采集的目标音频信号。
可选的,所述当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数,具体包括:
判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果;
若所述第一判断结果表示所述目标毫米波信号和所述目标音频信号均包括人声信息,则判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,得到第二判断结果;
若所述第二判断结果表示所述目标毫米波信号和所述目标音频信号均来自目标用户,则对所述目标毫米波信号和所述目标音频信号分别进行短时傅里叶变换处理,以确定第一对数梅尔频谱系数和第二对数梅尔频谱系数。
可选的,所述判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果,具体包括:
对所述所述目标毫米波信号和所述目标音频信号分别进行预处理;
对预处理后的目标毫米波信号进行快速傅里叶变换处理以提取毫米波相位信号;
对所述毫米波相位信号进行差分处理以提取毫米波相位差信号;
将预处理后的目标音频信号与所述毫米波相位差信号相乘,以获得目标乘积分量;
计算所述目标乘积分量的谱熵;
判断所述谱熵是否大于设定阈值;
其中,当所述谱熵大于设定阈值时,表明所述目标毫米波信号和所述目标音频信号均包括人声信息。
可选的,所述判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,具体包括:
对所述目标乘积分量进行处理以提取目标线性预测编码分量;
将所述目标线性预测编码分量输入到训练好的一类支持向量机中,以判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户;
其中,所述训练好的一类支持向量机是根据训练数据和一类支持向量机确定的;所述训练数据包括多个标定乘积分量以及每个所述标定乘积分量对应的标签;所述标签为标定用户;所述标定乘积分量是根据所述标定用户对应的毫米波信号和音频信号确定的乘积分量。
可选的,所述融合网络还包括两个相同的分支网络络,分别为第一分支网络和第二分支网络;所述分支网络包括第一ResECA块、第二ResECA块、第三ResECA块、第四ResECA块和第五ResECA块;
其中,所述校准模块的输入端分别连接所述第一分支网络的第三ResECA块的输出端和所述第二分支网络的第三ResECA块的输出端;所述校准模块的输出端分别连接所述第一分支网络的第四ResECA块的输入端和所述第二分支网络的第四ResECA块的输入端;
所述第一分支网络的第一ResECA块的输入端用于输入所述第一对数梅尔频谱系数;所述第一分支网络的第一ResECA块的输出端与所述第一分支网络的第二ResECA块的输入端连接,所述第一分支网络的第二ResECA块的输出端与所述第一分支网络的第三ResECA块的输入端,所述第一分支网络的第四ResECA块的输出端与所述第一分支网络的第五ResECA块的输入端连接;
所述第二分支网络的第一ResECA块的输入端用于输入所述第二对数梅尔频谱系数;所述第二分支网络的第一ResECA块的输出端与所述第二分支网络的第二ResECA块的输入端连接,所述第二分支网络的第二ResECA块的输出端与所述第二分支网络的第三ResECA块的输入端,所述第二分支网络的第四ResECA块的输出端与所述第二分支网络的第五ResECA块的输入端连接;
所述映射模块的输入端分别连接所述第一分支网络的第五ResECA块的输出端和所述第二分支网络的第五ResECA块的输出端。
可选的,所述校准模块的处理过程为:
根据第一中间特征,计算第一通道特征分布;所述第一中间特征是所述第一分支网络的第三ResECA块的输出端输出的信号;
根据所述第二中间特征,计算第二通道特征分布;所述第二中间特征是所述第二分支网络的第三ResECA块的输出端输出的信号;
根据所述第二通道特征分布,校准所述第一中间特征;
根据所述第一通道特征分布,校准所述第二中间特征。
可选的,所述映射模块的处理过程为:
根据所述校准后的毫米波特征,计算第一相似矩阵;
根据所述校准后的音频特征,计算第二相似矩阵;
对所述第一相似矩阵和所述第二相似矩阵分别进行归一化处理;
根据归一化处理后的第一相似矩阵,计算第一注意力特征;
根据归一化处理后的第二相似矩阵,计算第二注意力特征;
根据所述第一注意力特征和所述第二注意力特征,计算目标融合特征。
一种多模态语音识别系统,包括:
信号获取模块,用于获取目标毫米波信号和目标音频信号;
对数梅尔频谱系数计算模块,用于当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的;
目标融合特征确定模块,用于将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征;
语音识别结果提取模块,用于将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现多模态语音识别方法的步骤
根据本发明提供的具体实施例,本发明公开了以下技术效果:
由于毫米波信号不受噪音影响,可以感知用户发声时的喉咙振动信息,因此当音频信号遭受到噪音污染时,本发明借助融合网络对毫米波信号和音频信号进行互相特征校准融合,即两者的特征互相校准,毫米波信号中的振动信息融入音频特征中,以得到目标融合特征,并且引导语义特征网络高精度的捕捉目标融合特征中语义信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明多模态语音识别方法的流程示意图;
图2为本发明一种融合毫米波信号和音频信号的多模态语音识别方法的流程示意图;
图3为本发明多模态语音识别系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
英文缩写、中文译文和英文原词。
FFT:快速傅里叶变换,Fast Fourier Transform。
LPC:线性预测编码,LinearPrediction Coding。
OC-SVM:一类支持向量机,One-Class SupportVectorMachine。
STFT:短时傅里叶变换,Short-Time Fourier Transform。
ResECA:有效注意力机制的残差模块,Residual Block with Efficient ChannelAttention。
ReLU:线性整流函数,Rectified LinearUnit。
LAS:听,注意和拼写,Listen,Attend,and Spell。
pBLSTM:金字塔双向长短期记忆,pyramidal Bidirectional Long Short TermMemory。
LSTM:长短期记忆,Long Short Term Memory。
已经有研究证明,毫米波信号有助于语音信息恢复,具有出色的抗环境噪声和穿透性能。基于背景技术提出的问题,本发明采用毫米波雷达,作为语音识别的补充。毫米波雷达可以通过感知到远程目标用户,即使该用户在嘈杂的环境中戴着口罩,该毫米波雷达接收到的反射信号依旧包含了喉咙振动信息。然而,毫米波雷达的性能并不总是令人满意,由于波长很小(约4毫米),毫米波信号对人声振动和运动振动都很敏感,所以在实践中,毫米波信号也会受到用户身体运动的影响。幸运的是,基于麦克风的语音采集,可以在一定程度上弥补信息的损失。因此,本发明考虑了毫米波雷达和麦克风之间的互补协作,将两种不同模态的信号融合以用于语音识别,即毫米波信号支持抗噪人声感知,麦克风收集的音频信号可作为在运动干扰下校准毫米波特征的指南。
鉴于此,本发明提供了一种融合毫米波信号和音频信号的多模态语音识别方法及系统。首先,基于毫米波信号与音频信号的相关性来执行语音活动检测和用户锁定这两项功能,以获得用户的毫米波信号和音频信号。然后将毫米波信号和音频信号输入至融合网络进行充分融合以获得融合特征。最后将融合特征输入至语义提取网络中以获得语义文本,即语音识别结果。本发明融合并增强了毫米波信号与音频信号的优势,在高噪音、远距离、多角度等恶劣条件下实现高准确率的语音识别。
实施例一
请参见图1,本实施例提供的一种多模态语音识别方法,具体包括如下步骤。
步骤10:获取目标毫米波信号和目标音频信号。
步骤20:当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的。
步骤30:将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征。
步骤40:将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
作为一种优选的实施方式,该步骤10具体包括:
获取毫米波雷达采集的目标毫米波信号。
获取麦克风采集的目标音频信号。
作为一种优选的实施方式,该步骤20具体包括:
判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果。
若所述第一判断结果表示所述目标毫米波信号和所述目标音频信号均包括人声信息,则判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,得到第二判断结果。
若所述第二判断结果表示所述目标毫米波信号和所述目标音频信号均来自目标用户,则对所述目标毫米波信号和所述目标音频信号分别进行短时傅里叶变换处理,以确定第一对数梅尔频谱系数和第二对数梅尔频谱系数。
其中,所述判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果,具体包括:
对所述所述目标毫米波信号和所述目标音频信号分别进行预处理。
对预处理后的目标毫米波信号进行快速傅里叶变换处理以提取毫米波相位信号。
对所述毫米波相位信号进行差分处理以提取毫米波相位差信号。
将预处理后的目标音频信号与所述毫米波相位差信号相乘,以获得目标乘积分量。
计算所述目标乘积分量的谱熵。
判断所述谱熵是否大于设定阈值。
其中,当所述谱熵大于设定阈值时,表明所述目标毫米波信号和所述目标音频信号均包括人声信息。
进一步地,所述判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,具体包括:
对所述目标乘积分量进行处理以提取目标线性预测编码分量。
将所述目标线性预测编码分量输入到训练好的一类支持向量机中,以判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户。
其中,所述训练好的一类支持向量机是根据训练数据和一类支持向量机确定的;所述训练数据包括多个标定乘积分量以及每个所述标定乘积分量对应的标签;所述标签为标定用户;所述标定乘积分量是根据所述标定用户对应的毫米波信号和音频信号确定的乘积分量。
作为一种优选的实施方式,所述融合网络还包括两个相同的分支网络络,分别为第一分支网络和第二分支网络;所述分支网络包括第一ResECA块、第二ResECA块、第三ResECA块、第四ResECA块和第五ResECA块。
其中,所述校准模块的输入端分别连接所述第一分支网络的第三ResECA块的输出端和所述第二分支网络的第三ResECA块的输出端;所述校准模块的输出端分别连接所述第一分支网络的第四ResECA块的输入端和所述第二分支网络的第四ResECA块的输入端。
所述第一分支网络的第一ResECA块的输入端用于输入所述第一对数梅尔频谱系数;所述第一分支网络的第一ResECA块的输出端与所述第一分支网络的第二ResECA块的输入端连接,所述第一分支网络的第二ResECA块的输出端与所述第一分支网络的第三ResECA块的输入端,所述第一分支网络的第四ResECA块的输出端与所述第一分支网络的第五ResECA块的输入端连接。
所述第二分支网络的第一ResECA块的输入端用于输入所述第二对数梅尔频谱系数;所述第二分支网络的第一ResECA块的输出端与所述第二分支网络的第二ResECA块的输入端连接,所述第二分支网络的第二ResECA块的输出端与所述第二分支网络的第三ResECA块的输入端,所述第二分支网络的第四ResECA块的输出端与所述第二分支网络的第五ResECA块的输入端连接;
所述映射模块的输入端分别连接所述第一分支网络的第五ResECA块的输出端和所述第二分支网络的第五ResECA块的输出端。
进一步地,所述校准模块的处理过程为:
根据第一中间特征,计算第一通道特征分布;所述第一中间特征是所述第一分支网络的第三ResECA块的输出端输出的信号。
根据所述第二中间特征,计算第二通道特征分布;所述第二中间特征是所述第二分支网络的第三ResECA块的输出端输出的信号。
根据所述第二通道特征分布,校准所述第一中间特征。
根据所述第一通道特征分布,校准所述第二中间特征。
进一步地,所述映射模块的处理过程为:
根据所述校准后的毫米波特征,计算第一相似矩阵。
根据所述校准后的音频特征,计算第二相似矩阵。
对所述第一相似矩阵和所述第二相似矩阵分别进行归一化处理。
根据归一化处理后的第一相似矩阵,计算第一注意力特征。
根据归一化处理后的第二相似矩阵,计算第二注意力特征。
根据所述第一注意力特征和所述第二注意力特征,计算目标融合特征。
实施例二
如图2所示,本实施例提供了一种融合毫米波信号和音频信号的多模态语音识别方法,包括以下步骤:
步骤1:目标用户站在距离毫米波雷达与麦克风大概7米处,说出唤醒词和语音命令,同时毫米波雷达收集到毫米波信号,麦克风也采集到音频信号。
首先将这两种信号均切分成3秒长度,然后归一化处理并降采样至16kHz。接着对降采样后的毫米波信号进行快速傅里叶变换FFT处理以提取毫米波相位信号,随后对毫米波相位信号进行差分处理以提取毫米波相位差信号。将降采样后的音频信号与毫米波相位差信号相乘后,获得乘积分量,进而来判断该毫米波信号或者音频信号是否包含人声信息。
计算乘积分量的谱熵,如果谱熵大于设定的阈值,即大于0.83,则说明毫米波信号与音频信号都包含了人声信息;否则,说明毫米波信号或者音频信号没有感知到人声信息。将感知到人声信息的毫米波信号与音频信号进行步骤2,以判断毫米波信号与音频信号是否来自目标用户,而不是其他人的干扰。
步骤2:对乘积分量提取线性预测编码LPC分量,并将该LPC分量输入至训练好的一类支持向量机OC-SVM中以判断毫米波信号与音频信号是否来自目标用户。如果LPC分量来自目标用户,则进行步骤3,否则继续步骤1和步骤2。该训练好的OC-SVM已预先基于标定用户的毫米波信号与音频信号训练完善。
训练过程为:标定用户对着毫米波雷达与麦克风说唤醒词30遍,将收集的毫米波信号与音频信号均做步骤1中的预处理以获得标定乘积分量,利用从标定乘积分量提取的标定LPC分量和前述的标定用户来训练OC-SVM以使其能判断LPC分量是否来自目标用户。
步骤3:对包含用户人声的毫米波信号与音频信号进行短时傅里叶变换STFT处理,STFT处理后,分别计算STFT处理后的毫米波信号与音频信号的对数梅尔频谱系数。将对数梅尔频谱系数输入至融合网络中以获得融合特征。
该融合网络由两个分支网络组成,每个分支网络各自分别接收来自毫米波信号和音频信号的对数梅尔频谱系数,每个分支网络由5个ResECA块构成。该融合网络中有两个模块,一个为校准模块,用以再校准输入的两种特征,校准模块位于第3个ResECA后,来自第3个ResECA块的输出经过校准模块再重新流入第4个ResECA。另外一个为映射模块,该映射模块是将两种特征映射到同一个特征空间中以获得最终的融合特征,映射模块位于第5个ResECA块之后,接收分别来自两个分支网络的毫米波信号和音频信号。
在这里,介绍下校准模块的数学原理。XW∈RH×W×C和XS∈RH×W×C分别是来自各自分支网络的两个中间特征,R指实数域,H,W和C分别是宽度,长度和通道维度大小,下标W和S分别表示毫米波信号和音频信号。计算两者的通道特征分布YW和YS:
YW=σ(WWReLU(GAP(XW))),YW∈R1×1×C (1);
YS=σ(WSReLU(GAP(XS))),YS∈R1×1×C (2);
其中,ReLU为ReLU函数,WW和WS均是学习参数矩阵,σ为Sigmoid函数,GAP为全局池化函数。通道特征分布YW和YS可看作是特征检测器和滤波器。通过公式(3)和(4)来实现相互特征校准:
和/>分别是最终经过校准的毫米波特征和音频特征。基于两者的相关性,即两者都蕴含了用户人声信息,通过互相校准可以加强各自特征图中重要信息,并抑制无关干扰信息。
为了将两种来自不同特征空间的特征,即毫米波特征和音频特征映射到同一特征空间,设计了映射模块,并插入在融合网路的末尾以生成最终的融合特征。假设M∈RH×W×C和V∈RH×W×C分别是来自分支网络的毫米波特征和音频特征,将M和V展平成大小为RC×HW的二维变量。计算M和V的相似矩阵:
S=MTWMVV,S∈RHW×HW (5);
其中,WMV是学习参数矩阵,S的每个元素都揭示了M和V的相应列之间的相关性。分别对相似矩阵进行Softmax归一化和列归一化:
SM=softmax(S),SM∈RHW×HW (6);
SV=softmax(ST),SV∈RHW×HW (7);
SM相似矩阵可以将毫米波特征空间转换到音频特征空间,同理,SV可以将音频特征空间转换为毫米波特征空间。计算对应的注意力特征:
表示矩阵乘法。最终,基于两者的注意力特征,可以获得最终的融合特征Z:
Z=WZ{σ(CM)⊙M+σ(CV)⊙V},Z∈RC×HW (10);
WZ是学习参数矩阵,代表了两种模态特征的Z选择性地整合了信息。Z中与人声振动和声学特性相关的细粒度元素占据了主导地位。将最终的融合网络输出的融合特征输入至语义提取网络中以进行语音识别。
步骤4:将最终的融合特征输入至语义特征网络以获得语义文本即语音识别结果。该方法中的语义特征网络为经典的LAS。LAS由两个组件组成:一个称为Listener的编码器和一个称为Speller的解码器。Listener通过pBLSTM将融合特征映射为隐藏特征。Speller则是一个叠加的递归神经网络,计算输出字符序列的概率,它采用多头注意机制生成上下文向量。在LAS中,两个连续的pBLSTM层作为Listener,Speller包含两层LSTM和一个输出Softmax层。LAS接收来自步骤3中的融合特征后,输出语音识别结果。
实施例三
请参见图3,本实施例提供的一种多模态语音识别系统,包括:
信号获取模块50,用于获取目标毫米波信号和目标音频信号。
对数梅尔频谱系数计算模块60,用于当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的。
目标融合特征确定模块70,用于将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征。
语音识别结果提取模块80,用于将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
实施例四
本实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序。
所述计算机程序被处理器执行时实现实施例一或者实施例二所述的多模态语音识别方法的步骤。
与现有技术相比,本发明具有以下效果:
1、抗噪音:毫米波信号不受噪音影响,可以感知用户发声时的喉咙振动信息。当音频信号遭受到噪音污染时,借助于融合网络,可以对来自毫米波特征和音频特征进行互相校准融合,即毫米波特征中的振动信息可以融入音频特征,并且引导网络捕捉音频特征中的语义信息,而不是噪音干扰。
2、识别距离远,角度广:毫米波雷达感知距离远,但是感知角度受限。麦克风雷达可以捕捉到全方位的声音,但是感知距离近。将这两种不同模态的特征输入至融合网络中,这种特征互相有选择地校准,互相增强特征,最终生成结合两者优势的融合特征。该融合特征结合了两类模态信息,即来自毫米波雷达远距离的喉咙振动信息和麦克风雷达的全方位语音信息。
3、适用于多人场景:毫米波雷达和麦克风雷达不一定采集到包含人声的信号,也不一定该信号来自用户。因此,设计的语音活动检测和用户检测均基于毫米波信号与音频信号的相关性,即两者信号均与人声信息有关,可以检测信号是否源自人声信息,并进一步判断是否来自用户,这使得该方法适用于人多嘈杂的场景。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种多模态语音识别方法,其特征在于,包括:
获取目标毫米波信号和目标音频信号;所述目标毫米波信号为毫米波雷达接收到的反射信号,其中,包含喉咙振动信息;
当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的;
将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征;
将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
2.根据权利要求1所述的一种多模态语音识别方法,其特征在于,所述获取目标毫米波信号和目标音频信号,具体包括:
获取毫米波雷达采集的目标毫米波信号;
获取麦克风采集的目标音频信号。
3.根据权利要求1所述的一种多模态语音识别方法,其特征在于,所述当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数,具体包括:
判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果;
若所述第一判断结果表示所述目标毫米波信号和所述目标音频信号均包括人声信息,则判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,得到第二判断结果;
若所述第二判断结果表示所述目标毫米波信号和所述目标音频信号均来自目标用户,则对所述目标毫米波信号和所述目标音频信号分别进行短时傅里叶变换处理,以确定第一对数梅尔频谱系数和第二对数梅尔频谱系数。
4.根据权利要求3所述的一种多模态语音识别方法,其特征在于,所述判断所述目标毫米波信号和所述目标音频信号是否均包括人声信息,得到第一判断结果,具体包括:
对所述所述目标毫米波信号和所述目标音频信号分别进行预处理;
对预处理后的目标毫米波信号进行快速傅里叶变换处理以提取毫米波相位信号;
对所述毫米波相位信号进行差分处理以提取毫米波相位差信号;
将预处理后的目标音频信号与所述毫米波相位差信号相乘,以获得目标乘积分量;
计算所述目标乘积分量的谱熵;
判断所述谱熵是否大于设定阈值;
其中,当所述谱熵大于设定阈值时,表明所述目标毫米波信号和所述目标音频信号均包括人声信息。
5.根据权利要求4所述的一种多模态语音识别方法,其特征在于,所述判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户,具体包括:
对所述目标乘积分量进行处理以提取目标线性预测编码分量;
将所述目标线性预测编码分量输入到训练好的一类支持向量机中,以判断所述目标毫米波信号和所述目标音频信号是否均来自目标用户;
其中,所述训练好的一类支持向量机是根据训练数据和一类支持向量机确定的;所述训练数据包括多个标定乘积分量以及每个所述标定乘积分量对应的标签;所述标签为标定用户;所述标定乘积分量是根据所述标定用户对应的毫米波信号和音频信号确定的乘积分量。
6.根据权利要求1所述的一种多模态语音识别方法,其特征在于,所述融合网络还包括两个相同的分支网络络,分别为第一分支网络和第二分支网络;所述分支网络包括第一ResECA块、第二ResECA块、第三ResECA块、第四ResECA块和第五ResECA块;
其中,所述校准模块的输入端分别连接所述第一分支网络的第三ResECA块的输出端和所述第二分支网络的第三ResECA块的输出端;所述校准模块的输出端分别连接所述第一分支网络的第四ResECA块的输入端和所述第二分支网络的第四ResECA块的输入端;
所述第一分支网络的第一ResECA块的输入端用于输入所述第一对数梅尔频谱系数;所述第一分支网络的第一ResECA块的输出端与所述第一分支网络的第二ResECA块的输入端连接,所述第一分支网络的第二ResECA块的输出端与所述第一分支网络的第三ResECA块的输入端,所述第一分支网络的第四ResECA块的输出端与所述第一分支网络的第五ResECA块的输入端连接;
所述第二分支网络的第一ResECA块的输入端用于输入所述第二对数梅尔频谱系数;所述第二分支网络的第一ResECA块的输出端与所述第二分支网络的第二ResECA块的输入端连接,所述第二分支网络的第二ResECA块的输出端与所述第二分支网络的第三ResECA块的输入端,所述第二分支网络的第四ResECA块的输出端与所述第二分支网络的第五ResECA块的输入端连接;
所述映射模块的输入端分别连接所述第一分支网络的第五ResECA块的输出端和所述第二分支网络的第五ResECA块的输出端。
7.根据权利要求6所述的一种多模态语音识别方法,其特征在于,所述校准模块的处理过程为:
根据第一中间特征,计算第一通道特征分布;所述第一中间特征是所述第一分支网络的第三ResECA块的输出端输出的信号;
根据第二中间特征,计算第二通道特征分布;所述第二中间特征是所述第二分支网络的第三ResECA块的输出端输出的信号;
根据所述第二通道特征分布,校准所述第一中间特征;
根据所述第一通道特征分布,校准所述第二中间特征。
8.根据权利要求1所述的一种多模态语音识别方法,其特征在于,所述映射模块的处理过程为:
根据所述校准后的毫米波特征,计算第一相似矩阵;
根据所述校准后的音频特征,计算第二相似矩阵;
对所述第一相似矩阵和所述第二相似矩阵分别进行归一化处理;
根据归一化处理后的第一相似矩阵,计算第一注意力特征;
根据归一化处理后的第二相似矩阵,计算第二注意力特征;
根据所述第一注意力特征和所述第二注意力特征,计算目标融合特征。
9.一种多模态语音识别系统,其特征在于,包括:
信号获取模块,用于获取目标毫米波信号和目标音频信号;所述目标毫米波信号为毫米波雷达接收到的反射信号,其中,包含喉咙振动信息;
对数梅尔频谱系数计算模块,用于当所述目标毫米波信号和所述目标音频信号均包含目标用户对应的人声信息时,计算第一对数梅尔频谱系数和第二对数梅尔频谱系数;所述第一对数梅尔频谱系数是根据所述目标毫米波信号确定的,所述第二对数梅尔频谱系数是根据所述目标音频信号确定的;
目标融合特征确定模块,用于将所述第一对数梅尔频谱系数和所述第二对数梅尔频谱系数输入到融合网络中,以确定目标融合特征;所述融合网络至少包括校准模块和映射模块;所述校准模块用于根据所述目标音频信号对所述目标毫米波信号进行特征校准处理,根据所述目标毫米波信号对所述目标音频信号进行特征校准处理,以获取校准后的毫米波特征和校准后的音频特征;所述映射模块用于对所述校准后的毫米波特征和所述校准后的音频特征进行融合处理,以得到目标融合特征;
语音识别结果提取模块,用于将所述目标融合特征输入到语义特征网络中,以确定所述目标用户对应的语音识别结果。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8项中任一项所述多模态语音识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110913351.1A CN113744731B (zh) | 2021-08-10 | 2021-08-10 | 多模态语音识别方法、系统及计算机可读存储介质 |
US17/684,958 US20230047666A1 (en) | 2021-08-10 | 2022-03-02 | Multimodal speech recognition method and system, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110913351.1A CN113744731B (zh) | 2021-08-10 | 2021-08-10 | 多模态语音识别方法、系统及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744731A CN113744731A (zh) | 2021-12-03 |
CN113744731B true CN113744731B (zh) | 2023-07-21 |
Family
ID=78730533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110913351.1A Active CN113744731B (zh) | 2021-08-10 | 2021-08-10 | 多模态语音识别方法、系统及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230047666A1 (zh) |
CN (1) | CN113744731B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118053451A (zh) * | 2024-04-15 | 2024-05-17 | 中国科学院自动化研究所 | 基于多模态大模型的模仿音频鉴别方法、装置和设备 |
CN118051831B (zh) * | 2024-04-16 | 2024-06-18 | 西北工业大学 | 基于CNN-Transformer合作网络模型的水声目标识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826466A (zh) * | 2019-10-31 | 2020-02-21 | 南京励智心理大数据产业研究院有限公司 | 基于lstm音像融合的情感识别方法、装置及存储介质 |
CN112292674A (zh) * | 2018-04-20 | 2021-01-29 | 脸谱公司 | 为助理系统处理多模态用户输入 |
CN113178198A (zh) * | 2021-04-16 | 2021-07-27 | 杭州环木信息科技有限责任公司 | 一种基于毫米波感知的非接触式声纹生物认证方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11386712B2 (en) * | 2019-12-31 | 2022-07-12 | Wipro Limited | Method and system for multimodal analysis based emotion recognition |
-
2021
- 2021-08-10 CN CN202110913351.1A patent/CN113744731B/zh active Active
-
2022
- 2022-03-02 US US17/684,958 patent/US20230047666A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112292674A (zh) * | 2018-04-20 | 2021-01-29 | 脸谱公司 | 为助理系统处理多模态用户输入 |
CN110826466A (zh) * | 2019-10-31 | 2020-02-21 | 南京励智心理大数据产业研究院有限公司 | 基于lstm音像融合的情感识别方法、装置及存储介质 |
CN113178198A (zh) * | 2021-04-16 | 2021-07-27 | 杭州环木信息科技有限责任公司 | 一种基于毫米波感知的非接触式声纹生物认证方法 |
Non-Patent Citations (1)
Title |
---|
Secure mmWave-Radar-Based Speaker Verification for IoT Smart Home;Yudi Dong et al.;IEEE Internet of Things Journal;第3500-3512页 * |
Also Published As
Publication number | Publication date |
---|---|
US20230047666A1 (en) | 2023-02-16 |
CN113744731A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Wavoice: A noise-resistant multi-modal speech recognition system fusing mmwave and audio signals | |
ES2953525T3 (es) | Método y dispositivo de reconocimiento de voz, medio de almacenamiento y acondicionador de aire | |
CN113744731B (zh) | 多模态语音识别方法、系统及计算机可读存储介质 | |
EP1818909B1 (en) | Voice recognition system | |
Nakadai et al. | Improvement of recognition of simultaneous speech signals using av integration and scattering theory for humanoid robots | |
US11854566B2 (en) | Wearable system speech processing | |
CN109147763B (zh) | 一种基于神经网络和逆熵加权的音视频关键词识别方法和装置 | |
CN112151030B (zh) | 一种基于多模态的复杂场景语音识别方法和装置 | |
CN111724770B (zh) | 一种基于深度卷积生成对抗网络的音频关键词识别方法 | |
CN108297108B (zh) | 一种球形跟随机器人及其跟随控制方法 | |
CN108597505A (zh) | 语音识别方法、装置及终端设备 | |
Wang et al. | Audio-visual speech recognition integrating 3D lip information obtained from the Kinect | |
CN107507625A (zh) | 声源距离确定方法及装置 | |
CN116129129B (zh) | 一种人物交互检测模型及检测方法 | |
CN111341319A (zh) | 一种基于局部纹理特征的音频场景识别方法及系统 | |
CN110333484B (zh) | 基于环境背景声感知与分析的室内区域级定位方法 | |
CN114353819A (zh) | 车辆的导航方法、装置、设备、存储介质及程序产品 | |
Chen et al. | Multimodal fusion for indoor sound source localization | |
CN110188179B (zh) | 语音定向识别交互方法、装置、设备及介质 | |
Chen et al. | Sound localization by self-supervised time delay estimation | |
CN114842835A (zh) | 一种基于深度学习模型的语音交互系统 | |
CN117310668A (zh) | 融合注意力机制与深度残差收缩网络的水声目标识别方法 | |
CN117312548A (zh) | 一种多源异构灾情数据融合理解方法 | |
CN116705013B (zh) | 语音唤醒词的检测方法、装置、存储介质和电子设备 | |
Hao et al. | Denoi-spex+: a speaker extraction network based speech dialogue system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |