CN112233700A - 基于音频的用户状态识别方法、装置及存储介质 - Google Patents
基于音频的用户状态识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112233700A CN112233700A CN202011074898.9A CN202011074898A CN112233700A CN 112233700 A CN112233700 A CN 112233700A CN 202011074898 A CN202011074898 A CN 202011074898A CN 112233700 A CN112233700 A CN 112233700A
- Authority
- CN
- China
- Prior art keywords
- audio
- target
- spectrogram
- user state
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 141
- 238000013135 deep learning Methods 0.000 claims abstract description 32
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 238000001228 spectrum Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 19
- 238000012360 testing method Methods 0.000 claims description 64
- 239000013598 vector Substances 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 12
- 206010011224 Cough Diseases 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 201000010099 disease Diseases 0.000 claims description 9
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 9
- 238000012952 Resampling Methods 0.000 claims description 6
- 230000000295 complement effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 description 12
- 201000007100 Pharyngitis Diseases 0.000 description 8
- 206010037660 Pyrexia Diseases 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000036541 health Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 201000005702 Pertussis Diseases 0.000 description 4
- 206010006451 bronchitis Diseases 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 208000015181 infectious disease Diseases 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 244000052616 bacterial pathogen Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本发明涉及人工智能,揭露一种基于音频的用户状态识别方法,包括:对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;对所述待识别用户的音频进行特征转换,得到待识别声谱图;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。本发明实施例还涉及一种区块链技术,所述音频训练集可以存储在区块链中。本发明还提出一种基于音频的用户状态识别装置、电子设备以及计算机可读存储介质。本发明降低了数据资源消耗,增强了模型的实用性。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种基于音频的用户状态识别方法、装置、电子设备及存储介质。
背景技术
随着智慧生活的理念逐渐普及,用户状态成为了智慧生活的核心关注点,因此用户状态的识别成为了一件非常重要的事情,如识别用户当前的健康状态,尤其在传染病大肆流行的时候,时刻了解每个人的健康状态很重要。一般情况下,需要用户到医院找医生进行身体检查才能了解其健康情况,医院本身就充满了各种病菌,去医院检查存在着被感染的风险。
目前,通常利用大量的用户的医学图像(如胸部X光)来训练机器学习模型实现用户状态识别来确定用户的健康状态,但是大量的用户的医学图像耗费了大量的数据资源,且用户的医学图像获取门槛较高导致实用性不强无法更好地推广普及。
发明内容
本发明提供一种基于音频的用户状态识别方法、装置、电子设备及计算机可读存储介质,其主要目的在于降低了数据资源消耗,增强了模型的实用性。
为实现上述目的,本发明提供的一种基于音频的用户状态识别方法,包括:
获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;
基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;
利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
可选地,所述对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集,包括:
对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;
对所述数字语音信号进行预加重,得到标准数字语音信号;
汇总所有的所述标准数字语音信号,得到语音信号集;
对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集。
可选地,所述对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集,包括:
利用预设声音处理算法,将所述语音信号集中的每个标准数字语音信号映射在频域,得到对应的目标声谱图;
汇总所有的所述目标声谱图得到所述目标声谱图集。
可选地,所述利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型,包括:
将所述目标声谱图集随机划分为训练集及测试集;
利用所述训练集对所述深度学习网络模型进行训练得到初始识别模型;
根据所述测试集对所述初始识别模型进行测试得到损失值;
当所述损失值大于预设阈值时返回所述将所述目标声谱图集随机划分为训练集及测试集步骤;
当所述损失值小于或等于预设阈值时,将所述初始识别模型作为用户状态识别模型。
可选地,所述将所述目标声谱图集随机划分为训练集及测试集,包括:
将所述目标声谱图集中的每个目标声谱图按照对应的初始标签进行分类,得到对应的分类目标声谱图集;
从所述分类目标声谱图集中随机取出预设数量的目标声谱图作为测试子集,将所述分类声谱图集中所述测试子集的补集作为训练子集;
汇总所有的所述训练子集得到训练集;
汇总所有的所述测试子集得到测试集。
可选地,所述根据所述测试集对所述初始识别模型进行测试得到损失值,包括:
提取所述初始识别模型中每种所述初始标签对应的特征向量,得到目标特征向量;
利用所述初始识别模型对所述测试集中的每个目标声谱图进行特征提取,得到对应的测试特征向量;
计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离,得到损失距离值;
计算所有所述损失距离值的平均值,得到所述损失值。
可选地,所述音频训练集为不同的疾病情况对应的咳嗽音频的集合。
为了解决上述问题,本发明还提供一种基于音频的用户状态识别装置,所述装置包括:
模型生成模块,用于获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
状态识别模块,用于当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于音频的用户状态识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于音频的用户状态识别方法。
本发明实施例中,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集,使所述音频训练集中音频中的特征更加清晰直观,增加了后续模型训练的精度;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型,增强了小样本训练集下的模型的鲁棒性及训练精度;对所述待识别用户的音频进行特征转换,得到待识别声谱图,使所述待识别用户的音频特征更加清晰直观,提高了后续模型的识别精度;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果,利用少量的更易得的音频数据进行模型的训练,降低了模型的训练的数据资源消耗,只需要用户的音频就可以对用户状态进行识别,增强了模型的实用性。
附图说明
图1为本发明一实施例提供的基于音频的用户状态识别方法的流程示意图;
图2为本发明一实施例提供的基于音频的用户状态识别方法中得到目标声谱图集的详细流程示意图;
图3为本发明一实施例提供的基于音频的用户状态识别装置的模块示意图;
图4为本发明一实施例提供的实现基于音频的用户状态识别方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于音频的用户状态识别方法。参照图1所示,为本发明一实施例提供的基于音频的用户状态识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,基于音频的用户状态识别方法包括:
S1、获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;
本发明实施例中,所述音频训练集为包含初始标签的音频的集合,较佳地,所述初始标签为用户的疾病情况,例如:急性支气管炎、慢性咽炎、百日咳、发烧;进一步地,由于不同疾病情况下用户的咳嗽音频具有对应的声音特征,因此,较佳地,所述音频训练集为不同的疾病情况对应的咳嗽音频的集合,其中,所述声音特征为咳嗽音频的频域特征可用声谱图表示。
进一步地,为了后续模型更好的所述音频训练集中的每个音频的特征更加直观清晰,本发明实施例对所述音频训练集进行特征变换,得到所述目标声谱图集,包括:
S11、对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;
本发明实施例中,为了便于对所述音频训练集中的每个音频进行数据处理,对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号,较佳的地,本发明实施例利用数模转换器对所述音频训练集中的每个音频进行重采样。
S12、对所述数字语音信号进行预加重,得到标准数字语音信号;
S13、汇总所有的所述标准数字语音信号,得到语音信号集;
本发明实施例中,为了对所述音频训练集获取过程中导致的音频信息丢失进行补偿,对所述音频训练集中的每个音频进行预加重操作,
详细地,本发明实施例中,所述对所述音频训练集中的每个音频进行预加重操作,包括:将所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;将所述数字语音信号进行预加重,得到标准数字语音信号,汇总所有的所述标准数字语音信号,得到语音信号集。
详细地,本发明实施例利用如下公式进行所述预加重操作:
y(t)=x(t)-μx(t-1)
其中,x(t)为所述数字语音信号,t为时间,y(t)为所述标准数字语音信号,μ为所述预加重操作的预设调节值,较佳地,μ的取值范围为[0.9,1.0]。
S14、对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集。
本发明实施例中,所述语音信号集中的标准语音信号只能体现音频在时域上的变化,不能体现所述标准语音信号的音频特征,为了体现所述标准语音信号的音频特征,使音频特征更加直观和清晰,对所述语音信号集中的每个标准数字语音信号进行特征转换。
详细地,本发明实施例中对所述语音信号集中的每个标准数字语音信号进行特征转换,包括:利用预设声音处理算法,将所述语音信号集中的每个标准数字语音信号映射在频域,得到对应的目标声谱图,汇总所有的所述目标声谱图的得到所述目标声谱图集。
较佳地,本发明中所述声音处理算法为梅尔滤波算法。
本发明实施例中,上述步骤只是对所述音频训练集的每个音频进行特征转换,不会影响所述音频训练集的每个音频对应的所述初始标签,所以所述目标声谱图集中每个目标声谱图都有对应的初始标签。
S2、基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
本发明实施例中,由于所述音频训练集中的样本数量过少,为了保证后续模型的训练精度及鲁棒性,基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到基于音频的用户状态识别模型。
详细地,本发明实施例中,所述利用所述目标声谱图集对预构建的深度学习网络模型进行训练,包括:
步骤A:将所述目标声谱图集划分为训练集及测试集;
本发明实施例中,由于所述目标声谱图集中的样本数据较少且不易获取,直接将所述目标声谱图集作为训练集会导致后续模型的鲁棒性较差,因此,本发明实施例将所述目标声谱图集划分为训练集及测试集,通过利用测试集不断的对训练模型进行测试调整增强模型的鲁棒性,所述将所述目标声谱图集划分为训练集及测试集,包括:将所述目标声谱图集中的每个目标声谱图按照对应的初始标签进行分类,得到对应的分类目标声谱图集;从所述分类目标声谱图集中随机取出预设数量的目标声谱图作为测试子集,将所述分类声谱图集中所述训练子集的补集作为训练子集;汇总所有的所述训练子集的训练集,汇总所有的所述测试子集得到测试集,较佳地,本发明实施例中所述预设数量为1。
步骤B:利用所述训练集对所述深度学习网络进行训练得到初始识别模型,根据所述测试集对所述初始识别模型进行测试得到损失值,当所述损失值大于预设阈值时返回步骤A,当所述损失值小于或等于预设阈值时,将所述初始识别模型作为用户状态识别模型。
较佳地,本发明实施例中所述深度学习网络为卷积神经网络。
本发明实施例中,由于所述音频训练集中的音频时间可能不一致,导致所述目标声谱图集中的图像大小存在差异,进而导致所述深度学习网络模型在训练的过程中提取的所述目标声谱图集中的目标声谱图的特征维度不同,无法进行统一训练,因此,为了更好地利用所述音频训练集中的数据,本发明实施例利用所述训练集对所述深度学习网络前,需要在所述深度学习网络模型的全连接层前增加注意力机制处理层进行图像特征对齐,其中,所述注意力机制处理层根据图像特征维度不同进行特征对齐的网络,例如:目标声谱图A的在所述深度学习网络模型进行特征提取的图像特征a为D*T1维矩阵,目标声谱图B的在所述深度学习网络模型进行特征提取的图像特征b为D*T2 维矩阵,所述注意力机制处理层将图像特征a乘上T1*1的预设权重矩阵转化为D维矩阵,将图像特征b乘上T2*1的预设权重矩阵转化为D维矩阵,实现图像特征a及图像特征b的特征对齐。
进一步地,由于所述训练集的中的样本数量较少,所以本发明实施例需要对所述初始识别模型进行以验证该模型的识别能力方便对模型进行训练调整。
详细地,本发明实施例中所述初始识别模型的识别类别和所述目标声谱图集中的初始标签的类别相同,例如:所述所述目标声谱图集中共有两种初始标签为慢性咽炎、发烧,那么所述初始识别模型中的识别类别也有相同的两种为慢性咽炎、发烧。进一步地,本发明实施例中所述根据所述测试集对所述初始识别模型进行测试得到损失值,包括:提取所述初始识别模型中每种所述初始标签对应的特征向量,得到目标特征向量;利用所述初始识别模型对所述测试子集中的每个目标声谱图进行特征提取,得到测试特征向量;计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离,得到损失距离值;计算所有所述损失距离值的平均值,得到所述损失值。较佳地,本发明实施例采用欧氏距离计算方法计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离。
进一步地,本领域技术人员可知所述初始模型的不同识别类别连接对应不同的全连接层节点,全连接层节点有对应的顺序,本发明实施例获取初始识别模型的每种识别类别对应的全连接层节点的输出值并按照对应的全连接层节点的顺序进行组合,得到对应的所述目标特征向量;进一步地,本发明实施例将所述测试子集中的每个目标声谱图输入所述初始识别模型,根据所述测试子集中的每个目标声谱图对应的初始标签,获取所述初始识别模型中对应识别类别的全连接层节点的输出值并按照对应的全连接层节点的顺序进行组合,得到所述测试特征向量。
本发明的另一实施例中,为了保证数据的隐私性,所述音频训练集可以存储在区块链节点中。
S3、当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;
本发明实施例中,所述待识别用户的音频与所述音频训练集中的音频的类别相同,较佳地,本发明实施例中,所述待识别用户的音频为用户的咳嗽音频。音频训练集
进一步地,本发明实施例中对所述待识别用户的音频进行特征转换的方法与上述对所述音频训练集的每个音频进行特征转换的方法相同。
S4、利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
本发明实施例中,所述用户状态识别结果为用户的健康状态,例如:急性支气管炎、慢性咽炎、百日咳、发烧。
本发明实施例中,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集,使所述音频训练集中音频中的特征更加清晰直观,增加了后续模型训练的精度;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型,增强了小样本训练集下的模型的鲁棒性及训练精度;对所述待识别用户的音频进行特征转换,得到待识别声谱图,使所述待识别用户的音频特征更加清晰直观,提高了后续模型的识别精度;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果,利用少量的更易得的音频数据进行模型的训练,降低了模型的训练的数据资源消耗,只需要用户的音频就可以对用户状态进行识别,增强了模型的实用性。
如图3所示,是本发明基于音频的用户状态识别装置的功能模块图。
本发明所述基于音频的用户状态识别装置100可以安装于电子设备中。根据实现的功能,所述基于音频的用户状态识别装置可以包括模型生成模块 101、状态识别模块102。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述模型生成模块101用于获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型。
本发明实施例中,所述音频训练集为包含初始标签的音频的集合,较佳地,所述初始标签为用户的疾病情况,例如:急性支气管炎、慢性咽炎、百日咳、发烧;进一步地,由于不同疾病情况下用户的咳嗽音频具有对应的声音特征,因此,较佳地,所述音频训练集为不同的疾病情况对应的咳嗽音频的集合,其中,所述声音特征为咳嗽音频的频域特征可用声谱图表示。
进一步地,为了后续模型更好的所述音频训练集中的每个音频的特征更加直观清晰,本发明实施例所述模型生成模块101利用如下手段对所述音频训练集进行特征变换,得到所述目标声谱图集,包括:
对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;
本发明实施例中,为了便于对所述音频训练集中的每个音频进行数据处理,对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号,较佳的地,本发明实施例利用数模转换器对所述音频训练集中的每个音频进行重采样。
对所述数字语音信号进行预加重,得到标准数字语音信号;
汇总所有的所述标准数字语音信号,得到语音信号集;
本发明实施例中,为了对所述音频训练集获取过程中导致的音频信息丢失进行补偿,对所述音频训练集中的每个音频进行预加重操作,
详细地,本发明实施例中,所述对所述音频训练集中的每个音频进行预加重操作,包括:对所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;将所述数字语音信号进行预加重,得到标准数字语音信号,汇总所有的所述标准数字语音信号,得到语音信号集。
详细地,本发明实施例所述模型生成模块101利用如下公式进行所述预加重操作:
y(t)=x(t)-μx(t-1)
其中,x(t)为所述数字语音信号,t为时间,y(t)为所述标准数字语音信号,μ为所述预加重操作的预设调节值,较佳地,μ的取值范围为[0.9,1.0]。
对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集。
本发明实施例中,所述语音信号集中的标准语音信号只能体现音频在时域上的变化,不能体现所述标准语音信号的音频特征,为了体现所述标准语音信号的音频特征,使音频特征更加直观和清晰,对所述语音信号集中的每个标准数字语音信号进行特征转换。
详细地,本发明实施例中所述模型生成模块101利用如下手段对所述语音信号集中的每个标准数字语音信号进行特征转换,包括:利用预设声音处理算法,将所述语音信号集中的每个标准数字语音信号映射在频域,得到对应的目标声谱图,汇总所有的所述目标声谱图的得到所述目标声谱图集。
较佳地,本发明中所述声音处理算法为梅尔滤波算法。
本发明实施例中,上述步骤只是对所述音频训练集的每个音频进行特征转换,不会影响所述音频训练集的每个音频对应的所述初始标签,所以所述目标声谱图集中每个目标声谱图都有对应的初始标签。
本发明实施例中,由于所述音频训练集中的样本数量过少,为了保证后续模型的训练精度及鲁棒性,基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到基于音频的用户状态识别模型。
详细地,本发明实施例中,所述模型生成模块101利用如下手段对预构建的深度学习网络模型进行训练,包括:
步骤A:将所述目标声谱图集划分为训练集及测试集;
本发明实施例中,由于所述目标声谱图集中的样本数据较少且不易获取,直接将所述目标声谱图集作为训练集会导致后续模型的鲁棒性较差,因此,本发明实施例将所述目标声谱图集划分为训练集及测试集,通过利用测试集不断的对训练模型进行测试调整增强模型的鲁棒性,所述将所述目标声谱图集划分为训练集及测试集,包括:将所述目标声谱图集中的每个目标声谱图按照对应的初始标签进行分类,得到对应的分类目标声谱图集;从所述分类目标声谱图集中随机取出预设数量的目标声谱图作为测试子集,将所述分类声谱图集中所述训练子集的补集作为训练子集;汇总所有的所述训练子集的训练集,汇总所有的所述测试子集得到测试集,较佳地,本发明实施例中所述预设数量为1。
步骤B:利用所述训练集对所述深度学习网络进行训练得到初始识别模型,根据所述测试集对所述初始识别模型进行测试得到损失值,当所述损失值大于预设阈值时返回步骤A,当所述损失值小于或等于预设阈值时,将所述初始识别模型作为用户状态识别模型。
较佳地,本发明实施例中所述深度学习网络为卷积神经网络。
本发明实施例中,由于所述音频训练集中的音频时间可能不一致,导致所述目标声谱图集中的图像大小存在差异,进而导致所述深度学习网络模型在训练的过程中提取的所述目标声谱图集中的目标声谱图的特征维度不同,无法进行统一训练,因此,为了更好地利用所述音频训练集中的数据,本发明实施例利用所述训练集对所述深度学习网络前,需要在所述深度学习网络模型的全连接层前增加注意力机制处理层进行图像特征对齐,其中,所述注意力机制处理层根据图像特征维度不同进行特征对齐的网络,例如:目标声谱图A的在所述深度学习网络模型进行特征提取的图像特征a为D*T1维矩阵,目标声谱图B的在所述深度学习网络模型进行特征提取的图像特征b为D*T2 维矩阵,所述注意力机制处理层将图像特征a乘上T1*1的预设权重矩阵转化为D维矩阵,将图像特征b乘上T2*1的预设权重矩阵转化为D维矩阵,实现图像特征a及图像特征b的特征对齐。
进一步地,由于所述训练集的中的样本数量较少,所以本发明实施例需要对所述初始识别模型进行以验证该模型的识别能力方便对模型进行训练调整。
详细地,本发明实施例中所述初始识别模型的识别类别和所述目标声谱图集中的初始标签的类别相同,例如:所述所述目标声谱图集中共有两种初始标签为慢性咽炎、发烧,那么所述初始识别模型中的识别类别也有相同的两种为慢性咽炎、发烧。进一步地,本发明实施例中所述模型生成模块101 利用如下手段得到损失值,包括:提取所述初始识别模型中每种所述初始标签对应的特征向量,得到目标特征向量;利用所述初始识别模型对所述测试子集中的每个目标声谱图进行特征提取,得到测试特征向量;计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离,得到损失距离值;计算所有所述损失距离值的平均值,得到所述损失值。较佳地,本发明实施例采用欧氏距离计算方法计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离。
进一步地,本领域技术人员可知所述初始模型的不同识别类别连接对应不同的全连接层节点,全连接层节点有对应的顺序,本发明实施例所述模型生成模块101获取初始识别模型的每种识别类别对应的全连接层节点的输出值并按照对应的全连接层节点的顺序进行组合,得到对应的所述目标特征向量;进一步地,本发明实施例所述模型生成模块101将所述测试子集中的每个目标声谱图输入所述初始识别模型,根据所述测试子集中的每个目标声谱图对应的初始标签,获取所述初始识别模型中对应识别类别的全连接层节点的输出值并按照对应的全连接层节点的顺序进行组合,得到所述测试特征向量。
本发明的另一实施例中,为了保证数据的隐私性,所述音频训练集可以存储在区块链节点中。
所述状态识别模块102用于当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
本发明实施例中,所述待识别用户的音频与所述音频训练集中的音频的类别相同,较佳地,本发明实施例中,所述待识别用户的音频为用户的咳嗽音频。音频训练集
进一步地,本发明实施例中对所述待识别用户的音频进行特征转换的方法与上述对所述音频训练集的每个音频进行特征转换的方法相同。
本发明实施例中,所述用户状态识别结果为用户的疾病情况,例如:急性支气管炎、慢性咽炎、百日咳、发烧。
如图4所示,是本发明实现基于音频的用户状态识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于音频的用户状态识别程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备 1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11 不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于音频的用户状态识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于音频的用户状态识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4 示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源 (比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器 10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器 (Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是 LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于音频的用户状态识别程序 12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;
基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;
利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于音频的用户状态识别方法,其特征在于,所述方法包括:
获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;
基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;
利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
2.如权利要求1所述的基于音频的用户状态识别方法,其特征在于,所述对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集,包括:
将所述音频训练集中的每个音频进行重采样,得到对应的数字语音信号;
对所述数字语音信号进行预加重,得到标准数字语音信号;
汇总所有的所述标准数字语音信号,得到语音信号集;
对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集。
3.如权利要求2所述的基于音频的用户状态识别方法,其特征在于,所述对所述语音信号集中包含的每个标准数字语音信号进行特征转换,得到目标声谱图集,包括:
利用预设声音处理算法,将所述语音信号集中的每个标准数字语音信号映射在频域,得到对应的目标声谱图;
汇总所有的所述目标声谱图得到所述目标声谱图集。
4.如权利要求1所述的基于音频的用户状态识别方法,其特征在于,所述利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型,包括:
将所述目标声谱图集随机划分为训练集及测试集;
利用所述训练集对所述深度学习网络模型进行训练得到初始识别模型;
根据所述测试集对所述初始识别模型进行测试得到损失值;
当所述损失值大于预设阈值时返回所述将所述目标声谱图集随机划分为训练集及测试集步骤;
当所述损失值小于或等于预设阈值时,将所述初始识别模型作为用户状态识别模型。
5.如权利要求4所述的基于音频的用户状态识别方法,其特征在于,所述将所述目标声谱图集随机划分为训练集及测试集,包括:
将所述目标声谱图集中的每个目标声谱图按照对应的初始标签进行分类,得到对应的分类目标声谱图集;
从所述分类目标声谱图集中随机取出预设数量的目标声谱图作为测试子集,将所述分类声谱图集中所述测试子集的补集作为训练子集;
汇总所有的所述训练子集得到训练集;
汇总所有的所述测试子集得到测试集。
6.如权利要求5所述的基于音频的初始标签识别方法,其特征在于,所述根据所述测试集对所述初始识别模型进行测试得到损失值,包括:
提取所述初始识别模型中每种所述初始标签对应的特征向量,得到目标特征向量;
利用所述初始识别模型对所述测试集中的每个目标声谱图进行特征提取,得到对应的测试特征向量;
计算每种所述初始标签对应的所述目标特征向量与所述测试特征向量的距离,得到损失距离值;
计算所有所述损失距离值的平均值,得到所述损失值。
7.如权利要求1至6中任何一项所述的基于音频的用户状态识别方法,其特征在于,所述音频训练集为不同的疾病情况对应的咳嗽音频的集合。
8.一种基于音频的用户状态识别装置,其特征在于,所述装置包括:
模型生成模块,用于获取音频训练集,对所述音频训练集中的每个音频进行特征转换,得到目标声谱图集;基于注意力机制与小样本学习,利用所述目标声谱图集对预构建的深度学习网络模型进行训练,得到用户状态识别模型;
状态识别模块,用于当接收到待识别用户的音频时,对所述待识别用户的音频进行特征转换,得到待识别声谱图;利用所述用户状态识别模型对所述待识别声谱图进行识别,得到用户状态识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的基于音频的用户状态识别方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于音频的用户状态识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011074898.9A CN112233700A (zh) | 2020-10-09 | 2020-10-09 | 基于音频的用户状态识别方法、装置及存储介质 |
PCT/CN2020/131983 WO2021189903A1 (zh) | 2020-10-09 | 2020-11-27 | 基于音频的用户状态识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011074898.9A CN112233700A (zh) | 2020-10-09 | 2020-10-09 | 基于音频的用户状态识别方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112233700A true CN112233700A (zh) | 2021-01-15 |
Family
ID=74120698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011074898.9A Pending CN112233700A (zh) | 2020-10-09 | 2020-10-09 | 基于音频的用户状态识别方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112233700A (zh) |
WO (1) | WO2021189903A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114373484A (zh) * | 2022-03-22 | 2022-04-19 | 南京邮电大学 | 语音驱动的帕金森病多症状特征参数的小样本学习方法 |
CN114722884A (zh) * | 2022-06-08 | 2022-07-08 | 深圳市润东来科技有限公司 | 基于环境音的音频控制方法、装置、设备及存储介质 |
WO2023138660A1 (zh) * | 2022-01-21 | 2023-07-27 | 华为技术有限公司 | 一种音频检测的方法及电子设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117476036B (zh) * | 2023-12-27 | 2024-04-09 | 广州声博士声学技术有限公司 | 一种环境噪声识别方法、系统、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108205535A (zh) * | 2016-12-16 | 2018-06-26 | 北京酷我科技有限公司 | 情感标注的方法及其系统 |
CN111666960A (zh) * | 2019-03-06 | 2020-09-15 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4241676A3 (en) * | 2012-03-29 | 2023-10-18 | The University of Queensland | A method and apparatus for processing sound recordings of a patient |
CN106073706B (zh) * | 2016-06-01 | 2019-08-20 | 中国科学院软件研究所 | 一种面向简易精神状态量表的个性化信息和音频数据分析方法及系统 |
CN106202952A (zh) * | 2016-07-19 | 2016-12-07 | 南京邮电大学 | 一种基于机器学习的帕金森疾病诊断方法 |
CN106847262A (zh) * | 2016-12-28 | 2017-06-13 | 华中农业大学 | 一种猪呼吸道疾病自动识别报警方法 |
CN108701469B (zh) * | 2017-07-31 | 2023-06-20 | 深圳和而泰智能控制股份有限公司 | 咳嗽声音识别方法、设备和存储介质 |
KR102630580B1 (ko) * | 2017-12-21 | 2024-01-30 | 더 유니버서티 어브 퀸슬랜드 | 호흡기 질병 진단을 위한 질병 시그니처를 이용한 기침 소리 분석 방법 |
-
2020
- 2020-10-09 CN CN202011074898.9A patent/CN112233700A/zh active Pending
- 2020-11-27 WO PCT/CN2020/131983 patent/WO2021189903A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108205535A (zh) * | 2016-12-16 | 2018-06-26 | 北京酷我科技有限公司 | 情感标注的方法及其系统 |
CN111666960A (zh) * | 2019-03-06 | 2020-09-15 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023138660A1 (zh) * | 2022-01-21 | 2023-07-27 | 华为技术有限公司 | 一种音频检测的方法及电子设备 |
CN114373484A (zh) * | 2022-03-22 | 2022-04-19 | 南京邮电大学 | 语音驱动的帕金森病多症状特征参数的小样本学习方法 |
CN114722884A (zh) * | 2022-06-08 | 2022-07-08 | 深圳市润东来科技有限公司 | 基于环境音的音频控制方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021189903A1 (zh) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233700A (zh) | 基于音频的用户状态识别方法、装置及存储介质 | |
CN112447189A (zh) | 语音事件检测方法、装置、电子设备及计算机存储介质 | |
CN111681681A (zh) | 语音情绪识别方法、装置、电子设备及存储介质 | |
CN113283446A (zh) | 图像中目标物识别方法、装置、电子设备及存储介质 | |
CN112397047A (zh) | 语音合成方法、装置、电子设备及可读存储介质 | |
CN112396005A (zh) | 生物特征图像识别方法、装置、电子设备及可读存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN111950621A (zh) | 基于人工智能的目标数据检测方法、装置、设备及介质 | |
CN112509554A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN111931729B (zh) | 基于人工智能的行人检测方法、装置、设备及介质 | |
CN112885423A (zh) | 疾病标签检测方法、装置、电子设备及存储介质 | |
CN113205814A (zh) | 语音数据标注方法、装置、电子设备及存储介质 | |
CN114677650B (zh) | 地铁乘客行人违法行为智能分析方法及装置 | |
CN113793620B (zh) | 基于场景分类的语音降噪方法、装置、设备及存储介质 | |
CN113869456A (zh) | 采样监测方法、装置、电子设备及存储介质 | |
CN115409041B (zh) | 一种非结构化数据提取方法、装置、设备及存储介质 | |
CN112712797A (zh) | 语音识别方法、装置、电子设备及可读存储介质 | |
CN112580505B (zh) | 网点开关门状态识别方法、装置、电子设备及存储介质 | |
CN115221274A (zh) | 文本情感分类方法、装置、电子设备及存储介质 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN112632260A (zh) | 智能问答方法、装置、电子设备及计算机可读存储介质 | |
CN114186028A (zh) | 咨诉工单处理方法、装置、设备及存储介质 | |
CN114006986A (zh) | 外呼合规预警方法、装置、设备及存储介质 | |
CN113555026A (zh) | 语音转换方法、装置、电子设备及介质 | |
CN112634938A (zh) | 基于音频的人员积极性分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40041536 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210115 |