CN110968729A - 一种基于加性间距胶囊网络的家庭活动声音事件分类方法 - Google Patents

一种基于加性间距胶囊网络的家庭活动声音事件分类方法 Download PDF

Info

Publication number
CN110968729A
CN110968729A CN201911145336.6A CN201911145336A CN110968729A CN 110968729 A CN110968729 A CN 110968729A CN 201911145336 A CN201911145336 A CN 201911145336A CN 110968729 A CN110968729 A CN 110968729A
Authority
CN
China
Prior art keywords
capsule
additive
sample
audio
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911145336.6A
Other languages
English (en)
Other versions
CN110968729B (zh
Inventor
王章权
刘半藤
郑启航
施佳椰
陈友荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shuren University
Original Assignee
Zhejiang Shuren University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shuren University filed Critical Zhejiang Shuren University
Priority to CN201911145336.6A priority Critical patent/CN110968729B/zh
Publication of CN110968729A publication Critical patent/CN110968729A/zh
Application granted granted Critical
Publication of CN110968729B publication Critical patent/CN110968729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Complex Calculations (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明提供了一种基于加性间距胶囊网络的家庭活动声音事件分类方法,研究基于加性间距胶囊网络模型,对未知类别音频样本进行分类;首先处理待训练音频输出,构建样本对,再将对数Mel谱图信号类别向量作为样本,使用胶囊神经网络模型作为骨干,利用Transition层结合胶囊神经网络模型与加性间距SoftMax损失函数,构建出加性间距胶囊网络模型,使用梯度下降法优化加性间距胶囊网络模型参数,最终使用优化后模型对未知类别样本进行分类;本发明提供的方法具有高效率、稳定性强、精度高等优点,能够满足家庭活动声音事件分类的基本要求,具有较高的应用价值。

Description

一种基于加性间距胶囊网络的家庭活动声音事件分类方法
技术领域:
本发明涉及一种家庭活动识别方法,尤其涉及一种基于加性间距胶囊网络的家庭活动声音事件分类方法。
背景技术:
经济的发展和医疗水平的提高使得人类寿命越来越长,发达国家甚至包括中国等新兴发展中国家均面临严重的人口老龄化问题,根据联合国的一份报告,2015年至2030年间,60岁以上的老年人数量预计将增长56%,到2050年将达到近21亿。传统医疗保健的成本将按比例增长,因此对老年人健康状况、日常生活活动进行远程检测是十分必要的。这可以通过包括声学在内的多种感测模态进行监测,研究基于声学的声音事件分类方法,对于提升智能家居中的安全性、舒适性是十分必要的。
传统的声音事件分类,较依赖于人工预处理特征,如人工选取MFCC的滤波器个数、音调质心特征能量等。这些传统方法在目前应用中缺乏效率与实用性。基于深度学习的声音事件分类方法利用神经网络进行自动特征提取与结果分类,因此近年来基于卷积神经网络(CNN)的深度学习的方法在声音分类中应用广泛,但是CNN模型难以提取到特征间的空间关系,对于家庭活动音频信号中的时序关系无法充分利用,模型识别准确率难以提高。因此迫切需要一种高效率、稳定性强、精度高的家庭活动声音事件分类算法。
发明内容:
为克服传统家庭活动声音事件分类方法存在效率低、速度慢、精度低的问题,本发明提供一种基于加性间距胶囊网络的家庭活动声音事件分类方法,该方法直接对家庭活动音频信号对数Mel谱图进行识别,能够避免传统特征提取算法速度效率低问题,可以提高算法的效率。
为了实现上述发明目的,本发明所采用的技术方案为:
一种基于加性间距胶囊网络的家庭活动声音事件分类方法,内容包括:
步骤1:判断音频样本的时长并裁剪至符合要求,使用对数Mel滤波器对裁剪好的音频进行滤波,将滤波后的音频样本与标签编码组成样本对,所有音频样本处理后形成的样本对构建成样本数据集;
步骤2:以胶囊神经网络模型作为骨干,利用Transition层与胶囊神经网络模型的结合计算加性间距SoftMax损失函数,构建出加性间距胶囊网络模型;
步骤3:将预先构建好的样本对作为加性间距胶囊网络模型的输入,经过迭代优化网络参数获得训练好的加性间距胶囊网络模型;
步骤4:判断待分类音频样本的时长并进行裁剪至符合要求,使用对数Mel滤波器对裁剪好的待分类音频进行滤波,将滤波后的待分类音频输入训练好的加性间距胶囊网络模型进行分类。
进一步设置,所述步骤1中样本对的构建方法如下:
1.1判断音频样本的时长是否符合设定值,时长不足设定值的予以补全至设定值,时长超过设定值的予以裁剪至设定值;
1.2对符合时长要求的音频样本进行STFT变换;
1.3使用Mel对数滤波器对STFT变换后的音频样本进行滤波;
1.4将滤波后的音频样本从幅度单位转换为分贝单位,获得输入样本;
1.5处理输入标签,将标签值转换为向量,得到向量化标签编码;
1.6将1.4中获得的输入样本与1.5中获得的标签编码组成样本对进行保存。
进一步设置,所述步骤2中加性间距胶囊网络模型的构建方法如下:
2.1使用VGG16网络进行特征提取,使用胶囊网络作为特征整合器,对胶囊层各个参数进行初始化,添加权重变量并计算胶囊单元的预测输出值;
2.2判断是否达到迭代次数,若否进入2.3,若是则进入2.4;
2.3计算胶囊单元分类概率分布,根据分类概率分布计算出胶囊单元的输出向量并激活,最后更新胶囊权重关系矩阵;
2.4输出归一化后的胶囊单元向量;
2.5定义Transition层的权重参数,利用2.4中输出的胶囊单元向量计算出分类向量;
2.6定义权重参数矩阵,并设置每行向量的模为1;
2.7计算分类向量与权重参数矩阵的内积,然后计算加性间距损失。
进一步设置,所述2.1中,添加胶囊网络层,并设置输入长度、输出长度、迭代次数参数,添加权重变量Wij,其中i代表当前层l胶囊单元索引,j代表层(l+1)胶囊单元索引,初始化胶囊单元第i层与第j层间的连接权重矩阵bij为0;计算输入胶囊单元ui与权重变量Wij的预测输出值为
Figure BDA0002282012080000031
所述2.3中,对于层l的所有胶囊单元i,计算分类概率分布为ci=softmax(bij),对于层(l+1)的所有胶囊单元j,计算经过概率分布ci加权后的胶囊单元输出为
Figure BDA0002282012080000032
对于层(l+1)的所有胶囊单元j,计算归一化的胶囊单元输出vj=squash(sj),其中
Figure BDA0002282012080000033
更新胶囊单元第i层与第j层间的胶囊权重关系矩阵为
Figure BDA0002282012080000034
所述2.5中,定义Transition层的权重参数T,并利用2.4的输出归一化后的胶囊单元向量计算出分类向量
Figure BDA0002282012080000035
所述2.7中,定义权重参数矩阵为w,计算分类向量fj与权重参数矩阵w的内积为cos(θj)=wTfj,其中θj表示分类向量fj与权重参数矩阵的转置wT的夹角,加性间距损失Lams计算如下:
Figure BDA0002282012080000041
其中s为比例参数,m为间距参数,yi为该样本正确标签,cos(θyi)表示类向量fyi与权重参数矩阵的转置wT的夹角余弦值。
进一步设置,所述步骤3中,加性间距胶囊网络模型的训练方法如下:
随机初始化网络权重,设置学习率α、迭代次数iter,输入样本对,根据公式1计算出加性间距损失Lams,使用梯度下降法,利用损失Lams优化模型权重参数,更新迭代次数,判断迭代次数是否大于设定的迭代次数iter,若大于则输出训练好的加性间距胶囊网络参数模型,若小于则重新迭代训练。
进一步设置,所述步骤4中,待分类音频样本处理方法如下:
4.1判断待分类音频样本的时长是否符合设定值,时长不足设定值的予以补全至设定值,时长超过设定值的予以裁剪至设定值;
4.2对符合时长要求的待分类音频样本进行STFT变换;
4.3使用Mel对数滤波器对STFT变换后的待分类音频样本进行滤波;
4.4将滤波后的待分类音频样本从幅度单位转换为分贝单位,获得输入样本;
4.5将4.4获得的输入样本输入至训练好的加性间距胶囊网络参数模型计算内积cos(θj)=wTfj,找到最大内积值的索引即为该分类音频样本的分类类别。
本发明提供了一种基于加性间距胶囊网络的家庭活动声音事件分类方法,研究基于加性间距胶囊网络模型,对未知类别音频样本进行分类;首先处理待训练音频输出,构建样本对,再将对数Mel谱图信号类别向量作为样本,使用胶囊神经网络模型作为骨干,利用Transition层结合胶囊神经网络模型与加性间距SoftMax损失函数,构建出加性间距胶囊网络模型,使用梯度下降法优化加性间距胶囊网络模型参数,最终使用优化后模型对未知类别样本进行分类;本发明提供的方法具有高效率、稳定性强、精度高等优点,能够满足家庭活动声音事件分类的基本要求,具有较高的应用价值。
以下通过附图和具体实施方式对本发明做进一步阐述。
附图说明:
图1为本发明实施例中分类方法的流程图;
图2为样本数据集构建流程图;
图3为加性间距胶囊网络模型构建流程图;
图4为加性间距胶囊网络参数训练流程图;
图5为本发明针对音频信号活动事件类别识别流程图。
具体实施方式:
本实施例公开一种基于加性间距胶囊网络的家庭活动声音事件分类方法,该方法如图1所示,主要包括构建样本数据集、构建基于加性间距胶囊网络参数模型、训练加性间距胶囊网络参数模型、利用训练好的加性间距胶囊网络参数模型给待分类音频样本活动事件进行分类四个部分,下面针对每一部分详细说明:
步骤1:构建样本数据集,其方法流程如图2所示,主要内容概括为:判断音频样本的时长并裁剪至符合要求,使用对数Mel滤波器对裁剪好的音频进行滤波得到对数Mel谱图,并将其对应标签转换至one-hot编码保存,构成一个样本对,所有音频样本处理后形成的样本对构建成样本数据集。
上述步骤1中样本对的构建方法具体如下:
1.1判断音频样本的时长是否大于10秒,若小于10秒则使用浮动补全音频样本至10秒,若大于10秒则裁剪音频样本至10秒;
1.2使用帧长度为64毫秒、步长为20毫秒的汉明窗对符合时长要求的音频样本进行STFT变换;
1.3使用Mel对数滤波器对STFT变换后的音频样本进行滤波;
1.4将滤波后的音频样本从幅度单位转换为分贝单位,获得输入样本;
1.5处理输入标签,使用One-Hot编码将标签值转换为向量,得到向量化标签编码;
1.6将1.4中获得的输入样本与1.5中获得的标签编码组成样本对进行保存;
1.7判断是否遍历完所有的音频样本,若是则退出,若否则选择下一个样本重新执行1.1。
步骤2:构建基于加性间距胶囊网络参数模型,其流程如图3所示,先使用传统胶囊神经网络模型作为骨干,使其能接收对数Mel谱图,中间使用卷积层与胶囊网络层来对特征进行处理,再添加Transition层转换骨干网络输出,输出分类概率分布,接下来添加加性间距SoftMax函数作为网络的损失函数,构建出加性间距胶囊网络模型,具体方法如下:
2.1使用VGG16网络进行特征提取,使用胶囊网络作为特征整合器,添加胶囊网络层,并设置输入长度、输出长度、迭代次数参数,添加权重变量Wij,其中i代表当前层l胶囊单元索引,j代表层(l+1)胶囊单元索引,初始化胶囊单元第i层与第j层间的连接权重矩阵bij为0;计算输入胶囊单元ui与权重变量Wij的预测输出值为
Figure BDA0002282012080000061
2.2判断是否达到迭代次数,若否进入2.3,若是则进入2.4;
2.3对于层l的所有胶囊单元i,计算分类概率分布为ci=softmax(bij),对于层(l+1)的所有胶囊单元j,计算经过概率分布ci加权后的胶囊单元输出为
Figure BDA0002282012080000071
对于层(l+1)的所有胶囊单元j,计算归一化的胶囊单元输出vj=squash(sj),其中
Figure BDA0002282012080000072
更新胶囊单元第i层与第j层间的胶囊权重关系矩阵为
Figure BDA0002282012080000073
2.4输出归一化后的胶囊单元向量vj
2.5定义Transition层的权重参数T,利用2.4中输出的胶囊单元向量vj计算出分类向量fj
Figure BDA0002282012080000074
2.6定义权重参数矩阵w,并设置其每行向量的模为1;
2.7计算分类向量fj与权重参数矩阵w的内积为cos(θj)=wTfj,其中θj表示分类向量fj与权重参数矩阵的转置wT的夹角,加性间距损失Lams计算如下:
Figure BDA0002282012080000075
其中s为比例参数,m为间距参数,yi为该样本正确标签,cos(θyi)表示类向量fyi与权重参数矩阵的转置wT的夹角余弦值。
步骤3:训练步骤2中构建的加性间距胶囊网络模型,其方法流程如图4所示,通过预先给定的样本对训练该模型并优化模型参数,将预先构建好的样本对数据集作为加性间距胶囊网络模型的输入进行训练,利用梯度下降法将加性间距SoftMax函数的损失值反向传播优化加性间距胶囊网络参数模型,最终得到最优的网络参数模型,具体方法如下:
随机初始化网络权重,设置学习率α、迭代次数iter,输入样本对,根据公式1计算出加性间距损失Lams,使用梯度下降法,利用损失Lams优化模型权重参数,更新迭代次数,判断迭代次数是否大于设定的迭代次数iter,若大于则输出训练好的加性间距胶囊网络参数模型,若小于则重新迭代训练。
步骤4:利用训练好的加性间距胶囊网络参数模型给待分类音频样本活动事件进行分类,其方法流程如图5所示,将未知分类标签音频样本进行预处理为对数Mel谱图作为输入,使用训练好的加性间距胶囊网络模型进行前向推导,获得其音频事件类别分类概率,即可得到其音频事件类别,具体方法如下:
4.1判断待分类音频样本的时长是否大于10秒,小于10秒则使用浮动补全音频样本至10秒,超过10秒则裁剪至10秒;
4.2使用帧长度为64毫秒、步长为20毫秒的汉明窗对符合时长要求的待分类音频样本进行STFT变换;
4.3使用Mel对数滤波器对STFT变换后的待分类音频样本进行滤波;
4.4将滤波后的待分类音频样本从幅度单位转换为分贝单位,获得输入样本;
4.5将4.4获得的输入样本输入至训练好的加性间距胶囊网络参数模型计算内积cos(θj)=wTfj,找到最大内积值的索引即为该分类音频样本的分类类别。
以上实施例仅用以说明本发明的技术方案而非限制,本领域普通技术人员对本发明的技术方案所做的其他修改或者等同替换,只要不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围中。

Claims (6)

1.一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:包括如下步骤:
步骤1:判断音频样本的时长并裁剪至符合要求,使用对数Mel滤波器对裁剪好的音频进行滤波,将滤波后的音频样本与标签编码组成样本对,所有音频样本处理后形成的样本对构建成样本数据集;
步骤2:以胶囊神经网络模型作为骨干,利用Transition层与胶囊神经网络模型的结合计算加性间距SoftMax损失函数,构建出加性间距胶囊网络模型;
步骤3:将预先构建好的样本对作为加性间距胶囊网络模型的输入,经过迭代优化网络参数获得训练好的加性间距胶囊网络模型;
步骤4:判断待分类音频样本的时长并进行裁剪至符合要求,使用对数Mel滤波器对裁剪好的待分类音频进行滤波,将滤波后的待分类音频输入训练好的加性间距胶囊网络模型进行分类。
2.根据权利要求1所述的一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:所述步骤1中样本对的构建方法如下:
1.1判断音频样本的时长是否符合设定值,时长不足设定值的予以补全至设定值,时长超过设定值的予以裁剪至设定值;
1.2对符合时长要求的音频样本进行STFT变换;
1.3使用Mel对数滤波器对STFT变换后的音频样本进行滤波;
1.4将滤波后的音频样本从幅度单位转换为分贝单位,获得输入样本;
1.5处理输入标签,将标签值转换为向量,得到向量化标签编码;
1.6将1.4中获得的输入样本与1.5中获得的标签编码组成样本对进行保存。
3.根据权利要求1或2所述的一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:所述步骤2中加性间距胶囊网络模型的构建方法如下:
2.1使用VGG16网络进行特征提取,使用胶囊网络作为特征整合器,对胶囊层各个参数进行初始化,添加权重变量并计算胶囊单元的预测输出值;
2.2判断是否达到迭代次数,若否进入2.3,若是则进入2.4;
2.3计算胶囊单元分类概率分布,根据分类概率分布计算出胶囊单元的输出向量并激活,最后更新胶囊权重关系矩阵;
2.4输出归一化后的胶囊单元向量;
2.5定义Transition层的权重参数,利用2.4中输出的胶囊单元向量计算出分类向量;
2.6定义权重参数矩阵,并设置每行向量的模为1;
2.7计算分类向量与权重参数矩阵的内积,然后计算加性间距损失。
4.根据权利要求3所述的一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:
所述2.1中,添加胶囊网络层,并设置输入长度、输出长度、迭代次数参数,添加权重变量Wij,其中i代表当前层l胶囊单元索引,j代表层(l+1)胶囊单元索引,初始化胶囊单元第i层与第j层间的连接权重矩阵bij为0;计算输入胶囊单元ui与权重变量Wij的预测输出值为
Figure FDA0002282012070000021
所述2.3中,对于层l的所有胶囊单元i,计算分类概率分布为ci=softmax(bij),对于层(l+1)的所有胶囊单元j,计算经过概率分布ci加权后的胶囊单元输出为
Figure FDA0002282012070000022
对于层(l+1)的所有胶囊单元j,计算归一化的胶囊单元输出vj=squash(sj),其中
Figure FDA0002282012070000023
更新胶囊单元第i层与第j层间的胶囊权重关系矩阵为
Figure FDA0002282012070000024
所述2.5中,定义Transition层的权重参数T,并利用2.4的输出归一化后的胶囊单元向量计算出分类向量
Figure FDA0002282012070000031
所述2.7中,定义权重参数矩阵为w,计算分类向量fj与权重参数矩阵w的内积为cos(θj)=wTfj,其中θj表示分类向量fj与权重参数矩阵的转置wT的夹角,加性间距损失Lams计算如下:
Figure FDA0002282012070000032
其中s为比例参数,m为间距参数,yi为该样本正确标签,cos(θyi)表示类向量fyi与权重参数矩阵的转置wT的夹角余弦值。
5.根据权利要求4所述的一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:所述步骤3中,加性间距胶囊网络模型的训练方法如下:
随机初始化网络权重,设置学习率α、迭代次数iter,输入样本对,根据公式1计算出加性间距损失Lams,使用梯度下降法,利用损失Lams优化模型权重参数,更新迭代次数,判断迭代次数是否大于设定的迭代次数iter,若大于则输出训练好的加性间距胶囊网络参数模型,若小于则重新迭代训练。
6.根据权利要求5所述的一种基于加性间距胶囊网络的家庭活动声音事件分类方法,其特征在于:所述步骤4中,待分类音频样本处理方法如下:
4.1判断待分类音频样本的时长是否符合设定值,时长不足设定值的予以补全至设定值,时长超过设定值的予以裁剪至设定值;
4.2对符合时长要求的待分类音频样本进行STFT变换;
4.3使用Mel对数滤波器对STFT变换后的待分类音频样本进行滤波;
4.4将滤波后的待分类音频样本从幅度单位转换为分贝单位,获得输入样本;
4.5将4.4获得的输入样本输入至训练好的加性间距胶囊网络参数模型计算内积cos(θj)=wTfj,找到最大内积值的索引即为该分类音频样本的分类类别。
CN201911145336.6A 2019-11-21 2019-11-21 一种基于加性间距胶囊网络的家庭活动声音事件分类方法 Active CN110968729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911145336.6A CN110968729B (zh) 2019-11-21 2019-11-21 一种基于加性间距胶囊网络的家庭活动声音事件分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911145336.6A CN110968729B (zh) 2019-11-21 2019-11-21 一种基于加性间距胶囊网络的家庭活动声音事件分类方法

Publications (2)

Publication Number Publication Date
CN110968729A true CN110968729A (zh) 2020-04-07
CN110968729B CN110968729B (zh) 2022-05-17

Family

ID=70031140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911145336.6A Active CN110968729B (zh) 2019-11-21 2019-11-21 一种基于加性间距胶囊网络的家庭活动声音事件分类方法

Country Status (1)

Country Link
CN (1) CN110968729B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112599134A (zh) * 2020-12-02 2021-04-02 国网安徽省电力有限公司 一种基于声纹识别的变压器声音事件检测方法
CN113012714A (zh) * 2021-02-22 2021-06-22 哈尔滨工程大学 基于像素注意力机制胶囊网络模型的声学事件检测方法
CN113672759A (zh) * 2021-08-19 2021-11-19 浙江远图互联科技股份有限公司 一种居家老人安全防护监控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110123624A1 (en) * 2009-11-25 2011-05-26 Michael Zasloff Formulations comprising aminosterols
CN109410917A (zh) * 2018-09-26 2019-03-01 河海大学常州校区 基于改进型胶囊网络的语音数据分类方法
CN109523994A (zh) * 2018-11-13 2019-03-26 四川大学 一种基于胶囊神经网络的多任务语音分类方法
CN109800817A (zh) * 2019-01-25 2019-05-24 西安电子科技大学 基于融合语义神经网络的图像分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110123624A1 (en) * 2009-11-25 2011-05-26 Michael Zasloff Formulations comprising aminosterols
CN109410917A (zh) * 2018-09-26 2019-03-01 河海大学常州校区 基于改进型胶囊网络的语音数据分类方法
CN109523994A (zh) * 2018-11-13 2019-03-26 四川大学 一种基于胶囊神经网络的多任务语音分类方法
CN109800817A (zh) * 2019-01-25 2019-05-24 西安电子科技大学 基于融合语义神经网络的图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈爱武: "基于家庭环境的异常音频事件检测方法", 《湖南科技学院学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112599134A (zh) * 2020-12-02 2021-04-02 国网安徽省电力有限公司 一种基于声纹识别的变压器声音事件检测方法
CN113012714A (zh) * 2021-02-22 2021-06-22 哈尔滨工程大学 基于像素注意力机制胶囊网络模型的声学事件检测方法
CN113012714B (zh) * 2021-02-22 2022-08-02 哈尔滨工程大学 基于像素注意力机制胶囊网络模型的声学事件检测方法
CN113672759A (zh) * 2021-08-19 2021-11-19 浙江远图互联科技股份有限公司 一种居家老人安全防护监控系统

Also Published As

Publication number Publication date
CN110968729B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN110968729B (zh) 一种基于加性间距胶囊网络的家庭活动声音事件分类方法
CN109410917B (zh) 基于改进型胶囊网络的语音数据分类方法
CN106874833B (zh) 一种振动事件的模式识别方法
CN110010248B (zh) 一种基于代价敏感集成学习模型的再入院风险预测方法
CN111859010B (zh) 一种基于深度互信息最大化的半监督音频事件识别方法
WO2016155047A1 (zh) 低信噪比声场景下声音事件的识别方法
CN112183747A (zh) 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112699998B (zh) 一种时间序列预测方法、装置、电子设备及可读存储介质
CN111951824A (zh) 一种基于声音判别抑郁症的检测方法
CN113221673B (zh) 基于多尺度特征聚集的说话人认证方法及系统
CN109658921A (zh) 一种语音信号处理方法、设备及计算机可读存储介质
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及系统
CN109002529B (zh) 音频检索方法及装置
TWI667576B (zh) 機器學習方法及機器學習裝置
CN113035241A (zh) 多特征融合识别婴儿哭声类别的方法、装置及设备
CN109003677A (zh) 病历数据结构化分析处理方法
CN110675879B (zh) 基于大数据的音频评估方法、系统、设备及存储介质
CN112183582A (zh) 一种多特征融合的水下目标识别方法
CN111262637A (zh) 一种基于Wi-Fi信道状态信息CSI的人体行为识别方法
CN112466284B (zh) 一种口罩语音鉴别方法
Xie et al. High accuracy individual identification model of crested ibis (Nipponia Nippon) based on autoencoder with self-attention
CN109829040A (zh) 一种智能对话方法及装置
WO2021179198A1 (zh) 图像特征可视化方法、图像特征可视化装置及电子设备
CN114898775B (zh) 一种基于跨层交叉融合的语音情绪识别方法及系统
CN115954019A (zh) 一种融合自注意力和卷积操作的环境噪声识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant