CN114861835A - 一种基于非对称卷积的噪声性听力损失预测系统 - Google Patents

一种基于非对称卷积的噪声性听力损失预测系统 Download PDF

Info

Publication number
CN114861835A
CN114861835A CN202210777572.5A CN202210777572A CN114861835A CN 114861835 A CN114861835 A CN 114861835A CN 202210777572 A CN202210777572 A CN 202210777572A CN 114861835 A CN114861835 A CN 114861835A
Authority
CN
China
Prior art keywords
noise
module
data
hearing loss
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210777572.5A
Other languages
English (en)
Other versions
CN114861835B (zh
Inventor
田雨
赵浩淇
周天舒
李劲松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202210777572.5A priority Critical patent/CN114861835B/zh
Publication of CN114861835A publication Critical patent/CN114861835A/zh
Application granted granted Critical
Publication of CN114861835B publication Critical patent/CN114861835B/zh
Priority to PCT/CN2023/105569 priority patent/WO2024008045A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Public Health (AREA)
  • Acoustics & Sound (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Psychiatry (AREA)
  • Epidemiology (AREA)
  • Fuzzy Systems (AREA)
  • Otolaryngology (AREA)

Abstract

本发明公开了一种基于非对称卷积的噪声性听力损失预测系统,该系统包括数据采集模块、数据预处理模块、特征提取模块和特征融合与噪声性听力损失预测模块;数据采集模块用于采集工人职业暴露的噪声数据和工人个人信息;数据预处理模块用于对工人个人信息数据进行标准化,并对噪声数据转换为二维噪声时频谱图;特征提取模块用于利用不同形状的卷积核提能量特征与时域变化特征;特征融合与噪声性听力损失预测模块将能量特征与时域变化特征进行融合并降维后,联合工人个人信息输出得到工人是否患有噪声性听力损失的预测结果。本发明使用不对称卷积核对时频谱图进行特征提取,提高噪声性听力损失预测的准确性。

Description

一种基于非对称卷积的噪声性听力损失预测系统
技术领域
本发明涉及医疗信息技术领域,尤其涉及一种基于非对称卷积的噪声性听力损失预测系统。
背景技术
听力损失是全世界所面临的重大公共健康问题,听力的受损会导致语言认知能力、理解能力以及社会适应能力的长期缺陷。复杂噪声职业暴露是引起听力损失的主要原因之一,长时间暴露在危险水平的噪声中会造成永久性的听力损伤。
噪声分为稳态噪声与非稳态噪声,当前评估噪声性听力损失的标准是国际噪声暴 露标准(ISO-1999),该标准是基于上世纪50~60年代的稳态噪声数据而建立的,因此对噪声 暴露的类型不敏感,会低估复杂噪声造成的听力损失。在稳态噪声造成的听力损失评估方 面,A计权等效声压级
Figure 728736DEST_PATH_IMAGE001
是唯一公认的指标,A计权等效声压级这一指标基于等能量假设, 主要从能量角度对噪声性听力损失进行评估,认为相同A计权等效声压级即相同能量的噪 声,对听力造成的损失也相同,使用A计权等效声压级和工时调查来评价稳态噪声所致生物 效应也得到了学术界的广泛认可。但日常职业暴露噪声多为非稳态复杂噪声,普遍存在脉 冲性或者冲击性,对于复杂噪声而言,等能量假设并不成立,相比能量相同的稳态噪声,复 杂噪声往往会对听力造成更大的损失,尤其对于峰值和能量都很高的复杂非稳态噪声,现 有的噪声性听力损失评估标准往往造成听力损失的低估,因此构建一种有效的噪声性听力 损失预测系统对于听力健康保护具有重要的意义。
由于职业噪声暴露具有普遍性,许多研究已经针对现有的噪声性听力损失评估标准容易低估复杂噪声性听力损失这一问题开展了一些工作。与本发明所申明最相近的技术方案如下:
①用峰度修正的累计噪声暴露(Kurtosis Adjusted Cumulative NoiseExposure)。基于时域结构的不同,复杂噪声造成的听力损失也不同这一结论,研究者们提出了很多对复杂噪声时域结构评估的指标,包括信号脉冲的峰值、持续时间以及脉冲之间的时间间隔等,但这样描述复杂噪声的方法在实际噪声暴露的环境下并不实用,可操作性也比较差。Qiu等[1]人采用峰度作为复杂噪声性听力损伤评估指标,峰度是信号四阶中心矩和二阶中心矩的比值,可以用来估量一个随机过程相对于高斯分布的脉冲性,高斯噪声的峰度值等于3,复杂噪声的峰度值大于3,峰度值越大表明复杂噪声的脉冲性越强,用峰度作为评估的参量能够将脉冲峰值、持续时间以及脉冲间隔等时域指标归结为一个简单的参数并且易于计算。
Zhao等[2]人在此基础上进行了更加深入的研究,通过对163名纺织厂工人以及32名钢铁厂工人的听力测试数据以及他们所处环境的噪声数据进行分析,建立了听力损伤率与累积噪声暴露之间的剂量-响应曲线,在使用峰度对累计噪声暴露这一指标进行调整以后发现高斯噪声和复杂噪声的剂量响应曲线接近于重合,这意味着经过峰度修正后的累积噪声暴露这一指标对复杂噪声和高斯噪声有着一致的评估,有潜力作为评估噪声性听力损伤的有效指标。
②基于机器学习构建噪声性听力损失预测模型。赵艳霞[3]从机器学习的角度出发,采用支持向量机(SVM)、神经网络多层感知器(MLP)、随机森林和AdaBoost算法作为评估复杂噪声造成的听力损失的备选评估方案,通过t-test单变量特征选择方法进行了特征筛选,最终选取了A计权等效声压级、C计权等效声压级以及峰度值等39个有效噪声特征参量,并从问卷数据中提取了3个个人相关特征构建最终的特征向量输入模型,通过比较得出SVM模型能够在噪声性听力损失预测任务上表现最好,获得了相比于ISO-1999标准更好的预测性能,为准确评估各种复杂噪声引起的听力损伤提供了新的思路。
与①相似的技术是基于分布统计学的,通过调整各类参数以拟合到某些数据集。当样本数量相对于模型的复杂度较大时,该方式效果较为理想,能够取得较好的评估结果,但是如果错误的选择了模型的复杂性,或所研究的系统过于复杂而无法用简单的数学公式描述,这样的方式也会产生较大的误差。同时,峰度极易受背景噪声幅度、脉冲的峰值、持续时间和发生频率以及峰度的计算窗口这四个因素影响,从而在评估噪声性听力损失的准确性上打了折扣。
与②相似的技术基于一定的先验知识,人工选取与噪声性听力损失相关的特征参量来进行输入模型的特征向量构建,其准确度依赖于人工选取的噪声性听力损失相关特征参量,对于噪声音频数据的利用程度不高。
参考文献
[1] Qiu W , Hamernik R P , Davis B . The kurtosis metric as anadjunct to energy in the prediction of trauma from continuous, nonGaussiannoise exposures[J]. Journal of the Acoustical Society of America, 2006, 120(6):3901.
[2] Zhao Y M , Qiu W , Zeng L , et al. Application of the kurtosisstatistic to the evaluation of the risk of hearing loss in workers exposed tohigh-level complex noise.[J]. Ear Hear, 2010, 31(4):527-532.
[3] 赵艳霞. 基于机器学习的复杂噪声所致听力损失预测模型研究[D]。
发明内容
本发明目的在于针对现有技术的不足,提出一种基于非对称卷积的噪声性听力损失预测系统,采用两种不对称的矩形的卷积核分别提取能量信息特征以及时域变化信息特征,融合将能量特征与时域变化信息特征以及工人个人相关特征进行联合,对噪声性听力损失进行预测。
本发明的目的是通过以下技术方案来实现的:一种基于非对称卷积的噪声性听力损失预测系统,该系统包括数据采集模块、数据预处理模块、特征提取模块和特征融合与噪声性听力损失预测模块;
所述数据采集模块用于采集工人职业暴露的噪声数据和工人个人信息;
所述数据预处理模块用于对工人个人信息数据进行标准化后输入特征融合与噪声性听力损失预测模块,并对噪声数据转换为二维噪声时频谱图输入特征提取模块;
所述特征提取模块用于基于非对称卷积核,利用不同形状的卷积核分别提取时频谱图中能量特征与时域变化特征后输入特征融合与噪声性听力损失预测模块;
所述特征融合与噪声性听力损失预测模块用于引入注意力机制模块,有选择性的加强信息量较大的特征,抑制无效特征,再将特征提取模块得到的能量特征与时域变化特征进行融合并降维后,再联合工人个人信息得到最终特征,经过全连接层和Softmax输出层得到工人是否患有噪声性听力损失的预测结果。
进一步地,所述工人个人信息包括年龄、工龄和不同频率的听力阈值信息。
进一步地,所述数据预处理模块将噪声数据矩阵化为原始数据集,并通过离散时间短时傅里叶变换得到噪声数据时频谱图。
进一步地,数据预处理模块将工人个人信息进行标准化具体如下:
Figure 128624DEST_PATH_IMAGE002
其中,其中
Figure 148533DEST_PATH_IMAGE003
为工人的年龄特征,
Figure 416703DEST_PATH_IMAGE004
为工人的工龄特征,
Figure 346613DEST_PATH_IMAGE005
为标准化后的工人年 龄特征,
Figure 42036DEST_PATH_IMAGE006
Figure 549241DEST_PATH_IMAGE003
的均值,
Figure 230889DEST_PATH_IMAGE007
Figure 139939DEST_PATH_IMAGE003
的标准差;
Figure 881631DEST_PATH_IMAGE008
为标准化后的工人工龄特征,
Figure 141711DEST_PATH_IMAGE009
Figure 486104DEST_PATH_IMAGE004
的均值,
Figure 390606DEST_PATH_IMAGE010
Figure 427832DEST_PATH_IMAGE004
的标准差。
进一步地,所述特征提取模块基于噪声对听力造成损伤的特点以及噪声时频谱图像的特征,采用非对称卷积核,分别对能量特征以及时域变化特征进行提取;横向的矩形卷积核,对于同一频率相邻时刻幅值变化更加敏感,用于提取表征时域变化的特征;对于纵向的矩形卷积核,对同一时刻相邻频率的幅值的强弱更加敏感,用于提取表征能量的特征。
进一步地,特征提取模块对输入的时频谱图像分别采用横向以及纵向的卷积核进行特征提取,分别经过两次非对称卷积,三次普通卷积,五次池化后,将得到的时域变化特征与能量特征输入特征融合与噪声性听力损失预测模块。
进一步地,所述特征融合与噪声性听力损失预测模块利用注意力机制模块, 对各个通道的关联性进行建模,首先分别对能量特征及时域变化特征的每个通道进行全局平均池化,压缩全局空间信息作为通道描述符,随后将能量特征通道描述符与时域变化特征通道描述符进行串联拼接,其后连接两个全连接层,最后通过Sigmoid函数,根据输入数据调节各通道特征的权重,从而有选择性的加强信息量较大的特征,抑制无效特征。
进一步地,将经过注意力机制模块处理后的能量特征及时域变化特征分别通过两个Flatten层展平为两个一维向量,再将两个一维向量进行串联拼接,再连接两个全连接层进行特征的降维;将降维后的输出特征与数据预处理模块得到的工人个人信息进行串联拼接,最后再通过两个全连接层和一个Softmax输出层得到工人是否患有噪声性听力损失的预测结果。
本发明的有益效果:
1. 本发明通过卷积神经网络能够对复杂问题进行准确建模,从而提高噪声性听力损失预测的准确性。
2. 本发明使用不对称卷积核对时频谱图进行特征提取,针对时频谱图的特性,采用两种不对称的矩形的卷积核分别提取能量信息特征以及时域变化信息特征,通过特征融合模块将能量特征与时域变化信息特征以及工人个人相关特征进行联合,模型表现不依赖于人工选取的噪声性听力损失相关特征参量,对原始噪声数据的利用程度也更高。
附图说明
图1为本发明提供的一种基于非对称卷积的噪声性听力损失预测系统结构示意图。
图2为本发明特征提取模块结构示意图。
图3为本发明特征融合与噪声性听力损失预测模块结构示意图。
图4为本发明实施例中提供的特征提取模块示意图。
具体实施方式
以下结合附图对本发明具体实施方式作进一步详细说明。
如图1所示,本发明提供的一种基于非对称卷积的噪声性听力损失预测系统,包括数据采集模块、数据预处理模块、特征提取模块和特征融合与噪声性听力损失预测模块。其中,数据采集模块主要用于采集工人职业暴露的噪声数据以及工人包括年龄、工龄、不同频率的听力阈值在内的个人信息;数据预处理模块用于对工人个人信息数据进行标准化后输入特征融合与噪声性听力损失预测模块,并对工人职业暴露的噪声数据利用短时傅里叶变换,将原始一维噪声数据转换为二维噪声时频谱图输入特征提取模块;特征提取模块用于基于非对称卷积核,利用不同形状的卷积核分别提取时频谱图中能量特征与时域变化特征后输入特征融合与噪声性听力损失预测模块;特征融合与噪声性听力损失预测模块用于将能量特征与时域变化特征进行融合,首先引入注意力机制模块,让网络有选择性的加强信息量大的特征,抑制无效特征,再将特征提取模块得到的能量特征与时域变化特征进行融合,通过两层全连接层进行降维,最后再联合工人个人信息数据得到最终特征,经过两层全连接层和Softmax输出层最终得到输出。下面对每一个模块进行具体说明。
所述数据采集模块用于采集工作时间内的工人职业暴露噪声数据;收集工人的个人信息数据,具体包括:工人的年龄,性别,工龄,所在工厂、工种以及工人双耳的听力阈值。
所述数据预处理模块用于将数据采集模块采集的每个样本的噪声数据矩阵化为 一维噪声数据
Figure 784996DEST_PATH_IMAGE011
,其中
Figure 933080DEST_PATH_IMAGE012
为噪声数据总点数,
Figure 551143DEST_PATH_IMAGE013
,表示 噪声数据的索引,
Figure 914865DEST_PATH_IMAGE014
代表噪声记录仪记录到的第h点数据,通过离散时间短时傅里叶变换 得到噪声数据时频谱图。通过短时傅里叶变换得到的噪声数据时频谱图也可以替换为魏纳 格-威尔分布、平滑伪魏纳格-威尔分布、崔-威廉斯分布等其他时频分析技术得到的谱图。 本发明仅以通过离散时间短时傅里叶变换得到噪声数据时频谱图来进行说明。
短时傅里叶变换(Short-Time Fourier Transform, STFT)的基本思想是采用滑动窗口函数对原始的信号进行截取,将信号分为若干子段并对每一个子段进行傅里叶分析,最后得到信号频谱与窗函数时延之间的关系,也就是信号的时间、频率二维联合分布。
对于采集到的噪声数据,离散短时傅里叶变换定义为:
Figure 883958DEST_PATH_IMAGE015
其中
Figure 570154DEST_PATH_IMAGE016
为一维噪声数据
Figure 449248DEST_PATH_IMAGE017
的离散短时傅里叶变换,q为频率轴上的采 样点,k为时间轴上的采样点,
Figure 828277DEST_PATH_IMAGE018
Figure 160032DEST_PATH_IMAGE019
为窗函数,N为窗函数长度。在数据预处理模块 模块中,原始噪声数据将进一步转化为时频谱图
Figure 649920DEST_PATH_IMAGE020
Figure 976996DEST_PATH_IMAGE021
噪声数据时频谱图表示的是频率分布与窗函数时延之间的关系,是原始噪声数据与时间相关的频谱信息的视觉表示。将得到的噪声数据时频谱图作为特征提取模块的输入。
同时,数据预处理模块将工人的个人信息数据进行标准化后作为特征融合与噪声性听力损失预测模块的输入。
数据预处理模块基于采集模块得到的工人个人信息数据
Figure 667871DEST_PATH_IMAGE022
,其中
Figure 611556DEST_PATH_IMAGE023
为工人的年龄特征;
Figure 905134DEST_PATH_IMAGE024
为工人的工龄特征;
Figure 493242DEST_PATH_IMAGE025
为工人的性别,0代表男性,1代表女性,进 行标准化如下:
Figure 948494DEST_PATH_IMAGE026
其中,
Figure 113896DEST_PATH_IMAGE027
为标准化后的工人年龄特征,
Figure 86531DEST_PATH_IMAGE028
Figure 919358DEST_PATH_IMAGE023
的均值,
Figure 686457DEST_PATH_IMAGE029
Figure 339155DEST_PATH_IMAGE023
的标准差;
Figure 974536DEST_PATH_IMAGE030
其中,
Figure 271656DEST_PATH_IMAGE031
为标准化后的工人工龄特征,
Figure 334290DEST_PATH_IMAGE032
Figure 346721DEST_PATH_IMAGE033
的均值,
Figure 51372DEST_PATH_IMAGE034
Figure 327632DEST_PATH_IMAGE035
的标准差;
所述特征提取模块用于提取能量特征以及时域变化特征;目前已有的研究已经证 明了噪声对人听力造成的损失不仅与噪声的能量有关,与噪声本身的时频域特征也有关, 同样能量的复杂噪声会比稳态噪声对人听力损伤更大。而数据预处理模块得到时频谱图
Figure 436534DEST_PATH_IMAGE036
是频率分布与窗函数时延之间的关系,从横向时间维度分析,相邻点可以反应同 一频率分量能量的变化情况,从纵向能量维度分析,相邻点可以反应同一时间窗内,不同频 率分量能量的分布情况。
基于上述噪声对听力造成损伤的特点以及噪声时频谱图像的特征,本发明采用非对称卷积核,分别对能量特征以及时域变化特征进行提取。横向的矩形卷积核,对于同一频率相邻时刻幅值变化更加敏感,可以更有效得提取表征时域变化的特征;对于纵向的矩形卷积核,对同一时刻相邻频率的幅值的强弱更加敏感,可以更加有效得提取表征能量的特征。
特征提取模块对输入的时频谱图像分别采用横向以及纵向的卷积核进行特征提取,分别经过两次非对称卷积,三次普通卷积,五次池化后,将输出的时域变化特征与能量特征输入特征融合与噪声性听力损失预测模块。
如图2所示,具体卷积神经网络结构为:
输入图像-卷积层1-池化层1-卷积层2-池化层2-卷积层3-池化层3-卷积层4-池化层4-卷积层5-池化层5-特征融合与噪声性听力损失预测模块;
输入图像-卷积层1-池化层1-卷积层2-池化层2-卷积层3-池化层3-卷积层4-池化层4-卷积层5-池化层5-特征融合与噪声性听力损失预测模块;
所述特征融合与噪声性听力损失预测模块用于融合能量特征与时域变化特征,首先利用注意力机制模块,对信息量大的特征进行加强,对无效特征进行抑制,再将特征提取模块得到的能量特征与时域变化特征进行融合、降维,最后再与工人个人信息数据进行融合,输入分类器从而得到工人是否患有听力损失的预测。
特征融合与噪声性听力损失预测模块中引入通道注意力机制构建CNN神经网络模型用于特征融合与噪声性听力损失预测:
如图3所示,首先引入通道注意力机制,对各个通道的关联性进行建模。首先分别对能量特征及时域变化特征的每个通道进行全局平均池化,压缩全局空间信息作为通道描述符,随后将能量特征通道描述符与时域变化特征通道描述符进行串联拼接,其后连接两个全连接层,最后通过Sigmoid函数,输出的就是各通道特征的权重,网络会根据输入数据调节各通道特征的权重,从而有选择性的加强信息量大的特征,抑制无效特征。将得到两组输出特征分别通过两个Flatten层展平为两个一维向量,再将两个一维向量进行串联拼接,其后连接两个全连接层进行特征的降维;将降维后的输出特征与数据预处理模块得到的工人年龄、工龄以及性别特征进行串联拼接,最后再通过两个全连接层和一个Softmax输出层得到工人是否患有听力损失的预测。
对于训练样本集
Figure 63824DEST_PATH_IMAGE037
,其中
Figure 181953DEST_PATH_IMAGE038
代表第i个样本的时 频谱图数据,
Figure 312720DEST_PATH_IMAGE039
代表第i个样本的标签,m代表样本数量。CNN神经网络模型的层数为L,对于 卷积层,填充大小为P,步幅为S,对于池化层,池化区域的大小为u,学习率为α,最大迭代次 数为Max,停止阈值为ε,权重矩阵为W,偏置项为b,则整个CNN神经网络的构建过程为:
1. 初始化各隐藏层与输出层的权重矩阵W,偏置项 b的值为一随机值。
2. 前项传播过程:对于
Figure 982736DEST_PATH_IMAGE040
,如果
Figure DEST_PATH_IMAGE041
层为卷积层或是全连接层,前项传 播过程为:
Figure 238267DEST_PATH_IMAGE042
其中,
Figure 753562DEST_PATH_IMAGE043
Figure 145361DEST_PATH_IMAGE041
Figure 720698DEST_PATH_IMAGE044
对应的张量,
Figure 197947DEST_PATH_IMAGE045
Figure 516933DEST_PATH_IMAGE041
层的权重矩阵,
Figure 887872DEST_PATH_IMAGE046
为激活函数,
Figure 509477DEST_PATH_IMAGE047
Figure 333077DEST_PATH_IMAGE041
层的 偏置项;
Figure 596699DEST_PATH_IMAGE048
代表矩阵乘法。
如果
Figure 556565DEST_PATH_IMAGE041
层为池化层,前项传播过程为:
Figure 473705DEST_PATH_IMAGE049
其中,
Figure 928476DEST_PATH_IMAGE043
Figure 589264DEST_PATH_IMAGE041
Figure 669216DEST_PATH_IMAGE044
对应的张量,
Figure 898203DEST_PATH_IMAGE050
为最大池化函数。
最终第L层的输出为:
Figure 696395DEST_PATH_IMAGE051
其中,
Figure 160874DEST_PATH_IMAGE052
为L层
Figure 970698DEST_PATH_IMAGE044
对应的张量,
Figure 760800DEST_PATH_IMAGE053
为L层的权重矩阵,
Figure 656074DEST_PATH_IMAGE047
为L层的偏置项。
3. 梯度计算过程:通过损失函数可以对输出层的梯度进行计算:
Figure 924245DEST_PATH_IMAGE054
其中,
Figure 713209DEST_PATH_IMAGE055
为第L层
Figure 549578DEST_PATH_IMAGE044
对应的梯度,
Figure 791204DEST_PATH_IMAGE056
为代价损失函 数,
Figure 738431DEST_PATH_IMAGE052
为L层
Figure 647481DEST_PATH_IMAGE044
对应的张量,
Figure 513806DEST_PATH_IMAGE057
为L层
Figure 383673DEST_PATH_IMAGE044
对应的输入,
Figure 993646DEST_PATH_IMAGE058
为激活函数的一阶导数。
对于
Figure 757203DEST_PATH_IMAGE059
,如果
Figure 669795DEST_PATH_IMAGE041
层为卷积层,反向传播过程为:
Figure 151592DEST_PATH_IMAGE060
其中,
Figure 437692DEST_PATH_IMAGE061
为第
Figure 55755DEST_PATH_IMAGE062
Figure 529462DEST_PATH_IMAGE044
对应的梯度,
Figure 108342DEST_PATH_IMAGE063
Figure 60117DEST_PATH_IMAGE064
层的权重矩阵,
Figure 798266DEST_PATH_IMAGE065
表示将矩 阵旋转180度,
Figure 787082DEST_PATH_IMAGE066
Figure 243471DEST_PATH_IMAGE062
Figure 874304DEST_PATH_IMAGE044
对应的输入,
Figure 732538DEST_PATH_IMAGE067
为激活函数的一阶导数,
Figure 282468DEST_PATH_IMAGE068
代表矩阵点乘。
如果
Figure 101520DEST_PATH_IMAGE041
层为池化层,反向传播过程为:
Figure 129519DEST_PATH_IMAGE069
其中
Figure 717626DEST_PATH_IMAGE070
为第
Figure 438457DEST_PATH_IMAGE041
Figure 869439DEST_PATH_IMAGE044
对应的梯度,
Figure 576495DEST_PATH_IMAGE071
为上采样函数,
Figure 878163DEST_PATH_IMAGE072
Figure 35475DEST_PATH_IMAGE041
Figure 829119DEST_PATH_IMAGE044
对应的 输入,
Figure 464499DEST_PATH_IMAGE073
为激活函数的一阶导数。
如果
Figure 752830DEST_PATH_IMAGE041
层为全连接层,反向传播过程为:
Figure 81044DEST_PATH_IMAGE074
其中,
Figure 955459DEST_PATH_IMAGE075
为第
Figure 535476DEST_PATH_IMAGE041
Figure 811736DEST_PATH_IMAGE044
对应的梯度,
Figure 45272DEST_PATH_IMAGE076
Figure 547928DEST_PATH_IMAGE077
层的权重矩阵,T表示转置,
Figure 259532DEST_PATH_IMAGE072
Figure 796824DEST_PATH_IMAGE041
Figure 466840DEST_PATH_IMAGE044
对应的输入,
Figure 315847DEST_PATH_IMAGE078
为激活函数的一阶导数。
4. 权重更新过程为:如果
Figure 972087DEST_PATH_IMAGE079
层为全连接层,则有:
Figure 222940DEST_PATH_IMAGE080
其中,
Figure 939223DEST_PATH_IMAGE081
Figure 275527DEST_PATH_IMAGE041
层的权重矩阵,
Figure 860092DEST_PATH_IMAGE082
为学习率,
Figure 840817DEST_PATH_IMAGE083
为第
Figure 852636DEST_PATH_IMAGE041
Figure 410656DEST_PATH_IMAGE044
对应的梯度,
Figure 674278DEST_PATH_IMAGE084
Figure 634144DEST_PATH_IMAGE085
Figure 689300DEST_PATH_IMAGE086
对应的张量,
Figure 265775DEST_PATH_IMAGE087
Figure 926564DEST_PATH_IMAGE088
层的偏置项,m为样本总个数。
如果
Figure 881881DEST_PATH_IMAGE041
层卷积层,则对于每一个卷积核有:
Figure 235502DEST_PATH_IMAGE089
其中,
Figure 909060DEST_PATH_IMAGE081
Figure 107960DEST_PATH_IMAGE041
层的权重矩阵,
Figure 307997DEST_PATH_IMAGE082
为学习率,
Figure 707886DEST_PATH_IMAGE083
为第
Figure 727794DEST_PATH_IMAGE041
Figure 136910DEST_PATH_IMAGE044
对应的梯度,
Figure 925875DEST_PATH_IMAGE084
Figure 621298DEST_PATH_IMAGE085
Figure 3869DEST_PATH_IMAGE086
对应的张量,
Figure 75730DEST_PATH_IMAGE087
Figure 860147DEST_PATH_IMAGE088
层的偏置项,m为样本总个数,
Figure 726472DEST_PATH_IMAGE090
代表梯度矩阵中元素的位 置。
5. 当所有的W, b的变化都小于阈值ε时跳出迭代循环,否则迭代至最大迭代次数Max。
针对训练集中的单个样本,首先通过数据预处理模块得到噪声时频谱图作为特征提取模块的输入,得到样本个人信息特征作为特征融合与噪声性听力损失预测模块输入,标签为样本是否患有听力损失;训练过程中采取dropout正则化和early stop方法避免数据过拟合。
训练完成后将工人通过数据预处理模块得到的特征输入训练好的模型,即可得到工人是否会患上听力损失的预测结果。
以下给出一个具体的应用场景,对本发明作进一步详细说明:为预测一批工人在工业噪声暴露环境中是否有产生听力损失的风险,使用本系统的数据采集模块通过噪声数字记录仪采集每位暴露在噪声中的工人约8小时的噪声数据和其个人信息数据;所述个人信息数据包括年龄特征、工龄特征和不同频率下(500Hz、1kHz、2kHz、3kHz、4kHz、6kHz、8kHz)的听力阈值。
使用本系统的数据预处理模块将每个样本的噪声数据矩阵化为原始数据集,短时傅里叶变换的时间窗长度设置为0.5秒,相邻两窗重叠0.25s,通过离散时间短时傅里叶变换得到噪声数据时频谱图。图片维度为1207*1207。将工人的个人信息数据进行标准化后作为特征融合与噪声性听力损失预测模块的输入。采用双耳在1kHz、2kHz、3kHz、4kHz处的平均听力阈值是否大于25dB作为是否患有听力损失的衡量标准,对没有听力损失的样本打上正例标签,对于患有听力损失的样本打上反例标签。数据预处理模块同时将数据采集模块得到的工人个人信息数据进行标准化,输入到特征融合与噪声性听力损失预测模块;
使用本系统的特征提取模块采用非对称卷积核,分别对能量特征以及时域变化特征进行提取。网络具体结构为:
输入图像-卷积层1(1*11卷积核)-池化层1-卷积层2(1*9卷积核)-池化层2-卷积层3(3*3卷积核)-池化层3-卷积层4(3*3卷积核)-池化层4-卷积层5(3*3卷积核)-池化层5-特征融合与噪声性听力损失预测模块;
输入图像-卷积层1(11*1卷积核)-池化层1-卷积层2(9*1卷积核)-池化层2-卷积层3(3*3卷积核)-池化层3-卷积层4(3*3卷积核)-池化层4-卷积层5(3*3卷积核)-池化层5-特征融合与噪声性听力损失预测模块;
图片维度变化如图4所示。
使用本系统的特征融合与噪声性听力损失预测模块对信息量大的特征进行加强,对无效特征进行抑制,再将特征提取模块得到的能量特征与时域变化特征进行融合、降维,最后再与工人个人信息数据进行融合,输入分类器从而得到工人是否患有听力损失的预测。
特征融合与噪声性听力损失预测模块中的网络模型的训练过程如下:
首先将特征提取模块提取的时域变化特征和能量特征作为特征融合与噪声性听力损失预测模块的网络模型的输入,将数据预处理模块得到的个人信息特征作为网络深层的输入,标签为样本是否患有听力损失;训练过程中采取dropout正则化和early stop方法避免数据过拟合。
将该批工人通过数据预处理模块得到的特征输入训练好的模型,即可得到工人是否会患上听力损失的预测结果。本系统预测的AUC(Area Under the Curve)可达到0.82以上,可以进行较为精准的听力损失预测。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (8)

1.一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,该系统包括数据采集模块、数据预处理模块、特征提取模块和特征融合与噪声性听力损失预测模块;
所述数据采集模块用于采集工人职业暴露的噪声数据和工人个人信息;
所述数据预处理模块用于对工人个人信息数据进行标准化后输入特征融合与噪声性听力损失预测模块,并对噪声数据转换为二维噪声时频谱图输入特征提取模块;
所述特征提取模块用于基于非对称卷积核,利用不同形状的卷积核分别提取时频谱图中能量特征与时域变化特征后输入特征融合与噪声性听力损失预测模块;
所述特征融合与噪声性听力损失预测模块用于引入注意力机制模块,有选择性的加强信息量较大的特征,抑制无效特征,再将特征提取模块得到的能量特征与时域变化特征进行融合并降维后,再联合工人个人信息得到最终特征,经过全连接层和Softmax输出层得到工人是否患有噪声性听力损失的预测结果。
2.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,所述工人个人信息包括年龄、工龄和不同频率的听力阈值信息。
3.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,所述数据预处理模块将噪声数据矩阵化为原始数据集,并通过离散时间短时傅里叶变换得到噪声数据时频谱图。
4.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,数据预处理模块将工人个人信息进行标准化具体如下:
Figure DEST_PATH_IMAGE001
其中,其中
Figure 463818DEST_PATH_IMAGE002
为工人的年龄特征,
Figure DEST_PATH_IMAGE003
为工人的工龄特征,
Figure 584221DEST_PATH_IMAGE004
为标准化后的工人年龄特征,
Figure DEST_PATH_IMAGE005
Figure 301641DEST_PATH_IMAGE002
的均值,
Figure 103375DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE007
的标准差;
Figure 855430DEST_PATH_IMAGE008
为标准化后的工人工龄特征,
Figure DEST_PATH_IMAGE009
Figure 615576DEST_PATH_IMAGE003
的均值,
Figure 413767DEST_PATH_IMAGE010
Figure 22122DEST_PATH_IMAGE003
的标准差。
5.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,所述特征提取模块基于噪声对听力造成损伤的特点以及噪声时频谱图像的特征,采用非对称卷积核,分别对能量特征以及时域变化特征进行提取;横向的矩形卷积核,对于同一频率相邻时刻幅值变化更加敏感,用于提取表征时域变化的特征;对于纵向的矩形卷积核,对同一时刻相邻频率的幅值的强弱更加敏感,用于提取表征能量的特征。
6.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,特征提取模块对输入的时频谱图像分别采用横向以及纵向的卷积核进行特征提取,分别经过两次非对称卷积,三次普通卷积,五次池化后,将得到的时域变化特征与能量特征输入特征融合与噪声性听力损失预测模块。
7.根据权利要求1所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,所述特征融合与噪声性听力损失预测模块利用注意力机制模块, 对各个通道的关联性进行建模,首先分别对能量特征及时域变化特征的每个通道进行全局平均池化,压缩全局空间信息作为通道描述符,随后将能量特征通道描述符与时域变化特征通道描述符进行串联拼接,其后连接两个全连接层,最后通过Sigmoid函数,根据输入数据调节各通道特征的权重,从而有选择性的加强信息量较大的特征,抑制无效特征。
8.根据权利要求7所述的一种基于非对称卷积的噪声性听力损失预测系统,其特征在于,将经过注意力机制模块处理后的能量特征及时域变化特征分别通过两个Flatten层展平为两个一维向量,再将两个一维向量进行串联拼接,再连接两个全连接层进行特征的降维;将降维后的输出特征与数据预处理模块得到的工人个人信息进行串联拼接,最后再通过两个全连接层和一个Softmax输出层得到工人是否患有噪声性听力损失的预测结果。
CN202210777572.5A 2022-07-04 2022-07-04 一种基于非对称卷积的噪声性听力损失预测系统 Active CN114861835B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210777572.5A CN114861835B (zh) 2022-07-04 2022-07-04 一种基于非对称卷积的噪声性听力损失预测系统
PCT/CN2023/105569 WO2024008045A1 (zh) 2022-07-04 2023-07-03 一种基于非对称卷积的噪声性听力损失预测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210777572.5A CN114861835B (zh) 2022-07-04 2022-07-04 一种基于非对称卷积的噪声性听力损失预测系统

Publications (2)

Publication Number Publication Date
CN114861835A true CN114861835A (zh) 2022-08-05
CN114861835B CN114861835B (zh) 2022-09-27

Family

ID=82626044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210777572.5A Active CN114861835B (zh) 2022-07-04 2022-07-04 一种基于非对称卷积的噪声性听力损失预测系统

Country Status (2)

Country Link
CN (1) CN114861835B (zh)
WO (1) WO2024008045A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320042A (zh) * 2023-05-16 2023-06-23 陕西思极科技有限公司 边缘计算的物联终端监测控制系统
WO2024008045A1 (zh) * 2022-07-04 2024-01-11 浙江大学 一种基于非对称卷积的噪声性听力损失预测系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180160984A1 (en) * 2016-12-13 2018-06-14 Stefan Jozef Mauger Speech production and the management/prediction of hearing loss
CN109473120A (zh) * 2018-11-14 2019-03-15 辽宁工程技术大学 一种基于卷积神经网络的异常声音信号识别方法
CN109637545A (zh) * 2019-01-17 2019-04-16 哈尔滨工程大学 基于一维卷积非对称双向长短时记忆网络的声纹识别方法
CN109767785A (zh) * 2019-03-06 2019-05-17 河北工业大学 基于卷积神经网络的环境噪声识别分类方法
CN111223564A (zh) * 2020-01-14 2020-06-02 浙江大学 一种基于卷积神经网络的噪声性听力损失预测系统
CN111584065A (zh) * 2020-04-07 2020-08-25 上海交通大学医学院附属第九人民医院 噪声性听力损失预测及易感人群筛选方法、装置、终端和介质
CN111625763A (zh) * 2020-05-27 2020-09-04 郑州航空工业管理学院 一种基于数学模型的运行风险预测方法和预测系统
CN112866694A (zh) * 2020-12-31 2021-05-28 杭州电子科技大学 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN112971776A (zh) * 2021-04-19 2021-06-18 中国人民解放军总医院第六医学中心 一种确定听力检测波形中特征波形位置的方法及装置
WO2021138603A1 (en) * 2019-12-31 2021-07-08 Starkey Laboratories, Inc. Hearing assistance device model prediction
CN114445299A (zh) * 2022-01-28 2022-05-06 南京邮电大学 一种基于注意力分配机制的双残差去噪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114861835B (zh) * 2022-07-04 2022-09-27 浙江大学 一种基于非对称卷积的噪声性听力损失预测系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180160984A1 (en) * 2016-12-13 2018-06-14 Stefan Jozef Mauger Speech production and the management/prediction of hearing loss
CN109473120A (zh) * 2018-11-14 2019-03-15 辽宁工程技术大学 一种基于卷积神经网络的异常声音信号识别方法
CN109637545A (zh) * 2019-01-17 2019-04-16 哈尔滨工程大学 基于一维卷积非对称双向长短时记忆网络的声纹识别方法
CN109767785A (zh) * 2019-03-06 2019-05-17 河北工业大学 基于卷积神经网络的环境噪声识别分类方法
WO2021138603A1 (en) * 2019-12-31 2021-07-08 Starkey Laboratories, Inc. Hearing assistance device model prediction
CN111223564A (zh) * 2020-01-14 2020-06-02 浙江大学 一种基于卷积神经网络的噪声性听力损失预测系统
CN111584065A (zh) * 2020-04-07 2020-08-25 上海交通大学医学院附属第九人民医院 噪声性听力损失预测及易感人群筛选方法、装置、终端和介质
CN111625763A (zh) * 2020-05-27 2020-09-04 郑州航空工业管理学院 一种基于数学模型的运行风险预测方法和预测系统
CN112866694A (zh) * 2020-12-31 2021-05-28 杭州电子科技大学 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN112971776A (zh) * 2021-04-19 2021-06-18 中国人民解放军总医院第六医学中心 一种确定听力检测波形中特征波形位置的方法及装置
CN114445299A (zh) * 2022-01-28 2022-05-06 南京邮电大学 一种基于注意力分配机制的双残差去噪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
SHUI-HUA WANG ET AL: "Sensorineural hearing loss identification via nine-layer convolutional neural network with batch normalization and dropout", 《MULTIMEDIA TOOLS AND APPLICATIONS》 *
YANXIA ZHAO ET AL: "Development of an automatic classifier for the prediction of hearing impairment from industrial noise exposure", 《THE JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA》 *
YANXIA ZHAO ET AL: "Machine Learning Models for the Hearing Impairment Prediction in Workers Exposed to Complex Industrial Noise: A Pilot Study", 《EAR & HEARING》 *
丁文熙: "不同峰度计算时间窗与噪声性听力损失评估的相关性分析", 《中国优秀硕士学位论文全文数据库医药卫生科技辑》 *
赵艳霞: "基于机器学习的复杂噪声所致听力损失预测模型研究", 《中国博士学位论文全文数据库医药卫生科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024008045A1 (zh) * 2022-07-04 2024-01-11 浙江大学 一种基于非对称卷积的噪声性听力损失预测系统
CN116320042A (zh) * 2023-05-16 2023-06-23 陕西思极科技有限公司 边缘计算的物联终端监测控制系统
CN116320042B (zh) * 2023-05-16 2023-08-04 陕西思极科技有限公司 边缘计算的物联终端监测控制系统

Also Published As

Publication number Publication date
WO2024008045A1 (zh) 2024-01-11
CN114861835B (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
CN114861835B (zh) 一种基于非对称卷积的噪声性听力损失预测系统
CN107657964B (zh) 基于声学特征和稀疏数学的抑郁症辅助检测方法及分类器
CN106486131B (zh) 一种语音去噪的方法及装置
CN108648748B (zh) 医院噪声环境下的声学事件检测方法
Daqrouq et al. Speaker identification using vowels features through a combined method of formants, wavelets, and neural network classifiers
CN112349297B (zh) 一种基于麦克风阵列的抑郁症检测方法
Narendra et al. Dysarthric speech classification from coded telephone speech using glottal features
CN111899757B (zh) 针对目标说话人提取的单通道语音分离方法及系统
CN111951824A (zh) 一种基于声音判别抑郁症的检测方法
CN109285551B (zh) 基于wmfcc和dnn的帕金森患者声纹识别方法
CN110931023B (zh) 性别识别方法、系统、移动终端及存储介质
CN108198576A (zh) 一种基于语音特征非负矩阵分解的阿尔茨海默症初筛方法
CN111223564A (zh) 一种基于卷积神经网络的噪声性听力损失预测系统
CN111128229A (zh) 语音分类方法、装置及计算机存储介质
CN114241599A (zh) 一种基于多模态特征的抑郁倾向测评系统和方法
CN113674767A (zh) 一种基于多模态融合的抑郁状态识别方法
CN115910097A (zh) 一种高压断路器潜伏性故障可听声信号识别方法及系统
Tanweer et al. Environmental noise classification using LDA, QDA and ANN methods
CN112466284B (zh) 一种口罩语音鉴别方法
CN112329819A (zh) 基于多网络融合的水下目标识别方法
Lin et al. A multiscale chaotic feature extraction method for speaker recognition
Ankışhan A new approach for detection of pathological voice disorders with reduced parameters
CN116895287A (zh) 一种基于shap值的抑郁症语音表型分析方法
Fraile et al. Mfcc-based remote pathology detection on speech transmitted through the telephone channel-impact of linear distortions: Band limitation, frequency response and noise
CN115116475B (zh) 一种基于时延神经网络的语音抑郁症自动检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant