CN114882906A - 一种新型环境噪声识别方法及系统 - Google Patents

一种新型环境噪声识别方法及系统 Download PDF

Info

Publication number
CN114882906A
CN114882906A CN202210755872.3A CN202210755872A CN114882906A CN 114882906 A CN114882906 A CN 114882906A CN 202210755872 A CN202210755872 A CN 202210755872A CN 114882906 A CN114882906 A CN 114882906A
Authority
CN
China
Prior art keywords
environmental noise
voiceprint
time sequence
module
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210755872.3A
Other languages
English (en)
Inventor
袁文怡
陈炳辉
王弘越
陈铭生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Fuxi Intelligent Technology Co ltd
Original Assignee
Guangzhou Fuxi Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Fuxi Intelligent Technology Co ltd filed Critical Guangzhou Fuxi Intelligent Technology Co ltd
Priority to CN202210755872.3A priority Critical patent/CN114882906A/zh
Publication of CN114882906A publication Critical patent/CN114882906A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H17/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种新型环境噪声识别方法及系统,方法包括构建声纹时序双通道识别模型,所述声纹时序双通道识别模型输入为环境噪声,所述声纹时序双通道识别模型的输出为环境噪声类别,采集待识别的环境噪声,将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别,声纹时序双通道识别模型输出该待识别环境噪声的类别;通过构建声纹时序双通道识别模型,能够识别出环境噪声的声纹特征和时序特征,从而依据声纹特征和时序特征准确识别出环境噪声的类别,大大提高环境噪声的识别准确率和效率,进而解决了现有技术无法准确识别环境噪声的类别的缺陷。

Description

一种新型环境噪声识别方法及系统
技术领域
本发明涉及环境噪声识别技术领域,尤其涉及一种新型环境噪声识别方法及系统。
背景技术
噪声是音高和音强变化混乱、听起来不谐和的声音,是由发音体不规则的振动产生的,从物理学的角度来看:噪声是发声体做无规则振动时发出的声音;噪声 是一类引起人烦躁、或音量过强而危害人体健康的声音,环境噪声污染主要来源于交通运输、车辆鸣笛、工业噪音、建筑施工、社会噪音如音乐厅、高音喇叭、早市和人的大声说话等,为了能够有效防治环境噪声,一般需要对环境噪声进行识别,而现有环境噪声检测方法局限于获得原始音频录音和测得的瞬间声强或一段时间内的平均声强,无法准确识别环境噪声的类别,导致无法有效对环境噪声进行防治。
发明内容
有鉴于此,本发明提出一种新型环境噪声识别方法及系统,可以解决现有环境噪声检测方法所存在的无法准确识别环境噪声的类别的缺陷。
本发明的技术方案是这样实现的:
一种新型环境噪声识别方法,具体包括以下步骤:
步骤S1,构建声纹时序双通道识别模型,所述声纹时序双通道识别模型输入为环境噪声,所述声纹时序双通道识别模型的输出为环境噪声类别;
步骤S2,采集待识别的环境噪声;
步骤S3,将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
步骤S4,声纹时序双通道识别模型输出该待识别环境噪声的类别。
作为所述新型环境噪声识别方法的进一步可选方案,所述构建声纹时序双通道识别模型包括训练阶段和测试阶段。
作为所述新型环境噪声识别方法的进一步可选方案,所述训练阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
将训练样本输入神经网络模型中进行训练,得到初始的声纹时序双通道识别模型。
作为所述新型环境噪声识别方法的进一步可选方案,所述对环境噪声进行预处理,具体包括以下步骤:
对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
对分帧处理后的环境噪声进行加窗处理,从而实现环境噪声的预处理。
作为所述新型环境噪声识别方法的进一步可选方案,所述神经网络模型包括CNN神经网络模型和LSTM神经网络模型。
作为所述新型环境噪声识别方法的进一步可选方案,所述测试阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别。
一种新型环境噪声识别系统,所述系统包括:
构建模块,用于构建声纹时序双通道识别模型;
第一采集模块,用于采集待识别的环境噪声;
输入模块,用于将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
输出模块,用于声纹时序双通道识别模型输出该待识别环境噪声的类别。
作为所述新型环境噪声识别系统的进一步可选方案,所述构建模块包括训练模块和测试模块,所述训练模块包括:
第二采集模块,用于采集环境噪声;
第一预处理模块,用于对环境噪声进行预处理;
第一特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
神经网络模型,用于将训练样本输入神经网络中进行训练,得到初始的声纹时序双通道识别模型。
作为所述新型环境噪声识别系统的进一步可选方案,所述预处理模块包括:
预加重模块,用于对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
分帧模块,用于对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
加窗模块,用于对分帧处理后的环境噪声进行加窗处理。
作为所述新型环境噪声识别系统的进一步可选方案,所述测试模块包括:
第三采集模块,用于采集环境噪声;
第二预处理模块,用于对环境噪声进行预处理;
第二特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
检验模块,用于将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别进行检验。
本发明的有益效果是:通过构建声纹时序双通道识别模型,能够识别出环境噪声的声纹特征和时序特征,从而依据声纹特征和时序特征准确识别出环境噪声的类别,大大提高环境噪声的识别准确率和效率,进而解决了现有技术无法准确识别环境噪声的类别的缺陷。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种新型环境噪声识别方法的流程示意图;
图2为本发明一种新型环境噪声识别系统的组成图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
参考图1-2,一种新型环境噪声识别方法,具体包括以下步骤:
步骤S1,构建声纹时序双通道识别模型,所述声纹时序双通道识别模型输入为环境噪声,所述声纹时序双通道识别模型的输出为环境噪声类别;
步骤S2,采集待识别的环境噪声;
步骤S3,将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
步骤S4,声纹时序双通道识别模型输出该待识别环境噪声的类别。
在本实施例中,通过构建声纹时序双通道识别模型,能够识别出环境噪声的声纹特征和时序特征,从而依据声纹特征和时序特征准确识别出环境噪声的类别,大大提高环境噪声的识别准确率和效率,进而解决了现有技术无法准确识别环境噪声的类别的缺陷。
优选的,所述构建声纹时序双通道识别模型包括训练阶段和测试阶段。
优选的,所述训练阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
将训练样本输入神经网络模型中进行训练,得到初始的声纹时序双通道识别模型。
优选的,所述对环境噪声进行预处理,具体包括以下步骤:
对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
对分帧处理后的环境噪声进行加窗处理,从而实现环境噪声的预处理。
在本实施例中,通过麦克风采集的环境噪声信号,对环境噪声信号进行预加重、分帧和加窗处理,得到加窗处理后的环境噪声,对加窗处理后的环境噪声进行短时傅里叶变换,然后计算每一帧信号的能量谱,并在能量谱上应用Mel滤波器组,提取到声纹特征和时序特征,最后将声纹特征和时序特征绘制成图作为特征数据,输入神经网络模型进行训练。
优选的,所述神经网络模型包括CNN神经网络模型和LSTM神经网络模型。
在本实施例中,初始的声纹时序双通道识别模型具体处理流程为:CNN神经网络模型用于提取环境噪声的声纹特征,LSTM神经网络模型用于提取环境噪声的时序特征,通过加权运算将CNN神经网络模型输出结果和LSTM神经网络模型输出结果进行融合,即将两个神经网络模型得到的特征进行加权融合,形成具备声纹和时序特性的新的特征,最后将得到的新特征通过softmax分类器进行分类,输出的结果即为该环境噪声的类别;需要说明的是,声纹时序双通道识别模型的结构主要由两层卷积-池化层、一层LSTM层和两层全连接层组成。
优选的,所述测试阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别。
在本实施例中,通过测试样本对初始的声纹时序双通道识别模型进行检验,能够有效优化初始的声纹时序双通道识别模型,从而有效保证构建出来的声纹时序双通道识别模型的准确率。
一种新型环境噪声识别系统,所述系统包括:
构建模块,用于构建声纹时序双通道识别模型;
第一采集模块,用于采集待识别的环境噪声;
输入模块,用于将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
输出模块,用于声纹时序双通道识别模型输出该待识别环境噪声的类别。
在本实施例中,通过构建声纹时序双通道识别模型,能够识别出环境噪声的声纹特征和时序特征,从而依据声纹特征和时序特征准确识别出环境噪声的类别,大大提高环境噪声的识别准确率和效率,进而解决了现有技术无法准确识别环境噪声的类别的缺陷。
优选的,所述构建模块包括训练模块和测试模块,所述训练模块包括:
第二采集模块,用于采集环境噪声;
第一预处理模块,用于对环境噪声进行预处理;
第一特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
神经网络模型,用于将训练样本输入神经网络中进行训练,得到初始的声纹时序双通道识别模型。
优选的,所述预处理模块包括:
预加重模块,用于对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
分帧模块,用于对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
加窗模块,用于对分帧处理后的环境噪声进行加窗处理。
在本实施例中,通过麦克风采集的环境噪声信号,对环境噪声信号进行预加重、分帧和加窗处理,得到加窗处理后的环境噪声,对加窗处理后的环境噪声进行短时傅里叶变换,然后计算每一帧信号的能量谱,并在能量谱上应用Mel滤波器组,提取到声纹特征和时序特征,最后将声纹特征和时序特征绘制成图作为特征数据,输入神经网络模型进行训练。
优选的,所述测试模块包括:
第三采集模块,用于采集环境噪声;
第二预处理模块,用于对环境噪声进行预处理;
第二特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
检验模块,用于将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别进行检验。
在本实施例中,通过测试样本对初始的声纹时序双通道识别模型进行检验,能够有效优化初始的声纹时序双通道识别模型,从而有效保证构建出来的声纹时序双通道识别模型的准确率。
以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种新型环境噪声识别方法,其特征在于,具体包括以下步骤:
步骤S1,构建声纹时序双通道识别模型,所述声纹时序双通道识别模型输入为环境噪声,所述声纹时序双通道识别模型的输出为环境噪声类别;
步骤S2,采集待识别的环境噪声;
步骤S3,将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
步骤S4,声纹时序双通道识别模型输出该待识别环境噪声的类别。
2.根据权利要求1所述的一种新型环境噪声识别方法,其特征在于,所述构建声纹时序双通道识别模型包括训练阶段和测试阶段。
3.根据权利要求2所述的一种新型环境噪声识别方法,其特征在于,所述训练阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
将训练样本输入神经网络模型中进行训练,得到初始的声纹时序双通道识别模型。
4.根据权利要求3所述的一种新型环境噪声识别方法,其特征在于,所述对环境噪声进行预处理,具体包括以下步骤:
对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
对分帧处理后的环境噪声进行加窗处理,从而实现环境噪声的预处理。
5.根据权利要求4所述的一种新型环境噪声识别方法,其特征在于,所述神经网络模型包括CNN神经网络模型和LSTM神经网络模型。
6.根据权利要求5所述的一种新型环境噪声识别方法,其特征在于,所述测试阶段具体包括以下步骤:
采集环境噪声,并对环境噪声进行预处理;
对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别。
7.一种新型环境噪声识别系统,其特征在于,所述系统包括:
构建模块,用于构建声纹时序双通道识别模型;
第一采集模块,用于采集待识别的环境噪声;
输入模块,用于将所述待识别的环境噪声输入所述声纹时序双通道识别模型中进行识别;
输出模块,用于声纹时序双通道识别模型输出该待识别环境噪声的类别。
8.根据权利要求7所述的一种新型环境噪声识别系统,其特征在于,所述构建模块包括训练模块和测试模块,所述训练模块包括:
第二采集模块,用于采集环境噪声;
第一预处理模块,用于对环境噪声进行预处理;
第一特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为训练样本;
神经网络模型,用于将训练样本输入神经网络中进行训练,得到初始的声纹时序双通道识别模型。
9.根据权利要求8所述的一种新型环境噪声识别系统,其特征在于,所述预处理模块包括:
预加重模块,用于对环境噪声进行预加重处理,得到预加重处理后的环境噪声;
分帧模块,用于对预加重处理后的环境噪声进行分帧处理,得到分帧处理后的环境噪声;
加窗模块,用于对分帧处理后的环境噪声进行加窗处理。
10.根据权利要求9所述的一种新型环境噪声识别系统,其特征在于,所述测试模块包括:
第三采集模块,用于采集环境噪声;
第二预处理模块,用于对环境噪声进行预处理;
第二特征提取模块,用于对预处理的环境噪声进行特征提取,得到环境噪声的声纹特征和时序特征作为测试样本;
检验模块,用于将测试样本输入初始的声纹时序双通道识别模型,初始的声纹时序双通道识别模型输出对应的环境噪声类别进行检验。
CN202210755872.3A 2022-06-30 2022-06-30 一种新型环境噪声识别方法及系统 Pending CN114882906A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210755872.3A CN114882906A (zh) 2022-06-30 2022-06-30 一种新型环境噪声识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210755872.3A CN114882906A (zh) 2022-06-30 2022-06-30 一种新型环境噪声识别方法及系统

Publications (1)

Publication Number Publication Date
CN114882906A true CN114882906A (zh) 2022-08-09

Family

ID=82682998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210755872.3A Pending CN114882906A (zh) 2022-06-30 2022-06-30 一种新型环境噪声识别方法及系统

Country Status (1)

Country Link
CN (1) CN114882906A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115662464A (zh) * 2022-12-29 2023-01-31 广州市云景信息科技有限公司 一种智能识别环境噪声的方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693724A (zh) * 2011-03-22 2012-09-26 张燕 一种基于神经网络的高斯混合模型的噪声分类方法
CN108447490A (zh) * 2018-02-12 2018-08-24 阿里巴巴集团控股有限公司 基于记忆性瓶颈特征的声纹识别的方法及装置
CN108922560A (zh) * 2018-05-02 2018-11-30 杭州电子科技大学 一种基于混合深度神经网络模型的城市噪声识别方法
CN109036467A (zh) * 2018-10-26 2018-12-18 南京邮电大学 基于tf-lstm的cffd提取方法、语音情感识别方法及系统
CN110322900A (zh) * 2019-06-25 2019-10-11 深圳市壹鸽科技有限公司 一种语音信号特征融合的方法
CN110348482A (zh) * 2019-06-05 2019-10-18 华东理工大学 一种基于深度模型集成架构的语音情感识别系统
CN110992987A (zh) * 2019-10-23 2020-04-10 大连东软信息学院 语音信号中针对通用特定语音的并联特征提取系统及方法
CN114154538A (zh) * 2021-11-26 2022-03-08 哈尔滨工程大学 一种基于相位编码和设备信息的工业声音异常检测系统
CN114186094A (zh) * 2021-11-01 2022-03-15 深圳市豪恩声学股份有限公司 音频场景分类方法、装置、终端设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693724A (zh) * 2011-03-22 2012-09-26 张燕 一种基于神经网络的高斯混合模型的噪声分类方法
CN108447490A (zh) * 2018-02-12 2018-08-24 阿里巴巴集团控股有限公司 基于记忆性瓶颈特征的声纹识别的方法及装置
CN108922560A (zh) * 2018-05-02 2018-11-30 杭州电子科技大学 一种基于混合深度神经网络模型的城市噪声识别方法
CN109036467A (zh) * 2018-10-26 2018-12-18 南京邮电大学 基于tf-lstm的cffd提取方法、语音情感识别方法及系统
CN110348482A (zh) * 2019-06-05 2019-10-18 华东理工大学 一种基于深度模型集成架构的语音情感识别系统
CN110322900A (zh) * 2019-06-25 2019-10-11 深圳市壹鸽科技有限公司 一种语音信号特征融合的方法
CN110992987A (zh) * 2019-10-23 2020-04-10 大连东软信息学院 语音信号中针对通用特定语音的并联特征提取系统及方法
CN114186094A (zh) * 2021-11-01 2022-03-15 深圳市豪恩声学股份有限公司 音频场景分类方法、装置、终端设备及存储介质
CN114154538A (zh) * 2021-11-26 2022-03-08 哈尔滨工程大学 一种基于相位编码和设备信息的工业声音异常检测系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
倪俊帅等: "基于深度学习的舰船辐射噪声多特征融合分类", 《声学技术》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115662464A (zh) * 2022-12-29 2023-01-31 广州市云景信息科技有限公司 一种智能识别环境噪声的方法及系统

Similar Documents

Publication Publication Date Title
Agrawal et al. Novel TEO-based Gammatone features for environmental sound classification
Venter et al. Automatic detection of African elephant (Loxodonta africana) infrasonic vocalisations from recordings
CN113823293B (zh) 一种基于语音增强的说话人识别方法及系统
CN113566948A (zh) 机器人化煤机故障音频识别及诊断方法
CN106548786A (zh) 一种音频数据的检测方法及系统
CN115081473A (zh) 一种多特征融合的制动噪声分类识别方法
CN110136746B (zh) 一种基于融合特征的加性噪声环境下手机来源识别方法
CN114882906A (zh) 一种新型环境噪声识别方法及系统
CN111489763A (zh) 一种基于gmm模型的复杂环境下说话人识别自适应方法
Murugaiya et al. Probability enhanced entropy (PEE) novel feature for improved bird sound classification
CN116746887B (zh) 一种基于音频的睡眠分期的方法、系统、终端及存储介质
CN111613243B (zh) 一种语音检测的方法及其装置
Li et al. Research on environmental sound classification algorithm based on multi-feature fusion
CN206781702U (zh) 一种基于量子神经网络的语音识别汽车防盗系统
CN110415707B (zh) 一种基于语音特征融合和gmm的说话人识别方法
CN111524520A (zh) 一种基于误差逆向传播神经网络的声纹识别方法
CN116312561A (zh) 一种电力调度系统人员声纹识别鉴权降噪和语音增强方法、系统及装置
Kaminski et al. Automatic speaker recognition using a unique personal feature vector and Gaussian Mixture Models
CN116386589A (zh) 一种基于智能手机加速度传感器的深度学习语音重建方法
CN116013276A (zh) 一种基于轻量化ecapa-tdnn神经网络的室内环境音自动分类方法
CN114724589A (zh) 语音质检的方法、装置、电子设备和存储介质
Chandra et al. Spectral-subtraction based features for speaker identification
CN113658607A (zh) 基于数据增强和卷积循环神经网络的环境声音分类方法
Tzudir et al. Low-resource dialect identification in Ao using noise robust mean Hilbert envelope coefficients
CN113327633A (zh) 基于深度神经网络模型的带噪语音端点检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220809