CN109243486A - 一种基于机器学习的反黑飞声探测方法 - Google Patents

一种基于机器学习的反黑飞声探测方法 Download PDF

Info

Publication number
CN109243486A
CN109243486A CN201811070678.1A CN201811070678A CN109243486A CN 109243486 A CN109243486 A CN 109243486A CN 201811070678 A CN201811070678 A CN 201811070678A CN 109243486 A CN109243486 A CN 109243486A
Authority
CN
China
Prior art keywords
signal
frame
frequency
mel
voice signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811070678.1A
Other languages
English (en)
Inventor
韦娟
王立宏
郑伟哲
宁方立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Xidian University
Original Assignee
Northwestern Polytechnical University
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University, Xidian University filed Critical Northwestern Polytechnical University
Priority to CN201811070678.1A priority Critical patent/CN109243486A/zh
Publication of CN109243486A publication Critical patent/CN109243486A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明提出一种基于机器学习的反黑飞声探测方法,采集包含无人机噪声信号以及不存在无人机的环境噪声信号的训练样本;之后对训练样本进行以下处理:对声音信号进行分帧,将若干个采样点作为一帧信号;计算每帧信号的短时平均能量、短时平均过零率、线性编码预测系数及其反射系数;并使用改进的梅尔频率倒谱系数方法计算每帧信号新的梅尔频率倒谱系数,最后将所有计算值组成一维特征向量;利用样本训练集,对多层感知机进行训练,获得最优模型;在获得新的声音信号后,采用与上面相同的处理方式得到特征向量,利用特征向量输入最优模型进行分类识别,得到识别结果。本发明经过测试样本测试,在距离为150米的条件下,测试准确率F1值要比现有技术高7%。

Description

一种基于机器学习的反黑飞声探测方法
技术领域
本发明涉及民用无人机安防领域,具体为一种基于机器学习的反黑飞声探测方法。
背景技术
民用四旋翼无人机具有机动灵活的特点,一方面方便人们的生产生活,但另一方面,一些不法份子利用无人机的隐蔽性好的特点,制造“黑飞”事件,严重危害了公共安全。因此,如何管控无人机成为安防部门重要的研究方向。对“黑飞”事件目标的管控主要分为三大步骤:先探测,后识别,最后控制。因此探测是否存在“黑飞”现象,是无人机管控的第一步。
无人机依靠螺旋桨扰动空气实现飞行或者悬停,持续向周围空间辐射声波信号,通过监测无人机声音信号,可以判断空域内是否存在“黑飞”。因此,利用声学方法实现对无人机的检测可以作为一种探测方式且该方法具有全天候实时检测的特点。
首先,无人机飞行时产生的噪声信号仍处于人耳可听声的频段(20Hz-20000Hz)(图1所示),现有的利用声学技术对无人机进行检测均采用与语音识别类似的方法,但是无人机飞行时产生的噪声信号处于人耳可听的高频段,在特征处理方面,采用传统的语音识别特征(如梅尔频率倒谱系数),不能够很好的表征无人机飞行时产生的噪声信号在高频段的信息。其次,声波能量衰减快,如何提高在远距离的探测准确率也是研究方向之一。2017年,Sungho Jeon等人在EUSIPCO会议上发表的论文《Empirical Study of Drone SoundDetection in Real-Life Environment with Deep Neural Networks》中提到,在150米的距离上,该文章中所采用传统的梅尔频率倒谱系数作为特征结合深度学习方法,准确率F1的值最优可达到0.69,由此可以看出,在150m的距离上,识别准确率有待进一步提高。
发明内容
本发明的目的在于克服传统的梅尔频率倒谱系数难以全面表征无人机飞行时的高频段噪声信号以及使用声学方法探测无人机在150m的距离处准确率不高的问题。为此,本发明提出了一种基于机器学习的反黑飞声探测方法,与2017年Sungho Jeon等人在EUSIPCO会议上发表的论文《Empirical Study of Drone Sound Detection in Real-LifeEnvironment with Deep Neural Networks》结果相比,在150米的距离,本方法F1值高出8%,接近77%。
为了实现上述发明目的,本发明第一步采集包含无人机噪声信号以及不存在无人机的环境噪声信号的训练样本;之后对训练样本进行以下处理:对声音信号进行分帧,将若干个采样点作为一帧信号;计算每帧信号的短时平均能量、短时平均过零率、线性编码预测系数及其反射系数;并使用改进的梅尔频率倒谱系数方法计算每帧信号新的梅尔频率倒谱系数,最后将所有计算值组成一维特征向量,作为该帧信号的表征向量;利用样本训练集,对多层感知机进行训练,获得最优模型;在获得新的声音信号后,采用与上面相同的处理方式得到表征向量,利用表征向量输入最优模型进行分类识别,得到识别结果。
本发明的技术方案为:
所述一种基于机器学习的反黑飞声探测方法,其特征在于:包括以下步骤:
步骤1:分别采集无人机噪声信号以及没有无人机存在的环境声音信号作为声音样本信号;对每个声音样本信号采用以下步骤进行处理:
步骤1.1:对每个声音样本信号进行分帧加窗处理;
步骤1.2:对每一帧声音信号,分别计算短时平均能量E(i)、短时平均过零率Z(i)、线性编码预测系数a(i)以及反射系数k(i);i表示第i帧声音信号;
步骤1.3:采用以下过程计算每一帧声音信号的梅尔频率倒谱系数,其中第i帧声音信号的梅尔频率倒谱系数记为mfcc(i):
步骤1.3.1:对第i帧信号进行傅里叶变换:
Xi(f)=FFT[yi]
其中yi表示第i帧声音信号,Xi(f)傅里叶变换后的信号,Xi(f)中包括J个频点,fj为第i帧信号中的第j个实际频率,j=1,2,…,J;
步骤1.3.2:计算第i帧信号中第j个实际频率的线谱能量Eni(fj):
Eni(fj)=|Xi(fj)|2
步骤1.3.3:计算第i帧信号中每个实际频率对应的梅尔频率:
fj表示第i帧信号中的第j个实际频率,Fnew,j表示第i帧信号中第j个实际频率的梅尔频率;
步骤1.3.4:计算每个梅尔频率滤波器对第i帧信号中每个实际频率的频率响应函数,其中第m个梅尔频率滤波器针对第i帧信号中第j个实际频率的频率响应函数为Hm(fj):
M表示梅尔频率滤波器的个数,f(m)表示第m个滤波器的中心频率:
步骤1.3.5:计算第i帧信号通过梅尔频率滤波器组的能量
步骤1.3.6:计算梅尔频率倒谱系数,其中第i帧的梅尔频率倒谱系数mfcc(i)的第k个系数为
步骤1.4:将第i帧信号的E(i),Z(i),a(i),k(i),mfcc(i)组合成为一维特征向量作为第i帧信号的特征向量;
步骤1.5:重复步骤1.2~步骤1.4,得到声音样本信号中每一帧声音信号的特征向量;
步骤2:对于每个声音样本信号,根据该声音样本信号中是否存在无人机信号,给其中每一帧声音信号的特征向量加上对应标签,从而构建训练样本集;
步骤3:利用步骤2得到的训练样本集对多层感知机进行训练,得到最优模型;
步骤4:采集一段新的声音信号,并根据步骤1.1~步骤1.5的处理方法得到新的声音信号中每一帧信号的特征向量,将每一帧信号的特征向量输入最优模型,输出判断是否存在无人机的结果。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.3.4中,梅尔频率滤波器的个数M不小于26。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.1中对每个声音样本信号进行分帧加窗处理时,以200个采样点为一帧。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.2中,采用自相关法计算第i帧声音信号的线性编码预测系数a(i)以及反射系数k(i),且使用自相关法进行计算时采用的线性预测器的个数p为16。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤3中多层感知机采用双隐层并且双隐层的神经元个数为200和150,学习率为0.01。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:计算短时平均能量E(i)过程为:
根据公式
计算第i帧声音信号的短时平均能量E(i),其中yi(n)表示第i帧声音信号中的第n个采样点,L为每一帧声音信号中的采样点数。
进一步的优选方案,所述一种基于机器学习的反黑飞声探测方法,其特征在于:计算短时平均过零率Z(i)过程为:
根据公式
计算第i帧声音信号的短时平均过零率Z(i),其中sgn[·]是符号函数。
有益效果
本发明是基于机器学习的反“黑飞”声探测方法,采用多种声音特征组合成新的特征向量,特别是改进的梅尔频率倒谱系数相比于传统的梅尔频率倒谱系数能够更好的表达无人机噪声信号的特点(如图3所示),最后使用机器学习中的多层感知机(MLP)作为分类器。与2017年Sungho Jeon等人在EUSIPCO会议上发表的论文《Empirical Study of DroneSound Detection in Real-Life Environment with Deep Neural Networks》相比,由于选择提取的特征方法针对的是人耳可听声高频段的信息,同时提取的声音特征充分,因此,对无人机声音信号有非常好的表征,使得最后的准确率得以提高。经过测试检验,在150米的距离,本方法的F1值(准确率)相比论文中所提出的方法高出8%。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为无人机声音信号在150米处的声压级示意图;
图2为本发明基于声音探测的反“黑飞”方法框架图;
图3为本发明的梅尔滤波器组的频率响应曲线与传统的梅尔滤波器组的频率响应曲线;
图4为本发明的测试结果与现有技术结果对比图。
具体实施方式
下面详细描述本发明的实施例,所述实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
参照图2,本实施例中的一种基于机器学习的反黑飞声探测方法,包括以下步骤:
步骤1:分别采集无人机噪声信号以及没有无人机存在的环境声音信号作为声音样本信号;对每个声音样本信号采用以下步骤进行处理:
步骤1.1:对每个声音样本信号进行分帧加窗处理,以200个采样点为一帧,使用汉明窗进行加窗。
步骤1.2:对每一帧声音信号,分别计算短时平均能量E(i)、短时平均过零率Z(i)、线性编码预测系数a(i)以及反射系数k(i);i表示第i帧声音信号。
计算短时平均能量E(i)过程为:
根据公式
计算第i帧声音信号的短时平均能量E(i),其中yi(n)表示第i帧声音信号中的第n个采样点,L为每一帧声音信号中的采样点数。
计算短时平均过零率Z(i)过程为:
根据公式
计算第i帧声音信号的短时平均过零率Z(i),其中sgn[·]是符号函数,即
采用自相关法计算第i帧声音信号的线性编码预测系数(LPC)a(i)以及反射系数k(i),且使用自相关法进行计算时采用的线性预测器的个数p为16。
步骤1.3:采用以下过程计算每一帧声音信号的梅尔频率倒谱系数,其中第i帧声音信号的梅尔频率倒谱系数记为mfcc(i):
步骤1.3.1:对第i帧信号进行傅里叶变换,从时域数据转变为频域数据:
Xi(f)=FFT[yi]
其中yi表示第i帧声音信号,Xi(f)傅里叶变换后的信号,Xi(f)中包括J个频点,fj为第i帧信号中的第j个实际频率,j=1,2,…,J;
步骤1.3.2:计算第i帧信号中第j个实际频率的线谱能量Eni(fj):
Eni(fj)=|Xi(fj)|2
步骤1.3.3:计算第i帧信号中每个实际频率对应的梅尔频率:
fj表示第i帧信号中的第j个实际频率,Fnew,j表示第i帧信号中第j个实际频率的梅尔频率;
步骤1.3.4:计算每个梅尔频率滤波器对第i帧信号中每个实际频率的频率响应函数,其中第m个梅尔频率滤波器针对第i帧信号中第j个实际频率的频率响应函数为Hm(fj):
M表示梅尔频率滤波器的个数,为了针对无人机噪声信号处于人耳可听范围的高频范围这一特点,要求梅尔频率滤波器的个数M不小于26,本实施例中取M=26;f(m)表示第m个滤波器的中心频率:
步骤1.3.5:计算第i帧信号通过梅尔频率滤波器组的能量
步骤1.3.6:计算梅尔频率倒谱系数,其中第i帧的梅尔频率倒谱系数mfcc(i)的第k个系数为
步骤1.4:将第i帧信号的E(i),Z(i),a(i),k(i),mfcc(i)组合成为一维特征向量作为第i帧信号的特征向量。
步骤1.5:重复步骤1.2~步骤1.4,得到声音样本信号中每一帧声音信号的特征向量。
步骤2:对于每个声音样本信号,根据该声音样本信号中是否存在无人机信号,给其中每一帧声音信号的特征向量加上对应标签,从而构建训练样本集。
步骤3:利用步骤2得到的训练样本集对多层感知机(MLP)进行训练,得到最优模型;多层感知机采用双隐层并且双隐层的神经元个数为200和150,学习率为0.01。
步骤4:采集一段新的声音信号,并根据步骤1.1~步骤1.5的处理方法得到新的声音信号中每一帧信号的特征向量,将每一帧信号的特征向量输入最优模型,输出判断是否存在无人机的结果。
本发明的效果可以通过以下测试作进一步说明。
1.条件:
本次测试是在CoreTMi5-3337U CPU@1.80GHz 1.80GHz 64位windows操作系统下,python3.5的运行平台上,对本方法进行训练和测试。
样本:本次实验运用实际采集到的无人机样本,无人机到麦克风的距离为150米,实验采集地点为操场,采集时间为14点-15点,采集当天天气晴,风力3级,使用的实验无人机为大疆精灵s3。其他环境声音来源于DCASE2017大赛提供的环境声音。
按照本发明提出的方法,将采集音频进行处理后,训练集样本数为50000个,测试集样本数为30000个。
2.测试内容及结果分析
图3中可以看出,相比于传统的梅尔滤波器组,改进后的梅尔滤波器组的滤波器在2000Hz以及6000Hz处分布较为密集,可以更好的表征无人机的噪声信号。
图4表示经过30000个测试样本后的测试结果,使用新的特征提取方法在最优的多层感知机的模型下能够获得接近77%的准确率。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (7)

1.一种基于机器学习的反黑飞声探测方法,其特征在于:包括以下步骤:
步骤1:分别采集无人机噪声信号以及没有无人机存在的环境声音信号作为声音样本信号;对每个声音样本信号采用以下步骤进行处理:
步骤1.1:对每个声音样本信号进行分帧加窗处理;
步骤1.2:对每一帧声音信号,分别计算短时平均能量E(i)、短时平均过零率Z(i)、线性编码预测系数a(i)以及反射系数k(i);i表示第i帧声音信号;
步骤1.3:采用以下过程计算每一帧声音信号的梅尔频率倒谱系数,其中第i帧声音信号的梅尔频率倒谱系数记为mfcc(i):
步骤1.3.1:对第i帧信号进行傅里叶变换:
Xi(f)=FFT[yi]
其中yi表示第i帧声音信号,Xi(f)傅里叶变换后的信号,Xi(f)中包括J个频点,fj为第i帧信号中的第j个实际频率,j=1,2,…,J;
步骤1.3.2:计算第i帧信号中第j个实际频率的线谱能量Eni(fj):
Eni(fj)=|Xi(fj)|2
步骤1.3.3:计算第i帧信号中每个实际频率对应的梅尔频率:
fj表示第i帧信号中的第j个实际频率,Fnew,j表示第i帧信号中第j个实际频率的梅尔频率;
步骤1.3.4:计算每个梅尔频率滤波器对第i帧信号中每个实际频率的频率响应函数,其中第m个梅尔频率滤波器针对第i帧信号中第j个实际频率的频率响应函数为Hm(fj):
M表示梅尔频率滤波器的个数,f(m)表示第m个滤波器的中心频率:
步骤1.3.5:计算第i帧信号通过梅尔频率滤波器组的能量
步骤1.3.6:计算梅尔频率倒谱系数,其中第i帧的梅尔频率倒谱系数mfcc(i)的第k个系数为
步骤1.4:将第i帧信号的E(i),Z(i),a(i),k(i),mfcc(i)组合成为一维特征向量作为第i帧信号的特征向量;
步骤1.5:重复步骤1.2~步骤1.4,得到声音样本信号中每一帧声音信号的特征向量;
步骤2:对于每个声音样本信号,根据该声音样本信号中是否存在无人机信号,给其中每一帧声音信号的特征向量加上对应标签,从而构建训练样本集;
步骤3:利用步骤2得到的训练样本集对多层感知机进行训练,得到最优模型;
步骤4:采集一段新的声音信号,并根据步骤1.1~步骤1.5的处理方法得到新的声音信号中每一帧信号的特征向量,将每一帧信号的特征向量输入最优模型,输出判断是否存在无人机的结果。
2.根据权利要求1所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.3.4中,梅尔频率滤波器的个数M不小于26。
3.根据权利要求1或2所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.1中对每个声音样本信号进行分帧加窗处理时,以200个采样点为一帧。
4.根据权利要求3所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤1.2中,采用自相关法计算第i帧声音信号的线性编码预测系数a(i)以及反射系数k(i),且使用自相关法进行计算时采用的线性预测器的个数p为16。
5.根据权利要求3所述一种基于机器学习的反黑飞声探测方法,其特征在于:步骤3中多层感知机采用双隐层并且双隐层的神经元个数为200和150,学习率为0.01。
6.根据权利要求2所述一种基于机器学习的反黑飞声探测方法,其特征在于:计算短时平均能量E(i)过程为:
根据公式
计算第i帧声音信号的短时平均能量E(i),其中yi(n)表示第i帧声音信号中的第n个采样点,L为每一帧声音信号中的采样点数。
7.根据权利要求2所述一种基于机器学习的反黑飞声探测方法,其特征在于:计算短时平均过零率Z(i)过程为:
根据公式
计算第i帧声音信号的短时平均过零率Z(i),其中sgn[·]是符号函数。
CN201811070678.1A 2018-09-13 2018-09-13 一种基于机器学习的反黑飞声探测方法 Pending CN109243486A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811070678.1A CN109243486A (zh) 2018-09-13 2018-09-13 一种基于机器学习的反黑飞声探测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811070678.1A CN109243486A (zh) 2018-09-13 2018-09-13 一种基于机器学习的反黑飞声探测方法

Publications (1)

Publication Number Publication Date
CN109243486A true CN109243486A (zh) 2019-01-18

Family

ID=65059415

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811070678.1A Pending CN109243486A (zh) 2018-09-13 2018-09-13 一种基于机器学习的反黑飞声探测方法

Country Status (1)

Country Link
CN (1) CN109243486A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116822146A (zh) * 2023-05-23 2023-09-29 西南交通大学 一种基于多层感知机的柔性防护系统智能快速计算方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090115635A1 (en) * 2007-10-03 2009-05-07 University Of Southern California Detection and classification of running vehicles based on acoustic signatures
CN106992011A (zh) * 2017-01-25 2017-07-28 杭州电子科技大学 基于mf‑plpcc特征的工程机械声音识别方法
CN107564530A (zh) * 2017-08-18 2018-01-09 浙江大学 一种基于声纹能量特征的无人机检测方法
CN107993648A (zh) * 2017-11-27 2018-05-04 北京邮电大学 一种无人机识别方法、装置及电子设备
CN108280395A (zh) * 2017-12-22 2018-07-13 中国电子科技集团公司第三十研究所 一种对低小慢无人机飞控信号的高效识别方法
CN108399391A (zh) * 2018-03-06 2018-08-14 北京邮电大学 一种基于信号带宽特征的无人机信号识别的方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090115635A1 (en) * 2007-10-03 2009-05-07 University Of Southern California Detection and classification of running vehicles based on acoustic signatures
CN106992011A (zh) * 2017-01-25 2017-07-28 杭州电子科技大学 基于mf‑plpcc特征的工程机械声音识别方法
CN107564530A (zh) * 2017-08-18 2018-01-09 浙江大学 一种基于声纹能量特征的无人机检测方法
CN107993648A (zh) * 2017-11-27 2018-05-04 北京邮电大学 一种无人机识别方法、装置及电子设备
CN108280395A (zh) * 2017-12-22 2018-07-13 中国电子科技集团公司第三十研究所 一种对低小慢无人机飞控信号的高效识别方法
CN108399391A (zh) * 2018-03-06 2018-08-14 北京邮电大学 一种基于信号带宽特征的无人机信号识别的方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116822146A (zh) * 2023-05-23 2023-09-29 西南交通大学 一种基于多层感知机的柔性防护系统智能快速计算方法
CN116822146B (zh) * 2023-05-23 2024-01-30 西南交通大学 一种基于多层感知机的柔性防护系统智能快速计算方法

Similar Documents

Publication Publication Date Title
CN106057212B (zh) 基于语音个性特征和模型自适应的驾驶疲劳检测方法
CN102163427B (zh) 一种基于环境模型的音频异常事件检测方法
US7502736B2 (en) Voice registration method and system, and voice recognition method and system based on voice registration method and system
CN105206270A (zh) 一种组合pca和rbm的孤立数字语音识别分类系统及方法
CN106992011A (zh) 基于mf‑plpcc特征的工程机械声音识别方法
CN110428843A (zh) 一种语音性别识别深度学习方法
CN108922541A (zh) 基于dtw和gmm模型的多维特征参数声纹识别方法
CN113566948A (zh) 机器人化煤机故障音频识别及诊断方法
CN112435686A (zh) 一种基于数据增强的电力设备故障声音识别方法
CN109961794A (zh) 一种基于模型聚类的分层说话人识别方法
CN113823293B (zh) 一种基于语音增强的说话人识别方法及系统
CN112397074A (zh) 基于mfcc和向量元学习的声纹识别方法
WO2018095167A1 (zh) 声纹识别方法和声纹识别系统
CN105825857A (zh) 基于声纹识别帮助失聪患者判断声音类别的方法
CN116741148A (zh) 一种基于数字孪生的语音识别系统
CN111524520A (zh) 一种基于误差逆向传播神经网络的声纹识别方法
Chamoli et al. Detection of emotion in analysis of speech using linear predictive coding techniques (LPC)
CN109243486A (zh) 一种基于机器学习的反黑飞声探测方法
CN111785262B (zh) 一种基于残差网络及融合特征的说话人年龄性别分类方法
Goh et al. Robust computer voice recognition using improved MFCC algorithm
CN206781702U (zh) 一种基于量子神经网络的语音识别汽车防盗系统
CN110415707B (zh) 一种基于语音特征融合和gmm的说话人识别方法
Ranjan Speaker Recognition and Performance Comparison based on Machine Learning
CN116246661A (zh) 一种基于神经网络多特征融合的托辊异常识别方法
Ma et al. A percussion method with attention mechanism and feature aggregation for detecting internal cavities in timber

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190118

RJ01 Rejection of invention patent application after publication