CN110390949A - 基于大数据的水声目标智能识别方法 - Google Patents
基于大数据的水声目标智能识别方法 Download PDFInfo
- Publication number
- CN110390949A CN110390949A CN201910661350.5A CN201910661350A CN110390949A CN 110390949 A CN110390949 A CN 110390949A CN 201910661350 A CN201910661350 A CN 201910661350A CN 110390949 A CN110390949 A CN 110390949A
- Authority
- CN
- China
- Prior art keywords
- acoustic object
- data
- identification method
- intelligent identification
- big data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000005236 sound signal Effects 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims description 45
- 238000012360 testing method Methods 0.000 claims description 29
- 238000013473 artificial intelligence Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 11
- 150000001875 compounds Chemical class 0.000 claims description 8
- 238000009432 framing Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 5
- 230000017105 transposition Effects 0.000 claims description 5
- 238000004321 preservation Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims 1
- 230000036632 reaction speed Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明公开了一种基于大数据的水声目标智能识别方法。本发明一种基于大数据的水声目标智能识别方法,包括:第一步:采集大量的水声目标声音信号数据,所述采集大量的水声目标声音信号数据满足预设时间、预设分类数量、预设通道数量,要求目标位置变化。本发明的有益效果:1、本发明提出的基于大数据的水声目标智能识别方法直接对接收到的水声信号数据进行处理,实时性高,反应速度快。
Description
技术领域
本发明涉及水声目标识别领域,具体涉及一种基于大数据的水声目标智能识别方法。
背景技术
目前各国对海洋的消费、工业及军事地位越来越重视,都在大力地进行相关研究。我国仍处于比较落后的阶段。因此,随着我国军事自动化建设步伐的加快,对水声目标识别的研究亟待推进。
在原始的水声目标识别中,主要是根据观察员的经验和主观判断来确定目标的有无和类型,此法有一定的弊端。后来开始运用声学信号理论、现代谱理论来进行水声目标的识别,识别精度和效率有了一定的提升。但随着当前各种传感器形式的增加、各种信息量的增大、水下环境的噪声干扰的增多,水声目标识别问题又开始变得越来越复杂。因此,依靠传统的方法已不能满足当前的需要,而人工智能方法(如神经网络)对处理那些环境信息复杂、背景知识模糊的识别问题,具有明显的优越性。
现有技术参考:
1、CN201710845431一种基于机器视觉的水下目标识别方法:将水下摄像头固定在泳池底部,并且用玻璃挡板进行遮挡,当开机以后便对运行在水下的目标进行跟踪拍摄,获取的视频图像通过线路回传至监控室。监控主机获取视频后即对视频通过VS2010下的图像处理系统对图像进行处理,根据触发警报的情况适当地发出报警,提醒周边的水下救生人员对溺水的游泳者实施救援。
2、CN201810669600一种基于卷积神经网络的水下目标识别方法:通过卷积神经网络提取水下目标辐射噪声的时间-频率域的深层次特征。先建立训练样本集和测试样本集,并进行数据增强,尺寸缩放、裁剪,将带有标签的训练样本输入建立的卷积神经网络,进行有监督的学习。利用训练后的卷积神经网络各层的参数,对网络进行初始化,得到具有水下目标识别功能的卷积神经网络。
3、CN201711011197一种基于光视觉的水下目标识别方法:通过水下图像采集系统分别在自然光照和人工光源环境下采集水下目标物图像,并进行图像预处理,依次提取两组预处理后的图像的目标的形状特征、颜色特征和纹理特征,组成训练样本,然后进行目标训练,对自然光照与人工光源下的两组测试样本进行分类,输出分类结果。
发明内容
本发明要解决的技术问题是提供一种基于大数据的水声目标智能识别方法,先采集大量水声目标发出的水声信号,提取适当的特征,再建立训练样本集对人工智能模型进行训练。在实际使用中,仅需采集周围的水声信号并提取特征,输入到训练好的人工智能模型中就可判断出水声目标的有无和类型。该方法实时性高,反应速度快,识别准确率可达96%以上,且可识别较长距离的水声目标。
为了解决上述技术问题,本发明提供了一种基于大数据的水声目标智能识别方法,包括:
第一步:采集大量的水声目标声音信号数据,所述采集大量的水声目标声音信号数据满足预设时间、预设分类数量、预设通道数量,要求目标位置变化;
第二步:提取信号特征,主要分为:
(1)将水声目标声音信号数据拆分成预设周期一段;
(2)将每段声音信号数据进行分帧;
(3)对每一帧、每一通道的声音信号数据分别作傅里叶变换;
(4)找出傅里叶变换后频谱图中的峰值;
(5)对峰值大小进行降序排序,找出前五个峰值及其对应的频率;
(6)将峰值作为权值,计算前五个峰值对应频率的加权平均频率,记为w1;
(7)计算频谱图中各幅值之和与最大幅值之比,记为w2;
(8)计算每一个峰值与和它相差预设频率处的幅值之比,记为A;
(9)计算A的平均值,记为w3;
(10)计算A的最小值,记为w4;
(11)计算A的标准差,记为w5;
(12)分别计算每一段数据的w1、w2、w3、w4、w5的平均值、标准差及转置后的标准差,组成15维的特征向量;
第三步:根据声音信号的波形和相关信息,给每一段数据打上有目标或无目标的标签;
第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;
第五步;搭建人工智能模型;
第六步;输入训练样本集进行训练,当达到预设目标时,停止训练;
第七步;输入测试样本集进行测试,若测试准确率满足要求,则保存模型参数,用于实际使用;若测试准确率不满足要求,则返回第六步,重新训练。
在另外的一个实施例中,“将每段声音信号数据进行分帧”中,帧长为50ms。
在另外的一个实施例中,所述预设周期是1秒。
在另外的一个实施例中,“第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;”中,训练样本数是测试样本数的2倍。
在另外的一个实施例中,所述预设目标包括以下至少之一:训练要求精度或者达到最大训练次数。
在另外的一个实施例中,所述预设频率是15Hz。
在另外的一个实施例中,所述人工智能模型包括BP神经网络模型。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
本发明的有益效果:
1、本发明提出的基于大数据的水声目标智能识别方法直接对接收到的水声信号数据进行处理,实时性高,反应速度快。
2、本发明提出的基于大数据的水声目标智能识别方法通过人工智能方法对水声目标进行识别,避免了人工干预,且特征维数少,提高了水声目标识别的精度和速度。
3、本发明提出的基于大数据的水声目标智能识别方法基于大量的实际水声目标声音信号数据,水声目标分类多,位置变化大,训练得到的人工智能模型泛化能力强,可识别较长距离的水声目标,识别精度较高。
附图说明
图1是本发明基于大数据的水声目标智能识别方法的神经网络结构图。
图2是本发明基于大数据的水声目标智能识别方法的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
一种基于大数据的水声目标智能识别方法,包括:
第一步:采集大量的水声目标声音信号数据,所述采集大量的水声目标声音信号数据满足预设时间、预设分类数量、预设通道数量,要求目标位置变化;
第二步:提取信号特征,主要分为:
(1)将水声目标声音信号数据拆分成预设周期一段;
(2)将每段声音信号数据进行分帧;
(3)对每一帧、每一通道的声音信号数据分别作傅里叶变换;
(4)找出傅里叶变换后频谱图中的峰值;
(5)对峰值大小进行降序排序,找出前五个峰值及其对应的频率;
(6)将峰值作为权值,计算前五个峰值对应频率的加权平均频率,记为w1;
(7)计算频谱图中各幅值之和与最大幅值之比,记为w2;
(8)计算每一个峰值与和它相差预设频率处的幅值之比,记为A;
(9)计算A的平均值,记为w3;
(10)计算A的最小值,记为w4;
(11)计算A的标准差,记为w5;
(12)分别计算每一段数据的w1、w2、w3、w4、w5的平均值、标准差及转置后的标准差,组成15维的特征向量;
第三步:根据声音信号的波形和相关信息,给每一段数据打上有目标或无目标的标签;
第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;
第五步;搭建人工智能模型;
第六步;输入训练样本集进行训练,当达到预设目标时,停止训练;
第七步;输入测试样本集进行测试,若测试准确率满足要求,则保存模型参数,用于实际使用;若测试准确率不满足要求,则返回第六步,重新训练。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
本发明的有益效果:
1、本发明提出的基于大数据的水声目标智能识别方法直接对接收到的水声信号数据进行处理,实时性高,反应速度快。
2、本发明提出的基于大数据的水声目标智能识别方法通过人工智能方法对水声目标进行识别,避免了人工干预,且特征维数少,提高了水声目标识别的精度和速度。
3、本发明提出的基于大数据的水声目标智能识别方法基于大量的实际水声目标声音信号数据,水声目标分类多,位置变化大,训练得到的人工智能模型泛化能力强,可识别较长距离的水声目标,识别精度较高。
在另外的一个实施例中,“将每段声音信号数据进行分帧”中,帧长为50ms。
在另外的一个实施例中,所述预设周期是1秒。
在另外的一个实施例中,“第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;”中,训练样本数是测试样本数的2倍。
在另外的一个实施例中,所述预设目标包括以下至少之一:训练要求精度或者达到最大训练次数。
在另外的一个实施例中,所述预设频率是15hz。
在另外的一个实施例中,所述人工智能模型包括BP神经网络模型。
1、采集大量的水声目标声音信号数据(时间长、分类多、通道多),要求目标位置变化。
2、提取信号特征,主要分为:
(1)将长时间、多通道的声音信号数据拆分成一秒一段;
(2)将每段声音信号数据进行分帧,帧长为50ms;
(3)对每一帧、每一通道的声音信号数据分别作傅里叶变换;
(4)找出傅里叶变换后频谱图中的峰值;
(5)对峰值大小进行降序排序,找出前五个峰值及其对应的频率;
(6)将峰值作为权值,计算前五个峰值对应频率的加权平均频率,记为w1;
(7)计算频谱图中各幅值之和与最大幅值之比,记为w2;
(8)计算每一个峰值与和它相差15Hz频率处的幅值之比,记为A;
(9)计算A的平均值,记为w3;
(10)计算A的最小值,记为w4;
(11)计算A的标准差,记为w5;
(12)分别计算每一段数据的w1、w2、w3、w4、w5的平均值、标准差及转置后的标准差,组成15维的特征向量。
3、根据声音信号的波形和相关信息,给每一段数据打上有目标或无目标的标签。
4、将拆分成的一秒一段的数据组合成训练样本集和测试样本集,训练样本数是测试样本数的2倍。
5、搭建人工智能模型,以BP神经网络模型为例,结构如图1所示。
6、输入训练样本集进行训练,当达到训练要求精度或者达到最大训练次数时,停止训练。
7、输入测试样本集进行测试,若测试准确率满足要求,则保存模型参数,用于实际使用;若测试准确率不满足要求,则返回第6步,重新训练。
下面介绍本发明的一个具体应用场景:
中国科学院声学研究所于千岛湖进行了湖上试验,采集了实际声场下的移动声源数据、实船辐射噪声数据,数据为16个通道,长24小时,包含5种目标信号。
在中国科学院声学研究所提供的数据的基础上,进行了具体的实验测试。
1、提取信号特征,主要分为:
(1)将声音信号数据拆分成一秒一段;
(2)将每段声音信号数据进行分帧,帧长为50ms;
(3)对每一帧、每一通道的声音信号数据分别作傅里叶变换;
(4)找出傅里叶变换后频谱图中的峰值;
(5)对峰值大小进行降序排序,找出前五个峰值及其对应的频率;
(6)将峰值作为权值,计算前五个峰值对应频率的加权平均频率,记为w1;
(7)计算频谱图中各幅值之和与最大幅值之比,记为w2;
(8)计算每一个峰值与和它相差15Hz频率处的幅值之比,记为A;
(9)计算A的平均值,记为w3;
(10)计算A的最小值,记为w4;
(11)计算A的标准差,记为w5;
(12)分别计算每一段数据的w1、w2、w3、w4、w5的平均值、标准差及转置后的标准差,组成15维的特征向量。
2、根据声音信号的波形和相关信息,给每一段数据打上有目标或无目标的标签。
3、将拆分成的一秒一段的数据组合成训练样本集和测试样本集,取16个小时的数据作为训练样本集,取8个小时的数据作为了测试样本集。
4、搭建人工智能模型,以BP神经网络模型为例,其参数设置:输入神经元15个,隐藏层为1层,隐藏神经元25个,激活函数为S型传输函数,输出神经元1个,训练函数为梯度下降BP算法训练函数,损失函数为均方误差MSE,训练要求精度为10-3,最大训练次数为1000次,学习率为0.1。
5、输入训练样本集进行训练,当达到训练要求精度或者达到最大训练次数时,停止训练。
6、输入测试样本集进行测试,测试准确率为96.06%。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (10)
1.一种基于大数据的水声目标智能识别方法,其特征在于,包括:
第一步:采集大量的水声目标声音信号数据,所述采集大量的水声目标声音信号数据满足预设时间、预设分类数量、预设通道数量,要求目标位置变化;
第二步:提取信号特征,主要分为:
(1)将水声目标声音信号数据拆分成预设周期一段;
(2)将每段声音信号数据进行分帧;
(3)对每一帧、每一通道的声音信号数据分别作傅里叶变换;
(4)找出傅里叶变换后频谱图中的峰值;
(5)对峰值大小进行降序排序,找出前五个峰值及其对应的频率;
(6)将峰值作为权值,计算前五个峰值对应频率的加权平均频率,记为w1;
(7)计算频谱图中各幅值之和与最大幅值之比,记为w2;
(8)计算每一个峰值与和它相差预设频率处的幅值之比,记为A;
(9)计算A的平均值,记为w3;
(10)计算A的最小值,记为w4;
(11)计算A的标准差,记为w5;
(12)分别计算每一段数据的w1、w2、w3、w4、w5的平均值、标准差及转置后的标准差,组成15维的特征向量;
第三步:根据声音信号的波形和相关信息,给每一段数据打上有目标或无目标的标签;
第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;
第五步;搭建人工智能模型;
第六步;输入训练样本集进行训练,当达到预设目标时,停止训练;
第七步;输入测试样本集进行测试,若测试准确率满足要求,则保存模型参数,用于实际使用;若测试准确率不满足要求,则返回第六步,重新训练。
2.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,“将每段声音信号数据进行分帧”中,帧长为50ms。
3.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,所述预设周期是1秒。
4.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,“第四步;将拆分成的预设周期一段的数据组合成训练样本集和测试样本集;”中,训练样本数是测试样本数的2倍。
5.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,所述预设目标包括以下至少之一:训练要求精度或者达到最大训练次数。
6.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,所述预设频率是15Hz。
7.如权利要求1所述的基于大数据的水声目标智能识别方法,其特征在于,所述人工智能模型包括BP神经网络模型。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1到7任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1到7任一项所述方法的步骤。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1到7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661350.5A CN110390949B (zh) | 2019-07-22 | 2019-07-22 | 基于大数据的水声目标智能识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910661350.5A CN110390949B (zh) | 2019-07-22 | 2019-07-22 | 基于大数据的水声目标智能识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110390949A true CN110390949A (zh) | 2019-10-29 |
CN110390949B CN110390949B (zh) | 2021-06-15 |
Family
ID=68286913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910661350.5A Active CN110390949B (zh) | 2019-07-22 | 2019-07-22 | 基于大数据的水声目标智能识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110390949B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111624586A (zh) * | 2020-05-27 | 2020-09-04 | 苏州大学 | 基于特征提取和神经网络的水声目标测距方法 |
CN111626341A (zh) * | 2020-05-12 | 2020-09-04 | 哈尔滨工程大学 | 一种面向水下目标识别的特征级信息融合方法 |
CN112990082A (zh) * | 2021-04-06 | 2021-06-18 | 舟山精卫智能科技有限公司 | 一种水声脉冲信号的检测识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051460A (zh) * | 2006-04-05 | 2007-10-10 | 三星电子株式会社 | 提取语音信号的特性信息的语音信号预处理系统及方法 |
CN104732970A (zh) * | 2013-12-20 | 2015-06-24 | 中国科学院声学研究所 | 一种基于综合特征的舰船辐射噪声识别方法 |
CN105550636A (zh) * | 2015-12-04 | 2016-05-04 | 中国电子科技集团公司第三研究所 | 一种目标类型识别的方法及装置 |
CN107368841A (zh) * | 2016-05-11 | 2017-11-21 | 中国科学院声学研究所 | 一种基于hht和人工神经网络的水下机动小目标识别方法 |
CN107368840A (zh) * | 2016-05-11 | 2017-11-21 | 中国科学院声学研究所 | 一种基于mfcc和支持向量机的水下机动小目标识别方法 |
CN109785850A (zh) * | 2019-01-18 | 2019-05-21 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种噪声检测方法、装置和存储介质 |
-
2019
- 2019-07-22 CN CN201910661350.5A patent/CN110390949B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051460A (zh) * | 2006-04-05 | 2007-10-10 | 三星电子株式会社 | 提取语音信号的特性信息的语音信号预处理系统及方法 |
CN104732970A (zh) * | 2013-12-20 | 2015-06-24 | 中国科学院声学研究所 | 一种基于综合特征的舰船辐射噪声识别方法 |
CN105550636A (zh) * | 2015-12-04 | 2016-05-04 | 中国电子科技集团公司第三研究所 | 一种目标类型识别的方法及装置 |
CN107368841A (zh) * | 2016-05-11 | 2017-11-21 | 中国科学院声学研究所 | 一种基于hht和人工神经网络的水下机动小目标识别方法 |
CN107368840A (zh) * | 2016-05-11 | 2017-11-21 | 中国科学院声学研究所 | 一种基于mfcc和支持向量机的水下机动小目标识别方法 |
CN109785850A (zh) * | 2019-01-18 | 2019-05-21 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种噪声检测方法、装置和存储介质 |
Non-Patent Citations (2)
Title |
---|
ERIC L. FERGUSON等: "CONVOLUTIONAL NEURAL NETWORKS FOR PASSIVE MONITORING OF A SHALLOW", 《ICASSP 2017》 * |
MIQUEL ESPI等: "Exploiting spectro-temporal locality in deep", 《EURASIP JOURNAL ON AUDIO, SPEECH, AND MUSIC PROCESSING》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626341A (zh) * | 2020-05-12 | 2020-09-04 | 哈尔滨工程大学 | 一种面向水下目标识别的特征级信息融合方法 |
CN111626341B (zh) * | 2020-05-12 | 2022-04-08 | 哈尔滨工程大学 | 一种面向水下目标识别的特征级信息融合方法 |
CN111624586A (zh) * | 2020-05-27 | 2020-09-04 | 苏州大学 | 基于特征提取和神经网络的水声目标测距方法 |
CN112990082A (zh) * | 2021-04-06 | 2021-06-18 | 舟山精卫智能科技有限公司 | 一种水声脉冲信号的检测识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110390949B (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106503642B (zh) | 一种应用于光纤传感系统的振动模型建立方法 | |
CN110245608A (zh) | 一种基于半张量积神经网络的水下目标识别方法 | |
CN110390949A (zh) | 基于大数据的水声目标智能识别方法 | |
CN109446902A (zh) | 一种基于无人平台的海洋环境与目标综合感知方法 | |
CN110348376A (zh) | 一种基于神经网络的行人实时检测方法 | |
CN107993215A (zh) | 一种天气雷达图像处理方法及系统 | |
CN109886090A (zh) | 一种基于多时间尺度卷积神经网络的视频行人再识别方法 | |
CN110097075A (zh) | 基于深度学习的海洋中尺度涡分类识别方法 | |
CN110222769A (zh) | 一种基于YOLOV3-tiny的改进目标检测方法 | |
CN113408328B (zh) | 基于毫米波雷达的手势分割与识别算法 | |
CN111624586B (zh) | 基于特征提取和神经网络的水声目标测距方法 | |
CN110007366A (zh) | 一种基于多传感器融合的生命搜寻方法以及系统 | |
CN109473119A (zh) | 一种声学目标事件监控方法 | |
CN110020658A (zh) | 一种基于多任务深度学习的显著目标检测方法 | |
André et al. | Sperm whale long-range echolocation sounds revealed by ANTARES, a deep-sea neutrino telescope | |
Schneider et al. | Counting fish and dolphins in sonar images using deep learning | |
CN113850204A (zh) | 一种基于深度学习和超宽带雷达的人体动作识别方法 | |
CN110048978A (zh) | 一种信号调制识别方法 | |
Buchanan et al. | Deep convolutional neural networks for detecting dolphin echolocation clicks | |
CN110110765A (zh) | 一种基于深度学习的多源数据融合目标识别方法 | |
CN117288257A (zh) | 基于水下探测设备智能监测海洋环境的方法、装置及系统 | |
CN114898222B (zh) | 一种舰船目标航迹识别方法及装置 | |
CN106529433A (zh) | 基于声音信号的队列步伐整齐度评价方法 | |
CN113063906B (zh) | 一种叶绿素a锋面的检测方法及装置 | |
CN109061628A (zh) | 一种基于多功能雷达慢扫增强的浒苔提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Jiang Junjun Inventor after: Xiao Zhongzhe Inventor after: Huang Min Inventor after: Shi Tuo Inventor after: Wu Di Inventor before: Xiao Zhongzhe Inventor before: Shi Tuo Inventor before: Jiang Junjun Inventor before: Huang Min Inventor before: Wu Di |