CN107731235A - 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置 - Google Patents

抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置 Download PDF

Info

Publication number
CN107731235A
CN107731235A CN201710938504.1A CN201710938504A CN107731235A CN 107731235 A CN107731235 A CN 107731235A CN 201710938504 A CN201710938504 A CN 201710938504A CN 107731235 A CN107731235 A CN 107731235A
Authority
CN
China
Prior art keywords
whale
coefficient
module
sound
sound pulse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710938504.1A
Other languages
English (en)
Other versions
CN107731235B (zh
Inventor
蒋佳佳
卜令冉
段发阶
王宪全
孙中波
李春月
马世雄
邓澈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201710938504.1A priority Critical patent/CN107731235B/zh
Publication of CN107731235A publication Critical patent/CN107731235A/zh
Application granted granted Critical
Publication of CN107731235B publication Critical patent/CN107731235B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Complex Calculations (AREA)

Abstract

本发明属于海洋应用声学领域,为提出一种完整的,能自动探测抹香鲸叫声脉冲和长鳍领航鲸叫声脉冲,并对叫声脉冲特征进行精确提取,最后通过分类器对两种叫声脉冲实现精确分类的方法和装置。本发明采用的技术方案是,抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,由三个子系统构成:鲸叫声脉冲预处理子系统,鲸叫声脉冲特征提取子系统和鲸叫声脉冲特征分类子系统,其中,鲸叫声脉冲预处理子系统包括:水听器,声音存储介质,声音去噪模块和端点检测模块;鲸叫声脉冲特征提取子系统包括连续小波变换预处理模块,有效系数区域提取模块,频率特征提取模块和时间特征提取模块。本发明主要应用于声探测场合。

Description

抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置
技术领域
本发明属于海洋应用声学领域,特别是一种抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置。
背景技术
海洋动物声音的探测和分类在研究物种习性、保护生物资源和防止鲸鱼搁浅等领域有着重要的基础性作用。由于鲸叫声脉冲持续时间短,不同鲸叫声脉冲对人耳的作用效果十分相似,传统的人工方法很难准确地对鲸叫声脉冲进行探测和分类,且效率较低。抹香鲸和长鳍领航鲸分布广泛,数量庞大,两者的分布海域多有重合,且抹香鲸叫声多为叫声脉冲,因此将两者叫声脉冲进行自动精确区分具有重要意义。鲸叫声脉冲是典型的短时非平稳声音信号,目前已有的自动海洋动物声音的特征提取与分类的方法,多集中于鲸或海豚的长叫声(哨声Whistle、叫声Call等)的特征提取与分类,并不能很好地适应持续时间短的鲸叫声脉冲。
发明内容
为克服现有技术的不足,克服现有人工声音分类方法正确率和效率低下以及目前自动分类方法适用性较差的缺点,本发明旨在提出一种完整的,能自动探测抹香鲸叫声脉冲和长鳍领航鲸叫声脉冲,并对叫声脉冲特征进行精确提取,最后通过分类器对两种叫声脉冲实现精确分类的方法和装置。本发明采用的技术方案是,抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,由三个子系统构成:鲸叫声脉冲预处理子系统,鲸叫声脉冲特征提取子系统和鲸叫声脉冲特征分类子系统,其中,鲸叫声脉冲预处理子系统包括:水听器,声音存储介质,声音去噪模块和端点检测模块;鲸叫声脉冲特征提取子系统包括连续小波变换预处理模块,有效系数区域提取模块,频率特征提取模块和时间特征提取模块;鲸叫声脉冲特征分类子系统包括特征向量拼合模块,分类器训练模块,分类器分类模块和分类结果显示模块;
水听器采集或者声音存储介质存储的含有鲸叫声脉冲的声音,首先经过声音去噪模块,得到去噪后的声音信号,经过端点检测模块,提取出含有鲸叫声脉冲的特征帧;进一步地,特征帧经过连续小波变换预处理模块,得到连续小波变换系数矩阵,经有效系数区域提取模块,系数矩阵所有系数取绝对值后,得到绝对值系数矩阵,绝对值矩阵首先经过有效系数提取模块,得到有效系数区域,经频率特征提取模块和时间特征提取模块基于有效系数区域的频率特征提取算法和时间特征提取算法,得到特征向量,进一步地,特征向量被送入先前已训练过的分类器分类模块后,分类器对特征向量进行分类,输出分类结果经分类结果显示模块显示。
鲸叫声脉冲特征提取子系统各模块可设置于DSP、FPGA或ARM硬件平台,鲸叫声脉冲特征分类子系统各模块可设置于DSP、FPGA或ARM硬件平台。
选择7阶Symlets小波函数作为连续小波变换的母小波。
经有效系数区域提取模块中,首先提取绝对值系数矩阵的有效系数区域,(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值,并标记为Ti,i=1,2,…,n,其中n是尺度数量,(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数,否则删除该系数;(3)所有有效系数组成了有效系数区域ECA(EffectiveCoefficientArea,),ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数;
频率特征提取模块和时间特征提取模块中,进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得各尺度有效系数之和S(i),i=1,2,…n,其中n是尺度数量;
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数,S(i)在每个子区间中进一步相加得到各子区间有效系数之和Ej
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围,所有Ej构成了频率特征;
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的重要特征,通过以下过程提取时间特征:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量,(2)将Ni的最大值标记为Nmax,(3)时间特征td通过下式计算:
式中fs是声音信号的采样率。
进一步地,频率特征和时间特征构成特征向量。
分类模块中,使用反向传播神经网络BP(Back Propagation Network)作为鲸叫声脉冲特征分类器,首先设定分类器参数,包括网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法、神经网络的初始权值、误差容限、学习率、动量因子、最大迭代次数和第一代初始参数,进一步地,经过鲸叫声脉冲特征提取子系统得到的鲸叫声脉冲特征向量,选择若干特征向量作为训练数据,对神经网络进行训练。神经网络训练完成后,待分类信号被送入分类器,根据分类器的输出结果进行分类决策,最后输出最终分类结果。
抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法,步骤如下:
第一步:原始声音去噪过程和鲸叫声脉冲探测过程
水听器采集或者计算机存储介质存储的含有鲸叫声脉冲的声音首先需要经过采用小波去噪阈值去噪进行去噪处理,进一步地,使用通用值作为硬阈值,其中n是信号的长度,用该阈值函数对各层系数进行量化,最后用处理后的系数重构信号,得到去噪信号;
进一步地,去噪信号通过双门限端点检测算法检测鲸叫声脉冲的起始点与结束点,该算法中利用短时能量和短时平均过零率进行端点检测,每个鲸叫声脉冲检测估计中心位置t由下式计算:
其中ton和toff是通过双门限端点检测算法检测到的鲸叫声脉冲的起始点与结束点;
进一步地,以中心位置t为中心,提取合适点数的信号,作为鲸叫声脉冲特征帧;
第二步:叫声脉冲信号连续小波分解与有效系数提取过程
对鲸叫声脉冲特征帧,首先进行连续小波变换,选择7阶Symlets小波函数作为连续小波变换的母小波,分解层数设定为400,连续小波变换分解后,得到鲸叫声脉冲特征帧的小波系数矩阵,进一步地,小波系数矩阵所有系数取绝对值后,得到绝对值系数矩阵;
提取绝对值系数矩阵的有效系数区域ECA:(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值20,并标记为Ti,i=1,2,…,n,其中n是尺度数量;(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数,否则删除该系数;(3)所有有效系数组成了有效系数区域ECA,ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数;
第三步:频率特征和时间特征提取过程。
进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得S(i),i=1,2,…n,其中n是尺度数量;
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数,S(i)在每个子区间中进一步相加得到Ej
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围,设定m=10,则得到10个频率特征值,所有Ej构成了频率特征;
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的一个重要特征,通过以下过程提取时间特征:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量;(2)将Ni的最大值标记为Nmax。(3)时间特征td通过下式计算:
式中fs是声音信号的采样率。
进一步地,频率特征和时间特征构成特征向量;
第四步:分类器训练、测试和分类过程
进一步地,使用BP神经网络作为鲸叫声脉冲特征分类器,首先合理设定分类器参数,设定分类器的初始结构,设定网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法和神经网络的初始权值参数;
进一步地,经过鲸叫声脉冲特征提取子系统得到的鲸叫声脉冲特征向量,随机选择若干特征向量作为训练数据,设定误差容限、学习率、动量因子、最大迭代次数和第一代初始参数,对神经网络进行训练。神经网络训练完成后,将分类特征向量送入分类器,根据分类器的输出结果进行分类决策,最后输出分类结果。
本发明的特点及有益效果是:
本发明针对鲸叫声脉冲短时非平稳的特性,有效地克服了现有鲸长叫声特征提取方法的缺点,能很好地适应鲸叫声脉冲短时非平稳特性;能够准确地提取鲸叫声脉冲时域和频域的特征;该特征即使在训练数据量较少的情况下,通过少量的数据训练,也能实现很高的分类正确率;该特征即使在减少特征数量的情况下,也能很好地表征鲸叫声脉冲时域和频域的特征,实现很高的分类正确率。
附图说明:
图1示出本鲸叫声脉冲特征提取和精确分类方法的主要功能框图。
图1中:1为水听器(声音采集);2为声音存储介质(声音存储);3为声音去噪模块;4为端点检测模块;5为连续小波变换预处理模块;6为有效系数区域提取模块;7为频率特征提取模块;8为时间特征提取模块;9为特征向量拼合模块;10为分类器训练模块;11为分类器分类模块;12为分类结果显示模块;13为鲸叫声脉冲预处理子系统;14为鲸叫声脉冲特征提取子系统;15为鲸叫声脉冲特征分类子系统。
图2示出本发明中鲸叫声脉冲特征提取模型示意图。
图2中:16为鲸叫声脉冲特征帧;17为连续小波变换预处理模块;18为连续小波变换系数矩阵;19为阈值计算模块;20为有效系数阈值;21为阈值比较模块;22为有效系数;23为有效系数区域组成模块;24为有效系数区域;25为有效系数求和模块;26为相同尺度系数和S(i);27为子区间求和模块;28为子区间系数和Ej;29为频率特征生成模块;30为有效系数数量计算模块;31为各尺度下有效系数数量Ni;32为求取Ni最大值模块;33为Ni最大值Nmax;34为时间特征生成模块;35为时间特征和频率特征;36为特征向量。
图3示出本发明中鲸叫声脉冲特征分类模型示意图。
图3中:37为分类器结构要求;38为分类器参数确定过程;39为分类器结构参数;40为用于训练的特征向量;41为分类器训练过程;42为训练过程对分类器参数的优化;43为BP神经网络分类器;44为待分类特征向量;45为分类器输出结果;46为分类决策模块;47为最终分类结果。
具体实施方式
本发明的目的是克服现有人工声音分类方法正确率和效率低下以及目前自动分类方法适用性较差的缺点,提供一种能实现抹香鲸叫声脉冲和长鳍领航鲸叫声脉冲的特征提取和精确分类的方法和装置。
第一步是确定鲸叫声脉冲特征提取和分类系统的总体方案。
鲸叫声脉冲特征提取和分类系统的总体方案框图如图1所示,其主要包括三个子系统:鲸叫声脉冲预处理子系统13,鲸叫声脉冲特征提取子系统14和鲸叫声脉冲特征分类子系统15。其中,鲸叫声脉冲预处理子系统13包括:水听器1(声音采集),声音存储介质2(声音存储),声音去噪模块3和端点检测模块4;鲸叫声脉冲特征提取子系统14包括连续小波变换预处理模块5,有效系数区域提取模块6,频率特征提取模块7和时间特征提取模块8;鲸叫声脉冲特征分类子系统包括特征向量拼合模块9,分类器训练模块10,分类器分类模块11和分类结果显示模块12,以上模块可依托于DSP、FPGA、ARM等硬件平台实现。
水听器1采集或者计算机存储介质2存储的含有鲸叫声脉冲的声音,首先经过声音去噪,得到去噪后的声音信号,经过端点检测模块,提取出含有鲸叫声脉冲的特征帧。进一步地,特征帧经过连续小波变换,得到连续小波变换系数矩阵。系数矩阵所有系数取绝对值后,得到绝对值系数矩阵。绝对值矩阵首先经过有效系数提取模块,得到有效系数区域,基于有效系数区域的频率特征提取算法和时间特征提取算法,得到特征向量。进一步地,特征向量被送入先前已训练过的BP神经网络分类器后,分类器对特征向量进行分类,输出分类结果。
第二步是设计了一种鲸叫声脉冲特征提取模型。
如图2所示,经过鲸叫声脉冲预处理子系统13得出的鲸叫声脉冲特征帧16,首先通过连续小波变换预处理模块17进行连续小波变换,选择7阶Symlets小波函数作为连续小波变换的母小波。经过连续小波变换分解后,得到鲸叫声脉冲特征帧的连续小波变换系数矩阵,进一步地,小波系数矩阵所有系数取绝对值后,得到绝对值系数矩阵18。
进一步地,绝对值矩阵包含大量其值不代表鲸叫声脉冲特征的系数。在特征提取过程之前,首先提取绝对值系数矩阵的有效系数区域(ECA)24:(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值20,并标记为Ti,i=1,2,…,n,其中n是尺度数量。(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数22,否则删除该系数。(3)所有有效系数组成了有效系数区域(ECA)23。ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数。
进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得S(i),i=1,2,…n,其中n是尺度数量。
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数。S(i)在每个子区间中进一步相加得到Ej
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围。所有Ej构成了频率特征29。
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的重要特征。通过以下过程提取时间特征34:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量。(2)将Ni的最大值标记为Nmax。(3)时间特征td通过下式计算:
式中fs是声音信号的采样率。
进一步地,频率特征29和时间特征34构成特征向量36。
第三步是设计了一种鲸叫声脉冲特征分类模型。
如图2所示,使用BP神经网络作为鲸叫声脉冲特征分类器43,首先合理设定分类器参数38,包括网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法、神经网络的初始权值、误差容限、学习率、动量因子、最大迭代次数和第一代初始参数等。进一步地,经过鲸叫声脉冲特征提取子系统14得到的鲸叫声脉冲特征向量16,选择若干特征向量作为训练数据40,对神经网络进行训练。神经网络训练完成后,待分类信号44被送入分类器,根据分类器的输出结果进行分类决策,最后输出最终分类结果47。
下面结合附图和实施例对本发明做进一步说明。
第一步:原始声音去噪过程和鲸叫声脉冲探测过程。
水听器1采集或者计算机存储介质2存储的含有鲸叫声脉冲的声音首先需要经过去噪处理,以减少噪音的影响。基于鲸叫声脉冲的非平稳瞬态特性,采用小波去噪阈值去噪的方法。使用7阶Symlets小波函数进行10层小波分解,进一步地,使用通用值(n是信号的长度)作为硬阈值,用该阈值函数对各层系数进行量化,最后用处理后的系数重构信号,得到去噪信号。
进一步地,去噪信号通过双门限端点检测算法检测鲸叫声脉冲的起始点与结束点。该算法中利用短时能量和短时平均过零率进行端点检测,双门限端点检测算法能够以低计算量实现快速准确的鲸叫声脉冲检测。每个鲸叫声脉冲检测估计中心位置t由下式计算:
其中ton和toff是通过双门限端点检测算法检测到的鲸叫声脉冲的起始点与结束点。
进一步地,以中心位置t为中心,提取合适点数的信号,作为鲸叫声脉冲特征帧。
第二步:叫声脉冲信号连续小波分解与有效系数提取过程。
经过鲸叫声脉冲预处理子系统13得出的鲸叫声脉冲特征帧16,首先通过连续小波变换预处理模块17进行连续小波变换,选择7阶Symlets小波函数作为连续小波变换的母小波,分解层数设定为400。连续小波变换分解后,得到鲸叫声脉冲特征帧的小波系数矩阵,进一步地,小波系数矩阵所有系数取绝对值后,得到绝对值系数矩阵18。
进一步地,绝对值矩阵包含大量其值不代表鲸叫声脉冲特征的系数。在特征提取过程之前,首先提取绝对值系数矩阵的有效系数区域(ECA)24:(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值20,并标记为Ti,i=1,2,…,n,其中n是尺度数量。(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数22,否则删除该系数。(3)所有有效系数组成了有效系数区域(ECA)23。ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数。
第三步:频率特征和时间特征提取过程。
进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得S(i),i=1,2,…n,其中n是尺度数量。
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数。S(i)在每个子区间中进一步相加得到Ej
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围。设定m=10,则可以得到10个频率特征值,所有Ej构成了频率特征29。
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的一个重要特征。通过以下过程提取时间特征:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量。(2)将Ni的最大值标记为Nmax。(3)时间特征td通过下式计算:
式中fs是声音信号的采样率。
进一步地,频率特征29和时间特征34构成特征向量36。
第四步:分类器训练、测试和分类过程。
进一步地,使用BP神经网络作为鲸叫声脉冲特征分类器43,首先合理设定分类器参数38,设定分类器的初始结构,设定网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法和神经网络的初始权值等参数。
进一步地,经过鲸叫声脉冲特征提取子系统14得到的鲸叫声脉冲特征向量16,随机选择若干特征向量作为训练数据40,设定误差容限、学习率、动量因子、最大迭代次数和第一代初始参数等,对神经网络进行训练。神经网络训练完成后,将分类特征向量送入分类器,根据分类器的输出结果进行分类决策,最后输出分类结果47。

Claims (6)

1.一种抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,其特征是,由三个子系统构成:鲸叫声脉冲预处理子系统,鲸叫声脉冲特征提取子系统和鲸叫声脉冲特征分类子系统,其中,鲸叫声脉冲预处理子系统包括:水听器,声音存储介质,声音去噪模块和端点检测模块;鲸叫声脉冲特征提取子系统包括连续小波变换预处理模块,有效系数区域提取模块,频率特征提取模块和时间特征提取模块;鲸叫声脉冲特征分类子系统包括特征向量拼合模块,分类器训练模块,分类器分类模块和分类结果显示模块;
水听器采集或者声音存储介质存储的含有鲸叫声脉冲的声音,首先经过声音去噪模块,得到去噪后的声音信号,经过端点检测模块,提取出含有鲸叫声脉冲的特征帧;进一步地,特征帧经过连续小波变换预处理模块,得到连续小波变换系数矩阵,经有效系数区域提取模块,系数矩阵所有系数取绝对值后,得到绝对值系数矩阵,绝对值矩阵首先经过有效系数提取模块,得到有效系数区域,经频率特征提取模块和时间特征提取模块基于有效系数区域的频率特征提取算法和时间特征提取算法,得到特征向量,进一步地,特征向量被送入先前已训练过的分类器分类模块后,分类器对特征向量进行分类,输出分类结果经分类结果显示模块显示。
2.如权利要求1所述的抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,其特征是,鲸叫声脉冲特征提取子系统各模块可设置于DSP、FPGA或ARM硬件平台,鲸叫声脉冲特征分类子系统各模块可设置于DSP、FPGA或ARM硬件平台。
3.如权利要求1所述的抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,其特征是,选择7阶Symlets小波函数作为连续小波变换的母小波。
4.如权利要求1所述的抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,其特征是,经有效系数区域提取模块中,首先提取绝对值系数矩阵的有效系数区域,(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值,并标记为Ti,i=1,2,…,n,其中n是尺度数量,(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数,否则删除该系数;(3)所有有效系数组成了有效系数区域ECA(EffectiveCoefficient Area,),ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数;
频率特征提取模块和时间特征提取模块中,进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得各尺度有效系数之和S(i),i=1,2,…n,其中n是尺度数量;
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数,S(i)在每个子区间中进一步相加得到各子区间有效系数之和Ej
<mrow> <msub> <mi>E</mi> <mi>j</mi> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>I</mi> <mi>j</mi> </msub> </mrow> </munder> <mi>S</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow>
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围,所有Ej构成了频率特征;
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的重要特征,通过以下过程提取时间特征:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量,(2)将Ni的最大值标记为Nmax,(3)时间特征td通过下式计算:
<mrow> <msub> <mi>t</mi> <mi>d</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>s</mi> </msub> </mfrac> </mrow>
式中fs是声音信号的采样率。
5.如权利要求1所述的抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类装置,其特征是,分类模块中,使用反向传播神经网络BP(Back Propagation Network)作为鲸叫声脉冲特征分类器,首先设定分类器参数,包括网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法、神经网络的初始权值、误差容限、学习率、动量因子、最大迭代次数和第一代初始参数,进一步地,经过鲸叫声脉冲特征提取子系统得到的鲸叫声脉冲特征向量,选择若干特征向量作为训练数据,对神经网络进行训练。神经网络训练完成后,待分类信号被送入分类器,根据分类器的输出结果进行分类决策,最后输出最终分类结果。
6.一种抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法,其特征是,步骤如下:
第一步:原始声音去噪过程和鲸叫声脉冲探测过程
水听器采集或者计算机存储介质存储的含有鲸叫声脉冲的声音首先需要经过采用小波去噪阈值去噪进行去噪处理,进一步地,使用通用值作为硬阈值,其中n是信号的长度,用该阈值函数对各层系数进行量化,最后用处理后的系数重构信号,得到去噪信号;
进一步地,去噪信号通过双门限端点检测算法检测鲸叫声脉冲的起始点与结束点,该算法中利用短时能量和短时平均过零率进行端点检测,每个鲸叫声脉冲检测估计中心位置t由下式计算:
<mrow> <mi>t</mi> <mo>=</mo> <mfrac> <mrow> <msub> <mi>t</mi> <mrow> <mi>o</mi> <mi>n</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>t</mi> <mrow> <mi>o</mi> <mi>f</mi> <mi>f</mi> </mrow> </msub> </mrow> <mn>2</mn> </mfrac> </mrow>
其中ton和toff是通过双门限端点检测算法检测到的鲸叫声脉冲的起始点与结束点;
进一步地,以中心位置t为中心,提取合适点数的信号,作为鲸叫声脉冲特征帧;
第二步:叫声脉冲信号连续小波分解与有效系数提取过程
对鲸叫声脉冲特征帧,首先进行连续小波变换,选择7阶Symlets小波函数作为连续小波变换的母小波,分解层数设定为400,连续小波变换分解后,得到鲸叫声脉冲特征帧的小波系数矩阵,进一步地,小波系数矩阵所有系数取绝对值后,得到绝对值系数矩阵;
提取绝对值系数矩阵的有效系数区域ECA:(1)在绝对值系数矩阵中,计算矩阵中每个尺度下的系数平均值20,并标记为Ti,i=1,2,…,n,其中n是尺度数量;(2)将矩阵中的每个系数与其对应尺度下的Ti进行比较,如果系数值大于Ti,则保留为有效系数,否则删除该系数;(3)所有有效系数组成了有效系数区域ECA,ECA保留了表征鲸叫声脉冲特征的系数,并丢弃了无用系数;
第三步:频率特征和时间特征提取过程。
进一步地,基于ECA,将ECA中相同尺度i的有效系数相加求得S(i),i=1,2,…n,其中n是尺度数量;
进一步地,尺度区间可以被等分成几个子区间Ij,j=1,2,…m,其中m是子区间总数,S(i)在每个子区间中进一步相加得到Ej
<mrow> <msub> <mi>E</mi> <mi>j</mi> </msub> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>I</mi> <mi>j</mi> </msub> </mrow> </munder> <mi>S</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow>
式中j=1,2,…m,m是子区间总数,m<n;Ij是子区间范围,设定m=10,则得到10个频率特征值,所有Ej构成了频率特征;
进一步地,鲸叫声脉冲持续时间也是对两种鲸叫声脉冲进行分类的一个重要特征,通过以下过程提取时间特征:(1)基于ECA,计算ECA中每个尺度i的有效系数数量,并将其标记为Ni,i=1,2,…,n,其中n是尺度数量;(2)将Ni的最大值标记为Nmax。(3)时间特征td通过下式计算:
<mrow> <msub> <mi>t</mi> <mi>d</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>N</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>f</mi> <mi>s</mi> </msub> </mfrac> </mrow>
式中fs是声音信号的采样率。
进一步地,频率特征和时间特征构成特征向量;
第四步:分类器训练、测试和分类过程
进一步地,使用BP神经网络作为鲸叫声脉冲特征分类器,首先合理设定分类器参数,设定分类器的初始结构,设定网络层数、输入层、隐含层节点数、输出层神经元个数、传递函数、训练方法和神经网络的初始权值参数;
进一步地,经过鲸叫声脉冲特征提取子系统得到的鲸叫声脉冲特征向量,随机选择若干特征向量作为训练数据,设定误差容限、学习率、动量因子、最大迭代次数和第一代初始参数,对神经网络进行训练。神经网络训练完成后,将分类特征向量送入分类器,根据分类器的输出结果进行分类决策,最后输出分类结果。
CN201710938504.1A 2017-09-30 2017-09-30 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置 Active CN107731235B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710938504.1A CN107731235B (zh) 2017-09-30 2017-09-30 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710938504.1A CN107731235B (zh) 2017-09-30 2017-09-30 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置

Publications (2)

Publication Number Publication Date
CN107731235A true CN107731235A (zh) 2018-02-23
CN107731235B CN107731235B (zh) 2023-09-26

Family

ID=61210178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710938504.1A Active CN107731235B (zh) 2017-09-30 2017-09-30 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置

Country Status (1)

Country Link
CN (1) CN107731235B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108680245A (zh) * 2018-04-27 2018-10-19 天津大学 鲸豚类Click类叫声与传统声呐信号分类方法及装置
CN110555457A (zh) * 2019-07-24 2019-12-10 天津大学 发动机润滑油磨损信号特征处理系统及方法
FR3090129A1 (fr) * 2018-12-17 2020-06-19 Suez Groupe Station autonome de surveillance et d’analyse d’un environnement maritime
CN111414832A (zh) * 2020-03-16 2020-07-14 中国科学院水生生物研究所 一种基于鲸豚类低频水声信号的实时在线识别分类系统
CN117990200A (zh) * 2024-04-03 2024-05-07 华中农业大学 一种用于实时采传鲸类动物声学信号的吸附式水听器装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182018B1 (en) * 1998-08-25 2001-01-30 Ford Global Technologies, Inc. Method and apparatus for identifying sound in a composite sound signal
CN102169690A (zh) * 2011-04-08 2011-08-31 哈尔滨理工大学 基于表面肌电信号的语音信号识别系统和识别方法
CN104102923A (zh) * 2014-07-16 2014-10-15 西安建筑科技大学 一种基于mfcc算法的朱鹮个体识别方法
CN105786768A (zh) * 2016-04-29 2016-07-20 天津大学 基于小波变换水下鲸类叫声宽带模糊函数求解装置
CN106024006A (zh) * 2016-04-29 2016-10-12 天津大学 基于小波变换的鲸类叫声信号去噪方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6182018B1 (en) * 1998-08-25 2001-01-30 Ford Global Technologies, Inc. Method and apparatus for identifying sound in a composite sound signal
CN102169690A (zh) * 2011-04-08 2011-08-31 哈尔滨理工大学 基于表面肌电信号的语音信号识别系统和识别方法
CN104102923A (zh) * 2014-07-16 2014-10-15 西安建筑科技大学 一种基于mfcc算法的朱鹮个体识别方法
CN105786768A (zh) * 2016-04-29 2016-07-20 天津大学 基于小波变换水下鲸类叫声宽带模糊函数求解装置
CN106024006A (zh) * 2016-04-29 2016-10-12 天津大学 基于小波变换的鲸类叫声信号去噪方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李新欣: "船舶及鲸类声信号特征提取和分类识别研究" *
李新欣: "船舶及鲸类声信号特征提取和分类识别研究", 《中国博士学位论文全文数据库(电子期刊)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108680245A (zh) * 2018-04-27 2018-10-19 天津大学 鲸豚类Click类叫声与传统声呐信号分类方法及装置
FR3090129A1 (fr) * 2018-12-17 2020-06-19 Suez Groupe Station autonome de surveillance et d’analyse d’un environnement maritime
FR3090178A1 (fr) * 2018-12-17 2020-06-19 Suez Groupe Station autonome de surveillance et d’analyse d’un environnement maritime
WO2020128274A1 (fr) * 2018-12-17 2020-06-25 Suez Groupe Station autonome de surveillance et d'analyse d'un environnement maritime
CN110555457A (zh) * 2019-07-24 2019-12-10 天津大学 发动机润滑油磨损信号特征处理系统及方法
CN111414832A (zh) * 2020-03-16 2020-07-14 中国科学院水生生物研究所 一种基于鲸豚类低频水声信号的实时在线识别分类系统
CN111414832B (zh) * 2020-03-16 2021-06-25 中国科学院水生生物研究所 一种基于鲸豚类低频水声信号的实时在线识别分类系统
CN117990200A (zh) * 2024-04-03 2024-05-07 华中农业大学 一种用于实时采传鲸类动物声学信号的吸附式水听器装置

Also Published As

Publication number Publication date
CN107731235B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
CN107731235A (zh) 抹香鲸与长鳍领航鲸叫声脉冲特征提取和分类方法及装置
Liu et al. Underwater target recognition using convolutional recurrent neural networks with 3-D Mel-spectrogram and data augmentation
CN110807365B (zh) 一种基于gru与一维cnn神经网络融合的水下目标识别方法
CN109800700A (zh) 一种基于深度学习的水下声信号目标分类识别方法
CN108680245A (zh) 鲸豚类Click类叫声与传统声呐信号分类方法及装置
CN104102923A (zh) 一种基于mfcc算法的朱鹮个体识别方法
CN104123933A (zh) 基于自适应非平行训练的语音转换方法
CN109741759B (zh) 一种面向特定鸟类物种的声学自动检测方法
Ou et al. Automated extraction and classification of time-frequency contours in humpback vocalizations
Yang et al. Design of bird sound recognition model based on lightweight
CN113111786B (zh) 基于小样本训练图卷积网络的水下目标识别方法
Kershenbaum et al. An image processing based paradigm for the extraction of tonal sounds in cetacean communications
Daniel Meliza et al. Pitch-and spectral-based dynamic time warping methods for comparing field recordings of harmonic avian vocalizations
CN112086100A (zh) 基于量化误差熵的多层随机神经网络的城市噪音识别方法
Mohebbi-Kalkhoran et al. Classifying humpback whale calls to song and non-song vocalizations using bag of words descriptor on acoustic data
CN113850013B (zh) 一种舰船辐射噪声分类方法
CN109522448B (zh) 一种基于crbm和snn进行鲁棒性语音性别分类的方法
CN117275491B (zh) 基于音频转换与时间注意力图神经网络的叫声分类方法
CN116884435A (zh) 一种基于音频提示学习的声音事件检测方法及装置
Zhang et al. A novel insect sound recognition algorithm based on MFCC and CNN
Liu et al. Bird song classification based on improved Bi-LSTM-DenseNet network
Zhou et al. Methods for processing and analyzing passive acoustic monitoring data: An example of song recognition in western black-crested gibbons
CN112434716B (zh) 一种基于条件对抗神经网络的水下目标数据扩增方法及系统
Eltanashi et al. Proposed speaker recognition model using optimized feed forward neural network and hybrid time-mel speech feature
Hu et al. Recognition and location of marine animal sounds using two-stream ConvNet with attention

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant