CN110364141B - 基于深度单分类器的电梯典型异常声音报警方法 - Google Patents

基于深度单分类器的电梯典型异常声音报警方法 Download PDF

Info

Publication number
CN110364141B
CN110364141B CN201910481285.8A CN201910481285A CN110364141B CN 110364141 B CN110364141 B CN 110364141B CN 201910481285 A CN201910481285 A CN 201910481285A CN 110364141 B CN110364141 B CN 110364141B
Authority
CN
China
Prior art keywords
abnormal sound
elevator
output
elm
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910481285.8A
Other languages
English (en)
Other versions
CN110364141A (zh
Inventor
曹九稳
戴浩桢
张俊锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910481285.8A priority Critical patent/CN110364141B/zh
Publication of CN110364141A publication Critical patent/CN110364141A/zh
Application granted granted Critical
Publication of CN110364141B publication Critical patent/CN110364141B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0225Monitoring making use of different thresholds, e.g. for different alarm levels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Maintenance And Inspection Apparatuses For Elevators (AREA)

Abstract

本发明公开了一种基于深度单分类器的电梯典型异常声音报警方法。本发明包括如下步骤:步骤1、分别对五种典型异常声音信号提取RMS特征;步骤2、分别对五种典型异常声音信号提取波谱质心Spectral Centroid特征;步骤3、分别对五种典型异常声音信号提取MFCC特征;步骤4、将输入训练样本进行特征提取;步骤5、计算分类学习的输出权重β;步骤6、计算单分类器阈值θ;步骤7、输入测试数据进行测试。本发明能够快速准确地对电梯内被困人员的反应进行检测识别,并与自动报警系统联动,便于快速报警并及时通知人员来处置。为电梯的安全高效运行,险情的及时处理,减少生命财产损失提供了保证。

Description

基于深度单分类器的电梯典型异常声音报警方法
技术领域
本发明属于智慧电梯数字信号处理领域,涉及一种基于深度单分类器的电梯典型异常声音报警方法。
背景技术
随着城市化的进程,电梯作为一种大众性的垂直交通工具,被广泛使用。然而,电梯故障造成人员被困事故时有发生,一旦电梯故障或人员被困,如何及时有效的将险情传递出来,第一时间进行救援和处置来挽回生命财产损失,成为政府监管部门、电梯制造商、电梯供应商等部门亟待解决的头等大事。
在电梯的安全运行过程中,电梯轿厢内理论上不存在异常声音;而一旦轿厢中有乘客被困,尽管如今电梯内基本会有监控,报警电话以及外界信号接入。但现实中,往往存在监控无人值守,电话无人接听或线路不接通造成报警无效等情况。那么被困人员也许会惊恐尖叫,通过敲打电梯,呼救,拍门等一系列动作来引起电梯外人员的注意,完成自救。运气好的话,能及时得到救援,而万一被困的电梯无人发现,将会造成严重的人员伤亡事故,后果不堪设想。因此,开发一种基于电梯内典型异常声音信号的联动报警算法尤为重要。
本专利提出一种基于深度神经网络单分类器的电梯典型异常声音报警算法,该算法针对人员被困发出的呼救声、尖叫声、拍门声、哭泣声、敲击声共五类异常声音分别构建五个单分类异常声音检测模型。能够快速准确地对电梯内被困人员的反应进行检测识别,并与自动报警系统联动,便于快速报警并及时通知人员来处置。
本专利算法主要实现流程如下:首先,采集得到实测电梯内五种典型异常声音信号,分别对五种声音信号进行归一化预加重以及分帧加窗预处理;对预处理后的每帧声音信号分别提取振幅包络特征(RMS)、波谱质心特征(Spectral Centroid)和梅尔倒谱系数(MFCC)特征;将以上三组特征组合成该类典型声音样本特征库,并标类号;将得到的该类声音特征样本输入基于最大相关熵准则的深度网络ELM单分类器,求得输出权值β,并得到实际输出;然后,得到实际输出与输出标签的距离误差向量,并从大到小排列,根据设置的阈值参数,确定分隔异常声音类和正常声音类的阈值;最后,将测试数据(包含电梯正常异常声音数据)输入到该深层神经网络单分类器模型中,测试该模型的识别效果。若识别为典型异常声音信号,联动报警系统并通知相关人员前往处置险情。
发明内容
本发明通过一系列信号处理方法得到五种电梯人员被困典型异常声音的RMS、SC和MFCC特征并组合成典型异常声音特征样本库,分别将五类声音特征样本输入到基于多层ELM-AE的最大相关熵ELM单分类器。分别构建电梯内异常声音检测算法模型,便于对电梯内人员被困的相关紧急情况提前预警和及时联动报警。为电梯的安全高效运行,险情的及时处理,挽回生命财产损失提供了保证,并降低了人力成本。
本发明主要包括如下步骤:
步骤1、分别对五种典型异常声音信号提取RMS特征
1-1、分别对采集的五种电梯内异常声音信号建立目标声音样本库,假设某一种原始异常声音信号为sl(n),其中0≤l≤5,l为典型异常声音种类数。
1-2、将原始异常声音信号sl(n)经过预处理得到每帧时域信号xl(n)。
1-3、对每帧时域信号求所有点的平方和的平均值,再开方得到每帧时域信号的
Figure BDA0002083929030000021
步骤2、分别对五种典型异常声音信号提取波谱质心Spectral Centroid特征;
2-1、将经过预处理得到的每帧声音信号xl(n)经过快速傅里叶变化转为频域,并得到的每帧信号能量El(n);
2-2、根据得到的每帧信号能量,求第l类典型异常声音信号的谱质心特征:
Figure BDA0002083929030000031
式中:fl(n)为信号频率;El(n)为对应频率的谱能量。
步骤3、分别对五种典型异常声音信号提取MFCC特征;
3-1、将得到的每帧信号能量El(n)通过Mel三角滤波器组得到Mel频率的能量谱。
3-2、对输出后的Mel频谱取对数运算,得到对数频谱,进行离散余弦变换得到12维的MFCC系数特征。
3-3、将得到的电梯内第l类异常声音的每帧信号的RMS、SC、MFCC特征数据组合在一起,标类号,建立典型异常声音特征样本库。
步骤4、将输入训练样本进行特征提取;
4-1、分别取典型异常声音特征样本库中目标类的RMS+SC+MFCC特征数据,其训练样本为
Figure BDA0002083929030000032
进行特征归一化,训练集只包含目标样本,N1为训练样本数量。
4-2、归一化后的训练样本
Figure BDA0002083929030000033
即ELM-AE的输入和输出矩阵。
其中:由于ELM-AE自编码器通过简单地学习将输入复制到输出,所以输入和输出均为XA
4-3、随机生成隐层输入权值矩阵
Figure BDA0002083929030000034
和正交化偏置向量矩阵
Figure BDA0002083929030000035
将输入对训练样本XA映射到相同或者不同的数据维度空间:hk=g(wkxα+bk),(wk)Twk=I,(bk)Tbk=1,其中:g()表示激活函数,k=1,2,...,K,k为ELM-AE个数。I是单位向量。
4-4、求解ELM-AE的输出权值矩阵
Figure BDA0002083929030000036
假设ELM-AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为
Figure BDA0002083929030000037
以及每个隐含层的正则化参数
Figure BDA0002083929030000038
Figure BDA0002083929030000039
Figure BDA00020839290300000310
即对于稀疏及压缩的特征表达,
Figure BDA00020839290300000311
Figure BDA00020839290300000312
即对于等维度的特征映射,
Figure BDA00020839290300000313
其中:
Figure BDA00020839290300000314
表示ELM-AE的第k个隐含层输出矩阵。
步骤5、计算分类学习的输出权重β
5-1、得到初始化输出权重
经过K-1层ELM-AE得到输出矩阵Ⅰ:
Figure BDA0002083929030000041
采用最大相关熵准则来优化目标函数。给定高斯核宽度σ,最大容忍误差ε和最大迭代次数J,并初始化输出权重β0=0,初始误差
Figure BDA0002083929030000042
并将初始误差转化为对角矩阵:
Figure BDA0002083929030000043
5-2、优化输出权重
计算输出权重为
Figure BDA0002083929030000044
其中C是常数,计算误差为
Figure BDA0002083929030000045
转化为对角矩阵为:
Figure BDA0002083929030000046
5-3、计算成本函数:
计算成本函数J(βj)和J(βj-1),j=1,...,J,当|J(βj)-J(βj-1)|≥ε或者j<J时,则重复步骤3-2进行迭代更新,直到满足条件得到最终的输出权值β。
所述的成本函数为:
Figure BDA0002083929030000047
5-4、得到实际输出
Figure BDA0002083929030000048
步骤6、计算单分类器阈值θ
6-1、计算实际输出Yα与样本标签T的误差距离,
Figure BDA0002083929030000049
其中,hK(x′i)为HK第i个样本即第i列数据。
6-2、将得到的误差距离进行从大到小排序,
Figure BDA00020839290300000410
得到
Figure BDA00020839290300000411
其中
Figure BDA00020839290300000412
Figure BDA00020839290300000413
分别表示最大和最小的误差距离。
6-3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N1)]。
其中:floor为取不大于μ·N1的整数,那么θ取排εα中第该整数个误差作为阈值。
步骤7、输入测试数据进行测试
7-1、给定一系列测试样本
Figure BDA0002083929030000051
其中
Figure BDA0002083929030000052
表示第i个样本,
Figure BDA0002083929030000053
表示其为目标样本(异常声音数据),
Figure BDA0002083929030000054
表示其为非目标样本(正常声音数据),P为总共的测试样本数量。
7-2、输入到多层ELM-AE得到每层输出
Figure BDA0002083929030000055
令最后一层ELM-AE输出为
Figure BDA0002083929030000056
7-3、输入到ELM分类层得到Yβ=β·Y',计算实际输出与样本标签T的误差距离
Figure BDA0002083929030000057
7-4、将得到的误差距离
Figure BDA0002083929030000058
与单分类器阈值θ比较:
Figure BDA0002083929030000059
7-5、若识别为某类异常声音,则立刻联动报警,通知相关人员处置险情。
本发明有益效果如下:
本发明拟对电梯运行过程中人员被困典型声音信号建立声音样本库作为目标类数据,由于人员被困产生的呼救、拍门、尖叫、敲击和哭泣声响明显区别于环境噪声,为基于声音识别的电梯监控异常情况的报警系统奠定了研究方向和基础。本发明对电梯人员被困五种典型异常声音分别建立单分类算法模型,识别效果更好。
本发明基于RMS能量计算提取不同典型异常声音信号的RMS特征,这是一种较为普遍的分析异常声音的方法。另外采用MFCC这种模拟人耳听觉机理的特征提取方法来提取声音特征,这种特征参数比基于声道模型的LPCC相比具有更好的鲁邦性,更符合人耳的听觉特性。由于波谱质心的简单和有用特性,是基于声音的“刺耳”、“活泼”提出的。频谱中心的值越小,表明越多的频谱能量集中在低频范围内,在这里提取得到SC特征,并组合三种特征得到典型声音特征样本库,比单纯的一种声音特征更有效。
本发明采用对于异常以及不均衡数据识别检测性能较好的基于最大相关熵的深度神经网络单分类器进行识别分类,采用多层叠加的ELM-AE自编码器进行异常数据的特征提取比普通自编码器(AE)更为高效。将提取得到的特征输入到基于最大相关熵的ELM单分类器进行检测识别,极大增强了单分类器处理非高斯噪声和噪点的能力,具有较强的鲁棒性。而且结合ELM保留了其快速的学习性能和良好的泛化性能,并与自动报警系统联动,能够实现对电梯异常声音监控准确及时报警的要求。
附图说明
图1为针对电梯异常声音分别构建单分类模型的流程图;
图2为基于MFCC对电梯异常声音特征提取的流程图;
图3为基于RMS、SC和MFCC三种特征对电梯异常声音识别的流程图;
具体实施方式
下面结合附图和实例对本发明作进一步说明。
如图1所示,针对电梯被困人员可能产生的五种典型异常声音,收集预处理并分别进行特征提取和模型训练,得到各自的异常声音模型。
如图2所示,其中针对MFCC对电梯异常声音特征提取的过程如下,本发明是通过采集电梯人员被困产生的异常声音信号建立声音样本库作为目标类,首先采用归一化、预加重和分帧加窗等一系列声音处理方法对目标原始声音信号进行预处理,再将预处理后的声音信号经过快速傅里叶变换到频域,然后取绝对值的平方得到每帧信号的能量,将每帧能量通过梅尔三角滤波器组得到Mel频率的能量谱,为了使得梅尔滤波器组的输出具有更好的鲁棒性,对输出后的Mel频谱取对数运算,得到对数频谱,再经过离散余弦变换得到MFCC系数,也就是经过MFCC提取后得到的声音特征。
如图3所示,首先取经过RMS、SC和MFCC特征提取的目标异常类声音特征输入到多层ELM-AE进行特征提取,再通过基于最大相关熵准则的ELM分类层(无隐含层)进行分类输出实际结果,根据得到的实际输出与样本标签的误差从大到小排序,根据设置的阈值参数得到阈值,建立该电梯异常声音检测模型。之后将待测试的样本(包含电梯异常和正常运行的声音数据)喂入训练好的模型,得到测试数据实际输出和样本标签的误差,大于阈值的归为目标异常类,联动报警系统,小于阈值的为正常类,报警系统不动作。
本发明的目的是针对现有电梯中存在的安全隐患和应急自动预警能力的不足,提供一种基于深度网络单分类器的电梯典型异常声音报警算法,针对五种不同典型声音异常信号建模,并与自动报警系统联动。是一种鲁棒性强识别效果好快速的电梯人员被困异常情况检测方法。
本发明主要包括如下步骤:
步骤1、分别对五种典型异常声音信号提取RMS特征
1-4、分别对采集的五种电梯内异常声音信号建立目标声音样本库,假设某一种原始异常声音信号为sl(n),其中0≤l≤5,l为典型异常声音种类数。
1-5、将原始异常声音信号sl(n)经过预处理得到每帧时域信号xl(n)。
1-6、对每帧时域信号求所有点的平方和的平均值,再开方得到每帧时域信号的
Figure BDA0002083929030000071
步骤2、分别对五种典型异常声音信号提取波谱质心Spectral Centroid特征
2-1、将经过预处理得到的每帧声音信号xl(n)经过快速傅里叶变化转为频域,并得到的每帧信号能量El(n)
2-2、根据得到的每帧信号能量,求第l类典型异常声音信号的谱质心特征:
Figure BDA0002083929030000072
式中:fl(n)为信号频率;El(n)为对应频率的谱能量。
步骤3、分别对五种典型异常声音信号提取MFCC特征
3-1、将得到的每帧信号能量El(n)通过Mel三角滤波器组得到Mel频率的能量谱。
3-2、对输出后的Mel频谱取对数运算,得到对数频谱,进行离散余弦变换得到12维的MFCC系数特征。
3-3、将得到的电梯内第l类异常声音的每帧信号的RMS、SC、MFCC特征数据组合在一起,标类号,建立典型异常声音特征样本库。
步骤4、将输入训练样本进行特征提取
4-1、分别取典型异常声音特征样本库中目标类的RMS+SC+MFCC特征数据,其训练样本为
Figure BDA0002083929030000081
进行特征归一化,训练集只包含目标样本,N1为训练样本数量。
4-2、归一化后的训练样本
Figure BDA0002083929030000082
即ELM-AE的输入和输出矩阵。
其中:由于ELM-AE自编码器通过简单地学习将输入复制到输出,所以输入和输出均为XA
4-3、随机生成隐层输入权值矩阵
Figure BDA0002083929030000083
和正交化偏置向量矩阵
Figure BDA0002083929030000084
将输入对训练样本XA映射到相同或者不同的数据维度空间:hk=g(wkxα+bk),(wk)Twk=I,(bk)Tbk=1,其中:g()表示激活函数,k=1,2,...,K,k为ELM-AE个数。I是单位向量。
4-4、求解ELM-AE的输出权值矩阵
Figure BDA0002083929030000085
假设ELM-AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为
Figure BDA0002083929030000086
以及每个隐含层的正则化参数
Figure BDA0002083929030000087
Figure BDA0002083929030000088
Figure BDA0002083929030000089
即对于稀疏及压缩的特征表达,
Figure BDA00020839290300000810
Figure BDA00020839290300000811
即对于等维度的特征映射,
Figure BDA00020839290300000812
其中:
Figure BDA00020839290300000813
表示ELM-AE的第k个隐含层输出矩阵。
步骤5、计算分类学习的输出权重β
5-1、得到初始化输出权重
经过K-1层ELM-AE得到输出矩阵Ⅰ:
Figure BDA0002083929030000091
采用最大相关熵准则来优化目标函数。给定高斯核宽度σ,最大容忍误差ε和最大迭代次数J,并初始化输出权重β0=0,初始误差
Figure BDA0002083929030000092
并将初始误差转化为对角矩阵
Figure BDA0002083929030000093
5-2、优化输出权重
计算输出权重为
Figure BDA0002083929030000094
其中C是常数,计算误差为
Figure BDA0002083929030000095
转化为对角矩阵为
Figure BDA0002083929030000096
5-3、计算成本函数
计算成本函数J(βj)和J(βj-1),j=1,...,J,当|J(βj)-J(βj-1)|≥ε或者j<J时,则重复步骤3-2进行迭代更新,直到满足条件得到最终的输出权值β。
所述的成本函数为:
Figure BDA0002083929030000097
5-4、得到实际输出
Figure BDA0002083929030000098
步骤6、计算单分类器阈值θ
6-1、计算实际输出Yα与样本标签T的误差距离,
Figure BDA00020839290300000913
其中,hK(x′i)为HK第i个样本即第i列数据。
6-2、将得到的误差距离进行从大到小排序,
Figure BDA0002083929030000099
得到
Figure BDA00020839290300000910
其中
Figure BDA00020839290300000911
Figure BDA00020839290300000912
分别表示最大和最小的误差距离。
6-3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N1)]。
其中:floor为取不大于μ·N1的整数,那么θ取排εα中第该整数个误差作为阈值。
步骤7、输入测试数据进行测试
7-1、给定一系列测试样本
Figure BDA0002083929030000101
其中
Figure BDA0002083929030000102
表示第i个样本,
Figure BDA0002083929030000103
表示其为目标样本(异常声音数据),
Figure BDA0002083929030000104
表示其为非目标样本(正常声音数据),P为总共的测试样本数量。
7-2、输入到多层ELM-AE得到每层输出
Figure BDA0002083929030000105
令最后一层ELM-AE输出为
Figure BDA0002083929030000106
7-3、输入到ELM分类层得到Yβ=β·Y',计算实际输出与样本标签T的误差距离
Figure BDA0002083929030000107
7-4、将得到的误差距离
Figure BDA0002083929030000108
与单分类器阈值θ比较
Figure BDA0002083929030000109
7-5、若识别为某类异常声音,则立刻联动报警,通知相关人员处置险情。

Claims (4)

1.基于深度单分类器的电梯典型异常声音报警方法,其特征在于包括如下步骤:
步骤1、分别对五种典型异常声音信号提取RMS特征;
步骤2、分别对五种典型异常声音信号提取谱质心特征;
步骤3、分别对五种典型异常声音信号提取MFCC特征;
步骤4、将输入训练样本进行特征提取;
步骤5、计算分类学习的输出权重β;
步骤6、计算单分类器阈值θ;
步骤7、输入测试数据进行测试;
步骤1具体实现如下:
1-1、分别对采集的五种电梯内异常声音信号建立目标声音样本库,假设某一种原始异常声音信号为sl(n),其中0≤l≤5,l为典型异常声音种类数;
1-2、将原始异常声音信号sl(n)经过预处理得到每帧时域信号xl(n);
1-3、对每帧时域信号求所有点的平方和的平均值,再开方得到每帧时域信号的
Figure FDA0003173467620000011
步骤2具体实现如下:
2-1、将经过预处理得到的每帧声音信号xl(n)经过快速傅里叶变化转为频域,并得到的每帧信号能量El(n);
2-2、根据得到的每帧信号能量,求第l类典型异常声音信号的谱质心特征:
Figure FDA0003173467620000012
式中:fl(n)为信号频率;El(n)为对应频率的谱能量;
步骤3具体实现如下:
3-1、将得到的每帧信号能量El(n)通过Mel三角滤波器组得到Mel频率的能量谱;
3-2、对输出后的Mel频谱取对数运算,得到对数频谱,进行离散余弦变换得到12维的MFCC系数特征;
3-3、将得到的电梯内第l类异常声音的每帧信号的RMS、SC、MFCC特征数据组合在一起,标类号,建立典型异常声音特征样本库;
步骤4具体实现如下:
4-1、分别取典型异常声音特征样本库中目标类的RMS+SC+MFCC特征数据,其训练样本为
Figure FDA0003173467620000021
进行特征归一化,训练集只包含目标样本,N1为训练样本数量;
4-2、归一化后的训练样本
Figure FDA0003173467620000022
即ELM-AE的输入和输出矩阵;
其中:由于ELM-AE自编码器通过简单地学习将输入复制到输出,所以输入和输出均为XA
4-3、随机生成隐层输入权值矩阵
Figure FDA0003173467620000023
和正交化偏置向量矩阵
Figure FDA0003173467620000024
将输入对训练样本XA映射到相同或者不同的数据维度空间:hk=g(wkxα+bk),(wk)Twk=I,(bk)Tbk=1,其中:g()表示激活函数,k=1,2,...,K,k为ELM-AE个数;I是单位向量;
4-4、求解ELM-AE的输出权值矩阵
Figure FDA0003173467620000025
假设ELM-AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为
Figure FDA0003173467620000026
以及每个隐含层的正则化参数
Figure FDA0003173467620000027
Figure FDA0003173467620000028
Figure FDA0003173467620000029
即对于稀疏及压缩的特征表达,
Figure FDA00031734676200000210
Figure FDA00031734676200000211
即对于等维度的特征映射,
Figure FDA00031734676200000212
其中:
Figure FDA00031734676200000213
表示ELM-AE的第k个隐含层输出矩阵。
2.根据权利要求1所述的基于深度单分类器的电梯典型异常声音报警方法,其特征在于步骤5所述的计算分类学习的输出权重β,具体实现如下:
5-1、得到初始化输出权重
经过K-1层ELM-AE得到输出矩阵Ⅰ:
Figure FDA00031734676200000214
采用最大相关熵准则来优化目标函数;给定高斯核宽度σ,最大容忍误差ε和最大迭代次数J,并初始化输出权重β0=0,初始误差
Figure FDA0003173467620000031
并将初始误差转化为对角矩阵:
Figure FDA0003173467620000032
5-2、优化输出权重
计算输出权重为
Figure FDA0003173467620000033
其中C是常数,计算误差为
Figure FDA0003173467620000034
转化为对角矩阵为:
Figure FDA0003173467620000035
5-3、计算成本函数:
计算成本函数J(βj)和J(βj-1),j=1,...,J,当|J(βj)-J(βj-1)|≥ε或者j<J时,则重复步骤3-2进行迭代更新,直到满足条件得到最终的输出权值β;
所述的成本函数为:
Figure FDA0003173467620000036
5-4、得到实际输出
Figure FDA0003173467620000037
3.根据权利要求2所述的基于深度单分类器的电梯典型异常声音报警方法,其特征在于步骤6所述的计算单分类器阈值θ,具体实现如下:
6-1、计算实际输出Yα与样本标签T的误差距离,
Figure FDA0003173467620000038
其中,hK(x′i)为HK第i个样本即第i列数据;
6-2、将得到的误差距离进行从大到小排序,
Figure FDA0003173467620000039
得到
Figure FDA00031734676200000310
其中
Figure FDA00031734676200000311
Figure FDA00031734676200000312
分别表示最大和最小的误差距离;
6-3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N1)];
其中:floor为取不大于μ·N1的整数,那么θ取排εα中第该整数个误差作为阈值。
4.根据权利要求3所述的基于深度单分类器的电梯典型异常声音报警方法,其特征在于步骤7所述的输入测试数据进行测试,具体实现如下:
7-1、给定一系列测试样本
Figure FDA0003173467620000041
其中
Figure FDA0003173467620000042
表示第i个样本,
Figure FDA0003173467620000043
表示其为目标样本(异常声音数据),
Figure FDA0003173467620000044
表示其为非目标样本(正常声音数据),P为总共的测试样本数量;
7-2、输入到多层ELM-AE得到每层输出
Figure FDA0003173467620000045
令最后一层ELM-AE输出为
Figure FDA0003173467620000046
7-3、输入到ELM分类层得到Yβ=β·Y',计算实际输出与样本标签T的误差距离
Figure FDA0003173467620000047
7-4、将得到的误差距离
Figure FDA0003173467620000048
与单分类器阈值θ比较:
Figure FDA0003173467620000049
7-5、若识别为某类异常声音,则立刻联动报警,通知相关人员处置险情。
CN201910481285.8A 2019-06-04 2019-06-04 基于深度单分类器的电梯典型异常声音报警方法 Active CN110364141B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910481285.8A CN110364141B (zh) 2019-06-04 2019-06-04 基于深度单分类器的电梯典型异常声音报警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910481285.8A CN110364141B (zh) 2019-06-04 2019-06-04 基于深度单分类器的电梯典型异常声音报警方法

Publications (2)

Publication Number Publication Date
CN110364141A CN110364141A (zh) 2019-10-22
CN110364141B true CN110364141B (zh) 2021-09-28

Family

ID=68215038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910481285.8A Active CN110364141B (zh) 2019-06-04 2019-06-04 基于深度单分类器的电梯典型异常声音报警方法

Country Status (1)

Country Link
CN (1) CN110364141B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110910897B (zh) * 2019-12-05 2023-06-09 四川超影科技有限公司 一种用于电机异常声音识别的特征提取方法
CN111179969A (zh) * 2019-12-26 2020-05-19 数海信息技术有限公司 一种基于音频信息的报警方法、装置、系统及存储介质
CN111179964A (zh) * 2019-12-27 2020-05-19 烟台艾迪恩信息科技有限公司 一种基于声音频域特征的电梯层门状态识别方法
CN113254319A (zh) * 2020-02-12 2021-08-13 北京沃东天骏信息技术有限公司 基于日志报警的方法和装置
CN111707355A (zh) * 2020-06-19 2020-09-25 浙江讯飞智能科技有限公司 设备运行状态检测方法、装置、设备及存储介质
CN115506783B (zh) * 2021-06-21 2024-09-27 中国石油化工股份有限公司 一种岩性识别方法
CN115512688A (zh) * 2022-09-02 2022-12-23 广东美云智数科技有限公司 异音检测方法及装置
CN115169505B (zh) * 2022-09-06 2022-12-02 杭州浅水数字技术有限公司 特种设备运动部件机械故障预警方法及其预警系统
CN118471268B (zh) * 2024-07-11 2024-10-18 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 智能识别环境噪声类别的方法、系统及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085704A (zh) * 2017-03-27 2017-08-22 杭州电子科技大学 基于elm自编码算法的快速人脸表情识别方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11507064B2 (en) * 2016-05-09 2022-11-22 Strong Force Iot Portfolio 2016, Llc Methods and systems for industrial internet of things data collection in downstream oil and gas environment
CN107170466B (zh) * 2017-04-14 2020-12-29 中国科学院计算技术研究所 基于音频的拖地声检测方法
CN107403191A (zh) * 2017-07-03 2017-11-28 杭州电子科技大学 一种具有深度结构的半监督超限学习机分类方法
CN107610692B (zh) * 2017-09-22 2020-07-21 杭州电子科技大学 基于神经网络堆叠自编码器多特征融合的声音识别方法
CN109671433B (zh) * 2019-01-10 2023-06-16 腾讯科技(深圳)有限公司 一种关键词的检测方法以及相关装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085704A (zh) * 2017-03-27 2017-08-22 杭州电子科技大学 基于elm自编码算法的快速人脸表情识别方法

Also Published As

Publication number Publication date
CN110364141A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN110364141B (zh) 基于深度单分类器的电梯典型异常声音报警方法
CN108648748B (zh) 医院噪声环境下的声学事件检测方法
KR101969504B1 (ko) 심층 신경망을 기반으로 한 사운드 이벤트 검출 방법 및 사운드 이벤트 검출 장치
Marchi et al. A novel approach for automatic acoustic novelty detection using a denoising autoencoder with bidirectional LSTM neural networks
CN111048114A (zh) 一种设备异常声音检测的设备及方法
CN110120230B (zh) 一种声学事件检测方法及装置
CN113674768B (zh) 基于声学的呼救检测方法、装置、设备及存储介质
CN112478975A (zh) 基于音频特征的电梯门故障检测方法
CN113707175B (zh) 基于特征分解分类器与自适应后处理的声学事件检测系统
CN111223261A (zh) 一种复合智能生产安防系统及其安防方法
Turan et al. Monitoring Infant's Emotional Cry in Domestic Environments Using the Capsule Network Architecture.
Bajzik et al. Gunshot detection using convolutional neural networks
CN112329974B (zh) 基于lstm-rnn的民航安保事件行为主体识别与预测方法及系统
CN114023353A (zh) 基于聚类分析和相似度计算的变压器故障分类方法及系统
CN117585553A (zh) 电梯异常检测方法、装置、计算机设备及存储介质
CN110472563B (zh) 基于小波包分解和神经网络的直梯振动过大故障诊断方法
CA3164369A1 (en) Diagnosing respiratory maladies from subject sounds
CN117262942A (zh) 电梯异常检测方法、装置、计算机设备及存储介质
CN116910690A (zh) 一种基于数据融合的目标分类系统
Zhang et al. Automatic recognition of porcine abnormalities based on a sound detection and recognition system
CN104980442A (zh) 一种基于元样本稀疏表示的网络入侵检测方法
CN113247730B (zh) 基于多维特征的电梯乘客尖叫检测方法及系统
CN109243486A (zh) 一种基于机器学习的反黑飞声探测方法
Dadula et al. Neural network classification for detecting abnormal events in a public transport vehicle
CN112850408B (zh) 一种基于多模型融合的电梯急停困人故障检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant