CN109326355B - 一种消防员呼吸声音监测耳机及其身体状态评估方法 - Google Patents

一种消防员呼吸声音监测耳机及其身体状态评估方法 Download PDF

Info

Publication number
CN109326355B
CN109326355B CN201810933197.2A CN201810933197A CN109326355B CN 109326355 B CN109326355 B CN 109326355B CN 201810933197 A CN201810933197 A CN 201810933197A CN 109326355 B CN109326355 B CN 109326355B
Authority
CN
China
Prior art keywords
sound
sample
frequency
frequency range
triangular filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810933197.2A
Other languages
English (en)
Other versions
CN109326355A (zh
Inventor
刘半藤
陈友荣
陆枇伦
胡聪
王章权
苏子漪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shuren University
Original Assignee
Zhejiang Shuren University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shuren University filed Critical Zhejiang Shuren University
Priority to CN201810933197.2A priority Critical patent/CN109326355B/zh
Publication of CN109326355A publication Critical patent/CN109326355A/zh
Application granted granted Critical
Publication of CN109326355B publication Critical patent/CN109326355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • G06F2218/06Denoising by applying a scale-space analysis, e.g. using wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Alarm Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种消防员呼吸声音监测耳机,包括声音采集模块、骨传导声音播放模块、存储器模块、按键模块、窄带物联网模块、STM32处理器模块、电源管理模块和锂电池模块,以及提供一种消防员身体状态评估方法。当处于火灾救援现场时,消防员头戴呼吸声音监测耳机,呼吸声音监测耳机可第一时间采集消防员在火灾救援现场过程中的呼吸声音,分析和识别消防员的身体状态,评估消防员是否处于危险状态。本发明有效解决火灾救援现场中消防人员的身体状态评估问题,具有扩展灵活、携带方便、无线互联、价格便宜等特点,从而提高了不同消防人员身体状态的正确识别率,降低了消防人员身体状态识别的错误接受率,降低消防人员的伤亡率。

Description

一种消防员呼吸声音监测耳机及其身体状态评估方法
技术领域
本发明涉及消防领域,尤其涉及声音处理技术领域,具体是指一种消防员呼吸声音监测耳机及其身体状态评估方法。
背景技术
火灾发生后,现场出现大量的浓烟、毒气和烈火,浓烟、毒气和烈火的不受控,人员的受伤和恐慌等情况,导致救援现场比较混乱,消防员容易出现意外甚至威胁其生命安全情况。因此需要一种消防员的身体状态评估方法,在火灾救援现场对消防员的身体状态进行评估,及时发现身体出现异常情况的消防员,及时开展对他的救援,挽救该消防员的生命。
由于声音信号可直接方便的产生,而且其大小一定程度上反映着周围环境变化的强烈程度。正常人运动过程中,呼吸气流通过呼吸道和肺泡,产生湍流引起振动,发出声响,通过肺组织及胸壁传至体表的声音,即为呼吸声音。每个人在运动过程中,由于身体状态的不同可产生不同的呼吸声音,因此可分析消防员在运动过程中的呼吸声音,从而判断消防员的身体状态。因此目前很多学者根据运动状态和声音信号实现各种应用。如王艳等人将声音识别技术应用于车辆类型的自动识别,提出了一种改进的基于实时编码信号处理算法的特征提取方法。李应等人利用正交匹配追踪(Orthogonal Matching Pursuit,OMP)稀疏分解并重构声音信号,通过优化OMP复合特征,对声音进行识别。李应等人对不同交通流状态下的交通噪声信号进行谱分析,以归一化的峰值频率作为特征,用支持向量机对不同的交通流状态进行识别。Sujono A等人利用麦克风传感器采集声音振动信号,通过滤波、归一化处理对汽油机爆震进行检测和识别。
目前很多方法虽然利用声音信号实现较多应用,但是都没有考虑呼吸声音的处理。考虑到不同运动状态会有不同频率的呼吸声音,且目前很多语音识别方法都是将人体产生的语音信号传输给云服务器进行在线识别。基于云服务器的声音识别方法对设备的网络带宽要求较高且通信能耗较大,难以应用到处于恶劣火灾环境下的消防员身体状态评估中。
发明内容
为了克服现有技术无法识别和评估在火灾救援现场中消防员的身体状态的不足,本发明提供一种消防员呼吸声音监测耳机及其身体状态评估方法,包括提供一种灵活性良好、价格适中、携带方便、拓展简单的消防员呼吸声音监测耳机,以及提供一种识别率较高的消防员身体状态评估方法。
为了解决上述技术问题本发明采用的技术方案为:
一种消防员呼吸声音监测耳机,包括用于获取消防人员发出声音的声音采集模块,用于实现预警、指挥员语音播放的骨传导声音播放模块,用于存储样本声音、当前采集声音特征数据的存储器模块,用于启动关闭电源、启动关闭识别操作的按键模块,用于与云服务器连接且进行数据通信的窄带物联网模块,用于实现消防员语音和呼吸声音的采集、处理、识别和身体状态评价的STM32处理器模块,用于实现锂电池的能量管理、充电和没电预警的电源管理模块,用于提供耳机能量的锂电池模块,所述STM32处理器模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块和按键模块连接,所述电源管理模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块、按键模块和STM32处理器模块连接,所述锂电池与电源管理模块连接。
进一步,所述消防员呼吸声音监测耳机还包括用于实现呼吸声音监测耳机和云服务器通信的窄带物联网基站,用于接收呼吸声音监测耳机数据的云服务器。
再进一步,所述STM32模块采用意法半导体的STM32F7系列芯片。
所述声音采集模块采用ALIENTEK开发的ATK-VS1053MP3模块。
所述骨传导声音播放模块采用正泽科技公司的H1M1模块。
所述存储器模块采用闪迪公司的COMPACTFLASH模块。
所述窄带物联网模块采用中兴公司的ME3616模块。
所述锂电池采用栢锐视讯科技公司的5680模块。
所述电源管理模块采用Risym公司的TP5100型号。
一种消防员身体状态评估方法,包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
Figure BDA0001767153250000031
3)对第k个帧声音数据进行小波阈值去噪,去除信号噪声;
4)对小波去噪后的第k个帧声音数据进行归一化;
5)对归一化后的第k个帧声音数据进行初始特征参数提取,获得其初始特征参数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;
8)根据声音样本特征向量,进行神经网络模型的训练;
9)每隔设定时间段,询问消防员的当前作战情况;如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常,重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的设定时长的呼吸声音。对声音进行分帧、小波去躁、归一化、特征向量提取操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值;根据R的值,选择最大元素且其大于设定阈值时,则判断该声音为相对的状态,记录该状态的时间;
Figure BDA0001767153250000041
其中R是一个1×n维的向量,
Figure BDA0001767153250000042
表示θ1的第l个元素,
Figure BDA0001767153250000043
表示θ2的第n个元素,θ1表示隐含层神经元的阈值参数,θ2表示输出层神经元的阈值参数,
Figure BDA0001767153250000044
表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,
Figure BDA0001767153250000045
表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素,h(·)表示隐含层的传递函数,g(·)表示输出层的传递函数;
12)更新样本的特征向量;
13)根据统计采集时间、各个状态的时间,通过公式(20)计算评价分数。如果评价分数大于设定值,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态;如果用户没有结束身体状态评估功能,则跳到步骤 14),否则结束,退出;
Figure BDA0001767153250000051
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。
进一步,所述步骤3)中,所述小波阈值去噪方法包含如下步骤:
(3.1)选择db4小波基,并设定小波分解层数为4层;
(3.2)对声音信号x(n)进行4层小波分解,可得小波系数;
(3.3)如果每一层高频小波系数的绝对值小于阈值λ,则该小波系数变为0,否则保持不变,最终输出处理后的小波系数;
Figure BDA0001767153250000052
其中,CN表示第N层高频小波系数,λ表示阈值;
(3.4)根据小波分解得到的低频系数和经过处理的高频小波系数,进行小波反变换重构声音信号,最终可得到去噪后的声音信号。
进一步,所述步骤4)中,所述归一化的方法为:将小波去噪后的声音中所有数据之和再除以这组数据的个数。将所有的值减去平均值,则将数据归一化到平均值附近内。
进一步,所述步骤5)中,所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱;
Figure BDA0001767153250000061
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT 变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
Figure BDA0001767153250000062
其中,Ha(m)表示第a个三角滤波器的频率响应,且
Figure BDA0001767153250000063
f(a)表示三角滤波器的中心频率;当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为 150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5 时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为 650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为 700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为 750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为 850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为 950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为 1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为 1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为 2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为 4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算。
Figure BDA0001767153250000071
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数。
Figure BDA0001767153250000072
其中,C(n)表示第n个特征系数。
进一步,所述步骤7)中,所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
Figure BDA0001767153250000073
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j 个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi
Figure BDA0001767153250000074
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
Figure BDA0001767153250000081
(7.5)通过公式(11),计算类内离散度矩阵Si
Figure BDA0001767153250000082
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
Figure BDA0001767153250000083
(7.7)计算(SW)-1SB,获得矩阵max,计算该矩阵max的特征向量V和特征值 D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′,计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量。
进一步,所述步骤8)中,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol]。令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
Figure BDA0001767153250000084
其中,
Figure BDA0001767153250000085
表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,
Figure BDA0001767153250000086
表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素; (8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
Figure BDA0001767153250000087
其中,
Figure BDA0001767153250000088
表示θ1的第l个元素,
Figure BDA0001767153250000089
表示θ2的第n个元素;
则隐含层神经元的输出为:
Figure BDA0001767153250000091
其中,
Figure BDA0001767153250000092
h(·)表示隐含层的传递函数;
输出层神经元的输出为:
Figure BDA0001767153250000093
其中,
Figure BDA0001767153250000094
g(·)表示输出层的传递函数;
(8.3)通过公式(17),计算网络输出与期望输出的误差;
Figure BDA0001767153250000095
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3)。
Figure BDA0001767153250000096
其中,η1表示隐含层的学习步长,η2分别表示输出层的学习步长,
Figure BDA0001767153250000097
h′(·)表示隐含层的传递函数h(·)对
Figure BDA0001767153250000098
的一阶导数,g′(·)表示隐含层的传递函数g(·)对
Figure BDA0001767153250000099
的一阶导数。
进一步,所述步骤12)中,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本。对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较。当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤 12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量。
与现有技术相比,本发明具有如下有益效果:本发明的消防员呼吸声音监测耳机将声音处理技术应用到消防领域中,实现设备与云服务器的低能耗互联,并可采集消防员的呼吸声音,离线识别消防员的身体状态。当处于火灾救援现场时,消防员头戴呼吸声音监测耳机,呼吸声音监测耳机可第一时间采集消防员在火灾救援现场过程中的呼吸声音,分析和识别消防员的身体状态,评估消防员是否处于危险状态。本发明的消防员身体状态评估方法先通过语音对话,与消防人员进行简单的人机对话确认消防人员的身体状态,如果消防员没有及时做出语音响应时,则通过初始化、分帧、小波去噪、特征参数提取、Fisher降维、神经网络建模、识别、本地样本更新等步骤实现消防员微弱、运动、疲倦和环境声音四种状态的离线识别,并设置微弱、运动、疲倦三种状态的比例参数,从而评估消防人员的身体状态。本发明有效解决火灾救援现场中消防人员的身体状态评估问题,具有扩展灵活、携带方便、无线互联、价格便宜等特点,从而提高了不同消防人员身体状态的正确识别率,降低了错误接受率,降低消防人员的伤亡率。
附图说明
图1是本发明的消防员呼吸声音监测耳机的结构图。
图2是本发明的消防员身体状态识别方法的原理框图。
图3是本发明的消防员身体状态识别方法的流程图。
具体实施方案
下面结合附图对本发明作进一步描述。
参照图1,一种消防员呼吸声音监测耳机,每一个消防员在火灾救援现场时,头戴消防员呼吸声音监测耳机。所述消防员呼吸声音监测耳机包括用于获取消防人员发出声音的声音采集模块,用于实现预警、指挥员等相关语音播放的骨传导声音播放模块,用于存储样本声音、当前采集声音特征等数据的存储器模块,用于启动关闭电源、启动关闭识别等操作的按键模块,用于与云服务器连接且进行数据通信的窄带物联网模块,用于实现消防员语音和呼吸声音的采集、处理、识别和身体状态评价等功能的STM32处理器模块,是声音采集耳机的处理核心,用于实现锂电池的能量管理、充电和没电预警等功能的电源管理模块,用于提供耳机能量的锂电池模块。其中,所述STM32处理器模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块和按键模块连接,所述电源管理模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块、按键模块和STM32处理器模块连接,所述锂电池与电源管理模块连接。
上述方案中还包括用于实现呼吸声音监测耳机和云服务器通信的窄带物联网基站,用于接收呼吸声音监测耳机数据的云服务器。
对上述方案进一步优化:
所述STM32模块采用意法半导体的STM32F7系列芯片。STM32F7系列芯片采用ARM-Cortex-M7内核,具有240K SRAM1&SRAM2,64K的字节DTCM, 16K字节的ITCM RAM,4K字节备份SRAM,集成两个通用DMA控制器、以太网、低功耗定时器、图形硬件加速器(Chrom-ART)等外设。
所述声音采集模块采用ALIENTEK开发的ATK-VS1053MP3模块。该模块接口丰富、功能完善,需提供电源(3.3V/5.0V),可实现声音采集功能。此外模块功能齐全、接口丰富。模块尺寸为34mm*52.6mm,并带有安装孔位,非常小巧,并且利于安装,可方便应用于各种设计。
所述骨传导声音播放模块采用正泽科技公司的H1M1模块。H1M1模块是一种专门用于极度危险环境下小巧轻便的头盔通信单元,使用方便,通过高感度的振动传感器收集传到头骨的声带振动,并把振动信号转换成声音信号。同时使用了独特的臂/带锁扣设计,其不需要借助任何工具便可轻松而且非常牢固的安装在几乎所有的标准头盔里,不影响使用呼吸面具等其他防护装备;PTT控制按钮将拾音器的震动信号转换成普通的音频信号,经过噪音滤静处理后,放大至对讲机可匹配的信号,然后传输至对讲机。
所述存储器模块采用闪迪公司的COMPACTFLASH模块。COMPACTFLASH 模块具备高达160MB/s的传输速度与不低于65MB/s持续写入速度。其容量高达256GB,可存放数小时的视频以及数以千计的高分辨率图像。此外还可抵御极端温度、冲击和其他严苛状况,保证数据不会意外丢失,结合配套软件可轻松做到数据恢复。
所述窄带物联网模块采用中兴公司的ME3616模块。ME3616模块是一款支持NB-IoT通信标准的窄带蜂窝物联网通信模块。该模块支持多种网络协议 (CoAP、TCP/UDP、MQTT)和多种低功耗模式(PSM、eDRX)。在NB-IoT制式下,该模块可以提供最大66Kbps上行速率和34Kbps下行速率。该模块为极小尺寸LCC紧凑型封装模块,适用于可穿戴设备等对于模块尺寸有严格要求的应用领域。
所述锂电池采用栢锐视讯科技公司的5680模块。该模块的输入电压: 5VDC,输出电压:5VDC,电池容量:6800mA,重量:120克,适合穿戴式设备的使用。
所述电源管理模块采用Risym公司的TP5100型号。TP5100模块是支持开关降压型双节8.4V和单节4.2V锂电池充电管理、其QFN16小型封装与简单的外围电路使得TP5 100非常适用于便携式设备的大电流充电管理应用。同时 TP5100模块具有过流、欠压保护、过温保护、电池温度监控、电池反接保护等功能。TP5100模块具有5V-18V宽输入电压、采用频率400kHz的开关工作模式,且内置功率PMOSFET、防倒灌电路、所以无需放倒灌肖特基二极管等外围保护。
参照图2和图3,一种消防员身体状态评估方法,包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
Figure BDA0001767153250000131
3)对第k个帧声音数据采用小波阈值去噪方法,去除信号噪声;其中小波阈值去噪方法包含如下步骤:
(3.1)选择db4小波基,并设定小波分解层数为4层;
(3.2)对声音信号x(n)进行4层小波分解,可得小波系数;
(3.3)如果每一层高频小波系数的绝对值小于阈值λ,则该小波系数变为0,否则保持不变,最终输出处理后的小波系数;
Figure BDA0001767153250000132
其中,CN表示第N层高频小波系数,λ表示阈值;
(3.4)根据小波分解得到的低频系数和经过处理的高频小波系数,进行小波反变换重构声音信号,最终可得到去噪后的声音信号;
4)对小波去噪后的第k个帧声音数据进行归一化。归一化的具体方法如下:将小波去噪后的声音中所有数据之和再除以这组数据的个数。将所有的值减去平均值,则将数据归一化到平均值附近内;
5)对归一化后的第k个帧声音数据,采用初始特征参数提取方法,获得其初始特征参数;所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱,
Figure BDA0001767153250000133
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT 变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
Figure BDA0001767153250000141
其中,Ha(m)表示第a个三角滤波器的频率响应,且
Figure BDA0001767153250000142
f(a)表示三角滤波器的中心频率。当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为 150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5 时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为 650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为 700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为 750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为 850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为 950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为 1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为 1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为 2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为 4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算,
Figure BDA0001767153250000151
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数,
Figure BDA0001767153250000152
其中,C(n)表示第n个特征系数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
Figure BDA0001767153250000153
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j 个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi
Figure BDA0001767153250000161
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
Figure BDA0001767153250000162
(7.5)通过公式(11),计算类内离散度矩阵Si
Figure BDA0001767153250000163
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
Figure BDA0001767153250000164
(7.7)计算(SW)-1SB,获得矩阵max。计算该矩阵max的特征向量V和特征值 D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′。计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量;
8)根据声音样本特征向量,采用神经网络模型的训练方法进行模型训练,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol]。令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
Figure BDA0001767153250000165
其中,
Figure BDA0001767153250000166
表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,
Figure BDA0001767153250000167
表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素。 (8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
Figure BDA0001767153250000171
其中,
Figure BDA0001767153250000172
表示θ1的第l个元素,
Figure BDA0001767153250000173
表示θ2的第n个元素。
则隐含层神经元的输出为:
Figure BDA0001767153250000174
其中,
Figure BDA0001767153250000175
h(·)表示隐含层的传递函数。
输出层神经元的输出为:
Figure BDA0001767153250000176
其中,
Figure BDA0001767153250000177
g(·)表示输出层的传递函数。
(8.3)通过公式(17),计算网络输出与期望输出的误差;
Figure BDA0001767153250000178
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3)。
Figure BDA0001767153250000179
其中,η1表示隐含层的学习步长,η2分别表示输出层的学习步长,
Figure BDA00017671532500001710
h′(·)表示隐含层的传递函数h(·)对
Figure BDA00017671532500001711
的一阶导数,g′(·)表示隐含层的传递函数g(·)对
Figure BDA00017671532500001712
的一阶导数;
9)每隔10分钟时间,询问消防员的当前作战情况。如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常。重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的5s呼吸声音。对声音进行分帧、小波去躁、归一化、特征向量提取等操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量。其中分帧、小波去躁、归一化和特征向量提取的方法和步骤2)-7)中方法一致;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值,根据R的值,选择最大元素且其大于85%时,则判断该声音为相对的状态,记录该状态的时间;
Figure BDA0001767153250000181
其中R是一个1×n维的向量;
12)采用样本特征向量的更新方法进行样本更新,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本。对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较。当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤 12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量;
13)根据统计采集时间、各个状态的时间,计算评价分数。如果评价分数很高,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态。如果用户没有结束身体状态评估功能,则跳到步骤14),否则结束,退出。评价分数的计算公式为:
Figure BDA0001767153250000191
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。

Claims (7)

1.一种消防员呼吸声音监测耳机实现的消防员身体状态评估方法,其特征在于,所述方法包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
Figure FDA0003513195880000011
3)对第k个帧声音数据进行小波阈值去噪,去除信号噪声;
4)对小波去噪后的第k个帧声音数据进行归一化;
5)对归一化后的第k个帧声音数据进行初始特征参数提取,获得其初始特征参数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;
8)根据声音样本特征向量,进行神经网络模型的训练;
9)每隔设定时间段,询问消防员的当前作战情况;如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常,重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的设定时长的呼吸声音,对声音进行分帧、小波去躁、归一化、特征向量提取操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值;根据R的值,选择最大元素且其大于设定阈值时,则判断该声音为相对的状态,记录该状态的时间;
Figure FDA0003513195880000021
其中R是一个1×n维的向量,
Figure FDA0003513195880000022
表示θ1的第j个元素,
Figure FDA0003513195880000023
表示θ2的第k个元素,θ1表示隐含层神经元的阈值参数,θ2表示输出层神经元的阈值参数,
Figure FDA0003513195880000024
表示输入层与隐含层神经元间的网络权值矩阵W1中的第i行第j列元素,
Figure FDA0003513195880000025
表示输入层与隐含层神经元间的网络权值矩阵W2中的第k行第j列元素,h(·)表示隐含层的传递函数,g(·)表示输出层的传递函数;
12)更新样本的特征向量;
13)根据统计采集时间、各个状态的时间,通过公式(20)计算评价分数,如果评价分数大于设定值,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态;如果用户没有结束身体状态评估功能,则跳到步骤14),否则结束,退出;
Figure FDA0003513195880000026
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。
2.如权利要求1所述的消防员身体状态评估方法,其特征在于,所述步骤3)中,所述小波阈值去噪方法包含如下步骤:
(3.1)选择db4小波基,并设定小波分解层数为4层;
(3.2)对声音信号x(n)进行4层小波分解,可得小波系数;
(3.3)如果每一层高频小波系数的绝对值小于阈值λ,则该小波系数变为0,否则保持不变,最终输出处理后的小波系数;
Figure FDA0003513195880000031
其中,CN表示第N层高频小波系数,λ表示阈值;
(3.4)根据小波分解得到的低频系数和经过处理的高频小波系数,进行小波反变换重构声音信号,最终可得到去噪后的声音信号。
3.如权利要求1或2所述的消防员身体状态评估方法,其特征在于,所述步骤5)中,所述步骤4)中,所述归一化的方法为:将小波去噪后的声音中所有数据之和再除以这组数据的个数,将所有的值减去平均值,则将数据归一化到平均值附近内。
4.如权利要求2所述的消防员身体状态评估方法,其特征在于,所述步骤5)中,所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱;
Figure FDA0003513195880000032
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
Figure FDA0003513195880000041
其中,Ha(m)表示第a个三角滤波器的频率响应,且
Figure FDA0003513195880000042
f(a)表示三角滤波器的中心频率;当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算,
Figure FDA0003513195880000051
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数,
Figure FDA0003513195880000052
其中,C(n)表示第n个特征系数。
5.如权利要求4所述的消防员身体状态评估方法,其特征在于,所述步骤7)中,所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
Figure FDA0003513195880000053
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi
Figure FDA0003513195880000054
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
Figure FDA0003513195880000055
(7.5)通过公式(11),计算类内离散度矩阵Si
Figure FDA0003513195880000056
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
Figure FDA0003513195880000061
(7.7)计算(SW)-1SB,获得矩阵max,计算该矩阵max的特征向量V和特征值D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′,计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量。
6.如权利要求5所述的消防员身体状态评估方法,其特征在于,所述步骤8)中,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol],令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
Figure FDA0003513195880000062
其中,
Figure FDA0003513195880000063
表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,
Figure FDA0003513195880000064
表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素;
(8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
Figure FDA0003513195880000065
其中,
Figure FDA0003513195880000066
表示θ1的第l个元素,
Figure FDA0003513195880000067
表示θ2的第n个元素;
则隐含层神经元的输出为:
Figure FDA0003513195880000068
其中,
Figure FDA0003513195880000069
h(·)表示隐含层的传递函数;
输出层神经元的输出为:
Figure FDA00035131958800000610
其中,
Figure FDA0003513195880000071
g(·)表示输出层的传递函数;
(8.3)通过公式(17),计算网络输出与期望输出的误差;
Figure FDA0003513195880000072
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3),
Figure FDA0003513195880000073
其中,η1表示隐含层的学习步长,η2分别表示输出层的学习步长,
Figure FDA0003513195880000074
h′(·)表示隐含层的传递函数h(·)对
Figure FDA0003513195880000075
的一阶导数,g′(·)表示隐含层的传递函数g(·)对
Figure FDA0003513195880000076
的一阶导数。
7.如权利要求6所述的消防员身体状态评估方法,其特征在于,所述步骤12)中,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本,对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较,当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量。
CN201810933197.2A 2018-08-16 2018-08-16 一种消防员呼吸声音监测耳机及其身体状态评估方法 Active CN109326355B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810933197.2A CN109326355B (zh) 2018-08-16 2018-08-16 一种消防员呼吸声音监测耳机及其身体状态评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810933197.2A CN109326355B (zh) 2018-08-16 2018-08-16 一种消防员呼吸声音监测耳机及其身体状态评估方法

Publications (2)

Publication Number Publication Date
CN109326355A CN109326355A (zh) 2019-02-12
CN109326355B true CN109326355B (zh) 2022-04-22

Family

ID=65263686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810933197.2A Active CN109326355B (zh) 2018-08-16 2018-08-16 一种消防员呼吸声音监测耳机及其身体状态评估方法

Country Status (1)

Country Link
CN (1) CN109326355B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111856452B (zh) * 2020-05-21 2022-09-20 重庆邮电大学 基于omp的静态人体心跳和呼吸信号分离重构方法
CN112489330B (zh) * 2020-12-02 2022-02-11 广东电网有限责任公司江门供电局 一种仓库防盗报警方法
CN112255921B (zh) * 2020-12-21 2021-09-07 宁波圻亿科技有限公司 一种ar眼镜智能控制系统及方法
CN114926854A (zh) * 2022-04-20 2022-08-19 北京理工大学 消防员火场行为识别模型构建方法及装置
CN116229581B (zh) * 2023-03-23 2023-09-19 珠海市安克电子技术有限公司 一种基于大数据的智能互联急救系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101091650A (zh) * 2006-06-22 2007-12-26 杨章民 生理机能监控系统
JP2008167799A (ja) * 2007-01-09 2008-07-24 Ntt Data Corp 診療音分析装置、及び、プログラム
CN101371801A (zh) * 2008-10-10 2009-02-25 华南理工大学 基于ZigBee的病房无线监护系统
CN102945675A (zh) * 2012-11-26 2013-02-27 江苏物联网研究发展中心 检测户外呼救声音的智能传感网络系统
CN104887263A (zh) * 2015-05-21 2015-09-09 东南大学 一种基于心音多维特征提取的身份识别算法及其系统
CN107124748A (zh) * 2017-05-08 2017-09-01 浙江树人学院 一种移动传感网的Sink节点移动路径规划方法
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9949667B2 (en) * 2008-11-17 2018-04-24 University Health Network Mask and method for use in respiratory monitoring and diagnostics

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101091650A (zh) * 2006-06-22 2007-12-26 杨章民 生理机能监控系统
JP2008167799A (ja) * 2007-01-09 2008-07-24 Ntt Data Corp 診療音分析装置、及び、プログラム
CN101371801A (zh) * 2008-10-10 2009-02-25 华南理工大学 基于ZigBee的病房无线监护系统
CN102945675A (zh) * 2012-11-26 2013-02-27 江苏物联网研究发展中心 检测户外呼救声音的智能传感网络系统
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统
CN104887263A (zh) * 2015-05-21 2015-09-09 东南大学 一种基于心音多维特征提取的身份识别算法及其系统
CN107124748A (zh) * 2017-05-08 2017-09-01 浙江树人学院 一种移动传感网的Sink节点移动路径规划方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Research on Multi-Sensors Recognition Algorithm Based on Cloud Fusion Technology for Subsurface Defect Depth;liu Banteng等;《Chinese Journal of Sensors and Actuators》;20171231;第30卷(第12期);第1900-5页,全文 *
Respiratory sounds classification using statistical biomarker;Ashok Mondal等;《2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC)》;20170914;第2952-2955页,全文 *
一种无线传感网的 Sink 节点移动路径规划算法研究;陈友荣等;《传感技术学报》;20171231;第30卷(第12期);第1933-1940页,全文 *
基于SVM 方法的神经网络呼吸音识别算法;刘国栋等;《通信学报》;20141031(第10期);第218-222页,第1、3-5节,附图1-2 *
基于骨导音信号的睡眠呼吸状态的监测与健康分析;陈龙;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20150515(第5期);第E073-9页,全文 *

Also Published As

Publication number Publication date
CN109326355A (zh) 2019-02-12

Similar Documents

Publication Publication Date Title
CN109326355B (zh) 一种消防员呼吸声音监测耳机及其身体状态评估方法
Wang et al. Accelerometry based classification of walking patterns using time-frequency analysis
Litvak et al. Fall detection of elderly through floor vibrations and sound
Chedad et al. AP—animal production technology: recognition system for pig cough based on probabilistic neural networks
US10338091B2 (en) Concussion detection and communication system
US7574357B1 (en) Applications of sub-audible speech recognition based upon electromyographic signals
CN106037635A (zh) 一种基于可穿戴设备的智能预警系统和方法
CN107532959A (zh) 个人撞击监视系统
CN109009125B (zh) 基于移动终端音频的驾驶员细粒度呼吸监测方法及系统
CN104382614A (zh) 一种基于快速独立分量分析的心音肺音信号分离方法及装置
CN107049308B (zh) 一种基于深度神经网络的意念控制系统
CN209268808U (zh) 输电线路施工高空人员安全监控装置
JP2009525107A (ja) 歩行分析
CN110737201B (zh) 一种监护方法、装置、存储介质及空调
CN107979985A (zh) 一种车载健康安全驾驶辅助装置
CN108903936A (zh) 基于人体信息和环境信息融合的智能矿用头盔控制方法
CN110162182B (zh) 脑电控制模块装置及其控制受控设备的方法
CN105808959A (zh) 一种运动检测系统、运动检测终端及云平台
CN110415152A (zh) 一种安全监控系统
CN209032422U (zh) 一种心音信号检测设备
CN103294199A (zh) 一种基于脸部肌音信号的无声信息识别系统
Yang et al. A wearable real-time fall detector based on Naive Bayes classifier
CN104490391A (zh) 一种基于脑电信号的战斗人员状态监测系统
CN106943150A (zh) 精神疲劳检测系统及其采用的方法
CN107744392A (zh) 呼吸异常监控方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant