CN109326355B - 一种消防员呼吸声音监测耳机及其身体状态评估方法 - Google Patents
一种消防员呼吸声音监测耳机及其身体状态评估方法 Download PDFInfo
- Publication number
- CN109326355B CN109326355B CN201810933197.2A CN201810933197A CN109326355B CN 109326355 B CN109326355 B CN 109326355B CN 201810933197 A CN201810933197 A CN 201810933197A CN 109326355 B CN109326355 B CN 109326355B
- Authority
- CN
- China
- Prior art keywords
- sound
- sample
- frequency
- frequency range
- triangular filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000037656 Respiratory Sounds Diseases 0.000 title claims abstract description 28
- 238000012544 monitoring process Methods 0.000 title claims abstract description 19
- 238000011156 evaluation Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 54
- 210000002569 neuron Anatomy 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 28
- 230000009191 jumping Effects 0.000 claims description 22
- 230000005236 sound signal Effects 0.000 claims description 22
- 238000012546 transfer Methods 0.000 claims description 16
- 238000009432 framing Methods 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 239000006185 dispersion Substances 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 230000000241 respiratory effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000037433 frameshift Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 abstract description 11
- 229910052744 lithium Inorganic materials 0.000 abstract description 11
- 210000000988 bone and bone Anatomy 0.000 abstract description 9
- 230000036541 health Effects 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000006855 networking Effects 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 239000002341 toxic gas Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000030279 gene silencing Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000002345 respiratory system Anatomy 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000000779 thoracic wall Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
- G06F2218/06—Denoising by applying a scale-space analysis, e.g. using wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Alarm Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一种消防员呼吸声音监测耳机,包括声音采集模块、骨传导声音播放模块、存储器模块、按键模块、窄带物联网模块、STM32处理器模块、电源管理模块和锂电池模块,以及提供一种消防员身体状态评估方法。当处于火灾救援现场时,消防员头戴呼吸声音监测耳机,呼吸声音监测耳机可第一时间采集消防员在火灾救援现场过程中的呼吸声音,分析和识别消防员的身体状态,评估消防员是否处于危险状态。本发明有效解决火灾救援现场中消防人员的身体状态评估问题,具有扩展灵活、携带方便、无线互联、价格便宜等特点,从而提高了不同消防人员身体状态的正确识别率,降低了消防人员身体状态识别的错误接受率,降低消防人员的伤亡率。
Description
技术领域
本发明涉及消防领域,尤其涉及声音处理技术领域,具体是指一种消防员呼吸声音监测耳机及其身体状态评估方法。
背景技术
火灾发生后,现场出现大量的浓烟、毒气和烈火,浓烟、毒气和烈火的不受控,人员的受伤和恐慌等情况,导致救援现场比较混乱,消防员容易出现意外甚至威胁其生命安全情况。因此需要一种消防员的身体状态评估方法,在火灾救援现场对消防员的身体状态进行评估,及时发现身体出现异常情况的消防员,及时开展对他的救援,挽救该消防员的生命。
由于声音信号可直接方便的产生,而且其大小一定程度上反映着周围环境变化的强烈程度。正常人运动过程中,呼吸气流通过呼吸道和肺泡,产生湍流引起振动,发出声响,通过肺组织及胸壁传至体表的声音,即为呼吸声音。每个人在运动过程中,由于身体状态的不同可产生不同的呼吸声音,因此可分析消防员在运动过程中的呼吸声音,从而判断消防员的身体状态。因此目前很多学者根据运动状态和声音信号实现各种应用。如王艳等人将声音识别技术应用于车辆类型的自动识别,提出了一种改进的基于实时编码信号处理算法的特征提取方法。李应等人利用正交匹配追踪(Orthogonal Matching Pursuit,OMP)稀疏分解并重构声音信号,通过优化OMP复合特征,对声音进行识别。李应等人对不同交通流状态下的交通噪声信号进行谱分析,以归一化的峰值频率作为特征,用支持向量机对不同的交通流状态进行识别。Sujono A等人利用麦克风传感器采集声音振动信号,通过滤波、归一化处理对汽油机爆震进行检测和识别。
目前很多方法虽然利用声音信号实现较多应用,但是都没有考虑呼吸声音的处理。考虑到不同运动状态会有不同频率的呼吸声音,且目前很多语音识别方法都是将人体产生的语音信号传输给云服务器进行在线识别。基于云服务器的声音识别方法对设备的网络带宽要求较高且通信能耗较大,难以应用到处于恶劣火灾环境下的消防员身体状态评估中。
发明内容
为了克服现有技术无法识别和评估在火灾救援现场中消防员的身体状态的不足,本发明提供一种消防员呼吸声音监测耳机及其身体状态评估方法,包括提供一种灵活性良好、价格适中、携带方便、拓展简单的消防员呼吸声音监测耳机,以及提供一种识别率较高的消防员身体状态评估方法。
为了解决上述技术问题本发明采用的技术方案为:
一种消防员呼吸声音监测耳机,包括用于获取消防人员发出声音的声音采集模块,用于实现预警、指挥员语音播放的骨传导声音播放模块,用于存储样本声音、当前采集声音特征数据的存储器模块,用于启动关闭电源、启动关闭识别操作的按键模块,用于与云服务器连接且进行数据通信的窄带物联网模块,用于实现消防员语音和呼吸声音的采集、处理、识别和身体状态评价的STM32处理器模块,用于实现锂电池的能量管理、充电和没电预警的电源管理模块,用于提供耳机能量的锂电池模块,所述STM32处理器模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块和按键模块连接,所述电源管理模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块、按键模块和STM32处理器模块连接,所述锂电池与电源管理模块连接。
进一步,所述消防员呼吸声音监测耳机还包括用于实现呼吸声音监测耳机和云服务器通信的窄带物联网基站,用于接收呼吸声音监测耳机数据的云服务器。
再进一步,所述STM32模块采用意法半导体的STM32F7系列芯片。
所述声音采集模块采用ALIENTEK开发的ATK-VS1053MP3模块。
所述骨传导声音播放模块采用正泽科技公司的H1M1模块。
所述存储器模块采用闪迪公司的COMPACTFLASH模块。
所述窄带物联网模块采用中兴公司的ME3616模块。
所述锂电池采用栢锐视讯科技公司的5680模块。
所述电源管理模块采用Risym公司的TP5100型号。
一种消防员身体状态评估方法,包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
3)对第k个帧声音数据进行小波阈值去噪,去除信号噪声;
4)对小波去噪后的第k个帧声音数据进行归一化;
5)对归一化后的第k个帧声音数据进行初始特征参数提取,获得其初始特征参数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;
8)根据声音样本特征向量,进行神经网络模型的训练;
9)每隔设定时间段,询问消防员的当前作战情况;如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常,重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的设定时长的呼吸声音。对声音进行分帧、小波去躁、归一化、特征向量提取操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值;根据R的值,选择最大元素且其大于设定阈值时,则判断该声音为相对的状态,记录该状态的时间;
其中R是一个1×n维的向量,表示θ1的第l个元素,表示θ2的第n个元素,θ1表示隐含层神经元的阈值参数,θ2表示输出层神经元的阈值参数,表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素,h(·)表示隐含层的传递函数,g(·)表示输出层的传递函数;
12)更新样本的特征向量;
13)根据统计采集时间、各个状态的时间,通过公式(20)计算评价分数。如果评价分数大于设定值,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态;如果用户没有结束身体状态评估功能,则跳到步骤 14),否则结束,退出;
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。
进一步,所述步骤3)中,所述小波阈值去噪方法包含如下步骤:
(3.1)选择db4小波基,并设定小波分解层数为4层;
(3.2)对声音信号x(n)进行4层小波分解,可得小波系数;
(3.3)如果每一层高频小波系数的绝对值小于阈值λ,则该小波系数变为0,否则保持不变,最终输出处理后的小波系数;
其中,CN表示第N层高频小波系数,λ表示阈值;
(3.4)根据小波分解得到的低频系数和经过处理的高频小波系数,进行小波反变换重构声音信号,最终可得到去噪后的声音信号。
进一步,所述步骤4)中,所述归一化的方法为:将小波去噪后的声音中所有数据之和再除以这组数据的个数。将所有的值减去平均值,则将数据归一化到平均值附近内。
进一步,所述步骤5)中,所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱;
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT 变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
其中,Ha(m)表示第a个三角滤波器的频率响应,且f(a)表示三角滤波器的中心频率;当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为 150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5 时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为 650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为 700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为 750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为 850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为 950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为 1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为 1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为 2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为 4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算。
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数。
其中,C(n)表示第n个特征系数。
进一步,所述步骤7)中,所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j 个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi;
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
(7.5)通过公式(11),计算类内离散度矩阵Si;
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
(7.7)计算(SW)-1SB,获得矩阵max,计算该矩阵max的特征向量V和特征值 D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′,计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量。
进一步,所述步骤8)中,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol]。令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
其中,表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素; (8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
则隐含层神经元的输出为:
输出层神经元的输出为:
(8.3)通过公式(17),计算网络输出与期望输出的误差;
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3)。
进一步,所述步骤12)中,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本。对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较。当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤 12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量。
与现有技术相比,本发明具有如下有益效果:本发明的消防员呼吸声音监测耳机将声音处理技术应用到消防领域中,实现设备与云服务器的低能耗互联,并可采集消防员的呼吸声音,离线识别消防员的身体状态。当处于火灾救援现场时,消防员头戴呼吸声音监测耳机,呼吸声音监测耳机可第一时间采集消防员在火灾救援现场过程中的呼吸声音,分析和识别消防员的身体状态,评估消防员是否处于危险状态。本发明的消防员身体状态评估方法先通过语音对话,与消防人员进行简单的人机对话确认消防人员的身体状态,如果消防员没有及时做出语音响应时,则通过初始化、分帧、小波去噪、特征参数提取、Fisher降维、神经网络建模、识别、本地样本更新等步骤实现消防员微弱、运动、疲倦和环境声音四种状态的离线识别,并设置微弱、运动、疲倦三种状态的比例参数,从而评估消防人员的身体状态。本发明有效解决火灾救援现场中消防人员的身体状态评估问题,具有扩展灵活、携带方便、无线互联、价格便宜等特点,从而提高了不同消防人员身体状态的正确识别率,降低了错误接受率,降低消防人员的伤亡率。
附图说明
图1是本发明的消防员呼吸声音监测耳机的结构图。
图2是本发明的消防员身体状态识别方法的原理框图。
图3是本发明的消防员身体状态识别方法的流程图。
具体实施方案
下面结合附图对本发明作进一步描述。
参照图1,一种消防员呼吸声音监测耳机,每一个消防员在火灾救援现场时,头戴消防员呼吸声音监测耳机。所述消防员呼吸声音监测耳机包括用于获取消防人员发出声音的声音采集模块,用于实现预警、指挥员等相关语音播放的骨传导声音播放模块,用于存储样本声音、当前采集声音特征等数据的存储器模块,用于启动关闭电源、启动关闭识别等操作的按键模块,用于与云服务器连接且进行数据通信的窄带物联网模块,用于实现消防员语音和呼吸声音的采集、处理、识别和身体状态评价等功能的STM32处理器模块,是声音采集耳机的处理核心,用于实现锂电池的能量管理、充电和没电预警等功能的电源管理模块,用于提供耳机能量的锂电池模块。其中,所述STM32处理器模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块和按键模块连接,所述电源管理模块均与声音采集模块、骨传导声音播放模块、存储器模块、窄带物联网模块、按键模块和STM32处理器模块连接,所述锂电池与电源管理模块连接。
上述方案中还包括用于实现呼吸声音监测耳机和云服务器通信的窄带物联网基站,用于接收呼吸声音监测耳机数据的云服务器。
对上述方案进一步优化:
所述STM32模块采用意法半导体的STM32F7系列芯片。STM32F7系列芯片采用ARM-Cortex-M7内核,具有240K SRAM1&SRAM2,64K的字节DTCM, 16K字节的ITCM RAM,4K字节备份SRAM,集成两个通用DMA控制器、以太网、低功耗定时器、图形硬件加速器(Chrom-ART)等外设。
所述声音采集模块采用ALIENTEK开发的ATK-VS1053MP3模块。该模块接口丰富、功能完善,需提供电源(3.3V/5.0V),可实现声音采集功能。此外模块功能齐全、接口丰富。模块尺寸为34mm*52.6mm,并带有安装孔位,非常小巧,并且利于安装,可方便应用于各种设计。
所述骨传导声音播放模块采用正泽科技公司的H1M1模块。H1M1模块是一种专门用于极度危险环境下小巧轻便的头盔通信单元,使用方便,通过高感度的振动传感器收集传到头骨的声带振动,并把振动信号转换成声音信号。同时使用了独特的臂/带锁扣设计,其不需要借助任何工具便可轻松而且非常牢固的安装在几乎所有的标准头盔里,不影响使用呼吸面具等其他防护装备;PTT控制按钮将拾音器的震动信号转换成普通的音频信号,经过噪音滤静处理后,放大至对讲机可匹配的信号,然后传输至对讲机。
所述存储器模块采用闪迪公司的COMPACTFLASH模块。COMPACTFLASH 模块具备高达160MB/s的传输速度与不低于65MB/s持续写入速度。其容量高达256GB,可存放数小时的视频以及数以千计的高分辨率图像。此外还可抵御极端温度、冲击和其他严苛状况,保证数据不会意外丢失,结合配套软件可轻松做到数据恢复。
所述窄带物联网模块采用中兴公司的ME3616模块。ME3616模块是一款支持NB-IoT通信标准的窄带蜂窝物联网通信模块。该模块支持多种网络协议 (CoAP、TCP/UDP、MQTT)和多种低功耗模式(PSM、eDRX)。在NB-IoT制式下,该模块可以提供最大66Kbps上行速率和34Kbps下行速率。该模块为极小尺寸LCC紧凑型封装模块,适用于可穿戴设备等对于模块尺寸有严格要求的应用领域。
所述锂电池采用栢锐视讯科技公司的5680模块。该模块的输入电压: 5VDC,输出电压:5VDC,电池容量:6800mA,重量:120克,适合穿戴式设备的使用。
所述电源管理模块采用Risym公司的TP5100型号。TP5100模块是支持开关降压型双节8.4V和单节4.2V锂电池充电管理、其QFN16小型封装与简单的外围电路使得TP5 100非常适用于便携式设备的大电流充电管理应用。同时 TP5100模块具有过流、欠压保护、过温保护、电池温度监控、电池反接保护等功能。TP5100模块具有5V-18V宽输入电压、采用频率400kHz的开关工作模式,且内置功率PMOSFET、防倒灌电路、所以无需放倒灌肖特基二极管等外围保护。
参照图2和图3,一种消防员身体状态评估方法,包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
3)对第k个帧声音数据采用小波阈值去噪方法,去除信号噪声;其中小波阈值去噪方法包含如下步骤:
(3.1)选择db4小波基,并设定小波分解层数为4层;
(3.2)对声音信号x(n)进行4层小波分解,可得小波系数;
(3.3)如果每一层高频小波系数的绝对值小于阈值λ,则该小波系数变为0,否则保持不变,最终输出处理后的小波系数;
其中,CN表示第N层高频小波系数,λ表示阈值;
(3.4)根据小波分解得到的低频系数和经过处理的高频小波系数,进行小波反变换重构声音信号,最终可得到去噪后的声音信号;
4)对小波去噪后的第k个帧声音数据进行归一化。归一化的具体方法如下:将小波去噪后的声音中所有数据之和再除以这组数据的个数。将所有的值减去平均值,则将数据归一化到平均值附近内;
5)对归一化后的第k个帧声音数据,采用初始特征参数提取方法,获得其初始特征参数;所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱,
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT 变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
其中,Ha(m)表示第a个三角滤波器的频率响应,且f(a)表示三角滤波器的中心频率。当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为 150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5 时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为 650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为 700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为 750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为 850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为 950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为 1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为 1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为 2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为 4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算,
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数,
其中,C(n)表示第n个特征系数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j 个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi;
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
(7.5)通过公式(11),计算类内离散度矩阵Si;
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
(7.7)计算(SW)-1SB,获得矩阵max。计算该矩阵max的特征向量V和特征值 D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′。计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量;
8)根据声音样本特征向量,采用神经网络模型的训练方法进行模型训练,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol]。令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
其中,表示输入层与隐含层神经元间的网络权值矩阵W1中的第l行第m列元素,表示输入层与隐含层神经元间的网络权值矩阵W2中的第n行第l列元素。 (8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
则隐含层神经元的输出为:
输出层神经元的输出为:
(8.3)通过公式(17),计算网络输出与期望输出的误差;
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3)。
9)每隔10分钟时间,询问消防员的当前作战情况。如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常。重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的5s呼吸声音。对声音进行分帧、小波去躁、归一化、特征向量提取等操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量。其中分帧、小波去躁、归一化和特征向量提取的方法和步骤2)-7)中方法一致;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值,根据R的值,选择最大元素且其大于85%时,则判断该声音为相对的状态,记录该状态的时间;
其中R是一个1×n维的向量;
12)采用样本特征向量的更新方法进行样本更新,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本。对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较。当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤 12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量;
13)根据统计采集时间、各个状态的时间,计算评价分数。如果评价分数很高,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态。如果用户没有结束身体状态评估功能,则跳到步骤14),否则结束,退出。评价分数的计算公式为:
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。
Claims (7)
1.一种消防员呼吸声音监测耳机实现的消防员身体状态评估方法,其特征在于,所述方法包括以下步骤:
1)程序初始化,且令帧长Nf=512,帧移Ny为256;
2)读取样本声音,利用公式(1)的分帧函数对本地样本声音数据进行分帧,且令当前帧序号k=1;
x(n)=xs((n+(k-1)Ny)w(n),0≤n≤Nf-1 (1)
其中,x(n)表示声音分帧后第n个数据,xs(n)表示声音的第n个数据,Ny表示帧移,Nf表示帧长,k表示帧序号,w(n)表示汉宁窗的第n个数据,表示为
3)对第k个帧声音数据进行小波阈值去噪,去除信号噪声;
4)对小波去噪后的第k个帧声音数据进行归一化;
5)对归一化后的第k个帧声音数据进行初始特征参数提取,获得其初始特征参数;
6)如果k≤Nt,其中Nt表示声音帧的总个数,则k=k+1,跳到步骤3),否则如果当前处理对象是样本声音,判断是否处理完样本声音,如果还存在未处理的样本声音,则跳到步骤2),否则获得样本声音的所有帧的初始特征参数T,跳到步骤7),否则跳到步骤9);
7)采用Fisher降维方法,对样本声音的所有帧的初始特征参数T进行降维,获得该样本声音的特征向量;
8)根据声音样本特征向量,进行神经网络模型的训练;
9)每隔设定时间段,询问消防员的当前作战情况;如果接收到消防人员语音回复,采用离线语音识别方法将消防人员的语音信息转换成文字信息,将识别文字信息存到存储器中,确认当前消防员身体状态正常,重新跳到步骤9),否则跳到步骤10);
10)采集消防人员的设定时长的呼吸声音,对声音进行分帧、小波去躁、归一化、特征向量提取操作,获得该呼吸声音的初始特征参数Ts,计算Ts×V′,其中V′表示降维特征向量矩阵,获得该呼吸声音的特征向量;
11)根据训练好的神经网络模型,通过公式(19),计算微弱、运动、疲倦和环境四类状态的识别值;根据R的值,选择最大元素且其大于设定阈值时,则判断该声音为相对的状态,记录该状态的时间;
其中R是一个1×n维的向量,表示θ1的第j个元素,表示θ2的第k个元素,θ1表示隐含层神经元的阈值参数,θ2表示输出层神经元的阈值参数,表示输入层与隐含层神经元间的网络权值矩阵W1中的第i行第j列元素,表示输入层与隐含层神经元间的网络权值矩阵W2中的第k行第j列元素,h(·)表示隐含层的传递函数,g(·)表示输出层的传递函数;
12)更新样本的特征向量;
13)根据统计采集时间、各个状态的时间,通过公式(20)计算评价分数,如果评价分数大于设定值,则通过语音向消防员发出预警信号,通过窄带物联网模块上报该消防员的身体状态;如果用户没有结束身体状态评估功能,则跳到步骤14),否则结束,退出;
14)如果样本特征向量发生变化,跳到步骤8),重新进行模型学习,更新相关参数,否则跳到步骤9)。
3.如权利要求1或2所述的消防员身体状态评估方法,其特征在于,所述步骤5)中,所述步骤4)中,所述归一化的方法为:将小波去噪后的声音中所有数据之和再除以这组数据的个数,将所有的值减去平均值,则将数据归一化到平均值附近内。
4.如权利要求2所述的消防员身体状态评估方法,其特征在于,所述步骤5)中,所述初始特征参数提取方法包含如下步骤:
(5.1)通过公式(4)对每一帧进行DFT变换,获得频谱;
其中,y(k,n)表示归一化后的第k个帧声音的第n个时域信号,Y(k,m)表示DFT变换后的第k个帧声音的第m个频域信号;
(5.2)计算Y(k,m)中每一个点的平方,得到能量谱,再使用M个带通滤波器进行滤波,其中第a个滤波器的频率响应为:
其中,Ha(m)表示第a个三角滤波器的频率响应,且f(a)表示三角滤波器的中心频率;当a==1时,三角形滤波器的频率范围为0~100Hz,中心频率为50Hz;当a==2时,三角形滤波器的频率范围为100~200Hz,中心频率为150Hz;当a==3时,三角形滤波器的频率范围为200~250Hz,中心频率为225Hz;当a==4时,三角形滤波器的频率范围为250~300Hz,中心频率为275Hz;当a==5时,三角形滤波器的频率范围为300~350Hz,中心频率为325Hz;当a==6时,三角形滤波器的频率范围为350~400Hz,中心频率为375Hz;当a==7时,三角形滤波器的频率范围为400~450Hz,中心频率为425Hz;当a==8时,三角形滤波器的频率范围为450~500Hz,中心频率为475Hz;当a==9时,三角形滤波器的频率范围为500~550Hz,中心频率为525Hz;当a==10时,三角形滤波器的频率范围为550~600Hz,中心频率为575Hz;当a==11时,三角形滤波器的频率范围为600~650Hz,中心频率为625Hz;当a==12时,三角形滤波器的频率范围为650~700Hz,中心频率为675Hz;当a==13时,三角形滤波器的频率范围为700~750Hz,中心频率为725Hz;当a==14时,三角形滤波器的频率范围为750~850Hz,中心频率为800Hz;当a==15时,三角形滤波器的频率范围为850~950Hz,中心频率为900Hz;当a==16时,三角形滤波器的频率范围为950~1050,中心频率为1000Hz;当a==17时,三角形滤波器的频率范围为1050~1400Hz,中心频率为1225;当a==18时,三角形滤波器的频率范围为1400~2000Hz,中心频率为1700Hz;当a==19时,三角形滤波器的频率范围为2000~4000Hz,中心频率为3000Hz;当a==20时,三角形滤波器的频率范围为4000~8000Hz,中心频率为6000Hz;
(5.3)通过公式(6)对所有的滤波器输出数据做对数运算,
其中,S(a)表示第a个滤波器组的对数能量,M为滤波器的个数;
(5.4)通过公式(7),进行离散弦变换(DCT),得到M个特征系数,
其中,C(n)表示第n个特征系数。
5.如权利要求4所述的消防员身体状态评估方法,其特征在于,所述步骤7)中,所述Fisher降维方法包含如下步骤:
(7.1)计算每一个样本声音的所有帧的初始特征参数类中心;
(7.2)计算所有初始特征参数的均值向量;
其中,mzi表示第i类声音的特征参数的均值向量,CLi,j表示第i类声音的第j个声音样本的类中心,ni表示第i类声音样本的个数;
(7.3)通过公式(9),计算类间矩阵SBi;
其中,Pi为第i类样本的先验概率;
(7.4)通过公式(9),计算总类间矩阵SB;
(7.5)通过公式(11),计算类内离散度矩阵Si;
其中,xi,j,n表示第i类声音的第j个声音样本的第n个分帧的初始特征参数;
(7.6)通过公式(12),计算总类内离散度矩阵SW;
(7.7)计算(SW)-1SB,获得矩阵max,计算该矩阵max的特征向量V和特征值D,根据从大到小的特征值,对特征向量V进行排序,选择前面6列特征向量组成降维特征向量矩阵V′,计算T×V′,其中T表示输入的声音样本信号,获得所有声音样本的特征向量。
6.如权利要求5所述的消防员身体状态评估方法,其特征在于,所述步骤8)中,所述神经网络模型的训练方法包含如下步骤:
(8.1)令X为输入,Y为期望输出,X=[x1,x2,···,xm]′,Y=[y1,y2,···,yn]′,隐含层神经元为O=[O1,O2,···,Ol],令输入层与隐含层神经元间的网络权值矩阵W1和隐含层与输出层神经元间的网络权值W2分别为:
(8.2)令隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2分别为:
则隐含层神经元的输出为:
输出层神经元的输出为:
(8.3)通过公式(17),计算网络输出与期望输出的误差;
(8.4)如果误差E小于10-3时,则结束迭代,获得模型的各个阈值,完成模型训练,退出,否则跳到步骤(8.5);
(8.5)通过公式(18),调整隐含层神经元的阈值参数θ1和输出层神经元的阈值参数θ2,跳到步骤(8.3),
7.如权利要求6所述的消防员身体状态评估方法,其特征在于,所述步骤12)中,所述样本特征向量的更新方法如下:
(12.1)将所有初始声音样本标记为初始声音样本,对每一个样本,标记其存储时间、样本类别和识别值;
(12.2)当一个测试声音完成识别后,将其识别值与95%进行比较,当识别值大于95%时,表示该声音信号为高匹配声音信号,保存其特征向量,跳到步骤12.3),反之该声音信号不被保存,退出;
(12.3)如果所有声音样本的特征向量中存在相同声音类型的初始声音样本特征向量,则将测试声音信号的特征向量随机替换一个相同声音类型的初始声音样本特征向量,标记该特征向量为本地声音样本,记录其存储时间和识别值,否则判断本地声音样本特征向量的识别值和存储时间,替换存储时间较长且识别值较低的本地声音样本特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810933197.2A CN109326355B (zh) | 2018-08-16 | 2018-08-16 | 一种消防员呼吸声音监测耳机及其身体状态评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810933197.2A CN109326355B (zh) | 2018-08-16 | 2018-08-16 | 一种消防员呼吸声音监测耳机及其身体状态评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109326355A CN109326355A (zh) | 2019-02-12 |
CN109326355B true CN109326355B (zh) | 2022-04-22 |
Family
ID=65263686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810933197.2A Active CN109326355B (zh) | 2018-08-16 | 2018-08-16 | 一种消防员呼吸声音监测耳机及其身体状态评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109326355B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111856452B (zh) * | 2020-05-21 | 2022-09-20 | 重庆邮电大学 | 基于omp的静态人体心跳和呼吸信号分离重构方法 |
CN112489330B (zh) * | 2020-12-02 | 2022-02-11 | 广东电网有限责任公司江门供电局 | 一种仓库防盗报警方法 |
CN112255921B (zh) * | 2020-12-21 | 2021-09-07 | 宁波圻亿科技有限公司 | 一种ar眼镜智能控制系统及方法 |
CN114926854A (zh) * | 2022-04-20 | 2022-08-19 | 北京理工大学 | 消防员火场行为识别模型构建方法及装置 |
CN116229581B (zh) * | 2023-03-23 | 2023-09-19 | 珠海市安克电子技术有限公司 | 一种基于大数据的智能互联急救系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101091650A (zh) * | 2006-06-22 | 2007-12-26 | 杨章民 | 生理机能监控系统 |
JP2008167799A (ja) * | 2007-01-09 | 2008-07-24 | Ntt Data Corp | 診療音分析装置、及び、プログラム |
CN101371801A (zh) * | 2008-10-10 | 2009-02-25 | 华南理工大学 | 基于ZigBee的病房无线监护系统 |
CN102945675A (zh) * | 2012-11-26 | 2013-02-27 | 江苏物联网研究发展中心 | 检测户外呼救声音的智能传感网络系统 |
CN104887263A (zh) * | 2015-05-21 | 2015-09-09 | 东南大学 | 一种基于心音多维特征提取的身份识别算法及其系统 |
CN107124748A (zh) * | 2017-05-08 | 2017-09-01 | 浙江树人学院 | 一种移动传感网的Sink节点移动路径规划方法 |
CN107438398A (zh) * | 2015-01-06 | 2017-12-05 | 大卫·伯顿 | 移动式可穿戴的监控系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9949667B2 (en) * | 2008-11-17 | 2018-04-24 | University Health Network | Mask and method for use in respiratory monitoring and diagnostics |
-
2018
- 2018-08-16 CN CN201810933197.2A patent/CN109326355B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101091650A (zh) * | 2006-06-22 | 2007-12-26 | 杨章民 | 生理机能监控系统 |
JP2008167799A (ja) * | 2007-01-09 | 2008-07-24 | Ntt Data Corp | 診療音分析装置、及び、プログラム |
CN101371801A (zh) * | 2008-10-10 | 2009-02-25 | 华南理工大学 | 基于ZigBee的病房无线监护系统 |
CN102945675A (zh) * | 2012-11-26 | 2013-02-27 | 江苏物联网研究发展中心 | 检测户外呼救声音的智能传感网络系统 |
CN107438398A (zh) * | 2015-01-06 | 2017-12-05 | 大卫·伯顿 | 移动式可穿戴的监控系统 |
CN104887263A (zh) * | 2015-05-21 | 2015-09-09 | 东南大学 | 一种基于心音多维特征提取的身份识别算法及其系统 |
CN107124748A (zh) * | 2017-05-08 | 2017-09-01 | 浙江树人学院 | 一种移动传感网的Sink节点移动路径规划方法 |
Non-Patent Citations (5)
Title |
---|
Research on Multi-Sensors Recognition Algorithm Based on Cloud Fusion Technology for Subsurface Defect Depth;liu Banteng等;《Chinese Journal of Sensors and Actuators》;20171231;第30卷(第12期);第1900-5页,全文 * |
Respiratory sounds classification using statistical biomarker;Ashok Mondal等;《2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC)》;20170914;第2952-2955页,全文 * |
一种无线传感网的 Sink 节点移动路径规划算法研究;陈友荣等;《传感技术学报》;20171231;第30卷(第12期);第1933-1940页,全文 * |
基于SVM 方法的神经网络呼吸音识别算法;刘国栋等;《通信学报》;20141031(第10期);第218-222页,第1、3-5节,附图1-2 * |
基于骨导音信号的睡眠呼吸状态的监测与健康分析;陈龙;《中国优秀博硕士学位论文全文数据库(硕士)医药卫生科技辑》;20150515(第5期);第E073-9页,全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109326355A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109326355B (zh) | 一种消防员呼吸声音监测耳机及其身体状态评估方法 | |
Wang et al. | Accelerometry based classification of walking patterns using time-frequency analysis | |
Litvak et al. | Fall detection of elderly through floor vibrations and sound | |
Chedad et al. | AP—animal production technology: recognition system for pig cough based on probabilistic neural networks | |
US10338091B2 (en) | Concussion detection and communication system | |
US7574357B1 (en) | Applications of sub-audible speech recognition based upon electromyographic signals | |
CN106037635A (zh) | 一种基于可穿戴设备的智能预警系统和方法 | |
CN107532959A (zh) | 个人撞击监视系统 | |
CN109009125B (zh) | 基于移动终端音频的驾驶员细粒度呼吸监测方法及系统 | |
CN104382614A (zh) | 一种基于快速独立分量分析的心音肺音信号分离方法及装置 | |
CN107049308B (zh) | 一种基于深度神经网络的意念控制系统 | |
CN209268808U (zh) | 输电线路施工高空人员安全监控装置 | |
JP2009525107A (ja) | 歩行分析 | |
CN110737201B (zh) | 一种监护方法、装置、存储介质及空调 | |
CN107979985A (zh) | 一种车载健康安全驾驶辅助装置 | |
CN108903936A (zh) | 基于人体信息和环境信息融合的智能矿用头盔控制方法 | |
CN110162182B (zh) | 脑电控制模块装置及其控制受控设备的方法 | |
CN105808959A (zh) | 一种运动检测系统、运动检测终端及云平台 | |
CN110415152A (zh) | 一种安全监控系统 | |
CN209032422U (zh) | 一种心音信号检测设备 | |
CN103294199A (zh) | 一种基于脸部肌音信号的无声信息识别系统 | |
Yang et al. | A wearable real-time fall detector based on Naive Bayes classifier | |
CN104490391A (zh) | 一种基于脑电信号的战斗人员状态监测系统 | |
CN106943150A (zh) | 精神疲劳检测系统及其采用的方法 | |
CN107744392A (zh) | 呼吸异常监控方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |