CN114617543A - 一种身份可识别呼吸监测方法及装置 - Google Patents
一种身份可识别呼吸监测方法及装置 Download PDFInfo
- Publication number
- CN114617543A CN114617543A CN202210072386.1A CN202210072386A CN114617543A CN 114617543 A CN114617543 A CN 114617543A CN 202210072386 A CN202210072386 A CN 202210072386A CN 114617543 A CN114617543 A CN 114617543A
- Authority
- CN
- China
- Prior art keywords
- signal
- frequency
- received signal
- respiration
- received
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012544 monitoring process Methods 0.000 title claims abstract description 42
- 230000000241 respiratory effect Effects 0.000 title abstract description 18
- 230000029058 respiratory gaseous exchange Effects 0.000 claims abstract description 59
- 230000005540 biological transmission Effects 0.000 claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 37
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000005070 sampling Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 10
- 210000000115 thoracic cavity Anatomy 0.000 claims description 10
- 238000005316 response function Methods 0.000 claims description 9
- 238000005314 correlation function Methods 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000009467 reduction Effects 0.000 abstract description 3
- 230000036387 respiratory rate Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000012806 monitoring device Methods 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000000038 chest Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000009545 invasion Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physiology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Pulmonology (AREA)
- Mathematical Physics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种身份可识别呼吸监测方法及装置,向目标对象发送传输信号,并接收反馈信号,提取反馈信号中的有话段然后进行带通滤波滤除语音频段,得到接收信号,然后对接收信号做短时傅里叶变换,提取频率特征和功率特征,与身份数据库中样本进行比对,识别目标对象的身份,在识别身份后,计算得到接收信号的脉冲响应,并利用生成对抗网络进行降噪后识别出呼吸产生的脉冲响应,进而监测出呼吸速率。本发明对于目标对象的识别精度较高,在实现动态呼吸速率监测的同时避免了用户语音隐私的泄露。
Description
技术领域
本申请属于呼吸监测技术领域,具体涉及到一种身份可识别呼吸监测方法及装置。
背景技术
呼吸速率是反映一个人健康情况的重要指标,现有的呼吸监测方法主要分为接触式和非接触式两种。接触式的呼吸监测方法通常要求用户在身体部位上佩戴特定的测量仪器,测量设备通常昂贵且不方便用户日常监测使用。非接触式的呼吸监测方法主要依靠无线感知技术或者红外图像处理技术的实现,其中,以电磁波作为传输信号感知呼吸引起的胸腔幅度变化需要设置特定的收发设备,并且此类无线信号的检测范围广泛,很容易受到周围环境或其他动作的干扰。另外一些方法利用移动终端的摄像头采集用户的图像信息,通过分析用户的面部图像或者胸部图像评估用户的呼吸参数,此类方法易受环境因素限制,并且涉及到用户隐私问题。
近年来,关于利用声波技术的非接触式呼吸监测方法的研究层出不穷,而声波技术的实现往往依靠两种信号的传输与处理。一个是基于调频连续波信号的传输与处理,从目标用户所在距离范围的信号成分中提取呼吸信号,而调频连续波的距离分辨率较低,在无法提高距离分辨率的情况下,无法实现高精度的呼吸监测。另外一个是基于连续波信号的传输与处理,通过分析信号的相位变化估计呼吸速率,以往基于连续波信号的呼吸监测方法都针对于静态环境,即目标用户处于静止不动的情况下,信号的相位变化由呼吸引起,可以实现高精度呼吸速率的估计。而当目标处于运动状态时,即日常行走情况下,传输信号的相位变化不仅由呼吸诱导,还包括身体各部位的大幅度移动的诱导。多条动态路径的诱导使得接收信号的相位变化不再是周期性呼吸的变化趋势,而是周期性和非周期性信号叠加起来的变化趋势。因此,相较于先前基于连续波信号的呼吸监测方法,非静态环境下的呼吸监测技术面临着无法有效识别目标呼吸信号的挑战。
声波往往实现于智能设备上,而智能设备存在多种多样的应用场景。将基于身份可识别的呼吸监测方法应用于智能设备上,不仅可以核验目标用户的真实身份,防止健康码伪造,还能够获取该身份下的呼吸速率的记录。现有的身份识别方法多基于语音识别,而语音识别需要记录用户的语音信号,存在用户语音隐私曝光的风险,因此无法实现非隐私侵犯的身份可识别的呼吸监测方法。
发明内容
本申请的目的是提供一种身份可识别呼吸监测方法及装置,以避免现有的基于声波的非接触式呼吸监测方法无法实现身份可识别的呼吸监测,并且需要在安静的环境下实现,而不能在用户移动的情况下实现的缺点。
为了实现上述目的,本申请技术方案如下:
一种身份可识别呼吸监测方法,包括:
向目标对象发送传输信号,并接收反馈信号,所述反馈信号包括目标对象的语音信号和胸腔反射信号,提取反馈信号中的有话段然后进行带通滤波滤除语音频段,得到接收信号;
对接收信号做短时傅里叶变换,提取频率特征和功率特征,与身份数据库中样本进行比对,识别目标对象的身份;
采用互相关函数计算传输信号与接收信号的相关性,将相关性最大的时间采样点作为传输信号与接收信号之间的时间延迟,同步接收信号和传输信号;
对同步处理后的接收信号和传输信号做快速傅立叶变换,计算得到频率响应函数,对频率响应函数做逆快速傅里叶变换,得到接收信号的脉冲响应;
将接收信号的脉冲响应输入到训练好的生成对抗网络,提取呼吸产生的脉冲响应;
对呼吸产生的脉冲响应进行平滑处理,然后检测峰值点的个数,得到呼吸速率。
进一步的,所述传输信号的频率为18kHz,所述带通滤波的通带频率为17.5kHz-18.5kHz。
进一步的,所述对接收信号做短时傅里叶变换,在做短时傅里叶变换时,所输入的接收信号长度范围为512至4800个采样点。
进一步的,所述提取频率特征和功率特征,包括:
将接收信号功率特征划分为4个功率区间,分别计算各个功率区间范围的质心频率,作为功率域的四个特征;
将接收信号频率特征划分为5个频率区间,分别计算各个频率范围的平均功率,作为频率域的五个特征。
进一步的,所述采用互相关函数计算传输信号与接收信号的相关性,所采用的互相关函数如下:
其中,x*(n)表示传输信号x(n)的共轭矩阵,l表示传输信号长度,n表示传输信号的采样点,m表示接收信号相对于传输信号的偏移采样点个数, R(m)则表示将接收信号y(n)向左移动m个采样点时传输信号和接收信号之间的相似度。
本申请还提出了一种身份可识别呼吸监测装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述身份可识别呼吸监测方法的步骤。
本申请提出的一种身份可识别呼吸监测方法及装置,分析目标用户说话时的胸腔变化引起的多普勒频移作为特征进行身份识别,并利用生成对抗网络(GAN)对原脉冲序列进行降噪并识别出呼吸产生的脉冲响应,从而实现隐私保护的基于声波多普勒技术的身份可识别呼吸监测。本申请能够滤除语音频段的信号,仅需要利用目标胸腔活动的多普勒频移实现身份识别,解决现有身份识别方法中普遍存在的用户语音隐私侵犯的问题。呼吸监测主要针对非静态环境,即目标用户处于日常行走状态,利用现有的音频设备实现呼吸速率的监测。
本申请的有益效果主要表现在:(1)解决了现有基于语音信息的身份识别存在隐私侵犯的隐患,采用声波多普勒技术实现身份识别,多个用户情况下识别精度较高;(2)解决了以往呼吸监测方法不适用于动态环境的问题,属于一种非接触式的日常呼吸监测方法;(3)能够实现目标用户的身份识别以及相对应的呼吸速率的记录跟踪。
附图说明
图1为本申请一种身份可识别呼吸监测方法流程图;
图2为本申请实施例传输信号与接收信号示意图;
图3为本申请身份识别过程示意图;
图4为本申请呼吸监测过程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请的总体思路为:声波信号的反射信号中包含很多可用的信息,其中目标用户的呼吸特征和说话过程中的胸腔变化特征均可由胸腔处的反射信号中获取。相较于传统方法,本申请可对目标用户的语音隐私给予保护,通过滤除语音频段的信号,提取高频信号,而高频信号中包含的多普勒信息表示信号的频率偏移特征和功率分布特征,能够作为区分不同目标的特征参数。此外,本申请还适用于动态环境下的呼吸监测,传输信号在动态环境下经由多种动态反射路径到达接收端,其他动态路径的反射信号对呼吸路径的反射信号产生了极大的干扰,而GAN网络可以消除接收信号中的噪声信号。因此,基于GAN网络消除噪声的呼吸监测方法能够在动态环境下实现呼吸速率的估计。结合身份认证和呼吸监测,本申请可以构建身份和呼吸相匹配的模式,能够实现相应目标的呼吸变化趋势跟踪。
在一个实施例中,如图1所示,提供了一种身份可识别呼吸监测方法,包括:
步骤S1、向目标对象发送传输信号,并接收反馈信号,所述反馈信号包括目标对象的语音信号和胸腔反射信号,提取反馈信号中的有话段然后进行带通滤波滤除语音频段,得到接收信号。
本申请使用手持智能终端来实现,使用智能终端的扬声器发送传输信号(18kHz),使用智能终端的麦克风,接收反馈信号。发送传输信号时由扬声器每秒发送48000个传输信号样本,接收时也是麦克风以48000个样本这样每秒接收,本申请将每秒传送多少个传输信号样本,称为采样频率。采样是将一个信号转换成一个数值序列的过程,以每秒48000个采样点组成数字信号,数字模拟转换器会将数字信号转成模拟信号,经扬声器发出去然后麦克风接收到信号,数模转换器又会将接收到的模拟信号以每秒 48000个采样点的形式转换为数字信号,再进行后续处理。以上以采样频率为48kHz为例进行说明,本申请采样频率至少是传输信号频率的两倍及以上。
在使用时,将智能终端面向目标对象的胸腔,如图2所示,扬声器发送传输信号时,启动麦克风,接收到达麦克风的反馈信号,反馈信号包括目标对象的语音信号和胸腔反射信号。在此过程中,与目标对象是非接触的。语音信号是目标对象说话发出的低频声音,胸腔反射信号是目标对象说话过程中传输信号经胸腔反射的信号。
在接收反馈信号后,检测反馈信号中语音的起始点和终止点,提取出反馈信号中的有话段。
具体的,对于语音信号,计算其在时域上的短时平均能量和短时平均过零率,考虑采集的语音信号中有中等或者较小的信噪比,对短时平均能量和短时平均过零率设置经验阈值,区分语音信号的有话段和静默段。然后根据检测到的起始点和结束点提取每一个有话段。
然后使用带通滤波器对有话段进行滤波,带通滤波器的通带频率为 17.5kHz-18.5kHz,而语音频段的频率范围一般为10kHz以下,经过带通滤波器后,滤除其中的语音频段,输出过滤了语音频段的高频信号,作为后续使用的接收信号。
需要说明的是,通过带通滤波,将目标对象的语音频段滤除,对滤波后的对象进行处理,可以防止目标对象的语音信息泄露,有效保护目标对象的隐私。
步骤S2、对接收信号做短时傅里叶变换,提取频率特征和功率特征,与身份数据库中样本进行比对,识别目标对象的身份。
STFT是计算多普勒频移的一种方法,其中包含了信号频率随时间的变化,即多普勒频移。参照图3,本申请通过短时傅里叶变换算法(STFT) 计算接收信号的频谱,接收信号的频谱描述了信号时间、频率以及功率之间的关系。
需要说明的是,做傅里叶变换的信号长度L的大小对信号频谱计算结果有一定的影响,应选择合适的长度。若L的长度太小,做傅里叶变化的信号太短,导致频率分辨率低,相反,若L太大,导致时间分辨率低。根据实验条件和具体的实施方式,L的范围可设置为[512,4800]个采样点。
从接收信号的频谱中提取频率特征和功率特征,分别表示目标对象说话过程中的频率偏移特征和功率分布特征。
具体的,将接收信号功率特征划分为4个功率区间,分别计算各个功率区间范围的质心频率,作为功率域的四个特征;将接收信号频率特征划分为5个频率区间,分别计算各个频率范围的平均功率,作为频率域的五个特征。
将求得的质心频率序列和平均功率序列分别与身份数据库中的样本序列进行匹配,即利用动态时间规划算法计算身份数据库中的样本与质心频率序列或平均功率序列的相似度,由于每个人的语速和发音方式有所不同,检测的语音片段是长度不相同的序列,所以采用基于动态时间规划的相似度算法判断质心频率序列、平均功率序列与身份数据库中的样本序列的相似度。取相似度最高的样本序列为匹配结果,若匹配出的两个样本序列代表同一目标用户,则识别出目标对象的身份,身份认证成功。
步骤S3、采用互相关函数计算传输信号与接收信号的相关性,将相关性最大的时间采样点作为传输信号与接收信号之间的时间延迟,同步接收信号和传输信号。
参照图4,本步骤将扬声器发送的传输信号表示为x(n),将接收信号表示为y(n),基于互相关函数计算x(n)和y(n)之间的相关性,互相关函数描述了信号相关性与时间采样点的关系,可表示为:
其中,n表示传输信号的采样点,m表示接收信号相对于传输信号的偏移采样点个数,R(m)则表示将接收信号y(n)向左移动m个采样点时传输信号和接收信号之间的相似度,当R(m)到达最大值时,传输信号和接收信号达到最大相似度。x*(n)表示传输信号x(n)的共轭矩阵,l表示传输信号长度。
将相关性最大的时间采样点作为传输信号与接收信号之间的时间延迟,同步接收信号和传输信号。即取m作为要同步的偏移量,若m≥0,将传输信号向左移m个样本使之与接收信号对齐,若m<0,将接收信号向左移|m|个样本使之与传输信号对齐。
步骤S4、对同步处理后的接收信号和传输信号做快速傅立叶变换,计算得到频率响应函数,对频率响应函数做逆快速傅里叶变换,得到接收信号的脉冲响应。
本步骤分析接收信号的脉冲响应,脉冲响应是信号传输过程中的时间响应特征,即接收信号的脉冲响应是传输信号经多种路径以不同时间点到达麦克风的响应特征集合。
首先以脉冲响应函数的形式表示接收信号y(n),其在频域上的表示为 Y(f):
Y(f)=H(f)X(f)
其中,k是脉冲响应的采样点。
通过快速傅里叶变换函数(FFT)估计出频率响应函数H(f):
对频率响应函数做逆快速傅里叶变换,将频域函数转换到时域函数上,表示脉冲响应h(n):
h(n)=iFFT(H(f))。
步骤S5、将接收信号的脉冲响应输入到训练好的生成对抗网络,提取呼吸产生的脉冲响应。
本申请采用生成对抗网络(GAN)来进行降噪,在训练时,将接收信号的脉冲响应和真实呼吸产生的脉冲响应输入到GAN网络,对GAN网络的参数进行训练。GAN网络包括生成网络和判别网络,其中,生成网络的输入为接收信号的脉冲响应,输出接近真实呼吸产生的脉冲响应,判别网络从呼吸产生的脉冲响应和生成网络生成的脉冲响应中,判别生成网络的输出是真是假。GAN网络的训练,是本领域比较成熟的技术,这里不再赘述。
在训练好GAN网络后,将目标对象对应的接收信号的脉冲响应输入到GAN网络的生成网络,输出降噪后的脉冲响应,即呼吸产生的脉冲响应。
由于接收信号的脉冲响应包含环境中的其他干扰响应,通过GAN网络,从接收信号的脉冲响应消除其他干扰响应,从而提取呼吸产生的脉冲响应。
步骤S6、对呼吸产生的脉冲响应进行平滑处理,然后检测峰值点的个数,得到呼吸速率。
本步骤对呼吸产生的脉冲响应,首先采用平滑函数对信号进行平滑,然后采用峰值检测算法检测峰值点的个数。
具体地,采用移动平均法,设置固定长度的窗口,求窗口内的信号的幅值平均值作为新的幅值,将平滑后的幅值组成的序列作为新的信号序列。根据实验条件,窗口长度的范围一般为[5,50]。然后采用峰值检测算法检测峰值点的个数,具体地,先计算信号所有局部峰值的平均值μ和标准差σ,以μ-2σ作为峰值阈值,以2s的时间间隔作为时间阈值,结合两个阈值,识别正确的峰值点,计算其个数。
以BR=Fs*(N-1)/(LN-L1)计算呼吸速率,Fs表示采样频率,N表示峰值点个数,LN和L1分别表示第N个峰值点和第1个峰值点的时间点,通过上述公式计算出呼吸速率。
从而实现基于身份可识别的呼吸监测,在身份识别成功后,进行该目标的呼吸速率估计,将身份识别成功的目标和所属的呼吸监测结果记录到对应的目标用户下,实现认证目标的呼吸跟踪记录。
在一个实施例中,本申请还提供了一种身份可识别呼吸监测装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述身份可识别呼吸监测方法的步骤。
关于身份可识别呼吸监测装置的具体限定可以参见上文中对于身份可识别呼吸监测方法的限定,在此不再赘述。上述身份可识别呼吸监测装置可全部或部分通过软件、硬件及其组合来实现。可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上对应的操作。
存储器和处理器之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器中存储有可在处理器上运行的计算机程序,所述处理器通过运行存储在存储器内的计算机程序,从而实现本发明实施例中的网络拓扑布局方法。
其中,所述存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器 (Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器用于存储程序,所述处理器在接收到执行指令后,执行所述程序。
所述处理器可能是一种集成电路芯片,具有数据的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种身份可识别呼吸监测方法,其特征在于,所述身份可识别呼吸监测方法,包括:
向目标对象发送传输信号,并接收反馈信号,所述反馈信号包括目标对象的语音信号和胸腔反射信号,提取反馈信号中的有话段然后进行带通滤波滤除语音频段,得到接收信号;
对接收信号做短时傅里叶变换,提取频率特征和功率特征,与身份数据库中样本进行比对,识别目标对象的身份;
采用互相关函数计算传输信号与接收信号的相关性,将相关性最大的时间采样点作为传输信号与接收信号之间的时间延迟,同步接收信号和传输信号;
对同步处理后的接收信号和传输信号做快速傅立叶变换,计算得到频率响应函数,对频率响应函数做逆快速傅里叶变换,得到接收信号的脉冲响应;
将接收信号的脉冲响应输入到训练好的生成对抗网络,提取呼吸产生的脉冲响应;
对呼吸产生的脉冲响应进行平滑处理,然后检测峰值点的个数,得到呼吸速率。
2.根据权利要求1所述的身份可识别呼吸监测方法,其特征在于,所述传输信号的频率为18kHz,所述带通滤波的通带频率为17.5kHz-18.5kHz。
3.根据权利要求1所述的身份可识别呼吸监测方法,其特征在于,所述对接收信号做短时傅里叶变换,在做短时傅里叶变换时,所输入的接收信号长度范围为512至4800个采样点。
4.根据权利要求1所述的身份可识别呼吸监测方法,其特征在于,所述提取频率特征和功率特征,包括:
将接收信号功率特征划分为4个功率区间,分别计算各个功率区间范围的质心频率,作为功率域的四个特征;
将接收信号频率特征划分为5个频率区间,分别计算各个频率范围的平均功率,作为频率域的五个特征。
6.一种身份可识别呼吸监测装置,包括处理器以及存储有若干计算机指令的存储器,其特征在于,所述计算机指令被处理器执行时实现权利要求1至权利要求5中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210072386.1A CN114617543A (zh) | 2022-01-21 | 2022-01-21 | 一种身份可识别呼吸监测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210072386.1A CN114617543A (zh) | 2022-01-21 | 2022-01-21 | 一种身份可识别呼吸监测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114617543A true CN114617543A (zh) | 2022-06-14 |
Family
ID=81898910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210072386.1A Pending CN114617543A (zh) | 2022-01-21 | 2022-01-21 | 一种身份可识别呼吸监测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114617543A (zh) |
-
2022
- 2022-01-21 CN CN202210072386.1A patent/CN114617543A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3998557B1 (en) | Audio signal processing method and related apparatus | |
JP4177755B2 (ja) | 発話特徴抽出システム | |
US8818806B2 (en) | Speech processing apparatus and speech processing method | |
CN101010722A (zh) | 音频信号中话音活动的检测 | |
JP2004531767A5 (zh) | ||
CN109256139A (zh) | 一种基于Triplet-Loss的说话人识别方法 | |
CN112294253A (zh) | 一种基于用户语音变化的疾病诊断系统及家庭智能机器人 | |
CN108198558B (zh) | 一种基于csi数据的语音识别方法 | |
Dai et al. | Speech based human authentication on smartphones | |
Wang et al. | A survey of user authentication based on channel state information | |
Chen et al. | Chestlive: Fortifying voice-based authentication with chest motion biometric on smart devices | |
CN107543569B (zh) | 基于调频声波的空间扰动检测方法与装置 | |
Wong | Authentication through sensing of tongue and lip motion via smartphone | |
CN114617543A (zh) | 一种身份可识别呼吸监测方法及装置 | |
CN110621038B (zh) | 一种基于WiFi信号检测步态实现多用户身份识别的方法及装置 | |
Al-Momani et al. | Effect of wireless channels on detection and classification of asthma attacks in wireless remote health monitoring systems | |
CN106897693B (zh) | 一种身份识别方法、装置及系统 | |
Tran et al. | Exploiting physical presence sensing to secure voice assistant systems | |
Hu et al. | Lightweight and Non-Invasive User Authentication on Earables | |
CN115862640A (zh) | 基于神经网络的声波用户识别及心跳监测耳机系统和方法 | |
TWI609193B (zh) | 基於調頻聲波的空間擾動偵測方法與裝置 | |
CN102667508B (zh) | 检测由检测器接收到的信号中的对应于事件的波前的方法 | |
CN114003885B (zh) | 一种智能语音认证方法、系统及可存储介质 | |
WO2022068440A1 (zh) | 啸叫抑制方法、装置、计算机设备和存储介质 | |
CN117253501B (zh) | 基于voip呼叫的安防音视频数据增强方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |