CN107293301A - 基于牙齿咬合声音的识别方法及系统 - Google Patents
基于牙齿咬合声音的识别方法及系统 Download PDFInfo
- Publication number
- CN107293301A CN107293301A CN201710433172.1A CN201710433172A CN107293301A CN 107293301 A CN107293301 A CN 107293301A CN 201710433172 A CN201710433172 A CN 201710433172A CN 107293301 A CN107293301 A CN 107293301A
- Authority
- CN
- China
- Prior art keywords
- signal
- event
- sound
- voice signal
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 23
- 238000013480 data collection Methods 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 11
- 238000010801 machine learning Methods 0.000 claims abstract description 8
- 238000001914 filtration Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 25
- 238000009826 distribution Methods 0.000 claims description 22
- 230000009977 dual effect Effects 0.000 claims description 19
- 238000009432 framing Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 230000003044 adaptive effect Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 210000003462 vein Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 239000002253 acid Substances 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本发明提供了一种基于牙齿咬合声音的识别方法及系统,该识别方法包括如下步骤:S1.数据收集步骤,收集牙齿咬合的声音信号;S2.数据处理步骤,对收到的声音信号进行处理,提取声音信号中的声音特征;S3.识别步骤,将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。本发明的有益效果是:本发明无需任何硬件成本且系统简单,且使用方便,能够准确识别合法用户和非法用户,对于目前智能设备上,有很好的实用性,且同时不影响用户本身在数据隐私保护时对智能设备的良好使用。
Description
技术领域
本发明涉及声音识别技术领域,尤其涉及基于牙齿咬合声音的识别方法及系统。
背景技术
随着智能化社会进程的不断推进,新兴智能设备的不断发展,智能设备在日常生活中显得越来越重要了,它能够随时给我们的生活提供便利,比如:智能手表能给我们提供来电提醒,通过智能手表来随时查看信息等,头戴脑电记录仪,能无时无刻的记录我们每个人的脑电的生物体征,通过一系列算法的分析和研究,为我们每个人的健康保驾护航,大大为我们的生活质量提供了强有力的保障。我们在使用智能设备的便利的同时,也伴随着很多严峻的考验,用户的个人隐私和一系列的个人数据的泄露显得尤为突出,那么怎么在大数据时代,保护好个人的数据显得尤为重要。
传统的保护手段有如下几个:在智能手机上,我们常常使用PIN码、密码或者图案和指纹识别保护。还有一些使用指纹识别,静脉识别、虹膜识别、人脸识别等技术。
首先我们比较常用的PIN码、密码和图案保护,在我们可穿戴设备上是不可行的,我们都知道可穿戴设备是穿戴在用户身上的,也就是智能设备的面积是非常的小,这些都是不能够在其上进行安装来达到身份的识别和保护。所以我们常用的保护方式在智能上是行不通的。
然后是一些识别精度比较高的生物识别技术,在识别精度高的同时,也要付出一些应有的代价。最常用的指纹识别,我们都知道在一些智能设备和一些门禁系统上,很多都配置了指纹识别技术,当我们手指有汗液、污渍、或者脱皮等情况下,指纹识别就容易识别失败,必须清理这些东西才能够重新进行识别,达到身份认证的效果,大大给人们造成了很大的不便,与此同时,我们很容易在很多地方留下我们的指纹,那么也就很容易被不法分子仿造,然后达到识别的目的。目前有些厂家在其智能手机上推出了超声波指纹识别,其避免了由于汗液,污渍等不能识别的情况,很高精度的识别的用户,但是其成本昂贵,给智能设备的生产提供了昂贵的代价,这是很多人不愿意接受的。
静脉识别和虹膜识别也都根据每个人的生理特征不一样然后采取生理特征信号,然后对信号进行一系列的分析和处理,最终达到识别的作用,这两种生物识别技术能达到很高的识别精度,但是也伴随着一些弊端,静脉识别里手背的静脉仍有可能随着年龄和生理的变化而变化,永久性尚未得到证实,由于采集方式受自身特点的限制,产品难以小型化,不能够在智能设备上进行量产,在同时,采集设备有特殊要求,设计相对复杂,制造成本较高。
人脸识别也提供了很高的精度,人脸识别存在很大的漏洞,只需要一个强大的修改图片的软件,我们就能够很容易的模仿人脸上的生理特征,然后进行人脸识别,实验结果也是很震惊,通过简单的几步处理,就能够正确的识别,保护级别不是特别高。
发明内容
本发明提供了一种基于牙齿咬合声音的识别方法,包括如下步骤:
S1.数据收集步骤,收集牙齿咬合的声音信号;
S2.数据处理步骤,对收到的声音信号进行处理,提取声音信号中的声音特征;
S3.识别步骤,将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。
作为本发明的进一步改进,该识别方法还包括:
S4.通过置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,从而提高识别的精度。
作为本发明的进一步改进,在所述数据处理步骤中包括:
S21.计算步骤,针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律;
S22.滤波步骤,根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰;
S23.检测步骤,对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
S24.提取步骤,在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
作为本发明的进一步改进,在所述S21.计算步骤中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述S22.滤波步骤中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内;
在所述S23.检测步骤中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,所采用的是帧与帧之间的覆盖是5毫秒,所加的窗函数是汉明窗,对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述S24.提取步骤中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
作为本发明的进一步改进,
在所述数据收集步骤中,通过麦克风传感器收集牙齿咬合的声音信号;
所述一类模型识别算法为One-Class SVM,所选的参数是:-n 0.5,-s 2,-t2,-g0.0156,进行模型的训练和识别;
所述置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,拒识率设为e=0.5%。
本发明还提供了一种基于牙齿咬合声音的识别系统,包括:
数据收集模块,用于收集牙齿咬合的声音信号;
数据处理模块,用于对收到的声音信号进行处理,提取声音信号中的声音特征;
识别模块,用于将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。
作为本发明的进一步改进,该识别系统还包括:
通过置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,从而提高识别的精度。
作为本发明的进一步改进,在所述数据处理模块中包括:
计算模块,用于针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律;
滤波模块,用于根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰;
检测模块,用于对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
提取模块,用于在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
作为本发明的进一步改进,在所述计算模块中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述滤波模块中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内;
在所述检测模块中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,所采用的是帧与帧之间的覆盖是5毫秒,所加的窗函数是汉明窗,对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述提取模块中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
作为本发明的进一步改进,
在所述数据收集模块中,通过麦克风传感器收集牙齿咬合的声音信号;
所述一类模型识别算法为One-Class SVM,所选的参数是:-n 0.5,-s 2,-t2,-g0.0156,进行模型的训练和识别;
所述置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,拒识率设为e=0.5%。
本发明的有益效果是:本发明无需任何硬件成本且系统简单,且使用方便,能够准确识别合法用户和非法用户,对于目前智能设备上,有很好的实用性,且同时不影响用户本身在数据隐私保护时对智能设备的良好使用。
附图说明
图1是本发明的原理图。
图2是本发明的置信度算法框架图。
图3是本发明的模型的识别策略图。
具体实施方式
如图1-3所示,本发明公开了一种基于牙齿咬合声音的识别方法,包括如下步骤:
S1.数据收集步骤,收集牙齿咬合的声音信号;
S2.数据处理步骤,对收到的声音信号进行处理,提取声音信号中的声音特征;
S3.识别步骤,将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断;
S4.由于把用户的数据放入一类识别算法模型中识别的精度可能不是很高,我们采用了模型的置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,把原来的一类识别模型升级为二类识别模型,从而提高识别的精度。
用户在使用智能设备时,在使用前,距离智能设备合适的距离,任意咬合自己的牙齿若干次,从而利用智能设备中的麦克风传感器收集牙齿咬合的声音信号。合适的距离是指:对于智能手表,智能终端距离牙齿的距离在15-20cm。任意咬合牙齿是指:对咬合牙齿没有位置、力度的限制。
作为本发明的实施例,在所述数据处理步骤中包括:
S21.计算步骤,针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律,即:能量主要分布在哪个频率范围内;
S22.滤波步骤,根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰,智能设备一般使用场景是噪声不是连续大的噪声环境,我们使用双阈值过滤法,在事件峰值的大小设定一个阈值,然后在两个事件峰值之间设置一个阈值,通过这两个阈值,可以在噪声不是持续较大的环境里,能够有效的得到牙齿咬合事件,就能够使其有效的工作;
S23.检测步骤,对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
S24.提取步骤,在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
作为本发明的优选实施例:
在所述S21.计算步骤中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述S22.滤波步骤中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,考虑到每个人两次牙齿咬合时间的短暂性,基本在1秒以内,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内,可以在适量的噪声环境下使其工作;
在所述S23.检测步骤中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,为了避免声音特征在跨越两帧,所采用的是帧与帧之间的覆盖是5毫秒,达到特征的有效提取,所加的窗函数是汉明窗(hamming),对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述S24.提取步骤中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
所述一类模型识别算法为One-Class SVM,在一类识别算法模型中,所选的参数是:-n 0.5,-s 2,-t 2,-g 0.0156,进行模型的训练和识别。
使用置信度评估算法对预测的结果进行筛选,放入二类识别算法中提高精度,比如:Two-Class SVM。我们采用的置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,这里我们的拒识率设为e=0.5%。
本发明还公开了一种基于牙齿咬合声音的识别系统,包括:
数据收集模块,用于收集牙齿咬合的声音信号;
数据处理模块,用于对收到的声音信号进行处理,提取声音信号中的声音特征;
识别模块,用于将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。
该识别系统还包括:通过置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,从而提高识别的精度。
在所述数据处理模块中包括:
计算模块,用于针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律;
滤波模块,用于根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰;
检测模块,用于对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
提取模块,用于在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
在所述计算模块中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述滤波模块中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内;
在所述检测模块中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,所采用的是帧与帧之间的覆盖是5毫秒,所加的窗函数是汉明窗,对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述提取模块中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
所述一类模型识别算法为One-Class SVM,所选的参数是:-n 0.5,-s 2,-t2,-g0.0156,进行模型的训练和识别。
所述置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,拒识率设为e=0.5%。
One-Class SVM是一类支持向量机。
本发明涉及到牙齿咬合声音信号的处理技术,声音事件检测算法和有效声音特征提取以及高精度的机器学习算法技术,给用户提供一个安全的识别认证方式,实现用户智能设备数据隐私保护。
本发明无需任何硬件成本且系统简单,且使用方便,能够准确识别合法用户和非法用户,对于目前智能设备上,有很好的实用性,且同时不影响用户本身在数据隐私保护时对智能设备的良好使用。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于牙齿咬合声音的识别方法,其特征在于,包括如下步骤:
S1.数据收集步骤,收集牙齿咬合的声音信号;
S2.数据处理步骤,对收到的声音信号进行处理,提取声音信号中的声音特征;
S3.识别步骤,将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。
2.根据权利要求1所述的识别方法,其特征在于,该识别方法还包括:
S4.通过置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,从而提高识别的精度。
3.根据权利要求1所述的识别方法,其特征在于,在所述数据处理步骤中包括:
S21.计算步骤,针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律;
S22.滤波步骤,根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰;
S23.检测步骤,对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
S24.提取步骤,在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
4.根据权利要求3所述的识别方法,其特征在于,
在所述S21.计算步骤中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述S22.滤波步骤中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内;
在所述S23.检测步骤中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,所采用的是帧与帧之间的覆盖是5毫秒,所加的窗函数是汉明窗,对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述S24.提取步骤中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
5.根据权利要求2至4任一项所述的识别方法,其特征在于,
在所述数据收集步骤中,通过麦克风传感器收集牙齿咬合的声音信号;所述一类模型识别算法为One-Class SVM,所选的参数是:-n 0.5,-s 2,-t 2,-g0.0156,进行模型的训练和识别;
所述置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,拒识率设为e=0.5%。
6.一种基于牙齿咬合声音的识别系统,其特征在于,包括:
数据收集模块,用于收集牙齿咬合的声音信号;
数据处理模块,用于对收到的声音信号进行处理,提取声音信号中的声音特征;
识别模块,用于将声音特征放入机器学习算法的一类模型识别算法中,进行数据的识别和判断。
7.根据权利要求6所述的识别系统,其特征在于,该识别系统还包括:
通过置信度评估算法,将一些具有很高置信度的样本放入到用来训练的数据集中,从而提高识别的精度。
8.根据权利要求6所述的识别系统,其特征在于,在所述数据处理模块中包括:
计算模块,用于针对采集到的声音信号,根据信号的时域和频域的特点,得出声音信号能量在频率范围内的分布规律;
滤波模块,用于根据得到的频率范围,首先使用巴特沃斯带通滤波,然后把经过巴特沃斯滤波器后的信号再进行三阶自适应阈值小波滤波,经过两次噪声的滤波,有效的去除噪声的干扰;
检测模块,用于对信号进行分帧和加窗处理,然后对处理过后的信号采用双阈值峰值检测法来检测咬牙在声音信号中的两个事件;
提取模块,用于在所述两个事件中,提取声音峰值的梅尔频率倒谱系数和能量特征,从而得到声音特征。
9.根据权利要求8所述的识别系统,其特征在于,
在所述计算模块中,先检测智能设备的麦克风传感器采集到声音事件,根据所述声音事件的时域和频域的信号分布特征,然后计算出每个声音信号的能量在频率范围下的分布走势图,得到频率伴随能量的分布范围,设定的频率范围为100HZ到10000HZ;
在所述滤波模块中,首先使用的是带通的巴特沃斯滤波器,带通的频率范围是100HZ到10000HZ,然后对已经通过巴特沃斯滤波器后的信号进行三阶自适应阈值的小波滤波处理,针对在噪声环境里,设定的峰值阈值是0.1,在两个牙齿咬合事件的间隔设置的阈值是20000样本点以内;
在所述检测模块中,对所述经过两次滤波后的信号进行分帧和加窗处理,对信号的每个分帧为10毫秒,所采用的是帧与帧之间的覆盖是5毫秒,所加的窗函数是汉明窗,对处理后的数据,进行事件检测,所采用的是双阈值峰值检测法,首先根据时域和频域的特征,先设定一个事件的最小峰值阈值为0.05,也就是只保留事件峰值大于等于0.05的信号样本点,然后设定两个事件峰值之间的间隔,设定的阈值为大于2000小于25000的样本点,通过设置的双阈值,获取事件峰值的样本点数据,根据时域信号的特点,分别截取每个事件样本点的前100个样本点和后500个样本点,能有效的截取事件信号;
在所述提取模块中,获取事件信号,然后提取每个事件信号梅尔频率倒谱系数,提取的是12阶的梅尔频率倒谱系数和1阶的能量系数作为每个事件的特征。
10.根据权利要求7至9任一项所述的识别系统,其特征在于,
在所述数据收集模块中,通过麦克风传感器收集牙齿咬合的声音信号;所述一类模型识别算法为One-Class SVM,所选的参数是:-n 0.5,-s 2,-t 2,-g0.0156,进行模型的训练和识别;
所述置信度评估算法是指:通过计算每个样本点到模型的超平面的最大距离,来计算每个样本识别的置信度,然后通过一个从小到大的排序算法把置信度从小到大排列,根据拒识率e来选取一部分的样本进入二类识别算法来进行高精度识别,在有序的置信度序列里选取大于e*n+1的样本,拒识率设为e=0.5%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/092771 WO2018223491A1 (zh) | 2017-05-27 | 2017-07-13 | 基于牙齿咬合声音的识别方法及系统 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710392749 | 2017-05-27 | ||
CN2017103927499 | 2017-05-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107293301A true CN107293301A (zh) | 2017-10-24 |
CN107293301B CN107293301B (zh) | 2019-04-02 |
Family
ID=60097489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710433172.1A Active CN107293301B (zh) | 2017-05-27 | 2017-06-09 | 基于牙齿咬合声音的识别方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107293301B (zh) |
WO (1) | WO2018223491A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN109740523A (zh) * | 2018-12-29 | 2019-05-10 | 国网陕西省电力公司电力科学研究院 | 一种基于声学特征和神经网络的电力变压器故障诊断方法 |
CN110321689A (zh) * | 2019-07-08 | 2019-10-11 | 深圳大学 | 一种基于响指的身份识别方法和系统 |
CN110751044A (zh) * | 2019-09-19 | 2020-02-04 | 杭州电子科技大学 | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 |
CN111832332A (zh) * | 2019-03-29 | 2020-10-27 | 中国石油天然气集团有限公司 | 泥浆脉冲信号处理方法及装置 |
CN115348049A (zh) * | 2022-06-22 | 2022-11-15 | 北京理工大学 | 一种利用耳机内向麦克风的用户身份认证方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1512490A (zh) * | 2002-12-30 | 2004-07-14 | 吕小麟 | 一种输入控制信号的方法及装置 |
US6820056B1 (en) * | 2000-11-21 | 2004-11-16 | International Business Machines Corporation | Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system |
US20110218952A1 (en) * | 2008-12-15 | 2011-09-08 | Audio Analytic Ltd. | Sound identification systems |
CN103531199A (zh) * | 2013-10-11 | 2014-01-22 | 福州大学 | 基于快速稀疏分解和深度学习的生态声音识别方法 |
WO2015196353A1 (zh) * | 2014-06-24 | 2015-12-30 | 陈梓铭 | 一种将牙齿产生的声音信号转换为电信号的控制系统及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1257073B (it) * | 1992-08-11 | 1996-01-05 | Ist Trentino Di Cultura | Sistema di riconoscimento, particolarmente per il riconoscimento di persone. |
CN105988768B (zh) * | 2015-02-06 | 2021-05-25 | 电信科学技术研究院 | 智能设备控制方法、信号获取方法及相关设备 |
CN104866575A (zh) * | 2015-05-25 | 2015-08-26 | 深圳创维-Rgb电子有限公司 | 一种基于智能设备的磨牙检测方法及检测系统 |
CN105242790B (zh) * | 2015-11-04 | 2019-06-21 | 钱雄 | 一种智能设备控制方法及控制装置 |
-
2017
- 2017-06-09 CN CN201710433172.1A patent/CN107293301B/zh active Active
- 2017-07-13 WO PCT/CN2017/092771 patent/WO2018223491A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6820056B1 (en) * | 2000-11-21 | 2004-11-16 | International Business Machines Corporation | Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system |
CN1512490A (zh) * | 2002-12-30 | 2004-07-14 | 吕小麟 | 一种输入控制信号的方法及装置 |
US20110218952A1 (en) * | 2008-12-15 | 2011-09-08 | Audio Analytic Ltd. | Sound identification systems |
CN103531199A (zh) * | 2013-10-11 | 2014-01-22 | 福州大学 | 基于快速稀疏分解和深度学习的生态声音识别方法 |
WO2015196353A1 (zh) * | 2014-06-24 | 2015-12-30 | 陈梓铭 | 一种将牙齿产生的声音信号转换为电信号的控制系统及方法 |
Non-Patent Citations (1)
Title |
---|
朱秉诚 等: "基于叩齿声音的身份确认方法", 《模式识别与人工智能》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN109740523A (zh) * | 2018-12-29 | 2019-05-10 | 国网陕西省电力公司电力科学研究院 | 一种基于声学特征和神经网络的电力变压器故障诊断方法 |
CN109740523B (zh) * | 2018-12-29 | 2020-12-29 | 国网陕西省电力公司电力科学研究院 | 一种基于声学特征和神经网络的电力变压器故障诊断方法 |
CN111832332A (zh) * | 2019-03-29 | 2020-10-27 | 中国石油天然气集团有限公司 | 泥浆脉冲信号处理方法及装置 |
CN110321689A (zh) * | 2019-07-08 | 2019-10-11 | 深圳大学 | 一种基于响指的身份识别方法和系统 |
CN110751044A (zh) * | 2019-09-19 | 2020-02-04 | 杭州电子科技大学 | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 |
CN110751044B (zh) * | 2019-09-19 | 2022-07-29 | 杭州电子科技大学 | 基于深度网络迁移特征与增广自编码的城市噪声识别方法 |
CN115348049A (zh) * | 2022-06-22 | 2022-11-15 | 北京理工大学 | 一种利用耳机内向麦克风的用户身份认证方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107293301B (zh) | 2019-04-02 |
WO2018223491A1 (zh) | 2018-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107293301B (zh) | 基于牙齿咬合声音的识别方法及系统 | |
Abdeldayem et al. | A novel approach for ECG-based human identification using spectral correlation and deep learning | |
CN103251388B (zh) | 基于智能手机平台的打鼾监测方法和监测及防治系统 | |
CA2835460C (en) | System and method for enabling continuous or instantaneous identity recognition based on physiological biometric signals | |
Agrafioti et al. | Heart biometrics: Theory, methods and applications | |
US8232866B2 (en) | Systems and methods for remote long standoff biometric identification using microwave cardiac signals | |
WO2019192235A1 (zh) | 一种基于移动设备的用户身份认证方法及系统 | |
Bashar et al. | Human identification from brain EEG signals using advanced machine learning method EEG-based biometrics | |
CN106372611A (zh) | 基于手掌静脉特征的身份识别方法、系统及图像采集装置 | |
CN109660899A (zh) | 计算机可读存储介质和应用该介质的骨声纹检测耳机 | |
Sasikala et al. | Identification of individuals using electrocardiogram | |
Belgacem et al. | Person identification system based on electrocardiogram signal using LabVIEW | |
Agrafioti et al. | Secure telemedicine: Biometrics for remote and continuous patient verification | |
CN109858366A (zh) | 身份认证方法及装置 | |
CN109199411B (zh) | 基于模型融合的案件知情者识别方法 | |
Hegde et al. | Heartbeat biometrics for human authentication | |
Pinto et al. | Deep neural networks for biometric identification based on non-intrusive ECG acquisitions | |
CN109840451A (zh) | 一种基于心电身份识别的智能支付可穿戴环及其支付方法 | |
Singla et al. | ECG as biometric in the automated world | |
Bastos et al. | Double authentication model based on ppg and ecg signals | |
Hu et al. | A real-time electroencephalogram (EEG) based individual identification interface for mobile security in ubiquitous environment | |
Tantawi et al. | A novel feature set for deployment in ECG based biometrics | |
CN111444489B (zh) | 一种基于光电容积脉搏波传感器的双因子认证方法 | |
CN111870253A (zh) | 基于视觉和语音融合技术的抽动障碍症病情监测方法及其系统 | |
WO2012087332A1 (en) | Systems and methods for remote long standoff biometric identification using microwave cardiac signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |