CN117156439A - 一种基于外耳声学感知的隐式接听认证方法及系统 - Google Patents
一种基于外耳声学感知的隐式接听认证方法及系统 Download PDFInfo
- Publication number
- CN117156439A CN117156439A CN202310967773.6A CN202310967773A CN117156439A CN 117156439 A CN117156439 A CN 117156439A CN 202310967773 A CN202310967773 A CN 202310967773A CN 117156439 A CN117156439 A CN 117156439A
- Authority
- CN
- China
- Prior art keywords
- signal
- spec
- layer
- implicit
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008447 perception Effects 0.000 title claims abstract description 41
- 210000000883 ear external Anatomy 0.000 title claims abstract description 31
- 238000001228 spectrum Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000001537 neural effect Effects 0.000 claims description 7
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 3
- 210000005069 ears Anatomy 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
- H04W12/065—Continuous authentication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72457—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/60—Context-dependent security
- H04W12/68—Gesture-dependent or behaviour-dependent
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Environmental & Geological Engineering (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Animal Behavior & Ethology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于外耳声学感知的隐式接听认证方法及系统,首先智能手机发送人耳听不见的高频信号用于声学感知,并记录回声信号;然后从回声信号中提取出外耳反射的目标信号;接着从目标信号中提取鲁棒的声学特征;最后利用认证模型,判断接听用户是否为合法用户。本发明增强了接听电话的安全性和有效性,不会增加用户的任何负担,不会改变用户的接听习惯,也不需要额外的设备和硬件。本方法可以扩展到其他语音场景,如私人语音消息,可以显著提高与语音相关的身份认证的安全性。
Description
技术领域
本发明属于网络空间安全技术领域,涉及一种接听认证方法及系统,具体涉及一种基于外耳声学感知的隐式接听认证方法及系统。
背景技术
智能手机已经成为人们日常生活中不可缺少的一部分。目前智能手机上有许多身份认证机制来保护其免受未经授权的访问,例如,PIN码,指纹识别和面部识别。只有获得授权的用户才能解锁智能手机,并进行网上银行交易等敏感操作。不幸的是,这些身份验证机制在接听电话时没有提供必要的保护,即确定接听电话的人是否合法(设备所有者)。
用户在移动设备上接听来电时,无论来电是电话还是社交应用(如WhatsApp、微信、钉钉)的VoIP电话,都只需要点击接听按钮,无需进行身份验证(即使设备处于锁定状态)。因此,虽然语音通信内容从端到端进行了加密以防止窃听攻击,但电话接听方不进行身份验证不符合安全要求,可能会导致严重的隐私泄露。因此,在接听电话时,为电话接听方设计合适的身份认证机制至关重要。
为了在移动设备上提供接听认证,现有的研究主要关注于接听电话的行为特征,或耳朵的生理特征。例如,有些方法使用运动传感器捕捉设备的运动,并分析接听电话拿起手机时手臂的运动行为来区分不同的用户。然而,行为可变性的问题使得这些方法在实际应用中验证不准确或用户体验较差。有些方法试图捕捉耳朵图像并分析耳朵生理特征进行认证,但这些方法容易受到光照强度影响,且需要用户做出额外的手势才能获得更好的耳朵图像。有些方法将手机触摸屏作为电容传感器,分析耳朵的电容图像进行认证。但是,这些方法都需要修改触摸屏模块的内核源代码。有些方法还使用可听到的声音信号来感知耳朵,但依赖于额外的设备,如无线耳机。
发明内容
针对现有方案的不足,本发明提供了一种安全且隐式的接听认证方法及系统。本发明的基本思想是发送听不见的声音信号进行声学感知,并从外耳反射的信号中提取声学特征。
本发明的方法所采用的技术方案是:一种基于外耳声学感知的隐式接听认证方法,包括以下步骤:
步骤1:智能手机发送人耳听不见的高频信号用于声学感知,并记录回声信号;
步骤2:从回声信号中提取出外耳反射的目标信号;
步骤3:从目标信号中提取声学特征;
首先对提取的目标信号进行短时傅里叶变换,计算参考段谱图和感知段谱图的绝对差矩阵;然后利用卷积神经特征提取网络提取具有代表性和鲁棒性的声学特征;
步骤4:利用认证模型,判断接听用户是否为合法用户。
作为优选,步骤1中,当来电时,用户点击接听按钮拿起智能手机接听,按下接听按钮的动作定义为第一个触发动作,该触发动作执行时听筒开始播放感知信号;当用户把智能手机放在耳朵上时是第二个触发动作,利用声学感知提取与耳朵相关的声学特征来区分用户,感知过程结束。
作为优选,步骤2的具体实现包括以下子步骤:
步骤2.1:定位声学感知过程的开始时间;
步骤2.2:利用带通滤波器去除外界噪声对接收信号的干扰;
步骤2.3:提取出外耳反射的目标信号;
作为优选,步骤2.1中,在感知信号之前添加先导信号,在智能手机扬声器和麦克风之间进行时间同步;先导信号包含了三个频率为22~18kHz的啁啾信号。
作为优选,步骤2.3中,首先选择参考段,分析参考段和感知段之间的绝对差值;对于每个信号段,使用互相关来更好地定位目标反射区域,接收信号段y(t)和发送信号x(t)之间的互相关Rxy为:
Rxy=y(t)*x*(-t);
式中,*是卷积算子,x*(-t)是x(-t)的复共轭;确定相关性最高的索引作为目标反射区域的起点,对于每个信号段最后推导一个长为1200样本点的信号段作为目标信号,其中,信号段包括参考段和感知段。
作为优选,步骤3中,在得到信号段的目标反射区域后,利用短时傅里叶变换提取幅值特征和相位特征的二维谱图S=[Sm;Sp],分别计算幅度谱Sm和相位谱Sp,本发明只保存频率高于设定频率fstart的信号分量的幅度谱Specm和相位谱Specp,得到二维谱图Spec=[Specm;Specp],具体来说,Specm=Sm(Mstart:,:),Specp=Sp(Mstart:,:),根据设定频率fstart、FFT点数Nfft、采样率fs可计算出然后计算参考段谱图Specr和感知段谱图Specs之间的绝对差矩阵ΔSpec以消除干扰,提取与耳朵相关的特征;
ΔSpec=|Specs-Specr|;
对绝对差矩阵ΔSpec进行最小-最大归一化,得到归一化谱图ΔSpecnorm为:
作为优选,步骤3中,所述卷积神经特征提取网络,由11层神经网络层组成,其中第一层为Conv2d+ReLu,第二层为Conv2d+ReLu,第三层为Max Pooling+Dropout,第四层为Conv2d+ReLu,第五层为Conv2d+ReLu,第六层为Max Pooling+Dropout,第七层为Conv2d+ReLu,第八层为Conv2d+ReLu,第九层为Max Pooling+Dropout,第十层为Flatten,第十一层为Dense+ReLu;其中,Conv2d表示二维卷积层,ReLu是线性整流激活函数,Max Pooling表示最大池化层,Dropout表示Dropout层,Flatten表示Flatten层,Dense表示全连接层;利用特征提取网络提取具有代表性的声学特征,得到128维的特征向量。
作为优选,步骤4中,所述认证模型,选择一类支持向量机模型。在注册阶段根据从合法用户收集的数据训练一个一类支持向量机模型,通过网格搜索和交叉验证选择最优参数:核函数kernel、训练误差ν;在认证阶段将步骤3得到的128维声学表示特征输入训练好的认证模型,判断接听用户是否合法。
本发明的系统所采用的技术方案是:一种基于外耳声学感知的隐式接听认证系统,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现所述的基于外耳声学感知的隐式接听认证方法。
本发明使用智能手机上的扬声器和麦克风进行声学传感,然后从接收到的声学信号中分析与耳朵相关的特征,以实现接听认证。本发明不仅提供了更好的解决方案来提高接听电话的有效性和安全性,而且可以解决之前方案忽略的安全问题,即智能手机可能会在一次性认证后被带走。本发明可以抵抗人体姿势和智能手机位置的变化,以实现更健壮和易于使用的身份认证。本发明不需要额外的设备和硬件,而是依赖于常见的内置硬件,例如扬声器和麦克风,不增加用户的任何负担,也不改变用户的接听习惯。
附图说明
下面使用实施例,以及具体实施方式作进一步说明本文的技术方案。另外,在说明技术方案的过程中,也使用了一些附图。对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图以及本发明的意图。
图1为本发明实施例的方法流程示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施例仅用于说明和解释本发明,并不用限定本发明。
请见图1,本发明提供的一种基于外耳声学感知的隐式接听认证方法,包括以下步骤:
步骤1:数据采集;智能手机发送人耳听不见的高频信号用于声学感知,并记录回声信号;
当来电时,用户点击接听按钮拿起智能手机接听,用户将智能手机放在耳朵附近接听,手机听筒和顶部麦克风作为主动声纳来感知用户的外耳。感知信号是特殊调制的啁啾信号,频率范围为17~23kHz,时长为25ms。整个感知过程分为两个阶段,用户按下接听按钮的动作定义为第一个触发动作,该触发动作执行时听筒开始播放感知信号,当用户把智能手机放在耳朵上时是第二个触发动作,本实施例利用声学感知提取与耳朵相关的声学特征来区分用户,感知过程结束。
步骤2:数据预处理;从回声信号中提取出外耳反射的目标信号;
为了消除不同系统延迟的影响,在感知信号之前添加先导信号,在智能手机扬声器和麦克风之间进行时间同步;先导信号包含了三个从22kHz到18kHz的啁啾信号;通过信号同步,本实施例可以准确定位感知过程的开始时间。
为了防止接收到的信号被噪声淹没,本实施例使用巴特沃斯带通滤波器去除带外噪声;具体来说,滤波器的频率范围是17kHz到23kHz。这样本实施例得到了同步信号,并消除了环境带外噪声的影响,然后将输出信号用于信号分割。
为了得到与耳朵相关的信号,本实施例首先选择参考段,分析参考段和感知段之间的绝对差值;对于每个信号段,本实施例使用互相关来更好地定位目标反射区域。本实施例将按下接听按钮后的第一个信号段设置为参考段。在这个快速动作过程中,智能手机是相对静止的。接收信号段y(t)和发送信号x(t)之间的互相关Rxy为:
Rxy=y(t)*x*(-t);
式中,*是卷积算子,x*(-t)是x(-t)的复共轭。本实施例确定相关性最高的索引作为目标反射区域的起点,最后本实施例推导了一个长为1200样本点的信号段作为目标信号;其中,信号段包括参考段和感知段。
步骤3:特征提取;从目标信号中提取声学特征;
首先对提取的目标信号进行短时傅里叶变换,计算它们的绝对差矩阵;然后利用卷积神经特征提取网络提取具有代表性和鲁棒性的声学特征;
在一种实施方式中,在得到信号段的目标反射区域后,利用短时傅里叶变换提取幅值特征和相位特征的二维谱图S=[Sm;Sp],分别计算幅度谱Sm和相位谱Sp,本发明只保存频率高于设定频率fstart的信号分量的幅度谱Specm和相位谱Specp,得到二维谱图Spec=[Specm;Specp],具体来说,Specm=Sm(Mstart:,:),Specp=Sp(Mstart:,:),根据设定频率fstart、FFT点数Nfft、采样率fs可计算出然后计算参考段谱图Specr和感知段谱图Specs之间的绝对差矩阵ΔSpec以消除干扰,提取与耳朵相关的特征;
ΔSpec=|Specs-Specr|;
对绝对差矩阵ΔSpec进行最小-最大归一化,得到归一化谱图ΔSpecnorm为:
本实施例中fstart设置为12kHz,采样率fs为48kHz,快速傅里叶变换大小Nfft设置为256,因此Mstart为64,本实施例得到的谱图大小为64×158×2,这些谱图之后被用作认证模型训练的输入。
在一种实施方式中,卷积神经特征提取网络为一个类似VGG的深度神经网络,以提取具有代表性和鲁棒性的特征,网络结构下表1所示:
表1
层编号 | 层类型 | 输出形状 |
1 | Conv2d+ReLu | 63×156×16 |
2 | Conv2d+ReLu | 61×154×16 |
3 | MaxPooling+Dropout | 30×77×16 |
4 | Conv2d+ReLu | 28×75×32 |
5 | Conv2d+ReLu | 26×73×32 |
6 | MaxPooling+Dropout | 13×36×32 |
7 | Conv2d+ReLu | 11×34×16 |
8 | Conv2d+ReLu | 9×32×16 |
9 | Max Pooling+Dropout | 4×16×16 |
10 | Flatten | 1024 |
11 | Dense+ReLu | 128 |
12 | Dense+Softmax | 30 |
表1中Conv2d表示二维卷积层,ReLu是线性整流激活函数,Max Pooling表示最大池化层,Dropout表示Dropout层,Flatten表示Flatten层,Dense表示全连接层,Softmax表示Softmax层。
本实施例训练完深度神经网络后,抛弃12层,利用前面11层作为卷积神经特征提取网络,第11层的输出作为提取到的特征,得到128维的特征向量。收集的多组数据中提取的128维向量,之后被用作认证模型的输入。
步骤4:决策;利用认证模型,判断接听用户是否为合法用户。
在一种实施方式中,选择一类支持向量机(OCSVM)作为认证模型。在注册阶段根据从合法用户收集的数据训练一个一类支持向量机(OCSVM)模型,通过网格搜索和交叉验证选择最优参数:核函数kernel、训练误差ν,最终选择径向基核函数、训练误差ν设置为0.01。在认证阶段将步骤3得到的128维声学表示特征输入训练好的认证模型,判断接听用户是否合法。判断标准是当前数据点被核函数映射后与超球面之间的距离在映射空间中是否超过阈值。若是,则判定为非法用户,若否,则判断为合法用户。
本发明还提供了一种基于外耳声学感知的隐式接听认证系统,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现所述的基于外耳声学感知的隐式接听认证方法。
本实施例使用智能手机的听筒和顶部麦克风作为主动声纳,发送听不见的声音信号来感知外耳和记录回声;在听筒和麦克风之间进行信号同步,利用带通滤波器去除外界噪声等对接收信号的干扰,并进行信号分割,提取出外耳反射的目标信号;进行谱图分析,对提取的片段进行短时傅里叶变换(STFT)得到二维谱图,计算它们之间的绝对差分矩阵,并进行最小-最大归一化,得到归一化谱图,利用预先训练好的卷积神经网络模型提取具有代表性的声学特征;在注册阶段根据从合法用户收集的数据点训练一类支持向量机模型,在认证阶段判断接听用户是否合法。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (10)
1.一种基于外耳声学感知的隐式接听认证方法,其特征在于,包括以下步骤:
步骤1:智能手机发送人耳听不见的高频信号用于声学感知,并记录回声信号;
步骤2:从回声信号中提取出外耳反射的目标信号;
步骤3:从目标信号中提取声学特征;
首先对提取的目标信号进行短时傅里叶变换,计算参考段谱图和感知段谱图的绝对差矩阵;然后利用卷积神经特征提取网络提取具有代表性和鲁棒性的声学特征;
步骤4:利用认证模型,判断接听用户是否为合法用户。
2.根据权利要求1所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤1中,当来电时,用户点击接听按钮拿起智能手机接听,按下接听按钮的动作定义为第一个触发动作,该触发动作执行时听筒开始播放感知信号;当用户把智能手机放在耳朵上时是第二个触发动作,利用声学感知提取与耳朵相关的声学特征来区分用户,感知过程结束。
3.根据权利要求1所述的基于外耳声学感知的隐式接听认证方法,其特征在于,步骤2的具体实现包括以下子步骤:
步骤2.1:定位声学感知过程的开始时间;
步骤2.2:利用带通滤波器去除外界噪声对接收信号的干扰;
步骤2.3:提取出外耳反射的目标信号。
4.根据权利要求3所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤2.1中,在感知信号之前添加先导信号,在智能手机扬声器和麦克风之间进行时间同步;先导信号包含了三个频率为22~18kHz的啁啾信号。
5.根据权利要求3所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤2.3中,首先选择参考段,分析参考段和感知段之间的绝对差值;对于每个信号段,使用互相关来更好地定位目标反射区域,接收信号段y(t)和发送信号x(t)之间的互相关Rxy为:
Rxy=y(t)*x★(-t);
式中,*是卷积算子,x★(-t)是x(-t)的复共轭;确定相关性最高的索引作为目标反射区域的起点,对于每个信号段最后推导一个长为N样本点的信号段作为目标信号;所述信号段包括参考段和感知段。
6.根据权利要求1所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤3中,在得到信号段的目标反射区域后,利用短时傅里叶变换提取幅值特征和相位特征的二维谱图S=[Sm;Sp],分别计算幅度谱Sm和相位谱Sp,只保存频率高于设定频率fstart的信号分量的幅度谱Specm和相位谱Specp,得到二维谱图Spec=[Specm;Specp],Specm=Sm(Mstart:,:),Specp=Sp(Mstart:,:),根据设定频率fstart、FFT点数Nfft、采样率fs计算出然后计算参考段谱图Specr和感知段谱图Specs之间的绝对差矩阵ΔSpec以消除干扰,提取与耳朵相关的特征;
ΔSpec=|Specs-Specr|;
对绝对差矩阵ΔSpec进行最小-最大归一化,得到归一化谱图ΔSpecnorm为:
7.根据权利要求1所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤3中,所述卷积神经特征提取网络,由11层神经网络层组成,其中第一层为Conv2d+ReLu,第二层为Conv2d+ReLu,第三层为Max Pooling+Dropout,第四层为Conv2d+ReLu,第五层为Conv2d+ReLu,第六层为Max Pooling+Dropout,第七层为Conv2d+ReLu,第八层为Conv2d+ReLu,第九层为Max Pooling+Dropout,第十层为Flatten,第十一层为Dense+ReLu;其中,Conv2d表示二维卷积层,ReLu是线性整流激活函数,Max Pooling表示最大池化层,Dropout表示Dropout层,Flatten表示Flatten层,Dense表示全连接层;利用特征提取网络提取具有代表性的声学特征,得到128维的特征向量。
8.根据权利要求1所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤4中,所述认证模型,选择一类支持向量机模型;在注册阶段根据从合法用户收集的数据训练一个一类支持向量机模型,通过网格搜索和交叉验证选择最优参数:核函数kernel、训练误差v;在认证阶段将步骤3得到的128维声学表示特征输入训练好的认证模型,判断接听用户是否合法。
9.根据权利要求1-8任意一项所述的基于外耳声学感知的隐式接听认证方法,其特征在于:步骤4中,判断接听用户是否合法用户,判断标准是当前数据点被核函数映射后与超球面之间的距离在映射空间中是否超过阈值。
10.一种基于外耳声学感知的隐式接听认证系统,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至9中任一项所述的基于外耳声学感知的隐式接听认证方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310967773.6A CN117156439A (zh) | 2023-08-02 | 2023-08-02 | 一种基于外耳声学感知的隐式接听认证方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310967773.6A CN117156439A (zh) | 2023-08-02 | 2023-08-02 | 一种基于外耳声学感知的隐式接听认证方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117156439A true CN117156439A (zh) | 2023-12-01 |
Family
ID=88903523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310967773.6A Pending CN117156439A (zh) | 2023-08-02 | 2023-08-02 | 一种基于外耳声学感知的隐式接听认证方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117156439A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118536102A (zh) * | 2024-07-24 | 2024-08-23 | 武汉大学 | 基于声学传感的智能用户认证方法、设备及软件产品 |
CN118536102B (zh) * | 2024-07-24 | 2024-11-08 | 武汉大学 | 基于声学传感的智能用户认证方法、设备及软件产品 |
-
2023
- 2023-08-02 CN CN202310967773.6A patent/CN117156439A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118536102A (zh) * | 2024-07-24 | 2024-08-23 | 武汉大学 | 基于声学传感的智能用户认证方法、设备及软件产品 |
CN118536102B (zh) * | 2024-07-24 | 2024-11-08 | 武汉大学 | 基于声学传感的智能用户认证方法、设备及软件产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10566007B2 (en) | System and method for authenticating voice commands for a voice assistant | |
CN112585676A (zh) | 生物特征认证 | |
CN106599866A (zh) | 一种多维度用户身份识别方法 | |
Wang et al. | Ghosttalk: Interactive attack on smartphone voice system through power line | |
CN111666549A (zh) | 一种智能耳机及其用户识别方法 | |
Mahto et al. | Ear acoustic biometrics using inaudible signals and its application to continuous user authentication | |
Gong et al. | Protecting voice controlled systems using sound source identification based on acoustic cues | |
CN109711350B (zh) | 一种基于唇部运动和语音融合的身份认证方法 | |
CN110363120B (zh) | 基于振动信号的智能终端触碰认证方法及系统 | |
CN104898836B (zh) | 一种旋转摄像头调节方法及用户终端 | |
CN106980836A (zh) | 身份验证方法及装置 | |
CN109065058A (zh) | 语音通信方法、装置及系统 | |
CN111339511A (zh) | 身份合法性验证方法、装置及终端设备 | |
Huang et al. | Pcr-auth: Solving authentication puzzle challenge with encoded palm contact response | |
WO2022052965A1 (zh) | 语音重放攻击检测方法、装置、介质、设备及程序产品 | |
Wong | Authentication through sensing of tongue and lip motion via smartphone | |
WO2018051950A1 (ja) | 個人認証装置、個人認証方法および記録媒体 | |
Prajapati et al. | Energy separation based features for replay spoof detection for voice assistant | |
CN117156439A (zh) | 一种基于外耳声学感知的隐式接听认证方法及系统 | |
CN114617543A (zh) | 一种身份可识别呼吸监测方法及装置 | |
CN110020520B (zh) | 一种基于声音信号的人脸识别辅助认证方法和系统 | |
Huang et al. | Unobtrusive pedestrian identification by leveraging footstep sounds with replay resistance | |
CN114003885B (zh) | 一种智能语音认证方法、系统及可存储介质 | |
CN115348049B (zh) | 一种利用耳机内向麦克风的用户身份认证方法 | |
Zhou et al. | FingerPattern: Securing Pattern Lock via Fingerprint-Dependent Friction Sound |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |