CN106778186A - 一种用于虚拟现实交互设备的身份识别方法及装置 - Google Patents
一种用于虚拟现实交互设备的身份识别方法及装置 Download PDFInfo
- Publication number
- CN106778186A CN106778186A CN201710078936.XA CN201710078936A CN106778186A CN 106778186 A CN106778186 A CN 106778186A CN 201710078936 A CN201710078936 A CN 201710078936A CN 106778186 A CN106778186 A CN 106778186A
- Authority
- CN
- China
- Prior art keywords
- brain wave
- speech model
- default
- signal
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000003993 interaction Effects 0.000 title abstract description 7
- 210000004556 brain Anatomy 0.000 claims abstract description 139
- 238000000605 extraction Methods 0.000 claims description 54
- 230000002452 interceptive effect Effects 0.000 claims description 27
- 238000001228 spectrum Methods 0.000 claims description 24
- 238000009499 grossing Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 230000007935 neutral effect Effects 0.000 claims description 8
- 230000005611 electricity Effects 0.000 claims description 7
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 238000012549 training Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000092161 Pithys Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/083—Network architectures or network communication protocols for network security for authentication of entities using passwords
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/08—Network architectures or network communication protocols for network security for authentication of entities
- H04L63/0861—Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种用于虚拟现实交互设备的身份识别方法及装置,用于虚拟现实交互设备的身份识别方法包括:获取用户语音信号,并提取用户语音信号的语音特征参数;将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;如果所述匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;获取用户输入意念密码时的脑电波信号,并提取所述脑电波信号的脑电波特征信息;如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。本发明实施例的技术方案,通过获取用户的生物特征,实现方便快捷地识别用户身份。
Description
技术领域
本发明实施例涉及身份识别技术,尤其涉及一种用于虚拟现实交互设备的身份识别方法及装置。
背景技术
虚拟现实技术有极其广泛的应用前景,其中,虚拟购物在网购与实体店购物之间搭起一座桥梁,并将它们融合在单一、合成化的平台里,使之在互补中扬长避短,这势必会给商家以及客户带来极大的便利。用户在网购时,通常使用在线支付进行结算,而在线支付需要对操作者的身份进行识别。
现有技术中,通过密码、令牌、掩码及其手机短信等确认操作者的身份,但是现有的在线支付手段使得用户不可避免得摘下虚拟现实交互的智能头显,在手机上完成支付环节,严重影响了购物中的流畅一体化。
发明内容
本发明实施例提供一种用于虚拟现实交互设备的身份识别方法及装置,以实现通过获取用户的生物特征,实现方便快捷地识别用户身份。
第一方面,本发明实施例提供了一种用于虚拟现实交互设备的身份识别方法,包括:
获取用户语音信号,并提取用户语音信号的语音特征参数;
将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;
如果所述匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;
获取用户输入意念密码时的脑电波信号,并提取所述脑电波信号的脑电波特征信息;
如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
进一步的,在将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果之前,还包括:
获取用户输入的预设文本内容的语音信号;
根据所述预设文本内容、所述预设文本内容的语音信号的声纹信息以及所述预设文本内容和所述预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型;
根据所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型;
根据所述已出现语音模型和所述未出现语音模型,生成所述预设语音模型库。
进一步的,如果所述匹配结果为匹配成功,还包括:
根据所述语音信号的文本内容、所述语音信号的声纹信息以及所述语音信号的文本内容和所述语音信号的声纹信息的对应关系,生成新增已出现语音模型;
将所述新增已出现语音模型加入所述已出现语音模型;
根据加入所述新增已出现语音模型后的所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
进一步的,在如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份之前,还包括:
获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号;
根据预设脑电波特征提取方式,对所述基础脑电波信号进行特征提取,生成基础脑电波特征信息;
根据神经网络的模式分类方法对所述基础脑电波特征信息进行分类,将所述基础脑电波特征信息归于至少一种预设脑电波类型;
根据分类后的所述基础脑电波特征信息和所述至少一种预设脑电波类型,建立预设脑电波图谱库。
进一步的,所述预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。
第二方面,本发明实施例还提供了一种用于虚拟现实交互设备的身份识别装置,包括:
语音特征参数提取模块,用于获取用户语音信号,并提取用户语音信号的语音特征参数;
语音匹配结果生成模块,用于将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;
脑电波图谱库权限开启模块,用于如果所述匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;
脑电波特征信息提取模块,用于获取用户输入意念密码时的脑电波信号,并提取所述脑电波信号的脑电波特征信息;
身份确定模块,用于如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
进一步的,用于虚拟现实交互设备的身份识别装置还包括:
预设文本语音信号获取模块,用于获取用户输入的预设文本内容的语音信号;
已出现语音模型生成模块,用于根据所述预设文本内容、所述预设文本内容的语音信号的声纹信息以及所述预设文本内容和所述预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型;
未出现语音模型生成模块,用于根据所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型;
预设语音模型库生成模块,用于根据所述已出现语音模型和所述未出现语音模型,生成所述预设语音模型库。
进一步的,用于虚拟现实交互设备的身份识别装置还包括:
新增已出现语音模型生成模块,用于根据所述语音信号的文本内容、所述语音信号的声纹信息以及所述语音信号的文本内容和所述语音信号的声纹信息的对应关系,生成新增已出现语音模型;
已出现语音模型加入模块,用于将所述新增已出现语音模型加入所述已出现语音模型;
未出现语音模型更新模块,用于根据加入所述新增已出现语音模型后的所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
进一步的,用于虚拟现实交互设备的身份识别装置还包括:
基础脑电波信号获取模块,用于获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号;
基础脑电波特征信息生成模块,用于根据预设脑电波特征提取方式,对所述基础脑电波信号进行特征提取,生成基础脑电波特征信息;
基础脑电波特征信息归类模块,用于根据神经网络的模式分类方法对所述基础脑电波特征信息进行分类,将所述基础脑电波特征信息归于至少一种预设脑电波类型;
预设脑电波图谱库建立模块,用于根据分类后的所述基础脑电波特征信息和所述至少一种预设脑电波类型,建立预设脑电波图谱库。
进一步的,所述预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。
本发明通过获取用户的生物特征,识别用户身份,解决虚拟现实购物结算时,需要摘下虚拟现实交互的智能头显,在手机上完成支付环节的问题,实现实现方便快捷地识别用户身份的效果。
附图说明
图1是本发明实施例一中的一种用于虚拟现实交互设备的身份识别方法的流程图;
图2是本发明实施例二中的一种用于虚拟现实交互设备的身份识别方法的流程图;
图3是本发明实施例三中的一种用于虚拟现实交互设备的身份识别方法的流程图;
图4是本发明实施例四中的一种用于虚拟现实交互设备的身份识别装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种用于虚拟现实交互设备的身份识别方法的流程图,本实施例可适用于使用虚拟现实交互设备进行网购的情况,该方法可以由用于虚拟现实交互设备的身份识别装置来执行,该装置可以由硬件和/或软件来实现,具体包括如下步骤:
步骤110、获取用户语音信号,并提取用户语音信号的语音特征参数。
其中,虚拟现实交互设备包括用于获取语音信号的麦克风,在获取用于身份验证的语音信号时,提示用户输入语音信号的起止时间。在获取用户语音信号之后,提取用户语音信号的声纹信息作为语音特征参数。
步骤120、将语音特征参数和预设语音模型库进行模式匹配,生成匹配结果。
其中,根据已有的预设语音模型库对输入的用户语音信号的语音特征参数进行模式匹配计算,根据模式匹配计算的结果确定匹配结果。
步骤130、如果匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限。
其中,当语音信号的语音特征参数和预设语音模型库匹配成功后,则可以获得进入用户个人的身份验证空间,该身份验证空间存储有预设脑电波图谱库,该预设脑电波图谱库包括根据获取的用户脑电波信号生成的预设脑电波图谱。
步骤140、获取用户输入意念密码时的脑电波信号,并提取脑电波信号的脑电波特征信息。
其中,虚拟现实交互设备还包括用于获取用户头部预设位置的脑电波信号的脑波传感器,当通过语音识别后,提示用户进入意念验证,并提示用户进行意念验证的起止时间,在进行意念验证的起止时间内通过脑波传感器获取用户脑电波信号,并从用户脑电波信号中提取脑电波特征信息。
步骤150、如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
其中,将从用户脑电波信号中提取出的脑电波特征信息和预设脑电波图谱进行匹配,当脑电波特征信息和预设脑电波图谱库中的某个预设脑电波图谱相符合时,确定提取的脑电波特征信息和预设脑电波图谱匹配,此时,确定用户身份为已授权身份,从而可以进一步实现网购结算等操作。
本实施例的技术方案,通过获取用户的生物特征,识别用户身份,解决虚拟现实购物结算时,需要摘下虚拟现实交互的智能头显,在手机上完成支付环节的问题,实现实现方便快捷地识别用户身份的效果。
实施例二
图2为本发明实施例二提供的一种用于虚拟现实交互设备的身份识别方法的流程图,在上述技术方案的基础上,在步骤120之前,还包括:
步骤210、获取用户输入的预设文本内容的语音信号。
其中,用户输入的语音信号的文本内容是预设的,为了建立基础的语音模型,该文本内容需要包括特定发音的文本,在设置语音密钥的训练阶段,训练语音内容为系统所知,用户要根据系统里面的指定内容说话,且批量录入语音,系统根据累积的统计量。
步骤220、根据预设文本内容、预设文本内容的语音信号的声纹信息以及预设文本内容和预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型。
其中,用户输入的语音信号的文本内容是已知的,但仍需要对语音信号进行文本内容识别,以及声纹信息提取,进而确定预设文本内容和与其对应的声纹信息,示例的,以时间轴为基准,确定语音信号中的文本内容对应的声纹信息。在确定了语音信号中的预设文本内容,提取了语音信号中的声纹信息,并确定了预设文本内容和声纹信息的对应关系之后,进行学习训练以建立已出现语音模型。
步骤230、根据已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型。
其中,用户在进行语音验证时,在语音验证起止时间内输入语音信号,该语音信号的文本内容是随意的,需要由系统通过识别获得,在语音数量很大的情况下,矢量场平滑最大后验概率算法以最大后验概率为基本准则,用已出现语音模型自适应后的变化量预测相邻的未出现语音的模型的变化量,从而获得未出现语音模型的自适应结果。
步骤240、根据已出现语音模型和未出现语音模型,生成预设语音模型库。
可选的,在步骤120之后,如果所述匹配结果为匹配成功,还包括:
根据语音信号的文本内容、语音信号的声纹信息以及语音信号的文本内容和语音信号的声纹信息的对应关系,生成新增已出现语音模型;
将新增已出现语音模型加入已出现语音模型;
根据加入新增已出现语音模型后的已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
用户进行语音验证时,用户在一定的时间内随意说话,该自适应训练过程中训练语音的说话内容对于系统是不知的,需要由系统通过识别获得,在语音数量很大的情况下,矢量场平滑最大后验概率算法以最大后验概率为基本准则,用已出现语音模型自适应后的变化量预测相邻的未出现语音的模型的变化量,从而获得未出现语音模型的自适应结果,使系统的性能渐进式的逼近于“一对一”模式。
本实施例的技术方案,通过获取预设文本内容的语音信号,并进行文本内容的识别和声纹信息的提取,训练获得预设语音模型,实现文本无关型的语音验证。
实施例三
图3为本发明实施例三提供的一种用于虚拟现实交互设备的身份识别方法的流程图,在上述技术方案的基础上,在步骤150之前,还包括:
步骤310、获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号。
其中,预设引导信息可以是预设的文本、预设的音频、预设的图片和预设的视频中的至少一种。预设引导信息用于引导用户的情绪,从而使用户产生与预设情绪类型相应的脑电波信号。预设情绪类型包括但不限于喜悦、生气、悲伤、忧虑和恐惧。示例的,为用户播放一段欢快的音乐,同时显示一副自然风光的美景,引导用户产生愉悦的情绪,记录用户的脑电波信号。将获取到的各种情绪类型的脑电波信号作为基础脑电波信号。
步骤320、根据预设脑电波特征提取方式,对基础脑电波信号进行特征提取,生成基础脑电波特征信息。
可选的,预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。其中,脑波传感器获取到的是电位数据,快速傅里叶变换可以把信号从时间域转换到频域,基于外部刺激和内在精神状态的不同,脑电波的频域幅度变化很大。利用小波变换作特征提取,即提取信息的要点,其次利用神经网络的模式分类方法对特征进行分类,最终目的是对特定脑电信号进行识别。
步骤330、根据神经网络的模式分类方法对基础脑电波特征信息进行分类,将基础脑电波特征信息归于至少一种预设脑电波类型。
其中,根据神经网络的模式分类方法将具有相同脑电波特征信息的基础脑电波特征信息划分为同一预设脑电波类型的基础脑电波。
步骤340、根据分类后的基础脑电波特征信息和至少一种预设脑电波类型,建立预设脑电波图谱库。
其中,预设脑电波图谱库下,按照预设脑电波类型,在各个类型下相应存储同一类型的基础电脑版特征信息。
用户预先设定意念密码,该意念密码即为一种情绪倾向,为了脑波验证的可操作性,可以设置验证口诀,即一段包括情绪倾向的文本,用户可以在脑波验证时默念该验证口诀。而且,根据意念密码的情绪类型,确定与意念密码对应的预设脑电波类型为目标脑电波类型,当进行脑波验证时,获取用户脑电波信号,并提取脑电波特征信息,进而与预设脑电波图谱库中目标脑电波类型的基础脑电波特征信息进行比对,在匹配成功后,确定用户身份为已授权身份。
本实施例的技术方案,通过获取用户脑电波信号,进行特征提取以及分类,建立预设脑电波图谱库,用于脑波验证时与提取的脑电波特征信息进行比对,确定匹配结果。
实施例四
图4为本发明实施例四提供的一种用于虚拟现实交互设备的身份识别装置的结构示意图,该装置可以配置于虚拟现实交互设备中,用于虚拟现实交互设备的身份识别装置40包括:
语音特征参数提取模块410,用于获取用户语音信号,并提取用户语音信号的语音特征参数;
语音匹配结果生成模块420,用于将语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;
脑电波图谱库权限开启模块430,用于如果匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;
脑电波特征信息提取模块440,用于获取用户输入意念密码时的脑电波信号,并提取脑电波信号的脑电波特征信息;
身份确定模块450,用于如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
本实施例的技术方案,通过获取用户的生物特征,识别用户身份,解决虚拟现实购物结算时,需要摘下虚拟现实交互的智能头显,在手机上完成支付环节的问题,实现实现方便快捷地识别用户身份的效果。
进一步的,用于虚拟现实交互设备的身份识别装置40还包括:
预设文本语音信号获取模块,用于获取用户输入的预设文本内容的语音信号;
已出现语音模型生成模块,用于根据预设文本内容、预设文本内容的语音信号的声纹信息以及预设文本内容和预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型;
未出现语音模型生成模块,用于根据已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型;
预设语音模型库生成模块,用于根据已出现语音模型和未出现语音模型,生成预设语音模型库。
进一步的,用于虚拟现实交互设备的身份识别装置40还包括:
新增已出现语音模型生成模块,用于根据语音信号的文本内容、语音信号的声纹信息以及语音信号的文本内容和语音信号的声纹信息的对应关系,生成新增已出现语音模型;
已出现语音模型加入模块,用于将新增已出现语音模型加入已出现语音模型;
未出现语音模型更新模块,用于根据加入新增已出现语音模型后的已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
进一步的,用于虚拟现实交互设备的身份识别装置40还包括:
基础脑电波信号获取模块,用于获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号;
基础脑电波特征信息生成模块,用于根据预设脑电波特征提取方式,对基础脑电波信号进行特征提取,生成基础脑电波特征信息;
基础脑电波特征信息归类模块,用于根据神经网络的模式分类方法对基础脑电波特征信息进行分类,将基础脑电波特征信息归于至少一种预设脑电波类型;
预设脑电波图谱库建立模块,用于根据分类后的基础脑电波特征信息和至少一种预设脑电波类型,建立预设脑电波图谱库。
可选的,预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种用于虚拟现实交互设备的身份识别方法,其特征在于,包括:
获取用户语音信号,并提取用户语音信号的语音特征参数;
将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;
如果所述匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;
获取用户输入意念密码时的脑电波信号,并提取所述脑电波信号的脑电波特征信息;
如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
2.根据权利要求1所述的方法,其特征在于,在将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果之前,还包括:
获取用户输入的预设文本内容的语音信号;
根据所述预设文本内容、所述预设文本内容的语音信号的声纹信息以及所述预设文本内容和所述预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型;
根据所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型;
根据所述已出现语音模型和所述未出现语音模型,生成所述预设语音模型库。
3.根据权利要求2所述的方法,其特征在于,如果所述匹配结果为匹配成功,还包括:
根据所述语音信号的文本内容、所述语音信号的声纹信息以及所述语音信号的文本内容和所述语音信号的声纹信息的对应关系,生成新增已出现语音模型;
将所述新增已出现语音模型加入所述已出现语音模型;
根据加入所述新增已出现语音模型后的所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
4.根据权利要求1所述的方法,其特征在于,在如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份之前,还包括:
获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号;
根据预设脑电波特征提取方式,对所述基础脑电波信号进行特征提取,生成基础脑电波特征信息;
根据神经网络的模式分类方法对所述基础脑电波特征信息进行分类,将所述基础脑电波特征信息归于至少一种预设脑电波类型;
根据分类后的所述基础脑电波特征信息和所述至少一种预设脑电波类型,建立预设脑电波图谱库。
5.根据权利要求4所述的方法,其特征在于,所述预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。
6.一种用于虚拟现实交互设备的身份识别装置,其特征在于,包括:
语音特征参数提取模块,用于获取用户语音信号,并提取用户语音信号的语音特征参数;
语音匹配结果生成模块,用于将所述语音特征参数和预设语音模型库进行模式匹配,生成匹配结果;
脑电波图谱库权限开启模块,用于如果所述匹配结果为匹配成功,则开启预设脑电波图谱库的调取权限;
脑电波特征信息提取模块,用于获取用户输入意念密码时的脑电波信号,并提取所述脑电波信号的脑电波特征信息;
身份确定模块,用于如果提取的脑电波特征信息和预设脑电波图谱匹配,则确定用户身份为已授权身份。
7.根据权利要求6所述的装置,其特征在于,还包括:
预设文本语音信号获取模块,用于获取用户输入的预设文本内容的语音信号;
已出现语音模型生成模块,用于根据所述预设文本内容、所述预设文本内容的语音信号的声纹信息以及所述预设文本内容和所述预设文本内容的语音信号的声纹信息的对应关系,生成已出现语音模型;
未出现语音模型生成模块,用于根据所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成未出现语音模型;
预设语音模型库生成模块,用于根据所述已出现语音模型和所述未出现语音模型,生成所述预设语音模型库。
8.根据权利要求7所述的装置,其特征在于,还包括:
新增已出现语音模型生成模块,用于根据所述语音信号的文本内容、所述语音信号的声纹信息以及所述语音信号的文本内容和所述语音信号的声纹信息的对应关系,生成新增已出现语音模型;
已出现语音模型加入模块,用于将所述新增已出现语音模型加入所述已出现语音模型;
未出现语音模型更新模块,用于根据加入所述新增已出现语音模型后的所述已出现语音模型,通过矢量场平滑最大后验概率算法,生成更新未出现语音模型,作为未出现语音模型。
9.根据权利要求6所述的装置,其特征在于,还包括:
基础脑电波信号获取模块,用于获取向用户展示至少一个预设引导信息时的用户脑电波信号,作为基础脑电波信号;
基础脑电波特征信息生成模块,用于根据预设脑电波特征提取方式,对所述基础脑电波信号进行特征提取,生成基础脑电波特征信息;
基础脑电波特征信息归类模块,用于根据神经网络的模式分类方法对所述基础脑电波特征信息进行分类,将所述基础脑电波特征信息归于至少一种预设脑电波类型;
预设脑电波图谱库建立模块,用于根据分类后的所述基础脑电波特征信息和所述至少一种预设脑电波类型,建立预设脑电波图谱库。
10.根据权利要求9所述的装置,其特征在于,所述预设脑电波特征提取方式包括:将待特征提取的脑电波信号进行傅里叶变换,生成待特征提取的脑电波信号的频域信号;通过小波变换对待特征提取的脑电波信号的频域信号进行特征提取,作为待特征提取的脑电波信号的特征信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710078936.XA CN106778186A (zh) | 2017-02-14 | 2017-02-14 | 一种用于虚拟现实交互设备的身份识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710078936.XA CN106778186A (zh) | 2017-02-14 | 2017-02-14 | 一种用于虚拟现实交互设备的身份识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778186A true CN106778186A (zh) | 2017-05-31 |
Family
ID=58957001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710078936.XA Pending CN106778186A (zh) | 2017-02-14 | 2017-02-14 | 一种用于虚拟现实交互设备的身份识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778186A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107277075A (zh) * | 2017-08-18 | 2017-10-20 | 京东方科技集团股份有限公司 | 认证装置和认证方法 |
CN108507562A (zh) * | 2018-03-13 | 2018-09-07 | 广东欧珀移动通信有限公司 | 定位方法及相关产品 |
CN108509032A (zh) * | 2018-03-13 | 2018-09-07 | 广东欧珀移动通信有限公司 | 网络连接控制方法及相关产品 |
CN108596626A (zh) * | 2018-03-26 | 2018-09-28 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108596625A (zh) * | 2018-03-26 | 2018-09-28 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108650393A (zh) * | 2018-03-26 | 2018-10-12 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108682434A (zh) * | 2018-03-26 | 2018-10-19 | 广东欧珀移动通信有限公司 | 电子装置、数据处理方法及相关产品 |
CN108776788A (zh) * | 2018-06-05 | 2018-11-09 | 电子科技大学 | 一种基于脑电波的识别方法 |
CN108806700A (zh) * | 2018-06-08 | 2018-11-13 | 英业达科技有限公司 | 通过声纹及语音密码判断身分的系统及方法 |
CN111814169A (zh) * | 2020-07-16 | 2020-10-23 | 山东大学 | 一种消化道疾病数据加密获取方法及风险预测系统 |
CN111973178A (zh) * | 2020-08-14 | 2020-11-24 | 中国科学院上海微系统与信息技术研究所 | 一种脑电信号识别系统及方法 |
CN112799513A (zh) * | 2021-01-29 | 2021-05-14 | 清华大学 | 信号处理方法、电子装置、信号处理装置 |
CN113421141A (zh) * | 2020-07-29 | 2021-09-21 | 阿里巴巴集团控股有限公司 | 基于脑机、脑神经信号的购物处理方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101221554A (zh) * | 2008-01-25 | 2008-07-16 | 北京工业大学 | 基于小波变换和bp神经网络的脑电特征提取方法 |
CN101491441A (zh) * | 2009-02-26 | 2009-07-29 | 江西蓝天学院 | 基于脑电信号的身份识别方法 |
CN101827256A (zh) * | 2009-03-06 | 2010-09-08 | 新奥特硅谷视频技术有限责任公司 | 一种基于声纹认证和数字水印的远程数字化庭审方法 |
CN102499676A (zh) * | 2011-11-03 | 2012-06-20 | 北京工业大学 | 基于有效时间序列和电极重组的脑电信号分类系统和方法 |
CN103310142A (zh) * | 2013-05-22 | 2013-09-18 | 复旦大学 | 基于可穿戴设备的人机融合安全认证方法 |
CN103690165A (zh) * | 2013-12-12 | 2014-04-02 | 天津大学 | 一种跨诱发模式情绪脑电识别建模方法 |
CN105894039A (zh) * | 2016-04-25 | 2016-08-24 | 京东方科技集团股份有限公司 | 情绪识别模型建立方法、情绪识别方法及装置、智能设备 |
-
2017
- 2017-02-14 CN CN201710078936.XA patent/CN106778186A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101221554A (zh) * | 2008-01-25 | 2008-07-16 | 北京工业大学 | 基于小波变换和bp神经网络的脑电特征提取方法 |
CN101491441A (zh) * | 2009-02-26 | 2009-07-29 | 江西蓝天学院 | 基于脑电信号的身份识别方法 |
CN101827256A (zh) * | 2009-03-06 | 2010-09-08 | 新奥特硅谷视频技术有限责任公司 | 一种基于声纹认证和数字水印的远程数字化庭审方法 |
CN102499676A (zh) * | 2011-11-03 | 2012-06-20 | 北京工业大学 | 基于有效时间序列和电极重组的脑电信号分类系统和方法 |
CN103310142A (zh) * | 2013-05-22 | 2013-09-18 | 复旦大学 | 基于可穿戴设备的人机融合安全认证方法 |
CN103690165A (zh) * | 2013-12-12 | 2014-04-02 | 天津大学 | 一种跨诱发模式情绪脑电识别建模方法 |
CN105894039A (zh) * | 2016-04-25 | 2016-08-24 | 京东方科技集团股份有限公司 | 情绪识别模型建立方法、情绪识别方法及装置、智能设备 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10819703B2 (en) | 2017-08-18 | 2020-10-27 | Boe Technology Group Co., Ltd. | Device and method for authentication |
CN107277075A (zh) * | 2017-08-18 | 2017-10-20 | 京东方科技集团股份有限公司 | 认证装置和认证方法 |
CN108509032B (zh) * | 2018-03-13 | 2020-09-22 | Oppo广东移动通信有限公司 | 网络连接控制方法及相关产品 |
CN108507562A (zh) * | 2018-03-13 | 2018-09-07 | 广东欧珀移动通信有限公司 | 定位方法及相关产品 |
CN108509032A (zh) * | 2018-03-13 | 2018-09-07 | 广东欧珀移动通信有限公司 | 网络连接控制方法及相关产品 |
CN108596625A (zh) * | 2018-03-26 | 2018-09-28 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108596626A (zh) * | 2018-03-26 | 2018-09-28 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108596626B (zh) * | 2018-03-26 | 2022-04-29 | Oppo广东移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108596625B (zh) * | 2018-03-26 | 2022-04-26 | Oppo广东移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108682434B (zh) * | 2018-03-26 | 2020-08-21 | Oppo广东移动通信有限公司 | 电子装置、数据处理方法及相关产品 |
CN108650393A (zh) * | 2018-03-26 | 2018-10-12 | 广东欧珀移动通信有限公司 | 电子装置、设备控制方法及相关产品 |
CN108682434A (zh) * | 2018-03-26 | 2018-10-19 | 广东欧珀移动通信有限公司 | 电子装置、数据处理方法及相关产品 |
CN108776788B (zh) * | 2018-06-05 | 2022-03-15 | 电子科技大学 | 一种基于脑电波的识别方法 |
CN108776788A (zh) * | 2018-06-05 | 2018-11-09 | 电子科技大学 | 一种基于脑电波的识别方法 |
CN108806700A (zh) * | 2018-06-08 | 2018-11-13 | 英业达科技有限公司 | 通过声纹及语音密码判断身分的系统及方法 |
CN111814169A (zh) * | 2020-07-16 | 2020-10-23 | 山东大学 | 一种消化道疾病数据加密获取方法及风险预测系统 |
CN113421141A (zh) * | 2020-07-29 | 2021-09-21 | 阿里巴巴集团控股有限公司 | 基于脑机、脑神经信号的购物处理方法、装置及电子设备 |
CN111973178A (zh) * | 2020-08-14 | 2020-11-24 | 中国科学院上海微系统与信息技术研究所 | 一种脑电信号识别系统及方法 |
CN112799513A (zh) * | 2021-01-29 | 2021-05-14 | 清华大学 | 信号处理方法、电子装置、信号处理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778186A (zh) | 一种用于虚拟现实交互设备的身份识别方法及装置 | |
US11017788B2 (en) | System and method for creating timbres | |
CN107886957A (zh) | 一种结合声纹识别的语音唤醒方法及装置 | |
CN108319829B (zh) | 一种声纹验证方法和装置 | |
CN107452369A (zh) | 语音合成模型生成方法和装置 | |
US11081115B2 (en) | Speaker recognition | |
CN105845139A (zh) | 一种离线语音控制方法和装置 | |
CN109243466A (zh) | 一种声纹鉴权训练方法及系统 | |
Ling et al. | Attention-Based Convolutional Neural Network for ASV Spoofing Detection. | |
CN109887510A (zh) | 一种基于经验模态分解与mfcc的声纹识别方法及装置 | |
CN110379433A (zh) | 身份验证的方法、装置、计算机设备及存储介质 | |
Dawood et al. | A robust voice spoofing detection system using novel CLS-LBP features and LSTM | |
CN112151016A (zh) | 一种保护隐私的语音交互系统及方法 | |
Malik | Fighting AI with AI: fake speech detection using deep learning | |
Ye et al. | Fake the real: Backdoor attack on deep speech classification via voice conversion | |
WO2021128847A1 (zh) | 终端交互方法、装置、计算机设备及存储介质 | |
Reimao et al. | Synthetic speech detection using neural networks | |
Wang et al. | Capture interspeaker information with a neural network for speaker identification | |
Choi et al. | Adversarial speaker-consistency learning using untranscribed speech data for zero-shot multi-speaker text-to-speech | |
Koolagudi et al. | Speaker recognition in the case of emotional environment using transformation of speech features | |
Chaiwongyen et al. | Contribution of timbre and shimmer features to deepfake speech detection | |
Yang et al. | Constant-q deep coefficients for playback attack detection | |
TW202032536A (zh) | 語者驗證系統 | |
Muruganantham et al. | Biometric of speaker authentication using CNN | |
Anarkat et al. | Detection of Mimicry Attacks on Speaker Verification System for Cartoon Characters’ Dataset |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |
|
RJ01 | Rejection of invention patent application after publication |