CN110334497A - 显示界面的切换方法和穿戴式电子设备、存储介质 - Google Patents

显示界面的切换方法和穿戴式电子设备、存储介质 Download PDF

Info

Publication number
CN110334497A
CN110334497A CN201910578611.7A CN201910578611A CN110334497A CN 110334497 A CN110334497 A CN 110334497A CN 201910578611 A CN201910578611 A CN 201910578611A CN 110334497 A CN110334497 A CN 110334497A
Authority
CN
China
Prior art keywords
voice
interface
information
electronic equipment
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910578611.7A
Other languages
English (en)
Other versions
CN110334497B (zh
Inventor
王路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910578611.7A priority Critical patent/CN110334497B/zh
Publication of CN110334497A publication Critical patent/CN110334497A/zh
Application granted granted Critical
Publication of CN110334497B publication Critical patent/CN110334497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种显示界面的切换方法和穿戴式电子设备,其中,所述方法应用于穿戴式电子设备中,所述穿戴式电子设备包括第一本体和与第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述方法包括:当所述显示单元呈现第一界面时,采集语音输入信息;分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;其中,所述第一界面和第二界面至少一个界面呈现立体画面。

Description

显示界面的切换方法和穿戴式电子设备、存储介质
技术领域
本发明涉及显示技术,具体涉及一种显示界面的切换方法和穿戴式电子设备、存储介质。
背景技术
相关技术中,电子设备如智能手机可基于用户的生物特征执行一系列的操作。如利用用户间的个人差异,通过指纹识别、人脸识别、虹膜识别等技术实现对电子设备的显示界面的切换如解锁、应用的进入等。这种利用用户的生物特征可大大方便用户,但在实际的应用场景中这样的情况较为常见:由于用户的手指较为湿润而导致的无法准确识别指纹;由于用户化妆而导致的无法正确识别人脸;由于用户佩戴眼镜或美瞳而导致的无法准确识别虹膜,均导致无法对用户的生理特征进行准确识别,进而无法执行对电子设备的界面切换操作,使得用户体验度大大降低。
发明内容
为解决现有存在的技术问题,本发明实施例提供一种显示界面的切换方法和穿戴式电子设备、存储介质,至少能够避免无法(准确)识别用户的而导致无法对穿戴式电子设备进行界面切换的问题,提高识别准确率,提升用户的使用体验。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种显示界面的切换方法,应用于穿戴式电子设备中,所述穿戴式电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述方法包括:
当所述显示单元呈现第一界面时,
采集语音输入信息;
分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;
其中,所述第一界面和第二界面至少一个界面呈现立体画面。
上述方案中,与所述身份标识对应的第二界面为至少两个;
对所述语音输入信息进行语意识别,得到语意信息;
基于所述语意信息,从所述至少两个第二界面中确定目标界面;
切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
上述方案中,所述语音输入信息包括目标语音信息和环境信息;所述方法包括:
获得所述语音输入信息的频谱信息;
依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析所述语音输入信息,得到所述语音输入信息对应的声纹特征,将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识,包括:
对所述目标语音信息进行声纹识别,得到所述声纹特征;
将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
上述方案中,所述电子设备切换第一界面至与所述身份标识对应的第二界面至少能够执行以下其中之一的操作:
解锁、支付、进入或退出私人界面。
上述方案中,所述获得所述声纹数据库,包括:
采集至少一个用户输入的语音信息;
将采集到的各个用户的语音信息进行预处理;
将预处理后的各个用户的语音信息进行特征序列的提取;
基于提取的特征序列,得到所述声纹数据库。
本发明实施例提供一种穿戴式电子设备,所述电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述电子设备还包括:
音频采集单元,用于当所述显示单元呈现第一界面时,采集语音输入信息;
分析单元,用于分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
确定单元,用于将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
切换单元,用于切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;
其中,所述第一界面和第二界面至少两个界面呈现立体画面。
上述方案中,
所述分析单元,还用于对所述语音输入信息进行语意识别,得到语意信息;
所述确定单元,还用于基于所述语意信息,从所述至少两个第二界面中确定目标界面;
所述切换单元,还用于切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
上述方案中,所述电子设备包括:
所述语音输入信息包括目标语音信息和环境信息;
提取单元,用于获得所述语音输入信息的频谱信息;
依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析单元,用于对所述目标语音信息进行声纹识别,得到所述声纹特征;
所述确定单元,用于将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
上述方案中,
所述切换单元,至少用于使所述电子设备至少执行以下其中之一的操作:
解锁、支付、进入或退出电子设备的私人界面。
上述方案中,所述电子设备还包括:获得单元,用于获得所述声纹数据库;
进一步的,所述获得单元,用于:
采集至少一个用户输入的语音信息;
将采集到的各个用户的语音信息进行预处理;
将预处理后的各个用户的语音信息进行特征序列的提取;
基于提取的特征序列,得到所述声纹数据库。
本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被执行时实现前述方法的步骤。
本发明实施例提供一种穿戴式电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行实现前述方法的步骤。
本发明实施例提供的显示界面的切换方法和穿戴式电子设备、存储介质,所述穿戴式电子设备包括第一本体和与第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述方法包括:当所述显示单元呈现第一界面时,采集语音输入信息;分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;其中,所述第一界面和第二界面至少一个界面呈现立体画面。
本发明实施例中,在穿戴式电子设备中,利用声纹特征是用户的众多生理特征中具有相对稳定性的特点,基于用户的声纹特征进行用户的身份识别并基于识别的身份进行界面的切换,可实现对穿戴式电子设备的显示界面的自动切换,至少可提高身份识别的准确性,大大提升用户的使用体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的显示界面的切换方法的第一实施例的实现流程示意图;
图2为本申请提供的显示界面的切换方法的第二实施例的实现流程示意图;
图3为本申请提供的AR眼镜的结构示意图;
图4为本申请提供的用户佩戴AR眼镜的示意图;
图5为本申请提供的显示界面的切换方法的具体实现流程示意图;
图6为本申请提供的声纹数据库的获得原理示意图一;
图7为本申请提供的声纹数据库的获得原理示意图二;
图8为本申请提供的穿戴式电子设备的组成结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请以下各实施例中,所涉及的穿戴式电子设备可以是任何合理的增强现实(AR)或虚拟现实(VR)设备,具体可以是AR或VR眼镜、手表、跑鞋等。穿戴式电子设备可佩带于用户的特定部位的设备,如佩带于用户眼睛上的AR眼镜或VR眼镜;佩戴于用户手腕处的智能手表;并通过佩戴的设备观看到立体画面。
可以理解,本申请的穿戴式电子设备至少包括第一本体和与第一本体连接的第二本体。其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴,也即第二本体是用于佩戴在用户的特定部位的本体部分。以电子设备为智能眼镜为例,如图3所示,第一本体相当于智能眼镜的镜片部分,第二本体相当于智能眼镜的镜腿部分,显示单元位于第一本体,显示单元通过为用户呈现立体显示画面,使得用户有种身临其境的体验,大大提升用户的使用体验。如没有特殊说明,后续涉及到的电子设备均指的是AR或VR设备。AR或VR设备呈现的画面为立体画面。
可以理解,在前述的电子设备中,还包括至少一个音频采集单元如麦克风MIC。音频采集单元可以设置在第一本体上如镜片的上方或下方,也可以设置在第二本体如镜腿的尾部,用于采集用户输入的音频。其中,为了采集到较为清晰的音频,优选的将音频采集单元的位置设置在距离用户的嘴巴较近的位置,如第一本体的下方。当然,音频采集单元的设置位置可以是其它任何合理的位置,对此不做具体限定。
本领域技术人员应该而知,声纹是个人的声音特征,包括频率、音色、和/或音量。声纹特征作为衡量不同用户的特征参数,依赖于用户的发音器官,由于不同用户的发音器官的些许差异而导致不同用户具有不同的声纹特征。对同一用户而言其声纹特征具有相对稳定性,不会随着时间或环境的变化而变化。声纹识别技术是生物识别技术的一种,可根据语音波形中反映说话人生理和行为特征的语音参数自动识别说话人身份。由于用户的声纹特征具有一定的稳定性,利用具有稳定性的特征进行用户身份的识别可有效识别出用户,保证识别准确性。本申请以下各实施例的方案即在穿戴式电子设备中利用用户的声纹特征进行用户的身份识别,至少可提高了身份识别的准确性。
本申请提供的显示界面的切换方法的第一实施例,应用于穿戴式电子设备中如AR或VR眼镜。所述穿戴式电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴。关于电子设备的第一本体、第二本体的相关描述请参见对图3的相关说明,不赘述。
如图1所示,所述方法包括:
步骤101:当所述显示单元呈现第一界面时,采集语音输入信息;
本步骤中,通过语音采集装置如麦克风采集用户输入的语音输入信息。
步骤102:分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
本步骤中,对用户输入的语音输入信息进行分析,得到说出这段语音输入信息的用户的声纹特征、如用户声音的频率、音量、音色中的至少一种。
步骤103:将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
本步骤中,声纹数据库的获得过程请参见后续相关说明。该声纹数据库记录有至少一个使用该穿戴式电子设备的用户与其声纹特征之间的对应关系。
步骤104:切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;其中,所述第一界面和第二界面至少一个界面呈现立体画面。
本步骤中,将分析得到的声纹特征与声纹数据库记录的声纹特征进行匹配,确定输入所述语音输入信息的用户的身份,切换第一界面至与身份标识对应的第二界面,穿戴式电子设备呈现第二界面。第一界面和第二界面至少一个界面呈现立体画面。
执行步骤101~104的实体为穿戴式电子设备,如AR或VR眼镜。
前述方案中,在可穿戴式电子设备中,利用声纹特征是用户的众多生理特征中具有相对稳定性的特点,在可穿戴式电子设备呈现第一界面时,对可穿戴式电子设备输入的语音输入信息进行采集并进行声纹特征的分析,得到输入该语音输入信息的用户的声纹特征,并基于该声纹特征与声纹数据库的匹配确定用户的身份,可穿戴式电子设备可切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面。在可穿戴式电子设备中,利用用户的声纹特征进行用户的身份识别并基于识别的身份进行界面的切换,可实现对可穿戴式电子设备的自动操作,至少可提高身份识别的准确性和对可穿戴式电子设备的自动操作,大大提升用户的使用体验。可以理解,本申请实施例为一种在可穿戴式电子设备中通过声纹特征实现显示界面切换的方案,大大提升了用户使用可穿戴式电子设备的操作体验。
可以理解,可穿戴式电子设备从第一界面自动切换至第二界面相当于通过用户的声纹的识别对电子设备执行任何合理的操作:例如,识别到输入语音输入信息的用户为机主用户,则解锁电子设备、从黑屏界面进入至主界面(或上一次黑屏前电子设备打开的页面);或者执行支付操作,从当前界面进入至支付界面;或者进入/退出私密空间(私人界面)、从当前界面进入至私密界面如私人相册的显示界面(或从私密界面退出)。可以理解,前述的主界面、当前界面、支付界面、私人界面均可通过可穿戴式电子设备的显示单元以立体画面的形式呈现。
本申请提供的显示界面的切换方法的第二实施例,应用于穿戴式电子设备中,所述穿戴式电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴。关于电子设备的第一本体、第二本体的相关描述请参见对图3的相关说明,不赘述。
如图2所示,所述方法包括:
步骤201:当所述显示单元呈现第一界面时,采集语音输入信息;
步骤202:分析语音输入信息,得到声纹特征;
步骤203:将声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
步骤204:确定与所述身份标识对应的第二界面;
本步骤中,使用可穿戴式电子设备的每个用户可访问特定的界面,不同身份的用户可访问的界面至少部分不同。例如,机主用户可访问全部界面,而非机主用户如机主的父母仅可访问部分界面,如不能进入机主的私人相册的界面。
步骤205:在确定为与所述身份标识对应的第二界面为至少两个的情况下,对语音输入信息进行语意识别,得到语意信息;
本步骤中,与所述身份标识对应的第二界面为至少两个的情况下,对语音输入信息进行语意识别,即识别说话人的说话内容。
步骤206:基于语意信息,从所述至少两个第二界面中确定目标界面;
本步骤中,基于说话人的说话内容,确定其需要进入的界面是其能够进入的两个或两个以上界面中的哪个界面。
步骤207:切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
本步骤中,电子设备切换第一界面至目标界面,该目标界面根据说话人身份和说话内容而定,也即电子设备从第一界面进入至与用户的语音指令匹配的界面。
执行步骤201~207的实体为电子设备。对步骤201~203的说明请参见前述对步骤101~103的相关描述。
前述方案中,在可穿戴式电子设备中,利用声纹特征具有相对稳定的特性进行用户的身份识别,可保证用户身份的识别准确性。同时考虑到数据访问的安全性和私密性,不同身份的用户可访问的界面至少部分不同。基于对身份的识别确定当前身份用户能够访问的至少两个界面,基于对语意信息的识别确定当前身份用户的意图,期望进入该身份的用户能够访问的至少两个界面中的哪个界面,可穿戴式电子设备响应用户的期望操作,从第一界面进入至期望进入的界面,至少期望进入的界面通过立体画面而呈现。为一种基于说话人的身份和说话内容确定目标界面的方案,可大大提升用户的使用体验。
在前述的实施例一和二中,所述语音输入信息包括目标语音信息和环境信息;在分析语音输入信息之前,所述方法还包括:
获得所述语音输入信息的频谱信息;依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析所述语音输入信息,得到所述语音输入信息对应的声纹特征,将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识,包括:
对所述目标语音信息进行声纹识别,得到所述声纹特征;将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
前述方案中,语音输入信息中可能掺杂有冗余数据如环境噪声,依据环境噪声数据和语音信息二者在频谱上的不同,环境噪声数据在频谱上表现为无规律性,语音信息在频谱上表现为有规律性,从语音输入信息中去除冗余数据,得到有效的语音(说话人的语音),对有效语音进行声纹分析和语意识别,得到声纹特征和语意信息。也即,在去除语音输入信息中的冗余数据的基础上得到语意信息和声纹特征,能进一步保证声纹特征和语意信息识别的准确性。
下面结合以下具体实例对本申请实施例的方案进行详细说明。
实例1和2中以图4所示的用户佩戴AR眼镜为例。
实例1:AR眼镜处于未解锁状态,也即呈现黑屏界面,用户1说出“请解锁”,AR眼镜通过设置在镜片下方(靠近嘴巴的位置)麦克风采集用户1输入的这段语音信息,依据语音信息和噪声数据在频谱方面存在的不同,从采集的语音信息中,删除噪声数据,提取出有效语音信息,从该提取的有效语音信息中识别出说话人在音频、音色和/或音量等特性,作为声纹特征。AR眼镜读取声纹数据库,并从中查找与识别出的声纹特征对应的用户身份信息,进而识别出当前输入语音信息的用户为哪个用户。AR眼镜获得该身份用户的权限确定该身份用户能够访问的页面。在确定出该身份用户能够访问的页面的数量至少为两个的情况下,从用户输入的语音信息中识别出说话人的意图。以识别出当前输入语音信息的用户为机主用户且其意图为要进行解锁,则电子设备获知机主用户想要进行解锁操作,进行自动解锁,从黑屏界面切换至主界面或黑屏之前电子设备呈现的界面。
在前述的实例1中,如果经过声纹特征识别确定用户1为机主用户,则AR眼镜确定该用户可访问全部界面。从这段语音中识别出语意信息,得出用户1想要进入相册(包括私人相册和非私人相册),AR眼镜将主界面切换至私人和/或非私人相册界面,或进入至相册界面后查看相关相片。如果经过声纹特征识别确定用户1为非机主用户,则AR眼镜确定该用户可访问部分界面,如无法访问私人相册。AR眼镜将主界面切换至非私人相册界面,或进入至非私人相册界面后查看相关相片。如此,针对不同身份的同一语音命令,可穿戴式电子设备实现了依据身份进行相应显示界面的切换,如此,可向每个用户提供准确的界面。
实例2:AR眼镜呈现主界面,用户1说出“请支付”,AR眼镜通过设置在镜片下方(靠近嘴巴的位置)麦克风采集用户1输入的这段语音信息,并从中提取出有效语音,从该有效语音信息中识别出说话人在音频、音色和/或音量等特性,作为声纹特征。AR眼镜读取声纹数据库,并从中查找与识别出的声纹特征对应的用户身份信息,进而识别出当前输入语音信息的用户为哪个用户。
如果AR眼镜确定该用户为机主用户、可访问全部界面。从这段语音中识别出语意信息,得出用户1想要进入支付界面,AR眼镜将主界面切换至支付界面,或进入至支付界面输入支付密码以完成支付流程。
如果经过声纹特征识别确定用户1为非机主用户,则AR眼镜确定该用户可访问部分界面,如无法进行支付。AR眼镜发出提示,提示非机主用户不具有支付权限。或者,将主界面切换至其它该用户能够访问的任意界面。
前述方案中,基于对身份的识别确定当前身份用户能够访问的界面,并基于语意的识别确定该身份的用户期望进入的界面,为自动响应用户的语音操作、进入用户期望界面的方案,可大大提升用户的使用体验。
实例3:AR眼镜处于未解锁状态,也即呈现黑屏界面,用户1说出“我要打电话”,AR眼镜通过设置在镜片下方(靠近嘴巴的位置)麦克风采集用户1输入的这段语音信息,从该语音信息中提取出有效语音信息,并从提出的有效语音信息中识别出说话人在音频、音色和/或音量等特性,作为声纹特征。AR眼镜读取声纹数据库,并从中查找与识别出的声纹特征对应的用户身份信息,进而识别出当前输入语音信息的用户为哪个用户。AR眼镜获得该身份用户的权限确定该身份用户能够访问的页面。在确定出该身份用户能够访问的页面的数量至少为两个的情况下,从用户输入的语音信息中识别出说话人的意图。以识别出当前输入语音信息的用户为机主用户且其意图为要拨打电话,则电子设备先进行自动解锁,从黑屏界面切换至以立体画面呈现的主界面、或黑屏之前电子设备呈现的界面,再从切换后的界面中进入以立体画面呈现的通信录界面;或者,直接从黑屏界面进入至通讯录界面。
在实例1~3中,在AR眼镜中,利用声纹特征是用户的众多生理特征中具有相对稳定性的特点,基于声纹特征进行用户的身份识别可大大保证用户身份的识别准确性。在准确识别为用户身份的基础上,实现对用户说话意图的识别,无需用户手动操作AR眼镜,仅需说话即可进入用户期望进入的立体界面中,可大大提升用户的使用体验。在实例1和2中,声纹数据库的形成过程请参见后续相关说明,其记录有可以操作电子设备的用户的身份与用户的声纹特征之间的对应关系。
下面结合图5至图7对本申请实施例中对预先经模型训练得到声纹数据库的过程做说明。
其中,基于训练样本(至少一个用户的语音输入信息)训练模型,对用户语音进行训练。具体的,可以通过高斯混合模型-通用背景模型(GMM-UBM,Gaussian Mixture Model-Universal Background Model)、全差异建模(TV,Total Variability)系统或深度神经网络系统等方法进行训练,其训练过程可视为利用大量用户的语音输入来得到用户声纹特征的过程。
如图5所示,
步骤501:预先采集至少一个可以使用AR眼镜的用户输入的语音信息,如采集用户A、B和用户C输入的语音信息。
步骤502:将采集的各个用户的语音信息进行预处理;
所述预处理至少包括采样、量化、有效语音的提取、音频放大、信号转换中的至少一种。其中,采集输入语音信息中的部分语音(采样数据)作为输入样本。量化为统一采样数据的指标数据以便对不同用户的声纹特征进行提取。音频放大用于经采样到的语音信息进行幅度的放大以便后续处理。其中,语音信息为模拟数据,为适应后续的处理,还需将语音信息进行模拟-数字的转换,得到数字域的语音信息。
步骤503:将预处理后的各个用户的语音数据进行特征序列的提取;
如图6所示,具体的,采用如下方式进行特征提取:由于一定时间内的语音信号具有平稳性,本实施例中选取一时间窗口,以这个时间窗为单位在语音数据上进行滑动,从每个时间窗内的语音信号内均可以提取出能够表征这个时间窗内信号的特征,将基于各个时间窗内的语音信号提取的特征视为各个时间窗内的语音信号的特征序列、具体是语音信号的声纹特征序列。按照如上方法就能够将用户输入的一段语音处理为以帧为单位的特征序列(帧序列特征)。其中,每一个时间窗所确定的单位称之为帧,其时间长度称之为帧长。如上过程被称之为声学特征的提取。
步骤504:基于提取的特征序列,得到所述声纹数据库;
如图7所示,将从语音信息中提取出的帧序列特征作为神经网络模型、具体是深度神经网络模型的输入,以实现对深度神经网络模型的训练。其中,深度神经网络模型会按照前/后验概率将帧序列特征分配到相应的发声单元中。可以理解,每个发声单元对应一个用户。对分配到各个发声单元的帧序列特征进行统计,得到各个发声单元的统计量(各个语音输入用户的声纹特征的统计量)。将各个发声单元的统计量按照一定的格式进行排列得到能够表征各个用户的声纹特征的特征矢量。将各个用户的声纹特征与该用户的身份标识进行对应记录,得到声纹数据库。其中,各个发声单元对应于输入语音信息的各个用户。前述基于深度神经网络模型得到表征声纹特征的特征矢量的过程具体请参见现有相关说明,本文不做具体赘述。
本领域技术人员应该理解,由于深度神经网络模型具有较强的鲁棒性,经其训练出的特征矢量的准确性较高,也即本申请实施例经训练数据训练出的声纹特征较为准确。为本申请实施例的可穿戴式电子设备对用户身份的识别提供了良好的基础。此外,前述方案中的声学特征的提取还可以采用LPCC(线性预测倒谱系数)方法进行,具体过程请参见相关说明,不做赘述。
在得到声纹数据库的情况下,在应用层面上,主要通过步骤50A:采集用户在AR眼镜的第一界面下输入的语音数据;步骤50B:将语音数据进行声纹特征的提取;步骤50C:判断步骤50B提取出的声纹特征是否与通过前述方案建立的声纹数据库中记录的用户的声纹特征匹配,判断为匹配时,AR眼镜解锁。具体的,
针对在AR眼镜处于未解锁状态(呈现黑屏界面)用户输入的“请解锁”语音,AR眼镜利用麦克风对用户输入的语音进行采集。考虑到采集到的信息中可能存在有噪声数据,利用噪声数据的特性如频谱无规律的特性,删除输入语音中的噪声数据,得到有效的语音数据。再按照如上的声学特征提取方法或LPCC方法,基于当前用户的输入语音提取出该用户的声纹特征,从声纹数据库中查找与提取出的声纹特征对应的用户身份信息,进而识别出当前输入语音信息的用户为哪个用户。如果为合法用户如机主用户,AR眼镜从黑屏界面进入至主界面或黑屏之前呈现的界面,相当于对AR眼镜执行了解锁操作。
前述方案中,在AR眼镜中,基于声纹特征的相对稳定性进行用户身份的识别进行实现对AR眼镜的自动解锁。与相关技术中的基于人脸、指纹和虹膜进行解锁的方案相比,用户的声纹特征具有唯一性,不会随着环境和时间的变化而变化,即使用户出现声音沙哑的情况其声纹特征也不会发生变化,不会出现无法解锁的问题。此外,基于声纹特征对AR眼镜进行操作,可保证AR眼镜中数据访问的安全性,使得不期望非机主用户观看的信息无法呈现给非机主用户。
本申请实施例中,在AR眼镜中,通过声纹特征的唯一性,识别用户身份,使得AR眼镜基于该用户身份执行相应的操作,如基于用户身份对AR眼镜进行自动解锁。本方案至少具有以下优势:
(1)声纹特征不受环境和时间的影响,具有相对稳定性,使得用户的身份识别的准确性更高;
(2)利用设备已有的语音采集装置对用户输入语音进行采集,不需要额外增加采集装置,可降低硬件成本;
(3)相比现有的解锁技术,比如指纹解锁、虹膜解锁,仅需要用户输入音频,不需要其它手动操作,较为简单、便捷。
本申请提供一种可穿戴式电子设备的实施例,如图8所示,所述电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;具体请参见前述对图3的说明。
所述电子设备包括:音频采集单元701、分析单元702、确定单元703和切换单元704;其中,
音频采集单元701,用于当所述显示单元呈现第一界面时,采集语音输入信息;
分析单元702,用于分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
确定单元703,用于将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
切换单元704,用于切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;
其中,所述第一界面和第二界面至少两个界面呈现立体画面。
在一个可选的实施例中,所述电子设备包括:
所述分析单元702,还用于对所述语音输入信息进行语意识别,得到语意信息;
所述确定单元703,还用于基于所述语意信息,从所述至少两个第二界面中确定目标界面;
所述切换单元704,还用于切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
在一个可选的实施例中,所述音频采集单元、具体可以为MIC设置于所述第一本体和/或第二本体上。
在一个可选的实施例中,所述电子设备包括:
所述语音输入信息包括目标语音信息和环境信息;
提取单元,用于获得所述语音输入信息的频谱信息;
依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析单元702,用于对所述目标语音信息进行声纹识别,得到所述声纹特征;
所述确定单元703,用于将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
在一个可选的实施例中,所述电子设备还包括:获得单元,用于获得所述声纹数据库;
进一步的,所述获得单元,用于:
采集至少一个用户输入的语音信息;
将采集到的各个用户的语音信息进行预处理;
将预处理后的各个用户的语音信息进行特征序列的提取;
基于提取的特征序列,得到所述声纹数据库。
在一个可选的实施例中,所述切换单元,至少用于使所述电子设备至少执行以下其中之一的操作:
解锁、支付、进入或退出电子设备的私人界面。
本发明实施例中,所述电子设备中分析单元702、确定单元703和切换单元704在实际应用中均可由所述电子设备中的中央处理器(CPU,Central Processing Unit)、数字信号处理器(DSP,Digital Signal Processor)、微控制单元(MCU,Microcontroller Unit)或可编程门阵列(FPGA,Field-Programmable Gate Array)实现。
需要说明的是,本申请实施例的可穿戴式电子设备,由于该电子设备解决问题的原理与前述的方法相似,因此,电子设备的实施过程及实施原理均可以参见前述方法的实施过程及实施原理描述,重复之处不再赘述。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被执行时至少用于实现前述的显示界面的切换方法的步骤。
本申请实施例还提供一种可穿戴式电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行时至少用于实现前述的显示界面的切换方法的步骤。
需要说明的是,本申请实施例的存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的组合来实现。其中,非易失性存储器可以是只读存储器(ROM,Read OnlyMemory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,Ferromagnetic Random Access Memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储介质旨在包括但不限于这些和任意其它适合类型的存储器。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (12)

1.一种显示界面的切换方法,其特征在于,应用于穿戴式电子设备中,所述穿戴式电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述方法包括:
当所述显示单元呈现第一界面时,
采集语音输入信息;
分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;
其中,所述第一界面和第二界面至少一个界面呈现立体画面。
2.根据权利要求1所述的方法,其特征在于,与所述身份标识对应的第二界面为至少两个;
对所述语音输入信息进行语意识别,得到语意信息;
基于所述语意信息,从所述至少两个第二界面中确定目标界面;
切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
3.根据权利要求1或2所述的方法,其特征在于,所述语音输入信息包括目标语音信息和环境信息;所述方法包括:
获得所述语音输入信息的频谱信息;
依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析所述语音输入信息,得到所述语音输入信息对应的声纹特征,将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识,包括:
对所述目标语音信息进行声纹识别,得到所述声纹特征;
将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
4.根据权利要求3所述的方法,其特征在于,所述电子设备切换第一界面至与所述身份标识对应的第二界面至少能够执行以下其中之一的操作:
解锁、支付、进入或退出私人界面。
5.根据权利要求1所述的方法,其特征在于,所述获得所述声纹数据库,包括:
采集至少一个用户输入的语音信息;
将采集到的各个用户的语音信息进行预处理;
将预处理后的各个用户的语音信息进行特征序列的提取;
基于提取的特征序列,得到所述声纹数据库。
6.一种穿戴式电子设备,其特征在于,所述电子设备包括第一本体和与所述第一本体进行连接的第二本体;其中,所述第一本体包括显示单元;所述电子设备通过所述第二本体的至少部分与用户进行佩戴;所述电子设备还包括:
音频采集单元,用于当所述显示单元呈现第一界面时,采集语音输入信息;
分析单元,用于分析所述语音输入信息,得到所述语音输入信息对应的声纹特征;
确定单元,用于将所述声纹特征与获得的声纹数据库进行匹配,确定所述语音输入信息的身份标识;
切换单元,用于切换第一界面至与所述身份标识对应的第二界面以使所述显示单元呈现第二界面;
其中,所述第一界面和第二界面至少两个界面呈现立体画面。
7.根据权利要求6所述的电子设备,其特征在于,
所述分析单元,还用于对所述语音输入信息进行语意识别,得到语意信息;
所述确定单元,还用于基于所述语意信息,从所述至少两个第二界面中确定目标界面;
所述切换单元,还用于切换显示单元的第一界面至目标界面以使所述显示单元呈现所述目标界面。
8.根据权利要求6或7所述的电子设备,其特征在于,所述电子设备包括:
所述语音输入信息包括目标语音信息和环境信息;
提取单元,用于获得所述语音输入信息的频谱信息;
依据所述频谱信息,从所述语音输入信息中提取出目标语音信息;
相应的,所述分析单元,用于对所述目标语音信息进行声纹识别,得到所述声纹特征;
所述确定单元,用于将所述声纹特征与所述声纹数据库进行匹配,确定所述目标语音信息的身份标识。
9.根据权利要求8所述的电子设备,其特征在于,
所述切换单元,至少用于使所述电子设备至少执行以下其中之一的操作:
解锁、支付、进入或退出电子设备的私人界面。
10.根据权利要求6所述的电子设备,其特征在于,所述电子设备还包括:获得单元,用于获得所述声纹数据库;
进一步的,所述获得单元,用于:
采集至少一个用户输入的语音信息;
将采集到的各个用户的语音信息进行预处理;
将预处理后的各个用户的语音信息进行特征序列的提取;
基于提取的特征序列,得到所述声纹数据库。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被执行时实现权利要求1至5任一项所述方法的步骤。
12.一种穿戴式电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行实现权利要求1至5任一项所述方法的步骤。
CN201910578611.7A 2019-06-28 2019-06-28 显示界面的切换方法和穿戴式电子设备、存储介质 Active CN110334497B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910578611.7A CN110334497B (zh) 2019-06-28 2019-06-28 显示界面的切换方法和穿戴式电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910578611.7A CN110334497B (zh) 2019-06-28 2019-06-28 显示界面的切换方法和穿戴式电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN110334497A true CN110334497A (zh) 2019-10-15
CN110334497B CN110334497B (zh) 2021-10-26

Family

ID=68143723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910578611.7A Active CN110334497B (zh) 2019-06-28 2019-06-28 显示界面的切换方法和穿戴式电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN110334497B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093395A (zh) * 2021-04-29 2021-07-09 歌尔股份有限公司 头戴设备及其控制方法以及存储介质
CN114223139A (zh) * 2019-10-29 2022-03-22 深圳市欢太科技有限公司 界面切换方法、装置、可穿戴电子设备及存储介质
CN114630171A (zh) * 2020-12-11 2022-06-14 海信视像科技股份有限公司 显示设备以及配置切换方法
CN116185469A (zh) * 2023-05-05 2023-05-30 深圳市微克科技有限公司 一种智能手表的表盘组件动态更新方法、系统及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323912B2 (en) * 2012-02-28 2016-04-26 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication
CN105740686A (zh) * 2016-01-28 2016-07-06 百度在线网络技术(北京)有限公司 应用的控制方法和装置
CN107919131A (zh) * 2017-12-11 2018-04-17 广东小天才科技有限公司 一种通过麦克风设备控制用户终端的方法及系统
CN108174012A (zh) * 2017-12-25 2018-06-15 维沃移动通信有限公司 一种权限控制方法及移动终端
CN108920063A (zh) * 2018-06-08 2018-11-30 出门问问信息科技有限公司 界面控制方法、装置和智能穿戴设备
CN109119080A (zh) * 2018-08-30 2019-01-01 Oppo广东移动通信有限公司 声音识别方法、装置、穿戴式设备及存储介质
CN109522693A (zh) * 2018-11-19 2019-03-26 中国银行股份有限公司 信息处理方法、装置、电子设备及可读存储介质
CN109657443A (zh) * 2018-12-13 2019-04-19 北京小米移动软件有限公司 确定使用权限的方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323912B2 (en) * 2012-02-28 2016-04-26 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication
CN105740686A (zh) * 2016-01-28 2016-07-06 百度在线网络技术(北京)有限公司 应用的控制方法和装置
CN107919131A (zh) * 2017-12-11 2018-04-17 广东小天才科技有限公司 一种通过麦克风设备控制用户终端的方法及系统
CN108174012A (zh) * 2017-12-25 2018-06-15 维沃移动通信有限公司 一种权限控制方法及移动终端
CN108920063A (zh) * 2018-06-08 2018-11-30 出门问问信息科技有限公司 界面控制方法、装置和智能穿戴设备
CN109119080A (zh) * 2018-08-30 2019-01-01 Oppo广东移动通信有限公司 声音识别方法、装置、穿戴式设备及存储介质
CN109522693A (zh) * 2018-11-19 2019-03-26 中国银行股份有限公司 信息处理方法、装置、电子设备及可读存储介质
CN109657443A (zh) * 2018-12-13 2019-04-19 北京小米移动软件有限公司 确定使用权限的方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114223139A (zh) * 2019-10-29 2022-03-22 深圳市欢太科技有限公司 界面切换方法、装置、可穿戴电子设备及存储介质
CN114223139B (zh) * 2019-10-29 2023-11-24 深圳市欢太科技有限公司 界面切换方法、装置、可穿戴电子设备及存储介质
CN114630171A (zh) * 2020-12-11 2022-06-14 海信视像科技股份有限公司 显示设备以及配置切换方法
CN113093395A (zh) * 2021-04-29 2021-07-09 歌尔股份有限公司 头戴设备及其控制方法以及存储介质
CN113093395B (zh) * 2021-04-29 2023-02-28 歌尔股份有限公司 头戴设备及其控制方法以及存储介质
CN116185469A (zh) * 2023-05-05 2023-05-30 深圳市微克科技有限公司 一种智能手表的表盘组件动态更新方法、系统及介质
CN116185469B (zh) * 2023-05-05 2023-07-14 深圳市微克科技有限公司 一种智能手表的表盘组件动态更新方法、系统及介质

Also Published As

Publication number Publication date
CN110334497B (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN110334497A (zh) 显示界面的切换方法和穿戴式电子设备、存储介质
Ergünay et al. On the vulnerability of speaker verification to realistic voice spoofing
CN103700371B (zh) 一种基于声纹识别的来电身份识别系统及其识别方法
CN108305632A (zh) 一种会议的语音摘要形成方法及系统
Singh et al. Applications of speaker recognition
CA2085842C (en) Neural network-based speech token recognition system and method
Revett Behavioral biometrics: a remote access approach
CN109215665A (zh) 一种基于3d卷积神经网络的声纹识别方法
CN106710593B (zh) 一种添加账号的方法、终端、服务器
Sahoo et al. Emotion recognition from audio-visual data using rule based decision level fusion
CN109346086A (zh) 声纹识别方法、装置、计算机设备和计算机可读存储介质
CN102737634A (zh) 一种基于语音的认证方法及装置
CN104965589A (zh) 一种基于人脑智慧和人机交互的人体活体检测方法与装置
CN109887510A (zh) 一种基于经验模态分解与mfcc的声纹识别方法及装置
CN110136726A (zh) 一种语音性别的估计方法、装置、系统及存储介质
CN105679323B (zh) 一种号码发现方法及系统
CN111554302A (zh) 基于声纹识别的策略调整方法、装置、终端及存储介质
Sarria-Paja et al. Feature mapping, score-, and feature-level fusion for improved normal and whispered speech speaker verification
CN109065026B (zh) 一种录音控制方法及装置
CN110364163A (zh) 一种语音和唇语相融合的身份认证方法
CN113920560A (zh) 多模态说话人身份识别方法、装置和设备
CN108665901A (zh) 一种音素/音节提取方法及装置
CN110298150B (zh) 一种基于语音识别的身份验证方法及系统
KR20120125802A (ko) 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법
Montalvao Filho et al. Multimodal biometric fusion—joint typist (keystroke) and speaker verification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant