CN107481720A - 一种显式声纹识别方法及装置 - Google Patents

一种显式声纹识别方法及装置 Download PDF

Info

Publication number
CN107481720A
CN107481720A CN201710524328.7A CN201710524328A CN107481720A CN 107481720 A CN107481720 A CN 107481720A CN 201710524328 A CN201710524328 A CN 201710524328A CN 107481720 A CN107481720 A CN 107481720A
Authority
CN
China
Prior art keywords
voice
user
order
sound
sex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710524328.7A
Other languages
English (en)
Other versions
CN107481720B (zh
Inventor
王文宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Shanghai Xiaodu Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710524328.7A priority Critical patent/CN107481720B/zh
Publication of CN107481720A publication Critical patent/CN107481720A/zh
Application granted granted Critical
Publication of CN107481720B publication Critical patent/CN107481720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces

Abstract

本申请提供一种显式声纹识别方法及装置,包括:根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;对命令语音进行语音识别,得到命令语音所描述的命令;根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。能够避免现有技术中声纹识别方法技术依赖性极强、使用策略单一、产品化程度低的问题。使得声纹ID识别准确率大大提高,误入率大大降低;在将声纹的建立和注册机制分离,对用户打扰最小化,同时资源利用效率最大化。使得声纹技术产品化,在多场景下为用户提供个性化服务。

Description

一种显式声纹识别方法及装置
【技术领域】
本申请涉及人工智能应用领域,尤其涉及一种显式声纹识别方法及装置。
【背景技术】
人工智能(Artificial Intelligence;AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。其中,人工智能很重要的一个方面就是声纹识别技术。
近年来,人工智能技术有了深远的发展,并逐步实现产品化。特别是智能语音对话产品,随着国外的亚马逊Echo智能音响及Google Home智能音响的兴起,掀起了以对话为主要交互方式的智能家居产品特别是智能音响产品的流行热潮。
包括智能音箱在内的智能语音对话产品的典型使用场景是在家庭之中,在家庭中用户用语音与机器进行交互十分自然,而家庭中往往是多用户,每个用户必然会有不同的需求,但目前产品的服务都很粗糙,对所有的用户提供的是一套相同的服务,产品对用户请求的应答使用的都是同一套通用标准,造成了用户个性化需求无法得到满足。
语音对话的优势就是能收录用户的声音,每个人都有自己的声音,就像指纹一样,所以我们又称每个人的声音为声纹,通过说话人的声纹,判断出说话人是哪位用户,并获取该用户的数据,以提供个性化的服务。目前业界的声纹技术都不成熟,难以达到产品化的要求。
现有方法的主要问题在于:
声音识别率低、不能提供个性化服务。
【发明内容】
本申请的多个方面提供一种显示声纹识别方法及装置,用以为用户提供个性化服务。
本申请的一方面,提供一种显式声纹识别方法,包括:
根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;
对命令语音进行语音识别,得到命令语音所描述的命令;
根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID包括:
根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
根据用户性别及语音,获取用户声纹模型,识别发出命令语音的用户ID。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
若未识别出发出命令语音的用户ID,则建立用户ID并注册。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
采用有限制的声纹策略建立用户ID并注册,限制注册的用户ID数量;或,
采用无限制的声纹策略建立用户ID并注册,不限制注册的用户ID数量。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述建立用户ID并注册包括:
随机生成注册字符串提供给用户;
接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数;
根据性别分类器和N段语音确定用户的性别标签;
根据性别标签和N段语音生成用户的声纹注册模型;生成用户ID,提示用户输入用户ID相关数据;
将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述建立用户ID并注册,包括:
将未识别到用户ID的声纹模型打上ID号;
判断所述打上ID号的声纹模型的出现频率;
如果低于阈值,则删除该ID号;
如果高于阈值,则生成用户ID;将用户ID和声纹模型对应存储到声纹注册数据库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务包括:
根据所述命令确定当前应用场景;
根据当前场景和所述用户ID相关数据,利用预先建立的用户行为模型,提供个性化服务。
本发明的另一方面,提供一种显式声纹识别装置,其特征在于,包括声纹识别模块、语音识别模块、服务提供模块;其中,
所述声纹识别模块,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;
所述语音识别模块,用于对命令语音进行语音识别,得到命令语音所描述的命令。
所述服务提供模块,用于根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述声纹识别模块进一步包括用户性别识别子模块和用户ID识别子模块,其中,
所述用户性别识别子模块,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
所述用户ID识别子模块,用于根据用户性别及语音,获取用户声纹模型,识别发出命令语音的用户ID。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述装置还包括注册模块,用于当未识别出发出命令语音的用户ID时,建立用户ID并注册。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述注册模块具体执行:
采用有限制的声纹策略建立用户ID并注册,限制注册的用户ID数量;或,
采用无限制的声纹策略就建立用户ID并注册,不限制注册的用户ID数量。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述注册模块采用有限制的声纹策略,进一步包括:
提供子模块,用于随机生成注册字符串提供给用户;
接收子模块,用于接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数;
确定子模块,用于根据性别分类器和N段语音确定用户的性别标签;
生成子模块,用于根据性别标签和N段语音生成用户的声纹注册模型;
输入子模块,用于生成用户ID,提示用户输入用户ID相关数据;
存储子模块,用于将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述注册模块采用无限制的声纹策略,进一步包括:
记录子模块,用于将未识别到用户ID的声纹模型打上ID号;
判断子模块,用于判断所述打上ID号的声纹模型的出现频率;
如果低于阈值,则删除该ID号;
如果高于阈值,则生成用户ID;将用户ID和声纹模型对应存储到声纹注册数据库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述服务提供模块进一步包括:
场景确定子模块,用于根据所述命令确定当前应用场景;
服务提供子模块,用于根据当前场景和所述用户ID相关数据,利用预先建立的用户行为模型,提供个性化服务。
本申请的另一方面,提供一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现任一上述的方法。
本申请的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现任一上述的方法。
由所述技术方案可知,本申请实施例能够避免现有技术中声纹识别方法技术依赖性极强、使用策略单一、产品化程度低的问题。使得声纹ID识别准确率大大提高,误入率大大降低;在将声纹的建立和注册机制分离,对用户打扰最小化,同时资源利用效率最大化。使得声纹技术产品化,在多场景下为用户提供个性化服务。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的显式声纹识别方法的流程示意图的流程示意图;
图2为本申请一实施例提供的显式声纹识别方法中根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID的流程示意图;
图3为本申请一实施例提供的显式声纹识别方法中采用文本相关的训练方法,建立声纹的流程示意图
图4为本申请一实施例提供的显式声纹识别方法中采用文本无关的训练方法,建立声纹的流程示意图;
图5为本申请另一实施例提供的显式声纹识别装置的结构示意图;
图6为本申请另一实施例提供的显式声纹识别装置的声纹识别模块的结构示意图;
图7为本申请另一实施例提供的显式声纹识别装置的注册模块的结构示意图;
图8为本申请另一实施例提供的显式声纹识别装置的注册模块的结构示意图;
图9为适于用来实现本发明实施例的示例性计算机系统/服务器的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请一实施例提供的显式声纹识别方法的流程示意图,如图1所示,包括以下步骤:
在101中,根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;具体的,如图2所示,包括以下子步骤:
在201中,根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
由于不同性别的用户群,具有特殊的声纹特征,因此,可以根据不同性别的用户群的声音特点,进行模型训练,建立不同用户性别的声纹处理模型,以实现面向不同性别的用户群的声纹分析。当用户发起语音请求时,根据用户发出的命令语音,采用声纹识别方式,识别出发出命令语音的用户性别信息。
在声纹识别之前,需要先对说话人的声纹进行建模,即“训练”或“学习”。具体的,通过应用深度神经网络DNN声纹基线系统,获取训练集中每条语音的第一特征向量;根据所述每条语音的第一特征向量以及预先标注的性别标签训练性别分类器。从而建立了区分性别的声纹处理模型。
根据所获取到的命令语音,获取所述命令语音的第一特征信息,并将第一特征信息发送给预先生成的性别分类器。性别分类器对第一特征信息进行分析,获取所述第一特征信息的性别标签,也就是命令语音的性别标签。
举例而言,以性别分类器为高斯混合模型为例,可先对所述语音请求获取基频特征以及梅尔频率倒谱系数MFCC特征,之后,可基于高斯混合模型对基频特征以及MFCC特征进行后验概率值计算,根据计算结果确定该用户的性别,例如,假设该高斯混合模型为男性高斯混合模型,则当计算结果为后验概率值很高,如大于一定阈值时,可确定该用户的性别为男性,当计算结果为后验概率值很小,如小于一定阈值时,可确定该用户的性别为女性。
在202中,获取用户声纹模型,识别发出命令语音的用户ID。
每个用户的声音会有一个唯一的声纹ID,该ID记录有该用户姓名、性别、年龄、爱好等个人数据。
具体地,根据性别分类器返回的与命令语音对应的性别标签,将用户输入的语音发送到对应性别的DNN模型中。也就是说,如果命令语音对应的是男性语音,将语音发送到男性DNN模型中。如果语音请求对应的是女性语音,将语音发送到女性DNN模型中。
根据与性别标签对应的DNN模型获取语音请求对应的多个后验概率。
根据与性别标签对应的统一背景模型对每个后验概率进行归一化处理,应用预先训练的特征向量获取模型根据每条语音,以及对应的归一化的后验概率,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型,获取的方式很多,可以根据不同的应用需要进行选择,例如:
获取多个第二特征向量的平均特征向量作为所述用户的声纹模型。
通过将获取到的所述用户的声纹模型,与预存的声纹注册模型进行匹配,如果匹配值大于预先设定的阈值,则确定所述用户的用户ID,执行步骤102对命令语音进行语音识别,得到命令语音所描述的命令;如果所述匹配值小于预先设定的阈值,未识别出所述用户的用户ID,则确定所述用户未进行注册,为首次使用智能设备,建立用户ID并注册。
其中,所述预存的声纹注册模型关联在同一账号,例如百度账号,之下,该账号下所有的声纹形成一个封闭集合。各个智能语音交互设备与账号是唯一绑定的,通过账号将智能语音交互设备与声纹联系起来,声纹可以通过账号下的任意设备注册,一旦注册,可以在账号下任意智能语音设备中使用。当某一账号下的设备采集声纹后,就在该同一账号下的家庭声纹集合中进行匹配,识别声纹ID,达到了三者的统一,实现了从端到端的声纹封闭集合识别解决方案。
所述建立用户ID并注册包括两种实现方式,
在本实施例的一种实现方式中,采用有限制的声纹策略,限制用户在某一账号下建立的封闭集合中,只能有两个声纹,且声纹性别特征为一男一女,以提高声纹ID识别准确率。
在本实施例的另一种实现方式中,采用无限制的声纹策略,不限制在某一账号下建立的封闭集合中的声纹ID数量。
在本实施例的一种实现方式中,采用文本相关的训练方法,强制用户建立声纹ID。
具体的,如图3所示,包括以下子步骤:
在301中,随机生成一个注册字符串,并将该注册字符串提供给用户。
可以理解,该注册字符串的形式可以有很多种:
作为一种示例,该注册字符串可为随机生成的数字串。此外,为了能够覆盖更大的样本空间,注册字符串中的数字只出现一次。
作为另一种示例,该注册字符串可为随机生成的汉字字符串。
在302中,接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数。
具体地,在将该注册字符串提供给用户之后,用户可按照提供的注册字符串进行朗读以进行注册。在用户阅读该注册字符串的过程中,或者在用户完成阅读该注册字符串时,可接收用户按照提供的注册字符串进行朗读而生成的语音信息,并对该语音信息进行分段,以得到N段语音。
在303中,根据性别分类器和N段语音确定用户的性别标签。
在本发明的实施例中,可根据性别分类器对该N段语音中的第一段语音进行性别分类,得到该用户的性别标签。其中,该性别标签包括男性或女性。具体而言,获取所获取到的N段语音中的第一段语音的第一特征信息,并将第一特征信息发送给预先生成的性别分类器。性别分类器对第一特征信息进行分析,获取所述第一特征信息的性别标签,也就是用户的性别标签。
举例而言,以性别分类模型为高斯混合模型为例,可先对该N段语音中的第一段语音获取基频特征以及梅尔频率倒谱系数MFCC特征,之后,可基于高斯混合模型对基频特征以及MFCC特征进行后验概率值计算,根据计算结果确定该用户的性别,例如,假设该高斯混合模型为男性高斯混合模型,则当计算结果为后验概率值很高,如大于一定阈值时,可确定该用户的性别为男性,当计算结果为后验概率值很小,如小于一定阈值时,可确定该用户的性别为女性。
在304中,根据性别标签和N段语音生成用户的声纹注册模型。
根据与所述性别标签对应的DNN模型获取每条语音的后验概率。
根据与所述性别标签对应的统一背景模型和特征向量获取模型,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型。
具体地,根据性别分类器返回的与第一条语音对应的性别标签,将用户输入的多条语音发送到对应性别的DNN模型中。也就是说,如果第一条语音对应的是男性语音,将多条语音发送到男性DNN模型中。如果第一条语音对应的是女性语音,将多条语音发送到女性DNN模型中。
根据与性别标签对应的DNN模型获取每条语音对应的多个后验概率。
根据与性别标签对应的统一背景模型对每个后验概率进行归一化处理,应用预先训练的特征向量获取模型根据每条语音,以及对应的归一化的后验概率,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型,获取的方式很多,可以根据不同的应用需要进行选择,例如:
获取多个第二特征向量的平均特征向量作为所述用户的声纹注册模型。
在305中,生成用户ID,提示用户输入姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据。
在306中,将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库的某一账号之下,以便后续根据该声纹注册模型进行声纹识别,并对账号下任意智能语音设备进行语音控制。
在本实施例的另一种实现方式中,采用文本无关的训练方法,建立声纹;具体地,如图4所示,
在401中,将获取到的所述用户的声纹模型打上ID号记录下来,不主动打扰用户获取用户ID相关信息。
在402中,判断所述打上ID号的声纹模型的出现频率;如果出现频率高于阈值,则执行步骤403;如果出现频率低于阈值,则执行步骤404;
在403中,如果所述声纹ID出现频次较高或连续多天出现,则进行声纹注册;采用语音交互方式,生成用户ID,提示用户输入姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据。将用户ID、该用户的性别标签和声纹模型的对应关系存储到声纹注册数据库的某一账号之下,以便后续根据该声纹模型进行声纹识别,并对账号下任意智能语音设备进行语音控制。
在404中,如果建立的声纹多天没有出现,则删除该ID号。
通过该机制使得声纹建立和注册分离,从而使对用户打扰程度最小化。
优选的,注册的声纹只能通过用户主动删除。
在102中,对命令语音进行语音识别,得到命令语音所描述的命令。
采用语音识别技术后,可以将命令语音的语音信息识别为文本信息,之后可以根据文本信息进行相应的操控。
为了提高识别的准确性,需要预先建立针对不同用户类别的语音识别模型。
具体的,采集具有不同用户类型口语化特征的语料形成语料库,利用所述语料库进行语音识别模型训练,得到对应用户类型的语音识别模型。
在103中,根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
具体地,
根据所述命令确定当前应用场景;
例如,当用户命令为“去公司的路堵么”,则确定当前应用场景为路况查询;
例如,当用户命令为“放首歌”,则确定当前应用场景为歌曲播放;
例如,当用户命令为“放个电影”,则确定当前应用场景为视频播放;
例如,当用户命令为“继续播放”,则确定当前应用场景为播放断点记忆。
根据当前场景和所述用户ID相关数据,提供个性化服务。
如果确定了所述用户的用户ID,则获取用户姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据;
在本发明实施例的一种实现方式中,预先建立用户行为模型,包括:
获取用户历史日志,其中,所述用户历史日志至少包括:用户标识、用户历史行为数据;
将用户历史行为数据按照场景进行分类统计,得到所述用户行为模型。
可以获取用户在预设时间粒度(例如,2个月,4个月,或半年等)的用户历史日志。由于用户的行为习惯,由大量的用户历史日志可以得到用户在特定场景下进行特定的行为,即所述用户行为模型。利用用户行为模型可以确定推荐策略,在路况查询、歌曲播放、视频播放、播放断点记忆等不同场景的策略。
如家庭中丈夫A和妻子B两人注册了声纹。
1)针对路况查询场景:早上起床准备出门上班,当A询问“去公司的路堵么”,自动识别出这句请求中的“公司”指的是“A的公司”,根据A的用户ID中的公司地址数据,给出从家到A的公司的路况。同理如果B说出这句话,则识别出“公司”是“B的公司”。
2)音乐:A说“放首歌儿”时,根据A的用户行为模型为A推荐其喜欢的歌儿。如A经常听五月天的歌儿,则推荐五月天的歌儿。同理B说出“放首歌儿”时,则根据B的数据推荐B喜欢的歌儿,这个时候可能会是林俊杰的歌儿等。通过精准识别身份对于同一种语言表达,不同的人说出来就给予不同的满足结果,从而提高满足度。
3)视频:A说出“放个电影”的时候,根据A的用户行为模型,播放A喜欢的电影,同理B说出同样的表达时,播放B喜欢的电影。
3)播放断点记忆:A和B同时听同一本有声小说,或者看同一部电视剧,但看的节奏不一样的时候,应该为A和B分别记录播放断点。当A说“继续播放”时,则A的断点开始播,当B说“继续播放”时,则从B的断点开始播。从而实现断点续听的个性化。
本实施例所述方法声纹ID识别准确率会大大提高,误入率大大降低;在将声纹的建立和注册机制分离,对用户打扰最小化,同时资源利用效率最大化。使得声纹技术产品化,在多场景下为用户提供个性化服务。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图5为本申请另一实施例提供的显式声纹识别装置的结构示意图,如5所示,包括声纹识别模块51、语音识别模块52、服务提供模块53;其中,
所述声纹识别模块51,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;
具体的,如图6所示,包括用户性别识别子模块61和用户ID识别子模块62,其中,
所述用户性别识别子模块61,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
由于不同性别的用户群,具有特殊的声纹特征,因此,可以根据不同性别的用户群的声音特点,进行模型训练,建立不同用户性别的声纹处理模型,以实现面向不同性别的用户群的声纹分析。当用户发起语音请求时,根据用户发出的命令语音,采用声纹识别方式,识别出发出命令语音的用户性别信息。
在声纹识别之前,需要先对说话人的声纹进行建模,即“训练”或“学习”。具体的,通过应用深度神经网络DNN声纹基线系统,获取训练集中每条语音的第一特征向量;根据所述每条语音的第一特征向量以及预先标注的性别标签训练性别分类器。从而建立了区分性别的声纹处理模型。
根据所获取到的命令语音,获取所述命令语音的第一特征信息,并将第一特征信息发送给预先生成的性别分类器。性别分类器对第一特征信息进行分析,获取所述第一特征信息的性别标签,也就是命令语音的性别标签。
举例而言,以性别分类器为高斯混合模型为例,可先对所述语音请求获取基频特征以及梅尔频率倒谱系数MFCC特征,之后,可基于高斯混合模型对基频特征以及MFCC特征进行后验概率值计算,根据计算结果确定该用户的性别,例如,假设该高斯混合模型为男性高斯混合模型,则当计算结果为后验概率值很高,如大于一定阈值时,可确定该用户的性别为男性,当计算结果为后验概率值很小,如小于一定阈值时,可确定该用户的性别为女性。
所述用户ID识别子模块62,用于获取用户声纹模型,识别发出命令语音的用户ID。
每个用户的声音会有一个唯一的声纹ID,该ID记录有该用户姓名、性别、年龄、爱好等个人数据。
具体地,根据性别分类器返回的与命令语音对应的性别标签,将用户输入的语音发送到对应性别的DNN模型中。也就是说,如果命令语音对应的是男性语音,将语音发送到男性DNN模型中。如果语音请求对应的是女性语音,将语音发送到女性DNN模型中。
根据与性别标签对应的DNN模型获取语音请求对应的多个后验概率。
根据与性别标签对应的统一背景模型对每个后验概率进行归一化处理,应用预先训练的特征向量获取模型根据每条语音,以及对应的归一化的后验概率,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型,获取的方式很多,可以根据不同的应用需要进行选择,例如:
获取多个第二特征向量的平均特征向量作为所述用户的声纹模型。
通过将获取到的所述用户的声纹模型,与预存的声纹注册模型进行匹配,如果匹配值大于预先设定的阈值,则确定所述用户的用户ID;如果所述匹配值小于预先设定的阈值,未识别出所述用户的用户ID,则确定所述用户未进行注册,为首次使用智能设备,由注册模块54建立用户ID并注册。
其中,所述预存的声纹注册模型关联在同一账号,例如百度账号,之下,该账号下所有的声纹形成一个封闭集合。各个智能语音交互设备与账号是唯一绑定的,通过账号将智能语音交互设备与声纹联系起来,声纹可以通过账号下的任意设备注册,一旦注册,可以在账号下任意智能语音设备中使用。当某一账号下的设备采集声纹后,就在该同一账号下的家庭声纹集合中进行匹配,识别声纹ID,达到了三者的统一,实现了从端到端的声纹封闭集合识别解决方案。
所述注册模块54用于建立用户ID并注册,
在本实施例的一种实现方式中,采用有限制的声纹策略,限制用户在某一账号下建立的封闭集合中,只能有两个声纹,且声纹性别特征为一男一女,以提高声纹ID识别准确率。
在本实施例的另一种实现方式中,采用无限制的声纹策略,不限制在某一账号下建立的封闭集合中的声纹ID数量。
在本实施例的一种实现方式中,所述注册模块54用于采用文本相关的训练方法,强制用户建立声纹ID并注册;具体的,如图7所示,包括以下子模块:
提供子模块71,用于随机生成一个注册字符串,并将该注册字符串提供给用户。
可以理解,该注册字符串的形式可以有很多种:
作为一种示例,该注册字符串可为随机生成的数字串。此外,为了能够覆盖更大的样本空间,注册字符串中的数字只出现一次。
作为另一种示例,该注册字符串可为随机生成的汉字字符串。
接收子模块72,用于接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数。
具体地,在将该注册字符串提供给用户之后,用户可按照提供的注册字符串进行朗读以进行注册。在用户阅读该注册字符串的过程中,或者在用户完成阅读该注册字符串时,可接收用户按照提供的注册字符串进行朗读而生成的语音信息,并对该语音信息进行分段,以得到N段语音。
确定子模块73,用于根据性别分类器和N段语音确定用户的性别标签。
在本发明的实施例中,可根据性别分类器对该N段语音中的第一段语音进行性别分类,得到该用户的性别标签。其中,该性别标签包括男性或女性。具体而言,获取所获取到的N段语音中的第一段语音的第一特征信息,并将第一特征信息发送给预先生成的性别分类器。性别分类器对第一特征信息进行分析,获取所述第一特征信息的性别标签,也就是用户的性别标签。
举例而言,以性别分类模型为高斯混合模型为例,可先对该N段语音中的第一段语音获取基频特征以及梅尔频率倒谱系数MFCC特征,之后,可基于高斯混合模型对基频特征以及MFCC特征进行后验概率值计算,根据计算结果确定该用户的性别,例如,假设该高斯混合模型为男性高斯混合模型,则当计算结果为后验概率值很高,如大于一定阈值时,可确定该用户的性别为男性,当计算结果为后验概率值很小,如小于一定阈值时,可确定该用户的性别为女性。
生成子模块74,用于根据性别标签和N段语音生成用户的声纹注册模型。
根据与所述性别标签对应的DNN模型获取每条语音的后验概率。
根据与所述性别标签对应的统一背景模型和特征向量获取模型,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型。
具体地,根据性别分类器返回的与第一条语音对应的性别标签,将用户输入的多条语音发送到对应性别的DNN模型中。也就是说,如果第一条语音对应的是男性语音,将多条语音发送到男性DNN模型中。如果第一条语音对应的是女性语音,将多条语音发送到女性DNN模型中。
根据与性别标签对应的DNN模型获取每条语音对应的多个后验概率。
根据与性别标签对应的统一背景模型对每个后验概率进行归一化处理,应用预先训练的特征向量获取模型根据每条语音,以及对应的归一化的后验概率,分别获取每条语音的第二特征向量。
根据与所述多条语音对应的多个第二特征向量获取所述用户的声纹注册模型,获取的方式很多,可以根据不同的应用需要进行选择,例如:
获取多个第二特征向量的平均特征向量作为所述用户的声纹注册模型。
输入子模块75,用于生成用户ID,提示用户输入姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据。
存储子模块76,将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库的某一账号之下,以便后续根据该声纹注册模型进行声纹识别,并对账号下任意智能语音设备进行语音控制。
在本实施例的一种实现方式中,所述注册模块54用于采用文本无关的训练方法,建立声纹ID并注册;具体的,如图8所示,包括以下子模块:
记录子模块81,用于将获取到的所述用户的声纹模型打上ID号记录下来,不主动打扰用户获取用户ID相关信息。
判断子模块82,用于判断所述打上ID号的声纹模型的出现频率;如果出现频率高于阈值,则由注册子模块83进行声纹注册;如果出现频率低于阈值,则由删除子模块84删除所述ID号;具体的,
如果所述声纹ID出现频次较高或连续多天出现,则由注册子模块83进行声纹注册;采用语音交互方式,提示用户输入姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据。将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库的某一账号之下,以便后续根据该声纹注册模型进行声纹识别,并对账号下任意智能语音设备进行语音控制。
如果建立的声纹多天没有出现,则由删除子模块84删除该ID号。
通过该机制使得声纹建立和注册分离,从而使对用户打扰程度最小化。
优选的,注册的声纹只能通过用户主动删除。
所述语音识别模块62,用于对命令语音进行语音识别,得到命令语音所描述的命令。
采用语音识别技术后,可以将命令语音的语音信息识别为文本信息,之后可以根据文本信息进行相应的操控。
为了提高识别的准确性,需要预先建立针对不同用户类别的语音识别模型。
具体的,采集具有不同用户类型口语化特征的语料形成语料库,利用所述语料库进行语音识别模型训练,得到对应用户类型的语音识别模型。
所述服务提供模块63,用于根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
具体地,包括以下子模块:
场景确定子模块,用于根据所述命令确定当前应用场景;
例如,当用户命令为“去公司的路堵么”,则确定当前应用场景为路况查询;
例如,当用户命令为“放首歌”,则确定当前应用场景为歌曲播放;
例如,当用户命令为“放个电影”,则确定当前应用场景为视频播放;
例如,当用户命令为“继续播放”,则确定当前应用场景为播放断点记忆。
服务提供子模块,用于根据当前场景和所述用户ID相关数据,利用预先建立的用户行为模型提供个性化服务。
如果确定了所述用户的用户ID,则获取用户姓名、性别、年龄、爱好、家庭住址、工作地址等用户ID相关数据;
在本发明实施例的一种实现方式中,预先建立用户行为模型,包括:
获取用户历史日志,其中,所述用户历史日志至少包括:用户标识、用户历史行为数据;
将用户历史行为数据按照场景进行分类统计,得到所述用户行为模型。
可以获取用户在预设时间粒度(例如,2个月,4个月,或半年等)的用户历史日志。由于用户的行为习惯,由大量的用户历史日志可以得到用户在特定场景下进行特定的行为,即所述用户行为模型。利用用户行为模型可以确定推荐策略,在路况查询、歌曲播放、视频播放、播放断点记忆等不同场景的策略。
如家庭中丈夫A和妻子B两人注册了声纹。
1)针对路况查询场景:早上起床准备出门上班,当A询问“去公司的路堵么”,自动识别出这句请求中的“公司”指的是“A的公司”,根据A的用户ID中的公司地址数据,给出从家到A的公司的路况。同理如果B说出这句话,则识别出“公司”是“B的公司”。
2)音乐:A说“放首歌儿”时,根据A的用户行为模型为A推荐其喜欢的歌儿。如A经常听五月天的歌儿,则推荐五月天的歌儿。同理B说出“放首歌儿”时,则根据B的数据推荐B喜欢的歌儿,这个时候可能会是林俊杰的歌儿等。通过精准识别身份对于同一种语言表达,不同的人说出来就给予不同的满足结果,从而提高满足度。
3)视频:A说出“放个电影”的时候,根据A的用户行为模型,播放A喜欢的电影,同理B说出同样的表达时,播放B喜欢的电影。
3)播放断点记忆:A和B同时听同一本有声小说,或者看同一部电视剧,但看的节奏不一样的时候,应该为A和B分别记录播放断点。当A说“继续播放”时,则A的断点开始播,当B说“继续播放”时,则从B的断点开始播。从而实现断点续听的个性化。
本实施例所述装置使得声纹ID识别准确率大大提高,误入率大大降低;在将声纹的建立和注册机制分离,对用户打扰最小化,同时资源利用效率最大化。使得声纹技术产品化,在多场景下为用户提供个性化服务。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的终端和服务器的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图9示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图9显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图9中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (16)

1.一种显式声纹识别方法,其特征在于,包括:
根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;
对命令语音进行语音识别,得到命令语音所描述的命令;
根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
2.根据权利要求1所述的显式声纹识别方法,其特征在于,所述根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID包括:
根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
根据用户性别及语音,获取用户声纹模型,识别发出命令语音的用户ID。
3.根据权利要求2所述的显式声纹识别方法,其特征在于,
若未识别出发出命令语音的用户ID,则建立用户ID并注册。
4.根据权利要求3所述的显式声纹识别方法,其特征在于,
采用有限制的声纹策略建立用户ID并注册,限制注册的用户ID数量;或,
采用无限制的声纹策略建立用户ID并注册,不限制注册的用户ID数量。
5.根据权利要求3所述的显式声纹识别方法,其特征在于,所述建立用户ID并注册包括:
随机生成注册字符串提供给用户;
接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数;
根据性别分类器和N段语音确定用户的性别标签;
根据性别标签和N段语音生成用户的声纹注册模型;生成用户ID,提示用户输入用户ID相关数据;
将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库。
6.根据权利要求3所述的显式声纹识别方法,其特征在于,所述建立用户ID并注册,包括:
将未识别到用户ID的声纹模型打上ID号;
判断所述打上ID号的声纹模型的出现频率;
如果低于阈值,则删除该ID号;
如果高于阈值,则生成用户ID;将用户ID和声纹模型对应存储到声纹注册数据库。
7.根据权利要求1所述的显式声纹识别方法,其特征在于,所述根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务包括:
根据所述命令确定当前应用场景;
根据当前场景和所述用户ID相关数据,利用预先建立的用户行为模型,提供个性化服务。
8.一种显式声纹识别装置,其特征在于,包括声纹识别模块、语音识别模块、服务提供模块;其中,
所述声纹识别模块,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户ID;
所述语音识别模块,用于对命令语音进行语音识别,得到命令语音所描述的命令。
所述服务提供模块,用于根据所述用户ID,利用预先建立的用户行为模型,提供与所述命令相匹配的个性化服务。
9.根据权利要求8所述的显式声纹识别装置,其特征在于,所述声纹识别模块进一步包括用户性别识别子模块和用户ID识别子模块,其中,
所述用户性别识别子模块,用于根据所获取到的命令语音,采用声纹识别方式,识别发出命令语音的用户性别;
所述用户ID识别子模块,用于根据用户性别及语音,获取用户声纹模型,识别发出命令语音的用户ID。
10.根据权利要求9所述的显式声纹识别装置,其特征在于,所述装置还包括注册模块,用于当未识别出发出命令语音的用户ID时,建立用户ID并注册。
11.根据权利要求10所述的显式声纹识别装置,其特征在于,所述注册模块具体执行:
采用有限制的声纹策略建立用户ID并注册,限制注册的用户ID数量;或,
采用无限制的声纹策略就建立用户ID并注册,不限制注册的用户ID数量。
12.根据权利要求9所述的显式声纹识别装置,其特征在于,所述注册模块采用有限制的声纹策略,进一步包括:
提供子模块,用于随机生成注册字符串提供给用户;
接收子模块,用于接收用户阅读注册字符串的语音信息,并根据语音信息生成N段语音,其中,N为正整数;
确定子模块,用于根据性别分类器和N段语音确定用户的性别标签;
生成子模块,用于根据性别标签和N段语音生成用户的声纹注册模型;
输入子模块,用于生成用户ID,提示用户输入用户ID相关数据;
存储子模块,用于将用户ID、该用户的性别标签和声纹注册模型的对应关系存储到声纹注册数据库。
13.根据权利要求11所述的显式声纹识别装置,其特征在于,所述注册模块采用无限制的声纹策略,进一步包括:
记录子模块,用于将未识别到用户ID的声纹模型打上ID号;
判断子模块,用于判断所述打上ID号的声纹模型的出现频率;
如果低于阈值,则删除该ID号;
如果高于阈值,则生成用户ID;将用户ID和声纹模型对应存储到声纹注册数据库。
14.根据权利要求8所述的显式声纹识别装置,其特征在于,所述服务提供模块进一步包括:
场景确定子模块,用于根据所述命令确定当前应用场景;
服务提供子模块,用于根据当前场景和所述用户ID相关数据,利用预先建立的用户行为模型,提供个性化服务。
15.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201710524328.7A 2017-06-30 2017-06-30 一种显式声纹识别方法及装置 Active CN107481720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710524328.7A CN107481720B (zh) 2017-06-30 2017-06-30 一种显式声纹识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710524328.7A CN107481720B (zh) 2017-06-30 2017-06-30 一种显式声纹识别方法及装置

Publications (2)

Publication Number Publication Date
CN107481720A true CN107481720A (zh) 2017-12-15
CN107481720B CN107481720B (zh) 2021-03-19

Family

ID=60596058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710524328.7A Active CN107481720B (zh) 2017-06-30 2017-06-30 一种显式声纹识别方法及装置

Country Status (1)

Country Link
CN (1) CN107481720B (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305633A (zh) * 2018-01-16 2018-07-20 平安科技(深圳)有限公司 语音验证方法、装置、计算机设备和计算机可读存储介质
CN108643307A (zh) * 2018-05-10 2018-10-12 九牧厨卫股份有限公司 一种智能马桶自动控制方法
CN109036436A (zh) * 2018-09-18 2018-12-18 广州势必可赢网络科技有限公司 一种声纹数据库建立方法、声纹识别方法、装置及系统
WO2019007249A1 (zh) * 2017-07-05 2019-01-10 阿里巴巴集团控股有限公司 一种交互方法、电子设备及服务器
CN109299232A (zh) * 2018-09-17 2019-02-01 北京小米移动软件有限公司 内容推荐方法及装置
CN109979457A (zh) * 2019-05-29 2019-07-05 南京硅基智能科技有限公司 一种应用于智能对话机器人的千人千面的方法
CN110033786A (zh) * 2019-04-19 2019-07-19 网易(杭州)网络有限公司 性别判断方法、装置、设备及可读存储介质
CN110797032A (zh) * 2020-01-06 2020-02-14 深圳中创华安科技有限公司 一种声纹数据库建立方法及声纹识别方法
CN110956967A (zh) * 2018-09-27 2020-04-03 上海博泰悦臻网络技术服务有限公司 基于声纹识别的车辆控制方法与车辆
CN111081080A (zh) * 2019-05-29 2020-04-28 广东小天才科技有限公司 一种语音检测方法及学习设备
WO2020114384A1 (zh) * 2018-12-06 2020-06-11 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN111428512A (zh) * 2020-03-27 2020-07-17 大众问问(北京)信息科技有限公司 一种语义识别方法、装置及设备
CN111862947A (zh) * 2020-06-30 2020-10-30 百度在线网络技术(北京)有限公司 用于控制智能设备的方法、装置、电子设备和计算机存储介质
CN112185362A (zh) * 2020-09-24 2021-01-05 苏州思必驰信息科技有限公司 针对用户个性化服务的语音处理方法及装置
CN112333546A (zh) * 2020-07-31 2021-02-05 深圳Tcl新技术有限公司 数据的推送方法、系统及计算机可读存储介质
CN112651526A (zh) * 2020-12-21 2021-04-13 北京百度网讯科技有限公司 预约目标业务的方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103730120A (zh) * 2013-12-27 2014-04-16 深圳市亚略特生物识别科技有限公司 电子设备的语音控制方法及系统
US20150249664A1 (en) * 2012-09-11 2015-09-03 Auraya Pty Ltd. Voice Authentication System and Method
CN105609103A (zh) * 2015-12-18 2016-05-25 合肥寰景信息技术有限公司 一种语音即时识别系统
CN105810200A (zh) * 2016-02-04 2016-07-27 深圳前海勇艺达机器人有限公司 基于声纹识别的人机对话装置及其方法
CN105979376A (zh) * 2015-12-02 2016-09-28 乐视致新电子科技(天津)有限公司 一种推荐方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150249664A1 (en) * 2012-09-11 2015-09-03 Auraya Pty Ltd. Voice Authentication System and Method
CN103730120A (zh) * 2013-12-27 2014-04-16 深圳市亚略特生物识别科技有限公司 电子设备的语音控制方法及系统
CN105979376A (zh) * 2015-12-02 2016-09-28 乐视致新电子科技(天津)有限公司 一种推荐方法和装置
CN105609103A (zh) * 2015-12-18 2016-05-25 合肥寰景信息技术有限公司 一种语音即时识别系统
CN105810200A (zh) * 2016-02-04 2016-07-27 深圳前海勇艺达机器人有限公司 基于声纹识别的人机对话装置及其方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019007249A1 (zh) * 2017-07-05 2019-01-10 阿里巴巴集团控股有限公司 一种交互方法、电子设备及服务器
US11238870B2 (en) 2017-07-05 2022-02-01 Alibaba Group Holding Limited Interaction method, electronic device, and server
CN108305633A (zh) * 2018-01-16 2018-07-20 平安科技(深圳)有限公司 语音验证方法、装置、计算机设备和计算机可读存储介质
CN108643307A (zh) * 2018-05-10 2018-10-12 九牧厨卫股份有限公司 一种智能马桶自动控制方法
CN108643307B (zh) * 2018-05-10 2021-08-27 九牧厨卫股份有限公司 一种智能马桶自动控制方法
CN109299232A (zh) * 2018-09-17 2019-02-01 北京小米移动软件有限公司 内容推荐方法及装置
CN109036436A (zh) * 2018-09-18 2018-12-18 广州势必可赢网络科技有限公司 一种声纹数据库建立方法、声纹识别方法、装置及系统
CN110956967A (zh) * 2018-09-27 2020-04-03 上海博泰悦臻网络技术服务有限公司 基于声纹识别的车辆控制方法与车辆
CN111292733A (zh) * 2018-12-06 2020-06-16 阿里巴巴集团控股有限公司 一种语音交互方法和装置
WO2020114384A1 (zh) * 2018-12-06 2020-06-11 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN110033786A (zh) * 2019-04-19 2019-07-19 网易(杭州)网络有限公司 性别判断方法、装置、设备及可读存储介质
CN109979457A (zh) * 2019-05-29 2019-07-05 南京硅基智能科技有限公司 一种应用于智能对话机器人的千人千面的方法
CN111081080A (zh) * 2019-05-29 2020-04-28 广东小天才科技有限公司 一种语音检测方法及学习设备
CN111081080B (zh) * 2019-05-29 2022-05-03 广东小天才科技有限公司 一种语音检测方法及学习设备
CN110797032A (zh) * 2020-01-06 2020-02-14 深圳中创华安科技有限公司 一种声纹数据库建立方法及声纹识别方法
CN111428512A (zh) * 2020-03-27 2020-07-17 大众问问(北京)信息科技有限公司 一种语义识别方法、装置及设备
CN111428512B (zh) * 2020-03-27 2023-12-12 大众问问(北京)信息科技有限公司 一种语义识别方法、装置及设备
CN111862947A (zh) * 2020-06-30 2020-10-30 百度在线网络技术(北京)有限公司 用于控制智能设备的方法、装置、电子设备和计算机存储介质
CN112333546A (zh) * 2020-07-31 2021-02-05 深圳Tcl新技术有限公司 数据的推送方法、系统及计算机可读存储介质
CN112185362A (zh) * 2020-09-24 2021-01-05 苏州思必驰信息科技有限公司 针对用户个性化服务的语音处理方法及装置
CN112651526A (zh) * 2020-12-21 2021-04-13 北京百度网讯科技有限公司 预约目标业务的方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN107481720B (zh) 2021-03-19

Similar Documents

Publication Publication Date Title
CN107481720A (zh) 一种显式声纹识别方法及装置
JP7062851B2 (ja) 声紋の作成・登録の方法及び装置
CN107507612A (zh) 一种声纹识别方法及装置
US11030412B2 (en) System and method for chatbot conversation construction and management
CN109582822A (zh) 一种基于用户语音的音乐推荐方法及装置
CN107886949B (zh) 一种内容推荐方法及装置
CN106782564B (zh) 用于处理语音数据的方法和装置
JP6876752B2 (ja) 応答方法及び装置
CN103038765B (zh) 用于适配情境模型的方法和装置
CN109117777A (zh) 生成信息的方法和装置
CN108882032A (zh) 用于输出信息的方法和装置
TW201117114A (en) System, apparatus and method for message simulation
CN108197282A (zh) 文件数据的分类方法、装置及终端、服务器、存储介质
CN110262665A (zh) 用于输出信息的方法和装置
CN110462676A (zh) 电子装置、其控制方法和非暂态计算机可读记录介质
CN112328849A (zh) 用户画像的构建方法、基于用户画像的对话方法及装置
CN111081255B (zh) 说话人确认方法和装置
CN108933730A (zh) 信息推送方法和装置
CN110232340A (zh) 建立视频分类模型以及视频分类的方法、装置
CN110580516B (zh) 一种基于智能机器人的交互方法及装置
CN112364937A (zh) 用户类别确定方法及装置、推荐内容确定方法、电子设备
CN111243604B (zh) 支持多唤醒词的说话人识别神经网络模型的训练方法、说话人识别方法及系统
Yang Research on Music Content Recognition and Recommendation Technology Based on Deep Learning.
CN109902155A (zh) 多模态对话状态处理方法、装置、介质及计算设备
CN109800410A (zh) 一种基于在线聊天记录的表单生成方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210510

Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

Patentee after: Shanghai Xiaodu Technology Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.