CN110689894B - 自动注册方法及装置、智能设备 - Google Patents

自动注册方法及装置、智能设备 Download PDF

Info

Publication number
CN110689894B
CN110689894B CN201910753375.8A CN201910753375A CN110689894B CN 110689894 B CN110689894 B CN 110689894B CN 201910753375 A CN201910753375 A CN 201910753375A CN 110689894 B CN110689894 B CN 110689894B
Authority
CN
China
Prior art keywords
characteristic information
voice
character
voice data
age
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910753375.8A
Other languages
English (en)
Other versions
CN110689894A (zh
Inventor
谢基有
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Voiceai Technologies Co ltd
Original Assignee
Voiceai Technologies Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Voiceai Technologies Co ltd filed Critical Voiceai Technologies Co ltd
Priority to CN201910753375.8A priority Critical patent/CN110689894B/zh
Publication of CN110689894A publication Critical patent/CN110689894A/zh
Application granted granted Critical
Publication of CN110689894B publication Critical patent/CN110689894B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Abstract

本发明实施例涉及一种自动注册方法及装置、智能设备。所述方法包括:采集语音数据;根据所述语音数据,获取对应的人物特征信息;将所述人物特征信息匹配预存的用户信息;根据所述匹配结果,完成自动注册。所述方法可以根据采集的语音数据获取对应的人物特征信息,并将所述人物特征信息匹配预存的用户信息,然后根据所述匹配结果,完成自动注册,从而简化了注册流程,减少了注册时间。

Description

自动注册方法及装置、智能设备
【技术领域】
本发明涉及智能设备技术领域,尤其涉及一种自动注册方法及装置、智能设备。
【背景技术】
目前,随着人工智能技术的不断落地应用,智能设备(例如:智能音箱、智能机器人、智能冰箱、智能音响、智能灯、智能空调等)走进千家万户,被越来越多的消费者所接受。声纹识别作为生物识别技术之一,越来越多应用在此类智能设备上,以达到“闻声识人”,从而提供个性化的服务。
一般来说,用户在使用智能设备前,需要在其配套的APP中预先注册。声纹注册是一种常见的注册方法,用户打开APP,根据该应用中声纹注册的指示步骤,一步一步按说明完成在该APP中的注册。
在实现本发明的过程中,发明人发现相关技术至少存在以下问题:其注册流程繁琐,往往需要用户多次录入语音,录入的过程如有意外,容易导致本次录入失败,需要重复进行,注册过程十分耗时。
【发明内容】
为了解决上述技术问题,本发明实施例提供一种简化注册流程、减少注册时间的自动注册方法及装置、智能设备。
为解决上述技术问题,本发明实施例提供以下技术方案:一种自动注册方法。所述自动注册方法包括:采集语音数据;根据所述语音数据,获取对应的人物特征信息;将所述人物特征信息匹配预存的用户信息;根据所述匹配结果,完成自动注册。
可选地,所述根据所述语音数据,获取对应的人物特征信息,包括:根据所述语音数据,获取对应的人物声纹特征;根据所述人物声纹特征,得到所述人物特征信息。
可选地,所述根据所述人物声纹特征,得到所述人物特征信息,包括:
将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析,得到所述人物特征信息。
可选地,所述人物特征信息包括性别特征、年龄特征、习惯用语特征、
口音特征、语音出现次数及语音总时长中的一个或多个。
可选地,所述将所述人物特征信息匹配预存的用户信息之前,还包括:
判断所述语音出现次数是否达到预设次数;且/或,
判断所述语音总时长是否达到预设时长;
若是,将所述人物特征信息匹配预存的所述用户信息;
若否,结束自动注册。
可选地,所述将所述人物特征信息匹配预存的用户信息,包括:
所述用户信息包括性别、年龄及习惯用语;
将所述性别特性、所述年龄特性及所述习惯用语特性分别与所述性别、所述年龄及所述习惯用语进行匹配。
可选地,根据所述匹配结果,完成自动注册。
若匹配,根据所述人物特征信息关联对应的所述用户信息;
根据所述用户信息,自动完成注册。
可选地,所述采集语音数据,包括:
设置若干采集周期;
分别采集每个所述采集周期内的语音数据。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种自动注册装置。
所述自动注册装置包括:采集模块,用于采集语音数据;
人物特征信息获取模块,用于用于根据所述语音数据,获取对应的人物特征信息;
匹配模块,用于将所述人物特征信息匹配预存的用户信息;
自动注册模块,用于根据所述匹配结果,完成自动注册。
可选地,所述人物特征信息包括性别特征、年龄特征、习惯用语特征、口音特征、语音出现次数及语音总时长中的一个或多个。
可选地,还包括判断模块,
所述判断模块用于判断所述语音出现次数是否达到预设次数;且/或,判断所述语音总时长是否达到预设时长。
可选地,所述人物特征信息包括人物声纹特征获取单元和人物特征信息获取单元;
所述人物声纹特征获取单元用于根据所述语音数据,获取对应的人物声纹特征;
所述人物特征信息获取单元根据所述人物声纹特征,得到所述人物特征信息。
可选地,所述人物特征信息获取单元包括分析子单元和人物特征信息获取子单元;
所述分析子单元用于将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析;
所述人物特征信息获取子单元根据聚类分析和语义分析结果,得到所述人物特征信息。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种智能设备。
所述智能设备包括:语音采集装置,用于采集语音数据;至少一个服务器;以及
与所述至少一个服务器通信连接的存储器;其中,所述存储器存储有可被所述至少一个服务器执行的指令,所述指令被所述至少一个服务器执行,以使所述至少一个服务器能够用于执行以上所述的自动注册方法。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种非暂态计算机可读存储介质。
所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行以上所述的方法。
与现有技术相比较,本发明实施例的自动注册方法可以可以根据采集的语音数据获取对应的人物特征信息,并将所述人物特征信息匹配预存的用户信息,然后根据所述匹配结果,完成自动注册,从而简化了注册流程,减少了注册时间。
【附图说明】
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的应用环境示意图;
图2为本发明实施例提供的自动注册方法的流程示意图;
图3是图2中S21的流程示意图;
图4是图2中S22的流程示意图;
图5是图4中S221的流程示意图;
图6为本发明实施例提供的自动注册装置的结构框图;
图7为本发明实施例提供的智能设备的结构框图。
【具体实施方式】
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、“底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
此外,下面所描述的本发明不同实施例中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明实施例提供了一种自动注册方法,所述方法可以根据采集的语音数据获取对应的人物特征信息,并将所述人物特征信息匹配预存的用户信息,然后根据所述匹配结果,完成自动注册,从而简化了注册流程,减少了注册时间。
以下举例说明所述自动注册方法的应用环境。
图1是本发明实施例提供的自动注册方法系统的应用环境的示意图;如图1所示,所述应用场景包括至少一个智能设备10、后台服务器20及用户 30。
所述智能设备10可以通过互联网连接后台服务器20;智能设备10可以包括可进行语音识别的智能设备10,如智能音箱、智能手机、电脑、智能电视、智能空调等。智能设备10设置有语音采集装置,所述语音采集装置可以接收用户30的语音数据,所述智能设备10可将语音数据发送到后台服务器20, 使得后台服务器20可以对语音数据进行语音识别并根据识别出的语义生成控制指令,所述智能设备10接收后台服务器20发送的控制指令以执行对应的控制操作。例如,用户30对着智能设备10说“播放歌曲A”,则智能设备10 可以将语音数据“播放歌曲A”发送到后台服务器20,后台服务器20对语音数据“播放歌曲A”进行语音识别并生成对应的控制指令,智能设备10接收该控制指令并根据该控制指令播放歌曲A。
其中,后台服务器20还可以根据根据所述语音数据,获取对应的人物特征信息;将所述人物特征信息匹配预存的用户信息;根据所述匹配结果,完成自动注册。智能设备10可以接收多个用户30的语音数据,每个语音数据都可以转发到后台服务器20,因此,后台服务器20可以存储大量语音数据,形成历史语音数据;后台服务器20根据所述语音数据,获取对应的人物声纹特征,并将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析,得到所述人物特征信息。
图2为本发明实施例提供的自动注册方法的实施例。如图2所示,该自动注册方法包括如下步骤:
S21、采集语音数据。
具体地,定期采集用户30的语音数据,采集周期可以由用户30自行设置,可以是一个星期、一个月、一个季度等,采集可以在一个智能设备10或多个智能设备10(例如,智能音箱、智能机器人、智能冰箱、智能音响、智能灯、智能空调等)上进行。所述智能设备10上设置有语音采集装置,所述语音采集装置可通过麦克风及录音机等采集所述语音数据。
所述语音数据通常指的就是通过语音来记录的数据以及通过语音来传输的数据。语音数据可以为预先录制好的语音数据,也可以为实时采集的语音数据。优选地,语音数据为实时采集的语音数据。
进一步地,采集语音数据后,可选的,设计合适的滤波器参数或者神经网络参数,对采集语音的进行降噪处理,使得采集的语音更加干净、准确。
S22、根据所述语音数据,获取对应的人物特征信息。
具体地,在采集到用户30的语音数据之后,可根据语音数据获取所述人物特征信息。其中,需要说明的是,人物特征信息可包括但不限于性别特征、年龄特征、习惯用语特征、语音出现次数及语音总时长。
S23、将所述人物特征信息匹配预存的用户信息。
具体地,所述用户信息包括但不仅限于性别、年龄及习惯用语。将根据语音数据获取的所述人物特征信息中的所述性别特性、所述年龄特性及所述习惯用语特性分别与所述性别、所述年龄及所述习惯用语进行匹配。
其中,所述用户信息预先存储于后台服务器20中,可以理解的是,所述后台服务器20存储有多条用户信息,每条用户信息包括对应的性别、年龄及习惯用语。例如其中一条用户信息为性别:男,年龄:46岁,习惯用语:“呀”。另一条用户信息为性别:女,年龄:43岁,习惯用语:“啊”。再一条用户信息为性别:女,年龄:13岁,习惯用语:“呢”。若根据语音数据获取的所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“啊”,然后将所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“啊”分别与每一条用户信息中的性别、年龄及习惯用语进行匹配。
S24、根据所述匹配结果,完成自动注册。
具体地,若所述人物特征信息中的所述性别特性、所述年龄特性及所述习惯用语特性分别与所述性别、所述年龄及所述习惯用语匹配,则根据所述人物特征信息关联对应的所述用户信息并根据所述用户信息,自动完成注册。
例如,例如用户信息1为性别:男,年龄:46岁,习惯用语:“呀”。用户信息2为性别:女,年龄:43岁,习惯用语:“啊”。用户信息3为性别:女,年龄:13岁,习惯用语:“呢”。若根据语音数据获取的所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“呀”,然后将所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“呀”分别与用户信息1、用户信息2、用户信息3中的性别、年龄及习惯用语进行匹配,则所述人物特征信息中的性别特性为男;年龄特性为45-50 岁;习惯用语特性为“呀”与用户信息1匹配成功,进而关联所述用户信息1,获取用户信息1中所需要的注册信息,例如邮箱、电话号码及昵称等等。
本发明实施例提供了一种自动注册方法,所述方法可以根据采集的语音数据获取对应的人物特征信息,并将所述人物特征信息匹配预存的用户信息,然后根据所述匹配结果,完成自动注册,从而简化了注册流程,减少了注册时间。
为了更好的采集所述语音数据,在一些实施例中,请参阅图3,S21包括如下步骤:
S211:设置若干采集周期。
具体地,采集周期可以由用户30自行设置,可以是一个星期、一个月、一个季度等,采集可以在一个智能设备10或多个智能设备10(例如,智能音箱、智能机器人、智能冰箱、智能音响、智能灯、智能空调等)上进行。
S212:分别采集每个所述采集周期内的语音数据。
具体地,所述智能设备10上设置有语音采集装置,所述语音采集装置可通过麦克风及录音机等采集所述语音数据。智能设备10可以接收多个用户30 的语音数据,每个语音数据都可以转发到后台服务器20,因此,后台服务器 20可以存储大量语音数据,后台服务器20根据所述语音数据,获取对应的人物声纹特征,并将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析,得到所述人物特征信息。
为了更好的根据所述语音数据,获取对应的人物特征信息,在一些实施例中,请参阅图4,S22包括如下步骤:
S221:根据所述语音数据,获取对应的人物声纹特征。
具体地,首先提取样本语音数据的相关特征(如频率特征和梅尔倒谱特征 (MFCC)等)。例如可采用第二预设算法提取样本语音数据的频率相关特征和 MFCC特征。其中,第二预设算法可以是但不限于深度学习算法、机器学习算法等。例如,在深度学习算法中,可采用自动编码器和深度神经网络两种模型通过无监督和有监督的训练方法实现从所述语音数据中自动提取相关特征;在机器学习算法中,可使用R脚本或者Python脚本对样本语音数据进行特征提取。样本语音数据的频率相关特征可以包括但不限于语音频率的平均值、频率第一四分位、指频率第三四分位、频率偏度等。然后根据所述语音数据的频率相关特征和MFCC特征,对第一分类模型进行训练,得到所述人物声纹特征。
其中,所述第一分类模型可以为传统的机器学习方法(如支持向量机模型、高斯混合模型、隐马尔科夫模型等)、深度学习网络(如词袋模型、卷积神经网络模型等)、决策树分类模型XGBoost模型等。优选地,第一分类模型可采用卷积神经网络模型,这是因为卷积神经网络模型在工业实践中的效果较好,而且,开源的工具包可支持神经网络一些参数的调优和并行训练。
S222:根据所述人物声纹特征,得到所述人物特征信息。
具体地,将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析,得到所述人物特征信息。所述人物特征信息包括但不限于下列人物特征信息中的至少一个:性别特征、年龄特征、习惯用语特征、口音特征、语音出现次数及语音总时长。
具体地,可采用改进的K-means聚类方法对所述语音数据的人物声纹特征进行聚类分析,包括:
1)设具有n个人物声纹特征,对n个人物声纹特征进行向量化,通过夹角余弦函数计算所有人物声纹特征两两之间的相似度,得到相似度矩阵XS。
2)对相似度矩阵XS的每一行进行求和,计算出每一个人物声纹特征与所有声纹特征的相似度,设XS=[sim(ai,aj)]n×n,i,j=1,…,n,其中 sim(ai,aj)表示样本ai,aj间的相似度,求和公式为: <mrow><msub><mi>XS</mi><mi>p</mi></msub><mo>=</mo><munderover><mo> &Sigma;</mo><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>n</mi>< /munderover><mi>s</mi><mi>i</mi><mi>m</mi><mrow><mo>(</mo><msub><m i>a</mi><mi>i</mi></msub><mo>,</mo><msub><mi>a</mi><mi>j</mi></msu b><mo>)</mo></mrow><mo>,</mo><mi>p</mi><mo>=</mo><mn>1</mn><mo>,</ mo><mn>...</mn><mo>,</mo><mi>n</mi></mrow>
3)按降序排列XSp,p=1,…,n,设XSp按从大到小排列的前4个值为 XSmax,XSmax-1,XSmax-2,XSmax-3,若
Figure BDA0002167957350000091
选择与最大值XSmax相对应的人物声纹特征作为第一个初始的聚簇中心, 否则选择与XSmax,XSmax-1,XSmax-2,XSmax-3对应的四个人物声纹特征的均值作为第一个初始的簇中心;
4)将最大值为XSmax对应的矩阵中行向量的元素进行升序排列,假设前k-1 个最小的元素为XSpq,q=1,…,k-1,选择前k-1个最小的元素XSpq相对应的人物声纹特征作为剩余的k-1个初始的聚簇中心,其中所述k值为隐藏层个数,根据多次试验确定;
5)计算剩余样本与各初始的聚簇中心之间的相似度,将剩余样本分发到相似度最高的聚簇中,形成变化后的k个聚簇;
6)计算变化后的聚簇中各样本的均值,将其作为更新后的聚簇中心代替更新前的聚簇中心;
7)若更新前的聚簇中心与更新后的聚簇中心相同,或者目标函数达到了最小值,停止更新,所述目标函数为: <mrow><mi>J</mi><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>l< /mi><mo>=</mo><mn>1</mn></mrow><mi>k</mi></munderover><munder><mo> &Sigma;</mo><mrow><msub><mi>a</mi><mi>x</mi></msub><mo>&Element;</ mo><msub><mi>C</mi><mi>l</mi></msub></mrow></munder><mo>|</mo><mo> |</mo><msub><mi>a</mi><mi>x</mi></msub><mo>-</mo><mover><msub><mi> a</mi><mrow><mi>x</mi><mi>l</mi></mrow></msub><mo>&OverBar;</mo></ mover><mo>|</mo><msup><mo>|</mo><mn>2</mn></msup></mrow>其中,Cl表示k个聚簇中的第l个聚簇,ax为第l个聚簇中的样本,
Figure BDA0002167957350000092
为第l个聚簇的中心。其中,所述设定的比例值T的取值范围为[1.4,1.8]。
在一些实施例中,所述将所述人物特征信息匹配预存的用户信息之前,请参阅图5,还包括以下步骤:
S2211:判断所述语音出现次数是否达到预设次数;且/或,判断所述语音总时长是否达到预设时长。
具体地,所述语音出现次数是指在采集周期内总的出现次数,所述语音总时长是指在每个采集周期内总的语音时长,当所述语音出现次数大于或等于预设次数;且/或,所述语音总时长超过或等于所述预设时长,则为是;当所述语音出现次数小于预设次数且所述语音总时长小于所述预设时长,则为否。例如所述预设次数为10次,所述预设时长为20min,在采集周期内,张三的语音出现次数为8次,出现次数为8次对应的所述语音总时长为19min,则判定所述语音出现次数小于预设次数且所述语音总时长小于所述预设时长。
S2212:若是,将所述人物特征信息匹配预存的所述用户信息。
若所述语音出现次数大于或等于预设次数;且/或,所述语音总时长超过或等于所述预设时长,则将所述人物特征信息匹配预存的所述用户信息。所述用户信息包括但不仅限于性别、年龄及习惯用语。所述用户信息存储于后台服务器20中,可以理解的是,所述后台服务器20存储有多条用户信息,每条用户信息包括对应的性别、年龄及习惯用语。例如,例如用户信息1为性别:男,年龄:46岁,习惯用语:“呀”。用户信息2为性别:女,年龄: 43岁,习惯用语:“啊”。用户信息3为性别:女,年龄:13岁,习惯用语:“呢”。若根据语音数据获取的所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“呀”,然后将所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“呀”分别与用户信息1、用户信息2、用户信息3中的性别、年龄及习惯用语进行匹配,则所述人物特征信息中的性别特性为男;年龄特性为45-50岁;习惯用语特性为“呀”与用户信息1匹配成功,进而关联所述用户信息1,进一步获取用户信息1中所需要的注册信息,例如邮箱、电话号码及昵称等等。
S2213:若否,结束自动注册。
需要说明的是,在上述各个实施例中,上述各步骤之间并不必然存在一定的先后顺序,本领域普通技术人员,根据本申请实施例的描述可以理解,不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行,亦可以交换执行等等。
作为本申请实施例的另一方面,本申请实施例提供一种自动注册装置60。请参阅图6,该自动注册装置60包括:采集模块61、人物特征信息获取模块 62、匹配模块63以及自动注册模块64。
采集模块61用于采集语音数据。
人物特征信息获取模块62用于根据所述语音数据,获取对应的人物特征信息。所述人物特征信息包括性别特征、年龄特征、习惯用语特征、语音出现次数及语音总时长。
匹配模块63用于将所述人物特征信息匹配预存的用户信息。所述用户信息包括性别、年龄及习惯用语。所述匹配模块63具体用于将所述性别特性、所述年龄特性及所述习惯用语特性分别与所述性别、所述年龄及所述习惯用语进行匹配。
自动注册模块64用于根据所述匹配结果,完成自动注册。所述自动注册模块64具体用于若匹配,根据所述人物特征信息关联对应的所述用户信息;根据所述用户信息,自动完成注册。
因此,在本实施例中,通过根据采集的语音数据获取对应的人物特征信息,并将所述人物特征信息匹配预存的用户信息,然后根据所述匹配结果,完成自动注册,从而简化了注册流程,减少了注册时间。
在一些实施例中,自动注册装置60还包括判断模块65,所述判断模块用于判断所述语音出现次数是否达到预设次数;且/或,判断所述语音总时长是否达到预设时长。
其中,在一些实施例中,所述人物特征信息获取模块包括人物声纹特征获取单元和人物特征信息获取单元。
所述人物声纹特征获取单元用于根据所述语音数据,获取对应的人物声纹特征。
所述人物特征信息获取单元根据所述人物声纹特征,得到所述人物特征信息。
其中,在一些实施例中,所述人物特征信息获取单元包括分析子单元和人物特征信息获取子单元。所述分析子单元用于将所述人物声纹特征进行聚类分析;且/或,将所述人物声纹特征进行语义分析。所述人物特征信息获取子单元根据聚类分析和语义分析结果,得到所述人物特征信息。
图7为本发明实施例提供的智能设备10的结构框图。该智能设备10可以用于实现所述主控芯片中的全部或者部分功能模块的功能。如图7所示,该智能设备10可以包括:语音采集装置、处理器110、存储器120以及通信模块130。
所述语音采集装置用于采集语音数据。
所述处理器110、存储器120以及通信模块130之间通过总线的方式,建立任意两者之间的通信连接。
处理器110可以为任何类型,具备一个或者多个处理核心的处理器110。其可以执行单线程或者多线程的操作,用于解析指令以执行获取数据、执行逻辑运算功能以及下发运算处理结果等操作。
存储器120作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的自动注册方法对应的程序指令/模块(例如,附图6所示的采集模块61、人物特征信息获取模块62、匹配模块63、自动注册模块64及判断模块65)。处理器110 通过运行存储在存储器120中的非暂态软件程序、指令以及模块,从而执行自动注册装置60的各种功能应用以及数据处理,即实现上述任一方法实施例中自动注册方法。
存储器120可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据自动注册装置60的使用所创建的数据等。此外,存储器120可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器120可选包括相对于处理器110远程设置的存储器,这些远程存储器可以通过网络连接至智能设备10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述存储器120存储有可被所述至少一个处理器110执行的指令;所述至少一个处理器110用于执行所述指令,以实现上述任意方法实施例中自动注册方法,例如,执行以上描述的方法步骤21、22、23、24等等,实现图6 中的模块61-65的功能。
通信模块130是用于建立通信连接,提供物理信道的功能模块。通信模块130以是任何类型的无线或者有线通信模块130,包括但不限于WiFi模块或者蓝牙模块等。
进一步地,本发明实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器110执行,例如,被图7中的一个处理器110执行,可使得上述一个或多个处理器110执行上述任意方法实施例中自动注册方法,例如,执行以上描述的方法步骤21、22、23、24等等,实现图6中的模块61-65 的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序产品中的计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非暂态计算机可读取存储介质中,该计算机程序包括程序指令,当所述程序指令被相关设备执行时,可使相关设备执行上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM) 等。
上述产品可执行本发明实施例所提供的自动注册方法,具备执行自动注册方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的自动注册方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (8)

1.一种自动注册方法,其特征在于,包括:
采集语音数据;
根据所述语音数据,获取对应的人物声纹特征;
将所述人物声纹特征进行聚类分析;
将所述人物声纹特征进行语义分析,得到所述人物特征信息;
将所述人物特征信息匹配预存的用户信息;
根据所述匹配结果,完成自动注册;
其中,所述人物特征信息包括性别特征、年龄特征、习惯用语特征、口音特征、语音出现次数及语音总时长中的一个或多个;
其中,所述用户信息包括性别、年龄及习惯用语,所述将所述人物特征信息匹配预存的用户信息包括:
将所述性别特征、所述年龄特征及所述习惯用语特征分别与所述性别、所述年龄及所述习惯用语进行匹配。
2.根据权利要求1所述的方法,其特征在于,所述将所述人物特征信息
匹配预存的用户信息之前,还包括:
判断所述语音出现次数是否达到预设次数;且/或,
判断所述语音总时长是否达到预设时长;
若是,将所述人物特征信息匹配预存的所述用户信息;
若否,结束自动注册。
3.根据权利要求2所述的方法,其特征在于,所述根据所述匹配结果,完成自动注册,包括:
若匹配,根据所述人物特征信息关联对应的所述用户信息;
根据所述用户信息,自动完成注册。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述采集语音数据,包括:
设置若干采集周期;
分别采集每个所述采集周期内的语音数据。
5.一种自动注册装置,其特征在于,包括:
采集模块,用于采集语音数据;
人物特征信息获取模块,用于根据所述语音数据,获取对应的人物特征信息;
其中,所述人物特征信息获取模块包括人物声纹特征获取单元和人物特征信息获取单元;
所述人物声纹特征获取单元用于根据所述语音数据,获取对应的人物声纹特征;
所述人物特征信息获取单元用于根据所述人物声纹特征,得到所述人物特征信息;
其中,所述人物特征信息获取单元包括分析子单元和人物特征信息获取子单元;
所述分析子单元用于将所述人物声纹特征进行聚类分析和语义分析;
所述人物特征信息获取子单元用于根据聚类分析和语义分析结果,得到所述人物特征信息;
匹配模块,用于将所述人物特征信息匹配预存的用户信息,其中,所述人物特征信息包括性别特征、年龄特征、习惯用语特征、口音特征、语音出现次数及语音总时长中的一个或多个,所述用户信息包括性别、年龄及习惯用语,所述匹配模块具体用于:
将所述性别特征、所述年龄特征及所述习惯用语特征分别与所述性别、所述年龄及所述习惯用语进行匹配;
自动注册模块,用于根据所述匹配结果,完成自动注册。
6.根据权利要求5所述的自动注册装置,其特征在于,还包括判断模块,所述判断模块用于判断所述语音出现次数是否达到预设次数;且/或,判断所述语音总时长是否达到预设时长。
7.一种智能设备,其特征在于,包括:
语音采集装置,用于采集语音数据;
至少一个服务器;以及
与所述至少一个服务器通信连接的存储器;其中,所述存储器存储有可被所述至少一个服务器执行的指令,所述指令被所述至少一个服务器执行,以使所述至少一个服务器能够用于执行如权利要求1-4中任一项所述的自动注册方法。
8.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1-4任一项所述的方法。
CN201910753375.8A 2019-08-15 2019-08-15 自动注册方法及装置、智能设备 Active CN110689894B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910753375.8A CN110689894B (zh) 2019-08-15 2019-08-15 自动注册方法及装置、智能设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910753375.8A CN110689894B (zh) 2019-08-15 2019-08-15 自动注册方法及装置、智能设备

Publications (2)

Publication Number Publication Date
CN110689894A CN110689894A (zh) 2020-01-14
CN110689894B true CN110689894B (zh) 2022-03-29

Family

ID=69108265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910753375.8A Active CN110689894B (zh) 2019-08-15 2019-08-15 自动注册方法及装置、智能设备

Country Status (1)

Country Link
CN (1) CN110689894B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247197A (zh) * 2013-03-29 2013-08-14 上海众实科技发展有限公司 一种基于声纹识别的用户在线学习监测方法
CN104184587A (zh) * 2014-08-08 2014-12-03 腾讯科技(深圳)有限公司 声纹生成方法、服务器、客户端及系统
CN105656887A (zh) * 2015-12-30 2016-06-08 百度在线网络技术(北京)有限公司 基于人工智能的声纹认证方法以及装置
JP2016156993A (ja) * 2015-02-25 2016-09-01 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体
CN107978311A (zh) * 2017-11-24 2018-05-01 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
CN108062354A (zh) * 2017-11-22 2018-05-22 上海博泰悦臻电子设备制造有限公司 信息推荐方法、系统、存储介质、电子设备及车辆
CN108460081A (zh) * 2018-01-12 2018-08-28 平安科技(深圳)有限公司 语音数据库创建方法、声纹注册方法、装置、设备及介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782564B (zh) * 2016-11-18 2018-09-11 百度在线网络技术(北京)有限公司 用于处理语音数据的方法和装置
CN107623614B (zh) * 2017-09-19 2020-12-08 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247197A (zh) * 2013-03-29 2013-08-14 上海众实科技发展有限公司 一种基于声纹识别的用户在线学习监测方法
CN104184587A (zh) * 2014-08-08 2014-12-03 腾讯科技(深圳)有限公司 声纹生成方法、服务器、客户端及系统
JP2016156993A (ja) * 2015-02-25 2016-09-01 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体
CN105656887A (zh) * 2015-12-30 2016-06-08 百度在线网络技术(北京)有限公司 基于人工智能的声纹认证方法以及装置
CN108062354A (zh) * 2017-11-22 2018-05-22 上海博泰悦臻电子设备制造有限公司 信息推荐方法、系统、存储介质、电子设备及车辆
CN107978311A (zh) * 2017-11-24 2018-05-01 腾讯科技(深圳)有限公司 一种语音数据处理方法、装置以及语音交互设备
CN108460081A (zh) * 2018-01-12 2018-08-28 平安科技(深圳)有限公司 语音数据库创建方法、声纹注册方法、装置、设备及介质

Also Published As

Publication number Publication date
CN110689894A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
US10957339B2 (en) Speaker recognition method and apparatus, computer device and computer-readable medium
EP3525205B1 (en) Electronic device and method of performing function of electronic device
CN107799126B (zh) 基于有监督机器学习的语音端点检测方法及装置
KR102379954B1 (ko) 화상처리장치 및 방법
CN107481718B (zh) 语音识别方法、装置、存储介质及电子设备
US7620547B2 (en) Spoken man-machine interface with speaker identification
CN109243432A (zh) 话音处理方法以及支持该话音处理方法的电子设备
CN110289003A (zh) 一种声纹识别的方法、模型训练的方法以及服务器
CN111667818B (zh) 一种训练唤醒模型的方法及装置
CN110570873B (zh) 声纹唤醒方法、装置、计算机设备以及存储介质
CN108122552A (zh) 语音情绪识别方法和装置
CN107257996A (zh) 环境敏感自动语音识别的方法和系统
CN108874895B (zh) 交互信息推送方法、装置、计算机设备及存储介质
RU2720359C1 (ru) Способ и оборудование распознавания эмоций в речи
CN108899033B (zh) 一种确定说话人特征的方法及装置
CN107972028A (zh) 人机交互方法、装置及电子设备
CN113314119B (zh) 语音识别智能家居控制方法及装置
CN111326152A (zh) 语音控制方法及装置
KR20200100332A (ko) 화자 모델을 업데이트하는 음성 인식 장치, 방법 및 컴퓨터 프로그램
CN112735437A (zh) 一种声纹比对方法及系统及装置及存储机构
CN109065026B (zh) 一种录音控制方法及装置
CN114078472A (zh) 一种低误唤醒率的关键词计算模型的训练方法及装置
US11475876B2 (en) Semantic recognition method and semantic recognition device
WO2019136811A1 (zh) 语音对比方法、终端及计算机可读存储介质
CN110689894B (zh) 自动注册方法及装置、智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant