CN111415669B - 一种声纹模型构建方法和装置以及设备 - Google Patents

一种声纹模型构建方法和装置以及设备 Download PDF

Info

Publication number
CN111415669B
CN111415669B CN202010293886.9A CN202010293886A CN111415669B CN 111415669 B CN111415669 B CN 111415669B CN 202010293886 A CN202010293886 A CN 202010293886A CN 111415669 B CN111415669 B CN 111415669B
Authority
CN
China
Prior art keywords
voiceprint
voice
voice data
database
personal characteristics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010293886.9A
Other languages
English (en)
Other versions
CN111415669A (zh
Inventor
肖龙源
李稀敏
刘晓葳
谭玉坤
叶志坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Kuaishangtong Technology Co Ltd
Original Assignee
Xiamen Kuaishangtong Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Kuaishangtong Technology Co Ltd filed Critical Xiamen Kuaishangtong Technology Co Ltd
Priority to CN202010293886.9A priority Critical patent/CN111415669B/zh
Publication of CN111415669A publication Critical patent/CN111415669A/zh
Application granted granted Critical
Publication of CN111415669B publication Critical patent/CN111415669B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种声纹模型构建方法和装置以及设备。其中,所述方法包括:采集至少一个用户的个人特征和语音数据,其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等,和根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库,其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,和对该至少一个语音数据库中的每个语音数据进行声纹特征提取,以及根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型。通过上述方式,能够实现提高构建不同的个人特征的声纹模型的效率。

Description

一种声纹模型构建方法和装置以及设备
技术领域
本发明涉及声纹技术领域,尤其涉及一种声纹模型构建方法和装置以及设备。
背景技术
声纹是用电声学仪器显示的携带言语信息的声波频谱。现代科学研究表明,声纹不仅具有特定性,而且有相对稳定性的特点。成年以后,人的声音可保持长期相对稳定不变。实验证明,每个人的声纹各不相同,无论讲话者是故意模仿他人声音和语气,还是耳语轻声讲话,即使模仿得惟妙惟肖,其声纹却始终不同。
现有的声纹模型构建方案,一般是基于用户预设的个人特征和对应该预设的个人特征的语音数据来构建基于该预设的个人特征的声纹模型,该个人特征包括性别和/或年龄和/或民族和/或籍贯等,在该预设的个人特征调整为其它不同的个人特征时,需要根据该其它不同的个人特征和对应该其它不同的个人特征的语音数据来重新构建基于该其它不同的个人特征的声纹模型,针对不同的个人特征,都需要重新构建基于该不同的个人特征的声纹模型,导致构建不同的个人特征的声纹模型的效率一般。
发明内容
有鉴于此,本发明的目的在于提出一种声纹模型构建方法和装置以及设备,能够实现提高构建不同的个人特征的声纹模型的效率。
根据本发明的一个方面,提供一种声纹模型构建方法,包括:采集至少一个用户的个人特征和语音数据;其中,所述个人特征包括性别和/或年龄和/或民族和/或籍贯;根据所述个人特征和所述语音数据,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库;对所述至少一个语音数据库中的每个语音数据进行声纹特征提取;根据所述提取的声纹特征,构建关联所述每个语音数据库的声纹特征的声纹模型。
其中,所述根据所述个人特征和所述语音数据,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库,包括:根据所述个人特征和所述语音数据,筛选出关联所述个人特征的共性特征的语音数据的集合,根据所述筛选出的语音数据的集合,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库。
其中,所述对所述至少一个语音数据库中的每个语音数据进行声纹特征提取,包括:采用对所述采集的每个语音数据进行提取一次声纹特征和将所述提取的对应的声纹特征匹配到所述至少一个语音数据库中的相应语音数据的方式,对所述至少一个语音数据库中的每个语音数据进行声纹特征提取。
其中,在所述根据所述提取的声纹特征,构建关联所述每个语音数据库的声纹特征的声纹模型之后,还包括:对所述配置的关联所述个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
根据本发明的另一个方面,提供一种声纹模型构建装置,包括:采集模块、配置模块、提取模块和构建模块;所述采集模块,用于采集至少一个用户的个人特征和语音数据;其中,所述个人特征包括性别和/或年龄和/或民族和/或籍贯;所述配置模块,用于根据所述个人特征和所述语音数据,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库;所述提取模块,用于对所述至少一个语音数据库中的每个语音数据进行声纹特征提取;所述构建模块,用于根据所述提取的声纹特征,构建关联所述每个语音数据库的声纹特征的声纹模型。
其中,所述配置模块,具体用于:根据所述个人特征和所述语音数据,筛选出关联所述个人特征的共性特征的语音数据的集合,根据所述筛选出的语音数据的集合,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库。
其中,所述提取模块,具体用于:采用对所述采集的每个语音数据进行提取一次声纹特征和将所述提取的对应的声纹特征匹配到所述至少一个语音数据库中的相应语音数据的方式,对所述至少一个语音数据库中的每个语音数据进行声纹特征提取。
其中,所述声纹模型构建装置,还包括:压缩模块;所述压缩模块,用于对所述配置的关联所述个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
根据本发明的又一个方面,提供一种声纹模型构建设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一项所述的声纹模型构建方法。
根据本发明的再一个方面,提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的声纹模型构建方法。
可以发现,以上方案,可以采集至少一个用户的个人特征和语音数据,其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等,和可以根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库,其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,和可以对该至少一个语音数据库中的每个语音数据进行声纹特征提取,以及可以根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型,能够实现根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型,能够实现提高构建不同的个人特征的声纹模型的效率。
进一步的,以上方案,可以根据该个人特征和该语音数据,筛选出关联该个人特征的共性特征的语音数据的集合,根据该筛选出的语音数据的集合,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,这样的好处是能够实现通过配置关联该个人特征的至少一个共性特征的至少一个语音数据库,便于根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型。
进一步的,以上方案,可以采用对该采集的每个语音数据进行提取一次声纹特征和将该提取的对应的声纹特征匹配到该至少一个语音数据库中的相应语音数据的方式,对该至少一个语音数据库中的每个语音数据进行声纹特征提取,这样的好处是能够实现避免出现重复提取相同的语音数据的声纹特征的情况,提高对该至少一个语音数据库中的每个语音数据进行声纹特征提取的效率。
进一步的,以上方案,可以对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩,这样的好处是能够节省该配置的语音数据库的存储资源。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明声纹模型构建方法一实施例的流程示意图;
图2是本发明声纹模型构建方法另一实施例的流程示意图;
图3是本发明声纹模型构建装置一实施例的结构示意图;
图4是本发明声纹模型构建装置另一实施例的结构示意图;
图5是本发明声纹模型构建设备一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的详细描述。特别指出的是,以下实施例仅用于说明本发明,但不对本发明的范围进行限定。同样的,以下实施例仅为本发明的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种声纹模型构建方法,能够实现提高构建不同的个人特征的声纹模型的效率。
请参见图1,图1是本发明声纹模型构建方法一实施例的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括如下步骤:
S101:采集至少一个用户的个人特征和语音数据;其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等。
在本实施例中,可以一次性采集多个用户的语音数据,也可以分多次采集多个用户的语音数据,还可以逐一逐个用户的采集用户的语音数据等,本发明不加以限定。
在本实施例中,可以是采集同一用户的多个语音数据,也可以是采集同一用户的单个语音数据,还可以是采集多个用户的多个语音数据等,本发明不加以限定。
S102:根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库。
其中,该根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,可以包括:
根据该个人特征和该语音数据,筛选出关联该个人特征的共性特征的语音数据的集合,根据该筛选出的语音数据的集合,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,这样的好处是能够实现通过配置关联该个人特征的至少一个共性特征的至少一个语音数据库,便于根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型。
S103:对该至少一个语音数据库中的每个语音数据进行声纹特征提取。
其中,该对该至少一个语音数据库中的每个语音数据进行声纹特征提取,可以包括:
采用对该采集的每个语音数据进行提取一次声纹特征和将该提取的对应的声纹特征匹配到该至少一个语音数据库中的相应语音数据的方式,对该至少一个语音数据库中的每个语音数据进行声纹特征提取,这样的好处是能够实现避免出现重复提取相同的语音数据的声纹特征的情况,提高对该至少一个语音数据库中的每个语音数据进行声纹特征提取的效率。
S104:根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型。
在本实施例中,可以对一个语音数据库构建一个对应的声纹模型,多个语音数据库构建多个对应的声纹模型等,本发明不加以限定。
其中,在该根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型之后,还可以包括:
对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩,这样的好处是能够节省该配置的语音数据库的存储资源。
可以发现,在本实施例中,可以采集至少一个用户的个人特征和语音数据,其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等,和可以根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库,其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,和可以对该至少一个语音数据库中的每个语音数据进行声纹特征提取,以及可以根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型,能够实现根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型,能够实现提高构建不同的个人特征的声纹模型的效率。
进一步的,在本实施例中,可以根据该个人特征和该语音数据,筛选出关联该个人特征的共性特征的语音数据的集合,根据该筛选出的语音数据的集合,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,这样的好处是能够实现通过配置关联该个人特征的至少一个共性特征的至少一个语音数据库,便于根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型。
进一步的,在本实施例中,可以采用对该采集的每个语音数据进行提取一次声纹特征和将该提取的对应的声纹特征匹配到该至少一个语音数据库中的相应语音数据的方式,对该至少一个语音数据库中的每个语音数据进行声纹特征提取,这样的好处是能够实现避免出现重复提取相同的语音数据的声纹特征的情况,提高对该至少一个语音数据库中的每个语音数据进行声纹特征提取的效率。
请参见图2,图2是本发明声纹模型构建方法另一实施例的流程示意图。
本实施例中,该方法包括以下步骤:
S201:采集至少一个用户的个人特征和语音数据;其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等。
可如上S101所述,在此不作赘述。
S202:根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库。
可如上S102所述,在此不作赘述。
S203:对该至少一个语音数据库中的每个语音数据进行声纹特征提取。
可如上S103所述,在此不作赘述。
S204:根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型。
可如上S104所述,在此不作赘述。
S205:对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
可以发现,在本实施例中,可以对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩,这样的好处是能够节省该配置的语音数据库的存储资源。
本发明还提供一种声纹模型构建装置,能够实现提高构建不同的个人特征的声纹模型的效率。
请参见图3,图3是本发明声纹模型构建装置一实施例的结构示意图。本实施例中,该声纹模型构建装置30包括采集模块31、配置模块32、提取模块33和构建模块34。
该采集模块31,用于采集至少一个用户的个人特征和语音数据;其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等。
该配置模块32,用于根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库。
该提取模块33,用于对该至少一个语音数据库中的每个语音数据进行声纹特征提取。
该构建模块34,用于根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型。
可选地,该配置模块32,可以具体用于:
根据该个人特征和该语音数据,筛选出关联该个人特征的共性特征的语音数据的集合,根据该筛选出的语音数据的集合,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库。
可选地,该提取模块33,可以具体用于:
采用对该采集的每个语音数据进行提取一次声纹特征和将该提取的对应的声纹特征匹配到该至少一个语音数据库中的相应语音数据的方式,对该至少一个语音数据库中的每个语音数据进行声纹特征提取。
请参见图4,图4是本发明声纹模型构建装置另一实施例的结构示意图。区别于上一实施例,本实施例所述声纹模型构建装置40还包括压缩模块41。
该压缩模块41,用于对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
该声纹模型构建装置30/40的各个单元模块可分别执行上述方法实施例中对应步骤,故在此不对各单元模块进行赘述,详细请参见以上对应步骤的说明。
本发明又提供一种声纹模型构建设备,如图5所示,包括:至少一个处理器51;以及,与至少一个处理器51通信连接的存储器52;其中,存储器52存储有可被至少一个处理器51执行的指令,指令被至少一个处理器51执行,以使至少一个处理器51能够执行上述的声纹模型构建方法。
其中,存储器52和处理器51采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器51和存储器52的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器51处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器51。
处理器51负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器52可以被用于存储处理器51在执行操作时所使用的数据。
本发明再提供一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
可以发现,以上方案,可以采集至少一个用户的个人特征和语音数据,其中,该个人特征包括性别和/或年龄和/或民族和/或籍贯等,和可以根据该个人特征和该语音数据,配置关联该个人特征的至少一个共性特征的至少一个语音数据库,其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,和可以对该至少一个语音数据库中的每个语音数据进行声纹特征提取,以及可以根据该提取的声纹特征,构建关联该每个语音数据库的声纹特征的声纹模型,能够实现根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型,能够实现提高构建不同的个人特征的声纹模型的效率。
进一步的,以上方案,可以根据该个人特征和该语音数据,筛选出关联该个人特征的共性特征的语音数据的集合,根据该筛选出的语音数据的集合,配置关联该个人特征的至少一个共性特征的至少一个语音数据库;其中,该共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯等的语音数据库,这样的好处是能够实现通过配置关联该个人特征的至少一个共性特征的至少一个语音数据库,便于根据该至少一个语音数据库对用户的各个不同的个人特征同时构建基于该各个不同的个人特征的声纹模型。
进一步的,以上方案,可以采用对该采集的每个语音数据进行提取一次声纹特征和将该提取的对应的声纹特征匹配到该至少一个语音数据库中的相应语音数据的方式,对该至少一个语音数据库中的每个语音数据进行声纹特征提取,这样的好处是能够实现避免出现重复提取相同的语音数据的声纹特征的情况,提高对该至少一个语音数据库中的每个语音数据进行声纹特征提取的效率。
进一步的,以上方案,可以对该配置的关联该个人特征的至少一个共性特征的至少一个语音数据库进行压缩,这样的好处是能够节省该配置的语音数据库的存储资源。
在本发明所提供的几个实施方式中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的部分实施例,并非因此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效装置或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种声纹模型构建方法,其特征在于,包括:
采集至少一个用户的个人特征和语音数据;其中,所述个人特征包括性别和/或年龄和/或民族和/或籍贯;
根据所述个人特征和所述语音数据,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库,根据所述个人特征和所述语音数据,筛选出关联所述个人特征的共性特征的语音数据的集合,根据所述筛选出的语音数据的集合,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库;
对所述至少一个语音数据库中的每个语音数据进行声纹特征提取;
根据提取的声纹特征,构建关联每个语音数据库的声纹特征的声纹模型。
2.如权利要求1所述的声纹模型构建方法,其特征在于,所述对所述至少一个语音数据库中的每个语音数据进行声纹特征提取,包括:
采用对采集的每个语音数据进行提取一次声纹特征和将提取的对应的声纹特征匹配到所述至少一个语音数据库中的相应语音数据的方式,对所述至少一个语音数据库中的每个语音数据进行声纹特征提取。
3.如权利要求1所述的声纹模型构建方法,其特征在于,在所述根据提取的声纹特征,构建关联每个语音数据库的声纹特征的声纹模型之后,还包括:
对配置的关联所述个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
4.一种声纹模型构建装置,其特征在于,包括:
采集模块、配置模块、提取模块和构建模块;
所述采集模块,用于采集至少一个用户的个人特征和语音数据;其中,所述个人特征包括性别和/或年龄和/或民族和/或籍贯;
所述配置模块,用于根据所述个人特征和所述语音数据,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库,根据所述个人特征和所述语音数据,筛选出关联所述个人特征的共性特征的语音数据的集合,根据所述筛选出的语音数据的集合,配置关联所述个人特征的至少一个共性特征的至少一个语音数据库;其中,所述共性特征的至少一个语音数据库包括相同性别和/或相同年龄和/或相同民族和/或相同籍贯的语音数据库;
所述提取模块,用于对所述至少一个语音数据库中的每个语音数据进行声纹特征提取;
所述构建模块,用于根据提取的声纹特征,构建关联每个语音数据库的声纹特征的声纹模型。
5.如权利要求4所述的声纹模型构建装置,其特征在于,所述提取模块,具体用于:
采用对采集的每个语音数据进行提取一次声纹特征和将提取的对应的声纹特征匹配到所述至少一个语音数据库中的相应语音数据的方式,对所述至少一个语音数据库中的每个语音数据进行声纹特征提取。
6.如权利要求4所述的声纹模型构建装置,其特征在于,所述声纹模型构建装置,还包括:
压缩模块;
所述压缩模块,用于对配置的关联所述个人特征的至少一个共性特征的至少一个语音数据库进行压缩。
7.一种声纹模型构建设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3中任一项所述的声纹模型构建方法。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至3中任一项所述的声纹模型构建方法。
CN202010293886.9A 2020-04-15 2020-04-15 一种声纹模型构建方法和装置以及设备 Active CN111415669B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010293886.9A CN111415669B (zh) 2020-04-15 2020-04-15 一种声纹模型构建方法和装置以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010293886.9A CN111415669B (zh) 2020-04-15 2020-04-15 一种声纹模型构建方法和装置以及设备

Publications (2)

Publication Number Publication Date
CN111415669A CN111415669A (zh) 2020-07-14
CN111415669B true CN111415669B (zh) 2023-03-31

Family

ID=71491934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010293886.9A Active CN111415669B (zh) 2020-04-15 2020-04-15 一种声纹模型构建方法和装置以及设备

Country Status (1)

Country Link
CN (1) CN111415669B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113257254B (zh) * 2021-07-01 2021-10-08 深圳市声扬科技有限公司 声纹识别方法、装置、电子设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9837078B2 (en) * 2012-11-09 2017-12-05 Mattersight Corporation Methods and apparatus for identifying fraudulent callers
CN105979376A (zh) * 2015-12-02 2016-09-28 乐视致新电子科技(天津)有限公司 一种推荐方法和装置
CN108460081B (zh) * 2018-01-12 2019-07-12 平安科技(深圳)有限公司 语音数据库创建方法、声纹注册方法、装置、设备及介质
CN108305633B (zh) * 2018-01-16 2019-03-29 平安科技(深圳)有限公司 语音验证方法、装置、计算机设备和计算机可读存储介质
CN109036436A (zh) * 2018-09-18 2018-12-18 广州势必可赢网络科技有限公司 一种声纹数据库建立方法、声纹识别方法、装置及系统
CN109450850B (zh) * 2018-09-26 2022-10-11 深圳壹账通智能科技有限公司 身份验证方法、装置、计算机设备和存储介质
CN109637547B (zh) * 2019-01-29 2020-11-03 北京猎户星空科技有限公司 音频数据标注方法、装置、电子设备及存储介质
CN110648671A (zh) * 2019-08-21 2020-01-03 广州国音智能科技有限公司 声纹模型重建方法、终端、装置及可读存储介质
CN111008299B (zh) * 2020-03-11 2020-06-19 北京海天瑞声科技股份有限公司 语音数据库的质量评估方法、装置及计算机存储介质

Also Published As

Publication number Publication date
CN111415669A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
US20180166070A1 (en) System and Method for Mobile Automatic Speech Recognition
CN105489221B (zh) 一种语音识别方法及装置
CN104464716B (zh) 一种语音播报系统和方法
CN110049270A (zh) 多人会议语音转写方法、装置、系统、设备及存储介质
KR101901920B1 (ko) 인공지능 음성인식 딥러닝을 위한 음성 및 텍스트 간 역전사 서비스 제공 시스템 및 방법
CN103187053A (zh) 输入方法和电子设备
CN111445903B (zh) 企业名称识别方法及装置
CN102404278A (zh) 一种基于声纹识别的点歌系统及其应用方法
CN107749296A (zh) 语音翻译方法和装置
CN111415669B (zh) 一种声纹模型构建方法和装置以及设备
CN113436609A (zh) 语音转换模型及其训练方法、语音转换方法及系统
CN112287082A (zh) 结合rpa与ai的数据的处理方法、装置、设备及存储介质
CN112447168A (zh) 语音识别系统、方法、音箱、显示设备和交互平台
CN108364346B (zh) 构建三维人脸模型的方法、装置和计算机可读存储介质
CN111326163B (zh) 一种声纹识别方法和装置以及设备
CN113486661A (zh) 一种文本理解方法、系统、终端设备和存储介质
CN111583932A (zh) 一种基于人声模型的声音分离方法和装置以及设备
CN111477234A (zh) 一种声纹数据注册方法和装置以及设备
CN110232919A (zh) 实时语音流提取与语音识别系统及方法
CN111210810A (zh) 模型训练方法和装置
CN110970032A (zh) 一种音箱语音交互控制的方法及装置
CN111326162B (zh) 一种声纹特征的采集方法和装置以及设备
CN206021239U (zh) 专门适用于医学预分诊的自然语言交互装置
CN111477235A (zh) 一种声纹采集方法和装置以及设备
CN116935851A (zh) 用于语音转换的方法及装置、语音转换系统、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant