CN111477235B - 一种声纹采集方法和装置以及设备 - Google Patents
一种声纹采集方法和装置以及设备 Download PDFInfo
- Publication number
- CN111477235B CN111477235B CN202010293888.8A CN202010293888A CN111477235B CN 111477235 B CN111477235 B CN 111477235B CN 202010293888 A CN202010293888 A CN 202010293888A CN 111477235 B CN111477235 B CN 111477235B
- Authority
- CN
- China
- Prior art keywords
- voice data
- voiceprint
- spliced
- module
- classification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Abstract
本发明公开了一种声纹采集方法和装置以及设备。其中,所述方法包括:获取用户的语音数据,和将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据,和构建基于该语音数据和该拼接语音数据的二分类模型,和根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据,以及提取该经预测后的语音数据的声纹特征。通过上述方式,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
Description
技术领域
本发明涉及声纹技术领域,尤其涉及一种声纹采集方法和装置以及设备。
背景技术
声纹是用电声学仪器显示的携带言语信息的声波频谱。现代科学研究表明,声纹不仅具有特定性,而且有相对稳定性的特点。成年以后,人的声音可保持长期相对稳定不变。实验证明,每个人的声纹各不相同,无论讲话者是故意模仿他人声音和语气,还是耳语轻声讲话,即使模仿得惟妙惟肖,其声纹却始终不同。
现有的声纹采集方案,一般是获取用户的语音数据,并通过从该获取的语音数据中提取声纹特征的方式来完成对该语音数据的声纹的采集,在该声纹采集过程中,该采集的声纹的准确率主要受到该获取的语音数据准确率的影响。
然而,现有的声纹采集方案,无法实现对获取的用户的语音数据的准确率进行提高,进而无法实现对基于该语音数据的声纹的准确率进行提高。
发明内容
有鉴于此,本发明的目的在于提出一种声纹采集方法和装置以及设备,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
根据本发明的一个方面,提供一种声纹采集方法,包括:获取用户的语音数据;将所述语音数据剪切成预设段数,并将所述剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据;构建基于所述语音数据和所述拼接语音数据的二分类模型;根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据;提取所述经预测后的语音数据的声纹特征。
其中,所述构建基于所述语音数据和所述拼接语音数据的二分类模型,包括:采用分别调用所述语音数据和所述拼接语音数据的音调特征,和对所述音调特征分别进行线性预测分析,并将所述经线性预测分析后的音调特征分别置入所述语音数据和所述拼接语音数据来替换原音调特征的方式,构建基于所述语音数据和所述拼接语音数据的二分类模型。
其中,所述根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据,包括:从所述二分类模型中调用声学特征,通过所述声学特征对所述语音数据进行预测得到经预测后的语音数据。
其中,在所述提取所述经预测后的语音数据的声纹特征之后,还包括:对所述声纹特征进行优化。
根据本发明的另一个方面,提供一种声纹采集装置,包括:获取模块、剪切模块、构建模块、预测模块和提取模块;所述获取模块,用于获取用户的语音数据;所述剪切模块,用于将所述语音数据剪切成预设段数,并将所述剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据;所述构建模块,用于构建基于所述语音数据和所述拼接语音数据的二分类模型;所述预测模块,用于根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据;所述提取模块,用于提取所述经预测后的语音数据的声纹特征。
其中,所述构建模块,具体用于:采用分别调用所述语音数据和所述拼接语音数据的音调特征,和对所述音调特征分别进行线性预测分析,并将所述经线性预测分析后的音调特征分别置入所述语音数据和所述拼接语音数据来替换原音调特征的方式,构建基于所述语音数据和所述拼接语音数据的二分类模型。
其中,所述预测模块,具体用于:从所述二分类模型中调用声学特征,通过所述声学特征对所述语音数据进行预测得到经预测后的语音数据。
其中,所述声纹采集装置,还包括:优化模块;所述优化模块,用于对所述声纹特征进行优化。
根据本发明的又一个方面,提供一种声纹采集设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一项所述的声纹采集方法。
根据本发明的再一个方面,提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的声纹采集方法。
可以发现,以上方案,可以获取用户的语音数据,和可以将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据,和可以构建基于该语音数据和该拼接语音数据的二分类模型,和可以根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据,以及可以提取该经预测后的语音数据的声纹特征,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
进一步的,以上方案,可以采用分别调用该语音数据和该拼接语音数据的音调特征,和对该音调特征分别进行线性预测分析,并将该经线性预测分析后的音调特征分别置入该语音数据和该拼接语音数据来替换原音调特征的方式,构建基于该语音数据和该拼接语音数据的二分类模型,这样的好处是因为该线性预测分析能够根据音调特征预测语音数据的上下文信息,能够实现通过该二分类模型提高对该语音数据的上下文信息的预测,进而能够提高对该语音数据预测的准确率。
进一步的,以上方案,可以从该二分类模型中调用声学特征,通过该声学特征对该语音数据进行预测得到经预测后的语音数据,这样的好处是因为该调用的声学特征能够使该语音数据的特征预测更加突出,进而能够提高对该语音数据预测的准确率。
进一步的,以上方案,可以对该声纹特征进行优化,这样的好处是能够实现对基于该语音数据的声纹的准确率进行进一步提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明声纹采集方法一实施例的流程示意图;
图2是本发明声纹采集方法另一实施例的流程示意图;
图3是本发明声纹采集装置一实施例的结构示意图;
图4是本发明声纹采集装置另一实施例的结构示意图;
图5是本发明声纹采集设备一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的详细描述。特别指出的是,以下实施例仅用于说明本发明,但不对本发明的范围进行限定。同样的,以下实施例仅为本发明的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种声纹采集方法,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
请参见图1,图1是本发明声纹采集方法一实施例的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括如下步骤:
S101:获取用户的语音数据。
在本实施例中,该用户可以是一个单一用户,也可以是多个用户,本发明不加以限定。
在本实施例中,可以一次性获取多个用户的语音数据,也可以分多次获取多个用户的语音数据,还可以逐一逐个用户的获取用户的语音数据等,本发明不加以限定。
在本实施例中,可以是获取同一用户的多个语音数据,也可以是获取同一用户的单个语音数据,还可以是获取多个用户的多个语音数据等,本发明不加以限定。
S102:将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据。
在本实施例中,可以将该语音数据剪切成预设的2段,也可以将该语音数据剪切成预设的3段,还可以将该语音数据剪切成预设的其它段数等,本发明不加以限定。
S103:构建基于该语音数据和该拼接语音数据的二分类模型。
其中,该构建基于该语音数据和该拼接语音数据的二分类模型,可以包括:
采用分别调用该语音数据和该拼接语音数据的音调特征,和对该音调特征分别进行LPC(Linear Predictive Coding,线性预测分析)分析,并将该经线性预测分析后的音调特征分别置入该语音数据和该拼接语音数据来替换原音调特征的方式,构建基于该语音数据和该拼接语音数据的二分类模型,这样的好处是因为该线性预测分析能够根据音调特征预测语音数据的上下文信息,能够实现通过该二分类模型提高对该语音数据的上下文信息的预测,进而能够提高对该语音数据预测的准确率。
S104:根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据。
其中,该根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据,可以包括:
从该二分类模型中调用声学特征,通过该声学特征对该语音数据进行预测得到经预测后的语音数据,这样的好处是因为该调用的声学特征能够使该语音数据的特征预测更加突出,进而能够提高对该语音数据预测的准确率。
S105:提取该经预测后的语音数据的声纹特征。
其中,在该提取该经预测后的语音数据的声纹特征之后,还可以包括:
对该声纹特征进行优化,这样的好处是能够实现对基于该语音数据的声纹的准确率进行进一步提高。
可以发现,在本实施例中,可以获取用户的语音数据,和可以将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据,和可以构建基于该语音数据和该拼接语音数据的二分类模型,和可以根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据,以及可以提取该经预测后的语音数据的声纹特征,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
进一步的,在本实施例中,可以采用分别调用该语音数据和该拼接语音数据的音调特征,和对该音调特征分别进行线性预测分析,并将该经线性预测分析后的音调特征分别置入该语音数据和该拼接语音数据来替换原音调特征的方式,构建基于该语音数据和该拼接语音数据的二分类模型,这样的好处是因为该线性预测分析能够根据音调特征预测语音数据的上下文信息,能够实现通过该二分类模型提高对该语音数据的上下文信息的预测,进而能够提高对该语音数据预测的准确率。
进一步的,在本实施例中,可以从该二分类模型中调用声学特征,通过该声学特征对该语音数据进行预测得到经预测后的语音数据,这样的好处是因为该调用的声学特征能够使该语音数据的特征预测更加突出,进而能够提高对该语音数据预测的准确率。
请参见图2,图2是本发明声纹采集方法另一实施例的流程示意图。本实施例中,该方法包括以下步骤:
S201:获取用户的语音数据。
可如上S101所述,在此不作赘述。
S202:将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据。
可如上S102所述,在此不作赘述。
S203:构建基于该语音数据和该拼接语音数据的二分类模型。
可如上S103所述,在此不作赘述。
S204:根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据。
可如上S104所述,在此不作赘述。
S205:提取该经预测后的语音数据的声纹特征。
可如上S105所述,在此不作赘述。
S206:对该声纹特征进行优化。
可以发现,在本实施例中,可以对该声纹特征进行优化,这样的好处是能够实现对基于该语音数据的声纹的准确率进行进一步提高。
本发明还提供一种声纹采集装置,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
请参见图3,图3是本发明声纹采集装置一实施例的结构示意图。本实施例中,该声纹采集装置30包括获取模块31、剪切模块32、构建模块33、预测模块34和提取模块35。
该获取模块31,用于获取用户的语音数据。
该剪切模块32,用于将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据。
该构建模块33,用于构建基于该语音数据和该拼接语音数据的二分类模型。
该预测模块34,用于根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据。
该提取模块35,用于提取该经预测后的语音数据的声纹特征。
可选地,该构建模块33,可以具体用于:
采用分别调用该语音数据和该拼接语音数据的音调特征,和对该音调特征分别进行线性预测分析,并将该经线性预测分析后的音调特征分别置入该语音数据和该拼接语音数据来替换原音调特征的方式,构建基于该语音数据和该拼接语音数据的二分类模型。
可选地,该预测模块34,可以具体用于:
从该二分类模型中调用声学特征,通过该声学特征对该语音数据进行预测得到经预测后的语音数据。
请参见图4,图4是本发明声纹采集装置另一实施例的结构示意图。区别于上一实施例,本实施例所述声纹采集装置40还包括优化模块41。
该优化模块41,用于对该声纹特征进行优化。
该声纹采集装置30/40的各个单元模块可分别执行上述方法实施例中对应步骤,故在此不对各单元模块进行赘述,详细请参见以上对应步骤的说明。
本发明又提供一种声纹采集设备,如图5所示,包括:至少一个处理器51;以及,与至少一个处理器51通信连接的存储器52;其中,存储器52存储有可被至少一个处理器51执行的指令,指令被至少一个处理器51执行,以使至少一个处理器51能够执行上述的声纹采集方法。
其中,存储器52和处理器51采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器51和存储器52的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器51处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器51。
处理器51负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器52可以被用于存储处理器51在执行操作时所使用的数据。
本发明再提供一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
可以发现,以上方案,可以获取用户的语音数据,和可以将该语音数据剪切成预设段数,并将该剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据,和可以构建基于该语音数据和该拼接语音数据的二分类模型,和可以根据该二分类模型,对该语音数据进行预测得到经预测后的语音数据,以及可以提取该经预测后的语音数据的声纹特征,能够实现对获取的用户语音数据的准确率进行提高,进而能够实现对基于该语音数据的声纹的准确率进行提高。
进一步的,以上方案,可以采用分别调用该语音数据和该拼接语音数据的音调特征,和对该音调特征分别进行线性预测分析,并将该经线性预测分析后的音调特征分别置入该语音数据和该拼接语音数据来替换原音调特征的方式,构建基于该语音数据和该拼接语音数据的二分类模型,这样的好处是因为该线性预测分析能够根据音调特征预测语音数据的上下文信息,能够实现通过该二分类模型提高对该语音数据的上下文信息的预测,进而能够提高对该语音数据预测的准确率。
进一步的,以上方案,可以从该二分类模型中调用声学特征,通过该声学特征对该语音数据进行预测得到经预测后的语音数据,这样的好处是因为该调用的声学特征能够使该语音数据的特征预测更加突出,进而能够提高对该语音数据预测的准确率。
进一步的,以上方案,可以对该声纹特征进行优化,这样的好处是能够实现对基于该语音数据的声纹的准确率进行进一步提高。
在本发明所提供的几个实施方式中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的部分实施例,并非因此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效装置或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (8)
1.一种声纹采集方法,其特征在于,包括:
获取用户的语音数据;
将所述语音数据剪切成预设段数,并将所述剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据;
构建基于所述语音数据和所述拼接语音数据的二分类模型,具体包括:采用分别调用所述语音数据和所述拼接语音数据的音调特征,和对所述音调特征分别进行线性预测分析,并将经线性预测分析后的音调特征分别置入所述语音数据和所述拼接语音数据来替换原音调特征的方式,构建基于所述语音数据和所述拼接语音数据的二分类模型;
根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据;
提取所述经预测后的语音数据的声纹特征。
2.如权利要求1所述的声纹采集方法,其特征在于,所述根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据,包括:
从所述二分类模型中调用声学特征,通过所述声学特征对所述语音数据进行预测得到经预测后的语音数据。
3.如权利要求1所述的声纹采集方法,其特征在于,在所述提取所述经预测后的语音数据的声纹特征之后,还包括:
对所述声纹特征进行优化。
4.一种声纹采集装置,其特征在于,包括:
获取模块、剪切模块、构建模块、预测模块和提取模块;
所述获取模块,用于获取用户的语音数据;
所述剪切模块,用于将所述语音数据剪切成预设段数,并将所述剪切成预设段数的语音数据按原顺序进行拼接得到拼接语音数据;
所述构建模块,用于构建基于所述语音数据和所述拼接语音数据的二分类模型,具体用于:采用分别调用所述语音数据和所述拼接语音数据的音调特征,和对所述音调特征分别进行线性预测分析,并将经线性预测分析后的音调特征分别置入所述语音数据和所述拼接语音数据来替换原音调特征的方式,构建基于所述语音数据和所述拼接语音数据的二分类模型;
所述预测模块,用于根据所述二分类模型,对所述语音数据进行预测得到经预测后的语音数据;
所述提取模块,用于提取所述经预测后的语音数据的声纹特征。
5.如权利要求4所述的声纹采集装置,其特征在于,所述预测模块,具体用于:
从所述二分类模型中调用声学特征,通过所述声学特征对所述语音数据进行预测得到经预测后的语音数据。
6.如权利要求4所述的声纹采集装置,其特征在于,所述声纹采集装置,还包括:
优化模块;
所述优化模块,用于对所述声纹特征进行优化。
7.一种声纹采集设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3中任一项所述的声纹采集方法。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至3中任一项所述的声纹采集方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010293888.8A CN111477235B (zh) | 2020-04-15 | 2020-04-15 | 一种声纹采集方法和装置以及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010293888.8A CN111477235B (zh) | 2020-04-15 | 2020-04-15 | 一种声纹采集方法和装置以及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111477235A CN111477235A (zh) | 2020-07-31 |
CN111477235B true CN111477235B (zh) | 2023-05-05 |
Family
ID=71752573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010293888.8A Active CN111477235B (zh) | 2020-04-15 | 2020-04-15 | 一种声纹采集方法和装置以及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111477235B (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106782565A (zh) * | 2016-11-29 | 2017-05-31 | 重庆重智机器人研究院有限公司 | 一种声纹特征识别方法及系统 |
CN108040032A (zh) * | 2017-11-02 | 2018-05-15 | 阿里巴巴集团控股有限公司 | 一种声纹认证方法、账号注册方法及装置 |
CN107993071A (zh) * | 2017-11-21 | 2018-05-04 | 平安科技(深圳)有限公司 | 电子装置、基于声纹的身份验证方法及存储介质 |
CN108564956B (zh) * | 2018-03-26 | 2021-04-20 | 京北方信息技术股份有限公司 | 一种声纹识别方法和装置、服务器、存储介质 |
CN108922538B (zh) * | 2018-05-29 | 2023-04-07 | 平安科技(深圳)有限公司 | 会议信息记录方法、装置、计算机设备及存储介质 |
CN109346086A (zh) * | 2018-10-26 | 2019-02-15 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、计算机设备和计算机可读存储介质 |
CN109473106B (zh) * | 2018-11-12 | 2023-04-28 | 平安科技(深圳)有限公司 | 声纹样本采集方法、装置、计算机设备及存储介质 |
CN110246503A (zh) * | 2019-05-20 | 2019-09-17 | 平安科技(深圳)有限公司 | 黑名单声纹库构建方法、装置、计算机设备和存储介质 |
CN111009238B (zh) * | 2020-01-02 | 2023-06-23 | 厦门快商通科技股份有限公司 | 一种拼接语音的识别方法和装置以及设备 |
-
2020
- 2020-04-15 CN CN202010293888.8A patent/CN111477235B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111477235A (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109002510B (zh) | 一种对话处理方法、装置、设备和介质 | |
CN111009238B (zh) | 一种拼接语音的识别方法和装置以及设备 | |
CN102254555B (zh) | 改进依赖上下文的语音识别器对环境变化的鲁棒性 | |
CN105489221A (zh) | 一种语音识别方法及装置 | |
CN110942763B (zh) | 语音识别方法及装置 | |
CN104969288A (zh) | 基于话音记录日志提供话音识别系统的方法和系统 | |
CN107481715B (zh) | 用于生成信息的方法和装置 | |
CN113488024B (zh) | 一种基于语义识别的电话打断识别方法和系统 | |
CN110428835B (zh) | 一种语音设备的调节方法、装置、存储介质及语音设备 | |
CN111105786B (zh) | 一种多采样率语音识别方法、装置、系统及存储介质 | |
CN109326285A (zh) | 语音信息处理方法、装置及非暂态计算机可读存储介质 | |
CN110650250A (zh) | 语音对话的处理方法、系统、设备和存储介质 | |
CN112836037A (zh) | 话术推荐方法及装置 | |
CN107680584B (zh) | 用于切分音频的方法和装置 | |
CN110289015B (zh) | 一种音频处理方法、装置、服务器、存储介质及系统 | |
CN111210840A (zh) | 一种年龄预测方法和装置以及设备 | |
CN111477235B (zh) | 一种声纹采集方法和装置以及设备 | |
CN113327576A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN110570877B (zh) | 手语视频生成方法、电子设备及计算机可读存储介质 | |
CN111261196A (zh) | 一种年龄预估方法和装置以及设备 | |
CN111583932A (zh) | 一种基于人声模型的声音分离方法和装置以及设备 | |
CN111326163A (zh) | 一种声纹识别方法和装置以及设备 | |
CN111128234A (zh) | 一种拼接语音的识别检测方法和装置以及设备 | |
CN110046229B (zh) | 用于获取信息的方法及装置 | |
CN114706943A (zh) | 意图识别的方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |