CN112712792A - 一种方言识别模型的训练方法、可读存储介质及终端设备 - Google Patents
一种方言识别模型的训练方法、可读存储介质及终端设备 Download PDFInfo
- Publication number
- CN112712792A CN112712792A CN201911021766.7A CN201911021766A CN112712792A CN 112712792 A CN112712792 A CN 112712792A CN 201911021766 A CN201911021766 A CN 201911021766A CN 112712792 A CN112712792 A CN 112712792A
- Authority
- CN
- China
- Prior art keywords
- dialect
- voice
- recognition model
- preset
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 70
- 239000013598 vector Substances 0.000 claims description 120
- 238000001228 spectrum Methods 0.000 claims description 46
- 238000012360 testing method Methods 0.000 claims description 44
- 238000000605 extraction Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 abstract description 29
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 241001575999 Hakka Species 0.000 description 7
- 235000016278 Mentha canadensis Nutrition 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 241001672694 Citrus reticulata Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 235000013330 chicken meat Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本申请属于计算机技术领域,尤其涉及一种方言识别模型的训练方法、计算机可读存储介质及终端设备。所述方法中预设的方言识别模型根据预设的质心确定语音样本对应的输出方言类别,其中,每一个质心用于表征一种方言类别的特征;所述方言识别模型根据所述输出方言类别和与所述语音样本对应的目标方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。由于在训练过程中,使用了预设的各种方言类别的质心,而其中每一种方言类别的质心均可表征该方言类别的特征,从而为方言的识别提供了可靠的依据。
Description
技术领域
本申请属于计算机技术领域,尤其涉及一种方言识别模型的训练方法、计算机可读存储介质及终端设备。
背景技术
随着科学技术的发展,越来越多的智能设备进入人们的生活中,人们的生活变得越来越便利。目前人们和智能设备语音交互最频繁的就是家用电器和车载设备了,语音交互很大的程度上解放了人们的双手和四肢,尤其是对于不会操作复杂电子系统的老人和小孩来说,语音交互可以根据人们的口语指令很直接的操作电子系统,但是很多老年人都是不会讲普通话的,有些普通话也是夹带当地方言的。然而目前的智能设备的语音交互功能均是针对普通话进行设计的,无法对方言进行有效的识别。
发明内容
有鉴于此,本申请实施例提供了一种方言识别模型的训练方法、计算机可读存储介质及终端设备,以解决目前的智能设备的语音交互功能均是针对普通话进行设计的,无法对方言进行有效的识别的问题。
本申请实施例的第一方面提供了一种方言识别模型的训练方法,可以包括:
预设的方言识别模型根据预设的质心确定语音样本对应的输出方言类别,其中,每一个质心用于表征一种方言类别的特征;
所述方言识别模型根据所述输出方言类别和与所述语音样本对应的目标方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。
进一步地,所述方言识别模型包括词向量提取模块和分类模块;
所述根据预设的质心确定语音样本对应的输出方言类别,包括:
将所述语音样本的频谱输入所述词向量提取模块,以得到所述语音样本的词向量;
将所述语音样本的词向量输入所述分类模块,所述分类模块根据所述预设的质心和所述语音样本的词向量,得到与所述语音样本对应的输出方言类别。
进一步地,所述根据所述预设的质心和所述语音样本的词向量,得到与所述语音样本对应的输出方言类别,包括:
分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度;
将所述相似度取得最大值时所对应的方言类别确定为与所述语音样本对应的输出方言类别。
进一步地,在分别计算所述语音样本的词向量与预设的各个方言类别的质心之间的相似度之前,所述方法还包括:
针对每一种方言类别,获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数;
分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量;
计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
进一步地,所述分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度,包括:
计算所述语音样本的词向量分别与各种方言类别的质心之间的余弦相似度;
根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述语音样本的词向量分别与所述各种方言类别的质心之间的相似度。
进一步地,所述根据所述目标方言类别和所述输出方言类别,对模型参数进行调整,包括:
根据所述语音样本的词向量与各种方言类别的质心之间的相似度计算所述方言识别模型的训练损失值;
根据所述训练损失值对所述模型参数进行调整。
进一步地,在得到已训练的方言识别模型之后,还包括:
使用预设的测试数据对所述方言识别模型进行测试,并分别统计测试成功次数和测试失败次数;
根据所述测试成功次数和所述测试失败次数计算所述方言识别模型的识别准确率;
若所述识别准确率小于预设的准确率阈值,则继续对所述方言识别模型进行训练;
若所述识别准确率大于或等于所述准确率阈值,则结束对所述方言识别模型的测试。
本申请实施例的第二方面提供了一种方言识别方法,可以包括:
获取待识别的语音的频谱;
将所述待识别的语音的频谱输入已训练的方言识别模型,并获取所述方言识别模型输出的与所述待识别的语音对应的方言类别,所述方言识别模型为通过上述任意一种方言识别模型的训练方法训练得到的方言识别模型。
进一步地,所述方言识别模型包括词向量提取模块和分类模块;
所述将所述待识别的语音的频谱输入已训练的方言识别模型,并获取所述方言识别模型输出的与所述待识别的语音对应的方言类别,包括:
将所述待识别的语音的频谱输入所述词向量提取模块,以得到所述待识别的语音的词向量;
将所述待识别的语音的词向量输入所述分类模块,以得到与所述待识别的语音对应的方言类别。
进一步地,所述将所述待识别的语音的词向量输入所述分类模块,以得到与所述待识别的语音对应的方言类别,包括:
分别计算所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度;
将所述相似度取得最大值时所对应的方言类别确定为与所述待识别的语音对应的方言类别。
进一步地,在分别计算所述待识别的语音的词向量与预设的各个方言类别的质心之间的相似度之前,所述方法还包括:
针对每一种方言类别,获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数;
分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量;
计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
进一步地,所述分别计算所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度,包括:
计算所述待识别的语音的词向量分别与各种方言类别的质心之间的余弦相似度;
根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述待识别的语音的词向量分别与所述各种方言类别的质心之间的相似度。
本申请实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种方言识别模型的训练方法的步骤。
本申请实施例的第四方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种方言识别模型的训练方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中预设的方言识别模型根据预设的质心确定语音样本对应的输出方言类别,其中,每一个质心用于表征一种方言类别的特征;所述方言识别模型根据所述输出方言类别和与所述语音样本对应的目标方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。通过这样的训练方式,使用训练数据对方言识别模型进行不断地训练,在训练过程中,使用了预设的各种方言类别分别对应的质心,而其中每一种方言类别的质心均可表征该方言类别的特征,从而为方言的识别提供了可靠的依据,并根据训练结果不断地对模型参数进行调整,从而最终可以得到满足训练条件的方言识别模型。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种方言识别模型的训练方法的一个实施例流程图;
图2为训练数据的预处理过程的示意流程图;
图3为所述方言识别模型的数据处理过程的示意图;
图4为所述方言识别模型对语音样本的频谱进行处理,得到与所述语音样本对应的输出方言类别的示意流程图;
图5为本申请实施例中一种方言识别方法的一个实施例流程图;
图6为待识别的语音的预处理过程的示意流程图;
图7为所述方言识别模型对所述待识别的语音的频谱进行处理,得到与所述待识别的语音对应的方言类别的示意流程图;
图8为本申请实施例中一种终端设备的示意框图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
请参阅图1,本申请实施例中一种方言识别模型的训练方法的一个实施例可以包括:
步骤S101、预设的方言识别模型根据预设的质心确定语音样本对应的输出方言类别。
其中,每一个质心用于表征一种方言类别的特征。
所述语音样本的频谱可以由预处理设备(包括但不限于计算机、服务器等具有计算能力的终端设备)通过如图2所示的预处理过程得到:
步骤S201、获取语音样本。
所述方言识别模型在进行训练时,一般需要大量的训练数据,其中,所述训练数据可以包括多组训练数据,每组训练数据包括语音样本的频谱以及与所述语音样本对应的目标方言类别。所述训练数据的具体数目可以根据实际情况进行设置,例如,所述方言识别模型可以获取1000组、2000组、3000组或者其它数目的训练数据来进行训练。
一般地,所述语音样本可以从预设的语音样本库中获取,所述语音样本库可以通过分别采集众多的使用不同方言类别的用户的语音样本来建立,并将所述语音样本库中的所有语音样本按照不同的方言类别划分为各个语音样本集合。优选地,任意一个语音样本集合中的语音样本集合可以是从使用对应的方言类别的不同地区采集的。示例性的,若陕西方言的语音样本集合共需要采集6000句语音样本,则可以通过采集100个陕西人的语音样本,每个人采集60句;或者通过采集6000个陕西人的语音样本,每个人采集1句。且采集语音样本的对象来自陕西的不同地区,比如宝鸡,延安,西安,汉中等,进而生成陕西方言的语音样本集合。对其他地区的方言也进行同样的操作,以得到各个方言的语音样本集合。所述语音样本库中的任意一个语音样本均有与之对应的方言类别,即所述目标方言类别,例如,若某一语音样本属于陕西方言的语音样本集合,则其目标方言类别即为陕西方言。
为简便起见,可以使用方言标签来表示各种方言类别,例如,若所述语音样本库中包括5种方言类别,则可以使用方言标签0、1、2、3、4分别表示这5种方言类别。示例性的,闽南话的方言标签为0,客家话的方言标签为1,四川话的方言标签为2,上海话的方言标签为3,贵州话的方言标签为4。需要注意的是,以上仅为示例,在实际应用中,可以根据具体情况进行不同形式的方言标签的设置,本实施例对此不再赘述。
步骤S202、对所述语音样本进行处理,得到所述语音样本的频谱。
一般地,所述语音样本的原始数据格式为WAV音频格式,WAV是最接近无损的音频格式,所以其大小相对也比较大。在实际应用中,为了减少后续的计算量,可以预先将所述语音样本由WAV音频格式转换为PCM音频格式。优选地,考虑到所述语音样本中可能包含有静音信号,这些静音信号一般出现在用户说话之前的时段、用户说话之后的时段以及用户说话中途停顿的时段,并不包含任何有用的信息,因此,可以将这些静音信号从所述语音样本中去除,以减少对最终识别结果的干扰。
所述语音样本是以音波的形式来呈现的,音波的高低表示声音的大小,但是在语音识别的时候,音波并不能很好的体现语音的特点,所以要把时域的音波转换成更能体现语音特点的频谱。在本实施例中,所述频谱可以为梅尔频谱,所述梅尔频谱是一个用来代表短期音讯的频谱,其原理根基于以非线性的梅尔刻度表示的对数频谱及其线性余弦转换之上。在一种具体实现中,可以首先用傅里叶变换将所述语音样本由时域转化成频域,之后对其对数能量谱用依照梅尔刻度分布的三角滤波器组进行卷积,最后对各个滤波器的输出构成的向量进行离散余弦变换,从而得到其梅尔频谱。
在本实施例中,所述方言识别模型在获取到所述训练样本后,可以通过如图3所示的过程对所述语音样本的频谱进行处理,计算并输出与所述语音样本对应的方言类别,也即所述输出方言类别。所述方言识别模型包括词向量提取模块和分类模块,所述词向量提取模块用于根据所述语音样本的频谱提取所述语音样本的词向量,所述分类模块用于根据所述语音样本的词向量确定与所述语音样本对应的输出方言类别。
具体地,步骤S101可以包括如图4所示的过程:
步骤S1011、将所述语音样本的频谱输入所述词向量提取模块,以得到所述语音样本的词向量。
所述词向量提取模块可以是现有网络中的任意一种,如卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)等。优选地,在本实施例中可以使用长短期记忆网络(Long Short-Term Memory,LSTM)来作为所述向量提取模块,将所述语音样本的频谱输入LSTM网络,以得到所述语音样本的词向量。
本实施例中所使用的LSTM网络可以由三层循环神经网络和一层全连接层构成。所述语音样本的频谱经过各层循环神经网络的特征提取,得到一个二维特征图(如图3中步骤a所示),再经过所述全连接层的进一步高度提纯,将二维特征图转化为一个一维向量,也即所述语音样本的词向量(如图3中步骤b所示)。
词向量中的特征个数(也即词向量的长度)由所述全连接层的节点数目决定。例如,若方言类别的总数为5个,则可以将所述全连接层的节点数目也设置为5个,经所述全连接层处理后得到的词向量的特征个数也为5个。
优选地,为了防止过拟合现象的发生,也即出现模型对训练数据的识别准确率极高,但对训练数据以外的其它数据的识别准确率极低的情况,本实施例中在得到所述词向量后,可以进一步对其进行正则化处理。其中,正则化为在模型中引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称,包括但不限于L1正则化和L2正则化,本实施例中优选采用L2正则化来防止过拟合。
步骤S1012、将所述语音样本的词向量输入所述分类模块,所述分类模块根据所述预设的质心和所述语音样本的词向量,得到与所述语音样本对应的输出方言类别。
具体地,可以首先分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度。
其中,各种方言类别的质心可以预先进行计算,针对每一种方言类别,首先获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数。然后,分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量。接着,计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
现以第k种(1≤k≤K,K为方言类别的总数)方言类别的质心的计算过程为例进行说明,可以根据下式计算第k种方言类别的质心:
其中,m为与第k种方言类别对应的语音样本集合的各个语音样本的序号,1≤m≤M,ekm为与第k种方言类别对应的语音样本集合的第m个语音样本的词向量,ck为第k种方言类别的质心。
针对每一种方言类别,均执行上述的质心计算过程,即可得到各种方言类别的质心。示例性的,若共有5种方言类别,分别选取闽南话200句,客家话200句,四川话200句,上海话200句,贵州话200句,经过LSTM网络分别提取200句闽南话中每句话的词向量,并对这200句闽南话的词向量求均值,从而计算得到闽南话的质心,以此类推得到客家话的质心、四川话的质心、上海话的质心和贵州话的质心。
在分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度时,可以首先计算所述语音样本的词向量分别与各种方言类别的质心之间的余弦相似度,然后根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述语音样本的词向量分别与所述各种方言类别的质心之间的相似度。
例如,可以根据下式计算所述语音样本的词向量与各种方言类别的质心之间的相似度:
Sk=ω·cos(e,ck)+b;
其中,e为所述语音样本的词向量,cos(e,ck)为所述语音样本的词向量与第k种方言类别的质心之间的余弦相似度,ω为所述权重系数,对于不同的方言类别,所述权值系数是相同的,b为所述偏置系数,对于不同的方言类别,所述偏置系数也是相同的,Sk为所述语音样本的词向量与第k种方言类别的质心之间的相似度。
如图3中步骤c所示,在计算得到所述语音样本的词向量与预设的各种方言类别的质心之间的相似度之后,所得到的相似度结果将形成图中所示的相似度矩阵,可以将所述相似度取得最大值时所对应的方言类别确定为与所述语音样本对应的输出方言类别。例如,若所述语音样本的词向量与闽南话、客家话、四川话、上海话和贵州话这5种方言类别的质心之间的相似度分别为:S1、S2、S3、S4、S5,其中,S4的取值最大,则可以将上海话确定为与所述语音样本对应的输出方言类别。
步骤S102、所述方言识别模型根据所述目标方言类别和所述输出方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。
具体地,首先可以将所述目标方言类别和所述输出方言类别进行比对,若两者不一致,则说明模型的输出还不准确,可以计算所述方言识别模型的训练损失值,并对所述方言识别模型的模型参数进行调整。
例如,可以使用TensorFlow系统中自带的tf.nn.sparse_softmax_cross_entropy_with_logits(labels=None,logits=None)这一损失函数来计算所述方言识别模型的训练损失值,该损失函数将softmax函数和交叉熵(cross_entropy)损失函数结合起来进行计算训练损失值。其中,labels即为所述目标方言类别,logits即为所述输出方言类别y,所述输出方言类别满足:y=w*x+b,式中的x为所述方言识别模型的输入,也即所述语音样本的频谱,w和b均为所述方言识别模型的模型参数,w为所述方言识别模型的权重参数,b为所述方言识别模型的偏置参数。将所述目标方言类别(labels)和所述输出方言类别(logits)作为该损失函数的输入参数,计算得到的输出值即为所述方言识别模型的训练损失值。
本实施例中还可以根据所述语音样本的词向量与各种方言类别的质心之间的相似度计算所述方言识别模型的训练损失值。
在本实施例的第一种具体实现中,可以根据下式计算所述方言识别模型的训练损失值:
其中,Stg为所述语音样本的词向量与所述目标方言类别的质心之间的相似度,Ls为在第一种具体实现中,所述方言识别模型的训练损失值。
在本实施例的第二种具体实现中,还可以根据下式计算所述方言识别模型的训练损失值:
其中,σ为Sigmoid函数,即σ(x)=1/(1+exp(-x)),Lc为在第二种具体实现中,所述方言识别模型的训练损失值。
在本实施例的第三种具体实现中,还可以将上述两种训练损失值之和作为所述方言识别模型的训练损失值,即:
Lg=s+c;
其中,Lg为在第三种具体实现中,所述方言识别模型的训练损失值。
在计算得到所述方言识别模型的训练损失值之后,即可根据所述训练损失值对所述模型参数进行调整。
在本实施例中,假设所述方言识别模型的模型参数为W1,将所述训练损失值反向传播修改所述方言识别模型的模型参数W1,得到修改后的参数W2。修改参数之后再继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,也即开始进行下一次的训练过程,在该次训练过程中,可以对一组新的语音样本的频谱进行处理,并计算得到与该语音样本对应的训练损失值,将该训练损失值反向传播修改所述方言识别模型的模型参数W2,得到修改后的参数W3,……,以此类推,不断重复以上过程,每次训练过程均可针对一组新的语音样本进行训练,并对模型参数进行修改,直至满足预设的训练条件,其中,所述训练条件可以是训练次数达到预设的次数阈值,可选地,所述次数阈值可以是100000次;所述训练条件也可以是所述方言识别模型收敛;由于可能出现训练次数还未达到所述次数阈值,但所述方言识别模型已经收敛,可能导致重复不必要的工作;或者所述方言识别模型始终无法收敛,可能导致无限循环,无法结束训练的过程,基于上述两种情况,所述训练条件还可以是训练次数达到所述次数阈值或所述方言识别模型收敛。当满足所述训练条件,即可得到已训练的方言识别模型。
进一步地,在得到已训练的方言识别模型之后,还可以执行如下所述的测试过程:
首先,使用预设的测试数据对所述方言识别模型进行测试,并分别统计测试成功次数和测试失败次数。
所述测试数据与所述训练数据类似,也包括语音样本以及与所述语音样本对应的目标方言类别。在具体应用中,在建立所述语音样本库中,可以将其划分为两部分,一部分为所述训练数据,另一部分为所述测试数据。例如,若所述语音样本库中的每种方言类别均有6000句语音样本,则可以从中随机选取每种方言类别的500句语音样本作为该方言类别的所述测试数据,将剩余的5500句语音样本作为该方言类别的训练数据。
若某一测试数据的语音样本在经过所述方言识别模型的处理后,得到的输出方言类别与其目标方言类别一致,则该测试数据的测试成功,反之,若得到的输出方言类别与其目标方言类别不一致,则该测试数据的测试失败。在使用所有的测试数据对所述方言识别模型进行测试之后,即可分别统计得到测试成功次数和测试失败次数。
然后,根据所述测试成功次数和所述测试失败次数计算所述方言识别模型的识别准确率。
具体地,可以根据下式计算所述方言识别模型的识别准确率:
AcRt=N1/(N1+N2)
其中,N1为所述测试成功次数,N2为所述测试失败次数,AcRt为所述方言识别模型的识别准确率。
若所述识别准确率小于预设的准确率阈值,则继续对所述方言识别模型进行训练;若所述识别准确率大于或等于所述准确率阈值,则结束对所述方言识别模型的测试。所述准确率阈值可以根据实际情况进行设置,例如,可以将其设置为90%、95%、98%或者其它取值。
在具体应用中,为了便于验证测试结果,可以根据语音样本的方言类别对其进行标记,具体地,可以通过方言标签对其进行标记。示例性地,若使用10个语音样本对所述方言识别模型进行测试,且这10个语音样本均为上海话,则在输入语音样本时将其方言标签设置为[3,3,3,3,3,3,3,3,3,3],获取所述方言识别模型的输出结果,若输出结果为[0,2,1,4,3,1,2,0,2,3],很明显分类结果并不好,因此可以进一步调整模型结构和参数来优化模型,直到最终分类结果类似于[3,3,3,3,3,3,3,3,3,3]为止。
在具体应用中,为了更准确的衡量测试结果,在测试所述方言识别模型时,可以一次性使用每种方言的500个语音样本进行测试,通过所述方言识别模型来对每种方言的500个语音样本进行分类,假设共有5种方言,则最终输出的结果就是在[0,1,2,3,4]之间,根据输出结果来判断其是否满足预设的准确率阈值。具体地,通过比较输出结果和输入时标记的方言标签中相应位置的值是否相同,统计相同的个数,并计算相同个数与总数的比例,判断该比例是否大于或等于所述准确率阈值。示例性的,对于闽南话的500个语音样本,标记方言标签为[0,0,0,...,0,0,0,...,0,0,0],若测试结果为[0,0,0,....1,0,2,...,0,1,0]共500种结果,统计测试结果和方言标签值中对应位置值相同的总个数,用N表示,再计算N/500,将该比值确定为所述方言识别模型的识别准确率,并判断N/500是否大于或等于预设准确率阈值,若是,则测试结果满足要求,完成模型的构建过程。若否,则测试结果不满足要求,调整模型参数后再次对模型进行训练,直至测试结果满足要求为止。
综上所述,本申请实施例中预设的方言识别模型根据预设的各种方言类别的质心对语音样本的频谱进行处理,得到与所述语音样本对应的输出方言类别,其中,每一个质心用于表征一种方言类别的特征;所述方言识别模型根据所述输出方言类别和与所述语音样本对应的目标方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。通过这样的训练方式,使用训练数据对方言识别模型进行不断地训练,在训练过程中,使用了预设的各种方言类别分别对应的质心,而其中每一种方言类别的质心均可表征该方言类别的特征,从而为方言的识别提供了可靠的依据,并根据训练结果不断地对模型参数进行调整,从而最终可以得到满足训练条件的方言识别模型。
请参阅图5,本申请实施例中一种方言识别方法的一个实施例可以包括:
步骤S501、获取待识别的语音的频谱。
所述待识别的语音的频谱可以预先由预处理设备(包括但不限于计算机、服务器等具有计算能力的终端设备)通过如图6所示的预处理过程得到:
步骤S5011、获取待识别的语音。
所述待识别的语音可以是用户通过手机、平板电脑等终端设备的麦克风即时采集到的语音。在本实施例的一种具体使用场景中,当用户想要即时进行方言识别时,可以在采集待识别的语音之前,通过点击特定的物理按键或者虚拟按键的方式打开终端设备的方言识别模式,在这种模式下,所述终端设备可以对用户采集的每一句语音均按照后续步骤进行处理,得到与该语音对应的方言类别,具体的处理过程将在后面进行详细介绍。
所述待识别的语音还可以是原本已存储在所述终端设备中的语音,或者是所述终端设备通过网络从云服务器或者其它终端设备处所获取到的语音。在本实施例的另一种具体使用场景中,当用户想要对已有的某一句或者多句待识别的语音进行方言识别时,可以通过点击特定的物理按键或者虚拟按键的方式打开终端设备的方言识别模式,并选定这些待识别的语音(点击按键和选定语音的顺序可以互换,即也可以先选定语音,再打开终端设备的方言识别模式),则所述终端设备可以对这些待识别的语音按照后续步骤进行处理,得到与这些语音对应的方言类别,具体的处理过程将在后面进行详细介绍。
步骤S5012、对所述待识别的语音进行处理,得到所述待识别的语音的频谱。
一般地,所述待识别的语音的原始数据格式为WAV音频格式,WAV是最接近无损的音频格式,所以其大小相对也比较大。在实际应用中,为了减少后续的计算量,可以预先将所述待识别的语音由WAV音频格式转换为PCM音频格式。优选地,考虑到所述待识别的语音中可能包含有静音信号,这些静音信号一般出现在用户说话之前的时段、用户说话之后的时段以及用户说话中途停顿的时段,并不包含任何有用的信息,因此,可以将这些静音信号从所述待识别的语音中去除,以减少对最终识别结果的干扰。
所述待识别的语音是以音波的形式来呈现的,音波的高低表示声音的大小,但是在语音识别的时候,音波并不能很好的体现语音的特点,所以要把时域的音波转换成更能体现语音特点的频谱。在本实施例中,所述频谱可以为梅尔频谱,所述梅尔频谱是一个用来代表短期音讯的频谱,其原理根基于以非线性的梅尔刻度表示的对数频谱及其线性余弦转换之上。在一种具体实现中,可以首先用傅里叶变换将所述待识别的语音由时域转化成频域,之后对其对数能量谱用依照梅尔刻度分布的三角滤波器组进行卷积,最后对各个滤波器的输出构成的向量进行离散余弦变换,从而得到其梅尔频谱。
步骤S502、将所述待识别的语音的频谱输入已训练的方言识别模型,并获取所述方言识别模型输出的与所述待识别的语音对应的方言类别。
其中,所述方言识别模型为通过上述任意一种方言识别模型的训练方法训练得到的方言识别模型。
在本实施例中,所述方言识别模型在获取到所述待识别的语音的频谱后,可以根据预设的各种方言类别分别对应的质心对所述待识别的语音的频谱进行处理,计算并输出与所述待识别的语音对应的方言类别,其中,每一个质心用于表征一种方言类别的特征。所述方言识别模型包括词向量提取模块和分类模块,所述词向量提取模块用于根据所述待识别的语音的频谱提取所述待识别的语音的词向量,所述分类模块用于根据所述待识别的语音的词向量确定与所述待识别的语音对应的方言类别。
具体地,步骤S502可以包括如图7所示的过程:
步骤S5021、将所述待识别的语音的频谱输入所述词向量提取模块,以得到所述待识别的语音的词向量。
所述词向量提取模块可以是现有网络中的任意一种,如卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)等。优选地,在本实施例中可以使用长短期记忆网络(Long Short-Term Memory,LSTM)来作为所述向量提取模块,将所述待识别的语音的频谱输入LSTM网络,以得到所述待识别的语音的词向量。
步骤S5022、将所述待识别的语音的词向量输入所述分类模块,以得到与所述待识别的语音对应的方言类别。
具体地,可以首先分别计算所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度。
其中,各种方言类别的质心可以预先进行计算,针对每一种方言类别,首先获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数。然后,分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量。接着,计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
例如,可以根据下式计算第k种方言类别的质心:
其中,m为与第k种方言类别对应的语音样本集合的各个语音样本的序号,1≤m≤M,ekm为与第k种方言类别对应的语音样本集合的第m个语音样本的词向量,ck为第k种方言类别的质心。
针对每一种方言类别,均执行上述的质心计算过程,即可得到各种方言类别的质心。示例性的,若共有5种方言类别,分别选取闽南话200句,客家话200句,四川话200句,上海话200句,贵州话200句,经过LSTM网络分别提取200句闽南话中每句话的词向量,并对这200句闽南话的词向量求均值,从而计算得到闽南话的质心,以此类推得到客家话的质心、四川话的质心、上海话的质心和贵州话的质心。
在分别计算所述待识别的语言的词向量与预设的各种方言类别的质心之间的相似度时,可以首先计算所述待识别的语言的词向量分别与各种方言类别的质心之间的余弦相似度,然后根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述待识别的语言的词向量分别与所述各种方言类别的质心之间的相似度。
例如,可以根据下式计算所述待识别的语音的词向量与各种方言类别的质心之间的相似度:
Sk=ω·cos(e,ck)+b;
其中,e为所述待识别的语音的词向量,cos(e,ck)为所述待识别的语音的词向量与第k种方言类别的质心之间的余弦相似度,ω为所述权重系数,对于不同的方言类别,所述权值系数是相同的,b为所述偏置系数,对于不同的方言类别,所述偏置系数也是相同的,Sk为所述待识别的语音的词向量与第k种方言类别的质心之间的相似度。
在计算得到所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度之后,可以将所述相似度取得最大值时所对应的方言类别确定为与所述待识别的语音对应的方言类别。例如,若所述待识别的语音的词向量与闽南话、客家话、四川话、上海话和贵州话这5种方言类别的质心之间的相似度分别为:S1、S2、S3、S4、S5,其中,S4的取值最大,则可以将上海话确定为与所述待识别的语音对应的方言类别。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图8示出了本申请实施例提供的一种终端设备的示意框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述各个方言识别模型的训练方法实施例中的步骤,例如图1所示的步骤S101至步骤S102。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备8中的执行过程。
所述终端设备8可以是手机、平板电脑、桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备8还可以包括输入输出设备、网络接入设备、总线等。
所述处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端设备8所需的其它程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (14)
1.一种方言识别模型的训练方法,其特征在于,包括:
预设的方言识别模型根据预设的质心确定语音样本对应的输出方言类别,其中,每一个质心用于表征一种方言类别的特征;
所述方言识别模型根据所述输出方言类别和与所述语音样本对应的目标方言类别,对模型参数进行调整,并继续执行所述根据预设的质心确定语音样本对应的输出方言类别的步骤,直至满足预设的训练条件,以得到已训练的方言识别模型。
2.根据权利要求1所述的方言识别模型的训练方法,其特征在于,所述方言识别模型包括词向量提取模块和分类模块;
所述根据预设的质心确定语音样本对应的输出方言类别,包括:
将所述语音样本的频谱输入所述词向量提取模块,以得到所述语音样本的词向量;
将所述语音样本的词向量输入所述分类模块,所述分类模块根据所述预设的质心和所述语音样本的词向量,得到与所述语音样本对应的输出方言类别。
3.根据权利要求2所述的方言识别模型的训练方法,其特征在于,所述根据所述预设的质心和所述语音样本的词向量,得到与所述语音样本对应的输出方言类别,包括:
分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度;
将所述相似度取得最大值时所对应的方言类别确定为与所述语音样本对应的输出方言类别。
4.根据权利要求3所述的方言识别模型的训练方法,其特征在于,在分别计算所述语音样本的词向量与预设的各个方言类别的质心之间的相似度之前,还包括:
针对每一种方言类别,获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数;
分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量;
计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
5.根据权利要求4所述的方言识别模型的训练方法,其特征在于,所述分别计算所述语音样本的词向量与预设的各种方言类别的质心之间的相似度,包括:
计算所述语音样本的词向量分别与各种方言类别的质心之间的余弦相似度;
根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述语音样本的词向量分别与所述各种方言类别的质心之间的相似度。
6.根据权利要求5所述的方言识别模型的训练方法,其特征在于,所述根据所述目标方言类别和所述输出方言类别,对模型参数进行调整,包括:
根据所述语音样本的词向量与各种方言类别的质心之间的相似度计算所述方言识别模型的训练损失值;
根据所述训练损失值对所述模型参数进行调整。
7.根据权利要求1至6中任一所述的方言识别模型的训练方法,其特征在于,在得到已训练的方言识别模型之后,还包括:
使用预设的测试数据对所述方言识别模型进行测试,并分别统计测试成功次数和测试失败次数;
根据所述测试成功次数和所述测试失败次数计算所述方言识别模型的识别准确率;
若所述识别准确率小于预设的准确率阈值,则继续对所述方言识别模型进行训练;
若所述识别准确率大于或等于所述准确率阈值,则结束对所述方言识别模型的测试。
8.一种方言识别方法,其特征在于,包括:
获取待识别的语音的频谱;
将所述待识别的语音的频谱输入已训练的方言识别模型,并获取所述方言识别模型输出的与所述待识别的语音对应的方言类别,所述方言识别模型为权利要求1至7中任一项所述的方言识别模型。
9.根据权利要求8所述的方言识别方法,其特征在于,所述方言识别模型包括词向量提取模块和分类模块;
所述将所述待识别的语音的频谱输入已训练的方言识别模型,并获取所述方言识别模型输出的与所述待识别的语音对应的方言类别,包括:
将所述待识别的语音的频谱输入所述词向量提取模块,以得到所述待识别的语音的词向量;
将所述待识别的语音的词向量输入所述分类模块,以得到与所述待识别的语音对应的方言类别。
10.根据权利要求9所述的方言识别方法,其特征在于,所述将所述待识别的语音的词向量输入所述分类模块,以得到与所述待识别的语音对应的方言类别,包括:
分别计算所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度;
将所述相似度取得最大值时所对应的方言类别确定为与所述待识别的语音对应的方言类别。
11.根据权利要求10所述的方言识别方法,其特征在于,在分别计算所述待识别的语音的词向量与预设的各个方言类别的质心之间的相似度之前,还包括:
针对每一种方言类别,获取与该方言类别对应的语音样本集合,其中,所述语音样本集合中包括M个语音样本,M为正整数;
分别计算所述语音样本集合中的各个语音样本的词向量,得到M个词向量;
计算所述M个词向量的平均值,并将所述平均值确定为该方言类别的质心。
12.根据权利要求10所述的方言识别方法,其特征在于,所述分别计算所述待识别的语音的词向量与预设的各种方言类别的质心之间的相似度,包括:
计算所述待识别的语音的词向量分别与各种方言类别的质心之间的余弦相似度;
根据所述各种方言类别分别对应的余弦相似度,以及预设的权重系数、预设的偏置系数,计算所述待识别的语音的词向量分别与所述各种方言类别的质心之间的相似度。
13.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法的步骤。
14.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911021766.7A CN112712792A (zh) | 2019-10-25 | 2019-10-25 | 一种方言识别模型的训练方法、可读存储介质及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911021766.7A CN112712792A (zh) | 2019-10-25 | 2019-10-25 | 一种方言识别模型的训练方法、可读存储介质及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112712792A true CN112712792A (zh) | 2021-04-27 |
Family
ID=75541437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911021766.7A Pending CN112712792A (zh) | 2019-10-25 | 2019-10-25 | 一种方言识别模型的训练方法、可读存储介质及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112712792A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469338A (zh) * | 2021-06-30 | 2021-10-01 | 平安科技(深圳)有限公司 | 模型训练方法、模型训练装置、终端设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105895080A (zh) * | 2016-03-30 | 2016-08-24 | 乐视控股(北京)有限公司 | 语音识别模型训练方法、说话人类型识别方法及装置 |
US20180158463A1 (en) * | 2016-12-07 | 2018-06-07 | Interactive Intelligence Group, Inc. | System and method for neural network based speaker classification |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
CN110164415A (zh) * | 2019-04-29 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种基于语音识别的推荐方法、装置及介质 |
CN110211565A (zh) * | 2019-05-06 | 2019-09-06 | 平安科技(深圳)有限公司 | 方言识别方法、装置及计算机可读存储介质 |
CN110223699A (zh) * | 2019-05-15 | 2019-09-10 | 桂林电子科技大学 | 一种说话人身份确认方法、装置及存储介质 |
WO2019179029A1 (zh) * | 2018-03-19 | 2019-09-26 | 平安科技(深圳)有限公司 | 电子装置、身份验证方法和计算机可读存储介质 |
-
2019
- 2019-10-25 CN CN201911021766.7A patent/CN112712792A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105895080A (zh) * | 2016-03-30 | 2016-08-24 | 乐视控股(北京)有限公司 | 语音识别模型训练方法、说话人类型识别方法及装置 |
US20180158463A1 (en) * | 2016-12-07 | 2018-06-07 | Interactive Intelligence Group, Inc. | System and method for neural network based speaker classification |
WO2019179029A1 (zh) * | 2018-03-19 | 2019-09-26 | 平安科技(深圳)有限公司 | 电子装置、身份验证方法和计算机可读存储介质 |
CN109036437A (zh) * | 2018-08-14 | 2018-12-18 | 平安科技(深圳)有限公司 | 口音识别方法、装置、计算机装置及计算机可读存储介质 |
CN110164415A (zh) * | 2019-04-29 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种基于语音识别的推荐方法、装置及介质 |
CN110211565A (zh) * | 2019-05-06 | 2019-09-06 | 平安科技(深圳)有限公司 | 方言识别方法、装置及计算机可读存储介质 |
CN110223699A (zh) * | 2019-05-15 | 2019-09-10 | 桂林电子科技大学 | 一种说话人身份确认方法、装置及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113469338A (zh) * | 2021-06-30 | 2021-10-01 | 平安科技(深圳)有限公司 | 模型训练方法、模型训练装置、终端设备及存储介质 |
CN113469338B (zh) * | 2021-06-30 | 2023-10-31 | 平安科技(深圳)有限公司 | 模型训练方法、模型训练装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680582B (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
CN110457432B (zh) | 面试评分方法、装置、设备及存储介质 | |
WO2020173133A1 (zh) | 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质 | |
CN111144127B (zh) | 文本语义识别方法及其模型的获取方法及相关装置 | |
CN109101620A (zh) | 相似度计算方法、聚类方法、装置、存储介质及电子设备 | |
CN112233698B (zh) | 人物情绪识别方法、装置、终端设备及存储介质 | |
CN111694940A (zh) | 一种用户报告的生成方法及终端设备 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
EP4198807A1 (en) | Audio processing method and device | |
WO2022141868A1 (zh) | 一种提取语音特征的方法、装置、终端及存储介质 | |
CN113205820B (zh) | 一种用于声音事件检测的声音编码器的生成方法 | |
WO2021127982A1 (zh) | 语音情感识别方法、智能装置和计算机可读存储介质 | |
CN111402922B (zh) | 基于小样本的音频信号分类方法、装置、设备及存储介质 | |
CN112632248A (zh) | 问答方法、装置、计算机设备和存储介质 | |
WO2023279691A1 (zh) | 语音分类方法、模型训练方法及装置、设备、介质和程序 | |
Nirjon et al. | sMFCC: exploiting sparseness in speech for fast acoustic feature extraction on mobile devices--a feasibility study | |
CN114595692A (zh) | 一种情绪识别方法、系统及终端设备 | |
CN112712792A (zh) | 一种方言识别模型的训练方法、可读存储介质及终端设备 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN113035230B (zh) | 认证模型的训练方法、装置及电子设备 | |
CN114822557A (zh) | 课堂中不同声音的区分方法、装置、设备以及存储介质 | |
CN112860886A (zh) | 情感分析模型的训练方法及系统 | |
CN111611379A (zh) | 一种文本信息分类方法、装置、设备及可读存储介质 | |
CN110569331A (zh) | 一种基于上下文的关联性预测方法、装置及存储设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |