CN113421556B - 语音识别方法、装置、计算机设备及存储介质 - Google Patents
语音识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113421556B CN113421556B CN202110745506.5A CN202110745506A CN113421556B CN 113421556 B CN113421556 B CN 113421556B CN 202110745506 A CN202110745506 A CN 202110745506A CN 113421556 B CN113421556 B CN 113421556B
- Authority
- CN
- China
- Prior art keywords
- information
- support
- voice
- characteristic information
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 77
- 238000013528 artificial neural network Methods 0.000 claims abstract description 62
- 238000012549 training Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种语音识别方法、装置、计算机设备及存储介质,其中,方法包括:利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;利用预先训练好的自注意力神经网络将第一特征信息转换为与识别任务相关的第二特征信息;计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,每个支撑集对应一种语音类型;确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;根据目标语音类型的音素识别规则识别待识别语音信息的音素,并根据音素生成文本。本发明能够利用与识别任务相关的特征完成语音识别,降低了对特征提取网络泛化能力的要求。
Description
技术领域
本申请涉及语音识别技术领域,特别是涉及一种语音识别方法、装置、计算机设备及存储介质。
背景技术
随着深度学习的发展,语音识别技术已经发展的很成熟,能够以高准确率语音。在语音识别的发展中,早期是通过一种基于HMM的参数技术识别语音,现在由于深度学习技术的发展,基于深度学习的语音识别技术逐渐被人们所知道。
但是目前基于深度学习的语音识别技术存在一个主要的问题,众所周知,现有的深度学习模型需要进行大量的样本数据训练,从而提高深度学习模型的特征提取网络的泛化能力,使其提取的特征信息同时满足测试集中未见过的新样本,而在样本数据较少的情况下,则会无法满足该训练要求,导致训练得到的模型的识别准确率大幅度下降,因此,现有的深度学习模型难以在样本数据较少的情况下高效准确的识别语音。
发明内容
本申请提供一种语音识别方法、装置、计算机设备及存储介质,以解决现有的语音识别模型在样本数据较少的情况下识别准确率低的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种语音识别方法,包括:利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;利用预先训练好的自注意力神经网络将第一特征信息转换为与识别任务相关的第二特征信息;计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,每个支撑集对应一种语音类型;确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;根据目标语音类型的音素识别规则识别待识别语音信息的音素,并根据音素生成文本。
作为本申请的进一步改进,还包括:预先训练特征提取网络和自注意力神经网络,包括:利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,每个支撑集对应一个语音类型,且支撑集中包括语音类型相同的多个语音信息;利用特征提取网络提取样本语音信息的第一样本特征信息,并通过自注意力神经网络将第一样本特征信息转换为与识别任务相关的第二样本特征信息;计算第二样本特征信息与每个第二支撑特征信息的相似度;确认相似度最高的第二支撑特征信息指向的支撑集对应的预测语音类型;根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络。
作为本申请的进一步改进,利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息之前,还包括:根据支撑集中的语音信息对应的文本信息对支撑集中的语音信息的音素进行强制对齐。
作为本申请的进一步改进,根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络之后,还包括:当特征提取网络和自注意力神经网络训练完成后,对训练好的自注意力神经网络转换得到的所有第二支撑特征信息进行聚类处理,得到多个聚类簇;计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,包括:计算第二特征信息与每个聚类簇的相似度,以确认相似度最高的目标聚类簇;计算第二特征信息与目标聚类簇中的每个第二支撑特征信息的相似度。
作为本申请的进一步改进,利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,包括:利用特征提取网络提取支撑集中每个语音信息的支撑特征信息,以得到多个第一支撑特征信息;利用自注意力神经网络将每个第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,以得到多个第二支撑特征信息;计算多个第二支撑特征信息的平均值,并将平均值作为支撑集的第二支撑特征信息。
作为本申请的进一步改进,特征提取网络包括CNN网络或ResNet网络中的一种。
作为本申请的进一步改进,计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,包括:分别获取第二特征信息的第一特征向量表示、支撑特征信息的第二特征向量表示;计算第一特征向量表示与第二特征向量表示之间的余弦相似度。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种语音识别装置,包括:特征提取模块,用于利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;特征转换模块,用于利用预先训练好的自注意力神经网络将第一特征信息转换为与识别任务相关的第二特征信息;相似度计算模块,用于计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,每个支撑集对应一种语音类型;确认模块,用于确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;识别模块,用于根据目标语音类型的音素识别规则识别待识别语音信息的音素,并根据音素生成文本。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种计算机设备,计算机设备包括处理器、与处理器耦接的存储器,存储器中存储有程序指令,程序指令被处理器执行时,使得处理器执行如上述中任一项语音识别方法的步骤。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种存储介质,存储介质存储有能够实现上述中任一项的语音识别方法的程序指令。
本申请的有益效果是:本发明的语音识别方法通过将特征提取网络提取的与识别任务无关的第一特征信息转换为与识别任务有关的第二特征信息,再基于该与识别任务有关的第二特征信息实现对待识别语音信息的识别,其有效地避免了与识别任务无关的第一特征信息对最终识别结果的影响,同时通过将与识别任务无关的第一特征信息转换为与识别任务有关的第二特征信息,实现了对提取到的特征的约束,使得对训练过程中未遇到过的数据也具备较好的适应能力,而且,其对样本数据的需求量大大降低,在样本数据量较少的情况下也能保证较高的识别准确率。
附图说明
图1是本发明实施例的语音识别方法的流程示意图;
图2是本发明实施例的语音识别装置的功能模块示意图;
图3是本发明实施例的计算机设备的结构示意图;
图4是本发明实施例的存储介质的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1是本发明实施例的语音识别方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该语音识别方法包括步骤:
步骤S101:利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息。
需要说明的是,该特征提取网络包括CNN网络或ResNet网络中的一种。
在步骤S101中,在接收到用户输入的待识别语音信息后,利用训练好的特征提取网络从该待识别语音信息中提取第一特征信息,该第一特征信息包括与识别任务有关的特征,也包括与识别任务无关的特征。
步骤S102:利用预先训练好的自注意力神经网络将第一特征信息转换为与识别任务相关的第二特征信息。
在步骤S102中,在特征提取网络提取到第一特征信息后,将该第一特征信息输入值训练好的自注意力神经网络中,通过自注意力神经网络将该第一特征信息转换为与识别任务相关的第二特征信息。该自注意力神经网络采用自注意力机制构建。
需要说明的是,该特征提取网络和自注意力神经网络预先训练得到,训练特征提取网络和自注意力神经网络的步骤包括:
1、利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,每个支撑集对应一个语音类型,且支撑集中包括语音类型相同的多个语音信息。
具体地,语音类型包括普通话、广东话、四川话、湖南话等各种类型的语音,每个支撑集对应一个语音类型,例如,第一个支撑集对应的语音类型是广东话,第二个支撑集对应的语音类型是四川话,而广东话对应的支撑集中的语音信息均是广东话语音信息,四川话对应的撑集中的语音信息均是四川话语音信息。需要理解的是,每个支撑集预先构建。
进一步的,为了保证提取得到的每个支撑集支撑特征信息准确,本实施例中,该利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息的步骤,具体包括:
1.1、利用特征提取网络提取支撑集中每个语音信息的支撑特征信息,以得到多个第一支撑特征信息。
1.2、利用自注意力神经网络将每个第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,以得到多个第二支撑特征信息。
1.3、计算多个第二支撑特征信息的平均值,并将平均值作为支撑集的第二支撑特征信息。
具体地,为了保证提取得到的支撑集的支撑特征信息准确,每个支撑集中均包括有多个语音信息,因此,在提取特征时,通过特征提取网络分别提取该支撑集中每个语音信息的支撑特征信息,从而得到多个第一支撑特征信息,再将该多个第一支撑特征信息分别输入至自注意力神经网络,由自注意力神经网络进行转换得到多个第二支撑特征信息,再将该多个第二支撑特征信息转换为相应的向量表示后进行平均值计算,将计算得到的平均值作为该支撑集最终的第二支撑特征信息,其利用多个属于同一语音类型的语音信息进行平均值计算的方式使得最终得到的第二支撑特征信息更加具有代表性,更能够表示该语音类型的特征。
进一步的,为了进一步提高特征提取网络提取的特征的准确性,在利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息之前,还包括:根据支撑集中的语音信息对应的文本信息对支撑集中的语音信息的音素进行强制对齐。
本实施例中,利用MFA(montreal-forced-aligner)实现音素的强制对齐。具体地,支撑集中的语音信息是预设准备好的以供参考的语音信息,其对应的文本信息可预先获知,因此,在利用特征提取网络提取特征信息之前,先利用MFA结合支撑集中语音信息对应的文本信息对支撑集中语音信息的音素进行强制对齐,预测音素的长度,根据预测的音素的长度对齐音素和相应的文本。其通过强制对齐支撑集中语音信息的音素,使得特征提取网络提取的特征准确性更高。
2、利用特征提取网络提取样本语音信息的第一样本特征信息,并通过自注意力神经网络将第一样本特征信息转换为与识别任务相关的第二样本特征信息。
本实施例中,在训练特征提取网络和自注意力神经网络之前,还需要预先构建一个查询集,该查询集中包括多个语音类型不同的语音信息,将该查询集作为训练样本以对特征提取网络和自注意力神经网络进行训练。具体地,在获取到查询集中的样本语音信息后,同样利用特征提取网络提取该样本语音信息的第一样本特征信息,再利用自注意力神经网络将该第一样本特征信息转换为与识别任务相关的第二样本特征信息。
3、计算第二样本特征信息与每个第二支撑特征信息的相似度。
具体地,在获取到样本语音信息的第二样本特征信息后,计算该第二样本特征信息与每个第二支撑特征信息的相似度。
4、确认相似度最高的第二支撑特征信息指向的支撑集对应的预测语音类型。
具体地,在计算完相似度后,从中选取一个相似度最高的第二支撑特征信息,确认该第二支撑特征信息对应的支撑集,再确认该支撑集对应的语音类型,将该语音类型作为本次识别的预测语音类型。
5、根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络。
具体地,获取该样本语音信息的实际语音类型,将该实际语音类型与预测语音类型进行比较判断,并根据比较的结果反向传播更新特征提取网络和自注意力神经网络,实现对特征提取网络和自注意力神经网络的训练。
步骤S103:计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,每个支撑集对应一种语音类型。
进一步的,在训练特征提取网络和自注意力神经网络时,根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络之后,还包括:
当特征提取网络和自注意力神经网络训练完成后,对训练好的自注意力神经网络转换得到的所有第二支撑特征信息进行聚类处理,得到多个聚类簇。
具体地,在特征提取网络和自注意力神经网络训练完成后,利用特征提取网络提取每个支撑集的第一支撑特征信息,再由自注意力神经网络将第一支撑特征信息转换为第二支撑特征信息,得到每个支撑集对应的第二支撑特征信息,再对所有的第二支撑特征信息进行聚类处理,从而将多个第二支撑特征信息聚类为多个聚类簇,每个聚类簇表示特征信息比较接近的支撑集。
步骤S103计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度的步骤,具体包括:计算第二特征信息与每个聚类簇的相似度,以确认相似度最高的目标聚类簇;计算第二特征信息与目标聚类簇中的每个第二支撑特征信息的相似度。
具体地,当计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度时,首先计算第二特征信息与每个聚类簇的相似度,选取出于该第二特征信息最相似的目标聚类簇,再将第二特征信息与目标聚类簇中的每个支撑集的第二支撑特征信息进行相似度计算,以确认最相似的第二支撑特征信息。
本实施例中,其通过对第二支撑特征信息进行聚类,在后续计算相似度时,只需要计算第二特征信息与聚类簇的相似度,以及计算第二特征信息与最相似聚类簇中每个第二支撑特征信息的相似度,而不需要计算与所有的第二支撑特征信息进行相似度计算,大大降低了数据处理量。
进一步的,在一些实施例中,步骤是103中计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度的步骤,具体包括:分别获取第二特征信息的第一特征向量表示、支撑特征信息的第二特征向量表示;计算第一特征向量表示与第二特征向量表示之间的余弦相似度。
进一步的,在一些实施例中,该第二特征信息与支撑特征信息之间的相似度还可通过欧氏距离、马氏距离、曼哈顿距离、闵可夫斯基距离、汉明距离、杰卡德相关系数、切比雪夫距离、皮尔逊相关系数来表示。
步骤S104:确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型。
在步骤S104中,当筛选出相似度最高的支撑特征信息后,确认该相似度最高的支撑特征信息对应的支撑集所属的目标语音类型。
步骤S105:根据目标语音类型的音素识别规则识别待识别语音信息的音素,并根据音素生成文本。
在步骤S105中,需要说明的是,每个语音类型的音素识别规则预先设定,在确认待识别语音信息对应的目标语音类型后,根据该目标语音类型对应的音素识别规则识别该待识别语音信息的音素,再根据音素生成文本,完成对该待识别语音信息的识别。
本发明实施例的语音识别方法通过将特征提取网络提取的与识别任务无关的第一特征信息转换为与识别任务有关的第二特征信息,再基于该与识别任务有关的第二特征信息实现对待识别语音信息的识别,其有效地避免了与识别任务无关的第一特征信息对最终识别结果的影响,同时通过将与识别任务无关的第一特征信息转换为与识别任务有关的第二特征信息,实现了对提取到的特征的约束,使得对训练过程中未遇到过的数据也具备较好的适应能力,而且,其对样本数据的需求量大大降低,在样本数据量较少的情况下也能保证较高的识别准确率。
图2是本发明实施例的语音识别装置的功能模块示意图。如图2所示,该语音识别装置20包括特征提取模块21、特征转换模块22、相似度计算模块23、确认模块24和识别模块25。
特征提取模块21,用于利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;
特征转换模块22,用于利用预先训练好的自注意力神经网络将第一特征信息转换为与识别任务相关的第二特征信息;
相似度计算模块23,用于计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度,每个支撑集对应一种语音类型;
确认模块24,用于确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;
识别模块25,用于根据目标语音类型的音素识别规则识别待识别语音信息的音素,并根据音素生成文本。
优选地,该语音识别装置20还包括训练模块,用于预先训练特征提取网络和自注意力神经网络;该训练模块执行训练特征提取网络和自注意力神经网络的操作具体包括:利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,每个支撑集对应一个语音类型,且支撑集中包括语音类型相同的多个语音信息;利用特征提取网络提取样本语音信息的第一样本特征信息,并通过自注意力神经网络将第一样本特征信息转换为与识别任务相关的第二样本特征信息;计算第二样本特征信息与每个第二支撑特征信息的相似度;确认相似度最高的第二支撑特征信息指向的支撑集对应的预测语音类型;根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络。
优选地,训练模块执行利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息的操作之前,还用于:根据支撑集中的语音信息对应的文本信息对支撑集中的语音信息的音素进行强制对齐。
优选地,训练模块执行根据预测语音类型和样本语音信息所属的实际语音类型反向更新特征提取网络和自注意力神经网络的操作之后,还用于:当特征提取网络和自注意力神经网络训练完成后,对训练好的自注意力神经网络转换得到的所有第二支撑特征信息进行聚类处理,得到多个聚类簇。
相似度计算模块23执行计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度的操作还可以为:计算第二特征信息与每个聚类簇的相似度,以确认相似度最高的目标聚类簇;计算第二特征信息与目标聚类簇中的每个第二支撑特征信息的相似度。
优选地,训练模块执行利用特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过自注意力神经网络将第一支撑特征信息转换为与识别任务相关的第二支撑特征信息的操作还可以为:利用特征提取网络提取支撑集中每个语音信息的支撑特征信息,以得到多个第一支撑特征信息;利用自注意力神经网络将每个第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,以得到多个第二支撑特征信息;计算多个第二支撑特征信息的平均值,并将平均值作为支撑集的第二支撑特征信息。
优选地,特征提取网络包括CNN网络或ResNet网络中的一种。
优选地,相似度计算模块23执行计算第二特征信息与预设的每个支撑集中支撑特征信息的相似度的操作还可以为:分别获取第二特征信息的第一特征向量表示、支撑特征信息的第二特征向量表示;计算第一特征向量表示与第二特征向量表示之间的余弦相似度。
关于上述实施例语音识别装置中各模块实现技术方案的其他细节,可参见上述实施例中的语音识别方法中的描述,此处不再赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
请参阅图3,图3为本发明实施例的计算机设备的结构示意图。如图3所示,该计算机设备30包括处理器31及和处理器31耦接的存储器32,存储器32中存储有程序指令,程序指令被处理器31执行时,使得处理器31执行上述任一实施例所述的语音识别方法的步骤。
其中,处理器31还可以称为CPU(Central Processing Unit,中央处理单元)。处理器31可能是一种集成电路芯片,具有信号的处理能力。处理器31还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图4,图4为本发明实施例的存储介质的结构示意图。本发明实施例的存储介质存储有能够实现上述任一实施例所述的语音识别方法的程序指令41,其中,该程序指令41可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等计算机设备设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的计算机设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (9)
1.一种语音识别方法,其特征在于,包括:
利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;
利用预先训练好的自注意力神经网络将所述第一特征信息转换为与识别任务相关的第二特征信息;
预先训练所述特征提取网络和所述自注意力神经网络,包括:
利用所述特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过所述自注意力神经网络将所述第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,每个所述支撑集对应一个语音类型,且所述支撑集中包括语音类型相同的多个语音信息;
利用所述特征提取网络提取样本语音信息的第一样本特征信息,并通过所述自注意力神经网络将所述第一样本特征信息转换为与识别任务相关的第二样本特征信息;
计算所述第二样本特征信息与每个所述第二支撑特征信息的相似度;
确认相似度最高的第二支撑特征信息指向的支撑集对应的预测语音类型;
根据所述预测语音类型和所述样本语音信息所属的实际语音类型反向更新所述特征提取网络和所述自注意力神经网络;
计算所述第二特征信息与预设的每个支撑集中支撑特征信息的相似度,所述每个支撑集对应一种语音类型;
确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;
根据所述目标语音类型的音素识别规则识别所述待识别语音信息的音素,并根据所述音素生成文本。
2.根据权利要求1所述的语音识别方法,其特征在于,所述利用所述特征提取网络提取支撑集中的语音信息的第一支撑特征信息之前,还包括:
根据所述支撑集中的语音信息对应的文本信息对所述支撑集中的语音信息的音素进行强制对齐。
3.根据权利要求1所述的语音识别方法,其特征在于,所述根据所述预测语音类型和所述样本语音信息所属的实际语音类型反向更新所述特征提取网络和所述自注意力神经网络之后,还包括:
当所述特征提取网络和所述自注意力神经网络训练完成后,对训练好的所述自注意力神经网络转换得到的所有所述第二支撑特征信息进行聚类处理,得到多个聚类簇;
所述计算所述第二特征信息与预设的每个支撑集中支撑特征信息的相似度,包括:
计算所述第二特征信息与每个聚类簇的相似度,以确认相似度最高的目标聚类簇;
计算所述第二特征信息与所述目标聚类簇中的每个第二支撑特征信息的相似度。
4.根据权利要求1所述的语音识别方法,其特征在于,所述利用所述特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过所述自注意力神经网络将所述第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,包括:
利用所述特征提取网络提取所述支撑集中每个语音信息的支撑特征信息,以得到多个所述第一支撑特征信息;
利用所述自注意力神经网络将每个所述第一支撑特征信息转换为与识别任务相关的所述第二支撑特征信息,以得到多个所述第二支撑特征信息;
计算多个所述第二支撑特征信息的平均值,并将所述平均值作为所述支撑集的第二支撑特征信息。
5.根据权利要求1所述的语音识别方法,其特征在于,所述特征提取网络包括CNN网络或ResNet网络中的一种。
6.根据权利要求1所述的语音识别方法,其特征在于,所述计算所述第二特征信息与每个支撑集对应的支撑特征信息的相似度,包括:
分别获取所述第二特征信息的第一特征向量表示、所述支撑特征信息的第二特征向量表示;
计算所述第一特征向量表示与所述第二特征向量表示之间的余弦相似度。
7.一种语音识别装置,其特征在于,包括:
特征提取模块,用于利用预先训练好的特征提取网络从用户输入的待识别语音信息中提取第一特征信息;
特征转换模块,用于利用预先训练好的自注意力神经网络将所述第一特征信息转换为与识别任务相关的第二特征信息;
预先训练所述特征提取网络和所述自注意力神经网络,包括:
利用所述特征提取网络提取支撑集中的语音信息的第一支撑特征信息,并通过所述自注意力神经网络将所述第一支撑特征信息转换为与识别任务相关的第二支撑特征信息,每个所述支撑集对应一个语音类型,且所述支撑集中包括语音类型相同的多个语音信息;
利用所述特征提取网络提取样本语音信息的第一样本特征信息,并通过所述自注意力神经网络将所述第一样本特征信息转换为与识别任务相关的第二样本特征信息;
计算所述第二样本特征信息与每个所述第二支撑特征信息的相似度;
确认相似度最高的第二支撑特征信息指向的支撑集对应的预测语音类型;
根据所述预测语音类型和所述样本语音信息所属的实际语音类型反向更新所述特征提取网络和所述自注意力神经网络;
相似度计算模块,用于计算所述第二特征信息与预设的每个支撑集中支撑特征信息的相似度,所述每个支撑集对应一种语音类型;
确认模块,用于确认相似度最高的支撑特征信息指向的支撑集对应的目标语音类型;
识别模块,用于根据所述目标语音类型的音素识别规则识别所述待识别语音信息的音素,并根据所述音素生成文本。
8.一种计算机设备,其特征在于,所述计算机设备包括处理器、与所述处理器耦接的存储器,所述存储器中存储有程序指令,所述程序指令被所述处理器执行时,使得所述处理器执行如权利要求1-6中任一项权利要求所述的语音识别方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如权利要求1-6中任一项所述的语音识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110745506.5A CN113421556B (zh) | 2021-06-30 | 2021-06-30 | 语音识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110745506.5A CN113421556B (zh) | 2021-06-30 | 2021-06-30 | 语音识别方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113421556A CN113421556A (zh) | 2021-09-21 |
CN113421556B true CN113421556B (zh) | 2024-02-13 |
Family
ID=77719938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110745506.5A Active CN113421556B (zh) | 2021-06-30 | 2021-06-30 | 语音识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421556B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826325A (zh) * | 2010-03-10 | 2010-09-08 | 华为终端有限公司 | 对中英文语音信号进行识别的方法和装置 |
JP2019035935A (ja) * | 2017-08-10 | 2019-03-07 | トヨタ自動車株式会社 | 音声認識装置 |
CN110517663A (zh) * | 2019-08-01 | 2019-11-29 | 北京语言大学 | 一种语种识别方法及识别系统 |
CN110808034A (zh) * | 2019-10-31 | 2020-02-18 | 北京大米科技有限公司 | 语音转换方法、装置、存储介质及电子设备 |
CN111261141A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法以及语音识别装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100682909B1 (ko) * | 2004-12-23 | 2007-02-15 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
-
2021
- 2021-06-30 CN CN202110745506.5A patent/CN113421556B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826325A (zh) * | 2010-03-10 | 2010-09-08 | 华为终端有限公司 | 对中英文语音信号进行识别的方法和装置 |
JP2019035935A (ja) * | 2017-08-10 | 2019-03-07 | トヨタ自動車株式会社 | 音声認識装置 |
CN111261141A (zh) * | 2018-11-30 | 2020-06-09 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法以及语音识别装置 |
CN110517663A (zh) * | 2019-08-01 | 2019-11-29 | 北京语言大学 | 一种语种识别方法及识别系统 |
CN110808034A (zh) * | 2019-10-31 | 2020-02-18 | 北京大米科技有限公司 | 语音转换方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113421556A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112100349B (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN110033760B (zh) | 语音识别的建模方法、装置及设备 | |
US20190279646A1 (en) | Method and apparatus for recognizing speech | |
WO2022142011A1 (zh) | 一种地址识别方法、装置、计算机设备及存储介质 | |
CN108986797B (zh) | 一种语音主题识别方法及系统 | |
CN111274797A (zh) | 用于终端的意图识别方法、装置、设备及存储介质 | |
CN106997342B (zh) | 基于多轮交互的意图识别方法和装置 | |
CN110503956B (zh) | 语音识别方法、装置、介质及电子设备 | |
CN112417855A (zh) | 文本意图识别方法、装置以及相关设备 | |
CN113051384B (zh) | 基于对话的用户画像抽取方法及相关装置 | |
Chen et al. | Towards unsupervised automatic speech recognition trained by unaligned speech and text only | |
CN112560506A (zh) | 文本语义解析方法、装置、终端设备及存储介质 | |
CN114242047B (zh) | 一种语音处理方法、装置、电子设备及存储介质 | |
CN111354354B (zh) | 一种基于语义识别的训练方法、训练装置及终端设备 | |
CN117235137B (zh) | 一种基于向量数据库的职业信息查询方法及装置 | |
CN105810192A (zh) | 语音识别方法及其系统 | |
WO2024093578A1 (zh) | 语音识别方法、装置、电子设备、存储介质及计算机程序产品 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN110347696B (zh) | 数据转换方法、装置、计算机设备以及存储介质 | |
CN112037772A (zh) | 基于多模态的响应义务检测方法、系统及装置 | |
CN112380861A (zh) | 模型训练方法、装置及意图识别方法、装置 | |
CN113421556B (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN116741155A (zh) | 语音识别方法、语音识别模型的训练方法、装置及设备 | |
CN113724698B (zh) | 语音识别模型的训练方法、装置、设备及存储介质 | |
CN112818098B (zh) | 基于知识库的对话生成方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |