CN117116253B - 初始模型的训练方法、装置、语音识别方法及装置 - Google Patents

初始模型的训练方法、装置、语音识别方法及装置 Download PDF

Info

Publication number
CN117116253B
CN117116253B CN202311376601.8A CN202311376601A CN117116253B CN 117116253 B CN117116253 B CN 117116253B CN 202311376601 A CN202311376601 A CN 202311376601A CN 117116253 B CN117116253 B CN 117116253B
Authority
CN
China
Prior art keywords
trained
voice data
text
training
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311376601.8A
Other languages
English (en)
Other versions
CN117116253A (zh
Inventor
请求不公布姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Moore Threads Technology Co Ltd
Original Assignee
Moore Threads Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Moore Threads Technology Co Ltd filed Critical Moore Threads Technology Co Ltd
Priority to CN202311376601.8A priority Critical patent/CN117116253B/zh
Publication of CN117116253A publication Critical patent/CN117116253A/zh
Application granted granted Critical
Publication of CN117116253B publication Critical patent/CN117116253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

本公开涉及信息处理技术领域,尤其涉及一种初始模型的训练方法、装置、语音识别方法及装置,所述训练方法包括:利用待训练数据训练初始模型,而后响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型。本公开实施例提供的目标模型可实现流式语音识别,且初始模型在训练阶段使用的训练样本包括了训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据,使得初始模型在流式语音识别中可进行多维度的学习,提高检测模型的识别精度。此外,有监督的训练流程也可降低模型的参数复杂性,有利于目标模型的实际部署。

Description

初始模型的训练方法、装置、语音识别方法及装置
技术领域
本公开涉及信息处理技术领域,尤其涉及一种初始模型的训练方法、装置、语音识别方法及装置。
背景技术
语音识别功能被广泛应用于人机交互、字幕生成等场景中。例如人机交互场景中,终端设备可将用户输入的语音转换为文字,而后通过后续的处理,对用户的意图进行分析,执行与用户意图相匹配的操作。而语音识别的精度直接与上层任务的精度相关,故如何更好地进行语音识别,是开发人员亟需解决的技术问题。
发明内容
本公开提出了一种初始模型的训练的技术方案。
根据本公开的一方面,提供了一种初始模型的训练方法,所述训练方法包括:利用待训练数据训练初始模型;其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据;所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块;响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型;其中,所述目标模型不包括所述文本特征处理模块。
在一种可能的实施方式中,所述利用待训练数据训练初始模型,包括:获取待训练语音数据、所述待训练语音数据对应的文本信息;将所述文本信息输入至训练后的至少一个文本特征检测模型中,得到所述文本信息对应的至少一个文本特征数据;其中,不同的文本特征检测模型,输出的文本特征数据不同;根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练。
在一种可能的实施方式中,所述初始模型包括:声学特征提取模块、语义特征提取模块、至少一个文本特征处理模块、与所述声学特征提取模块、所述语义特征提取模块以及所述至少一个文本特征处理模块相连的特征融合模块、与所述特征融合模块相连的文本识别模块;所述根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练,包括:通过所述声学特征提取模块,提取所述待训练语音数据的声学特征;通过所述语义特征提取模块,提取所述待训练语音数据的语义特征;通过所述至少一个文本特征处理模块,提取所述待训练语音数据的至少一个文本特征预测数据;通过所述特征融合模块,对所述声学特征、所述语义特征、所述至少一个文本特征预测数据进行特征融合,得到融合特征;通过所述文本识别模块,对所述融合特征进行识别,得到所述待训练语音数据对应的文本预测结果;根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整。
在一种可能的实施方式中,所述根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整,包括:根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;根据所述整体损失,对所述初始模型的参数进行调整。
在一种可能的实施方式中,所述第一损失对应的权重大于所述至少一个第二损失中每个第二损失对应的权重之和。
在一种可能的实施方式中,所述利用待训练数据训练初始模型,还包括:对调整后的初始模型进行剪枝,并将剪枝后的初始模型作为目标模型;其中,所述剪枝后的初始模型包括:训练后的所述声学特征提取模块、训练后的所述语义特征提取模块、训练后的特征融合模块、训练后的文本识别模块。
根据本公开的一方面,提供了一种语音识别方法,所述语音识别方法包括:实时获取待识别语音数据;将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果;其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音数据对应的文本信息。
根据本公开的一方面,提供了一种初始模型的训练装置,所述训练装置包括:训练模块,用以利用待训练数据训练初始模型;其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据;所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块;模型生成模块,用以响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型;其中,所述目标模型不包括所述文本特征处理模块。
根据本公开的一方面,提供了一种语音识别装置,所述语音识别装置包括:语音获取模块,用以实时获取待识别语音数据;识别结果生成模块,用以将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果;其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音对应的文本信息。
根据本公开的一方面,提供了一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行所述的初始模型的训练方法、所述的语音识别方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现所述的初始模型的训练方法、所述的语音识别方法。
在本公开实施例中,可利用待训练数据训练初始模型,而后响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型。本公开实施例提供的目标模型可实现流式语音识别,且初始模型在训练阶段使用的训练样本包括了训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据,使得初始模型在流式语音识别中可进行多维度的学习,提高检测模型的识别精度。此外,有监督的训练流程也可降低模型的参数复杂性,有利于目标模型的实际部署。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出了根据本公开实施例提供的初始模型的训练方法的流程图。
图2示出了根据本公开实施例提供的一种初始模型的参考示意图。
图3示出了根据本公开实施例提供的一种初始模型的训练方法的参考示意图。
图4示出了根据本公开实施例提供的一种初始模型的训练装置的框图。
图5示出了根据本公开实施例提供的一种语音识别方法的流程图。
图6示出了根据本公开实施例提供的一种语音识别装置的框图。
图7示出了根据本公开实施例提供的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
相关技术中,语音识别方案通常包括非流式语音识别与流式语音识别。非流式语音识别是指用户上传一段完整的音频后,才对这段音频进行语音识别,得到识别结果。该处理方式存在以下问题:用户在明确结束这段音频之前(例如:关闭麦克风),电子设备并不能得到识别结果的及时反馈,用户体验感较差。但是与流式语音识别相比,由于其可以在识别过程中同时得到上下文信息,故识别精度较高。而流式语音识别是在用户输入语音的同时,实时对用户的语音进行识别,实时生成识别结果,用户体验感较好,但是相较于流式语音识别精度较低。此外,训练所需的数据集在相关技术中也较为匮乏,若使用无监督的训练方式,则训练后的机器学习模型的模型参数较为复杂,难以应用于实际部署中。
有鉴于此,本公开实施例提供了一种初始模型的训练方法,可利用待训练数据训练初始模型,而后响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型。本公开实施例提供的目标模型可实现流式语音识别,且初始模型在训练阶段使用的训练样本包括了训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据,使得初始模型在流式语音识别中可进行多维度的学习,提高检测模型的识别精度。此外,有监督的训练流程也可降低模型的参数复杂性,有利于目标模型的实际部署。
参考图1所示,图1示出了根据本公开实施例提供的初始模型的训练方法的流程图,结合图1,所述训练方法包括:步骤S100,利用待训练数据训练初始模型。其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据。所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块。示例性地,上述文本特征数据可用以表示待训练语音对应的文本信息中的文本特征,可参考相关技术中自然语言处理中的文本特征,本公开实施例在此不做限制,可表现为序列的形式。上述文本信息为待训练语音数据转换为文字情况下得到的文本。示例性地,待训练语音数据、待训练语音数据对应的文本信息可为相关技术中的语音检测相关的训练数据集,以降低训练样本的获取成本。在一个示例中,所述至少一个文本特征数据,包括以下至少一项:词性特征数据、命名实体特征数据、单词特征数据。其中,所述词性特征数据包括待训练语音数据对应的文本信息中依序排列的多个单词中每个单词对应的词性。所述命名实体特征数据包括待训练语音数据对应的文本信息中依序排列的多个单词中的每个命名实体。所述单词特征数据包括待训练语音数据对应的文本信息中依序排列的多个单词。例如文本信息为“我想要买一张北京的火车票”,则其对应的单词特征数据可为{我、想要、买、一张、北京的、火车票},其对应的词性特征数据可为{名词、动词、量词、形容词、名词},其对应的命名实体特征数据可为{我、想要、北京、火车票}。
步骤S200,响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型。其中,所述目标模型不包括所述文本特征处理模块。示例性地,上述训练完成条件可为初始模型达到相关技术中的收敛状态、训练次数达到预设次数、准确率达到预设准确率等,本公开实施例在此不做限制。
在一种可能的实施方式中,步骤S200中,所述利用待训练数据训练初始模型,包括:获取待训练语音数据、所述待训练语音数据对应的文本信息。而后将所述文本信息输入至训练后的至少一个文本特征检测模型中,得到所述文本信息对应的至少一个文本特征数据。其中,不同的文本特征检测模型,输出的文本特征数据不同。示例性地,每个文本特征检测模型对应一种文本特征数据,文本特征检测模型的训练样本可为:文本信息、文本信息对应的文本特征数据,可通过有监督训练的方式对文本特征检测模型进行训练,在文本特征检测模型训练完成后,即可将待训练数据对应的文本信息输入至文本特征检测模型中,以得到该文本信息对应的文本特征数据。最终根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练。上述训练过程可参考现有技术,例如可将所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据直接输入至初始模型中,以得到预测文本,将该预测文本与文本信息进行比对,即可得到准确率,以指导初始模型进行参数调整。再例如,可对待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据进行人为或基于规则(例如:将不同的待训练语音数据的类型进行分类,以训练出针对特定类型的待训练语音数据敏感度更高的目标模型)的调整,而后进行初始模型的训练等。本公开实施例可通过文本特征检测模型,生成每个文本信息对应的文本特征数据,并作为一种监督信息对初始模型进行训练,可使得初始模型可学习到语音的声学特征、语音的多维文本特征,以提高检测模型的语音识别精度。上述文本特征检测模型的模型结构本公开实施例在此不做限制,可参考相关技术。
参阅图2所示,图2示出了根据本公开实施例提供的一种初始模型的参考示意图,结合图2,在一种可能的实施方式中,所述初始模型包括:声学特征提取模块、语义特征提取模块、至少一个文本特征处理模块、与所述声学特征提取模块、所述语义特征提取模块以及所述至少一个文本特征处理模块相连的特征融合模块、与所述特征融合模块相连的文本识别模块。所述根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音对应的至少一个文本特征数据,对初始模型进行训练,包括:通过所述声学特征提取模块,提取所述待训练语音数据的声学特征。通过所述语义特征提取模块,提取所述待训练语音数据的语义特征。通过所述至少一个文本特征提取模块,提取所述待训练语音数据的至少一个文本特征预测数据。通过所述特征融合模块,对所述声学特征、所述语义特征、所述至少一个文本特征预测数据进行特征融合,得到融合特征。示例性地,上述特征融合的方式本公开实施例在此不做限制,例如可使用相关技术中的concact、add等算子,在一个示例中,特征融合模块可表现为相关技术中RNNT(Recurrent Neural Network Transducer,一种循环神经网络)中的Joint Network(或称联合网络)。而后通过所述文本识别模块,对所述融合特征进行识别,得到所述待训练语音数据对应的文本预测结果。上述文本识别模块可表现为RNNT中的Softmax网络,用以对融合特征进行归一化输出,得到文本预测结果。最终根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整。示例性地,上述调整可表现为初始模型通过损失函数进行反向传播。上述损失函数可根据开发人员的实际需求而定。在一个示例中,在初始模型训练前还可对其进行参数初始化。例如:可通过待训练语音数据、待训练语音数据对应的文本信息,对现有技术中的RNNT网络进行训练,将训练后的RNNT中的声学特征提取网络(或称Encoder)、特征融合网络(或称Jointer、Joint Network)等网络参数作为初始模型中对应模块的网络参数,以提高训练效果。
在一种可能的实施方式中,所述根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整,包括:根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失。本公开实施例在此不限定第一损失对应的损失函数的具体数值,上述差异越大,第一损失越大即可,上述损失函数可表现为RNNT中的loss1函数。而后根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失。本公开实施例在此不限定第二损失对应的损失函数的具体数值,上述差异越大,第二损失越大即可。在一个示例中,文本特征预测数据、文本特征数据(二者可表现为序列)之间的差异可使用对应的文本特征检测模型所使用的损失函数得到,开发人员也可对其进行适应性修改。根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失。示例性地,第一损失与第一损失对应的权重相乘得到第一值,至少一个第二损失与其对应的权重相乘得到至少一个第二值,可将第一值、第二值之和作为上述整体损失。应当理解的是,整体损失也可与第一值、第二值之和正相关,而后再结合实际应用场景新增其他种类的损失值至整体损失中,本公开实施例在此不做限定。最终,根据所述整体损失,对所述初始模型的参数进行调整。示例性地,可通过反向传播的方式,以整体损失为最小为检测模型的训练目标,对其进行自动化调整,本公开实施例在此不做赘述,可参考相关技术。
在一种可能的实施方式中,所述第一损失对应的权重大于所述至少一个第二损失中每个第二损失对应的权重之和。示例性地,若存在两个第二损失,每个第二损失对应的权重分别为0.2,则第一损失对应的权重可大于0.4(0.2×2)。若无其他损失,则该示例中,第一损失对应的权重可为0.6(1-0.2×2)。本公开实施例通过将第一损失对应的权重设定为最大的方式,可降低检测模型对于文本特征的敏感程度,使得检测模型更专注于声学与语义特征,可提高检测模型的检测精度。
在一种可能的实施方式中,所述利用待训练数据训练初始模型,包括:对调整后的初始模型进行剪枝,并将剪枝后的初始模型作为目标模型。其中,所述剪枝后的初始模型包括:训练后的所述声学特征提取模块、训练后的所述语义特征提取模块、训练后的特征融合模块、训练后的文本识别模块。本公开实施例考虑到实际应用场景中,用户仅输入待识别语音即可,故文本特征处理模块可被删去,此举可降低模型的参数量,以实现模型的轻量化,有利于降低目标模型的部署难度。此外,在先前的训练中已通过文本特征数据的监督学习,隐性地指导声学特征提取模块、特征融合模块学习到了文本特征数据的相关信息,故不会影响剪枝后的初始模型的检测精度。
参阅图3所示,图3示出了根据本公开实施例提供的一种初始模型的训练方法的参考示意图。结合图3,在初始模型的训练阶段,可将已有语音识别数据集(可包括上文所述的待训练语音数据、待训练语音数据对应的文本信息)中的文本(也即上文所述的文本信息)输入至多个文本特征检测模型(可参考图中命名实体模型、词性分类模型、一系列、输入文本序列,输出对应序列的模型等)中(可参考图中输入音频对应的文本),即可得到扩充后的语音识别数据集,包括音频(可参考上文所述的待训练语音数据)和对应的多个序列(可参考上文所述的文本特征数据、文本信息)。在一个示例中,可先通过已有语音识别数据集,训练一个正常的循环神经网络(RNNT)。该RNNT可包括:声学特征提取模块(或称Encoder)、语义特征提取模块(或称Predictor)、与二者相连的特征融合模块(或称Jointer、JointNetwork)、与特征融合网络相连的文本识别模块(或称Softmax层)。可通过训练后的RNNT中的网络参数,对初始模型对应的模块进行参数初始化。而后根据扩充后的语音识别数据集,训练一个多任务学习的循环神经网络(RNNT)(也即上文所述的初始模型)。在初始模型训练后,可只保留原始循环神经网络(RNNT)部分,丢弃其他任务的参数(可参考上文所述的对调整后的初始模型进行剪枝的过程),最终将丢弃其他任务的参数的、训练后的初始模型(也即上文所述的目标模型)部署上线。RNNT模型可端到端地实现语音识别,且模型学习过程中会自动对齐声学信息和语义信息(例如:可对一个字找到正确的声学边界),故提升RNNT的训练效果是十分困难的。而本公开实施例的检测模型在RNNT模型的基础上,对训练样本进行了文本特征数据的生成,通过特定的模型结构、构建新的训练样本集可将文本特征数据作为一种监督信息加入至声学信息的学习过程中,有利于提升语音识别精度。此外,最终部署上线的目标模型与原始的RNNT模型的参数量相近,也有利于目标模型的实际部署。
参阅图4所示,图4示出了根据本公开实施例提供的一种初始模型的训练装置的框图,结合图4,所述训练装置100包括:训练模块110,用以利用待训练数据训练初始模型;其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据;所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块;模型生成模块120,用以响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型;其中,所述目标模型不包括所述文本特征处理模块。
在一种可能的实施方式中,所述利用待训练数据训练初始模型,包括:获取待训练语音数据、所述待训练语音数据对应的文本信息;将所述文本信息输入至训练后的至少一个文本特征检测模型中,得到所述文本信息对应的至少一个文本特征数据;其中,不同的文本特征检测模型,输出的文本特征数据不同;根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练。
在一种可能的实施方式中,所述初始模型包括:声学特征提取模块、语义特征提取模块、至少一个文本特征处理模块、与所述声学特征提取模块、所述语义特征提取模块以及所述至少一个文本特征处理模块相连的特征融合模块、与所述特征融合模块相连的文本识别模块;所述根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练,包括:通过所述声学特征提取模块,提取所述待训练语音数据的声学特征;通过所述语义特征提取模块,提取所述待训练语音数据的语义特征;通过所述至少一个文本特征处理模块,提取所述待训练语音数据的至少一个文本特征预测数据;通过所述特征融合模块,对所述声学特征、所述语义特征、所述至少一个文本特征预测数据进行特征融合,得到融合特征;通过所述文本识别模块,对所述融合特征进行识别,得到所述待训练语音数据对应的文本预测结果;根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整。
在一种可能的实施方式中,所述根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整,包括:根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;根据所述整体损失,对所述初始模型的参数进行调整。
在一种可能的实施方式中,所述第一损失对应的权重大于所述至少一个第二损失中每个第二损失对应的权重之和。
在一种可能的实施方式中,所述利用待训练数据训练初始模型,还包括:对调整后的初始模型进行剪枝,并将剪枝后的初始模型作为目标模型;其中,所述剪枝后的初始模型包括:训练后的所述声学特征提取模块、训练后的所述语义特征提取模块、训练后的特征融合模块、训练后的文本识别模块。
参阅图5所示,图5示出了根据本公开实施例提供的一种语音识别方法的流程图,结合图5,所述语音识别方法包括:步骤S500,实时获取待识别语音数据。示例性地,上述待识别语音可通过相关技术中的语音采集装置进行实时采集,实时获取到的待识别语音可实时输入至训练后的检测模型中,以实现流式语音识别。
步骤S600,将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果。其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音数据对应的文本信息。上述识别结果可表现为待识别语音数据对应的文本,或待识别语音数据对应的意图等,具体可视数据集结构而定,可由开发人员予以设定。
参阅图6所示,图6示出了根据本公开实施例提供的一种语音识别装置的框图,结合图6,所述语音识别装置200包括:语音获取模块210,用以实时获取待识别语音数据;识别结果生成模块220,用以将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果;其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音对应的文本信息。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种初始模型的训练方法、语音识别方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
该方法与计算机系统的内部结构存在特定技术关联,且能够解决如何提升硬件运算效率或执行效果的技术问题(包括减少数据存储量、减少数据传输量、提高硬件处理速度等),从而获得符合自然规律的计算机系统内部性能改进的技术效果。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是易失性或非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备的处理器中运行时,所述电子设备中的处理器执行上述方法。
电子设备可以被提供为终端设备、服务器或其它形态的设备。
参阅图7所示,图7示出了根据本公开实施例提供的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器或终端设备。参照图7,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如微软服务器操作系统(Windows ServerTM),苹果公司推出的基于图形用户界面操作系统(Mac OS XTM),多用户多进程的计算机操作系统(UnixTM), 自由和开放原代码的类Unix操作系统(LinuxTM),开放原代码的类Unix操作系统(FreeBSDTM)或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是(但不限于)电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种初始模型的训练方法,其特征在于,所述训练方法包括:
利用待训练数据训练初始模型;其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据;所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块;
响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型;其中,所述目标模型不包括所述文本特征处理模块;
所述利用待训练数据训练初始模型,包括:
根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;
根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;
根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;
根据所述整体损失,对所述初始模型的参数进行调整。
2.如权利要求1所述的训练方法,其特征在于,所述利用待训练数据训练初始模型,包括:
获取待训练语音数据、所述待训练语音数据对应的文本信息;
将所述文本信息输入至训练后的至少一个文本特征检测模型中,得到所述文本信息对应的至少一个文本特征数据;其中,不同的文本特征检测模型,输出的文本特征数据不同;
根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练。
3.如权利要求2所述的训练方法,其特征在于,所述初始模型包括:声学特征提取模块、语义特征提取模块、至少一个文本特征处理模块、与所述声学特征提取模块、所述语义特征提取模块以及所述至少一个文本特征处理模块相连的特征融合模块、与所述特征融合模块相连的文本识别模块;所述根据所述待训练语音数据、所述待训练语音数据对应的文本信息、所述待训练语音数据对应的至少一个文本特征数据,对初始模型进行训练,包括:
通过所述声学特征提取模块,提取所述待训练语音数据的声学特征;
通过所述语义特征提取模块,提取所述待训练语音数据的语义特征;
通过所述至少一个文本特征处理模块,提取所述待训练语音数据的至少一个文本特征预测数据;
通过所述特征融合模块,对所述声学特征、所述语义特征、所述至少一个文本特征预测数据进行特征融合,得到融合特征;
通过所述文本识别模块,对所述融合特征进行识别,得到所述待训练语音数据对应的文本预测结果;
根据所述待训练语音数据对应的文本预测结果、对应的至少一个文本特征预测数据、对应的文本信息、对应的至少一个文本特征数据,对所述初始模型的模型参数进行调整。
4.如权利要求1所述的训练方法,其特征在于,所述第一损失对应的权重大于所述至少一个第二损失中每个第二损失对应的权重之和。
5.如权利要求3所述的训练方法,其特征在于,所述利用待训练数据训练初始模型,还包括:
对调整后的初始模型进行剪枝,并将剪枝后的初始模型作为目标模型;其中,所述剪枝后的初始模型包括:训练后的所述声学特征提取模块、训练后的所述语义特征提取模块、训练后的特征融合模块、训练后的文本识别模块。
6.一种语音识别方法,其特征在于,所述语音识别方法包括:
实时获取待识别语音数据;
将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果;其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音数据对应的文本信息;
所述目标模型通过对初始模型训练得到,所述对初始模型训练包括:
根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;
根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;
根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;
根据所述整体损失,对所述初始模型的参数进行调整。
7.一种初始模型的训练装置,其特征在于,所述训练装置包括:
训练模块,用以利用待训练数据训练初始模型;其中,所述待训练数据包括待训练语音数据、待训练语音数据对应的文本信息以及待训练语音数据对应的至少一类文本特征数据;所述初始模型包括用于对所述文本特征数据进行处理的文本特征处理模块;
模型生成模块,用以响应于所述初始模型满足训练完成条件,利用所述初始模型得到目标模型;其中,所述目标模型不包括所述文本特征处理模块;
所述训练模块,用于:
根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;
根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;
根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;
根据所述整体损失,对所述初始模型的参数进行调整。
8.一种语音识别装置,其特征在于,所述语音识别装置包括:
语音获取模块,用以实时获取待识别语音数据;
识别结果生成模块,用以将所述待识别语音数据输入至目标模型中,得到所述待识别语音数据对应的识别结果;其中,所述目标模型在训练阶段使用的训练样本包括:待训练语音数据、所述待训练语音数据对应的至少一个文本特征数据、所述待训练语音对应的文本信息;
所述目标模型通过对初始模型训练得到,所述对初始模型训练包括:
根据所述待训练语音数据对应的文本预测结果与所述待训练语音数据对应的文本信息之间的差异,确定第一损失;
根据所述待训练语音数据对应的至少一个文本特征预测数据与所述待训练语音数据对应的至少一个文本特征数据之间的差异,确定至少一个第二损失;
根据所述第一损失、所述至少一个第二损失、所述第一损失对应的权重、所述至少一个第二损失中每个第二损失对应的权重,确定所述初始模型的整体损失;
根据所述整体损失,对所述初始模型的参数进行调整。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至5中任意一项所述的初始模型的训练方法、权利要求6所述的语音识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至5中任意一项所述的初始模型的训练方法、权利要求6所述的语音识别方法。
CN202311376601.8A 2023-10-23 2023-10-23 初始模型的训练方法、装置、语音识别方法及装置 Active CN117116253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311376601.8A CN117116253B (zh) 2023-10-23 2023-10-23 初始模型的训练方法、装置、语音识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311376601.8A CN117116253B (zh) 2023-10-23 2023-10-23 初始模型的训练方法、装置、语音识别方法及装置

Publications (2)

Publication Number Publication Date
CN117116253A CN117116253A (zh) 2023-11-24
CN117116253B true CN117116253B (zh) 2024-01-12

Family

ID=88796967

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311376601.8A Active CN117116253B (zh) 2023-10-23 2023-10-23 初始模型的训练方法、装置、语音识别方法及装置

Country Status (1)

Country Link
CN (1) CN117116253B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047234A (ja) * 2018-09-20 2020-03-26 アイフライテック カンパニー,リミテッド データ評価方法、装置、機器及び読み取り可能な記憶媒体
CN111312217A (zh) * 2020-02-28 2020-06-19 科大讯飞股份有限公司 语音识别方法、装置、设备及存储介质
CN113555005A (zh) * 2021-09-22 2021-10-26 北京世纪好未来教育科技有限公司 模型训练、置信度确定方法及装置、电子设备、存储介质
CN113782029A (zh) * 2021-09-22 2021-12-10 广东电网有限责任公司 语音识别模型的训练方法、装置、设备以及存储介质
CN114333759A (zh) * 2021-12-31 2022-04-12 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、语音合成方法、设备和计算机程序产品
CN115617955A (zh) * 2022-12-14 2023-01-17 数据堂(北京)科技股份有限公司 分级预测模型训练方法、标点符号恢复方法及装置
CN116312480A (zh) * 2023-02-10 2023-06-23 之江实验室 一种语音识别方法、装置、设备及可读存储介质
CN116386674A (zh) * 2023-04-13 2023-07-04 摩尔线程智能科技(北京)有限责任公司 语音情感识别方法、装置、电子设备和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047234A (ja) * 2018-09-20 2020-03-26 アイフライテック カンパニー,リミテッド データ評価方法、装置、機器及び読み取り可能な記憶媒体
CN111312217A (zh) * 2020-02-28 2020-06-19 科大讯飞股份有限公司 语音识别方法、装置、设备及存储介质
CN113555005A (zh) * 2021-09-22 2021-10-26 北京世纪好未来教育科技有限公司 模型训练、置信度确定方法及装置、电子设备、存储介质
CN113782029A (zh) * 2021-09-22 2021-12-10 广东电网有限责任公司 语音识别模型的训练方法、装置、设备以及存储介质
CN114333759A (zh) * 2021-12-31 2022-04-12 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、语音合成方法、设备和计算机程序产品
CN115617955A (zh) * 2022-12-14 2023-01-17 数据堂(北京)科技股份有限公司 分级预测模型训练方法、标点符号恢复方法及装置
CN116312480A (zh) * 2023-02-10 2023-06-23 之江实验室 一种语音识别方法、装置、设备及可读存储介质
CN116386674A (zh) * 2023-04-13 2023-07-04 摩尔线程智能科技(北京)有限责任公司 语音情感识别方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN117116253A (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN111488489B (zh) 视频文件的分类方法、装置、介质及电子设备
CN111312245B (zh) 一种语音应答方法、装置和存储介质
EP3951617A1 (en) Video description information generation method, video processing method, and corresponding devices
CN113823262B (zh) 一种语音识别方法、装置、电子设备和存储介质
CN111523640A (zh) 神经网络模型的训练方法和装置
CN116720004B (zh) 推荐理由生成方法、装置、设备及存储介质
CN117521675A (zh) 基于大语言模型的信息处理方法、装置、设备及存储介质
CN111027291A (zh) 文本中标点符号添加、模型训练方法、装置及电子设备
CN114339450A (zh) 视频评论生成方法、系统、设备及存储介质
CN112100442A (zh) 用户倾向性识别方法、装置、设备及存储介质
CN111738010A (zh) 用于生成语义匹配模型的方法和装置
CN116306603A (zh) 标题生成模型的训练方法和标题生成方法、装置和介质
WO2022246986A1 (zh) 数据处理方法、装置、设备及计算机可读存储介质
CN113963715A (zh) 语音信号的分离方法、装置、电子设备及存储介质
CN117116253B (zh) 初始模型的训练方法、装置、语音识别方法及装置
CN113239698A (zh) 基于rpa及ai的信息提取方法、装置、设备及介质
CN117370373A (zh) 数据处理方法、装置、电子设备及存储介质
CN117132923A (zh) 视频分类方法、装置、电子设备及存储介质
CN116644180A (zh) 文本匹配模型的训练方法、训练系统和文本标签确定方法
CN116386674A (zh) 语音情感识别方法、装置、电子设备和存储介质
CN111554300B (zh) 音频数据处理方法、装置、存储介质及设备
CN116913278B (zh) 语音处理方法、装置、设备和存储介质
CN116612747B (zh) 语音音素识别方法、装置、设备及存储介质
CN116029291B (zh) 关键词识别方法、装置、电子设备和存储介质
CN117057343B (zh) 道路事件识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant