CN115662399A - 日语语音模型的训练方法以及交互方法、存储介质、设备 - Google Patents
日语语音模型的训练方法以及交互方法、存储介质、设备 Download PDFInfo
- Publication number
- CN115662399A CN115662399A CN202211321530.7A CN202211321530A CN115662399A CN 115662399 A CN115662399 A CN 115662399A CN 202211321530 A CN202211321530 A CN 202211321530A CN 115662399 A CN115662399 A CN 115662399A
- Authority
- CN
- China
- Prior art keywords
- information
- semantic
- recognition model
- training
- japanese
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种日语语音模型的训练方法以及交互方法、存储介质、设备,该模型的训练方法包括:获取第一训练集,利用其中多个日语语音信息训练初始语音识别模型,得到目标语音识别模型,语音识别模型用于识别日语语音信息对应的文本;获取第二训练集,利用其中多组表记信息训练初始语义识别模型,得到目标语义识别模型,表记信息包括文本音素序列和由汉字文本表记、假名文本表记中至少一者组成的表记方式,语义识别模型用于识别文本中字或词在文本中的语义含义;将目标语音识别模型与目标语义识别模型拼接,得到日语语音交互模型。由此,能够从多种表记方式的文本中正确提取语义信息,提高语义识别正确率,并使其更符合人们日常阅读和书写习惯。
Description
技术领域
本发明涉及语音技术领域,具体涉及一种日语语音模型的训练方法以及交互方法、存储介质、设备。
背景技术
随着电子类产品智能化程度越来越高,智能交互系统越来越多的被应用,其中智能语音交互系统是体现智能化非常重要的一个。随着产品出口需求的增加,多语种语音交互技术势必成为体现出口产品智能化非常重要的技术之一。
相关技术中,语音识别和语义理解是割裂的,对于日语这种存在多种表记文本方式的语种来说,语义理解模型很难对不同表记方式的文本抽取意图和槽位。同时,单纯的从语音识别来看,很难判断哪种表记方式更符合人们日常阅读和书写的习惯。因此,使得相关技术的效果较差。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种日语语音模型的训练方法,该方法能够从多种表记方式的文本中正确提取语义信息,提高语义识别正确率,并使其更符合人们日常阅读和书写习惯。
本发明的第二个目的在于提出一种日语语音交互方法。
本发明的第三个目的在于提出一种电子设备。
本发明的第四个目的在于提出一种计算机可读存储介质。
为了实现上述目的,本发明第一方面实施例提出了一种日语语音模型的训练方法,包括:获取第一训练集,并利用所述第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,其中,语音识别模型用于识别出所述日语语音信息对应的文本;获取第二训练集,并利用所述第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,其中,所述表记信息包括文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,语义识别模型用于识别所述文本中字或词在所述文本中的语义含义;将所述目标语音识别模型与所述目标语义识别模型进行拼接,得到日语语音交互模型。
根据本发明实施例的日语语音模型的训练方法,首先获取第一训练集,并利用第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,其中,语音识别模型用于识别出日语语音信息对应的文本;获取第二训练集,并利用第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,其中,表记信息包括文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,语义识别模型用于识别文本中字或词在文本中的语义含义;将目标语音识别模型与目标语义识别模型进行拼接,得到日语语音交互模型。由此,该日语语音模型的训练方法,能够从多种表记方式的文本中正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
另外,根据本发明上述实施例提出的日语语音模型的训练方法,还可以具有如下附加的技术特征:
在本发明的一个实施例中,所述利用所述第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,包括:对多个所述日语语音信息进行表记信息标注,得到多组表记信息;基于多个所述日语语音信息的表记信息对所述初始语音识别模型进行训练,得到所述目标语音识别模型。
在本发明的一个实施例中,所述基于多个所述日语语音信息的表记信息对所述初始语音识别模型进行训练,得到所述目标语音识别模型,包括:针对每个日语语音信息,对该日语语音信息进行语音识别,得到语音状态序列,并根据所述语音状态序列得到一组预测表记信息;基于多个所述日语语音信息的表记信息,利用所述预测表记信息对所述初始语音识别模型进行有监督训练,得到所述目标语音识别模型。
在本发明的一个实施例中,所述利用所述第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,包括:对多组所述表记信息进行语音信息标注,得到多个语义信息;基于多组所述表记信息的语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型。
在本发明的一个实施例中,所述基于多组所述表记信息的语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型,包括:针对每组所述表记信息,对该组表记信息进行特征提取,得到汉字特征向量、假名特征向量和音素特征向量;对所述汉字特征向量和所述假名特征向量进行特征融合,得到文本特征向量,并对所述文本特征向量和所述音素特征向量进行特征拼接,得到拼接特征;对所述拼接特征进行解码,得到预测语义信息;基于多组所述表记信息的语义信息,利用所述预测语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型。
在本发明的一个实施例中,所述第一训练集和所述第二训练集的获取方式包括:获取日语语音信息,基于所述日语语音信息发送表记信息和语义信息;接收针对所述表记信息和所述语义信息的反馈信息,并根据所述反馈信息判断所述表记信息和所述语义信息是否符合预期;若是,则将所述日语语音信息及对应的表记信息进行保存,形成所述第一训练集,并将所述表记信息和所述语义信息进行保存,形成所述第二训练集。
为了实现上述目的,本发明第二方面实施例提出了一种日语语音交互方法,包括:获取交互日语语音;利用日语语音交互模型对所述交互日语语音进行识别,得到对应的语义信息,其中,所述日语语音交互模型根据上述的日语语音交互模型的训练方法;根据所述语义信息得到交互信息。
根据本发明实施例的日语语音交互方法,首先获取交互日语语音;利用日语语音交互模型对交互日语语音进行识别,得到对应的语义信息,其中,日语语音交互模型根据上述的日语语音交互模型的训练方法;根据语义信息得到交互信息。由此,该日语语音交互方法,能够从多种表记方式的文本中正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
另外,根据本发明上述实施例提出的日语语音交互方法,还可以具有如下附加的技术特征:
在本发明的一个实施例中,所述语义信息包括意图和槽位信息,其中,根据所述语义信息得到交互信息,包括:对所述意图和所述槽位信息进行语义格式转换,得到所述交互信息。
为了实现上述目的,本发明第三方面实施例提出了一种电子设备,包括:存储器和处理器,其中,所述存储器存储有程序指令,所述处理器从所述存储器调取所述程序指令,以执行上述的日语语音交互模型的训练方法和上述的日语语音交互方法。
根据本发明实施例的电子设备,包括存储器和处理器,其中,存储器存储有程序指令,处理器从存储器调取程序指令,以执行上述的日语语音交互模型的训练方法和日语语音交互方法。由此,通过日语语音交互模型的训练方法和日语语音交互方法,能够从多种表记方式的文本中正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
为了实现上述目的,本发明第四方面实施例提出了一种计算机可读存储介质,存储有程序文件,所述程序文件能够被执行,以实现上述的日语语音交互模型的训练方法和日语语音交互方法。
根据本发明实施例的计算机可读存储介质,其上的程序文件被执行时,实现上述的日语语音交互模型的训练方法和日语语音交互方法。由此,通过日语语音交互模型的训练方法和日语语音交互方法,能够从多种表记方式的文本中正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是本发明一个实施例的日语语音模型的训练方法的流程图;
图2是本发明一个示例的日语语音信息的语音状态序列的示意图;
图3是本发明一个示例的日语语音信息的表记信息的示意图;
图4是本发明一个示例的语义识别模型的结构示意图;
图5是本发明一个实施例的日语语音交互方法的流程图;
图6是本发明一个示例的日语语音交互方法的流程示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在语音交互模型中,一般包括语音识别模型和语义识别模型,但是语音识别模型和语义识别模型的训练是分开的,对于日语存在多种文本表记形式的语言,一方面,如果语音识别模型给到语义识别模型的是一个单一的文本,将会丢失很多信息,举例而言,语句“打开bluetooth”,对应的日语有多种表记方式,例如“bluetoothを開く”、“bluetoothをひらく”、“ブルートゥースを開く”、“ブルートゥースをひらく”等,如果语音识别模型识别出文本的表记方式为“bluetoothを開く”,那么给到语义识别模型的输入信息就丢失了每个文本其他表记方式的特征;另外一方面,如果语义识别模型也按照“bluetoothを開く”这种表记方式进行训练,可以对文本“bluetoothを開く”抽取意图和槽位信息,但是如果文本是“ブルートゥースをひらく”这种表记方式,语义识别模型就很难抽取出相应的意图和槽位信息,所以,从语音识别来看,很难判断哪种表记方式更符合人们日常阅读和书写的习惯。
因而,本发明提出一种日语语音模型的训练方法以及交互方法、存储介质、设备。
下面参考附图描述本发明实施例的日语语音模型的训练方法以及交互方法、存储介质、设备。
图1是本发明一个实施例的日语语音模型的训练方法的流程图。
如图1所示,本发明实施例的日语语音模型的训练方法包括以下步骤:
S101,获取第一训练集,并利用第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,其中,语音识别模型用于识别出日语语音信息对应的文本。
在本发明的一些实施例中,利用第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,可包括:
S201,对多个日语语音信息进行表记信息标注,得到多组表记信息。
具体地,上述表记信息包括文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,该表记信息可参照步骤S202的详细阐述。
S202,基于多个日语语音信息的表记信息对初始语音识别模型进行训练,得到目标语音识别模型。
具体地,可包括:
A1、针对每个日语语音信息,对该日语语音信息进行语音识别,得到语音状态序列,并根据语音状态序列得到一组预测表记信息。
A2、基于多个日语语音信息的表记信息,利用预测表记信息对初始语音识别模型进行有监督训练,得到目标语音识别模型。
具体而言,语音识别模型分为声学模型和语言模型两部分,其中,声学模型用于输出每个日语语音信息的语音状态序列,语言模型则是将声学模型输出的语音状态序列进行编码得到文本音素序列,然后将文本音素序列通过解码器得到一组预测表记信息。参照图2,从帧到语音状态序列,是对文本音素的一个序列编号操作,对语音状态序列中的部分进行编码,先得到该部分对应的文本音素序列“s IH k s”,然后将该文本音素序列通过解码器,得到对应的识别文本“six”。
然而,在本发明实施例中,针对每个日语语音信息,对其进行语音识别,得到语音状态序列,先对语音状态序列编码得到文本音素序列,再对文本音素序列解码,此处的解码器不仅输出单一的文本序列,同时输出该文本序列对应的文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,即每个日语语音信息的预测表记信息。举例而言,将“打开bluetooth”输入至语音识别模型中训练,得到一组预测表记信息,可参照图3。
S102,获取第二训练集,并利用第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,其中,语义识别模型用于识别所述文本中字或词在文本中的语义含义。
在本发明的一些实施例中,利用第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,可包括:
S301,对多组表记信息进行语音信息标注,得到多个语义信息。
S302,基于多组表记信息的语义信息对初始语义识别模型进行训练,得到目标语义识别模型。
具体地,可包括:
B1、针对每组表记信息,对该组表记信息进行特征提取,得到汉字特征向量、假名特征向量和音素特征向量。
B2、对汉字特征向量和假名特征向量进行特征融合,得到文本特征向量,并对文本特征向量和音素特征向量进行特征拼接,得到拼接特征。
B3、对拼接特征进行解码,得到预测语义信息。
B4、基于多组表记信息的语义信息,利用预测语义信息对初始语义识别模型进行训练,得到目标语义识别模型。
具体而言,语义识别模型包括意图模型和ner模型,意图模型用来抽取日语语音信息对应文本的意图,ner模型用来抽取日语语音信息对应文本的实体槽位,例如,“打开bluetooth”,意图为open,实体槽位为bluetooth。其中,ner模型的结构可参照图4,首先将多种表记方式的特征向量即汉字特征向量和假名特征向量进行特征融合,得到文本特征向量,然后对文本特征向量和音素特征向量进行特征拼接,得到拼接特征,将拼接特征输入多层transformer和隐含层进行解码,最后得到文本中的实体槽位信息为“bluetooth”,同理,意图模型此处不做赘述。最终,在拼接特征进行解码后,得到预测语义信息,该预测语义信息包括文本的意图和实体槽位信息。
在本发明的一些实施例中,第一训练集和第二训练集的获取方式包括:
S401,获取日语语音信息,基于日语语音信息发送表记信息和语义信息。
S402,接收针对表记信息和语义信息的反馈信息,并根据反馈信息判断表记信息和语义信息是否符合预期。
S403,若是,则将日语语音信息及对应的表记信息进行保存,形成第一训练集,并将表记信息和语义信息进行保存,形成第二训练集。
S103,将目标语音识别模型与目标语义识别模型进行拼接,得到日语语音交互模型。
在本发明实施例中,通过语音识别模型和语义识别模型的联合训练优化,将日语中汉字文本表记和假名文本表记方式的文本特征进行融合,并与文本音素特征拼接,从而使得在语义识别时,不论识别文本时汉字文本表记方式还是假名文本表记方式,或者时二者混合的表记方式,均能够很好地抽取语音信息,同时,可以根据语义识别的结果,对其进行语义格式转换,优化交互信息的展现形式,从而提升整个日语语音交互模型的交互效果和智能性。
综上,本发明实施例的日语语音交互模型的训练方法,首先获取第一训练集,并利用第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,其中,语音识别模型用于识别出日语语音信息对应的文本;获取第二训练集,并利用第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,其中,表记信息包括文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,语义识别模型用于识别文本中字或词在文本中的语义含义;将目标语音识别模型与目标语义识别模型进行拼接,得到日语语音交互模型。由此,该日语语音交互模型的训练方法,通过目标语音识别模型与目标语义识别模型的拼接,融合多种表记方式的文本特征,从而正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
进一步地,本发明提出一种日语语音交互方法。
图5是本发明一个实施例的日语语音交互方法的流程图。
如图5所示,本发明实施例的日语语音交互方法包括以下步骤:
S501,获取交互日语语音。
S502,利用日语语音交互模型对交互日语语音进行识别,得到对应的语义信息,其中,日语语音交互模型根据上述的日语语音交互模型的训练方法。
S503,根据语义信息得到交互信息。
在本发明的一些实施例中,语义信息包括意图和槽位信息,其中,根据语义信息得到交互信息,可包括:对意图和槽位信息进行语义格式转换,得到交互信息。
具体地,在利用日语语音交互模型对交互日语语音进行识别后,得到对应的意图和槽位信息,并对其进行语义格式转换,转换成预先指定好的语义协议格式,该语义协议格式可根据不同的交互场景中用户的日常阅读和书写习惯进行设置。
为了更好地理解本发明实施例的日语语音交互方法,可参照图6对其进行阐述。
如图6所示,获取交互日语语音,首先,对交互日语语音信息进行语音识别,先利用语音识别模型中的声学模型输出交互日语语音信息的语音状态序列,再利用语音识别模型中的语言模型将声学模型输出的语音状态序列进行编码得到文本音素序列,并将文本音素序列通过解码器得到交互日语语音信息的表记信息,即文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式。
进一步地,将交互日语语音信息的表记信息输入至语义识别模型中,首先,对表记信息进行特征提取,得到汉字特征向量、假名特征向量和音素特征向量,并对汉字特征向量和假名特征向量进行特征融合,得到文本特征向量,然后对文本特征向量和音素特征向量进行特征拼接,得到拼接特征。
进一步地,对拼接特征进行解码,得到交互日语语音信息的语义信息,最后对其进行语义格式转换,得到交互信息,从而满足用户的日常阅读和书写习惯。
综上,本发明实施例的日语语音交互方法,首先获取交互日语语音,利用日语语音交互模型对交互日语语音进行识别,得到对应的语义信息,其中,日语语音交互模型根据上述的日语语音交互模型的训练方法,根据语义信息得到交互信息。由此,该日语语音交互方法,通过利用目标语音识别模型与目标语义识别模型的拼接,融合多种表记方式的文本特征,从而正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
进一步地,本发明提出一种电子设备。
在本发明实施例中,电子设备包括存储器和处理器,其中,存储器存储有程序指令,处理器从存储器调取程序指令,以执行的日语语音交互模型的训练方法和日语语音交互方法。
本发明实施例的电子设备,在其上的程序指令被处理器调取时,执行上述的日语语音交互模型的训练方法和日语语音交互方法。由此,日语语音交互模型的训练方法和日语语音交互方法,通过利用目标语音识别模型与目标语义识别模型的拼接,融合多种表记方式的文本特征,从而正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
进一步地,本发明提出一种计算机可读存储介质。
在本发明实施例中,计算机可读存储介质存储有程序文件,程序文件能够被执行,以实现日语语音交互模型的训练方法和日语语音交互方法。
本发明实施例的计算机可读存储介质,在其上的程序指令被执行时,实现上述的日语语音交互模型的训练方法和日语语音交互方法。由此,日语语音交互模型的训练方法和日语语音交互方法,通过利用目标语音识别模型与目标语义识别模型的拼接,融合多种表记方式的文本特征,从而正确提取语义信息,提高语义识别的正确率,并使得交互信息更符合人们日常阅读和书写习惯。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种日语语音交互模型的训练方法,其特征在于,包括:
获取第一训练集,并利用所述第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,其中,语音识别模型用于识别出所述日语语音信息对应的文本;
获取第二训练集,并利用所述第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,其中,所述表记信息包括文本音素序列和由汉字文本表记、假名文本表记中的至少一者组成的表记方式,语义识别模型用于识别所述文本中字或词在所述文本中的语义含义;
将所述目标语音识别模型与所述目标语义识别模型进行拼接,得到日语语音交互模型。
2.根据权利要求1所述的日语语音交互模型的训练方法,其特征在于,所述利用所述第一训练集中的多个日语语音信息对初始语音识别模型进行训练,得到目标语音识别模型,包括:
对多个所述日语语音信息进行表记信息标注,得到多组表记信息;
基于多个所述日语语音信息的表记信息对所述初始语音识别模型进行训练,得到所述目标语音识别模型。
3.根据权利要求2所述的日语语音交互模型的训练方法,其特征在于,所述基于多个所述日语语音信息的表记信息对所述初始语音识别模型进行训练,得到所述目标语音识别模型,包括:
针对每个日语语音信息,对该日语语音信息进行语音识别,得到语音状态序列,并根据所述语音状态序列得到一组预测表记信息;
基于多个所述日语语音信息的表记信息,利用所述预测表记信息对所述初始语音识别模型进行有监督训练,得到所述目标语音识别模型。
4.根据权利要求1所述的日语语音交互模型的训练方法,其特征在于,所述利用所述第二训练集中的多组表记信息对初始语义识别模型进行训练,得到目标语义识别模型,包括:
对多组所述表记信息进行语音信息标注,得到多个语义信息;
基于多组所述表记信息的语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型。
5.根据权利要求4所述的日语语音交互模型的训练方法,其特征在于,所述基于多组所述表记信息的语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型,包括:
针对每组所述表记信息,对该组表记信息进行特征提取,得到汉字特征向量、假名特征向量和音素特征向量;
对所述汉字特征向量和所述假名特征向量进行特征融合,得到文本特征向量,并对所述文本特征向量和所述音素特征向量进行特征拼接,得到拼接特征;
对所述拼接特征进行解码,得到预测语义信息;
基于多组所述表记信息的语义信息,利用所述预测语义信息对所述初始语义识别模型进行训练,得到所述目标语义识别模型。
6.根据权利要求1所述的日语语音交互模型的训练方法,其特征在于,所述第一训练集和所述第二训练集的获取方式包括:
获取日语语音信息,基于所述日语语音信息发送表记信息和语义信息;
接收针对所述表记信息和所述语义信息的反馈信息,并根据所述反馈信息判断所述表记信息和所述语义信息是否符合预期;
若是,则将所述日语语音信息及对应的表记信息进行保存,形成所述第一训练集,并将所述表记信息和所述语义信息进行保存,形成所述第二训练集。
7.一种日语语音交互方法,其特征在于,包括:
获取交互日语语音;
利用日语语音交互模型对所述交互日语语音进行识别,得到对应的语义信息,其中,所述日语语音交互模型根据权利要求1-6中任一项所述的日语语音交互模型的训练方法;
根据所述语义信息得到交互信息。
8.根据权利要求7所述的日语语音交互方法,其特征在于,所述语义信息包括意图和槽位信息,其中,根据所述语义信息得到交互信息,包括:
对所述意图和所述槽位信息进行语义格式转换,得到所述交互信息。
9.一种电子设备,其特征在于,包括:存储器和处理器,其中,所述存储器存储有程序指令,所述处理器从所述存储器调取所述程序指令,以执行如权利要求1-6任一项所述的日语语音交互模型的训练方法和如权利要求7或8所述的日语语音交互方法。
10.一种计算机可读存储介质,其特征在于,存储有程序文件,所述程序文件能够被执行,以实现如权利要求1-6任一项所述的日语语音交互模型的训练方法和如权利要求7或8所述的日语语音交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321530.7A CN115662399A (zh) | 2022-10-26 | 2022-10-26 | 日语语音模型的训练方法以及交互方法、存储介质、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321530.7A CN115662399A (zh) | 2022-10-26 | 2022-10-26 | 日语语音模型的训练方法以及交互方法、存储介质、设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115662399A true CN115662399A (zh) | 2023-01-31 |
Family
ID=84991948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211321530.7A Pending CN115662399A (zh) | 2022-10-26 | 2022-10-26 | 日语语音模型的训练方法以及交互方法、存储介质、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115662399A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453132A (zh) * | 2023-06-14 | 2023-07-18 | 成都锦城学院 | 基于机器翻译的日语假名和汉字识别方法、设备及存储器 |
-
2022
- 2022-10-26 CN CN202211321530.7A patent/CN115662399A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453132A (zh) * | 2023-06-14 | 2023-07-18 | 成都锦城学院 | 基于机器翻译的日语假名和汉字识别方法、设备及存储器 |
CN116453132B (zh) * | 2023-06-14 | 2023-09-05 | 成都锦城学院 | 基于机器翻译的日语假名和汉字识别方法、设备及存储器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447486B (zh) | 一种语音翻译方法及装置 | |
CN110634487B (zh) | 一种双语种混合语音识别方法、装置、设备及存储介质 | |
Tur et al. | Spoken language understanding: Systems for extracting semantic information from speech | |
TWI455111B (zh) | 使用聲音資料之用於字素至音素轉換的方法、電腦系統,及與其相關的電腦可讀取媒體 | |
KR101259558B1 (ko) | 문장경계 인식 장치 및 방법 | |
KR20190002891A (ko) | 화행 정보를 이용한 대화 처리 방법 및 그 장치 | |
CN108984529A (zh) | 实时庭审语音识别自动纠错方法、存储介质及计算装置 | |
CN110517668B (zh) | 一种中英文混合语音识别系统及方法 | |
Ribeiro et al. | The influence of context on dialogue act recognition | |
Béchet et al. | Detecting and extracting named entities from spontaneous speech in a mixed-initiative spoken dialogue context: How May I Help You? sm, tm | |
Xie et al. | On the effectiveness of subwords for lexical cohesion based story segmentation of Chinese broadcast news | |
CN115662399A (zh) | 日语语音模型的训练方法以及交互方法、存储介质、设备 | |
Tomashenko et al. | Dialogue history integration into end-to-end signal-to-concept spoken language understanding systems | |
Hori et al. | Statistical dialog management applied to WFST-based dialog systems | |
CN115455982A (zh) | 对话处理方法、装置、电子设备及存储介质 | |
CN114333838A (zh) | 语音识别文本的修正方法及系统 | |
CN114003700A (zh) | 一种对话信息的处理方法、系统、电子设备及存储介质 | |
CN116959433B (zh) | 文本处理方法、装置、电子设备和存储介质 | |
JP2008276543A (ja) | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム | |
CN110795531B (zh) | 一种意图识别方法、装置及存储介质 | |
CN112069816A (zh) | 中文标点符号添加方法和系统及设备 | |
WO2007105615A1 (ja) | 要求内容識別システム、自然言語による要求内容の識別方法及びプログラム | |
CN114333760B (zh) | 一种信息预测模块的构建方法、信息预测方法及相关设备 | |
CN115545013A (zh) | 用于对话场景的音似纠错方法及装置 | |
CN114283786A (zh) | 语音识别方法、装置及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |