CN112732884A - 目标回答语句生成方法、装置、计算机设备和存储介质 - Google Patents

目标回答语句生成方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN112732884A
CN112732884A CN202011635843.0A CN202011635843A CN112732884A CN 112732884 A CN112732884 A CN 112732884A CN 202011635843 A CN202011635843 A CN 202011635843A CN 112732884 A CN112732884 A CN 112732884A
Authority
CN
China
Prior art keywords
initial
network
question
answer sentence
position calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011635843.0A
Other languages
English (en)
Inventor
王昊
吴宜蓉
罗水权
刘剑
李果夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Asset Management Co Ltd
Original Assignee
Ping An Asset Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Asset Management Co Ltd filed Critical Ping An Asset Management Co Ltd
Priority to CN202011635843.0A priority Critical patent/CN112732884A/zh
Publication of CN112732884A publication Critical patent/CN112732884A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及自然语言处理技术,提供了一种目标回答语句生成方法、装置、计算机设备和存储介质。所述方法包括:接收携带提问信息的提问请求;将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;通过生成任务网络,得到与提问信息对应的初始回答语句;将初始回答语句输入位置校准网络,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;反馈目标回答语句。采用本方法能够解决生成语句的语法混乱问题,可以生成准确的回答语句。

Description

目标回答语句生成方法、装置、计算机设备和存储介质
技术领域
本申请涉及自然语言处理技术领域,特别是涉及一种目标回答语句生成方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,出现了自然语言处理技术,自然语言处理技术可广泛应用于意图识别、命名实体识别、阅读理解人物以及自然语言生成任务等方面。常见的自然语言生成任务包括机器翻译、文本摘要生成、对话生成、问答、文本风格转换等。
传统技术中,主要是通过预先通过语料训练自然语言生成模型,获取待处理信息,利用已训练好的自然语言生成模型根据待处理信息输出生成语句的方式进行处理的,举例说明,在对话任务中,会获取用户提问,利用已训练好的对话模型识别出用户意图,输出与用户提问对应的回答。
然而,传统的对话任务所输出的生成语句存在语法混乱的问题,无法生成准确的回答语句。
发明内容
基于此,有必要针对上述技术问题,提供一种可以生成准确回答语句的目标回答语句生成方法、装置、计算机设备和存储介质。
一种目标回答语句生成方法,所述方法包括:
接收携带提问信息的提问请求;
将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
通过生成任务网络,得到与提问信息对应的初始回答语句;
通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈目标回答语句。
在一个实施例中,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句包括:
通过位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率;
根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码;
根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句。
在一个实施例中,将提问信息输入已训练的自然语言生成模型之前,还包括:
获取携带位置编码标签的文本语料;
将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果;
根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络;
根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络;
根据已训练的生成任务网络和已训练的位置校准网络,得到自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
在一个实施例中,将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果包括:
将文本语料输入初始位置校准网络中的编码层,得到与文本语料中各单字对应的字编码;
将字编码输入初始位置校准网络中的特征提取层,对字编码进行特征提取,得到与文本语料对应的特征向量;
通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果。
在一个实施例中,通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果包括:
通过初始位置校准网络中的分类层根据特征向量进行分类,得到文本语料中各单字归属于各预设位置编码的概率;
根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码;
根据预测位置编码,得到与文本语料对应的预测结果。
在一个实施例中,根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络包括:
根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码;
比对待比对位置编码和预测结果中各单字对应的预测位置编码;
根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络。
在一个实施例中,根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络包括:
将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与问题句对应的问题向量;
根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
一种目标回答语句生成装置,所述装置包括:
接收模块,用于接收携带提问信息的提问请求;
输入模块,用于将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
处理模块,用于通过生成任务网络,得到与提问信息对应的初始回答语句;
校准模块,用于通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈模块,用于反馈目标回答语句。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
接收携带提问信息的提问请求;
将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
通过生成任务网络,得到与提问信息对应的初始回答语句;
通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈目标回答语句。
一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
接收携带提问信息的提问请求;
将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
通过生成任务网络,得到与提问信息对应的初始回答语句;
通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈目标回答语句。
上述目标回答语句生成方法、装置、计算机设备和存储介质,通过在接收到携带提问信息的提问请求后,将提问信息输入已训练的自然语言生成模型,能够通过生成任务网络,得到与提问信息对应的初始回答语句,并能够通过位置校准网络对初始回答语句进行语序调整,得到并反馈语序正确的目标回答语句,通过这种方式能够解决生成语句的语法混乱问题,可以生成准确的回答语句。
附图说明
图1为一个实施例中目标回答语句生成方法的应用场景图;
图2为一个实施例中目标回答语句生成方法的流程示意图;
图3为一个实施例中目标回答语句生成方法的示意图;
图4为另一个实施例中目标回答语句生成方法的示意图;
图5为又一个实施例中目标回答语句生成方法的示意图;
图6为再一个实施例中目标回答语句生成方法的示意图;
图7为一个实施例中目标回答语句生成装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的目标回答语句生成方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。当用户有问题需要解答时,会通过终端102发送携带提问信息的提问请求至服务器104,服务器104接收携带提问信息的提问请求,将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络,通过生成任务网络,得到与提问信息对应的初始回答语句,将初始回答语句输入位置校准网络,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句,反馈目标回答语句。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种目标回答语句生成方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,接收携带提问信息的提问请求。
其中,提问信息是指用户所提出的问题句。举例说明,提问信息具体可以是XXXX成立于哪一年。
具体的,当用户有问题需要解答时,会通过终端发送携带提问信息的提问请求至服务器,服务器会接收到用户发送的携带提问信息的提问请求。
步骤204,将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络。
其中,自然语言生成是研究使计算机具有人一样的表达和写作的功能,即能够根据一些关键信息及其在机器内部的表达形式,经过一个规划过程,来自动生成一段高质量的自然语言文本。自然语言生成模型是指可输出与输入数据对应的自然语言文本的模型。本申请的自然语言生成模型包括生成任务网络和位置校准网络,其中的生成任务网络用于输出与输入数据对应的自然语言文本,位置校准网络是指对输入数据进行语序调整的网络,能够输出与输入数据对应的正确语序。
具体的,在接收到提问信息后,服务器会将提问信息输入已训练的自然语言生成模型,从而可以通过自然语言生成模型中的生成任务网络和位置校准网络依次对提问信息进行处理。
步骤206,通过生成任务网络,得到与提问信息对应的初始回答语句。
其中,初始回答语句是指与提问信息对应的答案句。举例说明,当提问信息为XXXX成立于哪一年时,对应的初始回答语句可以为成立于YYYY年XXXX。生成任务网络包括第一特征处理层和第二特征处理层,其中的第一特征处理层用于对输入数据进行向量编码,得到与输入数据对应的特征向量,第二特征处理层用于对特征向量进行解码,基于预先训练得到与特征向量对应的初始回答语句。举例说明,如图3所示,生成任务网络可以为传统自然语言生成模型中的生成任务网络,在其中包括两个由transformers块组成的transformers层(优选的每层包括六个transformers块),左边的transformers层用于进行向量编码,为生成任务网络的encoder(编码)部分,属于第一特征处理层,右边的transformers层用于对特征向量进行解码,为生成任务的decoder(解码)部分,属于第二特征处理层。从图中可以看出,在第一特征处理层和第二特征处理层中除了transformers块之外,还包括字编码层,字编码层用于对输入数据中各单字进行编码,得到输入数据中各单字对应的字编码(即图中的position embeding(位置编码))。
具体的,生成任务网络中包括第一特征处理层和第二特征处理层,在将提问信息输入生成任务网络后,会先通过第一特征处理层中的字编码层对提问信息中各单字进行编码,得到与提问信息中各单字对应的字编码,再将字编码输入第一特征处理层中的向量编码层,得到与提问信息对应的特征向量,再将特征向量输入第二特征处理层,通过第二特征处理层对特征向量进行解码,得到与提问信息对应的初始回答语句。
进一步的,在通过第二特征处理层对特征向量进行解码,得到与提问信息对应的初始回答语句时,第二特征处理层会先根据特征向量得到对应的回答向量,再对回答向量进行解码,确定与回答向量对应的初始回答语句,这个过程是与第一特征处理层中的字编码层的数据处理相对应的,即通过解码得到初始回答语句中各单字。单字编码和单字解码都可以利用预先设置的字表进行,预先设置的字表中存储了各单字对应的编码,通过直接查询匹配就可以进行单字编码和单字解码。具体的,字编码具体可以为字编码向量,向量的大小可按照需要自行设置。
步骤208,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句。
其中,位置校准网络包括编码层,特征提取层以及分类层。编码层用于对输入数据中各单字进行编码,得到与各单字对应的字编码,特征提取层用于对与各单字对应的字编码进行特征提取,得到与输入数据对应的特征向量,分类层用于根据特征向量进行分类,得到分类结果,这里的分类结果即是指初始回答语句中各单字对应的目标位置编码,字编码具体可以为字编码向量。
具体的,由生成任务网络所输出的初始回答语句会作为位置校准网络的输入,在初始回答语句被输入至位置校准网络后,可以先通过位置校准网络中的编码层对初始回答语句中各单字进行编码,得到与各单字对应的字编码,再通过特征提取层对与各单字对应的字编码进行特征提取,得到与初始回答语句对应的特征向量,最后通过分类层根据特征向量进行分类,得到初始回答语句中各单字对应的目标位置编码,根据目标位置编码对初始回答语句中各单字进行顺序调整即可得到目标回答语句。
举例说明,位置校准网络的网络结构可以如图4所示,为基于bert(BidirectionalEncoder Representation from Transformers,双向Transformer的Encoder)模型的改进模型,其中的第一层为编码层,第二层为由6个transformers块组成的特征提取层,第三层为对bert模型中的Head层进行修改后的分类层。举例说明,当提问信息为XXXX成立于哪一年时,对应的初始回答语句可以为成立于YYYY年XXXX,这个初始回答语句的语序是混乱的,经过位置校准网络对初始回答语句进行语序调整后,可以得到语序正确的目标回答语句为XXXX成立于YYYY年。
步骤210,反馈目标回答语句。
具体的,在得到目标回答语句后,服务器会反馈目标回答语句至终端,从而使得使用终端的用户可以获悉到目标回答语句。
上述目标回答语句生成方法,通过在接收到携带提问信息的提问请求后,将提问信息输入已训练的自然语言生成模型,能够通过生成任务网络,得到与提问信息对应的初始回答语句,并能够通过位置校准网络对初始回答语句进行语序调整,得到并反馈语序正确的目标回答语句,通过这种方式能够解决生成语句的语法混乱问题,可以生成准确的回答语句。
在一个实施例中,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句包括:
通过位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率;
根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码;
根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句。
其中,预设位置编码是指预先设置长度的位置编码,即位置校准网络在进行预测时可预测的句子长度是有限的,该可预测的句子长度与预设位置编码的长度对应。比如,预设位置编码的长度可以为512位,即最多可预测的句子长度为512个单字。目标位置编码用于表征初始回答语句中各单字归属的位置编码,其长度与预设位置编码对应,需要说明的是,当当前初始回答语句中的单字数量小于预设位置编码的预先设置长度时,对于多出来的位置编码,初始回答语句中各单字归属于其的概率都为0,则在目标位置编码中其对应位置的编码全部都为0,。举例说明,当预设位置编码为长度为15位的位置编码,且初始回答语句为成立于YYYY年XXXX(YYYY表示年份属于一个单字)时,可以看到初始回答语句中包括九个单字,则对应的目标位置编码可能为[567891234000000],多出来的六位的位置编码全部为0。
具体的,服务器通过位置校准网络中的编码层以及特征提取层对初始回答语句进行处理得到特征向量后,可通过位置校准网络中的分类层根据特征向量预测初始回答语句中各单字归属于各预设位置编码的概率,并对初始回答语句中各单字归属于各预设位置编码的概率进行排序,确定与初始回答语句中各单字对应的目标位置编码,实现预测。在得到目标位置编码后,服务器直接根据目标位置编码对初始回答语句中各单字进行顺序调整,就可以得到目标回答语句。举例说明,对于初始回答语句成立于YYYY年XXXX,当预设位置编码长度为15位时,可得到对应的目标位置编码为[567891234000000],根据目标位置编码对初始回答语句中各单字进行顺序调整后,可以得到目标回答语句为XXXX成立于XXXX年。
本实施例中,通过先利用位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率,再根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码,最后根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句,能够实现对目标回答语句的获取。
在一个实施例中,将提问信息输入已训练的自然语言生成模型之前,还包括:
获取携带位置编码标签的文本语料;
将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果;
根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络;
根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络;
根据已训练的生成任务网络和已训练的位置校准网络,得到自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
其中,位置编码标签用于表征文本语料中各单字在文本语料中的顺序,在文本语料中既包括多个语序正确的文本句,也包括多个语序混乱的文本句。举例说明,对于XXXX成立于哪一年,其中各单字的位置编码标签具体可以为[12345678910]。对于XXXX于哪一年成立,其中各单字的位置编码标签具体可以为[12347891056]。初始位置校准网络是指参数未调整的位置校准网络,位置校准网络用于逐字的预测每个单字在文本语料中所在的位置,通过对该位置校准网络的训练,意在显示建模语义与位置的关系。预设问答语料中包括多个由问题句-答案句组成的文本语料。
具体的,服务器可以从预先存储有文本语料的预设数据库中获取携带位置编码标签的文本语料,将文本语料输入初始位置校准网络,通过初始位置校准网络中的编码层、特征提取层以及分类层对文本语料进行预测,得到与文本语料对应的预测结果。在得到预测结果后,服务器会根据文本语料携带的位置编码标签确定文本语料中每个单字的真实位置,通过比对预测结果中文本语料中每个单字所在的位置以及每个单字的真实位置,得到比对结果,根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络,并根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络,根据已训练的生成任务网络和已训练的位置校准网络,得到已训练的自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
本实施例中,通过先利用携带位置编码标签的文本语料对初始位置校准网络进行训练,能够得到已训练的位置校准网络,并通过预设问答语料对初始生成任务网络进行训练,能够得到已训练的生成任务网络,最后通过已训练的生成任务网络和已训练的位置校准网络,能够得到自然语言生成模型。
在一个实施例中,将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果包括:
将文本语料输入初始位置校准网络中的编码层,得到与文本语料中各单字对应的字编码;
将字编码输入初始位置校准网络中的特征提取层,对字编码进行特征提取,得到与文本语料对应的特征向量;
通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果。
其中,与文本语料对应的预测结果是指预测得到的文本语料中各单字的位置编码。
具体的,在对文本语料进行预测时,服务器会先将文本语料输入初始位置校准网络中的编码层,编码层通过根据文本语料中各单字查询预先设置的字表,可以输出与文本语料中各单字对应的字编码。在得到字编码后,通过将字编码输入初始位置校准网络中的特征提取层,可以对字编码进行特征提取,得到与文本语料对应的特征向量,最后通过初始位置校准网络中的分类层根据特征向量进行分类,能够得到文本语料中各单字归属于各预设位置编码的概率,对各单字归属于各预设位置编码的概率进行排序,可以得到文本语料中各单字的预测位置编码,归集预测位置编码就可以得到文本语料对应的预测结果。
本实施例中,通过先利用编码层对文本语料进行编码,得到与文本语料中各单字对应的字编码,再利用特征提取层对字编码进行特征提取,得到与文本语料对应的特征向量,最后利用分类层根据特征向量进行分类,能够实现对与文本语料对应的预测结果的获取。
在一个实施例中,通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果包括:
通过初始位置校准网络中的分类层根据特征向量进行分类,得到文本语料中各单字归属于各预设位置编码的概率;
根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码;
根据预测位置编码,得到与文本语料对应的预测结果。
具体的,通过初始位置校准网络中的分类层根据特征向量进行分类,可以得到文本语料中各单字归属于各预设位置编码的概率,通过对文本语料中各单字归属于各预设位置编码的概率进行排序,可以从中选取出概率最大的预设位置编码作为与各单字对应的预测位置编码,通过归集预测位置编码,可以得到与文本语料对应的预测结果。
本实施例中,通过先得到文本语料中各单字归属于各预设位置编码的概率,再根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码,最后根据预测位置编码,得到与文本语料对应的预测结果,能够实现对预测结果的获取。
在一个实施例中,根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络包括:
根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码;
比对待比对位置编码和预测结果中各单字对应的预测位置编码;
根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络。
其中,待比对位置编码用于表征各单字在文本语料中的位置,与位置编码标签相对应。比如,待比对位置编码可以与位置编码标签相同。
具体的,在得到预测结果后,服务器会根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码,通过比对待比对位置编码和预测结果中各单字对应的预测位置编码,计算当前位置校准网络的损失函数,利用损失函数通过反向传播对初始位置校准网络进行参数调整,直到损失函数满足预设要求为止,得到已训练的位置校准网络。其中,这里的损失函数所需满足的预设要求可以为小于预设阈值或者损失函数收敛等,本实施例在此处不做具体限定。
本实施例中,通过先根据文本语料携带的位置编码标签得到待比对位置编码,再比对待比对位置编码和预测结果中各单字对应的预测位置编码,最后根据比对结果对初始位置校准网络进行参数调整,能够得到已训练的位置校准网络。
在一个实施例中,根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络包括:
将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与问题句对应的问题向量;
根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
具体的,服务器将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层后,第一特征处理层中的字编码层会对问题句中各单字进行编码,得到与问题句中各单字对应的字编码,再将字编码输出值第一特征处理层中的向量编码层,通过向量编码层对字编码进行特征提取,得到与问题句对应的问题向量,最后根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
具体的,根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络是指逐次将答案句中各单字作为监督标签,以问题向量和逐次得到的预测结果作为输出进行循环训练,得到已训练的生成任务网络。
如图5所示,以对XXXX成立于哪一年-1988年这个问答语料进行训练为例进行说明,在初始生成任务层中,首先通过左边的第一特征处理层得到与XXXX成立于哪一年这个问题句对应的问题向量,然后将问题向量和标志位[start]作为输入,以答案句中1988年中的1为监督标签进行训练,则通过第二特征处理层解码之后,问题向量和标志位[start]会输出“1”这个结果,在第二次训练的时候,会以问题向量、标志位[start]以及“1”作为输入,通过第二特征处理层解码之后得到输出结果“9”,依次类推,最总生成整个答案。这里需要说明的是,在循环训练的过程中,与标志位[start]表示循环训练开始对应的,也存在标志位[end]表示训练结束,当厨师生成任务层输出标志位[end]时,表示循环训练结束。
本实施例中,通过先将预设问答语料中的问题句输入第一特征处理层,得到与问题句对应的问题向量,再根据问题向量和预设问答语料中与问题句对应的答案句,对第二特征处理层进行循环训练,能够得到已训练的生成任务网络。
如图6所示,通过一个自然语言生成模型的示意图来说明本申请的目标回答语句生成方法,此处假设提问信息为XXXX成立于哪一年,对应的目标回答语句为XXXX成立于1988年,本申请中所利用的自然语言生成模型包括生成任务网络602和位置校准网络604,当用户有问题需要解答时,会通过所使用的终端发送携带“XXXX成立于哪一年”的提问请求,服务器接收到携带提问信息(即XXXX成立于哪一年)的提问请求后,会将提问信息输入已训练的自然语言生成模型,通过生成任务网络,得到与提问信息对应的初始回答语句(即图示中的成立于1988年XXXX),可以看到此处所输出的初始回答语句“成立于1988年XXXX”是混乱的,在本申请中会进一步将该初始回答语句作为输入数据输入位置校准网络,通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句(即图示中的XXXX成立于1988年),反馈目标回答语句至终端。
应该理解的是,虽然上述实施例涉及的各流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述实施例涉及的各流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种目标回答语句生成装置,包括:接收模块702、输入模块704、处理模块706、校准模块708和反馈模块710,其中:
接收模块702,用于接收携带提问信息的提问请求;
输入模块704,用于将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
处理模块706,用于通过生成任务网络,得到与提问信息对应的初始回答语句;
校准模块708,用于通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈模块710,用于反馈目标回答语句。
上述目标回答语句生成装置,通过在接收到携带提问信息的提问请求后,将提问信息输入已训练的自然语言生成模型,能够通过生成任务网络,得到与提问信息对应的初始回答语句,并能够通过位置校准网络对初始回答语句进行语序调整,得到并反馈语序正确的目标回答语句,通过这种方式能够解决生成语句的语法混乱问题,可以生成准确的回答语句。
在一个实施例中,校准模块还用于通过位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率,根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码,根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句。
在一个实施例中,目标回答语句生成装置还包括模型训练模块,模型训练模块用于获取携带位置编码标签的文本语料,将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果,根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络,根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络,根据已训练的生成任务网络和已训练的位置校准网络,得到自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
在一个实施例中,模型训练模块还用于将文本语料输入初始位置校准网络中的编码层,得到与文本语料中各单字对应的字编码,将字编码输入初始位置校准网络中的特征提取层,对字编码进行特征提取,得到与文本语料对应的特征向量,通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果。
在一个实施例中,模型训练模块还用于通过初始位置校准网络中的分类层根据特征向量进行分类,得到文本语料中各单字归属于各预设位置编码的概率,根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码,根据预测位置编码,得到与文本语料对应的预测结果。
在一个实施例中,模型训练模块还用于根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码,比对待比对位置编码和预测结果中各单字对应的预测位置编码,根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络。
在一个实施例中,模型训练模块还用于将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与问题句对应的问题向量,根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
关于目标回答语句生成装置的具体限定可以参见上文中对于目标回答语句生成方法的限定,在此不再赘述。上述目标回答语句生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储文本语料以及预设问答语料等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标回答语句生成方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
接收携带提问信息的提问请求;
将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
通过生成任务网络,得到与提问信息对应的初始回答语句;
通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈目标回答语句。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:通过位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率,根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码,根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取携带位置编码标签的文本语料,将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果,根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络,根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络,根据已训练的生成任务网络和已训练的位置校准网络,得到自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将文本语料输入初始位置校准网络中的编码层,得到与文本语料中各单字对应的字编码,将字编码输入初始位置校准网络中的特征提取层,对字编码进行特征提取,得到与文本语料对应的特征向量,通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:通过初始位置校准网络中的分类层根据特征向量进行分类,得到文本语料中各单字归属于各预设位置编码的概率,根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码,根据预测位置编码,得到与文本语料对应的预测结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码,比对待比对位置编码和预测结果中各单字对应的预测位置编码,根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与问题句对应的问题向量,根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
在一个实施例中,提供了一种计算机存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
接收携带提问信息的提问请求;
将提问信息输入已训练的自然语言生成模型,自然语言生成模型包括生成任务网络和位置校准网络;
通过生成任务网络,得到与提问信息对应的初始回答语句;
通过位置校准网络对初始回答语句进行语序调整,得到目标回答语句;
反馈目标回答语句。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:通过位置校准网络预测初始回答语句中各单字归属于各预设位置编码的概率,根据初始回答语句中各单字归属于各预设位置编码的概率,确定与初始回答语句中各单字对应的目标位置编码,根据目标位置编码对初始回答语句中各单字进行顺序调整,得到目标回答语句。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取携带位置编码标签的文本语料,将文本语料输入初始位置校准网络进行预测,得到与文本语料对应的预测结果,根据预测结果和文本语料携带的位置编码标签对初始位置校准网络进行参数调整,得到已训练的位置校准网络,根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络,根据已训练的生成任务网络和已训练的位置校准网络,得到自然语言生成模型,在自然语言生成模型中已训练的生成任务网络的输出数据作为已训练的位置校准网络的输入数据。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将文本语料输入初始位置校准网络中的编码层,得到与文本语料中各单字对应的字编码,将字编码输入初始位置校准网络中的特征提取层,对字编码进行特征提取,得到与文本语料对应的特征向量,通过初始位置校准网络中的分类层根据特征向量进行分类,得到与文本语料对应的预测结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:通过初始位置校准网络中的分类层根据特征向量进行分类,得到文本语料中各单字归属于各预设位置编码的概率,根据文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码,根据预测位置编码,得到与文本语料对应的预测结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据文本语料携带的位置编码标签,确定与文本语料中各单字对应的待比对位置编码,比对待比对位置编码和预测结果中各单字对应的预测位置编码,根据比对结果对初始位置校准网络进行参数调整,得到已训练的位置校准网络。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与问题句对应的问题向量,根据问题向量和预设问答语料中与问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种目标回答语句生成方法,所述方法包括:
接收携带提问信息的提问请求;
将所述提问信息输入已训练的自然语言生成模型,所述自然语言生成模型包括生成任务网络和位置校准网络;
通过所述生成任务网络,得到与所述提问信息对应的初始回答语句;
通过所述位置校准网络对所述初始回答语句进行语序调整,得到目标回答语句;
反馈所述目标回答语句。
2.根据权利要求1所述的方法,其特征在于,所述通过所述位置校准网络对所述初始回答语句进行语序调整,得到目标回答语句包括:
通过所述位置校准网络预测所述初始回答语句中各单字归属于各预设位置编码的概率;
根据所述初始回答语句中各单字归属于各预设位置编码的概率,确定与所述初始回答语句中各单字对应的目标位置编码;
根据所述目标位置编码对所述初始回答语句中各单字进行顺序调整,得到目标回答语句。
3.根据权利要求1所述的方法,其特征在于,所述将所述提问信息输入已训练的自然语言生成模型之前,还包括:
获取携带位置编码标签的文本语料;
将所述文本语料输入初始位置校准网络进行预测,得到与所述文本语料对应的预测结果;
根据所述预测结果和所述文本语料携带的位置编码标签对所述初始位置校准网络进行参数调整,得到已训练的位置校准网络;
根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络;
根据所述已训练的生成任务网络和所述已训练的位置校准网络,得到自然语言生成模型,在所述自然语言生成模型中所述已训练的生成任务网络的输出数据作为所述已训练的位置校准网络的输入数据。
4.根据权利要求3所述的方法,其特征在于,所述将所述文本语料输入初始位置校准网络进行预测,得到与所述文本语料对应的预测结果包括:
将所述文本语料输入初始位置校准网络中的编码层,得到与所述文本语料中各单字对应的字编码;
将所述字编码输入所述初始位置校准网络中的特征提取层,对所述字编码进行特征提取,得到与所述文本语料对应的特征向量;
通过所述初始位置校准网络中的分类层根据所述特征向量进行分类,得到与所述文本语料对应的预测结果。
5.根据权利要求4所述的方法,其特征在于,所述通过所述初始位置校准网络中的分类层根据所述特征向量进行分类,得到与所述文本语料对应的预测结果包括:
通过所述初始位置校准网络中的分类层根据所述特征向量进行分类,得到所述文本语料中各单字归属于各预设位置编码的概率;
根据所述文本语料中各单字归属于各预设位置编码的概率,确定与各单字对应的预测位置编码;
根据所述预测位置编码,得到与所述文本语料对应的预测结果。
6.根据权利要求3所述的方法,其特征在于,所述根据所述预测结果和所述文本语料携带的位置编码标签对所述初始位置校准网络进行参数调整,得到已训练的位置校准网络包括:
根据所述文本语料携带的位置编码标签,确定与所述文本语料中各单字对应的待比对位置编码;
比对所述待比对位置编码和所述预测结果中各单字对应的预测位置编码;
根据比对结果对所述初始位置校准网络进行参数调整,得到已训练的位置校准网络。
7.根据权利要求3所述的方法,其特征在于,所述根据预设问答语料对初始生成任务网络进行训练,得到已训练的生成任务网络包括:
将预设问答语料中的问题句输入初始生成任务层中的第一特征处理层,得到与所述问题句对应的问题向量;
根据所述问题向量和所述预设问答语料中与所述问题句对应的答案句,对初始生成任务层中的第二特征处理层进行循环训练,得到已训练的生成任务网络。
8.一种目标回答语句生成装置,其特征在于,所述装置包括:
接收模块,用于接收携带提问信息的提问请求;
输入模块,用于将所述提问信息输入已训练的自然语言生成模型,所述自然语言生成模型包括生成任务网络和位置校准网络;
处理模块,用于通过所述生成任务网络,得到与所述提问信息对应的初始回答语句;
校准模块,用于将所述初始回答语句输入所述位置校准网络,通过所述位置校准网络对所述初始回答语句进行语序调整,得到目标回答语句;
反馈模块,用于反馈所述目标回答语句。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202011635843.0A 2020-12-31 2020-12-31 目标回答语句生成方法、装置、计算机设备和存储介质 Pending CN112732884A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011635843.0A CN112732884A (zh) 2020-12-31 2020-12-31 目标回答语句生成方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011635843.0A CN112732884A (zh) 2020-12-31 2020-12-31 目标回答语句生成方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN112732884A true CN112732884A (zh) 2021-04-30

Family

ID=75608627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011635843.0A Pending CN112732884A (zh) 2020-12-31 2020-12-31 目标回答语句生成方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN112732884A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113535144A (zh) * 2021-06-15 2021-10-22 北京彩彻区明科技有限公司 自然语言编程方法、装置、设备及存储介质
CN113722444A (zh) * 2021-09-14 2021-11-30 口碑(上海)信息技术有限公司 文本处理方法、装置及电子设备
CN115470325A (zh) * 2021-06-10 2022-12-13 腾讯科技(深圳)有限公司 消息回复方法、装置及设备
CN113722444B (zh) * 2021-09-14 2024-05-31 口碑(上海)信息技术有限公司 文本处理方法、装置及电子设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115470325A (zh) * 2021-06-10 2022-12-13 腾讯科技(深圳)有限公司 消息回复方法、装置及设备
CN115470325B (zh) * 2021-06-10 2024-05-10 腾讯科技(深圳)有限公司 消息回复方法、装置及设备
CN113535144A (zh) * 2021-06-15 2021-10-22 北京彩彻区明科技有限公司 自然语言编程方法、装置、设备及存储介质
CN113722444A (zh) * 2021-09-14 2021-11-30 口碑(上海)信息技术有限公司 文本处理方法、装置及电子设备
CN113722444B (zh) * 2021-09-14 2024-05-31 口碑(上海)信息技术有限公司 文本处理方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN110162633B (zh) 语音数据意图确定方法、装置、计算机设备和存储介质
CN108305612B (zh) 文本处理、模型训练方法、装置、存储介质和计算机设备
CN110909137A (zh) 基于人机交互的信息推送方法、装置和计算机设备
CN111061847A (zh) 对话生成及语料扩充方法、装置、计算机设备和存储介质
CN108563782B (zh) 商品信息格式处理方法、装置、计算机设备和存储介质
CN109753653B (zh) 实体名称识别方法、装置、计算机设备和存储介质
CN111460807A (zh) 序列标注方法、装置、计算机设备和存储介质
CN110910864B (zh) 训练样本的选取方法、装置、计算机设备和存储介质
CN110688853B (zh) 序列标注方法、装置、计算机设备和存储介质
CN112765984A (zh) 命名实体识别方法、装置、计算机设备和存储介质
CN114245203B (zh) 基于剧本的视频剪辑方法、装置、设备及介质
CN112766319A (zh) 对话意图识别模型训练方法、装置、计算机设备及介质
CN112732884A (zh) 目标回答语句生成方法、装置、计算机设备和存储介质
CN113887229A (zh) 地址信息的识别方法、装置、计算机设备及存储介质
CN111583911A (zh) 基于标签平滑的语音识别方法、装置、终端及介质
CN113627207A (zh) 条码识别方法、装置、计算机设备和存储介质
CN111709229A (zh) 基于人工智能的文本生成方法、装置、计算机设备和介质
CN110955765A (zh) 智能助理的语料构建方法、装置、计算机设备和存储介质
CN109063155B (zh) 语言模型参数确定方法、装置和计算机设备
CN112837673B (zh) 基于人工智能的语音合成方法、装置、计算机设备和介质
CN113343711A (zh) 工单生成方法、装置、设备及存储介质
CN111898339A (zh) 基于约束解码的古诗生成方法、装置、设备及介质
CN115497484B (zh) 语音解码结果处理方法、装置、设备及存储介质
CN111400340A (zh) 一种自然语言处理方法、装置、计算机设备和存储介质
CN115617971A (zh) 基于ALBERT-Coref模型的对话文本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination