CN112232052A - 文本拼接方法、装置、计算机设备及存储介质 - Google Patents

文本拼接方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112232052A
CN112232052A CN202011148693.0A CN202011148693A CN112232052A CN 112232052 A CN112232052 A CN 112232052A CN 202011148693 A CN202011148693 A CN 202011148693A CN 112232052 A CN112232052 A CN 112232052A
Authority
CN
China
Prior art keywords
template
text
model
splicing
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011148693.0A
Other languages
English (en)
Inventor
白祚
罗炳峰
莫洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202011148693.0A priority Critical patent/CN112232052A/zh
Publication of CN112232052A publication Critical patent/CN112232052A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例属于人工智能领域,可应用于医疗科技领域,涉及一种文本拼接方法,包括:获取预设的模板,模板包括多个模板组件;通过多个模板组件接收用户输入,得到完成设置的模板组件;将完成设置的模板组件输入到训练好的文本拼接模型进行文本拼接;将训练好的文本拼接模型的输出作为拼接结果。此外,本申请还涉及区块链技术,业务数据存储于区块链中。本申请还提供一种文本拼接装置、计算机设备及存储介质。以减少模板管理的复杂度和成本。

Description

文本拼接方法、装置、计算机设备及存储介质
技术领域
本申请涉及人工智能领域,尤其涉及一种文本拼接方法、装置、计算机设备及存储介质。
背景技术
传统的文本生成模板往往是一次性的,在一个场景使用的模板往往很难在其他场景得以复用。为了提高模板的复用性,降低管理成本,基于模板的文本生成系统往往会将一个大模板拆解为若干个模板组件。这里一个模板组件可以表示一个确定的语义,但是可以有多种不同的表述方式。但是,由于自然语言表达的复杂性,为某一个场景编写模板组件在新场景服用的时候,往往需要做一些额外的适配处理,比如增加/删除代词,助词,介词,标点等。这种情况在模板组件包含多种表述方式的时候尤为明显。虽然这些适配难度不大,但由于适配需求十分频繁,降低了拆解出的模板组件的复用次数,进而大大增加了模板管理的复杂度和成本。
发明内容
本申请实施例的目的在于提出一种文本拼接方法、装置、计算机设备及存储介质,以减少模板管理的复杂度和成本。为了解决上述技术问题,本申请实施例提供一种文本拼接方法,采用了如下所述的技术方案:
获取预设的模板,所述模板包括多个模板组件;
通过所述多个模板组件接收用户输入,得到完成设置的模板;
将所述完成设置的模板输入到训练好的文本拼接模型进行文本拼接;
将所述训练好的文本拼接模型的输出作为拼接结果。
进一步的,所述模板组件包括文本、槽位以子模板组件中的至少一项,所述通过所述多个模板组件接收用户输入,得到完成设置的模板的步骤具体包括:
从所述预设的模板中获取携有槽位的多个预设的模板组件;
将所述多个预设的模板组件通过显示设备输出给用户,并通过所述多个预设的模板组件接收用户的输入,并将所述多个预设的模板组件中的槽位设置成对应的值,得到完成设置的模板。
进一步的,所述将所述完成设置的模板输入到训练好的文本拼接模型的步骤具体包括:
获取所述完成设置的模板中多个实例化的模板组件;
通过分隔符连接所述多个实例化的模板组件,得到输入模板;
将所述输入模板输入到训练好的文本拼接模型。
进一步的,所述将所述训练好的文本拼接模型的输出作为拼接结果的步骤具体包括:
通过πplh=softmax(Wplh[h′i;h′i+1])计算所述训练好的文本拼接模型中最后一层神经网络的输出词数量的概率,其中,Wplh为所述训练好的文本拼接模型中计算词数量神经元的权值,πplh为预测hi'和hi+1'之间存在词数量的概率,所述hi'为神经网络输出的第i个组件;
通过πtok=softmax(Wtokh′i)预测每个插入词的概率,其中h′i为编码端对第i个字符的解码,Wtok为所述训练好的文本拼接模型中计算所述每个插入词概率神经元的权值,πtok为预测出hi'和hi+1'之间存在应该存在每个词的概率;
选取对应最高的所述词数量的概率以及对应的最高所述每个词的概率组合生成文本。
进一步的,所述将所述完成设置的模板组件输入到训练好的文本拼接模型的步骤之前还包括:
获取多个训练数据以及对应的训练标签;
将所述多个训练数据以及所述对应的训练标签输入至初始文本拼接模型;
通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型。
进一步的,所述通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型的步骤之后还包括:
获取多个测试数据以及对应的测试标签;
将所述多个训练数据输入至训练好的文本拼接模型;
获取所述多个训练数据在所述训练好的文本拼接模型下对应的多个输出结果;
通过所述对应的多个输出结果和所述对应的测试标签计算准确率;
若所述准确率低于阈值,则调整所述初始文本拼接模型的学习率,重新训练所述初始文本拼接模型。
进一步的,所述获取预设的模板的步骤之后还包括:
将所述预设的模板存储于区块链之中。
为了解决上述技术问题,本申请实施例还提供一种文本拼接装置,采用了如下所述的技术方案:
获取模块用于获取预设的模板,所述模板包括多个模板组件;
接收模块用于通过所述多个模板组件接收用户输入,得到完成设置的模板组件;
输入模块用于将所述完成设置的模板组件输入到训练好的文本拼接模型;
拼接模块用于将所述训练好的文本拼接模型的输出作为拼接结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,其包括至少一个连接的处理器、存储器、输入输出单元,其中,所述存储器用于存储计算机可读指令,所述处理器用于调用所述存储器中的计算机可读指令来执行上述所述的文本拼接方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述所述的文本拼接方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请通过模板组件和文本拼接模型,使得模板编撰人员不需要关注为了保证语句通顺的语法细节,只需要关注核心组件(模板组件)的语法即可,减少了模板编写难度。由于基于模板拼接的方法生成结果的输入是模板,则模型保证了生成结果的通顺性,使得文本生成结果可干预性强,可以方便的通过调整输入的模板对生成结果进行干预。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2-1根据本申请的文本拼接方法的一个实施例的流程图;
图2-2根据本申请的文本拼接方法的一个模板拼接的示意图;
图2-3根据本申请的文本拼接方法的一个文本拼接模型的示意图;
图3是根据本申请的文本拼接装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的文本拼接方法一般由服务器/终端设备执行,相应地,文本拼接装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2-1,示出了根据本申请的文本拼接的方法的一个实施例的流程图。所述的文本拼接方法,包括以下步骤:
步骤201,获取预设的模板,所述模板包括多个模板组件。
在本实施例中,文本拼接方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式服务器接收用户请求进行标定。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在本实施例中,一个文本生成模板T由若干个模板组件TU构成,即T=[TU_1][TU_2]…[TU_k]。一个模板组件TU包含同一种语义的若干种表述E,一个表述E可以包含一段文本,单个槽位s,单个子模板组件stu中的至少一项。即一个模板组件由若干个表述E,,一个最简单的表述E仅由一个模板组件组成,这个模板组件可以是一段文本|一个槽位,其中,槽位s对应文本生成的输入变量,在生成文本的时候需要替换成相应变量的取值;子模板组件stu的内容类型与上述文本模板组件TU相同。比如模板:“[SLOT:被保人]|[TEMP:GetDisease]|,获得[SLOT:理赔_保险责任][SLOT:理赔_赔付金额]”,由3个模板组件构成,各个模板组件用|分隔。其中[TEMP:GetDisease]是模板组件,[TEMP:GetDisease]模板组件包含两个两个表述E1和E2,其中E1为“被确诊为|[SLOT:理赔_疾病]”,E2为“不幸被确诊为|[SLOT:理赔_疾病]”,当实例化时[TEMP:GetDisease]实例化为E1或者E2,具体表示竖线|分割的每个单元都是一个表述E。[SLOT:被保人]中slot是槽位s,“被保人”是对应文本生成的输入变量,“获得”是文本。
步骤202,通过所述多个模板组件接收用户输入,得到完成设置的模板。
在本实施例中,对模板中每个模板组件TU随机挑选一个可行的表述E,所述可行指的是其内部包含的槽位可以通过输入的变量的取值实例化。例如:SLOT这个槽位可以取值“被保人”,也可以取值“理赔_疾病”。
步骤203,将所述完成设置的模板输入到训练好的文本拼接模型进行文本拼接。
在本实施例中,文本拼接模型的输入为两个或多个待拼接的模板组件,文本拼接模型通过在模板组件外增加字符,得到最终通顺的文本。即,待拼接的模板组件在文本拼接模型输入前和输入后顺序不变,通过文本拼接模型后,增加了衔接的字符,以得到通顺的文本。
步骤204,将所述训练好的文本拼接模型的输出作为拼接结果。
在本实施例中,本申请通过模板组件和文本拼接模型,使得模板编撰人员不需要关注为了保证语句通顺的语法细节,只需要关注核心组件(模板组件)的语法即可,减少了模板编写难度。由于基于模板拼接的方法生成结果的输入是模板,则模型保证了生成结果的通顺性,使得文本生成结果可干预性强,可以方便的通过调整输入的模板对生成结果进行干预。
在一些可选的实现方式中,所述模板组件包括文本、槽位以子模板组件中的至少一项,所述通过所述多个模板组件接收用户输入,得到完成设置的模板的步骤具体包括:
从所述预设的模板中获取携有槽位的多个预设的模板组件;
将所述多个预设的模板组件通过显示设备输出给用户,并通过所述多个预设的模板组件接收用户的输入,并将所述多个预设的模板组件中的槽位设置成对应的值,得到完成设置的模板。
上述实施方式中,如图2-2所示,首先通过槽位和文本的拼接,将其合并为两个模板组件“[SLOT:投保人]为[SLOT:被保人]|[STU:投保产品]”。通过实例化,上述模板变为“李先生为儿子|[STU:投保产品]”,其中第二个模板组件[STU:投保产品]为子模板组件,经过文本合并和实例化后变为“投保少儿平安福”。子模板展开后,该模板组件由两个新的实例化后的模板组件组成:“李先生为儿子|投保少儿平安福”。通过上述方式完成模板自动拼接。
在一些可选的实现方式中,所所述将所述完成设置的模板输入到训练好的文本拼接模型的步骤具体包括:
获取所述完成设置的模板中多个实例化的模板组件;
通过分隔符连接所述多个实例化的模板组件,得到输入模板;
将所述输入模板输入到训练好的文本拼接模型。
上述实施方式中,完成设置的模板中有多个实例化的模板组件组成,如图2-3所示,对于多模板组件拼接的形式,输入数据形式为([x1][SEP][x2][SEP]…[SEP][xn],[x1][c12][x2][c23]…[c(n-1)(n)][xn])。[x1][SEP][x2][SEP]…[SEP][xn]为模型输入,[x1][c12][x2][c23]…[c(n-1)(n)][xn]为模型输出。其中,[xi]为一个文本片段,即一个实例化的组件,[SEP]为文本片段之间的特殊分割符,用于分割组件,[cij]为文本片段[xi]和[xj]之间的连接短语。比如将“李先生”,“心脏搭桥手术”这两个实例化的模板组件输入到文本拼接模型,文本拼接模型通过[SEP]分隔符进行区分,[x_1]为“李先生”,[x_2]为“心脏搭桥手术”,输入的数据则为“李先生”[SEP]“心脏搭桥手术”,通过文本拼接模型输出了一个合理的[c12]可以是“做了”,得到输出的文本“李先生”“做了”“心脏搭桥手术”,此时,[x_1]为“李先生”,[c12]为“做了”,[x_2]为“心脏搭桥手术”。提升了文本拼接的准确性。
文本拼接的模型可以选用任意序列神经网络模型,也可以选用基于增删改等操作的文本编辑模型。如图2-3所示,模型训练时,可以采用和基于文本编辑的模型相同的训练策略。
在一些可选的实现方式中,所述将所述训练好的文本拼接模型的输出作为拼接结果的步骤具体包括:
通过πplh=softmax(Wplh[h′i;h′i+1])计算所述训练好的文本拼接模型中最后一层神经网络的输出词数量的概率,其中,Wplh为所述训练好的文本拼接模型中计算词数量神经元的权值,πplh为预测hi'和hi+1'之间存在词数量的概率,所述hi'为神经网络输出的第i个组件;
通过πtok=softmax(Wtokh′i)预测每个插入词的概率,其中h′i为编码端对第i个字符的解码,Wtok为所述训练好的文本拼接模型中计算所述每个插入词概率神经元的权值,πtok为预测出hi'和hi+1'之间存在应该存在每个词的概率;
选取对应最高的所述词数量的概率以及对应的最高所述每个词的概率组合生成文本。
上述实施方式中,模型不做限定,文本拼接模型如图2-3所示,输入数据和训练数据为相同格式的数据,其中h′i对应附图中的hi,假设此步骤预测第i和第i+1个字符之间需要插入k个字符,则在编码的文本部分插入k个[PLH]特殊符号。然后设预测第i个[PLH]应该被替换为“将”字,则将第i个[PLH]替换为“将”,继续重复占位符预测和字符预测的循环。最后组合生成文本。通过上述方法可以准确的获取文本拼接之间的词量和词,对文本继续进行准确拼接。
在一些可选的实现方式中,所述将所述完成设置的模板组件输入到训练好的文本拼接模型的步骤之前还包括:
获取多个训练数据以及对应的训练标签;
将所述多个训练数据以及所述对应的训练标签输入至初始文本拼接模型;
通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型。
上述实施方式中,最终损失函数为
Figure BDA0002740483850000091
其中P*和T*为目标占位符和目标字符。模型训练过程中,会采取使得损失函数值最小的训练方式进行训练,而损失函数为上述损失函数。若选用序列神经网络模型,损失函数一般可选择cross entropy。这里,有监督的形式比较灵活,可以处理多种语言现象,但是由于需要人工构造,数据量有限;而自监督的方法可覆盖的语言现象比较有限,但是可以构造海量的训练数据。实际训练时,可以同时结合两种训练数据。具体结合方法可以比较多样,比如可以将两部分数据损失函数值进行加权平均,假设有监督数据上的损失函数值为Lsprv,自监督数据上的损失函数值为Lself,则最终loss为aLsprv+(1-a)Lself,其中a为预先指定的参数。也可以先在有监督的数据上训练,再加入自监督的数据进行训练。通过上述方式可以结合有监督数据和自监督数据进行训练。
在一些可选的实现方式中,所述通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型的步骤之后还包括:
获取多个测试数据以及对应的测试标签;
将所述多个训练数据输入至训练好的文本拼接模型;
获取所述多个训练数据在所述训练好的文本拼接模型下对应的多个输出结果;
通过所述对应的多个输出结果和所述对应的测试标签计算准确率;
若所述准确率低于阈值,则调整所述初始文本拼接模型的学习率,重新训练所述初始文本拼接模型。
上述实施方式中,对于有监督的形式,可以根据生成场景,标注一批上述形式的数据,作为模型的测试数据;对于自监督的形式,我们可以首先对语料进行词性标注(比如使用stanfordnlp[9]等工具),随后统计语料中一些高频的介词,代词,动词等(完整词性列表为:adp,aux,cconj,part,punct,sconj,verb,adj,adv,det,intj,pron),在原文本中抠除这些词。保留下来的词可以认为是模板组件,而被抠除的词则是模板拼接模型需要填充的词。比如,对于语料中的一句话“投保后第10年,赵先生不幸被确诊为视力严重受损,保险公司赔付20万”,可以通过抠词构造如下4个文本片段:“[投保后第10年][赵先生][视力严重受损][保险公司赔付20万]”。于是,通过将上述文本片段可以作为模型的输入,原句作为模型的输出,我们便自动构建了文本拼接的测试数据集。通过上述方式可以完成对模型的评估。
在一些可选的实现方式中,所述获取预设的模板的步骤之后还包括:
将所述预设的模板存储于区块链之中。
需要强调的是,为进一步保证预设的模板的私密和安全性,所述预设的模板还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
可应用于医疗科技/数字医疗领域,通过本申请实现病历、查房日志以及住院小结等医疗文本模板的拼接生成,提高医生的工作效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2-1所示方法的实现,本申请提供了一种文本拼接装置的一个实施例,该装置实施例与图2-1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的文本拼接装置300包括:获取模块301、图接收模块302、输入模块303以及拼接模块304。其中:
获取模块,用于获取预设的模板,所述模板包括多个模板组件;
接收模块,用于通过所述多个模板组件接收用户输入,得到完成设置的模板;
输入模块,用于将所述完成设置的模板输入到训练好的文本拼接模型进行文本拼接;
拼接模块,用于将所述训练好的文本拼接模型的输出作为拼接结果。
本申请通过模板组件和文本拼接模型,使得模板编撰人员不需要关注为了保证语句通顺的语法细节,只需要关注核心组件(模板组件)的语法即可,减少了模板编写难度。由于基于模板拼接的方法生成结果的输入是模板,则模型保证了生成结果的通顺性,使得文本生成结果可干预性强,可以方便的通过调整输入的模板对生成结果进行干预,以减少模板管理的复杂度和成本。
进一步的,所述接收模块包括组件获取子模块以及组件值获取子模块。
组件获取子模块用于从所述预设的模板中获取携有槽位的多个预设的模板组件;
组件值获取子模块用于将所述多个预设的模板组件通过显示设备输出给用户,并通过所述多个预设的模板组件接收用户的输入,并将所述多个预设的模板组件中的槽位设置成对应的值,得到完成设置的模板
进一步的,所述输入模块包括分割子模块、排序子模块以及组件输入子模块。
分割子模块用于获取所述完成设置的模板中多个实例化的模板组件;
排序子模块用于通过分隔符连接所述多个实例化的模板组件,得到输入模板;
组件输入子模块用于将所述输入模板输入到训练好的文本拼接模型。
进一步的,所述拼接模块包括词数量计算子模块、词概率计算子模块以及选取子模块,用于:
词数量计算子模块通过πplh=softmax(Wplh[h′i;h′i+1])计算所述训练好的文本拼接模型中最后一层神经网络的输出词数量的概率,其中,Wplh为所述训练好的文本拼接模型中计算词数量神经元的权值,πplh为预测hi'和hi+1'之间存在词数量的概率,所述hi'为神经网络输出的第i个组件;
词概率计算子模块用于通过πtok=softmax(Wtokh′i)预测每个插入词的概率,其中h′i为编码端对第i个字符的解码,Wtok为所述训练好的文本拼接模型中计算所述每个插入词概率神经元的权值,πtok为预测出hi'和hi+1'之间存在应该存在每个词的概率;
选取子模块用于选取对应最高的所述词数量的概率以及对应的最高所述每个词的概率组合生成文本。
进一步的,所述文本拼接装置还包括训练数据获取子模块,训练数据输入子模块以及训练子模块。
训练数据获取子模块用于获取多个训练数据以及对应的训练标签;
训练数据输入子模块用于将所述多个训练数据以及所述对应的训练标签输入至初始文本拼接模型;
训练子模块用于通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型。
进一步的,所述文本拼接装置还包括测试数据获取子模块,测试数据输入子模块,输出结果获取子模块,准确率计算子模块以及重新训练子模块。
测试数据获取子模块用于获取多个测试数据以及对应的测试标签;
测试数据输入子模块用于将所述多个训练数据输入至训练好的文本拼接模型;
输出结果获取子模块用于获取所述多个训练数据在所述训练好的文本拼接模型下对应的多个输出结果;
准确率计算子模块用于通过所述对应的多个输出结果和所述对应的测试标签计算准确率;
重新训练子模块用于若所述准确率低于阈值,则调整所述初始文本拼接模型的学习率,重新训练所述初始文本拼接模型。
进一步的,所述文本拼接装置还包括区块链子模块。
区块链子模块用于将所述预设的模板存储于区块链之中。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过系统总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作系统和各类应用软件,例如文本拼接方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述文本拼接方法的计算机可读指令。加上执行上述文本拼接方法方法的步骤,具体实施方式不再赘述。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的文本拼接方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种文本拼接方法,其特征在于,包括下述步骤:
获取预设的模板,所述模板包括多个模板组件;
通过所述多个模板组件接收用户输入,得到完成设置的模板;
将所述完成设置的模板输入到训练好的文本拼接模型进行文本拼接;
将所述训练好的文本拼接模型的输出作为拼接结果。
2.根据权利要求1所述的文本拼接方法,其特征在于,所述模板组件包括文本、槽位以子模板组件中的至少一项,所述通过所述多个模板组件接收用户输入,得到完成设置的模板的步骤具体包括:
从所述预设的模板中获取携有槽位的多个预设的模板组件;
将所述多个预设的模板组件通过显示设备输出给用户,并通过所述多个预设的模板组件接收用户的输入,并将所述多个预设的模板组件中的槽位设置成对应的值,得到完成设置的模板。
3.根据权利要求2所述的文本拼接方法,其特征在于,所述将所述完成设置的模板输入到训练好的文本拼接模型的步骤具体包括:
获取所述完成设置的模板中多个实例化的模板组件;
通过分隔符连接所述多个实例化的模板组件,得到输入模板;
将所述输入模板输入到训练好的文本拼接模型。
4.根据权利要求3所述的文本拼接方法,其特征在于,所述将所述训练好的文本拼接模型的输出作为拼接结果的步骤具体包括:
通过πplh=softmax(Wplh[h′i;h′i+1])计算所述训练好的文本拼接模型中最后一层神经网络的输出词数量的概率,其中,Wplh为所述训练好的文本拼接模型中计算词数量神经元的权值,πplh为预测hi'和hi+1'之间存在词数量的概率,所述hi'为神经网络输出的第i个组件;
通过πtok=softmax(Wtokh′i)预测每个插入词的概率,其中h′i为编码端对第i个字符的解码,Wtok为所述训练好的文本拼接模型中计算所述每个插入词概率神经元的权值,πtok为预测出hi'和hi+1'之间存在应该存在每个词的概率;
选取对应最高的所述词数量的概率以及对应的最高所述每个词的概率组合生成文本。
5.根据权利要求1-4中任一项所述的文本拼接方法,其特征在于,所述将所述完成设置的模板组件输入到训练好的文本拼接模型的步骤之前还包括:
获取多个训练数据以及对应的训练标签;
将所述多个训练数据以及所述对应的训练标签输入至初始文本拼接模型;
通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型。
6.根据权利要求5中任一项所述的文本拼接方法,其特征在于,所述通过损失函数训练所述至初始文本拼接模型,得到训练好的文本拼接模型的步骤之后还包括:
获取多个测试数据以及对应的测试标签;
将所述多个训练数据输入至训练好的文本拼接模型;
获取所述多个训练数据在所述训练好的文本拼接模型下对应的多个输出结果;
通过所述对应的多个输出结果和所述对应的测试标签计算准确率;
若所述准确率低于阈值,则调整所述初始文本拼接模型的学习率,重新训练所述初始文本拼接模型。
7.根据权利要求6所述的文本拼接方法,其特征在于,所述获取预设的模板的步骤之后还包括:
将所述预设的模板存储于区块链之中。
8.一种文本拼接装置,其特征在于,包括:
获取模块,用于获取预设的模板,所述模板包括多个模板组件;
接收模块,用于通过所述多个模板组件接收用户输入,得到完成设置的模板组件;
输入模块,用于将所述完成设置的模板组件输入到训练好的文本拼接模型进行文本拼接;
拼接模块,用于将所述训练好的文本拼接模型的输出作为拼接结果。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的文本拼接方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的文本拼接方法的步骤。
CN202011148693.0A 2020-10-23 2020-10-23 文本拼接方法、装置、计算机设备及存储介质 Pending CN112232052A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011148693.0A CN112232052A (zh) 2020-10-23 2020-10-23 文本拼接方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011148693.0A CN112232052A (zh) 2020-10-23 2020-10-23 文本拼接方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN112232052A true CN112232052A (zh) 2021-01-15

Family

ID=74109318

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011148693.0A Pending CN112232052A (zh) 2020-10-23 2020-10-23 文本拼接方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN112232052A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077534A (zh) * 2021-03-22 2021-07-06 上海哔哩哔哩科技有限公司 图片合成云平台及图片合成方法
CN113961790A (zh) * 2021-09-30 2022-01-21 稿定(厦门)科技有限公司 适用于批量文本的访问方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108959256A (zh) * 2018-06-29 2018-12-07 北京百度网讯科技有限公司 短文本的生成方法、装置、存储介质和终端设备
US20190088250A1 (en) * 2017-09-18 2019-03-21 Samsung Electronics Co., Ltd. Oos sentence generating method and apparatus
CN109522531A (zh) * 2017-09-18 2019-03-26 腾讯科技(北京)有限公司 文案生成方法和装置、存储介质及电子装置
CN110750975A (zh) * 2019-10-21 2020-02-04 北京明略软件系统有限公司 介绍文本生成方法及装置
CN111325002A (zh) * 2020-02-17 2020-06-23 广东博智林机器人有限公司 文本生成方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190088250A1 (en) * 2017-09-18 2019-03-21 Samsung Electronics Co., Ltd. Oos sentence generating method and apparatus
CN109522531A (zh) * 2017-09-18 2019-03-26 腾讯科技(北京)有限公司 文案生成方法和装置、存储介质及电子装置
CN108959256A (zh) * 2018-06-29 2018-12-07 北京百度网讯科技有限公司 短文本的生成方法、装置、存储介质和终端设备
CN110750975A (zh) * 2019-10-21 2020-02-04 北京明略软件系统有限公司 介绍文本生成方法及装置
CN111325002A (zh) * 2020-02-17 2020-06-23 广东博智林机器人有限公司 文本生成方法、装置、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077534A (zh) * 2021-03-22 2021-07-06 上海哔哩哔哩科技有限公司 图片合成云平台及图片合成方法
CN113077534B (zh) * 2021-03-22 2023-11-28 上海哔哩哔哩科技有限公司 图片合成云平台及图片合成方法
CN113961790A (zh) * 2021-09-30 2022-01-21 稿定(厦门)科技有限公司 适用于批量文本的访问方法、装置及存储介质

Similar Documents

Publication Publication Date Title
CN111222317B (zh) 序列标注方法、系统和计算机设备
JP2023539532A (ja) テキスト分類モデルのトレーニング方法、テキスト分類方法、装置、機器、記憶媒体及びコンピュータプログラム
CN112215008A (zh) 基于语义理解的实体识别方法、装置、计算机设备和介质
CN112256886B (zh) 图谱中的概率计算方法、装置、计算机设备及存储介质
CN111985229A (zh) 一种序列标注方法、装置及计算机设备
CN110852106A (zh) 基于人工智能的命名实体处理方法、装置及电子设备
CN112084779B (zh) 用于语义识别的实体获取方法、装置、设备及存储介质
CN110309282A (zh) 一种答案确定方法及装置
CN113887237A (zh) 多意图文本的槽位预测方法、装置及计算机设备
CN113707299A (zh) 基于问诊会话的辅助诊断方法、装置及计算机设备
CN112084752A (zh) 基于自然语言的语句标注方法、装置、设备及存储介质
CN113657105A (zh) 基于词汇增强的医学实体抽取方法、装置、设备及介质
CN113947095A (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN112232052A (zh) 文本拼接方法、装置、计算机设备及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN113723077B (zh) 基于双向表征模型的句向量生成方法、装置及计算机设备
CN113987162A (zh) 文本摘要的生成方法、装置及计算机设备
CN113486659A (zh) 文本匹配方法、装置、计算机设备及存储介质
CN112182157A (zh) 在线序列标注模型的训练方法、在线标注方法及相关设备
CN115169370B (zh) 语料数据增强方法、装置、计算机设备及介质
CN112199954B (zh) 基于语音语义的疾病实体匹配方法、装置及计算机设备
US11790885B2 (en) Semi-structured content aware bi-directional transformer
CN113657104A (zh) 文本抽取方法、装置、计算机设备及存储介质
CN113505595A (zh) 文本短语抽取方法、装置、计算机设备及存储介质
CN113420869A (zh) 基于全方向注意力的翻译方法及其相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination