CN112632240B - 基于知识库导向的网络文本生成方法、装置及存储介质 - Google Patents
基于知识库导向的网络文本生成方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112632240B CN112632240B CN202011492661.2A CN202011492661A CN112632240B CN 112632240 B CN112632240 B CN 112632240B CN 202011492661 A CN202011492661 A CN 202011492661A CN 112632240 B CN112632240 B CN 112632240B
- Authority
- CN
- China
- Prior art keywords
- data
- training data
- knowledge base
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 121
- 238000003062 neural network model Methods 0.000 claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 230000015654 memory Effects 0.000 claims description 51
- 230000006870 function Effects 0.000 claims description 25
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种文本生成技术领域,揭露一种基于知识库导向的网络文本生成方法,包括获取训练数据;其中,训练数据包括历史对话数据和预设知识库中的实体数据;基于训练数据训练文本生成模型的基础神经网络模型,基础神经网络包括编码端和解码端,编码端用于对训练数据进行编码处理,解码端用于对编码端处理后的数据进行解码处理,直至基础神经网络模型的损失函数收在预设范围内,以形成文本生成模型;将查询条件输入文本生成模型中,获取与查询条件对应的网络文本数据。此外,本发明还涉及区块链技术,训练数据存储于区块链中。本发明可以提高网络文本生成的准确率及速度。
Description
技术领域
本发明涉及文本生成技术,尤其涉及一种基于知识库导向的网络文本生成方法、装置、电子设备及计算机可读存储介质。
背景技术
随着AI技术的快速发展,自然语言处理技术近年来也不断突破,文本生成在工业界被广泛应用,与此同时文本生成存在的一些问题也日益凸显,如现有NLP(NaturalLanguage Processing,自然语言处理)技术中普遍存在的OOV(out of vocabulary)问题;由于文本生成在任务型对话中,生成的内容可能不仅仅来源于对话历史记录,还有可能来源于其他外部数据结果,进而会导致无法生成训练数据外的结果;此外,普通的任务型对话框架是pipline 形式,容易发生错误传导问题,在具体的网络设计中,依然存在文本长距离依赖无法捕获问题,并且大部分文本生成所使用的普通seq2seq框架也有生成的文本比较单一和重复的问题等。
目前,基于深度学习的文本生成技术研究已经成为人工智能研究的热点方向,改进文本自动生成技术中的缺点和不足,对将来快速生成符合条件的短评论和短文本具有重要意义,对扩展应用领域有很大的帮助。
采用传统的模板的方法实现文本自动生成的文本句子表达模式固定,不具有灵活性,不适于当前环境下的复杂多变的语言文字表达交流;采用生成对抗网络GAN模型的方法在训练语言模型的时候,由于自然语言的离散数据特性,不容易训练,虽然可以产生的文本较灵活,但是训练的代价很大,需要耗费很大的资源去训练和实现。
发明内容
本发明提供一种基于知识库导向的网络文本生成方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高文本生成的效率及准确度。
为实现上述目的,本发明提供的一种基于知识库导向的网络文本生成方法,包括获取训练数据;其中,所述训练数据包括历史对话数据和预设知识库中的实体数据;基于所述训练数据训练文本生成模型的基础神经网络模型,所述基础神经网络包括编码端和解码端,所述编码端用于对所述训练数据进行编码处理,所述解码端用于对所述编码端处理后的数据进行解码处理,直至所述基础神经网络模型的损失函数收在预设范围内,以形成所述文本生成模型;将查询条件输入所述文本生成模型中,获取与所述查询条件对应的网络文本数据。
可选地,所述训练数据存储于区块链中,所述训练数据的获取公式表示为:
U=[B;X]
其中,U表示所述训练数据,X表示所述历史对话数据,B表示所述知识库中的实体数据三元组。
可选地,所述历史对话数据的公式表示为:
X={x1,x2,...xn,$}
其中,xn表示所述历史对话数据中的任意字符,$表示所述历史对话数据中的特殊字符;所述实体数据三元组的公式表示为:
B={b1,b2,...,bl},
其中,bl表示实体数据三元组。
可选地,所述基于所述训练数据训练文本生成模型的基础神经网络模型的步骤包括:将所述训练数据输入所述基础神经网络模型中,所述基础神经网络模型输出与所述训练数据对应的标签数据;其中,所述标签数据的公式表示为:
其中,表示t时刻所述基础神经网络模型输出的标签数据,U表示所述训练数据,Uz表示所述知识库中的某一实体,Z表示Uz在所述实体数据三元组中的位置,n表示输入文本字数,l表示所述知识库中实体数据三元组的个数,label表示标签。
可选地,所述编码端用于对所述训练数据进行编码处理的步骤包括:通过编码端对所述查询条件进行编码,获取与所述查询条件对应的初始编码矩阵;获取所述初始编码矩阵与预设的记忆矩阵的乘积,以获取与所述查询条件对应的记忆内容信息;基于所述记忆内容信息更新所述查询条件,直至更新次数与所述查询条件的访问次数相等,获取编码数据并结束编码。
可选地,解码端用于对所述编码端处理后的数据进行解码处理的步骤包括:解析所述编码数据并获取与所述编码数据对应的词分布概率;根据所述词分布概率获取损失函数;基于所述训练数据最小化所述损失函数,直至所述基础神经网络模型收敛在预设范围内。
为了解决上述问题,本发明还提供一种基于知识库导向的网络文本生成装置,其特征在于,包括:训练数据获取模块,用于获取训练数据;其中,所述训练数据包括历史对话数据和预设知识库中的实体数据;文本生成模型形成模块,用于基于所述训练数据训练文本生成模型的基础神经网络模型,所述基础神经网络包括编码端和解码端,所述编码端用于对所述训练数据进行编码处理,所述解码端用于对所述编码端处理后的数据进行解码处理,直至所述基础神经网络模型的损失函数收在预设范围内,以形成所述文本生成模型;网络文本数据获取模块,用于将查询条件输入所述文本生成模型中,获取与所述查询条件对应的网络文本数据。
可选地,所述训练数据存储于区块链中,训练数据的获取公式表示为:
U=[B;X]
其中,U表示所述训练数据,X表示所述历史对话数据,B表示所述知识库中的实体数据三元组。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述基于知识库导向的网络文本生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于知识库导向的网络文本生成方法。
本发明实施例结合知识库和记忆网络,将外部数据考虑进原始数据中,不仅可以避免OVV问题,还能够对任务型对话中答案生成训练数据之外的语义友好,此外,采用非pipline结构能避免误差传导等问题。进而更加准确的提取查询条件query中的长语义,文本生成精度高、适用范围广、速度快。
附图说明
图1为本发明一实施例提供的基于知识库导向的网络文本生成方法的流程示意图;
图2为本发明一实施例提供的基于知识库导向的网络文本生成装置的模块示意图;
图3为本发明一实施例提供的实现基于知识库导向的网络文本生成方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于知识库导向的网络文本生成方法。参照图1所示,为本发明一实施例提供的基于知识库导向的网络文本生成方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,基于知识库导向的网络文本生成方法包括:
S110:获取训练数据;其中,训练数据包括历史对话数据和预设知识库中的实体数据。
其中,训练数据可存储于区块链中,训练数据的获取公式表示为:
U=[B;X]
其中,U表示训练数据,X表示历史对话数据,B表示知识库中的实体数据三元组。进一步地,历史对话数据的公式表示为:
X={x1,x2,...xn,$}
其中,xn表示历史对话数据中的任意字符,$表示历史对话数据中的特殊字符;实体数据三元组的公式表示为:
B={b1,b2,...,bl},
其中,bl表示实体数据三元组。
在本发明的知识库导向的记忆文本生成方法中,基于训练数据训练文本生成模型的基础神经网络模型的步骤包括:将训练数据输入基础神经网络模型中,基础神经网络模型输出与训练数据对应的标签数据;其中,标签数据的公式表示为:
其中,表示t时刻基础神经网络模型输出的标签数据,U表示训练数据,Uz表示知识库中的某一实体,Z表示Uz在实体数据三元组中的位置, n表示输入文本字数,l表示知识库中实体数据三元组的个数,label表示标签。
作为示例,设定历史对话数据为X,Xi为历史对话数据中的任意字符,$作为特殊字符,用于标记是否;B为知识库中的实体数据三元组,U为历史对话数据与知识库中的实体数据的拼接数据,该拼接数据即为训练数据,可用于输入基础神经网络模型中进行文本生成模型的训练。
其中,定义的X、B、U表达式分别如下所示:
X={x1,x2,...xn,$}
B={b1,b2,...,bl}
U=[B;X]
另外,将训练数据输入基础神经网络模型中后,t时刻基础神经网络模型的输出的label或标签数据可用下述公式表示:
其中,表示t时刻基础神经网络模型输出的label,此处的lable可理解为文本生成模型的标签数据,该标签由y组成,y可能表示知识库中某个实体的位置,也可能表示历史对话数据中某个字词的位置,Label={y1,y2,...yt},当yi表示知识库中的某一实体时,label为该实体的位置信息,否则label指向原输入文本的位置。因此,在上述训练数据中,每条训练数据又可进一步表示为(query,y);query表示查询或查询条件,y表示实体的位置信息。
另外,n为输入文本字数(x长度),l为知识库中三元组数据的个数,U 表示历史输入数据与知识库所有实体的总和,uz为知识库中的某一实体,z为 uz在B中的位置。max(z)是指当预测结果存在指向实体位置时,指向的概率最大的那个实体的具体位置。
S120:基于训练数据训练文本生成模型的基础神经网络模型,基础神经网络包括编码端和解码端,编码端用于对训练数据进行编码处理,解码端用于对所述编码端处理后的数据进行解码处理,直至基础神经网络模型的损失函数收在预设范围内,以形成文本生成模型。
其中,基础神经网络模型包括编码端和解码端;其中,编码端用于对所述训练数据进行编码处理的步骤包括:通过编码端对查询条件进行编码,获取与查询条件对应的初始编码矩阵;获取初始编码矩阵与预设的记忆矩阵的乘积,以获取与查询条件对应的记忆内容信息;基于记忆内容信息更新查询条件,直至更新次数与查询条件的访问次数相等,获取编码数据并结束编码。而解码端用于对所述编码端处理后的数据进行解码处理的步骤包括:解析编码数据并获取与编码数据对应的词分布概率;根据词分布概率获取损失函数;基于训练数据最小化损失函数,直至基础神经网络模型收敛在预设范围内。
具体地,在文本生成模型的训练过程中,首先通过Encoder端(编码端) 对query进行编码处理,编码处理后的数据输入Decoder端(解码端)进行解码,直至损失函数loss收敛至要求范围内,完成文本生成模型的训练过程。具体的步骤如下:
1、首先通过Encoder端对query进行编码,获取对应的初始编码矩阵q0, q0=Embedding(query);
2、预设一系列固定大小且可训练的矩阵C作为记忆矩阵,C={C1,C2,...CK},C代表更新的记忆(矩阵),K表示k跳,即输入的query的访问次数。
3、根据query与记忆矩阵的乘积获取当前访问次数下的记忆的内容信息,并用概率表示,进而根据概率/>对各记忆进行加权求和,获取query中的关注部分ok。其表示公式分别如下:
其中,Query与C相乘,得到的结果进行归一化后代表了从记忆中取出更关注的东西,例如,qk是指m*n大小的矩阵(m表示字词个数,编码为n 维,并且已经进行了k次处理),Ck是指m*m的记忆矩阵,代表 Ck中的第i列,/>表示query与/>的交互,softmax归一化后变为概率/>这种交互的结果相当于进行了相关性的筛选,即从记忆C中取出了query关注的记忆内容。
4、利用ok更新query为qk+1,并进入下一跳循环,直至K次循环后, Encoder端编码结束。更新表达公式如下:
qk+1=qk+ok
另一方面,decoder端可采用RNN等系列的GRU对Encoder端编码结束的数据进行解码处理,其中decoder端的输入为上一时刻隐状态ht-1,和从上一时刻的label中取出的记忆信息其中,当前时刻t的状态表示为:
最终生成的词分布表示如下,其中W1为参数矩阵,用于初始化一层全连接层,将激活函数设置为1即可获得该参数矩阵,/>是指第 t个字词为知识库中每个字词的概率:
此外,同时生成指针指向分布,直接取记忆矩阵最后一跳的概率:
进一步地,在上述文本生成模型训练过程中,损失函数loss由两部分组成,包括和yt的交叉熵以及/>和ptrt的交叉熵,损失函数的表达公式如下所示:
可知,使用训练数据最小化上述loss直到文本生成模型收敛在预设范围内,即可完成模型的训练过程。
此外,上述基础神经网络模型也可选用其他能实现自编码的模型,并不具体限制基础神经网络模型的种类。
S130:将查询条件输入文本生成模型中,获取与查询条件对应的网络文本数据。
可知,本发明提供的基于知识库导向的记忆网络文本生成方法,结合知识库和记忆网络,将外部数据考虑进原始数据中,不仅可以避免OVV问题,还能够对任务型对话中答案生成训练数据之外的语义友好,此外,采用非 pipline结构能避免误差传导等问题。进而更加准确的提取query中的长语义,文本生成精度高、适用范围广、速度快。
为了解决上述问题,本发明还提供一种基于知识库导向的网络文本生成装置。如图2基于知识库导向的网络文本生成装置的模块示意图所示,基于知识库导向的网络文本生成装置100,包括:训练数据获取模块101,用于获取训练数据;其中,训练数据包括历史对话数据和预设知识库中的实体数据;文本生成模型形成模块102,用于基于训练数据训练文本生成模型的基础神经网络模型,基础神经网络包括编码端和解码端,编码端用于对训练数据进行编码处理,解码端用于对编码端处理后的数据进行解码处理,直至基础神经网络模型的损失函数收在预设范围内,以形成文本生成模型;网络文本数据获取模块103,用于将查询条件输入文本生成模型中,获取与查询条件对应的网络文本数据。
此外,训练数据存储于区块链中,训练数据的获取公式表示为:
U=[B;X]
其中,U表示训练数据,X表示历史对话数据,B表示知识库中的实体数据三元组。
进一步地,历史对话数据的公式表示为:
X={x1,x2,...xn,$}
其中,xn表示历史对话数据中的任意字符,$表示历史对话数据中的特殊字符;实体数据三元组的公式表示为:
B={b1,b2,...,bl},
其中,bl表示实体数据三元组。
可选地,基于训练数据训练文本生成模型的基础神经网络模型的步骤包括:将训练数据输入基础神经网络模型中,基础神经网络模型输出与训练数据对应的标签数据;其中,标签数据的公式表示为:
其中,表示t时刻基础神经网络模型输出的标签数据,U表示训练数据,Uz表示知识库中的某一实体,Z表示Uz在实体数据三元组中的位置, n表示输入文本字数,l表示知识库中实体数据三元组的个数,label表示标签。
进一步地,基础神经网络模型包括编码端和解码端;其中,编码端的处理步骤包括:通过编码端对查询条件进行编码,获取与查询条件对应的初始编码矩阵;获取初始编码矩阵与预设的记忆矩阵的乘积,以获取与查询条件对应的记忆内容信息;基于记忆内容信息更新查询条件,直至更新次数与查询条件的访问次数相等,获取编码数据并结束编码。
而解码端的处理步骤包括:解析编码数据并获取与编码数据对应的词分布概率;根据词分布概率获取损失函数;基于训练数据最小化损失函数,直至基础神经网络模型收敛在预设范围内。
为了解决上述问题,本发明还提供一种电子设备,电子设备包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述基于知识库导向的网络文本生成方法。
其中需要强调的是,为进一步保证上述训练数据的私密和安全性,上述各数据还可以存储于一区块链的节点中。
如图3所示,是本发明实现基于知识库导向的网络文本生成方法的电子设备的结构示意图。
电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在存储器11中并可在处理器10上运行的计算机程序,如基于知识库导向的网络文本生成程序12。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备 1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如训练数据等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器 10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于知识库导向的网络文本生成程序12等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3 示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源 (比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器 10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器 (Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是 LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于知识库导向的网络文本生成程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取训练数据;其中所述训练数据包括历史对话数据和预设知识库中的实体数据;基于所述训练数据训练文本生成模型的基础神经网络模型,所述基础神经网络包括编码端和解码端,所述编码端用于对所述训练数据进行编码处理,所述解码端用于对所述编码端处理后的数据进行解码处理,直至所述基础神经网络模型的损失函数收在预设范围内,以形成所述文本生成模型;将查询条件输入所述文本生成模型中,获取与所述查询条件对应的网络文本数据。
可选地,训练数据存储于区块链中,所述训练数据的获取公式表示为:
U=[B;X]
其中,U表示所述训练数据,X表示所述历史对话数据,B表示所述知识库中的实体数据三元组。
可选地,所述历史对话数据的公式表示为:
X={x1,x2,...xn,$}
其中,xn表示所述历史对话数据中的任意字符,$表示所述历史对话数据中的特殊字符;所述实体数据三元组的公式表示为:
B={b1,b2,...,bl},
其中,bl表示实体数据三元组。
可选地,所述基于所述训练数据训练文本生成模型的基础神经网络模型的步骤包括:将所述训练数据输入所述基础神经网络模型中,所述基础神经网络模型输出与所述训练数据对应的标签数据;其中,所述标签数据的公式表示为:
其中,表示t时刻所述基础神经网络模型输出的标签数据,U表示所述训练数据,Uz表示所述知识库中的某一实体,Z表示Uz在所述实体数据三元组中的位置,n表示输入文本字数,l表示所述知识库中实体数据三元组的个数,label表示标签。
可选地,所述编码端用于对所述训练数据进行编码处理的步骤包括:通过编码端对所述查询条件进行编码,获取与所述查询条件对应的初始编码矩阵;获取所述初始编码矩阵与预设的记忆矩阵的乘积,以获取与所述查询条件对应的记忆内容信息;基于所述记忆内容信息更新所述查询条件,直至更新次数与所述查询条件的访问次数相等,获取编码数据并结束编码。
可选地,解码端用于对所述编码端处理后的数据进行解码处理的步骤包括:解析所述编码数据并获取与所述编码数据对应的词分布概率;根据所述词分布概率获取损失函数;基于所述训练数据最小化所述损失函数,直至所述基础神经网络模型收敛在预设范围内。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述训练数据的私密和安全性,上述各训练数据还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (6)
1.一种基于知识库导向的网络文本生成方法,其特征在于,包括:
获取训练数据;其中,所述训练数据包括历史对话数据和预设知识库中的实体数据;
基于所述训练数据训练基础神经网络模型,所述基础神经网络包括编码端和解码端,所述编码端用于对所述训练数据进行编码处理,所述解码端用于对所述编码端处理后的数据进行解码处理,直至所述基础神经网络模型的损失函数收在预设范围内,以形成文本生成模型;
将查询条件输入所述文本生成模型中,获取与所述查询条件对应的网络文本数据;所述训练数据存储于区块链中,所述训练数据的获取公式表示为:
U=[B;X]
其中,U表示所述训练数据,X表示所述历史对话数据,B表示所述知识库中的实体数据三元组;
所述历史对话数据的公式表示为:
X={x1,x2,…xn,$}
其中,xn表示所述历史对话数据中的任意字符,$表示所述历史对话数据中的特殊字符;
所述实体数据三元组的公式表示为:
B={b1,b2,…,bl},
其中,bl表示实体数据三元组;
所述基于所述训练数据训练文本生成模型的基础神经网络模型的步骤包括:
将所述训练数据输入所述基础神经网络模型中,所述基础神经网络模型输出与所述训练数据对应的标签数据;其中,
所述标签数据的公式表示为:
其中,表示t时刻所述基础神经网络模型输出的标签数据,Uz表示所述知识库中的某一实体,yi表示某一实体的位置信息,Z表示Uz在所述实体数据三元组中的位置,n表示输入文本字数,l表示所述知识库中实体数据三元组的个数,label表示标签。
2.如权利要求1所述的基于知识库导向的网络文本生成方法,其特征在于,所述编码端用于对所述训练数据进行编码处理的步骤包括:
通过编码端对所述查询条件进行编码,获取与所述查询条件对应的初始编码矩阵;
获取所述初始编码矩阵与预设的记忆矩阵的乘积,以获取与所述查询条件对应的记忆内容信息;
基于所述记忆内容信息更新所述查询条件,直至更新次数与所述查询条件的访问次数相等,获取编码数据并结束编码。
3.如权利要求2所述的基于知识库导向的网络文本生成方法,其特征在于,所述解码端用于对所述编码端处理后的数据进行解码处理的步骤包括:
解析所述编码数据并获取与所述编码数据对应的词分布概率;
根据所述词分布概率获取损失函数;
基于所述训练数据最小化所述损失函数,直至所述基础神经网络模型收敛在预设范围内。
4.一种基于知识库导向的网络文本生成装置,其特征在于,包括:
训练数据获取模块,用于获取训练数据;其中,所述训练数据包括历史对话数据和预设知识库中的实体数据;
文本生成模型形成模块,用于基于所述训练数据训练文本生成模型的基础神经网络模型,所述基础神经网络包括编码端和解码端,所述编码端用于对所述训练数据进行编码处理,所述解码端用于对所述编码端处理后的数据进行解码处理,直至所述基础神经网络模型的损失函数收在预设范围内,以形成文本生成模型;
网络文本数据获取模块,用于将查询条件输入所述文本生成模型中,获取与所述查询条件对应的网络文本数据;所述训练数据存储于区块链中,所述训练数据的获取公式表示为:
U=[B;X]
其中,U表示所述训练数据,X表示所述历史对话数据,B表示所述知识库中的实体数据三元组;
所述历史对话数据的公式表示为:
X={x1,x2,…xn,$}
其中,xn表示所述历史对话数据中的任意字符,$表示所述历史对话数据中的特殊字符;
所述实体数据三元组的公式表示为:
B={b1,b2,…,bl},
其中,bl表示实体数据三元组;
所述基于所述训练数据训练文本生成模型的基础神经网络模型包括:
将所述训练数据输入所述基础神经网络模型中,所述基础神经网络模型输出与所述训练数据对应的标签数据;其中,
所述标签数据的公式表示为:
其中,表示t时刻所述基础神经网络模型输出的标签数据,Uz表示所述知识库中的某一实体,yi表示某一实体的位置信息,Z表示Uz在所述实体数据三元组中的位置,n表示输入文本字数,l表示所述知识库中实体数据三元组的个数,label表示标签。
5.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3中任一所述的基于知识库导向的网络文本生成方法。
6.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一所述的基于知识库导向的网络文本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492661.2A CN112632240B (zh) | 2020-12-16 | 2020-12-16 | 基于知识库导向的网络文本生成方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492661.2A CN112632240B (zh) | 2020-12-16 | 2020-12-16 | 基于知识库导向的网络文本生成方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112632240A CN112632240A (zh) | 2021-04-09 |
CN112632240B true CN112632240B (zh) | 2024-02-09 |
Family
ID=75316673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011492661.2A Active CN112632240B (zh) | 2020-12-16 | 2020-12-16 | 基于知识库导向的网络文本生成方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112632240B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085857A2 (en) * | 2007-01-04 | 2008-07-17 | Children's Hospital Medical Center | Processing text with domain-specific spreading activation methods |
US9830315B1 (en) * | 2016-07-13 | 2017-11-28 | Xerox Corporation | Sequence-based structured prediction for semantic parsing |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
CN109189933A (zh) * | 2018-09-14 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种文本信息分类的方法及服务器 |
CN109977212A (zh) * | 2019-03-28 | 2019-07-05 | 清华大学深圳研究生院 | 对话机器人的回复内容生成方法和终端设备 |
CN110032633A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 多轮对话处理方法、装置和设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858263B2 (en) * | 2016-05-05 | 2018-01-02 | Conduent Business Services, Llc | Semantic parsing using deep neural networks for predicting canonical forms |
-
2020
- 2020-12-16 CN CN202011492661.2A patent/CN112632240B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085857A2 (en) * | 2007-01-04 | 2008-07-17 | Children's Hospital Medical Center | Processing text with domain-specific spreading activation methods |
US9830315B1 (en) * | 2016-07-13 | 2017-11-28 | Xerox Corporation | Sequence-based structured prediction for semantic parsing |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
CN109189933A (zh) * | 2018-09-14 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种文本信息分类的方法及服务器 |
CN109977212A (zh) * | 2019-03-28 | 2019-07-05 | 清华大学深圳研究生院 | 对话机器人的回复内容生成方法和终端设备 |
CN110032633A (zh) * | 2019-04-17 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 多轮对话处理方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112632240A (zh) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110598213A (zh) | 一种关键词提取方法、装置、设备及存储介质 | |
CN114822812B (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN114580424B (zh) | 一种用于法律文书的命名实体识别的标注方法和装置 | |
CN112131368B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
CN113807973B (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN113641830B (zh) | 模型预训练方法、装置、电子设备和存储介质 | |
CN113947095B (zh) | 多语种文本翻译方法、装置、计算机设备及存储介质 | |
CN114445832A (zh) | 基于全局语义的文字图像识别方法、装置及计算机设备 | |
CN113657105A (zh) | 基于词汇增强的医学实体抽取方法、装置、设备及介质 | |
CN115238115A (zh) | 基于中文数据的图像检索方法、装置、设备及存储介质 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
CN115906815A (zh) | 一种用于修改一种或多种类型错误句子的纠错方法及装置 | |
CN114780701A (zh) | 自动问答匹配方法、装置、计算机设备及存储介质 | |
CN113850078A (zh) | 基于机器学习的多意图识别方法、设备及可读存储介质 | |
CN116702761A (zh) | 文本纠错方法、装置、设备及存储介质 | |
CN115169330B (zh) | 中文文本纠错及验证方法、装置、设备及存储介质 | |
CN112507728A (zh) | 智能对话方法、装置、电子设备及存储介质 | |
CN112632240B (zh) | 基于知识库导向的网络文本生成方法、装置及存储介质 | |
CN116757193A (zh) | 基于对比学习的多轮对话生成方法、装置、设备及介质 | |
CN114757154B (zh) | 基于深度学习的作业生成方法、装置、设备及存储介质 | |
CN116705345A (zh) | 医疗实体标注方法、装置、设备及存储介质 | |
CN115270792A (zh) | 一种医疗实体识别方法及装置 | |
CN112749264A (zh) | 基于智能机器人的问题分发方法、装置、电子设备及存储介质 | |
CN114372467A (zh) | 命名实体抽取方法及装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220922 Address after: 518066 2601 (Unit 07), Qianhai Free Trade Building, No. 3048, Xinghai Avenue, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong, China Applicant after: Shenzhen Ping An Smart Healthcare Technology Co.,Ltd. Address before: 1-34 / F, Qianhai free trade building, 3048 Xinghai Avenue, Mawan, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong 518000 Applicant before: Ping An International Smart City Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |