CN114722887A - 网络模型训练方法、样本关系类别获取方法、电子设备 - Google Patents
网络模型训练方法、样本关系类别获取方法、电子设备 Download PDFInfo
- Publication number
- CN114722887A CN114722887A CN202110008841.7A CN202110008841A CN114722887A CN 114722887 A CN114722887 A CN 114722887A CN 202110008841 A CN202110008841 A CN 202110008841A CN 114722887 A CN114722887 A CN 114722887A
- Authority
- CN
- China
- Prior art keywords
- network model
- sample
- data set
- samples
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种网络模型训练方法、样本关系类别获取方法、电子设备。其中,该方法包括:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。本发明解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
Description
技术领域
本发明涉及网络模型训练领域,具体而言,涉及一种网络模型训练方法、样本关系类别获取方法、电子设备。
背景技术
在相关技术中,关系抽取意义重大,该领域中海量资料文献中包含着大量知识,如果能够将这些知识结构化,不仅利于计算机存储,而且可以为下游诸多应用提供便利,例如,检索,问答等应用。
此前,在监督关系抽取这个研究领域的一些研究成果,大部分成果都集中在研究如何让模型在对监督的数据集的学习过程中尽可能少地受到噪音数据的干扰,不管是通过多示例学习选出一个包中后验概率最高的样本代表整个数据集并作为整个包的特征,或是通过注意力机制对数据集内所有样本进行加权,模型总是通过对一个数据集内少数有代表性学习样本的学习来抑制噪音数据的影响。
然而,关系抽取依赖大规模的标注数据,监督虽然能利用已有的知识库自动地生成带标签的实体关系抽取训练数据,但是其生成的数据存在很多的问题,包括之前的研究中广泛涉及的数据集内样本噪音问题以及在本申请文件中首次提出的多样性抑制问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种网络模型训练方法、样本关系类别获取方法、电子设备,以至少解决现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
根据本发明实施例的一个方面,提供了一种网络模型训练方法,包括:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
根据本发明实施例的另一方面,还提供了一种样本关系类别获取方法,包括:获取待预测样本;利用上述待预测样本构造样本特征向量;将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
根据本发明实施例的另一方面,还提供了一种样本关系类别获取方法,包括:接收当前输入的待预测样本;将上述待预测样本发送至服务端;接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;在客户端本地显示上述样本关系类别。
根据本发明实施例的另一方面,还提供了一种样本关系类别获取方法,包括:接收来自于客户端的待预测样本;利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
根据本发明实施例的另一方面,还提供了一种非易失性存储介质,上述非易失性存储介质包括存储的程序,其中,在上述程序运行时控制上述非易失性存储介质所在设备执行任意一项上述的网络模型训练方法,以及任意一项上述的样本关系类别获取方法。
根据本发明实施例的另一方面,还提供了一种电子设备,包括:处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
在本发明实施例中,通过获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
容易注意到的是,本申请实施例提出一种新的数据集的构建方式,在训练过程中,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1示出了一种用于实现网络模型训练方法的计算机终端(或移动设备)的硬件结构框图;
图2是根据本发明实施例的一种网络模型训练方法的流程图;
图3是根据本发明实施例的一种样本关系类别获取方法的流程图;
图4是根据本发明实施例的另一种样本关系类别获取方法的流程图;
图5是根据本发明实施例的另一种样本关系类别获取方法的流程图;
图6是根据本申请实施例的一种网络模型训练装置的结构示意图;
图7是根据本申请实施例的一种样本关系类别获取装置的结构示意图;
图8是根据本申请实施例的另一种样本关系类别获取装置的结构示意图;
图9是根据本申请实施例的另一种样本关系类别获取装置的结构示意图;
图10是根据本申请实施例的另一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
关系抽取:是指从大规模非结构或半结构的自然语言文本中抽取结构化三元组信息。
多示例学习:是指多示例学习是由监督型学习演变出的一种方法,定义“包”为多个示例的集合,具有广泛的应用。学习者不是接收一组单独标记的实例,而是接收一组带标签的包,每个包拥有多个实例。
注意力机制:是指注意力机制可以使得神经网络具备专注于其输入(或特征)子集的能力,即选择特定的输入。
实施例1
根据本发明实施例,提供了一种网络模型训练方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现网络模型训练方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为BUS总线的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的网络模型训练方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的网络模型训练方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102设置的存储器,这些存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
在上述运行环境下,本申请提供了如图2所示的网络模型训练方法。图2是根据本发明实施例的一种网络模型训练方法的流程图,如图2所示,上述网络模型训练方法包括:
步骤S202,获取监督数据集,其中,上述监督数据集包括:多个待训练样本;
步骤S204,按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;
步骤S206,利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
在本发明实施例中,通过获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
容易注意到的是,本申请实施例提出一种新的数据集的构建方式,在训练过程中,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
需要说明的是,上述网络模型训练方法其实质可以理解为一种基于聚类增强的句子级别的监督关系的抽取方法,可以但不限于应用在基于聚类增强抽取监督关系的应用场景中。
例如,可以应用于包括家医知识问答,乳腺癌知识图谱,骨科知识问答等需要借助信息抽取技术构建知识图谱的医疗领域。
作为一种可选的实施例,本申请实施例可以借助信息抽取技术构建医疗领域的通用知识图谱,囊括医疗领域的各类知识,包括疾病,药物,医疗服务流程,并在此之上搭建智能对话系统,为基层医生,病患提供各类答疑服务。
通过本申请实施例,使得网络模型能够在抑制噪音数据的同时也能学习到具有复杂表达方式的样本,本申请实施例提出一个新的数据集的构建方式:聚类增强数据集,不同于之前所有研究工作中将包含相同实体对的实例作为一个数据集(在训练过程中,所有数据集中包含的样本是固定的),而在聚类增强数据集中数据集的构建是动态的。深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个类别的所有样本混合在一起,聚类算法在此集合上聚得的每个簇被看作一个数据集。同时,深度神经网络或者其它的特征抽取器基于此数据集又可以更新自身的模型参数,这两个模块相互依赖相互加强,通过迭代训练取得更优的性能。
在一种可选的实施例中,获取上述监督数据集包括:
步骤S302,获取非结构化文本;
步骤S304,将上述非结构化文本与关联知识库对齐,得到上述监督数据集。
可选的,在本申请实施例中,可以但不限于从互联网上获取大量的上述非结构化文本,并将获取到的上述非结构化文本与关联知识库对齐,生成监督数据集。
在一种可选的实施例中,获取上述非结构化文本包括:
步骤S402,确定需待爬取的根网页列表;
步骤S404,利用爬虫工具和深度优先搜索算法从上述根网页列表的每个网页中获取对应的原始文本;
步骤S406,对上述原始文本进行分句处理,得到上述非结构化文本。
可选的,在本申请实施例中,通过收集需要爬取的根网页列表,利用爬虫工具从根网页列表的每一个网页,利用深度优先搜索算法爬取网页;再通过抽取获取网页的原始文本,对原始文本进行分句处理,得到非结构化文本。
在一种可选的实施例中,将上述非结构化文本与上述关联知识库对齐,得到上述监督数据集包括:
步骤S502,判断上述非结构化文本的句子中是否包含上述关联知识库的三元组内至少一个实体;
步骤S504,当上述句子中包含上述三元组内两个实体时,将上述句子标注为上述样本关系类别的正样本;当上述句子中包含上述三元组的一个实体并且上述句子中还包含一个与上述三元组内另一个实体类别相同的其它实体时,将上述句子标注为上述样本关系类别的负样本;
步骤S506,将标注的正样本和标注的负样本确定为上述监督数据集。
在本申请实施例中,通过判断非结构化文本的每个句子中是否包含上述关联知识库中三元组内的至少一个实体,若句子包含某个三元组的两个实体,则将其标为该关系类别的正样本;若包含某个三元组的一个实体,并且包含一个与该三元组内另一个实体类别相同的其它实体,则将其标为该关系类别的负样本;并将标注的正样本和标注的负样本确定为上述监督数据集。
在一种可选的实施例中,按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到上述多个簇包括:
步骤S602,利用密度聚类算法对上述监督数据集中属于相同样本关系类别的待训练样本进行聚类处理,得到上述多个簇。
可选的,在本申请实施例中,上述监督数据集记为B={B1,B2,...,BR},其中,样本关系类别为r,对第i个数据集合并属于相同样本关系类别r所有的监督数据集,得到在BTr上利用密度聚类算法(DBSCAN)对上述监督数据集中属于相同样本关系类别的待训练样本进行聚类处理,得到Cr个簇。
在一种可选的实施例中,利用上述多个簇对上述初始网络模型进行迭代训练,得到上述目标网络模型包括:
步骤S702,获取第一影响因子和第二影响因子;
步骤S704,利用第一参数、第二参数、第三参数、上述第一影响因子以及上述第二影响因子计算得到可信度分数;
步骤S706,基于每个簇对应的后验概率获取上述可信度分数的监督信号;
步骤S708,将上述可信度分数和上述监督信号设置为可信度后验约束的损失函数的输入参数,输出第一计算结果;
步骤S710,通过上述第一计算结果对上述初始网络模型进行迭代训练,得到上述目标网络模型。
可选的,上述第一影响因子用于量化每个簇大小的影响,上述第二影响因子用于评估每个簇中包含正确描述对应样本关系类别的样本可能性。
在本申请实施例中,基于获取到的第一影响因子ui和第二影响因子vi,以及第一参数θ、第二参数λ、第三参数β,可以通过如下计算公式计算得到可信度分数Ri:
Ri=θ+λ*ui+β*vi;
其中,在基于第一影响因子和第二影响因子计算得到上述可信度分数之后,可以从两个方面衡量聚类数据集包含该类关系类型正确表达方式的可能性。
可选的,在本申请实施例中,基于每个簇对应的后验概率p(ri|Bi)获取上述可信度分数的监督信号,其中,该后验概率p(ri|Bi)用于表明该簇的置信程度,其中,后验概率越高,网络模型对该聚类数据集的类别判断越有信心,置信程度也即相应的越高。
可选的,本申请实施例利用logp(ri|bi)作为上述可信度分数的监督信号,通过最小化如下公式所示的平均平方误差MSE来更新可信度分数中的上述第一参数θ、第二参数λ、第三参数β。
在本申请实施例中,将上述可信度分数和上述监督信号设置为可信度后验约束的损失函数的输入参数,输出第一计算结果,通过上述第一计算结果对上述初始网络模型进行迭代训练,得到上述目标网络模型。
在本申请实施例中,可信度后验约束的损失函数RBL可以按照如下公式计算得到,同时,基于选择性注意力关系抽取模型的参数也可以同时用梯度方法进行更新。
在一种可选的实施例中,获取上述第一影响因子包括:
步骤S802,基于上述多个簇中每个簇所包含的待训练样本的样本数量获取上述第一影响因子。
可选的,在本申请实施例中,通过定义一个聚类数据集大小的影响因子(CBSIF)u来量化聚类数据大小的影响,得到如下所示的第一影响因子ui:
ui=tanh(log(1+size(i)));
其中,size(i)表示聚类数据集Bi包含的待训练样本的样本数量。
在一种可选的实施例中,获取上述第二影响因子包括:
步骤S902,基于每个样本关系类别对应的标注样本总数、每个标注样本的特征表示以及每个样本关系类别对应簇的向量表示获取上述第二影响因子。
可选的,在本申请实施例中,在给定一些特别少量的种子人类标注样本时,假定聚类数据集的特征与这些种子人类标注样本的特征越相似,则聚类数据集包含该类关系正确描述样本的可能性就越大。为了反应上述假设,本申请实施定义一个外部标注数据信息因子,即第二影响因子vi:
在一种可选的实施例中,上述方法还包括:
步骤S1002,基于上述多个待训练样本中每个待训练样本构造样本特征向量。
在一种可选的实施例中,基于上述多个待训练样本中每个待训练样本构造上述样本特征向量包括:
步骤S1102,获取每个待训练样本的句子中所包含的多个单词,并将上述多个单词转化为对应的词向量;
步骤S1104,对上述多个单词进行实体合并,并计算上述句子中每个单词与上述句子中第一目标实体之间的第一距离值以及每个单词与上述句子中第二目标实体之间的第二距离值;
步骤S1106,基于上述第一距离值从第一随机初始化查找矩阵中获取第一位置信息向量以及基于上述第二距离值从第二随机初始化查找矩阵中获取第二位置信息向量;
步骤S1108,利用上述词向量、上述第一位置信息向量和上述第二位置信息向量拼接得到每个单词对应的词特征向量;
步骤S1110,利用上述句子中每个单词对应的词特征向量拼接得到上述样本特征向量。
在本申请实施例中,通过获取每个待训练样本的句子S={v1,…,vm}中的多个单词,并利用skip-gram模型训练每个单词的词向量vi;并将包含多个单词的实体合并,并且计算句子中的每个词与该句子中两个目标实体间的距离。
在本申请实施例中,采用第一距离值d1表示句子中每个单词与上述句子中第一目标实体之间的距离值,并采用第二距离值d2表示每个单词与上述句子中第二目标实体之间的第二距离值;每个单词根据第一距离值d1和第二距离值d2分别到第一随机初始化查找矩阵PF1和第二随机初始化查找矩阵PF2中,查找对应的第一位置信息向量pd1和第二位置信息向量pd2。
对于一个句子中的第i个单词,本申请实施例中采用词向量和两段位置向量(即第一位置信息向量和第二位置信息)的拼接结果作为词特征向量,具体地,该词特征向量可以表示为:wi=concat(vi,pd1,pd2)。
通过将句子中每个单词按照上述公式抽取词特征向量,本申请实施例可以将所有的词特征向量拼接获得句子的特征矩阵C,如果句子的长度不到m,则本申请实施例可以采用零向量来补齐,得到特征矩阵C=[w1,w2,...,wm]T。
在一种可选的实施例中,上述方法还包括:
步骤S1202,基于上述监督数据集对上述初始网络模型进行预训练。
在一种可选的实施例中,基于上述监督数据集对上述初始网络模型进行预训练包括:
步骤S1302,将上述多个待训练样本中每个待训练样本转化为对应的实值向量;
步骤S1304,基于每个样本关系类别对应的簇所包含的多个实值向量获取每个待训练样本的注意力权重,其中,上述注意力权重用于确定每个待训练样本的质量;
步骤S1306,利用上述多个实值向量以及上述注意力权重计算得到对应簇的向量表示;
步骤S1308,将上述向量表示设置为损失函数的输入参数,输出第二计算结果;
步骤S1310,基于上述第二计算结果对上述初始网络模型进行预训练。
在本申请实施例中,可以但不限于采用句子级别的基于深度神经网络的特征抽取模型,例如,Bi-GRU,PCNN,将每个待训练样本转化为一个实值向量对于一个样本关系类别r对应的聚类数据集计算选择性的注意力机制用于决定每一个待训练样本的注意力权重
并利用上述多个实值向量以及上述注意力权重计算得到对应簇的向量表示αj:
将上述向量表示设置为损失函数的输入参数,输出第二计算结果,基于上述第二计算结果对上述初始网络模型进行预训练,训练得到基于选择注意力权重的关系抽取模型Loss:
通过本申请实施例,为每个待训练样本构造特征向量;在该监督数据集上预训练基于选择性注意力机制的深度学习关系抽取模型;将数据集中同一样本关系类别的待训练样本合并,在每一个关系类别的样本上通过密度聚类算法获得若干簇;将簇作为数据集合(数据包)级别关系抽取模型的基本训练单元,训练深度学习关系抽取模型;利用更新后的深度神经网络得到样本新的特征向量,并跳转回执行将数据集中同一样本关系类别的待训练样本合并,进行迭代训练得到目标网络模型,采用该目标网络模型对未标注的句子进行关系分类,得到新的关系对。
通过本申请实施例,不管是多示例学习还是注意力机制在监督的关系抽取中都是把双刃剑,它可以抑制包内的噪音样本,同时也在某种程度上抑制了模型对少数表达方式相对复杂的样本的学习,从而导致模型在预测时对一些复杂样本召回率降低。本发明能有效解决多样性抑制问题,提升模型对复杂样本的学习能力,从而提升句子级别的关系抽取性能,并且通过构造两类影响因子约束聚类包的后验概率,定义约束聚类包损失函数,从而在利用监督信息的同时也融入人工标注信息。
本申请实施例还提供了一种如图3所示的样本关系类别获取方法。图3是根据本发明实施例的一种样本关系类别获取方法的流程图,如图3所示,上述样本关系类别获取方法包括:
步骤S1402,获取待预测样本;
步骤S1404,利用上述待预测样本构造样本特征向量;
步骤S1406,将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
在本发明实施例中,通过获取待预测样本;利用上述待预测样本构造样本特征向量;将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
容易注意到的是,本申请实施例的服务端在训练目标网络模型的过程中提出一种新的数据集的构建方式,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
需要说明的是,上述样本关系类别获取方法其实质可以理解为一种基于聚类增强的句子级别的监督关系的抽取方法,可以但不限于应用在基于聚类增强抽取监督关系的应用场景中。
例如,可以应用于包括家医知识问答,乳腺癌知识图谱,骨科知识问答等需要借助信息抽取技术构建知识图谱的医疗领域。
作为一种可选的实施例,本申请实施例可以借助信息抽取技术构建医疗领域的通用知识图谱,囊括医疗领域的各类知识,包括疾病,药物,医疗服务流程,并在此之上搭建智能对话系统,为基层医生,病患提供各类答疑服务。
通过本申请实施例,使得网络模型能够在抑制噪音数据的同时也能学习到具有复杂表达方式的样本,本申请实施例提出一个新的数据集的构建方式:聚类增强数据集,不同于之前所有研究工作中将包含相同实体对的实例作为一个数据集(在训练过程中,所有数据集中包含的样本是固定的),而在聚类增强数据集中数据集的构建是动态的。深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个类别的所有样本混合在一起,聚类算法在此集合上聚得的每个簇被看作一个数据集。同时,深度神经网络或者其它的特征抽取器基于此数据集又可以更新自身的模型参数,这两个模块相互依赖相互加强,通过迭代训练取得更优的性能。
本申请实施例还提供了另一种如图4所示的样本关系类别获取方法。图4是根据本发明实施例的另一种样本关系类别获取方法的流程图,如图4所示,上述样本关系类别获取方法包括:
步骤S1502,接收当前输入的待预测样本;
步骤S1504,将上述待预测样本发送至服务端;
步骤S1506,接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;
步骤S1508,在客户端本地显示上述样本关系类别。
在本发明实施例中,通过客户端接收当前输入的待预测样本;将上述待预测样本发送至服务端;接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;并在客户端本地显示上述样本关系类别。
容易注意到的是,本申请实施例的服务端在训练目标网络模型的过程中提出一种新的数据集的构建方式,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
需要说明的是,上述样本关系类别获取方法其实质可以理解为一种基于聚类增强的句子级别的监督关系的抽取方法,可以但不限于应用在基于聚类增强抽取监督关系的应用场景中。
例如,可以应用于包括家医知识问答,乳腺癌知识图谱,骨科知识问答等需要借助信息抽取技术构建知识图谱的医疗领域。
作为一种可选的实施例,本申请实施例可以借助信息抽取技术构建医疗领域的通用知识图谱,囊括医疗领域的各类知识,包括疾病,药物,医疗服务流程,并在此之上搭建智能对话系统,为基层医生,病患提供各类答疑服务。
通过本申请实施例,使得网络模型能够在抑制噪音数据的同时也能学习到具有复杂表达方式的样本,本申请实施例提出一个新的数据集的构建方式:聚类增强数据集,不同于之前所有研究工作中将包含相同实体对的实例作为一个数据集(在训练过程中,所有数据集中包含的样本是固定的),而在聚类增强数据集中数据集的构建是动态的。深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个类别的所有样本混合在一起,聚类算法在此集合上聚得的每个簇被看作一个数据集。同时,深度神经网络或者其它的特征抽取器基于此数据集又可以更新自身的模型参数,这两个模块相互依赖相互加强,通过迭代训练取得更优的性能。
本申请实施例还提供了另一种如图5所示的样本关系类别获取方法。图5是根据本发明实施例的另一种样本关系类别获取方法的流程图,如图5所示,上述样本关系类别获取方法包括:
步骤S1602,接收来自于客户端的待预测样本;
步骤S1604,利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;
步骤S1606,向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
在本发明实施例中,服务端接收来自于客户端的待预测样本;利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
容易注意到的是,本申请实施例的服务端在训练目标网络模型的过程中提出一种新的数据集的构建方式,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个非易失性存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例上述的方法。
实施例2
根据本申请实施例,还提供了一种用于实施上述网络模型训练方法的装置实施例,图6是根据本申请实施例的一种网络模型训练装置的结构示意图,如图6所示,该装置包括:获取模块600、聚类处理模块602和训练模块604,其中:
获取模块600,通过获取监督数据集,其中,上述监督数据集包括:多个待训练样本;聚类处理模块602,用于按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;训练模块604,用于利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
此处需要说明的是,上述获取模块600、聚类处理模块602和训练模块604对应于实施例1中的步骤S202至步骤S206,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
根据本申请实施例,还提供了另一种用于实施上述样本关系类别获取方法的装置实施例,图7是根据本申请实施例的一种样本关系类别获取装置的结构示意图,如图7所示,该装置包括:第一获取单元700、构造单元702和输入单元704,其中:
第一获取单元700,获取待预测样本;构造单元702,用于利用上述待预测样本构造样本特征向量;输入单元704,用于将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
此处需要说明的是,上述第一获取单元700、构造单元702和输入单元704对应于实施例1中的步骤S1402至步骤S1406,三个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
根据本申请实施例,还提供了另一种用于实施上述样本关系类别获取方法的装置实施例,图8是根据本申请实施例的另一种样本关系类别获取装置的结构示意图,如图8所示,该装置包括:第一接收单元800、发送单元802、第二接收单元804和显示单元806,其中:
第一接收单元800,用于接收当前输入的待预测样本;发送单元802,用于将上述待预测样本发送至服务端;第二接收单元804,用于接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;显示单元806,用于在客户端本地显示上述样本关系类别。
此处需要说明的是,上述第一接收单元800、发送单元802、第二接收单元804和显示单元806对应于实施例1中的步骤S1502至步骤S1508,四个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
根据本申请实施例,还提供了另一种用于实施上述样本关系类别获取方法的装置实施例,图9是根据本申请实施例的另一种样本关系类别获取装置的结构示意图,如图9所示,该装置包括:第三接收单元900、第二获取单元902和返回单元904,其中:
第三接收单元900,用于接收来自于客户端的待预测样本;第二获取单元902,用于利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;返回单元904,用于向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
此处需要说明的是,上述第三接收单元900、第二获取单元902和返回单元904对应于实施例1中的步骤S1602至步骤S1606,三个单元与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
需要说明的是,本实施例的优选实施方式可以参见方法实施例1中的相关描述,此处不再赘述。
实施例3
根据本申请实施例,还提供了一种电子设备的实施例,该电子设备可以是计算设备群中的任意一个计算设备。该电子设备包括:处理器和存储器,其中:
处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
在本发明实施例中,通过获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
容易注意到的是,本申请实施例提出一种新的数据集的构建方式,在训练过程中,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
需要说明的是,本实施例的优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
实施例4
根据本申请的实施例,还提供了一种计算机终端的实施例,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行应用程序的视频生成方法中以下步骤的程序代码:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
可选地,图10是根据本申请实施例的另一种计算机终端的结构框图,如图10所示,该计算机终端可以包括:一个或多个(图中仅示出一个)处理器1002、存储器1004、以及外设接口1006。
其中,存储器可用于存储软件程序以及模块,如本发明实施例中的网络模型训练方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的网络模型训练方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器设置的存储器,这些存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
可选的,上述处理器还可以执行如下步骤的程序代码:获取非结构化文本;将上述非结构化文本与关联知识库对齐,得到上述监督数据集。
可选的,上述处理器还可以执行如下步骤的程序代码:确定需待爬取的根网页列表;利用爬虫工具和深度优先搜索算法从上述根网页列表的每个网页中获取对应的原始文本;对上述原始文本进行分句处理,得到上述非结构化文本。
可选的,上述处理器还可以执行如下步骤的程序代码:判断上述非结构化文本的句子中是否包含上述关联知识库的三元组内至少一个实体;当上述句子中包含上述三元组内两个实体时,将上述句子标注为上述样本关系类别的正样本;当上述句子中包含上述三元组的一个实体并且上述句子中还包含一个与上述三元组内另一个实体类别相同的其它实体时,将上述句子标注为上述样本关系类别的负样本;将标注的正样本和标注的负样本确定为上述监督数据集。
可选的,上述处理器还可以执行如下步骤的程序代码:利用密度聚类算法对上述监督数据集中属于相同样本关系类别的待训练样本进行聚类处理,得到上述多个簇。
可选的,上述处理器还可以执行如下步骤的程序代码:获取第一影响因子和第二影响因子,其中,上述第一影响因子用于量化每个簇大小的影响,上述第二影响因子用于评估每个簇中包含正确描述对应样本关系类别的样本可能性;利用第一参数、第二参数、第三参数、上述第一影响因子以及上述第二影响因子计算得到可信度分数;基于每个簇对应的后验概率获取上述可信度分数的监督信号;将上述可信度分数和上述监督信号设置为可信度后验约束的损失函数的输入参数,输出第一计算结果;通过上述第一计算结果对上述初始网络模型进行迭代训练,得到上述目标网络模型。
可选的,上述处理器还可以执行如下步骤的程序代码:基于上述多个簇中每个簇所包含的待训练样本的样本数量获取上述第一影响因子。
可选的,上述处理器还可以执行如下步骤的程序代码:基于每个样本关系类别对应的标注样本总数、每个标注样本的特征表示以及每个样本关系类别对应簇的向量表示获取上述第二影响因子。
可选的,上述处理器还可以执行如下步骤的程序代码:基于上述多个待训练样本中每个待训练样本构造样本特征向量。
可选的,上述处理器还可以执行如下步骤的程序代码:获取每个待训练样本的句子中所包含的多个单词,并将上述多个单词转化为对应的词向量;对上述多个单词进行实体合并,并计算上述句子中每个单词与上述句子中第一目标实体之间的第一距离值以及每个单词与上述句子中第二目标实体之间的第二距离值;基于上述第一距离值从第一随机初始化查找矩阵中获取第一位置信息向量以及基于上述第二距离值从第二随机初始化查找矩阵中获取第二位置信息向量;利用上述词向量、上述第一位置信息向量和上述第二位置信息向量拼接得到每个单词对应的词特征向量;利用上述句子中每个单词对应的词特征向量拼接得到上述样本特征向量。
可选的,上述处理器还可以执行如下步骤的程序代码:基于上述监督数据集对上述初始网络模型进行预训练。
可选的,上述处理器还可以执行如下步骤的程序代码:将上述多个待训练样本中每个待训练样本转化为对应的实值向量;基于每个样本关系类别对应的簇所包含的多个实值向量获取每个待训练样本的注意力权重,其中,上述注意力权重用于确定每个待训练样本的质量;利用上述多个实值向量以及上述注意力权重计算得到对应簇的向量表示;将上述向量表示设置为损失函数的输入参数,输出第二计算结果;基于上述第二计算结果对上述初始网络模型进行预训练。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取待预测样本;利用上述待预测样本构造样本特征向量;将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收当前输入的待预测样本;将上述待预测样本发送至服务端;接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;在客户端本地显示上述样本关系类别。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:接收来自于客户端的待预测样本;利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
采用本发明实施例,提供了一种网络模型训练的方案。通过获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
容易注意到的是,本申请实施例提出一种新的数据集的构建方式,在训练过程中,监督数据集中包的构建是动态的,深度神经网络或者其它的特征抽取器对每个样本抽取特征后再将每个样本关系类别的所有样本混合,对上述监督数据集进行聚类处理,得到多个簇,再利用上述多个簇对初始网络模型进行迭代训练取得更优的性能,得到目标网络模型。
由此,本申请实施例达到了提升网络模型对复杂样本的学习能力的目的,从而实现了提升抽取监督关系的性能的技术效果,进而解决了现有技术中的关系抽取网络模型对复杂样本的学习能力较低,存在抑制多样性样本学习的技术问题。
本领域普通技术人员可以理解,图10所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等终端设备。图10其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图10中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图10所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读非易失性存储介质中,非易失性存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
实施例5
根据本申请的实施例,还提供了一种非易失性存储介质的实施例。可选地,在本实施例中,上述非易失性存储介质可以用于保存上述实施例1所提供的网络模型训练方法以及样本关系类别获取方法所执行的程序代码。
可选地,在本实施例中,上述非易失性存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取监督数据集,其中,上述监督数据集包括:多个待训练样本;按照上述多个待训练样本的样本关系类别,对上述监督数据集进行聚类处理,得到多个簇;利用上述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,上述初始网络模型和上述目标网络模型用于抽取监督关系。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取非结构化文本;将上述非结构化文本与关联知识库对齐,得到上述监督数据集。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:确定需待爬取的根网页列表;利用爬虫工具和深度优先搜索算法从上述根网页列表的每个网页中获取对应的原始文本;对上述原始文本进行分句处理,得到上述非结构化文本。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:判断上述非结构化文本的句子中是否包含上述关联知识库的三元组内至少一个实体;当上述句子中包含上述三元组内两个实体时,将上述句子标注为上述样本关系类别的正样本;当上述句子中包含上述三元组的一个实体并且上述句子中还包含一个与上述三元组内另一个实体类别相同的其它实体时,将上述句子标注为上述样本关系类别的负样本;将标注的正样本和标注的负样本确定为上述监督数据集。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:利用密度聚类算法对上述监督数据集中属于相同样本关系类别的待训练样本进行聚类处理,得到上述多个簇。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取第一影响因子和第二影响因子,其中,上述第一影响因子用于量化每个簇大小的影响,上述第二影响因子用于评估每个簇中包含正确描述对应样本关系类别的样本可能性;利用第一参数、第二参数、第三参数、上述第一影响因子以及上述第二影响因子计算得到可信度分数;基于每个簇对应的后验概率获取上述可信度分数的监督信号;将上述可信度分数和上述监督信号设置为可信度后验约束的损失函数的输入参数,输出第一计算结果;通过上述第一计算结果对上述初始网络模型进行迭代训练,得到上述目标网络模型。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:基于上述多个簇中每个簇所包含的待训练样本的样本数量获取上述第一影响因子。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:基于每个样本关系类别对应的标注样本总数、每个标注样本的特征表示以及每个样本关系类别对应簇的向量表示获取上述第二影响因子。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:基于上述多个待训练样本中每个待训练样本构造样本特征向量。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取每个待训练样本的句子中所包含的多个单词,并将上述多个单词转化为对应的词向量;对上述多个单词进行实体合并,并计算上述句子中每个单词与上述句子中第一目标实体之间的第一距离值以及每个单词与上述句子中第二目标实体之间的第二距离值;基于上述第一距离值从第一随机初始化查找矩阵中获取第一位置信息向量以及基于上述第二距离值从第二随机初始化查找矩阵中获取第二位置信息向量;利用上述词向量、上述第一位置信息向量和上述第二位置信息向量拼接得到每个单词对应的词特征向量;利用上述句子中每个单词对应的词特征向量拼接得到上述样本特征向量。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:基于上述监督数据集对上述初始网络模型进行预训练。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:将上述多个待训练样本中每个待训练样本转化为对应的实值向量;基于每个样本关系类别对应的簇所包含的多个实值向量获取每个待训练样本的注意力权重,其中,上述注意力权重用于确定每个待训练样本的质量;利用上述多个实值向量以及上述注意力权重计算得到对应簇的向量表示;将上述向量表示设置为损失函数的输入参数,输出第二计算结果;基于上述第二计算结果对上述初始网络模型进行预训练。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:获取待预测样本;利用上述待预测样本构造样本特征向量;将上述样本特征向量输入至目标网络模型,输出上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:接收当前输入的待预测样本;将上述待预测样本发送至服务端;接收来自于上述服务端的上述待预测样本对应的样本关系类别,其中,上述样本关系类别由上述服务端利用目标网络模型来获得,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;在客户端本地显示上述样本关系类别。
可选地,在本实施例中,非易失性存储介质被设置为存储用于执行以下步骤的程序代码:接收来自于客户端的待预测样本;利用目标网络模型获取上述待预测样本对应的样本关系类别,其中,上述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,上述监督数据集包括:多个待训练样本,上述监督数据集用于按照上述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,上述多个簇用于对上述初始网络模型进行迭代训练以得到上述目标网络模型,上述初始网络模型和上述目标网络模型用于抽取监督关系;向客户端返回上述样本关系类别,并在客户端本地显示上述样本关系类别。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取非易失性存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个非易失性存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的非易失性存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (17)
1.一种网络模型训练方法,其特征在于,包括:
获取监督数据集,其中,所述监督数据集包括:多个待训练样本;
按照所述多个待训练样本的样本关系类别,对所述监督数据集进行聚类处理,得到多个簇;
利用所述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,所述初始网络模型和所述目标网络模型用于抽取监督关系。
2.根据权利要求1所述的网络模型训练方法,其特征在于,获取所述监督数据集包括:
获取非结构化文本;
将所述非结构化文本与关联知识库对齐,得到所述监督数据集。
3.根据权利要求2所述的网络模型训练方法,其特征在于,获取所述非结构化文本包括:
确定需待爬取的根网页列表;
利用爬虫工具和深度优先搜索算法从所述根网页列表的每个网页中获取对应的原始文本;
对所述原始文本进行分句处理,得到所述非结构化文本。
4.根据权利要求2所述的网络模型训练方法,其特征在于,将所述非结构化文本与所述关联知识库对齐,得到所述监督数据集包括:
判断所述非结构化文本的句子中是否包含所述关联知识库的三元组内至少一个实体;
当所述句子中包含所述三元组内两个实体时,将所述句子标注为所述样本关系类别的正样本;当所述句子中包含所述三元组的一个实体并且所述句子中还包含一个与所述三元组内另一个实体类别相同的其它实体时,将所述句子标注为所述样本关系类别的负样本;
将标注的正样本和标注的负样本确定为所述监督数据集。
5.根据权利要求1所述的网络模型训练方法,其特征在于,按照所述多个待训练样本的样本关系类别,对所述监督数据集进行聚类处理,得到所述多个簇包括:
利用密度聚类算法对所述监督数据集中属于相同样本关系类别的待训练样本进行聚类处理,得到所述多个簇。
6.根据权利要求1所述的网络模型训练方法,其特征在于,利用所述多个簇对所述初始网络模型进行迭代训练,得到所述目标网络模型包括:
获取第一影响因子和第二影响因子,其中,所述第一影响因子用于量化每个簇大小的影响,所述第二影响因子用于评估每个簇中包含正确描述对应样本关系类别的样本可能性;
利用第一参数、第二参数、第三参数、所述第一影响因子以及所述第二影响因子计算得到可信度分数;
基于每个簇对应的后验概率获取所述可信度分数的监督信号;
将所述可信度分数和所述监督信号设置为可信度后验约束的损失函数的输入参数,输出第一计算结果;
通过所述第一计算结果对所述初始网络模型进行迭代训练,得到所述目标网络模型。
7.根据权利要求6所述的网络模型训练方法,其特征在于,获取所述第一影响因子包括:
基于所述多个簇中每个簇所包含的待训练样本的样本数量获取所述第一影响因子。
8.根据权利要求6所述的网络模型训练方法,其特征在于,获取所述第二影响因子包括:
基于每个样本关系类别对应的标注样本总数、每个标注样本的特征表示以及每个样本关系类别对应簇的向量表示获取所述第二影响因子。
9.根据权利要求1所述的网络模型训练方法,其特征在于,所述方法还包括:
基于所述多个待训练样本中每个待训练样本构造样本特征向量。
10.根据权利要求9所述的网络模型训练方法,其特征在于,基于所述多个待训练样本中每个待训练样本构造所述样本特征向量包括:
获取每个待训练样本的句子中所包含的多个单词,并将所述多个单词转化为对应的词向量;
对所述多个单词进行实体合并,并计算所述句子中每个单词与所述句子中第一目标实体之间的第一距离值以及每个单词与所述句子中第二目标实体之间的第二距离值;
基于所述第一距离值从第一随机初始化查找矩阵中获取第一位置信息向量以及基于所述第二距离值从第二随机初始化查找矩阵中获取第二位置信息向量;
利用所述词向量、所述第一位置信息向量和所述第二位置信息向量拼接得到每个单词对应的词特征向量;
利用所述句子中每个单词对应的词特征向量拼接得到所述样本特征向量。
11.根据权利要求9所述的网络模型训练方法,其特征在于,所述方法还包括:
基于所述监督数据集对所述初始网络模型进行预训练。
12.根据权利要求11所述的网络模型训练方法,其特征在于,基于所述监督数据集对所述初始网络模型进行预训练包括:
将所述多个待训练样本中每个待训练样本转化为对应的实值向量;
基于每个样本关系类别对应的簇所包含的多个实值向量获取每个待训练样本的注意力权重,其中,所述注意力权重用于确定每个待训练样本的质量;
利用所述多个实值向量以及所述注意力权重计算得到对应簇的向量表示;
将所述向量表示设置为损失函数的输入参数,输出第二计算结果;
基于所述第二计算结果对所述初始网络模型进行预训练。
13.一种样本关系类别获取方法,其特征在于,包括:
获取待预测样本;
利用所述待预测样本构造样本特征向量;
将所述样本特征向量输入至目标网络模型,输出所述待预测样本对应的样本关系类别,其中,所述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,所述监督数据集包括:多个待训练样本,所述监督数据集用于按照所述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,所述多个簇用于对所述初始网络模型进行迭代训练以得到所述目标网络模型,所述初始网络模型和所述目标网络模型用于抽取监督关系。
14.一种样本关系类别获取方法,其特征在于,包括:
接收当前输入的待预测样本;
将所述待预测样本发送至服务端;
接收来自于所述服务端的所述待预测样本对应的样本关系类别,其中,所述样本关系类别由所述服务端利用目标网络模型来获得,所述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,所述监督数据集包括:多个待训练样本,所述监督数据集用于按照所述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,所述多个簇用于对所述初始网络模型进行迭代训练以得到所述目标网络模型,所述初始网络模型和所述目标网络模型用于抽取监督关系;
在客户端本地显示所述样本关系类别。
15.一种样本关系类别获取方法,其特征在于,包括:
接收来自于客户端的待预测样本;
利用目标网络模型获取所述待预测样本对应的样本关系类别,其中,所述目标网络模型利用监督数据集对初始网络模型进行迭代训练来获得,所述监督数据集包括:多个待训练样本,所述监督数据集用于按照所述多个待训练样本的样本关系类别进行聚类处理以得到多个簇,所述多个簇用于对所述初始网络模型进行迭代训练以得到所述目标网络模型,所述初始网络模型和所述目标网络模型用于抽取监督关系;
向客户端返回所述样本关系类别,并在客户端本地显示所述样本关系类别。
16.一种非易失性存储介质,其特征在于,所述非易失性存储介质包括存储的程序,其中,在所述程序运行时控制所述非易失性存储介质所在设备执行权利要求1至12中任意一项所述的网络模型训练方法,以及权利要求13至15中任意一项所述的样本关系类别获取方法。
17.一种电子设备,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
获取监督数据集,其中,所述监督数据集包括:多个待训练样本;
按照所述多个待训练样本的样本关系类别,对所述监督数据集进行聚类处理,得到多个簇;
利用所述多个簇对初始网络模型进行迭代训练,得到目标网络模型,其中,所述初始网络模型和所述目标网络模型用于抽取监督关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008841.7A CN114722887A (zh) | 2021-01-05 | 2021-01-05 | 网络模型训练方法、样本关系类别获取方法、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008841.7A CN114722887A (zh) | 2021-01-05 | 2021-01-05 | 网络模型训练方法、样本关系类别获取方法、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114722887A true CN114722887A (zh) | 2022-07-08 |
Family
ID=82233664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110008841.7A Pending CN114722887A (zh) | 2021-01-05 | 2021-01-05 | 网络模型训练方法、样本关系类别获取方法、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114722887A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116090449A (zh) * | 2022-11-16 | 2023-05-09 | 北京京航计算通讯研究所 | 一种质量问题分析报告的实体关系抽取方法及系统 |
CN116451872A (zh) * | 2023-06-08 | 2023-07-18 | 北京中电普华信息技术有限公司 | 碳排放预测分布式模型训练方法、相关方法及装置 |
-
2021
- 2021-01-05 CN CN202110008841.7A patent/CN114722887A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116090449A (zh) * | 2022-11-16 | 2023-05-09 | 北京京航计算通讯研究所 | 一种质量问题分析报告的实体关系抽取方法及系统 |
CN116090449B (zh) * | 2022-11-16 | 2024-05-14 | 北京京航计算通讯研究所 | 一种质量问题分析报告的实体关系抽取方法及系统 |
CN116451872A (zh) * | 2023-06-08 | 2023-07-18 | 北京中电普华信息技术有限公司 | 碳排放预测分布式模型训练方法、相关方法及装置 |
CN116451872B (zh) * | 2023-06-08 | 2023-09-01 | 北京中电普华信息技术有限公司 | 碳排放预测分布式模型训练方法、相关方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162593B (zh) | 一种搜索结果处理、相似度模型训练方法及装置 | |
US10650102B2 (en) | Method and apparatus for generating parallel text in same language | |
CN111949802B (zh) | 医学领域知识图谱的构建方法、装置、设备及存储介质 | |
CN108319888B (zh) | 视频类型的识别方法及装置、计算机终端 | |
EP4138047A2 (en) | Method of processing video, method of querying video, and method of training model | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN113792153B (zh) | 问答推荐方法及其装置 | |
CN114722887A (zh) | 网络模型训练方法、样本关系类别获取方法、电子设备 | |
US20220300543A1 (en) | Method of retrieving query, electronic device and medium | |
CN115131698B (zh) | 视频属性确定方法、装置、设备及存储介质 | |
CN113297351A (zh) | 文本数据标注方法及装置、电子设备及存储介质 | |
CN111160041A (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN112307190A (zh) | 医学文献排序方法、装置、电子设备及存储介质 | |
CN116109732A (zh) | 图像标注方法、装置、处理设备及存储介质 | |
CN113342944B (zh) | 一种语料泛化方法、装置、设备及存储介质 | |
CN115858886A (zh) | 数据处理方法、装置、设备及可读存储介质 | |
CN110969005B (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
CN114912011A (zh) | 一种基于内容提取与评分预测的视频推荐方法 | |
CN117312518A (zh) | 一种智能问答方法、装置、计算机设备及存储介质 | |
CN109033078B (zh) | 语句类别识别方法及装置、存储介质、处理器 | |
CN111597296A (zh) | 商品数据的处理方法、装置和系统 | |
CN112836057B (zh) | 知识图谱的生成方法、装置、终端以及存储介质 | |
Chen | Analysis of intelligent translation systems and evaluation systems for business English | |
CN114328894A (zh) | 文档处理方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |