CN111428008B - 用于训练模型的方法、装置、设备以及存储介质 - Google Patents
用于训练模型的方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN111428008B CN111428008B CN202010526432.1A CN202010526432A CN111428008B CN 111428008 B CN111428008 B CN 111428008B CN 202010526432 A CN202010526432 A CN 202010526432A CN 111428008 B CN111428008 B CN 111428008B
- Authority
- CN
- China
- Prior art keywords
- loss function
- function value
- result
- classification result
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000002372 labelling Methods 0.000 claims abstract description 66
- 238000013145 classification model Methods 0.000 claims abstract description 35
- 230000006870 function Effects 0.000 claims description 90
- 230000015654 memory Effects 0.000 claims description 20
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了用于训练模型的方法、装置、设备以及存储介质,涉及知识图谱、自然语言处理、深度学习技术领域。具体实现方案为:获取第一标注数据集,其中,第一标注数据集包括样本数据和样本数据对应的标注分类结果;根据第一标注数据集训练预先设置的初始分类模型,得到中间模型;利用中间模型对第一标注数据集中的样本数据进行预测,得到样本数据对应的预测分类结果;根据样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集;根据第二标注数据集训练中间模型,得到分类模型。本实现方式能够有效地利用高噪声的标注数据,训练出高可用的模型,提高了数据的利用率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及知识图谱领域、自然语言处理、深度学习领域,尤其涉及用于训练模型的方法、装置、设备以及存储介质。
背景技术
语义匹配技术是自然语言处理领域中重要的技术方向,在业务中也有着广泛的应用,充当着应用的基石。语义匹配技术,简而言之,是将两个字符串经过语义理解后,根据其语义进行相似度匹配的技术。语义匹配技术不仅在自然语言处理领域中一直占有相当重要的地位,而且在排序、推荐以及问答等多个业务领域有着广泛的应用,是研究与业务中不可或缺的一部分。
但是语义匹配模型训练的数据一直是限制其在科研与业务中广泛应用的源头。语义匹配模型的训练数据中,对于某些标准较为模糊的匹配需求,其标注数据会较为困难,会出现非常多的错误标注,又常有非常多的噪声。而如何克服噪声,训练出高效且准确的语义匹配模型,则是进一步推进语义匹配模型效果的途径。
发明内容
提供了一种用于训练模型的方法、装置、设备以及存储介质。
根据第一方面,提供了一种用于训练模型的方法,包括:获取第一标注数据集,其中,上述第一标注数据集包括样本数据和样本数据对应的标注分类结果,样本数据包括文本数据、图像数据、语音数据或视频数据;根据上述第一标注数据集训练预先设置的初始分类模型,得到中间模型;利用上述中间模型对上述第一标注数据集中的样本数据进行预测,得到上述样本数据对应的预测分类结果;根据上述样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集;根据上述第二标注数据集训练上述中间模型,得到分类模型。
根据第二方面,提供了一种用于训练模型的装置,包括:获取单元,被配置成获取第一标注数据集,其中,上述第一标注数据集包括样本数据和样本数据对应的标注分类结果,样本数据包括文本数据、图像数据、语音数据或视频数据;第一训练单元,被配置成根据上述第一标注数据集训练预先设置的初始分类模型,得到中间模型;预测单元,被配置成利用上述中间模型对上述第一标注数据集中的样本数据进行预测,得到上述样本数据对应的预测分类结果;生成单元,被配置成根据上述样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集;第二训练单元,被配置成根据上述第二标注数据集训练上述中间模型,得到分类模型。
根据第三方面,提供了一种用于训练模型的电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,所述指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面所描述的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,上述计算机指令用于使计算机执行如第一方面所描述的方法。
根据本申请的技术能够有效地利用高噪声的标注数据,训练出高可用的模型,提高了数据的利用率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于训练模型的方法的一个实施例的流程图;
图3是根据本申请的用于训练模型的方法的一个应用场景的示意图;
图4是根据本申请的用于训练模型的方法的另一个实施例的流程图;
图5是根据本申请的用于训练模型的装置的一个实施例的结构示意图;
图6是用来实现本申请实施例的用于训练模型的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于训练模型的方法或用于训练模型的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览类应用、语音识别类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上提供分类模型的后台服务器。后台服务器可以利用训练样本数据对初始分类模型进行训练,得到目标分类模型,并将目标分类模型反馈给终端设备101、102、103。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于训练模型的方法一般由服务器105执行。相应地,用于训练模型的装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于训练模型的方法的一个实施例的流程200。本实施例的用于训练模型的方法,包括以下步骤:
步骤201,获取第一标注数据集。
本实施例中,用于训练模型的方法的执行主体(例如图1所示的服务器105)可以首先获取第一标注数据集。上述第一标注数据集可以包括样本数据和与样本数据对应的标注分类结果。上述样本数据可以包括文本数据、图像数据、视频数据、语音数据等等。标注分类结果可以是人工针对样本数据进行标注的,其可以用于表示样本数据所属的分类。例如,样本数据为汽车图像,标注分类结果可以为“汽车”。
步骤202,根据第一标注数据集训练预先设置的初始分类模型,得到中间模型。
本实施例中,执行主体在得到第一标注数据集后,可以利用第一标注数据集训练预先设置的初始分类模型,得到中间模型。在训练时,可以利用第一标注数据集中的部分数据或全部数据训练初始分类模型。执行主体可以将第一标注数据集中的样本数据作为初始分类模型的输入,将所输入的样本数据对应的标注分类结果,作为期望输出,得到中间模型。上述初始分类模型可以包括任意深度学习模型,例如神经网络等等。
步骤203,利用中间模型对第一标注数据集中的样本数据进行预测,得到样本数据对应的预测分类结果。
在训练得到中间模型后,执行主体可以将第一标注数据集中的样本数据输入上述中间模型,以对第一标注数据集中的样本数据进行预测。中间模型可以判断样本数据属于预设的各个类别的概率,得到预测分类结果。这里,预测分类结果可以包括多个预测概率值,也可以包括样本数据所属的类别。例如,预设的类别可以包括类别1、2、3、4。中间模型得到的预测分类结果可以为0.2、0.3、0.1、0.4,也可以为类别4。这里类别4为预测概率值中的最大值对应的类别。
步骤204,根据样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集。
执行主体在得到预测分类结果后,可以结合样本数据以及标注分类结果,生成第二标注数据集。可以理解的是,第二标注数据集也可以包括样本数据和与样本数据对应的更新标注结果。这里,第二标注数据集中的样本数据可以与第一标注数据集中的样本数据相同,更新标注结果可以包括标注分类结果和预测分类结果。例如,对于样本数据A,其标注分类结果为1,预测分类结果为2。则第二标注数据可以包括样本数据A和更新标注结果1和2。
在本实施例的一些可选的实现方式中,预测分类结果包括预设类别的预测概率值。执行主体可以通过图2中未示出的以下步骤生成第二标注数据集:根据标注分类结果以及各预测概率值,确定样本数据的更新标注结果;根据样本数据以及更新标注结果,生成第二标注数据集。
本实现方式中,执行主体可以根据标注分类结果以及各预测概率值,确定样本数据的更新标注结果。上述更新标注结果中即包含标注分类结果对应的类别,也包括各预测概率值或预测的类别。然后,执行主体可以根据样本数据以及更新标注结果,生成第二标注数据集。具体的,执行主体可以通过以下两种实现方式来确定更新标注结果。
实现方式一:将各预测概率值以及标注分类结果包括的类别按照预设顺序排列;将排列作为更新标注结果。
本实现方式中,执行主体可以将各预测概率值以及标注分类结果包括的类别按照预设顺序排列;将排列作为更新标注结果。例如,预设的类别可以包括类别1、2、3、4。中间模型得到的预测分类结果可以为0.2、0.3、0.1、0.4。标注分类结果包括的类别为3。则更新标注结果可以为0.2、0.3、0.1、0.4、3,也可以为3、0.2、0.3、0.1、0.4。
实现方式二:确定各预测概率值中的最大值对应的类别;将所确定的类别与标注分类结果包括的类别组合,得到更新标注结果。
本实现方式中,执行主体可以首先确定各各预测概率值中的最大值对应的类别。例如,预设的类别可以包括类别1、2、3、4。中间模型得到的预测分类结果可以为0.2、0.3、0.1、0.4,则最大值对应的类别为4。如果标注分类结果包括的类别为3。则更新标注结果可以为4、3。
步骤205,根据第二标注数据集训练中间模型,得到分类模型。
执行主体在得到第二标注数据集后,可以利用第二标注数据集训练中间模型,得到分类模型。具体的,如果标注分类结果与预测分类结果相同,执行主体可以将该样本作为正样本。如果标注分类结果与预测分类结果不相同,执行主体可以将该样本作为负样本。执行主体可以分别利用正样本和负样本训练中间模型,得到分类模型。
继续参见图3,其示出了根据本申请的用于训练模型的方法的一个应用场景的示意图。在图3的应用场景中,服务器301可以从终端设备302处获取第一标注数据集。并利用第一标注数据集训练预设的初始分类模型,得到中间模型。然后根据第一标注数据集和预测分类结果,得到第二标注数据集。服务器301可以利用第二标注数据集继续训练中间模型,得到分类模型。然后,执行主体可以将分类模型返回给终端设备302。
本申请的上述实施例提供的用于训练模型的方法,能够有效地利用高噪声的标注数据,训练出高可用的模型,提高了数据的利用率。
继续参见图4,其示出了根据本申请的用于训练模型的方法的另一个实施例的流程400。如图4所示,本实施例的用于训练模型的方法可以包括以下步骤:
步骤401,获取第一标注数据集。
步骤402,根据第一标注数据集训练预先设置的初始分类模型,得到中间模型。
步骤403,利用中间模型对第一标注数据集中的样本数据进行预测,得到样本数据对应的预测分类结果。
步骤404,根据样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集。
步骤401~404的原理与步骤201~204的原理类似,此处不再赘述。
步骤405,将第二标注数据集中的样本数据输入中间模型,确定输出结果。
执行主体可以将第二标注数据集中的样本数据输入中间模型,得到输出结果。该输出结果中包含与各分类对应的预测概率。
步骤406,根据输出结果、标注分类结果以及预测分类结果,确定中间模型的损失函数值。
本实施例中,执行主体可以根据输出结果、标注分类结果以及预测分类结果,确定中间模型的损失函数值。具体的,执行主体可以分别将输出结果与标注分类结果以及预测分类结果进行比较,确定输出结果与标注分类结果以及预测分类结果之间的差异。根据差异较大的比较结果确定中间模型的损失函数值。
在本实施例的一些可选的实现方式中,执行主体可以通过图4中未示出的以下步骤来确定中间模型的损失函数值:根据输出结果以及标注分类结果,确定第一损失函数值;根据输出结果以及预测分类结果,确定第二损失函数值;根据第一损失函数值以及第二损失函数值,确定中间模型的损失函数值。
执行主体可以将输出结果和标注分类结果,代入预设的损失函数,得到第一损失函数值。这里,第一损失函数值可以是一个值,也可以是多个值。当第一损失函数为一个值时,其对应最大预测概率值对应的类别。当第一损失函数为多个值时,其对应每个预测概率值对应的类别。
同样的,执行主体也可以将输出结果和预测分类结果,代入预设的损失函数,得到第二损失函数值。
执行主体在得到第一损失函数值和第二损失函数值后,可以将二者加权,得到一值,将该值作为中间模型的损失函数值。
在本实施例的一些可选的实现方式中,执行主体可以通过以下步骤确定中间模型的损失函数值:确定第一损失函数值对应的第一权重以及第二损失函数值对应的第二权重;根据第一权重、第二权重、第一损失函数值和第二损失函数值,确定中间模型的损失函数值。
本实现方式中,可以首先确定第一损失函数值对应的第一权重以及第二损失函数值对应的第二权重。这里,第一权重和第二权重可以是人工输入的,也可以是由其它算法(例如随机算法、深度学习算法等等)得到的。然后,可以将第一权重与第一损失函数值相乘,得到一个积。将第二权重与第二损失函数值相乘,得到另一个积。将两个积相加,得到的和值作为中间模型的损失函数值。
在本实施例的一些可选的实现方式中,上述第一权重和第二权重可以通过一下步骤来确定:根据第一标注数据集中噪声数据的比例,确定第一权重和第二权重。
本实现方式中,还可以确定第一标注数据集中噪声数据的比例。具体的,执行主体可以对第一标注数据集进行多次抽样。对每次抽样得到的数据,确定该数据的标注是否正确。如果正确,则该数据不属于噪声数据。如果不正确,则认为该数据属于噪声数据。通过对抽样的数据进行统计,可以确定第一标注数据集中噪声数据的比例。然后,执行主体可以根据该比例,确定第一权重和第二权重。具体的,如果第一标注数据集中噪声数据的比例较大,可以适当降低第一权重的值。如果比例较小,可以适当提高第一权重的值。即第一权重的值与上述比例值成反比。
步骤407,根据损失函数值调整中间模型的参数,得到分类模型。
执行主体可以根据上述损失函数值,调整中间模型的参数,实现中间模型的参数的优化,从而得到分类模型。
本申请的上述实施例提供的用于训练模型的方法,可以根据输出结果得到两个损失函数值,并根据这两个损失函数值计算最终的损失函数值,从而提高了中间模型训练的准确度,使得得到的分类模型更准确。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于训练模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的训练模型装置500包括:获取单元501、第一训练单元502、预测单元503、生成单元504和第二训练单元505。
获取单元501,被配置成获取第一标注数据集。其中,第一标注数据集包括样本数据和样本数据对应的标注分类结果,样本数据包括文本数据、图像数据、语音数据或视频数据。
第一训练单元502,被配置成根据第一标注数据集训练预先设置的初始分类模型,得到中间模型。
预测单元503,被配置成利用中间模型对第一标注数据集中的样本数据进行预测,得到样本数据对应的预测分类结果。
生成单元504,被配置成根据样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集。
第二训练单元505,被配置成根据第二标注数据集训练中间模型,得到分类模型。
在本实施例的一些可选的实现方式中,预测分类结果包括预设类别的预测概率值。生成单元504可以进一步包括图5中未示出的:确定模块和生成模块。
确定模块,被配置成根据标注分类结果以及各预测概率值,确定样本数据的更新标注结果。
生成模块,被配置成根据样本数据以及更新标注结果,生成第二标注数据集。
在本实施例的一些可选的实现方式中,确定模块进一步被配置成:将各预测概率值以及标注分类结果包括的类别按照预设顺序排列;将上述排列作为更新标注结果。
在本实施例的一些可选的实现方式中,确定模块进一步被配置成:确定各预测概率值中的最大值对应的类别;将所确定的类别与标注分类结果包括的类别组合,得到更新标注结果。
在本实施例的一些可选的实现方式中,第二训练单元可以进一步包括图5中未示出的:输出结果确定模块、损失函数值确定模块以及模型训练模块。
输出结果确定模块,被配置成将第二标注数据集中的样本数据输入中间模型,确定输出结果。
损失函数值确定模块,被配置成根据输出结果、标注分类结果以及预测分类结果,确定中间模型的损失函数值。
模型训练模块,被配置成根据损失函数值调整中间模型的参数,得到分类模型。
在本实施例的一些可选的实现方式中,损失函数值确定模块进一步被配置成:根据输出结果以及标注分类结果,确定第一损失函数值;根据输出结果以及预测分类结果,确定第二损失函数值;根据第一损失函数值以及第二损失函数值,确定中间模型的损失函数值。
在本实施例的一些可选的实现方式中,损失函数值确定模块进一步被配置成:确定第一损失函数值对应的第一权重以及第二损失函数值对应的第二权重;根据第一权重、第二权重、第一损失函数值和第二损失函数值,确定中间模型的损失函数值。
在本实施例的一些可选的实现方式中,损失函数值确定模块进一步被配置成:根据第一标注数据集中噪声数据的比例,确定第一权重和第二权重。
应当理解,用于训练模型的装置500中记载的单元501至单元505分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对用于训练模型的方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的执行用于训练模型的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的执行用于训练模型的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的执行用于训练模型的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的执行用于训练模型的方法对应的程序指令/模块(例如,附图5所示的获取单元501、第一训练单元502、预测单元503、生成单元504和第二训练单元505)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的执行用于训练模型的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据执行用于训练模型的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至执行用于训练模型的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
执行用于训练模型的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与执行用于训练模型的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,能够有效地利用高噪声的标注数据,训练出高可用的模型,提高了数据的利用率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种用于训练模型的方法,包括:
获取第一标注数据集,其中,所述第一标注数据集包括样本数据和样本数据对应的标注分类结果,所述样本数据包括文本数据、图像数据、语音数据或视频数据;
根据所述第一标注数据集训练预先设置的初始分类模型,得到中间模型;
利用所述中间模型对所述第一标注数据集中的样本数据进行预测,得到所述样本数据对应的预测分类结果;
根据所述样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集;
根据所述第二标注数据集训练所述中间模型,得到分类模型。
2.根据权利要求1所述的方法,其中,所述预测分类结果包括预设类别的预测概率值;以及
所述根据所述样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集,包括:
根据所述标注分类结果以及各预测概率值,确定所述样本数据的更新标注结果;
根据所述样本数据以及所述更新标注结果,生成第二标注数据集。
3.权利要求2所述的方法,其中,所述根据所述标注分类结果以及各预测概率值,确定所述样本数据的更新标注结果,包括:
将各预测概率值以及所述标注分类结果包括的类别按照预设顺序排列;
将所述排列作为所述更新标注结果。
4.根据权利要求2所述的方法,其中,所述根据所述标注分类结果以及各预测概率值,确定所述样本数据的更新标注结果,包括:
确定各预测概率值中的最大值对应的类别;
将所确定的类别与所述标注分类结果包括的类别组合,得到所述更新标注结果。
5.根据权利要求1所述的方法,其中,所述根据所述第二标注数据集训练所述中间模型,得到分类模型,包括:将所述第二标注数据集中的样本数据输入所述中间模型,确定输出结果;
根据所述输出结果、所述标注分类结果以及所述预测分类结果,确定所述中间模型的损失函数值;
根据所述损失函数值调整所述中间模型的参数,得到所述分类模型。
6.根据权利要求5所述的方法,其中,所述根据所述输出结果、所述标注分类结果以及所述预测分类结果,确定所述中间模型的损失函数值,包括:
根据所述输出结果以及所述标注分类结果,确定第一损失函数值;
根据所述输出结果以及所述预测分类结果,确定第二损失函数值;
根据所述第一损失函数值以及所述第二损失函数值,确定所述中间模型的损失函数值。
7.根据权利要求6所述的方法,其中,所述根据所述第一损失函数值以及所述第二损失函数值,确定所述中间模型的损失函数值,包括:
确定所述第一损失函数值对应的第一权重以及所述第二损失函数值对应的第二权重;
根据所述第一权重、所述第二权重、所述第一损失函数值和所述第二损失函数值,确定所述中间模型的损失函数值。
8.根据权利要求7所述的方法,其中,所述确定所述第一损失函数值对应的第一权重以及所述第二损失函数值对应的第二权重,包括:
根据所述第一标注数据集中噪声数据的比例,确定所述第一权重和所述第二权重。
9.一种用于训练模型的装置,包括:
获取单元,被配置成获取第一标注数据集,其中,所述第一标注数据集包括样本数据和样本数据对应的标注分类结果,所述样本数据包括文本数据、图像数据、语音数据或视频数据;
第一训练单元,被配置成根据所述第一标注数据集训练预先设置的初始分类模型,得到中间模型;
预测单元,被配置成利用所述中间模型对所述第一标注数据集中的样本数据进行预测,得到所述样本数据对应的预测分类结果;
生成单元,被配置成根据所述样本数据、对应的标注分类结果、对应的预测分类结果,生成第二标注数据集;
第二训练单元,被配置成根据所述第二标注数据集训练所述中间模型,得到分类模型。
10.根据权利要求9所述的装置,其中,所述预测分类结果包括预设类别的预测概率值;以及
所述生成单元包括:
确定模块,被配置成根据所述标注分类结果以及各预测概率值,确定所述样本数据的更新标注结果;
生成模块,被配置成根据所述样本数据以及所述更新标注结果,生成第二标注数据集。
11.根据权利要求10所述的装置,其中,所述确定模块进一步被配置成:
将各预测概率值以及所述标注分类结果包括的类别按照预设顺序排列;
将所述排列作为所述更新标注结果。
12.根据权利要求10所述的装置,其中,所述确定模块进一步被配置成:
确定各预测概率值中的最大值对应的类别;
将所确定的类别与所述标注分类结果包括的类别组合,得到所述更新标注结果。
13.根据权利要求9所述的装置,其中,所述第二训练单元包括:
输出结果确定模块,被配置成将所述第二标注数据集中的样本数据输入所述中间模型,确定输出结果;
损失函数值确定模块,被配置成根据所述输出结果、所述标注分类结果以及所述预测分类结果,确定所述中间模型的损失函数值;
模型训练模块,被配置成根据所述损失函数值调整所述中间模型的参数,得到所述分类模型。
14.根据权利要求13所述的装置,其中,所述损失函数值确定模块进一步被配置成:
根据所述输出结果以及所述标注分类结果,确定第一损失函数值;
根据所述输出结果以及所述预测分类结果,确定第二损失函数值;
根据所述第一损失函数值以及所述第二损失函数值,确定所述中间模型的损失函数值。
15.根据权利要求14所述的装置,其中,所述损失函数值确定模块进一步被配置成:
确定所述第一损失函数值对应的第一权重以及所述第二损失函数值对应的第二权重;
根据所述第一权重、所述第二权重、所述第一损失函数值和所述第二损失函数值,确定所述中间模型的损失函数值。
16.根据权利要求15所述的装置,其中,所述损失函数值确定模块进一步被配置成:
根据所述第一标注数据集中噪声数据的比例,确定所述第一权重和所述第二权重。
17.一种用于训练模型的电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010526432.1A CN111428008B (zh) | 2020-06-11 | 2020-06-11 | 用于训练模型的方法、装置、设备以及存储介质 |
EP20212925.0A EP3923160A1 (en) | 2020-06-11 | 2020-12-09 | Method, apparatus, device and storage medium for training model |
KR1020200172112A KR102534721B1 (ko) | 2020-06-11 | 2020-12-10 | 모델을 트레이닝하는 방법, 장치, 기기 및 저장 매체 |
JP2020206144A JP7166322B2 (ja) | 2020-06-11 | 2020-12-11 | モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
US17/119,651 US20210390428A1 (en) | 2020-06-11 | 2020-12-11 | Method, apparatus, device and storage medium for training model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010526432.1A CN111428008B (zh) | 2020-06-11 | 2020-06-11 | 用于训练模型的方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111428008A CN111428008A (zh) | 2020-07-17 |
CN111428008B true CN111428008B (zh) | 2020-09-29 |
Family
ID=71551413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010526432.1A Active CN111428008B (zh) | 2020-06-11 | 2020-06-11 | 用于训练模型的方法、装置、设备以及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210390428A1 (zh) |
EP (1) | EP3923160A1 (zh) |
JP (1) | JP7166322B2 (zh) |
KR (1) | KR102534721B1 (zh) |
CN (1) | CN111428008B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881908B (zh) * | 2020-07-20 | 2024-04-05 | 北京百度网讯科技有限公司 | 目标检测模型的修正方法、检测方法、装置、设备及介质 |
CN112017634B (zh) * | 2020-08-06 | 2023-05-26 | Oppo(重庆)智能科技有限公司 | 数据的处理方法、装置、设备以及存储介质 |
CN112101552A (zh) * | 2020-09-25 | 2020-12-18 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
CN112149807B (zh) * | 2020-09-28 | 2024-06-28 | 北京百度网讯科技有限公司 | 用户特征信息的处理方法和装置 |
CN112149754B (zh) * | 2020-09-30 | 2021-06-11 | 罗中岩 | 一种信息的分类方法、装置、设备及存储介质 |
CN112365001B (zh) * | 2020-11-11 | 2023-12-19 | 中国工商银行股份有限公司 | 模型的生成方法、装置和服务器 |
CN112329427B (zh) * | 2020-11-26 | 2023-08-08 | 北京百度网讯科技有限公司 | 短信样本的获取方法和装置 |
CN112328710B (zh) * | 2020-11-26 | 2024-06-11 | 北京百度网讯科技有限公司 | 实体信息处理方法、装置、电子设备和存储介质 |
CN112560912B (zh) * | 2020-12-03 | 2023-09-26 | 北京百度网讯科技有限公司 | 分类模型的训练方法、装置、电子设备和存储介质 |
CN112926621B (zh) * | 2021-01-21 | 2024-05-10 | 百度在线网络技术(北京)有限公司 | 数据标注方法、装置、电子设备及存储介质 |
KR102308751B1 (ko) * | 2021-02-19 | 2021-10-05 | 주식회사 에스아이에이 | 딥러닝 기반의 강수량 예측 방법 |
CN113204614B (zh) * | 2021-04-29 | 2023-10-17 | 北京百度网讯科技有限公司 | 模型训练方法、优化训练数据集的方法及其装置 |
CN113112311B (zh) * | 2021-05-12 | 2023-07-25 | 北京百度网讯科技有限公司 | 训练因果推断模型的方法、信息提示方法以装置 |
CN113205189B (zh) * | 2021-05-12 | 2024-02-27 | 北京百度网讯科技有限公司 | 训练预测模型的方法、预测方法及装置 |
CN114882333B (zh) * | 2021-05-31 | 2024-09-06 | 北京百度网讯科技有限公司 | 数据处理模型的训练方法、装置、电子设备及存储介质 |
CN113051374B (zh) * | 2021-06-02 | 2021-08-31 | 北京沃丰时代数据科技有限公司 | 一种文本匹配优化方法及装置 |
CN113380238A (zh) * | 2021-06-09 | 2021-09-10 | 阿波罗智联(北京)科技有限公司 | 处理音频信号的方法、模型训练方法、装置、设备和介质 |
CN113361621B (zh) * | 2021-06-18 | 2023-12-15 | 北京百度网讯科技有限公司 | 用于训练模型的方法和装置 |
CN113590877B (zh) * | 2021-08-05 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 获取标注数据的方法及装置 |
CN113689111B (zh) * | 2021-08-20 | 2022-11-11 | 北京百度网讯科技有限公司 | 故障识别模型训练方法、故障识别方法、装置和电子设备 |
CN113887227B (zh) * | 2021-09-15 | 2023-05-02 | 北京三快在线科技有限公司 | 一种模型训练与实体识别方法及装置 |
CN113535930B (zh) * | 2021-09-16 | 2022-03-04 | 阿里巴巴达摩院(杭州)科技有限公司 | 模型训练方法、装置及存储介质 |
CN114048759A (zh) * | 2021-11-16 | 2022-02-15 | 北京百度网讯科技有限公司 | 模型训练方法、数据处理方法、装置、设备及介质 |
CN114241243B (zh) * | 2021-12-20 | 2023-04-25 | 百度在线网络技术(北京)有限公司 | 图像分类模型的训练方法、装置、电子设备和存储介质 |
CN114443896B (zh) * | 2022-01-25 | 2023-09-15 | 百度在线网络技术(北京)有限公司 | 数据处理方法和用于训练预测模型的方法 |
CN114443849B (zh) * | 2022-02-09 | 2023-10-27 | 北京百度网讯科技有限公司 | 一种标注样本选取方法、装置、电子设备和存储介质 |
CN114549935B (zh) * | 2022-02-25 | 2024-05-07 | 北京百度网讯科技有限公司 | 信息生成方法和装置 |
CN115130539A (zh) * | 2022-04-21 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 分类模型训练、数据分类方法、装置和计算机设备 |
CN116431788B (zh) * | 2023-04-14 | 2024-03-29 | 中电科大数据研究院有限公司 | 面向跨模态数据的语义检索方法 |
KR102677908B1 (ko) * | 2023-08-16 | 2024-06-25 | (주)엘로이랩 | 데이터 셋에 대한 오라벨링의 제거 또는 재라벨링(re-labeling)을 수행 하는 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647937A (zh) * | 2019-09-23 | 2020-01-03 | 北京百度网讯科技有限公司 | 标注模型训练方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105447031A (zh) * | 2014-08-28 | 2016-03-30 | 百度在线网络技术(北京)有限公司 | 训练样本的标注方法及装置 |
US20170132528A1 (en) * | 2015-11-06 | 2017-05-11 | Microsoft Technology Licensing, Llc | Joint model training |
CN105930934B (zh) * | 2016-04-27 | 2018-08-14 | 第四范式(北京)技术有限公司 | 展示预测模型的方法、装置及调整预测模型的方法、装置 |
CN108875821A (zh) * | 2018-06-08 | 2018-11-23 | Oppo广东移动通信有限公司 | 分类模型的训练方法和装置、移动终端、可读存储介质 |
CN110084271B (zh) | 2019-03-22 | 2021-08-20 | 同盾控股有限公司 | 一种图片类别的识别方法和装置 |
CN110427493B (zh) * | 2019-07-11 | 2022-04-08 | 新华三大数据技术有限公司 | 电子病历处理方法、模型训练方法及相关装置 |
CN110728328B (zh) * | 2019-10-22 | 2022-03-01 | 支付宝(杭州)信息技术有限公司 | 分类模型的训练方法和装置 |
CN110826344B (zh) * | 2019-10-24 | 2022-03-01 | 北京小米智能科技有限公司 | 神经网络模型压缩方法、语料翻译方法及其装置 |
CN111125365B (zh) | 2019-12-24 | 2022-01-07 | 京东科技控股股份有限公司 | 地址数据标注方法及装置、电子设备、存储介质 |
CN111210024B (zh) * | 2020-01-14 | 2023-09-15 | 深圳供电局有限公司 | 模型训练方法、装置、计算机设备和存储介质 |
-
2020
- 2020-06-11 CN CN202010526432.1A patent/CN111428008B/zh active Active
- 2020-12-09 EP EP20212925.0A patent/EP3923160A1/en not_active Ceased
- 2020-12-10 KR KR1020200172112A patent/KR102534721B1/ko active IP Right Grant
- 2020-12-11 US US17/119,651 patent/US20210390428A1/en active Pending
- 2020-12-11 JP JP2020206144A patent/JP7166322B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647937A (zh) * | 2019-09-23 | 2020-01-03 | 北京百度网讯科技有限公司 | 标注模型训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102534721B1 (ko) | 2023-05-22 |
CN111428008A (zh) | 2020-07-17 |
EP3923160A1 (en) | 2021-12-15 |
KR20210154069A (ko) | 2021-12-20 |
JP2021197137A (ja) | 2021-12-27 |
US20210390428A1 (en) | 2021-12-16 |
JP7166322B2 (ja) | 2022-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111428008B (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111079442B (zh) | 文档的向量化表示方法、装置和计算机设备 | |
CN111104514B (zh) | 文档标签模型的训练方法及装置 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
CN111708922A (zh) | 用于表示异构图节点的模型生成方法及装置 | |
CN111325020A (zh) | 一种事件论元抽取方法、装置以及电子设备 | |
CN111339759B (zh) | 领域要素识别模型训练方法、装置及电子设备 | |
CN111259671A (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN110674260B (zh) | 语义相似模型的训练方法、装置、电子设备和存储介质 | |
CN111680517A (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN111460135B (zh) | 用于生成文本摘要的方法和装置 | |
CN110532487B (zh) | 标签的生成方法及装置 | |
CN111611990A (zh) | 用于识别图像中表格的方法和装置 | |
CN111522944A (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
CN112417156B (zh) | 多任务学习方法、装置、设备以及存储介质 | |
CN111859953A (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
CN111127191A (zh) | 风险评估方法及装置 | |
CN111611808A (zh) | 用于生成自然语言模型的方法和装置 | |
CN111783427A (zh) | 用于训练模型与输出信息的方法、装置、设备及存储介质 | |
CN111782785A (zh) | 自动问答方法、装置、设备以及存储介质 | |
CN111563198A (zh) | 一种物料召回方法、装置、设备及存储介质 | |
CN112329429B (zh) | 文本相似度学习方法、装置、设备以及存储介质 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112270169B (zh) | 对白角色预测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |