CN114417974A - 模型训练方法、信息处理方法、装置、电子设备和介质 - Google Patents
模型训练方法、信息处理方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN114417974A CN114417974A CN202111579688.XA CN202111579688A CN114417974A CN 114417974 A CN114417974 A CN 114417974A CN 202111579688 A CN202111579688 A CN 202111579688A CN 114417974 A CN114417974 A CN 114417974A
- Authority
- CN
- China
- Prior art keywords
- target
- information
- description information
- sample data
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 144
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims description 25
- 230000006978 adaptation Effects 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 59
- 238000002372 labelling Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 abstract description 8
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 16
- 230000008451 emotion Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000002996 emotional effect Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 208000002151 Pleural effusion Diseases 0.000 description 5
- 206010028980 Neoplasm Diseases 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012550 audit Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 235000013351 cheese Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种模型训练方法、信息处理方法、装置、电子设备和介质,涉及深度学习和自然语言处理等领域。具体实现方案为:获取经过多任务的预训练所得到的识别模型;获取待标注的样本数据和样本数据对应的目标描述信息;采用识别模型基于目标描述信息对样本数据进行识别,得到与目标描述信息匹配的目标识别信息;根据目标识别信息对样本数据进行标注;根据标注后的样本数据对识别模型进行目标任务的适配训练。由此,在多任务场景下,对模型进行预训练,可以使得预训练后的模型学习得到不同任务中的输入和输出之间的对应关系,从而在新任务场景下,只需采用少量的样本数据,即可对模型进行训练,降低人工对样本进行标注的成本。
Description
技术领域
本公开涉及人工智能领域,具体涉及深度学习和自然语言处理等技术领域,尤其涉及模型训练方法、信息处理方法、装置、电子设备和介质。
背景技术
在不同领域或不同行业中,智能化改造离不开信息抽取的能力,比如,医生抽取患者病历中的肿瘤部位、金融分析师抽取企业公告中的抵押事件、贷款审核人员抽取存款证明中的金额等等。同时,信息抽取需求也经常伴随着文本分类需求,比如,在抽取商品评论时,需要确定商品评论的情感倾向(正向或负向),再比如,医生在抽取患者病历中的肿瘤部位时,可以确定患者病历中是否存在胸腔积液的症状等。
因此,如何在多任务场景中实现信息的自动识别(比如信息抽取或信息分类),是很有必要的。
发明内容
本公开提供了一种模型训练方法、信息处理方法、装置、电子设备和介质。
根据本公开的一方面,提供了一种模型训练方法,包括:
获取经过多任务的预训练所得到的识别模型;
获取待标注的样本数据和所述样本数据对应的目标描述信息,其中,所述目标描述信息与所述识别模型适配的目标任务匹配,用于指示所述样本数据中待识别的信息;
采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息;
根据所述目标识别信息对所述样本数据进行标注,并根据标注后的样本数据,对所述识别模型进行所述目标任务的适配训练。
根据本公开的另一方面,提供了一种信息处理方法,包括:
获取待识别文本,以及所述待识别文本对应的描述信息;其中,所述描述信息与识别模型适配的目标任务匹配,用于指示所述待识别文本中待识别的信息;
采用经过训练的识别模型基于所述描述信息对所述待识别文本进行识别,以得到与所述描述信息匹配的识别信息。
根据本公开的又一方面,提供了一种模型训练装置,包括:
第一获取模块,用于获取经过多任务的预训练所得到的识别模型;
第二获取模块,用于获取待标注的样本数据和所述样本数据对应的目标描述信息,其中,所述目标描述信息与所述识别模型适配的目标任务匹配,用于指示所述样本数据中待识别的信息;
识别模块,用于采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息;
标注模块,用于根据所述目标识别信息对所述样本数据进行标注;
训练模块,用于根据标注后的样本数据,对所述识别模型进行所述目标任务的适配训练。
根据本公开的再一方面,提供了一种信息处理装置,包括:
获取模块,用于获取待识别文本,以及所述待识别文本对应的描述信息;其中,所述描述信息与识别模型适配的目标任务匹配,用于指示所述待识别文本中待识别的信息;
识别模块,用于采用经过训练的识别模型基于所述描述信息对所述待识别文本进行识别,以得到与所述描述信息匹配的识别信息。
根据本公开的又一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开上述一方面提出的模型训练方法,或者,执行本公开上述另一方面提出的信息处理方法。
根据本公开的再一方面,提供了一种计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开上述一方面提出的模型训练方法,或者,执行本公开上述另一方面提出的信息处理方法。
根据本公开的还一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开上述一方面提出的模型训练方法,或者,实现本公开上述另一方面提出的信息处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例一所提供的模型训练方法的流程示意图;
图2为本公开实施例二所提供的模型训练方法的流程示意图;
图3为用于实施本公开任一实施例所提出的识别模型的结构示意图一;
图4为用于实施本公开任一实施例所提出的识别模型的结构示意图二;
图5为本公开实施例三所提供的模型训练方法的流程示意图;
图6为本公开实施例四所提供的模型训练方法的流程示意图;
图7为本公开实施例五所提供的模型训练方法的流程示意图;
图8为本公开实施例六所提供的模型训练方法的流程示意图;
图9为本公开实施例中用于对识别模型的输出结果进行更新的界面示意图;
图10为本公开实施例七所提供的信息处理方法的流程示意图;
图11为本公开实施例八所提供的模型训练装置的结构示意图;
图12为本公开实施例九所提供的信息处理装置的结构示意图。
图13示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在各个行业中,智能化改造离不开信息抽取的能力。比如,医生需要抽取患者病历中的肿瘤部位,金融分析师需要抽取企业公告中的抵押事件,贷款审核人员需要抽取存款证明中的金额等等。同时,信息抽取需求也经常伴随文本分类需求,比如,在抽取商品评论时,需要判断商品评论的情感倾向是正向还是负向,再比如,医生在抽取患者病历中的肿瘤部位时,需要确定患者病历中是否存在胸腔积液的症状等。
以上的需求在每一个任务中都有着极高的自定义特征,抽取任务和分类任务各不相同。针对不同任务而言,可重复利用部分不多,因此,需要针对每个任务重新标注大量数据,来训练适配于该任务的模型,由此将消耗大量的人力、物力,严重拖慢了企业转型,以及流程优化的改造时间,同时极大地增加了企业成本。
即现有技术中,是针对一个任务,制定一个“封闭式”的模式schema,需要标注大量的数据训练适配于该任务的模型。然而,每个类别的标注数量通常在几千到上万,同时需要由专业的编程人员进行模型训练和调整。
这种方式下,一方面,所需标注的样本数量庞大,开发周期较长,资源消耗较多,且需要消耗大量的时间和人力;另一方面,模型的可迁移性不强,不同任务之间可以共享的能力不多。
针对上述存在的至少一种问题,本公开提出一种模型训练方法、信息处理方法、装置、电子设备和介质。
下面参考附图描述本公开实施例的模型训练方法、信息处理方法、装置、电子设备和介质。
图1为本公开实施例一所提供的模型训练方法的流程示意图。
本公开实施例以该模型训练方法被配置于模型训练装置中来举例说明,该模型训练装置可以应用于任一电子设备中,以使该电子设备可以执行模型训练功能。
其中,电子设备可以为任一具有计算能力的设备,例如可以为个人电脑、移动终端、服务器等,移动终端例如可以为手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图1所示,该模型训练方法可以包括以下步骤:
步骤101,获取经过多任务的预训练所得到的识别模型。
在本公开实施例中,多任务可以至少包括抽取任务和分类任务,其中,抽取任务可以包括实体任务(或称为实体抽取任务)、关系任务(或称为关系抽取任务)、事件任务(或称为事件抽取任务)等,分类任务可以包括情感分类、是否分类、其他分类等,本公开对此并不做限制。
在本公开实施例中,经过多任务的预训练所得到的识别模型,是指在多任务场景下,对识别模型进行预训练得到的。
步骤102,获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
在本公开实施例中,待标注的样本数据是指未标注的样本数据。其中,该样本数据可以从现有的训练集或测试集获取,或者,样本数据也可以在线采集,比如可以通过网络爬虫技术在线采集样本数据,或者,样本数据也可以为线下采集,或者,样本数据也可以为用户输入的,等等,本公开对此不做限制。
其中,待标注的样本数据可以为文章,比如小说、散文、论文等,或者,也可以为统计资料,比如患者病历、企业公告等,或者,也可以为一段文字,等等,本公开对此并不做限制。
在本公开实施例中,目标描述信息与识别模型适配的目标任务匹配,当目标任务不同时,目标描述信息可以不同。
其中,目标描述信息可以根据识别模型适配的目标任务设定,比如可以由人工根据识别模型适配的目标任务设定目标描述信息。其中,该目标描述信息用于指示样本数据中待识别的信息,待识别的信息是指识别模型将要识别(比如抽取或分类)的信息。其中,目标描述信息的个数可以为一个,或者也可以为多个,本公开对此并不做限制。
举例而言,当识别模型适配的目标任务为抽取任务,比如实体任务时,目标描述信息可以为『人物』,待识别的信息可以为样本数据中与『人物』匹配的信息,比如『张三』、『李四』等。或者,当识别模型适配的目标任务为分类任务,比如情感分类时,目标描述信息可以为『情感倾向』,待识别的信息可以为样本数据中与『情感倾向』匹配的信息,比如『正向』、『负向』。
步骤103,采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息。
在本公开实施例中,可以将样本数据和目标描述信息一起输入至识别模型中,由识别模型基于该目标描述信息对样本数据进行识别,得到与该目标描述信息匹配的目标识别信息。
作为一种示例,以样本数据为『张三和李四一起去上学』进行示例,当识别模型适配的目标任务为实体任务时,目标描述信息可以为『人物』,可以将『人物』和『张三和李四一起去上学』一起输入至识别模型中,由识别模型根据目标描述信息『人物』识别上述样本数据中与目标描述信息『人物』匹配的目标识别信息,即该目标识别信息可以为『张三』、『李四』。
步骤104,根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。
在本公开实施例中,可以根据识别模型输出的目标识别信息,对样本数据进行标注。仍以上述例子进行示例,样本数据对应的标注信息可以为『张三』和『李四』。
在本公开实施例中,可以根据标注后的样本数据,对识别模型进行目标任务的适配训练。
综上,在多任务场景下,对识别模型进行预训练,可以使得预训练后的识别模型学习得到不同任务中的输入和输出之间的对应关系,即经过多任务的预训练所得到的识别模型,可以使得各个任务和各样本集(或称为数据集)之间可以共享知识和能力,互相增益,从而在新任务场景下,只需采用少量的样本数据,即可对该识别模型进行训练,减少训练过程所需的样本数据的标注量,降低人力成本。
本公开实施例的模型训练方法,通过获取经过多任务的预训练所得到的识别模型;获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息;采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息;根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。由此,在多任务场景下,对识别模型进行预训练,可以使得预训练后的识别模型学习得到不同任务中的输入和输出之间的对应关系,从而在新任务场景下,只需采用少量的样本数据,即可对该识别模型进行训练,减少训练过程所需的样本数据的标注量,降低人力成本。并且采用深度学习技术,对识别模型进行训练,从而采用训练后的识别模型对信息进行识别(比如抽取或分类等),可以提升识别结果的准确性和可靠性。
需要说明的是,本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均在征得用户同意的前提下进行,并且均符合相关法律法规的规定,且不违背公序良俗。
为了清楚说明本公开上述实施例中识别模型是如何基于目标描述信息对样本数据进行识别的,本公开还提出一种模型训练方法。
图2为本公开实施例二所提供的模型训练方法的流程示意图。
如图2所示,该模型训练方法可以包括以下步骤:
步骤201,获取经过多任务的预训练所得到的识别模型。
步骤202,获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
步骤201至202的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
步骤203,采用识别模型中的编码器基于注意力机制,根据目标描述信息对样本数据进行编码,以得到目标文本特征。
在本公开实施例中,可以采用识别模型中的编码器基于目标描述信息对样本数据进行编码,即可以将目标描述信息和样本数据输入至识别模型的编码器中,由编码器基于注意力机制,根据目标描述信息对样本数据进行编码,得到目标文本特征。也就是说,可以由编码器基于注意力机制,从样本数据中提取与目标描述信息匹配的文本特征,本公开中记为目标文本特征。
作为一种示例,以识别模型的结构如图3所示进行示例,编码器的输入包括Prompt和Context,其余为分隔符(即SEP和CLS),其中,Prompt是指目标描述信息,比如当识别模型适配的目标任务为抽取任务时,目标描述信息可以为时间、地点、人物等;Context是指样本数据,该样本数据可以为文章,也可以为一段文字等。
可以将目标描述信息和样本数据一起输入至识别模型中的编码器,由编码器基于注意力机制,从样本数据中提取与目标描述信息匹配的目标文本特征。
步骤204,采用识别模型中的解码器对目标文本特征进行解码,以得到目标识别信息。
在本公开实施例中,可以将编码器输出的目标文本特征输入至识别模型中的解码器中,由解码器对目标文本特征进行解码,以得到与目标描述信息匹配的目标识别信息。
仍以上述例子进行示例,可以将图3中编码器的输出,输入至解码器进行解码,得到目标识别信息。
步骤205,根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。
步骤205的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
需要说明的是,如果一个编码器对应一个解码器,一个解码器每次只能输出一个目标描述信息匹配的目标识别信息,即每次只能将一个目标描述信息与样本数据一起输入至识别模型进行识别,这种方式下,当目标描述信息为多个时,需要将样本数据多次输入至识别模型中进行编码和解码,其中,样本数据每次与一个目标描述信息一起输入至识别模型,由此,将导致模型的识别效率较低,预测速度较慢。
因此,为了提升模型的识别效率和预测速度,在本公开实施例的一种可能的实现方式中,在目标描述信息为多个的情况下,可以采用多个解码器对目标文本特征进行并列解码,以得到多个解码器输出的目标识别信息。
具体地,识别模型中可以包括多个解码器,在目标描述信息为多个的情况下,可以将多个目标描述信息和样本数据一起输入至识别模型中的编码器,由编码器基于注意力机制,根据多个目标描述信息对样本数据进行编码,以得到目标文本特征,即可以由编码器基于注意力机制,从样本数据中提取与多个目标描述信息匹配的目标文本特征,之后,可以采用多个解码器对目标文本特征进行并列解码,得到多个解码器输出的目标识别信息,其中,每个解码器输出的目标识别信息与一个目标描述信息匹配。
作为一种示例,识别模型的结构可以改进为如图4所示,编码器输出的目标文本特征可以输入至多个解码器进行并列解码,比如,当目标描述信息为5个时,可以通过5个解码器对目标文本特征进行并列解码,每个解码器输出的目标识别信息与一个目标描述信息匹配。
举例而言,图4中的解码器1输出的目标识别信息与Prompt1匹配,解码器2输出的目标识别信息与Prompt2匹配、解码器3输出的目标识别信息与Prompt3匹配,等等。
可以理解的是,在本公开实施例中,将多个目标描述信息和样本数据同时输入至同一个编码器进行编码,相对于图3中每次将一个目标描述信息和样本数据输入至编码器,需要经过多次将样本数据和目标描述信息输入至编码器进行编码,才能提取到与各目标描述信息匹配的目标识别信息而言,可以减少训练数据的编码次数,从而提升模型的预测速度;同时采用多个解码器对目标文本特征进行并列解码,也有效地缩短了识别模型的预测时间,提升识别模型的预测效率。
本公开实施例的模型训练方法,通过采用识别模型中的编码器基于注意力机制,根据目标描述信息对样本数据进行编码,以得到目标文本特征;采用识别模型中的解码器对目标文本特征进行解码,以得到目标识别信息。由此,识别模型采用注意力机制对样本数据进行识别,可以有效地捕获到样本数据中与目标描述信息匹配的目标识别信息,可以提升模型的预测效果。
为了清楚说明本公开任一实施例中的识别模型是如何识别得到目标识别信息的,本公开还提出一种模型训练方法。
图5为本公开实施例三所提供的模型训练方法的流程示意图。
如图5所示,该模型训练方法可以包括以下步骤:
步骤501,获取经过多任务的预训练所得到的识别模型。
步骤502,获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
步骤501至502的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
在本公开实施例中,当识别模型适配的目标任务为抽取任务时,可以执行步骤503;而当识别模型适配的目标任务为分类任务时,可以执行步骤504。
步骤503,响应于识别模型适配的目标任务为抽取任务,采用识别模型基于目标描述信息对样本数据进行信息抽取,以得到与目标描述信息匹配的目标识别信息。
在本公开实施例中,当识别模型适配的目标任务为抽取任务时,可以将目标描述信息和样本数据一起输入至识别模型中,由识别模型基于目标描述信息对样本数据进行信息抽取,得到与目标描述信息匹配的目标识别信息。
作为一种示例,以抽取任务为实体任务进行示例。对于实体任务而言,需要给出实体类别,根据实体类别抽取样本数据中与该实体类别匹配的所有实体。比如,可以给出实体类别『人物』,抽取样本数据中的实体『张三』和『李四』。其中,当抽取到的实体为多个时,各实体之间可用专用分隔符『|』分割。
例如,以样本数据Context为『张三和李四一起去上学』进行示例,假设目标描述信息Prompt为:人物,则目标识别信息(即实体抽取结果)Result为:张三|李四。
作为另一种示例,以抽取任务为关系任务进行示例。关系任务的抽取目标是抽取关系三元组,比如『张三,生日,1999年』。当识别模型包括一个编码器和一个解码器时,关系任务可以转变为先抽取第一个词语,再给出指定的关系,抽取对应的识别结果。比如,当样本数据Context为『张三是1999年出生的』时,可以转变成连续两组目标描述信息Prompt和对应的目标识别信息Result:
目标描述信息Prompt1为:人物;目标识别信息Result1为:张三;
目标描述信息Prompt2为:张三的生日;目标识别信息Result2为:1999年。
即可以先定义Prompt1,将Prompt1和样本数据Context一起输入至识别模型中,由识别模型中的解码器输出Result1;再定义Prompt2,将Prompt2和样本数据Context一起输入至识别模型中,由识别模型中的解码器输出Result2。
而当识别模型包括一个编码器和多个解码器时,仍以上述例子进行示例,目标描述信息Prompt1为:人物,目标描述信息Prompt2为:人物的生日,可以将Prompt1、Prompt2和样本数据Context一起输入至识别模型中,由识别模型中的解码器1输出Result1(即张三),由识别模型中的解码器2输出Result2(即1999年)。
作为又一种示例,以抽取任务为事件任务进行示例。在事件任务中,每个事件均有一个trigger(触发词)和多个argument(论元),比如,样本数据为『1999年A国袭击了B国』,则trigger可以为:袭击,argument可以为时间(1999年)、被袭击者(B国)、袭击者(A国)。这类任务可以转变成多个关系任务的抽取,然后进行组合。例如,可以转变成4组目标描述信息Prompt和对应的目标识别信息Result:
目标描述信息Prompt1为:攻击事件的触发词;目标识别信息Result1为:袭击;
目标描述信息Prompt2为:袭击的时间;目标识别信息Result2为:1999年;
目标描述信息Prompt3为:袭击的被袭击者;目标识别信息Result3为:B国;
目标描述信息Prompt4:袭击的袭击者;目标识别信息Result4:A国。
步骤504,响应于识别模型适配的目标任务为分类任务,采用识别模型基于目标描述信息对样本数据进行分类,以得到与目标描述信息匹配的目标识别信息。
在本公开实施例中,当与识别模型适配的目标任务为分类任务时,可以将目标描述信息和样本数据一起输入至识别模型中,由识别模型基于目标描述信息对样本数据进行信息抽取,得到与目标描述信息匹配的目标识别信息。
作为一种示例,以分类任务为情感分类进行示例。情感分类的目的是:判断样本数据的情感极性(正向或负向),或判断样本数据中目标实体的情感极性。以下述例子,对情感分类任务的实现方式进行说明:
当情感分类的目的是判断样本数据的情感极性时,假设样本数据Context为『今天见到老师真开心』,则可以判断『今天见到老师真开心』的情感极性是『正向』。即目标描述信息Prompt为:情感倾向;目标识别信息Result为:正向。
当情感分类的目的是判断样本数据中目标实体的情感极性实体时,假设样本数据Context为『手机真难用』,目标实体为『手机』,则可以判断『手机』在样本数据『手机真难用』中的情感极性是『负向』。即目标描述信息Prompt为:手机的情感倾向;目标识别信息Result为:负向。
作为另一种示例,以分类任务为是否分类进行示例。是否分类的目的是:给是非问题一个答案。比如,假设是非问题为『有胸腔积液吗』,则答案可以包括三个类别,分别为『是』、『否』或『不确定』。以下述例子对是否分类任务的实现方式进行说明:
假设样本数据Context为『患者精神正常,未见胸腔积液』,则目标描述信息Prompt为:有胸腔积液吗;目标识别信息Result为:否。
需要说明的是,当分类任务为其他分类时,对于其他的句子分类任务、观点分类任务、实体分类任务等,均可以采用与上述类似的方式构建目标描述信息Prompt,可以实现统一所有的分类任务。
步骤505,根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。
步骤505的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
本公开实施例的模型训练方法,通过响应于识别模型适配的目标任务为抽取任务,采用识别模型基于目标描述信息对样本数据进行信息抽取,或者,响应于识别模型适配的目标任务为分类任务,采用识别模型基于目标描述信息对样本数据进行分类,以得到与目标描述信息匹配的目标识别信息。由此,采用与识别模型适配的任务所匹配的方式,对样本数据进行针对性的识别,可以提升目标识别结果的准确性和可靠性。
为了清楚说明本公开任一实施例中是如何对识别模型进行预训练的,本公开还提出一种模型训练方法。
图6为本公开实施例四所提供的模型训练方法的流程示意图。
如图6所示,该模型训练方法可以包括以下步骤:
步骤601,获取样本集,其中,样本集中包括至少一个第一样本和至少一个第二样本,第一样本适配于抽取任务,第二样本适配于分类任务。
在本公开实施例中,样本集中可以包括多个样本,每个样本可以从现有的训练集获取,或者,样本也可以在线采集,比如可以通过网络爬虫技术,在线采集样本,或者,样本也可以为线下采集,比如可以对纸质的文本内容进行图像采集,之后通过OCR(OpticalCharacter Recognition,光学字符识别)技术,识别图像中的各个字符,以得到样本,等等,本公开实施例对此并不做限制。
在本公开实施例中,样本集中可以包括至少一个适配于抽取任务的第一样本,及至少一个适配于分类任务的第二样本。
步骤602,获取第一样本对应的第一描述信息,以及第二样本对应的第二描述信息,其中,第一描述信息与抽取任务匹配,第二描述信息与所述分类任务匹配。
在本公开实施例中,第一描述信息可以根据第一样本所适配的抽取任务设定,比如,可以由人工根据抽取任务设定第一描述信息。同理,第二描述信息可以根据第二样本所适配的分类任务设定,比如,可以由人工根据分类任务设定第二描述信息。
步骤603,采用识别模型基于第一描述信息对第一样本进行信息抽取,得到预测信息,并根据预测信息和第一样本所标注的标注信息之间的差异,对识别模型进行预训练。
在本公开实施例中,针对每个第一样本,可以将该第一样本和对应的第一描述信息一起输入至识别模型中,由识别模型基于该第一描述信息对第一样本进行信息抽取,得到与该第一描述信息匹配的预测信息。
在本公开实施例中,当识别模型输出的预测信息与第一样本所标注的标注信息存在差异时,表明模型的预测精度不高,此时,为了提升模型预测结果的准确性和可靠性,可以对识别模型进行预训练,即可以根据预测信息和标注信息之间差异,对识别模型进行预训练。
举例而言,当抽取任务为实体任务时,假设第一样本为『张三和李四一起去上学』,第一描述信息为『人物』,标注信息为『张三』和『李四』,如果识别模型基于该第一描述信息对第一样本进行信息抽取,得到的预测信息为『张三』,则可以确定识别模型存在遗漏识别,此时,为了提升识别模型的预测精度,可以调整识别模型中的模型参数,即对识别模型进行预训练。
作为一种示例,可以根据预测信息和标注信息之间的差异,生成损失函数,其中,损失函数的取值与上述差异成正向关系,即差异越小,损失函数的取值越小,反之,差异越大,损失函数的取值越大,从而本公开中,可以根据损失函数的取值,对识别模型进行训练,以使损失函数的取值最小化。
需要说明的是,上述仅以模型训练的终止条件为损失函数的取值最小化进行示例,实际应用时,也可以设置其它的终止条件,比如终止条件还可以为训练次数达到设定的次数阈值,等等,本公开对此并不做限制。
步骤604,采用识别模型基于第二描述信息对第二样本进行分类,得到预测类别,并根据预测类别和第二样本所标注的标注类别之间的差异,对识别模型进行预训练。
在本公开实施例中,针对每个第二样本,可以将该第二样本和对应的第二描述信息一起输入至识别模型中,由识别模型基于该第二描述信息对第二样本进行分类,得到预测类别。
在本公开实施例中,当识别模型输出的预测信息与第二样本所标注的标注类别存在差异的情况下,同样表明模型的预测精度不高,此时,为了提升模型预测结果的准确性和可靠性,可以对识别模型进行预训练,即可以根据预测信息和标注信息之间差异,对识别模型进行预训练。
举例而言,当分类任务为情感分类时,假设第二样本为『今天见到老师真开心』,第二描述信息为『情感倾向』,标注类别为『正向』,如果识别模型基于该第二描述信息对第二样本进行分类,得到的预测类别为『负向』,则可以确定识别模型预测错误,此时,为了提升识别模型的预测精度,可以调整识别模型中的模型参数,即对识别模型进行预训练。
作为一种示例,可以根据预测类别和标注类别之间的差异,生成损失函数,其中,损失函数的取值与上述差异成正向关系,即差异越小,损失函数的取值越小,反之,差异越大,损失函数的取值越大,从而本公开中,可以根据损失函数的取值,对识别模型进行训练,以使损失函数的取值最小化。
需要说明的是,上述仅以模型训练的终止条件为损失函数的取值最小化进行示例,实际应用时,也可以设置其它的终止条件,比如终止条件还可以为训练次数达到设定的次数阈值,等等,本公开对此并不做限制。
需要说明的是,本公开对步骤601至604的执行时序不作限制,可以预先对识别模型进行预训练,从而在目标任务场景中,可以直接获取经过多任务的预训练所得到的识别模型,以进行目标任务的适配训练,或者,也可以在目标任务场景中,先执行步骤601至604,在对识别模型进行预训练后,接着执行后续对目标任务的适配训练的相关步骤。
本公开实施例的模型训练方法,通过获取样本集,其中,样本集中包括至少一个第一样本和至少一个第二样本,第一样本适配于抽取任务,第二样本适配于分类任务;获取第一样本对应的第一描述信息,以及第二样本对应的第二描述信息,其中,第一描述信息与抽取任务匹配,第二描述信息与分类任务匹配;采用识别模型基于第一描述信息对第一样本进行信息抽取,得到预测信息,并根据预测信息和第一样本标注的标注信息之间的差异,对识别模型进行预训练;采用识别模型基于第二描述信息对第二样本进行分类,得到预测类别,并根据预测类别和第二样本标注的标注类别之间的差异,对识别模型进行预训练。由此,在多任务场景中,对识别模型进行预训练,可以实现多任务和各样本之间共享知识和能力,从而在新任务场景下,只需要采用少量的样本数据,即可对该识别模型进行训练。
需要说明的是,在新任务场景下,模型输出的信息可能与预期存在误差,此时,为了提升模型的训练效果,可以通过人工对模型输出的信息进行审核并修改。下面结合图7,对上述过程进行详细说明。
图7为本公开实施例五所提供的模型训练方法的流程示意图。
如图7所示,该模型训练方法可以包括以下步骤:
步骤701,获取经过多任务的预训练所得到的识别模型。
步骤702,获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
步骤703,采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息。
步骤701至步骤703的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
步骤704,响应于对目标识别信息的更新操作,对目标识别信息进行更新。
在本公开实施例中,可以通过人工对目标识别信息进行审核,并确定目标识别信息是否符合预期,比如,当目标任务为抽取任务中的实体任务时,假设样本数据为『张三和李四一起去上学』,第一描述信息为『人物』,目标识别信息为『张三』,则人工对目标识别信息进行审核,可以确定模型遗漏识别『李四』,此时,可以由人工对目标识别信息进行更新,例如,在目标识别信息中增加『李四』。
具体地,本公开中,可以响应于审核人员对目标识别信息的更新操作,对目标识别信息进行更新。
步骤705,采用更新后的目标识别信息,对样本数据进行标注。
在本公开实施例中,可以根据更新后的目标识别信息,对样本数据进行标注。仍以上述例子为例,可以根据『张三』和『李四』,对样本数据进行标注,即样本数据的标注信息为『张三』和『李四』。
步骤706,根据标注后的样本数据,对识别模型进行目标任务的适配训练。
在本公开实施例中,可以根据标注后的样本数据,对识别模型进行目标任务的适配训练。例如,可以根据样本数据所标注的标注信息(即更新后的目标识别信息)和识别模型的输出(即更新前的目标识别信息)之间的差异,对识别模型进行训练。
本公开实施例的模型训练方法,通过响应于对目标识别信息的更新操作,对目标识别信息进行更新;采用更新后的目标识别信息,对样本数据进行标注。由此,在模型输出的目标识别信息的可靠性不高的情况下,对目标识别信息进行更新,从而根据更新后的目标识别信息对样本数据进行标注,可以得到准确的标注信息,从而根据准确的标注信息对识别模型进行训练,可以提升模型的预测效果。
为了清楚说明本公开实施例中识别模型是如何进行训练的,本公开还提出一种模型训练方法。
图8为本公开实施例六所提供的模型训练方法的流程示意图。
如图8所示,该模型训练方法可以包括以下步骤:
步骤801,获取经过多任务的预训练所得到的识别模型。
步骤802,获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
步骤803,采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息。
步骤804,响应于对目标识别信息的更新操作,对目标识别信息进行更新。
步骤805,采用更新后的目标识别信息,对样本数据进行标注。
步骤801至805的执行过程可以参见本公开任一实施例的执行过程,在此不做赘述。
步骤806,采用识别模型基于目标描述信息对标注后的样本数据进行识别,以得到预测识别信息。
在本公开实施例中,可以将目标描述信息和标注后的样本数据一起输入至识别模型中,由识别模型基于目标描述信息,对标注后的样本数据进行识别,得到识别模型输出的预测识别信息。
步骤807,根据预测识别信息和标注后的样本数据所标注的更新后的目标识别信息之间的差异,对识别模型进行训练。
在本公开实施例中,可以根据识别模型输出的预测识别信息和更新后的目标识别信息之间的差异,对识别模型进行训练。
作为一种示例,可以根据预测识别信息和更新后的目标识别信息之间的差异,生成损失函数,其中,损失函数的取值与上述差异成正向关系,即差异越小,损失函数的取值越小,反之,差异越大,损失函数的取值越大,从而本公开中,可以根据损失函数的取值,对识别模型进行训练,以使损失函数的取值最小化。
需要说明的是,上述仅以模型训练的终止条件为损失函数的取值最小化进行示例,实际应用时,也可以设置其它的终止条件,比如终止条件还可以为训练次数达到设定的次数阈值,等等,本公开对此并不做限制。
作为一种应用场景,识别模型可以对抽取任务和分类任务进行统一建模,使得各个任务和各样本集(或称为数据集)之间可以共享知识和能力,互相增益,从而使得该识别模型可以在零样本和小样本上可以做到落地的突出效果。
其中,以识别模型结构采用经典的seq2seq(sequence-to-sequence,序列到序列)生成模型结构进行示例,可以使用基于大数据训练的ERNIE(Enhanced Representationfrom kNowledge IntEgration,基于知识增强的持续学习语义理解框架)进行模型初始化,模型结构可以如图3或图4所示。其中,识别模型的输入包括两部分,一部分为描述信息Prompt,另一部分为样本数据Context。识别模型的输出为抽取结果或分类结果Result。
通过针对每个任务,设定描述信息Prompt,来实现统一建模的输入和输出。
在模型的预训练阶段,为了增强模型的泛化能力,在训练过程中,可以使用大量已标注的样本对识别模型进行大规模的预训练,让各个数据集之间的知识和能力共享,其中,样本数据可以包括网联网公开的数据以及企业自有数据。
在新任务场景下,可以采用少量的样本数据,即可对识别模型进行新任务的适配训练。
作为一种示例,在新任务场景下,可以将待标注的样本数据和描述信息输入至识别模型进行识别,该识别模型输出的信息可以由人工进行审核,审核界面可以如图9所示,在审核正确的情况下,直接根据识别模型输出的信息对样本数据进行标注,而在审核不正确的情况下,可以对识别模型输出的信息进行修改,并根据修改后的信息对样本数据进行标注,从而利用标注后的样本数据,对识别模型进行训练。
例如,在新任务的实体任务时,人工设定描述信息为『人物』和『人物的生日』,可以将待标注的样本数据和描述信息一起输入至识别模型,由识别模型抽取与描述信息匹配的实体,并由人工审核识别模型输出的所有实体,如果识别模型输出的实体有误,则修改识别模型输出的实体,并根据修改后的实体对样本数据进行标注,从而根据标注后的样本数据对识别模型进行训练。如果识别模型输出的实体无误,则下载或部署该识别模型。
由此,在新任务场景下,识别模型可实现即开即用,标注数量较少,且无需专业编程人员,业务人员或审核人员可以直接使用定制工具,来实现对模型输出的结果进行审核,极大地减少了人力和定制成本,此外,识别模型的可迁移性较强,模型能力通用,在预训练阶段,适配的任务越多,模型能力越强,从而在新任务上无需标注或少量标注数据即可使用。
本公开实施例的模型训练方法,通过采用识别模型基于目标描述信息对标注后的样本数据进行识别,以得到预测识别信息;根据预测识别信息和标注后的样本数据所标注的更新后的目标识别信息之间的差异,对识别模型进行训练。由此,可以实现根据样本数据所标注的信息与识别模型输出的信息之间的差异,对识别模型中的模型参数进行调整,从而可以提升识别模型的预测效果。
上述为识别模型的训练所对应的各实施例,本公开还提出一种识别模型的应用方法,即信息处理方法。
图10为本公开实施例七所提供的信息处理方法的流程示意图。
如图10所示,该信息处理方法可以包括以下步骤:
步骤1001,获取待识别文本,以及待识别文本对应的描述信息;其中,描述信息与识别模型适配的目标任务匹配,用于指示待识别文本中待识别的信息。
在本公开实施例中,待识别文本可以从现有的测试集获取,或者,待识别文本也可以在线采集,比如可以通过网络爬虫技术,在线采集识别文本,或者,识别文本也可以为线下采集,或者,识别文本也可以为用户输入的文本,等等,本公开实施例对此不做限制。
在本公开实施例中,描述信息与识别模型适配的目标任务匹配,当目标任务不同时,目标描述信息可以不同。
其中,描述信息可以根据识别模型适配的目标任务设定,比如可以由人工根据识别模型适配的目标任务设定该描述信息。其中,描述信息用于指示待识别文本中待识别的信息,待识别的信息是指识别模型将要识别(比如抽取或分类)的信息。其中,描述信息的个数可以为一个,或者也可以为多个,本公开对此并不做限制。
举例而言,当识别模型适配的目标任务为抽取任务,比如实体任务时,描述信息可以为『人物』,待识别的信息可以为待识别文本中与『人物』匹配的信息,比如『张三』、『李四』等。或者,当识别模型适配的目标任务为分类任务,比如情感分类时,描述信息可以为『情感倾向』,待识别的信息可以为待识别文本中与『情感倾向』匹配的信息,比如『正向』、『负向』。
步骤1002,采用经过训练的识别模型基于描述信息对待识别文本进行识别,以得到与描述信息匹配的识别信息。
其中,识别模型可以采用上述任一方法实施例训练得到的。
在本公开实施例中,可以将待识别文本和描述信息一起输入至经过训练的识别模型中,由该识别模型基于描述信息对待识别文本进行识别,以由识别模型输出与描述信息匹配的识别信息。
作为一种应用场景,在企业的项目初期,或者ToB(to business,面向企业)商业项目的POC(Proof of Concert,概念验证)阶段,可以直接使用识别模型对待识别文本进行信息抽取,以测试该识别模型的能力,从而实现识别模型的开箱即用,及时反馈。
例如,以待识别文本为租房合同『出租方:小明;地址:筒子街XX号;电话:123456789XX;承租方:小红;地址:某某区新华路XX号;电话:183XXXX8901』进行示例,如果想要抽取承租方和承租方的地址,则可以构建对应的描述信息,即可抽取相应的信息:
例如,描述信息Prompt1为:承租方;识别信息(或称为抽取信息)Result1为:小红;
描述信息Prompt2为:承租方的地址;识别信息(或称为抽取信息)Result2为:某某区新华路XX号。
在项目正式开始后,一般识别模型只需要10条数据即可达到较好的抽取效果,和现有技术中千或者万级别的标注数量相比,可以极大地降低标注成本。
本公开实施例的信息处理方法,通过获取待识别文本,以及待识别文本对应的描述信息;其中,描述信息与识别模型适配的目标任务匹配,用于指示待识别文本中待识别的信息;采用经过训练的识别模型基于描述信息对待识别文本进行识别,以得到与描述信息匹配的识别信息。由此,基于深度学习技术,对待识别文本进行识别(比如信息抽取或信息分类),可以提升识别结果的准确性和可靠性。
与上述图1至图8实施例提供的模型训练方法相对应,本公开还提供一种模型训练装置,由于本公开实施例提供的模型训练装置与上述图1至图8实施例提供的模型训练方法相对应,因此在模型训练方法的实施方式也适用于本公开实施例提供的模型训练装置,在本公开实施例中不再详细描述。
图11为本公开实施例八所提供的模型训练装置的结构示意图。
如图11所示,该模型训练装置1100可以包括:第一获取模块1101、第二获取模块1102、识别模块1103、标注模块1104以及训练模块1105。
其中,第一获取模块1101,用于获取经过多任务的预训练所得到的识别模型。
第二获取模块1102,用于获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息。
识别模块1103,用于采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息。
标注模块1104,用于根据目标识别信息对样本数据进行标注。
训练模块1105,用于根据标注后的样本数据,对识别模型进行目标任务的适配训练。
在本公开实施例的一种可能的实现方式中,识别模块1103,具体用于:采用识别模型中的编码器基于注意力机制,根据目标描述信息对样本数据进行编码,以得到目标文本特征;采用识别模型中的解码器对目标文本特征进行解码,以得到目标识别信息。
在本公开实施例的一种可能的实现方式中,目标描述信息为多个,识别模块1103,具体用于:采用多个解码器对目标文本特征进行解码,以得到多个解码器输出的目标识别信息。
在本公开实施例的一种可能的实现方式中,识别模块1103,具体用于:响应于识别模型适配的目标任务为抽取任务,采用识别模型基于目标描述信息对样本数据进行信息抽取,以得到与目标描述信息匹配的目标识别信息;响应于识别模型适配的目标任务为分类任务,采用识别模型基于目标描述信息对样本数据进行分类,以得到与目标描述信息匹配的目标识别信息。
在本公开实施例的一种可能的实现方式中,该模型训练装置1100还可以包括:获取样本集,其中,样本集中包括至少一个第一样本和至少一个第二样本,第一样本适配于抽取任务,第二样本适配于分类任务;获取第一样本对应的第一描述信息,以及第二样本对应的第二描述信息,其中,第一描述信息与抽取任务匹配,第二描述信与分类任务匹配;采用识别模型基于第一描述信息对第一样本进行信息抽取,得到预测信息,并根据预测信息和第一样本所标注的标注信息之间的差异,对识别模型进行预训练;采用识别模型基于第二描述信息对第二样本进行分类,得到预测类别,并根据预测类别和第二样本所标注的标注类别之间的差异,对识别模型进行预训练。
在本公开实施例的一种可能的实现方式中,标注模块1104,具体用于:响应于对目标识别信息的更新操作,对目标识别信息进行更新;采用更新后的目标识别信息,对样本数据进行标注。
在本公开实施例的一种可能的实现方式中,训练模块1105,具体用于:采用识别模型基于目标描述信息对标注后的样本数据进行识别,以得到预测识别信息;根据预测识别信息和标注后的样本数据所标注的更新后的目标识别信息之间的差异,对识别模型进行训练。
本公开实施例的模型训练装置,通过获取经过多任务的预训练所得到的识别模型;获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息;采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息;根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。由此,在多任务场景下,对识别模型进行预训练,可以使得预训练后的识别模型学习得到不同任务中的输入和输出之间的对应关系,从而在新任务场景下,只需采用少量的样本数据,即可对该识别模型进行训练,减少训练过程所需的样本数据的标注量,降低人力成本。并且采用深度学习技术,对识别模型进行训练,从而采用训练后的识别模型对信息进行识别(比如抽取或分类等),可以提升识别结果的准确性和可靠性。
与上述图10实施例提供的信息处理方法相对应,本公开还提供一种信息处理装置,由于本公开实施例提供的信息处理装置与上述图10实施例提供的信息处理方法相对应,因此在信息处理方法的实施方式也适用于本公开实施例提供的信息处理装置,在本公开实施例中不再详细描述。
图12为本公开实施例九所提供的信息处理装置的结构示意图。
如图12所示,该信息处理装置1200可以包括:获取模块1201以及识别模块1202。
其中,获取模块1201,用于获取待识别文本,以及待识别文本对应的描述信息;其中,描述信息与识别模型适配的目标任务匹配,用于指示待识别文本中待识别的信息。
识别模块1202,用于采用经过训练的识别模型基于描述信息对待识别文本进行识别,以得到与描述信息匹配的识别信息。
本公开实施例的信息处理装置,通过获取待识别文本,以及待识别文本对应的描述信息;其中,描述信息与识别模型适配的目标任务匹配,用于指示待识别文本中待识别的信息;采用经过训练的识别模型基于描述信息对待识别文本进行识别,以得到与描述信息匹配的识别信息。由此,基于深度学习技术,对待识别文本进行识别(比如信息抽取或信息分类),可以提升识别结果的准确性和可靠性。
为了实现上述实施例,本公开还提供一种电子设备,该电子设备可以包括至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本公开上述任一实施例提出的模型训练方法或信息处理方法。
为了实现上述实施例,本公开还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行本公开上述任一实施例提出的模型训练方法或信息处理方法。
为了实现上述实施例,本公开还提供一种计算机程序产品,该计算机程序产品包括计算机程序,计算机程序在被处理器执行时实现本公开上述任一实施例提出的模型训练方法或信息处理方法。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图13所示,电子设备1300包括计算单元1301,其可以根据存储在ROM(Read-OnlyMemory,只读存储器)1302中的计算机程序或者从存储单元1308加载到RAM(Random AccessMemory,随机访问/存取存储器)1303中的计算机程序,来执行各种适当的动作和处理。在RAM 1303中,还可存储电子设备1300操作所需的各种程序和数据。计算单元1301、ROM 1302以及RAM 1303通过总线1304彼此相连。I/O(Input/Output,输入/输出)接口1305也连接至总线1304。
电子设备1300中的多个部件连接至I/O接口1305,包括:输入单元1306,例如键盘、鼠标等;输出单元1307,例如各种类型的显示器、扬声器等;存储单元1308,例如磁盘、光盘等;以及通信单元1309,例如网卡、调制解调器、无线通信收发机等。通信单元1309允许电子设备1300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1301的一些示例包括但不限于CPU(Central Processing Unit,中央处理单元)、GPU(Graphic Processing Units,图形处理单元)、各种专用的AI(Artificial Intelligence,人工智能)计算芯片、各种运行机器学习模型算法的计算单元、DSP(Digital SignalProcessor,数字信号处理器)、以及任何适当的处理器、控制器、微控制器等。计算单元1301执行上文所描述的各个方法和处理,例如上述模型训练方法或信息处理方法。例如,在一些实施例中,上述模型训练方法或信息处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1302和/或通信单元1309而被载入和/或安装到电子设备1300上。当计算机程序加载到RAM 1303并由计算单元1301执行时,可以执行上文描述的模型训练方法或信息处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行上述模型训练方法或信息处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、FPGA(Field Programmable Gate Array,现场可编程门阵列)、ASIC(Application-Specific Integrated Circuit,专用集成电路)、ASSP(Application Specific StandardProduct,专用标准产品)、SOC(System On Chip,芯片上系统的系统)、CPLD(ComplexProgrammable Logic Device,复杂可编程逻辑设备)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、RAM、ROM、EPROM(Electrically Programmable Read-Only-Memory,可擦除可编程只读存储器)或快闪存储器、光纤、CD-ROM(Compact Disc Read-Only Memory,便捷式紧凑盘只读存储器)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode-Ray Tube,阴极射线管)或者LCD(Liquid Crystal Display,液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:LAN(LocalArea Network,局域网)、WAN(Wide Area Network,广域网)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(VirtualPrivate Server,虚拟专用服务器)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
其中,需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
根据本公开实施例的技术方案,通过获取经过多任务的预训练所得到的识别模型,并获取待标注的样本数据和样本数据对应的目标描述信息,其中,目标描述信息与识别模型适配的目标任务匹配,用于指示样本数据中待识别的信息;采用识别模型基于目标描述信息对样本数据进行识别,以得到与目标描述信息匹配的目标识别信息;根据目标识别信息对样本数据进行标注,并根据标注后的样本数据,对识别模型进行目标任务的适配训练。由此,在多任务场景下,对识别模型进行预训练,可以使得预训练后的识别模型学习得到不同任务中的输入和输出之间的对应关系,从而在新任务场景下,只需采用少量的样本数据,即可对该识别模型进行训练,减少训练过程所需的样本数据的标注量,降低人力成本。并且采用深度学习技术,对识别模型进行训练,从而采用训练后的识别模型对信息进行识别(比如抽取或分类等),可以提升识别结果的准确性和可靠性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提出的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种模型训练方法,所述方法包括:
获取经过多任务的预训练所得到的识别模型;
获取待标注的样本数据和所述样本数据对应的目标描述信息,其中,所述目标描述信息与所述识别模型适配的目标任务匹配,用于指示所述样本数据中待识别的信息;
采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息;
根据所述目标识别信息对所述样本数据进行标注,并根据标注后的样本数据,对所述识别模型进行所述目标任务的适配训练。
2.根据权利要求1所述的方法,其中,所述采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息,包括:
采用所述识别模型中的编码器基于注意力机制,根据所述目标描述信息对所述样本数据进行编码,以得到目标文本特征;
采用所述识别模型中的解码器对所述目标文本特征进行解码,以得到所述目标识别信息。
3.根据权利要求2所述的方法,其中,所述目标描述信息为多个,所述采用所述识别模型中的解码器对所述目标文本特征进行解码,以得到所述目标识别信息,包括:
采用多个所述解码器对所述目标文本特征进行解码,以得到多个所述解码器输出的所述目标识别信息。
4.根据权利要求1所述的方法,其中,所述采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息,包括:
响应于所述识别模型适配的目标任务为抽取任务,采用所述识别模型基于所述目标描述信息对所述样本数据进行信息抽取,以得到与所述目标描述信息匹配的目标识别信息;
响应于所述识别模型适配的目标任务为分类任务,采用所述识别模型基于所述目标描述信息对所述样本数据进行分类,以得到与所述目标描述信息匹配的目标识别信息。
5.根据权利要求1-4中任一项所述的方法,其中,所述获取经过多任务的预训练所得到的识别模型,包括:
获取样本集,其中,所述样本集中包括至少一个第一样本和至少一个第二样本,所述第一样本适配于抽取任务,所述第二样本适配于分类任务;
获取所述第一样本对应的第一描述信息,以及所述第二样本对应的第二描述信息,其中,所述第一描述信息与所述抽取任务匹配,所述第二描述信息与所述分类任务匹配;
采用所述识别模型基于所述第一描述信息对所述第一样本进行信息抽取,得到预测信息,并根据所述预测信息和所述第一样本所标注的标注信息之间的差异,对所述识别模型进行预训练;
采用所述识别模型基于所述第二描述信息对所述第二样本进行分类,得到预测类别,并根据所述预测类别和所述第二样本所标注的标注类别之间的差异,对所述识别模型进行预训练。
6.根据权利要求1-4中任一项所述的方法,其中,所述根据所述目标识别信息对所述样本数据进行标注,包括:
响应于对所述目标识别信息的更新操作,对所述目标识别信息进行更新;
采用更新后的目标识别信息,对所述样本数据进行标注。
7.根据权利要求6所述的方法,其中,所述根据标注后的样本数据,对所述识别模型进行训练,包括:
采用所述识别模型基于所述目标描述信息对所述标注后的样本数据进行识别,以得到预测识别信息;
根据所述预测识别信息和所述标注后的样本数据所标注的更新后的目标识别信息之间的差异,对所述识别模型进行训练。
8.一种信息处理方法,所述方法包括:
获取待识别文本,以及所述待识别文本对应的描述信息;其中,所述描述信息与识别模型适配的目标任务匹配,用于指示所述待识别文本中待识别的信息;
采用经过训练的识别模型基于所述描述信息对所述待识别文本进行识别,以得到与所述描述信息匹配的识别信息。
9.一种模型训练装置,所述装置包括:
第一获取模块,用于获取经过多任务的预训练所得到的识别模型;
第二获取模块,用于获取待标注的样本数据和所述样本数据对应的目标描述信息,其中,所述目标描述信息与所述识别模型适配的目标任务匹配,用于指示所述样本数据中待识别的信息;
识别模块,用于采用所述识别模型基于所述目标描述信息对所述样本数据进行识别,以得到与所述目标描述信息匹配的目标识别信息;
标注模块,用于根据所述目标识别信息对所述样本数据进行标注;
训练模块,用于根据标注后的样本数据,对所述识别模型进行所述目标任务的适配训练。
10.根据权利要求9所述的装置,其中,所述识别模块,具体用于:
采用所述识别模型中的编码器基于注意力机制,根据所述目标描述信息对所述样本数据进行编码,以得到目标文本特征;
采用所述识别模型中的解码器对所述目标文本特征进行解码,以得到所述目标识别信息。
11.根据权利要求10所述的装置,其中,所述目标描述信息为多个,所述识别模块,具体用于:
采用多个所述解码器对所述目标文本特征进行解码,以得到多个所述解码器输出的所述目标识别信息。
12.根据权利要求9所述的装置,其中,所述识别模块,具体用于:
响应于所述识别模型适配的目标任务为抽取任务,采用所述识别模型基于所述目标描述信息对所述样本数据进行信息抽取,以得到与所述目标描述信息匹配的目标识别信息;
响应于所述识别模型适配的目标任务为分类任务,采用所述识别模型基于所述目标描述信息对所述样本数据进行分类,以得到与所述目标描述信息匹配的目标识别信息。
13.根据权利要求9-12中任一项所述的装置,其中,所述第一获取模块,具体用于:
获取样本集,其中,所述样本集中包括至少一个第一样本和至少一个第二样本,所述第一样本适配于抽取任务,所述第二样本适配于分类任务;
获取所述第一样本对应的第一描述信息,以及所述第二样本对应的第二描述信息,其中,所述第一描述信息与所述抽取任务匹配,所述第二描述信与所述分类任务匹配;
采用所述识别模型基于所述第一描述信息对所述第一样本进行信息抽取,得到预测信息,并根据所述预测信息和所述第一样本所标注的标注信息之间的差异,对所述识别模型进行预训练;
采用所述识别模型基于所述第二描述信息对所述第二样本进行分类,得到预测类别,并根据所述预测类别和所述第二样本所标注的标注类别之间的差异,对所述识别模型进行预训练。
14.根据权利要求9-12中任一项所述的装置,其中,所述标注模块,具体用于:
响应于对所述目标识别信息的更新操作,对所述目标识别信息进行更新;
采用更新后的目标识别信息,对所述样本数据进行标注。
15.根据权利要求14所述的装置,其中,所述训练模块,具体用于:
采用所述识别模型基于所述目标描述信息对所述标注后的样本数据进行识别,以得到预测识别信息;
根据所述预测识别信息和所述标注后的样本数据所标注的更新后的目标识别信息之间的差异,对所述识别模型进行训练。
16.一种信息处理装置,所述装置包括:
获取模块,用于获取待识别文本,以及所述待识别文本对应的描述信息;其中,所述描述信息与识别模型适配的目标任务匹配,用于指示所述待识别文本中待识别的信息;
识别模块,用于采用经过训练的识别模型基于所述描述信息对所述待识别文本进行识别,以得到与所述描述信息匹配的识别信息。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法,或者,执行权利要求8所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法,或者,执行根据权利要求8所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述方法的步骤,或者,实现根据权利要求8所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111579688.XA CN114417974B (zh) | 2021-12-22 | 2021-12-22 | 模型训练方法、信息处理方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111579688.XA CN114417974B (zh) | 2021-12-22 | 2021-12-22 | 模型训练方法、信息处理方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114417974A true CN114417974A (zh) | 2022-04-29 |
CN114417974B CN114417974B (zh) | 2023-06-20 |
Family
ID=81267566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111579688.XA Active CN114417974B (zh) | 2021-12-22 | 2021-12-22 | 模型训练方法、信息处理方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114417974B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894192A (zh) * | 2023-09-11 | 2023-10-17 | 浙江大华技术股份有限公司 | 大模型训练方法及相关方法、装置、设备、系统和介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019042244A1 (zh) * | 2017-08-30 | 2019-03-07 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN110427627A (zh) * | 2019-08-02 | 2019-11-08 | 北京百度网讯科技有限公司 | 基于语义表示模型的任务处理方法和装置 |
CN111859937A (zh) * | 2020-07-20 | 2020-10-30 | 上海汽车集团股份有限公司 | 一种实体识别方法及装置 |
CN111858905A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 模型训练方法、信息识别方法、装置、电子设备及存储介质 |
CN112818691A (zh) * | 2021-02-01 | 2021-05-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别模型训练方法及装置 |
WO2021174864A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 基于少量训练样本的信息抽取方法及装置 |
CN113408566A (zh) * | 2020-11-17 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 目标检测方法及相关设备 |
CN113435529A (zh) * | 2021-07-06 | 2021-09-24 | 北京百度网讯科技有限公司 | 模型预训练方法、模型训练方法及图像处理方法 |
CN113641830A (zh) * | 2021-07-19 | 2021-11-12 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、电子设备和存储介质 |
-
2021
- 2021-12-22 CN CN202111579688.XA patent/CN114417974B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019042244A1 (zh) * | 2017-08-30 | 2019-03-07 | 腾讯科技(深圳)有限公司 | 图像描述生成方法、模型训练方法、设备和存储介质 |
CN110427627A (zh) * | 2019-08-02 | 2019-11-08 | 北京百度网讯科技有限公司 | 基于语义表示模型的任务处理方法和装置 |
WO2021174864A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 基于少量训练样本的信息抽取方法及装置 |
CN111859937A (zh) * | 2020-07-20 | 2020-10-30 | 上海汽车集团股份有限公司 | 一种实体识别方法及装置 |
CN111858905A (zh) * | 2020-07-20 | 2020-10-30 | 北京百度网讯科技有限公司 | 模型训练方法、信息识别方法、装置、电子设备及存储介质 |
CN113408566A (zh) * | 2020-11-17 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 目标检测方法及相关设备 |
CN112818691A (zh) * | 2021-02-01 | 2021-05-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别模型训练方法及装置 |
CN113435529A (zh) * | 2021-07-06 | 2021-09-24 | 北京百度网讯科技有限公司 | 模型预训练方法、模型训练方法及图像处理方法 |
CN113641830A (zh) * | 2021-07-19 | 2021-11-12 | 北京百度网讯科技有限公司 | 模型预训练方法、装置、电子设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116894192A (zh) * | 2023-09-11 | 2023-10-17 | 浙江大华技术股份有限公司 | 大模型训练方法及相关方法、装置、设备、系统和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114417974B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691770B2 (en) | Real-time classification of evolving dictionaries | |
CN112507700A (zh) | 事件抽取方法、装置、电子设备及存储介质 | |
US20210312124A1 (en) | Method and system for determining sentiment of natural language text content | |
CN113836925B (zh) | 预训练语言模型的训练方法、装置、电子设备及存储介质 | |
US20220358292A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
US20220100967A1 (en) | Lifecycle management for customized natural language processing | |
CN115688920B (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN112541070B (zh) | 槽位更新语料的挖掘方法、装置、电子设备和存储介质 | |
CN114490998B (zh) | 文本信息的抽取方法、装置、电子设备和存储介质 | |
CN113722493A (zh) | 文本分类的数据处理方法、设备、存储介质及程序产品 | |
CN115099239B (zh) | 一种资源识别方法、装置、设备以及存储介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN113051911A (zh) | 提取敏感词的方法、装置、设备、介质及程序产品 | |
CN112507090A (zh) | 用于输出信息的方法、装置、设备和存储介质 | |
CN110826327A (zh) | 情感分析方法、装置、计算机可读介质及电子设备 | |
WO2022072237A1 (en) | Lifecycle management for customized natural language processing | |
CN112926308A (zh) | 匹配正文的方法、装置、设备、存储介质以及程序产品 | |
CN115759100A (zh) | 数据处理方法、装置、设备及介质 | |
CN114970540A (zh) | 训练文本审核模型的方法和装置 | |
CN114579725A (zh) | 问答对生成方法、装置、电子设备和存储介质 | |
CN114417974B (zh) | 模型训练方法、信息处理方法、装置、电子设备和介质 | |
CN113392920A (zh) | 生成作弊预测模型的方法、装置、设备、介质及程序产品 | |
CN115618264A (zh) | 数据资产的主题分类方法、装置、设备和介质 | |
CN115292506A (zh) | 应用于办公领域的知识图谱本体构建方法和装置 | |
CN112560848B (zh) | 兴趣点poi预训练模型的训练方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |