CN112329453B - 样本章节的生成方法、装置、设备以及存储介质 - Google Patents
样本章节的生成方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN112329453B CN112329453B CN202011166648.8A CN202011166648A CN112329453B CN 112329453 B CN112329453 B CN 112329453B CN 202011166648 A CN202011166648 A CN 202011166648A CN 112329453 B CN112329453 B CN 112329453B
- Authority
- CN
- China
- Prior art keywords
- content
- chapter
- text
- processed
- role
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 abstract description 10
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 238000012549 training Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了样本章节的生成方法、装置、设备以及存储介质,涉及深度学习、自然语言处理技术领域。具体实现方案为:获取包括多个章节内容的待处理文本;针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,以预测对话内容的主要角色;获取主要角色的重要度信息;根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及深度学习、自然语言处理技术领域,尤其涉及样本章节的生成方法、装置、电子设备以及存储介质。
背景技术
在深度学习技术中,由于模型训练步骤复杂、耗时长,因此针对一些自然语言和语音处理任务,在训练比较复杂的模型时,通常采用预训练模型来提高模型训练效率。通过对预训练模型进行微调,可以将预训练模型较好的迁移到其它相关的任务中。
目前,可以利用小样本学习的方式,对预训练模型进行微调,以将预训练模型迁移到其它相关任务中,然而,由于在小样本学习时利用的样本数据量较少,容易导致训练得到的模型的性能较差,因此,如何挑选用于小样本学习的样本数据,对于提高模型的性能具有重要意义。
发明内容
本公开提供了一种样本章节的生成方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种样本章节的生成方法,包括:获取待处理文本,其中,所述待处理文本包括多个章节内容;针对每个所述章节内容中的对话内容,获取所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离;根据所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离,预测所述对话内容的主要角色;获取所述主要角色的重要度信息;根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,从所述待处理文本中选择目标章节内容,并基于所述目标章节内容生成样本章节。
根据本公开的另一方面,提供了一种样本章节的生成装置,包括:第一获取模块,用于获取待处理文本,其中,所述待处理文本包括多个章节内容;第二获取模块,用于针对每个所述章节内容中的对话内容,获取所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离;预测模块,用于根据所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离,预测所述对话内容的主要角色;第三获取模块,用于获取所述主要角色的重要度信息;生成模块,用于根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,从所述待处理文本中选择目标章节内容,并基于所述目标章节内容生成样本章节。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的样本章节的生成方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的样本章节的生成方法。
根据本申请的技术,生成了能够用于小样本学习的样本章节,且使得利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,得到的模型在执行新任务时的准确性更高。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请第三实施例的示意图;
图4是根据本申请第四实施例的示意图;
图5是根据本申请第五实施例的示意图;
图6是根据本申请第六实施例的示意图;
图7是用来实现本申请实施例的样本章节的生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
可以理解的是,在深度学习技术中,由于模型训练步骤复杂、耗时长,因此针对一些自然语言和语音处理任务,在训练比较复杂的模型时,通常采用预训练模型来提高模型训练效率。预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类、语义的识别等问题),在训练结束时确定比较好的一组权重值,研究人员分享出来供其他人使用,以提高后续模型训练效率。通过对预训练模型进行微调,可以将预训练模型较好的迁移到其它相关的任务中。
目前,可以利用小样本学习的方式,对预训练模型进行微调,以将预训练模型迁移到其它相关任务中,例如,对于自然语言处理中的预测对话内容的说话人的任务来说,通过利用小样本学习的方式,对预训练模型进行微调,可以将预训练模型迁移到该任务中。然而,由于在小样本学习时利用的样本数据量较少,容易导致训练得到的模型的性能较差,而利用经过精心挑选的数据作为小样本学习的样本数据,对预训练模型进行微调,则可以提高训练得到的模型的准确性,从而提高模型的性能,因此,如何挑选用于小样本学习的样本数据,对于提高模型的性能具有重要意义。
本申请为了提高训练得到的模型的准确性,优化模型的性能,提出一种样本章节的生成方法,该方法首先获取包括多个章节内容的待处理文本,之后针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取主要角色的重要度信息,从而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
下面参考附图描述本申请实施例的样本章节的生成方法、装置、电子设备以及非瞬时计算机可读存储介质。
首先结合图1,对本申请提供的样本章节的生成方法进行详细描述。
图1是根据本申请第一实施例的示意图。其中,需要说明的是,本实施例提供的样本章节的生成方法,执行主体为样本章节的生成装置,样本章节的生成装置可以为电子设备,也可以被配置在电子设备中,以实现生成能够用于进行小样本学习且能对模型进行优化的样本章节。
其中,电子设备,可以是任意能够进行数据处理的静止或者移动计算设备,例如笔记本电脑、智能手机、可穿戴设备等移动计算设备,或者台式计算机等静止的计算设备,或者服务器,或者其它类型的计算设备等。样本章节的生成装置可以是电子设备,或者安装在电子设备中的用于生成样本章节的应用程序,也可以是该生成样本章节的应用程序的管理者、开发者所使用的对该应用程序进行管理、维护的网页、应用程序等,本申请对此不作限制。
如图1所示,样本章节的生成方法,可以包括以下步骤:
步骤101,获取待处理文本,其中,待处理文本包括多个章节内容。
可以理解的是,本申请实施例中,可以预先建立文本库,文本库中包括大量的文本,其中,文本可以是小说或者文章等,每个文本包括一个或多个章节内容。本申请实施例中,可以从文本库中随机选取文本作为待处理文本,待处理文本包括多个章节内容。
需要说明的是,从文本库中获取的待处理文本,可以包括一个文本,该文本包括多个章节内容;或者,从文本库中获取的待处理文本,也可以包括多个文本,每个文本包括一个或多个章节内容。也即是说,待处理文本包括的多个章节内容,可以是文本库中同一个文本包括的多个章节内容,也可以是文本库中多个文本包括的多个章节内容,本申请对此不作限制。
在示例性实施例中,获取待处理文本时,可以根据需要选择预设数量的文本作为待处理文本,或者也可以根据需要从文本库中选择包括预设数量的章节内容的文本作为待处理文本,本申请对此不作限制。
步骤102,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离。
步骤103,根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色。
需要说明的是,本申请实施例中,待处理文本中包括的章节内容,为包括对话内容的章节内容。由于在文本中,对话内容通常通过双引号引起来,因此,本申请实施例中,可以将章节内容中双引号引起来的内容作为对话内容。
对话内容的主要角色,即为该对话内容的说话人。
举例来说,假设章节内容中包括以下内容:张三看见李四进门,张三便说“回来啦,先把手洗干净”。则双引号引起来的“回来啦,先把手洗干净”为对话内容,由于该对话内容是张三说的,则该对话内容的主要角色为张三。
具体的,针对每个章节内容中的每个对话内容,在预测对话内容的主要角色时,可以先获取该对话内容以及对话内容的上下文中出现的角色,若出现的角色为一个,则可以将该角色确定为该对话内容的主要角色。
若针对每个章节内容中的每个对话内容,对话内容以及对话内容的上下文中出现的角色为多个,则可以获取该对话内容以及对应上下文中每个角色的出现次数,以及每个角色与该对话内容之间的距离,从而根据该对话内容以及对应上下文中角色的出现次数,以及角色与该对话内容之间的距离,预测对话内容的主要角色。
具体的,可以将对话内容与对应上下文中出现次数越多、与对话内容之间的距离越近的角色,确定为该对话内容的主要角色。
其中,角色与对话内容之间的距离,可以根据角色与对话内容之间间距的最小字数确定,比如,某个角色与某对话内容之间间隔的最小字数为5个字数,则可以将该角色与该对话内容之间的距离确定为5。
步骤104,获取主要角色的重要度信息。
其中,对话内容的主要角色的重要度信息,用于评估该主要角色在文本库中的重要度,或者主要角色在待处理文本中的重要度,或者主要角色在文本库以及待处理文本中的重要度。
在示例性实施例中,主要角色的重要度信息,用于评估主要角色在文本库中的重要度时,可以根据主要角色在文本库中出现的次数以及文本库中所有角色的出现总次数,确定主要角色的重要度信息;主要角色的重要度信息,用于评估主要角色在待处理文本中的重要度时,可以根据主要角色在章节内容中的出现次数以及待处理文本中出现有主要角色的章节内容的数量,确定主要角色在待处理文本中的重要度信息。具体的实现过程,将在下述实施例中进行说明,此处不作介绍。
需要说明的是,上述确定主要角色的重要度信息的方法,仅是示意性说明,但不限于此,在实际应用中,还可以通过其它方法,确定主要角色的重要度信息,只要得到的主要角色的重要度信息,能够评估主要角色在文本库中的重要度,或者主要角色在待处理文本中的重要度,或者主要角色在文本库以及待处理文本中的重要度即可,本申请对此不作限制。
步骤105,根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。
在示例性实施例中,获取每个章节内容中的每个对话内容的主要角色以及主要角色的重要度信息后,可以根据每个章节内容中各个对话内容的主要角色,以及主要角色的重要度信息,对每个章节内容进行评分,进而根据各个章节内容的分数高低,从待处理文本中选择目标章节内容,进而基于目标章节内容生成样本章节。
可以理解的是,章节内容中的各个对话内容的主要角色的重要度越高,则章节内容的分数越高,章节内容中的各个对话内容的主要角色的重要度越低,则章节内容的分数越低。
在示例性实施例中,可以预先设置分数阈值,进而从待处理文本的各个章节内容中,选取对应的分数高于预设分数阈值的章节内容作为目标章节内容,并基于目标章节内容生成样本章节。
或者,在示例性实施例中,可以预先设置从待处理文本中选择的目标章节内容的数量等于第一数量阈值,从而在获取目标章节内容时,可以将待处理文本中的各章节内容按照分数从高到低进行排序,进而选取排序在前的数量满足第一数量阈值的章节内容作为目标章节内容,并基于目标章节内容生成样本章节。
需要说明的是,上述根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节的方法,仅是示意性说明,但不限于此,在实际应用中,还可以通过其它方法,根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容。
本申请实施例提供的样本章节的生成方法,通过根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,可以准确的确定章节内容中的对话内容的主要角色,由于确定的对话内容的主要角色准确,且样本章节是根据各章节内容中的对话内容的主要角色的重要度挑选的,因此生成的样本章节的质量更好,从而利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够将预训练模型很好的迁移到新的任务例如预测对话内容的说话人的任务中,提高模型执行预测对话内容的说话人的任务时的准确性,从而优化模型的性能。
需要说明的是,利用样本文章进行小样本学习,对预训练模型进行微调,得到最终的执行新的任务的模型的方法,可以参考相关技术中的小样本学习方法,本申请对此不作赘述。
本申请实施例提供的样本章节的生成方法,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取主要角色的重要度信息,从而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
通过上述分析可知,在本申请实施例中,针对每个章节内容中的对话内容,可以根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,下面结合图2,对本申请提供的样本章节的生成方法中根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色的过程进行进一步说明。
图2是根据本申请第二实施例的示意图。如图2所示,样本章节的生成方法,可以包括以下步骤:
步骤201,获取待处理文本,其中,待处理文本包括多个章节内容。
需要说明的是,从文本库中获取的待处理文本,可以包括一个文本,该文本包括多个章节内容,或者,从文本库中获取的待处理文本,也可以包括多个文本,每个文本包括一个或多个章节内容。也即是说,待处理文本包括的多个章节内容,可以是文本库中同一个文本包括的多个章节内容,也可以是文本库中多个文本包括的多个章节内容,本申请对此不作限制。
可以理解的是,在实际应用中,由于获取的待处理文本中包括的章节内容越多,根据待处理文本生成更高质量的能够更好的优化模型的样本章节的可能性越大,即待处理文本中包括的章节内容的数量可能会影响最终生成的样本章节的质量,进而可能会影响利用样本章节进行小样本学习时对模型的优化效果,因此,为了提高最终生成的样本章节的质量,进而提高模型的优化效果,在示例性实施例中,可以获取包括的章节内容的数量较多的待处理文本。
在示例性实施例中,可以通过从文本库中包括的章节内容的数量较多的文本中选择文本作为待处理文本,以使获取的待处理文本中包括的章节内容的数量较多。
即,步骤201具体可以包括:
获取文本库中各个文本的章节内容数量;
从对应的章节内容数量大于第二数量阈值的文本中选择文本,并将所选择的文本确定为待处理文本。
其中,第二数量阈值,可以根据需要任意设置,比如,可以设置为200、210、300等等。
通过从对应的章节内容数量大于第二数量阈值的文本中选择文本作为待处理文本,使得获取的待处理文本中包括的章节内容的数量较多,进而提高了根据待处理文本生成的样本章节的质量,使得利用样本章节进行小样本学习时对模型的优化效果更好。
在示例性实施例中,也可以通过从文本库中选择较多数量的文本作为待处理文本,以使获取的待处理文本中包括的章节内容的数量较多,或者,也可以通过其它方式使获取的待处理文本中包括的章节内容的数量较多,本申请对获取包括较多数量的章节内容的待处理文本的方式不作限制。
步骤202,针对每个章节内容中的对话内容,对对话内容以及对应上下文进行实体识别,以获取识别结果中的角色。
具体的,针对每个章节内容中的每个对话内容,可以通实体识别模型,对对话内容以及对应上下文进行实体识别,以获取识别结果中的角色。
在示例性实施例中,可以预先训练生成实体识别模型,实体识别模型的输入为文本,输出为实体,从而将对话内容以及对应上下文输入实体识别模型,即可获取对话内容以及对应上下文中出现的角色。
其中,实体识别模型,可以是任意能够进行实体识别的模型,例如神经网络模型。在对实体识别模型进行训练时,可以通过深度学习的方式进行训练,相比于其它机器学习方法,深度学习在大数据集上的表现更好。通过深度学习的方式训练实体识别模型时,可以将标注了实体的训练数据作为输入,将训练数据中标注的实体作为输出结果,通过不断地调整实体识别模型的模型参数对实体识别模型进行迭代训练,直至实体识别模型输出结果的准确率满足预先设定的阈值,训练结束,得到训练好的实体识别模型。
步骤203,针对识别结果中的每个角色,获取角色在对话内容以及对应上下文中的出现次数以及出现位置。
步骤204,根据角色在对话内容以及对应上下文中的出现位置,确定角色与对话内容之间间隔的最小字数,并根据最小字数生成角色与对话内容之间的距离。
具体的,针对每个章节内容中的每个对话内容,在识别出该对话内容以及上下文中出现的每个角色后,可以针对每个角色,获取该角色在该对话内容以及对应上下文中的出现次数以及出现位置,并根据该角色在该对话内容以及对应上下文中的出现位置,确定该角色与该对话内容之间间隔的最小字数,进而根据最小字数生成该角色与该对话内容之间的距离。
在示例性实施例中,可以将某个角色与某对话内容之间间隔的最小字数,确定为该角色与该对话内容之间的距离。比如,某个角色与某对话内容之间间隔的最小字数为5个字数,则可以将该角色与该对话内容之间的距离确定为5。或者,也可以将某个角色与某对话内容之间间隔的最小字数与预设常数的比值,确定为该角色与该对话内容之间的距离。比如,某个角色与某对话内容之间间隔的最小字数为5个字数,预设常数为10,则可以将该角色与该对话内容之间的距离确定为5与10的比值,即0.5。
步骤205,针对对话内容以及对应上下文中出现的每个角色,根据角色的出现次数以及角色与对话内容之间的距离,计算确定角色的分数。
可以理解的是,针对对话内容以及对应上下文中出现的每个角色,角色的出现次数越多、角色与对话内容之间的距离越短,角色的分数越高。
在示例性实施例中,可以通过多种方式计算确定角色的分数,只要确定的角色的分数满足角色的出现次数越多、角色与对话内容之间的距离越短,角色的分数越高即可。
比如,针对对话内容以及对应上下文中出现的每个角色,可以将角色的出现次数,和角色与对话内容之间的距离的比值,作为角色的分数。或者,可以将角色的出现次数与预设常数的乘积,和角色与对话内容之间的距离的比值,作为角色的分数,等等。
需要说明的是,上述针对对话内容以及对应上下文中出现的每个角色,根据角色的出现次数以及角色与对话内容之间的距离,计算确定角色的分数的方法,仅是示意性说明,但不限于此,在实际应用中,还可以通过其它方法,确定角色的分数,只要确定的角色的分数满足角色的出现次数越多、角色与对话内容之间的距离越短,角色的分数越高即可,本申请对此不作限制。
步骤206,按照对话内容以及对应上下文中出现的各个角色的分数,对各个角色进行排序,以得到排序结果。
步骤207,将排序结果中排序在首位的角色,确定为对话内容的主要角色。
在示例性实施例中,可以按照对话内容以及对应上下文中出现的各个角色的分数,将各个角色按照对应的分数从高到底的顺序排序,得到排序结果,从而将排序结果中排序在首位的角色,确定为对话内容的主要角色。
针对每个章节内容中的对话内容,通过对对话内容以及对应上下文进行实体识别,可以准确确定对话内容以及对应上下文中出现的角色,针对识别结果中的每个角色,通过根据角色在对话内容以及对应上下文中的出现位置,确定角色与对话内容之间间隔的最小字数,并根据最小字数生成角色与对话内容之间的距离,进而根据角色出现的次数以及角色与对话内容之间的距离,确定角色的分数,以根据角色的分数,确定对话内容对应的主要角色,实现了准确确定对话内容对应的主要角色,进而使得后续根据主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成的样本章节的质量更好。
步骤208,获取主要角色的重要度信息。
步骤209,根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。
其中,上述步骤208-209的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
本申请实施例提供的样本章节的生成方法,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,对对话内容以及对应上下文进行实体识别,以获取识别结果中的角色,针对识别结果中的每个角色,获取角色在对话内容以及对应上下文中的出现次数以及出现位置,再根据角色在对话内容以及对应上下文中的出现位置,确定角色与对话内容之间间隔的最小字数,并根据最小字数生成角色与对话内容之间的距离,再针对对话内容以及对应上下文中出现的每个角色,根据角色的出现次数以及角色与对话内容之间的距离,计算确定角色的分数,再按照对话内容以及对应上下文中出现的各个角色的分数,对各个角色进行排序,以得到排序结果,进而将排序结果中排序在首位的角色,确定为对话内容的主要角色,再获取主要角色的重要度信息,进而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
通过上述分析可知,本申请实施例中,可以获取主要角色的重要度信息,进而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。下面结合图3,对本申请提供的样本章节的生成方法中获取主要角色的重要度信息的过程进行进一步说明。
图3是根据本申请第三实施例的示意图。如图3所示,样本章节的生成方法,可以包括以下步骤:
步骤301,获取待处理文本,其中,待处理文本包括多个章节内容。
步骤302,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离。
步骤303,根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色。
其中,上述步骤301-303的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
进一步的,预测对话内容的主要角色后,即可获取主要角色的重要度信息。
在示例性实施例中,主要角色的重要度信息可以包括主要角色在文本库中的重要度信息,用于评估主要角色在文本库中的重要度。相应的,可以通过以下步骤304-306,确定主要角色在文本库中的重要度信息。
步骤304,获取待处理文本所属的文本库。
步骤305,获取文本库各个文本中的所有角色,以及每个角色在文本库中的出现次数。
步骤306,根据主要角色在文本库中的出现次数以及所有角色在文本库中的总出现次数,确定主要角色在文本库中的重要度信息。
具体的,获取待处理文本所属的文本库后,可以通过对文本库中各个文本进行实体识别,获取文本库各个文本中的所有角色,之后,针对识别出的每个角色,获取角色在文本库中各文本中的出现次数,再根据每个角色在文本库中各文本中的出现次数,确定所有角色在文本库中的总出现次数,进而根据每个章节内容中的每个对话内容的主要角色在文本库中的出现次数,以及所有角色在文本库中的总出现次数,确定每个章节内容中的每个对话内容的主要角色在文本库中的重要度信息。
在示例性实施例中,可以将主要角色在文本库中的出现次数,与所有角色在文本库中的总出现次数的比值,即主要角色在文本库中的出现次数在所有角色在文本库中的总出现次数中的所占比重,确定为主要角色在文本库中的重要度信息。其中,主要角色在文本库中的出现次数,与所有角色在文本库中的总出现次数的比值越大,则表示主要角色在文本库中的重要度越高;主要角色在文本库中的出现次数,与所有角色在文本库中的总出现次数的比值越小,则表示主要角色在文本库中的重要度越低。
通过上述方式,可以确定每个章节内容中的每个对话内容的主要角色在文本库中的重要度信息,从而能够评估每个章节内容中的每个对话内容的主要角色在文本库中的重要度。
在示例性实施例中,主要角色的重要度信息可以包括主要角色在待处理文本中的重要度信息,用于评估主要角色在待处理文本中的重要度,相应的,可以通过以下步骤,确定主要角色在待处理文本中的重要度信息。即,上述步骤304-306可以替换为:
获取主要角色在章节内容中的出现次数;
获取待处理文本中出现有主要角色的章节内容的数量;
根据主要角色在章节内容中的出现次数以及待处理文本中出现有主要角色的章节内容的数量,确定主要角色在待处理文本中的重要度信息。
可以理解的是,在信息检索与数据挖掘技术中,可以利用词频-逆文本频率指数(Term Frequency-Inverse Document Frequency,简称TF-IDF),评估一个字词对于一个文件集或一个语料库中的其中一份文件的重要程度。其中,TF-IDF是一种统计方法,它将字词的重要性定义为随着字词在文件中出现的次数成正比增加,但同时会随着字词在语料库中出现的频率成反比下降。本申请实施例中,可以利用TF-IDF的思想,确定主要角色在待处理文本中的重要度信息。
具体的,针对每个章节内容中的每个对话内容,确定对话内容的主要角色后,针对每个章节内容中的每个对话内容的主要角色,可以获取主要角色在该章节内容中的出现次数,以及待处理文本中出现有主要角色的章节内容的数量,进而根据主要角色在该章节内容中的出现次数以及待处理文本中出现有该主要角色的章节内容的数量,确定该主要角色在待处理文本中的重要度信息,以评估主要角色在待处理文本中的重要度。
其中,针对每个章节内容中的每个对话内容的主要角色,主要角色在待处理文本中的重要度,随着主要角色在该章节内容中的出现次数成正比增加,但是随着待处理文本中出现有该主要角色的章节内容的数量成反比下降。也就是说,对话内容的主要角色在对话内容所在的章节内容中的出现次数越多,待处理文本中出现有该主要角色的章节内容的数量越少,则表示该主要角色在待处理文本中的重要度越高;对话内容的主要角色在对话内容所在的章节内容中的出现次数越少,待处理文本中出现有该主要角色的章节内容的数量越多,则表示该主要角色在待处理文本中的重要度越低。
在示例性实施例中,针对每个章节内容中的每个对话内容的主要角色,可以将主要角色在章节内容中的出现次数,与待处理文本中出现有该主要角色的章节内容的数量的比值,确定为主要角色在待处理文本中的重要度信息。或者,也可以将主要角色在章节内容中的出现次数和预设常数的乘积,与待处理文本中出现有该主要角色的章节内容的数量的比值,确定为主要角色在待处理文本中的重要度信息。
举例来说,假设章节内容1中包括3个对话内容,3个对话内容分别的主要角色为主要角色A、主要角色B和主要角色C。假设主要角色A在章节内容1中出现了a1次,待处理文本中有a2个章节内容出现了主要角色A,主要角色B在章节内容1中出现了b1次,待处理文本中有b2个章节内容出现了主要角色B,主要角色C在章节内容1中出现了c1次,待处理文本中有c2个章节内容出现了主要角色C。则主要角色A在待处理文本中的重要度信息可以确定为a1/a2,主要角色B在待处理文本中的重要度信息可以确定为b1/b2,主要角色C在待处理文本中的重要度信息可以确定为c1/c2。
通过上述方式,实现了确定每个章节内容中的每个对话内容的主要角色在待处理文本中的重要度信息,从而能够评估每个章节内容中的每个对话内容的主要角色在待处理文本中的重要度。
在示例性实施例中,主要角色的重要度信息可以包括主要角色在待处理文本中的重要度信息以及主要角色在文本库以及待处理文本中的重要度信息,用于评估主要角色在文本库以及待处理文本中的重要度。
具体的,针对每个章节内容中的每个对话内容的主要角色,可以根据主要角色在文本库中的出现次数、所有角色在文本库中的总出现次数、主要角色在章节内容中的出现次数,以及待处理文本中出现有主要角色的章节内容的数量,确定主要角色的重要度信息。
在示例性实施例中,可以根据主要角色在文本库中的出现次数、所有角色在文本库中的总出现次数,确定主要角色在文本库中的重要度信息,再根据主要角色在章节内容中的出现次数,以及待处理文本中出现有主要角色的章节内容的数量,确定主要角色在待处理文本中的重要度信息,进而根据主要角色在文本库中的重要度信息,以及主要角色在待处理文本中的重要度信息,确定主要角色在文本库以及待处理文本中的重要度信息。
比如,可以将主要角色在文本库中的出现次数与所有角色在文本库中的总出现次数的比值,及主要角色在章节内容中的出现次数与待处理文本中出现有该主要角色的章节内容的数量的比值,进行求和,将求和结果作为主要角色在文本库以及待处理文本中的重要度信息。
需要说明的是,上述获取主要角色在文本库中,或在待处理文本中,或在文本库以及待处理文本中的重要度信息的方法,仅是示意性说明,但不限于此,在实际应用中,本领域技术人员还可以通过其它方法,确定主要角色的重要度信息,只要得到的主要角色的重要度信息,能够评估主要角色在文本库中的重要度,或者主要角色在待处理文本中的重要度,或者主要角色在文本库以及待处理文本中的重要度即可,本申请对此不作限制。
步骤307,根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。
其中,上述步骤307的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
本申请实施例提供的样本章节的生成方法,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取待处理文本所属的文本库,以及获取文本库各个文本中的所有角色,以及每个角色在文本库中的出现次数,根据主要角色在文本库中的出现次数以及所有角色在文本库中的总出现次数,确定主要角色在文本库中的重要度信息,进而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
通过上述分析可知,在获取每个章节内容中的对话内容的主要角色后,可以根据每个章节内容中的各对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。下面结合图4,对本申请提供的样本章节的生成方法中根据每个章节内容中的各对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节的过程进行进一步说明。
图4是根据本申请第四实施例的示意图。如图4所示,样本章节的生成方法,可以包括以下步骤:
步骤401,获取待处理文本,其中,待处理文本包括多个章节内容。
步骤402,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离。
步骤403,根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色。
步骤404,获取主要角色的重要度信息。
其中,上述步骤401-404的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
步骤405,根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,计算确定每个章节内容的分数。
具体的,获取每个章节内容中的每个对话内容的主要角色以及主要角色的重要度信息后,可以根据每个章节内容中各个对话内容的主要角色,以及主要角色的重要度信息,对每个章节内容进行评分,计算确定每个章节内容的分数。
可以理解的是,章节内容中的各个对话内容的主要角色的重要度越高,则章节内容的分数越高,章节内容中的各个对话内容的主要角色的重要度越低,则章节内容的分数越低。
在示例性实施例中,以主要角色的重要度信息包括主要角色在文本库中的重要度信息,将主要角色在文本库中的出现次数,与所有角色在文本库中的总出现次数的比值,作为主要角色在文本库中的重要度信息为例,针对每个章节内容,可以将章节内容中各对话内容的主要角色的重要度信息求和,将求和结果作为该章节内容的分数,从而确定每个章节内容的分数。
在示例性实施例中,以主要角色的重要度信息包括主要角色在文本库中以及待处理文本中的重要度信息,将主要角色在文本库中的出现次数,与所有角色在文本库中的总出现次数的比值,作为主要角色在文本库中的重要度信息,将主要角色在章节内容中的出现次数,与待处理文本中出现有主要角色的章节内容的数量的比值,作为主要角色在待处理文本中的重要度信息为例,针对每个章节内容,可以将章节内容中每个对话内容的主要角色在文本库中的重要度信息,与对应的对话内容的主要角色在待处理文本中的重要度信息相乘,得到一个或多个相乘结果,相乘结果的数量与对话内容的数量相同,再对一个或多个相乘结果进行求和,将求和结果作为该章节内容的分数,从而确定每个章节内容的分数。也就是说,针对每个章节内容,可以将章节内容中每个对话内容的主要角色在文本库中的重要度信息作为权重,对对话内容的主要角色在待处理文本中的重要度信息进行加权求和,将求和结果作为该章节内容的分数,从而确定每个章节内容的分数。
需要说明的是,上述根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,计算确定每个章节内容的分数的方法,仅是示意性说明,但不限于此,在实际应用中,本领域技术人员还可以根据需要,采用其它方法计算确定章节内容的分数,本申请对此不作限制。
通过根据每个章节内容中的对话内容的主要角色以及主要角色的重要度信息,确定每个章节内容的分数,实现了根据章节内容中的对话内容的主要角色的重要度,对每个章节内容进行评分,为后续从待处理文本中选择目标章节内容提供了依据,通过根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容,实现了从待处理文本中选择质量较高的章节内容作为目标章节内容。
步骤406,根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容。
具体的,可以采用多种方式,从待处理文本中选择目标章节内容。
比如,可以预先设置分数阈值,进而从待处理文本的各个章节内容中,选取对应的分数高于预设分数阈值的章节内容作为目标章节内容。
举例来说,假设分数阈值为F0,则计算确定每个章节内容的分数后,可以从待处理文本中选取对应的分数高于F0的章节内容作为目标章节内容。
或者,可以预先设置从待处理文本中选择的目标章节内容的数量等于第一数量阈值,从而在从待处理文本中选择目标章节内容时,可以将待处理文本中的各章节内容按照分数从高到低进行排序,从而选取排序在前的数量满足第一数量阈值的章节内容作为目标章节内容。其中,第一数量阈值,可以根据需要任意设置。
举例来说,假设第一数量阈值为S0,则计算确定每个章节内容的分数后,可以将待处理文本中的各章节内容按照分数从高到低进行排序,选取排序在前的S0个章节内容作为目标章节内容。
在示例性实施例中,还可以采用贪婪算法,根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容,即,步骤406具体可以通过以下步骤406a-406d所示的方式实现。
步骤406a,根据待处理文本中各个章节内容的分数,对待处理文本中各个章节内容进行排序,以得到排序结果。
步骤406b,将排序结果中排序在首位的章节内容,确定为目标章节内容。
步骤406c,获取目标章节内容的各个对话内容中的目标主要角色。
步骤406d,对待处理文本中各个非目标章节内容中的目标主要角色的重要度信息进行置零处理,并重新计算确定待处理文本中各个非目标章节内容的分数,选择目标章节内容,直至目标章节内容的数量满足第一数量阈值。
具体的,可以根据待处理文本中各个章节内容的分数,将待处理文本中各个章节内容按照对应的分数从高到低的顺序进行排序,得到排序结果。之后,可以将排序结果中排序在首位的章节内容,确定为目标章节内容。之后,再将目标章节内容的各个对话内容中的主要角色作为目标主要角色,对待处理文本中各个非目标章节内容中的目标主要角色的重要度信息进行置零处理,进而根据步骤405的方法,重新计算确定待处理文本中各个非目标章节内容的分数。再根据各个非目标章节内容的分数,将待处理文本中各个非目标章节内容按照对应的分数从高到低的顺序进行排序,得到排序结果。之后,可以将排序结果中排序在首位的非目标章节内容,确定为目标章节内容。
重复上述步骤,从待处理文本中选择目标章节内容,直至目标章节内容的数量满足第一数量阈值,从而可以得到数量满足第一数量阈值的目标章节内容。其中,在目标章节内容的数量等于第一数量阈值时,可以认为目标章节内容的数量满足第一数量阈值。
举例来说,假设第一数量阈值为Y,待处理文本中包括Z个章节内容,可以对待处理文本中包括的Z个章节内容按照分数从高到低的顺序排序,假设章节内容1的分数最高,则可以将章节内容1确定为目标章节内容。
假设章节内容1的各个对话内容的主要角色包括角色A、B,则可以在获取Z个章节内容中除章节内容1之外的Z-1个章节内容中各对话内容的主要角色之后,将其中主要角色为角色A和角色B的重要度信息进行置零处理,再重新计算确定Z个章节内容中除章节内容1之外的Z-1个章节内容的分数,并对这Z-1个章节内容按照分数从高到低的顺序排序,假设这Z-1个章节内容中章节内容2的分数最高,则可以将章节内容2确定为目标章节内容。
假设章节内容2的各个对话内容的主要角色包括角色C,则可以在获取Z个章节内容中除章节内容1和章节内容2之外的Z-2个章节内容中各对话内容的主要角色之后,将其中主要角色为角色A、角色B和角色C的重要度信息进行置零处理,再重新计算确定Z个章节内容中除章节内容1、章节内容2之外的Z-2个章节内容的分数,并对这Z-2个章节内容按照分数从高到低的顺序排序,假设这Z-2个章节内容中章节内容3的分数最高,则可以将章节内容3确定为目标章节内容。
再重复上述过程Y-3次,即可得到Y个目标章节内容。
通过采用上述贪婪算法,根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容,实现了获取数量满足预设数量阈值的目标章节内容,并且,通过在每次确定目标章节内容之后,获取目标章节内容的各个对话内容中的目标主要角色,并对待处理文本中非目标章节内容中的目标主要角色的重要度信息进行置零处理,再重新计算确定待处理文本中各个非目标章节内容的分数,避免了最终得到的各个目标章节内容均与相同的角色相关,使得各个目标章节内容涉及的角色数量增多,从而丰富了最终得到的目标章节内容所涉及的角色,进一步提高了基于目标章节内容生成的样本章节的质量。
步骤407,针对每个目标章节内容,对目标章节内容中的各个对话内容进行角色标注。
步骤408,根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。
具体的,从待处理文本中选择出目标章节内容后,针对每个章节内容,可以根据之前已确定的各个章节内容中的各个对话内容的主要角色,对目标章节内容中的各个对话内容进行角色标注,进而根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。
通过根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节,再将生成的样本章节用于进行小样本学习,对预训练模型进行微调,使得预训练模型能够迁移到预测对话内容的说话人的新任务中。
本申请实施例提供的样本章节的生成方法,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取主要角色的重要度信息,进而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,计算确定每个章节内容的分数,再根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容,再针对每个目标章节内容,对目标章节内容中的各个对话内容进行角色标注,最后根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使预训练模型迁移到预测对话内容的说话人的新任务中,使得到的模型在执行预测对话内容的说话人的任务时的准确性更高,从而优化模型的性能。
下面结合图5,对本申请提供的样本章节的生成装置进行说明。
图5是根据本申请第五实施例的样本章节的生成装置的结构示意图。
如图5所示,本申请提供的样本章节的生成装置500,包括:第一获取模块501、第二获取模块502、预测模块503、第三获取模块504、生成模块505。
其中,第一获取模块501,用于获取待处理文本,其中,待处理文本包括多个章节内容;
第二获取模块502,用于针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离;
预测模块503,用于根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色;
第三获取模块504,用于获取主要角色的重要度信息;
生成模块505,用于根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。
需要说明的是,本实施例提供的样本章节的生成装置,可以执行前述实施例所述的样本章节的生成方法。其中,样本章节的生成装置可以为电子设备,也可以被配置在电子设备中,以实现生成能够用于进行小样本学习且能对模型进行优化的样本章节。
其中,电子设备,可以是任意能够进行数据处理的静止或者移动计算设备,例如笔记本电脑、智能手机、可穿戴设备等移动计算设备,或者台式计算机等静止的计算设备,或者服务器,或者其它类型的计算设备等。样本章节的生成装置可以是电子设备,或者安装在电子设备中的用于生成样本章节的应用程序,也可以是该生成样本章节的应用程序的管理者、开发者所使用的对该应用程序进行管理、维护的网页、应用程序等,本申请对此不作限制。
需要说明的是,前述对于样本章节的生成方法的实施例的说明,也适用于本申请提供的样本章节的生成装置,此处不再赘述。
本申请实施例提供的样本章节的生成装置,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取主要角色的重要度信息,从而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
下面结合图6,对本申请提供的样本章节的生成装置进行说明。
图6是根据本申请第六实施例的样本章节的生成装置的结构示意图。
如图6所示,样本章节的生成装置600,具体可以包括:第一获取模块601、第二获取模块602、预测模块603、第三获取模块604、生成模块605,其中,图6中601至605与图5中501至505具有相同功能。
在示例性实施例中,如图6所示,第二获取模块602,具体可以包括:识别单元6021、第一获取单元6022、第一确定单元6023。
其中,识别单元6021,用于针对每个章节内容中的对话内容,对对话内容以及对应上下文进行实体识别,以获取识别结果中的角色;
第一获取单元6022,用于针对识别结果中的每个角色,获取角色在对话内容以及对应上下文中的出现次数以及出现位置;
第一确定单元6023,用于根据角色在对话内容以及对应上下文中的出现位置,确定角色与对话内容之间间隔的最小字数,并根据最小字数生成角色与对话内容之间的距离。
在示例性实施例中,如图6所示,上述预测模块603,可以包括:第一计算单元6031、排序单元6032、第二确定单元6033。
其中,第一计算单元6031,用于针对对话内容以及对应上下文中出现的每个角色,根据角色的出现次数以及角色与对话内容之间的距离,计算确定角色的分数;
排序单元6032,用于按照对话内容以及对应上下文中出现的各个角色的分数,对各个角色进行排序,以得到排序结果;
第二确定单元6033,用于将排序结果中排序在首位的角色,确定为对话内容的主要角色。
在示例性实施例中,主要角色的重要度信息包括:主要角色在文本库中的重要度信息,相应的,如图6所示,上述第三获取模块604,可以包括:第二获取单元6041、第三获取单元6042、第三确定单元6043。
其中,第二获取单元6041,用于获取待处理文本所属的文本库;
第三获取单元6042,用于获取文本库各个文本中的所有角色,以及每个角色在文本库中的出现次数;
第三确定单元6043,用于根据主要角色在文本库中的出现次数以及所有角色在文本库中的总出现次数,确定主要角色在文本库中的重要度信息。
在示例性实施例中,主要角色的重要度信息包括:主要角色在待处理文本中的重要度信息,相应的,上述第三获取模块604,包括:第四获取单元、第五获取单元、第四确定单元。
其中,第四获取单元,用于获取主要角色在章节内容中的出现次数;
第五获取单元,用于获取待处理文本中出现有主要角色的章节内容的数量;
第四确定单元,用于根据主要角色在章节内容中的出现次数以及待处理文本中出现有主要角色的章节内容的数量,确定主要角色在待处理文本中的重要度信息。
在示例性实施例中,如图6所示,上述生成模块605,可以包括:第二计算单元6051和选择单元6052。
其中,第二计算单元6051,用于根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,计算确定每个章节内容的分数;
选择单元6052,用于根据待处理文本中各个章节内容的分数,从待处理文本中选择目标章节内容。
在示例性实施例中,选择单元6052,可以包括:
排序子单元,用于根据待处理文本中各个章节内容的分数,对待处理文本中各个章节内容进行排序,以得到排序结果;
确定子单元,用于将排序结果中排序在首位的章节内容,确定为目标章节内容;
获取子单元,用于获取目标章节内容的各个对话内容中的目标主要角色;
处理子单元,用于对待处理文本中各个非目标章节内容中的目标主要角色的重要度信息进行置零处理,并重新计算确定待处理文本中各个非目标章节内容的分数,选择目标章节内容,直至目标章节内容的数量满足第一数量阈值。
在示例性实施例中,上述生成模块,还可以包括标注单元和生成单元。
其中,标注单元,用于针对每个目标章节内容,对目标章节内容中的各个对话内容进行角色标注;
生成单元,用于根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。
在示例性实施例中,如图6所示,上述第一获取模块601,可以包括第六获取单元6011和第五确定单元6012。
其中,第六获取单元6011,用于获取文本库中各个文本的章节内容数量;
第五确定单元6012,用于从对应的章节内容数量大于第二数量阈值的文本中选择文本,并将所选择的文本确定为待处理文本。
需要说明的是,前述对于样本章节的生成方法的实施例的说明,也适用于本申请提供的样本章节的生成装置,此处不再赘述。
本申请实施例提供的样本章节的生成装置,在获取包括多个章节内容的待处理文本后,针对每个章节内容中的对话内容,获取对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,再根据对话内容以及对应上下文中角色的出现次数,以及角色与对话内容之间的距离,预测对话内容的主要角色,再获取主要角色的重要度信息,从而根据每个章节内容中对话内容的主要角色以及主要角色的重要度信息,从待处理文本中选择目标章节内容,并基于目标章节内容生成样本章节。由此,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的样本章节的生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的样本章节的生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的样本章节的生成方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的样本章节的生成方法对应的程序指令/模块(例如,附图6所示的第一获取模块11、第二获取模块12、预测模块13、第三获取模块14和生成模块15)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的样本章节的生成方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据样本章节的生成的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至样本章节的生成的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
样本章节的生成方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与样本章节的生成的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS,Virtual Private Server)服务中存在的管理难度大,业务扩展性弱的缺陷。
本申请涉及人工智能技术领域,特别涉及深度学习、自然语言处理技术领域。
需要说明的是,人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
根据本申请实施例的技术方案,生成了能够用于小样本学习的样本章节,且利用本申请的方法生成的样本章节进行小样本学习,对预训练模型进行微调,能够使得到的模型在执行新任务时的准确性更高,从而优化模型的性能。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种样本章节的生成方法,包括:
获取待处理文本,其中,所述待处理文本包括多个章节内容;
针对每个所述章节内容中的对话内容,对所述对话内容以及对应上下文进行实体识别,以获取识别结果中的角色;
针对所述识别结果中的每个角色,获取所述角色在所述对话内容以及对应上下文中的出现次数以及出现位置;
根据所述角色在所述对话内容以及对应上下文中的出现位置,确定所述角色与所述对话内容之间间隔的最小字数,并根据所述最小字数生成所述角色与所述对话内容之间的距离;
根据所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离,预测所述对话内容的主要角色;
获取所述主要角色的重要度信息;
根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,从所述待处理文本中选择目标章节内容,并基于所述目标章节内容生成样本章节。
2.根据权利要求1所述的方法,其中,所述根据所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离,预测所述对话内容的主要角色,包括:
针对所述对话内容以及对应上下文中出现的每个角色,根据所述角色的出现次数以及所述角色与所述对话内容之间的距离,计算确定所述角色的分数;
按照所述对话内容以及对应上下文中出现的所述各个角色的分数,对所述各个角色进行排序,以得到排序结果;
将所述排序结果中排序在首位的角色,确定为所述对话内容的主要角色。
3.根据权利要求1所述的方法,其中,所述主要角色的重要度信息包括:所述主要角色在文本库中的重要度信息;
所述获取所述主要角色的重要度信息,包括:
获取所述待处理文本所属的文本库;
获取所述文本库各个文本中的所有角色,以及每个角色在所述文本库中的出现次数;
根据所述主要角色在所述文本库中的出现次数以及所有角色在所述文本库中的总出现次数,确定所述主要角色在所述文本库中的重要度信息。
4.根据权利要求1或3所述的方法,其中,所述主要角色的重要度信息包括:所述主要角色在所述待处理文本中的重要度信息;
所述获取所述主要角色的重要度信息,包括:
获取所述主要角色在所述章节内容中的出现次数;
获取所述待处理文本中出现有所述主要角色的章节内容的数量;
根据所述主要角色在所述章节内容中的出现次数以及所述待处理文本中出现有所述主要角色的章节内容的数量,确定所述主要角色在所述待处理文本中的重要度信息。
5.根据权利要求1所述的方法,其中,所述根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,从所述待处理文本中选择目标章节内容,包括:
根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,计算确定每个所述章节内容的分数;
根据所述待处理文本中各个章节内容的分数,从所述待处理文本中选择目标章节内容。
6.根据权利要求5所述的方法,其中,所述根据所述待处理文本中各个章节内容的分数,从所述待处理文本中选择目标章节内容,包括:
根据所述待处理文本中各个章节内容的分数,对所述待处理文本中各个章节内容进行排序,以得到排序结果;
将所述排序结果中排序在首位的章节内容,确定为目标章节内容;
获取所述目标章节内容的各个对话内容中的目标主要角色;
对所述待处理文本中各个非目标章节内容中的目标主要角色的重要度信息进行置零处理,并重新计算确定所述待处理文本中各个非目标章节内容的分数,选择目标章节内容,直至目标章节内容的数量满足第一数量阈值。
7.根据权利要求1所述的方法,其中,所述基于所述目标章节内容生成样本章节,包括:
针对每个目标章节内容,对所述目标章节内容中的各个对话内容进行角色标注;
根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。
8.根据权利要求1所述的方法,其中,所述获取待处理文本,包括:
获取文本库中各个文本的章节内容数量;
从对应的章节内容数量大于第二数量阈值的文本中选择文本,并将所选择的文本确定为所述待处理文本。
9.一种样本章节的生成装置,包括:
第一获取模块,用于获取待处理文本,其中,所述待处理文本包括多个章节内容;
第二获取模块,用于针对每个所述章节内容中的对话内容,获取所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离;
预测模块,用于根据所述对话内容以及对应上下文中角色的出现次数,以及角色与所述对话内容之间的距离,预测所述对话内容的主要角色;
第三获取模块,用于获取所述主要角色的重要度信息;
生成模块,用于根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,从所述待处理文本中选择目标章节内容,并基于所述目标章节内容生成样本章节;
其中,所述第二获取模块,包括:
识别单元,用于针对每个所述章节内容中的对话内容,对所述对话内容以及对应上下文进行实体识别,以获取识别结果中的角色;
第一获取单元,用于针对所述识别结果中的每个角色,获取所述角色在所述对话内容以及对应上下文中的出现次数以及出现位置;
第一确定单元,用于根据所述角色在所述对话内容以及对应上下文中的出现位置,确定所述角色与所述对话内容之间间隔的最小字数,并根据所述最小字数生成所述角色与所述对话内容之间的距离。
10.根据权利要求9所述的装置,其中,所述预测模块,包括:
第一计算单元,用于针对所述对话内容以及对应上下文中出现的每个角色,根据所述角色的出现次数以及所述角色与所述对话内容之间的距离,计算确定所述角色的分数;
排序单元,用于按照所述对话内容以及对应上下文中出现的所述各个角色的分数,对所述各个角色进行排序,以得到排序结果;
第二确定单元,用于将所述排序结果中排序在首位的角色,确定为所述对话内容的主要角色。
11.根据权利要求9所述的装置,其中,所述主要角色的重要度信息包括:所述主要角色在文本库中的重要度信息;
所述第三获取模块,包括:
第二获取单元,用于获取所述待处理文本所属的文本库;
第三获取单元,用于获取所述文本库各个文本中的所有角色,以及每个角色在所述文本库中的出现次数;
第三确定单元,用于根据所述主要角色在所述文本库中的出现次数以及所有角色在所述文本库中的总出现次数,确定所述主要角色在所述文本库中的重要度信息。
12.根据权利要求9或11所述的装置,其中,所述主要角色的重要度信息包括:所述主要角色在所述待处理文本中的重要度信息;
所述第三获取模块,包括:
第四获取单元,用于获取所述主要角色在所述章节内容中的出现次数;
第五获取单元,用于获取所述待处理文本中出现有所述主要角色的章节内容的数量;
第四确定单元,用于根据所述主要角色在所述章节内容中的出现次数以及所述待处理文本中出现有所述主要角色的章节内容的数量,确定所述主要角色在所述待处理文本中的重要度信息。
13.根据权利要求9所述的装置,其中,所述生成模块,包括:
第二计算单元,用于根据每个所述章节内容中所述对话内容的主要角色以及所述主要角色的重要度信息,计算确定每个所述章节内容的分数;
选择单元,用于根据所述待处理文本中各个章节内容的分数,从所述待处理文本中选择目标章节内容。
14.根据权利要求13所述的装置,其中,所述选择单元,包括:
排序子单元,用于根据所述待处理文本中各个章节内容的分数,对所述待处理文本中各个章节内容进行排序,以得到排序结果;
确定子单元,用于将所述排序结果中排序在首位的章节内容,确定为目标章节内容;
获取子单元,用于获取所述目标章节内容的各个对话内容中的目标主要角色;
处理子单元,用于对所述待处理文本中各个非目标章节内容中的目标主要角色的重要度信息进行置零处理,并重新计算确定所述待处理文本中各个非目标章节内容的分数,选择目标章节内容,直至目标章节内容的数量满足第一数量阈值。
15.根据权利要求9所述的装置,其中,所述生成模块,还包括:
标注单元,用于针对每个目标章节内容,对所述目标章节内容中的各个对话内容进行角色标注;
生成单元,用于根据每个目标章节内容中的各个对话内容、每个对话内容的对应上下文以及角色标注结果,生成样本章节。
16.根据权利要求9所述的装置,其中,所述第一获取模块,包括:
第六获取单元,用于获取文本库中各个文本的章节内容数量;
第五确定单元,用于从对应的章节内容数量大于第二数量阈值的文本中选择文本,并将所选择的文本确定为所述待处理文本。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011166648.8A CN112329453B (zh) | 2020-10-27 | 2020-10-27 | 样本章节的生成方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011166648.8A CN112329453B (zh) | 2020-10-27 | 2020-10-27 | 样本章节的生成方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112329453A CN112329453A (zh) | 2021-02-05 |
CN112329453B true CN112329453B (zh) | 2024-02-27 |
Family
ID=74296977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011166648.8A Active CN112329453B (zh) | 2020-10-27 | 2020-10-27 | 样本章节的生成方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329453B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113656576B (zh) * | 2021-08-27 | 2024-05-24 | 咪咕数字传媒有限公司 | 一种文章概述生成方法、装置、计算设备和存储介质 |
CN114783403A (zh) * | 2022-02-18 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 有声读物的生成方法、装置、设备、存储介质及程序产品 |
CN117743567B (zh) * | 2024-02-18 | 2024-05-07 | 成都帆点创想科技有限公司 | 长文本生成方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160120905A (ko) * | 2015-04-09 | 2016-10-19 | 박지연 | 전자문서 생성방법 및 그 시스템 |
EP3508989A2 (en) * | 2018-06-29 | 2019-07-10 | Beijing Baidu Netcom Science and Technology Co., Ltd. | Method, apparatus and electronic device for determining knowledge sample data set |
CN111783468A (zh) * | 2020-06-28 | 2020-10-16 | 百度在线网络技术(北京)有限公司 | 文本处理方法、装置、设备和介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9602444B2 (en) * | 2009-05-28 | 2017-03-21 | Google Inc. | Participant suggestion system |
US10453456B2 (en) * | 2017-10-03 | 2019-10-22 | Google Llc | Tailoring an interactive dialog application based on creator provided content |
CN110737758B (zh) * | 2018-07-03 | 2022-07-05 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN111563208B (zh) * | 2019-01-29 | 2023-06-30 | 株式会社理光 | 一种意图识别的方法、装置及计算机可读存储介质 |
US11030484B2 (en) * | 2019-03-22 | 2021-06-08 | Capital One Services, Llc | System and method for efficient generation of machine-learning models |
-
2020
- 2020-10-27 CN CN202011166648.8A patent/CN112329453B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160120905A (ko) * | 2015-04-09 | 2016-10-19 | 박지연 | 전자문서 생성방법 및 그 시스템 |
EP3508989A2 (en) * | 2018-06-29 | 2019-07-10 | Beijing Baidu Netcom Science and Technology Co., Ltd. | Method, apparatus and electronic device for determining knowledge sample data set |
CN111783468A (zh) * | 2020-06-28 | 2020-10-16 | 百度在线网络技术(北京)有限公司 | 文本处理方法、装置、设备和介质 |
Non-Patent Citations (1)
Title |
---|
VTS模拟器情景对话智能评估系统;冀宝仙;王胜正;施朝健;孙振;;上海海事大学学报(第04期);20-24 * |
Also Published As
Publication number | Publication date |
---|---|
CN112329453A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111428008B (zh) | 用于训练模型的方法、装置、设备以及存储介质 | |
CN112560479B (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN112329453B (zh) | 样本章节的生成方法、装置、设备以及存储介质 | |
CN111428507A (zh) | 实体链指方法、装置、设备以及存储介质 | |
JP7269913B2 (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN111967262A (zh) | 实体标签的确定方法和装置 | |
CN111709247A (zh) | 数据集处理方法、装置、电子设备和存储介质 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
US20210397791A1 (en) | Language model training method, apparatus, electronic device and readable storage medium | |
CN111209977A (zh) | 分类模型的训练和使用方法、装置、设备和介质 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111859953B (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
CN110717340B (zh) | 推荐方法、装置、电子设备及存储介质 | |
CN111539209B (zh) | 用于实体分类的方法和装置 | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
CN111339759A (zh) | 领域要素识别模型训练方法、装置及电子设备 | |
US20180150143A1 (en) | Data input system with online learning | |
CN112507091A (zh) | 检索信息的方法、装置、设备以及存储介质 | |
EP3896580A1 (en) | Method and apparatus for generating conversation, electronic device, storage medium and computer program product | |
CN111326251A (zh) | 一种问诊问题输出方法、装置以及电子设备 | |
CN112328798A (zh) | 文本分类方法以及装置 | |
CN111310058B (zh) | 资讯主题的推荐方法、装置、终端及存储介质 | |
CN112084150A (zh) | 模型训练、数据检索方法,装置,设备以及存储介质 | |
CN113157829A (zh) | 一种兴趣点名称比对方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |