CN114118068A - 训练文本数据的扩增方法、装置及电子设备 - Google Patents
训练文本数据的扩增方法、装置及电子设备 Download PDFInfo
- Publication number
- CN114118068A CN114118068A CN202210094683.6A CN202210094683A CN114118068A CN 114118068 A CN114118068 A CN 114118068A CN 202210094683 A CN202210094683 A CN 202210094683A CN 114118068 A CN114118068 A CN 114118068A
- Authority
- CN
- China
- Prior art keywords
- text
- data
- sample
- label
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 110
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000003190 augmentative effect Effects 0.000 claims abstract description 45
- 230000003321 amplification Effects 0.000 claims abstract description 31
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 31
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims description 23
- 238000013145 classification model Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003416 augmentation Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及一种训练文本数据的扩增方法、装置、电子设备及计算机可读介质。该方法包括:获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本;通过所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练。本申请能够方便快捷的生成大量的用于自然语言模型训练的文本数据、节省人力时间和成本,而且生成的文本数据多样性高,提高下游模型的训练效果,提升用户数据安全度。
Description
技术领域
本申请涉及计算机信息处理领域,具体而言,涉及一种训练文本数据的扩增方法、装置、电子设备及计算机可读介质。
背景技术
在自然语言处理领域,数据规模对算法模型的效果起决定性作用,但受成本、隐私保护等因素的影响,很多场景下只能获取到有限的数据。业内通常采用数据扩增的方法,以有限的数据作为种子,扩展生成出更大量的数据,来提升算法模型的效果。
现有技术中常用的数据扩增的方法有如下几种:
一种是基于复述改写的方法,将原始数据中的词或者短语,用同义词或者同义短语替换,增加数据的数量。但这类方法的缺点是能被同义词替换的词汇有限,且替换后容易引起歧义。例如“我每天吃一个苹果”,被替换完后,可能会变成“我每天吃一个iphone”。
另外一种是基于机器翻译模型的方法,先将中文表述翻译成其他语言,然后再逆向重新翻译回中文。这种方法的缺点是可控性差,重新翻译回的中文,受翻译模型的影响,语义容易发生变化。
还有一种是基于seq2seq的生成模型,将原始句子作为输入,模型直接生成另外一种表述的句子。但这种生成模型事先依赖大量的训练数据,在数据不足的场景下,没法使用。
现有技术中的数据扩增方法,往往需要一定的人力成本;扩增出来新数据质量不高,容易引起歧义;缺乏多样性,鲁棒性不高,难以直接迁移到新场景中。
因此,需要一种新的训练文本数据的扩增方法、装置、电子设备及计算机可读介质。
在所述背景技术部分公开的上述信息仅用于加强对本申请的背景的理解,因此它可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本申请提供一种训练文本数据的扩增方法、装置、电子设备及计算机可读介质,能够方便快捷的生成大量的用于自然语言模型训练的文本数据、节省人力时间和成本,而且生成的文本数据多样性高,提高下游模型的训练效果,提升用户数据安全度。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请的一方面,提出一种训练文本数据的扩增方法,该方法包括:获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;根据所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练。
可选地,获取任务描述数据、标签描述集合、样例文本集合,包括:根据用户的设置生成所述任务描述数据和所述标签描述集合,其中,所述标签描述集合中包括多个标签描述数据;由样例文本数据库中提取多组文本数据以生成所述样例文本集合。
可选地,将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合,包括:提取所述任务描述数据和所述样例文本集合中的所述多组文本数据;从所述标签描述集合中逐一提取标签描述数据,与所述任务描述数据、所述多组文本数据进行拼接,生成所述任务标签文本集合。
可选地,从所述标签描述集合中逐一提取标签描述数据,与所述任务描述数据、所述多组文本数据进行拼接,生成所述任务标签文本集合,包括:按照预设顺序将所述标签描述数据、所述任务描述数据、所述多组文本数据进行拼接以生成所述任务标签文本集合。
可选地,将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合,包括:逐一由所述任务标签文本集合中提取一组任务标签文本;将所述任务标签文本多次输入预训练过的语言模型中,生成多个预训练文本数据;通过所述多个预训练文本数据生成一组样例文本数据;通过多组任务标签文本对应的多组样例文本数据生成所述扩增样例文本集合。
可选地,通过所述多个预训练文本数据生成一组样例文本数据,还包括:提取所述任务标签文本中的标签描述数据;根据所述标签描述数据生成本组样例文本数据的样本标签。
可选地,通过所述多个扩增样例文本集合生成训练文本数据,包括:通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤;根据过滤后的所述多个扩增样例文本集合生成所述训练文本数据。
可选地,通过所述多个扩增样例文本集合生成训练文本数据,还包括:通过扩增样例文本集合中的带标签的多组样例文本数据对有监督分类模型进行训练以生成文本过滤模型。
可选地,通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤,包括:将所述扩增样例文本集合中的多组样例文本数据的初始样本标签去除;将去除样本标签的多组样例文本数据输入文本过滤模型中,生成更新样本标签;在样例文本数据初始样本标签和更新样本标签不同时,将所述样例文本数据确定为噪声文本数据。
可选地,在样例文本数据初始样本标签和更新样本标签不同时,将所述样例文本数据确定为噪声文本数据,包括:确定更新样本标签的置信度;在样例文本数据初始样本标签和更新样本标签不同,且更新样本标签的置信度大于置信度阈值时,将所述样例文本数据确定为噪声文本数据。
根据本申请的一方面,提出一种训练文本数据的扩增装置,该装置包括:数据模块,用于获取任务描述数据、标签描述集合、样例文本集合;拼接模块,用于将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;模型模块,用于将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;扩展模块,用于通过所述多个扩增样例文本集合生成训练文本数据;训练模块,用于利用所述训练文本数据对机器学习模型进行模型训练。
根据本申请的一方面,提出一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上文的方法。
根据本申请的一方面,提出一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上文中的方法。
根据本申请的训练文本数据的扩增方法、装置、电子设备及计算机可读介质,通过获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;通过所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练的方式,能够方便快捷的生成大量的用于自然语言模型训练的文本数据、节省人力时间和成本,而且生成文本数据的过程可控,生成的文本数据不仅多样性高而且不易出现歧义或者无语义的句子,提高下游模型的训练效果,提升用户数据安全度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
通过参照附图详细描述其示例实施例,本申请的上述和其它目标、特征及优点将变得更加显而易见。下面描述的附图仅仅是本申请的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种训练文本数据的扩增方法及装置的系统框图。
图2是根据一示例性实施例示出的一种训练文本数据的扩增方法的流程图。
图3是根据另一示例性实施例示出的一种训练文本数据的扩增方法的流程图。
图4是根据另一示例性实施例示出的一种训练文本数据的扩增方法的流程图。
图5是根据另一示例性实施例示出的一种训练文本数据的扩增装置的框图。
图6是根据一示例性实施例示出的一种电子设备的框图。
图7是根据一示例性实施例示出的一种计算机可读介质的框图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本申请将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本申请概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本申请所必须的,因此不能用于限制本申请的保护范围。
有鉴于现有技术中的技术瓶颈,本申请提出一种新的训练文本数据的扩增方法,在本申请的训练文本数据的扩增方法中,结合指令和预训练模型的数据扩增方法,通过指令主动指导已经训练好的语言模型,自动生成同义的句子表述。得益于预训练模型早已学习到的丰富内容,不需要人工标记种子数据,就可以直接生成同义的新数据,节省人力成本。保留了生成模型的优势,生成的语义相同的新句子有更丰富的表述形式,文本多样性高,用来优化下游模型效果明显。指令操作使生成过程变的可控,不容易出现歧义或者无语义的句子。适应性强,不受场景限制。业内开源的预训练模型可以直接拿来使用就可以实现较好的效果,不需要在新任务中重新调试模型。
下面借助于具体的实施例,对本申请的内容进行详细说明。
图1是根据一示例性实施例示出的一种训练文本数据的扩增方法及装置的系统框图。
如图1所示,系统架构10可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种数据处理类的应用,例如数据存储类应用、数据拼接类应用、网页浏览器应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
终端设备101、102、103可例如获取任务描述数据、标签描述集合、样例文本集合;终端设备101、102、103可例如将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;终端设备101、102、103可例如将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合,;终端设备101、102、103可例如通过所述多个扩增样例文本集合生成训练文本数据;终端设备101、102、103可例如利用所述训练文本数据对机器学习模型进行模型训练。
服务器105可以是提供各种数据服务的服务器,例如存储样例文本集合的存储服务器。终端设备101、102、103可例如由样例文本数据库中提取多组文本数据以生成所述样例文本集合。
服务器105可以是提供各种模型训练的服务器,例如存储样例文本集合的存储服务器。
服务器105可例如通过扩增样例文本集合中的带标签的多组样例文本数据对有监督分类模型进行训练以生成文本过滤模型。
服务器105可以是一个实体的服务器,还可例如为多个服务器组成,需要说明的是,本申请实施例所提供的训练文本数据的扩增方法可以由终端设备101、102、103和/或服务器105执行,相应地,训练文本数据的扩增装置可以设置于终端设备101、102、103和/或服务器105中。
图2是根据一示例性实施例示出的一种训练文本数据的扩增方法的流程图。训练文本数据的扩增方法20至少包括步骤S202至S210。
如图2所示,在S202中,获取任务描述数据、标签描述集合、样例文本集合。
具体地,获取包括所述任务描述数据、标签描述集合、样例文本集合在内的指令。可例如,根据用户的设置生成所述任务描述数据和所述标签描述集合,其中,所述标签描述集合中包括多个标签描述数据;由样例文本数据库中提取多组文本数据以生成所述样例文本集合。
更具体的,用户可根据待训练的目标设置任务描述数据,在一个实际的应用中,用户待训练的机器学习模型的任务可包括对时间的识别,则用户设置的任务描述数据可为“时间任务”、对应于“时间任务”,标签描述数据可为“上午”、“下午”、“傍晚”、“深夜”。
更具体的,在样例文本数据库中提取的多组文本数据可为“踢足球好开心”,“古典音乐陶冶情操”,“领导分配了新任务”。
在S204中,将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合。
在一个实施例中,提取所述任务描述数据和所述样例文本集合中的所述多组文本数据;从所述标签描述集合中逐一提取标签描述数据,与所述任务描述数据、所述多组文本数据进行拼接,生成所述任务标签文本集合。
更具体的,在逐一由所述标签描述集合中提取一个标签描述数据以和所述任务描述数据、所述多组文本数据进行拼接时,按照预设顺序将所述标签描述数据、所述任务描述数据、所述多组文本数据进行拼接。
如上文所述的应用场景,拼接后的数据可为“上午踢足球好开心”,“上午古典音乐陶冶情操”,“上午领导分配了新任务”; “下午踢足球好开心”,“下午古典音乐陶冶情操”,“下午领导分配了新任务”等等,本申请再次不再赘述。
在S206中,将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合。可例如,逐一由所述任务标签文本集合中提取一组任务标签文本;将所述任务标签文本多次输入经过预训练的语言模型中,生成多个预训练文本数据;通过所述多个预训练文本数据生成一组样例文本数据;通过多组任务标签文本对应的多组样例文本数据生成所述扩增样例文本集合。
在S208中,根据所述多个扩增样例文本集合生成训练文本数据。逐一由所述任务标签文本集合中提取一组任务标签文本;将所述任务标签文本多次输入预训练过的语言模型中,生成多个预训练文本数据;通过所述多个预训练文本数据生成一组样例文本数据;通过多组任务标签文本对应的多组样例文本数据生成所述扩增样例文本集合。
在一个实施例中,还包括:提取所述任务标签文本中的标签描述数据;根据所述标签描述数据生成本组样例文本数据的样本标签。
在一个实施例中,还可对多个扩增样例文本集合中的噪声文本数据进行过滤,具体内容在图3对应的实施例中进行描述。
其中,本申请中的数据扩增,是指根据现有数据合成新数据的一类方法。本申请中的预训练模型是在大型基准数据集上训练的语言模型,预训练模型可以将学到的知识迁移到下游任务中,保证下游模型具备很强的先验知识。
根据上文的应用场景,实际输出的扩增样例文本集合中的多组样例文本数据可为“晚上听了古典音乐好开心”,“下午和领导一起踢足球”,“晚上适合陶冶情操”等等。
在S210中,利用所述训练文本数据对机器学习模型进行模型训练。
在一个实施例中,机器学习模型可为自然语言处理模型,更具体的可为Seq2seq模型,Seq2seq模型是一个编码器-解码器结构的网络,它的输入是一个序列,输出也是一个序列,编码器将一个可变长度的信号序列变为固定长度的向量表达,解码器将这个固定长度的向量变成可变长度的目标的信号序列。通过本申请生成的扩增之后的训练文本数据对自然语言处理模型进行训练,能够提升训练速度和准确度。
在一个实施例中,机器学习模型可为分类器模型,可将标签描述数据作为训练文本数据的标签,进而使用带有标签的训练文本数据对分类器模型进行训练,直至满足训练结束条件时结束训练。更具体的,如上文所述,在标签描述数据为时间类的标签时,可生成时间分类模型,在其他的应用场景中,在标签描述数据为情感或者行为类的标签时,可生成情感分类模型或行为分类模型,本申请不以此为限。
根据本申请的训练文本数据的扩增方法,通过获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;通过所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练的方式,能够方便快捷的生成大量的用于自然语言模型训练的文本数据、节省人力时间和成本,而且生成的文本数据多样性高,提高下游模型的训练效果,提升用户数据安全度。
本申请的训练文本数据的扩增方法,具有如下优点:能够自动生成扩增数据,不需要人工标记数据。指令驱动,生成过程可控,不容易出现歧义或者无语义的句子。充分利用预训练模型知识迁移的优势,生成的数据多样性高。鲁棒性强,在新场景中,拿来即用,不需要重新调整模型。
应清楚地理解,本申请描述了如何形成和使用特定示例,但本申请的原理不限于这些示例的任何细节。相反,基于本申请公开的内容的教导,这些原理能够应用于许多其它实施例。
图3是根据另一示例性实施例示出的一种训练文本数据的扩增方法的流程图。图3所示的流程30是对图2所示的流程中S208“ 通过所述多个扩增样例文本集合生成训练文本数据”的详细描述。
如图3所示,在S302中,通过扩增样例文本集合中的带标签的多组样例文本数据对有监督分类模型进行训练以生成文本过滤模型。
在S304中,通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤。可由文本过滤模型对扩增文本集合中的标签错误的数据进行过滤。
在一个实施例中,可将所述扩增样例文本集合中的多组样例文本数据的初始样本标签去除;将去除样本标签的多组样例文本数据输入文本过滤模型中,生成更新样本标签;在样例文本数据初始样本标签和更新样本标签不同时,将所述样例文本数据确定为噪声文本数据。
更具体的,可预先设置置信度阈值,确定更新样本标签的置信度;在样例文本数据初始样本标签和更新样本标签不同,且更新样本标签的置信度大于置信度阈值时,将所述样例文本数据确定为噪声文本数据。
在S306中,根据过滤后的所述多个扩增样例文本集合生成所述训练文本数据。
图4是根据另一示例性实施例示出的一种训练文本数据的扩增方法的流程图。图4所示的流程40是对图3所示的流程中S304“通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤”的详细描述。
如图4所示,在S402中,通过扩增样例文本集合中的带标签的多组样例文本数据对有监督分类模型进行训练。
在S404中,针对每组样例文本数据分别建立调整模型。
在S406中,将每组样例文本数据分别输入调整模型中,生成预测标签。
在S408中,将所述预测标签与相应的真实的标签进行比对以对所述有监督分类模型进行调整。
在S410中,在有监督分类模型收敛时,生成文本过滤模型。
具体的,针对每组样例文本数据分别建立调整模型,将每组样例文本数据分别输入调整模型中,生成预测标签。将所述预测标签与相应的真实的标签进行比对,判断预测标签与初始的标签是否一致,统计与初始的标签一致的预测标签的数量,并计算与初始的标签一致的预测标签的数量在所有预测标签的数量中的占比,若所述占比大于或等于预设占比值,则所述调整模型收敛,得到训练完成的文本过滤模型,若所述占比小于所述预设占比值,则调整所述调整模型中的参数,通过调整后的调整模型重新预测各个对象的预测标签,直至所述占比大于或等于预设占比值。其中,调整所述调整模型中的参数的方法可以采用随机梯度下降算法、梯度下降算法或正规方程进行。
若调整所述调整模型的参数的次数超过预设次数时,可以更换构建调整模型所使用的模型,以提高模型训练效率。
更具体的,任务描述可为:情感识别的任务。
无标签样例文本集合可为:{“今天被老师表扬了,我很开心”,“昨晚下雨了,今天没法踢球了”,“心心念念的重庆火锅”,…}。
标签描述可为:心情高兴。
具体的过滤方法如下:
执行过上述步骤至,根据用户设置,输出的生成的新样例数据可为:{“今天上课被老师表扬了”,“昨晚的火锅吃的很开心”…}
本领域技术人员可以理解实现上述实施例的全部或部分步骤被实现为由CPU 执行的计算机程序。在该计算机程序被CPU 执行时,执行本申请提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本申请示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图5是根据一示例性实施例示出的一种训练文本数据的扩增装置的框图。如图5所示,训练文本数据的扩增装置50包括:数据模块502,拼接模块504,模型模块506,扩展模块508,训练模块510。
数据模块502用于获取任务描述数据、标签描述集合、样例文本集合;
拼接模块504用于将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;
模型模块506用于将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;
扩展模块508用于通过所述多个扩增样例文本集合生成训练文本数据;
训练模块510用于利用所述训练文本数据对机器学习模型进行模型训练。
根据本申请的训练文本数据的扩增装置,通过获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;通过所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练的方式,能够方便快捷的生成大量的用于自然语言模型训练的文本数据、节省人力时间和成本,而且生成的文本数据多样性高,提高下游模型的训练效果,提升用户数据安全度。
图6是根据一示例性实施例示出的一种电子设备的框图。
下面参照图6来描述根据本申请的这种实施方式的电子设备600。图6显示的电子设备600仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同系统组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书中的根据本申请各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图2,图3,图4中所示的步骤。
所述存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
所述存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备600’(例如键盘、指向设备、蓝牙设备等)通信,使得用户能与该电子设备600交互的设备通信,和/或该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,如图7所示,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本申请实施方式的上述方法。
所述软件产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现如下功能:获取任务描述数据、标签描述集合、样例文本集合;将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;通过所述多个扩增样例文本集合生成训练文本数据;利用所述训练文本数据对机器学习模型进行模型训练。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本申请实施例的方法。
以上具体地示出和描述了本申请的示例性实施例。应可理解的是,本申请不限于这里描述的详细结构、设置方式或实现方法;相反,本申请意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
Claims (13)
1.一种训练文本数据的扩增方法,其特征在于,包括:
获取任务描述数据、标签描述集合、样例文本集合;
将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;
将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;
根据所述多个扩增样例文本集合生成训练文本数据;
利用所述训练文本数据对机器学习模型进行模型训练。
2.如权利要求1所述的扩增方法,其特征在于,根据所述多个扩增样例文本集合生成训练文本数据,包括:
通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤;
根据过滤后的所述多个扩增样例文本集合生成所述训练文本数据。
3.如权利要求1所述的扩增方法,其特征在于,获取任务描述数据、标签描述集合、样例文本集合,包括:
根据用户的设置生成所述任务描述数据和包括多个标签描述数据的所述标签描述集合;
由样例文本数据库中提取多组文本数据以生成所述样例文本集合。
4.如权利要求3所述的扩增方法,其特征在于,将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合,包括:
提取所述任务描述数据和所述样例文本集合中的所述多组文本数据;
从所述标签描述集合中逐一提取标签描述数据,与所述任务描述数据、所述多组文本数据进行拼接,生成所述任务标签文本集合。
5.如权利要求4所述的扩增方法,其特征在于,从所述标签描述集合中逐一提取标签描述数据,与所述任务描述数据、所述多组文本数据进行拼接,生成所述任务标签文本集合,包括:
按照预设顺序将所述标签描述数据、所述任务描述数据、所述多组文本数据进行拼接以生成所述任务标签文本集合。
6.如权利要求1所述的扩增方法,其特征在于,将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合,包括:
逐一由所述任务标签文本集合中提取一组任务标签文本;
将所述任务标签文本多次输入预训练过的语言模型中,生成多个预训练文本数据;
通过所述多个预训练文本数据生成一组样例文本数据;
通过多组任务标签文本对应的多组样例文本数据生成所述扩增样例文本集合。
7.如权利要求6所述的扩增方法,其特征在于,通过所述多个预训练文本数据生成一组样例文本数据,还包括:
提取所述任务标签文本中的标签描述数据;
根据所述标签描述数据生成本组样例文本数据的样本标签。
8.如权利要求2所述的扩增方法,其特征在于,通过所述多个扩增样例文本集合生成训练文本数据,还包括:
通过扩增样例文本集合中的带标签的多组样例文本数据对有监督分类模型进行训练以生成文本过滤模型。
9.如权利要求2所述的扩增方法,其特征在于,通过文本过滤模型对所述多个扩增样例文本集合中的噪声文本数据进行过滤,包括:
去除所述扩增样例文本集合中的多组样例文本数据的初始样本标签;
将去除样本标签的多组样例文本数据输入文本过滤模型中,生成更新样本标签;
当样例文本数据的初始样本标签和更新样本标签不同时,将所述样例文本数据确定为噪声文本数据。
10.如权利要求9所述的扩增方法,其特征在于,当样例文本数据的初始样本标签和更新样本标签不同时,将所述样例文本数据确定为噪声文本数据,包括:
确定更新样本标签的置信度;
当样例文本数据的初始样本标签和更新样本标签不同,且更新样本标签的置信度大于置信度阈值时,将所述样例文本数据确定为噪声文本数据。
11.一种训练文本数据的扩增装置,其特征在于,包括:
数据模块,用于获取任务描述数据、标签描述集合、样例文本集合;
拼接模块,用于将所述任务描述数据、所述标签描述集合、所述样例文本集合拼接生成任务标签文本集合;
模型模块,用于将所述任务标签文本集合输入预训练过的语言模型中,生成多个扩增样例文本集合;
扩展模块,用于通过所述多个扩增样例文本集合生成训练文本数据;
训练模块,用于利用所述训练文本数据对机器学习模型进行模型训练。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-10中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210094683.6A CN114118068B (zh) | 2022-01-26 | 2022-01-26 | 训练文本数据的扩增方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210094683.6A CN114118068B (zh) | 2022-01-26 | 2022-01-26 | 训练文本数据的扩增方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114118068A true CN114118068A (zh) | 2022-03-01 |
CN114118068B CN114118068B (zh) | 2022-04-29 |
Family
ID=80362018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210094683.6A Active CN114118068B (zh) | 2022-01-26 | 2022-01-26 | 训练文本数据的扩增方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114118068B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116861258A (zh) * | 2023-08-31 | 2023-10-10 | 腾讯科技(深圳)有限公司 | 模型处理方法、装置、设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008335A (zh) * | 2018-12-12 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 自然语言处理的方法及装置 |
CN110162770A (zh) * | 2018-10-22 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种词扩展方法、装置、设备及介质 |
CN110781922A (zh) * | 2019-09-27 | 2020-02-11 | 北京淇瑀信息科技有限公司 | 用于机器学习模型的样本数据生成方法、装置及电子设备 |
CN111522944A (zh) * | 2020-04-10 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、设备以及存储介质 |
CN111539223A (zh) * | 2020-05-29 | 2020-08-14 | 北京百度网讯科技有限公司 | 语言模型的训练方法、装置、电子设备及可读存储介质 |
CN111859092A (zh) * | 2020-07-29 | 2020-10-30 | 苏州思必驰信息科技有限公司 | 文本语料扩增方法、装置、电子设备及存储介质 |
CN112686023A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 文本数据处理方法、装置、电子设备及存储介质 |
CN112906392A (zh) * | 2021-03-23 | 2021-06-04 | 北京天融信网络安全技术有限公司 | 一种文本增强方法、文本分类方法及相关装置 |
WO2021139250A1 (zh) * | 2020-07-31 | 2021-07-15 | 平安科技(深圳)有限公司 | 一种数据增强模型的训练方法及装置 |
CN113569929A (zh) * | 2021-07-15 | 2021-10-29 | 北京淇瑀信息科技有限公司 | 基于小样本扩展的互联网服务提供方法、装置及电子设备 |
-
2022
- 2022-01-26 CN CN202210094683.6A patent/CN114118068B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162770A (zh) * | 2018-10-22 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种词扩展方法、装置、设备及介质 |
CN110008335A (zh) * | 2018-12-12 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 自然语言处理的方法及装置 |
CN110781922A (zh) * | 2019-09-27 | 2020-02-11 | 北京淇瑀信息科技有限公司 | 用于机器学习模型的样本数据生成方法、装置及电子设备 |
CN111522944A (zh) * | 2020-04-10 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、设备以及存储介质 |
CN111539223A (zh) * | 2020-05-29 | 2020-08-14 | 北京百度网讯科技有限公司 | 语言模型的训练方法、装置、电子设备及可读存储介质 |
CN111859092A (zh) * | 2020-07-29 | 2020-10-30 | 苏州思必驰信息科技有限公司 | 文本语料扩增方法、装置、电子设备及存储介质 |
WO2021139250A1 (zh) * | 2020-07-31 | 2021-07-15 | 平安科技(深圳)有限公司 | 一种数据增强模型的训练方法及装置 |
CN112686023A (zh) * | 2020-12-29 | 2021-04-20 | 平安普惠企业管理有限公司 | 文本数据处理方法、装置、电子设备及存储介质 |
CN112906392A (zh) * | 2021-03-23 | 2021-06-04 | 北京天融信网络安全技术有限公司 | 一种文本增强方法、文本分类方法及相关装置 |
CN113569929A (zh) * | 2021-07-15 | 2021-10-29 | 北京淇瑀信息科技有限公司 | 基于小样本扩展的互联网服务提供方法、装置及电子设备 |
Non-Patent Citations (4)
Title |
---|
KOKKINAKIS DIMITRIOS 等: "Corpus-Based Extension of Semantic Lexicons in Large Scale", 《PROCEEDINGS OF THE 13TH NORDIC CONFERENCE OF COMPUTATIONAL LINGUISTICS (NODALIDA 2001)》 * |
YANG JUFENG 等: "Recognition from web data: A progressive filtering approach", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
周辉: "基于WEB挖掘的双语对获取技术研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
李梁 等: "基于融合标签与蚁群的协同过滤微博推荐算法", 《软件导刊》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116861258A (zh) * | 2023-08-31 | 2023-10-10 | 腾讯科技(深圳)有限公司 | 模型处理方法、装置、设备及存储介质 |
CN116861258B (zh) * | 2023-08-31 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 模型处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114118068B (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102401942B1 (ko) | 번역품질 평가 방법 및 장치 | |
CN109214386B (zh) | 用于生成图像识别模型的方法和装置 | |
CN111883110B (zh) | 语音识别的声学模型训练方法、系统、设备及介质 | |
CN107103903B (zh) | 基于人工智能的声学模型训练方法、装置及存储介质 | |
CN107832299B (zh) | 基于人工智能的标题的改写处理方法、装置及可读介质 | |
CN110807126A (zh) | 文章转换成视频的方法、装置、存储介质及设备 | |
CN107861954B (zh) | 基于人工智能的信息输出方法和装置 | |
WO2022178969A1 (zh) | 语音对话数据处理方法、装置、计算机设备及存储介质 | |
CN111191030A (zh) | 基于分类的单句意图识别方法、装置和系统 | |
CN109740167B (zh) | 用于生成信息的方法和装置 | |
CN108563622B (zh) | 一种具有风格多样性的绝句生成方法及装置 | |
CN112188311B (zh) | 用于确定新闻的视频素材的方法和装置 | |
CN110852075B (zh) | 自动添加标点符号的语音转写方法、装置及可读存储介质 | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
CN111930792A (zh) | 数据资源的标注方法、装置、存储介质及电子设备 | |
CN106683667A (zh) | 一种自动韵律提取方法、系统及其在自然语言处理任务中的应用 | |
CN113360660B (zh) | 文本类别识别方法、装置、电子设备和存储介质 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
US11322133B2 (en) | Expressive text-to-speech utilizing contextual word-level style tokens | |
CN114118068B (zh) | 训练文本数据的扩增方法、装置及电子设备 | |
CN116601648A (zh) | 备选软标签生成 | |
CN113723077A (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN112633004A (zh) | 文本标点符号删除方法、装置、电子设备和存储介质 | |
CN112199954A (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN111968624A (zh) | 数据构建方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |