CN111104482A - 数据处理方法和装置 - Google Patents
数据处理方法和装置 Download PDFInfo
- Publication number
- CN111104482A CN111104482A CN201911307167.1A CN201911307167A CN111104482A CN 111104482 A CN111104482 A CN 111104482A CN 201911307167 A CN201911307167 A CN 201911307167A CN 111104482 A CN111104482 A CN 111104482A
- Authority
- CN
- China
- Prior art keywords
- target
- samples
- sample
- natural language
- language processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 16
- 238000003058 natural language processing Methods 0.000 claims abstract description 94
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 8
- 239000012634 fragment Substances 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了数据处理方法和装置。该方法的一具体实施方式包括:获取样本集;将该样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从该预先训练的第一自然语言处理模型输出的预测结果;将得到的预测结果分别确定为该多个目标样本中各个目标样本的标注;基于该多个目标样本和该各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。本申请实施例能够利用第一自然语言处理模型的预测结果作为样本的标注,可以获得大量存在标注的样本对小模型进行训练,从而训练出精确度较高、且运行速度快的小模型。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及数据处理方法和装置。
背景技术
随着语言处理技术的发展,自然语言处理(natural language processing,NLP)模型逐渐得到了广泛的应用。各种各样的自然语言处理模型也应运而生,其中不乏一些处理精度高,体量较大的模型。
然而,因为运算能力的限制,处理精度高的自然语言处理模型并非是所有计算平台的最优选择。且往往处理精度高的模型,预测速度较慢。
发明内容
本申请实施例提出了数据处理方法和装置。
第一方面,本申请实施例提供了一种数据处理方法,包括:获取样本集,其中,样本集中的样本为无标注的语句;将样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果;将得到的预测结果分别确定为多个目标样本中各个目标样本的标注;基于多个目标样本和各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
在一些实施例中,目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
在一些实施例中,方法还包括:将样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将包含指定标识的样本,新增为样本集的样本。
在一些实施例中,方法还包括:将样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将更新后的样本新增为样本集的样本。
在一些实施例中,方法还包括:对于样本集的样本,截取目标长度的片段;将截取到的片段新增为样本集的样本。
第二方面,本申请实施例提供了一种数据处理装置,包括:获取单元,被配置成获取样本集,其中,样本集中的样本为无标注的语句;输入单元,被配置成将样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果;确定单元,被配置成将得到的预测结果分别确定为多个目标样本中各个目标样本的标注;训练单元,被配置成基于多个目标样本和各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
在一些实施例中,目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
在一些实施例中,装置还包括:将样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将包含指定标识的样本,新增为样本集的样本。
在一些实施例中,装置还包括:将样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将更新后的样本新增为样本集的样本。
在一些实施例中,装置还包括:对于样本集的样本,截取目标长度的片段;将截取到的片段新增为样本集的样本。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如数据处理方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如数据处理方法中任一实施例的方法。
本申请实施例提供的数据处理方案,首先,获取样本集,其中,样本集中的样本为无标注的语句。之后,将样本集中的目标样本输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果。而后,将预测结果确定为目标样本的标注。最后基于目标样本和目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。本申请的上述实施例提供的方案能够利用第一自然语言处理模型的预测结果作为样本的标注,可以获得大量存在标注的样本对小模型进行训练,从而训练出精确度较高、且运行速度快的小模型。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请一些实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的数据处理方法的一个实施例的流程图;
图3是根据本申请的数据处理方法的一个应用场景的示意图;
图4是根据本申请的数据处理装置的一个实施例的结构示意图;
图5是适于用来实现本申请一些实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的数据处理方法或数据处理装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如数据处理应用、视频类应用、直播应用、即时通信工具、邮箱客户端、社交平台软件等。
这里的终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对样本集等数据进行分析等处理,并将处理结果(例如训练后的第二自然语言处理模型)反馈给终端设备。
需要说明的是,本申请实施例所提供的数据处理方法可以由服务器105或者终端设备101、102、103执行,相应地,数据处理装置可以设置于服务器105或者终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的数据处理方法的一个实施例的流程200。该数据处理方法,包括以下步骤:
步骤201,获取样本集,其中,样本集中的样本为无标注的语句。
在本实施例中,数据处理方法的执行主体(例如图1所示的服务器或终端设备)可以获取样本集。样本集由样本组成。样本集中的样本不存在标注(label),即是无标注的样本。这里的样本可以是语句本身,也可以是语句的分词结果。
步骤202,将样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果。
在本实施例中,上述执行主体可以对于样本集中的多个目标样本中的每个目标样本,将该目标样本输入预先训练的第一自然语言处理模型,得到从该模型输出的与该目标样本对应的预测结果。这里的多个目标样本可以是样本集中的全部样本,也可以是样本集中的部分样本。
具体地,上述执行主体或者其他电子设备,可以利用人工标注的样本预先对第一自然语言处理模型进行训练,从而得到预先训练的第一自然语言处理模型。
步骤203,将得到的预测结果分别确定为多个目标样本中各个目标样本的标注。
在本实施例中,上述执行主体可以将预先训练的第一自然语言处理模型对目标样本的预测结果,确定为该目标样本的标注。具体地,预先训练的第一自然语言处理模型可以作为教师模型(Teacher Model),通过知识蒸馏,也即对目标样本的预测,实现对该目标样本进行标注。
步骤204,基于多个目标样本和各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
在本实施例中,上述执行主体可以基于目标样本及其标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型。相对于第一自然语言处理模型,第二自然语言处理模型是参数较少,且处理速度较快的模型。第二自然语言处理模型可以作为上述教师模型的学生模型(Student Model),从而利用教师模型生成的标注进行训练。上述执行主体可以利用训练后的第二自然语言处理模型进行预测,该预测的预测速度快于待训练的第二自然语言处理模型的预测速度,且所得到的预测结果相比待训练的第二自然语言处理模型的预测结果,更加准确。
这里的待训练的第二自然语言处理模型可以是未经训练的初始第二自然语言处理模型,也可以是经过预训练(Pre-train)的第二自然语言处理模型。
在实践中,第一自然语言处理模型可以是各种模型,比如知识增强语义表示(Enhanced Representation from Knowledge Integration,ERNIE)模型,或者BERT(Bidirectional Encoder Representations from Transformers)模型。第二自然语言处理模型可以是各种模型,比如词袋(Bag of words,BoW)模型,双向长短期记忆(Bi-directional Long Short-Term Memory,Bi-LSTM)模型。
本申请的上述实施例提供的方法能够利用第一自然语言处理模型的预测结果作为样本的标注,可以获得大量存在标注的样本对小模型进行训练,从而训练出精确度较高、且运行速度快的小模型。
在本实施例的一些可选的实现方式中,目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
在这些可选的实现方式中,目标样本的标注可以采用样本属于至少两个类型中的一类预测结果的概率作为样本集中样本的标注,也即采用至少两维的概率分布(soft-label)作为标注。
这些实现方式中的标注相对于仅仅标注样本属于哪一类的分类结果,更加准确,从而可以让训练得到的模型的准确度和拟合度更高。
在本实施例的一些可选的实现方式中,上述方法还可以包括:将样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将包含指定标识的样本,新增为样本集的样本。
在这些可选的实现方式中,上述执行主体可以将样本的词中的目标词替换为指定标识。这里的指定标识可以隐藏被替换的词,以让自然语言处理模型利用替换后的样本学习到如何利用其他词得到隐藏的词,比如其他词可以是上下文词。举例来说,指定标识可以是“UNK”。
这里的目标词可以是在样本中随机选择的,也可以是按照指定的规则选择的。上述执行主体可以对于一些或全部样本中的每个样本,将该样本的一定比例的词,作为目标词。
这些实现方式中,在该样本集中,既可以存在原有样本,比如用于进行上述词的替换的样本,还可以存在替换后得到的新增样本。从而实现对样本集进行扩充。并且,通过目标比例和目标数量,可以在扩充样本的同时,实现对新增样本的数量控制。此外,通过指定标识,可以增强模型对隐藏的词的预测能力。
在本实施例的一些可选的实现方式中,上述方法还可以包括:将样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将更新后的样本新增为样本集的样本。
在这些可选的实现方式中,上述执行主体可以将样本中的目标词进行更新,以得到新的样本。这里的目标词可以是在样本中随机选择的,也可以是按照指定的规则选择的。上述执行主体可以在与目标词同词性的各个词中,随机选择或按照预设规则选择其中一个,并替换该目标词。
这些实现方式中,可以采用同词性的词对目标词进行替换,以生成新的样本对样本集进行差别化的、高质量的扩充。
在本实施例的一些可选的实现方式中,上述方法还可以包括:对于样本集的样本,截取目标长度的片段;将截取到的片段新增为样本集的样本。
在这些可选的实现方式中,上述执行主体可以在样本集中现有的样本中,截取一部分作为新的样本。目标长度可以存在多个不同的数值。具体地,目标长度可以是随机值,也可以是预先设置的。截取的位置可以是随机选取的,也可以是按照一定规则选取的,比如选取样本的前三个词。通常情况下,截取的位置可以是在语句中进行分词的分割位置,此外,也可以将分词的分割位置以外的位置作为截取的位置。
这些实现方式可以通过截取片段增加样本的丰富性,以实现样本的有效扩充。
在样本集中,新增的样本与新增前的原有样本可以按照一定的比例混合,从而实现更好的训练效果。
继续参见图3,图3是根据本实施例的数据处理方法的应用场景的一个示意图。在图3的应用场景中,执行主体301可以获取样本集,其中,样本集中的样本为无标注的语句分词结果。执行主体301将样本集中的目标样本302输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果303,执行主体301将预测结果确定为目标样本的标注304。执行主体301基于目标样本302和目标样本的标注304,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型305,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种数据处理装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征或效果。该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的数据处理装置400包括:获取单元401、输入单元402、确定单元403和训练单元404。其中,获取单元401,被配置成获取样本集,其中,样本集中的样本为无标注的语句;输入单元402,被配置成将样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果;确定单元403,被配置成将得到的预测结果分别确定为多个目标样本中各个目标样本的标注;训练单元404,被配置成基于多个目标样本和各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
在一些实施例中,数据处理装置400的获取单元401获取样本集。样本集由样本组成。样本集中的样本不存在标注,即是无标注的样本。这里的样本可以是语句本身,也可以是语句的分词结果。
在一些实施例中,输入单元402可以对于样本集中的多个目标样本中的每个目标样本,将该目标样本输入预先训练的第一自然语言处理模型,得到从该模型输出的与该目标样本对应的预测结果。这里的多个目标样本可以是样本集中的全部样本,也可以是样本集中的部分样本。
在一些实施例中,确定单元403可以将预先训练的第一自然语言处理模型对目标样本的预测结果,确定为该目标样本的标注。具体地,预先训练的第一自然语言处理模型可以作为教师模型,通过知识蒸馏,也即对目标样本的预测,实现对该目标样本进行标注。
在一些实施例中,训练单元404可以基于目标样本及其标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型。相对于第一自然语言处理模型,第二自然语言处理模型是参数较少,且处理速度较快的模型。
在本实施例的一些可选的实现方式中,目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
在本实施例的一些可选的实现方式中,装置还包括:将样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将包含指定标识的样本,新增为样本集的样本。
在本实施例的一些可选的实现方式中,装置还包括:将样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,目标词的数量占该样本的词的数量的目标比例或目标数量;将更新后的样本新增为样本集的样本。
在本实施例的一些可选的实现方式中,装置还包括:对于样本集的样本,截取目标长度的片段;将截取到的片段新增为样本集的样本。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、输入单元、确定单元和训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取样本集的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取样本集,其中,样本集中的样本为无标注的语句;将样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从预先训练的第一自然语言处理模型输出的预测结果;将得到的预测结果分别确定为多个目标样本中各个目标样本的标注;基于多个目标样本和各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,第一自然语言处理模型中的参数,多于第二自然语言处理模型中的参数。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种数据处理方法,所述方法包括:
获取样本集,其中,所述样本集中的样本为无标注的语句;
将所述样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从所述预先训练的第一自然语言处理模型输出的预测结果;
将得到的预测结果分别确定为所述多个目标样本中各个目标样本的标注;
基于所述多个目标样本和所述各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,所述第一自然语言处理模型中的参数,多于所述第二自然语言处理模型中的参数。
2.根据权利要求1所述的方法,其中,所述目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
3.根据权利要求1所述的方法,其中,所述方法还包括:
将所述样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,所述目标词的数量占该样本的词的数量的目标比例或目标数量;
将包含所述指定标识的样本,新增为所述样本集的样本。
4.根据权利要求1所述的方法,其中,所述方法还包括:
将所述样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,所述目标词的数量占该样本的词的数量的目标比例或目标数量;
将更新后的样本新增为所述样本集的样本。
5.根据权利要求1所述的方法,其中,所述方法还包括:
对于所述样本集的样本,截取目标长度的片段;
将截取到的片段新增为所述样本集的样本。
6.一种数据处理装置,所述装置包括:
获取单元,被配置成获取样本集,其中,所述样本集中的样本为无标注的语句;
输入单元,被配置成将所述样本集中的多个目标样本分别输入预先训练的第一自然语言处理模型,得到从所述预先训练的第一自然语言处理模型输出的预测结果;
确定单元,被配置成将得到的预测结果分别确定为所述多个目标样本中各个目标样本的标注;
训练单元,被配置成基于所述多个目标样本和所述各个目标样本的标注,对待训练的第二自然语言处理模型进行训练,得到训练后的第二自然语言处理模型,其中,所述第一自然语言处理模型中的参数,多于所述第二自然语言处理模型中的参数。
7.根据权利要求6所述的装置,其中,所述目标样本的标注用于指示目标样本属于至少两个类型中的任一类型的概率。
8.根据权利要求6所述的装置,其中,所述装置还包括:
将所述样本集的样本的目标词替换为指定标识,其中,在包含指定标识的样本中,所述目标词的数量占该样本的词的数量的目标比例或目标数量;
将包含所述指定标识的样本,新增为所述样本集的样本。
9.根据权利要求6所述的装置,其中,所述装置还包括:
将所述样本集的样本的目标词,更新为词性一致的另一个词,其中,在更新后的样本中,所述目标词的数量占该样本的词的数量的目标比例或目标数量;
将更新后的样本新增为所述样本集的样本。
10.根据权利要求6所述的装置,其中,所述装置还包括:
对于所述样本集的样本,截取目标长度的片段;
将截取到的片段新增为所述样本集的样本。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911307167.1A CN111104482A (zh) | 2019-12-18 | 2019-12-18 | 数据处理方法和装置 |
JP2020097658A JP2021096813A (ja) | 2019-12-18 | 2020-06-04 | データ処理方法及び装置 |
US16/895,242 US20210192288A1 (en) | 2019-12-18 | 2020-06-08 | Method and apparatus for processing data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911307167.1A CN111104482A (zh) | 2019-12-18 | 2019-12-18 | 数据处理方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111104482A true CN111104482A (zh) | 2020-05-05 |
Family
ID=70422138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911307167.1A Pending CN111104482A (zh) | 2019-12-18 | 2019-12-18 | 数据处理方法和装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210192288A1 (zh) |
JP (1) | JP2021096813A (zh) |
CN (1) | CN111104482A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111768001A (zh) * | 2020-06-30 | 2020-10-13 | 平安国际智慧城市科技股份有限公司 | 语言模型的训练方法、装置和计算机设备 |
CN112307053A (zh) * | 2020-10-28 | 2021-02-02 | 百分点(江苏)数据智能有限公司 | 基于强化学习的语言处理方法及装置 |
CN112905789A (zh) * | 2021-02-02 | 2021-06-04 | 中国建设银行股份有限公司 | 一种基于自然语言处理的非结构化数据处理方法及系统 |
CN112966712A (zh) * | 2021-02-01 | 2021-06-15 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
CN113761908A (zh) * | 2020-11-26 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种存量用户信息的处理方法和装置 |
JP2021197156A (ja) * | 2020-06-17 | 2021-12-27 | ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 |
CN114580387A (zh) * | 2022-03-03 | 2022-06-03 | 戎行技术有限公司 | 一种基于多工具的自然语言处理方法、设备及介质 |
CN114970540A (zh) * | 2022-05-11 | 2022-08-30 | 北京百度网讯科技有限公司 | 训练文本审核模型的方法和装置 |
CN114580387B (zh) * | 2022-03-03 | 2024-06-07 | 戎行技术有限公司 | 一种基于多工具的自然语言处理方法、设备及介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3963474A4 (en) | 2019-05-01 | 2022-12-14 | Microsoft Technology Licensing, LLC | METHOD AND SYSTEM FOR USING UNSUPERVISED LEARNING TO IMPROVE TEXT ON SUGGESTED CONTENT |
US11727270B2 (en) * | 2020-02-24 | 2023-08-15 | Microsoft Technology Licensing, Llc | Cross data set knowledge distillation for training machine learning models |
JP2022188624A (ja) | 2021-06-09 | 2022-12-21 | 株式会社神戸製鋼所 | 吸引装置、吸引方法、溶接システム、溶接方法、及び付加製造方法 |
CN113488023B (zh) * | 2021-07-07 | 2022-06-14 | 合肥讯飞数码科技有限公司 | 一种语种识别模型构建方法、语种识别方法 |
CN113553097B (zh) * | 2021-07-30 | 2022-11-18 | 上海玳鸽信息技术有限公司 | 模型版本管理方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570197A (zh) * | 2016-11-15 | 2017-04-19 | 北京百度网讯科技有限公司 | 基于迁移学习的搜索排序方法和装置 |
CN107608970A (zh) * | 2017-09-29 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
US20190034764A1 (en) * | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
CN110008335A (zh) * | 2018-12-12 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 自然语言处理的方法及装置 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110175628A (zh) * | 2019-04-25 | 2019-08-27 | 北京大学 | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 |
CN110175329A (zh) * | 2019-05-28 | 2019-08-27 | 上海优扬新媒信息技术有限公司 | 一种样本扩充的方法、装置、电子设备与存储介质 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110232411A (zh) * | 2019-05-30 | 2019-09-13 | 北京百度网讯科技有限公司 | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 |
CN110348572A (zh) * | 2019-07-09 | 2019-10-18 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN110442874A (zh) * | 2019-08-09 | 2019-11-12 | 南京邮电大学 | 一种基于词向量的中文词义预测方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9875736B2 (en) * | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
US11062228B2 (en) * | 2015-07-06 | 2021-07-13 | Microsoft Technoiogy Licensing, LLC | Transfer learning techniques for disparate label sets |
WO2018051841A1 (ja) * | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
JP6830226B2 (ja) * | 2016-09-21 | 2021-02-17 | パナソニックIpマネジメント株式会社 | 換言文識別方法、換言文識別装置及び換言文識別プログラム |
WO2019022136A1 (ja) * | 2017-07-25 | 2019-01-31 | 国立大学法人東京大学 | 学習方法、学習プログラム、学習装置及び学習システム |
JP7070894B2 (ja) * | 2018-03-12 | 2022-05-18 | 国立研究開発法人情報通信研究機構 | 時系列情報の学習システム、方法およびニューラルネットワークモデル |
JP6768738B2 (ja) * | 2018-05-08 | 2020-10-14 | 株式会社日本経済新聞社 | 学習データ生成装置、方法、およびプログラム |
US11003867B2 (en) * | 2019-03-04 | 2021-05-11 | Salesforce.Com, Inc. | Cross-lingual regularization for multilingual generalization |
CN110543645B (zh) * | 2019-09-04 | 2023-04-07 | 网易有道信息技术(北京)有限公司 | 机器学习模型训练方法、介质、装置和计算设备 |
CN112487182B (zh) * | 2019-09-12 | 2024-04-12 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理方法及装置 |
US10963636B1 (en) * | 2019-10-17 | 2021-03-30 | Sap Se | Sourcing object creation from natural language inputs |
US11620515B2 (en) * | 2019-11-07 | 2023-04-04 | Salesforce.Com, Inc. | Multi-task knowledge distillation for language model |
US11651211B2 (en) * | 2019-12-17 | 2023-05-16 | Adobe Inc. | Training of neural network based natural language processing models using dense knowledge distillation |
US11704602B2 (en) * | 2020-01-02 | 2023-07-18 | Intuit Inc. | Method for serving parameter efficient NLP models through adaptive architectures |
-
2019
- 2019-12-18 CN CN201911307167.1A patent/CN111104482A/zh active Pending
-
2020
- 2020-06-04 JP JP2020097658A patent/JP2021096813A/ja active Pending
- 2020-06-08 US US16/895,242 patent/US20210192288A1/en not_active Abandoned
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570197A (zh) * | 2016-11-15 | 2017-04-19 | 北京百度网讯科技有限公司 | 基于迁移学习的搜索排序方法和装置 |
US20190034764A1 (en) * | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
CN107608970A (zh) * | 2017-09-29 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
CN110008335A (zh) * | 2018-12-12 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 自然语言处理的方法及装置 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN110175628A (zh) * | 2019-04-25 | 2019-08-27 | 北京大学 | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 |
CN110175329A (zh) * | 2019-05-28 | 2019-08-27 | 上海优扬新媒信息技术有限公司 | 一种样本扩充的方法、装置、电子设备与存储介质 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110232411A (zh) * | 2019-05-30 | 2019-09-13 | 北京百度网讯科技有限公司 | 模型蒸馏实现方法、装置、系统、计算机设备及存储介质 |
CN110348572A (zh) * | 2019-07-09 | 2019-10-18 | 上海商汤智能科技有限公司 | 神经网络模型的处理方法及装置、电子设备、存储介质 |
CN110442874A (zh) * | 2019-08-09 | 2019-11-12 | 南京邮电大学 | 一种基于词向量的中文词义预测方法 |
Non-Patent Citations (1)
Title |
---|
胥桂仙: "《文本分类研究》", 30 June 2010 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7269972B2 (ja) | 2020-06-17 | 2023-05-09 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 |
JP2021197156A (ja) * | 2020-06-17 | 2021-12-27 | ペキン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science And Technology Co., Ltd. | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 |
US11775766B2 (en) | 2020-06-17 | 2023-10-03 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for improving model based on pre-trained semantic model |
CN111768001B (zh) * | 2020-06-30 | 2024-01-23 | 平安国际智慧城市科技股份有限公司 | 语言模型的训练方法、装置和计算机设备 |
CN111768001A (zh) * | 2020-06-30 | 2020-10-13 | 平安国际智慧城市科技股份有限公司 | 语言模型的训练方法、装置和计算机设备 |
CN112307053A (zh) * | 2020-10-28 | 2021-02-02 | 百分点(江苏)数据智能有限公司 | 基于强化学习的语言处理方法及装置 |
CN112307053B (zh) * | 2020-10-28 | 2023-10-17 | 北京百分点科技集团股份有限公司 | 基于强化学习的语言处理方法及装置 |
CN113761908A (zh) * | 2020-11-26 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种存量用户信息的处理方法和装置 |
CN112966712A (zh) * | 2021-02-01 | 2021-06-15 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
CN112966712B (zh) * | 2021-02-01 | 2023-01-20 | 北京三快在线科技有限公司 | 语言模型训练方法、装置、电子设备和计算机可读介质 |
CN112905789B (zh) * | 2021-02-02 | 2023-02-28 | 中国建设银行股份有限公司 | 一种基于自然语言处理的非结构化数据处理方法及系统 |
CN112905789A (zh) * | 2021-02-02 | 2021-06-04 | 中国建设银行股份有限公司 | 一种基于自然语言处理的非结构化数据处理方法及系统 |
CN114580387A (zh) * | 2022-03-03 | 2022-06-03 | 戎行技术有限公司 | 一种基于多工具的自然语言处理方法、设备及介质 |
CN114580387B (zh) * | 2022-03-03 | 2024-06-07 | 戎行技术有限公司 | 一种基于多工具的自然语言处理方法、设备及介质 |
CN114970540A (zh) * | 2022-05-11 | 2022-08-30 | 北京百度网讯科技有限公司 | 训练文本审核模型的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021096813A (ja) | 2021-06-24 |
US20210192288A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111104482A (zh) | 数据处理方法和装置 | |
CN109460513B (zh) | 用于生成点击率预测模型的方法和装置 | |
CN108416310B (zh) | 用于生成信息的方法和装置 | |
CN109981787B (zh) | 用于展示信息的方法和装置 | |
CN111061956B (zh) | 用于生成信息的方法和装置 | |
CN108121699B (zh) | 用于输出信息的方法和装置 | |
CN109858045B (zh) | 机器翻译方法和装置 | |
CN109740167B (zh) | 用于生成信息的方法和装置 | |
CN109933217B (zh) | 用于推送语句的方法和装置 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN110084317B (zh) | 用于识别图像的方法和装置 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
CN111582360A (zh) | 用于标注数据的方法、装置、设备和介质 | |
CN111738010A (zh) | 用于生成语义匹配模型的方法和装置 | |
CN115801980A (zh) | 视频生成方法和装置 | |
CN110232920B (zh) | 语音处理方法和装置 | |
CN112182255A (zh) | 用于存储媒体文件和用于检索媒体文件的方法和装置 | |
CN112188311A (zh) | 用于确定新闻的视频素材的方法和装置 | |
CN111026849B (zh) | 数据处理方法和装置 | |
CN109840072B (zh) | 信息处理方法和装置 | |
CN108664610B (zh) | 用于处理数据的方法和装置 | |
CN110991661A (zh) | 用于生成模型的方法和装置 | |
CN111027332B (zh) | 生成翻译模型的方法和装置 | |
CN109857838B (zh) | 用于生成信息的方法和装置 | |
CN111767290B (zh) | 用于更新用户画像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |