CN110569359B - 识别模型的训练及应用方法、装置、计算设备及存储介质 - Google Patents
识别模型的训练及应用方法、装置、计算设备及存储介质 Download PDFInfo
- Publication number
- CN110569359B CN110569359B CN201910791312.1A CN201910791312A CN110569359B CN 110569359 B CN110569359 B CN 110569359B CN 201910791312 A CN201910791312 A CN 201910791312A CN 110569359 B CN110569359 B CN 110569359B
- Authority
- CN
- China
- Prior art keywords
- classifier
- text data
- data
- training
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种识别模型的训练及应用方法、装置、计算设备及存储介质。该模型训练方法包括:获取不同来源的文本数据,其中,不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源;基于同一特征提取网络提取所述文本数据的特征数据;基于第一类文本数据的特征数据训练第一分类器,并基于第二类文本数据的特征数据训练第二分类器,其中所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。由此,使得所训练的识别模型(机器学习模型)能够针对不同来源的数据间快速迁移并应用,从而节约成本并节省人力。
Description
技术领域
本发明属于人工智能技术领域,特别涉及一种识别模型的训练及应用方法、装置、计算设备及存储介质。
背景技术
随着信息技术的飞速发展,涌现出众多的信息流推荐平台,例如新闻平台、微博、短视频平台、公众号等,这些内容平台可以提供诸如文章、外链文章、新闻、视频、短视频等网络内容。这些内容能够为人们提供生活、工作、娱乐等众多方面的信息,能够为人们带来诸多便利。
通常,在这些网络内容被发布之前,平台管理者需要对这些网络内容进行识别、审核,以从中剔除存在问题的网络内容。目前,针对网络内容的识别、审核大多基于识别模型,而识别模型大多数依赖于有标签的标注数据来进行有监督学习。然而,当数据来源众多时,同一模型在不同的数据集上的识别效果差距较大。而若是针对每一种来源的数据重复进行数据标注以及重新训练识别模型,则费时费力,代价较大。
发明内容
本申请的目的是提供一种识别模型的训练及应用方法、装置、计算设备及存储介质,以解决上述的至少一个问题。
第一方面,本申请实施例提供了一种训练识别模型的方法,该方法包括:获取不同来源的文本数据,其中,所述不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源;基于同一特征提取网络提取所述文本数据的特征数据;基于第一类文本数据的特征数据训练第一分类器,并基于第二类文本数据的特征数据训练第二分类器,其中所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。由此,通过基于不同来源的文本数据训练识别模型,使得所训练的识别模型能够在新的来源的文本数据之间快速迁移并应用,既能够极大地减少人力和物力,又不会对原有来源的文本数据造成较大影响。
在一个实施例中,所述基于同一特征提取网络提取所述文本数据的特征数据的步骤包括:基于预先训练的词向量,获取所述文本数据的特征序列;将所述文本数据的特征序列输入所述特征提取网络,以输出所述特征数据。
在一个实施例中,所述特征提取网络为下述网络的任何一项:双向长短期记忆网络LSTM;卷积神经网络CNN;空间变换网络Transformer。
在一个实施例中,在训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播。
在一个实施例中,在训练所述第一分类器的反向传播过程中,在残差由所述第一分类器向所述特征提取网络反向传播时,通过以下公式进行梯度反转:
其中,所述Ldomain表示所述第一分类器生成的损失,所述θf表示第一分类器的参数,所述α表示对梯度进行放缩的尺度。
在一个实施例中,所述模型的损失函数为:
Lall=Llabel+λLdomain
其中,所述Ldomain表示所述第一分类器生成的损失,所述Llabel表示所述第二分类器生成的损失,λ用于平衡所述第一分类器和所述第二分类器生成的损失。
在一个实施例中,所述预定属性为文本内容是否低俗的属性。
第二方面,本申请实施例还提供了一种识别模型的应用方法,该识别模型是根据如上所述的训练方法训练得到的,所述应用方法包括:获取待识别的文本数据;基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。
第三方面,本申请实施例还提供了一种识别模型的训练装置,所述装置包括:文本获取单元,用于获取不同来源的文本数据,其中,所述不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源;特征提取单元,用于基于同一特征提取网络提取所述文本数据的特征数据;训练单元,用于基于第一类文本数据的特征数据训练第一分类器,并基于第二类文本数据的特征数据训练第二分类器,其中所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。
第四方面,本申请实施例还提供了一种识别模型,所述识别模型是根据如上所述的训练方法训练得到的,所述识别模型包括:文本获取单元,用于获取待识别的文本数据;特征提取单元,用于基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;识别单元,用于基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。
第五方面,本申请实施例还提供了一种计算设备,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的训练识别模型的方法。
第六方面,本申请实施例还提供了一种计算机存储介质,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如上所述的训练识别模型的方法。
本申请实施例提供的识别模型的训练方法、装置、计算设备及存储介质,可以利用丰富的无标注数据,通过分类器的对抗学习,拉近不同来源数据的特征分布,使得所训练得到的识别模型可以在不同来源的数据之间快速迁移并使用。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面所介绍的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本申请一个实施例的识别模型的训练方法的流程示意图;
图2为根据本申请一个实施例的训练识别模型的示意性流程图;
图3为根据本申请一个实施例的识别模型的应用示例;
图4为根据本申请一个实施例的识别模型的训练装置的结构示意图;
图5为根据本申请一个实施例的计算设备的结构示意图。
具体实施方式
如前所述,目前,针对网络内容的识别、审核大多基于识别模型,而识别模型大多数依赖于有标签的标注数据来进行有监督学习。然而当数据来源众多时,同一模型在不同的数据集上的识别效果差距较大。例如,基于公众号文章数据源训练得到的识别模型直接用在视频数据源时,对于视频数据的识别效果就会很差,无法得到精准的识别结果。而若是针对每一种新的数据源再次大量标注数据以及重新训练识别模型,则费时费力,代价较大。
有鉴于此,本申请提出了一种识别模型的训练方案,该方案可以利用丰富的无标注数据,通过分类器的对抗学习,拉近不同来源数据的特征分布,使得所训练得到的识别模型可以在不同来源的数据之间快速迁移并使用。
本公开实施例的识别模型可以是机器学习模型的一种。机器学习(MachineLearning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本公开的识别模型的训练方案例如可以在一些已经具有大量标注数据的基础上再结合新的数据来源的无标注数据进行训练。对于具有大量标注的数据又可以称为源域(source domain)数据,而对于新的数据来源的数据又可以称为目标域(target domain)数据。由此,训练得到的识别模型能够从source domain快速迁移到target domain应用,从而极大地降低了模型训练成本,并提升了模型的训练效率。
当然,本方案中目标域数据可以有标注也可以没有标注,均能够基于本申请提供的方法进行训练,并获得能够对目标域数据进行预定属性识别的识别模型。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
图1为根据本申请一个实施例的识别模型的训练方法的流程示意图。其中,在以下描述中,以不同来源的文本数据对本申请的训练方案进行说明。应当理解的是,本申请的识别模型的训练方案同样可以适用于其它类型的数据,包括但不限于图像数据、视频数据、音频数据等,更甚至还可以适用于多种类型的数据,例如文本数据和图像数据、文本数据和视频数据、图像数据和音频数据等,本申请对此不做限制。
如图1所示,在步骤S110,获取不同来源的文本数据。
文本数据例如可以是待发布的网络内容所对应的文本数据,也可以是已经发布且内容质量合格的文本数据。该文本数据既可以是待发布或已经发布的网络内容的正文文本,还可以是网络内容对应的标题文本,本申请对此不做限制。
来源(domain)例如可以是指上述网络内容来自不同的网络发布平台或不同的网络出处,例如公众号文章、外链文章、新闻、视频等多个来源。在本申请的描述中,不同来源的文本数据也可以等同于不同领域的文本数据,在下文描述中不再区分。
在实施时,可以通过多种途径获取所述不同来源的文本数据,在此不再赘述。
在步骤S120,可以基于同一特征提取网络提取所述文本数据的特征数据。
这里,特征提取网络可以是用于进行特征提取的网络模型。该特征提取网络例如可以是双向长短期记忆网络(LSTM)、卷积神经网络(CNN)、空间变换网络(Transformer)等网络模型中的任意一种。
在实施时,在步骤S120,可基于同一特征提取网络提取所述文本数据的特征数据的步骤可以包括:基于预先训练的词向量,获取所述文本数据的特征序列;将所述文本数据的特征序列输入所述特征提取网络,以输出所述特征数据。其中,文本数据的特征数据例如可以是高维特征。该高维特征可以为M维。M的取值可以根据需要进行设定,例如128维。
由此,基于同一特征提取网络来提取不同来源的文本数据的特征数据,可以使得不同来源的数据在映射到特征空间后能够趋向一致的特征分布,以为本申请所训练的识别模型在不同来源数据之间的快速迁移及应用提供支持。
在本申请实施例中,上述不同来源的文本数据中可以包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源。
在步骤S120分别获得第一类文本数据和第二类文本数据的特征数据之后,在步骤S130,可以基于第一类文本数据的特征数据训练第一分类器,并基于第二类文本数据的特征数据训练第二分类器。
其中,在实施时,在步骤S130可以迭代训练第一分类器和第二分类器,直至达到预定的模型迭代结束条件(例如模型收敛或者模型参数的误差小于预定阈值)。并且,所训练得到的第一分类器可以用于确定文本数据的来源,所训练得到的第二分类器可以用于确定文本数据的预定属性。
也即,基于同一特征提取网络来提取不同来源的文本数据的特征数据,可以使得不同来源的数据在映射到特征空间后能够趋向一致的特征分布,且提取的特征能够满足不同的分类器实现分类,故此,本申请实施例训练的模型是的提取的特征数据能够使得第一分类器区分出不同来源,也能够满足第二分类器的分类要求,使得所训练的识别模型在不同来源数据之间的快速迁移及应用。
在本申请实施例中,对模型的训练方式采用对抗学习方式,且第一分类器和第二分类器的综合用于传导到整个模型以便于对特征提取网络和两个分类器的参数进行调整,使得特征提取网络提取的特征能够满足要求,即对于第一分类器而言提取的特征数据能够用于实现来源分类,而对应第二分类器而言可忽略不同来源的差异使得不同来源的数据特征能够区域一致并实现对预定属性如是否网络禁止内容的分类。而且,本申请实施例,训练时两个分类器是同时进行训练的,分类器之间共同享有同一特征。
实施时,所述识别模型的损失函数可以为:
Lall=Llabel+λLdomain (1)
其中,所述Ldomain表示所述第一分类器生成的损失,所述Llabel表示所述第二分类器生成的损失,λ用于平衡所述第一分类器和所述第二分类器生成的损失。
由此,通过上述步骤S110-S130,基于不同来源的数据来训练识别模型,不需要依赖于第一类文本数据的预定属性标签,而是利用丰富的无标签数据,通过第一分类器的对抗学习,拉近不同来源(domain)数据的特征分布,进而使得识别模型可以在不同来源的数据之间快速迁移使用,并且不会产生负迁移,即不会使得针对例如第二类文本数据的识别效果下降。
换言之,本申请如上所述的方案,既能够解决在target domain没有标注数据,而source domain的模型直接应用效果差的问题,节省了大量人力,并可作为快速启动模型进行应用。
在本申请实施例中,所训练得到的识别模型能够用于对待识别的文本数据进行识别,从而确定该待识别的文本数据是否具有预定属性,从而实现对该文本数据的识别、审核等,从而确保所要发布的网络内容的质量。
具体地,在应用上述识别模型时,可以与如图1所示的步骤相似,例如,获取待识别的文本数据;基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。
由此,基于本申请的识别模型,能够针对不同来源的网络内容进行识别和审核,从而能够快速、准确地实现地识别出不宜发布的网络内容,从而避免不适宜内容的发布,或是迅速下线不适宜发布但已发布的网络内容。
在本申请实施例中,上述预定属性例如可以是文本内容是否低俗的属性。这样,通过对低俗文本内容的识别、审核,避免发布低俗文本以及快速下线已经发布的不适宜网络内容,从而确定所发布的网络内容的质量,维护产品方的品牌形象。在其它实施例中,该预定属性也可以是其它属性。例如文本内容是否侮辱、贬低、暴力、不利于未成年人健康成长等属性。本申请对此不做限制。
此外,为了给识别模型在不同来源数据之间的快速迁移及应用提供支持,本申请实施例的训练方案中还提供了多种不同的实现方式。
在一个实施例中,例如可以基于不用来源的文本数据训练词向量。如可以通过获取足量的不同来源的文本数据,并对所获取的文本数据进行切词处理,随后使用训练工具(例如word2vec工具)训练词向量。所训练的词向量可以为N维的,N的取值可以根据需要进行设定,本申请实施例中,N的取值例如可以是200。
由此,本申请实施例通过使用不同来源的文本数据共同训练词向量,通过共享词向量,拉近不同来源的数据特征空间的距离,从而为识别模型在不同来源数据之间的快速迁移及应用提供支持。
在一个实施例中,可以通过使用分类器结合对抗学习的方式,使得不同来源的数据在映射到特征空间后趋向一致的特征分布。
实施时,可以双向LSTM模型作为特征提取网络的一个示例,在步骤S130训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播。其中,在训练所述第一分类器的反向传播过程中,在残差由所述第一分类器向所述特征提取网络反向传播时,通过以下公式(2)进行梯度反转:
其中,所述Ldomain表示所述第一分类器生成的损失,所述θf表示第一分类器的参数,所述α表示对梯度进行放缩的尺度。
由此,通过梯度反转函数将负方向的梯度向前传播,使得在训练第一分类器的过程中,保存模型底层部分的参数不变,而只改变顶层参数,从而尽可能地避免负迁移的产生。
为了更清楚的理解本申请的技术方案,如下将结合图2-图3进行更为详细的说明。在本实施例中,以文章标题和视频标题作为如前所述实施例中述及的不同来源的文本数据。应当理解的是,本申请的技术方案同样可以适用于其它来源的文本数据或是非文本数据,本申请对此不做限制。
图2为根据本申请一个实施例的训练识别模型的示意性流程图。
如图2所示,在步骤S210,分别获取足量的不同来源的文本数据。
在本实施例的中,不同来源的文本数据例如可以包括文字标题和视频标题。
在步骤S220,基于所获取的文章标题和视频标题训练词向量。
其中,例如可以将所获取的文章标题和视频标题汇总并切词,并使用例如word2vec等工具训练词向量。所训练的词向量例如可以设为N维,这里N可以为正整数,并且N的取值可以根据需要进行设定,例如可以为200。
在步骤S230,可以基于同一特征提取网络提取文本数据(即文章标题和视频标题)的特征数据。
其中,由于之后在训练第一分类器和第二分类器时所采用的具体的文本数据不完全相同,在步骤S230提取特征数据时可以针对不同的文本数据通过下述的步骤S231-S233、S231’-S233’分别进行特征提取。应当理解的时,图2所示的步骤S231-S233’、S231-S233’的特征提取步骤的仅是为了便于说明,而非对针对第一类文本数据或第二类文本数据进行特征提取的顺序或功能的任何限定。
在步骤S231中,可以以无预定属性标签的文章标题和无预定属性标签的视频标题作为第一类文本数据,并获取第一类文本数据的特征数据。
第一类文本数据可以具有来源标签,基于该来源标签,可以知悉文本数据的来源是文章还是视频。
在步骤S232,将第一类文本数据切词后,通过词向量矩阵映射成P*N的特征序列。
其中,P、N为正整数,P可以表示预设的文本字符长度阈值,N可以对应于词向量的维度。并且,在上述词向量映射时,若存在字符长度等于预设的文本字符长度阈值的文本,则可以直接进行词向量映射;若存在字符长度大于预设的文本字符长度阈值的长文本,则可以对该长文本进行截断,以使得所得到的文本为预设的文本字符长度阈值的文本;若存在字符长度小于预设的文本字符长度阈值的文本,则可以对该文本进行补齐处理,例如可以进行补0处理,以使得所得到的文本为预设的文本字符长度阈值的文本。
在步骤S233,将所得到的特征序列输入到特征提取网络(例如双向LSTM网络),输出与该特征序列对应的特征数据。
其中,该特征数据可以为高维特征。该高维特征可以为M维。M的取值可以根据需要进行设定,例如128维。
在步骤S231’,可以以有预定属性标签的文章标题作为第二类文本数据,并获取第二类文本数据的特征数据。
在此,作为示例,该预定属性标签例如可以是用于标注是否低俗的标签。对于正常标题,可以表示为<0,标题切词>,而低俗标题则可以表示为<1,标题切词>,其中,“0”表示该标题不包含低俗内容,“1”表示该标题包含低俗内容,即为低俗标题。
相似地,在步骤S232’,将第二类文本数据切词后,通过词向量矩阵映射成P*N的特征序列。其中,P、N为正整数,P可以表示预设的文本字符长度阈值,N可以对应于词向量的维度。
并且,在上述词向量映射时,若存在字符长度等于预设的文本字符长度阈值的文本,则可以直接进行词向量映射;若存在字符长度大于预设的文本字符长度阈值的长文本,则可以对该长文本进行截断,以使得所得到的文本为预设的文本字符长度阈值的文本;若存在字符长度小于预设的文本字符长度阈值的文本,则可以对该文本进行补齐处理,例如可以进行补0处理,以使得所得到的文本为预设的文本字符长度阈值的文本。
在步骤S233’,将所得到的特征序列输入到特征提取网络(例如双向LSTM网络),输出与该特征序列对应的特征数据。
其中,该特征数据可以为高维特征。该高维特征可以为M维。M的取值可以根据需要进行设定,例如128维。
由此,通过上述步骤S231-S233、S231’-S233’,可以分别获取对应于第一类文本数据的特征数据和对应于第二类文本数据的特征数据。
之后,即可在步骤S241,将得到的对应于第一类文本数据的特征数据输入到第一分类器的全连接层中,并训练第一分类器。
在步骤S242,将得到的对应于第二类文本的特征数据输入到第二分类器的全连接层中,并训练第二分类器。
其中,在训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播。并且,针对第一分类器和第二分类器的训练可以按照文本数据批次迭代进行,直至达到预定的模型迭代结束条件。例如,在当前输入的特征数据对应于第一类文本数据时训练第一分类器,在当前输入的特征数据对应于第二类文本数据时训练第二分类器。
本申请实施例中,训练第一分类器的目的可以是使该第一分类器能够判断输入的特征数据所对应的文本数据的来源,例如来源于文章标题还是视频标题。训练第二分类器的目的可以是使该第二分类器能够判断输入的特征数据所对应的文本数据是否具有预定属性。例如,是否为低俗标题。
其中,在训练第一分类器的过程中,还可以在步骤S243,在第一分类器的训练的反向传播过程中,在残差由第一分类器想特征提取网络层传播时,使用梯度反转函数将负方向的梯度向前传播,以避免发生负迁移。梯度反转的详细描述可参见上文的相关描述,在此不再赘述。
在步骤S250,模型迭代终止。这里,例如可以是模型收敛而触发的模型迭代终止,也可以是模型参数的误差小于预定阈值而触发的模型迭代终止,本申请对此不做限制。
在步骤S260,保存训练得到的识别模型。
至此,本申请的识别模型的训练过程结束。
图3为根据本申请一个实施例的识别模型的应用示例。
如图3所示,可以首先读取已经训练好的词向量和识别模型(参见图3右侧所示)。
之后,读取待识别的文本数据(如图3左侧所示的标题“街头涌现短裙美女”),并将该文本数据切词(如图3左侧所示的标题切词“街头”、“涌现”、“短裙”、“美女”)后输入到识别模型中。
该识别模型将文本数据切词基于已训练好的词向量中进行词向量映射。随后,将词向量映射得到的特征序列(例如“街头E1”、“涌现E1”、“短裙E1”、“美女E1”)输入到双向LSTM网络模型中,并将输出的高维特征(例如“街头E2”、“涌现E2”、“短裙E2”、“美女E2”)输入到低俗分类器(即如前所述的第二分类器)的全连接层和domain分类器(即如前所述第一分类器)。识别模型输出domain分类器的预测结果和低俗分类器的预测结果。在此,选取低俗分类器的预测结果作为最终结果,判断所输入标题“街头涌现短裙美女”是否低俗。
当然使用时,由于若仅需要识别文本数据是否含有低俗内容,则也可以删除domain分类器,仅采用低俗分类器实现分类。
至此,已经结合图1-图3详细说明了本申请的识别模型的训练及应用方案,该方案可以利用丰富的无标注数据,通过分类器的对抗学习,拉近不同来源数据的特征分布,使得所训练得到的识别模型可以在不同来源的数据之间快速迁移并使用。其中,该训练方案例如可以在一些已经具有大量标注数据的基础上再结合新的数据来源的无标注数据进行训练,对于具有大量标注数据又可以成为源域(source domain)数据,而对于新的数据来源的无标注数据又可以称为目标域(target domain)数据,由此,训练得到的识别模型能够从source domain快速迁移到target domain应用,从而极大地降低了模型训练成本,并提升了模型的应用效率。当然,本方案也可以适用于具有标注的目标域数据,能够进一步提升所训练的识别模型的识别效果。
本申请实施例中,识别模型的训练方法还可以由一种识别模型的训练装置实现。
图4为根据本申请一个实施例的识别模型的训练装置的结构示意图。
如图4所示,本申请的识别模型的训练装置400可以包括:文本获取单元410、特征提取单元420、训练单元430。
文本获取单元410可以用于获取不同来源的文本数据,其中,所述不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源。
特征提取单元420可以用于基于同一特征提取网络提取所述文本数据的特征数据。
训练单元430可以用于基于第一类文本数据的特征数据训练第一分类器,并基于第二类文本数据的特征数据训练第二分类器,其中所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。所述预定属性为文本内容是否低俗的属性。
在一个实施例中,特征提取单元420可以用于:基于预先训练的词向量,获取所述文本数据的特征序列;将所述文本数据的特征序列输入所述特征提取网络,以输出所述特征数据。
在一个实施例中,所述特征提取网络为下述网络的任何一项:双向长短期记忆网络LSTM;卷积神经网络CNN;空间变换网络Transformer。
在一个实施例中,训练单元430在训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播。
在一个实施例中,训练单元430在训练所述第一分类器的反向传播过程中,在残差由所述第一分类器向所述特征提取网络反向传播时,通过以下公式进行梯度反转:
其中,所述Ldomain表示所述第一分类器生成的损失,所述θf表示第一分类器的参数,所述α表示对梯度进行放缩的尺度。
在一个实施例中,所述识别模型的损失函数为:
Lall=Llabel+λLdomain
其中,所述Ldomain表示所述第一分类器生成的损失,所述Llabel表示所述第二分类器生成的损失,λ用于平衡所述第一分类器和所述第二分类器生成的损失。
上述识别模型的训练装置的具体实现细节与上文结合图1-图3描述相同或相似,具体可参见上文的相关描述,在不再赘述。
本申请实施例中,还提供了一种识别模型,该识别模型可以是根据如前所述的训练方法训练得到的,所述识别模型可以包括:文本获取单元,用于获取待识别的文本数据;特征提取单元,用于基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;识别单元,用于基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。该识别模型的应用实现与上文结合模型训练的描述相同或相似,详细可参见上文的相关描述,在此不再赘述。
在介绍了本申请示例性实施方式的一种训练识别模型的方法和装置之后,接下来,介绍根据本申请的另一示例性实施方式的计算设备。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本申请的计算设备可以至少包括至少一个处理器、以及至少一个存储器。其中,存储器存储有程序代码,当程序代码被处理器执行时,使得处理器执行本说明书上述描述的根据本申请各种示例性实施方式的训练识别模型的方法中的步骤。例如,处理器可以执行如图1中所示的步骤S110-S130、图2所示的步骤S210-S260。
下面参照图5来描述根据本申请的这种实施方式的计算设备130。图5显示的计算设备130仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算设备130以通用计算设备的形式表现。计算设备130的组件可以包括但不限于:上述至少一个处理器131、上述至少一个存储器132、连接不同系统组件(包括存储器132和处理器131)的总线133。
总线133表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器132可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)1321和/或高速缓存存储器1322,还可以进一步包括只读存储器(ROM)1323。
存储器132还可以包括具有一组(至少一个)程序模块1324的程序/实用工具1325,这样的程序模块1324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算设备130也可以与一个或多个外部设备134(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与计算设备130交互的设备通信,和/或与使得该计算设备130能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口135进行。并且,计算设备130还可以通过网络适配器136与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器136通过总线133与用于计算设备130的其它模块通信。应当理解,尽管图中未示出,可以结合计算设备130使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在一些可能的实施方式中,本申请提供的一种训练识别模型的方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的一种训练识别模型的方法中的步骤,例如,计算机设备可以执行如图1中所示的步骤S110-S130、图2所示的步骤S210-S260。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请的实施方式的用于训练识别模型的的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算设备上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (11)
1.一种识别模型的训练方法,其特征在于,所述方法包括:
获取不同来源的文本数据,其中,所述不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源;
基于同一特征提取网络提取所述文本数据的特征数据;
将第一类文本数据的特征数据输入第一分类器,对所述第一分类器进行训练,以及将第二类文本数据的特征数据输入第二分类器,对所述第二分类器进行训练,在训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播;其中,在训练所述第一分类器的反向传播过程中,在残差由所述第一分类器向所述特征提取网络反向传播时,进行梯度反转;所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。
2.根据权利要求1所述的方法,其特征在于,所述基于同一特征提取网络提取所述文本数据的特征数据的步骤包括:
基于预先训练的词向量,获取所述文本数据的特征序列;
将所述文本数据的特征序列输入所述特征提取网络,以输出所述特征数据。
3.根据权利要求2所述的方法,其特征在于,所述特征提取网络为下述网络的任何一项:
双向长短期记忆网络LSTM;
卷积神经网络CNN;
空间变换网络Transformer。
4.根据权利要求2所述的方法,其特征在于,通过以下公式进行梯度反转:
其中,所述Ldomain表示所述第一分类器生成的损失,所述θf表示第一分类器的参数,所述α表示对梯度进行放缩的尺度。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述模型的损失函数为:
Lall=Llabel+λLdomain
其中,所述Ldomain表示所述第一分类器生成的损失,所述Llabel表示所述第二分类器生成的损失,λ用于平衡所述第一分类器和所述第二分类器生成的损失。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述预定属性为文本内容是否低俗的属性。
7.一种识别模型的应用方法,其特征在于,所述识别模型是权利要求1-6中任一项所述的方法训练得到的识别模型,所述应用方法包括:
获取待识别的文本数据;
基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;
基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。
8.一种识别模型的训练装置,其特征在于,所述装置包括:
文本获取单元,用于获取不同来源的文本数据,其中,所述不同来源的文本数据中包括第一类文本数据和第二类文本数据,所述第一类文本数据具有来源标签,所述第二类文本数据具有预定属性标签,所述预定属性不包括文本来源;
特征提取单元,用于基于同一特征提取网络提取所述文本数据的特征数据;
训练单元,用于将第一类文本数据的特征数据输入第一分类器,对所述第一分类器进行训练,以及将第二类文本数据的特征数据输入第二分类器,对所述第二分类器进行训练,在训练第一分类器和训练第二分类器的过程中,在所述特征提取网络与所述第一分类器和第二分类器的全连接层之间分别进行前向传播和反向传播;其中,在训练所述第一分类器的反向传播过程中,在残差由所述第一分类器向所述特征提取网络反向传播时,进行梯度反转;所述第一分类器用于确定文本数据的来源,所述第二分类器用于确定文本数据的预定属性。
9.一种识别模型,其特征在于,所述识别模型是根据权利要求1-6中任一项所述的方法训练得到的,所述识别模型包括:
文本获取单元,用于获取待识别的文本数据;
特征提取单元,用于基于训练好的所述特征提取网络提取所述待识别的文本数据的特征数据;
识别单元,用于基于训练好的所述第二分类器对所述待识别的文本数据的特征数据进行处理,得到所述待识别的文本数据的所述预定属性。
10.一种计算设备,其特征在于,包括至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-7中任一方法的步骤。
11.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1-7中任一方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791312.1A CN110569359B (zh) | 2019-08-26 | 2019-08-26 | 识别模型的训练及应用方法、装置、计算设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791312.1A CN110569359B (zh) | 2019-08-26 | 2019-08-26 | 识别模型的训练及应用方法、装置、计算设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569359A CN110569359A (zh) | 2019-12-13 |
CN110569359B true CN110569359B (zh) | 2023-09-15 |
Family
ID=68776127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910791312.1A Active CN110569359B (zh) | 2019-08-26 | 2019-08-26 | 识别模型的训练及应用方法、装置、计算设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569359B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113342969A (zh) * | 2020-03-03 | 2021-09-03 | 北京沃东天骏信息技术有限公司 | 数据处理方法和装置 |
CN113553839B (zh) * | 2020-04-26 | 2024-05-10 | 北京中科闻歌科技股份有限公司 | 一种文本原创识别方法、装置、电子设备及存储介质 |
CN111597306B (zh) * | 2020-05-18 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 语句识别方法和装置、存储介质及电子设备 |
CN113761181B (zh) * | 2020-06-15 | 2024-06-14 | 北京京东振世信息技术有限公司 | 一种文本分类方法和装置 |
CN112257814A (zh) * | 2020-11-26 | 2021-01-22 | 携程计算机技术(上海)有限公司 | 基于深度学习的邮件标签方法、系统、设备及存储介质 |
CN112579729B (zh) * | 2020-12-25 | 2024-05-21 | 百度(中国)有限公司 | 文档质量评价模型的训练方法、装置、电子设备和介质 |
CN113114679B (zh) * | 2021-04-13 | 2023-03-24 | 中国工商银行股份有限公司 | 报文的识别方法、装置、电子设备及介质 |
CN113806536B (zh) * | 2021-09-14 | 2024-04-16 | 广州华多网络科技有限公司 | 文本分类方法及其装置、设备、介质、产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169061A (zh) * | 2017-05-02 | 2017-09-15 | 广东工业大学 | 一种融合双信息源的文本多标签分类方法 |
CN109858505A (zh) * | 2017-11-30 | 2019-06-07 | 厦门大学 | 分类识别方法、装置及设备 |
CN109933780A (zh) * | 2017-12-15 | 2019-06-25 | 奥多比公司 | 使用深度学习技术确定文档中的上下文阅读顺序 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8738359B2 (en) * | 2006-10-18 | 2014-05-27 | Honda Motor Co., Ltd. | Scalable knowledge extraction |
US10896385B2 (en) * | 2017-07-27 | 2021-01-19 | Logmein, Inc. | Real time learning of text classification models for fast and efficient labeling of training data and customization |
-
2019
- 2019-08-26 CN CN201910791312.1A patent/CN110569359B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169061A (zh) * | 2017-05-02 | 2017-09-15 | 广东工业大学 | 一种融合双信息源的文本多标签分类方法 |
CN109858505A (zh) * | 2017-11-30 | 2019-06-07 | 厦门大学 | 分类识别方法、装置及设备 |
CN109933780A (zh) * | 2017-12-15 | 2019-06-25 | 奥多比公司 | 使用深度学习技术确定文档中的上下文阅读顺序 |
Also Published As
Publication number | Publication date |
---|---|
CN110569359A (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569359B (zh) | 识别模型的训练及应用方法、装置、计算设备及存储介质 | |
US10635979B2 (en) | Category learning neural networks | |
CN112685565B (zh) | 基于多模态信息融合的文本分类方法、及其相关设备 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN113591902B (zh) | 基于多模态预训练模型的跨模态理解与生成方法和装置 | |
JP7291183B2 (ja) | モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 | |
CN109783666B (zh) | 一种基于迭代精细化的图像场景图谱生成方法 | |
CN110162766B (zh) | 词向量更新方法和装置 | |
EP3740935B1 (en) | Visual tracking by colorization | |
CN113344206A (zh) | 融合通道与关系特征学习的知识蒸馏方法、装置及设备 | |
CN110795944A (zh) | 推荐内容处理方法及装置、情感属性确定方法及装置 | |
CN115688920B (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN113836866B (zh) | 文本编码方法、装置、计算机可读介质及电子设备 | |
WO2024067276A1 (zh) | 用于确定视频的标签的方法、装置、设备及介质 | |
CN113051914A (zh) | 一种基于多特征动态画像的企业隐藏标签抽取方法及装置 | |
CN115293348A (zh) | 一种多模态特征提取网络的预训练方法及装置 | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
Yan et al. | Fine-grained recognition via attribute-guided attentive feature aggregation | |
CN113326940A (zh) | 基于多重知识迁移的知识蒸馏方法、装置、设备及介质 | |
CN112749556A (zh) | 多语言模型的训练方法和装置、存储介质和电子设备 | |
CN117093687A (zh) | 问题应答方法和装置、电子设备、存储介质 | |
CN117011737A (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN114330514A (zh) | 一种基于深度特征与梯度信息的数据重建方法及系统 | |
Keisham et al. | Multi-level alignment for few-shot temporal action localization | |
WO2023168818A1 (zh) | 视频和文本相似度确定方法、装置、电子设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40018848 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |