CN108564134A - 数据处理方法、装置、计算设备和介质 - Google Patents

数据处理方法、装置、计算设备和介质 Download PDF

Info

Publication number
CN108564134A
CN108564134A CN201810391331.0A CN201810391331A CN108564134A CN 108564134 A CN108564134 A CN 108564134A CN 201810391331 A CN201810391331 A CN 201810391331A CN 108564134 A CN108564134 A CN 108564134A
Authority
CN
China
Prior art keywords
model
data
data set
loss function
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810391331.0A
Other languages
English (en)
Other versions
CN108564134B (zh
Inventor
徐国智
温翔
丛林
李晓燕
朱浩齐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201810391331.0A priority Critical patent/CN108564134B/zh
Publication of CN108564134A publication Critical patent/CN108564134A/zh
Application granted granted Critical
Publication of CN108564134B publication Critical patent/CN108564134B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明的实施方式提供了一种数据处理方法,包括:基于第一模型的模型参数构建第二模型,所述第一模型的模型参数是通过使用第一数据集训练第一模型而得到的;使用所述第一数据集和第二数据集共同训练所述第二模型,其中,所述第二数据集与第一数据集不同。通过在第一模型的基础上构建第二模型,并且使用第一数据集和第二数据集共同训练第二模型,实现了模型迁移,使得只需要对第二数据集中较少的数据进行标注即可完成对第二模型的训练,从而显著地减少了人工标注的投入,节省人力物力,并且提高了模型的识别效果。此外,本发明的实施方式提供了一种数据处理装置、计算设备以及计算机可读存储介质。

Description

数据处理方法、装置、计算设备和介质
技术领域
本发明的实施方式涉及计算机技术领域,更具体地,本发明的实施方式涉及一种数据处理方法、装置、计算设备和介质。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
随着信息时代的蓬勃发展,互联网已经成为人们获取信息、沟通交流以及休闲娱乐的重要工具。然而,互联网中往往存在各种各样的垃圾消息,例如,垃圾广告等。这些垃圾广告不仅给用户浏览带来不便,极大地影响用户的上网体验,同时还会给用户造成不必要的流量浪费,增加耗电。此外,有些垃圾消息还会携带不安全因素(例如木马病毒等),给用户造成巨大的损失。
可以理解,为了拦截广告等垃圾消息,提高用户体验,首先需要对其进行识别。目前,已经出现一些广告识别的方法,例如,基于传统图像特征的广告图像识别方法,通过对大量的图像进行标注作为样本图像,进而训练模型,从而达到广告图像识别的目的。
发明内容
但是,上述现有技术中的广告图像识别方法对于训练样本数量要求较多,需要投入大量的人力对样本图像进行标注,进而训练模型。然而,随着广告图像样式的不断改变,原始模型无法准确识别变化后的广告图像,此时,又需要重新采集大量样本数据并人工对其进行标注训练新的模型以适应新的广告图像样式,该过程需要投入大量的人力,效率较低。
为此,非常需要一种改进的数据处理方法,可以降低样本数据的要求,减少对样本数据的标注,使用少量的标注数据和大量的未标注数据训练模型,减少人力的投入,提高效率。
在本上下文中,本发明的实施方式期望提供一种数据处理方法、数据处理系统、计算设备和计算机可读存储介质。
在本发明实施方式的第一方面中,提供了一种数据处理方法,包括:基于第一模型的模型参数构建第二模型,所述第一模型的模型参数是通过使用第一数据集训练第一模型而得到的,以及使用所述第一数据集和第二数据集共同训练所述第二模型,其中,所述第二数据集与第一数据集不同。
在本发明的一个实施例中,上述第二数据集包括已标注数据集和未标注数据集,所述未标注数据集包括图像数据,所述已标注数据集包括图像数据和标注数据,其中,所述标注数据用于表征相应的图像数据所属的分类。
在本发明的另一实施例中,上述第二数据集中的已标注的图像数据占比小于10%。
在本发明的又一个实施例中,上述第二模型包括多个损失函数。上述训练第二模型包括:基于所述多个损失函数优化所述第二模型,使所述第二模型收敛。
在本发明的再一个实施例中,上述第二模型包括卷积神经网络,所述卷积神经网络包含第一损失函数。
在本发明的再一个实施例中,上述第二模型的卷积神经网络的初始权值与所述第一模型的模型参数相对应。
在本发明的再一个实施例中,上述第二模型还包括基于第二损失函数构建的域分类器。
在本发明的再一个实施例中,上述第二模型还包括第一软化单元和第二软化单元,基于所述第一软化单元和所述第二软化单元构建第三损失函数。
在本发明的再一个实施例中,上述基于所述多个损失函数优化所述第二模型,使所述第二模型收敛,包括:对所述第一损失函数、第二损失函数以及第三损失函数赋予权重,基于赋予权重后的所述第一损失函数、第二损失函数以及第三损失函数优化所述第二模型,使得所述第二模型收敛。
在本发明实施方式的第二方面中,提供了一种数据处理装置,包括模型构建模块和模型训练模块。其中,模型构建模块基于第一模型的模型参数构建第二模型,所述第一模型的模型参数是通过使用第一数据集训练第一模型而得到的。模型训练模块使用所述第一数据集和第二数据集共同训练所述第二模型,其中,所述第二数据集与第一数据集不同。
在本发明的一个实施例中,上述第二数据集包括已标注数据集和未标注数据集,所述未标注数据集包括图像数据,所述已标注数据集包括图像数据和标注数据,其中,所述标注数据用于表征相应的图像数据所属的分类。
在本发明的另一实施例中,上述第二数据集中的已标注的图像数据占比小于10%。
在本发明的又一个实施例中,上述第二模型包括多个损失函数。上述训练第二模型包括:基于所述多个损失函数优化所述第二模型,使所述第二模型收敛。
在本发明的再一个实施例中,上述第二模型包括卷积神经网络,所述卷积神经网络包含第一损失函数。
在本发明的再一个实施例中,上述第二模型的卷积神经网络的初始权值与所述第一模型的模型参数相对应。
在本发明的再一个实施例中,上述第二模型还包括基于第二损失函数构建的域分类器。
在本发明的再一个实施例中,上述第二模型还包括第一软化单元和第二软化单元,基于所述第一软化单元和所述第二软化单元构建第三损失函数。
在本发明的再一个实施例中,上述基于所述多个损失函数优化所述第二模型,使所述第二模型收敛,包括:对所述第一损失函数、第二损失函数以及第三损失函数赋予权重,基于赋予权重后的所述第一损失函数、第二损失函数以及第三损失函数优化所述第二模型,使得所述第二模型收敛。
在本发明实施方式的第三方面中,提供了一种计算设备,包括:一个或多个存储器,存储有可执行指令;以及一个或多个处理器,执行所述可执行指令,以实现上述实施例中任一项的数据处理方法。。
在本发明实施方式的第四方面中,提供了一种计算机可读存储介质,其上存储有可执行指令,所述指令在被处理器执行时实现上述实施例中任一项的数据处理方法。
根据本发明实施方式的数据处理方法和数据处理装置,通过在第一模型的基础上构建第二模型,并且使用第一数据集和第二数据集共同训练第二模型,实现了模型迁移,使得只需要对第二数据集中较少的数据进行标注即可完成对第二模型的训练,从而在保证模型的识别效果的前提下,显著地减少了人工标注的投入,提高了效率。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1示意性地示出了根据本发明实施方式的数据处理方法和数据处理装置的应用场景;
图2示意性地示出了根据本发明实施方式的数据处理方法的流程图;
图3示意性地示出了根据本发明实施方式的第二模型的示意图;
图4示意性示出了根据本发明实施例的计算机可读介质的示意图;
图5示意性地示出了根据本发明实施方式的数据处理装置的框图;
图6示意性示出了根据本发明实施例的计算设备的示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本发明的实施方式,提出了一种数据处理的方法、介质、装置和计算设备。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本发明的若干代表性实施方式,详细阐释本发明的原理和精神。
发明概述
本发明人发现,为了减少人工对样本数据的标注,可以采用模型迁移的方法,通过在第一模型的基础上构建第二模型,并且使用第一数据集和第二数据集共同训练第二模型,实现了模型迁移,使得只需要对第二数据集中较少的数据进行标注即可完成对第二模型的训练,从而在保证模型的识别效果的前提下,显著地减少了人工标注的投入,提高了效率。
在介绍了本发明的基本原理之后,下面具体介绍本发明的各种非限制性实施方式。
应用场景总览
首先参考图1,图1示意性地示出了根据本发明实施方式的数据处理方法和数据处理装置的应用场景。
如图1所示,在使用互联网场景中,通常会弹出或者推送广告消息,由于广告消息会影响用户使用并且有可能携带不安全因素,通常各服务平台或者应用平台会拦截该些广告消息。
在现有技术中,各平台通常使用训练好的模型识别图像信息是否为垃圾广告图像,进而对其进行拦截。然而,在互联网应用中,黑灰产业者往往由于其散布的垃圾广告被拦截,不断地改变广告样式,在不同应用场景下发布风格不同的广告图片。由于原始模型对改变后的广告图像识别准确率低,需要重新训练新的模型以适应改变后的广告样式。然而,为了达到新模型训练所需的样本数据量,仍需要采集大量样本数据,并且投入人力对其进行标注。
有鉴于此,本公开提供了一种数据处理方法,基于原始模型的模型参数构建新模型,并且使用原始样本数据集和新样本数据集共同训练新模型,实现了模型迁移,使得只需要对新样本数据集中较少的数据进行标注即可完成对新模型的训练,从而在保证模型的识别效果的前提下,显著地减少了人工标注的投入,提高了效率。
示例性方法
下面结合图1的应用场景,参考图2~图3来描述根据本发明示例性实施方式的用于数据处理的方法。需要注意的是,上述应用场景仅是为了便于理解本发明的精神和原理而示出,本发明的实施方式在此方面不受任何限制。相反,本发明的实施方式可以应用于适用的任何场景。
图2示意性地示出了根据本发明实施方式的数据处理方法的流程图。
如图2所示,该方法包括操作S201~S202。
在操作S201,基于第一模型的模型参数构建第二模型,其中,第一模型的模型参数是通过使用第一数据集训练第一模型而得到的。
在操作S202,使用第一数据集和第二数据集共同训练第二模型,其中,第二数据集与第一数据集不同。
根据本公开实施例,第一数据集可以包括多个已被标注的图像数据,例如,第一数据集S可以表示为{XS,YS},其中,XS可以表示图像数据,YS可以表示标注数据。其中,标注数据用于表征相应的图像数据所述的分类。例如,标注数据为1时可以表示相应的图像为广告图像,标注数据为0时可以表示相应的图像为非广告图像。
在本公开实施例中,可以以第一数据集作为样本数据训练第一模型,其中,第一模型例如可以是卷积神经网络。例如,利用第一数据集S训练深度卷积神经网络(DCNN),其损失函数可以表示为:
其中,x表示图像数据,y表示图像对应的标签,θ表示深度神经网络的参数,θC表示分类器的参数,k表示图像类别,pk表示分类器输出值。
根据本公开实施例,可以使用训练好的第一模型的模型参数作为初始权值构建第二模型,并使用第一数据集和第二数据集共同作为样本数据训练第二模型。本公开实施例中的第二数据集T包括已标注数据集和未标注数据集。未标注数据集包括图像数据。已标注数据集包括图像数据和标注数据,例如,已标注数据集可以表示为{XT,YT},其中,XT可以表示图像数据,YT可以表示标注数据。标注数据用于表征相应的图像数据所属的分类,例如,标注数据为1时可以表示相应的图像为广告图像,标注数据为0时可以表示相应的图像为非广告图像。
本公开实施例中的第二数据集中的已标注的图像数据占比可以小于10%。可以理解,本公开实施例仅需要对第二数据集中较少的数据进行标注即可完成对第二模型的训练,从而显著地减少了人工标注的投入,节省人力物力。
本公开实施例中的第二模型包括可以多个损失函数,基于多个损失函数优化第二模型,使第二模型收敛。可以理解,本公开实施例通过多个损失函数训练第二模型,提高了模型的识别效果。
下面参考图3描述根据本发明示例性实施方式的第二模型。
图3示意性地示出了根据本发明实施方式的第二模型的示意图。需要注意的是,图3所示仅为本公开的第二模型的示例,以帮助本领域技术人员理解本公开的技术内容,图3中的卷积层、全连接的数目仅仅是示意性的,本公开对此不做限制。
如图3所示,第二模型包括卷积神经网络、域分类器、第一软化单元和第二软化单元。
根据本公开的实施例,第二模型的卷积神经网络可以与第一模型相同或者类似,例如,可以采用第一模型的网络结构作为第二模型的卷积神经网络的基础框架。其中,卷积神经网络例如可以是VGG-16、AlexNet或者MobileNets等。例如,如图3所示,卷积神经网络可以包括10层卷积CONV1-CONV10,以及全连接fc10-fc12。
本公开实施例的第二模型的卷积神经网络的初始权值与第一模型的模型参数相对应。例如,第二模型的至少一个卷积层以及至少一个全连接的初始权值可以与第一模型的模型参数相对应。
根据本公开实施例,可以根据第一数据集和第二数据集构建至少一个图像Batch,每个图像Batch内第一数据集与第二数据集的数据量可以相同,基于每个Batch训练第二模型。
根据本公开实施例,卷积神经网络包括第一损失函数,至少基于第一损失函数优化第二模型,使得第二模型收敛。其中,第一损失函数可以表示为:
其中,xS表示第一数据集图像,yS表示第一数据集图像对应的标签,xT表示第二数据集图像,yT表示第二数据集图像对应的标签,θb表示深度神经网络的参数,θC表示第二模型的分类器的参数,k表示图像类别,pk表示分类器输出值。
如图3所示,第二模型还包括域分类器,本公开实施例基于第二损失函数构建域分类器,以及至少基于第二损失函数优化第二模型,使得第二模型收敛。
具体地,本公开实施例可以采用领域分类与领域混合技术,其目的分别在于:领域分类器能够根据数据特征,对数据所属领域进行区分;领域混合器,将不同领域的数据映射到同一特征空间,并在该特征空间中两者缩小差别,以此优化新模型参数能够提取具有领域不变性的特征。
其中,域分类器可以表示为θD,其损失函数为可以表示为:
其中,θb为第二模型的参数,yD表示样本所属的数据集,q为域分类器θD的Softmax输出值,其中,
根据本公开实施例,固定第二模型参数,利用第二模型提取的特征训练域分类器θD;并构建第二损失函数,其表达式可以为:
其中,xS表示第一数据集图像,xT表示第二数据集图像,D表示域的数量,在本发明中D设置为2。
基于图像Batch,训练第二模型的参数,同时优化直到收敛,从而基于第二损失函数构建域分类器。
如图3所示,第二模型还包括第一软化单元和第二软化单元,基于第一软化单元和第二软化单元构建第三损失函数,以及至少基于第三损失函数优化第二模型,使得第二模型收敛。
具体地,本公开可以在模型训练中采用软化多标签来替代传统分类任务中单一“硬”标签,即采用样本在多个类别上的概率分布来替代单一的“0”、“1”标签。
在本公开实施例中,第二软化单元利用第一模型对第一数据集中的每一类样本计算平均软化标签,其中第一数据集中的单张图像的软化标签的表达式为:
其中,τ为温度值参数,表示软化程度,i表示图像的索引,表示第一模型分类器的参数,表示第一数据集中第i张图像,θa表示第一模型的参数,计算得到第一数据集内每类的平均软化标签l。
在本公开实施例中,第一软化单元可以提取基于第二模型的软化标签p,其表达式为:
其中,τ为温度值参数,表示软化程度,表示第二模型的分类器的参数,xT表示第二数据集中的图像,θb表示第二模型的参数。
本公开实施例通过度量l和p两者之间的交叉熵,构建第三损失函数:
其中,xT表示第二数据集图像,yT表示第二数据集图像对应的标签,θb表示第二模型的参数,θC表示第二模型分类器的参数。
在本公开实施例中,训练第二模型包括对第一损失函数、第二损失函数以及第三损失函数赋予权重,基于赋予权重后的第一损失函数、第二损失函数以及第三损失函数优化第二模型,使得第二模型收敛。
例如,通过联合以上第一损失函数、第二损失函数以及第三损失函数加入训练中,同时优化各项任务,最终联合训练损失函数可以表示为:
L(xS,yS,xT,yT,θD;θb,θC)=LC(xS,yS,xT,yT;θb,θC)+λLconf(xS,xT,θD;θb)+υLsoft(xT,yT;θb,θC)
其中,λ与v为超参数,分别控制第二损失函数和第三损失函数的影响。
本公开实施例基于原始模型的模型参数构建新模型,并且使用原始样本数据集和新样本数据集共同训练新模型,实现了模型迁移,使得只需要对新样本数据集中较少的数据进行标注即可完成对新模型的训练,从而显著地减少了人工标注的投入,节省人力物力。
本公开实施例联合多个损失函数训练第二模型,提高了模型的识别效果。并且引入了域分类器以及软化标签单元,进一步提高了模型的识别效果。
本公开实施例提供的数据处理方法能够更好地适应变化多端的广告图像,快速面对黑灰产业者针对广告过滤业务的攻击,在有限人力标注投入的情况下提高整体的识别效果。
示例性介质
在介绍了本发明示例性实施方式的方法之后,接下来,参考图4对本发明示例性实施方式的、用于实现数据处理方法的计算机可读存储介质进行说明,该计算机可读存储介质上存储有可执行指令,所述指令在被处理器执行时实现上述方法实施例中任一项上述的数据处理方法。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的用于图表的数据处理方法中的步骤,例如,所述终端设备可以执行如图2中所示的步骤S201:基于第一模型的模型参数构建第二模型,第一模型的模型参数是通过使用第一数据集训练第一模型而得到的;步骤S202:使用第一数据集和第二数据集共同训练第二模型,其中,第二数据集与第一数据集不同。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
如图4所示,描述了根据本发明的实施方式的用于数据处理的程序产品40,其可以采用便携式紧凑盘只读存储器(CD-ROM)的形式,并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆,RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言——诸如Java,C++等,还包括常规的过程式程序设计语言——诸如“C”,语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络--包括局域网(LAN)或广域网(WAN)一连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
示例性装置
在介绍了本发明示例性实施方式的介质之后,接下来,参考图5对本发明示例性实施方式的数据处理装置进行说明。
图5示意性地示出了根据本发明实施方式的数据处理装置500的框图。
如图5所示,数据处理装置500可以包括模型构建模块510和模型训练模块520。
模型构建模块510基于第一模型的模型参数构建第二模型,第一模型的模型参数是通过使用第一数据集训练第一模型而得到的。
模型训练模块520使用第一数据集和第二数据集共同训练第二模型,其中,第二数据集与第一数据集不同。
根据本公开实施例,第二数据集包括已标注数据集和未标注数据集,未标注数据集包括图像数据,已标注数据集包括图像数据和标注数据,其中,标注数据用于表征相应的图像数据所属的分类。
根据本公开实施例,第二数据集中的已标注的图像数据占比小于10%。
根据本公开实施例,第二模型包括多个损失函数。训练第二模型包括:基于多个损失函数优化第二模型,使第二模型收敛。
根据本公开实施例,第二模型包括卷积神经网络,卷积神经网络包含第一损失函数。
根据本公开实施例,第二模型的卷积神经网络的初始权值与第一模型的模型参数相对应。
根据本公开实施例,第二模型还包括基于第二损失函数构建的域分类器。
根据本公开实施例,第二模型还包括第一软化单元和第二软化单元,基于第一软化单元和第二软化单元构建第三损失函数。
根据本公开实施例,基于多个损失函数优化第二模型,使第二模型收敛,包括:对第一损失函数、第二损失函数以及第三损失函数赋予权重,基于赋予权重后的第一损失函数、第二损失函数以及第三损失函数优化第二模型,使得第二模型收敛。
根据本公开实施例,数据处理装置500例如可以执行上文参考图2描述的方法,在此不再赘述。
模型构建模块510和模型训练模块520中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,模型构建模块510和模型训练模块520中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,模型构建模块510和模型训练模块520中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
本公开实施例基于原始模型的模型参数构建新模型,并且使用原始样本数据集和新样本数据集共同训练新模型,实现了模型迁移,使得只需要对新样本数据集中较少的数据进行标注即可完成对新模型的训练,从而显著地减少了人工标注的投入,节省人力物力。
本公开实施例联合多个损失函数训练第二模型,提高了模型的识别效果。并且引入了域分类器以及软化标签单元,进一步提高了模型的识别效果。
本公开实施例提供的数据处理方法能够更好地适应变化多端的广告图像,快速面对黑灰产业者针对广告过滤业务的攻击,在有限人力标注投入的情况下提高整体的识别效果。
示例性计算设备
在介绍了本发明示例性实施方式的方法、介质和装置之后,接下来,参考图6对本发明示例性实施方式的、用于实现数据处理方法和数据处理装置的计算设备进行说明。
本发明实施例还提供了一种计算设备。所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本发明的计算设备可以至少包括至少一个处理单元、以及至少一个存储单元。其中,所述存储单元存储有程序代码,当所述程序代码被所述处理单元执行时,使得所述处理单元执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的信息呈现方法中的步骤。例如,所述处理单元可以执行如图2中所示的步骤S201:基于第一模型的模型参数构建第二模型,第一模型的模型参数是通过使用第一数据集训练第一模型而得到的;步骤S202:使用第一数据集和第二数据集共同训练第二模型,其中,第二数据集与第一数据集不同。
下面参照图6来描述根据本发明的这种实施方式的用于数据处理的计算设备60。如图6所示的计算设备60仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算设备60以通用计算设备的形式表现。计算设备60的组件可以包括但不限于:上述至少一个处理单元601、上述至少一个存储单元602、连接不同系统组件(包括存储单元602和处理单元601)的总线603。
总线603表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储单元602可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)6021和/或高速缓存存储器6022,还可以进一步包括只读存储器(ROM)6023。
存储单元602还可以包括具有一组(至少一个)程序模块6024的程序/实用工具6025,这样的程序模块6024包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算设备60也可以与一个或多个外部设备604(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与计算设备60交互的设备通信,和/或与使得计算设备60能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口605进行。并且,计算设备60还可以通过网络适配器606与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器606通过总线603与计算设备60的其它模块通信。应当明白,尽管图中未示出,可以结合计算设备60使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了数据处理装置的若干单元/模块或子单元/子模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

Claims (10)

1.一种数据处理方法,包括:
基于第一模型的模型参数构建第二模型,所述第一模型的模型参数是通过使用第一数据集训练第一模型而得到的;
使用所述第一数据集和第二数据集共同训练所述第二模型,其中,所述第二数据集与第一数据集不同。
2.根据权利要求1所示的方法,其中,所述第二数据集包括已标注数据集和未标注数据集,所述未标注数据集包括图像数据,所述已标注数据集包括图像数据和标注数据,其中,所述标注数据用于表征相应的图像数据所属的分类。
3.根据权利要求2所示的方法,其中,所述第二数据集中的已标注的图像数据占比小于10%。
4.根据权利要求1所示的方法,其中:
所述第二模型包括多个损失函数;
所述训练第二模型包括:基于所述多个损失函数优化所述第二模型,使所述第二模型收敛。
5.根据权利要求4所示的方法,其中,所述第二模型包括卷积神经网络,所述卷积神经网络包含第一损失函数。
6.根据权利要求5所示的方法,其中,所述第二模型的卷积神经网络的初始权值与所述第一模型的模型参数相对应。
7.根据权利要求5所示的方法,其中,所述第二模型还包括基于第二损失函数构建的域分类器。
8.一种数据处理装置,包括:
模型构建模块,基于第一模型的模型参数构建第二模型,所述第一模型的模型参数是通过使用第一数据集训练第一模型而得到的;
模型训练模块,使用所述第一数据集和第二数据集共同训练所述第二模型,其中,所述第二数据集与第一数据集不同。
9.一种计算设备,包括:
一个或多个存储器,存储有可执行指令;以及
一个或多个处理器,执行所述可执行指令,以实现根据权力要求1~7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,所述指令在被处理器执行时实现根据权利要求1~7中任一项所述的方法。
CN201810391331.0A 2018-04-27 2018-04-27 数据处理方法、装置、计算设备和介质 Active CN108564134B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810391331.0A CN108564134B (zh) 2018-04-27 2018-04-27 数据处理方法、装置、计算设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810391331.0A CN108564134B (zh) 2018-04-27 2018-04-27 数据处理方法、装置、计算设备和介质

Publications (2)

Publication Number Publication Date
CN108564134A true CN108564134A (zh) 2018-09-21
CN108564134B CN108564134B (zh) 2021-07-06

Family

ID=63537064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810391331.0A Active CN108564134B (zh) 2018-04-27 2018-04-27 数据处理方法、装置、计算设备和介质

Country Status (1)

Country Link
CN (1) CN108564134B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711545A (zh) * 2018-12-13 2019-05-03 北京旷视科技有限公司 网络模型的创建方法、装置、系统和计算机可读介质
SE1951443A1 (en) * 2019-12-12 2021-06-13 Assa Abloy Ab Improving machine learning for monitoring a person
WO2023092959A1 (zh) * 2021-11-23 2023-06-01 上海商汤智能科技有限公司 图像分割方法及其模型的训练方法及相关装置、电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110320387A1 (en) * 2010-06-28 2011-12-29 International Business Machines Corporation Graph-based transfer learning
CN106529565A (zh) * 2016-09-23 2017-03-22 北京市商汤科技开发有限公司 目标识别模型训练和目标识别方法及装置、计算设备
CN106531157A (zh) * 2016-10-28 2017-03-22 中国科学院自动化研究所 语音识别中的正则化口音自适应方法
US9740956B2 (en) * 2015-06-29 2017-08-22 Beihang University Method for object segmentation in videos tagged with semantic labels
CN107392125A (zh) * 2017-07-11 2017-11-24 中国科学院上海高等研究院 智能模型的训练方法/系统、计算机可读存储介质及终端
CN107895367A (zh) * 2017-11-14 2018-04-10 中国科学院深圳先进技术研究院 一种骨龄识别方法、系统及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110320387A1 (en) * 2010-06-28 2011-12-29 International Business Machines Corporation Graph-based transfer learning
US9740956B2 (en) * 2015-06-29 2017-08-22 Beihang University Method for object segmentation in videos tagged with semantic labels
CN106529565A (zh) * 2016-09-23 2017-03-22 北京市商汤科技开发有限公司 目标识别模型训练和目标识别方法及装置、计算设备
CN106531157A (zh) * 2016-10-28 2017-03-22 中国科学院自动化研究所 语音识别中的正则化口音自适应方法
CN107392125A (zh) * 2017-07-11 2017-11-24 中国科学院上海高等研究院 智能模型的训练方法/系统、计算机可读存储介质及终端
CN107895367A (zh) * 2017-11-14 2018-04-10 中国科学院深圳先进技术研究院 一种骨龄识别方法、系统及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
许夙晖 等: "结合对抗网络与辅助任务的遥感影像无监督域适应方法", 《测绘学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711545A (zh) * 2018-12-13 2019-05-03 北京旷视科技有限公司 网络模型的创建方法、装置、系统和计算机可读介质
SE1951443A1 (en) * 2019-12-12 2021-06-13 Assa Abloy Ab Improving machine learning for monitoring a person
WO2023092959A1 (zh) * 2021-11-23 2023-06-01 上海商汤智能科技有限公司 图像分割方法及其模型的训练方法及相关装置、电子设备

Also Published As

Publication number Publication date
CN108564134B (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
WO2020199693A1 (zh) 一种大姿态下的人脸识别方法、装置及设备
CN109919316A (zh) 获取网络表示学习向量的方法、装置和设备及存储介质
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN107451653A (zh) 深度神经网络的计算方法、装置及可读存储介质
CN109446517A (zh) 指代消解方法、电子装置及计算机可读存储介质
CN109754068A (zh) 基于深度学习预训练模型的迁移学习方法及终端设备
WO2023185785A1 (zh) 一种图像处理方法、模型训练方法及相关装置
CN109816032A (zh) 基于生成式对抗网络的无偏映射零样本分类方法和装置
CN108564134A (zh) 数据处理方法、装置、计算设备和介质
CN104346408B (zh) 一种对网络用户进行标注的方法与设备
CN107657056A (zh) 基于人工智能展示评论信息的方法和装置
CN109783624A (zh) 基于知识库的答案生成方法、装置和智能会话系统
CN110457677A (zh) 实体关系识别方法及装置、存储介质、计算机设备
CN110163205A (zh) 图像处理方法、装置、介质和计算设备
CN108319888A (zh) 视频类型的识别方法及装置、计算机终端
WO2023159755A1 (zh) 虚假新闻检测方法、装置、设备及存储介质
CN113408570A (zh) 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端
CN109583367A (zh) 图像文本行检测方法及装置、存储介质和电子设备
CN106778851A (zh) 基于手机取证数据的社交关系预测系统及其方法
CN110110213A (zh) 挖掘用户职业的方法、装置、计算机可读存储介质和终端设备
CN107729931A (zh) 图片评分方法和装置
Ren et al. A novel deep learning method for application identification in wireless network
CN114445684A (zh) 车道线分割模型的训练方法、装置、设备及存储介质
CN114169938A (zh) 信息推送方法、装置、设备及存储介质
CN112069412B (zh) 信息推荐方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant