CN109523018B - 一种基于深度迁移学习的图片分类方法 - Google Patents

一种基于深度迁移学习的图片分类方法 Download PDF

Info

Publication number
CN109523018B
CN109523018B CN201910016242.2A CN201910016242A CN109523018B CN 109523018 B CN109523018 B CN 109523018B CN 201910016242 A CN201910016242 A CN 201910016242A CN 109523018 B CN109523018 B CN 109523018B
Authority
CN
China
Prior art keywords
domain
loss
model
data
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910016242.2A
Other languages
English (en)
Other versions
CN109523018A (zh
Inventor
王进
王科
李林洁
杨俏
孙开伟
刘彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Kuaimai Technology Co.,Ltd.
Yami Technology Guangzhou Co ltd
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201910016242.2A priority Critical patent/CN109523018B/zh
Publication of CN109523018A publication Critical patent/CN109523018A/zh
Application granted granted Critical
Publication of CN109523018B publication Critical patent/CN109523018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明请求保护一种基于深度迁移学习的图片分类方法,其中,所述的领域适应至少包含两个领域的数据,分别为源域和目标域,并且源域数据为已标记的样本数据.所述方法主要包括以下步骤:步骤1)数据准备阶段.准备源域数据和目标域数据,确定目标类别集合.步骤2)特征提取模型构建阶段.使用ResNet和自注意力网络构建基础特征提取模型.步骤3)领域对抗模型构建阶段.使用领域对抗模型预测样本类别和样本领域;步骤4)训练阶段.对源域和目标域样本进行领域标记,设置基于样本迁移权重的损失函数.步骤5)预测阶段.对目标域数据进行预测,将类别预测结果作为最终结果.本发明降低标记成本,达到知识迁移的目的。

Description

一种基于深度迁移学习的图片分类方法
技术领域
本发明属于计算机信息处理技术领域,具体涉及人工智能及大数据处理相关领域。
背景技术
随着数据规模和计算资源的日益增长,大数据处理技术也经历着高速的发展.机器学习作为大数据处理技术的有效工具之一,在大数据处理技术中发挥着关键作用,监督学习是机器学习中的一个重要分支,其特点是包含标记信息的学习,在现实生活中,某些任务的标记往往是难以获得的,例如图片数据,需要大量的人力进行标记,现有最大的已标记的图片数据集为ImageNet,包含1500万张已有标记的图片数据.其标记任务由167个国家的48940位工作人员,使用了2年时间完成.因此如何降低标记成本是监督学习的一个主要挑战,使用其他领域已标记的样本数据向目标领域进行领域适应是降低标记成本的有效方法,因此,领域适应也是近期较为火热的技术之一。
在电商系统中,图片是展示产品的主要方法,但是对于电商图片的分类需要大量的标记工作,如何不依赖额外的标记工作,利用其他领域已标记的数据,对电商图片进行分类,达到无标记学习的目的,正是本发明将要解决的问题,另外,本发明不仅仅限于电商图片的分类,对于有相同目标类别的图片分类任务,都可适用。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种解决图片分类中无标记分类问题的基于深度迁移学习的图片分类方法。本发明的技术方案如下:
一种基于深度迁移学习的图片分类方法,其包括以下步骤:
步骤1、数据准备阶段:获取目标域数据,并确定相应的目标类别集合,获取已标记有目标类别的数据,作为源域数据;
步骤2、特征提取模型构建阶段:使用ResNet构建模型基础网络,提取基础特征;将ResNet的输出连接到一个自注意力网络,增强图片的结构信息,减少颜色及纹理对类别的影响;将步骤1准备的数据输入到步骤2的特征提取模型,提取图片的特征,输出特征向量;
步骤3、领域对抗模型构建阶段:将步骤2输出的特征输入到步骤3的领域对抗模型,输出预测的领域及该图片的类别,将特征提取模型的输出连接到一个预测目标类别的全连接层,得到预测的类别信息,将预测的类别信息与特征提取模型的输出进行拼接,输入至领域判别的全连接层,并通过梯度取反逆向更新领域判别全连接层的参数;
步骤4、训练阶段:将源域和目标域数据进行领域标记,使用源域、目标域的领域预测结果分别计算出迁移权重和迁移损失,使用源域的类别预测结果计算出分类损失,将迁移损失和分类损失的和作为反向传播的损失更新模型;
步骤5、预测阶段:将目标域的数据输入模型,将类别输出作为最终的预测结果。
进一步的,所述步骤1数据准备阶段:获取目标域数据,并确定相应的目标类别集合,获取已标记有目标类别的数据,作为源域数据,具体包括:
确定待分类的服装商品图片样本集作为目标域样本数据集Dtarget,确定将要分为的类别集合C,其中包含的主要类别为<sweet,wet,shirt,...>,下载ImageNet数据集,并选择其中含有Clothing标记的图片样本集合,作为已有标记的源域样本数据集Dsource,并将Dsource按照样本的类别标记为文件夹名称分别保存。
进一步的,所述步骤2特征提取模型构建阶段的具体操作包括:使用预训练的含有101层的ResNet模型作为基础的特征提取模型,去除ResNet最后一层全连接层,替换为一个包含2048个神经元的自注意力网络,用来增强图片的全局结构特征,注意力网络的注意力权重计算公式如下,其中,x为图片样本,f(x)为ResNet的输出,i、j表示坐标位置,表示第i个位置对于第j个位置的关注度;
Figure BDA0001939164540000031
其中
Figure BDA0001939164540000032
特征提取模型的输出为注意力网络加权在ResNet模型上的输出,其计算公式如下;同样,f(x)为ResNet的输出,β为上式所计算出的关注度参数,得到的F(x)为特征提取模型的输出.
F(x)out=f(x)·β
模型训练参数设置为(batch_size:64,iteration:50000),优化器参数设置为(learning_rate:0.01,momentum:0.8,weight_decay:0.00001,gamma:3).
进一步的,所述步骤3领域适应模型构建阶段的具体操作包括:将特征提取模型的输出连接至一个类别预测的全连接层,其中,该全连接层的神经元个数为类别集合元素数,并对全连接层的输出进行softmax归一化,得到预测的类别概率;
将预测的类别概率与特征提取模型的输出进行横向拼接,此时的单个样本包含两个部分,其一是特征提取模型输出的特征,其二是模型预测的类别概率,将拼接结果作为新的特征输入至包含一个神经元的领域判别的全连接层,并通过梯度取反逆向更新领域判别的全连接层的参数,梯度取反逆向更新计算公式如下所示,其中θ为模型的参数,Δ为损失函数对于θ的导数,t为迭代次数,ɑ为更新步长;
θt+1=θt+αΔ
新增全连接层的参数均使用均匀分布进行初始化,初始化方差设置为30.5,模型的输出包含两个部分,一部分为softmax输出的预测类别,另一部分是领域判别的全连接层输出的预测领域。
进一步的,所述步骤4模型的运行阶段具体包括:将源域和目标域数据进行领域标记,标记源域的领域标记为1,目标域的领域标记为0,将源域的数据输入到模型中,预测出类别标记和领域标记,使用源域预测出的类别标记与源域的真实的类别标记计算出关于类别学习的损失,类别学习损失计算公式如下,x表示特征提取模型的输出,class表示真实的标记,j表示类别索引;
Figure BDA0001939164540000041
对源域和目标域的批数据进行纵向拼接,构成混合域数据,使用混合域预测出的领域标记与混合域真实的领域标记计算出关于领域判别的损失,领域判别损失的计算公式如下,其中x表示模型的输出,y表示真实的领域标记.
loss(x,y)d。main=-[y·10gx+(1-y)·log(1-x)]
对于每个样本,存在不同的迁移性,通过对抗模型的预测结果得出样本的迁移权重,其迁移权重计算公式如下,其中x为领域对抗模型预测的结果,函数H为熵.
weight=0.5+H(x)
因此,模型的反向传播的误差包含两个方面,一方面为通过迁移权重进行加权的源域分类损失,另一方面为源域和目标域的领域迁移损失,将两方面的损失进行求和,作为反向传播所用的损失,用来更新模型参数,拟合模型,其计算公式如下,其中,weight是计算出的样本迁移权重,x是特征提取模型的输出,class是图片真实标记,y是图片预测的标记,lossclass为分类损失,lossdomain为迁移损失.
lossbackward=weight·loss(x,class)class+loss(x,y)domain
附图说明
图1是本发明提供优选实施例一种基于深度迁移学习的图片分类方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
图1为本发明提供的一种基于深度迁移学习的图片分类方法的流程图,具体包括:
数据准备阶段.确定待要分类的服装商品图片样本集作为目标域样本数据集Dtarget,确定将要分为的类别集合C,其中包含的主要类别为<sweet,wet,shirt,...>,下载ImageNet数据集,并选择其中含有Clothing标记的图片样本集合,作为已有标记的源域样本数据集Dsource,并将Dsource按照样本的类别标记为文件夹名称分别保存.
特征提取模型构建阶段.使用预训练的ResNet50模型作为基础的特征提取模型,去除ResNet50最后的全连接层,替换为一个自注意力网络来提取图片的全局结构特征,特征提取模型的输出为OutResNet50.
领域适应模型构建阶段.将特征提取模型的输出OutResNet50连接至一个类别预测的全连接层Layerc,并对全连接层Layerc的输出OutLayer_c进行Softmax归一化,得到预测的类别概率Probabilityc.将预测的类别概率Probabilityc与特征提取模型的输出OutResNet50进行拼接,作为新的特征量Outcombine输入至领域判别的全连接层Layerdomain,并通过梯度取反逆向更新领域判别的全连接层的参数.因此,模型的输出包含两个部分,一部分为Softmax输出的预测类别Probabilityc,另一部分是领域判别的全连接层输出的预测领域Probabilitydomain.
模型的运行阶段.将源域和目标域数据进行领域标记,标记源域的领域标记全为1,目标域的领域标记全为0.将源域的数据Dsource输入到模型中,预测出类别标记Probabilityc和领域标记Probabilitydomain_source.使用源域预测出的类别标记与源域的真实的类别标记计算出关于类别学习的损失Lossc_source;使用源域预测出的领域标记与源域真实的领域标记计算出关于领域判别的损失Lossdomain_source.将目标域的数据Dtarget输入到模型,预测出目标域的类别标记和领域标记,并计算目标域的领域判别损失Lossdomain_target.将源域和目标域的领域判别损失求和作为领域判别的损失Lossdomain.因此反向传播的误差包含两个方面,一方面为类别标记的拟合损失,另一方面为源域和目标域的领域判别损失,将两方面的损失进行求和,作为反向传播所用的损失Losstotal,用来更新模型参数,拟合模型.
6.模型的测试阶段.使用测试样本集合Dtarget输入到训练好的模型中,仅获取输出的类别标记Probabilityc为模型最终的预测类别结果。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (4)

1.一种基于深度迁移学习的图片分类方法,其特征在于,包括以下步骤:
步骤1、数据准备阶段:获取目标域数据,并确定相应的目标类别集合,获取已标记有目标类别的数据,作为源域数据;
步骤2、特征提取模型构建阶段:使用ResNet构建模型基础网络,提取基础特征;将ResNet的输出连接到一个自注意力网络,增强图片的结构信息,减少颜色及纹理对类别的影响;将步骤1准备的数据输入到步骤2的特征提取模型,提取图片的特征,输出特征向量;
步骤3、领域对抗模型构建阶段:将步骤2输出的特征输入到步骤3的领域对抗模型,输出预测的领域及该图片的类别,将特征提取模型的输出连接到一个预测目标类别的全连接层,得到预测的类别信息,将预测的类别信息与特征提取模型的输出进行拼接,输入至领域判别的全连接层,并通过梯度取反逆向更新领域判别全连接层的参数;
步骤4、训练阶段:将源域和目标域数据进行领域标记,使用源域、目标域的领域预测结果分别计算出迁移权重和迁移损失,使用源域的类别预测结果计算出分类损失,将迁移损失和分类损失的和作为反向传播的损失更新模型;
步骤5、预测阶段:将目标域的数据输入模型,将类别输出作为最终的预测结果;
所述步骤4模型的训练阶段具体包括:将源域和目标域数据进行领域标记,标记源域的领域标记为1,目标域的领域标记为0,将源域的数据输入到模型中,预测出类别标记和领域标记,使用源域预测出的类别标记与源域的真实的类别标记计算出关于类别学习的损失,类别学习损失计算公式如下,x表示源域预测的类别标记,class表示源域真实类别标记,j表示类别索引;
Figure FDA0003772182190000011
对源域和目标域的批数据进行纵向拼接,构成混合域数据,使用混合域预测出的领域标记与混合域真实的领域标记计算出关于领域判别的损失,领域判别损失的计算公式如下,其中x表示混合域预测的领域标记,y表示混合域真实的领域标记;
loss(x,y)domain=-[y·logx+(1-y)·log(1-x)]
对于每个样本,存在不同的迁移性,通过对抗模型的预测结果得出样本的迁移权重,其迁移权重计算公式如下,其中x为源域的领域对抗模型预测的结果,函数H为熵.
weight=0.5+H(x)
因此,模型的反向传播的误差包含两个方面,一方面为通过迁移权重进行加权的源域分类损失,另一方面为源域和目标域的领域迁移损失,将两方面的损失进行求和,作为反向传播所用的损失,用来更新模型参数,拟合模型,其计算公式如下,其中,weight是计算出的样本迁移权重,loss(x,class)class中,x表示源域预测的类别标记,class表示源域真实类别标记,loss(x,y)domain中,x表示混合域预测的领域标记,y表示混合域真实的领域标记;lossclass为分类损失,lossdomain为迁移损失;
lossbackward=weight·loss(x,class)class+loss(x,y)domain
2.根据权利要求1所述的一种基于深度迁移学习的图片分类方法,其特征在于,所述步骤1数据准备阶段:获取目标域数据,并确定相应的目标类别集合,获取已标记有目标类别的数据,作为源域数据,具体包括:
确定待分类的服装商品图片样本集作为目标域样本数据集Dtarget,确定将要分为的类别集合C,其中包含的类别为<sweet,wet,shirt,...>,下载ImageNet数据集,并选择其中含有Clothing标记的图片样本集合,作为已有标记的源域样本数据集Dsource,并将Dsource按照样本的类别标记为文件夹名称分别保存。
3.根据权利要求1所述的一种基于深度迁移学习的图片分类方法,其特征在于,所述步骤2特征提取模型构建阶段的具体操作包括:使用预训练的含有101层的ResNet模型作为基础的特征提取模型,去除ResNet最后一层全连接层,替换为一个包含2048个神经元的自注意力网络,用来增强图片的全局结构特征,注意力网络的注意力权重计算公式如下,其中,x为图片样本,f(x)为ResNet的输出,i、j表示坐标位置,表示第i个位置对于第j个位置的关注度;
Figure FDA0003772182190000031
其中
Figure FDA0003772182190000032
特征提取模型的输出为注意力网络加权在ResNet模型上的输出,其计算公式如下;同样,f(x)为ResNet的输出,β为上式所计算出的关注度参数,得到的F(x)为特征提取模型的输出;
F(x)out=f(x)·β
模型训练参数设置为(batch_size:64,iteration:50000),优化器参数设置为(learning_rate:0.01,momentum:0.8,weight_decay:0.00001,gamma:3)。
4.根据权利要求3所述的一种基于深度迁移学习的图片分类方法,其特征在于,所述步骤3领域适应模型构建阶段的具体操作包括:将特征提取模型的输出连接至一个类别预测的全连接层,其中,该全连接层的神经元个数为类别集合元素数,并对全连接层的输出进行softmax归一化,得到预测的类别概率;
将预测的类别概率与特征提取模型的输出进行横向拼接,此时的单个样本包含两个部分,其一是特征提取模型输出的特征,其二是模型预测的类别概率,将拼接结果作为新的特征输入至包含一个神经元的领域判别的全连接层,并通过梯度取反逆向更新领域判别的全连接层的参数,梯度取反逆向更新计算公式如下所示,其中θ为模型的参数,Δ为损失函数对于θ的导数,t为迭代次数,ɑ为更新步长;
θt+1=θt+αΔ
新增全连接层的参数均使用均匀分布进行初始化,初始化方差设置为30.5,模型的输出包含两个部分,一部分为softmax输出的预测类别,另一部分是领域判别的全连接层输出的预测领域。
CN201910016242.2A 2019-01-08 2019-01-08 一种基于深度迁移学习的图片分类方法 Active CN109523018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910016242.2A CN109523018B (zh) 2019-01-08 2019-01-08 一种基于深度迁移学习的图片分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910016242.2A CN109523018B (zh) 2019-01-08 2019-01-08 一种基于深度迁移学习的图片分类方法

Publications (2)

Publication Number Publication Date
CN109523018A CN109523018A (zh) 2019-03-26
CN109523018B true CN109523018B (zh) 2022-10-18

Family

ID=65799117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910016242.2A Active CN109523018B (zh) 2019-01-08 2019-01-08 一种基于深度迁移学习的图片分类方法

Country Status (1)

Country Link
CN (1) CN109523018B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831949B (zh) * 2019-04-22 2023-09-15 百度在线网络技术(北京)有限公司 快速垂类目标识别分类方法、分类系统及分类装置
CN110188822B (zh) * 2019-05-30 2023-07-25 盐城工学院 一种域对抗自适应一维卷积神经网络智能故障诊断方法
CN110349095B (zh) * 2019-06-14 2021-08-27 浙江大学 基于深度迁移学习预测波前泽尼克系数的自适应光学波前补偿方法
CN110413840B (zh) * 2019-07-10 2022-12-06 网易(杭州)网络有限公司 一种构造对视频确定标签的神经网络及其训练的方法
CN110489661B (zh) * 2019-07-24 2022-04-26 武汉大学 一种基于生成对抗网络和迁移学习的社交关系预测方法
CN110490242B (zh) * 2019-08-12 2024-03-29 腾讯医疗健康(深圳)有限公司 图像分类网络的训练方法、眼底图像分类方法及相关设备
CN112446239A (zh) * 2019-08-29 2021-03-05 株式会社理光 神经网络的训练及目标检测方法、设备及存储介质
CN110555060B (zh) * 2019-09-09 2023-05-02 山东省计算中心(国家超级计算济南中心) 基于成对样本匹配的迁移学习方法
CN110705406B (zh) * 2019-09-20 2022-11-15 五邑大学 基于对抗迁移学习的人脸美丽预测方法及装置
CN110659744B (zh) * 2019-09-26 2021-06-04 支付宝(杭州)信息技术有限公司 训练事件预测模型、评估操作事件的方法及装置
CN111242157A (zh) * 2019-11-22 2020-06-05 北京理工大学 联合深度注意力特征和条件对抗的无监督域自适应方法
CN111060318B (zh) * 2020-01-09 2021-12-28 山东科技大学 一种基于深度对抗迁移网络的轴承故障诊断方法
CN111401454A (zh) * 2020-03-19 2020-07-10 创新奇智(重庆)科技有限公司 一种基于迁移学习的少样本目标识别方法
CN112749734B (zh) * 2020-12-29 2024-01-05 北京环境特性研究所 一种基于可迁移注意力机制的领域自适应的目标检测方法
CN112861879B (zh) * 2021-02-23 2022-11-01 中国科学院计算技术研究所 基于双重迁移的认知障碍辅助决策支持方法和系统
CN114648044B (zh) * 2022-03-18 2023-04-07 江苏迪普勒信息科技有限公司 基于eemd和深度域对抗网络的振动信号诊断分析方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582813A (zh) * 2009-06-26 2009-11-18 西安电子科技大学 基于分布式迁移网络学习的入侵检测系统及其方法
CN102521656A (zh) * 2011-12-29 2012-06-27 北京工商大学 非平衡样本分类的集成迁移学习方法
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN108257116A (zh) * 2017-12-30 2018-07-06 清华大学 一种生成对抗图像的方法
CN108256561A (zh) * 2017-12-29 2018-07-06 中山大学 一种基于对抗学习的多源域适应迁移方法及系统
CN109102498A (zh) * 2018-07-13 2018-12-28 华南理工大学 一种宫颈涂片图像中簇型细胞核分割的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242292B2 (en) * 2017-06-13 2019-03-26 Digital Surgery Limited Surgical simulation for training detection and classification neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582813A (zh) * 2009-06-26 2009-11-18 西安电子科技大学 基于分布式迁移网络学习的入侵检测系统及其方法
CN102521656A (zh) * 2011-12-29 2012-06-27 北京工商大学 非平衡样本分类的集成迁移学习方法
CN108256561A (zh) * 2017-12-29 2018-07-06 中山大学 一种基于对抗学习的多源域适应迁移方法及系统
CN108257116A (zh) * 2017-12-30 2018-07-06 清华大学 一种生成对抗图像的方法
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN109102498A (zh) * 2018-07-13 2018-12-28 华南理工大学 一种宫颈涂片图像中簇型细胞核分割的方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
"Adversarial Discriminative Domain Adaptation";E Tzeng等;《arxiv》;20171231;第1-10页 *
"Conditional adversarial domain adaptation";Long Mingsheng等;《Proceedings of the 32nd Conference on Neural Information Processing Systems》;20181231;第1647-1657页 *
"Conditional Generative Adversarial Network for Structured Domain Adaptation";Weixiang Hong等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20180630;第1-10页 *
"Importance Weighted import Vector Machine for Unsupervised Domain Adaptation";Khalighi S等;《IEEE Transactions on cybernetics》;20161231;第1-13页 *
"Mind the class Weight Bisa:Weighted Maximum Mean Discrepancy for Unsupervised Domain Adaptation";Yan H等;《IEEE Conference on Computer Vision and Pattern Recognition》;20171231;第945-954页 *
"域自适应学习研究进展";刘建伟等;《自动化学报》;20140831;第40卷(第8期);第1576-1600页 *
"基于条件深度卷积生成对抗网络的图像识别方法";唐贤伦等;《自动化学报》;20180531;第44卷(第5期);第855-864页 *
"局部标记关系的多标记迁移学习算法";刘昊天等;《小型微型计算机系统》;20170731;第38卷(第7期);第1598-1600页 *
"迁移学习研究和算法综述";刘鑫鹏等;《长沙大学学报》;20180930;第32卷(第5期);第28-36页 *

Also Published As

Publication number Publication date
CN109523018A (zh) 2019-03-26

Similar Documents

Publication Publication Date Title
CN109523018B (zh) 一种基于深度迁移学习的图片分类方法
CN111368920B (zh) 基于量子孪生神经网络的二分类方法及其人脸识别方法
CN106778804A (zh) 基于类别属性迁移学习的零样本图像分类方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN112308115B (zh) 一种多标签图像深度学习分类方法及设备
CN112884551B (zh) 一种基于近邻用户和评论信息的商品推荐方法
CN108763556A (zh) 基于需求词的用户挖掘方法及装置
CN111582538A (zh) 一种基于图神经网络的社群价值预测方法及系统
CN110110372B (zh) 一种用户时序行为自动切分预测方法
CN111126576A (zh) 一种深度学习的新型训练策略
CN113010683B (zh) 基于改进图注意力网络的实体关系识别方法及系统
CN109787821A (zh) 一种大规模移动客户流量消费智能预测方法
CN110289987B (zh) 基于表征学习的多智能体系统网络抗攻击能力评估方法
CN116310647A (zh) 一种基于增量学习的劳保物品目标检测方法及系统
Alhady et al. Butterfly species recognition using artificial neural network
Li et al. Evolving deep gated recurrent unit using improved marine predator algorithm for profit prediction based on financial accounting information system
CN114880482A (zh) 一种基于图嵌入的关系图谱关键人员分析方法及系统
Lo Predicting software reliability with support vector machines
CN115841557B (zh) 基于数字孪生技术的智能起重机操作环境构建方法
Bi et al. Critical direction projection networks for few-shot learning
CN113408652B (zh) 基于群表示特征的半监督学习图像分类方法
CN112784927B (zh) 一种基于在线学习的半自动图像标注方法
CN114818849A (zh) 基于大数据信息的卷积神经网络和遗传算法的反窃电方法
Beheshtifar Identification of landslide-prone zones using a GIS-based multi-criteria decision analysis and region-growing algorithm in uncertain conditions
CN113361652A (zh) 一种面向个体收入预测的去偏方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230419

Address after: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province

Patentee after: Yami Technology (Guangzhou) Co.,Ltd.

Address before: 400065 Chongwen Road, Nanshan Street, Nanan District, Chongqing

Patentee before: CHONGQING University OF POSTS AND TELECOMMUNICATIONS

Effective date of registration: 20230419

Address after: No.8-5 Fukang Road, Xinmu Community, Pinghu Street, Longgang District, Shenzhen City, Guangdong Province, 518000, 607

Patentee after: Shenzhen Kuaimai Technology Co.,Ltd.

Address before: Room 801, 85 Kefeng Road, Huangpu District, Guangzhou City, Guangdong Province

Patentee before: Yami Technology (Guangzhou) Co.,Ltd.

TR01 Transfer of patent right