CN111222471B - 基于自监督域感知网络的零样本训练及相关分类方法 - Google Patents

基于自监督域感知网络的零样本训练及相关分类方法 Download PDF

Info

Publication number
CN111222471B
CN111222471B CN202010021866.6A CN202010021866A CN111222471B CN 111222471 B CN111222471 B CN 111222471B CN 202010021866 A CN202010021866 A CN 202010021866A CN 111222471 B CN111222471 B CN 111222471B
Authority
CN
China
Prior art keywords
domain
visual
image
features
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010021866.6A
Other languages
English (en)
Other versions
CN111222471A (zh
Inventor
张勇东
张天柱
伍佳敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202010021866.6A priority Critical patent/CN111222471B/zh
Publication of CN111222471A publication Critical patent/CN111222471A/zh
Application granted granted Critical
Publication of CN111222471B publication Critical patent/CN111222471B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自监督域感知网络的零样本训练及相关分类方法,通过自监督学习的方式充分挖掘源域和目标域之间的关系,减少因目标域数据挖掘不充分而导致的域偏差;该方法通过以agent(参考代理)作为桥梁连接所有类别建立联合的嵌入空间,学习域感知的视觉特征,具备更强的知识迁移和泛化能力;该方法基于端到端的神经网络,速度快,精度高,达到了目前最好的零样本识别结果。

Description

基于自监督域感知网络的零样本训练及相关分类方法
技术领域
本发明涉及人工智能与图像分类技术领域,尤其涉及一种基于自监督域感知网络的零样本训练及相关分类方法。
背景技术
随着深度学习技术的发展和海量训练数据的涌现,有监督目标识别已经取得突破性进展。然而,标注和收集图片数据十分耗费人力和时力,一些少见的类别,例如濒危动物,其图像资料是难以获得、极其珍贵的。在细粒度图像识别中,不同类别的细微差别依赖于专家知识来鉴别。现有的物体识别算法无法应对这一系列数据稀缺的场景。
零样本学习是一类专门用于识别未见类别物体的算法,适用于少样本甚至零样本的目标识别。大多数零样本学习方法借助针对每一种类别描述的语义信息(如属性向量、词嵌入向量和文本描述等)实现从已见类别到未见类别间的知识迁移,通过构建视觉语义的跨模态联合嵌入空间将零样本识别转化为最近邻搜索问题。
作为一类更加符合实际场景的方法,通用型零样本学习旨在同时识别源域中的已见类别和目标域中的未见类别。然而,传统的零样本识别受限于知识迁移能力的不足,无法充分挖掘目标域的数据分布,容易在源域数据上过拟合。这导致了偏向源域的强偏置问题,即训练时未见过的类别很有可能被识别为训练时已经见过的类别中的一种。
发明内容
本发明的目的是提供一种基于自监督域感知网络的零样本训练及相关分类方法,可以有效地减少通用型零样本识别中的域偏差问题,最终实现针对所有类别的更精确的综合判断。
本发明的目的是通过以下技术方案实现的:
一种基于自监督域感知网络的零样本训练方法,包括:
对于输入图像以及各类别的属性向量,通过视觉提取模块与语义嵌入模块对应地提取视觉增强特征与语义嵌入特征;通过深度网络计算视觉增强特征与语义嵌入特征的相似度,并与已知的输入图像和各类别对应关系,建立视觉语义对齐损失函数;所述输入图像包含了源域图像与目标域图像;
利用编码了源域图像与目标域图像共享的视觉信息的多属性分类器的权重参数作为参考代理,并基于参考代理来重构源域图像与目标域图像的视觉增强特征;基于不同域图像的重构特征间的相似性,小于相同域图像的重构特征和其视觉增强特征之间的相似性的自监督信息,建立自监督学习的跨域三元组损失函数;
基于视觉语义对齐损失函数与自监督学习的跨域三元组损失函数训练域感知网络,并反馈给视觉提取模块,使得视觉提取模块提取出域感知的视觉增强特征。
由上述本发明提供的技术方案可以看出,通过自监督学习的方式充分挖掘源域和目标域之间的关系,减少因目标域数据挖掘不充分而导致的域偏差;该方法通过以agent(参考代理)作为桥梁连接所有类别建立联合的嵌入空间,学习域感知的视觉特征,具备更强的知识迁移和泛化能力;该方法基于端到端的神经网络,速度快,精度高,达到了目前最好的零样本识别结果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种基于自监督域感知网络的零样本训练方法的流程图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种基于自监督域感知网络的零样本训练方法,如图1所示,该方法主要包括如下两部分:
一、用于跨模态映射的视觉语义对齐机制。
对于输入图像以及各类别的属性向量,通过视觉提取模块与语义嵌入模块对应地提取视觉增强特征与语义嵌入特征;通过深度网络计算视觉增强特征与语义嵌入特征的相似度,并与已知的输入图像和各类别对应关系,建立视觉语义对齐损失函数。
二、基于自监督学习的跨域三元组挖掘机制。
利用编码了源域图像与目标域图像共享的视觉信息的多属性分类器的权重参数作为参考代理,并基于参考代理来重构源域图像与目标域图像的视觉增强特征;基于不同域图像的重构特征间的相似性,小于相同域图像的重构特征和其视觉增强特征之间的相似性的自监督信息,建立自监督学习的跨域三元组损失函数;
最终,基于视觉语义对齐损失函数与自监督学习的跨域三元组损失函数训练域感知网络,并反馈给视觉提取模块,使得视觉提取模块提取出域感知的视觉增强特征。
下面针对上述两部分机制具体原理做详细的介绍。
一、视觉语义对齐机制。
视觉语义对齐机制主要包括:视觉提取模块、语义嵌入模块以及相似度衡量模块。
1、视觉提取模块。
通过视觉提取模块提取输入图像的视觉增强特征时,先通过特征提取器(例如ResNet101网络)提取出视觉特征xo,再通过特征增强层得到判别力更强、更适应于语义对齐的视觉增强特征xa
2、语义嵌入模块。
对于每个类别(包括已见和未见类别)给定的属性向量,通过若干层全连接网络和激活函数将其映射到对应的视觉空间中,得到语义嵌入特征ey
本发明实施例中,已见类别是指源域图像的类别,未见类别是指目标域图像的类别,在训练阶段,各个类别的属性向量都由数据集提供。
3、相似度衡量模块。
为了更加灵活地对齐语义嵌入特征ey和视觉增强特征xa,设计了一种深度网络h来自适应地挖掘不同模态特征间的相似度。
对于输入图像i,视觉提取模块提取的视觉增强特征记为
Figure BDA0002361071770000031
对于类别j的属性向量,语义嵌入模块提取的语义嵌入特征记为
Figure BDA0002361071770000032
通过深度网络h计算视觉增强特征
Figure BDA0002361071770000033
与语义嵌入特征
Figure BDA0002361071770000034
的相似度:
Figure BDA0002361071770000035
其中,θSM是深度网络h的参数。
基于相似度得分
Figure BDA0002361071770000041
建立视觉语义对齐损失函数:
Figure BDA0002361071770000042
其中,n为类别总数;m为图像总数;yi、yj各自为输入图像i、类别j的类别标签;δ(yi,yj)是一个指示函数,表示i和j是否是同一类,当图像i与第j类的语义特征属于同一类时,即yi=yj时,δ(yi,yj)=1,否则δ(yi,yj)=0。
本发明实施例中,优化损失函数的目的是,希望同一类的相似度尽可能高,不同类的相似度尽可能低。
二、基于自监督学习的跨域三元组挖掘机制(基于自监督学习的跨域难样本挖掘机制)。
本发明实施例中,引入了一系列的agent(参考代理)作为连接源域已见类别和目标域未见类别间的桥梁,进而学习到一个判别力强的联合空间。
本发明实施例中,训练了多属性分类器,其参数编码了源域和目标域共享的高层视觉信息。具体的,将多属性分类器的权重参数记为
Figure BDA0002361071770000043
de为权重参数的总数;将每一权重参数作为一个参考代理,并通过比较视觉增强特征与相应参考代理权重参数,得到视觉相似度
Figure BDA0002361071770000044
Figure BDA0002361071770000045
其中,
Figure BDA0002361071770000046
为输入图像i的视觉增强特征,分子表示图像i和第k个参考代理Ak的相似度,分母的含义是图像i和所有参考代理的相似度之和;k、k′的范围均为1~de
将视觉相似度作为软标签进行特征重构:
Figure BDA0002361071770000047
为了减少源域的域偏差影响,设计了如下自监督信息:不同域图像的重构特征间的相似性,小于相同域图像的重构特征和其视觉增强特征之间的相似性。利用不同域图像的重构特征形成负样本对
Figure BDA0002361071770000048
相同域图像的视觉增强特征和其重构特征形成了正样本对
Figure BDA0002361071770000049
其中,*=s,t,
Figure BDA00023610717700000410
分别表示源域图像的视觉增强特征、重构特征;
Figure BDA00023610717700000411
表示目标域图像的视觉增强特征、重构特征;neg、pos分别表示负样本对、正样本对的总数。如图1所示,呈竖行排列的多个圆形表示参考代理,参考代理左侧自上向下的两个椭圆形内部的矩形分别代表目标域图像的视觉增强特征、源域图像的视觉增强特征;参考代理右侧自上向下的两个椭圆形内部的矩形分别代表目标域图像的重构特征、源域图像的重构特征。
基于自监督信息,并结合正负样本对建立自监督学习的跨域三元组损失函数:
Figure BDA0002361071770000051
Figure BDA0002361071770000052
通过上述自监督学习的跨域三元组损失函数,使得源域图像和目标域图像的视觉增强特征分布被分开,形成了更具鉴别力且域感知的特征,大大减少了对目标域图像的特征进行分类识别时,源域特征造成的干扰。
最终,域感知网络的总损失函数为:
Figure BDA0002361071770000053
其中,LVS表示视觉语义对齐损失函数。
在此训练过程中,跨域三元组挖掘机制不断挖掘自监督信息,反馈给特征增强层,提取出域感知的视觉特征,去除源域特征和目标域特征的混淆。同时,增强的视觉特征能够提升视觉语义对齐机制的有效性,提升识别精度,减少预测误差。使得域感知网络模型也可以在不依赖人类先验的情况下,端到端的得到训练。
与现有零样本学习方法相比,该方法能够有效区分源域数据和目标域数据,通过自监督学习的方式充分挖掘源域和目标域之间的关系,减少因目标域数据挖掘不充分而导致的域偏差;该方法通过以参考代理作为桥梁连接所有类别建立联合的嵌入空间,学习域感知的视觉特征,具备更强的知识迁移和泛化能力;该方法基于端到端的神经网络,速度快,精度高,达到了目前最好的零样本识别结果。
本发明另一实施例还提供一种图像分类方法,该方法是基于上述方法训练得到的域感知网络来实现,分类时只需要使用图1所示的视觉语义对齐机制部分,分类过程如下:
对于输入的待分类的图像,通过训练好的域感知网络的视觉提取模块提取出图像的视觉增强特征,并通过深度网络计算视觉增强特征与各个类别的语义嵌入特征的相似度,选择相似度最大的一项对应的类别作为分类结果。待分类的图像既可以是源域的已见类别,也可以是目标域中未见过的类别。也就是说,测试阶段中,待分类的图像的类别可以是训练过程中未训练到的类别。在本方法中,只需要得到未见类别的语义嵌入特征,我们就可以通过比较来判断图像是否属于该类。
本发明上述方案,可以应用于样本缺乏的物体识别中,例如濒危物种识别,通过对动物的特征描述对野外的珍稀动物进行识别,这将会为人类带来巨大的生态效益和经济效益。在实施上,可以以软件的方式在野外提供实时检测;也可以安装于相关机构的后台服务器,提供后台检测。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (7)

1.一种基于自监督域感知网络的零样本训练方法,其特征在于,包括:
对于输入图像以及各类别的属性向量,通过视觉提取模块与语义嵌入模块对应地提取视觉增强特征与语义嵌入特征;通过深度网络计算视觉增强特征与语义嵌入特征的相似度,并与已知的输入图像和各类别对应关系,建立视觉语义对齐损失函数;所述输入图像包含了源域图像与目标域图像;
利用编码了源域图像与目标域图像共享的视觉信息的多属性分类器的权重参数作为参考代理,并基于参考代理来重构源域图像与目标域图像的视觉增强特征;基于不同域图像的重构特征间的相似性,小于相同域图像的重构特征和其视觉增强特征之间的相似性的自监督信息,建立自监督学习的跨域三元组损失函数;
基于视觉语义对齐损失函数与自监督学习的跨域三元组损失函数训练域感知网络,并反馈给视觉提取模块,使得视觉提取模块提取出域感知的视觉增强特征;
其中,所述利用编码了源域图像与目标域图像共享视觉信息的多属性分类器的权重参数作为参考代理,并基于参考代理来重构源域图像与目标域图像的视觉增强特征包括:
将多属性分类器的权重参数记为
Figure FDA0003659732660000011
de为权重参数的总数;
将每一权重参数作为一个参考代理,并通过比较视觉增强特征与相应参考代理权重参数,得到视觉相似度
Figure FDA0003659732660000012
Figure FDA0003659732660000013
其中,
Figure FDA0003659732660000014
为输入图像i的视觉增强特征,分子表示输入图像i和第k个参考代理Ak的相似度,分母的含义是图像i和所有参考代理的相似度之和;k、k′的范围均为1~de
将视觉相似度作为软标签进行特征重构:
Figure FDA0003659732660000015
2.根据权利要求1所述的一种基于自监督域感知网络的零样本训练方法,其特征在于,通过视觉提取模块提取输入图像的视觉增强特征时,先通过特征提取器提取出视觉特征xo,再通过特征增强层得到适应于语义对齐的视觉增强特征xa
3.根据权利要求1所述的一种基于自监督域感知网络的零样本训练方法,其特征在于,通过语义嵌入模块提取各类别的属性向量包括:
对于每个类别给定的属性向量,通过若干层全连接网络和激活函数将其映射到对应的视觉空间中,得到语义嵌入特征ey;类别包含源域中的已见类别以及目标域中未见类别。
4.根据权利要求1所述的一种基于自监督域感知网络的零样本训练方法,其特征在于,所述通过深度网络计算视觉增强特征与语义嵌入特征的相似度,并与已知的输入图像和各类别对应关系,建立视觉语义对齐损失函数包括:
对于输入图像i,视觉提取模块提取的视觉增强特征记为
Figure FDA0003659732660000021
对于类别j的属性向量,语义嵌入模块提取的语义嵌入特征记为
Figure FDA0003659732660000022
通过深度网络h计算视觉增强特征
Figure FDA0003659732660000023
与语义嵌入特征
Figure FDA0003659732660000024
的相似度:
Figure FDA0003659732660000025
其中,θSM是深度网络h的参数;
建立的视觉语义对齐损失函数表示为:
Figure FDA0003659732660000026
其中,n为类别总数;m为图像总数;yi、yj各自为输入图像i、类别j的类别标签,当yi=yj时,δ(yi,yj)=1,否则δ(yi,yj)=0。
5.根据权利要求1所述的一种基于自监督域感知网络的零样本训练方法,其特征在于,基于不同域图像的重构特征间的相似性,小于相同域图像的重构特征和其视觉增强特征之间的相似性的自监督信息,建立自监督学习的跨域三元组损失函数包括:
基于自监督信息,利用不同域图像的重构特征形成负样本对
Figure FDA0003659732660000027
相同域图像的视觉增强特征和其重构特征形成了正样本对
Figure FDA0003659732660000028
其中,*=s,t,
Figure FDA0003659732660000029
分别表示源域图像的视觉增强特征、重构特征;
Figure FDA00036597326600000210
表示目标域图像的视觉增强特征、重构特征;neg、pos分别表示负样本对、正样本对的总数;
建立的自监督学习的跨域三元组损失函数表示为:
Figure FDA00036597326600000211
Figure FDA00036597326600000212
通过上述自监督学习的跨域三元组损失函数,使得源域图像和目标域图像的视觉增强特征分布被分开。
6.根据权利要求5所述的一种基于自监督域感知网络的零样本训练方法,其特征在于,域感知网络的总损失函数为:
Figure FDA0003659732660000031
其中,LVS表示视觉语义对齐损失函数。
7.一种图像分类方法,其特征在于,基于权利要求1-6所述的方法训练域感知网络;对于输入的待分类的图像,通过训练好的域感知网络的视觉提取模块提取出图像的视觉增强特征,并通过深度网络计算视觉增强特征与各个类别的语义嵌入特征的相似度,选择相似度最大的一项对应的类别作为分类结果;待分类的图像为源域的已见类别,或者目标域中的未见类别。
CN202010021866.6A 2020-01-09 2020-01-09 基于自监督域感知网络的零样本训练及相关分类方法 Active CN111222471B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010021866.6A CN111222471B (zh) 2020-01-09 2020-01-09 基于自监督域感知网络的零样本训练及相关分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010021866.6A CN111222471B (zh) 2020-01-09 2020-01-09 基于自监督域感知网络的零样本训练及相关分类方法

Publications (2)

Publication Number Publication Date
CN111222471A CN111222471A (zh) 2020-06-02
CN111222471B true CN111222471B (zh) 2022-07-15

Family

ID=70826631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010021866.6A Active CN111222471B (zh) 2020-01-09 2020-01-09 基于自监督域感知网络的零样本训练及相关分类方法

Country Status (1)

Country Link
CN (1) CN111222471B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110880019B (zh) * 2019-10-30 2022-07-12 北京中科研究院 通过无监督域适应训练目标域分类模型的方法
CN111797976B (zh) * 2020-06-30 2024-04-12 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质
CN112069921A (zh) * 2020-08-18 2020-12-11 浙江大学 一种基于自监督知识迁移的小样本视觉目标识别方法
CN112418351B (zh) * 2020-12-11 2023-04-07 天津大学 基于全局与局部上下文感知的零样本学习图像分类方法
CN114792067B (zh) * 2022-04-08 2024-08-16 大连理工大学 一种基于ResNet神经网络的挖掘机工作阶段分类识别方法
CN114937178B (zh) * 2022-06-30 2023-04-18 抖音视界有限公司 基于多模态的图像分类方法、装置、可读介质和电子设备
CN116452895B (zh) * 2023-06-13 2023-10-20 中国科学技术大学 基于多模态对称增强的小样本图像分类方法、装置及介质
CN116977796B (zh) * 2023-09-25 2024-02-23 中国科学技术大学 零样本图像识别方法、系统、设备及存储介质
CN117456309B (zh) * 2023-12-20 2024-03-15 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于中间域引导与度量学习约束的跨域目标识别方法
CN117541882B (zh) * 2024-01-05 2024-04-19 南京信息工程大学 一种基于实例的多视角视觉融合转导式零样本分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163258A (zh) * 2019-04-24 2019-08-23 浙江大学 一种基于语义属性注意力重分配机制的零样本学习方法及系统
CN110555060A (zh) * 2019-09-09 2019-12-10 山东省计算中心(国家超级计算济南中心) 基于成对样本匹配的迁移学习方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810494B2 (en) * 2016-08-08 2020-10-20 EyeEm Mobile GmbH Systems, methods, and computer program products for extending, augmenting and enhancing searching and sorting capabilities by learning and adding concepts on the fly

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110163258A (zh) * 2019-04-24 2019-08-23 浙江大学 一种基于语义属性注意力重分配机制的零样本学习方法及系统
CN110555060A (zh) * 2019-09-09 2019-12-10 山东省计算中心(国家超级计算济南中心) 基于成对样本匹配的迁移学习方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
D4L: Decentralized Dynamic Discriminative Dictionary Learning;Alec Koppel;《IEEE TRANSACTIONS ON SIGNAL AND INFORMATION PROCESSING OVER NETWORKS》;20171231;第3卷(第4期);第728-743页 *
基于视觉误差与属性语义信息的零样本图像分类;徐 戈等;《知网》;20191120;第1-9页 *

Also Published As

Publication number Publication date
CN111222471A (zh) 2020-06-02

Similar Documents

Publication Publication Date Title
CN111222471B (zh) 基于自监督域感知网络的零样本训练及相关分类方法
CN109492581B (zh) 一种基于tp-stg框架的人体动作识别方法
EP3644237B1 (en) Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same
Zeppelzauer et al. Automatic prediction of building age from photographs
CN110363115B (zh) 基于ais轨迹数据的船舶作业异常半监督实时检测方法
CN103136504B (zh) 人脸识别方法及装置
CN108549895A (zh) 一种基于对抗网络的半监督语义分割方法
EP3620980B1 (en) Learning method, learning device for detecting lane by using cnn and testing method, testing device using the same
CN113076994B (zh) 一种开集域自适应图像分类方法及系统
Hou et al. Distilling knowledge from object classification to aesthetics assessment
CN110826639B (zh) 一种利用全量数据训练零样本图像分类方法
CN113283909B (zh) 一种基于深度学习的以太坊钓鱼账户检测方法
Hoang et al. A novel approach for detection of pavement crack and sealed crack using image processing and salp swarm algorithm optimized machine learning
CN109933619B (zh) 一种半监督分类预测方法
Li et al. A review of deep learning methods for pixel-level crack detection
CN115412324A (zh) 基于多模态条件对抗领域适应的空天地网络入侵检测方法
CN113239926A (zh) 基于对抗的多模态虚假信息检测模型
CN110912917A (zh) 恶意url检测方法及系统
CN114708518A (zh) 基于半监督学习与先验知识嵌入策略的螺栓缺陷检测方法
CN113449676B (zh) 一种基于双路互促进解纠缠学习的行人重识别方法
CN114091548B (zh) 一种基于关键点和图匹配的车辆跨域重识别方法
CN113343123B (zh) 一种生成对抗多关系图网络的训练方法和检测方法
CN113435329B (zh) 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN114445693A (zh) 基于知识蒸馏的可持续学习水上障碍物检测系统及方法
Ding et al. Human activity recognition and location based on temporal analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant