CN116310561A - 图像分类模型训练与图像分类方法及相关设备 - Google Patents

图像分类模型训练与图像分类方法及相关设备 Download PDF

Info

Publication number
CN116310561A
CN116310561A CN202310283273.0A CN202310283273A CN116310561A CN 116310561 A CN116310561 A CN 116310561A CN 202310283273 A CN202310283273 A CN 202310283273A CN 116310561 A CN116310561 A CN 116310561A
Authority
CN
China
Prior art keywords
source domain
domain
target
image classification
classification model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310283273.0A
Other languages
English (en)
Inventor
盛建达
朱自翀
胡魁
徐玲玲
叶明�
戴磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202310283273.0A priority Critical patent/CN116310561A/zh
Publication of CN116310561A publication Critical patent/CN116310561A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及深度学习技术领域,提供一种图像分类模型训练与图像分类方法及相关设备,通过将源域数据集与目标域数据集中的图片输入初始图像分类模型的初始特征提取网络,获得源域特征与目标域特征;将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型;并使用目标图像分类模型对待分类数据集进行分类。能够节省训练成本的同时提高图像分类的准确率。

Description

图像分类模型训练与图像分类方法及相关设备
技术领域
本申请涉及深度学习技术领域,具体涉及一种图像分类模型训练与图像分类方法及相关设备。
背景技术
当对图像中的物体进行识别从而按照物体类别对图像进行分类时,常常出现由于图像的分布差异而造成的图像分类结果不准确的问题。解决上述问题最直接的方法是扩大训练模型的样本数据集的规模以及模型的网络容量,当数据集包括所有该类图像的分布且网络的容量足够大时,这种由于分布引起的不稳定就会被克服。但是,这种解决方法耗费的成本非常高。
发明内容
鉴于以上内容,有必要提出一种图像分类模型训练与图像分类方法及相关设备,能够在节省模型的训练成本的同时,提高模型进行图像分类的准确率。
本申请的第一方面提供一图像分类模型训练方法,所述方法包括:获取源域数据集与目标域数据集;
将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征;
将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;
根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
根据本申请的一个可选的实施方式,所述基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,包括:
提取每张源域图片的源域关键点,并基于所述源域关键点生成每张源域图片的多个源域感兴趣区域;
利用所述初始特征提取网络中的不同网络层提取每个所述源域感兴趣区域的源域分层特征,从所述源域分层特征中选择预设的层级对应的多个源域分层特征,所述多个源域分层特征包括第一源域分层特征和第二源域分层特征;
基于预设的源域图卷积网络,构建每张源域图片的所有源域感兴趣区域的所有第一源域分层特征的源域初始化图卷积矩阵;
基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵;
利用全连接层将所述目标第一源域分层特征进行拼接,将全连接层拼接后的目标第一源域分层特征与所述第二源域分层特征进行拼接,获得所述源域特征。
根据本申请的一个可选的实施方式,所述源域初始化图卷积矩阵中第i行第j列的元素表示源域相关系数Rij,所述源域相关系数Rij表示第i个源域感兴趣区域的第一源域分层特征
Figure BDA0004139014150000021
与第j个源域感兴趣区域的第一源域分层特征/>
Figure BDA0004139014150000022
在所述源域图卷积网络中的先验的相关系数。
根据本申请的一个可选的实施方式,所述基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵,包括:
将所述源域图卷积网络堆叠预设次数,使得第一源域分层特征
Figure BDA0004139014150000023
更新所述预设次数,获得所述目标第一源域分层特征,其中,第一次更新包括将所述第一源域分层特征
Figure BDA0004139014150000024
更新为/>
Figure BDA0004139014150000025
n表示所述第一源域分层特征的个数;
获取所述目标第一源域分层特征的源域注意力系数,利用所述源域注意力系数构建所述源域注意力矩阵。
根据本申请的一个可选的实施方式,所述初始分类器包括类别分类器,所述类别分类器用于判断所述源域特征与所述目标域特征的标签类别,所述分类结果包括所述标签类别;
所述初始分类器还包括域分类器,所述域分类器用于判定所述源域特征或所述目标域特征所属的域类别,所述域类别包括所述源域数据集及所述目标域数据集,所述分类结果还包括所述域类别。
根据本申请的一个可选的实施方式,所述损失函数包括:
所述初始分类器的分类器损失函数、基于随机多维映射的条件域对抗性网络损失函数、人脸检测网络FAN的损失函数的加权和。
本申请的第二方面提供一种图像分类方法,所述方法包括:获取参考数据集与待分类数据集,对参考数据集与待分类数据集中的图像进行预处理;
将预处理后的参考数据集与待分类数据集输入目标图像分类模型,所述目标图像分类模型为利用实施例一所述的图像分类模型训练方法所获得;
利用所述目标图像分类模型获得所述待分类数据集中图像的分类结果。
本申请的第三方面提供一种图像分类模型训练装置,所述装置包括:所述装置包括获取模块、特征提取模块、分类模块、优化模块:
所述获取模块,用于获取源域数据集与目标域数据集;
所述特征提取模块,用于将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征;
所述分类模块,用于将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;
所述优化模块,根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
本申请的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述图像分类模型训练与图像分类方法。
本申请的第五方面提供一种电子设备,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述图像分类模型训练与图像分类方法。
综上所述,本申请所述的图像分类模型训练与图像分类方法及相关设备,可以用于深度学习中的例如人脸表情识别等领域,通过将源域数据集与目标域数据集中的图片输入初始图像分类模型的初始特征提取网络,获得源域特征与目标域特征;将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型;并使用目标图像分类模型对待分类数据集进行分类。实现了节省模型训练成本的同时提高了图像分类的准确率。
附图说明
图1是本申请实施例一提供的图像分类模型训练方法的流程图。
图2是本申请实施例提供的获得源域特征的流程图。
图3是本申请实施例提供的初始图像分类模型的网络结构的示例图。
图4是本申请实施例提供的CDAN损失函数的结构示例图。
图5是本申请实施例二提供的图像分类方法的流程图。
图6是本申请实施例三提供的图像分类模型训练装置的结构图。
图7是本申请实施例五提供的电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述在一个可选的实施方式中实施例的目的,不是旨在于限制本申请。
在一个实施例中,当对图像中的物体进行识别从而按照物体类别对图像进行分类时,常常出现由于图像的分布差异而造成的图像分类结果不准确的问题,例如,若两张图像中都包含老鼠,但一张图像为老鼠的照片,而另一张图像则是老鼠的卡通图像,当对这种风格不一致导致图像分布不同的图像进行分类时,普通的图像分类模型不会将这两张图像划分为一类,导致模型的分类结果不准确。
要解决上述问题,最直接的方法是扩大训练图像分类模型的样本数据集的规模以及模型的网络容量,当数据集包括所有该类图像的分布且网络的容量足够大时,这种由于分布引起的不稳定就会被克服。但是,这种解决方法耗费的成本非常高。
因此,本申请实施例提供一种图像分类模型训练与图像分类方法,能够在深度学习算法中迁移学习方法的基础上,使用域自适应(domain adaptation)中基于对抗(Adversarial-based)的学习方法,不必使用数量庞大的样本数据集,也能使训练出来的模型网络可以在不同分布的数据集上有良好表现。此外,还使用了堆叠网络深度的方法扩大了模型的网络容量,节省了训练成本的同时提高了图像分类的准确率。
本申请实施例提供的图像分类模型训练方法由电子设备执行,相应地,图像分类模型训练装置运行于电子设备中。
实施例一
图1是本申请实施例一提供的图像分类模型训练方法的流程图。所述图像分类模型训练方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
S11,获取源域数据集与目标域数据集。
在一个可选的实施方式中,所述源域数据集中包括多张已知分类标签的所述源域图片,例如,5万张已知表情分类标签的人脸图片,其中,已知的表情分类标签包括例如微笑、哭泣、大笑等。所述目标域数据集中包括多张未知分类标签的所述目标域图片,例如,5万张未知表情分类标签的人脸图片。
可以通过开源的数据库下载获取所述源域数据集与所述目标域数据集,所述源域数据集与所述目标域数据集还可以预先存储在电子设备或与电子设备通信连接的存储装置中。
在一个可选的实施方式中,已有的知识叫做源域(source domain),要学习的新知识叫目标域(target domain)。本申请实施例提供的基于对抗的域自适应方法中,即是基于源域与目标域进行深度学习,将源域数据集与目标域数据集的混合数据集作为样本训练集。
S12,将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征。
在一个可选的实施方式中,所述初始图像分类模型包括所述初始特征提取网络。所述初始特征提取网络作为特征提取的骨干网络,用于对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征。
在一个可选的实施方式中,所述方法还包括:在将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型时,每次选择相同数量的所述源域图片与所述目标域图片作为一个批次(batch)输入图像分类模型的初始特征提取网络,例如,每次选择一张源域图片与一张目标域图片,将两张图片输入初始图像分类模型。其中,所述初始特征提取网络包括残差神经网络(ResNet)、VGG(Visual Geometry Group)网络等特征提取神经网络,例如ResNet18、ResNet50、VGG19等。
在一个可选的实施方式中,所述基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,包括如图2所示的获取源域特征的如下步骤S121至S125:
S121,提取每张源域图片的源域关键点(landmark),并基于所述源域关键点生成每张源域图片的多个源域感兴趣区域(ROI,region of interest)。
具体举例而言,所述源域关键点可以包括人脸的面部标志(Facial landmarks),可以利用多种深度学习算法(例如人脸识别网络FaceNet)提取每张源域图片的多个(例如108个)面部标志,例如,眉峰、眉尾、嘴角、眼角等。根据所述多个面部标志生成多个源域感兴趣区域,例如,源域感兴趣区域包括人脸出现表情时肌肉运动的区域,例如眉毛、眼睛、嘴巴等。其中,ROI区域之间一般不会重叠且单个ROI区域不包含整个源域图片,从而可以不用对整张源域图片进行计算,减少计算量。
在一个可选的实施方式中,基于所述源域关键点生成每张源域图片的源域感兴趣区域包括:在每张源域图片中连接源域关键点,将源域关键点连接勾勒出的区域作为源域感兴趣区域,其中,可以使用方框、圆、椭圆、不规则多边形等方式连接源域关键点。
S122,利用所述初始特征提取网络中的不同网络层提取每个所述源域感兴趣区域的源域分层特征,从所述源域分层特征中选择预设的层级对应的多个源域分层特征,所述多个源域分层特征包括第一源域分层特征和第二源域分层特征。
在一个可选的实施方式中,以初始特征提取网络是Resnet50为例,当生成每张源域图片的多个(例如,12个)源域感兴趣区域后,可以利用Resnet50的不同网络层(例如卷积层)提取每个所述源域感兴趣区域的源域分层特征,从所述源域分层特征中选择不同网络层中预设的层级对应的多个源域分层特征,所述多个源域分层特征包括第一源域分层特征和第二源域分层特征。其中,源域分层特征为对应的源域感兴趣区域由对应的层级输出的特征向量。
例如,所述预设的层级可以是第二层级和最后一个层级,将第二层级输出的源域分层特征作为第一源域分层特征,将最后一个层级输出的特征作为第二源域分层特征。其中,第二层级属于较浅的层级,该层级的可迁移性较好;最后一个层级是高级特征,可迁移性不好,但是分类效果好。
S123,基于预设的源域图卷积网络(GCN,Graph Convolutional Network),构建每张源域图片的所有源域感兴趣区域的所有第一源域分层特征的源域初始化图卷积矩阵。
在一个可选的实施方式中,预设的源域图卷积网络中以所有源域感兴趣区域的所有第一源域分层特征为图的节点,初始化第一源域分层特征之间的边的权重或权值,得到所述源域初始化图卷积矩阵。例如,以12个源域感兴趣区域对应的12个第一源域分层特征为节点,初始化12个第一源域分层特征之间的权重。
在一个可选的实施方式中,所述第一源域分层特征之间的边的权重或权值包括所述第一源域分层特征之间的源域相关系数,所述源域相关系数表示所述第一源域分层特征之间的相关性的强弱程度,所述源域相关性越强相关系数则越大。
在一个可选的实施方式中,所述源域初始化图卷积矩阵中第i行第j列的元素表示源域相关系数Rij(例如,1、0.8等),所述源域相关系数Rij表示第i个源域感兴趣区域的第一源域分层特征
Figure BDA0004139014150000061
与第j个源域感兴趣区域的第一源域分层特征/>
Figure BDA0004139014150000062
在所述源域图卷积网络中的先验的相关系数,其中,i、j表示大于或等于1的正整数。
在一个可选的实施方式中,确定源域相关系数的方法包括:接收用户的主观设置值;或使用随机生成的随机值;或用全为1的矩阵初始化。
举例而言,接收用户的主观设置值时,用户可以将第一源域分层特征与自身的权重设为1;用户根据先验知识认为某两个第一源域分层特征之间的相关性较强,将两个第一源域分层特征之间的权重设为0.8等,其中先验知识包括用户从与人脸微表情研究有关的文献中获得的知识。
S124,基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵。
在一个可选的实施方式中,经由初始特征提取网络获得的第一源域分层特征可能并不准确,因此,基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,从而在每次更新过程中,提高所述第一源域分层特征的准确性,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵。
在一个可选的实施方式中,所述基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵,包括:
将所述源域图卷积网络堆叠预设次数,使得第一源域分层特征
Figure BDA0004139014150000063
更新所述预设次数,获得所述目标第一源域分层特征,其中,第一次更新包括将所述第一源域分层特征
Figure BDA0004139014150000064
更新为/>
Figure BDA0004139014150000065
n表示所述第一源域分层特征的个数(例如,12);
获取所述目标第一源域分层特征的源域注意力系数,利用所述源域注意力系数构建所述源域注意力矩阵。
在一个可选的实施方式中,将所述源域图卷积网络每多堆叠一次,就重复一次上述步骤S123的过程,其中,第一源域分层特征会在重复过程中随之更新。
举例而言,当所述预设次数为3时,步骤S123共执行3次,每一次时,都会基于矩阵乘法,考虑到第一源域分层特征之间的相关性,对所述第一源域分层特征进行更新(例如,上述的
Figure BDA0004139014150000071
),从而使得生成的目标第一源域分层特征更具有全局性。
在一个可选的实施方式中,在进行每次更新时,都可以使用所述源域初始化图卷积矩阵中的源域相关系数Rij。在其他实施例中,预设次数的更新中每次更新还可以使用不同的源域相关系数,可以基于用户设置使用不同的参数作为每次更新时的源域相关系数。
在一个可选的实施方式中,所述预设次数可以根据计算的精度和复杂度进行设置,次数越多越耗费算力,一般3至4次可以让每个第一源域分层特征具有较好的全局信息。
在一个可选的实施方式中,所述获取所述目标第一源域分层特征的源域注意力系数(attention coefficient),利用所述源域注意力系数构建所述源域注意力矩阵,包括:计算第i个目标第一源域分层特征对应的源域相关系数Rij的和作为第一数值,以及所有目标第一源域分层特征的所有源域相关系数Rij的和作为第二数值,利用第一数值除以第二数值,得到第i个目标第一源域分层特征对应的源域注意力系数,利用所述源域注意力系数组成所述源域注意力矩阵。
举例而言,共12个目标第一源域分层特征时,共获得12个源域注意力系数,将12个源域注意力系数构成的向量作为源域注意力矩阵。
在一个可选的实施方式中,源域注意力系数的数值越大,表示对应的目标第一源域分层特征的重要程度与关注度越高。例如,当对微笑、大笑等表情进行分类时,需要对嘴唇区域对应的目标源域分层特征进行更高程度的关注,因此嘴唇区域对应的源域注意力系数的数值会高于其他例如眉毛区域的源域注意力系数。
S125,利用全连接层将所述目标第一源域分层特征进行拼接,将全连接层拼接后的目标第一源域分层特征与所述第二源域分层特征进行拼接,获得所述源域特征。
在一个可选地实施方式中,每个目标第一源域分层特征对应一个特征向量,利用全连接层将所述目标第一源域分层特征进行拼接,包括:利用全连接层将所有目标第一源域分层特征对应的所有特征向量进行加权累加,其中,每个特征向量对应的权重即目标第一源域分层特征的源域注意力系数,相当于将源域注意力系数作为对应的目标第一源域分层特征的权重,进行加权累加。举例而言,共12个目标第一源域分层特征时,全连接层将12条特征向量分别乘以对应的源域注意力系数,再进行累加生成一条特征向量。
在一个可选地实施方式中,所述第二源域分层特征对应一个特征向量,将全连接层拼接后的目标第一源域分层特征与所述第二源域分层特征进行拼接,获得所述源域特征包括:将全连接层拼接后的目标第一源域分层特征对应的特征向量,与所述第二源域分层特征对应的特征向量进行相加,将相加后的特征项作为所述源域特征。
在一个可选地实施方式中,上述方法对所述初始特征提取网络中的不同网络层提取的源域分层特征进行了处理与拼接,最终得到的源域特征具有较高的可迁移性和较好的分类效果。
在一个可选的实施方式中,结合例如图3所示的本申请实施例提供的初始图像分类模型的网络结构的示例图,基于所述初始特征提取网络对所述目标域图片进行特征提取获得目标域特征的过程与步骤S121至S125中相同,只需将步骤S121至S125中的“源域”替换为“目标域”即可,不再进行重复描述。其中,可以使用源域注意力系数作为对应的目标域注意力系数,即图3所示的共享权重。那么,理论上来说,目标域注意力矩阵与源域注意力矩阵可以表示为同一个注意力矩阵(例如,图3所示)。
S13,将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果。
在一个可选的实施方式中,例如图3所示,所述初始分类器包括类别分类器,所述类别分类器用于判断所述源域特征与所述目标域特征的标签类别,所述分类结果包括所述标签类别,例如,人脸的表情标签类别:微笑、哭泣等;所述初始分类器还包括域分类器,所述域分类器用于判定所述源域特征或所述目标域特征所属的域类别,所述域类别包括所述源域数据集及所述目标域数据集,所述分类结果还包括所述域类别。
在一个可选的实施方式中,所述类别分类器与所述域分类器可以包括常用的分类算法或分类模型,例如,基于神经网络算法的分类模型,具体地,所述类别分类器与所述域分类器可以由卷积层与全连接层构成。
S14,根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
在一个可选的实施方式中,所述损失函数包括:所述初始分类器的分类器损失函数、基于随机多维映射(randomized multilinear map)的条件域对抗性网络(CDAN,Conditional Domain Adversarial Network)损失函数、人脸检测网络FAN的损失函数的加权和。
在一个可选的实施方式中,所述分类器损失函数包括域分类器损失与类别分类器损失,例如域分类器损失minDL(F,G,D)与类别分类器损失minGL(F,G)-L(F,,),其中F表示初始特征提取网络中的参数,G表示类别分类器中的参数,D表示域分类器的参数,L()函数表示对括号里面的参数进行更新,min表示取最小值函数。其中,所述参数包括网络层(例如,卷积层)的卷积核的个数、通道数、步长、大小等。其中,通过优化域分类器的损失函数,可以减少不同图片的不同分布之间的偏移,并学习目标域和源域之间的不变特征。
在一个可选的实施方式中,例如图4所示,是本申请实施例提供的CDAN损失函数的结构示例图,其中,CDAN损失函数(CDAN-Loss)可以整合标签信息和特征信息,主要思想包括:同时使用标签信息和特征信息,从而提高域分类器的效率,使特征提取网络能够更好地拉近不同图片的不同分布间的距离。其关键在于利用如图4所示的⊙整合预测得到的标签信息和特征信息,⊙表示显示随机多维映射,CDAN损失函数包括交叉熵损失。
在一个可选的实施方式中,所述人脸检测网络FAN的损失函数为本领域技术人员常用的损失函数,其具体公式与原理不再进行描述。
在一个可选的实施方式中,可以将所述分类器损失函数、所述交叉熵损失函数、所述FAN的损失函数直接进行相加,得到所述加权和作为所述预设的损失函数。
在一个可选的实施方式中,通过上述的多种损失函数对所述初始图像分类模型进行优化,可以调高所述初始图像分类模型的精准度,所述预设损失值可以根据具体需要进行设置(例如,设置为0.1),所述预设损失值越小,所述目标图像分类模型的分类结果越准确。
在一个可选的实施方式中,本申请实施例提供的图像分类模型训练方法至少包括如下有益效果:节约了训练成本和训练时间;提高了模型的泛用性,不仅适用于人脸表情分类任务,还可以适用于所有需要进行分类的任务;图像分类模型作为一个框架结构,还可以与其他任务(例如图像分割、检测等)结合使用。
当训练得到目标图像分类模型后,可以利用目标图像分类模型进行图像分类。本申请实施例提供的图像分类方法由电子设备执行,相应地,在一个可选的实施方式中,电子设备可以包括运行于其中的图像分类装置。
实施例二
图5是本申请实施例二提供的图像分类方法的流程图。所述图像分类方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
S21,获取参考数据集与待分类数据集,对参考数据集与待分类数据集中的图像进行预处理。
在一个可选的实施方式中,所述参考数据集包括预设数量的人脸照片,并且参考数据集中的每张人脸照片都包括对应的表情分类标签;待分类数据集包括多张人脸照片。
在一个可选的实施方式中,所述预处理包括剪切处理、尺寸调整等。
S22,将预处理后的参考数据集与待分类数据集输入目标图像分类模型,所述目标图像分类模型为利用实施例一所述的图像分类模型训练方法所获得。
S23,利用所述目标图像分类模型获得所述待分类数据集中图像的分类结果。
在一个可选的实施方式中,所述分类结果包括:待分类数据集中每张人脸照片的表情分类标签。
在一个可选的实施方式中,目标图像分类模型获得所述待分类数据集中图像的分类结果的过程与实施例一中图像分类模型训练方法中的过程类似,只需将所述参考数据集与实施例一中的源域数据集相对应,将所述待分类数据集与实施例一中的目标域数据集相对应,具体的过程不再进行描述。
实施例三
图6是本申请实施例三提供的图像分类模型训练装置的结构图。
在一些实施例中,所述图像分类模型训练装置20可以包括多个由计算机程序段所组成的功能模块。所述图像分类模型训练装置20中的各个程序段的计算机程序可以存储于电子设备的存储器中,并由至少一个处理器所执行,以执行(详见图1描述)图像分类模型训练的功能。
本实施例中,所述图像分类模型训练装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块201、特征提取模块202、分类模块203、优化模块204。本申请所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于所述图像分类模型训练装置20的限定可以参见上文对图像分类模型训练方法的限定,在此不再详细赘述。
所述获取模块201,用于获取源域数据集与目标域数据集。
所述特征提取模块202,用于将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征。
所述分类模块203,用于将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果。
所述优化模块204,用于根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
在一个可选的实施方式中,所述特征提取模块202,还用于:
提取每张源域图片的源域关键点,并基于所述源域关键点生成每张源域图片的多个源域感兴趣区域;
利用所述初始特征提取网络中的不同网络层提取每个所述源域感兴趣区域的源域分层特征,从所述源域分层特征中选择预设的层级对应的多个源域分层特征,所述多个源域分层特征包括第一源域分层特征和第二源域分层特征;
基于预设的源域图卷积网络,构建每张源域图片的所有源域感兴趣区域的所有第一源域分层特征的源域初始化图卷积矩阵;
基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵;
利用全连接层将所述目标第一源域分层特征进行拼接,将全连接层拼接后的目标第一源域分层特征与所述第二源域分层特征进行拼接,获得所述源域特征。
在一个可选的实施方式中,所述特征提取模块202,还用于:所述源域初始化图卷积矩阵中第i行第j列的元素表示源域相关系数Rij,所述源域相关系数Rij表示第i个源域感兴趣区域的第一源域分层特征
Figure BDA0004139014150000111
与第j个源域感兴趣区域的第一源域分层特征/>
Figure BDA0004139014150000112
在所述源域图卷积网络中的先验的相关系数。
在一个可选的实施方式中,所述特征提取模块202,还用于:将所述源域图卷积网络堆叠预设次数,使得第一源域分层特征
Figure BDA0004139014150000113
更新所述预设次数,获得所述目标第一源域分层特征,其中,第一次更新包括将所述第一源域分层特征/>
Figure BDA0004139014150000114
更新为/>
Figure BDA0004139014150000115
n表示所述第一源域分层特征的个数;
获取所述目标第一源域分层特征的源域注意力系数,利用所述源域注意力系数构建所述源域注意力矩阵。
在一个可选的实施方式中,所述分类模块203,还用于:所述初始分类器包括类别分类器,所述类别分类器用于判断所述源域特征与所述目标域特征的标签类别,所述分类结果包括所述标签类别;
所述初始分类器还包括域分类器,所述域分类器用于判定所述源域特征或所述目标域特征所属的域类别,所述域类别包括所述源域数据集及所述目标域数据集,所述分类结果还包括所述域类别。
在一个可选的实施方式中,所述优化模块204,还用于:所述损失函数包括:
所述初始分类器的分类器损失函数、基于随机多维映射与条件域对抗性网络的损失函数、人脸检测网络FAN的损失函数的加权和。
实施例四
本实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图像分类模型训练实施例中的步骤,例如图1所示的S11-S14:
S11,获取源域数据集与目标域数据集;
S12,将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征;
S13,将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;
S14,根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
或者,该计算机程序被处理器执行时还可以实现上述图像分类实施例中的步骤,例如图5所示的S21-S23:
S21,获取参考数据集与待分类数据集,对参考数据集与待分类数据集中的图像进行预处理;
S22,将预处理后的参考数据集与待分类数据集输入目标图像分类模型,所述目标图像分类模型为实施例一所述的图像分类模型训练方法所获得;
S23,利用所述目标图像分类模型获得所述待分类数据集中图像的分类结果。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块/单元的功能,例如图6中的模块201-204:
所述获取模块201,用于获取源域数据集与目标域数据集。
所述特征提取模块202,用于将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征。
所述分类模块203,用于将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果。
所述优化模块204,用于根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
实施例五
参阅图7所示,为本申请实施例五提供的电子设备的结构示意图。在本申请较佳实施例中,所述电子设备3包括存储器31、至少一个处理器32、至少一条通信总线33及收发器34。
本领域技术人员应该了解,图7示出的电子设备的结构并不构成本申请实施例的限定,既可以是总线型结构,也可以是星形结构,所述电子设备3还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述电子设备3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述电子设备3还可包括客户设备,所述客户设备包括但不限于任何一种可与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述电子设备3仅为举例,其他现有的或今后可能出现的电子产品如可适应于本申请,也应包含在本申请的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器31中存储有计算机程序,所述计算机程序被所述至少一个处理器32执行时实现如所述的图像分类模型训练与图像分类方法中的全部或者部分步骤。所述存储器31包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在一些实施例中,所述至少一个处理器32是所述电子设备3的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备3的各个部件,通过运行或执行存储在所述存储器31内的程序或者模块,以及调用存储在所述存储器31内的数据,以执行电子设备3的各种功能和处理数据。例如,所述至少一个处理器32执行所述存储器中存储的计算机程序时实现本申请实施例中所述的图像分类模型训练与图像分类方法的全部或者部分步骤;或者实现图像分类模型训练装置与图像分类装置的全部或者部分功能。所述至少一个处理器32可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(CentralProcessing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。
在一些实施例中,所述至少一条通信总线33被设置为实现所述存储器31以及所述至少一个处理器32等之间的连接通信。
尽管未示出,所述电子设备3还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理装置与所述至少一个处理器32逻辑相连,从而通过电源管理装置实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备3还可以包括多种传感器、蓝牙模块、Wi-Fi模块、摄像装置等,在此不再赘述。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。说明书中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。

Claims (10)

1.一种图像分类模型训练方法,其特征在于,所述方法包括:
获取源域数据集与目标域数据集;
将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征;
将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;
根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
2.如权利要求1所述的图像分类模型训练方法,其特征在于,所述基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,包括:
提取每张源域图片的源域关键点,并基于所述源域关键点生成每张源域图片的多个源域感兴趣区域;
利用所述初始特征提取网络中的不同网络层提取每个所述源域感兴趣区域的源域分层特征,从所述源域分层特征中选择预设的层级对应的多个源域分层特征,所述多个源域分层特征包括第一源域分层特征和第二源域分层特征;
基于预设的源域图卷积网络,构建每张源域图片的所有源域感兴趣区域的所有第一源域分层特征的源域初始化图卷积矩阵;
基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵;
利用全连接层将所述目标第一源域分层特征进行拼接,将全连接层拼接后的目标第一源域分层特征与所述第二源域分层特征进行拼接,获得所述源域特征。
3.如权利要求2所述的图像分类模型训练方法,其特征在于,所述源域初始化图卷积矩阵中第i行第j列的元素表示源域相关系数Rij,所述源域相关系数Rij表示第i个源域感兴趣区域的第一源域分层特征
Figure FDA0004139014120000011
与第j个源域感兴趣区域的第一源域分层特征/>
Figure FDA0004139014120000012
在所述源域图卷积网络中的先验的相关系数。
4.如权利要求3所述的图像分类模型训练方法,其特征在于,所述基于所述源域初始化图卷积矩阵,对每张源域图片的所有源域感兴趣区域的所有第一源域分层特征进行预设次数的更新,获得目标第一源域分层特征,以及获取所述目标第一源域分层特征的源域注意力矩阵,包括:
将所述源域图卷积网络堆叠预设次数,使得第一源域分层特征
Figure FDA0004139014120000013
更新所述预设次数,获得所述目标第一源域分层特征,其中,第一次更新包括将第一源域分层特征/>
Figure FDA0004139014120000021
更新为/>
Figure FDA0004139014120000022
n表示所述第一源域分层特征的个数;
获取所述目标第一源域分层特征的源域注意力系数,利用所述源域注意力系数构建所述源域注意力矩阵。
5.如权利要求1所述的图像分类模型训练方法,其特征在于:
所述初始分类器包括类别分类器,所述类别分类器用于判断所述源域特征与所述目标域特征的标签类别,所述分类结果包括所述标签类别;
所述初始分类器还包括域分类器,所述域分类器用于判定所述源域特征或所述目标域特征所属的域类别,所述域类别包括所述源域数据集及所述目标域数据集,所述分类结果还包括所述域类别。
6.如权利要求1所述的图像分类模型训练方法,其特征在于,所述损失函数包括:
所述初始分类器的分类器损失函数、基于随机多维映射的条件域对抗性网络损失函数、人脸检测网络FAN的损失函数的加权和。
7.一种图像分类方法,其特征在于,所述方法包括:
获取参考数据集与待分类数据集,对参考数据集与待分类数据集中的图像进行预处理;
将预处理后的参考数据集与待分类数据集输入目标图像分类模型,所述目标图像分类模型为利用如权利要求1至6中任意一项所述的图像分类模型训练方法所获得;
利用所述目标图像分类模型获得所述待分类数据集中图像的分类结果。
8.一种图像分类模型训练装置,其特征在于,所述装置包括获取模块、特征提取模块、分类模块、优化模块:
所述获取模块,用于获取源域数据集与目标域数据集;
所述特征提取模块,用于将源域数据集中的源域图片与目标域数据集中的目标域图片输入初始图像分类模型,基于所述初始图像分类模型的初始特征提取网络,对所述源域图片进行特征提取获得源域特征,以及对所述目标域图片进行特征提取获得目标域特征;
所述分类模块,用于将所述源域特征与所述目标域特征输入所述初始图像分类模型的初始分类器,利用所述初始分类器输出所述源域特征与所述目标域特征的分类结果;
所述优化模块,根据所述分类结果与预设的损失函数对所述初始图像分类模型进行优化,直至所述损失函数收敛至预设损失值,获得所述预设损失值对应的目标图像分类模型。
9.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至6中任意一项所述的图像分类模型训练方法,或实现如权利要求7所述的图像分类方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的图像分类模型训练方法,或实现如权利要求7所述的图像分类方法。
CN202310283273.0A 2023-03-21 2023-03-21 图像分类模型训练与图像分类方法及相关设备 Pending CN116310561A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310283273.0A CN116310561A (zh) 2023-03-21 2023-03-21 图像分类模型训练与图像分类方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310283273.0A CN116310561A (zh) 2023-03-21 2023-03-21 图像分类模型训练与图像分类方法及相关设备

Publications (1)

Publication Number Publication Date
CN116310561A true CN116310561A (zh) 2023-06-23

Family

ID=86823841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310283273.0A Pending CN116310561A (zh) 2023-03-21 2023-03-21 图像分类模型训练与图像分类方法及相关设备

Country Status (1)

Country Link
CN (1) CN116310561A (zh)

Similar Documents

Publication Publication Date Title
US12079696B2 (en) Machine learning model training method and device, and expression image classification method and device
CN113822494B (zh) 风险预测方法、装置、设备及存储介质
US10504009B2 (en) Image hash codes generated by a neural network
US8645287B2 (en) Image tagging based upon cross domain context
US11741711B2 (en) Video classification method and server
US20230153619A1 (en) Method for training neural network and related device
CN114298122B (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN113157739B (zh) 跨模态检索方法、装置、电子设备及存储介质
CN113936287B (zh) 基于人工智能的表格检测方法、装置、电子设备及介质
US20230035366A1 (en) Image classification model training method and apparatus, computer device, and storage medium
WO2023231753A1 (zh) 一种神经网络的训练方法、数据的处理方法以及设备
CN115204971B (zh) 产品推荐方法、装置、电子设备及计算机可读存储介质
WO2023178798A1 (zh) 图像分类方法、装置、设备及介质
CN113128526B (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
CN113052242A (zh) 图像处理网络的训练方法及装置、图像处理方法及装置
CN112948526A (zh) 用户画像的生成方法及装置、电子设备、存储介质
CN115098644B (zh) 图像与文本匹配方法、装置、电子设备及存储介质
CN116719904A (zh) 基于图文结合的信息查询方法、装置、设备及存储介质
CN114898426B (zh) 一种同义标签聚合方法、装置、设备及存储介质
CN116310561A (zh) 图像分类模型训练与图像分类方法及相关设备
CN113822291A (zh) 一种图像处理方法、装置、设备及存储介质
CN118468061B (zh) 一种算法自动匹配及参数优化方法及系统
CN113239876B (zh) 大角度人脸识别模型训练方法
CN116663556A (zh) 基于图神经网络的人群画像构建方法、装置、设备及介质
CN116127363A (zh) 客户分类方法、装置、设备、介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination