CN113240030B - 一种基于交互表示的域自适应子空间学习方法 - Google Patents

一种基于交互表示的域自适应子空间学习方法 Download PDF

Info

Publication number
CN113240030B
CN113240030B CN202110568711.9A CN202110568711A CN113240030B CN 113240030 B CN113240030 B CN 113240030B CN 202110568711 A CN202110568711 A CN 202110568711A CN 113240030 B CN113240030 B CN 113240030B
Authority
CN
China
Prior art keywords
domain
target
function
subspace
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110568711.9A
Other languages
English (en)
Other versions
CN113240030A (zh
Inventor
李骜
牛宇童
陈嘉佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202110568711.9A priority Critical patent/CN113240030B/zh
Publication of CN113240030A publication Critical patent/CN113240030A/zh
Application granted granted Critical
Publication of CN113240030B publication Critical patent/CN113240030B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

一种基于交互表示的域自适应子空间学习方法,属于图像分类技术领域,本发明在源域和目标域上建立了两个基于低秩约束的交互表示模型,可以更好地协调数据间的分布差异;设计一种距离约束来模拟源域和目标域之间的子空间关系,解决两个域域不一致的问题;开发一种联合框架,使用基于标签的回归来获得额外的分类判别,以此促进模型的自适应性和鲁棒性;与其他方法相比,本发明的精确度更高,性能更加稳健。

Description

一种基于交互表示的域自适应子空间学习方法
技术领域
本发明属于图像分类技术领域,具体涉及一种基于交互表示的域自适应子空间学习方法。
背景技术
在大多数机器学习方法中,源域和目标域通常被认为具有相似的分布。然而,在现实世界中,源域和目标域受光线、角度、背景的影响,因此出现了域不一致的问题,即源域和目标域不能具有相似的分布。然而,在对图像进行分类时,域不一致会导致分类精度的降低,且传统的域自适应的方法只考虑了局部信息而没有考虑全局信息的问题。
发明内容
本发明克服了上述技术的不足,提供了一种基于交互表示的域自适应子空间学习方法,在源域和目标域上建立了两个基于低秩的交互式表示模型,使得两个域可以尽可能的对齐,从而减少两个域之间的分布差异。通过一个距离约束来对源域和目标域之间的子空间关系进行建模,促进模型的鲁棒性。设计了一种基于标签的回归模型,提升分类器的分类能力。
本发明实施方式,包括步骤:
将一个图像数据集划分为源域和目标域;
通过低秩约束实现重构矩阵找到一个不变的子空间;
通过设置一个距离约束来解决两个域的域不一致问题;
将目标域与源域的标签加入到分类模型中,得到一个类似于域间子空间的判别式,以获得更多的鉴别信息,提高模型的分辨率;
结合得到的子空间和标签信息,得到分类函数;
求解出分类函数最小化时各个变量的值,并计算出分类结果;
根据所得到的分类结果,计算所述图像数据集中图像的分类精度。
进一步地,所述不变子空间表达公式为:
Figure BDA0003079437190000021
其中,
Figure BDA0003079437190000022
Figure BDA0003079437190000023
分别表示源域和目标域的样本,D表示原始样本的维数,ns和nt分别表示源域和目标域的样本个数,Ps∈RD×d和Pt∈RD×d分别表示源域和目标域的投影,d表示子空间的维数,Z1和Z2表示重构矩阵,λ表示权衡参数,||·||2为l2范数,||·||*为核范数。
进一步地,所述距离约束为:
Figure BDA0003079437190000024
进一步地,所述标签判别式为:
Figure BDA0003079437190000025
其中,X表示源域数据集和目标域数据集的合成数据集,X=[Xs+Xt],标签矩阵Y定义为:
Figure BDA0003079437190000026
进一步地,所述分类函数为:
Figure BDA0003079437190000027
其中,λ和
Figure BDA0003079437190000028
表示权衡参数。
进一步地,所述分类函数值最小化时各个变量的值的求解方法包括以下:
通过增广拉格朗日乘子法确定目标函数的拉格朗日函数形式;
利用交替方向乘子算法,在其他变量不变的条件下,针对每个变量迭代求解最小化,固定其他变量,删除与Ps无关的函数项,得到变量Ps的目标函数式,通过将Ps的导数设置为0,进行求解;
固定其他变量,删除与Pt无关的函数项目,得到变量Pt的目标函数式,通过将Pt的导数设置为0,进行求解;
固定其他变量,删除与Z1无关的函数项目,得到变量Z1的目标函数式,通过将Z1的导数设置为0,进行求解;
固定其他变量,删除与Z2无关的函数项目,得到变量Z2的目标函数式,通过将Z2的导数设置为0,进行求解。
进一步地,根据所述数据集的分类结果,计算出所述数据集的分类精度
本发明提供的一种基于交互表示的域自适应的子空间学习方法,具有以下优势:
(1)受两个域对齐的启发,本发明提出一个基于两个低秩约束的交互式表示模型,使得两个域可以相互对齐,即,不仅可以用源域的线性组合来表示目标域,还可以用目标域的线性组合来表示源域。
(2)在所述模型中加入距离约束,使两个域无限接近,进一步促进模型的自适应性和鲁棒性。
(3)为了获得额外的鉴别信息,在所述源域和目标域中挖掘大量的标签信息,以增强模型的分类能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种基于交互表示的域自适应子空间学习方法的流程图;
图2是本发明提供的一种基于交互表示的域自适应子空间学习方法中数据集CMU中域分布不一致的示例。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
示例性方法
图1示意性地示出了根据本公开实施例的基于交互表示的域自适应子空间学习方法的一种示例性的处理流程100。
如图1所示,处理流程100开始后,首先执行步骤S110。
步骤S110、将一个图像数据集划分为源域和目标域,数据集中域分布不一致的示例如图2所示;
步骤S120、通过低秩约束实现重构矩阵找到一个不变的子空间,通过公式(1)计算出不变子空间:
Figure BDA0003079437190000041
其中,
Figure BDA0003079437190000042
Figure BDA0003079437190000043
分别表示源域和目标域的样本,D表示原始样本的维数,ns和nt分别表示源域和目标域的样本个数,Ps∈RD×d和Pt∈RD×d分别表示源域和目标域的投影,d表示子空间的维数,Z1和Z2表示重构矩阵,λ表示权衡参数,||·||2为l2范数,||·||*为核范数。
步骤S130、通过设置一个距离约束来解决两个域的域不一致问题,通过公式(2)计算出距离约束:
Figure BDA0003079437190000051
步骤S140、将目标域与源域的标签加入到分类模型中,通过公式(3)得到一个类似于域间子空间的判别式:
Figure BDA0003079437190000052
其中,X表示源域数据集和目标域数据集的合成数据集,X=[Xs+Xt],标签矩阵Y定义为:
Figure BDA0003079437190000053
步骤S150、结合得到的子空间和标签信息,得到一个如公式(4)所示的分类函数:
Figure BDA0003079437190000054
其中,λ和
Figure BDA0003079437190000055
表示权衡参数。
步骤S160、根据得到的分类函数,通过如下优化方式得到分类最优解,具体步骤如下:
步骤S1601、通过增广拉格朗日乘子法,确定分类函数的拉格朗日函数形式,将公式(4)重写为公式(5):
Figure BDA0003079437190000061
其中s.t.为约束条件。
步骤S1602、利用交替方向乘子算法,针对每个变量迭代地求解最小化,固定Pt、Z1、Z2,删除与Ps无关的函数项,可将公式(5)写为公式(6):
Figure BDA0003079437190000062
通过将Ps的导数设置为0,可求解Ps
步骤S1603、用交替方向乘子算法,针对每个变量迭代地求解最小化,固定Ps、Z1、Z2,更新Pt,可将公式(5)写为公式(7):
Figure BDA0003079437190000063
通过将Pt的导数设置为0,可求解Pt
步骤S1604、用交替方向乘子算法,针对每个变量迭代地求解最小化,固定Ps、Pt、Z2,更新Z1,可将公式(5)写为公式(8):
Figure BDA0003079437190000064
其中,μ>0是惩罚参数,Y1是拉格朗日乘子,且
Figure BDA0003079437190000065
通过将Z1的导数设置为0,可求解Z1
步骤S1605、用交替方向乘子算法,针对每个变量迭代地求解最小化,固定Ps、Pt、Z1,更新Z2,可将公式(5)写为公式(9):
Figure BDA0003079437190000066
其中,Y2是拉格朗日乘子,且
Figure BDA0003079437190000071
通过将Z2的导数设置为0,可求解Z2
步骤S170、计算分类结果,根据分类结果,计算出所述数据集的分类精度;
通过本实施方式先得到一个不变的子空间,然后再设置一个距离约束来解决域不一致问题,之后,再加入源域和目标域的标签信息来获得额外的判别信息,以此得到一个最后的分类函数,计算出最后的分类结果。得到分类结果后,再计算所述数据集的精确度。
进一步说明,假设将一个数据集放入分类模型中,根据本实施方式,将得到一个精确度高于大多数方法的分类结果。
具体实施方式结果
本实施方式采用两个已公开的数据集。数据集的细节描述如下:
4DA数据集:4DA中有四个域:Amazon(A)、Webcam(W)、DSLR(D)和Caletch(C)。这四个领域共有10个类别。所述的四个域交替作为源域和目标域进行实验,也就是说,将进行12个任务的跨域实验。
CMU PIE人脸数据集:PIE包含了由68个人在13种不同姿势和21种不同光线下拍摄的41368张照片。这41368张照片的尺寸是32x32。所述的数据集将图片分成5种不同的姿势,P1是左姿势,P2是上姿势,P3是向下姿势,P4是正姿势,P5是右姿势。
为了验证本实施方式的优越性,将本实施方式与几种现有的基于图学习的图像聚类方法进行比较,包括基于子空间对齐的无监督视觉域自适应方法、联合分布自适应迁移特征学习方法、一种新的多任务分类方法等方法,将会比较这些方法对于上述两个公开数据集分类的精确度(ACC),具体的数据对比如下表所示。表1表示在数据集4DA上的结果;表2表示在数据集CMU PIE上的结果。
表一
Figure BDA0003079437190000081
表二
Figure BDA0003079437190000082
通过上表中的数据对比,可以清楚地看到,本实施方式拥有最好的性能,分类能力显著提高。定量结果充分说明了本实施方式的优越性,因为本实施方式能更好地捕捉空间的几何结构,使得源域和目标域相互对齐,两个域尽可能的靠近。为了使两个域更加充分的靠近,本发明进一步限制模型的距离,在目标函数添加了一个距离约束项。最后,在源域,充分利用已知的标签信息获取额外的分类信息,从而提高模型的鲁棒性。大量实验表明,该方法优于现有的大多数方法。
关于本实施方式参数的设置,在所有实验中,本实施方式使用支持向量机逐步生成伪目标标签。在每个数据集中,不变子空间的维数d设为c(类的数目)。
本实施方式提出了一种基于交互表示的域自适应子空间学习方法,用于对平常生活中的图像的分类,建立了一种基于交互表示的分类模型,并对该模型设置了一个先找到一个不变的子空间,再加入距离约束和两个域的标签信息,以此得到一个分类函数模型。而在两个公开数据集上的实验结果表明,本实施方式相对于其他方法有着更高的分类精度,有着更好的优越性。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (2)

1.一种基于交互表示的域自适应子空间学习方法,其特征在于,所述方法包括步骤:
将一个图像数据集划分为源域和目标域;
通过低秩约束实现重构矩阵找到一个不变的子空间,所述的不变子空间表达公式为:
Figure FDA0003609969720000011
其中,
Figure FDA0003609969720000012
Figure FDA0003609969720000013
分别表示源域和目标域的样本,D表示原始样本的维数,ns和nt分别表示源域和目标域的样本个数,Ps∈RD×d和Pt∈RD×d分别表示源域和目标域的投影,d表示子空间的维数,Z1和Z2表示重构矩阵,λ表示权衡参数;
通过设置一个距离约束来解决两个域的域不一致问题,所述距离约束为:
Figure FDA0003609969720000014
将目标域与源域的标签加入到分类模型中,得到一个类似于域间子空间的判别式,以获得更多的鉴别信息,提高模型的分辨率,所述标签判别式为:
Figure FDA0003609969720000015
其中,X表示源域数据集和目标域数据集的合成数据集,X=[Xs+Xt],标签矩阵Y定义为:
Figure FDA0003609969720000016
结合得到的子空间和标签信息,得到一个最后的分类函数,计算出分类结果,所述的分类函数表示为:
Figure FDA0003609969720000021
其中,λ和
Figure FDA0003609969720000022
表示权衡参数;
根据所得到的分类结果,计算所述图像数据集中图像的分类精度。
2.根据权利要求1所述的基于交互表示的域自适应子空间学习方法,其特征在于,所述分类函数根据如下步骤求解出最优解:
通过增广拉格朗日乘子法确定目标函数的拉格朗日函数形式;
利用交替方向乘子算法,在其他变量不变的条件下,针对每个变量迭代求解最小化,固定其他变量,删除与Ps无关的函数项,得到变量Ps的目标函数式,通过将Ps的导数设置为0,进行求解;
固定其他变量,删除与Pt无关的函数项目,得到变量Pt的目标函数式,通过将Pt的导数设置为0,进行求解;
固定其他变量,删除与Z1无关的函数项目,得到变量Z1的目标函数式,通过将Z1的导数设置为0,进行求解;
固定其他变量,删除与Z2无关的函数项目,得到变量Z2的目标函数式,通过将Z2的导数设置为0,进行求解。
CN202110568711.9A 2021-05-24 2021-05-24 一种基于交互表示的域自适应子空间学习方法 Expired - Fee Related CN113240030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110568711.9A CN113240030B (zh) 2021-05-24 2021-05-24 一种基于交互表示的域自适应子空间学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110568711.9A CN113240030B (zh) 2021-05-24 2021-05-24 一种基于交互表示的域自适应子空间学习方法

Publications (2)

Publication Number Publication Date
CN113240030A CN113240030A (zh) 2021-08-10
CN113240030B true CN113240030B (zh) 2022-06-28

Family

ID=77138679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110568711.9A Expired - Fee Related CN113240030B (zh) 2021-05-24 2021-05-24 一种基于交互表示的域自适应子空间学习方法

Country Status (1)

Country Link
CN (1) CN113240030B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935121B (zh) * 2023-07-20 2024-04-19 哈尔滨理工大学 面向跨地域光谱图像地物分类的双驱动特征学习方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729648A (zh) * 2014-01-07 2014-04-16 中国科学院计算技术研究所 领域自适应模式识别方法及系统
CN109034080A (zh) * 2018-08-01 2018-12-18 桂林电子科技大学 多源域自适应的人脸识别方法
CN109522956A (zh) * 2018-11-16 2019-03-26 哈尔滨理工大学 一种低秩判别特征子空间学习方法
CN110659663A (zh) * 2019-03-22 2020-01-07 重庆大学 一种无监督的双向重建领域自适应方法
CN111611909A (zh) * 2020-05-18 2020-09-01 桂林电子科技大学 多子空间域自适应人脸识别方法
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176370B2 (en) * 2018-07-02 2021-11-16 United States Of America As Represented By The Secretary Of The Air Force Diffusion maps and transfer subspace learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729648A (zh) * 2014-01-07 2014-04-16 中国科学院计算技术研究所 领域自适应模式识别方法及系统
CN109034080A (zh) * 2018-08-01 2018-12-18 桂林电子科技大学 多源域自适应的人脸识别方法
CN109522956A (zh) * 2018-11-16 2019-03-26 哈尔滨理工大学 一种低秩判别特征子空间学习方法
CN110659663A (zh) * 2019-03-22 2020-01-07 重庆大学 一种无监督的双向重建领域自适应方法
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation
CN111611909A (zh) * 2020-05-18 2020-09-01 桂林电子科技大学 多子空间域自适应人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Ao Li et.al.Cross-View Feature Learning via Structures Unlocking Based on Robust Low-Rank Constraint.《IEEE Access》.2020,46851 - 46860. *
李骜 ; 刘鑫 ; 陈德运 ; 张英涛 ; 孙广路.基于低秩表示的鲁棒判别特征子空间学习模型.《电子与信息学报》.2020,1223-1230. *
罗灵鲲.迁移学习技术及交互式图像分割相关问题的研究.《中国博士学位论文全文数据库 (信息科技辑)》.2020,I138-30. *

Also Published As

Publication number Publication date
CN113240030A (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
Zhang et al. Learning signed distance field for multi-view surface reconstruction
Shi et al. Learning non-lambertian object intrinsics across shapenet categories
Santra et al. Learning a patch quality comparator for single image dehazing
Sinha et al. Image-based rendering for scenes with reflections
US11455712B2 (en) Method and apparatus for enhancing stereo vision
US8009880B2 (en) Recovering parameters from a sub-optimal image
Zhou et al. FSAD-Net: feedback spatial attention dehazing network
Liu et al. Improved techniques for learning to dehaze and beyond: A collective study
Chen et al. Dbarf: Deep bundle-adjusting generalizable neural radiance fields
CN113159043A (zh) 基于语义信息的特征点匹配方法及系统
CN113240030B (zh) 一种基于交互表示的域自适应子空间学习方法
CN113344000A (zh) 证件翻拍识别方法、装置、计算机设备和存储介质
CN116266359A (zh) 目标物的跟踪方法、装置、计算机设备和存储介质
Chen et al. From depth-aware haze generation to real-world haze removal
Zhang et al. Physically-guided disentangled implicit rendering for 3d face modeling
Sheng et al. Efficient convex optimization-based texture mapping for large-scale 3D scene reconstruction
Luo et al. Stay positive: Non-negative image synthesis for augmented reality
Liu et al. Pad-net: A perception-aided single image dehazing network
Mondal et al. Physics Informed and Data Driven Simulation of Underwater Images via Residual Learning
Filin et al. Haze removal method based on joint transmission map estimation and atmospheric-light extraction
Hachisuka et al. Harbingers of NeRF-to-BIM: A case study of semantic segmentation on building structure with neural radiance fields
Benkhoui et al. An Attention-based Self-Supervised Approach to Monocular Depth Estimation from UAV captured Video Sequences
Chen et al. HDNet: A dual-stream network with progressive fusion for image hazing detection
CN111046748B (zh) 一种大头照场景增强识别方法及装置
Liu et al. NopeRoom: Geometric Prior Based Indoor Scene Reconstruction with Unknown Poses

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220628