CN116030495A - 基于倍率学习的低分辨率行人重识别算法 - Google Patents
基于倍率学习的低分辨率行人重识别算法 Download PDFInfo
- Publication number
- CN116030495A CN116030495A CN202211615584.4A CN202211615584A CN116030495A CN 116030495 A CN116030495 A CN 116030495A CN 202211615584 A CN202211615584 A CN 202211615584A CN 116030495 A CN116030495 A CN 116030495A
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- image
- branch
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000004821 distillation Methods 0.000 claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 101100001674 Emericella variicolor andI gene Proteins 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims description 2
- 230000002776 aggregation Effects 0.000 claims description 2
- 238000004220 aggregation Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000005065 mining Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 abstract description 8
- 238000012549 training Methods 0.000 description 18
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000002679 ablation Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 102100040160 Rabankyrin-5 Human genes 0.000 description 3
- 101710086049 Rabankyrin-5 Proteins 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100270014 Arabidopsis thaliana APR2 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,提供了一种基于倍率学习的低分辨率行人重识别算法,提出了一种新的非端到端倍率自适应融合与判别性特征回归网络模型,该模型学习恢复不同倍率低分辨率行人图像,并能够提取行人判别性信息进行图像检索。具体而言,设计了一个多任务超分识别学习网络,包含一个倍率自适应超分子网络和一个蒸馏识别子网络。倍率自适应超分子网络通过轮廓信息和细节信息自适应融合,能够针对不同倍率的低分辨率图像进行像素信息恢复,减少行人图像中的噪声干扰。蒸馏识别子网络具有识别损失和特征结构损失同步引导网络对行人判别性特征的提取。大量实验表明,本发明所提出的RAMN模型在准确性和效率方面均达到了最新水平。
Description
技术领域
本发明属于计算机视觉技术领域,以提高低分辨率行人图像识别准确性为出发点,提出基于倍率学习的低分辨率行人重识别算法。
背景技术
行人重识别,旨在将同一个人的图像在多个摄像头中进行匹配,它被广泛应用于刑事侦查、智能安防、目标寻人、计算取证等多种领域场景。近年来行人重识别领域借助深度学习强大的表征能力取得了很大进展。但其中大部分方法只使用高分辨率图像作为输入,通过提取鲁棒的行人特征来匹配同身份的行人。在复杂的场景下,由于拍摄角度,相机参数,背景杂波等因素干扰,图像分辨率通常较低且倍率不一致,这对最终的检索精度势必会产生干扰。
当前基于深度学习的行人重识别算法发展迅速,研究者们提出很多鲁棒的、更具辨识度的判别性特征提取方法来解决行人重识别问题中特征提取难点问题。ABD-Net(ChenT,Ding S,Xie J,et al.Abd-net:Attentive but diverse person re-identification.ICCV,2019)通过整合通道注意和空间注意机制,同时引入SVDO正则化项,降低网络不同特征间耦合性,提高网络全局多样性特征表示能力。PCB(Sun Y,Zheng L,Yang Y,et al.Beyond part models:Person retrieval with refined part pooling(and a strong convolutional baseline).ECCV,2018)通过对特征图水平切块的方式,引导网络关注行人各局部区域特征表示。Spindle Net(Zhao H,Tian M,Sun S,etal.Spindle net:Person re-identification with human body region guided featuredecomposition and fusion.IEEE,2017)引入语义信息提取模块,利用姿态估计方式精准对齐人体部件的局部特征。PFD(Wang T,Liu H,Song P,et al.Pose-guided featuredisentangling for occluded person re-identification based ontransformer.AAAI,2022)提出基于transform的姿态引导特征分离方法,通过显式匹配行人可见身体部位信息,来消除遮挡噪声的干扰。然而,这些研究的重点是如何产生更准确的行人特征表示,而忽略了实际场景中采集到的行人图像分辨率不匹配问题。
针对分辨率不匹配问题,主要有两大研究方向:一是设计超分与识别多任务学习框架,恢复模糊图像细节信息后进行识别。PRI(Han K,Huang Y,Chen Z,et al.Predictionand recovery for adaptive low-resolution person re-identification.ECCV,2020)旨在通过生成动态软标签引导网络自监督预测最佳比例因子,恢复缺失图像细节。INTACT(Cheng Z,Dong Q,Gong S,et al.Inter-task association critic for cross-resolution person re-identification.CVPR,2020)旨在利用参数化约束来实现任务间的关联机制,引导超分图像学习到真实高分辨率图像的分布信息。MRJL(Zhang G,Chen Y,Lin W,et al.Low resolution information also matters:Learning multi-resolutionrepresentations for person re-identification.IJCAI,2021)旨在通过对低分辨率图像多倍率重建和双特征融合,突出低分辨率图像提供的全局信息。APSR(Han K,Huang Y,Song C,et al.Adaptive super-resolution for person re-identification with low-resolution images.PR,2021)提出一种多倍率像素信息自适应融合方法,抑制图像伪影干扰。另一种研究方向是图像特征解耦。DDGAN(Huang Y,Zha Z J,Fu X,et al.Real-worldperson re-identification via degradation invariance learning.CVPR,2020)通过多信息分离方法,获取图片的不变特征。Tian等提出借助自蒸馏和瓶颈信息互学习的方法(Tian X,Zhang Z,Lin S,et al.Farewell to mutual information:Variationaldistillation for cross-modal person re-identification.CVPR,2021)最大化共享特征确保特征不变性。与这些方案相比,本发明提出了图像倍率自适应的超分方法和特征结构学习函数,能够准确预测超分最佳比例因子,同时引导超分图像和真实图像分布一致性,以提高行人图像识别精度。
发明内容
本发明的目的是提供一个基于倍率自适应超分的行人重识别网络,通过对不同倍率低分辨率行人图像的高质量恢复和判别性特征提取,以提高行人重识别任务的准确性。在这项工作中,我们提出了一种倍率自适应蒸馏网络(RAMN),以非端到端的方式处理像素和语义信息,如图1所示。具体而言,RAMN网络包含一个倍率自适应超分子网络和一个蒸馏识别子网络。倍率自适应超分子网络可以针对不同倍率的低分辨率图像进行像素信息恢复,减少行人图像中的噪声干扰。蒸馏识别子网络利用识别损失和特征相关性损失同步引导网络对行人判别性特征的提取。大量实验表明,所提出的RAMN模型在准确性和效率方面均达到了最新水平。
本发明的技术方案:
一种基于倍率学习的低分辨率行人重识别算法,
(1)倍率自适应超分子网络
倍率自适应超分子网络由堆叠七次的单元构成,每个单元结构有三个分支:H分支、M分支和α分支,分别实现学习低分辨率图像泛化的超分信息、细粒度的补充信息以及融合系数;行人图像经过卷积层提取到浅层特征Fc后,分别输入H分支和M分支;不同倍率输入图像在数据处理阶段分配不同倍率编码αin,输入α分支获得融合系数;
浅层特征提取:
Fc=f(xL) (1)
其中,xL∈Rh×w×3,代表低分辨率图像;f是一个3×3卷积;Fc∈Rh×w×c,其中h、w表示图像特征的高度和宽度,c是通道的数量;
H分支由DBPN中一组向下和向上投影单元组成,该分支通过对投影图像和原始图像的残差纠正,缓解投影误差;这种图像残差再投影方法能恢复行人图像的边缘轮廓信息,即泛化的行人信息;
Ht=GB(Ht-1),H0=Fc (2)
其中,GB是投影单元,Ht-1和Ht是第t个单元的输入和输出,第一个单元输入是浅层特征Fc;
在行人重识别任务中,边缘轮廓信息无法准确识别特定行人,还要补全细粒度信息;M分支为特征聚合分支,由卷积层和ReLU激活函数组成;卷积层实现对图像细粒度信息提取,M分支最终输出特征融合行人边缘轮廓信息和细粒度信息,以此得到行人判别性信息;
Mt=Block(Ht-1,Mt-1),M0=Fc (3)
其中,Block是卷积单元,Ht-1和Mt-1是第t个单元的输入和输出,第一个单元输入是浅层特征Fc;
为确保倍率自适应超分子网络对各种倍率的输入图像进行精准超分,引入线形引导分支α根据图像输入倍率不同,动态控制不同特征信息的占比;
αt=T(αt-1),α0=αin,at=σ(αt),bt=1-at (4)
Mt=atHt+bt(DB(Mt-1)) (5)
其中,T是线性单元,由三个全连接层组成,αt-1和αt是第t个线性单元的输入输出;第一个单元输入是倍率编码αin;σ是sigmoid函数,该函数将全连接层的输出映射为H分支和M分支的占比系数at和bt;公式(5)为单元结构判别性特征的融合公式;
倍率自适应超分子网络将所有阶段M分支的融合特征整合作为最终输出,整合特征经过3×3卷积降维得到最终的高分辨率图像;
xSR=fRec(M1,M2...M7) (6)
其中,fRec是concat操作,fRec是3×3卷积降维操作,xSR是行人超分图像;
(2)蒸馏识别子网络
使用HRNet-ReID网络作为特征提取骨干网络,HRNet-ReID网络由四个分支并行学习从高到低不同分辨率的特征信息;为适应re-ID图像检索需求,每条分支最后的特征图经过平均池化和最大池化被压缩为特征序列作为最终输出;两条高分辨率信息分支学习空间位置信息,两条低分辨率信息分支突出对行人语义理解;HRNet-ReID网络通过对四条分支信息交互融合,维护所学特征的高空间敏感度,突出细粒度语义信息的表达;
为消除超分图像和真实图像在特征空间中的分布域差异,设计了蒸馏结构模型;蒸馏结构模型由两支完全相同的HRNet-ReID网络构成:真实高分辨率图像判别性特征提取分支和超分高分辨率图像判别性特征提取分支,网络参数不共享;同时提出特征结构学习公式,引导超分图像分支和真实图像分支进行特征分布一致性学习;特征结构学习公式如下所示:
其中,h是网络学习到的特征图,h(u)和h(v)是特征图中任意两点空间位置u和v,||h(u)||2是u所在特征图的L2范数,代表对u所在的特征图归一化,是对得到的归一化矩阵进行转置操作;求解过程和相同通过该公式能够计算出特征图任意两点间的相互关系,学习到HW×HW大小的特征结构关系图;
(3)Loss函数的设计
其中,xSR是行人超分图像,xHR是对应的高分辨率图,为任务的目标结果;
HRNet-ReID网络最终输出包括四支不同分辨率的特征序列、所有分支串联形成的整序列以及经过分类层后的特征分类序列,最终输出的六支特征序列记为[PART]1-4,[GLB],[CLS];是x属于真实标签的概率;
为缩小超分图像和真实图像特征分布差异,提出结构相关性损失,将真实图像的特征关系转移到超分图像,引导识别网络准确提取超分图像判别性特征;公式(12)是特征结构强连接,Sh是高分辨率图像特征提取分支的输出,Sl是超分图像特征提取分支的输出,Sh,Sl∈{[PART]1-4,[GLB]},代表蒸馏网络两条分支六个序列的相互学习;
根据提出的特征结构学习公式,设计出特征结构弱连接损失函数公式(13);高层语义更能准确表达特征结构信息,故选用低分辨率特征作为结构学习基准;故fh和fs分别代表蒸馏网络高分辨率图像特征提取分支和超分图像特征提取分支中[PART]3和[PART]4支路的特征图。
本发明的有益效果:
(1)我们提出了一种基于倍率自适应的识别学习网络,从像素和特征两方面切入,学习图像超分并进行图像检索,用于解决行人重识别算法在低分辨率行人数据集检索精度下降严重问题。
(2)我们提出基于倍率差异的自适应超分引导机制,通过自调节补充图像轮廓和细粒度信息,引导行人整体图像恢复。
(3)我们设计特征结构损失函数,引导同一行人不同倍率图像特征一致性表达,消除图像特征分布差异。
附图说明
图1为本发明提出的用于低分辨率行人重识别算法的网络框架图。
图2为本发明提出的超分网络单元结构框架图。
图3为本发明提出的蒸馏结构框架图。
图4为本发明提出的特征结构公式示意图。
图5为本发明的总损失函数变化曲线图。
图6为本发明中不同训练策略超分结果对比图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面对本发明的具体实施方式作进一步的详细描述。
我们实验涉及四个数据集,包括两个高分辨率数据集Market1501和DukeMTMC-reid以及两个合成低分辨率数据集MLR-Market1501和MLR-DukeMTMC-reid。实验评估是在两个合成低分数据集上进行的:MLR-Market1501包括32,668张由6台摄像机拍摄的1,501个行人的图像。MLR-DukeMTMC-reid包括36,411张由8台相机拍摄的1,404个行人的图像。低分数据集图像采取统一的MLR处理标准:对同一行人所有摄像头下的图像,随机选择一个摄像头,对该摄像头下的图像进行随机下采样操作,下采样系数r∈{2,3,4},作为低分辨率图像查询库,其余摄像头下的图片保持不变,作为高分辨率图像图库。
αin设置要求:图像预处理过程中,对下采样图像进行编码配对。γ=2时,编码设置[1,0,0];γ=3时,编码设置[0,1,0];γ=4时,编码设置[0,0,1];在训练阶段,图像和对应编码输入超分网络,训练网络对不同倍率图像的超分能力。在测试阶段,所有编码设置[1,1,1],网络能够自适应输入图像的倍率信息超分出准确图像。
实施细节:在本实施例中,训练过程分为三个阶段。第一阶段,我们只进行超分模块的训练;在第二阶段,用传统的高分辨率数据集训练蒸馏上分支网络的识别性能;在第三阶段,在低分辨率数据集上进行超分和识别网络的整体训练。我们优化器使用momentumSGD,初始学习率设为0.003,并在每30个epoch后乘以0.1。权重衰减率设定为5e-4,我们的网络总共进行50个epoch训练。其中超参数λ1,λ2,λ3,λ4,λ5分别为1,1.15,0.2,0.5和0.02。
对比实验:如表1所示,我们展示了在两个常用数据集上不同方法的识别精度结果。最后一行为本发明的方法,第一到九行是当前低分辨率行人重识别主流方法的实验结果,几乎覆盖该领域中的所有顶会方法。根据实验对比结果可以看出,本发明提出的方法在两个数据集上均达到了最先进的性能。相比于PS-HRNet方法,我们进行了倍率自适应超分图像的学习和结构损失函数的约束,在两个数据集上Rank1的精度分别提高了1.7%和4.4%,证实了本发明方法的有效性。
表1在MLR-Market1501和MLR-DukeMTMC-reid的不同方法的结果
消融实验:为验证各模块的有效性,本发明在MLR-Market1501数据集上对所有损失函数进行了消融实验,以说明我们提出的模块有效性,实验结果在表2。其中代表保证网络实现基本行人识别功能。表示引入超分模块。为蒸馏网络特征结构强弱连接损失用来约束不同分辨率图像分布一致性。消融实验表明,提出的超分模块恢复了行人图像判别性信息,Rank1、Rank5和Rank10识别精度分别提高了1.8%,0.9%和0.4%。本发明提出的特征结构损失缩小了同类图像分布差异,Rank1、Rank5和Rank10识别精度在原基础上分别提高了2.1%,0.8%和0.5%。
表2在MLR-Market1501上不同损失函数的消融实验识别结果
迭代次数分析:为方便模型训练及对网络效率进行评估,损失函数变化曲线如图5所示,通过测试集结果验证和图示均能证明,在第50个epoch时实验结果趋于稳定,证明本方案在行人重识别任务中能够快速达到很好的结果。
非端到端训练策略:由于行人重识别任务训练集与测试集的不可见特性,训练和测试定位到的行人判别性区域会存在差异。前人采用端到端的训练方法,导致网络只关注训练集判别性区域恢复,出现测试集判别性区域恢复效果差的情况。本发明采取非端到端的训练策略,通过训练超分网络恢复低分辨率图像所有区域来避免重要信息的丢失。根据图6所示的不同训练策略超分输出对比图可以看出,非端到端训练策略能够更清晰地恢复行人图像区域和线条轮廓。表3的实验结果也证明,在行人重识别任务重非端到端的策略更优于端到端。
表3本发明在MLR-Market1501上不同训练策略的识别结果
训练策略 | Rank1 | Rank5 | Rank10 |
端到端 | 91.7 | 97.1 | 97.9 |
非端到端 | 93.2 | 97.6 | 98.3 |
以上所述乃是本发明的具体实施例及所运用的技术原理,若依本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的精神时,仍应属本发明的保护范围。
Claims (1)
1.一种基于倍率学习的低分辨率行人重识别算法,其特征在于,
(1)倍率自适应超分子网络
倍率自适应超分子网络由堆叠七次的单元构成,每个单元结构有三个分支:H分支、M分支和α分支,分别实现学习低分辨率图像泛化的超分信息、细粒度的补充信息以及融合系数;行人图像经过卷积层提取到浅层特征Fc后,分别输入H分支和M分支;不同倍率输入图像在数据处理阶段分配不同倍率编码αin,输入α分支获得融合系数;
浅层特征提取:
Fc=f(xL) (1)
其中,xL∈Rh×w×3,代表低分辨率图像;f是一个3×3卷积;Fc∈Rh×w×c,其中h、w表示图像特征的高度和宽度,c是通道的数量;
H分支由DBPN中一组向下和向上投影单元组成,该分支通过对投影图像和原始图像的残差纠正,缓解投影误差;这种图像残差再投影方法能恢复行人图像的边缘轮廓信息,即泛化的行人信息;
Ht=GB(Ht-1),H0=Fc (2)
其中,GB是投影单元,Ht-1和Ht是第t个单元的输入和输出,第一个单元输入是浅层特征Fc;
在行人重识别任务中,边缘轮廓信息无法准确识别特定行人,还要补全细粒度信息;M分支为特征聚合分支,由卷积层和ReLU激活函数组成;卷积层实现对图像细粒度信息提取,M分支最终输出特征融合行人边缘轮廓信息和细粒度信息,以此得到行人判别性信息;
Mt=Block(Ht-1,Mt-1),M0=Fc (3)
其中,Block是卷积单元,Ht-1和Mt-1是第t个单元的输入和输出,第一个单元输入是浅层特征Fc;
为确保倍率自适应超分子网络对各种倍率的输入图像进行精准超分,引入线形引导分支α根据图像输入倍率不同,动态控制不同特征信息的占比;
αt=T(αt-1),α0=αin,at=σ(αt),bt=1-at (4)
Mt=atHt+bt(DB(Mt-1)) (5)
其中,T是线性单元,由三个全连接层组成,αt-1和αt是第t个线性单元的输入输出;第一个单元输入是倍率编码αin;σ是sigmoid函数,该函数将全连接层的输出映射为H分支和M分支的占比系数at和bt;公式(5)为单元结构判别性特征的融合公式;
倍率自适应超分子网络将所有阶段M分支的融合特征整合作为最终输出,整合特征经过3×3卷积降维得到最终的高分辨率图像;
xSR=fRec(M1,M2...M7) (6)
其中,fRec是concat操作,fRec是3×3卷积降维操作,xSR是行人超分图像;
(2)蒸馏识别子网络
使用HRNet-ReID网络作为特征提取骨干网络,HRNet-ReID网络由四个分支并行学习从高到低不同分辨率的特征信息;为适应re-ID图像检索需求,每条分支最后的特征图经过平均池化和最大池化被压缩为特征序列作为最终输出;两条高分辨率信息分支学习空间位置信息,两条低分辨率信息分支突出对行人语义理解;HRNet-ReID网络通过对四条分支信息交互融合,维护所学特征的高空间敏感度,突出细粒度语义信息的表达;
为消除超分图像和真实图像在特征空间中的分布域差异,设计了蒸馏结构模型;蒸馏结构模型由两支完全相同的HRNet-ReID网络构成:真实高分辨率图像判别性特征提取分支和超分高分辨率图像判别性特征提取分支,网络参数不共享;同时提出特征结构学习公式,引导超分图像分支和真实图像分支进行特征分布一致性学习;特征结构学习公式如下所示:
其中,h是网络学习到的特征图,h(u)和h(v)是特征图中任意两点空间位置u和v,||h(u)||2是u所在特征图的L2范数,代表对u所在的特征图归一化,是对得到的归一化矩阵进行转置操作;求解过程和相同通过该公式能够计算出特征图任意两点间的相互关系,学习到HW×HW大小的特征结构关系图;
(3)Loss函数的设计
其中,xSR是行人超分图像,xHR是对应的高分辨率图,为任务的目标结果;
HRNet-ReID网络最终输出包括四支不同分辨率的特征序列、所有分支串联形成的整序列以及经过分类层后的特征分类序列,最终输出的六支特征序列记为[PART]1-4,[GLB],[CLS];是x属于真实标签的概率;
为缩小超分图像和真实图像特征分布差异,提出结构相关性损失,将真实图像的特征关系转移到超分图像,引导识别网络准确提取超分图像判别性特征;公式(12)是特征结构强连接,Sh是高分辨率图像特征提取分支的输出,Sl是超分图像特征提取分支的输出,Sh,Sl∈{[PART]1-4,[GLB]},代表蒸馏网络两条分支六个序列的相互学习;
根据提出的特征结构学习公式,设计出特征结构弱连接损失函数公式(13);高层语义更能准确表达特征结构信息,故选用低分辨率特征作为结构学习基准;故fh和fs分别代表蒸馏网络高分辨率图像特征提取分支和超分图像特征提取分支中[PART]3和[PART]4支路的特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615584.4A CN116030495A (zh) | 2022-12-15 | 2022-12-15 | 基于倍率学习的低分辨率行人重识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615584.4A CN116030495A (zh) | 2022-12-15 | 2022-12-15 | 基于倍率学习的低分辨率行人重识别算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116030495A true CN116030495A (zh) | 2023-04-28 |
Family
ID=86071978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211615584.4A Pending CN116030495A (zh) | 2022-12-15 | 2022-12-15 | 基于倍率学习的低分辨率行人重识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116030495A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116824695A (zh) * | 2023-06-07 | 2023-09-29 | 南通大学 | 一种基于特征去噪的行人再识别非局部防御方法 |
CN117541471A (zh) * | 2023-11-09 | 2024-02-09 | 西安电子科技大学 | 基于sph启发的pg-spect图像超分辨重建方法 |
CN118447539A (zh) * | 2024-07-05 | 2024-08-06 | 华侨大学 | 一种基于自蒸馏的二维人体姿态估计方法及装置 |
-
2022
- 2022-12-15 CN CN202211615584.4A patent/CN116030495A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116824695A (zh) * | 2023-06-07 | 2023-09-29 | 南通大学 | 一种基于特征去噪的行人再识别非局部防御方法 |
CN117541471A (zh) * | 2023-11-09 | 2024-02-09 | 西安电子科技大学 | 基于sph启发的pg-spect图像超分辨重建方法 |
CN117541471B (zh) * | 2023-11-09 | 2024-06-07 | 西安电子科技大学 | 基于sph启发的pg-spect图像超分辨重建方法 |
CN118447539A (zh) * | 2024-07-05 | 2024-08-06 | 华侨大学 | 一种基于自蒸馏的二维人体姿态估计方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Seo et al. | Attentive semantic alignment with offset-aware correlation kernels | |
Nam et al. | Local decorrelation for improved pedestrian detection | |
CN111738143B (zh) | 一种基于期望最大化的行人重识别方法 | |
CN116030495A (zh) | 基于倍率学习的低分辨率行人重识别算法 | |
CN105718889B (zh) | 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法 | |
CN111460914A (zh) | 一种基于全局和局部细粒度特征的行人重识别方法 | |
CN113947814B (zh) | 一种基于时空信息增强和多尺度显著性特征提取的跨视角步态识别方法 | |
CN108154133B (zh) | 基于非对称联合学习的人脸画像-照片识别方法 | |
Lu et al. | Rethinking prior-guided face super-resolution: A new paradigm with facial component prior | |
Yin et al. | Dynamic difference learning with spatio-temporal correlation for deepfake video detection | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN114299542A (zh) | 一种基于多尺度特征融合的视频行人重识别方法 | |
CN112861605A (zh) | 基于时空混合特征的多人步态识别方法 | |
CN116704611A (zh) | 一种基于运动特征混合和细粒度多阶段特征提取的跨视角步态识别方法 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
CN113379597A (zh) | 人脸超分辨率重构方法 | |
CN111695455B (zh) | 一种基于耦合判别流形对齐的低分辨人脸识别方法 | |
CN114550014B (zh) | 道路分割方法及计算机装置 | |
Yuan et al. | M $^ 3$ Net: Multilevel, Mixed and Multistage Attention Network for Salient Object Detection | |
Hang et al. | Spatial-temporal adaptive graph convolutional network for skeleton-based action recognition | |
CN115661754A (zh) | 一种基于维度融合注意力的行人重识别方法 | |
Zhang et al. | Deep manifold-to-manifold transforming network | |
CN107133579A (zh) | 基于CSGF(2D)2PCANet卷积网络的人脸识别方法 | |
Huang et al. | Axially-enhanced local attention network for finger vein recognition | |
Zhou et al. | Deep learning research with an expectation-maximization model for person re-identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |