CN117523609A - 基于特定和共享表示学习的可见光与近红外行人重识别方法 - Google Patents
基于特定和共享表示学习的可见光与近红外行人重识别方法 Download PDFInfo
- Publication number
- CN117523609A CN117523609A CN202311519273.2A CN202311519273A CN117523609A CN 117523609 A CN117523609 A CN 117523609A CN 202311519273 A CN202311519273 A CN 202311519273A CN 117523609 A CN117523609 A CN 117523609A
- Authority
- CN
- China
- Prior art keywords
- features
- specific
- visible light
- near infrared
- shared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000002776 aggregation Effects 0.000 claims abstract description 18
- 238000004220 aggregation Methods 0.000 claims abstract description 18
- 238000000926 separation method Methods 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/86—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于特定和共享表示学习的可见光与近红外行人重识别方法,设计一个共享分支来弥合图像级别的域差异并学习模态共享表征,同时设计了一个特定分支来保留可见光图像的判别信息以学习模态特定表征。此外,还提出了类内聚合和类间分离学习策略,以在细粒度水平上优化特征嵌入的分布,进一步提高发明方法的泛化性能,本发明能够在消除颜色差异的同时,保留可见光图像中包含的颜色特定信息。
Description
技术领域
本发明涉及计算机视觉处理技术,具体涉及一种基于特定和共享表示学习的可见光与近红外行人重识别方法。
背景技术
行人重识别是一种关键的技术,用于判断图像或者视频序列中是否存在特定行人。在监控视频中,由于相机分辨率和拍摄角度的缘故,通常无法得到质量非常高的人脸图片。当人脸识别失效的情况下,行人重识别就成为了一个非常重要的替代品技术。在公共安全领域,行人重识别技术可以用于监控和预防犯罪。通过对监控视频中的行人进行重识别,可以快速找到嫌疑人的行踪,从而提高犯罪侦查的效率。在交通领域,通过行人重识别技术,可以更好地了解行人的行为,为交通管理提供更好的数据支持,实现交通信号的控制和优化。在商业领域,通过行人重识别技术,可以更好地了解顾客的行为习惯和购物喜好,为商家提供更好的服务,还可以用于广告投放。随着视频安防监控要求的不断提升,为了克服可见光摄像头无法全天候使用的缺点以及昼夜光照条件不同的问题,跨模态可见光近红外行人重识别被提出。
在早期的跨模态可见光近红外行人重识别工作中,研究人员旨在通过生成对抗网络去生成具体的跨模态图像来消除图像级间隙,将任务尽可能地减少为单模态任务。但是在生成的过程中难以避免会产生一定的噪声。因此,最近的一些工作使用灰度图像进行交叉模态匹配来消除可见光和近红外图像的颜色差异。一些研究人员提出了一种使用随机交换颜色通道来均匀地生成与颜色无关的图像从而缓解模态间的差异,另一些研究人员引入了一个辅助的X模态作为中间模态,并将可见光红外双模交叉模态学习重新表述为可见光红外和X模态的三模学习问题。然而,目前仍然存在不可忽视的问题:消除颜色差异的同时,可见光图像中包含的颜色特定信息会被一起丢弃;模态差异巨大,两种模态特征无法很好地投射到统一空间中。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种基于特定和共享表示学习的可见光与近红外行人重识别方法,本发明设计一个共享分支来弥合图像级别的域差异并学习模态共享表征,同时设计一个特定分支来保留可见光图像的判别信息以学习模态特定表征。此外,还提出类内聚合和类间分离学习策略,以在细粒度水平上优化特征嵌入的分布,进一步提高技术方案的泛化性能。
技术方案:本发明的一种基于特定和共享表示学习的可见光与近红外行人重识别方法,包括以下步骤:
步骤S1,获取可见光图像xrgb∈RH×W×3和近红外图像xnir∈RH×W×3,将可见光图像和近红外图像作为初始输入图像送入双分支共享特定联合学习网络模型;双分支共享特定联合学习网络模型包括通道转化模块、基于Resnet-50的共享分支和特定分支以及残差收缩融合模块;
步骤S2、使用通道转化模块将输入的可见光图像xrgb∈RH×W×3进行灰度化处理,得到灰度图像xgray∈RH×W×3;
步骤S3、使用基于Resnet-50的特定分支分别对可见光图像和近红外图像进行处理,提取获得可见光特定特征以及近红外特定特征,特定特征主要是颜色等一些特征,用来区分同一模态不同行人;使用基于Resnet-50的共享分支分别对近红外图像和灰度图像进行处理,提取获得可见光共享特征以及近红外共享特征,共享特征主要是纹理等一些特征,用来拉近不同模态同一行人;
上述共享分支的两个Resnet-50模块之间共享参数,每个Resnet-50模块均包含前置卷积层、残差块、50个卷积层、全局最大池化和全连接层,每个残差块均包含两个卷积层,每个卷积层后面接一个非线性激活函数,这种结构的共享分支可有效地保留并传递信息,从而避免梯度消失问题,显著提高图像识别等任务的性能;
上述特定分支的两个Resnet-50模块之间不共享参数;
步骤S4,使用部件级特征提取模块将所得可见光图像和近红外行人图像特征划分成水平条状,粗略提取人体部分特征;
步骤S5,使用残差收缩融合模块将同一行人每一部分的特定特征和共享特征进行融合,得到最终融合特征;最后,每一部分的融合特征都通过判别器进行分类任务;
步骤S6,使用类内聚合和类间分离学习策略来优化共享特征和特定特征的分布,类内聚合和类间分离学习策略包括类内聚合学习模块和类间分类学习模块;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征输入类内聚合学习模块;所述类内聚合学习模块限制每个类的距离,以增加跨模态的类内相似性,减少相同身份的不同模态中心之间的距离,从而抑制跨模态的变化,可见光特定特征、红外特定特征、可见光共享特征和红外共享特征映射更加集中;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征的特征中心作为初始输入特征,输入至类间分类学习模块;所述类问分类学习模块分离了不同身份的特征分布,增加同一模态不同身份中心之间的距离。
进一步地,通道转化模块将三通道可见光图像转化为单通道近红外图像,能够缓解可见光和近红外图像的模态差异,便于提高两种模态的共享特征,也即是说通过对可见光图像进行灰度变换操作以缓解和近红外图像的模态差异,可见光图像具有三个通道R、G、B;此处取R(x),G(x)和B(x)值为可见光图像的每个像素;因此对应的灰度像素点Gray(x)可计算为:
Gray(x)=R(X)*0.114+G(x)*0.587+B(x)*0.229。
进一步地,可见光图像和近红外图像的特定特征和共享特征的计算过程各自如下:
其中SSRLspecific()表示通过特定分支提取特定特征,SSRLshared表示通过共享分支提取共享特征,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
进一步地,所述部件级特征提取模块采用均匀分割策略来获得粗体部位特征,将三维特征图在水平方向上均匀划分为6条,同时需要6个不同的不共享参数的分类器,在测试过程中,将所有6个部分级特征连接起来,形成用于相似性度量的最终人物特征。
进一步地,所述残差收缩融合模块将同一行人的共享特征和特定特征进行融合操作,具体的融合过程可表示为:
其中,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
通过残差收缩融合模块使最终融合特征既包含特定信息可帮助区分同一模态不同身份的行人特征又包含共享特征可以帮助找到不同模态同一身份的行人特征。本发明的残差收缩融合模块基于Resnet加入软阈值函数,能够有效消除噪声相关特征的影响。
进一步地,所述类内聚合模块用于限制每个类的距离,以增加跨模态的类内相似性,最终能够将同一身份的不同模态聚合在一起,具体的聚合过程可表示为:
进一步地,所述类间分离模块用于分离不同的身份,保证不同身份之间的差异性,最终能够将不同身份的身份特征分离开来,具体的分离过程表示为:
上式中,j表示表示非p的行人身份,cp、cj分布表示身份p和身份j的特征分布中心。
有益效果:本发明设计一个共享分支来弥合图像级别的域差异并学习模态共享表征,同时设计了一个特定分支来保留可见光图像的判别信息以学习模态特定表征。此外,还提出了类内聚合和类间分离学习策略,以在细粒度水平上优化特征嵌入的分布,进一步提高发明方法的泛化性能。本发明网络框架简单有效,在公开的SYSU-MM01数据集和RegDB数据集实现了非常好的效果。
附图说明
图1是本发明中双分支共享特定联合学习网络模型结构示意图;
图2是本发明中通道转化模块示意图;
图3是本发明中残差收缩融合模块示意图;
图4是本发明中类内聚合学习模块示意图;
图5是本发明中类间分离学习模块示意图。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
如图1所示,一种基于特定和共享表示学习的可见光与近红外行人重识别方法,包括以下步骤:
步骤S1,获取可见光图像xrgb∈RH×W×3和近红外图像xnir∈RH×W×3,将可见光图像和近红外图像作为初始输入图像送入双分支共享特定联合学习网络模型;双分支共享特定联合学习网络模型包括通道转化模块、基于Resnet-50的共享分支和特定分支以及残差收缩融合模块;
步骤S2、使用通道转化模块将输入的可见光图像xrgb∈RH×W×3进行灰度化处理,得到灰度图像xgray∈RH×W×3;
步骤S3、使用基于Resnet-50的特定分支分别对可见光图像和近红外图像进行处理,提取获得可见光特定特征以及近红外特定特征;使用基于Resnet-50的共享分支分别对近红外图像和灰度图像进行处理,提取获得可见光共享特征以及近红外共享特征;
上述共享分支的两个Resnet-50模块之间共享参数,每个Resnet-50模块均包含前置卷积层、残差块、50个卷积层、全局最大池化和全连接层,每个残差块均包含两个卷积层,每个卷积层后面接一个非线性激活函数;
上述特定分支的两个Resnet-50模块之间不共享参数;
步骤S4,使用部件级特征提取模块将所得可见光图像和近红外行人图像特征划分成水平条状,粗略提取人体部分特征;
步骤S5,使用残差收缩融合模块将同一行人每一部分的特定特征和共享特征进行融合,得到最终融合特征;最后,每一部分的融合特征都通过判别器进行分类任务;
步骤S6,使用类内聚合和类间分离学习策略来优化共享特征和特定特征的分布,类内聚合和类问分离学习策略包括类内聚合学习模块和类间分类学习模块;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征输入类内聚合学习模块;类内聚合学习模块限制每个类的距离,使得可见光特定特征、红外特定特征、可见光共享特征和红外共享特征映射更加集中;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征的特征中心作为初始输入特征,输入至类间分类学习模块;类间分类学习模块分离不同身份的特征分布,增加同一模态不同身份中心之间的距离。
如图2所示,本实施例可见光图像xrgb∈RH×W×3具有三个通道R、G、B;此处取R(x),G(x)和B(x)值为可见光图像的每个像素;因此对应的灰度像素点Gray(x)可计算为:
Gray(x)=R(X)*0.114+G(x)*0.587+B(x)*0.229。
如图3所示,本实施例的可见光图像xrgb∈RH×W×3和近红外图像xnir∈RH×W×3的特定特征和共享特征的计算过程各自如下:
其中,SSRLspecific()表示通过特定分支提取特定特征,SSRLshared表示通过共享分支提取共享特征,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
本实施例的部件级特征提取模块采用均匀分割策略来获得粗体部位特征,将三维特征图在水平方向上均匀划分为6条,同时需要6个不同的不共享参数的分类器,在测试过程中,将所有6个部分级特征连接起来,形成用于相似性度量的最终人物特征。
本实施例的残差收缩融合模块将同一行人的共享特征和特定特征进行融合操作,融合过程表示为:
其中,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
如图4所示,本实施例的类内聚合模块的具体聚合过程表示为:
如图5所示,本实施例的类间分离模块的具体分离过程表示为:
实施例
将本发明技术方案得到跨模态行人重识别方法在数据集SYSU-MM01和数据集RegDB上评估,并将其与最先进的方法进行比较,如表1所示。
表1
表1中最后一行为本发明技术方案,从表1中结果可以看出,本发明技术方案采用欧几里德距离度量来测量两个特征向量之间的相似度。使用多个指标来评估性能,包括平均精度(mAP)、累积匹配曲线(CMC)。从结果中可以得到,本发明技术方案应用在跨模态行人重识别识别数据集上,在各个评价指标上都有明显提升。
Claims (7)
1.一种基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,包括以下步骤:
步骤S1,获取可见光图像xrgb∈RH×W×3和近红外图像xnir∈RH×W×3,将可见光图像和近红外图像作为初始输入图像送入双分支共享特定联合学习网络模型;双分支共享特定联合学习网络模型包括通道转化模块、基于Resnet-50的共享分支和特定分支以及残差收缩融合模块;
步骤S2、使用通道转化模块将输入的可见光图像xrgb∈RH×W×3进行灰度化处理,得到灰度图像xgray∈RH×W×3;
步骤S3、使用基于Resnet-50的特定分支分别对可见光图像和近红外图像进行处理,提取获得可见光特定特征以及近红外特定特征;使用基于Resnet-50的共享分支分别对近红外图像和灰度图像进行处理,提取获得可见光共享特征以及近红外共享特征;
上述共享分支的两个Resnet-50模块之间共享参数;上述特定分支的两个Resnet-50模块之间不共享参数;
步骤S4,使用部件级特征提取模块将所得可见光图像和近红外行人图像特征划分成水平条状,粗略提取人体部分特征;
步骤S5,使用残差收缩融合模块将同一行人每一部分的特定特征和共享特征进行融合,得到最终融合特征;最后,每个部分的融合特征都通过判别器进行分类任务;
步骤S6,使用类内聚合和类间分离学习策略来优化共享特征和特定特征的分布,类内聚合和类间分离学习策略包括类内聚合学习模块和类间分类学习模块;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征输入类内聚合学习模块;类内聚合学习模块限制每个类的距离,使得可见光特定特征、红外特定特征、可见光共享特征和红外共享特征映射更加集中;
将同一行人的可见光特定特征、近红外特定特征、可见光共享特征、近红外共享特征的特征中心作为初始输入特征,输入至类间分类学习模块;类间分类学习模块分离不同身份的特征分布,增加同一模态不同身份中心之间的距离。
2.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,通道转化模块进行灰度化处理的方法为:可见光图像具有三个通道R、G、B;此处取R(x),G(x)和B(x)值为可见光图像的每个像素;因此对应的灰度像素点Gray(x)可计算为:
Gray(x)=R(X)*0.114+G(x)*0.587+B(x)*0.229。
3.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,
可见光图像和近红外图像的特定特征和共享特征的计算过程各自如下:
其中,SSRLspevifiv()表示通过特定分支提取特定特征,SSRLshared表示通过共享分支提取共享特征,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
4.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,所述部件级特征提取模块采用均匀分割策略来获得粗体部位特征,将三维特征图在水平方向上均匀划分为6条,同时需要6个不同的不共享参数的分类器,在测试过程中,将所有6个部分级特征连接起来,形成用于相似性度量的最终人物特征。
5.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,所述残差收缩融合模块将同一行人的共享特征和特定特征进行融合操作,融合过程表示为:
其中,Cvspe表示进行光特定特征,Cvsha表示可见光共享特征,Cispe表示近红外特征特征,Cisha表示近红外共享特征。
6.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,所述类内聚合模块的具体聚合过程表示为:
其中P表示表示一个小批量训练数据中有P个身份行人特征,j表示表示非p的行人身份,分别表示身份p的可见特定特征、红外特定特征、可见共享特征、红外共享特征。
7.根据权利要求1所述的基于特定和共享表示学习的可见光与近红外行人重识别方法,其特征在于,所述类间分离模块的具体分离过程表示为:
上式中,j表示表示非p的行人身份,cp、cj分布表示身份p和身份j的特征分布中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311519273.2A CN117523609A (zh) | 2023-11-15 | 2023-11-15 | 基于特定和共享表示学习的可见光与近红外行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311519273.2A CN117523609A (zh) | 2023-11-15 | 2023-11-15 | 基于特定和共享表示学习的可见光与近红外行人重识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117523609A true CN117523609A (zh) | 2024-02-06 |
Family
ID=89756247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311519273.2A Pending CN117523609A (zh) | 2023-11-15 | 2023-11-15 | 基于特定和共享表示学习的可见光与近红外行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523609A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117935172A (zh) * | 2024-03-21 | 2024-04-26 | 南京信息工程大学 | 一种基于光谱信息过滤的可见光红外行人重识别方法及系统 |
-
2023
- 2023-11-15 CN CN202311519273.2A patent/CN117523609A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117935172A (zh) * | 2024-03-21 | 2024-04-26 | 南京信息工程大学 | 一种基于光谱信息过滤的可见光红外行人重识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Target-aware dual adversarial learning and a multi-scenario multi-modality benchmark to fuse infrared and visible for object detection | |
Ruiz et al. | Fine-grained head pose estimation without keypoints | |
Jin et al. | MoADNet: Mobile asymmetric dual-stream networks for real-time and lightweight RGB-D salient object detection | |
Dagnes et al. | Occlusion detection and restoration techniques for 3D face recognition: a literature review | |
JP5766564B2 (ja) | 顔認証装置及び顔認証方法 | |
CN107103589B (zh) | 一种基于光场图像的高光区域修复方法 | |
CN117523609A (zh) | 基于特定和共享表示学习的可见光与近红外行人重识别方法 | |
KR20170006355A (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN111539255A (zh) | 基于多模态图像风格转换的跨模态行人重识别方法 | |
CN111738048B (zh) | 一种行人再识别的方法 | |
JP2009043265A (ja) | 字幕領域抽出装置、字幕領域抽出方法および字幕領域抽出プログラム | |
CN111815528A (zh) | 基于卷积模型和特征融合的恶劣天气图像分类增强方法 | |
CN104794446B (zh) | 基于合成描述子的人体动作识别方法及系统 | |
Gao et al. | A review of dynamic maps for 3D human motion recognition using ConvNets and its improvement | |
CN108647621A (zh) | 一种基于人脸识别的视频分析处理系统及方法 | |
Asmare et al. | Image Enhancement by Fusion in Contourlet Transform. | |
CN111222447A (zh) | 基于神经网络及多通道融合lbp特征的活体检测方法 | |
CN111274946B (zh) | 一种人脸识别方法和系统及设备 | |
CN116342894A (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN115171148A (zh) | 一种基于特定模态特征补偿的跨模态行人重识别方法 | |
CN110110606A (zh) | 基于神经网络的可见光与红外人脸图像的融合方法 | |
CN117576729A (zh) | 基于多阶段辅助学习的可见光-红外行人重识别方法 | |
CN117333908A (zh) | 基于姿态特征对齐的跨模态行人重识别方法 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN114240795A (zh) | 一种融合偏色校正的图像去沙尘暴方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |