CN109919073B - 一种具有光照鲁棒性的行人再识别方法 - Google Patents

一种具有光照鲁棒性的行人再识别方法 Download PDF

Info

Publication number
CN109919073B
CN109919073B CN201910156784.XA CN201910156784A CN109919073B CN 109919073 B CN109919073 B CN 109919073B CN 201910156784 A CN201910156784 A CN 201910156784A CN 109919073 B CN109919073 B CN 109919073B
Authority
CN
China
Prior art keywords
illumination
neta
netb
training
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910156784.XA
Other languages
English (en)
Other versions
CN109919073A (zh
Inventor
赖剑煌
张培熙
谢晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910156784.XA priority Critical patent/CN109919073B/zh
Publication of CN109919073A publication Critical patent/CN109919073A/zh
Application granted granted Critical
Publication of CN109919073B publication Critical patent/CN109919073B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种具有光照鲁棒性的行人再识别方法,其包括以下步骤:获取具有光照差异的行人再识别数据集,从中选取训练样本,将训练样本划分为正常光照图片和昏暗光照图片;初始化一个深度卷积神经网络netA,用正常光照图片对其进行训练;初始化一个与netA结构完全相同的深度卷积神经网络netB,用昏暗光照图片对其进行训练;合并两种光照的数据集,同时对netA和netB进行协同训练,使两个网络均收敛;测试netA和netB各自的性能,选择性能较高的网络作为最终模型。本发明在不增加最终模型参数的情况,通过双网络的协同学习,增强行人再识别网络对昏暗图片的识别能力,提高模型对于光照的鲁棒性。

Description

一种具有光照鲁棒性的行人再识别方法
技术领域
本发明涉及图像处理、检索领域,具体涉及一种具有光照鲁棒性的行人再识别方法,解决行人再识别中昏暗条件下性能不佳的问题。
背景技术
目前,随着计算机技术的快速发展,视频监控系统被广泛地应用到我们日常的生活和生产环境中,在维护社会治安方面具有非常重要的作用。如今社会公共场所中的监控摄像头数量巨大,尤其是在机场、火车站、超市、公路等等,构成了一张覆盖绝大多数区域的监控网络,为安防人员准确定位事件场所和人员位置提供了非常大的帮助。目前对于监控摄像头中的行人检索大多数还是依靠人力,需要操作人员对图像进行回放、记录、搜寻,因此,视频监控系统仍需要继续往智能化方向进行发展。
由于智能化监控系统的需要,行人再识别技术受到了越来越多的关注。它能辅助我们在多摄像机网络下快速地检索指定行人,大大减少人的工作量。而在实际的应用场景中,由于每个摄像机的光照环境不同,同一个行人在不同的摄像头中可能存在亮度差异,这种差异会影响检索的准确率。
发明内容
本发明正是为了解决实际场景中的光照变化对行人再识别的影响,提出一种具有光照鲁棒性的行人再识别方法,该方法采用双模型协同学习的策略,能够使得同一个行人在不同光照下提取到的特征尽量相似,缓解光照对行人再识别准确率的影响。
本发明的目的通过以下的技术方案实现:一种具有光照鲁棒性的行人再识别方法,包括步骤:
步骤S1:获取具有光照差异的行人再识别数据集,从中选取训练样本,将训练样本划分为正常光照图片和昏暗光照图片;
步骤S2:初始化一个深度卷积神经网络netA,用正常光照图片对其进行训练;初始化一个与netA结构完全相同的深度卷积神经网络netB,用昏暗光照图片对其进行训练;
步骤S3:合并两种光照的数据集,同时对netA和netB进行协同训练,使两个网络均收敛;
步骤S4:测试netA和netB各自的性能,选择性能较高的网络作为最终模型。
优选的,步骤S1中根据对数平均亮度将训练样本划分为正常光照图片和昏暗光照图片,步骤是:
步骤S11:计算数据集每张图片的对数平均亮度,计算公式为:
Figure BDA0001983186660000021
式中,δ是一个常数,用于防止求对数的计算结果趋于负无穷的情况,比如0.001。N表示图像的像素总数,L(x,y)为每个元素的亮度。
步骤S12:设定两个阈值margin和threshold,对数据集中每个ID的图片分成两类:
若Lw<margin,则标注为昏暗光照图片;
若Lw>margin,则将图片分离成前景与背景,计算前景的对数平均亮度Lfg;若Lfg>threshold,则标注为正常光照图片,否则标注为昏暗光照图片。
为了使后续训练两个网络netA和netB时样本数量相同,在分类后,若昏暗光照图片数量少于正常光照图片数量,则随机生成相应数量的昏暗光照图片补充到数据集中,具体的,记每个ID中的正常光照图片数量为p,昏暗光照图片数量为n,若p>n,则随机抽取p-n张该ID的正常光照图片,生成p-n张昏暗光照图片补充到数据集中。
更进一步的,昏暗光照图片生成步骤是:
步骤S131:使用自适应伽马变换根据图像原始亮度将图像整体调暗,自适应伽马变换的转换方法为:
Figure BDA0001983186660000022
Ldark表示调整后的亮度,c为一个随机常数,以生成不同程度的昏暗光照图片。若图像原始亮度Lw较高,则会大幅度降低亮度,若图像原始亮度Lw本来就较小,则会小幅度调低亮度。
步骤S132:对步骤S131生成的昏暗光照图片进行高斯模糊处理。从而使图片更为真实。
优选的,所述步骤S2中,对netA和netB分别进行训练,步骤是:
步骤S21:获取两个结构相同的深度卷积网络模型,分别记为netA和netB,并对其进行初始化,其中网络中的最后一层为softmax M分类层,M为训练集中ID的数目;
步骤S22:整理训练集里面正常亮度的图片,输入到netA中,采用交叉熵损失和SGD(Stochastic gradient descent,随机梯度下降)优化方法进行训练,直至收敛;
步骤S23:整理数据集里面昏暗亮度的图片,输入到netB中,同样采用交叉熵损失和SGD优化方法进行训练,直至收敛。
优选的,所述步骤S3中,对netA和netB进行协同训练,步骤是:
步骤S31:获取训练后得到的两个深度网络netA和netB;
步骤S32:合并训练集里面所有图片,包括昏暗光照图片以及正常光照图片,将其作为netA和netB的训练数据,采用交叉熵损失(Cross Entropy Loss)和加权KL散度损失对两个网络进行训练,直至netA和netB的损失均收敛,完成训练。
更进一步的,采用交叉熵损失和加权KL散度损失对两个网络进行训练,步骤是:
步骤S321:抽取一个批量的训练图片,分别输入到netA和netB进行正向传播,获取netA输出的softmax分类概率
Figure BDA0001983186660000031
获取netB输出的softmax分类概率
Figure BDA0001983186660000032
其中i表示第i个样本,m表示第m类,a、b代表netA和netB;
步骤S322:对于netA,计算其损失Lossa=LossCE_a+LossKL_a,并进行反向传播,其中LossCE_a表示netA的交叉熵损失,LossKL_a表示netA的加权KL散度损失;
Figure BDA0001983186660000033
其中权重wia是一个[0,1]间的值,由输入的图片亮度标注决定,对于netA,若输入图片属于正常光照图片,则wia取为[0,0.5]间的数,若输入图片为昏暗光照图片,则wia取为[0.5,1]间的数。
步骤S323:对于netB,计算其损失Lossb=LosSCE_b+LossKL_b,并进行反向传播。LossCE_b表示netB的交叉熵损失。LossKL_b表示netB的加权KL散度损失。
Figure BDA0001983186660000041
其中wib是一个[0,1]间的值,与步骤S322相反,若输入图片为昏暗光照图片,则wib取为[0.5,1]间的数,若输入图片为正常光照图片,则wib取为[0,0.5]间的数。
步骤S324,重复上述步骤,采用Adam优化方法训练,直至netA和netB的损失均收敛,完成训练。
优选的,所述步骤S4包含以下步骤:
步骤S41:获取步骤S3训练完成的netA和netB,删除模型最后的分类层,以分类层前面的特征向量作为网络的输出;
步骤S41:根据步骤S1的光照分类结果,将测试集分成正常光照query,正常光照gallery,昏暗光照query和昏暗光照gallery四个子测试集;
步骤S42:使用上述的四个子测试集对netA和netB分别进行测试,挑选出性能最优的模型。
更进一步的,判断哪个模型最优的方法是:
步骤S421:用正常光照的图片作为查询,检索昏暗光照中的图片,计算mAP(MeanAverage Precision,均值平均精度)和Rank1(预测置信度最高的一张图的准确率);再用昏暗光照的图片作为查询,检索正常光照中的图片,计算mAP和Rank1;计算两次测试结果的均值;
步骤S422:比较netA和netB在步骤S421中的结果,选择mAP或Rank1较高的模型作为最终模型。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明在不增加最终模型参数的情况,通过双网络的协同学习,增强行人再识别网络对昏暗光照图片的识别能力,提高模型对于光照的鲁棒性。
2、本发明在昏暗光照图片数量少于正常光照图片数量时,提出生成相应数量的昏暗光照图片,使后续训练两个网络时样本数量相同,能够提高模型训练的精度,便于后续的协同学习。
3、本发明采用交叉熵损失和加权KL散度损失对两个网络进行协同学习训练,直至netA和netB的损失均完成收敛,提高模型的精度。
附图说明
图1是根据本发明一实施例的一种具有光照鲁棒性的行人再识别方法的流程图。
图2是根据本发明一实施例的一种具有光照鲁棒性的行人再识别方法的模型示意图。
图3是根据本发明一实施例的一种具有光照鲁棒性的行人再识别方法的训练优化过程。
具体实施方式
下面结合附图以及具体实施方式,对发明做进一步描述,需要说明的是,这些描述只是示例性的,而非要限制本发明的范围。
图1是根据本发明一实施例的一种具有光照鲁棒性的行人再识别方法的流程图,下面以图1为例来说明本发明的一些具体实现流程。具体步骤如下:
步骤S1:获取行人再识别数据集,从中选取训练样本,对其中的图像进行亮度分类,这里以具有明显光照差异的MSMT17数据集为例。
该步骤中是根据对数平均亮度对图像进行亮度分类,方法是:
步骤S11:根据对数平均亮度计算方法,计算数据集每张图片的平均亮度。其中平均亮度计算公式为:
Figure BDA0001983186660000051
式子中δ是一个较小的常数,用于防止求对数的计算结果趋于负无穷的情况,这里取值为0.001。L(x,y)为每个元素的亮度,其计算方法为:L(x,y)=0.299*R+0.587*G+0.114*B。
步骤S12:设定阈值margin和threshold,本实施例设置margin=0.15,threshold=0.21,对数据集中每个ID的图片分成两类:
若Lw<margin,则标注为昏暗光照图片;
若Lw>margin,本实施例采用Mask-RCNN分割算法,将图片分离成前景与背景,计算前景的对数平均亮度Lfg;若Lfg>threshold,则标注为正常光照图片,否则标注为昏暗光照图片。
步骤S13:记每个ID中的正常光照图片数量为p,昏暗光照图片数量为n,若p>n,则随机抽取p-n张该ID的正常光照图片,生成的(p-n)张昏暗光照图片补充到数据集中。
这里,昏暗光照图片生成的方法是:
步骤S131:使用自适应伽马根据图像原始亮度将图像整体调暗,若图像原始亮度Lw较高,则会大幅度降低亮度,若图像原始亮度Lw本来就较小,则会小幅度调低亮度。自适应伽马变化的转换方法为:
Figure BDA0001983186660000061
对于每一张处理图片,c为在[1,2.5]之间的随机数,以生成不同昏暗程度的图片。
步骤S132:对步骤S131生成的昏暗光照图片进行高斯模糊处理,其中,本实施例取模糊核的大小为3*3,方差为1。
步骤S2:构建两个结构相同的深度卷积网络,分别用正常光照的图片和昏暗光照的图片进行训练直至收敛。
具体步骤是:
步骤S21:获取两个结构相同的深度卷积网络模型,分别记为netA和netB,并对其进行初始化,该实施例中采用ResNet50,将ResNet50最后的2048*1000的全连接层修改两个全连接层,其权值尺寸分别为2048*512以及512*1041,1041是MSMT17中训练集的总ID数目。
步骤S22:整理训练集里面正常亮度的图片,调整尺寸为384*128,并做随机水平翻转,输入到netA中,采用交叉熵损失和SGD优化方法进行训练,直至收敛。
步骤S23:整理数据集里面昏暗亮度的图片,调整尺寸为384*128,并做随机水平翻转,输入到netB中,同样采用交叉熵损失和SGD优化方法进行训练,直至收敛。
步骤S3:合并两种光照的数据集,采用交叉熵损失和加权KL散度损失对两个网络进行协同学习。
具体地,包含以下步骤:
步骤S31:获取步骤S2训练得到的两个深度网络netA和netB。
步骤S32:合并训练集里面所有图片,包括昏暗光照的图片以及正常光照的图片,作为netA和netB的训练数据进行协同学习,协同学习的方法是:
步骤S321:抽取一个批量的训练图片,分别输入到netA和netB进行正向传播,获取netA输出的softmax分类概率
Figure BDA0001983186660000071
获取netB输出的softmax分类概率
Figure BDA0001983186660000072
其中i表示第i个样本,k表示第k类,a、b代表netA和netB。
步骤S322:对于netA,计算其损失Lossa=LossCE_a+LossKL_a,并进行反向传播。所述的LossCE_a表示netA的交叉熵损失。所述的LossKL_a表示netA的加权KL散度损失。
Figure BDA0001983186660000073
其中,权重wia是一个[0,1]间的值,由输入的图片亮度标注决定,在本实施例中,对于netA,若输入图片属于正常光照图片,则wia取值为0.2,若输入图片为昏暗光照图片,则wia取值为0.8。
步骤S323:对于netB,计算其损失Lossb=LossCE_b+LossKL_b,并进行反向传播。LossCE_b表示netB的交叉熵损失。LossKL_b表示netB的加权KL散度损失。
Figure BDA0001983186660000074
其中权重wib是一个[0,1]间的值,在本实施例中,对于netB,若输入图片属于正常光照图片,则wib取值为0.8,若输入图片为昏暗光照图片,则wib取值为0.2。
步骤S33,重复步骤S32,采用Adam优化方法训练,直至netA和netB的损失均收敛。这里所述的Adam优化方法是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam最开始是由OpenAI的Diederik Kingma和多伦多大学的Jimmy Ba在提交到2015年ICLR论文(Adam:A Method for StochasticOptimization)中提出的。
步骤S4:对两个网络的性能进行测试,采用性能较高的网络作为最终模型。在该步骤中,具体执行下述方法:
步骤S41:获取步骤S3训练完成的netA和netB,删除模型最后的分类层,以分类层前面的特征向量作为网络的输出。
步骤S41:根据步骤S1的光照分类结果,将测试集分成正常光照query,正常光照gallery,昏暗光照query和昏暗光照gallery四个子测试集。
步骤S42:使用上述的四个子测试集对netA和netB分别进行测试,挑选出更好的模型。判断模型是否更好的方法是:
步骤S421:用正常光照的图片作为查询,检索昏暗光照的图片,计算mAP和Rank1。再用昏暗光照的图片作为查询,检索正常光照的图片,计算mAP和Rank1。计算两次测试结果的均值。
步骤S422:比较netA和netB在步骤S421中的结果,选择mAP或Rank1较高的模型作为最终模型。
该实施例在MSMT17数据集性能如下:
表1各模型性能参数
Figure BDA0001983186660000091
根据上述计算结果,本实施例选取mAP较高的模型netB作为最终模型。其中表中模型baseline是采用与netA和netB结构相同的模型,将原始MSMT17混入步骤S1中生成昏暗光照图片一起训练得到的,采用SGD优化方法,属于现有技术。与之对比可以发现本发明的性能有不少提升。
可通过各种手段实施本发明描述的技术。举例来说,这些技术可实施在硬件、固件、软件或其组合中。对于硬件实施方案,处理模块可实施在一个或一个以上专用集成电路(ASIC)、数字信号处理器(DSP)、可编程逻辑装置(PLD)、现场可编辑逻辑门阵列(FPGA)、处理器、控制器、微控制器、电子装置、其他经设计以执行本发明所描述的功能的电子单元或其组合内。
对于固件和/或软件实施方案,可用执行本文描述的功能的模块(例如,过程、步骤、流程等)来实施所述技术。固件和/或软件代码可存储在存储器中并由处理器执行。存储器可实施在处理器内或处理器外部。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种具有光照鲁棒性的行人再识别方法,其特征在于,包括步骤:
步骤S1:获取具有光照差异的行人再识别数据集,从中选取训练样本,将训练样本划分为正常光照图片和昏暗光照图片;
步骤S2:初始化一个深度卷积神经网络netA,用正常光照图片对其进行训练;初始化一个与netA结构完全相同的深度卷积神经网络netB,用昏暗光照图片对其进行训练;
步骤S3:合并两种光照的数据集,同时对netA和netB进行协同训练,使两个网络均收敛;
步骤S4:测试netA和netB各自的性能,选择性能较高的网络作为最终模型;
所述步骤S3中,对netA和netB进行协同训练,步骤是:
步骤S31:获取训练后得到的两个深度网络netA和netB;
步骤S32:合并训练集里面所有图片,包括昏暗光照图片以及正常光照图片,将其作为netA和netB的训练数据,采用交叉熵损失和加权KL散度损失对两个网络进行训练,直至netA和netB的损失均收敛,完成训练。
2.根据权利要求1所述的具有光照鲁棒性的行人再识别方法,其特征在于,步骤S1中将训练样本划分为正常光照图片和昏暗光照图片包括:根据对数平均亮度将训练样本划分为正常光照图片和昏暗光照图片,具体为:
步骤S11:计算数据集每张图片的对数平均亮度,计算公式为:
Figure FDA0002864038910000011
式中,δ是一个常数,N表示图像的像素总数,L(x,y)为每个元素的亮度;
步骤S12:设定两个阈值margin和threshold,对数据集中每个ID的图片分成两类:
若Lw<margin,则标注为昏暗光照图片;
若Lw>margin,则将图片分离成前景与背景,计算前景的对数平均亮度Lfg;若Lfg>threshold,则标注为正常光照图片,否则标注为昏暗光照图片。
3.根据权利要求2所述的具有光照鲁棒性的行人再识别方法,其特征在于,记每个ID中的正常光照图片数量为p,昏暗光照图片数量为n,若p>n,则随机抽取p-n张该ID的正常光照图片,生成p-n张昏暗光照图片补充到数据集中。
4.根据权利要求3所述的具有光照鲁棒性的行人再识别方法,其特征在于,昏暗光照图片生成步骤是:
步骤S131:使用自适应伽马变换根据图像原始亮度将图像整体调暗,自适应伽马变换的转换方法为:
Figure FDA0002864038910000021
Ldark表示调整后的亮度,c为一个随机常数;
步骤S132:对步骤S131生成的昏暗光照图片进行高斯模糊处理。
5.根据权利要求1所述的具有光照鲁棒性的行人再识别方法,其特征在于,所述步骤S2中,对netA和netB分别进行训练,步骤是:
步骤S21:获取两个结构相同的深度卷积网络模型,分别记为netA和netB,并对其进行初始化,其中网络中的最后一层为softmax M分类层,M为训练集中ID的数目;
步骤S22:整理训练集里面正常亮度的图片,输入到netA中,采用交叉熵损失和SGD优化方法进行训练,直至收敛;
步骤S23:整理数据集里面昏暗亮度的图片,输入到netB中,同样采用交叉熵损失和SGD优化方法进行训练,直至收敛。
6.根据权利要求1所述的具有光照鲁棒性的行人再识别方法,其特征在于,采用交叉熵损失和加权KL散度损失对两个网络进行训练,步骤是:
步骤S321:抽取一个批量的训练图片,分别输入到netA和netB进行正向传播,获取netA输出的softmax分类概率
Figure FDA0002864038910000022
获取netB输出的softmax分类概率
Figure FDA0002864038910000023
其中i表示第i个样本,m表示第m类,a、b代表netA和netB;
步骤S322:对于netA,计算其损失Lossa=LossCE_a+LossKL_a,并进行反向传播,其中LossCE_a表示netA的交叉熵损失,LossKL_a表示netA的加权KL散度损失;
Figure FDA0002864038910000024
其中权重wia是一个[0,1]间的值;
步骤S323:对于netB,计算其损失Lossb=LossCE_b+LossKL_b,并进行反向传播,LossCE_b表示netB的交叉熵损失,LossKL_b表示netB的加权KL散度损失:
Figure FDA0002864038910000025
其中wib是一个[0,1]间的值;
步骤S324,重复上述步骤,采用Adam优化方法训练,直至netA和netB的损失均收敛,完成训练。
7.根据权利要求1所述的具有光照鲁棒性的行人再识别方法,其特征在于,所述步骤S4包含以下步骤:
步骤S41:获取步骤S3训练完成的netA和netB,删除模型最后的分类层,以分类层前面的特征向量作为网络的输出;
步骤S41:根据步骤S1的光照分类结果,将测试集分成正常光照query,正常光照gallery,昏暗光照query和昏暗光照gallery四个子测试集;
步骤S42:使用上述的四个子测试集对netA和netB分别进行测试,挑选出性能最优的模型。
8.根据权利要求7所述的具有光照鲁棒性的行人再识别方法,其特征在于,判断哪个模型最优的方法是:
步骤S421:用正常光照的图片作为查询,检索昏暗光照中的图片,计算mAP和Rank1;再用昏暗光照的图片作为查询,检索正常光照中的图片,计算mAP和Rank1;计算两次测试结果的均值;
步骤S422:比较netA和netB在步骤S421中的结果,选择mAP或Rank1较高的模型作为最终模型;
mAP为平均精确度的均值,平均精确度指的是某一个类别在不同召回率上的正确率的均值,mAP是对每一个类别的平均精确度求取均值;Rank1为在检索任务中,排名首位的预测结果是正确的概率。
CN201910156784.XA 2019-03-01 2019-03-01 一种具有光照鲁棒性的行人再识别方法 Active CN109919073B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910156784.XA CN109919073B (zh) 2019-03-01 2019-03-01 一种具有光照鲁棒性的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910156784.XA CN109919073B (zh) 2019-03-01 2019-03-01 一种具有光照鲁棒性的行人再识别方法

Publications (2)

Publication Number Publication Date
CN109919073A CN109919073A (zh) 2019-06-21
CN109919073B true CN109919073B (zh) 2021-04-06

Family

ID=66963022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910156784.XA Active CN109919073B (zh) 2019-03-01 2019-03-01 一种具有光照鲁棒性的行人再识别方法

Country Status (1)

Country Link
CN (1) CN109919073B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458763A (zh) * 2019-07-08 2019-11-15 深圳中兴网信科技有限公司 基于深度学习的夜间彩色图像的还原方法、系统、介质
CN113051962B (zh) * 2019-12-26 2022-11-04 四川大学 基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法
CN111311581A (zh) * 2020-02-20 2020-06-19 杭州涂鸦信息技术有限公司 基于光照的图片评分方法及其系统和装置
CN112329860B (zh) * 2020-11-05 2024-02-27 深圳市微埃智能科技有限公司 混合型深度学习视觉检测方法、装置、设备及存储介质
CN113191461B (zh) * 2021-06-29 2021-09-17 苏州浪潮智能科技有限公司 一种图片识别方法、装置、设备及可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587845B1 (en) * 2000-02-15 2003-07-01 Benjamin B. Braunheim Method and apparatus for identification and optimization of bioactive compounds using a neural network
CN105574510A (zh) * 2015-12-18 2016-05-11 北京邮电大学 一种步态识别方法及装置
CN106485324A (zh) * 2016-10-09 2017-03-08 成都快眼科技有限公司 一种卷积神经网络优化方法
CN106971556A (zh) * 2017-05-16 2017-07-21 中山大学 基于双网络结构的卡口车辆重识别方法
CN107402947A (zh) * 2017-03-29 2017-11-28 北京粉笔未来科技有限公司 图片检索模型建立方法和装置、图片检索方法和装置
CN107451616A (zh) * 2017-08-01 2017-12-08 西安电子科技大学 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法
CN108733792A (zh) * 2018-05-14 2018-11-02 北京大学深圳研究生院 一种实体关系抽取方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330396B (zh) * 2017-06-28 2020-05-19 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN108764065B (zh) * 2018-05-04 2020-12-08 华中科技大学 一种行人重识别特征融合辅助学习的方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587845B1 (en) * 2000-02-15 2003-07-01 Benjamin B. Braunheim Method and apparatus for identification and optimization of bioactive compounds using a neural network
CN105574510A (zh) * 2015-12-18 2016-05-11 北京邮电大学 一种步态识别方法及装置
CN106485324A (zh) * 2016-10-09 2017-03-08 成都快眼科技有限公司 一种卷积神经网络优化方法
CN107402947A (zh) * 2017-03-29 2017-11-28 北京粉笔未来科技有限公司 图片检索模型建立方法和装置、图片检索方法和装置
CN106971556A (zh) * 2017-05-16 2017-07-21 中山大学 基于双网络结构的卡口车辆重识别方法
CN107451616A (zh) * 2017-08-01 2017-12-08 西安电子科技大学 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN108171184A (zh) * 2018-01-03 2018-06-15 南京理工大学 基于Siamese网络的用于行人重识别的方法
CN108733792A (zh) * 2018-05-14 2018-11-02 北京大学深圳研究生院 一种实体关系抽取方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
卷积神经网络研究综述;李彦东 等;《计算机应用》;20160910;第36卷(第9期);全文 *
基于孪生卷积神经网络的车辆一致性判别方法;李洁樱;《中国交通信息化》;20180430;全文 *
非均匀光照下人脸眼睛的定位方法;尹方平 等;《中山大学学报(自然科学版)》;20030531;第42卷(第3期);全文 *
面向机器学习的课程设计研究;尹剑飞 等;《计算机教育》;20181110(第11期);全文 *

Also Published As

Publication number Publication date
CN109919073A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109919073B (zh) 一种具有光照鲁棒性的行人再识别方法
CN111310862B (zh) 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
CN113516012B (zh) 一种基于多层级特征融合的行人重识别方法及系统
CN110378288B (zh) 一种基于深度学习的多级时空运动目标检测方法
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
Isa et al. Optimizing the hyperparameter tuning of YOLOv5 for underwater detection
CN108537824B (zh) 基于交替反卷积与卷积的特征图增强的网络结构优化方法
CN111027421A (zh) 一种基于图的直推式半监督行人再识别方法
US11361534B2 (en) Method for glass detection in real scenes
CN111695640B (zh) 地基云图识别模型训练方法及地基云图识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN110516707B (zh) 一种图像标注方法及其装置、存储介质
Zhang et al. Application research of YOLO v2 combined with color identification
CN112215190A (zh) 基于yolov4模型的违章建筑检测方法
CN112070010B (zh) 一种联合多损失动态训练策略增强局部特征学习的行人重识别方法
CN116052212A (zh) 一种基于双重自监督学习的半监督跨模态行人重识别方法
US11295160B2 (en) Image adaptive feature extraction method and application thereof
CN111507416A (zh) 一种基于深度学习的吸烟行为实时检测方法
CN111160282B (zh) 一种基于二值化Yolov3网络的红绿灯检测方法
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN113283320A (zh) 一种基于通道特征聚合的行人重识别方法
CN116563543A (zh) 一种全天候河道场景全景分割方法及模型搭建方法
Song et al. MsfNet: a novel small object detection based on multi-scale feature fusion
CN116110074A (zh) 一种基于图神经网络的动态小股行人识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
OL01 Intention to license declared
OL01 Intention to license declared