CN111209886B - 一种基于深度神经网络的快速行人再识别方法 - Google Patents
一种基于深度神经网络的快速行人再识别方法 Download PDFInfo
- Publication number
- CN111209886B CN111209886B CN202010037806.3A CN202010037806A CN111209886B CN 111209886 B CN111209886 B CN 111209886B CN 202010037806 A CN202010037806 A CN 202010037806A CN 111209886 B CN111209886 B CN 111209886B
- Authority
- CN
- China
- Prior art keywords
- features
- hash
- pictures
- pedestrian
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000764238 Isis Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013095 identification testing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的快速行人再识别方法,所述方法包括如下步骤:将待查行人图片与图片库输入至训练好的模型中;通过模型分别提取待查行人图片与图片库中所有图片的哈希特征;计算待查行人图片与图片库中所有图片哈希特征的汉明距离;根据汉明距离得出识别结果,该方法通过将哈希编码引入深度神经网络代替高维特征可以提高检索效率,并且损失的精度较少,能够在匹配速度和精度之间达到一个较好的平衡。
Description
技术领域
本发明涉及卷积神经网络和图像检索领域,具体涉及一种基于深度神经网络的快速行人再识别方法。
背景技术:
行人再识别技术是指给定一个待查人员的图像,在多个不重叠的摄像头拍摄的画面中,找到该名行人出现的所有图片。因其可以广泛应用于监控安防、商业分析和数据挖掘等领域,近年来这一技术成为计算机视觉的一个热门研究方向。随着摄像头成本的降低和图像质量越来越高,用于行人再识别的图像数量和质量都呈上升趋势。现有的行人再识别算法都是以提高识别精度为目的,往往以很大的存储空间和计算量为代价,这对实际应用带来很大的困难。目前的一些快速行人再识别方法,又损失了很多的准确率来提高计算速度。为了解决上述技术问题,需要提出新的能够适应大数据量的行人再识别算法,使其能够更好的满足应用场景的需求,提取更加鲁棒的特征,从而提高最终的正确识别率和计算效率。
本发明的创新点主要表现在,首先分析了多分辨率特征可以解决行人再识别中的遮挡、视角变换、光照变化造成的困难场景,并在此基础上提出了一个多分辨率特征融合的办法,该方法能够让图像提取的特征更鲁棒,更好的适应于实际应用场景。最后,通过将高维特征转换为哈希特征,提高了识别效率,满足了应用需求。
发明内容
本发明的目的在于提供一种基于深度神经网络的快速行人再识别方法,以解决现有技术中现有的行人再识别方法需要很大的计算量和更多的存储空间的缺陷。
一种基于深度神经网络的快速行人再识别方法,所述方法包括如下步骤:
将待查行人图片与图片库输入至训练好的模型中;
通过模型分别提取待查行人图片与图片库中所有图片的哈希特征;
计算待查行人图片与图片库中所有图片哈希特征的汉明距离;
根据汉明距离得出识别结果。
进一步的,模型的训练方法包括如下步骤:
将预处理后的图像输入网络模型;
通过网络模型提取多分辨率特征;
将多分辨率特征进行融合得到高维特征;
将高维特征转化为哈希特征;
将哈希特征与对应图像的标签进行训练得到模型。
进一步的,图像预处理的方法包括如下步骤:
将图像分成若干组,每组图片的数量为P×K张;
其中P表示行人ID数量,K表示每个ID的图片数量;
每组中选择若干图片作为样本。
进一步的,所述样本包括原样本、正样本和负样本;所述原样本为原始ID图片,所述正样本为与原样本有相同ID的其他图片,所述负样本为与原样本不同ID的其他图片。
进一步的,通过网络模型提取多分辨率特征的方法包括如下步骤:
将图像输入网络模型;
网络模型通过交错卷积得到多个相同语义级别不同分辨率的特征。
进一步的,将多分辨率特征进行融合得到高维特征的方法包括如下步骤:
通过卷积层将多个不同分辨率的特征通道数提高到相同数值;
通过全局池化层将多个不同分辨率的特征转化为相同大小;
通过数学公式将多个特征进行融合得到高维特征。
进一步的,将高维特征转化为哈希特征的方法包括如下步骤:
将高维特征分两路进行监督学习;
通过两路的互相促进得到哈希特征。
进一步的,将高维特征分两路进行监督学习的方法包括如下步骤:
将其中一路的高维特征通过损失函数监督学习;
将另一路的高维特征降维,得到哈希特征所需的比特长度,再通过tanh函数产生近似的哈希特征。
进一步的,根据汉明距离得出识别结果的方法包括如下步骤:
对汉明距离进行相似度排序;
将汉明距离与预先设定的阈值进行比较;
若小于阈值则输出图片。
本发明的优点在于:该种基于深度神经网络的快速行人再识别方法,通过将哈希编码引入深度神经网络代替高维特征可以提高检索效率,并且损失的精度较少,能够在匹配速度和精度之间达到一个较好的平衡,计算量少,所需的存储空间小。
附图说明
图1为本发明中基于深度神经网络的快速行人再识别测试流程图。
图2为本发明中基于深度神经网络的快速行人再识别训练流程图。
图3为本发明中HRNet基本架构图。
图4为本发明中不同分辨率特征在原图上的重要区域可视化表示示意图。
图5为本发明中多分辨率特征融合模块图。
图6为本发明中高维特征与哈希特征转化模块图。
图7为本发明中快速行人再识别方法训练过程的示意图。
图8为本发明中快速行人再识别方法测试过程的示意图。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如图1至图8所示,一种基于深度神经网络的快速行人再识别方法,所述方法包括如下步骤:
将待查行人图片与图片库输入至训练好的模型中;
通过模型分别提取待查行人图片与图片库中所有图片的哈希特征;
计算待查行人图片与图片库中所有图片哈希特征的汉明距离;
根据汉明距离得出识别结果。
本发明选择Ke Sun等人在文献“deep high-resolution representationlearning for human pose estimation”中提出的HRNet为用于提取多分辨率特征的卷积神经网络。
基于深度神经网络的快速行人再识别框架可以分为三个模块:多分辨率特征生成模块,多分辨率特征融合模块,高维特征与哈希特征转化模块。
在本实施例中,模型的训练方法包括如下步骤:
将预处理后的图像输入网络模型;
通过网络模型提取多分辨率特征;
将多分辨率特征进行融合得到高维特征;
将高维特征转化为哈希特征;
将哈希特征与对应图像的标签进行训练得到模型;
模型的训练过程如图7所示。训练的图像统一处理为256×128大小。设置超参数α=0.6。初始学习率为3×10-4。训练次数为120次,学习率在训练的第40次和70次分别衰减为3×10-5,3×10-6。采用Adam优化器来调整模型的参数训练。
在本实施例中,图像预处理的方法包括如下步骤:
将图像分成若干组,每组图片的数量为P×K张;
其中P表示行人ID数量,K表示每个ID的图片数量;
每组中选择若干图片作为样本。
在本实施例中,所述样本包括原样本、正样本和负样本;所述原样本为原始ID图片,所述正样本为与原样本有相同ID的其他图片,所述负样本为与原样本不同ID的其他图片;
图像预处理的方法具体为:输入所选定的数据集,设其中有N张图像,训练时要将图像进行分组。为了计算triplet loss,每组随机挑选P个ID的行人,每个ID的行人随机挑选K张不同的图像,如果不足K张则复制其中的一张进行补足。最终每组训练图像的个数是P×K张,其中每一张图像本身为原样本,与其相同ID的为正样本,与其不同ID的为负样本,这三种样本构成一个三元组。在本实例中P取16,K取4。
在本实施例中,通过网络模型提取多分辨率特征的方法包括如下步骤:
将图像输入网络模型;
网络模型通过交错卷积得到多个相同语义级别不同分辨率的特征;
提取多分辨率特征的方法具体为:
在多分辨率特征生成模块中,采用HRNet作为主干网络。HRNet通过交错卷积能够并行的生成4种分辨率的特征。目前大多数的主干网如ResNet,DenseNet和VGG是只有一条分支,将底层特征与高层特征相融合,最终输出的是一个高语义级别低分辨率的特征。HRNet利用相同深度和相似语义水平的低分辨率特征,重复多尺度特征融合以提高高分辨率特征,反之亦然,最终可以得到四个相同语义级别不同分辨率的特征。其网络结构如图3所示:其中输入图像组为是每一幅图像的标签。N是每个图像组的图片个数,M是类别数。给定一张图片Ii,HRNet能够输出四种特征
Cj=32×2(j-1);
H,W,C分别是特征的高,宽和通道数。
将HRNet输出的四个特征通过Grad-CAM可视化,得到的结果如图4所示,热力图展示了输出特征在原图上的响应强度,表明了原图中所有的像素点对识别所起到的作用大小。从图4可以看出,第一个分支的特征主要关注在原图的局部区域,这对于判断人的身份是不足够的。随着特征图的分辨率逐渐降低,第二三个分支的特征在原图上的相应区域越来越大,但仍然不能覆盖所有的有区分性的部分。第四个分支的特征覆盖原图的区域最大,但是引入了部分噪声,这会影响识别的准确率。因此为了能够得到表征性更强的特征,将四种不同分辨率的特征融合起来。
在本实施例中,将多分辨率特征进行融合得到高维特征的方法包括如下步骤:
通过卷积层将多个不同分辨率的特征通道数提高到相同数值;
通过全局池化层将多个不同分辨率的特征转化为相同大小;
通过数学公式将多个特征进行融合得到高维特征;
为了增强显著区域和减弱噪声区域,我们提出了多分辨率特征融合模块如图5所示。首先通过一个1×1卷积层将4个生成的特征通道数统一提高到2048,增大特征的表达性。然后通过一个全局平均池化global average pooling(GAP)将4个不同分辨率的特征转化为相同的1×1大小。为了计算不同分辨率分支的权重,我们采用如下的公式:
其中,代表不同分支的权重,/>代表一维卷积conv1d的参数,代表卷积操作,σ代表sigmoid函数,/>是4个经过GAP之后的特征表示。我们将不同的分支的特征采用如下的公式融合:
其中,F(Ii)是多分辨率特征融合模块输出的图像Ii最终的特征表示。
在本实施例中,将高维特征转化为哈希特征的方法包括如下步骤:
将高维特征分两路进行监督学习;
通过两路的互相促进得到哈希特征。
在本实施例中,将高维特征分两路进行监督学习的方法包括如下步骤:
将其中一路的高维特征通过损失函数监督学习;
将另一路的高维特征降维,得到哈希特征所需的比特长度,再通过tanh函数产生近似的哈希特征;
为了达到快速行人再识别的目的,我们将哈希方法与深度神经网络相结合,提出了高维特征与哈希特征转化模块如图6所示。哈希编码和汉明距离度量需要较少的计算量和存储空间,这个优点已经在很多方面得到验证。我们采用了两路分支,一路高维特征进行损失函数的监督学习,另一路近似的哈希特征进行损失函数的监督学习。这两种特征可以互相促进,优化的高维特征能够提取出更有效的哈希特征,同时优化的哈希特征能够调整高维特征使其更适合于二值化。高维特征F(Ii)首先进行一个降维,输出的特征Fr(Ii)的维度等于所需哈希特征的比特长度。在训练过程种,近似的哈希特征h(Ii)由tanh函数产生:
h(Ii)=tanh(Fr(Ii));
其中,tanh代表tanh函数。
在高维特征与哈希特征转化模块中,高维特征和哈希特征都采用softmax和triplet联合训练如图6所示。需要注意的是,高维特征F(Ii)经过一个批归一化层BatchNormalization(BN)得到F′(Ii)。F(Ii)采用triplet loss(LF,t)进行监督学习,F′(Ii)采用softmax loss(LF,s)进行监督学习。对与哈希特征h(Ii),采用联合的softmax loss和triplet loss(Lh,s+Lh,t)进行监督学习。最终每个分支的损失函数如下所示:
L=α(LF,s+Lh,s)+(LF,t+Lh,s);
其中,超参数α能够调节softmax loss和triplet loss的平衡;
在测试阶段,二值化的哈希特征H(Ii)由如下公式计算:
H(Ii)=δ(h(Ii));
其中,δ代表符号函数。
在本实施例中,根据汉明距离得出识别结果的方法包括如下步骤:
对汉明距离进行相似度排序;
将汉明距离与预先设定的阈值进行比较;
若小于阈值则输出图片;
利用训练好的网络模型对待查行人图片和图片库中的所有图像进行二值化的哈希特征提取,得到每张图像的特征向量。计算待查行人图像的特征向量与图片库中所有图片的特征向量的汉明距离,然后将汉明距离从小到大对应的图像库中的图像排序,排在首位的就是与待查行人图像最相似的行人图像。图8展示了快速行人再识别方法的测试过程。
基于上述,该种基于深度神经网络的快速行人再识别方法:
首先,对输入的图像数据集进行图像预处理,并选择能够提取不同分辨率特征的网络模型;第二,对图像进行分组,分组后得数据来训练网络模型;第三,对不同分辨率的特征进行处理,引入注意力机制,得到更强表达能力的特征;第四,将得到的高维特征转化为哈希特征,选择损失函数进行训练;在最后,利用训练好的网络分别对数据库中的图像和待查询行人图像提取哈希特征,计算特征向量间的汉明距离,根据距离大小判断识别结果。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。
Claims (1)
1.一种基于深度神经网络的快速行人再识别方法,其特征在于,所述方法包括如下步骤:
将待查行人图片与图片库输入至训练好的模型中;
通过模型分别提取待查行人图片与图片库中所有图片的哈希特征;
计算待查行人图片与图片库中所有图片哈希特征的汉明距离;
根据汉明距离得出识别结果;
其中,模型的训练方法包括如下步骤:
将预处理后的图像输入网络模型;
通过网络模型提取多分辨率特征;
将多分辨率特征进行融合得到高维特征;
将高维特征转化为哈希特征;
将哈希特征与对应图像的标签进行训练得到模型;
图像预处理的方法包括如下步骤:
将图像分成若干组,每组图片的数量为P×K张;
其中P表示行人ID数量,K表示每个ID的图片数量;
每组中选择若干图片作为样本;
所述样本包括原样本、正样本和负样本;所述原样本为原始ID图片,所述正样本为与原样本有相同ID的其他图片,所述负样本为与原样本不同ID的其他图片;
通过网络模型提取多分辨率特征的方法包括如下步骤:
将图像输入网络模型;
网络模型通过交错卷积得到多个相同语义级别不同分辨率的特征;
将多分辨率特征进行融合得到高维特征的方法包括如下步骤:
通过卷积层将多个不同分辨率的特征通道数提高到相同数值;
通过全局池化层将多个不同分辨率的特征转化为相同大小;
通过数学公式将多个特征进行融合得到高维特征;
将高维特征转化为哈希特征的方法包括如下步骤:
将高维特征分两路进行监督学习;
通过两路的互相促进得到哈希特征;
将高维特征分两路进行监督学习的方法包括如下步骤:
将其中一路的高维特征通过损失函数监督学习;
将另一路的高维特征降维,得到哈希特征所需的比特长度,再通过tanh函数产生近似的哈希特征;
根据汉明距离得出识别结果的方法包括如下步骤:
对汉明距离进行相似度排序;
将汉明距离与预先设定的阈值进行比较;
若小于阈值则输出图片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010037806.3A CN111209886B (zh) | 2020-01-14 | 2020-01-14 | 一种基于深度神经网络的快速行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010037806.3A CN111209886B (zh) | 2020-01-14 | 2020-01-14 | 一种基于深度神经网络的快速行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111209886A CN111209886A (zh) | 2020-05-29 |
CN111209886B true CN111209886B (zh) | 2023-10-31 |
Family
ID=70786688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010037806.3A Active CN111209886B (zh) | 2020-01-14 | 2020-01-14 | 一种基于深度神经网络的快速行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111209886B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347855A (zh) * | 2020-10-12 | 2021-02-09 | 西安电子科技大学青岛计算技术研究院 | 一种基于深度学习的生物特征模板保护方法及装置 |
CN113743239A (zh) * | 2021-08-12 | 2021-12-03 | 青岛图灵科技有限公司 | 行人重识别方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423376A (zh) * | 2017-07-10 | 2017-12-01 | 上海交通大学 | 一种有监督深度哈希快速图片检索方法及系统 |
CN107480261A (zh) * | 2017-08-16 | 2017-12-15 | 上海荷福人工智能科技(集团)有限公司 | 一种基于深度学习细粒度人脸图像快速检索方法 |
CN108399185A (zh) * | 2018-01-10 | 2018-08-14 | 中国科学院信息工程研究所 | 一种多标签图像的二值向量生成方法及图像语义相似度查询方法 |
CN109241317A (zh) * | 2018-09-13 | 2019-01-18 | 北京工商大学 | 基于深度学习网络中度量损失的行人哈希检索方法 |
CN109492589A (zh) * | 2018-11-13 | 2019-03-19 | 重庆工程职业技术学院 | 通过二进制特征与联合层叠结构融合的人脸识别工作方法以及智能芯片 |
CN109918528A (zh) * | 2019-01-14 | 2019-06-21 | 北京工商大学 | 一种基于语义保护的紧凑的哈希码学习方法 |
CN110046579A (zh) * | 2019-04-18 | 2019-07-23 | 重庆大学 | 一种深度哈希的行人再识别方法 |
-
2020
- 2020-01-14 CN CN202010037806.3A patent/CN111209886B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423376A (zh) * | 2017-07-10 | 2017-12-01 | 上海交通大学 | 一种有监督深度哈希快速图片检索方法及系统 |
CN107480261A (zh) * | 2017-08-16 | 2017-12-15 | 上海荷福人工智能科技(集团)有限公司 | 一种基于深度学习细粒度人脸图像快速检索方法 |
CN108399185A (zh) * | 2018-01-10 | 2018-08-14 | 中国科学院信息工程研究所 | 一种多标签图像的二值向量生成方法及图像语义相似度查询方法 |
CN109241317A (zh) * | 2018-09-13 | 2019-01-18 | 北京工商大学 | 基于深度学习网络中度量损失的行人哈希检索方法 |
CN109492589A (zh) * | 2018-11-13 | 2019-03-19 | 重庆工程职业技术学院 | 通过二进制特征与联合层叠结构融合的人脸识别工作方法以及智能芯片 |
CN109918528A (zh) * | 2019-01-14 | 2019-06-21 | 北京工商大学 | 一种基于语义保护的紧凑的哈希码学习方法 |
CN110046579A (zh) * | 2019-04-18 | 2019-07-23 | 重庆大学 | 一种深度哈希的行人再识别方法 |
Non-Patent Citations (3)
Title |
---|
Ke Sun 等.deep high-resolution representation learning for human pose estimation.IEEE.2020,全文. * |
刘雁斌."基于哈希算法的行人再识别技术研究".《交通运输工程与信息学报》.2019,第70-74页. * |
周书仁 等.融合多尺度特征的深度哈希图像检索方法.计算机科学与探索.2018,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111209886A (zh) | 2020-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | MFFENet: Multiscale feature fusion and enhancement network for RGB–thermal urban road scene parsing | |
CN109543606B (zh) | 一种加入注意力机制的人脸识别方法 | |
CN109543667B (zh) | 一种基于注意力机制的文本识别方法 | |
CN111931684B (zh) | 一种基于视频卫星数据鉴别特征的弱小目标检测方法 | |
CN110738207B (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN113221639B (zh) | 一种基于多任务学习的代表性au区域提取的微表情识别方法 | |
CN107341452B (zh) | 基于四元数时空卷积神经网络的人体行为识别方法 | |
CN107239730B (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
CN105095880B (zh) | 一种基于lgbp编码的手指多模态特征融合方法 | |
CN106372624B (zh) | 人脸识别方法及系统 | |
CN113870286B (zh) | 一种基于多级特征和掩码融合的前景分割方法 | |
CN115619743A (zh) | Oled新型显示器件表面缺陷检测模型的构建方法及其应用 | |
CN111310766A (zh) | 基于编解码和二维注意力机制的车牌识别方法 | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN109840512A (zh) | 一种面部动作单元识别方法及识别装置 | |
CN113920516B (zh) | 一种基于孪生神经网络的书法字骨架匹配方法及系统 | |
CN111209886B (zh) | 一种基于深度神经网络的快速行人再识别方法 | |
CN114220178A (zh) | 基于通道注意力机制的签名鉴别系统及方法 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
CN107886093B (zh) | 一种字符检测方法、系统、设备及计算机存储介质 | |
CN116704196B (zh) | 一种训练图像语义分割模型的方法 | |
Cho et al. | Modified perceptual cycle generative adversarial network-based image enhancement for improving accuracy of low light image segmentation | |
Pham et al. | Vietnamese scene text detection and recognition using deep learning: An empirical study | |
CN114120076B (zh) | 基于步态运动估计的跨视角视频步态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |