CN111507217A - 一种基于局部分辨特征融合的行人重识别方法 - Google Patents
一种基于局部分辨特征融合的行人重识别方法 Download PDFInfo
- Publication number
- CN111507217A CN111507217A CN202010268693.8A CN202010268693A CN111507217A CN 111507217 A CN111507217 A CN 111507217A CN 202010268693 A CN202010268693 A CN 202010268693A CN 111507217 A CN111507217 A CN 111507217A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- network
- training
- identification
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明提出了一种基于局部分辨特征融合的行人重识别方法,包括以下步骤:步骤1)选取训练数据,选取训练用数据集,并将数据集划分为训练集和测试集;步骤2)设计网络结构,设计一个用于融合算法的两分支的轻量级行人重识别网络;步骤3)设计损失函数,采用ID损失、软边三元组损失和中心损失一起训练;步骤4)训练神经网络,使用随机梯度下降算法对网络进行训练,训练过程中可以观察整个网络在测试集的损失;步骤5)测试结果,通过训练好的神经网络进行行人重识别,本发明使得行人重识别更加准确。
Description
技术领域
本发明涉及一种行人重识别方法,具体的说是一种基于局部分辨特征融合的行人重识别方法,属于计算机视觉与人工智能技术领域。
背景技术
近年来,由于行人重识别(Re-ID)在新兴的计算机视觉应用(如视频监控、人类身份验证、认证和人机交互)中起到了关键作用,从而吸引了很多研究人员的关注。行人重识别的目的是将任何可查询图像与相同或不同摄影机在不同角度、时间或位置拍摄的同一人的图像相匹配,尽管目前该领域取得了一些进展,但由于光线、人体姿势、背景、摄像机角度等方面巨大变化,准确、可靠地识别行人仍然非常具有挑战性。
行人重识别(Re-ID)通常被表示为一个度量学习问题或者嵌入特征问题,其中类内样本之间的距离至少要比类间样本之间的距离小一个界限(margin),这个想法的一个直接实现是以成对的方式对样本进行分组,但其计算复杂性高,另一种方法是使用分类任务来寻找特征嵌入解决方法,这一方法在实现复杂性方面具有优势。目前,各种针对行人重识别最先进的方法已经从单一的度量学习问题或单一的类别分类问题发展到同时采用判别损失(discriminative loss)和三元组损失(triplet loss)的多任务问题。由于每个样本图像只使用行人ID进行标记,如果不精心设计底层神经网络并进一步使用一些正则化技术,端到端训练方法通常很难学习到丰富多样的特征。
在过去的几年,为了从ID-labeled数据集中学习到丰富的特征,人们提出各种基于局部和基于dropout的方法。与传统的基于位置的Re-ID方法不同的是,基于局部的方法首先定位大量的人体部位,促使每个部位满足独立的ID预测损失,从而得到具有区别性的局部特征表示,然而,基于dropout的方法旨在通过使用各种基于dropout的数据增强方法(如擦除(cutout)、随机擦除(random erasing))来扩大数据集或者从特征提取网络中擦除中间特征,从而发现丰富的特征。
基于局部的方法的性能在很大程度上依赖于所采用的划分机制。语义划分可能会提供强健的线索,以保持良好的对齐,但容易产生噪声姿势检测,因为它要求人体部位应准确识别和定位,且性能改善有限。
因此,如何准确识别指定行人目标的图像特征、提高图像识别率是本领域技术人员亟待解决的问题。
发明内容
本发明的目的是提供一种基于局部分辨特征融合的行人重识别方法,使得行人重识别更加准确。
本发明的目的是这样实现的:一种基于局部分辨特征融合的行人重识别方法,包括以下步骤:
步骤1)选取训练数据,选取训练用数据集,并将数据集划分为训练集和测试集;
步骤2)设计网络结构,设计一个用于融合算法的两分支的轻量级行人重识别网络;
步骤3)设计损失函数,采用ID损失、软边三元组损失和中心损失一起训练;
步骤4)训练神经网络,使用随机梯度下降算法对网络进行训练,训练过程中可以观察整个网络在测试集的损失;
步骤5)测试结果,通过训练好的神经网络进行行人重识别。
作为本发明的进一步限定,步骤1)具体包括:
选取行人重识别中比较流行的三个数据集:Market1501、DukeMTMC-reID和CUHK03;Market1501数据集被划分成一个训练集和一个测试集;DukeMTMC-reID数据集被划分成一个训练集和一个测试集;CUHK03数据集被划分成一个训练集和一个测试集。
作为本发明的进一步限定,步骤2)具体包括:
所述网络为通过在全尺度网络OSNet基础上设计得到的一个两分支的轻量级行人重识别网络,整个网络结构包括一个共享网络、一个全局分支和一个局部分支,其中共享网络是由OSNet中前3个conv层和2个过渡层构成,在共享网络中插入两个注意力模块,分别为空间注意力模块和通道注意力模块;全局分支是由OSNet中的conv4层和conv5层组成,后接一个全局最大池化层用于生成512维特征向量,最后接一个分类层用于分类任务;局部分支同样是由OSNet中的conv4层和conv5层组成,所述局部分支将conv5层输出的特征图均匀水平划分成4个部分,后分别接一个全局平均池化得到4个512维的特征向量,最后将其拼接成一个2048维的特征向量,后接一个分类层用于分类任务。在进行识别任务时,通过去除网络中的分类层,进而将两分支网络的全局分支与局部分支分别提取出的全局特征与局部特征进行融合,从而进行行人重识别任务。
作为本发明的进一步限定,步骤3)具体包括:
假设给定输入批次标签样本标记为{(xi,yi),i=1,2,…,Ns},对于提取出的特征向量g,ID损失的形式可表示为:
给定一组锚样本xa、正样本xp与负样本xn,则软边三元组损失的形式可表示为:
其中softplus=ln(1+exp(·)),P(a)、N(a)分别表示数据样本中正样本和负样本,d(xa,xp)指锚样本与正样本间的距离,d(xa,xn)指锚样本与负样本间的距离。
中心损失形式可表示如下:
最后,总的损失函数形式如下:
Ltotal=Ls-id+γtLtriplet+γcLcenter
所述γt,γc是指加权因子。
作为本发明的进一步限定,步骤5)具体包括:
对于已经训练好的网络模型,将数据集中的行人图像的尺寸调整好,并归一化后分别送入到训练好的网络模型中,经过网络的局部分支与全局分支后分别提取出2048维特征向量和512维特征向量;将提取的两个特征向量拼接进行融合;计算两幅图像对应特征向量间的欧氏距离作为两幅图像的相似度,欧氏距离越小,表示两幅图像越相似,属于同一个行人的概率越大;将相似度与提前设置的阈值作比较,若相似度高于阈值,则判定为同一个行人,否则判定为不同的行人。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
通过将网络设计成由全局分支与局部分支两个分支构成,可以很好学习到行人图像的全局特征与局部细节特征,同时采用多个损失函数对网络进行训练,可以拉近相同行人图像的距离,拉远不同行人图像的距离,从而提高了网络的特征表示能力和判别能力,使得行人重识别更加准确。
附图说明
图1为本发明中数据样本图。
图2为本发明中OSNet网络结构图。
图3为本发明的神经网络结构图。
图4为本发明行人检索结果图。
图5为本发明的多样性特征效果图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明公开了一种基于局部分辨特征融合的行人重识别方法,包括以下步骤:
步骤1)训练数据的选取;
由于是基于深度学习的方法实现行人重识别,因此需要大量的训练数据。如图1所示,本发明选取行人重识别中比较流行的三个数据集:Market1501、DukeMTMC-reID和CUHK03,其中Market1501数据集具有由6个摄像头收集的1501个身份,总共有32668张行人图像。数据集被划分成一个训练集,其中包含751个身份的12936张图像;一个测试集,其中包含3368张query图像和15913张gallery图像,包含750个身份;DukeMTMC-reID数据集包含了超过2个摄像头收集的1404个身份,总共有36411张图像。训练集包含702个身份的16522张图像,测试集包含另外的702个身份;CUHK03数据集包含标签(labeled)图像14096张和检测(detected)图像14097张,由两个摄像头的收集的共1467个身份,767个身份用于训练,剩余的700个身份用于测试,labeled数据集包含7368张训练图像、5328张gallery图像和1400张query图像,而detected数据集包含7356张训练图像、5332张gallery图像和1400张query图像。
步骤2)网络结构的设计;
所述网络是用于融合算法的网络,网络的形成是通过在最近提出的全尺度网络OSNet基础上进行专门设计得到的一个两分支的轻量级行人重识别网络,其中OSNet网络结构如图2所示。如图3所示,整个行人重识别网络结构包括一个共享网络、一个全局分支和一个局部分支,其中共享网络是由OSNet中前3个conv层和2个过渡(transition)层构成,为了增加网络捕获和聚合空间上的语义相关信息,设计时在共享网络中插入两个注意力模块,分别为空间注意力模块(SAM)和通道注意力模块(CAM);全局分支是由OSNet中的conv4层和conv5层组成,后接一个全局最大池化层用于生成512维特征向量,最后接一个分类层用于分类任务;局部分支同样是由OSNet中的conv4层和conv5层,与全局分支不同的是,这里采用了局部分辨特征的思想,将conv5层输出的特征图(feature map)均匀水平划分成4个部分,后分别接一个全局平均池化得到4个512维的特征向量,最后将其拼接成一个2048维的特征向量,后接一个分类层用于分类任务。在进行识别任务时,通过去除网络中的分类层,进而将两分支网络的全局分支与局部分支分别提取出的全局特征与局部特征进行融合,从而进行行人重识别任务。
步骤3)损失函数的设计;
行人重识别网络需要结合损失函数训练,本发明采用ID损失(softmax loss)、软边三元组损失(soft margin triplet loss)和中心损失(center loss)一起训练;假设给定输入批次标签样本标记为{(xi,yi),i=1,2,…,Ns},对于提取出的特征向量g,ID损失的形式可表示为:
给定一组锚(anchor)样本xa、正(positive)样本xp与负(negative)样本xn,则软边三元组损失的形式可表示为:
其中softplus=ln(1+exp(·)),P(a)、N(a)分别表示数据样本中正样本和负样本,d(xa,xp)指锚样本与正样本间的距离,d(xa,xn)指锚样本与负样本间的距离。
中心损失形式可表示如下:
最后,总的损失函数形式如下:
Ltotal=Ls-id+γtLtriplet+γcLcenter
这里的γt,γc是指加权因子。
步骤4)神经网络的训练;
使用随机梯度下降算法对网络进行训练,训练过程中可以观察整个网络在测试集的损失,通过调整超参数γt,γc使网络收敛更好,进而得到最好的重识别效果。通过调节超参数并在多个数据集上的性能比较,最终将超参数γt,γc分别设为0.1和0.0002;
本发明使用单个Nvidia Tesla P100 GPU训练,批处理大小(batch size)设置为64。每个行人在一个批处理中包含4张图像,因此一个批处理中有16个行人。训练时,通过加载ImageNet预训练模型初始化OSNet网络,本发明对于Markeyt1501和DukeMTMC-reID数据集,采用120个epochs训练,对于CUHK03数据集,采用150个epochs训练,训练时采用Adam优化器,初始化学习率设为3.5e-5,前20[40]个epochs采用warm up策略将学习率线性增长到3.5e-4,然后当epoch达到60[100]时,学习率降为3.5e-5,进一步地,当epoch达到90[130]时,学习率降为3.5e-6。
步骤5)测试结果
本发明在Matket1501、DukeMTMC-reID和CUHK03三个数据集上进行测试;对于行人重识别,采用累积匹配(Cumulative Matching Chracteristic,CMC)曲线和mAP(meanaverage precision)值作为评价指标。累积匹配曲线反映了网络的检索精确度,测试中取rank-1准确率,即与目标图像最相似的那幅图像。mAP反映了网络的召回率,对每一幅待识别行人图像,通过PR曲线(precision-recall)求其平均精确度(average recision,AP),则mAP是所有待识别行人图像的平均精确度的平均值。如下表为本发明在三个数据集上的测试结果。
具体地,图4展示了本发明的前10个(rank-10)检索结果,其中红框表示识别错误的图像,绿框则表示识别正确的图像,可以发现本发明基本可以准确识别出的行人图像,这也证明了本发明在行人重识别的有效性。本发明除了实现了比较高的行人识别率,同时实现了学习特征的多样性。图5是展示了本发明全局特征和局部特征的类激活映射(CAMs)的可视化,可以发现,对于一幅行人图像,本发明可以学习到行人的多种特征,这对于识别行人有很大帮助。
步骤6)网络的使用;
对于已经训练好的网络模型,将query与gallery数据集中的行人图像的尺寸调整256×128,归一化后分别送入到训练好的网络模型中,经过网络的局部分支与全局分支后分别提取出2048维特征向量和512维特征向量;将提取的两个特征向量拼接进行特征融合;计算两幅图像对应特征向量间的欧氏距离作为两幅图像的相似度,欧氏距离越小,表示两幅图像越相似,属于同一个行人的概率越大;将相似度与提前设置的阈值作比较,若相似度高于阈值,则判定为同一个行人,否则判定为不同的行人。
综上,本发明通过设计一个两分支的轻量级神经网络同时学习行人的局部特征与全局特征,并将其融合后用于行人重识别,在多个行人重识别数据集上达到比较高的准确率,这也证明了该发明的有效性。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (5)
1.一种基于局部分辨特征融合的行人重识别方法,其特征在于,包括以下步骤:
步骤1)选取训练数据,选取训练用数据集,并将数据集划分为训练集和测试集;
步骤2)设计网络结构,设计一个用于融合算法的两分支的轻量级行人重识别网络;
步骤3)设计损失函数,采用ID损失、软边三元组损失和中心损失一起训练;
步骤4)训练神经网络,使用随机梯度下降算法对网络进行训练,训练过程中可以观察整个网络在测试集的损失;
步骤5)测试结果,通过训练好的神经网络进行行人重识别。
2.根据权利要求1所述的一种基于局部分辨特征融合的行人重识别方法,其特征在于,步骤1)具体包括:
选取行人重识别中比较流行的三个数据集:Market1501、DukeMTMC-reID和CUHK03;Market1501数据集被划分成一个训练集和一个测试集;DukeMTMC-reID数据集被划分成一个训练集和一个测试集;CUHK03数据集被划分成一个训练集和一个测试集。
3.根据权利要求1所述的一种基于局部分辨特征融合的行人重识别方法,其特征在于,步骤2)具体包括:
所述网络为通过在全尺度网络OSNet基础上设计得到的一个两分支的轻量级行人重识别网络,整个网络结构包括一个共享网络、一个全局分支和一个局部分支,其中共享网络是由OSNet中前3个conv层和2个过渡层构成,在共享网络中插入两个注意力模块,分别为空间注意力模块和通道注意力模块;全局分支是由OSNet中的conv4层和conv5层组成,后接一个全局最大池化层用于生成512维特征向量,最后接一个分类层用于分类任务;局部分支同样是由OSNet中的conv4层和conv5层组成,所述局部分支将conv5层输出的特征图均匀水平划分成4个部分,后分别接一个全局平均池化得到4个512维的特征向量,最后将其拼接成一个2048维的特征向量,后接一个分类层用于分类任务。在进行识别任务时,通过去除网络中的分类层,进而将两分支网络的全局分支与局部分支分别提取出的全局特征与局部特征进行融合,从而进行行人重识别任务。
4.根据权利要求1所述的一种基于局部分辨特征融合的行人重识别方法,其特征在于,步骤3)具体包括:
假设给定输入批次标签样本标记为{(xi,yi),i=1,2,…,Ns},对于提取出的特征向量g,ID损失的形式可表示为:
给定一组锚样本xa、正样本xp与负样本xn,则软边三元组损失的形式可表示为:
其中softplus=ln(1+exp(·)),P(a)、N(a)分别表示数据样本中正样本和负样本,d(xa,xp)指锚样本与正样本间的距离,d(xa,xn)指锚样本与负样本间的距离。
中心损失形式可表示如下:
最后,总的损失函数形式如下:
Ltotal=Ls-id+γtLtriplet+γcLcenter
所述γt,γc是指加权因子。
5.根据权利要求1所述的一种基于局部分辨特征融合的行人重识别方法,其特征在于,步骤5)具体包括:
对于已经训练好的网络模型,将数据集中的行人图像的尺寸调整好,并归一化后分别送入到训练好的网络模型中,经过网络的局部分支与全局分支后分别提取出2048维特征向量和512维特征向量;将提取的两个特征向量拼接进行融合;计算两幅图像对应特征向量间的欧氏距离作为两幅图像的相似度,欧氏距离越小,表示两幅图像越相似,属于同一个行人的概率越大;将相似度与提前设置的阈值作比较,若相似度高于阈值,则判定为同一个行人,否则判定为不同的行人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010268693.8A CN111507217A (zh) | 2020-04-08 | 2020-04-08 | 一种基于局部分辨特征融合的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010268693.8A CN111507217A (zh) | 2020-04-08 | 2020-04-08 | 一种基于局部分辨特征融合的行人重识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111507217A true CN111507217A (zh) | 2020-08-07 |
Family
ID=71875896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010268693.8A Withdrawn CN111507217A (zh) | 2020-04-08 | 2020-04-08 | 一种基于局部分辨特征融合的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507217A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560999A (zh) * | 2021-02-18 | 2021-03-26 | 成都睿沿科技有限公司 | 一种目标检测模型训练方法、装置、电子设备及存储介质 |
CN112836637A (zh) * | 2021-02-03 | 2021-05-25 | 江南大学 | 一种基于空间逆向注意网络的行人重识别方法 |
CN112966673A (zh) * | 2021-05-19 | 2021-06-15 | 南京视察者智能科技有限公司 | 一种行人重识别模型的构建方法及行人重识别方法 |
CN113033468A (zh) * | 2021-04-13 | 2021-06-25 | 中国计量大学 | 一种基于多源图像信息的特定人员重识别方法 |
CN113128466A (zh) * | 2021-05-11 | 2021-07-16 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN113420742A (zh) * | 2021-08-25 | 2021-09-21 | 山东交通学院 | 一种用于车辆重识别的全局注意力网络模型 |
CN113537032A (zh) * | 2021-07-12 | 2021-10-22 | 南京邮电大学 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
CN113723366A (zh) * | 2021-10-25 | 2021-11-30 | 山东力聚机器人科技股份有限公司 | 一种行人重识别方法、装置及计算机设备 |
CN113807401A (zh) * | 2021-08-18 | 2021-12-17 | 南京中兴力维软件有限公司 | 通用id识别方法、装置及设备 |
CN113837228A (zh) * | 2021-08-30 | 2021-12-24 | 厦门大学 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
CN113920472A (zh) * | 2021-10-15 | 2022-01-11 | 中国海洋大学 | 一种基于注意力机制的无监督目标重识别方法及系统 |
CN115240121A (zh) * | 2022-09-22 | 2022-10-25 | 之江实验室 | 一种用于增强行人局部特征的联合建模方法和装置 |
CN116524602A (zh) * | 2023-07-03 | 2023-08-01 | 华东交通大学 | 基于步态特征的换衣行人重识别方法及系统 |
US11810366B1 (en) | 2022-09-22 | 2023-11-07 | Zhejiang Lab | Joint modeling method and apparatus for enhancing local features of pedestrians |
-
2020
- 2020-04-08 CN CN202010268693.8A patent/CN111507217A/zh not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836637A (zh) * | 2021-02-03 | 2021-05-25 | 江南大学 | 一种基于空间逆向注意网络的行人重识别方法 |
CN112560999A (zh) * | 2021-02-18 | 2021-03-26 | 成都睿沿科技有限公司 | 一种目标检测模型训练方法、装置、电子设备及存储介质 |
CN113033468A (zh) * | 2021-04-13 | 2021-06-25 | 中国计量大学 | 一种基于多源图像信息的特定人员重识别方法 |
CN113128466A (zh) * | 2021-05-11 | 2021-07-16 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN113128466B (zh) * | 2021-05-11 | 2023-12-05 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN112966673A (zh) * | 2021-05-19 | 2021-06-15 | 南京视察者智能科技有限公司 | 一种行人重识别模型的构建方法及行人重识别方法 |
CN112966673B (zh) * | 2021-05-19 | 2021-07-23 | 南京视察者智能科技有限公司 | 一种行人重识别模型的构建方法及行人重识别方法 |
CN113537032B (zh) * | 2021-07-12 | 2023-11-28 | 南京邮电大学 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
CN113537032A (zh) * | 2021-07-12 | 2021-10-22 | 南京邮电大学 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
CN113807401A (zh) * | 2021-08-18 | 2021-12-17 | 南京中兴力维软件有限公司 | 通用id识别方法、装置及设备 |
CN113420742A (zh) * | 2021-08-25 | 2021-09-21 | 山东交通学院 | 一种用于车辆重识别的全局注意力网络模型 |
CN113837228A (zh) * | 2021-08-30 | 2021-12-24 | 厦门大学 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
CN113837228B (zh) * | 2021-08-30 | 2024-01-16 | 厦门大学 | 基于惩罚感知中心损失函数的用于细粒度物体检索方法 |
CN113920472A (zh) * | 2021-10-15 | 2022-01-11 | 中国海洋大学 | 一种基于注意力机制的无监督目标重识别方法及系统 |
CN113723366B (zh) * | 2021-10-25 | 2022-03-25 | 山东力聚机器人科技股份有限公司 | 一种行人重识别方法、装置及计算机设备 |
CN113723366A (zh) * | 2021-10-25 | 2021-11-30 | 山东力聚机器人科技股份有限公司 | 一种行人重识别方法、装置及计算机设备 |
CN115240121A (zh) * | 2022-09-22 | 2022-10-25 | 之江实验室 | 一种用于增强行人局部特征的联合建模方法和装置 |
CN115240121B (zh) * | 2022-09-22 | 2023-01-03 | 之江实验室 | 一种用于增强行人局部特征的联合建模方法和装置 |
US11810366B1 (en) | 2022-09-22 | 2023-11-07 | Zhejiang Lab | Joint modeling method and apparatus for enhancing local features of pedestrians |
CN116524602A (zh) * | 2023-07-03 | 2023-08-01 | 华东交通大学 | 基于步态特征的换衣行人重识别方法及系统 |
CN116524602B (zh) * | 2023-07-03 | 2023-09-19 | 华东交通大学 | 基于步态特征的换衣行人重识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507217A (zh) | 一种基于局部分辨特征融合的行人重识别方法 | |
US11195051B2 (en) | Method for person re-identification based on deep model with multi-loss fusion training strategy | |
CN112101150B (zh) | 一种基于朝向约束的多特征融合行人重识别方法 | |
CN110110642B (zh) | 一种基于多通道注意力特征的行人重识别方法 | |
CN110728263B (zh) | 一种基于距离选择的强判别特征学习的行人重识别方法 | |
Zhou et al. | Bottom-up object detection by grouping extreme and center points | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
Bazzani et al. | Self-taught object localization with deep networks | |
US11315345B2 (en) | Method for dim and small object detection based on discriminant feature of video satellite data | |
CN106096561B (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN110738146B (zh) | 一种目标重识别神经网络及其构建方法和应用 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN112200111A (zh) | 一种全局与局部特征融合的遮挡鲁棒行人重识别方法 | |
KR102320985B1 (ko) | 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN113420607A (zh) | 无人机多尺度目标检测识别方法 | |
CN112183468A (zh) | 一种基于多注意力联合多级特征的行人再识别方法 | |
Suprem et al. | Looking glamorous: Vehicle re-id in heterogeneous cameras networks with global and local attention | |
CN110163117B (zh) | 一种基于自激励判别性特征学习的行人重识别方法 | |
CN113361464B (zh) | 一种基于多粒度特征分割的车辆重识别方法 | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
Wei et al. | Traffic sign detection and recognition using novel center-point estimation and local features | |
CN110751005B (zh) | 融合深度感知特征和核极限学习机的行人检测方法 | |
Symeonidis et al. | Neural attention-driven non-maximum suppression for person detection | |
CN116597267B (zh) | 图像识别方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200807 |
|
WW01 | Invention patent application withdrawn after publication |