CN111985367A - 一种基于多尺度特征融合的行人重识别特征提取方法 - Google Patents

一种基于多尺度特征融合的行人重识别特征提取方法 Download PDF

Info

Publication number
CN111985367A
CN111985367A CN202010785860.6A CN202010785860A CN111985367A CN 111985367 A CN111985367 A CN 111985367A CN 202010785860 A CN202010785860 A CN 202010785860A CN 111985367 A CN111985367 A CN 111985367A
Authority
CN
China
Prior art keywords
feature
pedestrian
features
global
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010785860.6A
Other languages
English (en)
Inventor
王伟胜
黄蕾
颜志洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202010785860.6A priority Critical patent/CN111985367A/zh
Publication of CN111985367A publication Critical patent/CN111985367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及行人重识别领域的特征提取,具体涉及一种基于多尺度特征融合的行人重识别特征提取方法。本发明的方法包括:以ResNet为backbone改进构建一个多尺度特征融合网络,其改进为将layer3层提取的特征作为共享特征,其后接两个分支,分别为Global分支和Part分支,Part分支通过将ResNet最后一层的stride由2降为1,Global分支使用原ResNet的layer4层的操作,再抽取layer3.1和layer4.1的特征图,通过分别将Part分支和Global分支与layer3.1和layer4.1的特征图进行融合,分别标记为layer3.1_p和layer4.1_g,将以上4个特征向量(layer4.4(Part)、layer4.4(Global)、layer3.1_p、layer4.1_g)均降维成512维的特征进行特征融合,组成2048维的特征进行相似性度量。该方法能够通过利用底层特征图,包含更多行人图像的微小细节信息,使提取的特征更易于区分相似行人,增强了所提取特征的鲁棒性。

Description

一种基于多尺度特征融合的行人重识别特征提取方法
技术领域
本发明涉及计算机视觉技术和行人重识别领域。特别是涉及一种多尺度特征融合的行人特征提取方法。
背景技术
利用高科技手段加强社会管理预防犯罪行为发生已成为共识。为此,各地政府都在公共场所关键点、交通路口、生活小区、停车场等安装了大量摄像头,加强对行人行为的观察及身份识别。摄像头每天产生巨量数据,对这些数据进行分析具有重要意义。但复杂场景下获取人脸、步态等生物特征特别困难,为此出现了行人重识别技术。不同于传统意义上的人脸图像识别技术,行人重识别(ReID)建立来自不同摄像头的同一行人图像间的对应关系。当前,行人重识别主要依靠人体外表视觉信息,但视频图像受光照、流明变化、行人姿态及拍摄视角度等因素影响,即使是同一行人,不同摄像头拍摄的身体外表图像也存在很大差异;同一行人,在不同时间由同一摄像头拍摄的图像同样也存在很大差异,因此,行人重识别面临巨大挑战,已成为当前视频识别领域的热点研究问题,在社会管理、突发事件重构、智能无人超市、人机交互等方面具有广阔应用前景。
行人重识别对无重叠的多个摄像头拍摄的行人图像进行识别,是将一个摄像头拍摄的目标行人作为检索对象,从其他摄像头拍摄的图像中准确识别行人,由提取健壮表示特征及采用有效度量模型实现识别两个过程组成。目前研究主要围绕图像特征学习和相似性度量方面展开。特征提取是特征工程的重要问题。特征提取是从原始数据出发构造新特征的过程,一般数据转化到特征空间以后,舍弃了某些对识别无关或造成干扰的信息,保留相关的信息,如对于行人重识别,理想的描述子应该对光照、行人姿势变化、视角变化等不敏感,而保留颜色、纹理、空间结构等信息。早期特征的构造由专家借助相关领域知识,在对数据的分析、判断和思考下,抽取、组合各类特征得到。随着各行各业的数据爆发式增长累积,原有的人工特征方法难以满足日益增长的需求。此外手工设计的特征往往使用领域较窄,在其目标领域表现良好,迁移到其他领域往往效果会大打折扣。然而,深度学习的兴起和大规模应用,不仅减轻了特征方法的难度,还可以利用海量数据,通过自动筛选特征和特征组合,进而学习到更加鲁棒的特征。在模式识别领域中,对样本进行分类识别的时候,把计算样本间的距离称为样本间的相似性度量。相似性度量是机器学习中一个新兴领域,在计算机视觉中有广泛的应用。它能有效地改善行人跟踪、图像检索、人脸识别、聚类分析、以及行人重识别的效果。基于相似性度量学习方法的中心思想是利用行人图像的标签信息来计算相似性度量函数的参数,使得相同类别行人图像对的距离小于不同类别行人图像对的距离。尽管近年来在图像特征学习和相似度量方面科研工作取得了长足的进步,但是仍然有提升的空间。本发明就通过图像特征的研究,提升提取图像特征的鲁棒性,进而提升检索的精度。
行人重识别(ReID)是指判断来自不同摄像头所拍摄到的行人图像是否属于同一个行人的技术。基本工作流程主要分为五个阶段:数据收集和预处理,模型训练,特征提取,相似性度量,相似性重排序。行人重识别技术对智能安防和智能商业有着无可限量的应用价值。可以实现跨摄像头快速识别和追踪嫌疑人,有效协助警方部署安防或破案;可以帮助零售经营者、大型展馆管理者等实现精准统筹顾客轨迹、深入挖掘潜在的商机;还可以运用到手机相册聚类、人机交互等场景中。
特征表达和距离度量是行人重识别过程中的两个核心模块。传统方法无法对这两个核心模块进行协同优化。随着深度学习技术的出现,同时学习图像表达和图像间的相似性度量成为可能。得益于深度学习在行人重识别的发展,基于表征学习的方法成为一类非常常用的行人重识别方法,尤其是卷积神经网络的快速发展。由于卷积神经网络可以自动从原始的图像数据中根据任务需求自动提取出表征特征(Representation),所以一部分研究者把行人重识别问题作为分类(Classification/Identification)问题或者验证(Verification)问题,其中分类问题是指利用行人的ID或者属性等作为训练标签来训练模型,而验证问题是指输入一对(两张)行人图片,让网络来学习这两张图片是否属于同一个行人。
众所周知,目前的行人重识别技术主要抽取全局特征和局部特征,通过融合全局特征和局部特征,作为行人的特征进行相似性计算。通过对全局特征图和局部特征图可视化发现,利用卷积神经网络在数据预处理后的图像上进行卷积、池化等特征提取操作,逻辑流程容易理解且简单,而且提取出的全局特征基本上可以代表目标行人。但是通过观察特征图发现,目标行人的某些实时属性(发卡、商标、眼镜等)会出现由于所占像素较少而无法响应在最终的特征图上。因此只单一使用全局特征进行行人重识别,会出现模型无法高精度分辨出相似行人。后来,人们发现通过修改卷积神经网络最后一层的stride为1,不仅不会增加运算负载,而且还可以保留更多的微小细节信息。更进一步,通过对提取的特征图进行硬划分,分成N个水平块,对每一块进行行人ID分类,采用Softmax Loss进行监督,具体如图3所示,这样不仅会促使卷积神经网络自动关注行人图像中微小的细节信息,还可以使提取的特征鲁棒性增强。
发明内容
本发明针对目前行人重识别领域现有算法提取的特征仍存在鲁棒性不高,模型泛化能力较弱的情况,通过整合多尺度的特征,提取健壮的行人表示,算法架构如图2所示,可以提高行人重识别技术在智能安防和智能商业的应用价值。本发明多尺度特征融合网络的训练流程如图1所示,包括:
1.对数据的预处理包括:
数据集包括训练集、查询集和查询库;训练数据图像的名称格式为行人ID_摄像头ID视频ID_视频帧数_检测框;数据集进行resize,对图像进行预处理包括:旋转、ToTensor、遮挡、对比度、翻转、锐化增强、噪声、滤波、倾斜、图像色彩空间转换、图片叠加与融合、颜色抖动、gamma变换、图片混合。
2.构建多尺度融合网络:
通过观察行人图像发现,行人在图像中存在尺度不一,例如有的行人完整填充在图像中,而有的行人仅仅占据图像某一角落,大部分都是背景。对于尺度存在差异的数据集,即使融合全局特征和局部特征,仍无法得到健壮的行人特征,不能克服尺度变化带来的问题。因此本发明提出抽取卷积神经网络中间层特征图,采用top-down的方式实现多尺度特征融合。本发明在实验中进行top-down特征图融合时发现,中间特征图由于卷积、池化等操作不完善,导致特征图包含过多背景信息,如果直接进行特征融合,会出现融合后特征包含过多杂波而影响相似性的度量,因此构建多尺度融合网络如下:
(1)以ResNet为backbone,在其基础上进行修改。将backbone的layer3层提取的特征作为共享特征,其后接两个分支,分别为Global分支和Part分支;
(2)Part分支将ResNet最后一层的stride由2降为1,使特征图的大小和layer3提取的特征图大小一致,该分支提取到的特征记为layer4.4(Part);Global分支使用原ResNet的layer4层的操作,该分支提取到的特征记为layer4.4(Global);Part分支和Global分支行人图像特征图大小分别为(8,4)和(16,8),在两个分支的特征图上使用全局平均值池化;
(3)抽取layer3.1和layer4.1的特征图,其大小分别为(16,8)和(8,4);
(4)通过分别将Global分支和Part分支与layer3.1和layer4.1的特征图进行融合,分别标记为layer3.1_p和layer4.1_g;
(5)将以上4个特征向量(layer4.4(Part)、layer4.4(Global)、layer3.1_p、layer4.1_g)降维成512的特征,进行特征融合,组成2048维的特征进行相似性度量。此特征向量既包含低层特征又包含高层语义,具有较强的鲁棒性,可以提升行人重识别的精度。
3.对多尺度融合特征网络进行训练:
分Batch向网络中输入训练图像,在多尺度特征融合网络中提取特征、融合特征图和降维,将特征进行前向传播输出预测值;根据预测值与真实值计算Softmax和Triplet损失,反向传播更新模型参数,迭代训练直到满足结束训练的条件。
通过分析和实验证明,在中间特征图上使用全局最大值池化可以抑制背景杂波,使提取的特征图主要关注在行人肢体和实时属性上;而在最终的特征图上使用全局平均池化,可以充分利用提取的目标行人特征,提高特征的鲁棒性。
附图说明
图1:系统流程图;
图2:多尺度特征融合框架图;
图3:局部特征监督流程图;
图4:数据集及命名格式实例图;
图2中的字母分别代表如下含义:
Input images:输入图像;
P*K:P个ID,每个ID K张图像;
RseNet backbone:ResNet骨干网络;
GMP:全局最大池化;
GAP:全局均值池化;
Training:训练;
Inference:推举。
具体实施方式
本发明的硬件环境主要是一台PC主机。其中,PC主机的CPU为Intel(R)Core(TM)i7-7000,3.70GHz,GPU为Nvidia GTX 1080Ti,内存为4GB RAM,显存为32GB,64位操作系统。
本发明的软件实现以Ubuntu18.04为平台,在Pycharm环境下,使用Python语言和Pytorch深度学习框架开发。Pycharm版本为2019社区版,Pytorch版本为1.1.0,Python版本为3.6.1。
实验数据为公有数据集,包括Market-1501(清华大学)、DukeMTMC-reID(美国杜克大学)、MSMT17(北京大学)等,数据集包括训练集、查询集和查询库,其图像命名格式各不相同。以Market-1501为例,行人ID_摄像头ID视频ID_视频帧数_检测框,具体例子如图4所示。
本发明提出的图像特征提取方法,通过多尺度特征融合,进行行人重识别。所述多尺度特征融合采用融合提取网络中的多个特征图进行处理,在低层特征图上使用全局最大值池化以抑制背景杂波提高特征的鲁棒性,在高层特征上使用全局平均值池化以充分利用提取的特征。将高层特征图和大小一致的低层特征图进行融合,融合成鲁棒性强的特征向量。步骤如下:
多尺度特征图融合
本发明以ResNet为backbone,通过在其基础上进行修改实现多尺度特征的融合,算法架构如图2所示,提高提取特征鲁棒性,提高行人重识别的精度。假设送入卷积神经网络的图大小为(256,128,3)。通过修改将layer3层提取的特征作为共享特征,其后接两个分支,分别为Global分支和Part分支。Part分支通过将ResNet最后一层的stride由2降为1,使特征图的大小和layer3提取的特征图大小一致,保留更多行人图像微小特征。Global分支使用原ResNet的layer4层的操作。经过Global分支和Part分支行人图像特征图大小分别为(8,4)和(16,8),而且在以上两个特征图上使用全局平均值池化,可以充分利用网络提取的特征。已知卷积神经网络提取特征过程中,存在尺度变化,由大到小变化。因此抽取layer3.1和layer4.1的特征图,其大小分别为(16,8)和(8,4),通过分别将Part分支和Global分支与layer3.1和layer4.1的特征图进行融合,分别标记为layer3.1_p和layer4.1_g,此特征图既包含高层语义又含有低层特征。而且在以上特征图上使用全局最大值池化,可以消除背景杂波的影响,使网络更加关注目标行人肢体特征和实时特征。为了不增加算法运行负载,本发明分别将以上池化后的特征向量进行降维,实现了精度和效率的平衡。通过融合以上特征向量,本发明可以克服尺度变化和相似行人误检,提高了行人重识别的精度。
与现有技术相比,本发明的有益效果是:本发明提出了一个新颖的行人重识别特征提取网络。通过利用底层特征图,可以包含更多行人图像的微小细节信息,使提取的特征更易于区分相似行人;通过将高层特征图和底层特征图的融合,使提取的特征克服尺度变化。在训练过程中,使网络更关注微小细节信息和克服尺度变化带来的影响,提升了卷积提取特征的鲁棒性。

Claims (4)

1.一种基于多尺度特征融合的行人重识别特征提取方法,其特征在于实施步骤为:
(1)对数据集进行预处理,预处理包括:旋转、ToTensor、遮挡、对比度、翻转、锐化增强、噪声、滤波、倾斜、图像色彩空间转换、图片叠加与融合、颜色抖动、gamma变换、图片混合;
(2)构建多尺度特征融合网络;
(3)分Batch向网络输入图像,在多尺度特征融合网络中提取特征、融合特征图和降维,前向传播输出预测值;根据预测值和真实值计算Softmax和Triplet损失并反向传播更新模型参数,迭代训练直到满足结束训练的条件。
2.根据权利要求1所述的基于多尺度特征融合的行人重识别特征提取方法,其特征在于本方法对数据集和图像的预处理为:
(1)训练数据中图像的命名格式为行人ID_摄像头ID视频ID_视频帧数_检测框;
(2)数据集包括训练集、查询集和查询库;
(3)数据集进行resize,对图像进行处理包括:旋转、ToTensor、遮挡、对比度、翻转、锐化增强、噪声、滤波、倾斜、图像色彩空间转换、图片叠加与融合、颜色抖动、gamma变换、图片混合。
3.根据权利要求1所述的基于多尺度特征融合的行人重识别特征提取方法,其特征在于本方法在构建多尺度特征融合网络的设计为:
(1)以ResNet为backbone,在其基础上进行修改;
(2)将backbone的layer3层提取的特征作为共享特征,其后接两个分支,分别为Global分支和Part分支;
(3)Part分支将ResNet最后一层的stride由2降为1,使特征图的大小和layer3提取的特征图大小一致,该分支提取到的特征记为layer4.4(Part);Global分支使用原ResNet的layer4层的操作,该分支提取到的特征记为layer4.4(Global);Part分支和Global分支行人图像特征图大小分别为(8,4)和(16,8),在两个分支的特征图上使用全局平均值池化;
(4)抽取layer3.1和layer4.1的特征图,其大小分别为(16,8)和(8,4);
(5)通过分别将Part分支和Global分支与layer3.1和layer4.1的特征图进行融合,分别标记为layer3.1_p和layer4.1_g;
(6)将以上4个特征向量(layer4.4(Part)、layer4.4(Global)、layer3.1_p、layer4.1_g)降维成512的特征,进行特征融合,组成2048维的特征进行相似性度量。
4.根据权利要求1所属述的一种基于多尺度特征融合的行人重识别特征提取方法,其特征在于本方法在构建多尺度特征融合网络、对数据预处理后:
(1)分Batch向网络中输入训练图像,在多尺度特征融合网络中提取特征、融合特征图和降维,将特征进行前向传播输出预测值;
(2)根据输出的预测值与真实值计算Softmax和Triplet损失,反向传播更新模型参数,迭代训练直到满足结束训练的条件。
CN202010785860.6A 2020-08-07 2020-08-07 一种基于多尺度特征融合的行人重识别特征提取方法 Pending CN111985367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010785860.6A CN111985367A (zh) 2020-08-07 2020-08-07 一种基于多尺度特征融合的行人重识别特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010785860.6A CN111985367A (zh) 2020-08-07 2020-08-07 一种基于多尺度特征融合的行人重识别特征提取方法

Publications (1)

Publication Number Publication Date
CN111985367A true CN111985367A (zh) 2020-11-24

Family

ID=73445214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010785860.6A Pending CN111985367A (zh) 2020-08-07 2020-08-07 一种基于多尺度特征融合的行人重识别特征提取方法

Country Status (1)

Country Link
CN (1) CN111985367A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560604A (zh) * 2020-12-04 2021-03-26 中南大学 一种基于局部特征关系融合的行人重识别方法
CN112633089A (zh) * 2020-12-11 2021-04-09 深圳市爱培科技术股份有限公司 一种视频行人重识别方法、智能终端及存储介质
CN112766353A (zh) * 2021-01-13 2021-05-07 南京信息工程大学 一种加强局部注意的双分支车辆再识别方法
CN113011386A (zh) * 2021-04-13 2021-06-22 重庆大学 一种基于等分特征图的表情识别方法及系统
CN114783069A (zh) * 2022-06-21 2022-07-22 中山大学深圳研究院 基于步态识别对象的方法、装置、终端设备及存储介质
CN116524602A (zh) * 2023-07-03 2023-08-01 华东交通大学 基于步态特征的换衣行人重识别方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN110766058A (zh) * 2019-10-11 2020-02-07 西安工业大学 一种基于优化rpn网络的战场目标检测方法
CN111241932A (zh) * 2019-12-30 2020-06-05 广州量视信息科技有限公司 汽车展厅客流检测与分析系统、方法及存储介质
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN110766058A (zh) * 2019-10-11 2020-02-07 西安工业大学 一种基于优化rpn网络的战场目标检测方法
CN111241932A (zh) * 2019-12-30 2020-06-05 广州量视信息科技有限公司 汽车展厅客流检测与分析系统、方法及存储介质
CN111709311A (zh) * 2020-05-27 2020-09-25 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐龙壮 等: "基于多尺度卷积特征融合的行人重识别", 《激光与光电子学进展》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560604A (zh) * 2020-12-04 2021-03-26 中南大学 一种基于局部特征关系融合的行人重识别方法
CN112633089A (zh) * 2020-12-11 2021-04-09 深圳市爱培科技术股份有限公司 一种视频行人重识别方法、智能终端及存储介质
CN112633089B (zh) * 2020-12-11 2024-01-09 深圳市爱培科技术股份有限公司 一种视频行人重识别方法、智能终端及存储介质
CN112766353A (zh) * 2021-01-13 2021-05-07 南京信息工程大学 一种加强局部注意的双分支车辆再识别方法
CN112766353B (zh) * 2021-01-13 2023-07-21 南京信息工程大学 一种加强局部注意的双分支车辆再识别方法
CN113011386A (zh) * 2021-04-13 2021-06-22 重庆大学 一种基于等分特征图的表情识别方法及系统
CN114783069A (zh) * 2022-06-21 2022-07-22 中山大学深圳研究院 基于步态识别对象的方法、装置、终端设备及存储介质
CN116524602A (zh) * 2023-07-03 2023-08-01 华东交通大学 基于步态特征的换衣行人重识别方法及系统
CN116524602B (zh) * 2023-07-03 2023-09-19 华东交通大学 基于步态特征的换衣行人重识别方法及系统

Similar Documents

Publication Publication Date Title
Song et al. Automated pavement crack damage detection using deep multiscale convolutional features
CN111985367A (zh) 一种基于多尺度特征融合的行人重识别特征提取方法
CN106547880B (zh) 一种融合地理区域知识的多维度地理场景识别方法
Tao et al. Learning discriminative feature representation with pixel-level supervision for forest smoke recognition
CN113221625B (zh) 一种利用深度学习的局部特征对齐行人重识别方法
CN110765954A (zh) 一种车辆重识别方法、设备及存储装置
CN114758362B (zh) 基于语义感知注意力和视觉屏蔽的换衣行人重识别方法
CN112529005B (zh) 基于语义特征一致性监督金字塔网络的目标检测方法
Ye et al. A two-stage real-time YOLOv2-based road marking detector with lightweight spatial transformation-invariant classification
CN114821014B (zh) 基于多模态与对抗学习的多任务目标检测识别方法及装置
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
Tian et al. Object localization via evaluation multi-task learning
Hu et al. Depth sensor based human detection for indoor surveillance
Chen et al. Vehicle type classification based on convolutional neural network
CN116311353A (zh) 基于特征融合的密集行人多目标跟踪方法、计算机设备和存储介质
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
Yun et al. Part-level convolutional neural networks for pedestrian detection using saliency and boundary box alignment
Chen et al. Occlusion and multi-scale pedestrian detection A review
Li et al. Region NMS-based deep network for gigapixel level pedestrian detection with two-step cropping
Alam et al. A vision-based system for traffic light detection
Zheng et al. Category-wise fusion and enhancement learning for multimodal remote sensing image semantic segmentation
CN113723558A (zh) 基于注意力机制的遥感图像小样本舰船检测方法
Xu et al. Multiscale edge-guided network for accurate cultivated land parcel boundary extraction from remote sensing images
Gao et al. Research on multitask model of object detection and road segmentation in unstructured road scenes
CN113487738B (zh) 基于虚拟知识迁移的建筑物及其遮挡区域单体化提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201124

WD01 Invention patent application deemed withdrawn after publication