CN110555420B - 一种基于行人区域特征提取和重识别融合模型网络及方法 - Google Patents
一种基于行人区域特征提取和重识别融合模型网络及方法 Download PDFInfo
- Publication number
- CN110555420B CN110555420B CN201910848205.8A CN201910848205A CN110555420B CN 110555420 B CN110555420 B CN 110555420B CN 201910848205 A CN201910848205 A CN 201910848205A CN 110555420 B CN110555420 B CN 110555420B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- network
- extraction
- region
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 80
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 18
- 238000007500 overflow downdraw method Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 238000013140 knowledge distillation Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000010354 integration Effects 0.000 abstract description 4
- 238000013527 convolutional neural network Methods 0.000 abstract description 3
- 239000013598 vector Substances 0.000 description 8
- 238000012216 screening Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于行人区域特征提取和重识别融合模型网络及方法,它包括:区域提取模块:用于根据全局特征图搜索行人出现的区域,并从中生成提取区域,以获得行人目标的检测结果并对这些提取区域的特征进行收集和整合处理。通过一个深度卷积神经网络即可实现对行人特征的提取和识别,并通过区域特征的提取避免了在原场景图片中对行人图片的截图、存储和预处理操作,使得整体网络处理速度更加快速,整体网络模型体积更小,能够部署到硬件条件更低的环境中。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于行人区域特征提取和重识别融合模型网络及方法。
背景技术
作为图像理解和计算机视觉的基石,目标检测构成了解决更复杂或更高级视觉任务的基础,例如分割,场景理解,对象跟踪,图像捕获,事件检测和活动识别等。目标检测在人工智能和信息技术的许多领域具有广泛的应用,包括机器人视觉,消费电子,安全,自动驾驶,人机交互,基于内容的图像检索,智能视频监控和虚拟现实。
行人重识别(ReID)是指从不同摄像机捕获的行人图像中识别这个行人的身份。给定包含目标行人(查询)的图像,ReID系统尝试从大量行人图像(图库)中搜索包括相同行人的图像。ReID因其广泛的应用潜力,例如视频监控和交叉相机跟踪而受到学术界和工业界的极大关注。然而,由于大量不受控制的变化源,例如姿势和视点的显着变化,照明的复杂变化以及较差的图像质量,ReID仍然是一项非常具有挑战性的任务。
现有的行人重识别应用,需要首先对场景中的行人进行目标检测,通常可以使用FasterRcnn以及YOLO等检测器,获取到场景中的行人框图后,再从场景图片中截取行人图片,再输入行人重识别网络进行特征提取。而这些步骤中一共使用了2个完整的深度卷积神经网络,一共包含了2个深层的主干网络提取特征图,会消耗大量的计算资源和时间,导致整个模型网络的识别周期加长,而在真正应用过程中对行人的行为及时准确的做出识别判断是非常重要的。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于行人区域特征提取和重识别融合模型网络及方法,通过一个深度卷积神经网络即可达到目的,解决了现目前通过采用两个深度卷积神经网络所存在的问题。
本发明的目的是通过以下技术方案来实现的:一种基于行人区域特征提取和重识别融合模型网络,它包括:
区域提取模块:用于根据全局特征图搜索行人出现的区域,并从中生成提取区域,以获得行人目标的检测结果并对这些提取区域的特征进行收集和整合处理。
所述模型网络还包括骨干网络模块和行人重识别模块;所述骨干网络模块对输入的原图进行预处理得到全局特征图后输入到所述区域提取模块;所述行人重识别模块根据所述区域提取模块的输出结果进行特征提取,并根据场景中行人的不同特征识别出行人目标的行为。
所述区域提取模块包括行人区域特征选择单元和行人特征提取单元;
所述行人特征选择单元用于根据所述骨干网络模块输出的全局特征图搜索预测有行人的区域,并对行人区域进行框图标注和筛选以及区域特征提取,得到局部区域特征图;
所述行人区域特征提取单元对多个局部区域特征图进行合并以及3×3卷积操作处理,得到特征向量输入到所述行人重识别模块。
所述行人区域特征选择单元包括有框图预测全连接层、置信度全连接层、目标筛选层和区域特征图提取层。
所述行人特征提取单元包括变形、第一标识块、第二标识块、第三标识块、ROIPool操作和特征映射。
在模型网络建立好后通过采用知识蒸馏的训练策略对模型网络进行训练。
一种基于行人区域特征提取和重识别融合模型网络的融合方法,所述融合方法包括区域提取特征图进行目标检测步骤;所述区域提取特征图进行目标检测步骤包括以下内容:
使用填充为1的3×3卷积层变换区域特征提取模块的输出,并将输出通道数记为c;
将区域特征提取模块为图像提取的特征图中的每个单元赋予一个长度为c的新特征;
以特征图每个单元为中心,生成多个不同大小和宽高比的锚框;
用锚框中心单元长度为c的特征分别预测该锚框的二元类别和边界框;
使用非极大值抑制从预测类别为目标的预测边界框中移除相似的结果,输出提取区域。
所述融合方法还包括通过骨干网络模块对原图进行预处理的步骤,以及通过行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤;
所述通过骨干网络模块对原图进行预处理的步骤位于所述区域提取特征图进行目标检测步骤之前;
所述行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤位于所述区域提取特征图进行目标检测步骤之后。
在通过行人区域特征提取和重识别融合模型网络进行所述融合方法之前,还需要对建立好的行人区域特征提取和重识别融合模型网络进行训练。
采用知识蒸馏的训练策略对行人区域特征提取和重识别融合模型网络进行训练,具体的训练步骤如下:
输入一个批次的场景图片进入CPU端作为网络的输入,骨干网络模块提取特征图,区域提取模块给出行人可能出现的框图位置和大小信息,并保存给出的行人框图位置和大小信息作为训练网络输出的一部分;
行人重识别模块进一步提取行人特征,并且和区域提取模块输出的行人框图位置和大小信息联级作为网络输出;
当数据返回CPU端后转换区域提取模块行人框图位置和大小信息到原场景图的尺度,并根据框图信息在原场景图中截取每一个行人的图片并转换行人图片到固定尺度大小;
输入截取的行人图片到教师网络提取每个行人图片的特征,作为行人重识别模块的标签;
把网络的输出值和目标值输入Loss函数进行反向传播,并更新网络参数权重和偏差。
本发明的有益效果是:一种基于行人区域特征提取和重识别融合模型网络及方法,通过一个深度卷积神经网络即可实现对行人特征的提取和识别,并通过区域特征的提取避免了在原场景图片中对行人图片的截图、存储和预处理操作,使得整体网络处理速度更加快速,整体网络模型体积更小,能够部署到硬件条件更低的环境中。
附图说明
图1为网络的整体结构图;
图2为网络的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“上”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
如图1和图2所示,一种基于行人区域特征提取和重识别融合模型网络,它包括:
区域提取模块:用于根据全局特征图搜索行人出现的区域,并从中生成提取区域,以获得行人目标的检测结果并对这些提取区域的特征进行收集和整合处理。
所述模型网络还包括骨干网络模块和行人重识别模块;所述骨干网络模块对输入的原图进行预处理得到全局特征图后输入到所述区域提取模块;所述行人重识别模块根据所述区域提取模块的输出结果进行特征提取,并根据场景中行人的不同特征识别出行人目标的行为。
进一步地,骨干网络模块依次包括残差初始块、残差网络第一层组、残差网络第二层组和残差网络第三层组;实现对输入的原场景图进行预处理。
进一步地,基于Resnet50的骨干网络模块提取特征图的内容包括,将摄像设备采集的原场景图(格式为1920×1080×3)输入到骨干网络模块中进行预处理后,输出大小为H×W×1024维度的特征图,其中H代表特征图的高,W代表特征图的宽,根据输入图片的分辨率大小,H和W会不同。
所述区域提取模块包括行人区域特征选择单元和行人特征提取单元;
进一步地,行人特征选择单元用于根据所述骨干网络模块输出的全局特征图搜索预测有行人的区域,并对行人区域进行框图标注和筛选以及区域特征提取,得到局部区域特征图;
行人区域特征提取单元对多个局部区域特征图进行合并以及3×3卷积操作处理,得到特征向量输入到所述行人重识别模块。
所述行人区域特征选择单元包括有框图预测全连接层、置信度全连接层、目标筛选层和区域特征图提取层;
进一步地,框图预测全连接层用于预测全局特征图中有行人的区域并进行框图标注;置信度全连接层用于对应每个框图有行人的几率大小;
目标筛选层用于筛选掉框图大小小于阈值的框图;阈值为长32像素或者宽16像素;
区域特征图提取层用于根据框图的位置和大小信息,在全局特征上进行ROIAlign操作(特征裁剪和整合),得到6×8×1024的特征图。
所述行人特征提取单元包括变形、第一标识块、第二标识块、第三标识块、ROIPool操作和特征映射;
进一步地,变形用于将所述行人特征选择单元输出的多个局部区域特征图进行合并;第一标识块、第二标识块和第三标识块用于对合并后的特征图进行3×3卷积操作处理;ROI Pool操作用于将进行3×3卷积操作处理后的特征图转换为1×1×1024的特征向量;特征映射用于对特征向量进行映射,使得输出特征与教师网络输出特征一致。
在模型网络建立好后通过采用知识蒸馏的训练策略对模型网络进行训练。
进一步地,知识蒸馏策略为:引入与教师网络(teacher network:复杂、但推理性能优越)相关的软目标(soft-target)作为total loss的一部分,以诱导学生网络(studentnetwork:精简、低复杂度)的训练,实现知识迁移(knowledge transfer)。主要是在teacher-student框架中,将复杂、学习能力强的网络学到的特征表示“知识”蒸馏出来,传递给参数量小、学习能力弱的网络。蒸馏可以提供student在one-shot label(一次性标签)上学不到的soft label信息,这些里面包含了类别间信息,以及student小网络学不到而teacher网络可以学到的特征表示“知识”,所以一般可以提高student网络的精度。
一种基于行人区域特征提取和重识别融合模型网络的融合方法,所述融合方法包括区域提取特征图进行目标检测步骤;所述区域提取特征图进行目标检测步骤包括以下内容:
S21、使用填充为1的3×3卷积层变换区域特征提取模块的输出,并将输出通道数记为c;
S22、将区域特征提取模块为图像提取的特征图中的每个单元赋予一个长度为c的新特征;
S23、以特征图每个单元为中心,生成多个不同大小和宽高比的锚框;
S24、用锚框中心单元长度为c的特征分别预测该锚框的二元类别(目标和背景)和边界框;
S25、使用非极大值抑制从预测类别为目标的预测边界框中移除相似的结果,输出提取区域。
所述融合方法还包括通过骨干网络模块对原图进行预处理的步骤S1,以及通过行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤S3;
进一步地,通过骨干网络模块对原图进行预处理的步骤位于所述区域提取特征图进行目标检测步骤之前;行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤位于所述区域提取特征图进行目标检测步骤之后。
进一步地,行人重识别模块使用多个1×1卷积层变换特征向量的输出,最终的输出特征向量为256维。
在通过行人区域特征提取和重识别融合模型网络进行所述融合方法之前,还需要对建立好的行人区域特征提取和重识别融合模型网络进行训练。
进一步地,区域提取模块是和整个模型一起训练的,因为目标检测数据集中不含有行人个体的标注,无法直接使用目标检测数据集进行行人重识别的训练,为了训练行人重识别模块,采用知识蒸馏的训练策略对行人区域特征提取和重识别融合模型网络进行训练。
首先使用行人重识别数据集如DukeMTMC和Market1501数据集训练教师网络;训练好教师网络后,再对整体网络进行训练,其中使用的数据集为目标检测数据集,同时为了提高行人重识别的准确率,数据集中引入了一定数量的行人重识别数据集图片,并且做了填充等预处理。
进一步地,整体网络的具体训练步骤如下:
输入一个批次的场景图片进入CPU端作为网络的输入,骨干网络模块提取特征图,区域提取模块给出行人可能出现的框图位置和大小信息,并保存给出的行人框图位置和大小信息作为训练网络输出的一部分;
行人重识别模块进一步提取行人特征,并且和区域提取模块输出的行人框图位置和大小信息联级作为网络输出;
当数据返回CPU端后转换区域提取模块行人框图位置和大小信息到原场景图的尺度,并根据框图信息在原场景图中截取每一个行人的图片并转换行人图片到固定尺度大小;不齐的地方按照0填充;
输入截取的行人图片到教师网络提取每个行人图片的特征(此特征同样为256维),作为行人重识别模块的标签;
把网络的输出值和目标值输入Loss函数进行反向传播,并更新网络参数权重和偏差。
进一步地,整个网络的损失函数由两部分构成,分别是计算目标检测的回归框损失RPN bbox loss和计算行人重识别的特征距离损失L1_loss,其中,
公式中N是一个batch的大小,比如32,λ是两种loss的平衡比例,Pbox为区域建议网络RPN给出的行人预测框,tbox为场景图片中真实的行人框;Preid为行人重识别模块预测的行人特征,treid为教师网络计算出来的行人特征。其中,
Lreg({p},{t})=-log[p1t1+(1-p1)(1-t1)]+p1L1(p*,t*)
公式中前半部分为前景和背景的对数损失,P1为预测前景概率,t1为目标前景概率,P*为区域提取模块RPN的输出预测框,分别由如下部分组成;
{dx(A),dy(A),dw(A),dh(A),}
分别代表一个预测框的中心位置,以及预测框的长宽缩放比例。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (4)
1.一种基于行人区域特征提取和重识别融合模型网络的融合方法,其特征在于:所述融合方法包括区域提取特征图进行目标检测步骤;所述区域提取特征图进行目标检测步骤包括以下内容:
使用填充为1的3×3卷积层变换区域特征提取模块的输出,并将输出通道数记为c;
将区域特征提取模块为图像提取的特征图中的每个单元赋予一个长度为c的新特征;
以特征图每个单元为中心,生成多个不同大小和宽高比的锚框;
用锚框中心单元长度为c的特征分别预测该锚框的二元类别和边界框;
使用非极大值抑制从预测类别为目标的预测边界框中移除相似的结果,输出提取区域。
2.根据权利要求1所述的一种基于行人区域特征提取和重识别融合模型网络的融合方法,其特征在于:所述融合方法还包括通过骨干网络模块对原图进行预处理的步骤,以及通过行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤;
所述通过骨干网络模块对原图进行预处理的步骤位于所述区域提取特征图进行目标检测步骤之前;
所述行人重识别模块对场景中行人的不同特征识别出行人目标的行为的步骤位于所述区域提取特征图进行目标检测步骤之后。
3.根据权利要求1所述的一种基于行人区域特征提取和重识别融合模型网络的融合方法,其特征在于:在通过行人区域特征提取和重识别融合模型网络进行所述融合方法之前,还需要对建立好的行人区域特征提取和重识别融合模型网络进行训练。
4.根据权利要求1所述的一种基于行人区域特征提取和重识别融合模型网络的融合方法,其特征在于:采用知识蒸馏的训练策略对行人区域特征提取和重识别融合模型网络进行训练,具体的训练步骤如下:
输入一个批次的场景图片进入CPU端作为网络的输入,骨干网络模块提取特征图,区域提取模块给出行人可能出现的框图位置和大小信息,并保存给出的行人框图位置和大小信息作为训练网络输出的一部分;
行人重识别模块进一步提取行人特征,并且和区域提取模块输出的行人框图位置和大小信息联级作为网络输出;
当数据返回CPU端后转换区域提取模块行人框图位置和大小信息到原场景图的尺度,并根据框图信息在原场景图中截取每一个行人的图片并转换行人图片到固定尺度大小;
输入截取的行人图片到教师网络提取每个行人图片的特征,作为行人重识别模块的标签;
把网络的输出值和目标值输入Loss函数进行反向传播,并更新网络参数权重和偏差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910848205.8A CN110555420B (zh) | 2019-09-09 | 2019-09-09 | 一种基于行人区域特征提取和重识别融合模型网络及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910848205.8A CN110555420B (zh) | 2019-09-09 | 2019-09-09 | 一种基于行人区域特征提取和重识别融合模型网络及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110555420A CN110555420A (zh) | 2019-12-10 |
CN110555420B true CN110555420B (zh) | 2022-04-12 |
Family
ID=68739689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910848205.8A Active CN110555420B (zh) | 2019-09-09 | 2019-09-09 | 一种基于行人区域特征提取和重识别融合模型网络及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110555420B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113378605B (zh) * | 2020-03-10 | 2024-04-09 | 北京京东乾石科技有限公司 | 多源信息融合方法及装置、电子设备和存储介质 |
CN111539257B (zh) * | 2020-03-31 | 2022-07-26 | 苏州科达科技股份有限公司 | 人员重识别方法、装置和存储介质 |
CN113569600A (zh) * | 2020-04-29 | 2021-10-29 | 深圳云天励飞技术有限公司 | 物体重识别的方法、装置、电子设备及存储介质 |
CN111581418B (zh) * | 2020-04-29 | 2023-04-28 | 山东科技大学 | 一种基于图像关联人物信息的目标人员搜索方法 |
CN111695491B (zh) * | 2020-06-10 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | 用于检测行人的方法和装置 |
CN113177518B (zh) * | 2021-05-24 | 2023-04-28 | 西安建筑科技大学 | 一种利用弱监督区域推荐的车辆重识别方法 |
CN113469118B (zh) * | 2021-07-20 | 2024-05-21 | 京东科技控股股份有限公司 | 多目标行人跟踪方法及装置、电子设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017190574A1 (zh) * | 2016-05-04 | 2017-11-09 | 北京大学深圳研究生院 | 一种基于聚合通道特征的快速行人检测方法 |
CN108960114A (zh) * | 2018-06-27 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 人体识别方法及装置、计算机可读存储介质及电子设备 |
CN109472248A (zh) * | 2018-11-22 | 2019-03-15 | 广东工业大学 | 一种行人重识别方法、系统及电子设备和存储介质 |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
-
2019
- 2019-09-09 CN CN201910848205.8A patent/CN110555420B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017190574A1 (zh) * | 2016-05-04 | 2017-11-09 | 北京大学深圳研究生院 | 一种基于聚合通道特征的快速行人检测方法 |
CN108960114A (zh) * | 2018-06-27 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 人体识别方法及装置、计算机可读存储介质及电子设备 |
CN109472248A (zh) * | 2018-11-22 | 2019-03-15 | 广东工业大学 | 一种行人重识别方法、系统及电子设备和存储介质 |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
CN109948425A (zh) * | 2019-01-22 | 2019-06-28 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
Fused DNN: A deep neural network fusion approach to fast and robust pedestrian detection;Xianzhi Du等;《2017 IEEE Winter Conference on Applications of Computer Vision》;20170324;第953-961页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110555420A (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110555420B (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
US20180114071A1 (en) | Method for analysing media content | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
Sevak et al. | Survey on semantic image segmentation techniques | |
CN110633632A (zh) | 一种基于循环指导的弱监督联合目标检测和语义分割方法 | |
Wang et al. | Deep Learning for Object Detection: A Survey. | |
Han et al. | Aerial image change detection using dual regions of interest networks | |
CN114821014B (zh) | 基于多模态与对抗学习的多任务目标检测识别方法及装置 | |
CN110390308B (zh) | 一种基于时空对抗生成网络的视频行为识别方法 | |
CN113807399A (zh) | 一种神经网络训练方法、检测方法以及装置 | |
CN108133235B (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN111652035B (zh) | 一种基于ST-SSCA-Net的行人重识别方法及系统 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN109919223B (zh) | 基于深度神经网络的目标检测方法及装置 | |
US20230095533A1 (en) | Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling | |
CN113139896A (zh) | 基于超分辨重建的目标检测系统及方法 | |
CN114638973A (zh) | 目标图像检测方法及图像检测模型训练方法 | |
CN114596548A (zh) | 目标检测方法、装置、计算机设备及计算机可读存储介质 | |
Islam et al. | Dense image labeling using deep convolutional neural networks | |
CN114022905A (zh) | 一种属性感知的域拓展行人重识别方法及系统 | |
CN115719368B (zh) | 一种多目标船舶跟踪方法及系统 | |
CN116823884A (zh) | 多目标跟踪方法、系统、计算机设备及存储介质 | |
CN114972434B (zh) | 一种级联检测和匹配的端到端多目标跟踪系统 | |
EP4332910A1 (en) | Behavior detection method, electronic device, and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |