CN113505640A - 一种基于多尺度特征融合的小尺度行人检测方法 - Google Patents
一种基于多尺度特征融合的小尺度行人检测方法 Download PDFInfo
- Publication number
- CN113505640A CN113505640A CN202110596757.1A CN202110596757A CN113505640A CN 113505640 A CN113505640 A CN 113505640A CN 202110596757 A CN202110596757 A CN 202110596757A CN 113505640 A CN113505640 A CN 113505640A
- Authority
- CN
- China
- Prior art keywords
- scale
- feature
- small
- pedestrian
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 58
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 230000003044 adaptive effect Effects 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 208000000044 Amnesia Diseases 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 208000026139 Memory disease Diseases 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 230000006984 memory degeneration Effects 0.000 claims description 3
- 208000023060 memory loss Diseases 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 8
- 230000001965 increasing effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多尺度特征融合的小尺度行人检测方法。首先将输入图像通过主干网络进行下采样,然后针对小尺度目标使用多尺度特征融合增强模块(MFFE)提取行人特征,最后送入检测器获得分类结果。其中多尺度特征融合增强模块包含两个部分,感受野增强模块和自适应空间特征融合模块。本发明的核心多尺度特征融合增强模块关注不同层级行人特征的提取与融合,加强对不同尺度特征图的利用,可以嵌入应用于不同行人检测网络,具有可迁移性和可扩展性,提高了网络对小尺度行人的检测能力,对提升行人检测效果具有明显帮助。
Description
技术领域
本发明属于行人检测技术领域,具体涉及一种基于多尺度特征融合的小 尺度行人检测方法。
背景技术
在当前城市道路监控、车载摄像头、无人机航拍等道路检测场景中,行人 目标构建了图像中的大部分场景。在相机捕获的图像中,行人往往会出现于画 面中多个位置,同时因为距离摄像头的远近在图像中呈现出不同的尺寸。对于 固定分辨率的摄像头而言,行人大小反映为所占区域像素面积的差异,离摄像 头距离远的目标占有的像素面积小,分辨率低,尺寸小,距离摄像头近的目标 占有的像素面积高,分辨率高,尺寸大。不同分辨率的行人目标所含有的细节 信息存在很大差异,例如大尺度行人往往可以通过躯干或关键点辅助行人定位, 而小尺度行人往往由于过低的分辨率不再含有此类明显特征。故检测器在大尺 度行人身上学习到的特征往往难以直接应用于小尺度行人身上,反之亦然。然 而现有数据集中的小尺度行人数量相比大尺度行人数量要少很多,这就给检测 器对小尺度行人的分类、识别造成了很大影响。
距离摄像头较远的行人捕获的像素点少,图像无法对其有很好的呈现效果, 导致网络无法有效提取行人特征。并且小尺度的行人目标易受复杂背景的干扰, 光照、类人物体、环境颜色都会对小尺度行人的识别造成困难。现有的双节段 检测框架虽然能获得较好的检测精度,但是无法满足检测速度与精度的平衡。 如今以YOLO为代表的单阶段行人检测框架在吸收其他先进检测框架优点的 基础上通过对多尺度特征图进行预测的方式提升模型对小目标检测的实际效 果,检测精度优于传统手工特征及机器学习的方法,检测速度快于双阶段行人 检测方法,更好的达到了检测速度和精度的平衡。
发明内容
技术问题:为提升网络对小尺度行人的检测能力,本发明提供了一种基于 多尺度特征融合的小尺度行人检测方法。其核心技术在于提供了一个MFFE模块 (即多尺度特征融合增强模块,英文名称为Multi-Feature Fusion Enhancement Block,简称MFFE模块),学习多尺度特征并对特征权值重分配。该模块就有独 立性和可迁移性,具有较好的特征提取能力,聚焦于小尺度行人形状和深浅层 特征信息的有效利用,一定程度上提升了对小尺度行人特征的表达。
一种提升小尺度行人目标特征表示的模块,增强检测器对小尺度行人目标 的检测精度。
技术方案:为了实现上述目的,本发明采用的技术方案为:
一种基于多尺度特征融合的小尺度行人检测方法,包括以下步骤:
步骤1:对行人训练数据集进行预处理;
步骤2:构建MFFE模块,形成多尺度特征融合层;
步骤3:对浅层特征图进行处理,构建感受野增强模块;
步骤4:对多尺度特征图进行处理,构建自适应空间特征融合模块;
步骤5:将融合后的特征抽象层输入检测器,得到检测结果。
进一步的,步骤1中所述行人数据预处理过程包括:首先将视频序列格式 转成jpg格式的图片,然后将vbb格式的标注文件转化为xml格式的文件,并 按照要求对图片和xml文件重命名,然生成训练集和测试集,最后将数据集中 的标签替换为“person”类。
进一步的,步骤2中所述多尺度特征融合层融合不同分辨率的特征图以增 强小尺度行人特征的表现能力。
进一步的,步骤3中所述对浅层特征图进行处理包括:首先针对输入特征 图使用两个第二层的残差块加深网络层数,为了获得更大范围的行人特征,受 Inception模块的启发,对特征图使用不同的卷积核和池化操作,丰富特征图感 受野。
进一步的,所述卷积核和池化操作具体步骤包括:
(4)首先使用3×3卷积对输入的特征图进行下采样操作,在特征图的尺寸 减半的同时通道数翻倍,使得层间流动的信息量与降采样前持平。
(5)使用卷积核大小为3×1的卷积层产生矩形感受野,并通过3×3卷积将感 受野扩大为5×3,同时为适量减少显存损耗,首先使用1×1卷积进行通道压缩, 并行添加的1×1卷积包含非线性激励,在降低通道维度的同时提升了网络的表达 能力。
最后将四个分支进行拼接,并传入后续的自适应空间特征融合模块。
进一步的,步骤4中针对不同通道数的输入多尺度特征图,首先使用1×1卷 积操作进行通道数变换,得到三个通道数相同的特征图l1、l2和l3,接着使用一 组自学习权重的空间矩阵将所有特征图进行融合,在此分别定义α、β和γ为特 征图l1、l2和l3的权重参数,通过权重与每层特征相乘来决定对该层特征点的激 活情况,其中α、β和γ都通过网络训练得到。最后得到的融合特征结果y为各 乘积之和,其公式表示为:
yij=αijx1 ij+βijx2 ij+γijx3 ij (1)
其中,x1 ij、x2 ij、x3 ij分别为经过1×1卷积得到的特征图上位于(i,j)的特征点,αij、βij、γij表示(i,j)位置特征点的权重参数,并定义αij+βij+γij=1且αij、βij、γij都大于0,故可通过softmax函数计算得出结果。
有益效果:本发明提供一种基于多尺度特征融合的小尺度行人检测方法, 核心为MFFE模块,该模块是一个可迁移的特征提取融合结构,引入多感受野 特征提取和特征图自适应融合结构,通过学习重新分配特征图权值。与YOLOv3 采用的多尺度特征融合方式相比,本发明提出的多尺度特征融合增强模块充分 利用了浅层、中层和深层特征图的信息来增强小尺度目标特征的提取,丰富了 特征图的感受野,同时自适应的构建融合特征图的权重,有利于提升模型对小 尺度行人目标的检测。
附图说明
图1是基于多尺度特征融合的小尺度行人检测方法结构图;
图2是本发明提供的多尺度特征融合增强模块示意图;
图3是本发明提供的MFFE模块中的ERF子模块的示意图;
图4是本发明提供的MFFE模块中的ASFF子模块的示意图;
具体实施方式
下面结合附图和具体实施案例,对本发明作进一步阐明。
在Windows操作系统下,选用Pytorch为平台,搭建基于多尺度特征融合的 小尺度行人检测网络,在Caltech行人数据集的小尺度行人子集和VOC2007 Person子集上进行了有效性测试。结果显示加入MFFE模块后,在基本不增加 时间损耗的基础上,明显增强了网络对行人检测的精度,同时在不同尺寸的行 人数据集上都有提升,证明了本发明的鲁棒性。
一种基于多尺度特征融合的小尺度行人检测方法,网络框架如图1所示。 其中多尺度特征融合增强模块如图2所示。图3是本发明提供的MFFE模块中 的ERF子模块的示意图。图4是本发明提供的MFFE模块中的ASFF子模块的 示意图。MFFE模块包含两个子模块:1)ERF子模块,关注浅层特征图特征提 取;2)ASFF子模块,自适应分配特征图融合权重。MFFE模块可以嵌入式应 用于不同目标检测网络中,具有可迁移性和可拓展性,提高了小尺度行人特征 的表达能力,加强了模型对小尺度行人的检测能力。
MFFE模块为增强小尺度行人的细节信息,首先使用残差模块对浅层特征 图进一步提取特征,并使用感受野增强模块获取更多的上下文信息,在丰富行 人特征的同时更能匹配行人的感受野尺度。使用自适应空间特征融合模块替换 传统的特征图拼接操作,通过学习自适应调整各尺度特征的空间权重,增强对 多尺度特征图的利用率,最终提升模型对小尺度行人的检测效果。
具体包括以下步骤:
步骤1:首先将视频序列格式转成jpg格式的图片,然后将vbb格式的标注 文件转化为xml格式的文件,并按照要求对图片和xml文件重命名,然生成训 练集和测试集。最后将数据集中的标签替换为“person”类。
步骤2:为了进一步丰富感受野,提升小尺度行人的预测能力,提出了多尺 度特征融合增强模块,融合不同分辨率的特征图以增强小尺度行人特征的表现 能力。在特征提取骨架网络中,由于深层特征图拥有更大的感受野,具有更强 的抽象能力,所以相比浅层特征图有更强的语义信息。但是由于深层特征图经 历了连续的下采样操作,浅层图中含有的大量空间细节信息被丢弃,使得依赖 细节信息的小尺度行人无法得到很好的检测。浅层特征图虽然具有丰富的空间 位置信息,但是由于采样层数不足,无法对抽象信息有较好的表达能力,难以 很好的对行人这一具体目标进行表征,且易受复杂背景等噪声的干扰。本章据 此对特征提取及融合方式进行修改以进一步提升网络对小尺度行人特征的表示 能力,主要分为两个部分:感受野增强模块(Enhancement ofReceptive Field, ERF)和自适应空间特征融合模块(Adaptively Spatial Feature Fusion,ASFF)。 浅层特征图通过感受野增强模块后增强对小尺度行人特征的表现力,与经双线 性插值上采样法得到的深层特征图一起传入自适应空间特征融合模块,充分利 用浅层特征图的空间、细节信息和深层特征图的高层语义信息。
步骤3:首先针对输入特征图使用2个第二层的残差块加深网络层数。由于 低分辨率行人占据的区域比例通常不同,使用固定的同一种尺寸卷积核进行卷 积无法有效提取小尺度行人目标特征,为了获得更大范围的行人特征,受 Inception模块的启发,对特征图使用不同的卷积核和池化操作,丰富特征图感 受野。具体来说,首先使用3×3卷积对输入的特征图进行下采样操作,在特征图 的尺寸减半的同时通道数翻倍,使得层间流动的信息量与降采样前持平。考虑 到实际情况中行人目标具有一定的长宽比,添加符合行人轮廓的感受野,使用 卷积核大小为3×1的卷积层产生矩形感受野,并通过3×3卷积将感受野扩大为 5×3,同时为适量减少显存损耗,首先使用1×1卷积进行通道压缩。该模块的特 性就是在同一层中,分别通过使用上述不同尺寸的滤波器与池化操作收集到上 一层输入的不同特征,在增加网络宽度的同时,实现了不同尺寸的滤波器提取 上一层不同特征的功能。同时并行添加的1×1卷积包含非线性激励,在降低通道 维度的同时提升了网络的表达能力。最后将四个分支进行拼接,并传入后续的 自适应空间特征融合模块。这种类Inception结构将丰富特征图的感受野,以更 好地匹配行人的尺度和宽高比。
步骤4:在经感受野增强模块得到特征图后,需要将三个层的输出特征图融 合成最终的特征图y,以供检测器判别。采用拼接加降维操作无法充分利用浅层 特征图富含的行人空间细节信息和深层特征图包含的语义信息,为此本发明采 用自适应空间特征融合模块(Adaptively Spatial Feature Fusion)充分利用不同尺 度的特征信息。针对不同通道数的输入特征图,首先使用1×1卷积操作进行通道 数变换,得到三个通道数相同的特征图l1、l2和l3。接着使用一组自学习权重的 空间矩阵将所有特征图进行融合。在此分别定义α、β和γ为特征图l1、l2和l3的权 重参数,通过权重与每层特征相乘来决定对该层特征点的激活情况,其中α 、β和γ都通过网络训练得到。最后得到的融合特征结果y为各乘积之和,其公 式表示为:
yij=αijx1 ij+βijx2 ij+γijx3 ij (1)
其中,x1 ij、x2 ij、x3 ij分别为经过1×1卷积得到的特征图上位于(i,j)的特征点,αij、βij、γij表示(i,j)位置特征点的权重参数,并定义αij+βij+γij=1且αij、βij、γij都大于0,故可通过softmax函数计算得出结果。
与YOLOv3采用的多尺度特征融合方式相比,本发明提出的多尺度特征融 合增强模块充分利用了浅层、中层和深层特征图的信息来增强小尺度目标特征 的提取,丰富了特征图的感受野,同时自适应的构建融合特征图的权重,有利 于提升模型对小尺度行人目标的检测。
步骤5:将处理好的特征图传入yolo层,通过先验框直接进行行人目标回 归和分类,得出最终的检测结果。
实验结果具体如下:
实验1:小尺度行人检测结果分析。
MFFE-YOLOv3与其他方法的运行效果对比
选取了六种基于Caltech行人数据集的方法进行对比,其中VJ、HOG和ACF 分别为使用Haar特征、HOG特征和聚合通道特征的传统行人检测方法,MS-CNN、FasterRCNN、FasterRCNN+ATT、YOLOv3和本发明提出的MFFE-YOLOv3都是 使用先验框和卷积神经网络分类器的深度学习行人检测方法。MS-CNN将双阶段 Faster RCNN检测网络多尺度化,通过对卷积层的多个中间层进行预测,在降低 感受野的同时防止深层特征图中小目标的特征消失,提升检测器对小目标的判 断能力,将小尺度行人的MR-2提升至97.23%。FasterRCNN+ATT在双阶段检测器 中添加注意力机制,增强网络对行人部位的关注,指导检测器更加关注行人的 可视部位,MR-2达到了90.94%。YOLOv3单阶段检测器通过多尺度特征图的单 元格预测行人目标,使MR-2达到了91.66%。改进后的MFFE-YOLOv3对YOLOv3 的主干网络进行升级,通过使用感受野增强模块提升浅层特征的感受野,并使 用自适应空间特征融合模块对不同层特征图进行自适应融合,提高了特征的利 用效率,在只使用单一检测器的情况下,MR-2降低为89.41%,相比原方法提升 了2.25%,证明了本方法对小尺度行人检测效果有明显的提升。
实验2:检测速度分析。
MFFE-YOLOv3与其他方法的运行时间对比
Faster R-CNN检测算法、YOLOv3检测算法和MFFE-YOLOv3检测算法的 检测速度指标对比如表所示。在只使用CPU的情况下,FasterR-CNN、YOLOv3 和MFFE-YOLOv3三种深度学习方法中,Faster RCNN的检测速度远低于单阶 段的检测算法,YOLOv3方法的行人检测速度最快,平均每张图像耗时1.223秒, 而MFFE-YOLOv3虽然采用更多的参数和更宽的网络的主干网络,但由于只采 用单阶段的回归方式,检测速度只是略低于YOLOv3检测算法。在使用GPU的 情况下,三者的检测速度明显加快,其中Faster RCNN的计算速度提升了200 多倍,而YOLOv3和MFFE-YOLOv3分别提升了30多倍。
实验3:泛化性分析
为验证本发明方法适用于多个尺度的行人目标,在VOC2007 Person子集上 进行了实验,MFFE-YOLOv3算法相比YOLOv3算法在召回率上提升了0.8%, 平均精确度提升了0.4%,取得了初步效果。由于VOC数据集上的小尺寸行人 目标数量不足,所以在Person子集上的提升效果不明显,但相比原方法精度依 旧有轻微提升,说明本发明改进的小尺度行人检测算法具有一定的泛化性。
应当指出,以上所述的实施案例仅仅是为了清楚地说明本发明所作的举例, 并非对实施方式的限定,这里也无法对所有实施方式予以穷举。本实施案例中 未明确的各部分均可采用现有技术加以实现。对于本技术领域的普通技术人员 来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进 和润饰也应视为本发明的保护范围。
Claims (6)
1.一种基于多尺度特征融合的小尺度行人检测方法,其特征在于,该方法包括如下步骤:
步骤1:对行人训练数据集进行预处理;
步骤2:构建MFFE模块,形成多尺度特征融合层;
步骤3:对浅层特征图进行处理,构建感受野增强模块;
步骤4:对多尺度特征图进行处理,构建自适应空间特征融合模块;
步骤5:将融合后的特征抽象层输入检测器,得到检测结果。
2.根据权利要求1所述的基于多尺度特征融合的小尺度行人检测方法,其特征在于:步骤1中所述行人数据预处理过程包括:首先将视频序列格式转成jpg格式的图片,然后将vbb格式的标注文件转化为xml格式的文件,并按照要求对图片和xml文件重命名,然生成训练集和测试集,最后将数据集中的标签替换为“person”类。
3.根据权利要求1所述的基于多尺度特征融合的小尺度行人检测方法,其特征在于:步骤2中所述多尺度特征融合层融合不同分辨率的特征图以增强小尺度行人特征的表现能力。
4.根据权利要求1所述的基于多尺度特征融合的小尺度行人检测方法,其特征在于:步骤3中所述对浅层特征图进行处理包括:首先针对输入特征图使用两个第二层的残差块加深网络层数,为了获得更大范围的行人特征,受Inception模块的启发,对特征图使用不同的卷积核和池化操作,丰富特征图感受野。
5.根据权利要求4所述的基于多尺度特征融合的小尺度行人检测方法,其特征在于:所述卷积核和池化操作具体步骤包括:
(1)首先使用3×3卷积对输入的特征图进行下采样操作,在特征图的尺寸减半的同时通道数翻倍,使得层间流动的信息量与降采样前持平。
(2)使用卷积核大小为3×1的卷积层产生矩形感受野,并通过3×3卷积将感受野扩大为5×3,同时为适量减少显存损耗,首先使用1×1卷积进行通道压缩,并行添加的1×1卷积包含非线性激励,在降低通道维度的同时提升了网络的表达能力。
(3)最后将四个分支进行拼接,并传入后续的自适应空间特征融合模块。
6.根据权利要求1所述的基于多尺度特征融合的小尺度行人检测方法,其特征在于:步骤4中y针对不同通道数的输入多尺度特征图,首先使用1×1卷积操作进行通道数变换,得到三个通道数相同的特征图l1、l2和l3,接着使用一组自学习权重的空间矩阵将所有特征图进行融合,在此分别定义α、β和γ为特征图l1、l2和l3的权重参数,通过权重与每层特征相乘来决定对该层特征点的激活情况,其中α、β和γ都通过网络训练得到。最后得到的融合特征结果y为各乘积之和,其公式表示为:
yij=αijx1 ij+βijx2 ij+γijx3 ij (1)
其中,x1 ij、x2 ij、x3 ij分别为经过1×1卷积得到的特征图上位于(i,j)的特征点,αij、βij、γij表示(i,j)位置特征点的权重参数,并定义αij+βij+γij=1且αij、βij、γij都大于0,故可通过softmax函数计算得出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110596757.1A CN113505640A (zh) | 2021-05-31 | 2021-05-31 | 一种基于多尺度特征融合的小尺度行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110596757.1A CN113505640A (zh) | 2021-05-31 | 2021-05-31 | 一种基于多尺度特征融合的小尺度行人检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113505640A true CN113505640A (zh) | 2021-10-15 |
Family
ID=78008849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110596757.1A Pending CN113505640A (zh) | 2021-05-31 | 2021-05-31 | 一种基于多尺度特征融合的小尺度行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113505640A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115316982A (zh) * | 2022-09-02 | 2022-11-11 | 中国科学院沈阳自动化研究所 | 一种基于多模态传感的肌肉形变智能检测系统及方法 |
CN117173748A (zh) * | 2023-11-03 | 2023-12-05 | 杭州登虹科技有限公司 | 一种基于人形识别与人形检测的视频人形事件提取系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309747A (zh) * | 2019-06-21 | 2019-10-08 | 大连理工大学 | 一种支持多尺度快速深度行人检测模型 |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN111460980A (zh) * | 2020-03-30 | 2020-07-28 | 西安工程大学 | 基于多语义特征融合的小目标行人的多尺度检测方法 |
US20210056351A1 (en) * | 2018-06-04 | 2021-02-25 | Jiangnan University | Multi-scale aware pedestrian detection method based on improved full convolutional network |
-
2021
- 2021-05-31 CN CN202110596757.1A patent/CN113505640A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210056351A1 (en) * | 2018-06-04 | 2021-02-25 | Jiangnan University | Multi-scale aware pedestrian detection method based on improved full convolutional network |
CN110309747A (zh) * | 2019-06-21 | 2019-10-08 | 大连理工大学 | 一种支持多尺度快速深度行人检测模型 |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN111460980A (zh) * | 2020-03-30 | 2020-07-28 | 西安工程大学 | 基于多语义特征融合的小目标行人的多尺度检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115316982A (zh) * | 2022-09-02 | 2022-11-11 | 中国科学院沈阳自动化研究所 | 一种基于多模态传感的肌肉形变智能检测系统及方法 |
CN117173748A (zh) * | 2023-11-03 | 2023-12-05 | 杭州登虹科技有限公司 | 一种基于人形识别与人形检测的视频人形事件提取系统 |
CN117173748B (zh) * | 2023-11-03 | 2024-01-26 | 杭州登虹科技有限公司 | 一种基于人形识别与人形检测的视频人形事件提取系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112541503B (zh) | 基于上下文注意力机制和信息融合的实时语义分割方法 | |
CN112183203B (zh) | 一种基于多尺度像素特征融合的实时交通标志检测方法 | |
CN112541501B (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN111104903B (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
CN109409384A (zh) | 基于细粒度图像的图像识别方法、装置、介质及设备 | |
Chen et al. | Adaptive convolution for object detection | |
CN112528961B (zh) | 一种基于Jetson Nano的视频分析方法 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN113255837A (zh) | 工业环境下基于改进的CenterNet网络目标检测方法 | |
CN111310766A (zh) | 基于编解码和二维注意力机制的车牌识别方法 | |
CN109871789A (zh) | 一种基于轻量化神经网络的复杂环境下车辆检测方法 | |
WO2023030182A1 (zh) | 图像生成方法及装置 | |
CN113505640A (zh) | 一种基于多尺度特征融合的小尺度行人检测方法 | |
CN116229452B (zh) | 一种基于改进的多尺度特征融合的点云三维目标检测方法 | |
CN111353544A (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
Petrovai et al. | Multi-task network for panoptic segmentation in automated driving | |
Zhao et al. | Comprehensive feature enhancement module for single-shot object detector | |
CN113724286A (zh) | 显著性目标的检测方法、检测设备及计算机可读存储介质 | |
CN112613434A (zh) | 道路目标检测方法、装置及存储介质 | |
CN117079163A (zh) | 一种基于改进yolox-s的航拍图像小目标检测方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
Pham | Semantic road segmentation using deep learning | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN112750128B (zh) | 图像语义分割方法、装置、终端及可读存储介质 | |
CN116363361A (zh) | 基于实时语义分割网络的自动驾驶方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |