CN111242076A - 行人检测方法及系统 - Google Patents
行人检测方法及系统 Download PDFInfo
- Publication number
- CN111242076A CN111242076A CN202010065954.6A CN202010065954A CN111242076A CN 111242076 A CN111242076 A CN 111242076A CN 202010065954 A CN202010065954 A CN 202010065954A CN 111242076 A CN111242076 A CN 111242076A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- target
- area
- detection
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种行人检测方法及系统,该方法包括:对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。本发明实现了帧间运动信息和多通道特征相结合,能够更全面的表达目标特征,使得本发明在图像分辨率低、人群遮挡严重、姿态难以确认的实际监控场景下都具有很强的鲁棒性,避免漏检情况的发生。
Description
技术领域
本发明涉及汽车技术领域,特别是涉及一种行人检测方法及系统。
背景技术
随着汽车工业的飞速发展和人们生活条件的不断改善,汽车已经成为人们出行不可或缺的交通工具之一。无人驾驶汽车是智能汽车的一种,其主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶的目的。
在无人驾驶技术中,行人检测是无人驾驶技术的重点,由于受行人目标外观遮挡、姿态等问题的影响,导致现有技术的行人检测方法鲁棒性较差,容易造成漏检的情况,最终会影响无人驾驶的安全性。
发明内容
为此,本发明的一个目的在于提出一种行人检测方法,以解决现有技术容易造成漏检的问题。
一种行人检测方法,包括:
对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;
进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
根据本发明提供的行人检测方法,根据采集到的视频图像对其进行运动目标前景检测,再根据检测到的运动目标前景进行行人头部检测,通过提取改进聚合通道特征(Aggregation channel feature,ACF),并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器,实现了帧间运动信息和多通道特征相结合,能够更全面的表达目标特征,克服了基于聚合多通道特征检测分类的压力问题和克服行人之间的遮挡问题,使得本发明在图像分辨率低、人群遮挡严重、姿态难以确认的实际监控场景下都具有很强的鲁棒性,避免漏检情况的发生。此外,由于去除了无用的背景信息,只在候选区域进行目标检测,能够有效提高检测精准性,召回率也能得到很大改进。
另外,根据本发明上述的行人检测方法,还可以具有如下附加的技术特征:
进一步地,对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域的步骤具体包括:
执行膨胀操作和形态学开闭运算方法;
在动态环境丢弃虚假小目标,以去除小目标噪声。
进一步地,执行膨胀操作和形态学开闭运算方法的步骤具体包括:
设A为图像的一个目标区域,结构元素F在点(x,y)处的膨胀定义为F(x,y),F的形状大小预先确定,在F的作用下,膨胀结果为: 其中结构元素F设置为线型F=[se0 se1 se2],se0=strel(′line′,15,45),se0=strel(′line′,20,90),se1=strel(′line′,15,135);第二个元素是像素个数,第三个元素是角度。
进一步地,在动态环境丢弃虚假小目标的步骤具体包括:
将轮廓包含区域大于或等于预设值的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃;
检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。
进一步地,将运动目标区域作为行人候选区域的步骤中,先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
本发明的另一个目的在于提出一种行人检测系统,以解决现有技术容易造成漏检的问题。
前景优化模块,用于对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
学习训练模块,用于将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;
在线检测模块,用于进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
根据本发明提供的行人检测系统,根据采集到的视频图像对其进行运动目标前景检测,再根据检测到的运动目标前景进行行人头部检测,通过提取改进聚合通道特征(Aggregation channel feature,ACF),并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器,实现了帧间运动信息和多通道特征相结合,能够更全面的表达目标特征,克服了基于聚合多通道特征检测分类的压力问题和克服行人之间的遮挡问题,使得本发明在图像分辨率低、人群遮挡严重、姿态难以确认的实际监控场景下都具有很强的鲁棒性。此外,由于去除了无用的背景信息,只在候选区域进行目标检测,能够有效提高检测精准性,召回率也能得到很大改进。
另外,根据本发明上述的行人检测系统,还可以具有如下附加的技术特征:
进一步地,前景优化模块包括:
计算单元,用于执行膨胀操作和形态学开闭运算方法;
丢弃单元,用于在动态环境丢弃虚假小目标,以去除小目标噪声。
进一步地,计算单元具体用于:
设A为图像的一个目标区域,结构元素F在点(x,y)处的膨胀定义为F(x,y),F的形状大小预先确定,在F的作用下,膨胀结果为: 其中结构元素F设置为线型F=[se0 se1 se2],se0=strel(′line′,15,45),se0=strel(′line′,20,90),se1=strel(′line′,15,135);第二个元素是像素个数,第三个元素是角度。
进一步地,丢弃单元具体用于:
将轮廓包含区域大于或等于预设值的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃;
检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。
进一步地,学习训练模块具体用于先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
附图说明
本发明实施例的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明第一实施例的行人检测方法的流程图;
图2是根据本发明第二实施例的行人检测系统的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明第一实施例提出的行人检测方法,包括步骤S101~S103。
S101,对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
其中,步骤S101具体包括:
执行膨胀操作和形态学开闭运算方法,具体的,设A为图像的一个目标区域,结构元素F在点(x,y)处的膨胀定义为F(x,y),F的形状大小预先确定,在F的作用下,膨胀结果为:其中结构元素F设置为线型F=[se0se1 se2],se0=strel(′line′,15,45),se0=strel(′line′,20,90),se1=strel(′line′,15,135);第二个元素是像素个数,第三个元素是角度;
在动态环境丢弃虚假小目标,以去除小目标噪声,具体的,将轮廓包含区域大于或等于预设值(例如500)的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃,这样就能够去除较大块虚假目标的干扰;然后再检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。这样,检测范围变小了,并且候选区域能够的有效的包含行人目标,从而使得算法在不损失精度的情况下,可以大大的节约搜索时间。
S102,将运动目标区域作为行人候选区域,通过提取改进聚合通道特征(Aggregation channel feature,ACF),并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器。
其中,先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
S103,进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
为了评估本发明人头检测性能,选择了HOG-Adaboost、HOG-SVM+ORB-Adaboost、ACF和ViBe+ACF算法在测试视频序列中评估检测结果,表1是算法检测准确率、误检率和综合评价指标F值的对比表,由表1可以看出,ACF算法相对与传统HOG、ORB等特征应用多种特征的通道信息聚合特征能够更全面的表达目标特征,在准确率和召回率上提升明显,并且由于应用前景检测算法去除了无用的背景信息,只在候选区域进行目标检测,ViBe+ACF算法和本章算法相对于传统ACF算法明显提高了检测精准性,其中ACF的平均检测速度为0.115s,ViBe+ACF方法为0.0522s,本发明算法为0.0913s,检测准确率、召回率也得到很大改进。此外本发明能大大缩减检测时间,行人检测效率也得到相应的提升。
表1
算法模型 | 总行人数 | 正确检测数 | 总检测数 | 准确率 | 召回率 | F值 |
HOG | 894 | 630 | 1523 | 0.4137 | 0.7047 | 0.5213 |
HOG-ORB | 894 | 630 | 1340 | 0.4701 | 0.7046 | 0.5639 |
ACF | 894 | 768 | 1225 | 0.6269 | 0.8590 | 0.7248 |
ViBe+ACF | 894 | 734 | 956 | 0.7678 | 0.8210 | 0.7935 |
本发明算法 | 894 | 819 | 896 | 0.9141 | 0.9161 | 0.9151 |
为了验证本发明具有广泛的适用性和更好的鲁棒性,在室外监控场景下的PETS数据集上的S1.L1.13-59的view_001序列上进行行人人流量估计实验,数据库视频图片尺寸为768x576,行人头部尺寸均在20x 20像素左右,采用平均绝对误差(Mean AbsoluteError,MAE)和平均相对误差(Mean Relative Error,MRE)来评估行人检测效果,定义如下:
其中C(i)和T(i)分别是预测人数和实际人数,N是总帧数。
检测结果,即便存在部分遮挡的情况下仍能比较准确地定位到单个行人,进行准确行人检测。检测误差如表2所示。
表2
区域 | MAE | MRE |
R0 | 1.88 | 0.16 |
R1 | 1.4 | 0.24 |
R2 | 0.5 | 0.094 |
综上,根据本实施例提供的根据采集到的视频图像对其进行运动目标前景检测,再根据检测到的运动目标前景进行行人头部检测,通过提取改进聚合通道特征(Aggregation channel feature,ACF),并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器,实现了帧间运动信息和多通道特征相结合,能够更全面的表达目标特征,克服了基于聚合多通道特征检测分类的压力问题和克服行人之间的遮挡问题,使得本发明在图像分辨率低、人群遮挡严重、姿态难以确认的实际监控场景下都具有很强的鲁棒性。此外,由于去除了无用的背景信息,只在候选区域进行目标检测,能够有效提高检测精准性,召回率也能得到很大改进。
请参阅图2,基于同一发明构思,本发明第二实施例提出的行人检测系统,包括:
前景优化模块10,用于对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
学习训练模块20,用于将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;
在线检测模块30,用于进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
其中,前景优化模块10包括:
计算单元11,用于执行膨胀操作和形态学开闭运算方法;
丢弃单元12,用于在动态环境丢弃虚假小目标,以去除小目标噪声。
其中,计算单元11具体用于:
设A为图像的一个目标区域,结构元素F在点(x,y)处的膨胀定义为F(x,y),F的形状大小预先确定,在F的作用下,膨胀结果为: 其中结构元素F设置为线型F=[se0 se1 se2],se0=strel(′line′,15,45),se0=strel(′line',20,90),se1=strel(′line′,15,135);第二个元素是像素个数,第三个元素是角度。
其中,丢弃单元12具体用于:
将轮廓包含区域大于或等于预设值的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃;
检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。
其中,学习训练模块20具体用于先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
根据本实施例提供的行人检测系统,根据采集到的视频图像对其进行运动目标前景检测,再根据检测到的运动目标前景进行行人头部检测,通过提取改进聚合通道特征(Aggregation channel feature,ACF),并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器,实现了帧间运动信息和多通道特征相结合,能够更全面的表达目标特征,克服了基于聚合多通道特征检测分类的压力问题和克服行人之间的遮挡问题,使得本发明在图像分辨率低、人群遮挡严重、姿态难以确认的实际监控场景下都具有很强的鲁棒性。此外,由于去除了无用的背景信息,只在候选区域进行目标检测,能够有效提高检测精准性,召回率也能得到很大改进。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具体用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (10)
1.一种行人检测方法,其特征在于,包括:
对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;
进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
2.根据权利要求1所述的行人检测方法,其特征在于,对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域的步骤具体包括:
执行膨胀操作和形态学开闭运算方法;
在动态环境丢弃虚假小目标,以去除小目标噪声。
4.根据权利要求2所述的行人检测方法,其特征在于,在动态环境丢弃虚假小目标的步骤具体包括:
将轮廓包含区域大于或等于预设值的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃;
检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。
5.根据权利要求1所述的行人检测方法,其特征在于,将运动目标区域作为行人候选区域的步骤中,先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
6.一种行人检测系统,其特征在于,包括:
前景优化模块,用于对采集到的视频图像中的行人候选区域进行前景优化,以获取运动目标区域;
学习训练模块,用于将运动目标区域作为行人候选区域,通过提取改进聚合通道特征,并采用Adaboost分类器和Bootstrapping训练机制进行学习训练,以生成行人人头检测器;
在线检测模块,用于进行在线检测时,对前景检测阶段中检测出的行人候选区域中应用人头检测器检测行人人头。
7.根据权利要求6所述的行人检测系统,其特征在于,前景优化模块包括:
计算单元,用于执行膨胀操作和形态学开闭运算方法;
丢弃单元,用于在动态环境丢弃虚假小目标,以去除小目标噪声。
9.根据权利要求7所述的行人检测系统,其特征在于,丢弃单元具体用于:
将轮廓包含区域大于或等于预设值的设置为行人运动候选区域,小于预设值的设置为虚假目标丢弃;
检测目标的最小外接矩形,再与原视频图像做异或运算,获得多个行人候选矩形框,以得到运动目标区域。
10.根据权利要求6所述的行人检测系统,其特征在于,学习训练模块具体用于先通过二值化与形态学处理排除背景非行人目标,然后将排除背景非行人目标后的运动目标区域作为行人候选区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010065954.6A CN111242076B (zh) | 2020-01-20 | 2020-01-20 | 行人检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010065954.6A CN111242076B (zh) | 2020-01-20 | 2020-01-20 | 行人检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242076A true CN111242076A (zh) | 2020-06-05 |
CN111242076B CN111242076B (zh) | 2023-07-28 |
Family
ID=70865987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010065954.6A Active CN111242076B (zh) | 2020-01-20 | 2020-01-20 | 行人检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242076B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495154A (zh) * | 2021-12-30 | 2022-05-13 | 北京城市网邻信息技术有限公司 | 一种全景图中的人体检测方法、设备、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105404857A (zh) * | 2015-11-04 | 2016-03-16 | 北京联合大学 | 一种基于红外的夜间智能车前方行人检测方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN107578031A (zh) * | 2017-09-26 | 2018-01-12 | 华东交通大学 | 一种基于主从摄像机的行人头肩检测与外貌捕捉方法 |
CN107657225A (zh) * | 2017-09-22 | 2018-02-02 | 电子科技大学 | 一种基于聚合通道特征的行人检测方法 |
CN109190456A (zh) * | 2018-07-19 | 2019-01-11 | 中国人民解放军战略支援部队信息工程大学 | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 |
CN112949440A (zh) * | 2021-02-22 | 2021-06-11 | 豪威芯仑传感器(上海)有限公司 | 一种提取行人的步态特征的方法、步态识别方法及系统 |
-
2020
- 2020-01-20 CN CN202010065954.6A patent/CN111242076B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105404857A (zh) * | 2015-11-04 | 2016-03-16 | 北京联合大学 | 一种基于红外的夜间智能车前方行人检测方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN107657225A (zh) * | 2017-09-22 | 2018-02-02 | 电子科技大学 | 一种基于聚合通道特征的行人检测方法 |
CN107578031A (zh) * | 2017-09-26 | 2018-01-12 | 华东交通大学 | 一种基于主从摄像机的行人头肩检测与外貌捕捉方法 |
CN109190456A (zh) * | 2018-07-19 | 2019-01-11 | 中国人民解放军战略支援部队信息工程大学 | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 |
CN112949440A (zh) * | 2021-02-22 | 2021-06-11 | 豪威芯仑传感器(上海)有限公司 | 一种提取行人的步态特征的方法、步态识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
欧阳爱国等: "基于聚合特征的人群定位与检测分析", 《传感器与微系统》, no. 011, pages 119 - 122 * |
王世芳等: "一种基于特征金字塔的快速行人检测方法", 《长安大学学报(自然科学版)》, no. 05, pages 231 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495154A (zh) * | 2021-12-30 | 2022-05-13 | 北京城市网邻信息技术有限公司 | 一种全景图中的人体检测方法、设备、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111242076B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lee et al. | Robust lane detection and tracking for real-time applications | |
Wang et al. | Interactive deep learning method for segmenting moving objects | |
US20180307911A1 (en) | Method for the semantic segmentation of an image | |
CN110070085B (zh) | 车牌识别方法和装置 | |
Fernandez-Sanjurjo et al. | Real-time visual detection and tracking system for traffic monitoring | |
Santosh et al. | Tracking multiple moving objects using gaussian mixture model | |
Kim et al. | A Novel On-Road Vehicle Detection Method Using $\pi $ HOG | |
Fei et al. | Visual tracking based on improved foreground detection and perceptual hashing | |
Ciberlin et al. | Object detection and object tracking in front of the vehicle using front view camera | |
Yang et al. | Multiple object tracking with kernelized correlation filters in urban mixed traffic | |
CN108416780B (zh) | 一种基于孪生-感兴趣区域池化模型的物体检测与匹配方法 | |
Mu et al. | Multiscale edge fusion for vehicle detection based on difference of Gaussian | |
Shukla et al. | Moving object tracking of vehicle detection: a concise review | |
Meus et al. | Embedded vision system for pedestrian detection based on HOG+ SVM and use of motion information implemented in Zynq heterogeneous device | |
Rabiu | Vehicle detection and classification for cluttered urban intersection | |
Meher et al. | Efficient method of moving shadow detection and vehicle classification | |
KR20200002066A (ko) | 차량 인식 방법 및 이를 이용하는 장치 | |
Zhai et al. | Improved number plate character segmentation algorithm and its efficient FPGA implementation | |
Makino et al. | Moving-object detection method for moving cameras by merging background subtraction and optical flow methods | |
US20150110358A1 (en) | Apparatus and method for detecting vehicle number plate | |
Wang et al. | Smart road vehicle sensing system based on monocular vision | |
CN111242076B (zh) | 行人检测方法及系统 | |
Boufares et al. | Moving object detection system based on the modified temporal difference and otsu algorithm | |
Lai et al. | Vision based ADAS for Forward Vehicle Detection using Convolutional Neural Networks and Motion Tracking. | |
CN113762231B (zh) | 端对端的多行人姿态跟踪方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |