CN109766796A - 一种面向密集人群的深度行人检测方法 - Google Patents

一种面向密集人群的深度行人检测方法 Download PDF

Info

Publication number
CN109766796A
CN109766796A CN201811593155.5A CN201811593155A CN109766796A CN 109766796 A CN109766796 A CN 109766796A CN 201811593155 A CN201811593155 A CN 201811593155A CN 109766796 A CN109766796 A CN 109766796A
Authority
CN
China
Prior art keywords
pedestrian
crowd
image
key point
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811593155.5A
Other languages
English (en)
Other versions
CN109766796B (zh
Inventor
黄增喜
王晓明
杜亚军
于春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xihua University
Original Assignee
Xihua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xihua University filed Critical Xihua University
Priority to CN201811593155.5A priority Critical patent/CN109766796B/zh
Publication of CN109766796A publication Critical patent/CN109766796A/zh
Application granted granted Critical
Publication of CN109766796B publication Critical patent/CN109766796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于图像及视频处理技术领域,尤其为一种面向密集人群的深度行人检测方法,包括以下几个步骤:采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标;对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中的行人关键点集;检测并排除虚假行人关键点后定位行人,与非独立行人目标进行比较分析后得到人群中的行人检测结果。本发明,在基于全局特征的深度行人检测基础上,定位人群图像区域,采用基于行人关键点的自底向上深度行人检测方法,避免了对非极大值抑制类方法和技术的依赖,并综合了两类深度行人检测方法的优势,从而提高密集人群中行人检测的准确性和定位精度。

Description

一种面向密集人群的深度行人检测方法
技术领域
本发明属于图像及视频处理技术领域,具体涉及一种面向密集人群的深度行人检测方法。
背景技术
目标检测的任务是从图像或视频中检测和定位特定种类目标,是计算机视觉领域的核心问题之一。行人检测是目标检测的重要分支,该技术可与行人跟踪,行人重识别等技术结合,广泛应用于车辆辅助驾驶系统、智能视频监控和人体行为分析等领域。由于行人兼具刚性和柔性物体的特性,外观易受穿着、尺度、姿态、视角和遮挡等影响,使得行人检测成为计算机视觉领域中一个极具挑战性的课题。
近年来,深度神经网络模型如RCNN、YOLO、SSD等凭借大规模数据和强大的端到端学习能力,能够较好地学习图像中行人的不变特征,显著提高行人检测的准确性。深度神经网络模型通常在行人目标附近获得稠密的行人候选框,然后采用非极大值抑制方法(NMS)或类似手段消除多余候选框并最终确定行人目标图像区域。非极大值抑制的结果与行人候选框之间的交并比阈值(IoU)设置有关,在密集人群情况下,行人间距小且存在严重的相互遮挡,过低的IoU阈值会带来行人漏检,而过高的IoU阈值则易造成虚警,因此,密集人群中的行人检测仍然是一个亟待解决的问题。
本发明的目的在于改善上述现有技术存在的缺陷,提出一种面向密集人群的深度行人检测方法,该方法在基于全局特征的深度行人检测基础上,定位人群图像区域,采用基于行人关键点的自底向上深度行人检测方法,避免了对非极大值抑制类方法和技术的依赖,并综合了两类深度行人检测方法的优势,从而提高密集人群中行人检测的准确性和定位精度。
发明内容
为解决上述背景技术中提出的问题。本发明提供了一种面向密集人群的深度行人检测方法,具有能够提高密集人群中行人检测的准确性和定位精度的特点。
为实现上述目的,本发明提供如下技术方案:一种面向密集人群的深度行人检测方法,包括以下几个步骤:
S1、采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标;
S2、对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中行人的关键点集;
S3、检测并排除虚假行人关键点后定位行人,并与非独立行人目标进行比较分析后确定人群中的行人目标,与独立行人目标一起构成最终行人检测结果。
优选的,所述S1步骤中,对于一幅任意大小的图像,采用基于全局特征的卷积神经网络提取图像中的行人候选框,为提高效率同时避免漏检,设置低的置信分数阈值,筛选出若干行人候选框P=[p1,p2,…,pi,…];
对稠密候选框P进行合并得到图像区域A=[a1,a2,…,ai,…],即合并相互交并比(IoU)大于某一给定阈值的候选框,此时选择较低的IoU阈值,尽可能使图像区域ai包含第i个人群中的所有行人;
对原稠密候选框P采用非极大值抑制方法(NMS),得到较可靠的非极大值抑制检测框N=[n1,n2,…,ni,…];
将非极大值抑制检测框N与图像区域A进行比较分析,将N划分为独立行人目标和非独立行人目标,同时从A中选择出人群图像区域G=[g1,g2,…,gi,…]。
优选的,所述S2的步骤的中,为兼顾计算效率和准确性,根据所包含的非独立行人数量及行人候选框个数,对人群区域图像块进行自适应尺度调整,即对尺度过大人群区域图像块进行图像自适应下采样,对尺度过小人群区域图像块进行图像自适应超分辨率;
将所有经过自适应尺度调整的人群区域图像块合并成一幅紧凑人群图像,在新图像中人群区域图像块之间应保持一定的安全距离,避免跨区域行人检测;
将人群图像输入到基于局部特征的自底向上卷积神经网络提取行人关键点,将关键点位置坐标映射到原图像后得到人群中每一行人的关键点集。
优选的,所述S3的步骤中,基于局部特征即行人关键点的自底向上深度行人检测方法在低分辨率人群和复杂背景情况下,易将虚假关键点错误地归类到某一行人,将影响行人定位的准确性。先根据检测到的关键点和关键点间的位置关系,将行人图像划分为正向、背向、左侧身和右侧身四个类别,再按类别根据关键点置信分数和相互位置关系检测并排除虚假行人关键点;利用每一类行人较可靠关键点位置和间距信息估计行人检测框;将得到的行人检结果与非独立行人目标进行比较分析,确定人群中每一行人的位置信息;最后,与S1所得独立行人目标合并,构成所提面向密集人群的深度行人检测方法的行人检测结果。
与现有技术相比,本发明的有益效果是:
本发明,在基于全局特征的深度行人检测基础上,定位人群图像区域,采用基于行人关键点的自底向上深度行人检测方法,避免了对非极大值抑制类方法和技术的依赖,并综合了两类深度行人检测方法的优势,从而提高密集人群中行人检测的准确性和定位精度。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明面向密集人群的深度行人检测方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1,本发明提供以下技术方案:一种面向密集人群的深度行人检测方法,包括以下几个步骤:
S1、采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标;
S2、对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中每一行人的关键点集;
S3、检测并排除虚假行人关键点后定位行人,并与非独立行人目标进行比较分析后确定人群中的行人目标,与独立行人目标一起构成最终行人检测结果。
具体的,所述S1步骤中,对任意大小的一幅图像,采用基于全局特征的卷积神经网络提取图像中的行人预测候选框,为提高效率同时避免漏检,设置较低的置信分数阈值如0.3,保留置信分数较大的行人预测候选框P=[p1,p2,…,pi,…];
对稠密的候选框P进行合并得到若干图像区域A=[a1,a2,…,ai,…],即合并相互交并比大于某一给定阈值的候选框,此时选择较低的IoU阈值如0.15,尽可能使图像区域ai包含第i个人群中的所有行人;
对原稠密候选框P采用非极大值抑制方法从中去除多数置信分数较低的候选框,如当候选框之间的交并比大于某一给定阈值时只保留置信分数最高的候选框,得到较可靠的非极大值抑制检测框N=[n1,n2,…,ni,…];
将非极大值抑制检测框N与图像区域A进行比较分析,将N划分为独立行人和非独立行人两类目标,同时从A中选择出人群图像区域G=[g1,g2,…,gi,…]。当某个图像区域a包含多个非极大值抑制检测框时,或者当某个图像区域a与其包含的唯一非极大值抑制检测框的面积比大于某一特定阈值时,将该图像区域a视为一个人群图像区域g。最后,不被任何人群图像区域g包含的非极大值抑制检测框被归类为独立行人目标,否则被归类为非独立行人目标。
具体的,所述S2的步骤的中,为兼顾计算效率和准确性,根据所包含的非独立行人数量及行人候选框个数,对人群区域图像块g进行自适应尺度调整,即对尺度过大人群区域图像块进行图像自适应下采样,对尺度过小人群区域图像块进行图像自适应超分辨率;
将所有经过自适应尺度调整的人群区域图像块合并成一幅紧凑人群图像,在新图像中人群区域图像块之间应保持一定的安全距离,避免跨区域行人检测;
将人群图像输入到基于局部特征的自底向上卷积神经网络提取行人关键点,包括左耳、右耳、左眼、右眼、鼻、颈、左肩、右肩、左肘、右肘、左手、右手、左臀、右臀、左膝、右膝、左脚和右脚共18个关键点,然后将关键点位置坐标映射到原图像,得到每一行人的关键点集。
具体的,所述S3的步骤中,基于局部特征即行人关键点的自底向上深度行人检测方法在低分辨率人群和复杂背景情况下,易将虚假关键点错误地归类到某一行人,将影响行人定位的准确性。先根据检测到的关键点和关键点间的位置关系,将行人图像划分为正向、背向、左侧身和右侧身四个类别,对于正向行人,以颈-鼻、颈-左肩、颈-右肩、左肩-左肘、右肩-右肘、颈-左臀、颈-右臀等7对关键点间距作为参考值,检测并去除虚假关键点;对于背向行人,以颈-左耳、颈-右耳、颈-左肩、颈-右肩、左肩-左肘、右肩-右肘、颈-左臀、颈-右臀等8对关键点间距作为参考值,检测并去除虚假关键点;对于左或右侧身行人,以颈-左耳或右耳、颈-左肩或右肩、颈-左臀或右臀、左肩-左肘或右肩-右肘等4对关键点间距作为参考值,检测并去除虚假关键点;
再根据行人较可靠关键点位置和间距离信息估计人群中行人检测框。对于每一行人目标,除了手和脚4个肢体末端关键点之外,根据由其余可见关键点构成的肢体(或如颈-鼻、颈-臀等虚拟肢体)长度进行加权求和得到一个基准长度指标,使用基准长度指标和部分可靠关键点来估计行人矩形检测框的上下和左右边界。例如,监控摄像机通常从高处俯瞰地面,对于正向行人,如果能够检测到鼻和左右膝盖,则结合颈-鼻和颈-左膝、颈-右膝长度和基准长度来估计矩形框的上边界和下边界,以降低摄像机仿射变换带来的影响;对于背对向摄像机行人,尤其是长发女性,常无法检测到鼻、左右眼和左右耳等头部关键点,行人检测框的上边界仅依靠基准长度来估计;
根据关键点信息能够获得人群中的行人目标和位置信息C=[c1,c2,…,ci,…],但当人群中行人相互遮挡严重且图像分辨率比较低时,基于局部特征的卷积神经网络行人检测方法可能漏检密集人群中的行人,而基于全局特征的卷积神经网络行人检测方法利用行人全局图像特征可能能够检测到这类非独立行人,因此,将基于关键点的行人检测结果与S1步骤所得非独立行人目标进行比较分析,将在S3步骤中未被检测到的非独立行人作为人群中行人检测结果的一部分。在每一人群图像区域g内,选择出与基于关键点局部特征得到的所有检测框的IoU均低于某特定阈值的非独立行人目标,若其置信分数大于某特定阈值,则可认为该非独立行人目标是被基于局部特征方法漏检的真实行人,将这部分由S1步骤所得非独立行人和独立行人目标,以及基于局部特征方法得到的行人目标作为所提面向密集人群的深度行人检测方法的检测结果。
本发明的工作原理及使用流程:本发明首先采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标。对于一幅任意大小的图像,采用基于全局特征的卷积神经网络提取图像中的行人预选框,为提高效率同时避免漏检,设置较低的置信分数阈值如0.3,保留置信分数较大的行人预测候选框P=[p1,p2,…,pi,…];对稠密的候选框P进行合并得到若干图像区域A=[a1,a2,…,ai,…],即合并相互交并比大于某一给定阈值的候选框,此时选择较低的IoU阈值如0.15,尽可能使图像区域ai包含第i个人群中的所有行人。
对原稠密候选框P采用非极大值抑制方法从中去除多数置信分数较低的候选框,如当候选框之间的交并比大于某一给定阈值时只保留置信分数最高的候选框,得到较可靠的非极大值抑制检测框N=[n1,n2,…,ni,…];将非极大值抑制检测框N与图像区域A进行比较分析,将N划分为独立行人和非独立行人两类目标,同时从A中选择出人群图像区域G=[g1,g2,…,gi,…]。当某个图像区域a包含多个非极大值抑制检测框时,或者当某个图像区域a与其包含的唯一非极大值抑制检测框的面积比大于某一特定阈值时,将该图像区域a视为一个人群图像区域g。最后,不被任何人群图像区域g包含的非极大值抑制检测框被归类为独立行人目标,否则被归类为非独立行人目标。
其次,对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中每一行人的关键点集。根据所包含的非独立行人数量及行人候选框个数,对人群区域图像块进行自适应尺度调整,即对尺度过大人群区域图像块进行图像自适应下采样,对尺度过小人群区域图像块进行图像自适应超分辨率;将所有经过自适应尺度调整的人群区域图像块合并成一幅紧凑人群图像,在新图像中人群区域图像块之间应保持一定的安全距离,避免跨区域行人检测。
将人群图像输入到基于局部特征的自底向上卷积神经网络提取行人关键点,包括左耳、右耳、左眼、右眼、鼻、颈、左肩、右肩、左肘、右肘、左手、右手、左臀、右臀、左膝、右膝、左脚和右脚共18个关键点,然后将关键点位置坐标映射到原图像,得到每一行人的关键点集。
最后,检测并排除虚假行人关键点后定位行人,并与非独立行人目标进行比较分析后确定人群中的行人目标,与独立行人目标构成最终行人检测结果。先根据检测到的关键点和关键点间的位置关系,将行人图像划分为正向、背向、左侧身和右侧身四个类别,对于正向行人,以颈-鼻、颈-左肩、颈-右肩、左肩-左肘、右肩-右肘、颈-左臀、颈-右臀等7对关键点间距作为参考值,检测并去除虚假关键点;对于背向行人,以颈-左耳、颈-右耳、颈-左肩、颈-右肩、左肩-左肘、右肩-右肘、颈-左臀、颈-右臀等8对关键点间距作为参考值,检测并去除虚假关键点。
对于左或右侧身行人,以颈-左耳或右耳、颈-左肩或右肩、颈-左臀或右臀、左肩-左肘或右肩-右肘等4对关键点间距作为参考值,检测并去除虚假关键点;再根据行人较可靠关键点位置和间距离信息估计人群中行人检测框。对于每一行人目标,除了手和脚4个肢体末端关键点之外,根据由其余可见关键点构成的肢体(或如颈-鼻、颈-臀等虚拟肢体)长度进行加权求和得到一个基准长度指标,使用基准长度指标和部分可靠关键点来估计行人矩形检测框的上下和左右边界。例如,监控摄像机通常从高处俯瞰地面,对于正向行人,如果能够检测到鼻和左右膝盖,则结合颈-鼻和颈-左膝、颈-右膝长度和基准长度来估计矩形框的上边界和下边界,以降低摄像机仿射变换带来的影响;对于背对向摄像机行人,尤其是长发女性,常无法检测到鼻、左右眼和左右耳等头部关键点,行人检测框的上边界仅依靠基准长度来估计;将基于关键点的行人检测结果与S1步骤所得非独立行人目标进行比较分析,将在S3步骤中未被检测到的非独立行人作为人群中行人检测结果的一部分。在每一人群图像区域g内,选择出与基于关键点局部特征得到的所有检测框的IoU均低于某特定阈值的非独立行人目标,若其置信分数大于某特定阈值,则可认为该非独立行人目标是被基于局部特征方法漏检的真实行人,将这部分由S1步骤所得非独立行人和独立行人目标,以及基于局部特征方法得到的行人目标作为所提面向密集人群的深度行人检测方法的检测结果。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种面向密集人群的深度行人检测方法,其特征在于:包括以下几个步骤:
S1、采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标;
S2、对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中行人的关键点集;
S3、检测并排除虚假行人关键点后定位行人,与非独立行人目标进行比较分析后确定人群中的行人目标,与独立行人目标一起构成最终行人检测结果。
2.根据权利要求1所述的一种面向密集人群的深度行人检测方法,其特征在于:所述S1步骤中,对任意大小的一幅图像,采用基于全局特征的卷积神经网络提取图像中的行人候选框,为提高效率同时避免漏检,设置低的置信分数阈值,筛选出行人候选框P=[p1,p2,…,pi,…];
对稠密候选框P进行合并得到若干图像区域A=[a1,a2,…,ai,…],即合并相互交并比(IoU)大于某一给定阈值的候选框,此时选择较低的IoU阈值,尽可能使图像区域ai包含第i个人群中的所有行人;
对原稠密候选框P采用非极大值抑制方法(NMS),得到较可靠的非极大值抑制检测框N=[n1,n2,…,ni,…];将非极大值抑制检测框N与图像区域A进行比较分析,将N划分为独立行人目标和非独立行人目标,同时从A中选择出人群图像区域G=[g1,g2,…,gi,…]。
3.根据权利要求1所述的一种面向密集人群的深度行人检测方法,其特征在于:所述S2的步骤的中,为兼顾计算效率和准确性,根据所包含的非独立行人数量及行人候选框个数,对人群区域图像块进行自适应尺度调整,即对尺度过大人群区域图像块进行图像自适应下采样,对尺度过小人群区域图像块进行图像自适应超分辨率;
将所有经过自适应尺度调整的人群区域图像块合并成一幅紧凑人群图像,在新图像中人群区域图像块之间应保持一定的安全距离,避免跨区域行人检测;
将人群图像输入到基于局部特征的自底向上卷积神经网络提取行人关键点,将关键点位置坐标映射到原图像后得到人群中每一行人的关键点集。
4.根据权利要求1所述的一种面向密集人群的深度行人检测方法,其特征在于:所述S3的步骤中,基于局部特征即行人关键点的自底向上深度行人检测方法在低分辨率人群和复杂背景情况下,易将虚假关键点错误地归类到某一行人,将影响行人定位的准确性。先根据检测到的关键点和关键点间的位置关系,将行人图像划分为正向、背向、左侧身和右侧身四个类别,再按类别根据关键点置信分数和相互位置关系检测并排除虚假行人关键点;利用每一类行人较可靠关键点位置和间距信息估计行人检测框;将得到的行人检测结果与非独立行人目标进行比较分析,确定人群中每一行人的位置信息;最后,与S1所得独立行人目标合并,构成所提面向密集人群的深度行人检测方法的行人检测结果。
CN201811593155.5A 2018-12-20 2018-12-20 一种面向密集人群的深度行人检测方法 Active CN109766796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811593155.5A CN109766796B (zh) 2018-12-20 2018-12-20 一种面向密集人群的深度行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811593155.5A CN109766796B (zh) 2018-12-20 2018-12-20 一种面向密集人群的深度行人检测方法

Publications (2)

Publication Number Publication Date
CN109766796A true CN109766796A (zh) 2019-05-17
CN109766796B CN109766796B (zh) 2023-04-18

Family

ID=66450376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811593155.5A Active CN109766796B (zh) 2018-12-20 2018-12-20 一种面向密集人群的深度行人检测方法

Country Status (1)

Country Link
CN (1) CN109766796B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532985A (zh) * 2019-09-02 2019-12-03 北京迈格威科技有限公司 目标检测方法、装置及系统
CN110909591A (zh) * 2019-09-29 2020-03-24 浙江大学 用编码向量的行人图像检测自适应非极大值抑制处理方法
CN111832515A (zh) * 2020-07-21 2020-10-27 上海有个机器人有限公司 一种密集行人检测方法、介质、终端和装置
CN112257692A (zh) * 2020-12-22 2021-01-22 湖北亿咖通科技有限公司 一种行人目标的检测方法、电子设备及存储介质
CN113536891A (zh) * 2021-05-10 2021-10-22 新疆爱华盈通信息技术有限公司 一种行人流量统计方法、存储介质及电子设备
WO2021238135A1 (zh) * 2020-05-28 2021-12-02 北京市商汤科技开发有限公司 对象计数方法、装置、电子设备、存储介质及程序
CN113887372A (zh) * 2021-09-27 2022-01-04 厦门汇利伟业科技有限公司 目标聚集检测方法及计算机可读存储介质
CN116612298A (zh) * 2023-07-18 2023-08-18 西华大学 一种基于局部关键点的行人特征掩膜生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975925A (zh) * 2016-05-03 2016-09-28 电子科技大学 基于联合检测模型的部分遮挡行人检测方法
CN107358149A (zh) * 2017-05-27 2017-11-17 深圳市深网视界科技有限公司 一种人体姿态检测方法和装置
CN108256404A (zh) * 2016-12-29 2018-07-06 北京旷视科技有限公司 行人检测方法和装置
CN108664838A (zh) * 2017-03-27 2018-10-16 北京中科视维文化科技有限公司 基于改进rpn深度网络的端到端的监控场景行人检测方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108898047A (zh) * 2018-04-27 2018-11-27 中国科学院自动化研究所 基于分块遮挡感知的行人检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975925A (zh) * 2016-05-03 2016-09-28 电子科技大学 基于联合检测模型的部分遮挡行人检测方法
CN108256404A (zh) * 2016-12-29 2018-07-06 北京旷视科技有限公司 行人检测方法和装置
CN108664838A (zh) * 2017-03-27 2018-10-16 北京中科视维文化科技有限公司 基于改进rpn深度网络的端到端的监控场景行人检测方法
CN107358149A (zh) * 2017-05-27 2017-11-17 深圳市深网视界科技有限公司 一种人体姿态检测方法和装置
CN108898047A (zh) * 2018-04-27 2018-11-27 中国科学院自动化研究所 基于分块遮挡感知的行人检测方法及系统
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110532985B (zh) * 2019-09-02 2022-07-22 北京迈格威科技有限公司 目标检测方法、装置及系统
CN110532985A (zh) * 2019-09-02 2019-12-03 北京迈格威科技有限公司 目标检测方法、装置及系统
CN110909591A (zh) * 2019-09-29 2020-03-24 浙江大学 用编码向量的行人图像检测自适应非极大值抑制处理方法
CN110909591B (zh) * 2019-09-29 2022-06-10 浙江大学 用编码向量的行人图像检测自适应非极大值抑制处理方法
WO2021238135A1 (zh) * 2020-05-28 2021-12-02 北京市商汤科技开发有限公司 对象计数方法、装置、电子设备、存储介质及程序
TWI779449B (zh) * 2020-05-28 2022-10-01 大陸商北京市商湯科技開發有限公司 對象計數方法、電子設備、電腦可讀儲存介質
CN111832515A (zh) * 2020-07-21 2020-10-27 上海有个机器人有限公司 一种密集行人检测方法、介质、终端和装置
CN111832515B (zh) * 2020-07-21 2024-08-27 上海有个机器人有限公司 一种密集行人检测方法、介质、终端和装置
CN112257692A (zh) * 2020-12-22 2021-01-22 湖北亿咖通科技有限公司 一种行人目标的检测方法、电子设备及存储介质
CN113536891A (zh) * 2021-05-10 2021-10-22 新疆爱华盈通信息技术有限公司 一种行人流量统计方法、存储介质及电子设备
CN113887372A (zh) * 2021-09-27 2022-01-04 厦门汇利伟业科技有限公司 目标聚集检测方法及计算机可读存储介质
CN113887372B (zh) * 2021-09-27 2024-09-27 厦门汇利伟业科技有限公司 目标聚集检测方法及计算机可读存储介质
CN116612298A (zh) * 2023-07-18 2023-08-18 西华大学 一种基于局部关键点的行人特征掩膜生成方法
CN116612298B (zh) * 2023-07-18 2023-10-13 西华大学 一种基于局部关键点的行人特征掩膜生成方法

Also Published As

Publication number Publication date
CN109766796B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN109766796A (zh) 一种面向密集人群的深度行人检测方法
CN109657631B (zh) 人体姿态识别方法及装置
WO2020042419A1 (zh) 基于步态的身份识别方法、装置、电子设备
CN104143079B (zh) 人脸属性识别的方法和系统
CN102657532B (zh) 基于人体姿态识别的身高测量方法及装置
CN106599994B (zh) 一种基于深度回归网络的视线估计方法
CN109800648A (zh) 基于人脸关键点校正的人脸检测识别方法及装置
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的系统及方法
CN109101865A (zh) 一种基于深度学习的行人重识别方法
CN105740780A (zh) 人脸活体检测的方法和装置
CN105869166B (zh) 一种基于双目视觉的人体动作识别方法及系统
JP2016018538A (ja) 画像認識装置、方法及びプログラム
CN106599785B (zh) 人体3d特征身份信息库的建立方法及设备
CN107292252A (zh) 一种自主学习的身份识别方法
CN111639602B (zh) 一种行人遮挡及朝向检测方法
CN103718175A (zh) 检测对象姿势的设备、方法和介质
CN108268814A (zh) 一种基于全局和局部特征模糊融合的人脸识别方法及装置
CN105760834A (zh) 一种人脸特征点定位方法
CN109558825A (zh) 一种基于数字视频图像处理的瞳孔中心定位方法
CN105740779A (zh) 人脸活体检测的方法和装置
CN109101864A (zh) 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN105022999A (zh) 一种人码伴随实时采集系统
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant