CN110765906A - 一种基于关键点的行人检测算法 - Google Patents

一种基于关键点的行人检测算法 Download PDF

Info

Publication number
CN110765906A
CN110765906A CN201910967523.6A CN201910967523A CN110765906A CN 110765906 A CN110765906 A CN 110765906A CN 201910967523 A CN201910967523 A CN 201910967523A CN 110765906 A CN110765906 A CN 110765906A
Authority
CN
China
Prior art keywords
corner
information
point
pedestrian
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910967523.6A
Other languages
English (en)
Inventor
张益新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xuehu Technology Co Ltd
Original Assignee
Shanghai Xuehu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xuehu Technology Co Ltd filed Critical Shanghai Xuehu Technology Co Ltd
Priority to CN201910967523.6A priority Critical patent/CN110765906A/zh
Publication of CN110765906A publication Critical patent/CN110765906A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于关键点的行人检测算法的行人检测算法,步骤如下:步骤S1:构件模型时我们用一个中心关键点和一对角点来表示每个目标;步骤S2:网络通过center pooling和cascade corner pooling分别得到center heatmap和corner heatmaps,用来预测中心关键点和角点的信息;步骤S3:得到中心关键点和角点的信息后,对这些信息进行处理得到检测结果。步骤S4:根据检测结果,获取待检测行人信息。本发明密集场景下具有较高的检测准确率;遮挡场景下,后面的人只漏出一个头,或者半个躯干等情况,都可以被检测出来;CenterNet能有效去除小尺度的错误目标框,能有效去除中等尺度和大尺度的错误目标框。

Description

一种基于关键点的行人检测算法
技术领域
本发明涉及一种行人检测算法,特别涉及一种基于关键点的行人检测算法。
背景技术
行人检测是计算机视觉领域的一项重要研究方向,其通过对图像进行分析检测出图像中是否有行人。行人检测技术在车辆辅助驾驶、智能监控、智能机器人等领域中有着广泛的应用。例如,车辆辅助驾驶系统可利用行人检测技术发现车辆前方的行人,提醒司机避让;智能监控系统可利用行人检测技术发现监控画面中的行人,以便对行人的行为进行分析,对可疑人员进行跟踪;而智能机器人则可利用行人检测技术发现周边环境中的行人,以自动避让或跟随等。
行人检测(Pedestrian Detection)是利用计算机视觉技术判断图像或者视频序列中是否存在行人并给予精确定位。该技术可与行人跟踪,行人重识别等技术结合,应用于人工智能系统、车辆辅助驾驶系统、智能机器人、智能视频监控、人体行为分析、智能交通等领域。
由于行人兼具刚性和柔性物体的特性,外观易受穿着、尺度、遮挡、姿态和视角等影响,使得行人检测成为计算机视觉领域中一个既具有研究价值同时又极具挑战性的热门课题。
行人检测系统的研究起始于二十世纪九十年代中期。从最开始到2002年,研究者们借鉴、引入了一些图像处理、模式识别领域的成熟方法,侧重研究了行人的可用特征、简单分类算法。自2005年以来,行人检测技术的训练库趋于大规模化、检测精度趋于实用化、检测速度趋于实时化。随着高校、研究所以及汽车厂商的研究持续深入,行人检测技术得到了飞速的发展。
关于行人检测方面,现在已有了积分通道法、累计通道法、滤波器通道法等多种行人检测技术,但是前面提到的方法在检测准确率、检测速度、检测计算量方面仍然存在一些不足。如人群密集时,出现漏检和误检的情况严重。以及在行人被遮挡时,检测不出的情况,严重制约了行人检测的准确率和效率。
行人检测和一般物体检测有相似之处,其检测步骤均由区域建议、特征提取、模式分类组成,但是行人检测面临着尺度变化范围大、外观和姿态复杂、光照遮挡等外部因素影响等困难。在许多实际应用场景中,对行人检测的速度、精度和模型大小还有较高要求,而在自动驾驶和辅助驾驶任务中,往往还需要对行人的运动趋势进行判断。现有的基于深度学习的一般物体检测方法存在以下问题:
单一的区域提取单元难以应对行人大范围的尺度变化;由于深度学习的卷积和池化层步长限制,无法对小尺度行人提取足够的特征;深度学习常用的多层感知器(MLP)参数过多,可能弱化分类结果,也限制了检测速度;不能在行人检测的同时给出行人运动趋势。因而现有行人检测技术难以兼顾检测准确率和检测速度,由于人体和背景场景中存在较大的变化和混论,因此,行人检测具有挑战性。目标检测驱动了很多基于视觉的任务,如语义分割,姿态估计,跟踪,动作识别。且应用在下游业务中,如监控,自动驾驶,视觉回答。当前检测器都以bbox轴对称框的形式紧紧贴合着目标。对于每个目标框,分类器来确定每个框中是否是特定类别目标还是背景,目标检测识别往往在图像上将目标以轴对称的框形式框出。大多成功的目标检测器都先穷举出潜在目标位置,然后对该位置进行分类,这种做法浪费时间而且低效,还需要额外的后处理。
发明内容
本发明要解决的技术问题是克服现有技术的缺陷,提供一种基于关键点的行人检测算法。
为了解决上述技术问题,本发明提供了如下的技术方案:
本发明一种基于关键点的行人检测算法,步骤如下:
步骤S1:构件模型时我们用一个中心关键点和一对角点来表示每个目标;
步骤S2:网络通过center pooling和cascade corner pooling分别得到centerheatmap和corner heatmaps,用来预测中心关键点和角点的信息;
步骤S3:得到中心关键点和角点的信息后,对这些信息进行处理得到检测结果。
步骤S4:根据检测结果,获取待检测行人信息。
作为本发明的一种优选技术方案,所述步骤S2中,经训练的卷积神经网络模型的训练步骤如下:
S201:构建行人数据集;
S202:数据集输入前向网络;
S203:根据前向得到的结果,进行反向传播,开始进行模型训练,直到模型收敛。
作为本发明的一种优选技术方案,所述步骤S1中将目标作为关键点三元组的具体方式包括一个中心关键点和一对角点。
作为本发明的一种优选技术方案,在所述步骤S3中的center pooling用于预测中心点信息,通过相加特征图水平和垂直方向上最大值获得,并且以此给中心点提供所处位置以外的信息;
Cascade corner pooling:该模块用于预测物体的左上和右下角点信息,一般情况下角点位于物体外部。
本发明所达到的有益效果是:本发明密集场景下具有较高的检测准确率;遮挡场景下,后面的人只漏出一个头,或者半个躯干等情况,都可以被检测出来;行人只出现后背,也能检测出来;
CenterNet能有效去除小尺度的错误目标框,并且能有效去除中等尺度和大尺度的错误目标框;
one-stage的前提下CenterNet构建了3个关键点,一对角点和一个中心点,因而就能获得感知物体内部信息的能力,并且开销较小,因为只需关注物体的中心;对每个预测框定义一个中心区域,通过判断每个目标框的中心区域是否含有中心点,若有则保留,并且此时框的confidence为中心点、左上角点和右下角点的confidence的平均,若无则去除,使得网络具备感知目标区域内部信息的能力,能够有效去除错误的目标框;
为了更好地检测中心关键点和角关键点,我们分别使用了丰富中心信息和角信息的两种策略,对特征级噪声有较强的鲁棒性,提高了查准率和查全率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明的流程示意图之一;
图2是本发明的流程示意图之二;
图3是本发明实施例中模型网络的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例
如图1-2所示,本发明提供一种基于关键点的行人检测算法,步骤如下:
步骤S1:构件模型时我们用一个中心关键点和一对角点来表示每个目标;
步骤S2:网络通过center pooling和cascade corner pooling分别得到centerheatmap和corner heatmaps,用来预测中心关键点和角点的信息;
步骤S3:得到中心关键点和角点的信息后,对这些信息进行处理得到检测结果。
步骤S4:根据检测结果,获取待检测行人信息
所述步骤S2中,经训练的卷积神经网络模型的训练步骤如下:
S201:构建行人数据集;
S202:数据集输入前向网络;
S203:根据前向得到的结果,进行反向传播,开始进行模型训练,直到模型收敛。
所述步骤S1中将目标作为关键点三元组的具体方式包括一个中心关键点和一对角点。
在所述步骤S3中的center pooling用于预测中心点信息,通过相加特征图水平和垂直方向上最大值获得,并且以此给中心点提供所处位置以外的信息;
Cascade corner pooling:该模块用于预测物体的左上和右下角点信息,一般情况下角点位于物体外部。
模型网络结构如图3;
提取特征的骨干网络backbonge使用hourglass,后面接两个分支,分别得到center heatmap和corner heatmaps,用来预测中心关键点和角点的信息:
具体步骤如下:
1.预测目标框,即左上角和右下角点;
2.计算目标框的中心区域;
3.判断目标框的中心区域是否含有中心点,有则保留,否则删除目标框
如图3中大红框的中心区域包含中心点,所以被保留,小红框不包含中心点,剔除,只留下一个候选框。
网络结构特征如下:
Center pooling和Cascade corner pooling
Center pooling:一个物体的中心并不一定含有很强的,易于区分于其他类别的语义信息。例如,一个人的头部含有很强的,易于区分于其他类别的语义信息,但是其中心往往位于人的中部。
提出了center pooling来丰富中心点特征。center pooling提取中心点水平方向和垂直方向的最大值并相加,以此给中心点提供所处位置以外的信息。这一操作使中心点有机会获得更易于区分于其他类别的语义信息。Center pooling可通过不同方向上的corner pooling的组合实现。
一个水平方向上的取最大值操作可由left pooling和right pooling通过串联实现。
同理,一个垂直方向上的取最大值操作可由top pooling和bottom pooling通过串联实现。
Cascade corner pooling:该模块用于预测物体的左上和右下角点,一般情况下角点位于物体外部,所处位置并不含有关联物体的语义信息,这为角点的检测带来了困难。它首先提取物体边界最大值,然后在边界最大值处继续向内部提取最大值,并与边界最大值相加,以此给角点特征提供更加丰富的关联物体语义信息。Cascade corner pooling可通过不同方向上的corner pooling的组合实现。Cascade corner pooling只是为了通过内部信息丰富角点特征,也就是级联不同方向的corner pooling达到内部信息的叠加,最终目的还是要预测角点,所以左上角点通过cascade top corner pooling+cascade leftcorner pooling实现,右下角点通过cascade right corner pooling+cascade bottomcorner pooling实现。
模型训练流程如下:
模型从头开始训练。图像分辨率是511×511,产生的热力图大小是128×128。我们使用了数据增强策略让模型更鲁棒。同样使用了Adam方法来训练损失函数。
用骨干网络得到图片的特征图之后,通过高斯核函数将关键点分布到特征图上。
首先假设输入图像为I∈RW×H×3,其中w和h分别为图像的宽和高,然后在预测的时候,我们要产生出关键点的热点图(keypoint heatmap):
Figure RE-GDA0002334722940000051
其中R为4,代表下采样的因子;C为80,代表着检测点类别的数量。
这样,
Figure RE-GDA0002334722940000052
就是一个检测到物体的预测值,对于表示对于类别c,在当前(x,y)坐标中检测到了这种类别的物体,而
Figure RE-GDA0002334722940000054
则表示当前当前这个坐标点不存在类别为c的物体。
在整个训练的流程中,CenterNet学习了CornerNet的方法。对于每个标签图(ground truth) 中的某一c类,我们要将真实关键点(true keypoint)
Figure RE-GDA0002334722940000055
计算出来用于训练,中心点的计算方式为对于下采样后的坐标,我们设为
Figure RE-GDA0002334722940000057
其中是上文中提到的下采样因子4。所以我们最终计算出来的中心点是对应低分辨率的中心点。然后我们利用
Figure RE-GDA0002334722940000058
来对图像进行标记,在下采样的[128,128]图像中将 ground truth point以
Figure RE-GDA0002334722940000059
的形式,用一个高斯核
Figure RE-GDA00023347229400000510
来将关键点分布到特征图上,其中σp是一个与目标大小(也就是w和h)相关的标准差。如果某一个类的两个高斯分布发生了重叠,直接去元素间最大的就可以。
损失函数
Figure RE-GDA0002334722940000061
Figure RE-GDA0002334722940000062
Figure RE-GDA0002334722940000063
分别表示focal loss位置损失;分别用于检测角点和中心关键点
Figure RE-GDA0002334722940000064
是角点的“pull”损失,用于最小化同一物体的embedding向量之间的距离。
Figure RE-GDA0002334722940000065
是角点的“push”损失,用于最大化不同物体的embedding向量之间的距离。
Figure RE-GDA0002334722940000067
损失,用于训练网络来分别预测角点和中心关键点的偏移量。
α,β,γ表示相应损失的权重,分别设为0.1,0.1,1。
模型预测流程如下:
具体地说,在待检测行人所处的空间内,如机场,海关,地铁等,通过设置的摄像头对待检测行人进行拍摄,拍摄得到的图像为含有待检测行人的图像,通过经训练的卷积神经网络模型对图像进行特征提取,获取能够有效表达行人信息的具体特征,此特征适应于多种具体复杂场景下的行人识别;接下来我们从网络输出的热力图heatmaps上选取前70个中心关键点,前70个左上角点,前70个右下角点,以此获取预选边框,使用Soft-NMS来去除多余的边框。最终根据得分选择前100个边框作为最终的检测结果。
根据检测结果,获取待检测行人信息。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于关键点的行人检测算法,其特征在于,步骤如下:
步骤S1:构件模型时我们用一个中心关键点和一对角点来表示每个目标;
步骤S2:网络通过center pooling和cascade corner pooling分别得到centerheatmap和corner heatmaps,用来预测中心关键点和角点的信息;
步骤S3:得到中心关键点和角点的信息后,对这些信息进行处理得到检测结果。
步骤S4:根据检测结果,获取待检测行人信息。
2.根据权利要求1所述的一种基于关键点的行人检测算法,其训练的卷积神经网络模型的训练步骤如下:
S201:构建行人数据集;
S202:数据集输入前向网络;
S203:根据前向得到的结果,进行反向传播,开始进行模型训练,直到模型收敛。
3.根据权利要求1所述的一种基于关键点的行人检测算法,其特征在于,所述步骤S1中将目标作为关键点三元组的具体方式包括一个中心关键点和一对角点。
4.根据权利要求1所述的一种基于关键点的行人检测算法,其特征在于,在所述步骤S3中的center pooling用于预测中心点信息,通过相加特征图水平和垂直方向上最大值获得,并且以此给中心点提供所处位置以外的信息;
Cascade corner pooling:该模块用于预测物体的左上和右下角点信息,一般情况下角点位于物体外部。
CN201910967523.6A 2019-10-12 2019-10-12 一种基于关键点的行人检测算法 Pending CN110765906A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910967523.6A CN110765906A (zh) 2019-10-12 2019-10-12 一种基于关键点的行人检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910967523.6A CN110765906A (zh) 2019-10-12 2019-10-12 一种基于关键点的行人检测算法

Publications (1)

Publication Number Publication Date
CN110765906A true CN110765906A (zh) 2020-02-07

Family

ID=69331840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910967523.6A Pending CN110765906A (zh) 2019-10-12 2019-10-12 一种基于关键点的行人检测算法

Country Status (1)

Country Link
CN (1) CN110765906A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310770A (zh) * 2020-02-21 2020-06-19 集美大学 目标检测方法和装置
CN111444879A (zh) * 2020-04-10 2020-07-24 广东工业大学 一种关节劳损自主康复动作识别方法及系统
CN111814680A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 一种基于fpga的多路axi总线的控制方法
CN111814972A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 一种基于fpga的神经网络卷积运算加速方法
CN111931764A (zh) * 2020-06-30 2020-11-13 华为技术有限公司 一种目标检测方法、目标检测框架及相关设备
CN112233096A (zh) * 2020-10-19 2021-01-15 哈尔滨市科佳通用机电股份有限公司 一种车辆裙板故障检测方法
CN112257609A (zh) * 2020-10-23 2021-01-22 重庆邮电大学 一种基于自适应关键点热图的车辆检测方法及装置
CN112270278A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于关键点的蓝顶房检测方法
CN112288019A (zh) * 2020-10-30 2021-01-29 天津天地伟业智能安全防范科技有限公司 一种基于关键点定位的厨师帽检测方法
CN112347864A (zh) * 2020-10-21 2021-02-09 北京市地铁运营有限公司地铁运营技术研发中心 轨道交通客流感知及诱导方法、装置、设备和系统
CN113095228A (zh) * 2021-04-13 2021-07-09 地平线(上海)人工智能技术有限公司 图像中的目标检测方法、装置及计算机可读存储介质
CN113111754A (zh) * 2021-04-02 2021-07-13 中国科学院深圳先进技术研究院 一种目标检测方法、装置、终端设备和存储介质
WO2021160184A1 (en) 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target detection method, training method, electronic device, and computer-readable medium
CN111310770B (zh) * 2020-02-21 2024-05-14 集美大学 目标检测方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210436A (zh) * 2019-06-10 2019-09-06 国网上海市电力公司 一种车载摄像头巡线图像识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210436A (zh) * 2019-06-10 2019-09-06 国网上海市电力公司 一种车载摄像头巡线图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAIWEN DUAN: "CenterNet: Keypoint Triplets for Object Detection" *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021160184A1 (en) 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target detection method, training method, electronic device, and computer-readable medium
EP4104096A4 (en) * 2020-02-14 2023-07-19 Huawei Technologies Co., Ltd. TARGET DETECTION METHOD, TRAINING METHOD, ELECTRONIC DEVICE AND COMPUTER READABLE MEDIA
CN111310770A (zh) * 2020-02-21 2020-06-19 集美大学 目标检测方法和装置
CN111310770B (zh) * 2020-02-21 2024-05-14 集美大学 目标检测方法和装置
CN111444879A (zh) * 2020-04-10 2020-07-24 广东工业大学 一种关节劳损自主康复动作识别方法及系统
CN111931764A (zh) * 2020-06-30 2020-11-13 华为技术有限公司 一种目标检测方法、目标检测框架及相关设备
CN111931764B (zh) * 2020-06-30 2024-04-16 华为云计算技术有限公司 一种目标检测方法、目标检测框架及相关设备
CN111814680A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 一种基于fpga的多路axi总线的控制方法
CN111814972A (zh) * 2020-07-08 2020-10-23 上海雪湖科技有限公司 一种基于fpga的神经网络卷积运算加速方法
CN111814972B (zh) * 2020-07-08 2024-02-02 上海雪湖科技有限公司 一种基于fpga的神经网络卷积运算加速方法
CN111814680B (zh) * 2020-07-08 2023-09-26 上海雪湖科技有限公司 一种基于fpga的多路axi总线的控制方法
CN112233096A (zh) * 2020-10-19 2021-01-15 哈尔滨市科佳通用机电股份有限公司 一种车辆裙板故障检测方法
CN112233096B (zh) * 2020-10-19 2021-11-12 哈尔滨市科佳通用机电股份有限公司 一种车辆裙板故障检测方法
CN112347864A (zh) * 2020-10-21 2021-02-09 北京市地铁运营有限公司地铁运营技术研发中心 轨道交通客流感知及诱导方法、装置、设备和系统
CN112257609A (zh) * 2020-10-23 2021-01-22 重庆邮电大学 一种基于自适应关键点热图的车辆检测方法及装置
CN112288019B (zh) * 2020-10-30 2023-07-14 天津天地伟业信息系统集成有限公司 一种基于关键点定位的厨师帽检测方法
CN112288019A (zh) * 2020-10-30 2021-01-29 天津天地伟业智能安全防范科技有限公司 一种基于关键点定位的厨师帽检测方法
CN112270278A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于关键点的蓝顶房检测方法
CN113111754A (zh) * 2021-04-02 2021-07-13 中国科学院深圳先进技术研究院 一种目标检测方法、装置、终端设备和存储介质
CN113095228A (zh) * 2021-04-13 2021-07-09 地平线(上海)人工智能技术有限公司 图像中的目标检测方法、装置及计算机可读存储介质
CN113095228B (zh) * 2021-04-13 2024-04-30 地平线(上海)人工智能技术有限公司 图像中的目标检测方法、装置及计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN110765906A (zh) 一种基于关键点的行人检测算法
US10242266B2 (en) Method and system for detecting actions in videos
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN111709310B (zh) 一种基于深度学习的手势跟踪与识别方法
CN110084139B (zh) 一种基于多分支深度学习的车辆重识别方法
CN109816689A (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN107368890A (zh) 一种以视觉为中心的基于深度学习的路况分析方法及系统
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN111680655A (zh) 一种面向无人机航拍影像的视频目标检测方法
Yang et al. A RGB-D based real-time multiple object detection and ranging system for autonomous driving
Bhatt et al. Have i reached the intersection: A deep learning-based approach for intersection detection from monocular cameras
CN108875754B (zh) 一种基于多深度特征融合网络的车辆再识别方法
CN111931764A (zh) 一种目标检测方法、目标检测框架及相关设备
CN112836640A (zh) 一种单摄像头多目标行人跟踪方法
CN110533661A (zh) 基于图像特征级联的自适应实时闭环检测方法
Yang et al. Counting crowds using a scale-distribution-aware network and adaptive human-shaped kernel
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN112613668A (zh) 基于人工智能的景区危险区域管控方法
CN113269038B (zh) 一种基于多尺度的行人检测方法
CN113869274A (zh) 基于城市管理的无人机智能跟踪监控方法及系统
CN111862147B (zh) 视频中多车辆和多行人目标的跟踪方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN112668493A (zh) 基于gan和深度学习的换装行人再识别定位跟踪系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200207