CN111160103B - 无人驾驶中行人检测方法、装置 - Google Patents

无人驾驶中行人检测方法、装置 Download PDF

Info

Publication number
CN111160103B
CN111160103B CN201911201329.3A CN201911201329A CN111160103B CN 111160103 B CN111160103 B CN 111160103B CN 201911201329 A CN201911201329 A CN 201911201329A CN 111160103 B CN111160103 B CN 111160103B
Authority
CN
China
Prior art keywords
pedestrian
detection model
pedestrian detection
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911201329.3A
Other languages
English (en)
Other versions
CN111160103A (zh
Inventor
左洪年
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Shuguang Nanjing Computing Technology Co ltd
Original Assignee
Zhongke Shuguang Nanjing Computing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongke Shuguang Nanjing Computing Technology Co ltd filed Critical Zhongke Shuguang Nanjing Computing Technology Co ltd
Priority to CN201911201329.3A priority Critical patent/CN111160103B/zh
Publication of CN111160103A publication Critical patent/CN111160103A/zh
Application granted granted Critical
Publication of CN111160103B publication Critical patent/CN111160103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种无人驾驶中行人检测方法、装置,所述方法包括:实时获取行驶车辆的行驶图像;使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;将所述第一行人检测模型检测得到的行人框和所述第二行人检测模型检测得到的行人框结合,得到最终行人检测结果。采用上述方案,通过两个检测模型同时进行行人检测,可以提升行人检测结果的准确率,避免交通事故的放生。

Description

无人驾驶中行人检测方法、装置
技术领域
本发明涉及行人识别领域,尤其涉及一种无人驾驶中行人检测方法、装置。
背景技术
随着人工智能产业的兴起,无人驾驶领域也在不断发展,其中行人检测得到广泛关注,近年来国内外学者对行人预测也展开了研究,但在无人驾驶系统中研究较少。行人预测是通过目标已有的运动轨迹对其未来固定时刻的位置坐标进行预测。
现有技术中,采用无人驾驶检测方案包括,基于区域建议(regional proposal,RP)的目标检测算法如基于区域的卷积神经网络(region based convolutional neuralnetworks,RCNN)、Faster-RCNN,基于回归(regression)的目标检测算法如单镜头多盒检测器(single shot multibox detector,SSD)、You Only Look Once(YOLO)系列算法。RCNN、Faster-RCNN模型虽然有较高的检测精度,但其检测时间较长,无法满足无人驾驶系统对实时性的要求;SSD需要人工设置参数,调试过程非常依赖经验,且存在特征提取不充分的问题。
发明内容
发明目的:本发明旨在提供一种无人驾驶中行人检测方法、装置。
技术方案:本发明实施例中提供一种无人驾驶中行人检测方法,包括:实时获取行驶车辆的行驶图像;使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;将所述第一行人检测模型检测得到的行人框和所述第二行人检测模型检测得到的行人框结合,得到最终行人检测结果。
具体的,所述第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
具体的,所述第一行人检测模型中的Tiny-YOLO网络算法采用以下leaky ReLU函数作为激活函数:
f(x)=max(x,0.1x);
采用标注行人的训练图像、和以下损失函数E进行训练;
其中,Ecoord表示行人坐标误差、EIOU表示交并比误差、Eclass表示分类误差。
具体的,使用所述第一行人检测模型中的非极大值抑制算法,从所述行驶图像中查询置信度最高的行人框;将置信度最高的行人框作为初始框,依次计算与初始框相邻的行人框的交并比,若交并比大于预设阈值,则排除对应的行人框。
具体的,使用所述第二行人检测模型中的OpenPose骨骼识别算法查询行驶图像中行人的骨骼。
具体的,采用以下公式计算行人的骨骼:
其中,L表示矢量场,S表示行人的关节点在矢量场中的位置,F是经过pre-trainnetwork网络算法前10层网络得到的特征图,ρ、φ表示预设权重,第一次计算以特征图F作为输入得到S1,L1;最终输出中,S对应的以下18个关节点的位置:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀,右膝盖,右脚踝,左臀,左膝盖,左脚踝,右眼,左眼,右耳朵,左耳朵。
具体的,将所述第二行人检测模型检测得到的行人框,作为所述第一行人检测模型检测得到的行人框的补充。
本发明实施例中还提供一种无人驾驶中行人检测装置,包括:图像单元、第一检测单元、第二检测单元和结合单元,其中:所述图像单元,用于实时获取行驶车辆的行驶图像;所述第一检测单元,用于使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;所述第二检测单元,用于使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;所述结合单元,用于将所述第一行人检测模型检测得到的行人框和所述第二行人检测模型检测得到的行人框结合,得到最终行人检测结果。
具体的,所述第一检测单元,还用于采用的第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
具体的,所述结合单元,还用于将所述第二行人检测模型检测得到的行人框,作为所述第一行人检测模型检测得到的行人框的补充。
有益效果:与现有技术相比,本发明具有如下显著优点:通过两个检测模型同时进行行人检测,可以提升行人检测结果的准确率,避免交通事故的放生。
附图说明
图1为本发明实施例中提供的无人驾驶中行人检测方法的流程示意图。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
参阅图1,其为本发明实施例中提供的无人驾驶中行人检测方法的流程示意图,包括具体步骤,以下结合具体步骤进行详细说明。
步骤S101,实时获取行驶车辆的行驶图像。
在具体实施中,行驶图像是车辆在行驶过程中,车辆前进方向的图像。
步骤S102,使用第一行人检测模型从所述行驶图像中查询存在行人的行人框。
本发明实施例中,所述第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
在具体实施中,现有技术中,Tiny-YOLO主干网络拥有7个3*3的卷积(convolution)层,6个池化(maxpooling)层,前5为个步长为2的池化层,最后一个为步长为1的池化层。输入图像的分辨率为416*416,在经过6个步长为2的池化层后,最终特征图大小为13*13。
在具体实施中,图像中行人身高和宽度为一定值,行人的横向特征表达比纵向特征表达少,增加横向特征表达有助于行人识别。原网络算法采用的图像输入尺寸为416*416的正方形,降低了横向特征提取效果,因此改用608*288分辨率图像作为网络输入。
在具体实施中,为了提升对行人的特征的提取效果,因此为了获得更高分辨率的信息,因此选取3*3卷积核对原始的Tiny-YOLO网络算法进行加深。在网络加深的同时,额外的卷积层会造成网络算法模型参数过多,从而增加网络的运算量。因此在网络算法中引入1*1卷积核。在第四层到第六层卷积层,分别采用3*3卷积层、1*1卷积层和3*3卷积层的堆叠,提升网络算法的检测速率,进而提升行人检测的灵敏度。
本发明实施例中,所述第一行人检测模型中的Tiny-YOLO网络算法采用以下leakyReLU函数作为激活函数:
f(x)=max(x,0.1x);
采用标注行人的训练图像、和以下损失函数E进行训练;
其中,Ecoord表示行人坐标误差、EIOU表示交并比(intersection over union,IOU)误差、Eclass表示分类误差。
在具体实施中,Tiny-YOLO网络算法在实际应用之前可以先进行训练,训练损失函数可表示为:
式中,S表示最终特征图的网格尺寸;B代表每个网格的预测框个数;(x,y)代表代表框的中心坐标,w、h代表行人框的宽和高;C代表框的置信度(confidence);P代表行人置信度;λcoord为候选框损失权重,λnoperson为分类损失权重;表示第i个网格的第j个预测框存在行人的可能性,/>表示判定第i个网格存在行人的概率,/>为网络相应的预测值。
在具体实施中,Tiny-YOLO使用由维度聚类得到锚框(anchor box)作为先验框来预测边界框(bounding box)作为行人框。边框预测公式为:
式中:cx、cy是网格的坐标偏移量,pw、ph是预设的锚框的边长,最终得到的(bx,by)为边界框的中心坐标,bw、bh为边界框宽度和高度,tx、ty、tw、th为网络算法学习目标,σ表示预测的边界框的置信度。
本发明实施例中,第一行人检测模型使用所述第一行人检测模型中的非极大值抑制算法,从所述行驶图像中查询置信度最高的行人框;将置信度最高的行人框作为初始框,依次计算与初始框相邻的行人框的交并比,若交并比大于预设阈值,则排除对应的行人框。
在具体实施中,置信度最高的行人框,即置信度最高的预测框。
步骤S103,使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框。
在具体实施中,OpenPose算法提出一种利用Part Affinity Fields(PAFs)的自下而上的人体姿态估计方案。
本发明实施例中,使用所述第二行人检测模型中的OpenPose骨骼识别算法查询行驶图像中行人的骨骼。
在具体实施中,将608*288分辨率的行驶图像作为输入,骨骼识别网络算法采用VGG pre-train network作为骨架,经过VGG的前10层网络得到一个特征度F,骨骼识别网络分成两个循环分支,第一分支用于预测关节点(人体关节),第二分支用于预测亲和度矢量场L,即像素点在骨骼中的走向,关节连接(人体肢体)。
两个分支的损失函数为:
其中,是真实的行人身体部位置信度图,/>是真实的身体关节连接向量,W(p)是一个二进制位,当这个关节p没有在图像上显示时,W(p)=0。
损失函数为每一层循环网络的损失函数之和:
关节点检测中,S的真实置信度图S*是通过图像中标注的2D点xj,k计算的,其中xj,k表示图片中第k个人的第j种关节的真实位置,计算方法为由于符合正态分布,当像素点p接近标注点xj,k时,达到正态曲线的峰值,则每张图像中第j种关节点的S为图像中k个人的正态分布峰值,第k个人的个体置信度图/>中位置p∈R2的值定义为
其中,σ表示控制峰值的范围,由骨骼识别网络预测的真实置信度图是各个置信度图通过最大运算符的聚合:
关节连接(PAF)中,L的真实亲和度矢量场通过第k个人的两个关键点xj1,k和xj2,k之间任意像素点p的单位向量计算的,其中k表示第k个人,j1和j2表示两个能够相连的关节,c表示第c种肢体。计算方式采用以下,为图像中第k个人的关键点xj1,k指向xj2,k的单位向量/>
其中,v=(xj2,k-xj1,k)/||xj2,k-xj1,k||2是肢体方向上的单位矢量,且需满足0≤v·(p-xj1,k)≤lc,k and|v·(p-xj1,k)|≤σl,lc,k=||xj2,k-xj1,k||2,v垂直于v的矢量,每张图像中第c种肢体的为k个人在位置p的向量平均值:
其中nc(p)表示在p点的经过k个人的肢体c的非零向量。
在具体实施中,当关节点dj1、dj2和PAF已知之后,计算两个关节点连线向量和两关节点连线上各像素的PAF向量之间的点的积分作为两个关节点之间的相关性:
其中,p(u)表示两个关键点之间的位置,p(u)=(1-u)dj1+udj2
在具体实施中,第一循环分支以特征图F作为输入,得到一组S1,L1,第二循环分支分别以第一分支的输出St-1、Lt-1和特征图F作为输入:
其中,上述公式最终输出S、L,其中S为18个人体关节点:鼻子-0,脖子-1,右肩-2,右肘-3,右手腕-4,左肩-5,左肘-6,左手腕-7,右臀-8,右膝盖-9,右脚踝-10,左臀-11,左膝盖-12,左脚踝-13,右眼-14,左眼-15,右耳朵-16,左耳朵-17。
步骤S104,将所述第一行人检测模型检测得到的行人框和所述第二行人检测模型检测得到的行人框结合,得到最终行人检测结果。
本发明实施例中,将所述第二行人检测模型检测得到的行人框,作为所述第一行人检测模型检测得到的行人框的补充。
在具体实施中,通过18个关节点的位置,以右眼-14,左眼-15,右手腕-4,左手腕-7,右脚踝-10,左脚踝-13的位置点,即可标出行驶图像中行人的位置框。找到对应帧的图像,然后对比Tiny-YOLO算法检测到的图像中行人框。若Tiny-YOLO算法已检测到某位置的行人,则以Tiny-YOLO算法标出的位置框作为该行人的位置;若Tiny-YOLO算法未检测到某位置的行人,则将OpenPose算法检测到的行人位置框作为该行人的位置,补充到那一帧中。
本发明实施例中还提供一种无人驾驶中行人检测装置,包括:图像单元、第一检测单元、第二检测单元和结合单元,其中:
所述图像单元,用于实时获取行驶车辆的行驶图像;
所述第一检测单元,用于使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;
所述第二检测单元,用于使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;
所述结合单元,用于将所述第一行人检测模型检测得到的行人框和所述第二行人检测模型检测得到的行人框结合,得到最终行人检测结果。
本发明实施例中,所述第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
本发明实施例中,所述第一行人检测模型中的Tiny-YOLO网络算法采用以下leakyReLU函数作为激活函数:
f(x)=max(x,0.1x);
采用标注行人的训练图像、和以下损失函数E进行训练;
其中,Ecoord表示行人坐标误差、EIOU表示交并比误差、Eclass表示分类误差。
本发明实施例中,所述第一检测单元用于使用所述第一行人检测模型中的非极大值抑制算法,从所述行驶图像中查询置信度最高的行人框;
将置信度最高的行人框作为初始框,依次计算与初始框相邻的行人框的交并比,若交并比大于预设阈值,则排除对应的行人框。
本发明实施例中,所述第二检测单元用于使用所述第二行人检测模型中的OpenPose骨骼识别算法查询行驶图像中行人的骨骼。
本发明实施例中,采用以下公式计算行人的骨骼:
其中,L表示矢量场,S表示行人的关节点在矢量场中的位置,F是经过pre-trainnetwork网络算法前10层网络得到的特征图,ρ、φ表示预设权重,第一次计算以特征图F作为输入得到S1,L1;最终输出中,S对应的以下18个关节点的位置:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀,右膝盖,右脚踝,左臀,左膝盖,左脚踝,右眼,左眼,右耳朵,左耳朵。
本发明实施例中,所述结合单元用于将所述第二行人检测模型检测得到的行人框,作为所述第一行人检测模型检测得到的行人框的补充。

Claims (7)

1.一种无人驾驶中行人检测方法,其特征在于,包括:
实时获取行驶车辆的行驶图像;
使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;
使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;
对比第一行人检测模型和第二行人检测模型检测到的行驶图像中行人框,若第一行人检测模型已检测到特定位置的行人,则以第一行人检测模型标出的行人框作为行人的位置;若第一行人检测模型未检测到特定位置的行人,则将第二行人检测模型检测到的行人框作为行人的位置,补充到行驶图像的对应帧中。
2.根据权利要求1所述的无人驾驶中行人检测方法,其特征在于,所述第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
3.根据权利要求2所述的无人驾驶中行人检测方法,其特征在于,所述第一行人检测模型中的Tiny-YOLO网络算法采用以下leaky ReLU函数作为激活函数:
f(x)=max(x,0.1x);
采用标注行人的训练图像、和以下损失函数E进行训练;
其中,Ecoord表示行人坐标误差、EIOU表示交并比误差、Eclass表示分类误差。
4.根据权利要求1所述的无人驾驶中行人检测方法,其特征在于,所述使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框,包括:
使用所述第二行人检测模型中的OpenPose骨骼识别算法查询行驶图像中行人的骨骼。
5.根据权利要求4所述的无人驾驶中行人检测方法,其特征在于,所述使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框,包括:
采用以下公式计算行人的骨骼:
其中,L表示矢量场,S表示行人的关节点在矢量场中的位置,F是经过pre-trainnetwork网络算法前10层网络得到的特征图,ρ、φ表示预设权重,第一次计算以特征图F作为输入得到S1,L1;最终输出中,S对应的以下18个关节点的位置:鼻子,脖子,右肩,右肘,右手腕,左肩,左肘,左手腕,右臀,右膝盖,右脚踝,左臀,左膝盖,左脚踝,右眼,左眼,右耳朵,左耳朵。
6.一种无人驾驶中行人检测装置,其特征在于,包括:图像单元、第一检测单元、第二检测单元和结合单元,其中:
所述图像单元,用于实时获取行驶车辆的行驶图像;
所述第一检测单元,用于使用第一行人检测模型从所述行驶图像中查询存在行人的行人框;使用所述第一行人检测模型中的非极大值抑制算法,从所述行驶图像中查询置信度最高的行人框;将置信度最高的行人框作为初始框,依次计算与初始框相邻的行人框的交并比,若交并比大于预设阈值,则排除对应的行人框;
所述第二检测单元,用于使用第二行人检测模型从所述行驶图像中查询行人的骨骼,通过行人的骨骼确定对应的行人框;
所述结合单元,用于对比第一行人检测模型和第二行人检测模型检测到的行驶图像中行人框,若第一行人检测模型已检测到特定位置的行人,则以第一行人检测模型标出的行人框作为行人的位置;若第一行人检测模型未检测到特定位置的行人,则将第二行人检测模型检测到的行人框作为行人的位置,补充到行驶图像的对应帧中。
7.根据权利要求6所述的无人驾驶中行人检测装置,其特征在于,所述第一检测单元,还用于采用的第一行人检测模型包括输入图像的分辨率为608*288、1*1卷积核,以及第四层到第六层卷积层分别为3*3卷积层、1*1卷积层、3*3卷积层的Tiny-YOLO网络算法。
CN201911201329.3A 2019-11-29 2019-11-29 无人驾驶中行人检测方法、装置 Active CN111160103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911201329.3A CN111160103B (zh) 2019-11-29 2019-11-29 无人驾驶中行人检测方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911201329.3A CN111160103B (zh) 2019-11-29 2019-11-29 无人驾驶中行人检测方法、装置

Publications (2)

Publication Number Publication Date
CN111160103A CN111160103A (zh) 2020-05-15
CN111160103B true CN111160103B (zh) 2024-04-23

Family

ID=70556219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911201329.3A Active CN111160103B (zh) 2019-11-29 2019-11-29 无人驾驶中行人检测方法、装置

Country Status (1)

Country Link
CN (1) CN111160103B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009466A (zh) * 2016-10-28 2018-05-08 北京旷视科技有限公司 行人检测方法和装置
CN108985186A (zh) * 2018-06-27 2018-12-11 武汉理工大学 一种基于改进YOLOv2的无人驾驶中行人检测方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009466A (zh) * 2016-10-28 2018-05-08 北京旷视科技有限公司 行人检测方法和装置
CN108985186A (zh) * 2018-06-27 2018-12-11 武汉理工大学 一种基于改进YOLOv2的无人驾驶中行人检测方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Cao Zhe 等.OpenPose: Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields.《IEEE Transactions on Pattern Analysis and Machine Intelligence》.2019,第43卷(第1期),第172-186页. *
Joseph Redmon 等.You Only Look Once: Unified, Real-Time Object Detection.《IEEE Conference on Computer Vision and Pattern Recognition》.2016,第779-788页. *
陈聪 等.一种改进的卷积神经网络行人识别方法.《应用科技》.2018,第46卷(第3期),第51-57页. *

Also Published As

Publication number Publication date
CN111160103A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN110837778B (zh) 一种基于骨架关节点序列的交警指挥手势识别方法
WO2022036777A1 (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
Gosala et al. Bird’s-eye-view panoptic segmentation using monocular frontal view images
CN114220176A (zh) 一种基于深度学习的人体行为的识别方法
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
CN109117701A (zh) 基于图卷积的行人意图识别方法
CN109934848A (zh) 一种基于深度学习的运动物体精准定位的方法
CN111709410B (zh) 一种强动态视频的行为识别方法
CN111914642B (zh) 一种行人重识别方法、装置、设备及介质
CN104601964A (zh) 非重叠视域跨摄像机室内行人目标跟踪方法及系统
CN111832484B (zh) 一种基于卷积感知哈希算法的回环检测方法
CN107833239B (zh) 一种基于加权模型约束的寻优匹配目标跟踪方法
CN107491720A (zh) 一种基于改进型卷积神经网络的车型识别方法
JP7422456B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109255783B (zh) 一种多人图像上的人体骨骼关键点的位置排布检测方法
CN112215185B (zh) 一种从监控视频中检测跌倒行为的系统及方法
CN112395951A (zh) 一种面向复杂场景的域适应交通目标检测与识别方法
CN109919137B (zh) 一种行人结构化特征表达方法
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN114693983B (zh) 基于图像-实例对齐网络的训练方法和跨域目标检测方法
CN109492588A (zh) 一种基于人工智能的快速车辆检测与分类方法
CN111881802A (zh) 基于双分支时空图卷积网络的交警手势识别方法
CN114067128A (zh) 一种基于语义特征的slam回环检测方法
CN111160103B (zh) 无人驾驶中行人检测方法、装置
Li et al. Study of face orientation recognition based on neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant