CN112069988A - 一种基于枪球联动的驾驶员安全驾驶行为检测方法 - Google Patents

一种基于枪球联动的驾驶员安全驾驶行为检测方法 Download PDF

Info

Publication number
CN112069988A
CN112069988A CN202010920370.2A CN202010920370A CN112069988A CN 112069988 A CN112069988 A CN 112069988A CN 202010920370 A CN202010920370 A CN 202010920370A CN 112069988 A CN112069988 A CN 112069988A
Authority
CN
China
Prior art keywords
head
key point
key points
tail
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010920370.2A
Other languages
English (en)
Inventor
徐尔灵
钟竞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010920370.2A priority Critical patent/CN112069988A/zh
Publication of CN112069988A publication Critical patent/CN112069988A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于枪球联动的驾驶员安全驾驶行为检测方法。建立监控区域的CIM,在监控区域设置一个枪机和若干个可旋转的球机,枪机获取监控区域原始图像,检测人的头部关键点、车头尾关键点和车身亲和矢量场,匹配出每个车的车头尾关键点,输出车身矢量场图。将头部关键点图、车身矢量场图和车头尾关键点热力图叠加并投影到CIM地面平面上。根据头部关键点与各个车的车头尾关键点、车头尾关键点连线所在直线的位置关系,筛选出候选头部关键点。使用球机对每个候选头部关键点对应的候选人进行拍摄,检测人体关键点并得到人的骨架图,根据人骨架图的动作筛选出驾驶员。检测驾驶员鞋子类型,判断是否符合交通安全规定。

Description

一种基于枪球联动的驾驶员安全驾驶行为检测方法
技术领域
本申请涉及视频监控和神经网络领域,具体涉及一种基于枪球联动的驾驶员安全驾驶行为检测方法。
背景技术
目前,私家车普及率越来越高,交通安全问题也越来越受人们的关注。一些驾驶员穿着不符合要求的鞋子驾驶车辆,对自己和他人的安全都造成了威胁。当汽车在行驶过程中,穿高跟鞋的驾驶员,遇到紧急情况下踩刹车时,脚掌对刹车的压力不足,会来不及刹车;穿拖鞋的驾驶员,遇到紧急情况下,由于拖鞋没有后脚跟的阻力,脚面滑动导致脚掌对刹车的压力不足,也会来不及刹车。因此,在驾驶员驾驶车辆行驶前,提醒乘客穿着符合要求的鞋子,可以有效地避免造成交通事故发生。
目前对于驾驶员穿着鞋子是否符合要求的检测方法主要是在车内安装识别装置进行识别,2019年8月30日公开的CN110182132A中提供了一种车辆驾驶安全提醒方法、系统及电子设备,此发明提供了一种检测驾驶员鞋子类型的方法和系统:在汽车启动后,通过特定的摄像头,结合驾驶员鞋子图像分类和鞋底压力分布数据,分析出驾驶员穿的鞋子类型,对穿鞋不符合要求的驾驶员发出警告,提示驾驶员换鞋。这种方法需要在每个车内安装相关的传感器和报警设备,成本偏高;并且在车启动后再检测驾驶员穿鞋是否规范,驾驶员可能来不及换鞋。
发明内容
针对以上问题,本发明提出一种基于枪球联动的驾驶员安全驾驶行为检测方法。建立监控区域的CIM,在监控区域设置一个枪机和若干个可旋转的球机,枪机获取监控区域原始图像,检测人的头部关键点、车头尾关键点和车身亲和矢量场,匹配出每个车的车头尾关键点,输出车身矢量场图。将头部关键点图、车身矢量场图和车头尾关键点热力图叠加并投影到CIM地面平面上。根据头部关键点与各个车的车头尾关键点、车头尾关键点连线所在直线的位置关系,筛选出候选头部关键点。使用球机对每个候选头部关键点对应的候选人进行拍摄,检测人体关键点并得到人的骨架图,根据人骨架图的动作筛选出驾驶员。检测驾驶员鞋子类型,判断是否符合交通安全规定。
一种基于枪球联动的驾驶员安全驾驶行为检测方法,其特征在于,该方法包括:
步骤S1:建立监控区域的CIM;在监控区域设置一个位姿固定的枪机和若干个位置固定且可以旋转视角的球机;枪机拍摄监控区域的图像,输出监控区域原始图像;将监控区域原始图像输入训练好的头部关键点检测网络,检测人的头部关键点,输出头部关键点热力图;将监控区域原始图像输入训练好的车头尾关键点检测网络,检测出车头尾关键点,输出车头尾关键点热力图;将监控区域原始图像输入训练好的车身检测网络,检测车身,输出车身亲和矢量场;计算车身亲和矢量场上的线积分,获得各个车头尾关键点之间的连接权重值,使用匹配算法,以图中总权重值最大为目标匹配车头尾关键点,为每个车头关键点匹配一个车尾关键点,输出车身矢量场图;
步骤S2:将头部关键点热力图、车身矢量场图和车头尾关键点热力图叠加在一起并根据枪机的参数投影到CIM地面平面上,得到CIM地面平面上的监控区域俯视图;计算CIM地面平面上监控区域俯视图中每个头部关键点的坐标,根据头部关键点与各个车的车头尾关键点、车头尾关键点连线所在直线的位置关系,从所有头部关键点中筛选出候选头部关键点;选择距离候选头部关键点最近的球机,旋转一定角度使它的光轴经过候选头部关键点,且候选头部在球机拍摄图像的中心,令球机拍摄图像,输出候选人原始图像;
步骤S3:将候选人图像输入训练好的人体关键点检测网络,检测人体关键点,并输出人体关键点热力图;将每一种肢体两端的人体关键点连接起来,输出候选人的骨架图;检测连续多帧候选人的骨架图,根据候选人骨架的位置和动作变化判断候选人是否为驾驶员,筛选出驾驶员并令球机拍摄驾驶员并输出球机拍摄的驾驶员原始图像;
步骤S4:将驾驶员原始图像输入训练好的鞋子检测网络,检测驾驶员鞋子类型,输出鞋子类型;通过WebGIS将CIM可视化。
所述头部关键点检测网络的训练方法步骤包括:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;人工标注出人的头部关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
所述车头尾关键点检测网络的训练方法包括:采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;人工标注出车头关键点和车尾关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述车身检测网络的训练方法包括:采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;根据经验将每个车的车头尾关键点用具有一定宽度的线连接起来,将连线作为车身;在车身包含的所有像素上标注从车尾关键点指向车头关键点方向的单位向量,生成标注数据;采用均方误差损失函数进行车身检测网络的训练。
所述判断头部关键点是否为候选头部关键点的方法包括:计算头部关键点坐标,设头部关键点到车头关键点的向量为
Figure BDA0002666523980000021
从车尾关键点到车头关键点的向量为
Figure BDA0002666523980000022
Figure BDA0002666523980000023
Figure BDA0002666523980000024
叉乘后得到的向量
Figure BDA0002666523980000025
为垂直CIM地面平面向上的方向,头部关键点到车头尾关键点连线所在直线的距离小于一定阈值,头部关键点到车头关键点距离小于或等于到车尾关键点距离时,判定该头部关键点为候选头部关键点。
所述人体关键点检测网络的训练方法包括:采用球机拍摄的若干帧候选人图像作为训练数据集;人工标注出候选人图像中人的头部、左右髋骨连线中点、左脚背和右脚背关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
所述判断候选人是否为驾驶员的方法包括:当候选人的骨架接近车身,且上身肢体高度降低时,可以判定候选人为驾驶员。
所述鞋子检测网络的训练方法包括:用球机拍摄的若干帧驾驶员图像作为训练数据集;人工标注出鞋子类型,生成标注数据;使用交叉熵损失函数对鞋子检测网络进行训练。
本发明和现有技术相比有如下有益效果:
(1)使用枪球联动的方法获取图像,可以获取很大范围内的整体图像和小范围内的细节图像,不用在每个车内安装拍摄装置,降低了成本。
(2)使用多种判据联合筛选候选人和驾驶员,能准确地判断出候选人和驾驶员。
(3)使用神经网络进行识别的任务,提高了识别的准确率和识别的速度。
附图说明
图1为方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一:
本发明的主要目的是实现远距离的驾驶员鞋子类型检测。
为了实现本发明所述内容,本发明设计了一种基于枪球联动的驾驶员安全驾驶行为检测方法,方法流程图如图1所示。
首先建立监控区域的CIM。
CIM(City Information Modeling)即城市信息模型,是以城市的信息数据为基础,建立起三维城市空间模型和城市信息的有机综合体。从数据类型上讲是由大场景的GIS数据+BIM数据构成,属于智慧城市建设的基础数据。它可以承载监控区域的图像、关键点的位置等信息。
在监控区域设置枪机(枪形摄像机)和球机(球形摄像机)。枪机视场角范围大、监视范围广、位姿不能自动变化,适合大范围内的广泛拍摄;球机视场角小、监视范围小、可以根据系统的指令旋转光轴进行拍摄、而且可以自动聚焦,适合小范围内的精准拍摄。一个枪机和若干个球机通过协同联动可以很好地应对复杂的监控场景。
本发明将枪机部署在交通信号灯附近,以斜俯视的视角拍摄监控区域,一个枪机的拍摄范围就能覆盖整个监控区域。再部署若干个球机,球机位置是固定的,但视角可旋转。所有球机拍摄的范围合起来应能覆盖枪机拍摄的范围。
枪机拍摄监控区域,获取图像,并对图像进行预处理,其方法是多样且公知的,本发明不对预处理方法进行限制,实施者可根据实际情况选择合适的方法。本实施例中使用高斯滤波降低图像噪声,并进行归一化处理,便于后续神经网络训练时更好地收敛。最后输出监控区域原始图像。
训练头部关键点检测网络,训练步骤如下:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;人工标注出人的头部关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
训练车头尾关键点检测网络,训练步骤如下:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;人工标注出车头关键点和车尾关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
训练车身检测网络的,训练步骤如下:采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;根据经验将每个车的车头尾关键点用具有一定宽度的线连接起来,将连线作为车身;在车身包含的所有像素上标注从车尾关键点指向车头关键点方向的单位向量,生成标注数据;采用均方误差损失函数进行车身检测网络的训练。
将监控区域原始图像输入训练好的头部关键点检测网络,检测出人的头部关键点,输出头部关键点热力图。
将监控区域原始图像输入训练好的车头尾关键点检测网络,检测出车头尾关键点,输出车头尾关键点热力图。
将监控区域原始图像输入训练好的车身检测网络,检测车身,输出车身亲和矢量场。
结合车头尾关键点热力图和车身亲和矢量场,匹配出每个车的车头尾关键点。计算车身亲和矢量场上的线积分,获得各个车头尾关键点之间的连接权重值,权重值越大表示这两个关键的之间关联性越强。使用匹配算法,以图中总权重值最大为目标匹配车头和车尾关键点,为每个车头关键点匹配一个车尾关键点,输出车身矢量场图。需要说明的是,匹配算法是多样且公知的,本发明不对具体选用的匹配算法做出限制。
根据枪机的参数得出单应性矩阵,相机的参数包括内参和外参,单应性矩阵是用来表示物体在枪机坐标系和CIM地面平面坐标系之间的位置映射关系的。根据枪机的内参外参即可得出将监控区域原始图像以俯视视角投影到CIM地面平面所用第一单应性矩阵。
将头部关键点热力图、车身矢量场图和车头尾关键点热力图叠加在一起,这两种图像都是监控区域原始图像处理后得出来的,所以可以使用第一单应性矩阵将叠加后的图像投影到CIM地面平面上,得到CIM地面平面上的监控区域俯视图。
判断头部关键点是否为候选头部关键点,以判断一个车的候选头部关键点为例:在CIM里设置原点和x轴y轴z轴,建立CIM空间坐标系,其中原点应在CIM地面平面上且z轴正方向垂直于CIM地面平面向上。计算CIM里头部关键点和车头尾关键点的坐标。设其中一个头部关键点为a,其中一个车的车头关键点为b,车尾关键点尾为c,作从a到b的向量
Figure BDA0002666523980000041
从c到b的向量
Figure BDA0002666523980000042
计算
Figure BDA0002666523980000043
得到向量
Figure BDA0002666523980000044
当向量
Figure BDA0002666523980000045
的坐标中z的值为正数时,说明头部关键点在车身左侧,继续判断每一个头部关键点是否在车身左侧,筛选出所有在车身左侧的头部关键点。
计算每个车身左侧的头部关键点到车头尾连线所在直线的垂直距离,即a点到bc连线所在直线的距离L,设置一个经验距离阈值m,当L>m时,说明该头部关键点对应的人不是驾驶员;当L≤m时,说明该头部关键点对应的人可能是驾驶员。计算每个在车身左侧的头部关键点到车身的距离,筛选出和车身距离在经验阈值内的头部关键点。
对于在车身左侧且到车身距离小于m的头部关键点,计算线段ab的长度l1、线段ac的长度l2。当l1≤l2时,可以判定头部关键点为候选头部关键点。
选择距离候选头部关键点最近的球机,旋转一定角度使球机的光轴经过候选头部关键点,且候选头部在球机拍摄图像的中心,调整焦距并进行拍摄,经过滤波处理消除噪声,再进行归一化处理,输出候选人原始图像。
训练人体关键点检测网络,其方法步骤为:采用球机拍摄的若干帧候选人图像作为训练数据集;人工标注出候选人图像中人的头部、左右髋骨连线中点、左脚背和右脚背关键点,得到标注数据;使用均方误差损失函数对网络进行训练。
将候选人图像输入训练好的人体关键点检测网络,检测人的头部、左右髋骨连线中点、左脚背和右脚背关键点,并输出人体关键点热力图。
将每一种肢体两端的人体关键点连接起来,输出候选人的骨架图,输出候选人的骨架图。
对同一个候选人采集连续多帧的骨架图进行分析,当候选人的骨架接近车身,且上身肢体高度降低时,可以判定候选人为驾驶员。令球机继续拍摄驾驶员图像,经过滤波和归一化处理后输出驾驶员原始图像。
训练鞋子检测网络,训练方法包括:用球机拍摄的若干帧驾驶员图像作为训练数据集;人工标注出鞋子的类型,生成标注数据;使用交叉熵损失函数对鞋子检测网络进行训练。
将驾驶员原始图像输入鞋子检测网络,检测驾驶员鞋子类别,输出鞋子类别判断结果。如果鞋子是高跟鞋或拖鞋,则系统判定驾驶员穿鞋不符合规定。
通过WebGIS将计算CIM地面平面上监控区域俯视图、驾驶员原始图像、鞋子检测网络检测结果等信息实时更新并在在Web上展示。交通执法人员可以在Web上直观地得到监控区域的图像和驾驶员穿鞋是否符合要求的信息,可以对穿鞋不规范的司机进行提醒。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于枪球联动的驾驶员安全驾驶行为检测方法,其特征在于,该方法包括:
步骤S1:建立监控区域的CIM;在监控区域设置一个位姿固定的枪机和若干个位置固定且可以旋转视角的球机;枪机拍摄监控区域的图像,输出监控区域原始图像;将监控区域原始图像输入训练好的头部关键点检测网络,检测人的头部关键点,输出头部关键点热力图;将监控区域原始图像输入训练好的车头尾关键点检测网络,检测出车头尾关键点,输出车头尾关键点热力图;将监控区域原始图像输入训练好的车身检测网络,检测车身,输出车身亲和矢量场;计算车身亲和矢量场上的线积分,获得各个车头尾关键点之间的连接权重值,使用匹配算法,以图中总权重值最大为目标匹配车头尾关键点,为每个车头关键点匹配一个车尾关键点,输出车身矢量场图;
步骤S2:将头部关键点热力图、车身矢量场图和车头尾关键点热力图叠加在一起并根据枪机的参数投影到CIM地面平面上,得到CIM地面平面上的监控区域俯视图;计算CIM地面平面上监控区域俯视图中每个头部关键点的坐标,根据头部关键点与各个车的车头尾关键点、车头尾关键点连线所在直线的位置关系,从所有头部关键点中筛选出候选头部关键点;选择距离候选头部关键点最近的球机,旋转一定角度使它的光轴经过候选头部关键点,且候选头部在球机拍摄图像的中心,令球机拍摄图像,输出候选人原始图像;
步骤S3:将候选人图像输入训练好的人体关键点检测网络,检测人体关键点,并输出人体关键点热力图;将每一种肢体两端的人体关键点连接起来,输出候选人的骨架图;检测连续多帧候选人的骨架图,根据候选人骨架的位置和动作变化判断候选人是否为驾驶员,筛选出驾驶员并令球机拍摄驾驶员并输出球机拍摄的驾驶员原始图像;
步骤S4:将驾驶员原始图像输入训练好的鞋子检测网络,检测驾驶员鞋子类型,输出鞋子类型;通过WebGIS将CIM可视化。
2.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述头部关键点检测网络的训练方法步骤包括:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;
人工标注出人的头部关键点,得到标注数据;
使用均方误差损失函数对网络进行训练。
3.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述车头尾关键点检测网络的训练方法包括:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;
人工标注出车头关键点和车尾关键点,得到标注数据;
使用均方误差损失函数对网络进行训练。
4.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述车身检测网络的训练方法包括:
采用枪机拍摄的若干帧监控区域原始图像作为训练数据集;
根据经验将每个车的车头尾关键点用具有一定宽度的线连接起来,将连线作为车身;
在车身包含的所有像素上标注从车尾关键点指向车头关键点方向的单位向量,生成标注数据;
采用均方误差损失函数进行车身检测网络的训练。
5.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征在于,所述判断头部关键点是否为候选头部关键点的方法包括:
计算头部关键点坐标,设头部关键点到车头关键点的向量为
Figure FDA0002666523970000021
从车尾关键点到车头关键点的向量为
Figure FDA0002666523970000022
Figure FDA0002666523970000023
Figure FDA0002666523970000024
叉乘后得到的向量
Figure FDA0002666523970000025
为垂直CIM地面平面向上的方向,头部关键点到车头尾关键点连线所在直线的距离小于经验距离阈值,头部关键点到车头关键点距离小于或等于到车尾关键点距离时,判定该头部关键点为候选头部关键点。
6.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述人体关键点检测网络的训练方法包括:
采用球机拍摄的若干帧候选人图像作为训练数据集;
人工标注出候选人图像中人的头部、左右髋骨连线中点、左脚背和右脚背关键点,得到标注数据;
使用均方误差损失函数对网络进行训练。
7.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征在于,所述判断候选人是否为驾驶员的方法包括:当候选人的骨架接近车身,且上身肢体高度降低时,可以判定候选人为驾驶员。
8.如权利要求1所述的基于枪球联动的驾驶员安全驾驶行为检测方法,其特征还在于,所述鞋子检测网络的训练方法包括:
用球机拍摄的若干帧驾驶员图像作为训练数据集;
人工标注出鞋子类型,生成标注数据;
使用交叉熵损失函数对鞋子检测网络进行训练。
CN202010920370.2A 2020-09-04 2020-09-04 一种基于枪球联动的驾驶员安全驾驶行为检测方法 Withdrawn CN112069988A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010920370.2A CN112069988A (zh) 2020-09-04 2020-09-04 一种基于枪球联动的驾驶员安全驾驶行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010920370.2A CN112069988A (zh) 2020-09-04 2020-09-04 一种基于枪球联动的驾驶员安全驾驶行为检测方法

Publications (1)

Publication Number Publication Date
CN112069988A true CN112069988A (zh) 2020-12-11

Family

ID=73665583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010920370.2A Withdrawn CN112069988A (zh) 2020-09-04 2020-09-04 一种基于枪球联动的驾驶员安全驾驶行为检测方法

Country Status (1)

Country Link
CN (1) CN112069988A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990069A (zh) * 2021-03-31 2021-06-18 新疆爱华盈通信息技术有限公司 异常驾驶行为检测方法、装置、终端及介质
CN113221751A (zh) * 2021-05-13 2021-08-06 北京百度网讯科技有限公司 关键点检测的方法、装置、设备以及存储介质
CN113569817A (zh) * 2021-09-23 2021-10-29 山东建筑大学 基于图像区域定位机制的驾驶人注意力分散检测方法
CN114419329A (zh) * 2022-03-30 2022-04-29 浙江大华技术股份有限公司 车辆载人数量检测方法及装置
CN115802160A (zh) * 2023-02-03 2023-03-14 北京润谊医疗管理顾问有限公司 一种眼底图像的智能拍摄方法及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990069A (zh) * 2021-03-31 2021-06-18 新疆爱华盈通信息技术有限公司 异常驾驶行为检测方法、装置、终端及介质
CN113221751A (zh) * 2021-05-13 2021-08-06 北京百度网讯科技有限公司 关键点检测的方法、装置、设备以及存储介质
CN113221751B (zh) * 2021-05-13 2024-01-12 北京百度网讯科技有限公司 关键点检测的方法、装置、设备以及存储介质
CN113569817A (zh) * 2021-09-23 2021-10-29 山东建筑大学 基于图像区域定位机制的驾驶人注意力分散检测方法
CN114419329A (zh) * 2022-03-30 2022-04-29 浙江大华技术股份有限公司 车辆载人数量检测方法及装置
CN115802160A (zh) * 2023-02-03 2023-03-14 北京润谊医疗管理顾问有限公司 一种眼底图像的智能拍摄方法及系统
CN115802160B (zh) * 2023-02-03 2023-04-11 北京润谊医疗管理顾问有限公司 一种眼底图像的智能拍摄方法及系统

Similar Documents

Publication Publication Date Title
CN112069988A (zh) 一种基于枪球联动的驾驶员安全驾驶行为检测方法
KR101808587B1 (ko) 객체인식과 추적감시 및 이상상황 감지기술을 이용한 지능형 통합감시관제시스템
CN108596277B (zh) 一种车辆身份识别方法、装置和存储介质
CN111898514B (zh) 一种基于目标检测与动作识别的多目标视觉监管方法
CN110717414A (zh) 一种目标检测追踪方法、装置及设备
JP4860749B2 (ja) 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法
RU2431190C2 (ru) Способ и устройство распознавания рельефности лица
US9070023B2 (en) System and method of alerting a driver that visual perception of pedestrian may be difficult
CN106709436A (zh) 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN112396658B (zh) 一种基于视频的室内人员定位方法及定位系统
KR101903127B1 (ko) 시선방향 예측 방법 및 장치
CN112149514B (zh) 一种施工作业人员的安全着装检测方法及系统
CN110232389A (zh) 一种基于绿色作物特征提取不变性的立体视觉导航方法
CN112668475A (zh) 一种人员身份识别方法、装置、设备及可读存储介质
CN109506628A (zh) 一种基于深度学习的卡车环境下目标物测距方法
CN112287827A (zh) 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及系统
CN113435336B (zh) 一种基于人工智能的跑步智能计时系统及方法
CN101383005A (zh) 一种利用辅助规则纹理的乘客目标图像和背景分离方法
RU2315352C2 (ru) Способ и система для автоматического обнаружения трехмерных образов
CN111881322A (zh) 一种目标搜索方法、装置、电子设备及存储介质
CN103745204A (zh) 一种基于斑痣点的体貌特征比对方法
CN114219833A (zh) 一种水上水下计算机视觉综合溺水判断系统
CN112101260A (zh) 一种作业人员安全带识别方法、装置、设备和存储介质
Czyzewski et al. Moving object detection and tracking for the purpose of multimodal surveillance system in urban areas

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201211

WW01 Invention patent application withdrawn after publication