CN108647617A - 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 - Google Patents

一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 Download PDF

Info

Publication number
CN108647617A
CN108647617A CN201810407369.2A CN201810407369A CN108647617A CN 108647617 A CN108647617 A CN 108647617A CN 201810407369 A CN201810407369 A CN 201810407369A CN 108647617 A CN108647617 A CN 108647617A
Authority
CN
China
Prior art keywords
hand
classification
skin
detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810407369.2A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201810407369.2A priority Critical patent/CN108647617A/zh
Publication of CN108647617A publication Critical patent/CN108647617A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明中提出的一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其主要内容包括:手部检测和像素级皮肤分类、局部手部提取、对象抓握或无抓握分类,其过程为,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。本发明提出的像素级皮肤分类器,因不用在整个图像空间中搜索皮肤区域而节省了计算量,同时能够实时处理各种相机视点、光照变化、遮挡问题,即使在照明的变化很大且频繁的情况下,也能准确识别手部姿势。

Description

一种基于卷积神经网络的驾驶员手部定位和抓握分析方法
技术领域
本发明涉及手部检测领域,尤其是涉及了一种基于卷积神经网络的驾驶员手部定位和抓握分析方法。
背景技术
手部检测和手势识别是人机交互和机器人应用的一个重要且具有良好前景的研究问题,其在体育运动领域、安全保卫领域、交通安全驾驶领域都有重要的应用。近年来,基于手部姿势检测和抓握分析的安全驾驶,因其实用性越来越受到人们的关注。通过在驾驶舱内安装摄像头获取驾驶员的行车姿势和手部状态(手部是否位于头部中下部及手部姿态是否为抓握状)的图像,共同判断驾驶员是否有抓握方向盘、是否抓握手机回复消息或打电话、是否在吃东西以及其他可能对安全驾驶造成威胁的行为,从而提高行车安全。这种方法还可用于交通部门对于驾驶员行车途中打电话、玩手机等违规行为进行取证,作为处罚依据。然而由于在行车过程中照明很大且频繁、阴天、雨天或夜间光线不足等的情况可能会对手部的准确检测带来巨大的挑战。
本发明提出了一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。本发明提出的像素级皮肤分类器,因不用在整个图像空间中搜索皮肤区域而节省了计算量,同时能够实时处理各种相机视点、光照变化、遮挡问题,即使在照明的变化很大且频繁的情况下,也能准确识别手部姿势。
发明内容
针对在行车过程中照明很大且频繁、阴天、雨天或夜间光线不足等问题,本发明的目的在于提供一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。
为解决上述问题,本发明提供一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其主要内容包括:
(一)手部检测和像素级皮肤分类;
(二)局部手部提取;
(三)对象抓握或无抓握分类。
其中,所述的手部检测和像素级皮肤分类,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
进一步地,所述的手部检测数据集,手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
其中,所述的局部手部提取,包括生成手部检测建议和细化检测建议。
进一步地,所述的生成手部检测建议,使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
进一步地,所述的细化检测建议,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
其中,所述的对象抓握或无抓握分类,对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
进一步地,所述的分类,将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
进一步地,所述的方向梯度直方图(HOG),使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
进一步地,所述的SVM分类器,SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,…,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
Φ(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
附图说明
图1是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的系统流程图。
图2是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的生成手部检测建议。
图3是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的对象抓握或无抓握分类。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的系统流程图。主要包括手部检测和像素级皮肤分类,局部手部提取,对象抓握或无抓握分类。
手部检测和像素级皮肤分类,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
局部手部提取包括生成手部检测建议和细化检测建议。
细化检测建议,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
图2是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的生成手部检测建议。使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
图3是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的对象抓握或无抓握分类。(a)为手部检测结果,(b)为基于像素的皮肤检测器检测结果;(c)为掩码手部描述符;(d)为掩码HOG描述符(调整大小)。
对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,…,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
Φ(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其特征在于,主要包括手部检测和像素级皮肤分类(一);局部手部提取(二);对象抓握或无抓握分类(三)。
2.基于权利要求书1所述的手部检测和像素级皮肤分类(一),其特征在于,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
3.基于权利要求书2所述的手部检测数据集,其特征在于,手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
4.基于权利要求书1所述的局部手部提取(二),其特征在于,包括生成手部检测建议和细化检测建议。
5.基于权利要求书4所述的生成手部检测建议,其特征在于,使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
6.基于权利要求书4所述的细化检测建议,其特征在于,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
7.基于权利要求书1所述的对象抓握或无抓握分类(三),其特征在于,对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
8.基于权利要求书7所述的分类,其特征在于,将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
9.基于权利要求书7所述的方向梯度直方图(HOG),其特征在于,使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
10.基于权利要求书9所述的SVM分类器,其特征在于,SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,...,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
中(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
CN201810407369.2A 2018-05-02 2018-05-02 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 Withdrawn CN108647617A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810407369.2A CN108647617A (zh) 2018-05-02 2018-05-02 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810407369.2A CN108647617A (zh) 2018-05-02 2018-05-02 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法

Publications (1)

Publication Number Publication Date
CN108647617A true CN108647617A (zh) 2018-10-12

Family

ID=63748435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810407369.2A Withdrawn CN108647617A (zh) 2018-05-02 2018-05-02 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法

Country Status (1)

Country Link
CN (1) CN108647617A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948476A (zh) * 2019-03-06 2019-06-28 南京七奇智能科技有限公司 一种基于计算机视觉的人脸皮肤检测系统及其实现方法
CN110008834A (zh) * 2019-02-28 2019-07-12 中电海康集团有限公司 一种基于视觉的方向盘干预检测与统计方法
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
CN110163161A (zh) * 2019-05-24 2019-08-23 西安电子科技大学 基于尺度不变的多特征融合行人检测方法
CN110852233A (zh) * 2019-11-05 2020-02-28 上海眼控科技股份有限公司 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统
CN112766115A (zh) * 2021-01-08 2021-05-07 广州紫为云科技有限公司 基于交通出行场景违章智能的分析方法、系统及存储介质
CN113139452A (zh) * 2021-04-19 2021-07-20 中国人民解放军91054部队 基于目标检测的使用手机行为的检测方法
CN114495073A (zh) * 2022-01-29 2022-05-13 上海商汤临港智能科技有限公司 方向盘脱手检测方法及装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034851A (zh) * 2012-12-24 2013-04-10 清华大学深圳研究生院 自学习的基于肤色模型的手部跟踪装置及方法
CN106934355A (zh) * 2017-02-28 2017-07-07 西交利物浦大学 基于深度卷积神经网络的车内手检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103034851A (zh) * 2012-12-24 2013-04-10 清华大学深圳研究生院 自学习的基于肤色模型的手部跟踪装置及方法
CN106934355A (zh) * 2017-02-28 2017-07-07 西交利物浦大学 基于深度卷积神经网络的车内手检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SIDDHARTH ET.AL: ""Driver Hand Localization and Grasp Analysis: A Vision-based Real-time Approach"", 《2016 IEEE 19TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008834A (zh) * 2019-02-28 2019-07-12 中电海康集团有限公司 一种基于视觉的方向盘干预检测与统计方法
CN109948476A (zh) * 2019-03-06 2019-06-28 南京七奇智能科技有限公司 一种基于计算机视觉的人脸皮肤检测系统及其实现方法
CN109948476B (zh) * 2019-03-06 2022-12-13 南京七奇智能科技有限公司 一种基于计算机视觉的人脸皮肤检测系统及其实现方法
CN110163161A (zh) * 2019-05-24 2019-08-23 西安电子科技大学 基于尺度不变的多特征融合行人检测方法
CN110135398A (zh) * 2019-05-28 2019-08-16 厦门瑞为信息技术有限公司 基于计算机视觉的双手脱离方向盘检测方法
CN110852233A (zh) * 2019-11-05 2020-02-28 上海眼控科技股份有限公司 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统
CN112766115A (zh) * 2021-01-08 2021-05-07 广州紫为云科技有限公司 基于交通出行场景违章智能的分析方法、系统及存储介质
CN112766115B (zh) * 2021-01-08 2022-04-22 广州紫为云科技有限公司 基于交通出行场景违章智能的分析方法、系统及存储介质
CN113139452A (zh) * 2021-04-19 2021-07-20 中国人民解放军91054部队 基于目标检测的使用手机行为的检测方法
CN114495073A (zh) * 2022-01-29 2022-05-13 上海商汤临港智能科技有限公司 方向盘脱手检测方法及装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN108647617A (zh) 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法
Zhou et al. Safety helmet detection based on YOLOv5
Mistry et al. An automatic detection of helmeted and non-helmeted motorcyclist with license plate extraction using convolutional neural network
CN104298969B (zh) 基于颜色与haar特征融合的人群规模统计方法
CN106682641A (zh) 基于fhog‑lbph特征的图像行人识别方法
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
Sugiharto et al. Traffic sign detection based on HOG and PHOG using binary SVM and k-NN
Meng et al. An extended HOG model: SCHOG for human hand detection
CN106909883A (zh) 一种基于ros的模块化手部区域检测方法和装置
Hu et al. Depth sensor based human detection for indoor surveillance
Kataoka et al. Fine-grained walking activity recognition via driving recorder dataset
Li et al. Color based multiple people tracking
Feng et al. Real-time ROI acquisition for unsupervised and touch-less palmprint
Boonsim Racing bib number localization on complex backgrounds
Ghadiri et al. Carried object detection based on an ensemble of contour exemplars
Silva et al. Automatic motorcycle detection on public roads
Hu et al. Fast face detection based on skin color segmentation using single chrominance Cr
US20200034649A1 (en) Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method
Deshmukh et al. Real-time traffic sign recognition system based on colour image segmentation
Zhang et al. Gesture recognition using enhanced depth motion map and static pose map
Xia et al. Plant leaf recognition using histograms of oriented gradients
CN109359565A (zh) 一种道路减速带检测方法及系统
Eldho et al. YOLO based Logo detection
Shebiah et al. Classification of human body parts using histogram of oriented gradients
Hordern et al. Robust and efficient people detection with 3-d range data using shape matching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20181012

WW01 Invention patent application withdrawn after publication