CN108647617A - 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 - Google Patents
一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 Download PDFInfo
- Publication number
- CN108647617A CN108647617A CN201810407369.2A CN201810407369A CN108647617A CN 108647617 A CN108647617 A CN 108647617A CN 201810407369 A CN201810407369 A CN 201810407369A CN 108647617 A CN108647617 A CN 108647617A
- Authority
- CN
- China
- Prior art keywords
- hand
- classification
- skin
- detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其主要内容包括:手部检测和像素级皮肤分类、局部手部提取、对象抓握或无抓握分类,其过程为,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。本发明提出的像素级皮肤分类器,因不用在整个图像空间中搜索皮肤区域而节省了计算量,同时能够实时处理各种相机视点、光照变化、遮挡问题,即使在照明的变化很大且频繁的情况下,也能准确识别手部姿势。
Description
技术领域
本发明涉及手部检测领域,尤其是涉及了一种基于卷积神经网络的驾驶员手部定位和抓握分析方法。
背景技术
手部检测和手势识别是人机交互和机器人应用的一个重要且具有良好前景的研究问题,其在体育运动领域、安全保卫领域、交通安全驾驶领域都有重要的应用。近年来,基于手部姿势检测和抓握分析的安全驾驶,因其实用性越来越受到人们的关注。通过在驾驶舱内安装摄像头获取驾驶员的行车姿势和手部状态(手部是否位于头部中下部及手部姿态是否为抓握状)的图像,共同判断驾驶员是否有抓握方向盘、是否抓握手机回复消息或打电话、是否在吃东西以及其他可能对安全驾驶造成威胁的行为,从而提高行车安全。这种方法还可用于交通部门对于驾驶员行车途中打电话、玩手机等违规行为进行取证,作为处罚依据。然而由于在行车过程中照明很大且频繁、阴天、雨天或夜间光线不足等的情况可能会对手部的准确检测带来巨大的挑战。
本发明提出了一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。本发明提出的像素级皮肤分类器,因不用在整个图像空间中搜索皮肤区域而节省了计算量,同时能够实时处理各种相机视点、光照变化、遮挡问题,即使在照明的变化很大且频繁的情况下,也能准确识别手部姿势。
发明内容
针对在行车过程中照明很大且频繁、阴天、雨天或夜间光线不足等问题,本发明的目的在于提供一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,先检测图像中的候选手部区域,利用像素级皮肤分类器对检测结果进行手部区域细分,然后使用基于梯度直方图的128维尺度不变特征变换描述符捕获局部轮廓,对皮肤或非皮肤进行分类,接着从检测中提取特征,最后在手部实例上执行像素级分类(是否抓握方向盘或手机)。
为解决上述问题,本发明提供一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其主要内容包括:
(一)手部检测和像素级皮肤分类;
(二)局部手部提取;
(三)对象抓握或无抓握分类。
其中,所述的手部检测和像素级皮肤分类,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
进一步地,所述的手部检测数据集,手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
其中,所述的局部手部提取,包括生成手部检测建议和细化检测建议。
进一步地,所述的生成手部检测建议,使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
进一步地,所述的细化检测建议,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
其中,所述的对象抓握或无抓握分类,对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
进一步地,所述的分类,将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
进一步地,所述的方向梯度直方图(HOG),使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
进一步地,所述的SVM分类器,SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,…,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
Φ(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
附图说明
图1是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的系统流程图。
图2是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的生成手部检测建议。
图3是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的对象抓握或无抓握分类。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的系统流程图。主要包括手部检测和像素级皮肤分类,局部手部提取,对象抓握或无抓握分类。
手部检测和像素级皮肤分类,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
局部手部提取包括生成手部检测建议和细化检测建议。
细化检测建议,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
图2是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的生成手部检测建议。使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
图3是本发明一种基于卷积神经网络的驾驶员手部定位和抓握分析方法的对象抓握或无抓握分类。(a)为手部检测结果,(b)为基于像素的皮肤检测器检测结果;(c)为掩码手部描述符;(d)为掩码HOG描述符(调整大小)。
对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,…,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
Φ(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于卷积神经网络的驾驶员手部定位和抓握分析方法,其特征在于,主要包括手部检测和像素级皮肤分类(一);局部手部提取(二);对象抓握或无抓握分类(三)。
2.基于权利要求书1所述的手部检测和像素级皮肤分类(一),其特征在于,首先检测图像中的候选手部区域,然后利用像素级皮肤分类器对检测结果进行手部区域细分,从而细化检测结果;本方法使用了基于梯度直方图的128维尺度不变特征变换(SIFT)描述符来捕获局部轮廓以进行分类(皮肤或非皮肤);由于自然驾驶过程中照明变化迅速且变化很大,因此将10个光照模型分组,通过全局颜色直方图进行索引,以通过对每个训练图像的HSV(色调、饱和度、亮度)直方图进行k均值聚类来学习其全局照明;学习每个集群的单独随机树回归器;具有相似全局外观的手部将在特征空间中共享相似的分布并将聚集在一起;手部检测器使用手部检测数据集进行评估。
3.基于权利要求书2所述的手部检测数据集,其特征在于,手部检测数据集包括许多不同的摄像机视点拍摄的自然驾驶图像;手部实例分为L1和L2两部分进行评估;L1手部实例的最小高度为70像素,仅来自肩部(后部)相机视图;L2手部实例较小,最小高度为25像素,由所有相机视图中的手部实例组成;该数据集包含5500个用于训练的图像和5500个用于测试的图像,其中包含具有不同图像尺寸的图像。
4.基于权利要求书1所述的局部手部提取(二),其特征在于,包括生成手部检测建议和细化检测建议。
5.基于权利要求书4所述的生成手部检测建议,其特征在于,使用深度卷积神经网络来检测图像中的手;使用Pascal VOC数据集预先训练的权重来训练数据集;使用24个卷积层,然后是2个全连接层,用于训练网络,学习率为0.0005,动量为0.9,丢失率为0.5;选择高于一定置信度阈值的检测点作进一步处理,从而通过在所有检测中不搜索皮肤区域来节省计算时间;然后使用非最大抑制(NMS)和基于置信度分数进行筛选以得到最终检测结果。
6.基于权利要求书4所述的细化检测建议,其特征在于,虽然网络速度非常快,但是局部特征较差;使用局部和全局外观特征对检测框内的皮肤或非皮肤区域进行细粒度分类;当检测到内部没有检测到皮肤部分时,去除这些误报结果。
7.基于权利要求书1所述的对象抓握或无抓握分类(三),其特征在于,对于驾驶员手部的图像,通过上述程序获得手部掩码,并在遮蔽它们之后使用局部手部区域;在提取特征之前从检测中移除所有附近的背景;然后将所有检测的大小调整为128×128像素,这是根据数据集中的驾驶员手形实例估计的大小;使用方向梯度直方图(HOG)描述符来掩盖图像,以从手部区域提取定向梯度特征。
8.基于权利要求书7所述的分类,其特征在于,将抓握分类问题评估为量类,包括抓握方向盘的正类别和无抓握方向盘的负类别;首先,从检测中提取基于HOG的特征,然后在手部实例上执行像素级分类以从掩码手部图像中提取HOG特征;接着从图像中提取有用的信息。
9.基于权利要求书7所述的方向梯度直方图(HOG),其特征在于,使用以下HOG模板参数:8×8单元、8×8步幅、16×16块和9个梯度定向框;由于已经在之前处理过手部区域检测,所以使用大块尺寸来降低抑制局部照明变化的能力;HOG特征向量减少到30,只使用主成分分析(PCA)提供的信息量最大的特征;然后,使用基于支持向量机(SVM)分类器进行训练以处理两类问题,将数据集划分为80-20比率以进行训练和测试;使用线性内核来训练支持十倍交叉验证的SVM分类器。
10.基于权利要求书9所述的SVM分类器,其特征在于,SVM分类器的原理为:设线性可分样本集和为(xi,yi),i=1,...,n,x∈Rd,y∈{+1,-1}是类别标号,则w·x+b=0;
在分类时,为了使分类面对所有样本正确分类且分类间隔达到最大,需要满足下面两个条件:
中(x)=min(wTw) (1)
yi(w·xi+b)-1≥0 (2)
通过解此约束优化问题就可以得到最优分类面,而过两类样本中离分类面最近的点且平行于最优分类面的超平面上的训练样本就是使得公式中等号成立的那些特殊样本,因为它们支撑了最优分类面,因此被称为支撑向量;将融合输出作为特征向量输入到SVM分类器之中,获得最终分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810407369.2A CN108647617A (zh) | 2018-05-02 | 2018-05-02 | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810407369.2A CN108647617A (zh) | 2018-05-02 | 2018-05-02 | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108647617A true CN108647617A (zh) | 2018-10-12 |
Family
ID=63748435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810407369.2A Withdrawn CN108647617A (zh) | 2018-05-02 | 2018-05-02 | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647617A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948476A (zh) * | 2019-03-06 | 2019-06-28 | 南京七奇智能科技有限公司 | 一种基于计算机视觉的人脸皮肤检测系统及其实现方法 |
CN110008834A (zh) * | 2019-02-28 | 2019-07-12 | 中电海康集团有限公司 | 一种基于视觉的方向盘干预检测与统计方法 |
CN110135398A (zh) * | 2019-05-28 | 2019-08-16 | 厦门瑞为信息技术有限公司 | 基于计算机视觉的双手脱离方向盘检测方法 |
CN110163161A (zh) * | 2019-05-24 | 2019-08-23 | 西安电子科技大学 | 基于尺度不变的多特征融合行人检测方法 |
CN110852233A (zh) * | 2019-11-05 | 2020-02-28 | 上海眼控科技股份有限公司 | 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统 |
CN112766115A (zh) * | 2021-01-08 | 2021-05-07 | 广州紫为云科技有限公司 | 基于交通出行场景违章智能的分析方法、系统及存储介质 |
CN113139452A (zh) * | 2021-04-19 | 2021-07-20 | 中国人民解放军91054部队 | 基于目标检测的使用手机行为的检测方法 |
CN114495073A (zh) * | 2022-01-29 | 2022-05-13 | 上海商汤临港智能科技有限公司 | 方向盘脱手检测方法及装置、电子设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103034851A (zh) * | 2012-12-24 | 2013-04-10 | 清华大学深圳研究生院 | 自学习的基于肤色模型的手部跟踪装置及方法 |
CN106934355A (zh) * | 2017-02-28 | 2017-07-07 | 西交利物浦大学 | 基于深度卷积神经网络的车内手检测方法 |
-
2018
- 2018-05-02 CN CN201810407369.2A patent/CN108647617A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103034851A (zh) * | 2012-12-24 | 2013-04-10 | 清华大学深圳研究生院 | 自学习的基于肤色模型的手部跟踪装置及方法 |
CN106934355A (zh) * | 2017-02-28 | 2017-07-07 | 西交利物浦大学 | 基于深度卷积神经网络的车内手检测方法 |
Non-Patent Citations (1)
Title |
---|
SIDDHARTH ET.AL: ""Driver Hand Localization and Grasp Analysis: A Vision-based Real-time Approach"", 《2016 IEEE 19TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC)》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008834A (zh) * | 2019-02-28 | 2019-07-12 | 中电海康集团有限公司 | 一种基于视觉的方向盘干预检测与统计方法 |
CN109948476A (zh) * | 2019-03-06 | 2019-06-28 | 南京七奇智能科技有限公司 | 一种基于计算机视觉的人脸皮肤检测系统及其实现方法 |
CN109948476B (zh) * | 2019-03-06 | 2022-12-13 | 南京七奇智能科技有限公司 | 一种基于计算机视觉的人脸皮肤检测系统及其实现方法 |
CN110163161A (zh) * | 2019-05-24 | 2019-08-23 | 西安电子科技大学 | 基于尺度不变的多特征融合行人检测方法 |
CN110135398A (zh) * | 2019-05-28 | 2019-08-16 | 厦门瑞为信息技术有限公司 | 基于计算机视觉的双手脱离方向盘检测方法 |
CN110852233A (zh) * | 2019-11-05 | 2020-02-28 | 上海眼控科技股份有限公司 | 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统 |
CN112766115A (zh) * | 2021-01-08 | 2021-05-07 | 广州紫为云科技有限公司 | 基于交通出行场景违章智能的分析方法、系统及存储介质 |
CN112766115B (zh) * | 2021-01-08 | 2022-04-22 | 广州紫为云科技有限公司 | 基于交通出行场景违章智能的分析方法、系统及存储介质 |
CN113139452A (zh) * | 2021-04-19 | 2021-07-20 | 中国人民解放军91054部队 | 基于目标检测的使用手机行为的检测方法 |
CN114495073A (zh) * | 2022-01-29 | 2022-05-13 | 上海商汤临港智能科技有限公司 | 方向盘脱手检测方法及装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647617A (zh) | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 | |
Zhou et al. | Safety helmet detection based on YOLOv5 | |
Mistry et al. | An automatic detection of helmeted and non-helmeted motorcyclist with license plate extraction using convolutional neural network | |
CN104298969B (zh) | 基于颜色与haar特征融合的人群规模统计方法 | |
CN106682641A (zh) | 基于fhog‑lbph特征的图像行人识别方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
Sugiharto et al. | Traffic sign detection based on HOG and PHOG using binary SVM and k-NN | |
Meng et al. | An extended HOG model: SCHOG for human hand detection | |
CN106909883A (zh) | 一种基于ros的模块化手部区域检测方法和装置 | |
Hu et al. | Depth sensor based human detection for indoor surveillance | |
Kataoka et al. | Fine-grained walking activity recognition via driving recorder dataset | |
Li et al. | Color based multiple people tracking | |
Feng et al. | Real-time ROI acquisition for unsupervised and touch-less palmprint | |
Boonsim | Racing bib number localization on complex backgrounds | |
Ghadiri et al. | Carried object detection based on an ensemble of contour exemplars | |
Silva et al. | Automatic motorcycle detection on public roads | |
Hu et al. | Fast face detection based on skin color segmentation using single chrominance Cr | |
US20200034649A1 (en) | Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method | |
Deshmukh et al. | Real-time traffic sign recognition system based on colour image segmentation | |
Zhang et al. | Gesture recognition using enhanced depth motion map and static pose map | |
Xia et al. | Plant leaf recognition using histograms of oriented gradients | |
CN109359565A (zh) | 一种道路减速带检测方法及系统 | |
Eldho et al. | YOLO based Logo detection | |
Shebiah et al. | Classification of human body parts using histogram of oriented gradients | |
Hordern et al. | Robust and efficient people detection with 3-d range data using shape matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20181012 |
|
WW01 | Invention patent application withdrawn after publication |