CN106934355A - 基于深度卷积神经网络的车内手检测方法 - Google Patents
基于深度卷积神经网络的车内手检测方法 Download PDFInfo
- Publication number
- CN106934355A CN106934355A CN201710113413.4A CN201710113413A CN106934355A CN 106934355 A CN106934355 A CN 106934355A CN 201710113413 A CN201710113413 A CN 201710113413A CN 106934355 A CN106934355 A CN 106934355A
- Authority
- CN
- China
- Prior art keywords
- convolutional neural
- neural networks
- preselected area
- target
- car
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度卷积神经网络的车内手检测方法,包括:采用基于聚集通道特征的Adaboost预选区域选取方法对输入图像进行处理,得到目标预选区域集合;将输入图像和目标预选区域的位置信息联合作为卷积神经网络的输入,经过卷积神经网络处理得到输入图像的特征图,将每个目标预选区域的位置信息投影到特征图,通过分割和空间金字塔池化得到固定大小的车内人手区域特征图,通过卷积神经网络的全连层得到车内人手区域特征向量;运用多任务学习策略训练卷积神经网络,使用训练好的卷积神经网络对目标进行分类和定位,得到车内手和位置。具有鲁棒性高,速度快、准确率高的特点。
Description
技术领域
本发明涉及一种车内手检测方法,具体地涉及一种基于深度卷积神经网络的车内手检测方法。
背景技术
改善道路安全是智能交通的最重要目标之一。对于未来车辆的预期增长,智能交通变得越来越迫切,而安全驾驶是最重要的问题。驾驶时手机通话增加交通事故率。对于驾驶员注意力的状态,手的位置和姿势是关键信息;相应地,如何构造强大的基于视觉的工具,自动描述实际驾驶条件下驾驶员的手运动是非常重要的。手检测不仅对基于视觉的驾驶员辅助系统来说很重要,而且对许多其它计算机视觉应用(例如人机交互)有帮助。
受到计算机视觉领域中目标检测的进展的启发,过去十年中已经提出了许多用于手检测的方法。最简单的方法是基于皮肤颜色的检测,然而,其本身不是可靠的方法,因为一些其他人体部位(例如面部和手臂)可能是相同的肤色。并且皮肤颜色模型通常对照明变化敏感。
经典的基于维奥拉和琼斯(Viola and Jones)的面部检测方案用于手检测方法,虽然在人脸检测有效,但哈尔特征(Haar-like)不够强大到足以表示复杂和高度清晰的目标,如手。梯度直方图特征,如颜色直方图,已经被广泛地研究用于对象检测。尽管实现了改进,但是由于在无约束条件下,手外观变化巨大,运用梯度直方图特征的方法性能仍然远不令人满意。
为了解决目标检测中的特征表示的瓶颈问题,有希望的解决方案是利用多通道特征(channel features),并且该方案已经在行人检测方面取得了瞩目的成果。聚集通道特征方法(Aggregated Channel Features (ACF)) 是通道特征方法的一种变体,其在目标检测任务中取得最佳效果。
尽管如此,手检测仍然是计算机视觉中最具挑战性的问题之一,这是由于与手有关的许多特殊困难。与其他通常研究的对象(例如面部和行人)相比,图像中手的外观变化通常大得多,因为手的形状可能由于手指的关节或视点的变化而显著改变。手在与其他对象(例如驱动器)交互时容易处于完全或者部分遮挡情况下。并且复杂的背景使得手的检测更难。
总体上目标对象检测的现有方法,特别是手检测遵循滑动窗口框架,其通病在于计算复杂,尤其当目标大小变化大时,其计算复杂度以几何倍数增长。另一方面,所利用的特征都是人工设计的,其与用于检测器训练的分类算法分离。从系统设计的角度来看,这显然是次优的。
最近,卷积神经网络(Convolutional Neural Networks (CNN))已经在图像识别和其他相关任务中被广泛研究,通常具有最先进的性能。适当设计的卷积神经网络模型可以学习图像的不变特征,并且基于卷积神经网络的对象检测通常是针对特征表示和分类两者联合优化的端对端系统。本发明因此而来。
发明内容
针对上述存在的技术问题,本发明的目的是提出了一种基于深度卷积神经网络的车内手检测方法。包含三个级联模块,其使用强大的卷积神经元网络模型用于从静止图像学习提取特征。在基于区域的卷积神经网络框架之后,通过利用聚集通道特征方法对象检测器来提取目标预选区域,对于每个预选区域,卷积神经元网络随后提取固定长度的特征向量。最后,多任务学习策略被用于预选区域分类和目标位置预测。具有鲁棒性高,速度快、准确率高的特点。
本发明的技术方案是:
一种基于深度卷积神经网络的车内手检测方法,包括以下步骤:
S01:采用基于聚集通道特征的Adaboost预选区域选取方法对输入图像进行处理,得到目标预选区域集合;
S02:将输入图像和目标预选区域的位置信息联合作为卷积神经网络的输入,经过卷积神经网络处理得到输入图像的特征图,将每个目标预选区域的位置信息投影到特征图,通过分割和空间金字塔池化得到固定大小的车内人手区域特征图,通过卷积神经网络的全连层得到车内人手区域特征向量;
S03:运用多任务学习策略训练卷积神经网络,使用训练好的卷积神经网络对目标进行分类和定位,得到车内手和位置。
优选的,所述基于聚集通道特征的Adaboost预选区域选取方法,包括:
对输入图像提取归一化梯度、梯度的直方图和LUV颜色通道特征;
串联堆叠归一化梯度、梯度的直方图和LUV颜色通道特征,得到特征向量,运用提升树进行分类;
采用非最大值抑制过滤重叠率较大的预选区域。
与现有技术相比,本发明的优点是:
本发明包含三个级联模块,其使用强大的卷积神经元网络模型用于从静止图像学习提取特征。在基于区域的卷积神经网络框架之后,通过利用聚集通道特征方法对象检测器来提取目标预选区域,对于每个预选区域,卷积神经元网络随后提取固定长度的特征向量。最后,多任务学习策略被用于预选区域分类和目标位置预测。具有鲁棒性高,速度快、准确率高的特点。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为本发明基于深度卷积神经网络的车内手检测方法的流程图;
图2为基于聚集通道特征的Adaboost预选区域选取方法流程图;
图3为本发明在不同的测试集上的准确率-召回率曲线。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
如图1所示,一种基于深度卷积神经网络的车内手检测方法,包括以下步骤:
S01:采用基于聚集通道特征的Adaboost预选区域选取方法对输入图像进行处理,得到目标预选区域集合;
S02:将输入图像和目标预选区域的位置信息联合作为卷积神经网络的输入,经过卷积神经网络处理得到输入图像的特征图,将每个目标预选区域的位置信息投影到特征图,通过分割和空间金字塔池化得到固定大小的车内人手区域特征图,通过卷积神经网络的全连层得到车内人手区域特征向量;
S03:运用多任务学习策略训练卷积神经网络,使用训练好的卷积神经网络对目标进行分类和定位,得到车内手和位置。
基于聚集通道特征的Adaboost预选区域选取方法
基于区域的卷积神经网络目标检测系统在分类之前使用预选区域选取算法来替代来自经典系统的滑动窗口步长。预选区域选择方法将从图片中分块挑选出类似对象的图像块,其生成许多不同的区域,希望至少有一些将包含目标。基于区域的卷积神经网络的性能极其依赖目标预选区域选择算法。如果在地面实况的附近没有区域候选,则不可能检测对象的正确包围盒,而不管卷积神经网络(CNN)的强表征学习能力。虽然卷积神经网络特征表达学习能力性能极佳,但是,如果在目标最小外接框的附近没有挑选出候选区域,则不可能检测目标的正确位置。这对于车内手检测尤其重要,因为不仅手形变很多,而且车内场景下光线等多变。因此,如何确保更高的召回率和更少数量的目标预选区对于后续目标分类和定位的准确率和运行速度至关重要。
考虑到上述因素,本发明运用基于聚集通道特征的Adaboost预选区域挑选方法。与基于目标不可知的通用区域预选框挑选方法不同,基于聚集通道特征的Adaboost预选区域选取方法期望通过学习对目标具有小偏差的多种样本来捕获更准确的目标区域。在我们提出的手检测方案中,基于聚集通道特征的Adaboost预选区域选取方法被用作第一级粗略检测模块以生成具有高检测召回率的目标预选区域集合。同时假阳性将被随后的卷积神经网络滤除。
图2示了基于聚集通道特征的Adaboost预选区域选取方法的流程,步骤如下:
输入车内图像;
提取归一化梯度,梯度的直方图和LUV颜色通道特征;
堆叠以上通道特征,得到特征向量;
运用提升树(boosted trees)分类;
运用非最大值抑制(no-max imum suppression)过滤重叠率较大的预选区域。
其中LUV色彩空间,也作CIELUV。先由红绿蓝色彩空间转换到CIE XYZ空间,再由CIE XYZ空间经简单变换得到,其中,L表示物体亮度,U和V是色度,其具有均匀色度空间和视觉统一性。
基于多任务(multi-task)卷积神经网络的目标分类和目标定位
为了提高基于区域的卷积神经网络框架运行卷积的速度,本发明采用快速基于区域的卷积神经网络框架运用多任务学习策略来训练网络,以节约计算资源和取得与基于区域的卷积神经网络的目标检测框架同等效果,以使车内手检测达到实时性能。
快速基于区域的卷积神经网络的车内手检测和定位方法,如下:
先将整个输入图像和基于聚集通道特征的Adaboost预选区域挑选的位置信息联合作为卷积神经网络的输入。卷积神经网络通过多层卷积,最大池和非线性激活处理得到整个图像的特征图。然后将每个基于聚集通道特征的Adaboost预选区域挑选的位置信息投影到特征图,通过分割,空间金字塔池化(Spatial Pyramid Pooling (SPP)),得到固定大小的感兴趣区域特征图。本发明中,感兴趣的区域也就是车内人手区域。这种输入整图和预选区域位置信息策略比基于区域卷积神经网络(RCNN)中输入预选区域图片策略的运行速度快,如果预选区域重叠越严重,那么两种策略间的速度差距就越大,因为对于这个图片而言,前者只进行了一次图片特征提起,而后者进行了多次重叠区域特征抽取。最后,本发明运用多任务学习策略,同时分类目标和定位目标。系统化的流程描述如下:
输入整图和基于聚集通道特征的Adaboost预选区域挑选的位置信息;
卷积神经网络对整图进行特征提取;
将每个基于聚集通道特征的Adaboost预选区域挑选的位置信息投影到2)中得到的特征图;
通过分割,空间金字塔池化(Spatial Pyramid Pooling (SPP)),得到固定大小的感兴趣区域特征图;
通过全连层中的全连操作,非线性变化操作得到感兴趣区域特征向量;
运用多任务学习策略,同时分类目标和定位目标。
本发明以视觉智能车辆及应用(the Vision for Intelligent Vehicles andApplications (VIVA))手检测数据库进行测试来验证本发明算法的有效性。测试集可以进一步分为两部分:L1(Level-1(L1))测试集和L2(Level-2(L2)) 测试集。L1测试集仅包含单个角度和较大实例(高度超过70像素),而L2测试集包括多个角度的图像以及大于25像素高度的实例,显而易见,L2测试集是一个更难的挑战。我们将针对不用测试集来呈现试验结果。接下来,按照图1所示的流程图,逐步给出具体实施例参数与具体实施例结果。详细描述如下:
1.基于聚集通道特征的Adaboost预选区域挑选方法的具体实施例参数值和具体实施例结果
依照图2所示的流程图,以召回率作为度量,本发明方法中具体实施案例的最优参数组如下:
提升树高度为2;
非最大值抑制阈值为0.8;
依照提升树计算得到的置信度由高到低排列,取前150个手预选区域。
为了寻找最优解参数组,本发明测试了一组提升树高度和不同预选区域数量,权衡了计算复杂度和计算时间,预选区域数量被设置为150。
基于多任务卷积神经网络的目标分类和目标定位的具体实施例参数值
依照图1所示的流程图,以召回率作为度量,本发明方法中具体实施案例的最优参数组如下:
1、采用经典的快速的基于区域的卷积神经网络的检测器(Fast RCNN)
2、卷积神经网络为亚历克斯网(AlexNet)
3、固定大小的感兴趣区域提取方法为单层空间金字塔池化(SPP)
4、多任务学习策略采用平均误差法回传误差(back propagation)
5、目标分类采用柔化最大值函数(soft-max)
6、目标定位器采用逻辑斯蒂回归器法(logistic regressor)
3.基于深度卷积神经网络的车内手检测方法在VIVA手检测库的性能和部分例子
本发明方法的准确率-召回率曲线如图3所示。同时,本发明方法与如表1所示的方法进行比较,得到了令人满意的结果。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (2)
1.一种基于深度卷积神经网络的车内手检测方法,其特征在于,包括以下步骤:
S01:采用基于聚集通道特征的Adaboost预选区域选取方法对输入图像进行处理,得到目标预选区域集合;
S02:将输入图像和目标预选区域的位置信息联合作为卷积神经网络的输入,经过卷积神经网络处理得到输入图像的特征图,将每个目标预选区域的位置信息投影到特征图,通过分割和空间金字塔池化得到固定大小的车内人手区域特征图,通过卷积神经网络的全连层得到车内人手区域特征向量;
S03:运用多任务学习策略训练卷积神经网络,使用训练好的卷积神经网络对目标进行分类和定位,得到车内手和位置。
2.根据权利要求1所述的基于深度卷积神经网络的车内手检测方法,其特征在于,所述基于聚集通道特征的Adaboost预选区域选取方法,包括:
对输入图像提取归一化梯度、梯度的直方图和LUV颜色通道特征;
串联堆叠归一化梯度、梯度的直方图和LUV颜色通道特征得到特征向量,运用提升树进行分类;
采用非最大值抑制过滤重叠率较大的预选区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710113413.4A CN106934355A (zh) | 2017-02-28 | 2017-02-28 | 基于深度卷积神经网络的车内手检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710113413.4A CN106934355A (zh) | 2017-02-28 | 2017-02-28 | 基于深度卷积神经网络的车内手检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106934355A true CN106934355A (zh) | 2017-07-07 |
Family
ID=59423535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710113413.4A Pending CN106934355A (zh) | 2017-02-28 | 2017-02-28 | 基于深度卷积神经网络的车内手检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106934355A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945185A (zh) * | 2017-11-29 | 2018-04-20 | 北京工商大学 | 基于宽残差金字塔池化网络的图像分割方法及系统 |
CN108647617A (zh) * | 2018-05-02 | 2018-10-12 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 |
CN108898145A (zh) * | 2018-06-15 | 2018-11-27 | 西南交通大学 | 一种结合深度学习的图像显著目标检测方法 |
CN109117719A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 基于局部可变形部件模型融合特征的驾驶姿态识别方法 |
CN110188645A (zh) * | 2019-05-22 | 2019-08-30 | 北京百度网讯科技有限公司 | 用于车载场景的人脸检测方法、装置、车辆及存储介质 |
CN110928292A (zh) * | 2018-08-31 | 2020-03-27 | 罗伯特·博世有限公司 | 用于预测多个对象的停留地点的方法、设备和计算机程序 |
CN111062405A (zh) * | 2018-10-17 | 2020-04-24 | 三星电子株式会社 | 训练图像识别模型的方法和装置以及图像识别方法和装置 |
CN111797740A (zh) * | 2020-06-24 | 2020-10-20 | 北京三快在线科技有限公司 | 一种模型训练以及视觉定位方法及装置 |
CN113486718A (zh) * | 2021-06-08 | 2021-10-08 | 天津大学 | 一种基于深度多任务学习的指尖检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127108A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院软件研究所 | 一种基于卷积神经网络的人手图像区域检测方法 |
-
2017
- 2017-02-28 CN CN201710113413.4A patent/CN106934355A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127108A (zh) * | 2016-06-14 | 2016-11-16 | 中国科学院软件研究所 | 一种基于卷积神经网络的人手图像区域检测方法 |
Non-Patent Citations (3)
Title |
---|
PIOTR DOLLÁR ET AL.: "Fast Feature Pyramids for Object Detection", 《 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
ROSS GIRSHICK: "Fast R-CNN", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
陈金辉: "静态图像行人检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945185A (zh) * | 2017-11-29 | 2018-04-20 | 北京工商大学 | 基于宽残差金字塔池化网络的图像分割方法及系统 |
CN107945185B (zh) * | 2017-11-29 | 2020-02-07 | 北京工商大学 | 基于宽残差金字塔池化网络的图像分割方法及系统 |
CN108647617A (zh) * | 2018-05-02 | 2018-10-12 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法 |
CN108898145A (zh) * | 2018-06-15 | 2018-11-27 | 西南交通大学 | 一种结合深度学习的图像显著目标检测方法 |
CN109117719A (zh) * | 2018-07-02 | 2019-01-01 | 东南大学 | 基于局部可变形部件模型融合特征的驾驶姿态识别方法 |
CN109117719B (zh) * | 2018-07-02 | 2020-04-14 | 东南大学 | 基于局部可变形部件模型融合特征的驾驶姿态识别方法 |
CN110928292A (zh) * | 2018-08-31 | 2020-03-27 | 罗伯特·博世有限公司 | 用于预测多个对象的停留地点的方法、设备和计算机程序 |
CN111062405A (zh) * | 2018-10-17 | 2020-04-24 | 三星电子株式会社 | 训练图像识别模型的方法和装置以及图像识别方法和装置 |
CN110188645A (zh) * | 2019-05-22 | 2019-08-30 | 北京百度网讯科技有限公司 | 用于车载场景的人脸检测方法、装置、车辆及存储介质 |
CN111797740A (zh) * | 2020-06-24 | 2020-10-20 | 北京三快在线科技有限公司 | 一种模型训练以及视觉定位方法及装置 |
CN113486718A (zh) * | 2021-06-08 | 2021-10-08 | 天津大学 | 一种基于深度多任务学习的指尖检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106934355A (zh) | 基于深度卷积神经网络的车内手检测方法 | |
Wei et al. | Enhanced object detection with deep convolutional neural networks for advanced driving assistance | |
Sun et al. | Traffic sign detection and recognition based on convolutional neural network | |
CN104537393B (zh) | 一种基于多分辨率卷积神经网络的交通标志识别方法 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN107239736A (zh) | 基于多任务级联卷积神经网络的人脸检测方法及检测装置 | |
CN112801146B (zh) | 一种目标检测方法及系统 | |
CN106504233A (zh) | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统 | |
CN107729801A (zh) | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 | |
CN107463892A (zh) | 一种结合上下文信息和多级特征的图像中行人检测方法 | |
CN107038422A (zh) | 基于空间几何约束深度学习的疲劳状态识别方法 | |
CN107844795A (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN107808129A (zh) | 一种基于单个卷积神经网络的面部多特征点定位方法 | |
CN103390164A (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN104715244A (zh) | 一种基于肤色分割和机器学习的多视角人脸检测方法 | |
CN105760858A (zh) | 一种基于类Haar中间层滤波特征的行人检测方法及装置 | |
CN110163069A (zh) | 用于辅助驾驶的车道线检测方法 | |
CN111079675A (zh) | 基于目标检测与目标跟踪的行驶行为分析方法 | |
CN113128476A (zh) | 一种基于计算机视觉目标检测的低功耗实时头盔检测方法 | |
CN106650798A (zh) | 一种结合深度学习与稀疏表示的室内场景识别方法 | |
CN113505808B (zh) | 基于深度学习用于配电类设施开关检测识别算法 | |
CN108846344B (zh) | 一种融合深度学习的行人姿势多特征智能辨识方法 | |
CN114359578A (zh) | 病虫害识别智能终端应用方法及系统 | |
Varun et al. | A road traffic signal recognition system based on template matching employing tree classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170707 |