CN109409215A - 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 - Google Patents
基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 Download PDFInfo
- Publication number
- CN109409215A CN109409215A CN201811073595.8A CN201811073595A CN109409215A CN 109409215 A CN109409215 A CN 109409215A CN 201811073595 A CN201811073595 A CN 201811073595A CN 109409215 A CN109409215 A CN 109409215A
- Authority
- CN
- China
- Prior art keywords
- lane
- human body
- convolutional neural
- neural networks
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及行车录像视频监控预警领域,特别是基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,该方法首先训练卷积神经网络模型,包括:创建司乘人员在车前伸出半遮挡人体的数据集,对数据集的图像进行标注,创建同车道或近车道车前半遮挡人体伸出的检测模型及对齐模型,对模型分别使用mAP和欧拉损失进行衡量,测试模型的泛化能力,得到训练好的卷积神经网络模型;然后利用卷积神经网络模型对车辆前方的视频数据流进行计算输出,实时识别同车道或近车道车前半遮挡人体伸出的危险图像。本发明对前方车辆是否有司乘人员所伸出的手、脚、头等部位进行检测,具有较好的鲁棒性和准确率。
Description
技术领域
本发明涉及行车录像视频监控预警领域,特别是基于深度卷积神经网络的前方车辆伸出头、手、脚等半遮挡人体的检测方法。
背景技术
近年来,随着科技和经济水平的不断增长,汽车保有量持续上升,人们的自我保护意识却还普遍淡薄,有相当大部分司机或者是乘客曾有过在停止或者是行驶的过程中突然往车窗探出自己的头、手、脚等部分的经历,其安全隐患非常大。
有人提出了针对车道上,前方车辆是否有司乘人员伸出了头、手或者脚出来的检测方案,以提高汽车驾驶的安全性。其中最简单的模式是基于皮肤颜色的检测,然而,其本身并不是可靠的方法,因为一些其他人体部位(例如面部和手臂)可能是相同的肤色,并不能够准确确定这是前方车辆上司乘人员的脚还是头、手探出来,并且皮肤颜色模型通常对照明变化敏感。
经典的基于维奥拉和琼斯(Viola and Jones)的面部检测方案通常用于手检测方法,虽然在人脸检测也有效,但哈尔特征(Haar-like)不够强大到足以实现复杂且高度清晰的目标检测,比如说手检测。梯度直方图等特征,如颜色直方图,已经被广泛地研究用于对象检测。尽管实现了目标检测的改进,但是由于在无约束条件下,手外观变化巨大,运用梯度直方图特征的方法性能,比如说准确率和识别的帧率方面仍然不令人满意。
为了解决目标检测中的特征表示的瓶颈问题,有希望的解决方案是利用多通道特征(channel features),并且该方案已经在行人检测方面取得了令人瞩目的成果。聚集通道特征方法(Aggregated Channel Features(ACF))是通道特征方法的一种变体,其在目标检测任务中取得较好效果。
尽管如此,手、脚、头检测仍然是计算机视觉中最具挑战性的问题之一,这是由于与手有关的特征检测存在许多特殊困难。与其他通常研究的对象(例如面部和行人)相比,图像中手的外观变化通常大得多,因为手的形状可能由于手指、脚等关节或者是视点的变化而显著改变,手在与其他对象(例如驱动器)交互时容易处于完全或者是部分遮挡的情况,并且复杂的背景使得手的检测更难。
总体上,目标对象检测的现有方法,特别是手检测所应遵循的滑动窗口框架,其通病在于计算复杂,尤其当目标大小变化大的时候,其计算复杂度以几何倍数增长,难以做到实时检测的目的,而且其对要检测物体的定位不够准确。另一方面,所利用的特征都是人工设计的,其与用于检测器训练的分类算法分离。从系统设计的角度来看,这显然是次优的。
最近,卷积神经网络(Convolutional Neural Networks(CNN))已经在图像识别和其他相关任务中被广泛地研究,通常具有最先进的性能。设计适当的卷积神经网络模型可以学习图像的不变特征,并且基于深度卷积神经网络的对象检测通常是针对特征表示和分类两者联合优化的端对端系统(end-to-end),本发明因此而来。
发明内容
针对上述现有技术所存在的技术问题,本发明提出基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,对前方车辆是否有司乘人员所伸出的手、脚、头等部位进行检测,具有较好的鲁棒性和准确率。
本发明采用如下技术方案来实现:基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,包括以下步骤:
(一)、进行卷积神经网络模型的训练,包括:
S1-1、创建司乘人员在车前伸出半遮挡人体的数据集,将数据集划分为训练集、测试集和验证集;
S1-2、进行图像数据的预处理工作,对训练集、测试集和验证集中的图像进行标注;
S1-3、重构同车道或近车道车前半遮挡人体伸出的检测数据库,构建ImageNet及YOLO v3检测框架的联合数据库以对训练集进行分类学习,进而创建预训练模型,预训练模型包括同车道或近车道车前半遮挡人体伸出的检测模型及对齐模型;
S1-4、对于同车道或近车道车前半遮挡人体伸出的检测模型,使用mAP进行衡量;
S1-5、对于同车道或近车道车前半遮挡人体伸出的对齐模型,使用欧拉损失进行衡量;
S1-6、使用所述测试集测试所述预训练模型的泛化能力,得到训练好的卷积神经网络模型;
(二)、在车辆行驶时,训练好的卷积神经网络模型对车辆前方的视频数据流进行卷积神经网络计算的输出,实时识别同车道或近车道车前半遮挡人体伸出的危险图像。
与现有技术相比,本发明具有如下优点及有益效果:采用YOLO v3算法,对前方车辆是否有司乘人员所伸出的手、脚、头等部位进行检测;而YOLO v3属于卷积神经网络CNN,由卷积层、池化层和全连接层组成,与CNN不同的是,YOLO v3的输出层不再是softmax函数,而是张量(Tensor);提高了同车道或近车道上,车前手、脚、头等部位伸出的检测模型的鲁棒性和准确率。
附图说明
图1是本发明的检测流程图。
具体实施方式
下面将结合附图和实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例基于卷积神经网络CNN,能对同车道或近车道上的前方车辆司乘人员的手、脚、头等部位是否伸出车外进行检测,其中卷积神经网络CNN选用YOLO v3,检测过程包括以下步骤:
S1、进行卷积神经网络模型的训练,具体包括如下步骤:
S1-1、创建司乘人员在车前伸出头、手、脚等半遮挡人体的数据集,在BDD-100K开源行车数据库上随机挑选具有光照变化、尺度变化和场景变化的同车道或相近车道车前手、脚、头等部位伸出的图像,同时将这些图像进行适当的拉伸、裁剪、遮挡、调节RGB色彩通道来扩充数据量,并将这些手、脚、头等部位伸出的图像的70%划分为训练集、20%划分为测试集和剩下的10%划分为验证集。
所述训练集用来建立预训练模型,所述测试集用来测试所述预训练模型同车道或近车道前车的司乘人员将手、脚、头等部位伸出识别的泛化能力,所述验证集用来控制所述预训练模型的参数,如增大batch以减少nan的出现、修改classes类别数、修改最后一层卷积层核参数个数filters、修改权值衰减weight decay、修改最大迭代次数max_batches、改动学习率learning rate等等。本步骤扩充了训练的图像样本,防止图像样本过少导致的过拟合问题。
S1-2、进行图像数据的预处理工作,对训练集、测试集和验证集中的图像进行标注。
YOLO v3的数据包括训练数据(也叫训练集)、测试数据(也叫测试集)和验证数据(也叫验证集),训练数据用来训练模型,测试数据用来测试模型,验证数据用来调整模型。其中的训练数据、测试数据和验证数据都包括:a.图片;b.标签。
对训练集、测试集和验证集中的图像进行标注,即收集图像上同车道或相近车道前车司乘人员将头、手、脚伸出来的坐标信息(x,y,w,h)和同车道或相近车道车前头、手、脚伸出关键点的坐标信息(xi,yi);其中(x,y)代表同车道或相近车道车前头、手、脚等身体部位在图像上的坐标,(w,h)代表同车道或相近车道车前头、手、脚等身体部位在图像上的宽度和高度,其中有:
归一化的中心点x坐标计算公式:((x2+x1)/2.0)/w;
归一化的中心点y坐标计算公式:((y2+y1)/2.0)/h;
归一化的目标框宽度的计算公式:(x2-x1)/w;
归一化的目标框高度计算公式:(y2-y1)/h;
在测试集和验证集中进行图像标注的预处理可以帮助衡量训练集在完成预训练后图像标注的正确率。
S1-3、重构同车道或近车道车前手、脚、头等部位伸出的检测数据库,构建ImageNet及YOLO v3检测框架的联合数据库以对训练集进行分类学习进而创建预训练模型。
预训练模型包括同车道或相近车道车前手、脚、头等部位伸出的检测模型,以及同车道或相近车道车前手、脚、头等部位伸出的对齐模型。通过ImageNet创建预训练模型中的同车道或相近车道车前手、脚、头等部位伸出的检测模型,并通过YOLO v3检测框架创建预训练模型中的同车道或相近车道车前手、脚、头等部位伸出的对齐模型,并通过损失函数来提高所述同车道或相近车道车前手、脚、头等部位伸出检测模型的鲁棒性。
所述损失函数采用logistic回归损失函数,公式为:
YOLO v3检测框架将整个图像划分为s*s个网格单元(grid cell),每个网格单元回归n个图像边框(bounding boxes),每个图像边框都包含5个预测值:x、y、w、h和置信度confidence,其中(x,y)作为图像边框的中心坐标,与网格单元对齐(即相对于当前网格单元的偏移值),使得范围变成0到1;w和h进行归一化(分别除以图像的w和h,这样最后的w和h就在0到1范围)。而每个图像边框对应置信度回归(对应损失函数中的confidence loss)、位置回归(对应损失函数中的location loss)、关键点回归(对应损失函数中的alignedloss),此处的关键点有:
手部有7个关键点(拇指、中指、尾指、手心、手腕关节处、肘部弯曲位置、肱二头肌);
头部有6个关键点(眼睛、鼻子、嘴巴、耳朵、额头中心点);
脚部有5个关键点(脚腕、脚趾、脚掌中心、脚背、膝盖)。
因此总共回归s*s*(B*5+C),其中s*s为切割图像的网格数,B为网格内检测边界框数(Detected Bounding Box),C为需要检测的类别。因此上述损失函数包含了训练集的位置回归、置信度回归和关键点回归,通过调节置信度、位置以及关键点损失的权重,使得模型收敛,提高模型的鲁棒性。
YOLO v3对每个图像边框通过逻辑回归预测一个物体的得分,如果预测的这个图像边框与真实的边框值大部分重合且比其他所有预测的要好,那么这个值就为1;如果重合部分(overlap)没有达到一个阈值(这里YOLO v3中设定的阈值是0.5),那么这个预测的图像边框将会被忽略,也就是会显示成没有损失值。
S1-4、对于同车道或近车道车前手、脚、头等部位伸出的检测模型,使用mAP进行衡量。
mAP是衡量同车道或近车道车前手、脚、头等部位伸出检测中同车道或近车道车前手、脚、头等部位伸出的位置准确度的一个指标。通过设定不同的IOU值来计算出同车道或近车道车前手、脚、头等部位伸出检测的准确率和查全率,从而计算得到mAP,即是衡量同车道或近车道车前手、脚、头等部位在图像上的坐标信息(x,y,w,h)的准确率。其中IOU值的计算公式为:
式中,BBgt为基于训练标签的参考标准框(Ground Trurh Box);BBdt为检测边界框;area()表示面积。
S1-5、对于同车道或近车道车前手、脚、头等部位伸出的对齐模型,使用欧拉损失进行衡量,即是衡量同车道或近车道车前手、脚、头等部位伸出关键点的坐标信息(xi,yi)的准确率。
这样通过验证集的衡量,可以相应地调整预训练模型的相关参数,提高同车道或近车道车前手、脚、头等部位伸出的检测模型和同车道或近车道车前手、脚、头等部位伸出的对齐模型的检测准确率和对齐准确率。
S1-6、进行性能的测试,使用所述测试集测试所述预训练模型的泛化能力,获得训练好的卷积神经网络模型。
根据YOLO v3的检测框架反馈得到的边框位置,以及计算类别百分比的概率的实际情况来进行预训练模型参数的调整,得到训练好的卷积神经网络模型。
其中边框位置的得到方法:首先将图片划分为s*s网格(在一定程度上,s的数值越大,物体定位越准确),然后同时检测每个网格,若网格存在待测物体,则可得到每个网格物体中心点位置(x,y)和物体的宽w及高h,从而准确地确定了边框的位置。
类百分比可以通过交并比得到,所谓交并比就是说人为标注的这类图像边框与机器预测的这类图像边框的交集和它们并集的百分比。
参数的调整,包括增大batch以减少nan的出现,修改learning_rate,修改最大迭代次数max_batches来使Loss函数减小,同时要防止过拟合现象的发生,修改最后一层卷积层核参数个数filters、修改权值衰减weight decay、改动学习率learning rate等等,以达到更好的匹配效果,例如提高同车道或近车道车前手、脚、头等部位伸出的检测准确率。
S2、将训练好的卷积神经网络模型利用USB数据线导入处理器中,连接上车载摄像头和扬声器。
S3、在车辆行驶时,车载摄像头实时地将车辆前方的视频数据流传送给处理器,由处理器中的卷积神经网络模型进行卷积神经网络计算的输出,用处理器中的opencv可视化函数库可以实时识别同车道或近车道车前手、脚、头等部位伸出的危险图像,然后立刻调用扬声器进行实时的预警。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,包括以下步骤:
(一)、进行卷积神经网络模型的训练,包括:
S1-1、创建司乘人员在车前伸出半遮挡人体的数据集,将数据集划分为训练集、测试集和验证集;
S1-2、进行图像数据的预处理工作,对训练集、测试集和验证集中的图像进行标注;
S1-3、重构同车道或近车道车前半遮挡人体伸出的检测数据库,构建ImageNet及YOLOv3检测框架的联合数据库以对训练集进行分类学习,进而创建预训练模型,预训练模型包括同车道或近车道车前半遮挡人体伸出的检测模型及对齐模型;
S1-4、对于同车道或近车道车前半遮挡人体伸出的检测模型,使用mAP进行衡量;
S1-5、对于同车道或近车道车前半遮挡人体伸出的对齐模型,使用欧拉损失进行衡量;
S1-6、使用所述测试集测试所述预训练模型的泛化能力,得到训练好的卷积神经网络模型;
(二)、在车辆行驶时,训练好的卷积神经网络模型对车辆前方的视频数据流进行卷积神经网络计算的输出,实时识别同车道或近车道车前半遮挡人体伸出的危险图像。
2.根据权利要求1所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,步骤S1-2中,对训练集、测试集和验证集中的图像进行标注为:收集图像上同车道或近车道车前半遮挡人体伸出来的坐标信息(x,y,w,h)和同车道或近车道车前半遮挡人体伸出关键点的坐标信息(xi,yi);其中(x,y)代表同车道或近车道车前半遮挡人体的身体部位在图像上的坐标,(w,h)代表同车道或近车道车前半遮挡人体的身体部位在图像上的宽度和高度。
3.根据权利要求2所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,步骤S1-3中,通过ImageNet创建同车道或近车道车前半遮挡人体伸出的检测模型,并通过YOLO v3检测框架创建同车道或近车道车前半遮挡人体伸出的对齐模型,并通过损失函数来提高同车道或近车道车前半遮挡人体伸出的检测模型的鲁棒性。
4.根据权利要求3所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,所述损失函数采用logistic回归损失函数。
5.根据权利要求3所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,所述YOLO v3检测框架将整个图像划分为s*s个网格单元,每个网格单元回归n个图像边框,每个图像边框都包含5个预测值:x、y、w、h和置信度confidence,其中(x,y)作为图像边框的中心坐标,与网格单元对齐;而每个图像边框对应置信度回归、位置回归、关键点回归。
6.根据权利要求5所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,所述关键点包括:手部7个关键点,分别为拇指、中指、尾指、手心、手腕关节处、肘部弯曲位置及肱二头肌;头部6个关键点,分别为眼睛、鼻子、嘴巴、耳朵及额头中心点;脚部5个关键点,分别为脚腕、脚趾、脚掌中心、脚背及膝盖。
7.根据权利要求1所述的基于深度卷积神经网络的前方车辆半遮挡人体的检测方法,其特征在于,步骤(二)包括:
S2、将训练好的卷积神经网络模型导入处理器中,连接上车载摄像头;
S3、在车辆行驶时,车载摄像头实时地将车辆前方的视频数据流传送给处理器,由处理器中的卷积神经网络模型进行卷积神经网络计算的输出,用处理器中的opencv可视化函数库实时识别同车道或近车道车前半遮挡人体伸出的危险图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811073595.8A CN109409215A (zh) | 2018-09-14 | 2018-09-14 | 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811073595.8A CN109409215A (zh) | 2018-09-14 | 2018-09-14 | 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109409215A true CN109409215A (zh) | 2019-03-01 |
Family
ID=65464943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811073595.8A Pending CN109409215A (zh) | 2018-09-14 | 2018-09-14 | 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109409215A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977875A (zh) * | 2019-03-28 | 2019-07-05 | 北京易达图灵科技有限公司 | 基于深度学习的手势识别方法及设备 |
CN110011727A (zh) * | 2019-04-09 | 2019-07-12 | 浩鲸云计算科技股份有限公司 | 一种面向odf设备端口的检测系统 |
CN110775057A (zh) * | 2019-08-29 | 2020-02-11 | 浙江零跑科技有限公司 | 基于车载盲区视觉场景分析控制转向扭矩的车道辅助方法 |
CN111931823A (zh) * | 2020-07-16 | 2020-11-13 | 平安科技(深圳)有限公司 | 一种细粒度图像分类模型处理方法和装置 |
CN112263217A (zh) * | 2020-08-27 | 2021-01-26 | 上海大学 | 一种基于改进卷积神经网络的非黑素瘤皮肤癌病理图像病变区域检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090244570A1 (en) * | 2008-03-27 | 2009-10-01 | Seiko Epson Corporation | Face image-output control device, method of controlling output of face image, program for controlling output of face image, and printing device |
CN106652672A (zh) * | 2016-11-21 | 2017-05-10 | 公安部道路交通安全研究中心 | 用于驾驶考试的驾驶人头部伸出车窗的检测方法和系统 |
CN107292222A (zh) * | 2016-04-01 | 2017-10-24 | 杭州海康威视数字技术股份有限公司 | 一种车辆违章检测方法及装置 |
CN107358223A (zh) * | 2017-08-16 | 2017-11-17 | 上海荷福人工智能科技(集团)有限公司 | 一种基于yolo的人脸检测与人脸对齐方法 |
-
2018
- 2018-09-14 CN CN201811073595.8A patent/CN109409215A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090244570A1 (en) * | 2008-03-27 | 2009-10-01 | Seiko Epson Corporation | Face image-output control device, method of controlling output of face image, program for controlling output of face image, and printing device |
CN107292222A (zh) * | 2016-04-01 | 2017-10-24 | 杭州海康威视数字技术股份有限公司 | 一种车辆违章检测方法及装置 |
CN106652672A (zh) * | 2016-11-21 | 2017-05-10 | 公安部道路交通安全研究中心 | 用于驾驶考试的驾驶人头部伸出车窗的检测方法和系统 |
CN107358223A (zh) * | 2017-08-16 | 2017-11-17 | 上海荷福人工智能科技(集团)有限公司 | 一种基于yolo的人脸检测与人脸对齐方法 |
Non-Patent Citations (1)
Title |
---|
黎小龙: "基于人工神经网络模型的工程索赔研究", <<中国优秀硕士学位论文全文数据库 信息科技辑>> * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977875A (zh) * | 2019-03-28 | 2019-07-05 | 北京易达图灵科技有限公司 | 基于深度学习的手势识别方法及设备 |
CN110011727A (zh) * | 2019-04-09 | 2019-07-12 | 浩鲸云计算科技股份有限公司 | 一种面向odf设备端口的检测系统 |
CN110775057A (zh) * | 2019-08-29 | 2020-02-11 | 浙江零跑科技有限公司 | 基于车载盲区视觉场景分析控制转向扭矩的车道辅助方法 |
CN111931823A (zh) * | 2020-07-16 | 2020-11-13 | 平安科技(深圳)有限公司 | 一种细粒度图像分类模型处理方法和装置 |
CN112263217A (zh) * | 2020-08-27 | 2021-01-26 | 上海大学 | 一种基于改进卷积神经网络的非黑素瘤皮肤癌病理图像病变区域检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409215A (zh) | 基于深度卷积神经网络的前方车辆半遮挡人体的检测方法 | |
CN107168527B (zh) | 基于区域卷积神经网络的第一视角手势识别与交互方法 | |
CN106250867B (zh) | 一种基于深度数据的人体骨骼跟踪系统的实现方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN109684933A (zh) | 一种前方行人窜出马路的预警方法 | |
CN106951840A (zh) | 一种人脸特征点检测方法 | |
CN103810491B (zh) | 融合深度和灰度图像特征点的头姿估计兴趣点检测方法 | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN104123549B (zh) | 一种用于疲劳驾驶实时监测的眼睛定位方法 | |
CN105844663A (zh) | 一种自适应orb目标跟踪方法 | |
de San Roman et al. | Saliency driven object recognition in egocentric videos with deep CNN: toward application in assistance to neuroprostheses | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN103761519A (zh) | 一种基于自适应校准的非接触式视线追踪方法 | |
CN108734086A (zh) | 基于眼部区域生成网络的眨眼频率和视线估计方法 | |
CN109334563A (zh) | 一种基于道路前方行人和骑行者的防碰撞预警方法 | |
CN103390152A (zh) | 基于sopc的适合人机交互的视线跟踪系统 | |
CN107180228A (zh) | 一种用于车道线检测的梯度增强转换方法及系统 | |
CN106599785A (zh) | 人体3d特征身份信息库的建立方法及设备 | |
CN106611158A (zh) | 人体3d特征信息的获取方法及设备 | |
CN114419659A (zh) | 一种复杂场景下的安全帽佩戴检测方法 | |
CN101539989A (zh) | 基于人脸检测的错误阅读姿势检测方法 | |
CN101645135A (zh) | 一种人体检测方法和系统 | |
CN104573722A (zh) | 基于三维点云的三维人脸种族分类装置和方法 | |
CN112052829B (zh) | 一种基于深度学习的飞行员行为监控方法 | |
Pandey et al. | Dumodds: Dual modeling approach for drowsiness detection based on spatial and spatio-temporal features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190301 |