CN117541865B - 一种基于粗粒度深度估计的身份分析和手机使用检测方法 - Google Patents

一种基于粗粒度深度估计的身份分析和手机使用检测方法 Download PDF

Info

Publication number
CN117541865B
CN117541865B CN202311517773.2A CN202311517773A CN117541865B CN 117541865 B CN117541865 B CN 117541865B CN 202311517773 A CN202311517773 A CN 202311517773A CN 117541865 B CN117541865 B CN 117541865B
Authority
CN
China
Prior art keywords
depth
coarse
mobile phone
detection
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311517773.2A
Other languages
English (en)
Other versions
CN117541865A (zh
Inventor
贺晨
刘营
缪小然
胡建峰
赵广明
周杰
闵冰冰
高宇蒙
雅可
赵作鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanyuan Security Technology Xuzhou Co ltd
China University of Mining and Technology CUMT
Original Assignee
Yanyuan Security Technology Xuzhou Co ltd
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanyuan Security Technology Xuzhou Co ltd, China University of Mining and Technology CUMT filed Critical Yanyuan Security Technology Xuzhou Co ltd
Priority to CN202311517773.2A priority Critical patent/CN117541865B/zh
Publication of CN117541865A publication Critical patent/CN117541865A/zh
Application granted granted Critical
Publication of CN117541865B publication Critical patent/CN117541865B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于粗粒度深度估计的身份分析和手机使用检测方法,包括以下步骤:设计位置估计模型,准备数据集;将数据集输入位置估计模型中进行训练;通过训练后的模型检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份;对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机。本发明可准确区分车内人员身份,判断驾驶员是否使用手机,满足对于驾驶人员行为不同的检测需求,有助于提高驾驶的安全性。

Description

一种基于粗粒度深度估计的身份分析和手机使用检测方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于粗粒度深度估计的身份分析和手机使用检测方法。
背景技术
随着交通运输业的快速发展,相应的道路交通事故概率也呈上升趋势,故对于驾驶员的安全性和驾驶行为的监测变得至关重要。其中,不安全的驾驶行为,尤其是使用手机或其他移动设备,已成为交通事故的主要原因之一。
近年来,机器学习和深度学习技术在计算机视觉和模式识别领域显著发展。深度学习模型,特别是卷积神经网络(CNN)和其变种,已广泛用于目标检测和图像分类任务,促进驾驶行为检测方法和系统的更新发展。如公开号为CN109902560A的一种基于深度学习的疲劳驾驶预警方法,通过人脸检测技术、人眼检测技术、模板匹配技术和深度卷积神经网络检测判断驾驶员的眼睛状态变化,计算疲劳参数进行提醒。公开号为CN114220158A的基于深度学习的疲劳驾驶检测方法,通过人脸关键点定位和头部资劳估计的多任务学习的FLHPD算法,进行疲劳驾驶检测。
上述现有的驾驶姿态检测方法存在误识别的情况,即难以准确区分驾驶员和乘客,且无法判断驾驶员在驾驶过程中是否使用手机等移动设备。
发明内容
本发明的目的在于提供一种基于粗粒度深度估计的身份分析和手机使用检测方法,可实现准确区分车内人员身份,判断驾驶员是否使用手机等移动设备,满足对于驾驶员不同的不安全驾驶行为的检测需求,并提高检测结果准确性和泛化性。
为实现上述目的,本发明一种基于粗粒度深度估计的身份分析和手机使用检测方法,包括以下步骤:
S1:设计位置估计模型:以YOLOv6为基线模型,在YOLOv6的基础上设计动态权重参数模块,并增加深度信息回归分支;
S2:准备数据集,并对数据集进行标注;
S3:将数据集输入位置估计模型中,通过目标检测损失函数和深度信息损失函数训练位置估计模型;
S4:通过训练后的模型检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;
S5:对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份,身份包括驾驶员与乘客;
S6:对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机;
S7:将检测模型部署到车载终端设备,将终端设备摄像头拍摄的视频流输入位置估计模型中进行检测。
进一步,所述步骤S2具体包括以下步骤:
S21:所准备的数据集由公共数据集和公交平台采集的图像数据组成,对采集的图像数据进行标注,标注对象为人脸和使用手机动作,需要标注其类别信息、边界框信息以及[0-2]区间内的深度信息;
S22:将准备的数据集按照8:2的比例划分训练集和验证集;
S23:在训练阶段加载数据集时,使用masoic和mixup数据增强方法提高数据鲁棒性,并通过水平和垂直翻转、随机旋转、随机裁剪、变形和缩放的数据增强方式增加数据量较少的类型的样本量。
进一步,所述位置估计模型基于YOLOv6卷积神经网络框架训练得到;所述位置估计模型包括骨干网络、加强特征提取网络和深度检测头;
所述骨干网络为位置估计模型的基础架构,用于处理输入图像并提取基本的特征信息;
所述加强特征提取网络构建在骨干网络之上,用于进一步提取和增强图像中的抽象特征;
所述深度检测头,用于预测并定位目标物体,目标物体包括人脸和手机;
所述位置估计模型输出结果解码为边界回归参数和深度位置回归参数。
进一步,所述深度检测头包括分类回归分支、边界回归分支及深度信息回归分支,所述深度信息回归分支由全连接层、池化层及多个卷积层组成,通过所述深度信息回归分支用以区分车内前后座人员以及使用手机动作所在的前后排位置。
进一步,所述粗粒度深度值是指位置估计模型识别并检测出的目标物体距离摄像头距离的特征缩放,实际距离被粗粒度缩放至[0,2]区间内;位于[0,1]区间则表示目标物体距离摄像头更近,被识别为位于车内前排;位于[1,2]区间则表面目标物体距离摄像有更远,被识别为位于车内后排。
进一步,所述步骤S5包括以下步骤:
S51:根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分前排人员和后面人员,当粗粒度深度值位于[0,1]区间内则为前排人员,当粗粒度深度值位于[1,2]区间内则为后排人员;
S52:划分感兴趣区域,通过判定前排人员检测框与感兴趣区域的交并比来区分前排的驾驶员和乘客。
进一步,所述步骤S6包括以下步骤:
S61:根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分手机位于前排或后排,当粗粒度深度值位于[0,1]区间内则手机位于前排,当粗粒度深度值位于[1,2]区间内则手机位于后排;
S62:通过计算前排手机检测框中心点距驾驶员检测框中心点的欧式距离来判断驾驶员是否使用手机。
本发明的有益效果:
本发明一种基于粗粒度深度估计的身份分析和手机使用检测方法,可准确识别和区分驾驶员与乘客以及判断驾驶员是否使用手机。提出的位置估计模型利用动态权重参数和深度信息回归分支,不仅减少了计算负担,还提高了系统的性能和准确性。该模型具有高效、准确和低成本等优点,可用于各种类型的汽车和驾驶场景;有助于提高驾驶员的安全性,减少驾驶中的手机分心行为,降低交通事故的发生率。
附图说明
图1是本发明的逻辑流程图。
图2是本发明中CUDA异构并行计算示意图。
具体实施方式
以下结合附图对本发明作进一步详细的说明。
参照图1和图2,一种基于粗粒度深度估计的身份分析和手机使用检测方法,包括以下步骤:
S1:设计位置估计模型,以YOLOv6为基线模型,在YOLOv6的基础上设计动态权重重参数模块,并增加深度信息回归分支。
位置估计模型基于YOLOv6卷积神经网络框架训练得到,包括骨干网络、加强特征提取网络和深度检测头三个部分。其中,骨干网络为位置估计模型的基础架构,用于处理输入图像并提取基本的特征信息;骨干网络中使用动态权重重参数模块进行改进,使其更适用于模型段侧部署。
加强特征提取网络构建在骨干网络之上,对骨干网络中的特征进行三种不同尺度的采样操作,得到三种尺度的加强特征,即在网络低层提取轮廓特征,在网络高层中提取眼睛和嘴巴的调整,最后对多尺度的特征图在全练级诶层进行回归预测,进一步提取和增强图像中的抽象特征。
深度检测头,用于预测并定位目标物体,目标物体包括人脸和手机;深度检测头在分类回归分支和边界框回归分支的基础上添加深度信息回归分支,用来区分车内前后座人员和使用手机所在的前后排位置,避免误识别。
深度信息回归分支由多个卷积层、一个池化层和一个全连接层组成。深度信息的解码方式如下:首先将车内深度信息均分为s个阶段,即对于[0,V]的深度跨度,每个深度跨度为V/s,该段的代表性深度取u=V/s,然后对于一个s类的分类模型,取其每一类的概率与当前类的代表深度的乘积和作为最终的预测值。由于YOLOv6模型基于锚点进行预测,即对每个锚点预测边界框信息和类别信息,所以粗粒度深度估计同样以锚点为单位,即为每个锚点预测边界框信息、类别信息和深度信息。
位置估计模型输出结果解码为边界回归参数和深度位置回归参数,其中边界框回归参数由边界框回归分支得来,深度位置回归参数由深度信息回归分支得来。
S2:准备数据集,并对数据集进行标注。所准备的数据集由公共数据集和公交平台采集的图像数据组成,对采集的图像数据进行标注,标注对象为人脸和手机,需要标注其类别信息、边界框信息以及[0-2]区间内的深度信息;将准备的数据集按照8:2的比例划分训练集和验证集;在训练阶段加载数据集时,使用masoic和mixup数据增强方法提高数据鲁棒性,并通过水平和垂直翻转、随机旋转、随机裁剪、变形和缩放的数据增强方式增加数据量较少的类型的样本量,以提高模型的泛化能力。
S3:将数据集输入位置估计模型中,通过目标检测损失函数和深度信息损失函数训练位置估计模型。
S4:通过训练后的模型检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;
S5:对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份,身份包括驾驶员与乘客。具体步骤如下:
根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分前排人员和后面人员,当粗粒度深度值位于[0,1]区间内则为前排人员,当粗粒度深度值位于[1,2]区间内则为后排人员;粗粒度深度值是指位置估计模型识别并检测出的目标物体距离摄像头距离的特征缩放,实际距离被粗粒度缩放至[0,2]区间内;位于[0,1]区间则表示目标物体距离摄像头更近,被识别为位于车内前排;位于[1,2]区间则表面目标物体距离摄像有更远,被识别为位于车内后排。
划分感兴趣区域(ROI),即在机器视觉、图像处理中,从被处理的图像以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域。通过前排人员检测框与感兴趣区域的交并比(IoU)将前排的驾驶员和乘客进行区分。本实施例中,当前排人员检测框与感兴趣区域的标兵比大于0.2时,则判定为驾驶员,否则为乘客。
S6:对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机。具体步骤如下:
根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分手机位于前排或后排,当粗粒度深度值位于[0,1]区间内则手机位于前排,当粗粒度深度值位于[1,2]区间内则手机位于后排;
通过计算前排手机检测框中心点距驾驶员检测框中心点的欧式距离来判断驾驶员是否使用手机。本实施例中,当检测到前排手机检测框中心点至驾驶员检测框中心点的欧氏距离小于0.5m,则判定为使用手机状态。
S7:将模型部署于车载终端设备,将终端设备摄像头拍摄的视频流输入位置估计模型中,并输出检测结果。模型部署方法具体方法为:首先将训练好的检测模型利用Pytorch内部接口转化为ONNX模型,在TensorRT中使用解析器读取ONNX模型并构建引擎。然后调用TensorRT的C++接口以及Libtorch库实现模型后处理部分。在推理过程中应注意显存的分配,在计算时借助CUDA库将数据从CPU端搬到GPU端,在推理计算后再将数据从GPU端搬回CPU端。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (5)

1.一种基于粗粒度深度估计的身份分析和手机使用检测方法,其特征在于:包括以下步骤:
S1:设计位置估计模型,以YOLOv6为基线模型,在YOLOv6的基础上设计动态权重参数模块,并增加深度信息回归分支;
S2:准备数据集,并对数据集进行标注;
S3:将数据集输入位置估计模型中,通过目标检测损失函数和深度信息损失函数训练位置估计模型;
所述位置估计模型基于YOLOv6卷积神经网络框架训练得到;所述位置估计模型包括骨干网络、加强特征提取网络和深度检测头;
所述骨干网络为位置估计模型的基础架构,用于处理输入图像并提取基本的特征信息;
所述加强特征提取网络构建在骨干网络之上,用于进一步提取和增强图像中的抽象特征;
所述深度检测头,用于预测并定位目标物体,目标物体包括人脸和手机;
所述位置估计模型输出结果解码为边界回归参数和深度位置回归参数;
所述深度检测头包括分类回归分支、边界回归分支及深度信息回归分支,所述深度信息回归分支由全连接层、池化层及多个卷积层组成,通过所述深度信息回归分支用以区分车内前后座人员以及手机所在的前后排位置;
S4:通过训练后的模型可检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;
S5:对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份,身份包括驾驶员与乘客;
S6:对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机;
S7:将检测模型部署到车载终端设备,将终端设备摄像头拍摄的视频流输入位置估计模型中进行检测。
2.根据权利要求1所述的一种基于粗粒度深度估计的身份分析和手机使用检测方法,其特征在于:所述步骤S2具体包括以下步骤:
S21:所准备的数据集由公共数据集和公交平台采集的图像数据组成,对采集的图像数据进行标注,标注对象为人脸和使用手机动作,需要标注其类别信息、边界框信息以及[0-2]区间内的深度信息;
S22:将准备的数据集按照8:2的比例划分训练集和验证集;
S23:在训练阶段加载数据集时,使用masoic和mixup数据增强方法提高数据鲁棒性,并通过水平和垂直翻转、随机旋转、随机裁剪、变形和缩放的数据增强方式增加数据量较少的类型的样本量。
3.根据权利要求1所述的一种基于粗粒度深度估计的身份分析和手机使用检测方法,其特征在于:所述粗粒度深度值是指位置估计模型识别并检测出的目标物体距离摄像头距离的特征缩放,实际距离被粗粒度缩放至[0,2]区间内;位于[0,1]区间则表示目标物体距离摄像头更近,被识别为位于车内前排;位于[1,2]区间则表面目标物体距离摄像有更远,被识别为位于车内后排。
4.根据权利要求1所述的一种基于粗粒度深度估计的身份分析和手机使用检测方法,其特征在于:所述步骤S5包括以下步骤:
S51:根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分前排人员和后面人员,当粗粒度深度值位于[0,1]区间内则为前排人员,当粗粒度深度值位于[1,2]区间内则为后排人员;
S52:划分感兴趣区域,通过判定前排人员检测框与感兴趣区域的交并比来区分前排的驾驶员和乘客。
5.根据权利要求1所述的一种基于粗粒度深度估计的身份分析和手机使用检测方法,其特征在于:所述步骤S6包括以下步骤:
S61:根据位置估计模型输出结果解码出的粗粒度深度值所在区间区分手机位于前排或后排,当粗粒度深度值位于[0,1]区间内则手机位于前排,当粗粒度深度值位于[1,2]区间内则手机位于后排;
S62:通过计算前排手机检测框中心点距驾驶员检测框中心点的欧式距离来判断驾驶员是否使用手机。
CN202311517773.2A 2023-11-14 2023-11-14 一种基于粗粒度深度估计的身份分析和手机使用检测方法 Active CN117541865B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311517773.2A CN117541865B (zh) 2023-11-14 2023-11-14 一种基于粗粒度深度估计的身份分析和手机使用检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311517773.2A CN117541865B (zh) 2023-11-14 2023-11-14 一种基于粗粒度深度估计的身份分析和手机使用检测方法

Publications (2)

Publication Number Publication Date
CN117541865A CN117541865A (zh) 2024-02-09
CN117541865B true CN117541865B (zh) 2024-06-04

Family

ID=89783645

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311517773.2A Active CN117541865B (zh) 2023-11-14 2023-11-14 一种基于粗粒度深度估计的身份分析和手机使用检测方法

Country Status (1)

Country Link
CN (1) CN117541865B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016457A (zh) * 2020-08-27 2020-12-01 青岛慕容信息科技有限公司 驾驶员分神以及危险驾驶行为识别方法、设备和存储介质
CN114792437A (zh) * 2022-01-14 2022-07-26 深圳市中钞信达金融科技有限公司 一种基于面部特征的安全驾驶行为分析的方法及系统
CN115588236A (zh) * 2022-10-12 2023-01-10 西安工业大学 一种车内司乘人员异常行为检测研究方法
CN116824554A (zh) * 2023-05-23 2023-09-29 重庆科技学院 基于主观评价的多源信息融合驾驶安全评估方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110575163B (zh) * 2019-08-01 2021-01-29 深圳大学 一种检测驾驶员分心的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016457A (zh) * 2020-08-27 2020-12-01 青岛慕容信息科技有限公司 驾驶员分神以及危险驾驶行为识别方法、设备和存储介质
CN114792437A (zh) * 2022-01-14 2022-07-26 深圳市中钞信达金融科技有限公司 一种基于面部特征的安全驾驶行为分析的方法及系统
CN115588236A (zh) * 2022-10-12 2023-01-10 西安工业大学 一种车内司乘人员异常行为检测研究方法
CN116824554A (zh) * 2023-05-23 2023-09-29 重庆科技学院 基于主观评价的多源信息融合驾驶安全评估方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的驾驶员状态识别;董小明;李昌乐;迟志诚;陈一凡;;汽车实用技术;20200215(第03期);全文 *

Also Published As

Publication number Publication date
CN117541865A (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
CN109829403B (zh) 一种基于深度学习的车辆防碰撞预警方法及系统
CN111274881B (zh) 驾驶安全的监控方法、装置、计算机设备及存储介质
Huang et al. Vehicle detection and inter-vehicle distance estimation using single-lens video camera on urban/suburb roads
CN104680124A (zh) 检测行人的影像处理装置及其方法
CN100561501C (zh) 一种图像检测方法及装置
Kuang et al. Bayes saliency-based object proposal generator for nighttime traffic images
CN106570444B (zh) 基于行为识别的车载智能提醒方法及系统
CN112793576B (zh) 一种基于规则与机器学习融合的换道决策方法及系统
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及系统
CN109635823A (zh) 用于识别卷扬乱绳的方法和装置及工程机械
CN106845458B (zh) 一种基于核超限学习机的快速交通标识检测方法
Fernando et al. Automatic road traffic signs detection and recognition using ‘You Only Look Once’version 4 (YOLOv4)
CN111563468A (zh) 一种基于神经网络注意力的驾驶员异常行为检测方法
CN113408364B (zh) 一种临时车牌识别方法、系统、装置及存储介质
CN113701642A (zh) 一种车身外观尺寸的计算方法及系统
CN110263664A (zh) 一种多乘员车道违章识别方法及装置
CN112052829B (zh) 一种基于深度学习的飞行员行为监控方法
CN117541865B (zh) 一种基于粗粒度深度估计的身份分析和手机使用检测方法
Li et al. A novel approach for vehicle detection using an AND–OR-graph-based multiscale model
CN111832463A (zh) 一种基于深度学习的交通标志检测方法
CN116740792A (zh) 一种观光车作业人员人脸识别方法及系统
CN111652137A (zh) 违法车辆检测方法、装置、计算机设备和存储介质
CN108647679B (zh) 一种基于车窗粗定位的车标识别方法
CN110555425A (zh) 一种视频流实时行人检测方法
CN114758326A (zh) 一种交通岗位工作行为状态实时检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant