CN114782931B - 改进MobileNetv2网络的驾驶行为分类方法 - Google Patents

改进MobileNetv2网络的驾驶行为分类方法 Download PDF

Info

Publication number
CN114782931B
CN114782931B CN202210431467.6A CN202210431467A CN114782931B CN 114782931 B CN114782931 B CN 114782931B CN 202210431467 A CN202210431467 A CN 202210431467A CN 114782931 B CN114782931 B CN 114782931B
Authority
CN
China
Prior art keywords
convolution
driving behavior
network
channel
mobilenet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210431467.6A
Other languages
English (en)
Other versions
CN114782931A (zh
Inventor
陈浩
佘堃
于钥
姚奡如
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210431467.6A priority Critical patent/CN114782931B/zh
Publication of CN114782931A publication Critical patent/CN114782931A/zh
Application granted granted Critical
Publication of CN114782931B publication Critical patent/CN114782931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及数据处理技术领域,具体涉及一种改进MobileNetv2网络的驾驶行为分类方法,包括制作驾驶行为数据集;将驾驶行为数据集划分为训练集和测试集;使用训练集和测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别图;使用改进MobileNetv2网络在测试集上分类准确率最高的权重进行部署,对驾驶行为类别进行分类,本发明能够直接在车载嵌入式设备部署,不再受制于网络因素,独立地实现驾驶行为分类,解决了现有的方法受制于网络,降低了驾驶行为分类的准确率的问题。

Description

改进MobileNetv2网络的驾驶行为分类方法
技术领域
本发明涉及数据处理技术领域,尤其涉及一种改进MobileNetv2网络的驾驶行为分类方法。
背景技术
通过计算机视觉算法识别驾驶员的驾驶行为,并根据行为类别进行报警提示能够有效提高驾驶安全性。
由于深度学习算法需要耗费巨大的内存资源和运算资源,当前主流的方法是将车内驾驶员驾驶行为图像上传到云端进行处理,然后将分类结果返回给车载设备。
这种方法严格受制于网络影响,容易出现无法连接网络或者网络时延较高等,降低了驾驶行为分类的准确率。
发明内容
本发明的目的在于提供一种改进MobileNetv2网络的驾驶行为分类方法,旨在解决现有的方法受制于网络,降低了驾驶行为分类的准确率的问题。
为实现上述目的,本发明提供了一种改进MobileNetv2网络的驾驶行为分类方法,包括以下步骤:
制作驾驶行为数据集;
将所述驾驶行为数据集划分为训练集和测试集;
使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别图;
使用所述改进MobileNetv2网络在所述测试集上分类准确率最高的权重进行部署,对所述驾驶行为类别图进行分类。
其中,所述制作驾驶行为数据集的具体方式为:
使用摄像头采集驾驶员的驾驶行为,得到采集视频;
将所述采集视频处理为图片,得到行为图片;
对所述行为图片分类,得到驾驶行为数据集。
其中,在步骤使用摄像头采集驾驶员的驾驶行为,得到采集视频之前,所述方法还包括:
将摄像头安装在副驾驶,并基于驾驶室座椅位置和驾驶员位置对所述摄像头进行位置调整,使得所述摄像头的视频画面左端对准驾驶员座椅。
其中,所述改进MobileNetv2包括网络卷积部分、沙漏模块、平均池化层和最终点卷积,所述网络卷积部分、所述沙漏模块、所述平均池化层和所述最终点卷积依次连接;
所述沙漏模块包括输入通道、第一逐深度卷积、空间注意力单元、第一点卷积、第二点卷积、第二逐深度卷积和输出通道,所述输入通道、所述第一逐深度卷积、所述空间注意力单元、所述第一点卷积、所述第二点卷积、所述第二逐深度卷积和所述输出通道依次连接。
其中,所述第一逐深度卷积和所述第二逐深度卷积的分组数目均为320;
所述输入通道和所述输出通道的通道数均为320;
所述第一点卷积的通道数为80;
所述第二点卷积的通道数为320;
所述最终点卷积的通道数为320。
其中,所述所述第一逐深度卷积和所述第二逐深度卷积的卷积核大小均为3×3;
所述第一点卷积、所述第二点卷积和所述最终点卷积的卷积核大小均为1×1;
所述平均池化层的大小为7×7。
其中,所述卷积部分包括普通卷积和瓶颈模块。
其中,所述使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别的具体方式为:
通过所述卷积部分对所述训练集和所述测试集进行补全,得到补全图像;
通过所述沙漏模块对所述补全图像进行特征提取,得到特征提取图像;
通过所述平均池化层对所述特征提取图像进行尺寸调整,得到调整图像;
通过所述最终点卷积对所述调整图像进行维度调整,得到驾驶行为类别图。
其中,所述通过所述沙漏模块对所述补全图像进行特征提取,得到特征提取图像的具体方式为:
将所述补全图像输入所述输入通道,得到输入图像;
通过所述第一逐深度卷积提取所述输入图像的特征,得到输入图像特征;
通过所述空间注意力单元获取所述输入图像特征每一通道的特征重要程度;
通过所述第一点卷积将每一通道的所述输入图像特征信息融合,得到降维特征图;
通过所述第二点卷积基于每一通道的所述特征重要程度将所述降维特征图的通道数增加,得到升维特征图;
通过所述第二逐深度卷积对所述升维特征图进行特征提取,得到二次特征图;
将所述二次特征图与所述输入图像相加后通过所述输出通道输出,得到特征提取图像。
其中,所述通过所述空间注意力单元获取所述输入图像特征每一通道的特征重要程度的具体方式为:
分别获取所述空间注意力单元的通道维度平均值和通道维度最大值;
将所述通道维度平均值和所述通道维度最大值合并,得到合并值;
基于所述合并值获取所述空间注意力单元每个位置的特征值;
通过hard_sigmoid函数将每一所述特征值压缩到一个矩阵,得到多个矩阵重要程度;
将所述输入图像特征的每一通道与对应的矩阵重要程度相乘,得到所述输入图像特征每一通道的特征重要程度。
本发明的一种改进MobileNetv2网络的驾驶行为分类方法,通过制作驾驶行为数据集;将所述驾驶行为数据集划分为训练集和测试集;使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别图;使用所述改进MobileNetv2网络在所述测试集上分类准确率最高的权重进行部署,对所述驾驶行为类别图进行分类,本发明能够直接在车载嵌入式设备部署,不再受制于网络因素,独立地实现驾驶行为分类,解决了现有的方法受制于网络,降低了驾驶行为分类的准确率的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种改进MobileNetv2网络的驾驶行为分类方法的流程图。
图2是原始版本MobileNetv2与改进MobileNetv2的模型结构对比图。
图3是SBSA结构图。
图4是空间注意力模块结构图。
图5是驾驶行为数据集示例图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1至图5,本发明提供一种改进MobileNetv2网络的驾驶行为分类方法,包括以下步骤:
S1制作驾驶行为数据集;
具体方式为:
S11使用所述摄像头采集驾驶员的驾驶行为,得到采集视频;
具体的,在步骤使用所述摄像头采集驾驶员的驾驶行为,得到采集视频之前,所述方法还包括:
将摄像头安装在副驾驶,并基于驾驶室座椅位置和驾驶员位置对所述摄像头进行位置调整,使得所述摄像头的视频画面左端对准驾驶员座椅。
具体的,所述驾驶行为的种类包括正常驾驶、喝水行为、吸烟行为、侧视行为、操作中控行为、玩手机行为、侧身拿东西行为、整理仪容行为、接电话行为等等。
S12将所述采集视频处理为图片,得到行为图片;
S13对所述行为图片分类,得到驾驶行为数据集。
具体方式为:将所述行为图片分类为按照种类进行分类,得到多类图片;构建与驾驶行为种类数量相等的文件夹;将每一类图片对应到一个文件夹中,得到驾驶行为数据集。
S7233将所述正常驾驶图片存入所述正常驾驶文件夹,将所述喝水行为图片存入所述喝水行为文件夹,将所述吸烟行为图片存入吸烟行为文件夹,得到驾驶行为数据集。
S2将所述驾驶行为数据集划分为训练集和测试集;
S3使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别图;
具体的,所述改进MobileNetv2包括网络卷积部分、沙漏模块(Sandglass Blockwith Space Attention,SBSA)、平均池化层和最终点卷积,所述网络卷积部分、所述沙漏模块、所述平均池化层和所述最终点卷积依次连接;
所述沙漏模块包括输入通道、第一逐深度卷积、空间注意力单元、第一点卷积、第二点卷积、第二逐深度卷积和输出通道,所述输入通道、所述第一逐深度卷积、所述空间注意力单元、所述第一点卷积、所述第二点卷积、所述第二逐深度卷积和所述输出通道依次连接。
所述使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别的具体方式为:
S31通过所述卷积部分对所述训练集和所述测试集进行补全,得到补全图像;
具体的,所述卷积部分包括普通卷积和瓶颈模块。
S32通过所述沙漏模块对所述补全图像进行特征提取,得到特征提取图像;
具体方式为:
S321将所述补全图像输入所述输入通道,得到输入图像;
具体的,所述输入通道的通道数为320。
S322通过所述第一逐深度卷积提取所述输入图像的特征,得到输入图像特征;
具体的,所述第一逐深度卷积的分组数目为320,所述第一逐深度卷积的卷积核大小为3×3。
S323通过所述空间注意力单元获取所述输入图像特征每一通道的特征重要程度;
具体方式为:
S3231分别获取所述空间注意力单元的通道维度平均值和通道维度最大值;
S3232将所述通道维度平均值和所述通道维度最大值合并,得到合并值;
S3233基于所述合并值经过卷积层获取所述空间注意力单元空间维度每个位置的特征值;
S3234通过hard_sigmoid函数将每一所述特征值压缩到一个矩阵,得到多个矩阵重要程度;
具体的,通过hard_sigmoid函数将每一所述特征值压缩到一个矩阵,所述矩阵为(0,1)空间,代表空间对应位置的重要程度;
hard_sigmoid函数的计算公式为:
S3235将所述输入图像特征的每一通道与对应的矩阵重要程度相乘,得到所述输入图像特征每一通道的特征重要程度。
S324通过所述第一点卷积将每一通道的所述输入图像特征信息融合,得到降维特征图;
具体的,所述第一点卷积等同于全连接层,其输出与输入通道相关,可以融合各通道信息。此处所述第一点卷积的输出通道数为输入通道数的四分之一,实现降低通道数量。所述第一点卷积的通道数为80,所述第一点卷积的卷积核大小为1×1。
S325通过所述第二点卷积基于每一通道的所述特征重要程度将所述降维特征图的通道数增加,得到升维特征图;
具体的,所述第二点卷积的通道数为320,所述第二点卷积的卷积核大小为1×1。此处所述第二点卷积的输出通道数为输入通道数的四倍,实现增加通道数量。
S326通过所述第二逐深度卷积对所述升维特征图进行特征提取,得到二次特征图;
具体的,所述第二逐深度卷积的分组数目为320;所述第二逐深度卷积的卷积核大小为3×3。
S327将所述二次特征图与所述输入图像相加后通过所述输出通道输出,得到特征提取图像。
具体的,所述输出通道的通道数为320。
S33通过所述平均池化层对所述特征提取图像进行尺寸调整,得到调整图像;
具体的,所述平均池化层的大小为7×7。
S34通过所述最终点卷积对所述调整图像进行维度调整,得到驾驶行为类别图。
具体的,所述最终点卷积的通道数为320,所述最终点卷积的卷积核大小为1×1。
S4使用所述改进MobileNetv2网络在所述测试集上分类准确率最高的权重进行部署,对所述驾驶行为类别图进行分类。
MobileNetv2网络是专为ImageNet数据集设计,而ImageNet数据集包含1000个类别,远远超过一般的驾驶行为数据集类别数目。因此,对于处理驾驶行为分类任务,MobileNetv2的全连接部分存在巨大冗余。本发明提出的改进MobileNetv2网络,使用SBSA替换MobileNetv2网络全连接部分的第一个点卷积,卷积部分与MobileNetv2保持一致。改进后的MobileNetv2网络的网络结构如表1所示。
表1改进后的MobileNetv2网络结构。
表中conv2d为普通卷积,bottleneck为MobileNetv2的瓶颈模块,avgpool为平均池化层。
使用本发明改进的MobileNetv2网络进行驾驶行为分类的优势在于:
1、本发明改进的MobileNetv2网络,在自制驾驶行为数据集上,以更少的模型参数量获得更高的分类准确率。
2、本发明对设备内存资源与运算资源要求较低,能够极大降低设备成本。
3、本发明能够直接在车载嵌入式设备部署,不再受制于网络因素,独立地实现驾驶行为分类。
以上所揭露的仅为本发明一种改进MobileNetv2网络的驾驶行为分类方法较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (8)

1.一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,包括以下步骤:
制作驾驶行为数据集;
将所述驾驶行为数据集划分为训练集和测试集;
使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别图;所述改进MobileNetv2包括网络卷积部分、沙漏模块、平均池化层和最终点卷积,所述网络卷积部分、所述沙漏模块、所述平均池化层和所述最终点卷积依次连接;
所述沙漏模块包括输入通道、第一逐深度卷积、空间注意力单元、第一点卷积、第二点卷积、第二逐深度卷积和输出通道,所述输入通道、所述第一逐深度卷积、所述空间注意力单元、所述第一点卷积、所述第二点卷积、所述第二逐深度卷积和所述输出通道依次连接;
使用所述改进MobileNetv2网络在所述测试集上分类准确率最高的权重进行部署,对所述驾驶行为类别图进行分类。
2.如权利要求1所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述制作驾驶行为数据集的具体方式为:
使用摄像头采集驾驶员的驾驶行为,得到采集视频;所述使用摄像头采集驾驶员的驾驶行为,得到采集视频之前,所述方法还包括:
将摄像头安装在副驾驶,并基于驾驶室座椅位置和驾驶员位置对所述摄像头进行位置调整,使得所述摄像头的视频画面左端对准驾驶员座椅;
将所述采集视频处理为图片,得到行为图片;
对所述行为图片分类,得到驾驶行为数据集。
3.如权利要求1所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述第一逐深度卷积和所述第二逐深度卷积的分组数目均为320;
所述输入通道和所述输出通道的通道数均为320;
所述第一点卷积的通道数为80;
所述第二点卷积的通道数为320;
所述最终点卷积的通道数为320。
4.如权利要求3所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述所述第一逐深度卷积和所述第二逐深度卷积的卷积核大小均为3×3;
所述第一点卷积、所述第二点卷积和所述最终点卷积的卷积核大小均为1×1;
所述平均池化层的大小为7×7。
5.如权利要求4所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述卷积部分包括普通卷积和瓶颈模块。
6.如权利要求5所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述使用所述训练集和所述测试集对改进MobileNetv2网络进行训练,得到驾驶行为类别的具体方式为:
通过所述卷积部分对所述训练集和所述测试集进行补全,得到补全图像;
通过所述沙漏模块对所述补全图像进行特征提取,得到特征提取图像;
通过所述平均池化层对所述特征提取图像进行尺寸调整,得到调整图像;
通过所述最终点卷积对所述调整图像进行维度调整,得到驾驶行为类别图。
7.如权利要求6所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述通过所述沙漏模块对所述补全图像进行特征提取,得到特征提取图像的具体方式为:
将所述补全图像输入所述输入通道,得到输入图像;
通过所述第一逐深度卷积提取所述输入图像的特征,得到输入图像特征;
通过所述空间注意力单元获取所述输入图像特征每一通道的特征重要程度;
通过所述第一点卷积将每一通道的所述输入图像特征信息融合,得到降维特征图;
通过所述第二点卷积基于每一通道的所述特征重要程度将所述降维特征图的通道数增加,得到升维特征图;
通过所述第二逐深度卷积对所述升维特征图进行特征提取,得到二次特征图;
将所述二次特征图与所述输入图像相加后通过所述输出通道输出,得到特征提取图像。
8.如权利要求7所述的一种改进MobileNetv2网络的驾驶行为分类方法,其特征在于,
所述通过所述空间注意力单元获取所述输入图像特征每一通道的特征重要程度的具体方式为:
分别获取所述空间注意力单元的通道维度平均值和通道维度最大值;
将所述通道维度平均值和所述通道维度最大值合并,得到合并值;
基于所述合并值获取所述空间注意力单元每个位置的特征值;
通过hard_sigmoid函数将每一所述特征值压缩到一个矩阵,得到多个矩阵重要程度;
将所述输入图像特征的每一通道与对应的矩阵重要程度相乘,得到所述输入图像特征每一通道的特征重要程度。
CN202210431467.6A 2022-04-22 2022-04-22 改进MobileNetv2网络的驾驶行为分类方法 Active CN114782931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210431467.6A CN114782931B (zh) 2022-04-22 2022-04-22 改进MobileNetv2网络的驾驶行为分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210431467.6A CN114782931B (zh) 2022-04-22 2022-04-22 改进MobileNetv2网络的驾驶行为分类方法

Publications (2)

Publication Number Publication Date
CN114782931A CN114782931A (zh) 2022-07-22
CN114782931B true CN114782931B (zh) 2023-09-29

Family

ID=82432479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210431467.6A Active CN114782931B (zh) 2022-04-22 2022-04-22 改进MobileNetv2网络的驾驶行为分类方法

Country Status (1)

Country Link
CN (1) CN114782931B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108382396A (zh) * 2018-02-02 2018-08-10 辽宁友邦网络科技有限公司 驾驶员驾驶状态识别系统及其应用方法
CN110059582A (zh) * 2019-03-28 2019-07-26 东南大学 基于多尺度注意力卷积神经网络的驾驶员行为识别方法
CN110188598A (zh) * 2019-04-13 2019-08-30 大连理工大学 一种基于MobileNet-v2的实时手部姿态估计方法
CN110532878A (zh) * 2019-07-26 2019-12-03 中山大学 一种基于轻量化卷积神经网络的驾驶员行为识别方法
CN111985370A (zh) * 2020-08-10 2020-11-24 华南农业大学 一种基于改进混合注意力模块的农作物病虫害的细粒度识别方法
CN112733628A (zh) * 2020-12-28 2021-04-30 杭州电子科技大学 基于MobileNet-V3的疲劳驾驶状态检测方法
CN112818893A (zh) * 2021-02-10 2021-05-18 北京工业大学 一种面向移动终端的轻量化开集地标识别方法
CN113139444A (zh) * 2021-04-06 2021-07-20 上海工程技术大学 基于MobileNetV2的时空注意力口罩佩戴实时检测方法
CN113361623A (zh) * 2021-06-22 2021-09-07 南京信息工程大学 一种轻量级cnn结合迁移学习的医学图像分类方法
CN113378653A (zh) * 2021-05-19 2021-09-10 海南师范大学 一种驾驶员车内行为检测方法及装置
CN114005090A (zh) * 2021-11-12 2022-02-01 中山大学 一种基于疑似烟雾提议区域及深度学习的烟雾检测方法
CN114120634A (zh) * 2021-11-03 2022-03-01 暨南大学 基于WiFi的危险驾驶行为识别方法、装置、设备及存储介质
CN114139611A (zh) * 2021-11-15 2022-03-04 北京华能新锐控制技术有限公司 基于MobileNet v2模型的垃圾图像分类方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488758A (zh) * 2019-01-25 2020-08-04 富士通株式会社 用于驾驶行为识别的深度学习模型、训练装置及方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108382396A (zh) * 2018-02-02 2018-08-10 辽宁友邦网络科技有限公司 驾驶员驾驶状态识别系统及其应用方法
CN110059582A (zh) * 2019-03-28 2019-07-26 东南大学 基于多尺度注意力卷积神经网络的驾驶员行为识别方法
CN110188598A (zh) * 2019-04-13 2019-08-30 大连理工大学 一种基于MobileNet-v2的实时手部姿态估计方法
CN110532878A (zh) * 2019-07-26 2019-12-03 中山大学 一种基于轻量化卷积神经网络的驾驶员行为识别方法
CN111985370A (zh) * 2020-08-10 2020-11-24 华南农业大学 一种基于改进混合注意力模块的农作物病虫害的细粒度识别方法
CN112733628A (zh) * 2020-12-28 2021-04-30 杭州电子科技大学 基于MobileNet-V3的疲劳驾驶状态检测方法
CN112818893A (zh) * 2021-02-10 2021-05-18 北京工业大学 一种面向移动终端的轻量化开集地标识别方法
CN113139444A (zh) * 2021-04-06 2021-07-20 上海工程技术大学 基于MobileNetV2的时空注意力口罩佩戴实时检测方法
CN113378653A (zh) * 2021-05-19 2021-09-10 海南师范大学 一种驾驶员车内行为检测方法及装置
CN113361623A (zh) * 2021-06-22 2021-09-07 南京信息工程大学 一种轻量级cnn结合迁移学习的医学图像分类方法
CN114120634A (zh) * 2021-11-03 2022-03-01 暨南大学 基于WiFi的危险驾驶行为识别方法、装置、设备及存储介质
CN114005090A (zh) * 2021-11-12 2022-02-01 中山大学 一种基于疑似烟雾提议区域及深度学习的烟雾检测方法
CN114139611A (zh) * 2021-11-15 2022-03-04 北京华能新锐控制技术有限公司 基于MobileNet v2模型的垃圾图像分类方法及装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Daquan Zhou等.Rethinking Bottleneck Structure for Efficient Mobile Network Design.《arXiv》.2020,第1-24页. *
Qibin Hou等.Coordinate Attention for Efficient Mobile Network Design.《CVPR》.2021,第13713-13722页. *
张俊.基于车联网数据的驾驶行为识别与风险评估方法研究.《中国博士学位论文全文数据库 工程科技Ⅱ辑》.2021,(第06期),第C034-94页. *
王凤鸽.基于轻量化与多尺度注意力融合的图像分类.《中国优秀硕士学位论文全文数据库 信息科技辑》.2022,(第04期),第I138-1083页. *
陈浩. 车载危险驾驶行为报警系统的研究与实现.《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2023,(第01期),第C035-1157页. *
雷磊等.基于轻量化YOLOv4的离岗检测算法.《现代计算机》.2022,第28卷(第4期),第5-13页. *

Also Published As

Publication number Publication date
CN114782931A (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN109241895B (zh) 密集人群计数方法及装置
CN109858461B (zh) 一种密集人群计数的方法、装置、设备以及存储介质
CN106776842B (zh) 多媒体数据检测方法及装置
CN112396115B (zh) 基于注意力机制的目标检测方法、装置及计算机设备
WO2021018163A1 (zh) 神经网络的搜索方法及装置
CN111461083A (zh) 基于深度学习的快速车辆检测方法
US20110188780A1 (en) 2D to 3D Image Conversion Based on Image Content
CN112950547B (zh) 一种基于深度学习的锂电池隔膜缺陷机器视觉检测方法
US8421877B2 (en) Feature data compression device, multi-directional face detection system and detection method thereof
CN110378398B (zh) 一种基于多尺度特征图跳跃融合的深度学习网络改进方法
CN107644221A (zh) 基于参数压缩的卷积神经网络交通标志识别方法
CN113222855B (zh) 一种图像恢复方法、装置和设备
US20230401833A1 (en) Method, computer device, and storage medium, for feature fusion model training and sample retrieval
CN106504207A (zh) 一种图像数据处理方法
CN115205547A (zh) 一种目标图像的检测方法、装置、电子设备及存储介质
CN114782931B (zh) 改进MobileNetv2网络的驾驶行为分类方法
CN110135428A (zh) 图像分割处理方法和装置
CN112889084A (zh) 提高图像的颜色质量的方法、系统和计算机可读介质
CN111967478B (zh) 一种基于权重翻转的特征图重构方法、系统、存储介质及终端
CN110472732B (zh) 基于优化特征提取装置的图像特征提取系统
CN115578624A (zh) 农业病虫害模型构建方法、检测方法及装置
CN114820316A (zh) 一种基于深度学习的视频图像超分辨率恢复系统
CN115223221A (zh) 人脸检测方法、装置、电子设备和存储介质
CN116883770A (zh) 深度估计模型的训练方法、装置、电子设备及存储介质
CN114267062A (zh) 模型训练方法、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant