CN115578719B - 一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 - Google Patents
一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 Download PDFInfo
- Publication number
- CN115578719B CN115578719B CN202211253174.XA CN202211253174A CN115578719B CN 115578719 B CN115578719 B CN 115578719B CN 202211253174 A CN202211253174 A CN 202211253174A CN 115578719 B CN115578719 B CN 115578719B
- Authority
- CN
- China
- Prior art keywords
- model
- detection
- fatigue
- ssh
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 claims description 26
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000010200 validation analysis Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000000265 homogenisation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 101001121408 Homo sapiens L-amino-acid oxidase Proteins 0.000 description 1
- 101000827703 Homo sapiens Polyphosphoinositide phosphatase Proteins 0.000 description 1
- 102100026388 L-amino-acid oxidase Human genes 0.000 description 1
- 102100023591 Polyphosphoinositide phosphatase Human genes 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 101100012902 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) FIG2 gene Proteins 0.000 description 1
- 101100233916 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) KAR5 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000035080 detection of muscle activity involved in regulation of muscle adaptation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YM_SSH的轻量级目标检测的疲劳状态检测方法,具体包括以下步骤:数据集准备,结合国内疲劳检测公共数据建立疲劳状态检测数据集;神经网络搭建,使用MobileViT代换YOLOv3的主干网络Darknet53,使用小尺寸卷积核代替大尺寸卷积核,搭建具有更大有效感受野的轻量级网络YM_SSH,使用改进的SSH网络增大模型感受野;减半网络通道数,将网络模型轻量化;嵌入式部署,将模型转化为TensorRT模型,提高模型在移动终端的推理速度。本发明基于轻量级目标检测网络以及可分离深度卷积,在扩大特征感受野的同时减少卷积核计算量和参数量,并且检测速度和精度与原网络模型几乎持平,解决了实时疲劳检测精确度低的问题。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于YM_SSH的轻量级疲劳状态检测方法。
背景技术
疲劳是由于过度的体力或脑力劳动引起的工作能力与效率能力下降的一种生理现象,其不仅会造成人们的作业能力下降,还可能会诱发事故。驾驶疲劳现象在我国也是屡见不鲜,据统计,2004年至2014年期间,在我国高速公路上发生的交通事故中,其中因疲劳驾驶导致的交通事故约占10%。
疲劳检测可以看作是目标检测问题,但大部分目标检测网络在提高检测精度的同时,而忽略了模型计算量、参数量大小的问题。
发明内容
本发明针对传统目标检测网络模型计算量大,参数量多的问题,以YOLOv3网络为基础,提出了新型轻量化目标检测网络,来降低网络模型的计算量和参数量,提高疲劳检测过程中的检测速度,解决现有检测模型无法平衡检测精度和模型大小的问题。
为解决上述技术问题,本发明提供如下技术方案:
一种基于YM_SSH的轻量级目标检测的疲劳状态检测方法,包括以下步骤:
步骤S1、标注疲劳检测数据集,并划分训练集、验证集和测试集;
步骤S2、使用目标检测模块和目标跟踪模块搭建卷积神经网络,网络最终输出为疲劳状态和位置信息;
步骤S3、使用步骤S1中的数据集训练步骤S2中的卷积神经网络,得到可以准确识别疲劳状态检测模型;
步骤S4、将疲劳状态检测模型转换为可以嵌入式部署的模型;
步骤S5、将步骤S4中转换后的模型部署到终端设备,将终端设备摄像头拍摄的视频流输入疲劳状态检测模型,并输出检测结果。
进一步的,步骤S1包括:
步骤S11、疲劳检测数据集由公共数据集和公交平台采集的图像数据组成,对采集的公交平台图像数据进行标注,标注对象为眼睛和嘴,根据眼睛和嘴的闭合状态判定疲劳状态;
步骤S12、将疲劳数据集按照8:2的比例划分训练集和验证集;
步骤S13、在训练阶段加载数据集时,使用数据增强方法提高数据的鲁棒性,使用预处理方式提高模型的泛化能力。
进一步的,所述数据增强方法包括但不限于颜色空间变换法、GAN自动生成法。
进一步的,所述预处理方法包括但不限于均值减法、均一化法。
进一步的,步骤S3所述的卷积神经网络包括目标检测模块和目标跟踪模块,其中,目标检测模块用于检测疲劳状态及位置信息,目标跟踪模块用于避免同一检测对象被多次识别。
进一步的,步骤S3所述的卷积神经网络搭建的具体步骤为:
步骤S31、使用YOLOv3作为基础网络模型,使用MobileViT替代YOLOv3的原有骨干网络DarkNet53,减少模型的参数量和计算量;
步骤S32、利用若干个3*3小卷积核替代5*7和7*7的大卷积核,在具有相当的感受野时,3*3的卷积核具有更少的参数量和计算代价;
步骤S33、引入改进的SSH人脸检测模块,借鉴了Inception结构,利用多个卷积维度,拓展特征提取感受野,通过多分支,不同大小卷积核提取特征,将SSH模块中的Conv-1单元卷积为一个3x3卷积核,通道数缩减为原来的1/2,Conv-2单元卷积利用两个3x3卷积核替换一个5x5卷积核,通道数缩减为原来的1/4,Conv-3单元卷积利用三个3x3卷积核替换一个7x7卷积核,合并之后,总通道数不变;
步骤S34、最后在目标检测模块后添加目标跟踪模块,目标跟踪模块中包含一个目标跟踪算法,用于避免同一对象的重识别。
进一步的,步骤S4中的模型部署方法为先将模型转换为ONNX模型,再将ONNX转换为TensorRT模型。
与现有技术相比,本发明的有益效果是:
1)本发明可以部署在移动终端,避免了人工检测的主观性。
2)本方法实现了疲劳状态的实时检测,在减少模型大小的同时,检测精度几乎不变。
3)本方法通过来降低网络模型的计算量和参数量,提高疲劳检测过程中的检测速度,解决现有检测模型无法平衡检测精度和模型大小的问题
附图说明
图1为本发明的工作原理示意图;
图2为目标检测模块结构图;
图3为CUDA异构并行计算示意图;
图4位本发明实施例提供的基于YM_SSH的轻量级目标检测的疲劳状态检测方法的检测效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
图1为本发明的工作原理示意图,涉及一种基于YM_SSH的轻量级目标检测的疲劳状态检测方法,该方法提高疲劳检测效率,对张嘴和闭眼两种最常见的疲劳状态进行检测,模型可以部署到移动终端,检测过程无需人工操作,该方法具体步骤如下:
步骤S1、标注疲劳检测数据集,并划分训练集、验证集和测试集;
步骤S2、通过移动端摄像头采集被检测人面部图像,处理面部信息获取面部特征;
步骤S3、处理获取到的面部特征信息,将图像实时输入到由目标检测模和目标跟踪模块组成的卷积神经网络中,进行特征提取并检测疲劳状态;
步骤S4、将疲劳检测结果实时输入到目标跟踪模型中,识别被检测人的疲劳状态,并统计损坏数据;
步骤S5、轻量化智能识别算法;
步骤S6、将步骤S4中的算法部署到移动终端中,将终端设备摄像头拍摄的视频流输入疲劳检测模型,并输出检测结果。
所述步骤S1的具体步骤如下:
步骤S11、疲劳检测数据集由公共数据集和公交平台采集的图像数据组成,对采集的公交平台图像数据进行标注,标注对象为眼睛和嘴,根据眼睛和嘴的闭合状态判定疲劳状态;
步骤S12、将疲劳数据集按照8:2的比例划分训练集和验证集;
步骤S13、在训练阶段加载数据集时,使用颜色空间变换、GAN自动生成等数据增强方法提高数据的鲁棒性,以及均值减法、均一化等预处理方式提高模型的泛化能力。
所述疲劳数据集包含2个类别:眼睛和嘴;根据眼睛和嘴的闭合状态判定疲劳状态;
在本实施例中,模型的输入为320*320的图片。
步骤S3所述的卷积神经网络包括目标检测模块和目标跟踪模块,其中,目标检测模块用于检测疲劳状态及位置信息,目标跟踪模块用于避免同一检测对象被多次识别。
进一步的,如图2所示,步骤S3所述神经网络搭建的具体步骤为:
步骤S31、使用YOLOv3作为基础网络模型,使用MobileViT替代YOLOv3的原有骨干网络DarkNet53,减少模型的参数量和计算量;
作为示例性说明,在MobileViT中引入深度可分离卷积,能更加有效地减少参数量和提高运算速度,深度可分离卷积中的卷积计算分为两部分,首先对通道(深度)分别进行空间卷积,并对输出进行拼接,随后使用单位卷积核进行通道卷积以得到特征图。因此,为了结合YOLOv3的目标检测结构和MobileViT网络轻量化的优点,本申请将YOLOv3的骨干网络Darknet53替换为MobileViT,以达到降低新型目标检测网络参数量和计算量的目标,使得改目标检测网络可以在移动设备上运行。
步骤S32、利用若干个3*3小卷积核替代5*7和7*7的大卷积核,在具有相当的感受野时,3*3的卷积核具有更少的参数量和计算代价;
进一步的,对于深度可分离卷积,使用若干3x3卷积核来替换5x5和7x7卷积核。两个3x3内核比一个5x5内核参数量更少,三个3x3内核比一个7x7内核参数量更少。形式上,给定输入形状(H,W,M)和输出形状(H,W,N),让C5x5和C3x3分别表示5x5和3x3深度可分离卷积的计算代价:
C3×3=H*W*M*(9+N)
C5×5=H*W*M*(25+N)
C7×7=H*W*M*(49+N)
对于相同的有效感受野,当输入深度N<7时,两个3x3的卷积核比一个5x5的卷积核具有更少的计算量;当输入深度N<11时,三个3x3的卷积核比一个7x7的卷积核具有更少的计算量。
步骤S33、引入改进的SSH人脸检测模块,借鉴Inception结构,利用多个卷积维度,拓展特征提取感受野,通过多分支,不同大小卷积核提取特征;
作为示例性说明,SSH网络借鉴了Inception结构,利用多个卷积维度,拓展特征提取感受野,通过多分支,不同大小卷积核提取特征;将SSH模块中的Conv-1单元卷积为一个3x3卷积核,通道数缩减为原来的1/2,Conv-2单元卷积利用两个3x3卷积核替换一个5x5卷积核,通道数缩减为原来的1/4,Conv-3单元卷积利用三个3x3卷积核替换一个7x7卷积核,合并之后,总通道数不变。
步骤S34、最后在目标检测模块后添加目标跟踪模块,目标跟踪模块中包含一个目标跟踪算法,用于避免同一对象的重识别,图4为检测效果实例。
在本实施例中,目标跟踪模块使用DeepSrot算法。
步骤S4、中的模型部署方法为先将模型转换为ONNX模型,再将ONNX模型转换为TensorRT模型。
在本实施例中,深度学习框架使用Pytorch。
具体来说,模型部署首先将训练好的网络利用Pytorch内部接口转化为ONNX模型,在TensorRT中使用解析器读取ONNX模型并构建引擎。然后调用TensorRT的C++接口以及Libtorch库实现模型后处理部分。在推理过程中应注意显存的分配,在计算时借助CUDA库将数据从CPU端搬到GPU端,在推理计算后再将数据从GPU端搬到CPU端,CUDA并行计算流程具体如图3所示。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (6)
1.一种基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:包括以下步骤:
步骤S1、标注疲劳检测数据集,并划分训练集、验证集和测试集;
步骤S2、使用目标检测模块和目标跟踪模块搭建卷积神经网络,网络最终输出为疲劳状态和位置信息;
步骤S3、使用步骤S1中的数据集训练步骤S2中的卷积神经网络,得到可以准确识别疲劳状态检测模型;所述卷积神经网络搭建的具体步骤为:
步骤S31、使用YOLOv3作为基础网络模型,使用MobileViT替代YOLOv3的原有骨干网络DarkNet53,减少模型的参数量和计算量;
步骤S32、利用若干个3x3小卷积核替代5x7和7x7的大卷积核,在具有相当的感受野时,3x3的卷积核具有更少的参数量和计算代价;
步骤S33、引入改进的SSH人脸检测模块,借鉴了Inception结构,利用多个卷积维度,拓展特征提取感受野,通过多分支,不同大小卷积核提取特征,将SSH模块中的Conv-1单元卷积为一个3x3卷积核,通道数缩减为原来的1/2,Conv-2单元卷积利用两个3x3卷积核替换一个5x5卷积核,通道数缩减为原来的1/4,Conv-3单元卷积利用三个3x3卷积核替换一个7x7卷积核,合并之后,总通道数不变;
步骤S34、最后在目标检测模块后添加目标跟踪模块,目标跟踪模块中包含一个目标跟踪算法,用于避免同一对象的重识别;
步骤S4、将疲劳状态检测模型转换为可以嵌入式部署的模型;
步骤S5、将步骤S4中转换后的模型部署到终端设备,将终端设备摄像头拍摄的视频流输入疲劳状态检测模型,并输出检测结果。
2.如权利要求1所述的基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:步骤S1包括:
步骤S11、疲劳检测数据集由公共数据集和公交平台采集的图像数据组成,对采集的公交平台图像数据进行标注,标注对象为眼睛和嘴,根据眼睛和嘴的闭合状态判定疲劳状态;
步骤S12、将疲劳数据集按照8:2的比例划分训练集和验证集;
步骤S13、在训练阶段加载数据集时,使用数据增强方法提高数据的鲁棒性,使用预处理方式提高模型的泛化能力。
3.如权利要求2所述的基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:所述数据增强方法包括但不限于颜色空间变换法、GAN自动生成法。
4.如权利要求2所述的基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:所述预处理方法包括但不限于均值减法、均一化法。
5.如权利要求1所述的基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:步骤S3所述的卷积神经网络包括目标检测模块和目标跟踪模块,其中,目标检测模块用于检测疲劳状态及位置信息,目标跟踪模块用于避免同一检测对象被多次识别。
6.如权利要求1所述的基于YM_SSH的轻量级目标检测的疲劳状态检测方法,其特征在于:步骤S4中的模型部署方法为先将模型转换为ONNX模型,再将ONNX转换为TensorRT模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211253174.XA CN115578719B (zh) | 2022-10-13 | 2022-10-13 | 一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211253174.XA CN115578719B (zh) | 2022-10-13 | 2022-10-13 | 一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115578719A CN115578719A (zh) | 2023-01-06 |
CN115578719B true CN115578719B (zh) | 2024-05-17 |
Family
ID=84585344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211253174.XA Active CN115578719B (zh) | 2022-10-13 | 2022-10-13 | 一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578719B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102176934B1 (ko) * | 2020-09-24 | 2020-11-10 | 주식회사 디랩스 | 안면인식을 이용한 반려동물 종합 관리 서비스 제공 시스템 |
CN113343926A (zh) * | 2021-07-01 | 2021-09-03 | 南京信息工程大学 | 一种基于卷积神经网络的驾驶员疲劳检测方法 |
WO2021248687A1 (zh) * | 2020-06-10 | 2021-12-16 | 南京理工大学 | 伪3d卷积神经网络与注意力机制结合的驾驶疲劳检测方法及系统 |
CN114495029A (zh) * | 2022-01-24 | 2022-05-13 | 中国矿业大学 | 一种基于改进YOLOv4的交通目标检测方法及系统 |
CN114550246A (zh) * | 2022-02-15 | 2022-05-27 | 上海理工大学 | 一种基于智能视觉的识别疲劳状态的监测方法 |
WO2022147965A1 (zh) * | 2021-01-09 | 2022-07-14 | 江苏拓邮信息智能技术研究院有限公司 | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题批阅系统 |
CN114821492A (zh) * | 2022-04-10 | 2022-07-29 | 华东交通大学 | 一种基于YOLOv4的道路车辆检测系统及方法 |
CN114821466A (zh) * | 2022-04-07 | 2022-07-29 | 浙江大学 | 一种基于改进yolo模型的轻型室内火灾识别方法 |
CN114882234A (zh) * | 2022-04-29 | 2022-08-09 | 西安理工大学 | 多尺度轻量级密集连目标检测网络的构建方法 |
CN115050012A (zh) * | 2022-06-13 | 2022-09-13 | 中山大学 | 基于轻量化模型的戴口罩驾驶员疲劳驾驶检测方法 |
-
2022
- 2022-10-13 CN CN202211253174.XA patent/CN115578719B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021248687A1 (zh) * | 2020-06-10 | 2021-12-16 | 南京理工大学 | 伪3d卷积神经网络与注意力机制结合的驾驶疲劳检测方法及系统 |
KR102176934B1 (ko) * | 2020-09-24 | 2020-11-10 | 주식회사 디랩스 | 안면인식을 이용한 반려동물 종합 관리 서비스 제공 시스템 |
WO2022147965A1 (zh) * | 2021-01-09 | 2022-07-14 | 江苏拓邮信息智能技术研究院有限公司 | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题批阅系统 |
CN113343926A (zh) * | 2021-07-01 | 2021-09-03 | 南京信息工程大学 | 一种基于卷积神经网络的驾驶员疲劳检测方法 |
CN114495029A (zh) * | 2022-01-24 | 2022-05-13 | 中国矿业大学 | 一种基于改进YOLOv4的交通目标检测方法及系统 |
CN114550246A (zh) * | 2022-02-15 | 2022-05-27 | 上海理工大学 | 一种基于智能视觉的识别疲劳状态的监测方法 |
CN114821466A (zh) * | 2022-04-07 | 2022-07-29 | 浙江大学 | 一种基于改进yolo模型的轻型室内火灾识别方法 |
CN114821492A (zh) * | 2022-04-10 | 2022-07-29 | 华东交通大学 | 一种基于YOLOv4的道路车辆检测系统及方法 |
CN114882234A (zh) * | 2022-04-29 | 2022-08-09 | 西安理工大学 | 多尺度轻量级密集连目标检测网络的构建方法 |
CN115050012A (zh) * | 2022-06-13 | 2022-09-13 | 中山大学 | 基于轻量化模型的戴口罩驾驶员疲劳驾驶检测方法 |
Non-Patent Citations (4)
Title |
---|
A Lightweight Object Detection Network for Real-Time Detection of Driver Handheld Call on Embedded Devices;zuopeng zhao;Computational Intelligence and Neuroscience;20201215;全文 * |
An Improved YOLOX Model for Detecting Strip Surface Defects;Cancan Yi;RESEARCH ARTICLE;20220907;全文 * |
Single Camera Masked Face Identification;Vivek Aswal;2020 19th IEEE International Conference on Machine Learning and Applications (ICMLA);20210223;全文 * |
YM_SSH: 一种用于实时疲劳检测的轻量级目标检测网络;王彬、等;无线互联科技;20231031;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115578719A (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108154105B (zh) | 水下生物检测与识别方法、装置、服务器及终端设备 | |
CN111091109B (zh) | 基于人脸图像进行年龄和性别预测的方法、系统和设备 | |
CN111428664B (zh) | 一种基于深度学习技术的计算机视觉的实时多人姿态估计方法 | |
CN111582092B (zh) | 一种基于人体骨架的行人异常行为检测方法 | |
CN110046617A (zh) | 一种基于深度学习的数字电表读数自适应识别方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN113920516B (zh) | 一种基于孪生神经网络的书法字骨架匹配方法及系统 | |
CN112487913A (zh) | 一种基于神经网络的标注方法、装置及电子设备 | |
CN117671597B (zh) | 一种老鼠检测模型的构建方法和老鼠检测方法及装置 | |
CN115100469A (zh) | 一种基于分割算法的目标属性识别方法、训练方法和装置 | |
CN109977875A (zh) | 基于深度学习的手势识别方法及设备 | |
CN115578719B (zh) | 一种基于ym_ssh的轻量级目标检测的疲劳状态检测方法 | |
CN110321867A (zh) | 基于部件约束网络的遮挡目标检测方法 | |
CN112085680B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN114511702A (zh) | 一种基于多尺度分权注意力的遥感图像分割方法和系统 | |
CN114399681A (zh) | 电力能源设备识别方法、装置和终端设备 | |
CN116884036A (zh) | 基于YOLOv5DA的生猪姿态检测方法、装置、设备及介质 | |
CN117274794A (zh) | 一种街道场景红外目标检测方法 | |
CN117372984A (zh) | 果实检测及采摘方法、装置、电子设备及存储介质 | |
CN118115932A (zh) | 图像回归器训练方法与相关方法、装置、设备及介质 | |
CN116524522A (zh) | 一种基于卷积神经网络的女书文字识别方法及系统 | |
CN108629330A (zh) | 基于多级联分类器的人脸动态捕捉与快速识别方法及系统 | |
CN117292414A (zh) | 基于改进非对称卷积神经网络的人脸表情识别方法 | |
CN109948530B (zh) | 基于交叉学习的行人再识别性能提升方法 | |
CN118097771B (zh) | 地铁行人异常行为检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |