CN110287759A - 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法 - Google Patents

一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法 Download PDF

Info

Publication number
CN110287759A
CN110287759A CN201910229277.4A CN201910229277A CN110287759A CN 110287759 A CN110287759 A CN 110287759A CN 201910229277 A CN201910229277 A CN 201910229277A CN 110287759 A CN110287759 A CN 110287759A
Authority
CN
China
Prior art keywords
image
convolutional neural
neural networks
cnn
detection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910229277.4A
Other languages
English (en)
Other versions
CN110287759B (zh
Inventor
张小波
范俊宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910229277.4A priority Critical patent/CN110287759B/zh
Publication of CN110287759A publication Critical patent/CN110287759A/zh
Application granted granted Critical
Publication of CN110287759B publication Critical patent/CN110287759B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明涉及疲劳检测技术领域,具体涉及一种基于简化输入卷积神经网络O‑CNN的眼部疲劳检测方法,本发明首先,借助图像分类中成熟的人脸识别与人眼识别技术提取多帧眼部图像,利用基于OTSU的改进算法对图像进行统一预处理,获得简化后的训练网络输入;然后,通过卷积神经网络完成对其进行学习分类,获得最佳分类模型;经过实验对比,发现此模式下的眼部状态判定较传统模式具有更高的效率,同时能保持极高的准确率和时效性。

Description

一种基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法
技术领域
本发明涉及疲劳检测技术领域,具体涉及一种基于简化输入卷积 神经网络O-CNN的眼部疲劳检测方法。
背景技术
近年来,由于失眠疲劳,作业疲劳,单一疲劳造成极其严重后果 的案例越来越多,亟待解决。
在很久前就有相关的解决方案提出,其主要可分为接触式疲劳检 测和非接触式疲劳检测两种。接触式疲劳检测主要通过检测脑电,心 电,肌电等指标对疲劳进行判断,其检测设备通常比较庞大,不易于 携带,使用成本高,容易对被检测者产生干扰。非接触式疲劳检测主 要通过摄像头记录图像,对图像进行数字化处理,并提取相应的特征, 进行系统建模对疲劳进行判断。由于在多数应用场景下后者相对前者 优势明显,所以非接触疲劳检测所逐渐成为主流的研究方向。在此领 域种出现了很多有前瞻性的理论成果,但由于实际运用中却容易受到 外界因素干扰,特征的提取困难,检测样本数据量过少,机器处理数 据能力不强,导致实际疲劳检测的准确率不高。在上世纪九十年代到 本世纪初,疲劳检测研究处于理论成果颇丰,实际应用停滞不前的阶 段,未能有突破性研究成果出现,更不谈商业化的应用。
近年来,伴随着大数据、算法、机器算力的飞速发展,人工智能 正在迅猛崛起。海量数据存取,专供人工智能领域的专业GPU的出现 配套越来越完善高效的算法研究,使得机器学习在图像分类应用中焕 发了巨大潜力,并且出现了大量有实际意义的研究成果,尝试借助图 像识别技术解决“疲劳检测”难题重新回到许多国内外研究者的视线 当中。
眼部状态作为疲劳与否的最直接反映,在疲劳检测中可作为重要 指标。本文借助图像分类中成熟的人脸识别与人眼识别技术提取多帧 眼部图像,利用基于OTSU自适应图像阈值分割算法的改进算法对图像 进行批量统一预处理,获得简化后的卷积神经网络的输入;然后,通 过自主设计的卷积神经网络完成对大批量数据进行学习分类,获得最 佳分类模型通过实验,并将此方法成功实际运用并保有较高的准确性。
发明内容
针对现有技术的不足,本发明公开了一种基于简化输入卷积神经 网络O-CNN的眼部疲劳检测方法,用于解决机器学习在图像识别应用 过程中对机器算力要求过高,学习周期过长、识别效率不高等问题。
本发明通过以下技术方案予以实现:
一种基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其 特征在于,所述方法包括以下步骤:
S1使用图像分类中成熟的人脸识别与人眼识别技术提取多帧眼部 图像;
S2利用OTSU自适应图像分割算法对图像进行统一预处理;
S3将得简化后的训练网络输入;
S4通过卷积神经网络完成对其进行学习分类,获得最佳分类模型。
优选的,所述OTSU算法具体为,假设图像的像素点总个数是N, 灰度值为i的像素的个数为ni
若以像素级别T为阈值进行图片前景和后景分割,定义θ(t)为总 方差。
θ(t)=Pa(wa-w0)2+Pb(wb-w0)2
其中Pa表示前景像素点所占的比例;wa表示前景图像的灰度平均 值;w0表示整体图像的灰度平均值;pb表示后景像素点所占的比例; wb表示后景图像的灰度平均值;当像素级别t从区间[T0,Tmax]历遍时 所得θ(t)最小时,T即为最佳的分割阈值:
T=t|θ(t)mint∈[T0,Tmax]。
优选的,所述S4中,简化输入的卷积神经网络包括滑动窗口卷积、 批量正则化、线性修正、最大池化和全连接操作。
优选的,所述滑动窗口卷积对输入图像中局部区域进行顺序选择, 使用同一卷积核与之进行线性操作,由此获得多张输出图像,其计算 过程如下:
其中Ri,j,c表示输入图像;Qw′,h′表示输出图像;fw′,h′,c′ 表示卷积核大小;(Sw,Sh)表示窗口移动距离;
表示各个上的零填充数量。
优选的,其特征在于,所述批量正则化操作中通过对神经网络隐 藏层的输出作归一化处理,防止反向传播过程中发生梯度弥散,使神经 网络在运算时能够快速收敛。数学描述如下:
其中Rw,h,c,d表示输入图像;Qw,h,c,d表示输出图 像;wc、bc表示线性变换系数;μC为均值和方差。
优选的,所述线性修正采用一个非线性函数作为网络中的激活函 数,帮助网络理解和学习更加复杂的数据。
Qwhc=max{0|Rw,h,c}
其中Rw,h,c表示输入图像;Qw,h,c表示输出图像。
优选的,最大池化过程采用滑动窗口分割图像,将每个滑窗内取最 大值作为该窗口内所有元素的值输出
其中Qw-,h-,c表示输出值;
窗口的大小由参数W′、H′、C三个参数决定,每次移动一个窗口 的距离。
优选的,全连接操作对输入图像的所有数据进行加权求和的线性 运算,其实现方式可通过卷积操作的方式来实现.只需将滑动窗口卷积 中的卷积核大小修改为最大值即可。
本发明的有益效果为:
本发明借助OTSU的改进算法对图像进行统一预处理,获得简化后 的卷积神经网络的输入,通过卷积神经网络训练完成对其进行学习分 类,获得最佳分类模型;实验结果说明了简化输入后的卷积神经网络 能够在有限较少次迭代过程中获得收敛,并且拥有很高的识别性能, 这种操作能够降低学习系统对训练机器算力的要求,也能带来更高的 效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面 将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而 易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域 普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些 附图获得其他的附图。
图1本发明的整体流程示意图;
图2是本发明实施例利用OTSU自适应阈值分割算法可获得输出 图;
图3是本发明实施例网络训练时目标参数loss结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结 合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、 完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是 全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有 作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护 的范围。
实施例1
本实施例公开了如图1所示的一种基于简化输入卷积神经网络 O-CNN的眼部疲劳检测方法,所述方法包括以下步骤:
S1使用图像分类中成熟的人脸识别与人眼识别技术提取多帧眼部 图像;
S2利用OTSU自适应图像分割算法对图像进行统一预处理;
S3将得简化后的训练网络输入;
S4通过卷积神经网络完成对其进行学习分类,获得最佳分类模型。
所述OTSU算法具体为,假设图像的像素点总个数是N,灰度值为 i的像素的个数为ni
若以像素级别T为阈值进行图片前景和后景分割,定义θ(t)为总 方差。
θ(t)=Pa(wa-w0)2+Pb(wb-w0)2
其中Pa表示前景像素点所占的比例;wa表示前景图像的灰度平均 值;w0表示整体图像的灰度平均值;pb表示后景像素点所占的比例; wb表示后景图像的灰度平均值;当像素级别t从区间[T0,Tmax]历遍时 所得θ(t)最小时,T即为最佳的分割阈值:
T=t|θ(t)mint∈[T0,Tmax]。
所述S4中,简化输入的卷积神经网络包括滑动窗口卷积、批量正 则化、线性修正、最大池化和全连接操作。
所述滑动窗口卷积对输入图像中局部区域进行顺序选择,使用同 一卷积核与之进行线性操作,由此获得多张输出图像,其计算过程如 下:
其中Ri,j,c表示输入图像;Qw′,h′表示输出图像;fw′,h′,c′ 表示卷积核大小;(Sw,Sh)表示窗口移动距离;
表示各个上的零填充数量。
其特征在于,所述批量正则化操作中通过对神经网络隐藏层的输 出作归一化处理,防止反向传播过程中发生梯度弥散,使神经网络在运 算时能够快速收敛。数学描述如下:
其中Rw,h,c,d表示输入图像;Qw,h,c,d表示输出图 像;wc、bc表示线性变换系数;μC为均值和方差。
所述线性修正采用一个非线性函数作为网络中的激活函数,帮助 网络理解和学习更加复杂的数据。
Qwhc=max{0|Rw,h,c}
其中Rw,h,c表示输入图像;Qw,h,c表示输出图像。
最大池化过程采用滑动窗口分割图像,将每个滑窗内取最大值作 为该窗口内所有元素的值输出
其中Qw-,h-,c表示输出值;
窗口的大小由参数W′、H′、C三个参数决定,每次移动一个窗口 的距离。
全连接操作对输入图像的所有数据进行加权求和的线性运算,其 实现方式可通过卷积操作的方式来实现.只需将滑动窗口卷积中的卷 积核大小修改为最大值即可。
实施例2
本实施例中,卷积神经网络是一种多层网络结构学习算法,其思 想是模拟人脑神经元对外界信息的提取,处理及传递过程从而实现对 图像进行特征检测提取。一般由输入层、卷积层、池化层、全连接层 和输出层组成。由于卷积神经网络的局部感受及权重共享等特点,其 网络结构较为简单,在提取过程中更为高效,因此被广泛运用于模式 识别、图像处理域。卷积层中局部感受域与上一输入层中神经元作部 分连接,从而实现神经元与图像中的信息编码相关联,迫使神经元提 取相应并且与前一层的中的神经元之间相关联,即权值共享,使得网 络中的参数减少,复杂度降低。卷积层在CNN特征提取的过程中起着 至关重要的作用。的局部特征,同时网络中的不同层中分布着许许多 多的神经元,神经元的输入权值不同
池化层也叫特征映射层,首先选定池化区域,然后取特征的最大 值或平均值作为池化区域的特征,从而减少特征向量维度,实现特征 图中局部平均和抽样,降低了特征映射输出对平移、旋转、比例缩放 等形式变换的敏感度。池化层通常跟在卷积层之后,这样便构成了一 个两次特征提取的结构,经过池化后的网络具有很好的畸变容忍能力。
全连接层是本层神经元与上层神经元两两连接但本层神经元之间 不连接的结构,相当于多层感知器中的隐含层,局部特征信息作为输 出层的输入,其后不再接卷积层,因通过全连接层之后,图像特征已 由二维信息降为一维信息,已无法进行二维卷积运算。
本实施例提出了一种简化输入图像的卷积神经网络分类算法,用 于连续状态下眼部状态的判定。基于OTSU自适应阈值分割算法获取输 入图像,以及相应卷积神经网络训练分类模型,最终建立连续状态下 的检测模型。
一幅经过降维去噪的眼部图像可看做是一个二维矩阵,矩阵中的 每个点代表了图像中对应点的像素,像素的深浅由其灰度级决定,通 过简化,我们把图像中每个点的像素值转为[0,255]范围内。
T=t|θ(T)mint∈[T0,Tmax]t∈[T0,Tmax]
根据上式可以将图像进行分割
经过阈值分割之后的图像中有效信息得到保留,去除了背景和噪 音,能实现简化输入的效果;
为了避免简化后的图像的边缘、局部错误信息对后续操作产生影 响,我们需要对此时的图像作一定的模糊处理,包括散点腐蚀,边缘 腐蚀等操作,在保证输入信息准确性的前提下,使输入图像差异化更 加明显。
实验配置:
硬件配置:英特尔i5处理器,主频为1.90Hz,8G内存,4GB独立 显卡,500G硬盘。软件配置:开源图像处理视觉库opencv2.4,开发 编译工具vs2013,操作系统windows8.1的dos环境。
依据PROPOSED METHOD,实验步骤可以描述为:
Step1:人眼图像数据源获取;
Step2:源数据图像批量预处理;
Step3:O-CNN最佳分类模型训练;
Step4:最佳分类模型性能测试。
下列是算法流程图:(可能要将流程图改成英文+部分)
整个疲劳检测研究过程中需要获取数据源,需要用到一款名为 opencv的视觉库,OpenCV是一个基于BSD许可(开源)发行的跨平台 计算机视觉库。此工具在物体识别、图像分割、机器视觉领域有很多 杰出的应用。我们使用此工具解决本实验过程中获取图像源,图像批 量预处理处理等问题。
下列是一些关键的实验步骤及结果记录。
Step1:人眼图像数据源获取
人脸识别系统主要包括四个组成部分,分别为:人脸图像采集及 检测、人脸图像预处理、人脸图像特征提取以及匹配与识别。实验中 人脸特征提取过程所用到的技术原理已经相当成熟,具体可以参见基 于梁涛等人所著《OpenCV的视频图像人眼跟踪方法的研究》中用到的 Haar分类器算法。
通过以上图像处理操作,我们可以从连续的视频图像帧获得海量 的人眼图像,作为后续实验所用到的数据源。
Step2:源数据图像批量预处理
本实验设置目的是在确保图像信息不失真的情况下获得卷积神经 网络中统一且差异化明显的输入,以加速训练网络的收敛性。所以我 们需要对图像进行归一化处理。其中包括源数据的大小统一设置为28 ×28,图像通道数设置为1,利用OTSU自适应图像分割算法对图像进 行阈值分割。下表中是个图像参数一览。
根据PROPOSED METHOD中所述眼部状态可归为睁眼、眯眼三种状 态,利用OTSU自适应阈值分割算法可获得输出图像如图2所示。
通过以上操作获得28×28简化输入图像,用作O-CNN网络训练的 数据集,这样操作获得数据集的意义在于统一且简化网络输出层中的 输出数据,尽量避免网络在传播过程中由于无关信息所导致的训练震 荡,使得训练时,可以在简单的网络结构下次数较少的迭代即可达到 网络收敛,达到加快网络训练的目的。
Step3:O-CNN分类模型训练
依据PROPOSED METHOD所设计的训练网络结构,采用逐层梯度下 降的方法以输出参数为loss(对数损失交叉熵)的目标函数进行优化。 将训练集中的所有数据进行分块进行一次正向传播训练,训练完所有 数据为一次迭代结束。通过设置迭代次数寻找最优的网络参数。基础 学习率设置为0.001,学习率调整采取阶跃下降方式,输入O-CNN数据 集中经过预处理的28×28大小的单通道图像,输出为表征目标函数 优化程度的loss数值,通过迭代次数的设置获取最优的分类器模型。
数据集参数设置如下表所示:
网络训练时我们关注目标参数loss,通过实验,我们在一台有4GB 独立显存的计算机上搭建训练环境并进行了不同迭代次数的训练,并 记录结果如图3所示,其中横坐标代表迭代次数,纵坐标代表loss的 值:从表中可以分析得出,训练迭代过程中,在经历短暂震荡后,学 习系统开始迅速收敛,在迭代次数达到50左右时,loss的值已经稳定 趋向于0;因此我们可以使用迭代次数为50的训练所得分类器作为最 佳分类器,对测试集进行测试,获得检测准确率。
Step4:最佳分类模型性能测试。
针对每个状态标签,我们各准备了8000个测试样本进行实验,实 验结果如下表所示:
从上表中分析得出,测试集中每个状态标签的准确识别率都达到 97%以上,拥有非常高的识别精度,也就是说,我们训练得出的分类器 是准确而且高效的。
本文借助OTSU的改进算法对图像进行统一预处理,获得简化后的 卷积神经网络的输入,通过卷积神经网络训练完成对其进行学习分类, 获得最佳分类模型;实验结果说明了简化输入后的卷积神经网络能够 在有限较少次迭代过程中获得收敛,并且拥有很高的识别性能,这种 操作能够降低学习系统对训练机器算力的要求,也能带来更高的效率。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管 参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员 应当理解:其依然可以对前述各实施例所记载的技术方案进行修改, 或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不 使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述方法包括以下步骤:
S1使用图像分类中成熟的人脸识别与人眼识别技术提取多帧眼部图像;
S2利用OTSU自适应图像分割算法对图像进行统一预处理;
S3将得简化后的训练网络输入;
S4通过卷积神经网络完成对其进行学习分类,获得最佳分类模型。
2.根据权利要求1所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述OTSU算法具体为,假设图像的像素点总个数是N,灰度值为i的像素的个数为ni
若以像素级别T为阈值进行图片前景和后景分割,定义θ(t)为总方差。
θ(t)=Pa(wa-w0)2+Pb(wb-w0)2
其中Pa表示前景像素点所占的比例;wa表示前景图像的灰度平均值;w0表示整体图像的灰度平均值;pb表示后景像素点所占的比例;wb表示后景图像的灰度平均值;当像素级别t从区间[T0,Tmax]历遍时所得θ(t)最小时,T即为最佳的分割阈值:
T=t|θ(t)min t∈[T0,Tmax]。
3.根据权利要求1所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述S4中,简化输入的卷积神经网络包括滑动窗口卷积、批量正则化、线性修正、最大池化和全连接操作。
4.根据权利要求3所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述滑动窗口卷积对输入图像中局部区域进行顺序选择,使用同一卷积核与之进行线性操作,由此获得多张输出图像,其计算过程如下:
其中Ri,j,c表示输入图像;表示输出图像;fw’,h’,c’表示卷积核大小;(Sw,Sh)表示窗口移动距离;
表示各个上的零填充数量。
5.据权利要求3所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述批量正则化操作中通过对神经网络隐藏层的输出作归一化处理,防止反向传播过程中发生梯度弥散,使神经网络在运算时能够快速收敛。数学描述如下:
其中Rw,h,c,d表示输入图像;Qw,h,c,d表示输出图像;wc、bc表示线性变换系数;μc为均值和方差。
6.权利要求3所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,所述线性修正采用一个非线性函数作为网络中的激活函数,帮助网络理解和学习更加复杂的数据。
Qwhc=max{0|Rw,h,c}
其中Rw,h,c表示输入图像;Qw,h,c表示输出图像。
7.根据权利要求3所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,最大池化过程采用滑动窗口分割图像,将每个滑窗内取最大值作为该窗口内所有元素的值输出
其中Qw”,h”,c表示输出值;
窗口的大小由参数W’、H’、C三个参数决定,每次移动一个窗口的距离。
8.根据权利要求3所述的基于简化输入卷积神经网络O-CNN的眼部疲劳检测方法,其特征在于,全连接操作对输入图像的所有数据进行加权求和的线性运算,其实现方式可通过卷积操作的方式来实现.只需将滑动窗口卷积中的卷积核大小修改为最大值即可。
CN201910229277.4A 2019-03-25 2019-03-25 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法 Expired - Fee Related CN110287759B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910229277.4A CN110287759B (zh) 2019-03-25 2019-03-25 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910229277.4A CN110287759B (zh) 2019-03-25 2019-03-25 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法

Publications (2)

Publication Number Publication Date
CN110287759A true CN110287759A (zh) 2019-09-27
CN110287759B CN110287759B (zh) 2022-08-02

Family

ID=68001236

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910229277.4A Expired - Fee Related CN110287759B (zh) 2019-03-25 2019-03-25 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法

Country Status (1)

Country Link
CN (1) CN110287759B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220155007A1 (en) * 2020-11-17 2022-05-19 Haier Us Appliance Solutions, Inc. Inventory management system for a refrigerator appliance
CN116805405A (zh) * 2023-08-25 2023-09-26 南通大学 用于铣床设备的智能防护方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514459A (zh) * 2013-10-11 2014-01-15 中国科学院合肥物质科学研究院 一种基于Android手机平台的识别农作物病虫害的方法及系统
KR20160108790A (ko) * 2015-03-06 2016-09-20 동국대학교 산학협력단 눈 개폐 분류 장치 및 방법
CN107977683A (zh) * 2017-12-20 2018-05-01 南京大学 基于卷积特征提取和机器学习的联合sar目标识别方法
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN109344802A (zh) * 2018-10-29 2019-02-15 重庆邮电大学 一种基于改进的级联卷积神经网的人体疲劳检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514459A (zh) * 2013-10-11 2014-01-15 中国科学院合肥物质科学研究院 一种基于Android手机平台的识别农作物病虫害的方法及系统
KR20160108790A (ko) * 2015-03-06 2016-09-20 동국대학교 산학협력단 눈 개폐 분류 장치 및 방법
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN107977683A (zh) * 2017-12-20 2018-05-01 南京大学 基于卷积特征提取和机器学习的联合sar目标识别方法
CN109344802A (zh) * 2018-10-29 2019-02-15 重庆邮电大学 一种基于改进的级联卷积神经网的人体疲劳检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220155007A1 (en) * 2020-11-17 2022-05-19 Haier Us Appliance Solutions, Inc. Inventory management system for a refrigerator appliance
US11692769B2 (en) * 2020-11-17 2023-07-04 Haier Us Appliance Solutions, Inc. Inventory management system for a refrigerator appliance
CN116805405A (zh) * 2023-08-25 2023-09-26 南通大学 用于铣床设备的智能防护方法及系统
CN116805405B (zh) * 2023-08-25 2023-10-27 南通大学 用于铣床设备的智能防护方法及系统

Also Published As

Publication number Publication date
CN110287759B (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
Liu et al. Attribute-aware face aging with wavelet-based generative adversarial networks
Mao et al. Artificial neural networks for feature extraction and multivariate data projection
CN108229268A (zh) 表情识别及卷积神经网络模型训练方法、装置和电子设备
CN107273845A (zh) 一种基于置信区域和多特征加权融合的人脸表情识别方法
CN102136024B (zh) 生物特征识别性能测评和诊断优化系统
CN105917353A (zh) 用于生物认证的特征提取及匹配以及模板更新
CN110197729A (zh) 基于深度学习的静息态fMRI数据分类方法和装置
CN104636580A (zh) 一种基于人脸的健康监控手机
CN113537027B (zh) 基于面部划分的人脸深度伪造检测方法及系统
CN110287759A (zh) 一种基于简化输入卷积神经网络o-cnn的眼部疲劳检测方法
CN110232390A (zh) 一种变化光照下图像特征提取方法
CN108416797A (zh) 一种检测行为变化的方法、设备及存储介质
Wang et al. Multi-view face generation via unpaired images
CN112395971A (zh) 基于StarGAN的不同量化光照及角度条件下人脸测试图像生成方法、应用及存储介质
Zhu A face recognition system using ACO-BPNN model for optimizing the teaching management system
Bai et al. Learning networks for extrapolation and radar target identification
Kakani et al. Segmentation-based ID preserving iris synthesis using generative adversarial networks
CN110020597A (zh) 一种用于头晕/眩晕辅诊的眼部视频处理方法及系统
CN112365344B (zh) 一种业务规则自动生成方法和系统
Hua et al. Collaborative Generative Adversarial Network with Visual perception and memory reasoning
Sun et al. Virtual reality of recognition technologies of the improved contour coding image based on level set and neural network models
Lei et al. Weighted Huber constrained sparse face recognition
CN112365551A (zh) 一种图像质量处理系统、方法、设备和介质
Li et al. Recognition algorithm of athletes' partially occluded face based on a deep learning algorithm
Fang et al. (Retracted) Face recognition technology in classroom environment based on ResNet neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220802

CF01 Termination of patent right due to non-payment of annual fee