CN110458206A - 一种基于深度学习的注意行为模型 - Google Patents

一种基于深度学习的注意行为模型 Download PDF

Info

Publication number
CN110458206A
CN110458206A CN201910669694.0A CN201910669694A CN110458206A CN 110458206 A CN110458206 A CN 110458206A CN 201910669694 A CN201910669694 A CN 201910669694A CN 110458206 A CN110458206 A CN 110458206A
Authority
CN
China
Prior art keywords
deep learning
attention
behavior
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910669694.0A
Other languages
English (en)
Inventor
齐妙
吕英华
郑彩侠
王建中
孔俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Northeast Normal University
Original Assignee
Northeast Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Normal University filed Critical Northeast Normal University
Priority to CN201910669694.0A priority Critical patent/CN110458206A/zh
Publication of CN110458206A publication Critical patent/CN110458206A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Library & Information Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的注意行为模型,包括数据采集单元、深度学习算法单元以及结果显示单元,所述数据采集模块至少包括一个摄像头和键盘模块,所述深度学习算法模块至少包括一个处理器,所述结果显示单元至少包括一个显示器,所述数据采集单元采集到的数据传送到所述深度学习算法单元的输入端,所述深度学习算法模块的输出端连接到所述结果显示单元的输入端,所述键盘模块的输出端与所述深度学习算法模块的输入端通过数据线连接。所述深度学习算法模块的内部通过编程软件装有深度学习算法。本发明通过建立这个深度学习的注意行为模型,对学生的个人行为进行分析,在学生分心、开小差的时候能够及时的提醒到学生。

Description

一种基于深度学习的注意行为模型
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的注意行为 模型。
背景技术
现有的中学教育都是老师在讲台上教授课本内容,学生坐在课桌上听讲, 但是有时候学生上课的时候容易走神或者发呆,老师在讲台上并不能直接了 解到学生的神态,当讲到重点内容时,如果发呆容易学生造成不够了解教学 内容,老师不能时刻提醒到走神的学生。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种基于深度学习的注意行为模型, 解决了现在中学教育体系中,学生在走神的状况下,老师不能快速了解到学 生的神态的问题。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:一种基于深度学习的注意 行为模型,包括数据采集单元、深度学习算法单元以及结果显示单元,所述 数据采集模块至少包括一个摄像头和键盘模块,所述深度学习算法模块至少 包括一个处理器,所述结果显示单元至少包括一个显示器,所述数据采集单 元采集到的数据传送到所述深度学习算法单元的输入端,所述深度学习算法 模块的输出端连接到所述结果显示单元的输入端,所述键盘模块的输出端与 所述深度学习算法模块的输入端通过数据线连接。
优选的,所述深度学习算法模块的内部通过编程软件装有深度学习算法, 所述深度学习算法的工作方法包括如下步骤:
(1)构建注意行为特征库:首先利用数据采集单元不停的拍摄被注意人 的行为日常,并且将拍摄的图像传送到深度学习算法模块,然后通过键盘模 块对这些图像进行分类,构建注意行为图谱,选出注意行为的特征描述作为 研究对象构建注意行为特征库,构建出不同的注意行为的特征描述,为深度 学习网络模型对注意行为图像识别的准确度提供视觉依据;
(2)注意行为图像特征库的构建:根据注意行为图谱分类,编写爬虫软 件在权威图库中按照常见的注意行为类别下载图像,经过数据清洗,得到有 效图像,构建了注意行为图像数据库
(3)注意行为图像识别模型构建与分析:包括如下步骤:
(A):首先从注意行为特征库中取出样本图像,进行数据扩增,先应用 双线性插值方法将图像缩小到256×256大小,然后按照224×224大小截取 图像中左上角、右上角、左下角、右下角和中间部分图像块,最后将截取后 的图像块进行水平翻转,总共有10张子图像块输入到卷积网络模型的第一卷 积层,达到数据集扩增效果;
(B):数据扩增后进行ReLU非线性激活,激活后进行归一化处理,归 一化处理是为了提高模型的泛化能力;然后再将数据输入到第二、第三卷积 层,第二、第三卷积层直接相连,在进行归一化层和池化层之后,启用了9 个Inception模块,模型在不同深度处增加了两个辅助性的分类量词来保证 梯度回传消失;在初期模块操作之后,经过平均池化,降低特征维度,最后 进行一个1024个神经元的全连接层和一个8类别输出的softmax函数,softmax函数产生8个注意行为类别的概率值,使用Top-1错误率,即将网络 输出的8个概率值中最高值映射为1,表示深度学习网络将输入图像识别为该 类,其余7个概率值映射为0,表示该输入图像不属于这些类别,最终测试 值和真值进行比较,判别网络图像识别是否准确。
优选的,在步骤(3)中的步骤(A)中,第一卷积层使用的卷积核大小 为7×7,步长为2,一共设置了64个卷积核,生成64幅特征图;第一卷积 层之后连接的是最大池化层,在卷积层输出基础上用64个大小为3×3的滤 波核来降低学习特征的维数,并使池化后的特征表达具有一定的平移不变性, 在平均意义上,与平均池化层近似,在局部意义上,则服从最大池化层的准 则,最大池化层的结果是使得特征减少,参数减少,最大池化层目的是为了 保持某种不变性。
优选的,在步骤(3)中的步骤(B)中,第二卷积层使用了64个卷积核, 大小为1×1,步长为1。第三卷积层使用了192个卷积核,大小为3×3,步 长为1。
优选的,在步骤(3)中,所述卷积网络模型的梯度反向传播过程中,第 l层的梯度定义如式(1)所示:
其中wl第l层的滤波权值参数,bl是l层的偏置,yl是第l层输出特征图像, f(·)是激活函数,f′是f的梯度,权值wl和偏置bl的更新如式(2)、(3)所示:
其中μ为动量变量,α是动量因子,是权重延时,η为学习率,是目标函数L对w在第i次迭代下批量样本Di的平均梯度。
优选的,所述学习率η的计算公式如式(4)所示:
其中base_lr=0.01,power=0.5,t是当前迭代次数,T是最大迭代次数。
(三)有益效果
本发明提供了一种基于深度学习的注意行为模型,具备有以下有益效果: 本发明基于深度学习的机器学习技术为图像自动识别提供了强有力的支持。 与传统手工提取图像特征进行图像分类和识别的方式不同,深度学习通过建 立类似于人脑的分层模型结构,自动对输入图像逐级提取从底层到高层的特 征,从而能很好地建立从底层信号到高层语义的映射关系。深度学习应用于 图像识别不但大大提升了准确性,而且避免了人工特征抽取的时间消耗,从 而大大提高了在线计算效率,适合于学生行为的自动识别与分类。本发明根 据注意行为图谱分类,选出常见的8类行为类别,通过数据采集模块不断的 采集到图像数据,经过数据清洗,得到注意行为图像库。本发明采用深度卷 积神经网络网络模型,使用数据集扩增(Data augmentation)技术,运用 fine-tune方法将注意行为图像输入模型中进行训练,再用不同于训练集中的 图像数据集进行网络测试,达到收敛为止。该网络模型识别精度高,可为学 生行为远程自动诊断提供关键技术支持。通过对学生行为的不断分析,将学 生的行为进行分类,当学生出现分心、开小差或者发呆的时候,能够及时提 醒到学生,使老师督促学生恢复正常上课的状态。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显 然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施 例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性 劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现提出下述实施例:一种基于深度学习的注意行为模型,包括数据采集 单元、深度学习算法单元以及结果显示单元,所述数据采集模块至少包括一 个摄像头和键盘模块,所述深度学习算法模块至少包括一个处理器,所述结 果显示单元至少包括一个显示器,所述数据采集单元采集到的数据传送到所 述深度学习算法单元的输入端,所述深度学习算法模块的输出端连接到所述 结果显示单元的输入端,所述键盘模块的输出端与所述深度学习算法模块的 输入端通过数据线连接。
优选的,所述深度学习算法模块的内部通过编程软件装有深度学习算法, 所述深度学习算法的工作方法包括如下步骤:
(1)构建注意行为特征库:首先利用数据采集单元不停的拍摄被注意人 的行为日常,并且将拍摄的图像传送到深度学习算法模块,然后通过键盘模 块对这些图像进行分类,构建注意行为图谱,选出注意行为的特征描述作为 研究对象构建注意行为特征库,构建出不同的注意行为的特征描述,为深度 学习网络模型对注意行为图像识别的准确度提供视觉依据;
(2)注意行为图像特征库的构建:根据注意行为图谱分类,编写爬虫软 件在权威图库中按照常见的注意行为类别下载图像,经过数据清洗,得到有 效图像,构建了注意行为图像数据库
(3)注意行为图像识别模型构建与分析:包括如下步骤:
(A):首先从注意行为特征库中取出样本图像,进行数据扩增,先应用 双线性插值方法将图像缩小到256×256大小,然后按照224×224大小截取 图像中左上角、右上角、左下角、右下角和中间部分图像块,最后将截取后 的图像块进行水平翻转,总共有10张子图像块输入到卷积网络模型的第一卷 积层,达到数据集扩增效果,第一卷积层使用的卷积核大小为7×7,步长为 2,一共设置了64个卷积核,生成64幅特征图;第一卷积层之后连接的是最 大池化层,在卷积层输出基础上用64个大小为3×3的滤波核来降低学习特 征的维数,并使池化后的特征表达具有一定的平移不变性,在平均意义上, 与平均池化层近似,在局部意义上,则服从最大池化层的准则,最大池化层 的结果是使得特征减少,参数减少,最大池化层目的是为了保持某种不变性;; 所述卷积网络模型的梯度反向传播过程中,第l层的梯度定义如式(1)所示:
其中wl第l层的滤波权值参数,bl是l层的偏置,yl是第l层输出特征图像, f(·)是激活函数,f′是f的梯度,权值wl和偏置bl的更新如式(2)、(3)所示:
其中μ为动量变量,α是动量因子,是权重延时weight decay,η为学 习率,是目标函数L对w在第i次迭代下批量样本Di的平均梯度。其中 所述学习率η的计算公式如式(4)所示:
其中base_lr=0.01,power=0.5,t是当前迭代次数,T是最大迭代次数。
(B):数据扩增后进行ReLU非线性激活,激活后进行归一化处理,归 一化处理是为了提高模型的泛化能力;然后再将数据输入到第二、第三卷积 层,第二、第三卷积层直接相连,在进行归一化层和池化层之后,启用了9 个Inception模块,模型在不同深度处增加了两个辅助性的分类量词来保证 梯度回传消失;在初期模块操作之后,经过平均池化,降低特征维度,最后 进行一个1024个神经元的全连接层和一个8类别输出的softmax函数,softmax函数产生8个注意行为类别的概率值,使用Top-1错误率,即将网络 输出的8个概率值中最高值映射为1,表示深度学习网络将输入图像识别为该 类,其余7个概率值映射为0,表示该输入图像不属于这些类别,最终测试值 和真值进行比较,判别网络图像识别是否准确。
本发明基于深度学习的机器学习技术为图像自动识别提供了强有力的支 持。与传统手工提取图像特征进行图像分类和识别的方式不同,深度学习通 过建立类似于人脑的分层模型结构,自动对输入图像逐级提取从底层到高层 的特征,从而能很好地建立从底层信号到高层语义的映射关系。深度学习应 用于图像识别不但大大提升了准确性,而且避免了人工特征抽取的时间消耗, 从而大大提高了在线计算效率,适合于学生行为的自动识别与分类。本发明 根据注意行为图谱分类,选出常见的8类行为类别,通过数据采集模块不断 的采集到图像数据,经过数据清洗,得到注意行为图像库。本发明采用深度 卷积神经网络网络模型,使用数据集扩增(Data augmentation)技术,运用 fine-tune方法将注意行为图像输入模型中进行训练,再用不同于训练集中的 图像数据集进行网络测试,达到收敛为止。该网络模型识别精度高,可为学 生行为远程自动诊断提供关键技术支持。通过对学生行为的不断分析,将学 生的行为进行分类,当学生出现分心、开小差或者发呆的时候,能够及时提 醒到学生,使老师督促学生恢复正常上课的状态。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来 将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示 这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、 “包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系 列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明 确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有 的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素, 并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同 要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而 言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行 多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限 定。

Claims (6)

1.一种基于深度学习的注意行为模型,其特征在于:包括数据采集单元、深度学习算法单元以及结果显示单元,所述数据采集模块至少包括一个摄像头和键盘模块,所述深度学习算法模块至少包括一个处理器,所述结果显示单元至少包括一个显示器,所述数据采集单元采集到的数据传送到所述深度学习算法单元的输入端,所述深度学习算法模块的输出端连接到所述结果显示单元的输入端,所述键盘模块的输出端与所述深度学习算法模块的输入端通过数据线连接。
2.根据权利要求1所述的一种基于深度学习的注意行为模型,其特征在于:所述深度学习算法模块的内部通过编程软件装有深度学习算法,所述深度学习算法的工作方法包括如下步骤:
(1)构建注意行为特征库:首先利用数据采集单元不停的拍摄被注意人的行为日常,并且将拍摄的图像传送到深度学习算法模块,然后通过键盘模块对这些图像进行分类,构建注意行为图谱,选出注意行为的特征描述作为研究对象构建注意行为特征库,构建出不同的注意行为的特征描述,为深度学习网络模型对注意行为图像识别的准确度提供视觉依据;
(2)注意行为图像特征库的构建:根据注意行为图谱分类,编写爬虫软件在权威图库中按照常见的注意行为类别下载图像,经过数据清洗,得到有效图像,构建了注意行为图像数据库
(3)注意行为图像识别模型构建与分析:包括如下步骤:
(A):首先从注意行为特征库中取出样本图像,进行数据扩增,先应用双线性插值方法将图像缩小到256×256大小,然后按照224×224大小截取图像中左上角、右上角、左下角、右下角和中间部分图像块,最后将截取后的图像块进行水平翻转,总共有10张子图像块输入到卷积网络模型的第一卷积层,达到数据集扩增效果;
(B):数据扩增后进行ReLU非线性激活,激活后进行归一化处理,归一化处理是为了提高模型的泛化能力;然后再将数据输入到第二、第三卷积层,第二、第三卷积层直接相连,在进行归一化层和池化层之后,启用了9个Inception模块,模型在不同深度处增加了两个辅助性的分类量词来保证梯度回传消失;在初期模块操作之后,经过平均池化,降低特征维度,最后进行一个1024个神经元的全连接层和一个8类别输出的softmax函数,softmax函数产生8个注意行为类别的概率值,使用Top-1错误率,即将网络输出的8个概率值中最高值映射为1,表示深度学习网络将输入图像识别为该类,其余7个概率值映射为0,表示该输入图像不属于这些类别,最终测试值和真值进行比较,判别网络图像识别是否准确。
3.根据权利要求2所述的一种基于深度学习的注意行为模型,其特征在于:在步骤(3)中的步骤(A)中,第一卷积层使用的卷积核大小为7×7,步长为2,一共设置了64个卷积核,生成64幅特征图;第一卷积层之后连接的是最大池化层,在卷积层输出基础上用64个大小为3×3的滤波核来降低学习特征的维数,并使池化后的特征表达具有一定的平移不变性,在平均意义上,与平均池化层近似,在局部意义上,则服从最大池化层的准则,最大池化层的结果是使得特征减少,参数减少,最大池化层目的是为了保持某种不变性。
4.根据权利要求2所述的一种基于深度学习的注意行为模型,其特征在于:在步骤(3)中的步骤(B)中,第二卷积层使用了64个卷积核,大小为1×1,步长为1。第三卷积层使用了192个卷积核,大小为3×3,步长为1。
5.根据权利要求2所述的一种基于深度学习的注意行为模型,其特征在于:在步骤(3)中,所述卷积网络模型的梯度反向传播过程中,第l层的梯度定义如式(1)所示:
其中ωl第l层的滤波权值参数,bl是l层的偏置,yl是第l层输出特征图像,f(·)是激活函数,f′是f的梯度,权值ωl和偏置bl的更新如式(2)、(3)所示:
其中μ为动量变量,α是动量因子,是权重延时,η为学习率,是目标函数L对ω在第i次迭代下批量样本Di的平均梯度。
6.根据权利要求5所述的一种基于深度学习的注意行为模型,其特征在于:所述学习率η的计算公式如式(4)所示:
其中base_lr=0.01,power=0.5,t是当前迭代次数,T是最大迭代次数。
CN201910669694.0A 2019-07-24 2019-07-24 一种基于深度学习的注意行为模型 Pending CN110458206A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910669694.0A CN110458206A (zh) 2019-07-24 2019-07-24 一种基于深度学习的注意行为模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910669694.0A CN110458206A (zh) 2019-07-24 2019-07-24 一种基于深度学习的注意行为模型

Publications (1)

Publication Number Publication Date
CN110458206A true CN110458206A (zh) 2019-11-15

Family

ID=68483220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910669694.0A Pending CN110458206A (zh) 2019-07-24 2019-07-24 一种基于深度学习的注意行为模型

Country Status (1)

Country Link
CN (1) CN110458206A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046980A (zh) * 2020-03-16 2020-04-21 腾讯科技(深圳)有限公司 一种图像检测方法、装置、设备及计算机可读存储介质
CN112053295A (zh) * 2020-08-21 2020-12-08 珠海市杰理科技股份有限公司 图像降噪方法、装置、计算机设备和存储介质
CN112862096A (zh) * 2021-02-04 2021-05-28 百果园技术(新加坡)有限公司 一种模型训练和数据处理方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171176A (zh) * 2017-12-29 2018-06-15 中车工业研究院有限公司 一种基于深度学习的地铁司机情绪辨识方法及装置
CN109711471A (zh) * 2018-12-28 2019-05-03 井冈山大学 一种基于深度卷积神经网络的水稻病害图像识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171176A (zh) * 2017-12-29 2018-06-15 中车工业研究院有限公司 一种基于深度学习的地铁司机情绪辨识方法及装置
CN109711471A (zh) * 2018-12-28 2019-05-03 井冈山大学 一种基于深度卷积神经网络的水稻病害图像识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046980A (zh) * 2020-03-16 2020-04-21 腾讯科技(深圳)有限公司 一种图像检测方法、装置、设备及计算机可读存储介质
CN112053295A (zh) * 2020-08-21 2020-12-08 珠海市杰理科技股份有限公司 图像降噪方法、装置、计算机设备和存储介质
CN112053295B (zh) * 2020-08-21 2024-04-05 珠海市杰理科技股份有限公司 图像降噪方法、装置、计算机设备和存储介质
CN112862096A (zh) * 2021-02-04 2021-05-28 百果园技术(新加坡)有限公司 一种模型训练和数据处理方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN110298361A (zh) 一种rgb-d图像的语义分割方法和系统
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及系统
CN110458206A (zh) 一种基于深度学习的注意行为模型
CN106803069A (zh) 基于深度学习的人群高兴程度识别方法
CN107766794A (zh) 一种特征融合系数可学习的图像语义分割方法
CN106650725A (zh) 基于全卷积神经网络的候选文本框生成和文本检测方法
CN109766427A (zh) 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN107679582A (zh) 一种基于多模态分解模型进行可视问答的方法
CN108197294A (zh) 一种基于深度学习的文本自动生成方法
CN106485214A (zh) 一种基于卷积神经网络的眼睛和嘴部状态识别方法
CN107492121A (zh) 一种单目深度视频的二维人体骨骼点定位方法
CN109785344A (zh) 基于特征重标定的双通路残差网络的遥感图像分割方法
CN106156765A (zh) 基于计算机视觉的安全检测方法
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与系统
CN114842208B (zh) 一种基于深度学习的电网危害鸟种目标检测方法
CN107657204A (zh) 深层网络模型的构建方法及人脸表情识别方法和系统
CN104517274B (zh) 基于贪婪搜索的人脸画像合成方法
CN110287882A (zh) 一种基于深度学习的大菊品种图像识别方法
CN109784288B (zh) 一种基于判别感知融合的行人再识别方法
CN106803135A (zh) 一种光伏发电系统输出功率的预测方法及装置
CN110059716A (zh) 一种cnn-lstm-svm网络模型的构建及mooc辍学预测方法
CN107516128A (zh) 一种基于ReLU激活函数的卷积神经网络的花卉识别方法
CN106503661A (zh) 基于烟花深度信念网络的人脸性别识别方法
CN109376683A (zh) 一种基于稠密图的视频分类方法和系统
CN113033310A (zh) 一种基于视觉自注意力网络的表情识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191115

RJ01 Rejection of invention patent application after publication