CN110647905B - 一种基于伪脑网络模型下的涉恐场景识别方法 - Google Patents
一种基于伪脑网络模型下的涉恐场景识别方法 Download PDFInfo
- Publication number
- CN110647905B CN110647905B CN201910711601.6A CN201910711601A CN110647905B CN 110647905 B CN110647905 B CN 110647905B CN 201910711601 A CN201910711601 A CN 201910711601A CN 110647905 B CN110647905 B CN 110647905B
- Authority
- CN
- China
- Prior art keywords
- brain
- network
- brain network
- model
- terrorist
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于伪脑网络模型下的涉恐场景识别方法。本发明包括如下步骤:步骤1、通过CNN图像分类器,得到涉恐场景图片概率值;步骤2、通过伪脑网络图像分类器,得到涉恐场景图片概率值;步骤3、将CNN图像分类器分类结果和伪脑网络图像分类器分类结果输入给神经网络融合模型,输出场景事件分类结果,涉恐场景=1,非涉恐场景=0。本发明将深度学习算法与等效伪脑网络模型相结合。深度学习网络用于机器视觉图像分类,伪脑网络模型替代人脑对视听觉信息高级特征进行融合,实现环境物体感知和环境认知。
Description
技术领域
本发明涉及图像识别和分类领域,具体涉及一种基于伪脑网络模型下的涉恐场景识别方法。该方法可应用于识别涉恐、涉暴场景等领域。
背景技术
随着网络视频的发展,互联网上越来越多的涉恐涉暴视频广泛传播。由于视频与其他媒体相比更具鼓动性和迷惑性,因此这些有害视频造成的危害极大。因此,加强暴恐网络视频内容监管成为迫切需求,对于保障网络视频内容安全具有重大意义。并且,目前针对此领域相关方面的研究成果十分稀少,本发明内容能够对此方面的应用进行一个有效的扩充。
早期经典图像显著性检测方法主要采用的是局部和全局对比特征,虽然可以结合其他显著性特征来获得更高的检测精度,但对合适特征的选取仍值得深入研究。同时,经典视觉领域方法都是对基于视觉感知“自下而上”模式,这些模型都是数学计算的结果,而不是视觉觉察特性的最优化表示形式。但从人类视觉觉察的角度来看,人们很显然地总是倾向于关注图像中含有觉察信息量最大的区域或者目标,从而更有效地分析所观察到的东西。受Shannon所提出的信息论启发,国外学者Attneave等人首先研究了图像的统计特性与视觉感知的相关性,提出视觉感知的最终目标是产生一个对人类从周围环境中所感知到物体的高效表示。其后Barlow等人研究认为,由于生物视觉感知系统中的神经元是以一种非常高效的方式对信息进行解码以便有效利用计算资源,因此视觉信息的编码效率是神经处理过程中的一个重要限制。此后,该种编码策略逐渐被称为冗余减低原则,并引出了稀疏的概念。稀疏表示能更好地描述人类视觉感知系统的知觉响应特性,并且将稀疏编码应用于图像处理等应用中能够显著提高处理效率和有效性。近年来,在结合稀疏编码对人眼感知特性良好模仿能力的基础上,利用多尺度特征融合及先验估计等技术的视觉显著性检测方法得到了研究人员的更多关注。视觉显著性的检测是基于多尺度显著性特征的标准化而来。该方法提出采用自适应稀疏表示来促进中央-周边差运算的性能,并且对颜色和空间表示进行非线性集成来更好地获得底层数据的结构。然而当图像中含有多个显著目标、图像背景较为复杂或者背景与显著目标相类似时,会导致该方法的检测性能出现显著下降。针对采用特征进行显著性检测时的局限性,国内外学者提出采用能够表达物体本征属性的信息来提高视觉觉察的准确性。其中,近年来较为流行的是利用目标的物体性或对象性来提高算法对目标的描述感知能力。与此同时,也有国内研究人员提出采用对象性信息进行图像的深度估计、手势检测与识别、目标检测、似物性推荐等视觉感知任务。上述工作说明,利用显著性来模仿人类视觉感知特性是可行和有效的,但如何有效地计算图像显著性是当前研究的重点和难点。
利用人脑认知信息的研究工作刚起步。近年来,Kappor、Gerson、 Bigdely-Shamlo以及Wang采用了不同的策略,利用脑电图扫描引导图像中目标的分类。例如,Kappor让被试观看不同种类的图像,并用脑电图采集大脑信号,将采集到的脑电图信号和底层特征的相似性矩阵进行线性组合,组合优化后的相似性矩阵进行SVM(支持向量机) 分类,得到比单独使用脑电图信号或者底层特征更好的结果。Wang 等人利用人机交互系统向被试快速的展示图像,同时要求被试确认其中是否存在事先要求识别的目标。利用脑电图设备记录整个过程中的脑电信号。通过对脑电图信号的分析,获得训练样本的“感兴趣目标得分”,并通过数据挖掘模型,实现“得分”在测试数据库中图像间的传递。
但是,脑电图只能采集大脑表面的信号,在空间分辨率上受到限制,不能全面捕获大脑在观看图像时的理解模式。相比而言,fMRI技术因其空间分辨率高等优势,逐渐成为了一种研究大脑认知和理解机制的有力手段。比如,Hasson等发表在科学杂志上的工作证明了大脑fMRI响应序列与电影语义内容在时间上具有很强的相关性,说明了fMRI响应序列可以对大脑和多媒体信息之间的功能响应进行有效的建模。Kay和Miyawaki使用图像作为刺激,让被试观看按照实验规则顺序显示的图像,同时扫描得到fMRI图像数据,通过统计数学模型建立大脑中视觉相关的功能区中各体素的功能响应与图像基元之间的预测关系,实现图像的识别与重组。Walther等采用fMRI技术,展现了利用人脑中某些特定功能区域的连接模式,能有效的实现图像中场景的分类。Hu等基于大脑fMRI响应信息和底层特征之间的相互关联提出了一种视频分类方法。Li等利用大脑fMRI响应信息中获取的特征优化注意力模型,提出了一种新的视频摘要获取方法。以上基于fMRI技术的视频分析研究取得了初步的成果。
生成式对抗模型(Generative Adversarial Nets,GAN)是 Goodfellow等人受博弈论中两方“零和博弈”的启发所提出的模型,被认为是近年来深度学习领域最具有突破的进展及研究方向。生成式对抗模型包含了一个生成网络和一个判别网络。生成网络试图捕捉训练样本的数据分布,使生成的图像看起来自然真实,并且尽可能地和训练数据相似,以达到混淆判别网络的目的。判别网络的训练目标是尽可能准确地区分生成样本和训练样本,不受生成网络的迷惑。在训练过程中,生成网络和判别网络相互竞争,相互促进,共同组成对抗网络。GAN与传统的神经网络有着显著的不同。神经网络一般需要定义一个损失函数来对网络的训练程度进行评价,这个损失函数决定了网络学习的内容。传统上,一个好的损失函数需要结合具体的应用场景设计得到,而GAN由于具有自对抗的特性,可自己建立起一套评价规则,因而无需构造损失函数。
虽然图像与声音信号都能单独地提供关于周围环境的各种信息,但是两者均有一些局限性与缺点。例如,视觉图像一般都是需要由物体对阳光进行反射从而被相机采集到,因此其包含了关于环境物体直观且独特的知觉表达,并且由于图像能够从颜色、对比、形状等多个方面对物体进行丰富描述,因此视觉描述是生动和全面的。但同时,视觉图像的质量好坏对障碍物、遮挡以及光照条件等因素非常敏感。而另一方面,声音信号由于是一种基于振动波的信号,能够提供更多关于距离与位置的信息,而且在遇到障碍物时仍然能够有效传递信息,因此其比视觉图像更具有独特的优势。然而,声音数据并不是直观的信息,因此需要复杂的计算模型来模仿人耳觉察特性进行处理,尤其是噪声的出现会导致失真等较大局限性的存在。现在,由于缺少与人类觉察特性较为吻合的先进计算模型与方法,声音与图像这两种异质信息的仿生融合仍然没有得到较为深入的研究。
发明内容
针对缺少与人类觉察特性较为吻合的先进计算模型与方法问题,本发明提供了一种基于伪脑网络模型下的涉恐场景协同认知方法,如图1所示。
为解决技术问题,本发明解决包括如下步骤:
步骤1、通过CNN图像分类器,得到涉恐场景图片概率值Ⅰ;CNN 图像分类器模型结构如图2所示。
步骤2、通过伪脑网络图像分类器,得到涉恐场景图片概率值II;
步骤3、分别将CNN图像分类器分类结果概率值Ⅰ和伪脑网络图像分类器分类结果概率值II输入给神经网络融合模型(如图1所示),输出场景事件分类结果(涉恐场景=1,非涉恐场景=0).
所述的步骤2具体实现如下:
步骤2-1如图3所示;
1)选择志愿者观看特定场景视频:
组织志愿者分别对涉恐场景图片、其它场景图片进行观看。
2)通过fMRI设备测试人脑得到脑网络节点数据:
根据脑网络节点构建脑网络,本发明将标准脑区定义成网络的一个节点,采用国际脑成像领域广泛使用的标准脑模板AAL,将全脑分割成90个标准的功能区域,脑区内全部体素信号共同表示该区域神经元活动情况。
3)通过皮尔逊相关系数获取脑网络节点之间的相关性,并建立脑网络节点的相关性矩阵Ⅰ;
其中,体素i和体素j的时间序列分别用xi和xj表示,体素i和体素j的时间序列的均值分别用和表示。利用公式(1)得到脑区之间两两的相关性就是一个90×90的相关性矩阵Ⅰ,且矩阵元素取值范围[-1,1];T取值90;
4)通过遗传算法将相关性矩阵Ⅰ转化成只有0和1的矩阵II,其中1表示两个脑网络节点相关,0表示两个脑网络节点不相关;
5)构建基于DCGAN的生成模型和判别模型
参考深度卷积生成网络(DCGAN)将卷积神经网络(CNN)引入到了生成模型和判别模型当中。通过对抗生成网络,优化得到伪脑网络生成器,即DCGAN的生成模型。
步骤2-2.通过伪脑网络生成器得到输入图片的对应伪脑网络,如图4所示。即为90*90的二值矩阵。应用kruskal算法得到脑网络最小生成树,再利用基于RBF核函数的SVM算法进行分类。
所述的步骤3具体实现如图5所示:
神经网络混合模型为三层神经网络结构,包括2个神经元输入层、3个神经元隐藏层以及采用sigmoid分类器,输出层神经元个数为1.通过反向传播算法进行神经网络优化。
本发明有益效果:
本发明将深度学习算法与等效伪脑网络模型相结合。深度学习网络用于机器视觉图像分类,伪脑网络模型替代人脑对视听觉信息高级特征进行融合,实现环境物体感知和环境认知。
附图说明
图1基于伪脑网络模型下的涉恐场景识别方法图
图2CNN图像分类器模型结构
图3基于真实脑网络的图像分类模型框架
图4基于伪脑网络图像分类模型框架
图5神经网络融合模型
具体实施方式
参考图1基于伪脑效应网络模型的视听觉协同认知模型结构图;
步骤1、通过CNN图像分类器,得到涉恐场景图片概率值Ⅰ;CNN 图像分类器模型结构如图2所示。
步骤2、通过伪脑网络图像分类器,得到涉恐场景图片概率值II;
步骤3、分别将CNN图像分类器分类结果概率值Ⅰ和伪脑网络图像分类器分类结果概率值II输入给神经网络融合模型(如图1所示),输出场景事件分类结果(涉恐场景=1,非涉恐场景=0).
所述的步骤2具体实现如下:
步骤2-1如图3所示;
1)选择志愿者观看特定场景视频:
组织志愿者分别对涉恐场景图片、其它场景图片进行观看。
2)通过fMRI设备测试人脑得到脑网络节点数据:
根据脑网络节点构建脑网络,本发明将标准脑区定义成网络的一个节点,采用国际脑成像领域广泛使用的标准脑模板AAL,将全脑分割成90个标准的功能区域,脑区内全部体素信号共同表示该区域神经元活动情况。
3)通过皮尔逊相关系数获取脑网络节点之间的相关性,并建立脑网络节点的相关性矩阵Ⅰ;
其中,体素i和体素j的时间序列分别用xi和xj表示,体素i和体素j的时间序列的均值分别用和表示。利用公式(1)得到脑区之间两两的相关性就是一个90×90的相关性矩阵Ⅰ,且矩阵元素取值范围[-1,1];T取值90;
4)通过遗传算法将相关性矩阵Ⅰ转化成只有0和1的矩阵II,其中1表示两个脑网络节点相关,0表示两个脑网络节点不相关;
5)构建基于DCGAN的生成模型和判别模型
参考深度卷积生成网络(DCGAN)将卷积神经网络(CNN)引入到了生成模型和判别模型当中。通过对抗生成网络,优化得到伪脑网络生成器,即DCGAN的生成模型。
步骤2-2.通过伪脑网络生成器得到输入图片的对应伪脑网络,如图4所示。即为90*90的二值矩阵。应用kruskal算法得到脑网络最小生成树,再利用基于RBF核函数的SVM算法进行分类。
所述的步骤3具体实现如图5所示:
神经网络混合模型为三层神经网络结构,包括2个神经元输入层、3个神经元隐藏层以及采用sigmoid分类器,输出层神经元个数为1.通过反向传播算法进行神经网络优化。
Claims (2)
1.一种基于伪脑网络模型下的涉恐场景识别方法,其特征在于包括如下步骤:
步骤1、通过CNN图像分类器,得到涉恐场景图片概率值;
步骤2、通过伪脑网络图像分类器,得到涉恐场景图片概率值;
步骤3、将CNN图像分类器分类结果和伪脑网络图像分类器分类结果输入给神经网络融合模型,输出场景事件分类结果,涉恐场景=1,非涉恐场景=0;
所述的步骤2具体实现如下:
步骤2-1构建生成模型和判别模型;
①选择志愿者观看特定场景视频:
组织志愿者分别对涉恐场景图片、其它场景图片进行观看;
②通过fMRI设备测试人脑得到脑网络节点数据:
根据脑网络节点构建脑网络,将标准脑区定义成网络的一个节点,采用国际脑成像领域广泛使用的标准脑模板AAL,将全脑分割成90个标准的功能区域,脑区内全部体素信号共同表示该区域神经元活动情况;
③通过皮尔逊相关系数获取脑网络节点之间的相关性,并建立脑网络节点的相关性矩阵Ⅰ;
其中,体素i和体素j的时间序列分别用xi和xj表示,体素i和体素j的时间序列的均值分别用和表示;利用公式(1)得到脑区之间两两的相关性就是一个90×90的相关性矩阵Ⅰ,且矩阵元素取值范围[-1,1];T取值90;
④通过遗传算法将相关性矩阵Ⅰ转化成只有0和1的矩阵Ⅱ,其中1表示两个脑网络节点相关,0表示两个脑网络节点不相关;
⑤构建基于DCGAN的生成模型和判别模型
参考深度卷积生成网络将卷积神经网络引入到生成模型和判别模型当中;通过对抗生成网络,优化得到伪脑网络生成器,即DCGAN的生成模型;
步骤2-2.通过伪脑网络生成器得到输入图片的对应伪脑网络,即为90*90的二值矩阵;应用kruskal算法得到脑网络最小生成树,再利用基于RBF核函数的SVM算法进行分类。
2.根据权利要求1所述的一种基于伪脑网络模型下的涉恐场景识别方法,其特征在于所述的步骤3中,神经网络混合模型为三层神经网络结构,包括2个神经元输入层、3个神经元隐藏层以及采用sigmoid分类器,输出层神经元个数为1.通过反向传播算法进行神经网络优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910711601.6A CN110647905B (zh) | 2019-08-02 | 2019-08-02 | 一种基于伪脑网络模型下的涉恐场景识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910711601.6A CN110647905B (zh) | 2019-08-02 | 2019-08-02 | 一种基于伪脑网络模型下的涉恐场景识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110647905A CN110647905A (zh) | 2020-01-03 |
CN110647905B true CN110647905B (zh) | 2022-05-13 |
Family
ID=68990036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910711601.6A Active CN110647905B (zh) | 2019-08-02 | 2019-08-02 | 一种基于伪脑网络模型下的涉恐场景识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110647905B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583181A (zh) * | 2020-04-08 | 2020-08-25 | 深圳市神经科学研究院 | 个体化脑功能图谱构建方法及系统 |
CN112052911A (zh) * | 2020-09-23 | 2020-12-08 | 恒安嘉新(北京)科技股份公司 | 识别图像中暴恐内容的方法、装置、电子设备和存储介质 |
CN113298006B (zh) * | 2021-06-04 | 2024-01-19 | 西北工业大学 | 基于脑机融合认知与决策的异常目标检测新方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102223479A (zh) * | 2010-04-14 | 2011-10-19 | 索尼公司 | 用于对图像进行捕捉和去模糊的数字相机和方法 |
CN103440624A (zh) * | 2013-08-07 | 2013-12-11 | 华中科技大学 | 一种基于运动检测的图像去模糊方法及装置 |
CN103440494A (zh) * | 2013-07-04 | 2013-12-11 | 中国科学院自动化研究所 | 一种基于视觉显著性分析的恐怖图像识别方法及系统 |
CN105512631A (zh) * | 2015-12-07 | 2016-04-20 | 上海交通大学 | 基于MoSIFT和CSD特征的暴恐视频检测方法 |
CN105844239A (zh) * | 2016-03-23 | 2016-08-10 | 北京邮电大学 | 一种基于cnn和lstm的暴恐视频检测方法 |
CN107909117A (zh) * | 2017-09-26 | 2018-04-13 | 电子科技大学 | 一种基于脑功能网络特征对早晚期轻度认知障碍的分类方法及装置 |
CN109255364A (zh) * | 2018-07-12 | 2019-01-22 | 杭州电子科技大学 | 一种基于深度卷积生成对抗网络的场景识别方法 |
CN109495766A (zh) * | 2018-11-27 | 2019-03-19 | 广州市百果园信息技术有限公司 | 一种视频审核的方法、装置、设备和存储介质 |
CN109522925A (zh) * | 2018-09-30 | 2019-03-26 | 咪咕文化科技有限公司 | 一种图像识别方法、装置和存储介质 |
-
2019
- 2019-08-02 CN CN201910711601.6A patent/CN110647905B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102223479A (zh) * | 2010-04-14 | 2011-10-19 | 索尼公司 | 用于对图像进行捕捉和去模糊的数字相机和方法 |
CN103440494A (zh) * | 2013-07-04 | 2013-12-11 | 中国科学院自动化研究所 | 一种基于视觉显著性分析的恐怖图像识别方法及系统 |
CN103440624A (zh) * | 2013-08-07 | 2013-12-11 | 华中科技大学 | 一种基于运动检测的图像去模糊方法及装置 |
CN105512631A (zh) * | 2015-12-07 | 2016-04-20 | 上海交通大学 | 基于MoSIFT和CSD特征的暴恐视频检测方法 |
CN105844239A (zh) * | 2016-03-23 | 2016-08-10 | 北京邮电大学 | 一种基于cnn和lstm的暴恐视频检测方法 |
CN107909117A (zh) * | 2017-09-26 | 2018-04-13 | 电子科技大学 | 一种基于脑功能网络特征对早晚期轻度认知障碍的分类方法及装置 |
CN109255364A (zh) * | 2018-07-12 | 2019-01-22 | 杭州电子科技大学 | 一种基于深度卷积生成对抗网络的场景识别方法 |
CN109522925A (zh) * | 2018-09-30 | 2019-03-26 | 咪咕文化科技有限公司 | 一种图像识别方法、装置和存储介质 |
CN109495766A (zh) * | 2018-11-27 | 2019-03-19 | 广州市百果园信息技术有限公司 | 一种视频审核的方法、装置、设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
《Modeling and detection techniques for Counter-Terror Social Network Analysis and Intent Recognition》;Clifford Weinstein等;《2009 IEEE Aerospace conference》;20091231;第1-16页 * |
《人工智能在反恐活动中的应用、影响及风险》;傅瑜等;《国际展望》;20180430(第4期);第119-137,157页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110647905A (zh) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Deep visual attention prediction | |
Li et al. | Cross-modal attentional context learning for RGB-D object detection | |
Bian et al. | Spontaneous facial expression database for academic emotion inference in online learning | |
CN110647905B (zh) | 一种基于伪脑网络模型下的涉恐场景识别方法 | |
CN110472532B (zh) | 一种视频对象行为识别方法和装置 | |
CN110390308B (zh) | 一种基于时空对抗生成网络的视频行为识别方法 | |
Sun et al. | Underwater image enhancement with reinforcement learning | |
Zhang et al. | Multiresolution attention extractor for small object detection | |
CN113435234A (zh) | 一种基于双模态视频eeg数据的驾驶员视觉显著性区域预测方法 | |
Ramesh Babu et al. | A novel framework design for semantic based image retrieval as a cyber forensic tool | |
Gao et al. | Background subtraction via 3D convolutional neural networks | |
Miao et al. | Abnormal behavior learning based on edge computing toward a crowd monitoring system | |
Zhang et al. | Classification and recognition of fish farming by extraction new features to control the economic aquatic product | |
Zhang et al. | Temporal transformer networks with self-supervision for action recognition | |
CN114841887B (zh) | 一种基于多层次差异学习的图像恢复质量评价方法 | |
CN114582002B (zh) | 一种结合注意力模块与二阶池化机制的人脸表情识别方法 | |
Liu et al. | Campus abnormal behavior recognition with temporal segment transformers | |
Shi et al. | Uncertain and biased facial expression recognition based on depthwise separable convolutional neural network with embedded attention mechanism | |
Leng et al. | An automated object detection method for the attention of classroom and conference participants | |
Peng et al. | Pedestrian motion recognition via Conv‐VLAD integrated spatial‐temporal‐relational network | |
Gan et al. | Target Detection and Network Optimization: Deep Learning in Face Expression Feature Recognition | |
Uppal | Attention and Depth Hallucination for RGB-D Face Recognition with Deep Learning | |
Mase et al. | Towards privacy-preserving affect recognition: A two-level deep learning architecture | |
KARADAĞ | An adversarial framework for open-set human action recognition usingskeleton data | |
CN110781764B (zh) | 智能微波手语识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |