CN111597338B - 对抗支持向量机 - Google Patents

对抗支持向量机 Download PDF

Info

Publication number
CN111597338B
CN111597338B CN202010424527.2A CN202010424527A CN111597338B CN 111597338 B CN111597338 B CN 111597338B CN 202010424527 A CN202010424527 A CN 202010424527A CN 111597338 B CN111597338 B CN 111597338B
Authority
CN
China
Prior art keywords
image
text
edge computing
scene
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010424527.2A
Other languages
English (en)
Other versions
CN111597338A (zh
Inventor
项阳
张军
王宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yingshi Information Technology Co ltd
Original Assignee
Hangzhou Yingshi Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Yingshi Information Technology Co ltd filed Critical Hangzhou Yingshi Information Technology Co ltd
Priority to CN202010424527.2A priority Critical patent/CN111597338B/zh
Publication of CN111597338A publication Critical patent/CN111597338A/zh
Application granted granted Critical
Publication of CN111597338B publication Critical patent/CN111597338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于边缘计算协同的生成对抗支持向量机以及基于生成对抗网络模型的文本图像向量处理系统。所述文本图像向量处理系统包括文本描述输入模块以及协同边缘计算终端。协同边缘计算终端基于文本描述输入模块提供的多个文本关键词,基于各自配置的不同深度学习模型生成长文本描述;将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量;将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述;将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出。本发明能够快速准确度生成包含多对象的高分辨率图像。

Description

对抗支持向量机
技术领域
本发明属于深度学习领域,尤其涉及一种基于边缘计算协同的生成对抗支持向量机以及基于生成对抗网络模型的文本图像向量处理系统。
背景技术
对抗机器学习是一个机器学习与计算机安全的交叉领域。对抗机器学习旨在给恶意环境下的机器学习技术提供安全保障。由于机器学习技术一般研究的是同一个或较为稳定的数据分布,当部署到现实中的时候,由于恶意用户的存在,这种假设并不一定成立。比如研究人员发现,一些精心设计的对抗样本(adversarial example)可以使机器学习模型失败输出正确的结果。
支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervisedlearning)方式对数据进行二元分类的广义线性分类器(generalized linearclassifier),其决策边界是对学习样本求解的最大边距超平面(maximum-marginhyperplane)。
为了能够建立从底层信号到高层语义的映射关系,深度学习模型都采用了多层的深度网络结构,从低层到高层逐级提取数据中不同层面的特征。深度神经网络的深层结构给这些模型带来了十分强大的表征能力,这为表示和挖掘海量数据中复杂而丰富的信息提供了手段。深度神经网络经过了无数人的努力,不断发展,在一定程度上已经解决了自身参数过多、训练困难的问题,有效地提高了模型的各项性能,但是仍然有很多可以提高的地方。一部分学者致力于研宄如何修正深度模型,比如,利用对抗样本来提高模型的抗干扰能力,由此基于对抗训练(Adversarial Training)的概念应运而生。
生成对抗网络在近几年受到了学术界与工业界的极大重视,并一跃成为了最热门的研究领域。与传统的机器学习、深度学习方法不同,生成对抗网络的最大特点在于借鉴了博弈论中零和博弈的思想,在模型中引入了生成器与鉴别器相对抗的机制,使得模型能够用于真实数据分布的建模和生成。
将生成对抗网络与支持向量机相结合,从而得到对抗支持向量机的概念,即在支持向量机的模型生成中,引入生成器与鉴别器相对抗的机制,使得模型能够用于真实数据分布的建模和生成。
经检索,CN201911100240.8的中国发明专利申请提出一种基于堆栈式支持向量机的杆塔螺栓状态监测方法及装置,包括:振动数据集采集及预处理;将预处理后的数据进行小波变换构造特征向量;利用特征向量训练对抗支持向量机A-SVM;训练堆栈式支持向量机S-SVM;利用训练后的堆栈式支持向量机模型实现杆塔状态自动监测;装置为:AD采集模块的输入端接有振动速度传感器,输出端与FPGA相连,FPGA分别与GPRS模块、up2开发板相连,up2开发板向控制继电器模块发送控制指令,控制继电器模块输出端与振动速度传感器相连;GPRS模块与远端上位机通讯。
然而,针对其他问题,例如基于文本生成多对象图像问题,尚未见到类似技术方案。
发明内容
为解决上述技术问题,本发明提出一种基于生成对抗网络模型的文本图像向量处理系统,所述文本图像向量处理系统包括多个文本描述输入模块、与所述多个文本描述输入模块连接的多个协同边缘计算终端。多个协同边缘计算终端基于文本描述输入模块提供的多个文本关键词,基于各自配置的不同深度学习模型生成长文本描述;将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量;将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述;将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出。本发明能够快速准确度生成包含多对象的高分辨率图像。
具体来说,本申请的技术方案整体上概括如下:
一种基于生成对抗网络模型的文本图像向量处理系统,所述文本图像向量处理系统包括多个文本描述输入模块、与所述多个文本描述输入模块连接的多个协同边缘计算终端;
所述多个文本描述输入模块用于输入多个文本关键词;
所述多个协同边缘计算终端基于所述多个文本关键词,基于各自配置的不同深度学习模型生成长文本描述;
将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量;
将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述;
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出。
其中,将所述长文本描述输入包含支持向量机的分类模型进行分类,进一步包括:
通过实体序列模型识别所述长文本描述中知识图谱的实体,其中,所述实体序列模型是根据标记有实体的文章训练得到;
将所述实体进行向量化之后输入包含支持向量机的分类模型。
将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述,具体包括:
根据所述图像向量包含的目标对象图像区域,分别获取针对每种目标对象类型的初始预测置信度;将具有最高数值的初始预测置信度的目标对象类型,确定为所述目标对象对应的所述场景类别;
所述边缘计算终端基于所述场景类别,生成所述场景描述。
将所述图像向量和所述场景描述作为所述生成对抗网络模型的输入,得到多对象图像输出,具体包括:
所述生成对抗网络模型包括两层级联结构;
第一层结构将所述场景描述作为输入,输出初始形状和颜色的低分辨率图像;
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像。
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像,具体包括:
采用掩膜回归网络从所述图像向量中提取目标对象信息,并将所述目标对象信息进行上采样后与所述第一层结构的输出进行组合。
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:
识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对,调整所述目标对象类型的所述初始预测置信度。
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:
识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对;
将比对结果反馈给所述多个协同边缘计算终端。
将比对结果反馈给所述多个协同边缘计算终端,具体包括:
基于所述比对结果,优化所述多个协同边缘计算终端各自配置的所述不同深度学习模型。
本发明还提出一种基于边缘计算协同的生成对抗支持向量机,所述生成对抗支持向量机文本图像向量处理系统中,基于输入的文本描述,生成多对象的高分辨率图像。
本发明的进一步优点将结合说明书附图在具体实施例部分进一步详细体现。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例的基于生成对抗网络模型的文本图像向量处理系统的整体架构图。
图2是利用图1所述系统实现文本图像向量处理的流程图。
图3是图2所述方法所使用的生成对抗网络模型的架构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,是是本发明一个实施例的基于生成对抗网络模型的文本图像向量处理系统的整体架构图。
所述文本图像向量处理系统包括多个文本描述输入模块、与所述多个文本描述输入模块连接的多个协同边缘计算终端;
所述多个协同边缘终端的每一个均配置各自的不同的深度学习模型;
所述文本图像向量处理系统还包括多个生成对抗网络模型以及对应的支持向量机分类模型。
所述支持向量机的分类模型包括两级学习模块,第一学习模块为监督学习模块,第二级学习模块为无监督学习模块。
在图1基础上,参见图2,是利用图1所述系统实现文本图像向量处理的流程图。图2给出了利用图1所述系统实现文本图像向量处理的一个方法实施例,主要包括步骤S101-S105:
S101:多个文本描述输入模块输入多个文本关键词;
S102: 多个协同边缘计算终端基于所述多个文本关键词,基于各自配置的不同深度学习模型生成长文本描述;
S103:将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量;
采用向量的形式表征不同的类别,可以有多种表达方式,例如,采用归一化值不同的不同向量表征不同类别,例如0.1-0.9可以表征9中类别;也可以采用二元编码向量来表征不同类别,例如001、002、00X可以表征X种类别,本发明对此不做限制。
步骤S103中,将所述长文本描述输入包含支持向量机的分类模型进行分类,进一步包括:通过实体序列模型识别所述长文本描述中知识图谱的实体,其中,所述实体序列模型是根据标记有实体的文章训练得到;将所述实体进行向量化之后输入包含支持向量机的分类模型。
 S104:将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述;
步骤S104中,将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述,具体包括:
根据所述图像向量包含的目标对象图像区域,分别获取针对每种目标对象类型的初始预测置信度;将具有最高数值的初始预测置信度的目标对象类型,确定为所述目标对象对应的所述场景类别;
所述边缘计算终端基于所述场景类别,生成所述场景描述。
S105:将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出。
在图2基础上,进一步参见图3,步骤S105中,将所述图像向量和所述场景描述作为所述生成对抗网络模型的输入,得到多对象图像输出,具体包括:
所述生成对抗网络模型包括两层级联结构;
第一层结构将所述场景描述作为输入,输出初始形状和颜色的低分辨率图像;
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像。
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像,具体包括:采用掩膜回归网络从所述图像向量中提取目标对象信息,并将所述目标对象信息进行上采样后与所述第一层结构的输出进行组合。
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对,调整所述目标对象类型的所述初始预测置信度。
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对;将比对结果反馈给所述多个协同边缘计算终端。
将比对结果反馈给所述多个协同边缘计算终端,具体包括:基于所述比对结果,优化所述多个协同边缘计算终端各自配置的所述不同深度学习模型。
将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量,具体包括:将所述所述长文本描述输入所述监督学习模块,利用所述监督学习模块的输出作为所述无监督学习的输入。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种基于生成对抗网络模型的文本图像向量处理系统,所述文本图像向量处理系统包括多个文本描述输入模块、与所述多个文本描述输入模块连接的多个协同边缘计算终端;
其特征在于:
所述多个文本描述输入模块用于输入多个文本关键词;
所述多个协同边缘计算终端基于所述多个文本关键词,基于各自配置的不同深度学习模型生成长文本描述;
将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量;
将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述;
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出;
其中,将所述长文本描述输入包含支持向量机的分类模型进行分类,进一步包括:
通过实体序列模型识别所述长文本描述中知识图谱的实体,其中,所述实体序列模型是根据标记有实体的文章训练得到;
将所述实体进行向量化之后输入包含支持向量机的分类模型。
2.如权利要求1所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述图像向量返回至所述多个协同边缘计算终端,所述边缘计算终端对应于多个不同分类的图像向量生成不同场景类别的场景描述,具体包括:
根据所述图像向量包含的目标对象图像区域,分别获取针对每种目标对象类型的初始预测置信度;将具有最高数值的初始预测置信度的目标对象类型,确定为所述目标对象对应的所述场景类别;
所述边缘计算终端基于所述场景类别,生成所述场景描述。
3.如权利要求1所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述图像向量和所述场景描述作为所述生成对抗网络模型的输入,得到多对象图像输出,具体包括:
所述生成对抗网络模型包括两层级联结构;
第一层结构将所述场景描述作为输入,输出初始形状和颜色的低分辨率图像;
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像。
4.如权利要求3所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
第二层结构将所述第一层结构的输出以及所述图像向量作为输入,输出高分辨率图像,具体包括:
采用掩膜回归网络从所述图像向量中提取目标对象信息,并将所述目标对象信息进行上采样后与所述第一层结构的输出进行组合。
5.如权利要求2所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:
识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对,调整所述目标对象类型的所述初始预测置信度。
6.如权利要求5所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述图像向量和所述场景描述作为所述对抗网络模型的输入,得到多对象图像输出之后,进一步包括:
识别出所述多对象图像中的多个对象,与所述图像向量包含的目标对象进行比对;
将比对结果反馈给所述多个协同边缘计算终端。
7.如权利要求6所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将比对结果反馈给所述多个协同边缘计算终端,具体包括:
基于所述比对结果,优化所述多个协同边缘计算终端各自配置的所述不同深度学习模型。
8.如权利要求1所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量,具体包括:
所述支持向量机的分类模型包括两级学习模块,第一学习模块为监督学习模块,第二级学习模块为无监督学习模块。
9.如权利要求8所述的一种基于生成对抗网络模型的文本图像向量处理系统,其特征在于:
将所述长文本描述输入包含支持向量机的分类模型进行分类后,输出不同分类对应的图像向量,具体包括:
将所述所述长文本描述输入所述监督学习模块,利用所述监督学习模块的输出作为所述无监督学习的输入。
10.一种基于边缘计算协同的生成对抗支持向量机,所述生成对抗支持向量机用于权利要求1-9任一项所述的文本图像向量处理系统中,基于输入的文本描述,生成多对象的高分辨率图像。
CN202010424527.2A 2020-05-19 2020-05-19 对抗支持向量机 Active CN111597338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010424527.2A CN111597338B (zh) 2020-05-19 2020-05-19 对抗支持向量机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010424527.2A CN111597338B (zh) 2020-05-19 2020-05-19 对抗支持向量机

Publications (2)

Publication Number Publication Date
CN111597338A CN111597338A (zh) 2020-08-28
CN111597338B true CN111597338B (zh) 2023-04-18

Family

ID=72183787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010424527.2A Active CN111597338B (zh) 2020-05-19 2020-05-19 对抗支持向量机

Country Status (1)

Country Link
CN (1) CN111597338B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086658A (zh) * 2018-06-08 2018-12-25 中国科学院计算技术研究所 一种基于生成对抗网络的传感器数据生成方法与系统
CN109614979A (zh) * 2018-10-11 2019-04-12 北京大学 一种基于选择与生成的数据增广方法及图像分类方法
CN110717555A (zh) * 2019-12-12 2020-01-21 江苏联著实业股份有限公司 一种基于自然语言和生成对抗网络的图片生成系统及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023669B2 (ja) * 2017-10-26 2022-02-22 株式会社Preferred Networks 画像生成方法、画像生成装置、及び画像生成プログラム
CA3022998A1 (en) * 2017-11-02 2019-05-02 Royal Bank Of Canada Method and device for generative adversarial network training

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109086658A (zh) * 2018-06-08 2018-12-25 中国科学院计算技术研究所 一种基于生成对抗网络的传感器数据生成方法与系统
CN109614979A (zh) * 2018-10-11 2019-04-12 北京大学 一种基于选择与生成的数据增广方法及图像分类方法
CN110717555A (zh) * 2019-12-12 2020-01-21 江苏联著实业股份有限公司 一种基于自然语言和生成对抗网络的图片生成系统及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈鑫晶.基于生成对抗网络的文本生成图像技术研究.中国优秀硕士学位论文全文数据库 (信息科技辑).2020,全文. *

Also Published As

Publication number Publication date
CN111597338A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
Yu et al. GA-SVM wrapper approach for feature subset selection in keystroke dynamics identity verification
CN112087442B (zh) 基于注意力机制的时序相关网络入侵检测方法
Wu et al. Optimized deep learning framework for water distribution data-driven modeling
CN110633689B (zh) 基于半监督注意力网络的人脸识别模型
CN116781346A (zh) 基于数据增强的卷积双向长短期记忆网络入侵检测方法
CN111553230A (zh) 无约束场景下的基于特征强化的渐进式级联人脸检测方法
CN114120028A (zh) 一种基于双层生成对抗网络的对抗样本生成方法
Chua et al. Visual IoT: ultra-low-power processing architectures and implications
Wei et al. Multilevel thresholding algorithm based on particle swarm optimization for image segmentation
CN113221683A (zh) 教学场景下基于cnn模型的表情识别方法
CN112818407A (zh) 一种基于生成对抗网络的视频隐私保护方法
CN111597338B (zh) 对抗支持向量机
Pandey et al. A metaheuristic autoencoder deep learning model for intrusion detector system
CN110554429A (zh) 一种基于变邻域滑动窗口机器学习的地震断层识别方法
CN113901810A (zh) 一种基于多表示学习的跨领域虚假新闻检测方法
Sonkar et al. Iris recognition using transfer learning of inception v3
Yu et al. A Review of Intrusion Detection Technology Based on Deep Rein-forcement Learning
CN113807232B (zh) 基于双流网络的伪造人脸检测方法、系统及存储介质
CN115063870B (zh) 一种基于面部动作单元的伪造视频人像检测方法
Liu et al. Adversarial examples generated from sample subspace
Bi et al. Fair Attention Network for Robust Visual Question Answering
Wang Adversarial deep learning on digital media security and forensics
Chandra et al. Classification of plant based on leaf images
Ahmad et al. CapST: An Enhanced and Lightweight Method for Deepfake Video Classification
CN117876750A (zh) 一种基于神经元覆盖的深度学习目标检测对抗样本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant