CN113344065A - 图像处理方法、装置及设备 - Google Patents
图像处理方法、装置及设备 Download PDFInfo
- Publication number
- CN113344065A CN113344065A CN202110603076.3A CN202110603076A CN113344065A CN 113344065 A CN113344065 A CN 113344065A CN 202110603076 A CN202110603076 A CN 202110603076A CN 113344065 A CN113344065 A CN 113344065A
- Authority
- CN
- China
- Prior art keywords
- image processing
- neural network
- image
- network model
- processing neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例涉及人工智能技术领域,具有公开了一种图像处理方法、装置及设备,所述方法包括:利用无数据通用对抗性扰动算法对图像处理神经网络模型进行攻击,训练生成对抗样本图像,再将对抗样本图像与普通样本图像按比例混合,获得训练样本集合,使用该训练样本集合对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型,再利用图像处理神经网络优化模型对待处理图像进行图像处理。优化后的图像处理神经网络优化模型具有比较好的抗干扰能力,进而提升了图像处理结果的准确性和稳定性。
Description
技术领域
本说明书属于人工智能技术领域,尤其涉及一种图像处理方法、装置及设备。
背景技术
随着深度学习技术的发展,基于深度学习的人工智能技术不断在人类社会的各个领域产生深刻的影响,不论是传统的农业、制造业还是新兴的IT、互联网行业,将自身领域技术与新型人工智能技术的结合都为所在行业带来了新的发展机遇。如智能农业、智能制造、网络安全、智慧城市、自动驾驶等领域都呈现着蓬勃发展之势。
然而,学术界在近年来研究发现,深度学习技术存在着巨大的隐患。如:对一张正常图像进行微小的改动,即使这些修改对于人眼来说很难察觉,但却可以轻而易举地让机器进行错误的识别。比如对于一猫的图像,只要有针对性的添加微小的噪声,就会导致深度学习分类器将其以高置信度识别为狗或其他动物,不仅如此,由此还能衍生出很多其他的误判情况,比如通过添加噪声使自动驾驶汽车的摄像头无法识别道路上的行人,导致重大的交通事故,或者使道路监控的识别功能彻底失效等。虽然深度学习结构与人眼的神经感知模型存在着一定的相似性,但对抗样本的出现警示了我们二者之间还存在着巨大的鸿沟,但除此之外,更重要的是,对抗样本对于神经网络来说是一个天生的致命漏洞。不管是如人脸识别、道路监控、自动驾驶、智能零售、语音识别等何种领域,基于深度学习的实际应用都存在着面对微小扰动的明显脆弱性,如果不能对神经网络的这种性质进行克服,那么深度学习技术的安全性将无从谈起,使得基于智能学习的图像处理模型的处理结果的准确性不高。
如何能够提供一种方案提升智能模型对图像处理结果的准确性,是本领域亟需解决的技术问题。
发明内容
本说明书实施例的目的在于提供一种图像处理方法、装置及设备,提高了图像处理的准确性。
一方面,本说明书实施例提供了一种图像处理方法,所述方法包括:
对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
进一步地,所述图像处理神经网络模型中的损失函数为:
Such that||δ||∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
进一步地,所述将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以使获得对抗样本图像,包括:
将所述初始对抗样本输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,计算所述图像处理神经网络模型中各个卷积层的输出特征的饱和度以及相邻两个卷积层输出特征的饱和度差值,若指定卷积层对应的饱和度大于第一预设阈值且与相邻卷积层的输出特征的饱和度差值小于第二预设阈值,则将所述指定卷积层输出的候选对抗样本图像保存;
将所述候选对抗样本图像中的扰动按照预设比例进行压缩,将压缩后的候选对抗样本图像输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,进行迭代计算,直至迭代次数到达指定次数,保存每一次迭代计算对应的候选对抗样本图像;
从各个候选对抗样本图像中选择一张作为所述对抗样本图像。
进一步地,所述从各个候选对抗样本图像中选择一张作为所述对抗样本图像,包括:
依次将各个候选对抗样本图像中的扰动添加到测试样本图像中,依次将添加了不同扰动的测试样本图像输入到所述图像处理神经网络模型,计算各个候选对抗样本图像中的扰动的欺骗率,选择欺骗率最高的扰动对应的候选对抗样本图像作为所述对抗样本图像。
进一步地,所述方法还包括:
在每一次迭代计算获得候选对抗样本图像后,将获得的候选对抗样本图像中的扰动添加到测试样本图像中,将添加了扰动的测试样本图像输入到所述图像处理神经网络模型,计算候选对抗样本图像中的扰动的欺骗率;
若连续指定次数的迭代计算获得的候选对抗样本图像的扰动的欺骗率小于之前迭代计算获得的候选对抗样本图像的扰动的欺骗率,则停止迭代计算。
另一方面,本说明书实施例提供了一种图像处理神经网络模型的优化方法,所述方法包括:
对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
进一步地,所述图像处理神经网络模型中的损失函数为:
Such that||δ||∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
又一方面,本说明书提供了一种图像处理装置,所述装置包括:
初始扰动添加模块,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本生成模块,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化模块,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
图像处理模块,用于利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
进一步地,所述图像处理神经网络模型中的损失函数为:
Such that||δ||∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
又一方面,本说明书实施例提供了一种图像处理神经网络模型的优化装置,所述装置包括:
样本处理模块,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本训练模块,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化训练模块,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
再一方面,本说明书实施例提供了一种图像处理设备,应用于服务器,设备包括至少一个处理器及用于存储处理器可执行指令的存储器,指令被处理器执行时实现包括上述图像处理方法。
本说明书提供的图像处理方法、装置及设备,利用无数据通用对抗性扰动算法对图像处理神经网络模型进行攻击,训练生成对抗样本图像,再将对抗样本图像与普通样本图像按比例混合,获得训练样本集合,使用该训练样本集合对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型,再利用图像处理神经网络优化模型对待处理图像进行图像处理。优化后的图像处理神经网络优化模型具有比较好的抗干扰能力,进而提升了图像处理结果的准确性和稳定性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书实施例提供的图像处理方法实施例的流程示意图;
图2是本说明书一个实施例中图像处理神经网络模型的优化方法的流程示意图;
图3是本说明书一个实施例中图像处理装置的结构示意图;
图4是本说明书一个实施例中图像处理神经网络模型的优化装置的结构示意图;
图5是本说明书一个实施例中图像处理服务器的硬件结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
本说明书实施例提供的一个场景示例中,图像处理方法可以应用于执行图像处理的设备,设备可以包括一个服务器,也可以包括多个服务器组成的服务器集群。或者可以应用于交易业务系统,如:银行或金融系统或一些网络购物平台等。可以一些图像进行图像分割或图像识别等图像处理,基于处理后的图像进行业务办理或风险识别等。
本说明书实施例提供的图像处理方法,利用攻击算法对图像处理神经网络模型进行攻击,生成对抗样本,利用生成的对抗样本结合普通样本对图像处理神经网络模型进行优化训练,使得优化后的图像处理神经网络模型能够具有更好的抗干扰性,提升了图像处理结果的准确性。
图1是本说明书实施例提供的图像处理方法实施例的流程示意图。虽然本说明书提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在方法或装置中可以包括更多或者部分合并后更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本说明书实施例或附图所示的执行顺序或模块结构。的方法或模块结构的在实际中的装置、服务器或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境、甚至包括分布式处理、服务器集群的实施环境)。
具体的一个实施例如图1所示,本说明书提供的图像处理方法的一个实施例中,方法可以应用于服务器、计算机、智能手机、平板电脑等设备中,所述方法可以包括如下步骤:
步骤102、对原始样本图像添加扰动,获得初始对抗样本图像。
在具体的实施过程中,可以在原始样本图像中添加扰动如:在原始样本图像中随机添加一定数量的噪声,该扰动对人眼识别该图像没有任何影响,但可能会影响图像处理的智能学习模型对图像的识别结果。基于不同的图像处理模型的算法,添加的扰动可以不同,具体可以根据实际业务场景选择添加扰动的方式以及扰动的具体内容,本说明书实施例不做具体限定。可以将添加了扰动的原始样本图像作为初始对抗样本图像。其中,原始样本图像可以理解为基于实际业务场景的需要,从业务场景的办理过程中选择一定数量的原始图像作为样本,该样本可以用于图像处理神经网络模型的训练或测试等,原始样本图像的数量、大小以及种类可以基于实际需要进行选择,本说明书实施例不做具体限定。
步骤104、将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像。
在具体的实施过程中,将添加了扰动活动的初始对抗样本图像输入到图像处理神经网络模型中,并使用无数据通用对抗性扰动算法即GD-UAP算法对图像处理神经网络模型进行攻击,从而获得能够对图像处理神经网络模型造成干扰的对抗样本图像。其中,GD-UAP算法是2018年提出的一种攻击算法,它试图在多个层次对神经元进行过度激活,以使提取的特征恶化,就是说,精心设计一个扰动,使其在每一层导致额外的激活触发,从而误导了下一层的特征。本说明书实施例中的图像处理神经网络模型可以理解为能够用于对图像进行处理的神经网络模型,如:对图像进行语义分割的神经网络模型或图像识别神经网络模型等,本说明书实施例中的图像处理神经网络模型尤其适用于语义分割神经网络模型,神经网络模型的具体结构本说明书实施例不做具体限定,可以基于实际业务需求进行设计。
本说明书一些实施例中,所述图像处理神经网络模型中的损失函数为:
Such that||δ||∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
在具体的实施过程中,GD-UAP一般可以认为包括三种算法:快速特征欺骗、基于统计信息的特征欺骗和基于数据驱动的特征欺骗,本说明书实施例中是对一般的GD-UAP算法的延伸,可以在图像处理神经网络模型中的损失函数增加原始图像与增加扰动的图像之间的欧式距离,再计算该欧式距离的范数,以最大可能的获得增加扰动后的图像与原始图像之间的特征差异。具体可以参见上述公式li(x+δ)-li(x)可以理解为添加了扰动的图像与原始图像的特征的欧式距离,可见本说明书实施例中将添加了扰动的图像与原始图像的特征进行了比较,而不仅仅是只考虑增加了扰动的图像,基于此,本说明书实施例中的无数据通用对抗性扰动算法可以理解为一种欧式距离特征欺骗算法。
如果原始图像在神经网络某一层的特征已经足够大,那么能够继续过度激活的空间就很小,此时继续进行激活可能不会取得很好的效果。用另一种方式说,在基于数据的情况下,继续选择过度激活的策略是不合适的,在无数据的情况下,过度激活神经元是一种使加噪图像与原始图像的特征之间最大化差异的可行策略,但在有数据支持的情况下,显然有更好的策略,本说明书实施例从目的出发,追求添加扰动后的图像特征与原始图像特征的最大差异,以此导致分类器的错误输出。基于此,本申请将损失函数设计为上述公式,该算法仍采用范数计算损失,对于每层特征,为了能更加准确的反映添加扰动与未添加扰动图像之间的像素级特征差异,直接计算两个特征图之间的欧几里得距离,再计算距离的范数损失,使得对抗样本图像能够更好对图像处理神经网络模型造成干扰,为后续图像处理神经网络模型的优化训练奠定了数据基础。
本说明书一些实施例中,所述将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以使获得对抗样本图像,包括:
将所述初始对抗样本输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,计算所述图像处理神经网络模型中各个卷积层的输出特征的饱和度以及相邻两个卷积层输出特征的饱和度差值,若指定卷积层对应的饱和度大于第一预设阈值且与相邻卷积层的输出特征的饱和度差值小于第二预设阈值,则将所述指定卷积层输出的候选对抗样本图像保存;
将所述候选对抗样本图像中的扰动按照预设比例进行压缩,将压缩后的候选对抗样本图像输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,进行迭代计算,直至迭代次数到达指定次数,保存每一次迭代计算对应的候选对抗样本图像;
从各个候选对抗样本图像中选择一张作为所述对抗样本图像。
在具体的实施过程中,对于选择进行攻击的层级,由于卷积层负责提取特征,本说明书实施例中的攻击算法可以攻击所有的卷积层,对于如resnet等含有残差块(residualblocks)的网络,对残差块的输出进行优化,实验证明这样能够做的效果与对所有中间层进行攻击的效果相当。本说明书实施例中的无数据通用对抗性扰动算法为多步迭代算法,但并不像deepfool一样具备明显的方向性,需要进行大量的迭代来不断逼近最优解。本说明书实施例考虑避免局部最优解的情况,设立了Satt变量代表扰动图像的饱和度(达到攻击强度上下限的像素的比率)和Satt两次训练的差值SatCt,如果在Satt过高的情况下SatCt值过小,那么可以认为训练达到了“饱和状态”。
具体可以将始对抗样本输入所述图像处理神经网络模型,使用无数据通用对抗性扰动算法对图像处理神经网络模型进行攻击即对所有卷积层进行攻击,计算图像处理神经网络模型中各个卷积层的输出特征的饱和度以及相邻两个卷积层输出特征的饱和度差值。若某个卷积层对应的饱和度大于第一预设阈值,且该卷积层与相邻卷积层之间的饱和度差值小于第二预设阈值,则将该卷积层对应的输出的候选对抗样本图像保存。将该候选对抗样本图像中的扰动按照预设比例进行压缩,如:若预设比例为0.5即压缩率为0.5,则扰动可以缩小一半。将压缩后的候选对抗样本图像输入到图像处理神经网络模型中,重复上述步骤,计算新的对抗样本图像输入后模型各个卷积层对应的饱和度以及饱和度差值,获得新一轮迭代计算对应的候选对抗样本图像直至迭代次数到达指定次数。保存每一次迭代计算对应的候选对抗样本图像,可以从各个候选对抗样本图像中选择一张作为所述对抗样本图像,如:随机选择一张或者选择扰动最少的一张等。
其中,第一预设阈值和第二预设阈值的大小可以基于实际需要进行设置,可以是相同的数值也可以是不同的数值,本说明书实施例不做具体限定。
通过迭代计算获得每一轮中卷积层中最优的扰动,以避免出现局部解,对后续图像处理神经网络模型的优化训练奠定了数据基础,提升了图像处理的准确性和稳定性。
在上述实施例的基础上,本说明书一些实施例中,所述从各个候选对抗样本图像中选择一张作为所述对抗样本图像,包括:
依次将各个候选对抗样本图像中的扰动添加到测试样本图像中,依次将添加了不同扰动的测试样本图像输入到所述图像处理神经网络模型,计算各个候选对抗样本图像中的扰动的欺骗率,选择欺骗率最高的扰动对应的候选对抗样本图像作为所述对抗样本图像。
在具体的实施过程中,可以依次将各个候选对抗样本图像中的扰动添加到测试样本图像中,将添加了不同扰动的测试样本图像输入到图像处理神经网络模型,对各个候选对抗样本图像中的扰动进行性能测试,计算各个候选对抗样本图像中的扰动的欺骗率。可以选择欺骗率最高的扰动对应的候选对抗样本图像作为对抗样本图像,以使得筛选出的对抗样本图像能够对图像处理神经网络模型造成最大的干扰,为后续图像处理神经网络模型的优化训练奠定了数据基础,进而尽量提升图像处理神经网络模型的抗干扰性能,提升图像处理结果的准确性。其中,测试样本图像可以理解为用于对图像处理神经网络模型的准确率进行测试的测试样本集合,该测试样本图像可以有多个。
在上述实施例的基础上,本说明书一些实施例中,所述方法还包括:
在每一次迭代计算获得候选对抗样本图像后,将获得的候选对抗样本图像中的扰动添加到测试样本图像中,将添加了扰动的测试样本图像输入到所述图像处理神经网络模型,计算候选对抗样本图像中的扰动的欺骗率;
若连续指定次数的迭代计算获得的候选对抗样本图像的扰动的欺骗率小于之前迭代计算获得的候选对抗样本图像的扰动的欺骗率,则停止迭代计算。
在具体的实施过程中,可以在每一次迭代计算获得一个候选对抗样本图像后,即对该候选对抗样本图像的扰动进行测试。如:将获得的候选对抗样本图像中的扰动添加到测试样本图像中,将添加了扰动的测试样本图像输入到图像处理神经网络模型,计算候选对抗样本图像中的扰动的欺骗率。如果新一轮迭代计算的扰动在验证集上能够取得更高的欺骗率,则认为获得了更优的结果,并将此时的候选对抗样本图像保存,覆盖之前的结果。若连续指定次数的迭代计算获得的候选对抗样本图像的扰动的欺骗率小于之前迭代计算获得的候选对抗样本图像(可以是当前迭代计算之前任意一次迭代计算的候选对抗样本图像,也可以是当前迭代计算之前欺骗率最高或最低的一次迭代计算的候选对抗样本图像)的扰动的欺骗率,则可以停止迭代计算,将最新保存的候选对抗样本图像作为对抗样本图像或讲其中欺骗率最高的候选对抗样本图像作为对抗样本图像。若迭代过程中,没有出现连续指定次数的迭代计算获得的候选对抗样本图像的扰动的欺骗率小于之前迭代计算获得的候选对抗样本图像的扰动的欺骗率的情况,则继续循环迭代,直至迭代次数到达指定次数。
本说明书实施例中,可以使用mean IOU(mean intersection-over-union)作为评价指标对扰动性能进行评价,可以用于计算扰动的欺骗率。IOU是一种常用的测量语义分割准确度的评价指标,其简单来讲就是模型得到的目标窗口和标记的窗口的交叠率。
其中,TP,FP和FN分别表示真阳性,假阳性和假阴性的统计数据。可以将IOU作为欺骗率,IOU的范围为0-100%,值越高,则代表分割结果越准确,值越低,则代表模型的输出结果越差,也就是扰动攻击效果越好。
本说明书实施例中,在连续多次获得的候选对抗样本图像的欺骗率都不能超过之前迭代计算的欺骗率时,及时停止迭代计算,提升了数据处理效率,并且同时获得了比较好的结果。
步骤106、将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
在具体的实施过程中,采用上述实施例的方法可以获得多个对抗样本图像,可以将对抗样本图像按照指定比例加入到训练样本集合中,这样训练样本集合中可以包括对抗样本图像和普通样本图像,利用训练样本集合中的样本对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
步骤108、利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
在具体的实施过程中,获得图像处理神经网络优化模型后,可以利用图像处理神经网络优化模型对待处理图像进行图像处理如:图像的语义分割处理,从图像中分割出指定的物体。优化后的图像处理神经网络优化模型具有比较强的抗干扰性,能够提升图像分割结果的准确性,进而为后续业务办理等奠定了准确的数据基础。
经验证,由混合对抗样本和普通样本训练的语义分割网络有更好的mean IOU值。以FCN-AlexNet网络和DL-VGG16网络为例,对抗样本训练后的网络分类精度更高,如表1所示。其中,FCN-AlexNet网络和DL-VGG16表示没有使用对抗样本训练的网络模型,Adv-FCN-AlexNet和Adv-DL-VGG16表示经过对抗样本训练后的网络模型,表格中的数值可以表示meanIOU值。
表1:模型分类精度及攻击算法对模型的扰动能力
Model | Baseline |
FCN-AlexNet | 46.75 |
DL-VGG16 | 59.20 |
Adv-FCN-AlexNet | 55.26 |
Adv-DL-VGG16 | 70.23 |
经验证,基于欧式距离的特征欺骗训练的语义分割网络的抗干扰能力更强。(Nodata为GD-UAP的无数据快速欺骗算法,All Data为基于欧式距离的特征欺骗攻击算法,模拟白盒攻击和黑盒攻击),如表2所示,其中,FCN-AlexNet和DL-VGG16表示使用无数据快速欺骗算法训练的网络模型,Adv-FCN-AlexNet和Adv-DL-VGG16表示基于欧式距离的特征欺骗训练后的网络模型,表格中的数值可以表示meanIOU值。
表2:基于欧式距离的特征欺骗训练的抗干扰能力
Modal | No data | All Data |
FCN-AlexNet | 29.06 | 21.55 |
DL-VGG16 | 25.23 | 26.97 |
Adv-FCN-AlexNet | 40.26 | 49.30 |
Adv-DL-VGG16 | 52.88 | 51.85 |
本说明书实施例提供了一种图像处理方法,利用无数据通用对抗性扰动算法对图像处理神经网络模型进行攻击,训练生成对抗样本图像,再将对抗样本图像与普通样本图像按比例混合,获得训练样本集合,使用该训练样本集合对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型,再利用图像处理神经网络优化模型对待处理图像进行图像处理。优化后的图像处理神经网络优化模型具有比较好的抗干扰能力,进而提升了图像处理结果的准确性和稳定性。
图2是本说明书一个实施例中图像处理神经网络模型的优化方法的流程示意图,如图2所示,该方法可以包括:
步骤202、对原始样本图像添加扰动,获得初始对抗样本图像;
步骤204、将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
步骤206、将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
在具体的实施过程中,参见上述实施例的记载,可以在原始样本图像中添加扰动,将添加了扰动活动的初始对抗样本图像输入到图像处理神经网络模型中,并使用无数据通用对抗性扰动算法即GD-UAP算法对图像处理神经网络模型进行攻击,从而获得能够对图像处理神经网络模型造成干扰的对抗样本图像。再可以将对抗样本图像按照指定比例加入到训练样本集合中,这样训练样本集合中可以包括对抗样本图像和普通样本图像,利用训练样本集合中的样本对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
其中,所述图像处理神经网络模型中的损失函数为:
Such that||δ|∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
其中,通过对抗扰动进行模型训练的具体过程参见上述实施例的记载,此处不再赘述。
本说明书实施例可以提供一种基于欧式距离的特征欺骗训练的语义分割网络的训练方法即图像处理神经网络模型的已优化方法,获得的模型能够在使用对抗样本进行攻击时有较好的抗干扰能力,模型性能更加稳定,进而为图像处理奠定了数据基础。
本说明书中上述方法的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。相关之处参考方法实施例的部分说明即可。
基于上述的图像处理方法,本说明书一个或多个实施例还提供一种用于图像处理的装置。装置可以包括使用了本说明书实施例方法的系统(包括分布式系统)、软件(应用)、模块、组件、服务器、客户端等并结合必要的实施硬件的装置。基于同一创新构思,本说明书实施例提供的一个或多个实施例中的装置如下面的实施例。由于装置解决问题的实现方案与方法相似,因此本说明书实施例具体的装置的实施可以参考前述方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的系统、装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图3是本说明书一个实施例中图像处理装置的结构示意图,如图3所示,本说明书一些实施例中提供的图像处理装置具体可以包括:
初始扰动添加模块31,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本生成模块32,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化模块33,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
图像处理模块34,用于利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
本说明书实施例提供的图像处理装置,利用无数据通用对抗性扰动算法对图像处理神经网络模型进行攻击,训练生成对抗样本图像,再将对抗样本图像与普通样本图像按比例混合,获得训练样本集合,使用该训练样本集合对图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型,再利用图像处理神经网络优化模型对待处理图像进行图像处理。优化后的图像处理神经网络优化模型具有比较好的抗干扰能力,进而提升了图像处理结果的准确性和稳定性。
本说明书一些实施例中,所述图像处理神经网络模型中的损失函数为:
Such that||δ|∞<ξ
其中,x表示原始样本图像的数据矩阵,li(x+δ)-li(x)表示所述图像处理神经网络模型第i层的输出,δ表示对抗扰动,K表示被攻击的层数范围,||li(x+δ)-li(x)||2表示计算矩阵的第二范式,ξ表示无穷小量。
本说明书实施例本说明书实施例从目的出发,追求添加扰动后的图像特征与原始图像特征的最大差异,以此导致分类器的错误输出,获得对模型具有最佳干扰的对抗样本图像,为后续模型的优化训练奠定了数据基础。
图4是本说明书一个实施例中图像处理神经网络模型的优化装置的结构示意图,如图3所示,本说明书一些实施例中提供的图像处理神经网络模型的优化装置具体可以包括:
样本处理模块41,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本训练模块42,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化训练模块43,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
本说明书实施例可以提供一种基于欧式距离的特征欺骗训练的语义分割网络的训练方法即图像处理神经网络模型的已优化方法,获得的模型能够在使用对抗样本进行攻击时有较好的抗干扰能力,模型性能更加稳定,进而为图像处理奠定了数据基础。
需要说明的,上述的装置根据对应方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照上述对应的方法实施例的描述,在此不作一一赘述。
本说明书实施例还提供一种图像处理设备,设备包括至少一个处理器及用于存储处理器可执行指令的存储器,指令被处理器执行时实现包括上述实施例中的图像处理方法,如:
对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
或,对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
需要说明的,上述的设备根据方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本说明书提供的上述实施例的方法或装置可以通过计算机程序实现业务逻辑并记录在存储介质上,的存储介质可以计算机读取并执行,实现本说明书实施例所描述方案的效果。
本说明书实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置中执行。以运行在服务器上为例,图5是本说明书一个实施例中图像处理服务器的硬件结构框图,该计算机终端可以是上述实施例中的图像处理服务器或图像处理处理装置。如图5所示服务器10可以包括一个或多个(图中仅示出一个)处理器100(处理器100可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的非易失性存储器200、以及用于通信功能的传输模块300。本领域普通技术人员可以理解,图5所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,服务器10还可包括比图5中所示更多或者更少的组件,例如还可以包括其他的处理硬件,如数据库或多级缓存、GPU,或者具有与图5所示不同的配置。
非易失性存储器200可用于存储应用软件的软件程序以及模块,如本说明书实施例中的打车数据处理方法对应的程序指令/模块,处理器100通过运行存储在非易失性存储器200内的软件程序以及模块,从而执行各种功能应用以及资源数据更新。非易失性存储器200可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,非易失性存储器200可进一步包括相对于处理器100远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局与网、移动通信网及其组合。
传输模块300用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输模块300包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块300可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书实施例提供的上述图像处理方法或装置可以在计算机中由处理器执行相应的程序指令来实现,如使用windows操作系统的c++语言在PC端实现、linux系统实现,或其他例如使用android、iOS系统程序设计语言在智能终端实现,以及基于量子计算机的处理逻辑实现等。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参考方法实施例的部分说明即可。
虽然本说明书一个或多个实施例提供了如实施例或流程图的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式资源数据更新环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参考方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上仅为本说明书一个或多个实施例的实施例而已,并不用于限制本说明书一个或多个实施例。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在权利要求范围之内。
Claims (11)
1.一种图像处理方法,其特征在于,所述方法包括:
对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
3.如权利要求1所述的方法,其特征在于,所述将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以使获得对抗样本图像,包括:
将所述初始对抗样本输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,计算所述图像处理神经网络模型中各个卷积层的输出特征的饱和度以及相邻两个卷积层输出特征的饱和度差值,若指定卷积层对应的饱和度大于第一预设阈值且与相邻卷积层的输出特征的饱和度差值小于第二预设阈值,则将所述指定卷积层输出的候选对抗样本图像保存;
将所述候选对抗样本图像中的扰动按照预设比例进行压缩,将压缩后的候选对抗样本图像输入所述图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,进行迭代计算,直至迭代次数到达指定次数,保存每一次迭代计算对应的候选对抗样本图像;
从各个候选对抗样本图像中选择一张作为所述对抗样本图像。
4.如权利要求3所述的方法,其特征在于,所述从各个候选对抗样本图像中选择一张作为所述对抗样本图像,包括:
依次将各个候选对抗样本图像中的扰动添加到测试样本图像中,依次将添加了不同扰动的测试样本图像输入到所述图像处理神经网络模型,计算各个候选对抗样本图像中的扰动的欺骗率,选择欺骗率最高的扰动对应的候选对抗样本图像作为所述对抗样本图像。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
在每一次迭代计算获得候选对抗样本图像后,将获得的候选对抗样本图像中的扰动添加到测试样本图像中,将添加了扰动的测试样本图像输入到所述图像处理神经网络模型,计算候选对抗样本图像中的扰动的欺骗率;
若连续指定次数的迭代计算获得的候选对抗样本图像的扰动的欺骗率小于之前迭代计算获得的候选对抗样本图像的扰动的欺骗率,则停止迭代计算。
6.一种图像处理神经网络模型的优化方法,其特征在于,所述方法包括:
对原始样本图像添加扰动,获得初始对抗样本图像;
将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
8.一种图像处理装置,其特征在于,所述装置包括:
初始扰动添加模块,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本生成模块,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化模块,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型;
图像处理模块,用于利用所述图像处理神经网络优化模型对待处理图像进行图像处理。
10.一种图像处理神经网络模型的优化装置,其特征在于,所述装置包括:
样本处理模块,用于对原始样本图像添加扰动,获得初始对抗样本图像;
对抗样本训练模块,用于将所述初始对抗样本图像输入图像处理神经网络模型,并使用无数据通用对抗性扰动算法对所述图像处理神经网络模型进行攻击,以获得对抗样本图像;
模型优化训练模块,用于将所述对抗样本图像按照指定比例加入训练样本集合中,利用所述训练样本集合对所述图像处理神经网络模型进行优化训练,获得图像处理神经网络优化模型。
11.一种图像处理设备,其特征在于,应用于服务器,设备包括至少一个处理器及用于存储处理器可执行指令的存储器,指令被处理器执行时实现包括上述权利要求1-7任一项方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110603076.3A CN113344065A (zh) | 2021-05-31 | 2021-05-31 | 图像处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110603076.3A CN113344065A (zh) | 2021-05-31 | 2021-05-31 | 图像处理方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113344065A true CN113344065A (zh) | 2021-09-03 |
Family
ID=77473277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110603076.3A Pending CN113344065A (zh) | 2021-05-31 | 2021-05-31 | 图像处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113344065A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792791A (zh) * | 2021-09-14 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 针对视觉模型的处理方法及装置 |
CN114663946A (zh) * | 2022-03-21 | 2022-06-24 | 中国电信股份有限公司 | 对抗样本生成方法、装置、设备及介质 |
-
2021
- 2021-05-31 CN CN202110603076.3A patent/CN113344065A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792791A (zh) * | 2021-09-14 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 针对视觉模型的处理方法及装置 |
CN113792791B (zh) * | 2021-09-14 | 2024-05-03 | 百度在线网络技术(北京)有限公司 | 针对视觉模型的处理方法及装置 |
CN114663946A (zh) * | 2022-03-21 | 2022-06-24 | 中国电信股份有限公司 | 对抗样本生成方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943186B2 (en) | Machine learning model training method and device, and electronic device | |
CN112649198B (zh) | 类不平衡滚动轴承智能故障诊断方法、系统、设备及应用 | |
CN110633745B (zh) | 一种基于人工智能的图像分类训练方法、装置及存储介质 | |
CN111325319B (zh) | 一种神经网络模型的检测方法、装置、设备及存储介质 | |
CN113344065A (zh) | 图像处理方法、装置及设备 | |
CN110768971B (zh) | 适用于人工智能系统的对抗样本快速预警方法及系统 | |
KR20210108319A (ko) | 기계학습 기반 적응형 자동분류 방법 및 시스템 | |
CN111382808A (zh) | 一种车辆检测处理方法及装置 | |
CN116827685B (zh) | 基于深度强化学习的微服务系统动态防御策略方法 | |
CN111178504A (zh) | 基于深度神经网络的鲁棒压缩模型的信息处理方法及系统 | |
CN113780363A (zh) | 一种对抗样本防御方法、系统、计算机及介质 | |
CN112598526A (zh) | 资产数据的处理方法及装置 | |
Li et al. | A machine learning-based data augmentation strategy for structural damage classification in civil infrastructure system | |
CN116823428A (zh) | 一种反欺诈检测方法、装置、设备及存储介质 | |
CN113593256B (zh) | 基于城市管理的无人机智能驱离控制方法、系统及云平台 | |
CN113011893B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN116246140A (zh) | 融合Res-50与CBAM的地震断层自动识别方法 | |
CN115758337A (zh) | 基于时序图卷积网络的后门实时监测方法、电子设备、介质 | |
CN113902959A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN115631457A (zh) | 建筑施工监控视频中的人机协作异常检测方法及系统 | |
CN114021136A (zh) | 针对人工智能模型的后门攻击防御系统 | |
CN113852914A (zh) | 待检验点的位置定位方法及定位装置 | |
CN115577353B (zh) | 基于脑计算机制的网络安全防护方法和系统 | |
CN116957067B (zh) | 公共安全事件预测模型的强化联邦学习方法及装置 | |
CN115510984B (zh) | 支付平台的防侵入方法、系统及云平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |