CN113254885A - 机器学习模型保护方法和设备 - Google Patents
机器学习模型保护方法和设备 Download PDFInfo
- Publication number
- CN113254885A CN113254885A CN202010090978.7A CN202010090978A CN113254885A CN 113254885 A CN113254885 A CN 113254885A CN 202010090978 A CN202010090978 A CN 202010090978A CN 113254885 A CN113254885 A CN 113254885A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- learning model
- protection
- input parameter
- functions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000006870 function Effects 0.000 claims abstract description 80
- 238000004590 computer program Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000004927 fusion Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005336 cracking Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/12—Protecting executable software
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Technology Law (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Stored Programmes (AREA)
Abstract
提供了基于领域特定语言编译器的机器学习模型保护方法和保护设备。该保护方法包括针对所述机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值;和基于分别针对所述一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对所述机器学习模型进行保护的机器可执行代码。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及信息安全领域。
背景技术
随着智能物联时代的到来,越来越多的人工智能算法被部署到云或者终端设备的应用程序里。而如刷脸支付、刷脸登录、无人商超、无人银行等业务所使用的人工智能算法有可能会遭到攻击,从而带来资金风险。通常攻击者并不知晓机器学习模型的具体结构和训练所使用的数据特征,因此通常使用黑盒攻击,通过尝试不同的输入获取对应的输出结果,观察输出结果来猜测模型的工作机理、发现系统漏洞。
当前通常使用如加密、私有模型格式、计算图混淆、权重数据混淆等策略对于机器学习模型进行保护。但是,仍然需要提供对机器学习模型更可靠地保护。
发明内容
期望提供基于领域特定语言编译器的机器学习模型保护方法和设备,其能够对机器学习模型提供更加可靠的保护。
根据一方面,提供一种基于领域特定语言编译器的机器学习模型保护方法,包括针对所述机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值;和基于分别针对所述一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对所述机器学习模型进行保护的机器可执行代码。
根据另一方面,提供一种基于领域特定语言编译器的机器学习模型保护设备,包括接收单元,其用于针对所述机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值;和代码生成单元,其用于基于分别针对所述一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对所述机器学习模型进行保护的机器可执行代码。
根据再一方面,提供一种生成机器学习模型的系统,包括机器学习模型生成设备,其用于生成机器学习模型;和根据本说明书各个实施例所述的基于领域特定语言编译器的机器学习模型保护设备,其用于生成对所述机器学习模型进行保护的机器可执行代码。
根据本说明书的每个方面的各个实施例,基于领域特定语言(DSL)编译器为机器学习模型的每种保护策略提供了参数化的能力,由此,通过设定不同的输入参数,使得自动生成针对各项保护策略的不同机器可执行代码,从而实现了针对每个机器学习模型特异性的保护。即使攻击者破解了一个机器学习模型,由于针对每个机器学习模型的保护策略对应的可执行代码不同,其破解其他机器学习模型的迁移成本不会降低。由此,提供了对机器学习模型更加可靠的保护。
附图说明
图1示出了一种情况下的机器学习模型保护架构图;
图2示出了根据一个实施例的基于领域特定语言编译器的机器学习模型保护方法;
图3a示出了根据一个实施例预先定义的函数;
图3b示出了根据一个实施例的函数调用和融合;
图4示出了根据一个实施例的用于生成机器学习模型的系统。
参照上述附图来描述本说明书的各个方面和特征。通常采用相同或相似的附图标号来表示相同的部件。上述附图仅仅是示意性的,而非限制性的。在不脱离本说明书的主旨的情况下,在上述附图中各个元件的尺寸、形状、标号、或者外观可以发生变化,而不被限制到仅仅说明书附图所示出的那样。
具体实施方式
能够采用一种或多种保护策略对于机器学习模型进行保护,这包括加密、计算图混淆和/或权重数据混淆。优选地,用户能够在包括加密、计算图混淆和权重数据混淆的组中选择一种或多种保护策略来构成其独有的针对机器学习模型的保护逻辑。能够由如下将要描述的机器学习模型保护设备将当前可用的保护策略显示给用户,用户选择其中的特定保护策略来对当前机器学习模型进行保护。
图1示出了一种情况下的机器学习模型保护架构图。通过人工智能手段生成的机器学习模型,也即实现该机器学习模型的机器可执行程序,能够通过由计算图混淆、权重数据混淆和加密构成的特定的保护逻辑来被保护,最终输出用于模型保护的机器可执行代码以及自定义模型格式。还可以预期选择保护策略的不同组合来构成其他的保护逻辑。
图2示出了根据一个实施例基于DSL编译器的机器学习模型保护方法100。该保护方法100能够执行如下处理。
在110,针对当前机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数。该一种或多种保护策略能够是用户针对当前机器学习模型特异性选择的。尤其是从包括加密、计算图混淆和权重数据混淆的组中选择的。这使得用户能够针对每个机器学习模型指定用户特异性的保护逻辑。这些函数是已经在DSL编译器中针对各项保护策略预先定义的。例如函数A表示加密,函数B表示计算图混淆、函数C表示权重数据混淆。由此,参考图1所示的例子,用户能够输入指令顺序调用函数B、C、A作为针对该机器学习模型的保护逻辑。图3a示出了在DSL编译器中预先定义的函数的例子。
在120,接收针对每种保护策略的函数的输入参数值。该输入参数值能够由用户根据其需求设定的。尤其该输入参数值能够是针对不同的机器学习模型而不同的。参考图1所示的例子,接收分别针对函数B、C、A的输入参数值。
在一个实施例中,能够随机生成针对每种保护策略的输入参数值,然后接收该随机生成的输入参数值。
虽然将接收对函数的调用和接收函数的输入参数值在处理110和120中分开描述,可以理解,它们可以在同一处理中被执行,例如,优选的是能够在接收对某项保护策略的函数调用的同时接收对应的输入参数值。在这种情况下,用户的指令能够包括对输入参数值的指定。
在130,基于分别针对一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对当前机器学习模型进行保护的机器可执行代码。
在一个实施例中,能够针对一种或多种保护策略中的每种保护策略,基于相应的函数以及输入参数值,自动生成针对每种保护策略的机器可执行代码。参考图1所示的例子,在该处理中分别针对函数B、C、A及其输入参数值自动生成实现对应功能(即,计算图混淆、权重数据混淆、加密)的机器可执行代码。由此构成对该机器学习模型的保护代码。该保护代码能够与机器学习模型一同提供给用户。
在另一个实施例中,当针对当前机器学习模型使用多种保护策略时,能够在自动生成机器可执行代码之前对多种保护策略对应的多个函数进行选择性地融合,然后基于经融合的函数来生成机器可执行代码,从而进一步增加代码逻辑的理解难度。
具体地,能够对与多种保护策略分别对应的多个函数中的至少两个函数进行融合,以生成经融合的函数;然后基于该经融合的函数以及相应的输入参数值自动生成相应的机器可执行代码。对于那些未被融合的函数,仍然能够基于该函数以及相应的输入参数值自动生成相应的机器可执行代码。
优选的是,对多种保护策略分别对应的多个函数都进行融合,以生成一个经融合的函数,然后基于该经融合的函数以及相应的输入参数值自动生成相应的机器可执行代码。
也可以预期对多种保护策略所对应的多个函数进行分组融合,以生成多个经融合的函数,然后基于该多个经融合的函数以及相应的输入参数生成对应的机器可执行代码。
图3a示出了根据一个实施例在DSL编译器中预先定义的函数E和F。图3b示出了根据一个实施例的函数E和F的调用和融合。函数E和F可以是分别对应不同的保护策略在DSL编译器中预先定义的函数。预先定义的函数E和F被示出在图3a中。根据一般情况下的实施例,用户可以输入指令E_func(x,len)和F_func(x,len)来调用函数E和F并且输入对应的参数值,以由DSL编译器自动生成相应的机器可执行代码。在上述数据融合的实施例中,DSL编译器能够首先对函数E和F进行融合得到图3b示出的经融合的函数,然后基于该函数生成机器可执行代码。
以上参考基于DSL编译器对机器学习模型的保护方法描述了各个实施例。可以理解其中的各个方法的各项处理能够被拆分、重组或者组合以实现相应的功能。
图4示出了根据一个实施例生成机器学习模型的系统10。该系统10包括机器学习模型生成设备11,其用于生成机器学习模型,以及基于DSL编译器的机器学习模型保护设备12,生成针对不同的保护策略对机器学习模型进行保护的机器可执行代码。该保护设备12包括接收单元121和代码生成单元122。该接收单元121针对当前机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值。调用的函数是预先定义的并且可以存储在存储器13中。也可以设想该存储器作为保护设备12的一部分。代码生成单元122基于分别针对一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对当前机器学习模型进行保护的机器可执行代码。
在一个实施例中,该代码生成单元122针对一种或多种保护策略中的每种保护策略,基于相应的函数和输入参数值,自动生成针对所述保护策略的机器可执行代码。
在另一个实施例中,该代码生成单元122对与多种保护策略分别对应的多个函数中的至少两个函数进行融合,以生成经融合的函数;然后基于经融合的函数以及相应的输入参数值自动生成相应的机器可执行代码。
在另一个实施例中,该系统还可以包括随机数生成单元(未示出),其用于随机生成针对每种保护策略的输入参数值,接收单元121接收该随机生成的输入参数值。可以预期该随机数生成单元作为保护设备12的一部分。
还可以预期该代码生成单元122执行以上描述的函数融合以及与融合函数相应的代码生成相关的各项处理。可以预期在现有DSL编译器的基础上添加本说明书的保护设备的各项功能单元或者模块。上述接收单元121和代码生成单元122作为DSL编译器的模块由DSL编译器实现。
以上虽然在生成机器学习模型的系统10中描述了基于DSL编译器的机器学习模型保护设备12,可以设想将基于DSL编译器对机器学习模型的保护设备12作为单独的设备使用。
可以设想该保护设备12的接收单元还能够接收用户对保护策略的选择。在一个实施例中,保护设备12能够包括显示单元,其能够将当前可选的保护策略以及对应的指令显示给用户,用户可以基于其自身对保护策略的选择来输入指令以调用相应的函数。进一步显示单元还可以使得针对用户选定的特定保护策略提示用户输入相应的参数值。
可以理解,本说明书的各个实施例的方法和设备能够由计算机程序/软件实现。这些软件包括计算机程序指令,其能够被载入到数据处理器的工作存储器中,当运行时用于执行根据本说明书的各实施例的方法。
本说明书的示范性实施例覆盖以下两者:从一开始就创建/使用本说明书的计算机程序/软件,以及借助于更新将已有程序/软件转为使用本说明书的计算机程序/软件。
根据本说明书另外的实施例,提供一种机器(如计算机)可读介质,例如CD-ROM,其中所述可读介质具有被存储在其上的计算机程序代码,该计算机程序代码当被执行时令计算机或处理器执行根据本说明书的各实施例的方法。该机器可读介质例如是与其他硬件一起或作为其他硬件的部分供应的光学存储介质或固态介质。
也可以将用于执行根据本说明书的各实施例的方法的计算机程序以其他形式分布,例如经由因特网或者其他有线或无线电信系统。计算机程序也可以被提供在诸如万维网的网络上,并且能够从这样的网络被下载到数据处理器的工作计算机中。
也可以理解,本说明书的各个实施例的系统中的各个单元以及方法的流程也能够由硬件或者硬件和软件的组合来实现。
在一个实施例中,根据本说明书的系统能够由存储器和处理器来实现。存储器能够存储用于运行根据本说明书的各个实施例的方法流程的计算机程序代码;当运行来自存储器的程序代码时,处理器执行根据本说明书的各个实施例的流程。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
必须指出,本说明书的实施例是参考不同主题来描述的。尤其地,一些实施例是参考方法型权利要求来描述的,而其他实施例是参考设备型权利要求来描述的。然而,本领域技术人员将从以上和以下描述获悉,除非另外指明,除了属于一种类型的主题的特征的任意组合以外,涉及不同主题的特征之间的任意组合也被视为被本说明书公开了。并且,能够组合全部特征,提供大于特征的简单加和的协同效应。
以上参照特定的实施例描述本说明书,本领域技术人员应当理解,在不背离本说明书的精神和基本特征的情况下,能够以各种方式来实现本说明书的技术方案。具体的实施例仅仅是示意性的,而非限制性的。另外,这些实施例之间能够任意组合,来实现本说明书的目的。本说明书的保护范围由所附的权利要求书来定义。
说明书和权利要求中的“包括”一词不排除其它元件或步骤的存在。在说明书中说明或者在权利要求中记载的各个元件的功能也可以被分拆或组合,由对应的多个元件或单一元件来实现。
Claims (13)
1.一种基于领域特定语言编译器的机器学习模型保护方法,包括
针对所述机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值;和
基于分别针对所述一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对所述机器学习模型进行保护的机器可执行代码。
2.根据权利要求1所述的机器学习模型保护方法,其中,自动生成用于对所述机器学习模型进行保护的机器可执行代码包括
针对所述一种或多种保护策略中的每种保护策略,基于相应的函数和输入参数值,自动生成针对所述保护策略的机器可执行代码。
3.根据权利要求1所述的机器学习模型保护方法,其中,自动生成用于对所述机器学习模型进行保护的机器可执行代码包括
对与多种保护策略分别对应的多个函数中的至少两个函数进行融合,以生成经融合的函数;
基于经融合的函数以及相应的输入参数值自动生成相应的机器可执行代码。
4.根据权利要求1-3中任一项所述的机器学习模型保护方法,还包括
随机生成针对每种保护策略的所述输入参数值;
其中,接收所述函数的输入参数值包括
接收针对所述保护策略随机生成的所述输入参数值。
5.根据权利要求1-3中任一项所述的机器学习模型保护方法,其中,
所述一种或多种保护策略是由用户选择的。
6.根据权利要求5所述的机器学习模型保护方法,其中,所述一种或多种保护策略从包括加密、计算图混淆、或权重数据混淆的组中选择。
7.一种基于领域特定语言编译器的机器学习模型保护设备,包括
接收单元,其用于针对所述机器学习模型的一种或多种保护策略中的每种保护策略,接收用户的指令以调用相应的函数、并且接收所述函数的输入参数值;和
代码生成单元,其用于基于分别针对所述一种或多种保护策略的一个或多个函数以及相应的输入参数值,自动生成用于对所述机器学习模型进行保护的机器可执行代码。
8.根据权利要求7所述的机器学习模型保护设备,其中,所述代码生成单元还用于
针对所述一种或多种保护策略中的每种保护策略,基于相应的函数和输入参数值,自动生成针对所述保护策略的机器可执行代码。
9.根据权利要求7所述的机器学习模型保护设备,其中,所述代码生成单元还用于
对与多种保护策略分别对应的多个函数中的至少两个函数进行融合,以生成经融合的函数;
基于经融合的函数以及相应的输入参数值自动生成相应的机器可执行代码。
10.根据权利要求7-9中任一项所述的机器学习模型保护设备,还包括
随机数生成单元,其用于随机生成针对每种保护策略的所述输入参数值;
其中,所述接收单元从所述随机数生成单元接收针对所述保护策略随机生成的所述输入参数值。
11.根据权利要求7-9中任一项所述的机器学习模型保护设备,其中,
所述一种或多种保护策略是由用户选择的。
12.根据权利要求11所述的机器学习模型保护设备,其中,所述一种或多种保护策略从包括加密、计算图混淆、或权重数据混淆的组中选择。
13.一种生成机器学习模型的系统,包括
机器学习模型生成设备,其用于生成机器学习模型;和
根据权利要求7-12中的任一项所述的基于领域特定语言编译器的机器学习模型保护设备,其用于生成对所述机器学习模型进行保护的机器可执行代码。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090978.7A CN113254885A (zh) | 2020-02-13 | 2020-02-13 | 机器学习模型保护方法和设备 |
PCT/CN2020/132839 WO2021159819A1 (zh) | 2020-02-13 | 2020-11-30 | 机器学习模型保护方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090978.7A CN113254885A (zh) | 2020-02-13 | 2020-02-13 | 机器学习模型保护方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113254885A true CN113254885A (zh) | 2021-08-13 |
Family
ID=77220048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010090978.7A Pending CN113254885A (zh) | 2020-02-13 | 2020-02-13 | 机器学习模型保护方法和设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113254885A (zh) |
WO (1) | WO2021159819A1 (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750469A (zh) * | 2012-05-18 | 2012-10-24 | 北京邮电大学 | 一种基于开放平台的安全检测系统及其检测方法 |
US20150269383A1 (en) * | 2014-01-22 | 2015-09-24 | Object Security LTD | Automated and adaptive model-driven security system and method for operating the same |
US20180069899A1 (en) * | 2016-07-08 | 2018-03-08 | Ulrich Lang | Method and system for policy management, testing, simulation, decentralization and analysis |
US20180191780A1 (en) * | 2016-12-29 | 2018-07-05 | Mcafee, Inc. | Technologies for privacy-preserving security policy evaluation |
US20190258953A1 (en) * | 2018-01-23 | 2019-08-22 | Ulrich Lang | Method and system for determining policies, rules, and agent characteristics, for automating agents, and protection |
WO2019215713A1 (en) * | 2018-05-07 | 2019-11-14 | Shoodoo Analytics Ltd. | Multiple-part machine learning solutions generated by data scientists |
CN110457023A (zh) * | 2019-07-23 | 2019-11-15 | 东软集团股份有限公司 | 任务创建方法、装置、存储介质及电子设备 |
CN110580527A (zh) * | 2018-06-08 | 2019-12-17 | 上海寒武纪信息科技有限公司 | 通用机器学习模型的生成方法、装置和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2434428A1 (en) * | 2009-11-19 | 2012-03-28 | Hitachi, Ltd. | Computer system, management system and recording medium |
CN105516154B (zh) * | 2015-12-15 | 2019-09-17 | Tcl集团股份有限公司 | 应用于SEAndroid系统的安全策略配置方法及装置 |
US11263540B2 (en) * | 2018-05-07 | 2022-03-01 | Apple Inc. | Model selection interface |
-
2020
- 2020-02-13 CN CN202010090978.7A patent/CN113254885A/zh active Pending
- 2020-11-30 WO PCT/CN2020/132839 patent/WO2021159819A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750469A (zh) * | 2012-05-18 | 2012-10-24 | 北京邮电大学 | 一种基于开放平台的安全检测系统及其检测方法 |
US20150269383A1 (en) * | 2014-01-22 | 2015-09-24 | Object Security LTD | Automated and adaptive model-driven security system and method for operating the same |
US20180069899A1 (en) * | 2016-07-08 | 2018-03-08 | Ulrich Lang | Method and system for policy management, testing, simulation, decentralization and analysis |
US20180191780A1 (en) * | 2016-12-29 | 2018-07-05 | Mcafee, Inc. | Technologies for privacy-preserving security policy evaluation |
US20190258953A1 (en) * | 2018-01-23 | 2019-08-22 | Ulrich Lang | Method and system for determining policies, rules, and agent characteristics, for automating agents, and protection |
WO2019215713A1 (en) * | 2018-05-07 | 2019-11-14 | Shoodoo Analytics Ltd. | Multiple-part machine learning solutions generated by data scientists |
CN110580527A (zh) * | 2018-06-08 | 2019-12-17 | 上海寒武纪信息科技有限公司 | 通用机器学习模型的生成方法、装置和存储介质 |
CN110457023A (zh) * | 2019-07-23 | 2019-11-15 | 东软集团股份有限公司 | 任务创建方法、装置、存储介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
宋蕾等: "机器学习安全及隐私保护研究进展.", 《网络与信息安全学报》 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021159819A1 (zh) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11138312B2 (en) | Cyber range integrating technical and non-technical participants, participant substitution with AI bots, and AI bot training | |
Swiler et al. | A graph-based network-vulnerability analysis system | |
US20210014264A1 (en) | System and method for reasoning about the optimality of a configuration parameter of a distributed system | |
CN110414567B (zh) | 数据处理方法、装置和电子设备 | |
CN108369625A (zh) | 用于保护多个网络端点的双重存储器内省 | |
US20240073226A1 (en) | Quantum computing machine learning for security threats | |
WO2020157590A1 (en) | Systems, methods, and storage media for obfuscating a computer program by representing the control flow of the computer program as data | |
CN110247857A (zh) | 限流方法及装置 | |
Islam et al. | Chimera: Autonomous planning and orchestration for malware deception | |
CN115580430A (zh) | 一种基于深度强化学习的攻击树蜜罐部署防御方法与装置 | |
Lin et al. | Effective proactive and reactive defense strategies against malicious attacks in a virtualized honeynet | |
CN110276193A (zh) | 风险特征输出方法、应用运行控制方法、系统及装置 | |
CN106971111A (zh) | 数据加密方法、终端及服务器 | |
WO2020256830A1 (en) | Permitting firewall traffic as exceptions in default traffic denial environments | |
CN115730319A (zh) | 数据处理方法、装置、计算机设备和存储介质 | |
Confido et al. | Reinforcing penetration testing using ai | |
CN113254885A (zh) | 机器学习模型保护方法和设备 | |
De Faveri et al. | A SPL framework for adaptive deception-based defense | |
CN112199657B (zh) | 一种基于虚拟现实环境的身份认证方法和vr装置 | |
CN105069328A (zh) | 一种数据处理方法和装置 | |
CN107391970A (zh) | Flash应用程序中的函数访问控制方法及装置 | |
Kim et al. | Analytical study of cognitive layered approach for understanding security requirements using problem domain ontology | |
Norman | COMPUTER HACKING BEGINNERS GUIDE HOW TO HACK WIRELESS NETWORK, BASIC SECURITY AND PENETRATION TESTING, KALI LINUX, YOUR FIRST HACK | |
Ali et al. | AI-enabled cybernetic analytics of security models for smart serious games-based Mobile Operating Systems | |
CN117610026B (zh) | 一种基于大语言模型的蜜点漏洞生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |