CN109034632B - 一种基于对抗样本的深度学习模型安全风险评估方法 - Google Patents
一种基于对抗样本的深度学习模型安全风险评估方法 Download PDFInfo
- Publication number
- CN109034632B CN109034632B CN201810877437.1A CN201810877437A CN109034632B CN 109034632 B CN109034632 B CN 109034632B CN 201810877437 A CN201810877437 A CN 201810877437A CN 109034632 B CN109034632 B CN 109034632B
- Authority
- CN
- China
- Prior art keywords
- deep learning
- learning model
- model
- sample image
- measured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0635—Risk analysis of enterprise or organisation activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于对抗样本的深度学习模型安全风险评估方法,属于计算机技术领域。所述方法通过原始样本图像xc进行预处理和利用待测目标深度学习模型对原始样本图像xc进行预测等步骤实现深度学习模型安全风险评估。所述方法能够实现对深度学习模型安全风险的有效评估。
Description
技术领域
本发明涉及一种基于对抗样本的深度学习模型安全风险评估方法,属于计算机技术领域。
背景技术
目前人工智能相关技术应用十分广泛。其中基于深度学习模型的图像识别系统已经在包括自动驾驶、智慧医疗等多个重要领域投入实际使用。但深度学习模型本身存在严重的安全风险,攻击者可以利用对抗样本,在不知道模型本身结构信息的条件下,对图像识别深度学习模型进行攻击和欺骗,使这些模型发生误判,从而可能造成严重的安全事故。攻击中所使用的对抗样本,是一种在原始样本图像上加入精心计算的微小干扰得到的样本图像,这种图像人类肉眼观察与原始图像没有太大差别,但会使深度学习模型得到与原始图像完全不同的预测结果。
尽管当前已有多种利用对抗样本,对深度学习模型进行攻击和测试的算法,但并没有一种方法能够直观、定量地对深度学习模型的安全性进行评估。
发明内容
本发明为了解决现有技术中缺乏深度学习模型的安全性评估技术的问题,提出了一种基于对抗样本的深度学习模型安全风险评估方法,所采取的技术方案如下:
一种基于对抗样本的深度学习模型安全风险评估方法,所述评估方法包括:
步骤一:确定待测目标深度学习模型,并从原始样本集中抽取原始样本图像;
步骤二:对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
步骤三:利用待测目标深度学习模型,对原始样本图像xc进行预测,获得所述原始样本图像xc属于各个类别的概率分布;
步骤四:将各个类别对应的概率按从大到小降序排列形成类别概率序列Pc,所述待测目标深度学习模型对所述原始样本图像xc的预测结果为排在所述类别概率序列Pc中第一位(概率最大)的类别yc;
步骤五:根据所述原始样本图像xc的真实类别标签yt,检查所述待测目标深度学习模型是否预测正确;如果预测正确,则将预处理后的原始样本图像xc再次输入待测目标深度学习模型,生成待测目标深度学习模型关于所述原始样本图像xc的对抗样本图像xa;如果所述待测目标深度学习模型预测错误,则所述预测准确度不符要求,需要继续训练,退出程序;
步骤六:利用待测目标深度学习模型,对步骤五所述的对抗样本图像xa进行预测,得到所述抗样本图像xa属于各个类别的概率分布,并将各个类别对应的概率按从大到小降序排列形成对抗样本类别概率序列Pa,所述待测目标深度学习模型对抗样本图像xa的预测结果为排在对抗样本类别概率序列Pa中的第一位(概率最大)的类别ya;
步骤七:计算待测目标深度学习模型对抗安全指数(MASS,Model AdversarialSecurity Score);利用待测目标深度学习模型对原始样本和对抗样本的预测概率分布,计算待测目标深度学习模型对抗安全指数,所述待测目标深度学习模型对抗安全指数即为模型安全风险评估结果;
步骤八:输出所述模型安全风险评估结果,所述待测目标深度学习模型对抗安全指数越大,则所述待测目标深度学习模型越不安全,越容易被攻击和欺骗;按照待测目标深度学习模型对抗安全指数,根据阈值将待测目标深度学习模型安全风险分级,得到最终的模型安全情况,为待测目标深度学习模型的使用和安全评估提供参考和数值指标。
进一步地,步骤二所述原始样本图像的预处理具体为:将原始图像的每个像素点,通过标准化模型进行标准化:
这样得到了深度神经网络的输入,即生成对抗样本的技术样本模板。
进一步地,步骤五所述对抗样本图像xa的生成过程为:
第一步:利用标准化模型对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
第二步:将所述原始样本图像xc依据目标深度学习模型进行n次迭代,第n次迭代过程为:将样本xc输入模型,进行一次前向传播,计算模型的损失函数J(·);
第三步:利用模型:计算对抗干扰噪点并生成对抗样本;其中,为损失函数对x的偏导,即反向传播的梯度,ρn为第n次迭代时依据梯度计算出的对抗干扰;∈表示缩放向量,控制添加的对抗干扰的大小;sign()是对梯度的约束;J(θ;xn,y)表示深度神经网络M的损失函数;θ表示M的参数矩阵;xn表示n次的输入样本;y表示样本真实类别;clip(·)表示截断函数。
进一步地,步骤七所述计算待测目标深度学习模型对抗安全指数的具体过程为:
第1步:确定待测目标深度学习模型对对抗样本图像的预测结果ya在原始样本图像xc预测概率分布Pc中的序号为Ia;
第2步:确定待测目标深度学习模型对原始样本图像xc的预测结果yc在抗样本图像预测概率分布Pa中的序号为Ic;
第3步:确定待测目标深度学习模型的样本类别数为N,则根据计算模型获取模型对抗安全指数;所述计算模型如下:
进一步地,步骤八所述安全风险分级的分类过程为:根据模型对抗安全指数,利用设定的默认阈值将模型风险分为4个级别:安全(MASS<0.2)、较为安全(0.2≤MASS<0.5)、存在风险(0.5≤MASS<0.8)、存在严重风险(0.8≤MASS)。
本发明有益效果:
本发明提出模型对抗安全指数相关算法以及改进的对抗样本生成算法,通过对抗样本评估用于图像分类任务的深度神经网络的安全性,可以快速生成本地样本图片的对抗样本,同时利用对抗样本对目标模型进行检验,最终分析得到目标模型的安全性。
本发明提出的模型对抗安全指数(MASS,Model Adversarial Security Score),可衡量一个指定神经网络的安全性。根据模型对抗安全指数能够直观地衡量神经网络的安全性。利用不同类别上的模型对抗安全指数可以从另一个角度评估目标模型的训练情况,通过该指标定位模型的脆弱点,根据模型对抗安全指数的指导,对目标模型进行后续的改进和优化,从而提升模型整体的安全性。本模型对抗安全指数类似于准确率等其他指标一样,成为选择不同模型时的一个关键参考因素。
附图说明
图1为本发明所述评估方法的整体流程图。
图2为本发明对抗样本生成过程流程图。
具体实施方式
下面结合具体实施例对本发明做进一步说明,但本发明不受实施例的限制。
实施例1:
一种基于对抗样本的深度学习模型安全风险评估方法,如图1所示,所述评估方法包括:
步骤一:确定待测目标深度学习模型,并从原始样本集中抽取原始样本图像;
步骤二:对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
步骤三:利用待测目标深度学习模型,对原始样本图像xc进行预测,获得所述原始样本图像xc属于各个类别的概率分布;
步骤四:将各个类别对应的概率按从大到小降序排列形成类别概率序列Pc,所述待测目标深度学习模型对所述原始样本图像xc的预测结果为排在所述类别概率序列Pc中第一位(概率最大)的类别yc;
步骤五:根据所述原始样本图像xc的真实类别标签yt,检查所述待测目标深度学习模型是否预测正确;如果预测正确,则将预处理后的原始样本图像xc再次输入待测目标深度学习模型,生成待测目标深度学习模型关于所述原始样本图像xc的对抗样本图像xa;如果所述待测目标深度学习模型预测错误,则所述预测准确度不符要求,需要继续训练,退出程序;
步骤六:利用待测目标深度学习模型,对步骤五所述的对抗样本图像xa进行预测,得到所述抗样本图像xa属于各个类别的概率分布,并将各个类别对应的概率按从大到小降序排列形成对抗样本类别概率序列Pa,所述待测目标深度学习模型对抗样本图像xa的预测结果为排在对抗样本类别概率序列Pa中的第一位(概率最大)的类别ya;
步骤七:计算待测目标深度学习模型对抗安全指数(MASS,Model AdversarialSecurity Score);利用待测目标深度学习模型对原始样本和对抗样本的预测概率分布,计算待测目标深度学习模型对抗安全指数,所述待测目标深度学习模型对抗安全指数即为模型安全风险评估结果;
步骤八:输出所述模型安全风险评估结果,所述待测目标深度学习模型对抗安全指数越大,则所述待测目标深度学习模型越不安全,越容易被攻击和欺骗;按照待测目标深度学习模型对抗安全指数,根据阈值将待测目标深度学习模型安全风险分级,得到最终的模型安全情况,为待测目标深度学习模型的使用和安全评估提供参考和数值指标。
其中,步骤二所述原始样本图像的预处理具体为:将原始图像的每个像素点,通过标准化模型进行标准化:
这样得到了深度神经网络的输入,即生成对抗样本的技术样本模板。
步骤五所述对抗样本图像xa的生成过程如图2所示,具体为:
第一步:利用标准化模型对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
第二步:将所述原始样本图像xc依据目标深度学习模型进行n次迭代,第n次迭代过程为:将样本xc输入模型,进行一次前向传播,计算模型的损失函数J(·);
第三步:利用模型:计算对抗干扰噪点并生成对抗样本;其中,为损失函数对x的偏导,即反向传播的梯度,ρn为第n次迭代时依据梯度计算出的对抗干扰;∈表示缩放向量,控制添加的对抗干扰的大小;sign()是对梯度的约束;J(θ;xn,y)表示深度神经网络M的损失函数;θ表示M的参数矩阵;xn表示n次的输入样本;y表示样本真实类别;clip(·)表示截断函数。
在生成第n轮迭代的对抗干扰后,将对抗干扰与当前的输入样本叠加,由于数字图像每个像素点的像素值有取值限制,不能任意取值。对于一张数字图像,第i行、第j列的像素值xij必须满足:xij∈[1,25 5],因此由截断函数clip(·)对生成的图像像素值进行截断,保证像素值在正常取值范围之内。经过一轮优化,可以得到新的样本图像xn+1。当迭代次数达到设定值,或者生成的对抗样本能够成功欺骗模型时,停止迭代,输出最终的对抗样本。
步骤七所述计算待测目标深度学习模型对抗安全指数的具体过程为:
第1步:确定待测目标深度学习模型对对抗样本图像的预测结果ya在原始样本图像xc预测概率分布Pc中的序号为Ia;
第2步:确定待测目标深度学习模型对原始样本图像xc的预测结果yc在抗样本图像预测概率分布Pa中的序号为Ic;
第3步:确定待测目标深度学习模型的样本类别数为N,则根据计算模型获取模型对抗安全指数;所述计算模型如下:
步骤八所述安全风险分级的分类过程为:根据模型对抗安全指数,利用设定的默认阈值将模型风险分为4个级别:安全(MASS<0.2)、较为安全(0.2≤MASS<0.5)、存在风险(0.5≤MASS<0.8)、存在严重风险(0.8≤MASS)。
本发明所述计算模型对抗安全指数的具体算法如表1所示:
表1
虽然本发明已以较佳的实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可以做各种改动和修饰,因此本发明的保护范围应该以权利要求书所界定的为准。
Claims (5)
1.一种基于对抗样本的深度学习模型安全风险评估方法,其特征在于,所述评估方法包括:
步骤一:确定待测目标深度学习模型,并从原始样本集中抽取原始样本图像;
步骤二:对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
步骤三:利用待测目标深度学习模型,对原始样本图像xc进行预测,获得所述原始样本图像xc属于各个类别的概率分布;
步骤四:将各个类别对应的概率按从大到小降序排列形成类别概率序列Pc,所述待测目标深度学习模型对所述原始样本图像xc的预测结果为排在所述类别概率序列Pc中第一位的类别yc;
步骤五:根据所述原始样本图像xc的真实类别标签yt,检查所述待测目标深度学习模型是否预测正确;如果预测正确,则将预处理后的原始样本图像xc再次输入待测目标深度学习模型,生成待测目标深度学习模型关于所述原始样本图像xc的对抗样本图像xa;如果所述待测目标深度学习模型预测错误,则所述预测准确度不符要求,需要继续训练,退出程序;
步骤六:利用待测目标深度学习模型,对步骤五所述的对抗样本图像xa进行预测,得到所述抗样本图像xa属于各个类别的概率分布,并将各个类别对应的概率按从大到小降序排列形成对抗样本类别概率序列Pa,所述待测目标深度学习模型对抗样本图像xa的预测结果为排在对抗样本类别概率序列Pa中的第一位的类别ya;
步骤七:计算待测目标深度学习模型对抗安全指数;利用待测目标深度学习模型对原始样本和对抗样本的预测概率分布,计算待测目标深度学习模型对抗安全指数,所述待测目标深度学习模型对抗安全指数即为模型安全风险评估结果;
步骤八:输出所述模型安全风险评估结果,所述待测目标深度学习模型对抗安全指数越大,则所述待测目标深度学习模型越不安全,越容易被攻击和欺骗;按照待测目标深度学习模型对抗安全指数,根据阈值将待测目标深度学习模型安全风险分级,得到最终的模型安全情况,为待测目标深度学习模型的使用和安全评估提供参考和数值指标。
2.根据权利要求1所述深度学习模型安全风险评估方法,其特征在于,步骤二所述原始样本图像的预处理具体为:将原始图像的每个像素点,通过标准化模型进行标准化:
这样得到了深度神经网络的输入,即生成对抗样本的技术样本模板。
3.根据权利要求1所述深度学习模型安全风险评估方法,其特征在于,步骤五所述对抗样本图像xa的生成过程为:
第一步:利用标准化模型对原始样本图像xc进行预处理,使所述原始样本图像xc符合目标深度学习模型的输入格式要求;
第二步:将所述原始样本图像xc依据目标深度学习模型进行n次迭代,第n次迭代过程为:将样本xc输入模型,进行一次前向传播,计算模型的损失函数J(·);
第三步:利用模型:计算对抗干扰噪点并生成对抗样本;其中,为损失函数对x的偏导,即反向传播的梯度,ρn为第n次迭代时依据梯度计算出的对抗干扰;∈表示缩放向量,控制添加的对抗干扰的大小;sign()是对梯度的约束;J(θ;xn,y)表示深度神经网络M的损失函数;θ表示M的参数矩阵;xn表示n次的输入样本;y表示样本真实类别;clip(·)表示截断函数。
4.根据权利要求1所述深度学习模型安全风险评估方法,其特征在于,步骤七所述计算待测目标深度学习模型对抗安全指数的具体过程为:
第1步:确定待测目标深度学习模型对对抗样本图像的预测结果ya在原始样本图像xc预测概率分布Pc中的序号为Ia;
第2步:确定待测目标深度学习模型对原始样本图像xc的预测结果yc在抗样本图像预测概率分布Pa中的序号为Ic;
第3步:确定待测目标深度学习模型的样本类别数为N,则根据计算模型获取模型对抗安全指数;所述计算模型如下:
5.根据权利要求1所述深度学习模型安全风险评估方法,其特征在于,步骤八所述安全风险分级的分类过程为:根据模型对抗安全指数,利用设定的默认阈值将模型风险分为4个级别:安全(MASS<0.2)、较为安全(0.2≤MASS<0.5)、存在风险(0.5≤MASS<0.8)、存在严重风险(0.8≤MASS)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810877437.1A CN109034632B (zh) | 2018-08-03 | 2018-08-03 | 一种基于对抗样本的深度学习模型安全风险评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810877437.1A CN109034632B (zh) | 2018-08-03 | 2018-08-03 | 一种基于对抗样本的深度学习模型安全风险评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109034632A CN109034632A (zh) | 2018-12-18 |
CN109034632B true CN109034632B (zh) | 2019-06-18 |
Family
ID=64648290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810877437.1A Active CN109034632B (zh) | 2018-08-03 | 2018-08-03 | 一种基于对抗样本的深度学习模型安全风险评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109034632B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046622B (zh) * | 2019-04-04 | 2021-09-03 | 广州大学 | 一种有目标的攻击样本生成方法、装置、设备及存储介质 |
CN110264505B (zh) * | 2019-06-05 | 2021-07-30 | 北京达佳互联信息技术有限公司 | 一种单目深度估计方法、装置、电子设备及存储介质 |
CN110222831B (zh) * | 2019-06-13 | 2022-05-17 | 百度在线网络技术(北京)有限公司 | 深度学习模型的鲁棒性评估方法、装置及存储介质 |
CN110855654B (zh) * | 2019-11-06 | 2021-10-08 | 中国移动通信集团广东有限公司 | 基于流量互访关系的漏洞风险量化管理方法和系统 |
WO2021100597A1 (ja) * | 2019-11-22 | 2021-05-27 | 有人宇宙システム株式会社 | 人工知能システムの安全性検証システム、安全性検証方法、および安全性検証プログラム |
CN111723865B (zh) * | 2020-06-19 | 2021-07-16 | 北京瑞莱智慧科技有限公司 | 评估图像识别模型、攻击方法性能的方法、装置和介质 |
CN111860698B (zh) * | 2020-08-05 | 2023-08-11 | 中国工商银行股份有限公司 | 确定学习模型的稳定性的方法和装置 |
CN112200380B (zh) * | 2020-10-23 | 2023-07-25 | 支付宝(杭州)信息技术有限公司 | 优化风险检测模型的方法及装置 |
CN112464245B (zh) * | 2020-11-26 | 2022-05-03 | 重庆邮电大学 | 一种面向深度学习图像分类模型的泛化的安全性评估方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10007866B2 (en) * | 2016-04-28 | 2018-06-26 | Microsoft Technology Licensing, Llc | Neural network image classifier |
CN108257116A (zh) * | 2017-12-30 | 2018-07-06 | 清华大学 | 一种生成对抗图像的方法 |
CN108322349B (zh) * | 2018-02-11 | 2021-04-06 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
-
2018
- 2018-08-03 CN CN201810877437.1A patent/CN109034632B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109034632A (zh) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109034632B (zh) | 一种基于对抗样本的深度学习模型安全风险评估方法 | |
CN111160474B (zh) | 一种基于深度课程学习的图像识别方法 | |
Mueller et al. | Decision noise: An explanation for observed violations of signal detection theory | |
CN110417721A (zh) | 安全风险评估方法、装置、设备及计算机可读存储介质 | |
CN104050329B (zh) | 一种检测船舶碰撞危险度的方法 | |
CN110298321A (zh) | 基于深度学习图像分类的道路阻断信息提取 | |
CN110490177A (zh) | 一种人脸检测器训练方法及装置 | |
CN104986347B (zh) | 一种民机航线飞行员操作差错的实时检测方法 | |
CN113159482A (zh) | 一种用于评估信息安全风险的方法及系统 | |
CN109063977A (zh) | 一种无感式交易风险监测方法及装置 | |
TWI794516B (zh) | 透過空中交通管理電子系統的用於空中管理的訓練和/或輔助平台及方法 | |
CN107832890A (zh) | 一种拥堵预测方法和装置 | |
Vuckovic et al. | A sequential sampling account of response bias and speed–accuracy tradeoffs in a conflict detection task. | |
CN112257914A (zh) | 一种基于随机森林的航空安全因果预测方法 | |
CN108259223A (zh) | 防止gps欺骗的无人机网络系统安全态势感知评估方法 | |
CN110472051A (zh) | 一种基于变化量表示学习的事件检测方法 | |
CN110310199A (zh) | 借贷风险预测模型的构建方法、系统及借贷风险预测方法 | |
CN113192602A (zh) | 一种用于学生心理健康检测的测试系统 | |
CN116665482B (zh) | 一种基于智慧停车的停车位推荐方法及装置 | |
Yanli et al. | Road traffic accidents model and its application based on driver's self-mistakes | |
CN108073979A (zh) | 一种导入人工智能超深度学习用于图像识别的方法 | |
CN114898222B (zh) | 一种舰船目标航迹识别方法及装置 | |
CN106161458A (zh) | 基于双加权在线极限学习机的网络入侵检测方法 | |
CN113343774B (zh) | 一种细粒度的工程力学跳水动作模拟与评估方法 | |
Wheadon | Classification accuracy and consistency under item response theory models using the package classify |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |