CN113986561A - 人工智能任务处理方法、装置、电子设备及可读存储介质 - Google Patents
人工智能任务处理方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN113986561A CN113986561A CN202111616394.XA CN202111616394A CN113986561A CN 113986561 A CN113986561 A CN 113986561A CN 202111616394 A CN202111616394 A CN 202111616394A CN 113986561 A CN113986561 A CN 113986561A
- Authority
- CN
- China
- Prior art keywords
- task
- information
- training
- loss
- precision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 324
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 329
- 238000000034 method Methods 0.000 claims abstract description 86
- 230000008569 process Effects 0.000 claims abstract description 63
- 238000012795 verification Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims abstract description 40
- 238000010200 validation analysis Methods 0.000 claims abstract description 20
- 230000000737 periodic effect Effects 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 17
- 230000010365 information processing Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 230000002452 interceptive effect Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 101150091111 ACAN gene Proteins 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
- Stored Programmes (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种人工智能任务处理方法、装置、电子设备及可读存储介质。其中,方法包括获取待处理人工智能任务对应的AI数据集和AI任务执行模型;AI数据集包括AI训练集和AI验证集。根据AI任务执行模型,基于AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息;根据AI任务执行模型,基于AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息。根据任务损失信息、任务精度期望信息和待处理人工智能任务的任务精度需求信息确定是否停止AI任务执行模型的训练,基于训练好的AI任务执行模型执行待处理人工智能任务。本申请可提升人工智能任务处理性能,降低人工智能任务处理过程中消耗的计算资源。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种人工智能任务处理方法、装置、电子设备及可读存储介质。
背景技术
随着人工智能技术的快速发展,机器视觉、自然语言处理作为人工智能的一个分支,也得到相应的发展。简单来说,机器视觉就是用机器代替人眼进行测量和判断,其通过机器视觉产品即图像摄取装置如CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)和CCD(Charge-coupled Device,电荷耦合元件)等,将被摄目标转换成图像信号,然后传送给专用图像处理系统,得到被摄目标的形态信息,根据像素分布、亮度、颜色等信息,转变成数字化信号;图像处理系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。可见,机器视觉在实现过程中很大一部分工作就是图像处理,对图像摄取装置所采集图像的识别准确程度和识别效率,会影响机器视觉性能。自然语言处理是实现人与计算机之间用自然语言进行有效通信的各种理论和方法,通过对文本信息或者是语音信号进行处理得到可使计算机理解的有效信号,对输入的这些文本信息或者是语音信息的识别准确程度和识别效率,很大程度会影响自然语言处理性能。
随着大数据+深度学习+超大算力范式的人工智能研究已经深入到社会生活的方方面面,通常采用深度学习训练神经网络模型来执行人工智能数据的处理任务。深度学习通过预先标注好的数据集如样本图像数据集或者是自然语言样本集,训练模型中相关神经元的参数信息,来更好地完成特定场景的预测任务,比如图像分类,目标检测,图像分割,语音识别等等。可以理解的是,模型的训练过程是参数不断优化的过程,训练过程直接影响模型性能。模型的训练依赖于初始参数及超参数的设置,不合适的参数会导致整个训练过程出现局部最优、梯度消失或者梯度爆炸、训练缓慢、损失值不收敛等等情况,最终导致人工智能任务处理性能较差。相关技术中,通常通过模型的训练时间和在验证集上泛化错误(Validation Error)之间的权衡来确定模型的早停策略。具体来说,在指定周期内如N个epoch,一个Epoch就是将所有训练样本训练一次的过程,如果模型在验证集上的误差高于上一次模型在训练集上的训练误差,则停止模型训练。具体实施的时候是设定合适的停止标准。现有技术中的停止标准包括:1、泛化损失超过一定阈值时停止训练,以避免过拟合;2、在1的基础上加入度量进展:也即如果泛化损失和度量进展的商高于指定阈值的时候,停止训练;3、当泛化误差也即验证集上的误差在连续多个周期增长,则停止训练。但是,由于相关技术是围绕训练集和验证集的误差也即损失值loss的变化趋势来设定早停策略,导致模型在新的数据集上的泛化性能较低。此外,验证误差曲线并非光滑单调的曲线,可能会在几次变差的训练之后又持续变好,所以只考虑验证误差来设定早停策略,其准确度会受到一定程度的限制,最终导致所得到的模型性能不佳,并不能很好地执行人工智能处理任务。
鉴于此,如何提升人工智能任务处理性能,降低人工智能任务处理过程中消耗的计算资源,是所属领域技术人员需要解决的技术问题。
发明内容
本申请提供了一种人工智能任务处理方法、装置、电子设备及可读存储介质,有效提升人工智能任务处理性能,降低人工智能任务处理过程中消耗的计算资源。
为解决上述技术问题,本发明实施例提供以下技术方案:
本发明实施例一方面提供了一种人工智能任务处理方法,包括:
获取待处理人工智能任务对应的AI数据集和AI任务执行模型;所述AI数据集包括AI训练集和AI验证集;所述AI训练集和所述AI验证集均包括对应一个滑窗的多个连续子集,每个子集对应所述滑窗的一个窗口;
根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息;
根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息;
根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,并基于训练好的AI任务执行模型执行所述待处理人工智能任务。
可选的,所述根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,包括:
根据所述任务损失信息和所述任务精度期望信息确定周期模型精度表示信息;
判断所述周期模型精度表示信息是否与所述任务精度需求信息相匹配;
若所述周期模型精度表示信息与所述任务精度需求信息相匹配,则输出停止训练所述AI任务执行模型的指令;
若所述周期模型精度表示信息与所述任务精度需求信息不匹配,则输出继续训练所述AI任务执行模型的指令。
可选的,所述根据所述任务损失信息和所述任务精度期望信息确定周期模型精度表示信息,包括:
调用周期结果表示计算关系式,计算所述周期模型精度表示信息;所述周期结果表示计算关系式为:
S=fε(S(i+1),S(i+2) ,……,S(i+ε))
其中,S(i+ε)=M(i+ε)∧N(i+ε),fε表示映射关系:{Si+1,Si+2 ,……,Si+ε}→{e1,e2,……,eε},ei∈{0,1};S为所述周期模型精度表示信息,i为第i个训练周期,ε为训练容忍度;M为所述任务损失信息,N为所述任务精度期望信息,S(i+ε)为第i+ε次训练所述AI任务执行模型的周期结果表示,M(i+ε)为第i+ε次训练所述AI任务执行模型的任务损失信息,N(i+ε)为第i+ε次训练所述AI任务执行模型的任务精度期望信息,∧表示逻辑与运算符。
可选的,所述判断所述周期模型精度表示信息是否与所述任务精度需求信息相匹配,包括:
所述任务精度需求信息为至少有一次训练所述AI任务执行模型的周期结果表示不为0;
判断所述周期模型精度表示信息的各元素是否均为0;
相应的,所述若所述周期模型精度表示信息与所述任务精度需求信息相匹配,则输出停止训练所述AI任务执行模型的指令的过程包括:
若所述周期模型精度表示信息的各元素均为0,则输出停止训练所述AI任务执行模型的指令;
相应的,所述若所述周期模型精度表示信息与所述任务精度需求信息不匹配,则输出继续训练所述AI任务执行模型的指令的过程包括:
若所述周期模型精度表示信息的各元素不均为0,则输出继续训练所述AI任务执行模型的指令。
可选的,所述根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息,包括:
基于所述AI训练集,对每个训练周期,根据每个滑窗的所述AI任务执行模型的损失值,计算当前训练周期的所有损失值的当前标准差;
根据损失变化程度因子和所述当前训练周期的前一个训练周期的所有损失值的前向标准差,确定损失变化阈值;
根据所述当前标准差、所述前向标准差和所述损失变化阈值确定所述当前训练周期的任务损失信息。
可选的,所述根据所述当前标准差、所述前向标准差和所述损失变化阈值确定所述当前训练周期的任务损失信息,包括:
调用周期任务损失信息计算关系式计算所述当前训练周期的任务损失信息,所述周期任务损失信息计算关系式为:
若σ(lossi1,lossi2,…,lossik)-σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)≤η,则Mi=1;否则,Mi=0;
式中,Mi为第i个训练周期的任务损失信息,lossik为第i个训练周期的第k个滑窗的损失值,loss(i-1)k为第i-1个训练周期的第k个滑窗的损失值,σ(lossi1,lossi2,…,lossik)为第i个训练周期的所有损失值的当前标准差,σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)为第i-1个训练周期的所有损失值的前向标准差,η为所述损失变化阈值。
可选的,所述根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息,包括:
基于所述AI验证集,对每个训练周期,根据每个滑窗的所述AI任务执行模型的正向性能指标,计算当前训练周期的所有正向性能指标的当前期望值;
根据性能变化程度因子和所述当前训练周期的前一个训练周期的所有正向性能指标的前向期望值,确定性能变化阈值;
根据所述当前期望值、所述前向期望值和所述性能变化阈值确定所述当前训练周期的任务精度期望信息。
可选的,所述根据所述当前期望值、所述前向期望值和所述性能变化阈值确定所述当前训练周期的任务精度期望信息,包括:
调用周期任务精度计算关系式计算所述当前训练周期的任务精度期望信息,所述周期任务精度计算关系式为:
若E(perfi1,perfi2,…,perfik)-E(perf (i-1)1,perf (i-1)2,…,perf (i-1)k)>μ,则Ni=1;否则,Ni=0;
式中,Ni为第i个训练周期的任务精度期望信息,perfik为第i个训练周期的第k个滑窗的期望值,perf (i-1)k为第i-1个训练周期的第k个滑窗的期望值,E(perfi1,perfi2,…,perfik)为第i个训练周期的所有正向性能指标的当前期望值,E(perf (i-1)1,perf (i-1)2,…,perf (i-1)k)为第i-1个训练周期的所有正向性能指标的前向期望值,μ为所述性能变化阈值。
可选的,所述获取待处理人工智能任务对应的AI数据集和AI任务执行模型,包括:
当接收到信息输入指令,展示信息处理交互界面;所述信息处理交互界面包括信息输入区域和结果展示区域;
响应用户通过所述信息输入区域下发的信息输入指令,从所述信息输入指令中获取待处理人工智能任务对应的AI数据集、AI任务执行模型、所述待处理人工智能任务的任务精度需求信息和滑窗参数值;
其中,所述结果展示区域用于展示训练好的AI任务执行模型和/或所述待处理人工智能任务的任务执行结果。
本发明实施例另一方面提供了一种人工智能任务处理装置,包括:
信息获取模块,用于获取待处理人工智能任务对应的AI数据集和AI任务执行模型;所述AI数据集包括AI训练集和AI验证集;所述AI训练集和所述AI验证集均包括对应一个滑窗的多个连续子集,每个子集对应所述滑窗的一个窗口;
损失计算模块,用于根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息;
期望计算模块,用于根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息;
模型训练结束确定模块,用于根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,并基于训练好的AI任务执行模型执行所述待处理人工智能任务。
本发明实施例还提供了一种电子设备,包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前任一项所述人工智能任务处理方法的步骤。
本发明实施例最后还提供了一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前任一项所述人工智能任务处理方法的步骤。
本申请提供的技术方案的优点在于,综合考虑AI任务执行模型在AI训练集的损失值变化趋势以及在AI验证集上的正向性能指标在多个训练周期的性能变化趋势,能够提前反映AI任务执行模型是否过拟合、模型的泛化能力以及数据集的分布情况,根据模型在训练过程中的性能趋势来控制AI任务执行模型的训练是继续还是结束,不仅可保证AI任务执行模型更好地学习数据特征,提高找到更优模型的概率,而且在新的数据集上有更高的泛化性能,可以有效地提升人工智能任务处理性能。在合适的时候停止训练任务,避免无效的训练过程,可释放出更多的硬件资源,从而有效降低人工智能任务处理中消耗的计算资源。
此外,本发明实施例还针对人工智能任务处理方法提供了相应的实现装置、电子设备及可读存储介质,进一步使得所述方法更具有实用性,所述装置、电子设备及可读存储介质具有相应的优点。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
为了更清楚的说明本发明实施例或相关技术的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种人工智能任务处理方法的流程示意图;
图2为本发明实施例提供的一个示意性例子中的人工智能任务处理方法的流程示意图;
图3为本发明实施例提供的信息处理系统的架构示意图;
图4为本发明实施例提供的人工智能任务处理装置的一种具体实施方式结构图;
图5为本发明实施例提供的电子设备的一种具体实施方式结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在介绍了本发明实施例的技术方案后,下面详细的说明本申请的各种非限制性实施方式。
首先参见图1,图1为本发明实施例提供的一种人工智能任务处理方法的流程示意图,本发明实施例可包括以下内容:
S101:获取待处理人工智能任务对应的AI数据集和AI任务执行模型。
在本实施例中,待处理人工智能任务可为任何一种人工智能领域中需要执行的任务,例如图像分类识别任务、目标检测任务,图像分割任务、语音识别任务等等。AI任务执行模型为基于深度学习模型构建的网络模型,例如人工神经网络模型、卷积神经网络模型、递归张量神经网络、生成对抗网络、长短期记忆网络等等。AI任务执行模型是用于执行待处理人工智能任务,举例来说,待处理人工智能任务为图像分割任务,AI任务执行模型则是用于对输入图像进行图像分割。AI数据集是指AI任务执行模型训练过程中所使用的样本数据集,AI数据集例如可为图像数据集,语音信号数据集、文本信息数据集。AI数据集包括AI训练集和AI验证集;AI训练集用于训练AI任务执行模型,AI验证集用于验证AI任务执行模型的性能。当然,本实施例的AI训练集还包括AI测试集。AI训练集和AI验证集均被划分为多个连续子集,AI训练集对应一个滑窗,AI验证集对应一个滑窗,每个子集均为滑窗的一个窗口。在AI训练集和AI验证集时,从第一个子集对应的第一窗口一直滑动至最后一个子集对应的最后一个窗口,完成一次滑窗的模型训练。举例来说,AI训练集包括1000张图像,可将前100张图像作为第一子集,第100张图像至第500张图像作为第二子集,第500张图像至第700张图像作为第三子集,第700张图像至第900张图像作为第四子集,第900张图像至第1000张图像作为第五子集,第一子集、第二子集、第三子集、第四子集和第五子集均为AI训练集的滑窗的一个窗口,训练过程中,滑窗会依次从第一子集滑到第五子集来读取当前子集中的样本图像。在本步骤中,在训练数据集即AI训练集和AI验证集上训练k次,也即k个epoch,也叫一个训练周期,每一次训练称为一个滑窗,也即一个训练周期中包括k个epoch或者是k个滑窗。其中k≥1,一个epoch表示模型在训练集上训练一次。一个训练周期指AI任务执行模型连续完成k次指定训练数据集上的训练。
S102:根据AI任务执行模型,基于AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息。
在本步骤中,损失值是指AI任务执行模型每次迭代的前向计算结果与真实值的差距,本实施例在使用AI训练集对AI任务执行模型进行多个训练周期的训练过程中,每个训练周期会在AI训练集训练多次,而每一次即为一个滑窗,可使用现有技术中的任何一种损失函数计算每个滑窗下基于AI训练集训练AI任务执行模型的损失值,根据每个滑窗下的损失值确定AI任务执行模型在一个训练周期或多个训练周期下的任务损失信息,任务损失信息用于反映当前训练周期或者是当前训练实际段内AI任务执行模型的误差。
S103:根据AI任务执行模型,基于AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息。
在本实施中,正向性能指标用于评价在一个训练周期或多个训练周期结束后所得的AI任务执行模型的性能,正向性能指标的数值越大,表示AI任务执行模型的性能越好。比如在分类和检测任务中,可以分别使用“精度(precision)”和“各类别平均精度的均值(map, mean average precision)”值来衡量AI任务执行模型的分类性能或目标检测性能。本实施例在使用AI验证集对AI任务执行模型在各训练周期结束之后,可对其进行性能验证,每个训练周期会在AI验证集验证多次,而每一次即为一个滑窗,可使用现有技术中的任何一种期望计算方法计算每个滑窗下基于AI验证集验证AI任务执行模型的正向性能指标的期望值,根据每个滑窗下的正向性能指标的期望值确定AI任务执行模型在一个训练周期或多个训练周期下的任务精度期望信息,任务精度期望信息用于反映当前训练周期或者是当前训练实际段内AI任务执行模型的性能的优劣。
S104:根据任务损失信息、任务精度期望信息和待处理人工智能任务的任务精度需求信息确定是否停止AI任务执行模型的训练,并基于训练好的AI任务执行模型执行待处理人工智能任务。
在本实施例中,任务精度需求信息是基于实际应用场景所需求的待处理人工智能任务执行的精准度,举例来说,对于执行图像识别和分割任务来说,对于病灶识别和病灶切割来说,需要识别病灶并切割病灶的精准度需大于99%,而对于车辆识别任务来说,需要识别车辆的精准度只需90%即可。根据任务损失信息、任务精度期望信息和待处理人工智能任务的任务精度需求信息判断当前训练周期所训练的AI任务执行模型是否满足要求,如果不满足,则需要对AI任务执行模型继续进行训练。如果满足,则停止对AI任务执行模型的训练,此时所得的AI任务执行模型即为训练好的模型,可使用该AI任务执行模型去执行待处理人工智能任务。
在本发明实施例提供的技术方案中,综合考虑AI任务执行模型在AI训练集的损失值变化趋势以及在AI验证集上的正向性能指标在多个训练周期的性能变化趋势,能够提前反映AI任务执行模型是否过拟合、模型的泛化能力以及数据集的分布情况,根据模型在训练过程中的性能趋势来控制AI任务执行模型的训练是继续还是结束,不仅保证AI任务执行模型更好的学习数据特征,提高找到更优模型的概率,而且在新的数据集上有更高的泛化性能,可以有效地提升人工智能任务处理性能。在合适的时候停止训练任务,避免无效的训练过程,可释放出更多的硬件资源,有效降低人工智能任务处理中消耗的计算资源。
在上述实施例中,对于如何执行步骤S104并不做限定,本实施例中给出AI任务执行模型是否早停的一种判断方式,可包括如下步骤:
根据任务损失信息和任务精度期望信息确定周期模型精度表示信息;判断周期模型精度表示信息是否与任务精度需求信息相匹配;若周期模型精度表示信息与任务精度需求信息相匹配,则输出停止训练AI任务执行模型的指令;若周期模型精度表示信息与任务精度需求信息不匹配,则输出继续训练AI任务执行模型的指令。
在本实施例中,周期模型精度表示信息用于表示当前训练周期结束之后,AI任务执行模型的性能或者是在任务执行精度。作为一种可选的实施方式,周期模型精度表示信息可通过调用周期结果表示计算关系式计算得到,周期结果表示计算关系式可表示为:
S=fε(S(i+1),S(i+2) ,……,S(i+ε)),
其中,S(i+ε)=M(i+ε)∧N(i+ε),fε表示映射关系:{Si+1,Si+2 ,……,Si+ε}→{e1,e2,……,eε},ei∈{0,1};S为周期模型精度表示信息,i为第i个训练周期,ε为训练容忍度;M为任务损失信息,N为任务精度期望信息,S(i+ε)为第i+ε次训练AI任务执行模型的周期结果表示,M(i+ε)为第i+ε次训练AI任务执行模型的任务损失信息,N(i+ε)为第i+ε次训练AI任务执行模型的任务精度期望信息,∧表示逻辑与运算符。其中,逻辑与运算符通常表示为P=A 1∧A 2∧…∧A n,表示当所有的A i (1≤i≤n)都为真时,逻辑表达式P才为真,否则为假。在本实施例中,“真”使用数字1来代替,“假”使用0来代替。训练容忍度ε表示AI任务执行模型的早停策略基于ε个训练周期的结果来做的决策。早停策略是指判断AI任务执行模型的训练是否结束的标准。基于周期结果表示计算关系式可知,周期模型精度表示信息为一个集合,集合中的各元素的取值为0或1,也就是说,周期模型精度表示信息为0和1组成的集合。如果元素为0,则表示任务损失信息和任务精度期望信息至少有一个为0,而任务损失信息为0,表示AI任务执行模型在AI训练集上的第i个训练周期的模型收敛性能不满足要求,任务精度期望信息为0,表示AI任务执行模型在AI验证集上的第i个训练周期的模型泛化能力不满足要求。
为了获取最优模型参数,得到性能较佳的AI任务执行模型,作为一种可选的实施方式,判断周期模型精度表示信息是否与任务精度需求信息相匹配的过程可包括:任务精度需求信息为至少有一次训练AI任务执行模型的周期结果表示不为0,判断周期模型精度表示信息的各元素是否均为0;若周期模型精度表示信息的各元素均为0,则输出停止训练AI任务执行模型的指令;若周期模型精度表示信息的各元素不均为0,则输出继续训练AI任务执行模型的指令。
上述实施例对于如何执行步骤S102和S103并不做限定,本实施例还给出任务损失信息的一种计算方式,也即根据AI任务执行模型基于AI训练集在每个滑窗训练过程中的损失值生成任务损失信息的过程可包括下述内容:
基于AI训练集,对每个训练周期,根据每个滑窗的AI任务执行模型的损失值,计算当前训练周期的所有损失值的当前标准差;根据损失变化程度因子和当前训练周期的前一个训练周期的所有损失值的前向标准差,确定损失变化阈值;根据当前标准差、前向标准差和损失变化阈值确定当前训练周期的任务损失信息。
其中,任务损失信息可通过调用周期任务损失信息计算关系式计算得到,周期任务损失信息计算关系式可表示为:
若σ(lossi1,lossi2,…,lossik)-σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)≤η,则Mi=1;否则,Mi=0;
式中,Mi为第i个训练周期的任务损失信息,lossik为第i个训练周期的第k个滑窗的损失值,loss(i-1)k为第i-1个训练周期的第k个滑窗的损失值,σ(lossi1,lossi2,…,lossik)为第i个训练周期的所有损失值的当前标准差,σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)为第i-1个训练周期的所有损失值的前向标准差,η为损失变化阈值。η表示的是损失值的标准差的变化阈值,可通过计算关系式η=a*σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)计算得到,该计算关系式可缩写记为η=a*σ(loss(i-1)[1,k]);a为损失变化程度因子,其取值范围可为(0,+∞),a的大小可以刻画早停策略可以接受的损失值loss的变化程度的高低。a值越大,可接受的loss的变化程度越高,a值越小,可接受的loss的变化程度越低。
本实施例还给出任务精度期望信息的一种计算方式,也即根据AI任务执行模型基于AI验证集在每个滑窗训练过程中的正向性能指标的期望值生成任务精度期望信息的过程可包括下述内容:
基于AI验证集,对每个训练周期,根据每个滑窗的AI任务执行模型的正向性能指标,计算当前训练周期的所有正向性能指标的当前期望值;根据性能变化程度因子和当前训练周期的前一个训练周期的所有正向性能指标的前向期望值,确定性能变化阈值;根据当前期望值、前向期望值和性能变化阈值确定当前训练周期的任务精度期望信息。
其中,任务精度期望信息可通过调用周期任务精度计算关系式计算得到,周期任务精度计算关系式可表示为:
若E(perfi1,perfi2,…,perfik)-E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)>μ,则Ni=1;否则,Ni=0;
式中,Ni为第i个训练周期的任务精度期望信息,perfik为第i个训练周期的第k个滑窗的期望值,perf(i-1)k为第i-1个训练周期的第k个滑窗的期望值,E(perfi1,perfi2,…,perfik)为第i个训练周期的所有正向性能指标的当前期望值,E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)为第i-1个训练周期的所有正向性能指标的前向期望值,μ为性能变化阈值。μ表示性能的变化阈值,该值可通过关系式μ=b*E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)计算得到,其可缩写为μ=b*E(perf(i-1)[1,k])。b为性能变化程度因子,其取值范围可为(0,+∞),b的大小可以刻画本实施例的早停策略可以接受的性能的提升程度的高低。b的值越大,可接受的性能提升程度越高,b的值越小,可接受的性能提升程度越低。
在上述实施例中,对于AI训练集和AI验证集,AI任务执行模型在第i个训练周期的输出记为Si,训练周期包含在训练集上执行k次训练过程。具体定义为如下逻辑表达式:
Si=Mi∧Ni,i≥2;
若σ(lossi1,lossi2,…,lossik)-σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)≤η,则Mi=1;否则,Mi=0;
若E(perfi1,perfi2,…,perfik)-E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)>μ,则Ni=1;否则,Ni=0;
其中,σ(lossi1,lossi2,…,lossik)为第i个训练周期的所有损失值loss的当前标准差,其中包含k个训练轮数,即epoch数量,这里可以缩写为σ(lossi[1,k]),表示第i个训练周期的1到k个epoch。E(perfi1,perfi2,…,perfik)表示在第i个训练周期内AI任务执行模型在AI验证集上正向性能指标perf的当前期望值,这里可以缩写为E(perfi[1,k])。其中包含k个训练轮数,即epoch数量。perf具体可以是精度acc(accuracy,准确率)、map(meanaverage precision,均值平均精度)值,或者其他正向性能指标。根据计算关系式(1)、(2)和(3)可知:的取值为0或者1。根据Si的定义可得到周期模型精度表示信息S的形式化定义:
S=fε(S(i+1),S(i+2),……,S(i+ε))
其中,ε>1为待处理人工智能任务的训练容忍度,为一个大于等于1的整数,表示连续训练ε个周期。fε定义为一个映射关系:{Si+1,Si+2,……,Si+ε}→{e1,e2,……,eε},ei∈{0,1}。S的输出是一个由连续ε个训练周期的输出组成的集合(Si+1,Si+2,……,Si+ε),根据计算关系式(1)得知集合中的每个元素取值为0或者1。基于上述内容可得出本发明实施例的早停策略的评估标准:给定容忍度参数ε,如果周期模型精度表示信息S的输出集合中元素均为0,那么就需要停止该训练任务。根据公式Si=Mi∧Ni可知Si的结果对应以下四种情况,下面给出具体的解释:
(a):(Si=0|Mi=0,Ni=0):Mi和Ni同时为0,表示AI任务执行模型在AI训练集上第i个训练周期的损失值和第(i-1)个训练周期的损失波动差值已经超过了阈值η,说明AI任务执行模型在AI训练集的训练损失值已经出现了震荡,收敛的概率很低。同时AI任务执行模型在AI验证集上的精度出现了下降,这也说明AI任务执行模型在损失值震荡的情况下,在AI验证集上已经无法取得很好的泛化能力,因此需要考虑停止训练任务。
(b):(Si=0|Mi=0,Ni=1):Mi=0同理(a)中的分析,Ni=1的时候表示AI任务执行模型在AI验证集上的精度上升幅度超过阈值μ,一般这种情况出现的概率比较低。出现的原因之一很可能是AI训练集和AI验证集上的数据分布不一致,或者是训练的数据规模太小,AI任务执行模型无法学到合适的特征。精度的上升具有偶然性,往往在后续训练中精度急速下降。因此需要考虑停止训练任务,进一步分析数据的情况。
(c):(Si=0|Mi=1,Ni=0):Mi=1表明loss震荡的频率降低,AI任务执行模型训练趋势良好。Ni=0表示AI任务执行模型在对应AI验证集上的精度下降幅度超过阈值μ。这种情况往往是AI任务执行模型在训练过程出现过拟合,AI任务执行模型在AI验证集上无法取得和训练集上一样的好的表现,泛化性能降低。因此也需要考虑停止任务。
(d):(Si=1|Mi=1,Ni=1):Mi 、Ni同时为1的时候,表示AI任务执行模型训练过程的趋势良好,同时在AI验证集上的泛化性能表现良好,这个时候不需要停止任务。
由上可知,结合上述四种情况和训练容忍度参数ε,本实施例可以帮助用户根据自己的实际需要对训练任务做出是否早停的判断。
为了使得本实施例所提供的技术方案实用性更强,提高用户使用体验,基于上述实施例,还可包括下述内容:
当接收到信息输入指令,展示信息处理交互界面;
响应用户通过信息输入区域下发的信息输入指令,从信息输入指令中获取待处理人工智能任务对应的AI数据集、AI任务执行模型、待处理人工智能任务的任务精度需求信息和滑窗参数值;
其中,信息处理交互界面包括信息输入区域和结果展示区域;结果展示区域用于展示训练好的AI任务执行模型和/或待处理人工智能任务的任务执行结果。
在本实施例中,信息输入指令为用户下发的指令,用户想要执行待处理人工智能任务时,向系统下发信息输入指令,将执行待处理人工智能任务所需的AI任务执行模型和对应的AI数据集进行输入,初始化AI任务执行模型的相关参数和任务精度需求信息的相关参数,其中包括AI任务执行模型的模型参数和超参数两种类型。模型参数包括各个神经元的权重和偏置矩阵、各级卷积层的初始卷积核、全连接层的权重矩阵和偏置向量。超参数包括学习率、动量值、优化器、训练次数(epoch数)、批训练数据大小(batch-size)等等相关参数。任务精度需求信息的相关参数可包括系统容忍度ε、滑窗大小(k)参数的定义。初始化参数之后,调用上述任何任意一个实施例所述人工智能任务处理方法的步骤实现对待处理人工智能任务的执行,最后将训练好的AI任务执行模型和任务执行结果输出。
为了使所属领域技术人员更加清楚明白本申请的技术方案,本申请还结合图2和图3提供了一个示意性例子,本实施例提供了基于滑窗的早停策略,并将这个早停策略定义为一个信息处理系统S,该系统可以应用在任何领域的深度学习模型训练过程。对于一个给定场景的训练任务,系统S首先会获取要训练的模型M也即AI任务执行模型、AI数据集(包括AI训练集、AI验证集);其次在指定滑窗下,评估模型在ε个训练周期的输出。最后综合考虑AI训练集的误差值和AI验证集的正向性能指标,来决定本次训练任务是否该停止,AI任务执行模型可为基于Resnet50的网络模型,待处理人工智能任务为图像识别任务,正向性能指标相应的可为性能精度acc,可包括下述内容:
假设AI任务执行模型为M(Resnet50),AI训练集为train_set,AI验证集为valid_set。初始化AI任务执行模型的相关参数,其中包括AI任务执行模型的模型参数和超参数两种类型。模型参数包括各个神经元的权重和偏置矩阵、各级卷积层的初始卷积核、全连接层的权重矩阵和偏置向量。超参数包括学习率、动量值、优化器、训练次数(epoch数)、批训练数据大小(batch-size)等等相关参数。初始化信息系统S的相关参数,包括系统容忍度ε、滑窗大小(k)参数的定义。例如,滑窗大小记为k=10,训练总的epoch数记为N=100,训练集loss变化阈值中的系数a=0.1,验证集的性能变化阈值中的系数b=0.2,训练容忍度参数ε=2。基于容忍度参数ε,重复下述流程ε次,获得信息处理系统S的输出结果:也即长度为ε的输出集合。根据信息处理系统S定义的早停策略评价标准,评估训练任务是否早停;重复下述过程,直至训练过程结束,获得性能好、泛化能力高的模型。
A1:计算第一个滑窗(也即epoch从1到10)训练过程的loss的标准差及在AI验证集上精度的期望值:
A2:计算第二个滑窗(epoch从11到20)训练过程的loss的标准差及在AI验证集上精度的期望值:
A3:根据下述计算关系式计算AI训练集上loss的变化阈值:η=a*σ(loss1[1,10])=0.1*σ(loss1[1,10])。
A4:根据下述计算关系式计算AI验证集上精度的变化阈值:μ=b* E(acc1[1,10])=0.2* E(acc1[1,10])。
A5:计算差值(σ(loss1[2,10])-σ(loss1[1,10]))与η的大小,得到M2的值,M2∈{0,1}。
A6:计算差值(E(acc2[1,10])- E(acc1[1,10]))与μ的大小,得到N2的值,N2∈{0,1}。
A7:根据M2和N2的值得到S2的值,S2=M2∧N2。
A8:按照A2-A8的步骤,可以同理求出第三个滑窗与第二个滑窗对应S3的值。
A9:由S2和S3,可以得到信息处理系统S的输出集合:{S2,S3}。如果集合中元素均为0,则可以停止这个训练任务。否则继续训练,并且同样的步骤判断{S3,S4}……的结果,来决定是否需要早停。重复以上计算过程,基于训练容忍度参数ε,可以得到信息处理系统S的ε个输入(S1,S2,S3,……,Sε)及对应的长度为ε的输出集合{e1,e2,e3,……,eε}。基于信息处理系统S提出的早停策略,给出这个训练任务是否早停的判断。如果输出集合{e1,e2,e3,……,eε}中元素均为0,则执行早停操作;否则,继续训练,并且在下一个训练周期进行再次判断,直至AI任务执行模型训练过程结束。
本技术方案提供的信息处理系统S,用来控制AI任务执行模型的训练过程。其基于滑窗的模型训练过程早停技术,不仅可以应用在传统学习模型训练过程中,而且可以应用于自动超参调优的训练过程,可以提前终止性能趋势下降的某组超参数训练过程,释放硬件资源,为更优的超参数组合搜索提供更多机会。对于一些特定问题的分析,比如分类,图像识别,目标检测,自然语言处理等,在进行模型训练时也可以采取上述实施例的思路,在训练过程中使用早停策略,使得最终训练的模型性能更优,泛化性更好。当然,用户可以根据自己的需求,对本实施例的早停策略相关参数因子进行限制。如果数据量足够大,也可以将这些参数因子作为超参数进行训练,从而获得合适的早停策略标准。
需要说明的是,本申请中各步骤之间没有严格的先后执行顺序,只要符合逻辑上的顺序,则这些步骤可以同时执行,也可按照某种预设顺序执行,图1-图2只是一种示意方式,并不代表只能是这样的执行顺序。
本发明实施例还针对人工智能任务处理方法提供了相应的装置,进一步使得方法更具有实用性。其中,装置可从功能模块的角度和硬件的角度分别说明。下面对本发明实施例提供的人工智能任务处理装置进行介绍,下文描述的人工智能任务处理装置与上文描述的人工智能任务处理方法可相互对应参照。
基于功能模块的角度,参见图4,图4为本发明实施例提供的人工智能任务处理装置在一种具体实施方式下的结构图,该装置可包括:
信息获取模块401,用于获取待处理人工智能任务对应的AI数据集和AI任务执行模型;AI数据集包括AI训练集和AI验证集;AI训练集和AI验证集均包括对应一个滑窗的多个连续子集,每个子集对应滑窗的一个窗口。
损失计算模块402,用于根据AI任务执行模型,基于AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息。
期望计算模块403,用于根据AI任务执行模型,基于AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息。
模型训练结束确定模块404,用于根据任务损失信息、任务精度期望信息和待处理人工智能任务的任务精度需求信息确定是否停止AI任务执行模型的训练,并基于训练好的AI任务执行模型执行待处理人工智能任务。
可选的,在本实施例的一些实施方式中,上述模型训练结束确定模块404可进一步用于:根据任务损失信息和任务精度期望信息确定周期模型精度表示信息;判断周期模型精度表示信息是否与任务精度需求信息相匹配;若周期模型精度表示信息与任务精度需求信息相匹配,则输出停止训练AI任务执行模型的指令;若周期模型精度表示信息与任务精度需求信息不匹配,则输出继续训练AI任务执行模型的指令。
作为上述实施例的一种可选的实施方式,上述模型训练结束确定模块404还可进一步用于:调用周期结果表示计算关系式,计算周期模型精度表示信息;周期结果表示计算关系式为:
S=fε(S(i+1),S(i+2),……,S(i+ε)),
其中,S(i+ε)=M(i+ε)∧N(i+ε),fε表示映射关系:{Si+1,Si+2,……,Si+ε}→{e1,e2,……,eε},ei∈{0,1};S为所述周期模型精度表示信息,i为第i个训练周期,ε为训练容忍度;M为所述任务损失信息,N为所述任务精度期望信息,S(i+ε)为第i+ε次训练所述AI任务执行模型的周期结果表示,M(i+ε)为第i+ε次训练所述AI任务执行模型的任务损失信息,N(i+ε)为第i+ε次训练所述AI任务执行模型的任务精度期望信息,∧表示逻辑与运算符。
作为上述实施例的另一种可选的实施方式,上述模型训练结束确定模块404还可进一步用于:任务精度需求信息为至少有一次训练AI任务执行模型的周期结果表示不为0;判断周期模型精度表示信息的各元素是否均为0;若周期模型精度表示信息的各元素均为0,则输出停止训练AI任务执行模型的指令;若周期模型精度表示信息的各元素不均为0,则输出继续训练AI任务执行模型的指令。
可选的,在本实施例的另一些实施方式中,上述损失计算模块402可进一步用于:基于AI训练集,对每个训练周期,根据每个滑窗的AI任务执行模型的损失值,计算当前训练周期的所有损失值的当前标准差;根据损失变化程度因子和当前训练周期的前一个训练周期的所有损失值的前向标准差,确定损失变化阈值;根据当前标准差、前向标准差和损失变化阈值确定当前训练周期的任务损失信息。
作为上述本实施例的一种可选的实施方式中,上述损失计算模块402还可进一步用于:调用周期任务损失信息计算关系式计算当前训练周期的任务损失信息,周期任务损失信息计算关系式为:
若σ(lossi1,lossi2,…,lossik)-σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)≤η,则Mi=1;否则,Mi=0;
式中,Mi为第i个训练周期的任务损失信息,lossik为第i个训练周期的第k个滑窗的损失值,loss(i-1)k为第i-1个训练周期的第k个滑窗的损失值,σ(lossi1,lossi2,…,lossik)为第i个训练周期的所有损失值的当前标准差,σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)为第i-1个训练周期的所有损失值的前向标准差,η为所述损失变化阈值。
可选的,在本实施例的其他一些实施方式中,上述期望计算模块403可进一步用于:基于AI验证集,对每个训练周期,根据每个滑窗的AI任务执行模型的正向性能指标,计算当前训练周期的所有正向性能指标的当前期望值;根据性能变化程度因子和当前训练周期的前一个训练周期的所有正向性能指标的前向期望值,确定性能变化阈值;根据当前期望值、前向期望值和性能变化阈值确定当前训练周期的任务精度期望信息。
作为上述实施例的一种可选的实施方式,上述期望计算模块403还可进一步用于:调用周期任务精度计算关系式计算当前训练周期的任务精度期望信息,周期任务精度计算关系式为:
若E(perfi1,perfi2,…,perfik)-E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)>μ,则Ni=1;否则,Ni=0;
式中,Ni为第i个训练周期的任务精度期望信息,perfik为第i个训练周期的第k个滑窗的期望值,perf(i-1)k为第i-1个训练周期的第k个滑窗的期望值,E(perfi1,perfi2,…,perfik)为第i个训练周期的所有正向性能指标的当前期望值,E(perf(i-1)1,perf(i-1)2,…,perf(i-1)k)为第i-1个训练周期的所有正向性能指标的前向期望值,μ为所述性能变化阈值。
可选的,在本实施例的其他一些实施方式中,上述信息获取模块401还可进一步用于:当接收到信息输入指令,展示信息处理交互界面;信息处理交互界面包括信息输入区域和结果展示区域;响应用户通过信息输入区域下发的信息输入指令,从信息输入指令中获取待处理人工智能任务对应的AI数据集、AI任务执行模型、待处理人工智能任务的任务精度需求信息和滑窗参数值;其中,结果展示区域用于展示训练好的AI任务执行模型和/或待处理人工智能任务的任务执行结果。
本发明实施例所述人工智能任务处理装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例可有效提升人工智能任务处理性能,降低人工智能任务处理过程中消耗的计算资源。
上文中提到的人工智能任务处理装置是从功能模块的角度描述,进一步的,本申请还提供一种电子设备,是从硬件角度描述。图5为本申请实施例提供的电子设备在一种实施方式下的结构示意图。如图5所示,该电子设备包括存储器50,用于存储计算机程序;处理器51,用于执行计算机程序时实现如上述任一实施例提到的人工智能任务处理方法的步骤。
其中,处理器51可以包括一个或多个处理核心,比如4核心处理器、8核心处理器,处理器51还可为控制器、微控制器、微处理器或其他数据处理芯片等。处理器51可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable GateArray,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器51也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器51可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器51还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器50可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器50还可包括高速随机存取存储器以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。存储器50在一些实施例中可以是电子设备的内部存储单元,例如服务器的硬盘。存储器50在另一些实施例中也可以是电子设备的外部存储设备,例如服务器上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器50还可以既包括电子设备的内部存储单元也包括外部存储设备。存储器50不仅可以用于存储安装于电子设备的应用软件及各类数据,例如:执行漏洞处理方法的程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。本实施例中,存储器50至少用于存储以下计算机程序501,其中,该计算机程序被处理器51加载并执行之后,能够实现前述任一实施例公开的人工智能任务处理方法的相关步骤。另外,存储器50所存储的资源还可以包括操作系统502和数据503等,存储方式可以是短暂存储或者永久存储。其中,操作系统502可以包括Windows、Unix、Linux等。数据503可以包括但不限于人工智能任务处理结果对应的数据等。
在一些实施例中,上述电子设备还可包括有显示屏52、输入输出接口53、通信接口54或者称为网络接口、电源55以及通信总线56。其中,显示屏52、输入输出接口53比如键盘(Keyboard)属于用户接口,可选的用户接口还可以包括标准的有线接口、无线接口等。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。通信接口54可选的可以包括有线接口和/或无线接口,如WI-FI接口、蓝牙接口等,通常用于在电子设备与其他电子设备之间建立通信连接。通信总线56可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extendedindustry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
本领域技术人员可以理解,图5中示出的结构并不构成对该电子设备的限定,可以包括比图示更多或更少的组件,例如还可包括实现各类功能的传感器57。
本发明实施例所述电子设备的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例可有效提升人工智能任务处理性能,降低人工智能任务处理过程中消耗的计算资源。
可以理解的是,如果上述实施例中的人工智能任务处理方法以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电可擦除可编程ROM、寄存器、硬盘、多媒体卡、卡型存储器(例如SD或DX存储器等)、磁性存储器、可移动磁盘、CD-ROM、磁碟或者光盘等各种可以存储程序代码的介质。
基于此,本发明实施例还提供了一种可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时如上任意一实施例所述人工智能任务处理方法的步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的硬件包括装置及电子设备而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
以上对本申请所提供的一种人工智能任务处理方法、装置、电子设备及可读存储介质进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
Claims (12)
1.一种人工智能任务处理方法,其特征在于,包括:
获取待处理人工智能任务对应的AI数据集和AI任务执行模型;所述AI数据集包括AI训练集和AI验证集;所述AI训练集和所述AI验证集均包括对应一个滑窗的多个连续子集,每个子集对应所述滑窗的一个窗口;
根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息;
根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息;
根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,并基于训练好的AI任务执行模型执行所述待处理人工智能任务。
2.根据权利要求1所述的人工智能任务处理方法,其特征在于,所述根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,包括:
根据所述任务损失信息和所述任务精度期望信息确定周期模型精度表示信息;
判断所述周期模型精度表示信息是否与所述任务精度需求信息相匹配;
若所述周期模型精度表示信息与所述任务精度需求信息相匹配,则输出停止训练所述AI任务执行模型的指令;
若所述周期模型精度表示信息与所述任务精度需求信息不匹配,则输出继续训练所述AI任务执行模型的指令。
3.根据权利要求2所述的人工智能任务处理方法,其特征在于,所述根据所述任务损失信息和所述任务精度期望信息确定周期模型精度表示信息,包括:
调用周期结果表示计算关系式,计算所述周期模型精度表示信息;所述周期结果表示计算关系式为:
S=fε(S(i+1),S(i+2) ,……,S(i+ε))
其中,S(i+ε)=M(i+ε)∧N(i+ε),fε表示映射关系: {Si+1,Si+2 ,……,Si+ε}→{e1,e2,……,eε},ei∈{0,1};S为所述周期模型精度表示信息,i为第i个训练周期,ε为训练容忍度;M为所述任务损失信息,N为所述任务精度期望信息,S(i+ε)为第i+ε次训练所述AI任务执行模型的周期结果表示,M(i+ε)为第i+ε次训练所述AI任务执行模型的任务损失信息,N(i+ε)为第i+ε次训练所述AI任务执行模型的任务精度期望信息,∧表示逻辑与运算符。
4.根据权利要求3所述的人工智能任务处理方法,其特征在于,所述判断所述周期模型精度表示信息是否与所述任务精度需求信息相匹配,包括:
所述任务精度需求信息为至少有一次训练所述AI任务执行模型的周期结果表示不为0;
判断所述周期模型精度表示信息的各元素是否均为0;
相应的,所述若所述周期模型精度表示信息与所述任务精度需求信息相匹配,则输出停止训练所述AI任务执行模型的指令的过程包括:
若所述周期模型精度表示信息的各元素均为0,则输出停止训练所述AI任务执行模型的指令;
相应的,所述若所述周期模型精度表示信息与所述任务精度需求信息不匹配,则输出继续训练所述AI任务执行模型的指令的过程包括:
若所述周期模型精度表示信息的各元素不均为0,则输出继续训练所述AI任务执行模型的指令。
5.根据权利要求1所述的人工智能任务处理方法,其特征在于,所述根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息,包括:
基于所述AI训练集,对每个训练周期,根据每个滑窗的所述AI任务执行模型的损失值,计算当前训练周期的所有损失值的当前标准差;
根据损失变化程度因子和所述当前训练周期的前一个训练周期的所有损失值的前向标准差,确定损失变化阈值;
根据所述当前标准差、所述前向标准差和所述损失变化阈值确定所述当前训练周期的任务损失信息。
6.根据权利要求5所述的人工智能任务处理方法,其特征在于,所述根据所述当前标准差、所述前向标准差和所述损失变化阈值确定所述当前训练周期的任务损失信息,包括:
调用周期任务损失信息计算关系式计算所述当前训练周期的任务损失信息,所述周期任务损失信息计算关系式为:
若σ(lossi1,lossi2,…,lossik)-σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)≤η,则Mi=1;否则,Mi=0;
式中,Mi为第i个训练周期的任务损失信息,lossik为第i个训练周期的第k个滑窗的损失值,loss(i-1)k为第i-1个训练周期的第k个滑窗的损失值,σ(lossi1,lossi2,…,lossik)为第i个训练周期的所有损失值的当前标准差,σ(loss(i-1)1,loss(i-1)2,…,loss(i-1)k)为第i-1个训练周期的所有损失值的前向标准差,η为所述损失变化阈值。
7.根据权利要求1所述的人工智能任务处理方法,其特征在于,所述根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息,包括:
基于所述AI验证集,对每个训练周期,根据每个滑窗的所述AI任务执行模型的正向性能指标,计算当前训练周期的所有正向性能指标的当前期望值;
根据性能变化程度因子和所述当前训练周期的前一个训练周期的所有正向性能指标的前向期望值,确定性能变化阈值;
根据所述当前期望值、所述前向期望值和所述性能变化阈值确定所述当前训练周期的任务精度期望信息。
8.根据权利要求7所述的人工智能任务处理方法,其特征在于,所述根据所述当前期望值、所述前向期望值和所述性能变化阈值确定所述当前训练周期的任务精度期望信息,包括:
调用周期任务精度计算关系式计算所述当前训练周期的任务精度期望信息,所述周期任务精度计算关系式为:
若E(perfi1,perfi2,…,perfik)-E(perf (i-1)1,perf (i-1)2,…,perf (i-1)k)>μ,则Ni=1;否则,Ni=0;
式中,Ni为第i个训练周期的任务精度期望信息,perfik为第i个训练周期的第k个滑窗的期望值,perf (i-1)k为第i-1个训练周期的第k个滑窗的期望值,E(perfi1,perfi2,…,perfik)为第i个训练周期的所有正向性能指标的当前期望值,E(perf (i-1)1,perf (i-1)2,…,perf (i-1)k)为第i-1个训练周期的所有正向性能指标的前向期望值,μ为所述性能变化阈值。
9.根据权利要求1至8任意一项所述的人工智能任务处理方法,其特征在于,所述获取待处理人工智能任务对应的AI数据集和AI任务执行模型,包括:
当接收到信息输入指令,展示信息处理交互界面;所述信息处理交互界面包括信息输入区域和结果展示区域;
响应用户通过所述信息输入区域下发的信息输入指令,从所述信息输入指令中获取待处理人工智能任务对应的AI数据集、AI任务执行模型、所述待处理人工智能任务的任务精度需求信息和滑窗参数值;
其中,所述结果展示区域用于展示训练好的AI任务执行模型和/或所述待处理人工智能任务的任务执行结果。
10.一种人工智能任务处理装置,其特征在于,包括:
信息获取模块,用于获取待处理人工智能任务对应的AI数据集和AI任务执行模型;所述AI数据集包括AI训练集和AI验证集;所述AI训练集和所述AI验证集均包括对应一个滑窗的多个连续子集,每个子集对应所述滑窗的一个窗口;
损失计算模块,用于根据所述AI任务执行模型,基于所述AI训练集在每个滑窗训练过程中的损失值,生成任务损失信息;
期望计算模块,用于根据所述AI任务执行模型,基于所述AI验证集在每个滑窗训练过程中的正向性能指标的期望值,生成任务精度期望信息;
模型训练结束确定模块,用于根据所述任务损失信息、所述任务精度期望信息和所述待处理人工智能任务的任务精度需求信息确定是否停止所述AI任务执行模型的训练,并基于训练好的AI任务执行模型执行所述待处理人工智能任务。
11.一种电子设备,其特征在于,包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至9任一项所述人工智能任务处理方法的步骤。
12.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述人工智能任务处理方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111616394.XA CN113986561B (zh) | 2021-12-28 | 2021-12-28 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
PCT/CN2022/100481 WO2023123926A1 (zh) | 2021-12-28 | 2022-06-22 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111616394.XA CN113986561B (zh) | 2021-12-28 | 2021-12-28 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113986561A true CN113986561A (zh) | 2022-01-28 |
CN113986561B CN113986561B (zh) | 2022-04-22 |
Family
ID=79734627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111616394.XA Active CN113986561B (zh) | 2021-12-28 | 2021-12-28 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113986561B (zh) |
WO (1) | WO2023123926A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114741269A (zh) * | 2022-04-14 | 2022-07-12 | 网思科技股份有限公司 | 一种推理系统业务性能评估的方法 |
WO2023123926A1 (zh) * | 2021-12-28 | 2023-07-06 | 苏州浪潮智能科技有限公司 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117811938A (zh) * | 2024-01-02 | 2024-04-02 | 湖北三峡云计算中心有限责任公司 | 基于人工智能的网络生成方法、系统和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232334A (zh) * | 2019-05-26 | 2019-09-13 | 天津大学 | 一种基于卷积神经网络的钢结构锈蚀识别方法 |
CN111260594A (zh) * | 2019-12-22 | 2020-06-09 | 天津大学 | 一种无监督的多模态图像融合方法 |
CN111277606A (zh) * | 2020-02-10 | 2020-06-12 | 北京邮电大学 | 检测模型训练方法、检测方法及装置、存储介质 |
CN111461345A (zh) * | 2020-03-31 | 2020-07-28 | 北京百度网讯科技有限公司 | 深度学习模型训练方法及装置 |
CN111860833A (zh) * | 2020-07-09 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种模型的训练方法、设备以及介质 |
CN113222942A (zh) * | 2021-05-17 | 2021-08-06 | 北京百度网讯科技有限公司 | 多标签分类模型的训练方法和预测标签的方法 |
WO2021195689A1 (en) * | 2020-04-03 | 2021-10-07 | Presagen Pty Ltd | Method for artificial intelligence (ai) model selection |
CN113762514A (zh) * | 2020-06-05 | 2021-12-07 | 京东数字科技控股有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109002790A (zh) * | 2018-07-11 | 2018-12-14 | 广州视源电子科技股份有限公司 | 一种人脸识别的方法、装置、设备和存储介质 |
CN109977871B (zh) * | 2019-03-27 | 2021-01-29 | 中国人民解放军战略支援部队航天工程大学 | 一种基于宽带雷达数据和gru神经网络的卫星目标识别方法 |
CN110991346A (zh) * | 2019-12-04 | 2020-04-10 | 厦门市美亚柏科信息股份有限公司 | 一种疑似吸毒人员识别的方法、装置及存储介质 |
EP3893163A1 (en) * | 2020-04-09 | 2021-10-13 | Naver Corporation | End-to-end graph convolution network |
CN111753895A (zh) * | 2020-06-12 | 2020-10-09 | 北京小米松果电子有限公司 | 数据处理方法、装置及存储介质 |
CN112115876A (zh) * | 2020-09-21 | 2020-12-22 | 四川弘和通讯有限公司 | 一种基于3d卷积神经网络的水溶法实验过程识别方法 |
CN112132092A (zh) * | 2020-09-30 | 2020-12-25 | 四川弘和通讯有限公司 | 一种基于卷积神经网络的灭火器和灭火毯的识别方法 |
CN112163528A (zh) * | 2020-09-30 | 2021-01-01 | 四川弘和通讯有限公司 | 一种基于卷积神经网络的油管拖地的识别方法 |
CN112766549A (zh) * | 2021-01-07 | 2021-05-07 | 清华大学 | 一种空气污染物浓度预报方法、装置及存储介质 |
CN113822428A (zh) * | 2021-08-06 | 2021-12-21 | 中国工商银行股份有限公司 | 神经网络训练方法及装置、图像分割方法 |
CN113762625B (zh) * | 2021-09-09 | 2024-09-06 | 国网山东省电力公司经济技术研究院 | 一种基于图卷积网络的配电网状态评估方法和系统 |
CN113792783A (zh) * | 2021-09-13 | 2021-12-14 | 陕西师范大学 | 一种基于深度学习的和面阶段自动识别方法及系统 |
CN113986561B (zh) * | 2021-12-28 | 2022-04-22 | 苏州浪潮智能科技有限公司 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-12-28 CN CN202111616394.XA patent/CN113986561B/zh active Active
-
2022
- 2022-06-22 WO PCT/CN2022/100481 patent/WO2023123926A1/zh unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232334A (zh) * | 2019-05-26 | 2019-09-13 | 天津大学 | 一种基于卷积神经网络的钢结构锈蚀识别方法 |
CN111260594A (zh) * | 2019-12-22 | 2020-06-09 | 天津大学 | 一种无监督的多模态图像融合方法 |
CN111277606A (zh) * | 2020-02-10 | 2020-06-12 | 北京邮电大学 | 检测模型训练方法、检测方法及装置、存储介质 |
CN111461345A (zh) * | 2020-03-31 | 2020-07-28 | 北京百度网讯科技有限公司 | 深度学习模型训练方法及装置 |
WO2021195689A1 (en) * | 2020-04-03 | 2021-10-07 | Presagen Pty Ltd | Method for artificial intelligence (ai) model selection |
CN113762514A (zh) * | 2020-06-05 | 2021-12-07 | 京东数字科技控股有限公司 | 数据处理方法、装置、设备及计算机可读存储介质 |
CN111860833A (zh) * | 2020-07-09 | 2020-10-30 | 苏州浪潮智能科技有限公司 | 一种模型的训练方法、设备以及介质 |
CN113222942A (zh) * | 2021-05-17 | 2021-08-06 | 北京百度网讯科技有限公司 | 多标签分类模型的训练方法和预测标签的方法 |
Non-Patent Citations (1)
Title |
---|
刘勇: "基于分类思想的深度学习人脸美丽回归预测层设计", 《现代计算机》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023123926A1 (zh) * | 2021-12-28 | 2023-07-06 | 苏州浪潮智能科技有限公司 | 人工智能任务处理方法、装置、电子设备及可读存储介质 |
CN114741269A (zh) * | 2022-04-14 | 2022-07-12 | 网思科技股份有限公司 | 一种推理系统业务性能评估的方法 |
CN114741269B (zh) * | 2022-04-14 | 2022-09-23 | 网思科技股份有限公司 | 一种推理系统业务性能评估的方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2023123926A1 (zh) | 2023-07-06 |
CN113986561B (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113986561B (zh) | 人工智能任务处理方法、装置、电子设备及可读存储介质 | |
KR102641116B1 (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
CN110888857B (zh) | 基于神经网络的数据标签生成方法、装置、终端及介质 | |
CN111310814A (zh) | 利用不平衡正负样本对业务预测模型训练的方法及装置 | |
CN110298249A (zh) | 人脸识别方法、装置、终端及存储介质 | |
JP2022141931A (ja) | 生体検出モデルのトレーニング方法及び装置、生体検出の方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN111027628B (zh) | 一种模型确定方法和系统 | |
KR102074909B1 (ko) | 소프트웨어 취약점 분류 장치 및 방법 | |
CN109508658B (zh) | 一种多生物特征联合识别方法及装置 | |
US20190220924A1 (en) | Method and device for determining key variable in model | |
CN112738098A (zh) | 一种基于网络行为数据的异常检测方法及装置 | |
CN111178537A (zh) | 一种特征提取模型训练方法及设备 | |
WO2020230699A1 (ja) | 耐性設定装置、耐性設定方法、耐性設定プログラムを記憶する記憶媒体、耐性評価装置、耐性評価方法、耐性評価プログラムを記憶する記憶媒体、演算装置、およびプログラムを記憶する記憶媒体 | |
CN112884569A (zh) | 一种信用评估模型的训练方法、装置及设备 | |
CN110490058A (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN112818774B (zh) | 一种活体检测方法及装置 | |
CN110941824B (zh) | 一种基于对抗样本增强模型抗攻击能力的方法和系统 | |
CN111046380B (zh) | 一种基于对抗样本增强模型抗攻击能力的方法和系统 | |
CN114511095A (zh) | 数据处理方法及装置、计算设备、存储介质 | |
KR102413588B1 (ko) | 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램 | |
CN114445898A (zh) | 人脸活体检测方法、装置、设备、存储介质及程序产品 | |
CN113435901A (zh) | 一种交易欺诈风险侦测方法、装置和系统 | |
CN114402340A (zh) | 对可训练模块的快速量化训练 | |
Su et al. | Empirical evaluation on robustness of deep convolutional neural networks activation functions against adversarial perturbation | |
Zhang et al. | Assessing the memory ability of recurrent neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |