CN108615071B - 模型测试的方法及装置 - Google Patents

模型测试的方法及装置 Download PDF

Info

Publication number
CN108615071B
CN108615071B CN201810443821.0A CN201810443821A CN108615071B CN 108615071 B CN108615071 B CN 108615071B CN 201810443821 A CN201810443821 A CN 201810443821A CN 108615071 B CN108615071 B CN 108615071B
Authority
CN
China
Prior art keywords
model
test
tested
sample
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810443821.0A
Other languages
English (en)
Other versions
CN108615071A (zh
Inventor
周俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN202011272937.6A priority Critical patent/CN112232476B/zh
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Priority to CN201810443821.0A priority patent/CN108615071B/zh
Publication of CN108615071A publication Critical patent/CN108615071A/zh
Priority to PCT/CN2019/075438 priority patent/WO2019214309A1/zh
Priority to EP19799244.9A priority patent/EP3719708A4/en
Priority to SG11202006208YA priority patent/SG11202006208YA/en
Priority to TW108105402A priority patent/TWI698808B/zh
Priority to US16/886,609 priority patent/US11176418B2/en
Application granted granted Critical
Publication of CN108615071B publication Critical patent/CN108615071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Abstract

本说明书实施例提供一种模型测试的方法和装置,根据该方法,首先从测试样本集中获取样本,接着将样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,然后根据输出结果确定测试结果,进一步地,在该测试结果未满足预定条件的情况下,按照预定规则,基于上述样本生成新样本,并将所生成的新样本加入测试样本集。如此,在该模型测试的方法被循环执行的情况下,一方面对待检测模型的准确性和/或测试充分程度进行评估,另一方面将基于原样本生成的、与原样本具有差异化的新样本,提高模型测试的有效性。

Description

模型测试的方法及装置
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及通过计算机进行模型测试的方法和装置。
背景技术
随着计算机和人工智能技术的发展,人工神经网络(ANN)的应用越来越多,例如模式识别、自动控制、信号处理、辅助决策等等。人工神经网络是一种运算模型,由大量的处理单元,或称神经元,之间相互连接构成。每个处理单元代表一种特定的输出函数,称为激励函数(activation function)。神经网络模型的性能测试往往通过生成神经网络模型的系统的代码覆盖率,或者其在样本集上的输出正确率以及在样本难易覆盖的特殊情况(如某地气温零下70摄氏度)下的输出结果准确性来衡量。
常规技术中,为了对模型的测试更充分,通常需要收集大量的训练样本;为了提高模型的准确性,也往往需要收集更多的训练样本来训练模型,对模型参数进行调节和优化。然而,这样的方式通过人工收集样本,浪费人力,同时,收集的训练样本毕竟是有限的,并不能保证对模型的充分测试,对模型准确性的提高也是有限的。例如,某地气温从来没有低到过零下70摄氏度,所采集的样本再多也无法覆盖到气温为零下70摄氏度的情况。特别地,在一些特殊情况下,例如无人驾驶车辆面对白色背景的卡车,如果所收集的测试样本中没有这样的情况,则可能判定为天空背景,影响决策,从而可能造成不可挽回的损失。
因此,希望能有改进的方案,通过产生更多差异化的样本,有效的进行模型测试,既能避免人工收集样本造成的人力浪费,又可以通过产生的这些差异化样本对模型进行进一步的测试,以及用于训练模型从而提升模型的准确性。
发明内容
本说明书一个或多个实施例描述了一种方法和装置,可以产生更多差异化的样本,有效的进行模型测试,既能避免人工收集样本造成的人力浪费,又可以通过产生的这些差异化样本对模型进行进一步的测试,以及用于训练模型从而提升模型的准确性。
根据第一方面,提供了一种模型测试的方法,包括:
从测试样本集中获取样本;
将所述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,所述多个待测试模型包括至少一个神经网络模型;
根据所述输出结果确定测试结果,所述测试结果包括第一测试结果和第二测试结果中的至少一项,所述第一测试结果包括各个待测试模型的输出结果的准确性,所述第二测试结果包括所述至少一个神经网络模型的神经元覆盖率;
在所述测试结果未满足预定条件的情况下,按照预定规则,基于所述样本生成新样本,并将所述新样本加入所述测试样本集。
根据一方面的实施方式,在所述测试结果包括第一测试结果的情况下,所述根据所述输出结果确定测试结果包括:
对所述多个待测试模型中包括的功能相同的待测试模型,投票确定正确输出结果,其中,票数最高的输出结果为正确输出结果;
确定输出结果为所述正确输出结果的待测试模型输出准确。
在一个可能的设计中,所述模型集中包括标准模型,以及,所述根据所述输出结果确定测试结果包括:
基于标准模型的输出结果,确定与所述标准模型功能相同的待测试模型的正确输出结果;
确定输出结果为所述正确输出结果的待测试模型输出准确。
进一步地,在一个实施例中,所述预定条件包括:
所述多个待测试模型的输出结果准确度均大于预设准确度阈值。
根据一方面的实施方式,在所述测试结果包括第二测试结果的情况下,所述根据所述输出结果确定测试结果包括:
根据所述至少一个神经网络模型中各个神经元的输出是否满足输出条件,统计各个神经网络模型的神经元覆盖数,其中,所述神经元覆盖数包括,测试过程中满足过输出条件的神经元个数;
基于所述神经元覆盖数确定各个神经网络模型的神经元覆盖率,其中,所述神经元覆盖率和以下比值正相关:所述神经元覆盖数与总神经元个数的比值。
进一步地,在一个实施例中,所述预定条件包括:
所述至少一个神经网络模型的神经元覆盖率均大于预设覆盖率阈值。
在一个实施例中,按照预定规则,基于所述样本生成新样本包括:
获取所述样本中各个特征的设定范围;
基于各个特征的设定范围为所述样本添加随机扰动项,生成新样本。
根据一种可能的设计,上述方法还包括以下中的一项或多项:
剔除模型集中测试结果满足预定条件的待测试模型;
在模型集中加入新的待测试模型。
根据第二方面,提供一种模型测试的装置,包括:
获取单元,配置为从测试样本集中获取样本;
测试单元,配置为将所述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,所述多个待测试模型包括至少一个神经网络模型;
确定单元,配置为根据所述输出结果确定测试结果,所述测试结果包括第一测试结果和第二测试结果中的至少一项,所述第一测试结果包括各个待测试模型的输出结果的准确性,所述第二测试结果包括所述至少一个神经网络模型的神经元覆盖率;
生成单元,配置为在所述测试结果未满足预定条件的情况下,按照预定规则,基于所述样本生成新样本,并将所述新样本加入所述测试样本集。
根据第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行第一方面的方法。
根据第四方面,提供了一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现第一方面的方法。
通过本说明书实施例提供的方法和装置,首先从测试样本集中获取样本,接着将样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,然后根据输出结果确定测试结果,进一步地,在该测试结果未满足预定条件的情况下,按照预定规则,基于上述样本生成新样本,并将所生成的新样本加入测试样本集。在该模型测试的方法被循环执行的情况下,一方面对待检测模型的准确性能和/或测试充分程度进行评估,另一方面将基于原样本生成的、与原样本具有差异化的新样本。如此既能避免人工收集样本造成的人力浪费,又可以对模型进行进一步的测试,以及将扩充后的测试样本集用于训练模型从而提升模型的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出本说明书披露的一个实施例的实施场景示意图;
图2示出根据一个实施例的模型测试的方法流程图;
图3示出神经网络模型的一个具体例子;
图4示出神经网络模型的神经元的一个具体例子;
图5示出根据一个实施例的用于模型测试的装置的示意性框图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
图1为本说明书披露的一个实施例的实施场景示意图。如图所示,用户(如应用开发、测试人员)在神经网络模型正式使用之前,可以将这些模型通过计算平台进行测试。这里的计算平台可以是具有数据处理能力和数据输入功能的各种装置、设备,例如台式计算机、服务器等等。可以理解,计算平台还可以是上述电子设备组成的设备集群。用户可以收集样本作为初始的测试样本集输入计算平台。
测试时,计算平台从测试样本集中获取一个样本,如样本1,然后将样本1输入模型集包括的多个待测试模型中,如模型1、模型2、模型3等等,并获得各个测试模型的输出结果,对应为输出1、输出2、输出3等等。可以理解,这多个模型可以具有相似的功能(预定功能),以使一个样本1能够同时用于模型1、模型2、模型3等等的测试,例如都具有模式识别功能。如此,样本1可以同时输入这多个模型中,这多个模型分别给出各自的输出结果,例如模式识别的输出结果。由于各个模型的准确性不同,具有相同功能的待测试模型的输出结果可以相同,也可以不相同。值得说明的是,这些待测试模型包括至少一个神经网络模型。
接着,计算平台可以根据各个模型的输出结果确定测试结果。这里,测试结果可以包括第一测试结果和第二测试结果中的至少一项。其中,第一测试结果包括各个待测试模型的输出结果的准确性,第二测试结果包括至少一个神经网络模型的神经元覆盖率。这里,神经元覆盖率可以用于表示模型的神经元激活情况。如此,对每个待测试模型而言,通过输出结果的准确性可以对该模型的性能进行评判;另一方面,通过神经元覆盖率,可以确定对该模型的测试是否充分。
可以理解,测试之前,用户(如应用开发、测试人员)还可以对测试结果设定相关条件作为预定条件,用来控制测试的结束时机,例如,可以设定所有待测试模型准确性均合格的预定条件,来控制测试过程结束等等。如果测试过程没有结束,则计算平台可以再从测试样本集中获取其他样本,循环执行以上测试过程。同时,由于原始的测试样本集的样本数量具有一定的局限性,如果测试过程还要继续循环执行,则计算平台可以按照预定规则,基于用于此次的测试过程的样本1生成一个新样本,并将该新样本加入到测试样本集中,以用于后续的测试过程。用户(如应用开发、测试人员)可以通过设定预定规则,控制样本的生成,既能保证涵盖各种情况,又不会与实际情况相差甚远。
如此,一方面对待检测模型的准确性和/或测试充分程度进行了评估,另一方面将基于原样本生成的、与原样本具有差异化的新样本加入测试样本集,可以使测试样本集中的样本数量和所涵盖的情况得以扩充。通过自动生成这些差异化样本,既能避免人工收集样本造成的人力浪费,又可以对模型进行进一步的测试,以及用于训练模型从而提升模型的准确性。下面描述上述场景的具体执行过程。
图2示出根据一个实施例的模型测试的方法流程图。该方法的执行主体可以是任何具有计算、处理能力的系统、设备、装置、平台或服务器,例如图1所示的计算平台等。如图2所示,该方法包括以下步骤:步骤21,从测试样本集中获取样本;步骤22,将上述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,上述多个待测试模型包括至少一个神经网络模型;步骤23,根据上述输出结果确定测试结果,该测试结果包括第一测试结果和第二测试结果中的至少一项,第一测试结果包括各个待测试模型的输出结果的准确性,第二测试结果包括上述至少一个神经网络模型的神经元覆盖率;步骤24,在上述测试结果不满足预定条件的情况下,按照预定规则,基于以上样本生成新样本,并将该新样本加入上述测试样本集。
首先,在步骤21,从测试样本集中获取样本。可以理解,测试样本集用于存储模型测试用的样本,其可以是一个集合,也可以是数据库,本申请对此不作限定。
模型测试的方法首次执行时,测试样本集为初始的测试样本集。初始的测试样本集存储的样本可以包括用户收集的样本,也可以包括用户收集的样本和以往的模型测试过程中生成的样本。
根据一种实施方式,用户可以对收集的样本进行筛选,挑选一些在模型中容易出错的样本,或者样本特征所占比例比较低的样本,放入初始的测试样本集。举例而言,一个样本在输入10个不同的用于图像识别的模型时,5个模型的输出结果为卡车,5个模型的输出结果为蓝天,则该样本容易出错,可以挑选出来;再例如,所收集的100个样本中有90个的温度在零至20摄氏度,有4个样本的温度在零下较接近零摄氏度(比如都高于零下三摄氏度),有1个样本的温度在零下10摄氏度,则这1个温度在零下10摄氏度的样本所占比例比较低,可以挑选出来,对于这4个温度在零下较接近零摄氏度的样本,可以全部挑选出来,也可以择一或择二挑选。如此,可以避免漏掉一些较特殊的情况,有利于测试样本集中的样本均衡地涵盖各种情况。
从测试样本集中获取样本可以是任意可行的方式。在一个实施例中,可以按照测试样本集中样本的排列顺序获取样本,例如第一遍执行该模型测试的方法时获取排在第一的样本,第二遍执行该模型测试的方法时获取排在第二的样本,以此类推。
在另一个实施例中,可以随机获取测试样本集中的样本。在随机获取样本的情况下,该模型测试的方法被执行多遍后,可能会出现一些样本被使用的次数较多,一些样本未被使用过或使用较少,还可以设置样本调取权重,使用次数越少,调取权重越高,以增加未被使用过或使用较少的样本的使用概率。
在更多实施例中,用户还可以通过更多可行方式从测试样本集中获取样本。
接着,在步骤22,将上述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果。值得说明的是,这里的模型是用来揭示变量之间因果关系的运算模型,其可以包括一个或一系列函数组成的算法,通过这样的算法,可以根据输入的变量得到一个由这些变量确定的输出结果。如误差反向传播算法BP(Back Propagation)算法、卷积神经网络CNNs(Convolutional neural networks)等等。
对于较复杂的情况,可以通过神经网络模型来实现。神经网络模型由多个神经元构成。如图3所示,是一个三层结构的神经网络模型的一个具体例子。图3中的神经网络模型包括多个神经元,如神经元31、32等。第一层各个神经元接收不同的输入特征参数x1、x2、x3、x4传递给第二层,第二层的神经元31分别对应运算单元,各个运算单元可以以第一层的x1、x2、x3、x4为输入。其中,各个特征x1、x2、x3、x4由样本给出,或者从样本中提取,例如分别是水果的颜色、形状、大小等参数。同理,第三层的神经元32是以第二层的神经元31等的各个输出值作为输入的运算单元。每两个神经元间的连接都代表一个对于通过该连接信号的加权值,称之为权重。该神经网络模型经过神经元32,可以得到一个输出结果,例如桔子、橙子等。
进一步地,如图4所示,每个神经元代表一种特定的输出函数,称为激励函数(activation function,例如为sigmoid函数f(z)=1/(1+e-z))。在图4示出的神经元中,输出函数可以为
Figure BDA0001656688490000081
其中,对于Wi,i值从1取值到3,分别代表权值1、权值2、权值3,xi中,i值从1取值到3,分别代表特征参数1、特征参数2、特征参数3。对特征参数1、特征参数2、特征参数3加权求和后通过激励函数映射得到神经元的输出。
其中,本实施例模型集中的这多个待测试模型中包括至少一个神经网络模型。待测试模型是预先通过训练样本集训练好的。训练样本集可以包括样本和对应的已知输出结果。根据训练样本集中样本确定的输入特征参数和已知输出结果调整模型参数(如图4中的权重1等),直到模型对于训练样本集达到所要求的准确率,确定各个模型参数。尽管如此,由于训练样本集的局限性,还需要进一步通过测试样本集对模型进行测试。
实践中,模型集可以是一个模型集合。在模型测试的方法的执行主体是一个测试类平台的情况下,该平台中可以包括模型操作模块,用户可以通过该模块添加待测试的模型,从而形成上述模型集合。虽然测试样本集中的样本可以适用于所有待测试模型,但是这些待测试模型可以具有相同的功能,也可以具有不相同的功能,根据测试的目的和具体情况而定。例如,对于同样的图片样本,一个待测试模型可以根据树木、花草的各种颜色外观特征识别品类等,另一个待测试模型可以根据树木、花草的颜色特征识别季节等。
可以理解,每个待测试模型会根据输入的样本得到一个输出结果。对于同一个样本,每个待测试模型的输出结果可能会不同。例如,对于同一个图片样本,具有不同功能的模型,一个输出品类枫叶,一个输出季节秋季。对于功能相同的模型,由于模型准确性不一样,输出结果也不一样,例如对于同一个图片样本,一个输出春季,一个输出夏季。在一个实施例中,该多个待测试模型均包括相同功能。
然后,在步骤23,根据上述输出结果确定测试结果。可以理解,模型的测试结果通过模型在输入样本后的输出结果来判定。而具体的测试结果是什么,根据测试内容是什么而定。
具体地,根据本实施例的一个方面,测试内容可以是各个待测试模型的输出结果的准确性。为了便于描述,把各个待测试模型的输出结果的准确性称为第一测试结果。第一测试结果可以是对输出结果准确性的具体描述。例如,第一测试结果可以是各个待测试模型的结果准确、不准确中的一项,也可以是对待测试模型多次输出结果是否正确进行统计所计算的准确率(输出结果准确次数/总判断次数),等等。
在一个实施例中,对上述多个待测试模型中包括的功能相同的待测试模型,投票确定正确输出结果,每个输出结果就是相应模型的投票结果,其中,票数最多的输出结果为正确输出结果;然后确定输出结果为所述正确输出结果的待测试模型输出结果准确。作为示例,假设模型集中有10个待检测模型,其中7个待检测模型可以用于树木、花草的颜色特征识别季节,则这7个待检测模型功能相同。对某个图片样本,在这7个待检测模型的输出结果分别是“春季”、“春季”、“夏季”、“秋季”、“春季”、“秋季”、“春季”的情况下,投票结果为“春季”4票,“夏季”1票,“秋季”2票,则票数最多的“春季”为正确输出结果。然后,确定第一、第二、第五、第七个模型的输出结果准确,第三、第四、第六个模型的输出结果不准确。对另外3个待检测模型,如果他们的功能相同,在测试内容为输出结果的准确性的情况下,可以按照类似的方法处理,在此不再赘述。在一个可能的设计里,模型集中的全部待测试模型具有的功能相同。
在另一个实施例中,模型集中可以包括有标准模型。此时,可以基于标准模型的输出结果,确定与标准模型功能相同的待测试模型的正确输出结果;确定输出结果为正确输出结果的待测试模型的输出结果准确。其中,标准模型可以是经过测试的准确度较高的模型,例如准确度99.99%。由此,可以将标准模型的输出结果确定为正确输出结果。此时,对于人物图片样本,在标准模型确定的输出结果为“男士”的情况下,7个与该标准模型功能都相同的待测试模型的输出结果有4个为“女士”,3个为“男士”,则确定该输出结果为“男士”的3个待测试模型的输出结果准确。
在一个可能的设计中,在与标准模型功能相同的待测试模型的输出结果与标准模型的输出结果都不一致时,还可以检测这些待测试模型的输出结果是否一致,如果一致,也可以将该一致的结果确定为正确输出结果。例如,对于人物图片样本,标准模型确定的输出结果为“男士”,7个与该标准模型功能都相同的待测试模型的输出结果均为“女士”,则确定正确输出结果为“女士”。由于标准模型不是必然准确的模型,如此,可以防止标准模型输出结果错误的情况下,导致对待测试模型的评判错误。
对于与标准模型功能不同的其他待测试模型,也可以按照上述投票确定正确输出结果的方式确定测试结果,在此不再赘述。可选地,模型集中的全部待测试模型与该标准模型具有的功能相同。
在一个实施例中,第一测试结果还可以是某个样本在测试中输出结果的准确性。例如某个样本,测试中有4个模型输出结果准确,3个模型输出结果不准确等等。可选地,还可以计算该样本的准确度。对于单次测试过程,样本的准确度=输出结果正确的模型数/总模型数。对于该样本的多次测试过程,准确度可以是单次准确度的平均值,也可以是被待测试模型输出正确结果的总次数/总共被待测试模型执行并给出输出结果的总次数。如此,可以对样本在模型测试过程中的有用程度进行评估。在一个样本每次进行测试,各个模型的输出结果都是正确的情况下,该样本对模型测试的意义不大。
另一方面,测试内容可以是上述至少一个神经网络模型的神经元覆盖率。为了便于描述,把上述至少一个神经网络模型的神经元覆盖率称为第二测试结果。容易理解,模型的神经元覆盖率可以用来表示被激活的神经元数在总神经元数中的比例。此时,可以检测至少一个神经网络模型中各个神经元的输出是否满足输出条件,统计各个神经网络模型的神经元覆盖数,其中,神经元覆盖数包括,测试过程中满足过输出条件的神经元个数;基于神经元覆盖数确定各个神经网络模型的神经元覆盖率,其中,神经元覆盖率和神经元覆盖数与总神经元个数的比值正相关。
可以理解,神经网络模型中,激励函数也叫点火规则,与人脑的工作类似,只要输入超过一定标准时才会产生输出。因此,在一个样本中,如果该样本的某些特征参数值比较小,则仅依靠这些特征参数的神经元将不会产生输出,即神经元未被激活。如此,可以通过设置阈值来作为神经元的输出条件,例如输出条件设置为神经元的输出大于0。
值得说明的是,神经元覆盖数是测试过程中满足过输出条件的神经元个数。例如,模型1共有50个神经元,在样本1输入模型1的情况下,第1-5个神经元满足输出条件,此时,神经元覆盖数是5,神经元覆盖率为与5/50正相关的数,例如百分数10%。在样本2输入模型1的情况下,第2-6个神经元满足输出条件,因此满足过输出条件的神经元为第1-6个,此时,神经元覆盖数是6,神经元覆盖率为与6/50正相关的数,例如百分数12%。
综上,该测试结果可以包括第一测试结果和第二测试结果中的至少一项,其中,第一测试结果包括各个待测试模型的输出结果的准确性,第二测试结果包括上述至少一个神经网络模型的神经元覆盖率。
接着,在步骤24,在上述测试结果未满足预定条件的情况下,按照预定规则,基于以上样本生成新样本,并将该新样本加入上述测试样本集。这里,可以存储有预定条件,用于限定模型测试流程的结束时机。在该步骤中,可以进一步检测步骤23中的测试结果是否满足预定条件,满足预定条件则停止模型检测过程。在上述测试结果未满足预定条件的情况下,可以按照预定规则对样本进行处理,生成新样本,并将该新样本加入上述的测试样本集,以扩充测试样本集,用于后续的测试过程。其中,对样本的处理例如是按照预定规则(如梯度上升算法)改变各个特征的取值。
在一个实施例中,上述预定条件基于神经元覆盖率确定。具体地,在测试结果包括第二测试结果的情况下,预定条件可以包括:至少一个神经网络模型的神经元覆盖率均大于预设覆盖率阈值,即如果待测试模型中包括一个神经网络模型,则要求该神经网络模型的神经元覆盖率大于预设覆盖率阈值;如果待测试模型中包括多个神经网络模型,则要求每个神经网络模型的神经元覆盖率均大于预设覆盖率阈值。预设覆盖率阈值可以用来限定样本对于模型测试的覆盖程度,例如是99%。当神经元覆盖率超过预设覆盖率阈值时,说明测试样本集中的样本已经可以充分地对模型的绝大部分神经元进行测试。
在另一些实现中,还可以进一步基于测试结果准确度设定上述预定条件。具体地,预定条件还可以包括,多个待测试模型的输出结果准确度均大于预设准确度阈值,其中,准确度和历史测试结果准确的次数与总测试次数的比值正相关。作为示例,当前模型测试中,模型1通过了100个样本的测试,其中输出结果准确的次数为50,则其准确度与50/100正相关,例如是一个百分数50%。假定预设准确度阈值为90%,则在模型集中的各个待检测模型的准确度都大于90%的情况下,可以结束测试。由于次数较少的测试对模型准确度的评估意义不大,比如该模型测试方法执行1次的时候,对于单个样本,模型的准确度要么是0,要么是100%。因此,在可选的实施例中,还可以限定准确度统计的次数,例如对某个待测试模型,至少执行100次循环之后开始计算其准确度。
在一个实施例中,还可以对每个待测试模型,判断是否满足预定条件,如准确度达到预设准确度阈值,或者神经元覆盖率达到预设覆盖率阈值。在准确度达到预设准确度阈值的情况下,说明待测试模型的性能已经比较好了,继续测试的意义不大,可以直接从模型集中剔除。神经元覆盖率达到预设覆盖率阈值,则说明待测试模型通过当前的测试已经可以充分发现其中缺陷或问题,也可以从模型集中剔除。如此,可以及时剔除测试完毕的待测试模型,减少模型测试主体的数据处理压力。
在一个实施例中,模型测试的流程执行过程中,还可以随时加入新的待测试模型进行测试。如此,可以节约模型测试的执行资源。
在继续执行测试的情况下,如前所述,可以按照预定规则对当前样本进行处理,生成新样本,并将其加入样本集。上述预定规则可以由测试人员根据需要而设定。这是考虑到,一方面,样本的各个特征并不是可以任意取值的,一些过于极端的取值会使样本失去意义,比如,人脸宽度超过人脸长度的2倍、人眼面积占人脸面积的四分之三,等等。另一方面测试人员还可以有针对性的产生特定条件下的样本,以进行更有针对性的测试。例如,通过设置预定规则,将当前图片样本中的卡车颜色设置为特定颜色,例如白色,从而测试无人驾驶识别时对于各种车辆颜色与背景的识别情况。
在一个实施例中,根据预定规则设置样本特征的约束范围。例如,将像素范围设定为128×128-16384×16384等。进一步地,基于各个特征的设定范围为样本添加随机扰动项,生成新样本。其中,随机扰动项可以只改变样本原有的特征,也可以为样本添加新的、与待测试模型的输入相关的特征。例如,一个待测试模型根据图片颜色识别季节,一个图片样本的各个像素点的颜色通过RGB值表示为[(235,108,0),(199,98,3),(153,72,20),……],由于各个像素点的取值范围都在0-255之间,随机扰动项可以使每个像素点改变后的值都在0-255范围内,如[(0,1,30),(26,0,3),(-153,72,20),……],将随机扰动项叠加到原样本生成新样本为[(235,109,30),(255,98,6),(0,144,40),……]。随机扰动项可以在像素范围内增加样本的像素点,例如原样本有128×128个像素点,随机扰动项可以增加128×256个像素点,生成新样本为128×384个像素点。
如此,可以自动生成与人工收集的样本具有差异性的新样本,避免人工搜集的繁琐。进一步地,由于可以人工设定特征取值范围,从而生成的新样本比较符合真实情况。
在一个实施例中,对于已经用于对模型进行测试的样本,可以保留在测试样本集中以供后续测试过程中使用。在另一些可能的实施例中,对于各个样本测试准确性都比较高的样本,用于模型测试的意义不大,还可以从测试样本集中移除。例如某个样本,在每次使用该样本进行测试的情况下,所有待测试模型都能给出正确输出结果,则该样本可以从测试样本集中移除。实践中,可以设定阈值,在准确度大于该设定阈值的情况下,将该样本从测试样本集中移除。
回顾以上过程,首先从测试样本集中获取样本,接着将样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,然后根据输出结果确定测试结果,进一步地,在该测试结果未满足预定条件的情况下,按照预定规则,基于上述样本生成新样本,并将所生成的新样本加入测试样本集。在该模型测试的方法被循环执行的情况下,在该模型测试的方法被循环执行的情况下,一方面对待检测模型的准确性能和/或测试充分程度进行评估,另一方面将基于原样本生成的、与原样本具有差异化的新样本。如此既能避免人工收集样本造成的人力浪费,又可以对模型进行进一步的测试,以及将扩充后的测试样本集用于训练模型从而提升模型的准确性。
根据另一方面的实施例,还提供一种模型测试的装置。图5示出根据一个实施例的用于模型测试的装置的示意性框图。如图5所示,用于模型测试的装置500包括:获取单元51,配置为从测试样本集中获取样本;测试单元52,配置为将该样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,该多个待测试模型包括至少一个神经网络模型;确定单元53,配置为根据上述输出结果确定测试结果,测试结果包括第一测试结果和第二测试结果中的至少一项,第一测试结果包括各个待测试模型的输出结果的准确性,第二测试结果包括上述至少一个神经网络模型的神经元覆盖率;生成单元54,配置为在测试结果未满足预定条件的情况下,按照预定规则,基于该样本生成新样本,并将该新样本加入上述测试样本集。
根据一方面的实施方式,在测试结果包括第一测试结果的情况下,确定单元52还包括:结果确定模块(未示出),配置为对所述多个待测试模型中包括的功能相同的待测试模型,投票确定正确输出结果,其中,票数最高的输出结果为正确输出结果;准确性确定模块(未示出),配置为确定输出结果为正确输出结果的待测试模型输出结果准确。。
在一个可能的设计中,模型集中包括有标准模型,确定单元52包括:结果确定模块(未示出),配置为基于标准模型的输出结果,确定与标准模型功能相同的待测试模型的正确输出结果;准确性确定模块(未示出),配置为确定输出结果为正确输出结果的待测试模型输出准确。
根据另一方面的实施方式,在测试结果包括第二测试结果的情况下,确定单元包括:统计模块(未示出),配置为根据上述至少一个神经网络模型中各个神经元的输出是否满足输出条件,统计各个神经网络模型的神经元覆盖数,其中,神经元覆盖数包括,测试过程中满足过输出条件的神经元个数;覆盖率确定模块,配置为基于神经元覆盖数确定各个神经网络模型的神经元覆盖率,其中,神经元覆盖率和以下比值正相关:神经元覆盖数与总神经元个数的比值。
进一步地,在测试结果包括第二测试结果的情况下,预定条件包括,上述至少一个神经网络模型的神经元覆盖率均大于预设覆盖率阈值。
更进一步地,预定条件还可以包括,上述多个待测试模型的输出结果准确度均大于预设准确度阈值。其中,该准确度可以和以下比值正相关:历史测试结果准确的次数与总测试次数的比值。
在一个实施例中,生成模块54进一步配置为:获取上述样本中各个特征的设定范围;基于各个特征的设定范围为样本添加随机扰动项,生成新样本。
在一种可能的设计中,装置500还包括以下中的一项或多项:
剔除单元(未示出),配置为剔除模型集中测试结果满足预定条件的待测试模型;添加单元(未示出),配置为在模型集中加入新的待测试模型。
通过以上装置,可以不断从测试样本集中获取样本,循环执行模型测试的方法,产生更多差异化的样本,极大提高模型测试的有效性。并且,通过产生的差异化样本,还可以进一步用于训练模型从而提升模型的准确性。
根据另一方面的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行结合图2所描述的方法。
根据再一方面的实施例,还提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现结合图2所述的方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (18)

1.一种模型测试的方法,包括:
从测试样本集中获取样本,所述测试样本集中的样本为图像;
将所述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,所述多个待测试模型包括至少一个神经网络模型;所述多个待测试模型用于进行图像识别,所述多个待测试模型针对图像的识别功能相同或不同;
根据所述输出结果确定测试结果,所述测试结果包括第一测试结果和第二测试结果中的至少一项,所述第一测试结果包括各个待测试模型的输出结果的准确性,所述第二测试结果包括所述至少一个神经网络模型的神经元覆盖率;
在所述测试结果未满足用于检测模型测试是否完成的预定条件的情况下,按照预先设定的像素范围和/或RGB值范围,对所述样本的特征进行扰动,从而生成新样本,并将所述新样本加入所述测试样本集;
在所述第一测试结果中各个测试模型针对所述样本输出结果的准确度大于设定阈值的情况下,将所述样本从测试样本集中删除;同时,
在存在至少满足以下一项的待测试模型的情况下,将相应待测试模型从所述模型集剔除:相应准确度大于预设准确度阈值;相应神经元覆盖率大于预设覆盖率阈值。
2.根据权利要求1所述的方法,其中,在所述测试结果包括第一测试结果的情况下,所述根据所述输出结果确定测试结果包括:
对所述多个待测试模型中包括的功能相同的待测试模型,投票确定正确输出结果,其中,票数最多的输出结果为正确输出结果;
确定输出结果为所述正确输出结果的待测试模型输出结果准确。
3.根据权利要求1所述的方法,其中,所述模型集中包括标准模型;以及
所述根据所述输出结果确定测试结果包括:
基于标准模型的输出结果,确定与所述标准模型功能相同的待测试模型的正确输出结果;
确定输出结果为所述正确输出结果的待测试模型的输出结果准确。
4.根据权利要求1所述的方法,其中,在所述测试结果包括第二测试结果的情况下,所述根据所述输出结果确定测试结果包括:
根据所述至少一个神经网络模型中各个神经元的输出是否满足输出条件,统计各个神经网络模型的神经元覆盖数,其中,所述神经元覆盖数包括,测试过程中满足过输出条件的神经元个数;
基于所述神经元覆盖数确定各个神经网络模型的神经元覆盖率,其中,所述神经元覆盖率和以下比值正相关:所述神经元覆盖数与总神经元个数的比值。
5.根据权利要求4所述的方法,其中,所述预定条件包括:
所述至少一个神经网络模型的神经元覆盖率均大于预设覆盖率阈值。
6.根据权利要求5所述的方法,其中,所述预定条件还包括:
所述多个待测试模型的输出结果准确度均大于预设准确度阈值。
7.根据权利要求1所述的方法,其中,所述按照预先设定的像素范围和/或RGB值范围,对所述样本进行扰动,从而生成新样本包括:
按照所述像素范围和/或RGB值范围,为所述样本的像素和/或RGB值生成随机扰动项;
为所述样本的像素和/或RGB值添加相应随机扰动项,从而生成新样本。
8.根据权利要求1所述的方法,所述方法还包括:
在模型集中加入新的待测试模型。
9.一种模型测试的装置,包括:
获取单元,配置为从测试样本集中获取样本,所述测试样本集中的样本为图像;
测试单元,配置为将所述样本输入模型集包括的多个待测试模型中,以获得各个待测试模型的输出结果,其中,所述多个待测试模型包括至少一个神经网络模型;所述多个待测试模型用于进行图像识别,所述多个待测试模型针对图像的识别功能相同或不同;
确定单元,配置为根据所述输出结果确定测试结果,所述测试结果包括第一测试结果和第二测试结果中的至少一项,所述第一测试结果包括各个待测试模型的输出结果的准确性,所述第二测试结果包括所述至少一个神经网络模型的神经元覆盖率;
生成单元,配置为在所述测试结果用于检测模型测试是否完成的未满足预定条件的情况下,按照预先设定的像素范围和/或RGB值范围,对所述样本的特征进行扰动,从而生成新样本,并将所述新样本加入所述测试样本集;
剔除单元,配置为:在所述第一测试结果中各个测试模型针对所述样本输出结果的准确度大于设定阈值的情况下,将所述样本从测试样本集中删除;同时,在存在至少满足以下一项的待测试模型的情况下,将相应待测试模型从所述模型集剔除:相应准确度大于预设准确度阈值;相应神经元覆盖率大于预设覆盖率阈值。
10.根据权利要求9所述的装置,其中,在所述测试结果包括第一测试结果的情况下,所述确定单元包括:
结果确定模块,配置为对所述多个待测试模型中包括的功能相同的待测试模型,投票确定正确输出结果,其中,票数最高的输出结果为正确输出结果;
准确性确定模块,配置为确定输出结果为所述正确输出结果的待测试模型输出结果准确。
11.根据权利要求9所述的装置,所述模型集中包括标准模型,以及,
所述确定单元包括:
结果确定模块,配置为基于标准模型的输出结果,确定与所述标准模型功能相同的待测试模型的正确输出结果;
准确性确定模块,配置为确定输出结果为所述正确输出结果的待测试模型输出准确。
12.根据权利要求9所述的装置,其中,在所述测试结果包括第二测试结果的情况下,所述确定单元包括:
统计模块,配置为根据所述至少一个神经网络模型中各个神经元的输出是否满足输出条件,统计各个神经网络模型的神经元覆盖数,其中,所述神经元覆盖数包括,测试过程中满足过输出条件的神经元个数;
覆盖率确定模块,配置为基于所述神经元覆盖数确定各个神经网络模型的神经元覆盖率,其中,所述神经元覆盖率和以下比值正相关:所述神经元覆盖数与总神经元个数的比值。
13.根据权利要求12所述的装置,其中,所述预定条件包括:
所述至少一个神经网络模型的神经元覆盖率均大于预设覆盖率阈值。
14.根据权利要求13所述的装置,其中,所述预定条件还包括:
所述多个待测试模型的输出结果准确度均大于预设准确度阈值。
15.根据权利要求9所述的装置,其中,所述生成单元 进一步配置为:
按照所述像素范围和/或RGB值范围,为所述样本的像素和/或RGB值生成随机扰动项;
为所述样本的像素和/或RGB值添加相应随机扰动项,从而生成新样本。
16.根据权利要求9所述的装置,所述装置还包括:
添加单元,配置为在模型集中加入新的待测试模型。
17.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-8中任一项的所述的方法。
18.一种计算设备,包括存储器和处理器,其特征在于,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-8中任一项所述的方法。
CN201810443821.0A 2018-05-10 2018-05-10 模型测试的方法及装置 Active CN108615071B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201810443821.0A CN108615071B (zh) 2018-05-10 2018-05-10 模型测试的方法及装置
CN202011272937.6A CN112232476B (zh) 2018-05-10 2018-05-10 更新测试样本集的方法及装置
PCT/CN2019/075438 WO2019214309A1 (zh) 2018-05-10 2019-02-19 模型测试的方法及装置
EP19799244.9A EP3719708A4 (en) 2018-05-10 2019-02-19 MODEL TEST PROCEDURE AND DEVICE
SG11202006208YA SG11202006208YA (en) 2018-05-10 2019-02-19 Model test methods and apparatuses
TW108105402A TWI698808B (zh) 2018-05-10 2019-02-19 模型測試的方法及裝置
US16/886,609 US11176418B2 (en) 2018-05-10 2020-05-28 Model test methods and apparatuses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810443821.0A CN108615071B (zh) 2018-05-10 2018-05-10 模型测试的方法及装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202011272937.6A Division CN112232476B (zh) 2018-05-10 2018-05-10 更新测试样本集的方法及装置

Publications (2)

Publication Number Publication Date
CN108615071A CN108615071A (zh) 2018-10-02
CN108615071B true CN108615071B (zh) 2020-11-24

Family

ID=63662963

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202011272937.6A Active CN112232476B (zh) 2018-05-10 2018-05-10 更新测试样本集的方法及装置
CN201810443821.0A Active CN108615071B (zh) 2018-05-10 2018-05-10 模型测试的方法及装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202011272937.6A Active CN112232476B (zh) 2018-05-10 2018-05-10 更新测试样本集的方法及装置

Country Status (6)

Country Link
US (1) US11176418B2 (zh)
EP (1) EP3719708A4 (zh)
CN (2) CN112232476B (zh)
SG (1) SG11202006208YA (zh)
TW (1) TWI698808B (zh)
WO (1) WO2019214309A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022125321A1 (en) * 2020-12-09 2022-06-16 Micron Technology, Inc. Artificial neural network model selection

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232476B (zh) * 2018-05-10 2024-04-16 创新先进技术有限公司 更新测试样本集的方法及装置
CN109783700B (zh) * 2018-12-12 2021-06-08 广州市贺氏办公设备有限公司 一种盘点数据处理方法、系统及装置
CN110009509B (zh) * 2019-01-02 2021-02-19 创新先进技术有限公司 评估车损识别模型的方法及装置
CN110008987B (zh) * 2019-02-20 2022-02-22 深圳大学 分类器鲁棒性的测试方法、装置、终端及存储介质
CN111722610B (zh) * 2019-03-20 2021-10-22 北京新能源汽车股份有限公司 一种测试用例生成方法及装置
CN110110854B (zh) * 2019-04-01 2022-04-22 南京邮电大学 一种基于边状态的深度神经网络测试充分性的方法
CN112288092A (zh) * 2019-07-23 2021-01-29 百度时代网络技术(北京)有限公司 模型评估方法、装置、电子设备和存储介质
WO2021128084A1 (zh) * 2019-12-25 2021-07-01 阿里巴巴集团控股有限公司 数据处理、获取、模型训练及功耗控制方法、系统及设备
KR102191722B1 (ko) * 2020-07-15 2020-12-16 세종대학교산학협력단 딥러닝 모델의 취약점 판단 장치 및 방법
GB2597666A (en) * 2020-07-27 2022-02-09 Thales Holdings Uk Plc Methods and systems for verifying and predicting the performance of machine learning algorithms
CN112395203A (zh) * 2020-11-30 2021-02-23 京东数字科技控股股份有限公司 程序测试方法、装置及存储介质
CN114374534B (zh) * 2021-12-08 2024-04-02 山石网科通信技术股份有限公司 测试样本集的更新方法、装置及电子设备
CN114443506B (zh) * 2022-04-07 2022-06-10 浙江大学 一种用于测试人工智能模型的方法及装置
CN115098862B (zh) * 2022-06-06 2023-12-08 中国船舶集团有限公司系统工程研究院 水面无人系统智能算法模型安全可信评估方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103743980A (zh) * 2014-01-14 2014-04-23 山东科技大学 基于pso优化的svm的电能质量扰动识别与分类方法
CN105868769A (zh) * 2015-01-23 2016-08-17 阿里巴巴集团控股有限公司 图像中的人脸关键点定位方法及装置
CN106022215A (zh) * 2016-05-05 2016-10-12 北京海鑫科金高科技股份有限公司 人脸特征点定位方法及装置
CN106408016A (zh) * 2016-09-13 2017-02-15 广西电网有限责任公司北海供电局 一种配电网停电时间自动识别模型构造方法
CN106485192A (zh) * 2015-09-02 2017-03-08 富士通株式会社 用于图像识别的神经网络的训练方法和装置
CN107133436A (zh) * 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 一种多重抽样模型训练方法及装置
CN107438842A (zh) * 2014-12-18 2017-12-05 Asml荷兰有限公司 通过机器学习的特征搜索
CN107563280A (zh) * 2017-07-24 2018-01-09 南京道熵信息技术有限公司 基于多模型的人脸识别方法和装置
CN107590565A (zh) * 2017-09-08 2018-01-16 北京首钢自动化信息技术有限公司 一种构建建筑能耗预测模型的方法及装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130834B2 (en) * 1997-12-12 2006-10-31 Idaho Potato Commission Identification system and method for determining the geographic origin of a fresh commodity
WO2002037202A2 (en) * 2000-11-03 2002-05-10 Michael Korenberg Nonlinear system identification for class prediction in bioinformatics and related applications
US20030225719A1 (en) * 2002-05-31 2003-12-04 Lucent Technologies, Inc. Methods and apparatus for fast and robust model training for object classification
US7007001B2 (en) * 2002-06-26 2006-02-28 Microsoft Corporation Maximizing mutual information between observations and hidden states to minimize classification errors
US7711662B2 (en) * 2003-01-15 2010-05-04 Bracco Imaging S.P.A. System and method for optimization of a database for the training and testing of prediction algorithms
US7814036B2 (en) * 2003-06-19 2010-10-12 Haliburton Energy Services, Inc. Processing well logging data with neural network
US7295981B1 (en) * 2004-01-09 2007-11-13 At&T Corp. Method for building a natural language understanding model for a spoken dialog system
JP5104877B2 (ja) * 2007-12-18 2012-12-19 富士通株式会社 二クラス分類予測モデルの作成方法、分類予測モデル作成のためのプログラムおよび二クラス分類予測モデルの作成装置
CN101782743A (zh) * 2010-02-11 2010-07-21 浙江大学 神经网络建模方法及系统
CN102567391B (zh) * 2010-12-20 2014-05-07 中国移动通信集团广东有限公司 一种分类预测混合模型的建立方法及装置
US10013656B1 (en) * 2014-12-23 2018-07-03 EMC IP Holding Company LLC Methods and apparatus for analytical processing of provenance data for HPC workflow optimization
EP3070611A1 (en) * 2015-03-18 2016-09-21 Vestel Elektronik Sanayi ve Ticaret A.S. Statistical model-based test design for effective test case generation
US9836564B1 (en) * 2015-04-09 2017-12-05 Cadence Design Systems, Inc. Efficient extraction of the worst sample in Monte Carlo simulation
US10373054B2 (en) * 2015-04-19 2019-08-06 International Business Machines Corporation Annealed dropout training of neural networks
US20160342861A1 (en) * 2015-05-21 2016-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
CN105138963A (zh) * 2015-07-31 2015-12-09 小米科技有限责任公司 图片场景判定方法、装置以及服务器
US10147049B2 (en) * 2015-08-31 2018-12-04 International Business Machines Corporation Automatic generation of training data for anomaly detection using other user's data samples
CN105260786B (zh) * 2015-09-08 2018-10-26 哈尔滨工程大学 一种电力推进系统仿真可信度评估模型综合优化方法
US10373073B2 (en) * 2016-01-11 2019-08-06 International Business Machines Corporation Creating deep learning models using feature augmentation
CN106503795A (zh) * 2016-10-10 2017-03-15 上海电机学院 一种基于多神经元覆盖的神经网络结构设计方法
US10546237B2 (en) * 2017-03-30 2020-01-28 Atomwise Inc. Systems and methods for correcting error in a first classifier by evaluating classifier output in parallel
JP6832783B2 (ja) * 2017-04-20 2021-02-24 株式会社日立製作所 データ分析装置、データ分析方法、およびデータ分析プログラム
US20180314975A1 (en) * 2017-04-27 2018-11-01 Futurewei Technologies, Inc. Ensemble transfer learning
US11645541B2 (en) * 2017-11-17 2023-05-09 Adobe Inc. Machine learning model interpretation
CN112232476B (zh) * 2018-05-10 2024-04-16 创新先进技术有限公司 更新测试样本集的方法及装置
KR101940029B1 (ko) * 2018-07-11 2019-01-18 주식회사 마키나락스 어노말리 디텍션

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103743980A (zh) * 2014-01-14 2014-04-23 山东科技大学 基于pso优化的svm的电能质量扰动识别与分类方法
CN107438842A (zh) * 2014-12-18 2017-12-05 Asml荷兰有限公司 通过机器学习的特征搜索
CN105868769A (zh) * 2015-01-23 2016-08-17 阿里巴巴集团控股有限公司 图像中的人脸关键点定位方法及装置
CN106485192A (zh) * 2015-09-02 2017-03-08 富士通株式会社 用于图像识别的神经网络的训练方法和装置
CN107133436A (zh) * 2016-02-26 2017-09-05 阿里巴巴集团控股有限公司 一种多重抽样模型训练方法及装置
CN106022215A (zh) * 2016-05-05 2016-10-12 北京海鑫科金高科技股份有限公司 人脸特征点定位方法及装置
CN106408016A (zh) * 2016-09-13 2017-02-15 广西电网有限责任公司北海供电局 一种配电网停电时间自动识别模型构造方法
CN107563280A (zh) * 2017-07-24 2018-01-09 南京道熵信息技术有限公司 基于多模型的人脸识别方法和装置
CN107590565A (zh) * 2017-09-08 2018-01-16 北京首钢自动化信息技术有限公司 一种构建建筑能耗预测模型的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DeepXplore:Automated Whitebox Testing of Deep Learning System;Kexin Pei 等;《SOSP’17:Proceedings of the 26th Symposium on Operating Systems Principles》;20171028;参见第1-15页 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022125321A1 (en) * 2020-12-09 2022-06-16 Micron Technology, Inc. Artificial neural network model selection

Also Published As

Publication number Publication date
EP3719708A4 (en) 2021-04-14
SG11202006208YA (en) 2020-07-29
CN112232476B (zh) 2024-04-16
US20200293892A1 (en) 2020-09-17
EP3719708A1 (en) 2020-10-07
TWI698808B (zh) 2020-07-11
US11176418B2 (en) 2021-11-16
TW201947463A (zh) 2019-12-16
WO2019214309A1 (zh) 2019-11-14
CN112232476A (zh) 2021-01-15
CN108615071A (zh) 2018-10-02

Similar Documents

Publication Publication Date Title
CN108615071B (zh) 模型测试的方法及装置
Kang et al. Simultaneous estimation of image quality and distortion via multi-task convolutional neural networks
CN106776842B (zh) 多媒体数据检测方法及装置
CN111814902A (zh) 目标检测模型训练方法、目标识别方法、装置和介质
WO2018112783A1 (zh) 图像识别方法及装置
WO2021056914A1 (zh) 一种目标检测模型的自动建模方法及装置
CN110879982A (zh) 一种人群计数系统及方法
CN113095370A (zh) 图像识别方法、装置、电子设备及存储介质
CN109117810A (zh) 疲劳驾驶行为检测方法、装置、计算机设备及存储介质
CN112306829A (zh) 性能信息的确定方法及装置、存储介质、终端
CN113870254B (zh) 目标对象的检测方法、装置、电子设备及存储介质
CN111860601B (zh) 预测大型真菌种类的方法及装置
CN109801224A (zh) 一种图片处理方法、装置、服务器和存储介质
CN108665455B (zh) 图像显著性预测结果的评价方法和装置
CN114387524B (zh) 基于多层级二阶表征的小样本学习的图像识别方法和系统
CN111079930A (zh) 数据集质量参数的确定方法、装置及电子设备
WO2023102844A1 (zh) 剪枝模块的确定方法、装置及计算机可读存储介质
CN109376619A (zh) 一种细胞检测方法
CN111898525A (zh) 烟雾识别模型的构建方法、进行烟雾检测的方法及装置
CN116188834B (zh) 基于自适应训练模型的全切片图像分类方法及装置
CN109685069A (zh) 图像检测方法、装置及计算机可读存储介质
CN112906525A (zh) 年龄识别方法、装置及电子设备
CN116992944B (zh) 基于可学习重要性评判标准剪枝的图像处理方法及装置
CN112149470B (zh) 一种行人重识别方法和装置
CN114529720A (zh) 神经网络的可解释性评估方法、装置、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1261599

Country of ref document: HK

TA01 Transfer of patent application right

Effective date of registration: 20201022

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201022

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant