CN111612022A - 用于分析数据的方法、设备和计算机存储介质 - Google Patents

用于分析数据的方法、设备和计算机存储介质 Download PDF

Info

Publication number
CN111612022A
CN111612022A CN201910138788.5A CN201910138788A CN111612022A CN 111612022 A CN111612022 A CN 111612022A CN 201910138788 A CN201910138788 A CN 201910138788A CN 111612022 A CN111612022 A CN 111612022A
Authority
CN
China
Prior art keywords
prediction
model
parameter distribution
input data
sets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910138788.5A
Other languages
English (en)
Inventor
张霓
陈小异
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to CN201910138788.5A priority Critical patent/CN111612022A/zh
Priority to US17/433,941 priority patent/US20220148290A1/en
Priority to JP2021549650A priority patent/JP2022521957A/ja
Priority to PCT/CN2020/073628 priority patent/WO2020173270A1/zh
Publication of CN111612022A publication Critical patent/CN111612022A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例涉及用于分析数据的方法、设备和计算机存储介质。该方法包括:获取预测模型,预测模型中的一个处理层包括多个处理单元,多个处理单元中各处理单元的参数均满足目标参数分布,预测模型的输出是基于从参数分布确定的多组参数而确定的;以及将模型输入数据应用于预测模型,以获得针对模型输入数据的预测。基于这样的方法,可以获得更为准确的预测结果。

Description

用于分析数据的方法、设备和计算机存储介质
技术领域
本公开的实施例涉及人工智能领域,并且更具体地,涉及用于分析数据的方法、设备和计算机存储介质。
背景技术
随着计算机技术的不断发展,诸如深度神经网络等预测模型越来越多地被应用于图像识别、语音识别和目标检测等任务中。在预测的过程中,由于用于训练预测模型的样本有限,一旦实际处理的模型输入数据与训练样本存在差别时,预测模型可能会出现过于自信的误判。由此,预测模型难以准确地确定所作出的预测是否准确,这是不希望的。
发明内容
本公开的实施例提供一种用于分析数据的方案。
根据本公开的第一方面,提出了一种用于分析数据的方法。该方法包括:获取预测模型,预测模型中的一个处理层包括多个处理单元,多个处理单元中各处理单元的参数均满足目标参数分布,预测模型的输出是基于从参数分布确定的多组参数而确定的;以及将模型输入数据应用于预测模型,以获得针对模型输入数据的预测。
根据本公开的第二方面,提出了一种用于分析数据的设备。该设备包括:至少一个处理单元;至少一个存储器,该至少一个存储器被耦合到该至少一个处理单元并且存储用于由该至少一个处理单元执行的指令,该指令当由该至少一个处理单元执行时,使得该设备执行动作,该动作包括:获取预测模型,预测模型中的一个处理层包括多个处理单元,多个处理单元中各处理单元的参数均满足目标参数分布,预测模型的输出是基于从参数分布确定的多组参数而确定的;以及将模型输入数据应用于预测模型,以获得针对模型输入数据的预测。
在本公开的第三方面,提供了一种计算机可读存储介质。该计算机可读存储介质具有存储在其上的计算机可读程序指令,所述计算机可读程序指令用于执行根据第一方面所描述的方法。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1图示了本公开实施例可以在其中执行的环境的示意图;
图2图示了根据本公开实施例的分析数据的过程的流程图;
图3图示了根据本公开实施例的示例预测模型的示意图;
图4图示了根据本公开实施例的获取模型参数的过程的示意图;
图5图示了根据本公开实施例的获取预测的过程的示意图;
图6图示了根据本公开实施例的方案与传统方案的对比测试图;以及
图7图示了可以用来实施本公开内容的实施例的示例设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所描述,随着计算机技术的不断发展,诸如深度神经网络等预测模型越来越多地被应用于图像识别、语音识别和目标检测等任务中。人们越来越依赖于预测模型对模型输入数据的预测结果,尤其是在医疗诊断、金融投资、商业及公共决策等关键领域,预测结果的可靠性及稳定性尤为重要。因此,人们越来越关注如何能够提高预测模型对于预测结果的不确定性度量的准确性。
根据本公开的实施例,提供了一种用于分析数据的方案。在该方案中,首先可以获取预测模型,其中预测模型中的处理层包括多个处理单元,多个处理单元中各处理单元的参数均满足目标参数分布,预测模型的输出是基于从参数分布确定的多组参数而确定的。随后,模型输入数据可以被应用于预测模型,以获得针对模型输入数据的预测。通过这样的方式,由于预测模型仅限定了单处理层中参数的分布,而没有限定处理层中各处理单元的参数的具体值,因而为预测模型加入了随机性,并且这样的分布参数可以更为准确地反映预测输出的不确定性度量。
以下将参照附图来具体描述本公开的实施例。图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。如图1所示,该示例环境100包括计算设备130,其可以用于实施本公开中的多种实现中的确定预测的不确定度量。计算设备130可以接收预测模型110以及模型输入数据120,以输出针对模型输入数据120的预测140。在一些实施例中,计算设备130还可以生成针对预测140的不确定性度量150。
预测模型110是能够从已有数据中学习到一定的知识和能力用于处理新数据。预测模型110可以被设计用于执行各种任务,诸如图像分类、目标检测、语音识别、机器翻译、内容过滤等等。预测模型110的示例包括但不限于各类深度神经网络(DNN)、卷积神经网络(CNN)、支持向量机(SVM)、决策树、随机森林模型等等。在本公开的实现,预测模型也可以被称为“机器学习模型”。在下文中,术语“预测模型”、“神经网络”、“学习模型”、“学习网络”、“模型”和“网络”可替换地使用。
图1中将预测模型110示出为一种深度神经网络。深度神经网络具有分层架构,每一处理层(也称为网络层)具有一个或多个处理单元(也称为处理节点、神经元或滤波器),基于相应的参数对输入进行处理。在深度神经网络中,前一层执行处理后的输出是下一层的输入,其中架构中的第一层接收网络输入用于处理,而最后一层的输出被提供为网络输出。如图1所示,预测模型110包括处理层112,该处理层112包括一个或多个处理单元114。预测模型110的所有处理单元114处理所用的参数构成预测模型110的参数集。这样的参数集的具体取值需要通过训练过程来确定。
应当理解,图1示出的预测模型的架构以及其中的处理层和处理单元的数目均是示意性的,而非是限制性的。在不同的应用中,根据需要,预测模型可以被设计为具有其他适当的架构和/或适当的处理层数,每个处理层可以具有适当数目的处理单元。
在一些实施例中,计算设备120所接收的模型输入数据120是诸如图像、医疗数据、商业数据等的非时序数据,其中预测140可以是数据分析所获得的结果,具体地,预测模型110可以对于模型输入数据120执行以下操作中的至少一种:识别、分类、模式分析、特征检测以及提取。在一些实施例中,预测140可以是预测模型110对于模型输入数据120的分类预测,例如,当模型输入数据120为图像时,预测140可以是对于图像的分类结果(例如,图像中包括的对象是猫或者狗)。在一些实施例中,预测140也可以是预测模型对于模型输入数据120的回归预测,例如,当模型输入数据120为图像时,预测140可以是预测模型110输出的图像中特定对象的边界数据(例如,图像中包括的猫的边界像素)。
在一些实施例中,不确定性度量150可以用于反映预测模型110对于预测140的确定程度。在一些实施例中,可以采用贝叶斯活跃学习分歧度量(Bayesian Active Learningby Disagreement,BALD)作为本公开中的不确定性度量150。以下将详叙计算设备130生成预测140和不确定性度量150的过程。在一些实施例中,用于确定预测140的部分操作(如识别、分析、决策等)可在确定不确定性度量150之后进行。
下文将参考图2至图5来更详细描述用于分析数据的过程。图2示出了根据本公开的一些实施例的用于确定预测的不确定性度量的过程200的流程图。过程200可以由图1的计算设备130来实现。为了方便讨论,将结合图1来描述过程200。
在框202,计算设备130获取预测模型110,其中预测模型110中的一个处理层112包括多个处理单元114,多个处理单元114中各处理单元的参数均满足目标参数分布,预测模型110的输出是基于从参数分布确定的多组参数而确定的。在一些实施例中,目标参数分布可以指示处理单元的参数的取值范围及对应的取值概率,例如,标准正态分布等。在一些实施例中,如图1所示,预测模型110可以是基于深度神经网络,并且更具体地,是基于卷积神经网络。
图3示出了根据本公开实施例的示例预测模型110的示意图。如图3所示,预测模型110可以接收一个或多个输入数据310-1、310-2、…310-N(单独地或统一称为输入数据310)。应当理解,在预测模型110的预测阶段,输入数据310可以是图1中所示的模型输入数据120。在预测模型110的训练阶段,输入数据310可以是用于训练预测模型110的训练样本数据。预测模型110可以产生与一个或多个输入数据310-1、310-2、…310-N分别对应的输出数据320-1、320-2、…320-N(单独地或统一称为输出数据320)。
如图3所示,预测模型110包括处理层112,其中处理层112包括一个或多个处理单元114-1、114-2、114-3、……114-M(单独地或统一称为处理单元114)。在一些实施例中,处理层112可以是卷积神经网络的卷积层或者全连接层。通常地,一旦预测模型110被训练完成,则预测模型110中各处理单元114的参数(也称权重)通常是固定的。然而,如上文所讨论的,这样的参数设置无法准确反映模型的不确定性。根据本公开的方案,每个处理单元114的参数将被训练为满足目标参数分布,而不是被训练为一个确定的数值。通过这样的方式,预测模型110被引入了随机性,从而可以更为准确地反映对于预测140的不确定性。应当理解,预测模型110中的不同处理层中的处理单元可以具有不同的参数分布。
在一些实施例中,计算设备130还可以获取预测模型110的处理层120的目标参数分布。在一些实施例中,计算设备130可以从另一个神经网络接收已训练好的目标参数分布。作为备选实施例,计算设备130可以从存储器获得存储于其中的、已训练好的目标参数分布。在另一些备选实施例中,计算设备130也可以通过训练预测模型110,来获取目标参数分布。
以下将结合图4描述根据本公开实施例的通过训练预测模型来获取目标参数分布的方法400的过程。应当理解,方法400可以由图1中的计算设备130或其他计算设备来实施。为了方便描述,以下将以由计算设备130执行为示例来描述方法400。
如图4所示,在框402,计算设备130接收一组训练样本310。在一些实施例中,一组训练样本310也可以称为大小为N的一批样本,这一批样本可以被同时输入到预测模型110中。
在框404,基于初始参数分布,计算设备130初始化预测模型中的处理层112的参数。在一些实施例中,为了加速预测模型110的训练,计算设备130可以使得处理层112中的各处理单元114的参数满足同样的分布。例如,各处理单元114可以先被假定均满足均值为μ、标准差为αμ2的正态分布,其中α和μ即为待训练的目标参数分布。在一些实施例中,可以为预测模型110中的不同处理层指定不同的初始参数分布。
在框406,基于一组训练样本310,计算设备130确定针对处理层112的一组输入数据。在一些实施例中,如上文所述,处理层120可以是卷积神经网络中的卷积层、全连接层和/或其他适当的层。预测模型110可以基于常规的神经网路运算来对一组训练样本310进行处理,来确定针对处理层112的一组输入数据。例如,与一组训练样本310对应的一组输入数据例如可以被表示为xi,其中i为1到N。在一些实施例中,计算设备130可以确定该组输入数据xi的标准化表示
Figure BDA0001977861250000071
Figure BDA0001977861250000072
其中
Figure BDA0001977861250000077
和xstd可以基于以下公式被确定:
Figure BDA0001977861250000073
Figure BDA0001977861250000074
为了向预测模型引入随机性,计算设备130可以对输入数据进行加扰处理。在一些实施例中,计算设备130可以在标注化输入之后对经标准化的输入数据
Figure BDA0001977861250000078
进行加扰,以增强预测模型110的随机性。例如,可以对
Figure BDA0001977861250000079
添加满足均值为0,方差为1的高斯分布的随机扰动
Figure BDA00019778612500000710
Figure BDA0001977861250000075
在一些实施例中,计算设备130还可以在标准化操作之前对输入数据xi进行加扰处理,以增强预测模型110的随机性,即公式(2)可以被更新为:
Figure BDA0001977861250000076
应当理解,上述两种加扰方式仅是示意性的,还可以根据具体预测模型的需求选择其他任何合适的加扰方案。随后,计算设备130可以进一步将经标准化的输入数据
Figure BDA0001977861250000084
输入到处理层112以进行下一步处理。
在框408,基于一组输入数据和经初始化的参数,计算设备130确定处理层的多组输出数据。通常地,对于采用批归一化的预测模型,参数处理层112的输出
Figure BDA0001977861250000085
可以被表示为:
Figure BDA0001977861250000081
其中γ和β是需要通过训练确定的参数。在本公开的实施例中,考虑到处理层112的参数被假定均满足均值为μ、标准差为αμ2的正态分布,因此γ和β可以被表示为以下形式:
βi=xi⊙μ (7)
γi=sqrt(αxi 2⊙μ2) (8)
同样,计算设备130可以对
Figure BDA0001977861250000086
进行卷积操作以获得
Figure BDA00019778612500000810
最终,该处理层112的多组输出数据
Figure BDA0001977861250000088
可以被表示为:
Figure BDA0001977861250000082
在一些实施例中,考虑到预测模型因输入分布的变化的不确定性,计算设备130可以对
Figure BDA0001977861250000089
进行采样,并经过激活函数后作为预测模型下一层的输入。
在框410,基于多组输出数据,计算设备130调整初始参数分布以获得与真实参数分布接近的目标参数分布,其中目标参数分布使得预测模型的针对一组训练样本的预测与一组训练样本的标注数据接近。具体地,标注数据表示与该组训练样本相对应的预测所应当具有的真值。
在一些实施例中,通常地,为了向预测模型110引入随机性,在利用贝叶斯推断对预测模型110的参数进行估计时,预测模型110的目标函数可以被设置为:
Figure BDA0001977861250000083
其中,θ表示预测模型110的参数,α为超参数,n为样本的数目,X表示输入样本集,Y表示与样本集X对应的标注集,xn表示输入的第n个样本,yn与xn对应的标注,q(θ|X,Y)表示基于贝叶斯推断获得的后验分布,p(θ|X,Y)表示真实后验分布,p0(θ)表示参数的先验分布,例如可以是由用户指定的特定正态分布。KL[q(θ|X,Y)||p0(θ)]表示q(θ|X,Y)与p0(θ)之间的散度,Eq(pn(yn|xn,θ))α表示能量函数。基于以上目标函数(10),预测模型110的训练目标是使得基于贝叶斯推断的参数后验分布尽可能接近与已知的参数先验分布,并且使得基于该组参数θ所获得的预测结果尽可能的接近标注数据。
在一些实施例中,可以采用蒙特卡洛采样方法来计算公式(10)中的能量函数:
Figure BDA0001977861250000091
其中K表示蒙特卡洛采样次数。通常地,需要对处理层112中的每个处理单元114的权重进行采样,基于这样的方式,计算设备130共计需要进行KL次的采样,其中L表示预测模型处理层的数目。然而,这样的计算方式将带来极大的计算量,尤其是对于具有较多层数的深度神经网络,这样的计算方式难以使得预测模型快速且有效地收敛。
在一些实施例中,计算设备130可以仅对处理层112的输出(即公式(9))进行K次采样,并利用采样的平均值来确定能量函数。也即,在本公开的实施例中,目标函数(8)可以进一步被确定为:
Figure BDA0001977861250000092
其中
Figure BDA0001977861250000093
表示经K次采样所确定的参数的均值。
基于这样的方式,在假定了每一层的处理单元具有相同的参数分布后,对于具有L层隐含层的预测模型110,目标函数(12)只需要进行K*L的采样,从而大大减少了采样次数以及求解目标函数的计算量,从而能够加速预测模型110的训练的收敛。这样的目标函数(12)尤其能够提高具有较多层数或者是较大参数空间的网络模型的训练速度。
在一些实施例中,在确定目标函数(12)后,计算设备130可以基于目标函数(12)进行反向传播以调整预测模型110中各处理层的参数分布,以使得达到预测模型110的训练满足收敛条件。在一些实施例中,收敛条件可以是若干次连续迭代过程中目标函数(12)的变化值小于预定的阈值。在一些实施例中,收敛条件也可以是目标函数(12)的取值小于预定的阈值。在预测模型110满足收敛条件后,计算设备130可以获取针对预测模型110中的各处理层120的目标参数分布。
继续参考图2,在框204,计算设备130将模型输入数据120应用于预测模型110,以获得针对模型输入数据的预测140。以下将结合图5描述获取预测140的过程500。
如图5所示,在框502,基于参数分布,获取与处理层的多个处理单元相关联的多组参数集。以预测模型110中的处理层112作为示例,如上文所述,计算设备130可以获取处理层112中各处理单元114所满足的目标参数分布,例如,均满足均值为μ、标准差为αμ2的正态分布。在预测模型110的预测阶段,计算设备130可以基于目标参数分布进行多次采样,以获取处理层112中各处理单元114的多组参数集。例如,由于采样所带来的随机性,尽管处理单元114-1和114-2满足同样的参数分布,但是在同一次采样中,它们可以被确定为不同的参数。同样地,在不同采样中,同一个处理单元114-1页可以被确定为不同的参数。基于这样的方式,预测模型110的处理层112被加入了随机性。
在框504,计算设备130确定处理层的与多组参数集对应的多组输出数据。在一些实施例中,计算设备130可以基于公式(9)来确定与多组参数分别对应的多组输出。在预测的情况下,公式(9)中
Figure BDA0001977861250000101
可以被取值为模型输入数据120经处理后的到处理层112的输入x。
在框506,基于多组输出数据,计算设备130确定预测模型110的预测140。如上文所述,基于与训练过程中同样的参数传递过程,计算设备130可以对于多组输出数据进行采样,并经过激活函数后作为深度预测模型110中下一层的输入。基于这样的参数传递方式,计算设备130可以确定预测模型110的预测140,例如输入图像是包括猫还是包括狗的分类预测。基于根据本公开实施例的参数传递方案,预测模型110可以更为准确地确定针对模型输入数据120的预测140。
继续参考图2,在一些实施例中,方法200还可以包括框206,计算设备130至少基于目标参数分布,确定针对预测140的不确定性度量150。在一些实施例中,计算设备130可以计算针对预测140的BALD度量以作为不确定性度量,其中BALD度量可以基于以下公式被计算:
U=max(H(Y|X,D)-Eθ~p(θ|D)(H(Y|X,θ))) (13)
其中H表示信息熵,D表示训练数据集,X表示输入样本集,Y表示与样本集对应的预测数据集,θ表示预测模型110的参数。关于BALD度量的更详细介绍可以参见Neil Houlsby、Ferenc Huszár、Zoubin Ghahramani和Máté Lengyel发表的文章Bayesian ActiveLearning for classification and preference learning,在此不在详叙。应当理解,当BALD度量的值越大,则表示预测模型110对于预测140的不确定性越高。
在一些实施例中,计算设备130也可以采用常规的softmax置信度或者信息熵以作为本公开中的不确定性度量150。在一些实施例中,计算设备130还可以提供关于不确定性度量150的指示,例如,通过向用户显示不确定性度量150的具体值,或者告知用户该预测的不确定性较高,需要用户注意该模型输入数据120。
在一些实施例中,计算设备130还可以确定不确定度量150是否在预定的异常范围内,当不确定性度量150在预定的异常范围内时,计算设备130还可以使得模型输入数据120被标注。例如,可以将预定的异常范围设置为BALD度量大于特定值,例如,当预测模型110给出的分类结果的BALD度量值大于该特征值时,则表示该预测140的不确定性程度较大。或者,可以将预定的异常范围设置为softmax置信度小于特定值,当所求出的softmax置信度小于该特定值时,同样以指示该预测140的不确定性程度较大。在一些实施例中,例如计算设备130可以通过专家标注等手段来标注该模型输入数据120,以获得该模型输入数据120的标注数据。随后,计算设备130还可以利用经标注的模型输入数据训练预测模型。由于预测模型110对于该模型输入数据120的预测不确定性较高,所以通过专家模型标注的模型输入数据120用于训练该预测模型110时,可以提高预测模型110对于该类模型输入数据120的预测准确性,从而提高预测模型110的质量。
此外,经过测试,可以发现BALD度量相较于softmax置信度或者信息熵能够更加准确地体现预测模型110对于预测140的不确定性。具体地,图6示出了基于本公开的方案与传统的参数点估计方法的对比结果图。
图6示出了将本公开的方案与传统的基于参数点估计方案应用于10000个测试样本的对比图,其中x轴表示不同测试样本的softmax置信度取值,而y轴表示不同测试样本的BALD度量,其中图6中的(A)图表示使用本公开的方案与基于传统方案均预测正确的对比图;(B)图表示本公开的方案预测错误但传统方案预测正确的对比图;(C)图表示本公开的方案预测正确但传统方案预测错误的对比图;(D)图表示本公开的方案与传统方案均预测错误的对比图。由图6可以看出,本公开的方案的预测准确度为97.96%,其相比传统的参数点估计方案(96.68%)具有更高的准确度。此外,通过比较BALD度量和softmax置信度可以看出,从(C)图中可以看到,样本更加集中于BALD度量值较高的区域,BALD度量可以更好地区分本公开的方案预测正确但传统方案预测错误的样本。
通过上文所述的方式,本公开的方案既解决了传统的贝叶斯推断方法在高维度参数空间难以快速收敛且计算开销巨大的缺陷,又为预测模型了引入了随机性,从而能够更为准确地确定针对模型输入数据的预测,并且能够获得更为准确地反映针对预测的不确定性的不确定性度量,进而可以筛选出预测模型难以准确预测的输入数据。
图7示出了可以用来实施本公开内容的实施例的示例设备700的示意性框图。例如,如图1所示的计算设备130可以由设备700来实施。如图所示,设备700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的计算机程序指令或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序指令,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法200、方法400和/或方法500,可由处理单元701执行。例如,在一些实施例中,方法200、方法400和/或方法500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序被加载到RAM 703并由CPU 701执行时,可以执行上文描述的方法200、方法400和/或方法500的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是、但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。

Claims (21)

1.一种用于分析数据的方法:
获取预测模型,所述预测模型中的一个处理层包括多个处理单元,所述多个处理单元中各处理单元的参数均满足目标参数分布,所述预测模型的输出是基于从所述参数分布确定的多组参数而确定的;以及
将模型输入数据应用于所述预测模型,以获得针对所述模型输入数据的预测。
2.根据权利要求1所述的方法,还包括:
至少基于所述目标参数分布,确定针对所述预测的不确定性度量。
3.根据权利要求1所述的方法,还包括:
获取针对所述预测模型的所述处理层的所述目标参数分布。
4.根据权利要求3所述的方法,其中获取所述目标参数分布包括:
接收一组训练样本;
基于初始参数分布,初始化所述预测模型中的所述处理层的所述参数;
基于所述一组训练样本,确定针对所述处理层的一组输入数据;
基于所述一组输入数据和经初始化的所述参数,确定所述处理层的多组输出数据;以及
基于所述多组输出数据,调整所述初始参数分布以获得与真实参数分布接近的所述目标参数分布,其中所述目标参数分布使得所述预测模型的针对所述一组训练样本的预测与所述一组训练样本的标注数据接近,其中所述预定参数分布指示所述参数的取值范围。
5.根据权利要求1所述的方法,其中获得所述预测包括:
基于所述参数分布,获取与所述处理层的所述多个处理单元相关联的多组参数集;
确定所述处理层的与所述多组参数集对应的多组输出数据;以及基于所述多组输出数据,确定所述预测模型的所述预测。
6.根据权利要求1所述的方法,其中所述预测模型基于卷积神经网络,所述处理层是所述卷积神经网络中的卷积层和全连层中的至少一层。
7.根据权利要求1所述的方法,其中所述模型输入数据为非时序数据。
8.根据权利要求2所述的方法,还包括:
提供关于所述不确定性度量的指示。
9.根据权利要求2所述的方法,还包括:
响应于所述不确定性度量在预定的异常范围内,使得所述模型输入数据被标注;以及
利用经标注的所述模型输入数据训练所述预测模型。
10.根据权利要求2所述的方法,其中所述不确定性度量包括以下中的至少一项:SOFTMAX置信度、贝叶斯活跃学习分歧BALD度量和信息熵。
11.一种用于分析数据的设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
获取预测模型,所述预测模型中的一个处理层包括多个处理单元,所述多个处理单元中各处理单元的参数均满足目标参数分布,所述预测模型的输出是基于从所述参数分布确定的多组参数而确定的;以及
将模型输入数据应用于所述预测模型,以获得针对所述模型输入数据的预测。
12.根据权利要求11所述的设备,所述动作还包括:
至少基于所述目标参数分布,确定针对所述预测的不确定性度量。
13.根据权利要求11所述的设备,所述动作还包括:
获取针对所述预测模型的所述处理层的所述目标参数分布。
14.根据权利要求13所述的设备,其中获取所述目标参数分布包括:
接收一组训练样本;
基于初始参数分布,初始化所述预测模型中的所述处理层的所述参数;
基于所述一组训练样本,确定针对所述处理层的一组输入数据;
基于所述一组输入数据和经初始化的所述参数,确定所述处理层的多组输出数据;以及
基于所述多组输出数据,调整所述初始参数分布以获得与真实参数分布接近的所述目标参数分布,其中所述目标参数分布使得所述预测模型的针对所述一组训练样本的预测与所述一组训练样本的标注数据接近,其中所述预定参数分布指示所述参数的取值范围。
15.根据权利要求11所述的设备,其中获得所述预测包括:
基于所述参数分布,获取与所述处理层的所述多个处理单元相关联的多组参数集;
确定所述处理层的与所述多组参数集对应的多组输出数据;以及基于所述多组输出数据,确定所述预测模型的所述预测。
16.根据权利要求11所述的设备,其中所述预测模型基于卷积神经网络,所述处理层是所述卷积神经网络中的卷积层和全连层中的至少一层。
17.根据权利要求11所述的设备,其中所述模型输入数据为非时序数据。
18.根据权利要求12所述的设备,所述动作还包括:
提供关于所述不确定性度量的指示。
19.根据权利要求12所述的设备,所述动作还包括:
响应于所述不确定性度量在预定的异常范围内,使得所述模型输入数据被标注;以及
利用经标注的所述模型输入数据训练所述预测模型。
20.根据权利要求12所述的设备,其中所述不确定性度量包括以下中的至少一项:SOFTMAX置信度、贝叶斯活跃学习分歧BALD度量和信息熵。
21.一种计算机可读存储介质,具有存储在其上的计算机可读程序指令,所述计算机可读程序指令用于执行根据权利要求1-10中任一项所述的方法。
CN201910138788.5A 2019-02-25 2019-02-25 用于分析数据的方法、设备和计算机存储介质 Pending CN111612022A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910138788.5A CN111612022A (zh) 2019-02-25 2019-02-25 用于分析数据的方法、设备和计算机存储介质
US17/433,941 US20220148290A1 (en) 2019-02-25 2020-01-21 Method, device and computer storage medium for data analysis
JP2021549650A JP2022521957A (ja) 2019-02-25 2020-01-21 データ分析方法、デバイス及びコンピュータプログラム
PCT/CN2020/073628 WO2020173270A1 (zh) 2019-02-25 2020-01-21 用于分析数据的方法、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910138788.5A CN111612022A (zh) 2019-02-25 2019-02-25 用于分析数据的方法、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
CN111612022A true CN111612022A (zh) 2020-09-01

Family

ID=72202837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910138788.5A Pending CN111612022A (zh) 2019-02-25 2019-02-25 用于分析数据的方法、设备和计算机存储介质

Country Status (4)

Country Link
US (1) US20220148290A1 (zh)
JP (1) JP2022521957A (zh)
CN (1) CN111612022A (zh)
WO (1) WO2020173270A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630677B (zh) * 2022-11-07 2023-10-13 北京百度网讯科技有限公司 任务处理方法、装置、电子设备及介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116205283B (zh) * 2023-04-28 2023-08-25 北京爱芯科技有限公司 数据处理方法、装置、电子设备和计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654174B (zh) * 2014-11-11 2021-08-20 日本电气株式会社 用于预测的系统和方法
CN108985313A (zh) * 2018-05-23 2018-12-11 上海电力学院 基于大数据与贝叶斯神经网络的agc系统辨识方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115630677B (zh) * 2022-11-07 2023-10-13 北京百度网讯科技有限公司 任务处理方法、装置、电子设备及介质

Also Published As

Publication number Publication date
WO2020173270A1 (zh) 2020-09-03
US20220148290A1 (en) 2022-05-12
JP2022521957A (ja) 2022-04-13

Similar Documents

Publication Publication Date Title
CN109376267B (zh) 用于生成模型的方法和装置
CN109447156B (zh) 用于生成模型的方法和装置
CN111340233B (zh) 机器学习模型的训练方法及装置、样本处理方法及装置
JP7480811B2 (ja) サンプル分析の方法、電子装置、コンピュータ可読記憶媒体、及びコンピュータプログラム
US20230325675A1 (en) Data valuation using reinforcement learning
US20220382880A1 (en) System and method for adversarial vulnerability testing of machine learning models
CN111950647A (zh) 分类模型训练方法和设备
CN111612022A (zh) 用于分析数据的方法、设备和计算机存储介质
JP2023116599A (ja) 距離に基づく学習信頼度モデル
CN112486784A (zh) 诊断和优化数据分析系统的方法、设备和介质
CN110059743B (zh) 确定预测的可靠性度量的方法、设备和存储介质
CN116662555B (zh) 一种请求文本处理方法、装置、电子设备及存储介质
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
US20240046065A1 (en) System, devices and/or processes for defining a search space for neural network processing device architectures
US11907663B2 (en) Methods for unsupervised prediction of performance drop due to domain shift
US10650318B2 (en) Systems and methods of determining sufficient causes from multiple outcomes
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
CN113497732A (zh) 一种传输性能预测模型的训练方法及其相关设备
Diakonikolas et al. Distribution-Independent Regression for Generalized Linear Models with Oblivious Corruptions
US20220172088A1 (en) Model selection for discrete latent variable models
CN113469932A (zh) 信息处理的方法、电子设备和介质
US20230034322A1 (en) Computer-implemented method, device, and computer program product
US20230368063A1 (en) Variational analog quantum oracle learning
Cao et al. Confidence Calibration of Hand Gesture Recognition Networks Based on Ensemble Learning
Gómez-Sancho et al. Importance Weighted Adversarial Variational Bayes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination