CN113469932A - 信息处理的方法、电子设备和介质 - Google Patents

信息处理的方法、电子设备和介质 Download PDF

Info

Publication number
CN113469932A
CN113469932A CN202010245469.7A CN202010245469A CN113469932A CN 113469932 A CN113469932 A CN 113469932A CN 202010245469 A CN202010245469 A CN 202010245469A CN 113469932 A CN113469932 A CN 113469932A
Authority
CN
China
Prior art keywords
image
weight
determining
analysis engine
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010245469.7A
Other languages
English (en)
Inventor
陈小异
李岩
全力
张霓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to CN202010245469.7A priority Critical patent/CN113469932A/zh
Publication of CN113469932A publication Critical patent/CN113469932A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例涉及信息处理的方法、电子设备和计算机存储介质。该方法包括:将一组训练图像中的第一图像应用于图像分析引擎,以确定针对第一图像的预测结果以及与预测结果相关联的不确定性度量;基于预测结果以及不确定性度量,确定与第一图像的损失函数相关联的第一权重;以及至少基于第一权重,利用一组训练图像来训练图像分析引擎,以使得与一组训练图像相关联的总损失函数的值满足预定的收敛条件。基于这样的方法,可以使得图像分析引擎更为鲁棒,提高图像分析的准确性。

Description

信息处理的方法、电子设备和介质
技术领域
本公开的实施例涉及人工智能领域,并且更具体地,涉及用于信息处理的方法、电子设备和计算机存储介质。
背景技术
随着计算机技术的不断发展,人们越来越多利用诸如深度神经网络等图像分析引擎来对图像进行处理。例如,人们可以利用深度神经网络来处理医学图像以进行病理区域检测等。在利用图像分析引擎来处理图像的过程中,由于用于训练图像分析引擎的样本有限,这可能会导致所训练得到的图像分析引擎出现过拟合的现象,从而造成图像分析的结果出现偏差。
发明内容
本公开的实施例提供一种用于信息处理的方案。
根据本公开的第一方面,提出了一种用于信息处理的方法。该方法包括:将一组训练图像中的第一图像应用于图像分析引擎,以确定针对第一图像的预测结果以及与预测结果相关联的不确定性度量;基于预测结果以及不确定性度量,确定与第一图像的损失函数相关联的第一权重;以及至少基于第一权重,利用一组训练图像来训练图像分析引擎,以使得与一组训练图像相关联的总损失函数的值满足预定的收敛条件。
根据本公开的第二方面,提出了一种电子设备。该设备包括:至少一个处理单元;至少一个存储器,该至少一个存储器被耦合到该至少一个处理单元并且存储用于由该至少一个处理单元执行的指令,该指令当由该至少一个处理单元执行时,使得该设备执行动作,该动作包括:将一组训练图像中的第一图像应用于图像分析引擎,以确定针对第一图像的预测结果以及与预测结果相关联的不确定性度量;基于预测结果以及不确定性度量,确定与第一图像的损失函数相关联的第一权重;以及至少基于第一权重,利用一组训练图像来训练图像分析引擎,以使得与一组训练图像相关联的总损失函数的值满足预定的收敛条件。
在本公开的第三方面,提供了一种计算机可读存储介质。该计算机可读存储介质具有存储在其上的计算机可读程序指令,该计算机可读程序指令用于执行根据第一方面所描述的方法。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1图示了本公开实施例可以在其中执行的环境的示意图;
图2图示了根据本公开实施例的信息处理的过程的流程图;
图3图示了根据本公开实施例的信息处理的过程的示意图;
图4图示了根据本公开实施例的确定不确定性度量的过程的流程图;以及
图5图示了可以用来实施本公开内容的实施例的示例设备的示意性框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所描述,随着计算机技术的不断发展,们越来越多利用诸如深度神经网络等图像分析引擎(也称为图像分析模型)来对图像进行处理。例如,人们可以利用深度神经网络来处理医学图像以进行病理区域检测,或者可以利用深度数据网络来识别图像中所包含的对象。在利用图像分析引擎来处理图像的过程中,由于用于训练图像分析引擎的样本有限,这可能会导致所训练得到的图像分析引擎出现过拟合的现象。过拟合会导致图像分析引擎在处理新的图像时可能会出现预测结果偏差较大,进而影响图像分析引擎的准确性。因此,人们越来越关注如何能够提高图像分析引擎的鲁棒性。
根据本公开的实施例,提供了一种用于信息处理的方案。在该方案中,首先,一组训练图像中的第一图像被应用于图像分析引擎,并确定针对第一图像的预测结果以及与预测结果相关联的不确定性度量。随后,基于所确定的预测结果以及不确定性度量,可以确定与第一图像的损失函数相关联的第一权重,并且可以基于所确定的第一权重,利用一组训练图像来训练图像分析引擎,以使得与一组训练图像相关联的总损失函数的值满足预定的收敛条件。通过这样的方式,本公开的实施例可以获得更为鲁棒的图像分析引擎,从而提高信息处理的准确度。
示例环境
以下将参照附图来具体描述本公开的实施例。图1示出了本公开的多个实施例能够在其中实现的示例环境100的示意图。如图1所示,该示例环境100包括计算设备130,其可以用于实施本公开中的多种实现中的图像分析过程。计算设备130可以接收待训练的图像分析引擎110以及一组训练图像120-1至120-N(单独或统一称为图像120)。计算设备130可以利用图像分析引擎110来处理图像120,以生成针对图像120的预测结果140以及针对该预测结果的不确定性度量150。进一步地,计算设备130可以基于预测结果140和不确定度量150来调整与对应的图像120的损失函数相关联的权重,并基于调整后的权重来利用图像120训练图像分析引擎110,以获得经训练的图像分析引擎。
图像分析引擎110是能够从已有数据(训练样本)中学习到一定的知识和能力用于处理新的图像的模型。图像分析引擎110可以被设计用于执行各种图像处理任务,诸如图像分类、目标检测、前景识别、边缘检测等等。图像分析引擎110的示例包括但不限于各类深度神经网络(DNN)、卷积神经网络(CNN)、支持向量机(SVM)、决策树、随机森林模型等等。在本公开的实现,预测模型也可以被称为“机器学习模型”。在下文中,术语“引擎”、“神经网络”、“学习模型”、“学习网络”、“模型”和“网络”可替换地使用。
在一些实施例中,图像分析引擎可以是一种深度神经网络。深度神经网络具有分层架构,每一处理层(也称为网络层)具有一个或多个处理单元(也称为处理节点、神经元或滤波器),基于相应的参数对输入进行处理。在深度神经网络中,前一层执行处理后的输出是下一层的输入,其中架构中的第一层接收网络输入用于处理,而最后一层的输出被提供为网络输出。
在一些实施例中,计算设备130所接收的图像120例如可以包括医学图像,其中预测结果140可以是图像分析所获得的结果。具体地,图像分析引擎110可以包括图像分类引擎、图像分割引擎;或者对象检测引擎,以对于图像120执行以下操作中的至少一种:识别、分类、模式分析、特征检测以及提取。在一些实施例中,预测结果140可以是图像分析引擎110对于图像120的分类预测。例如,预测结果140可以是对于图像120的分类结果(例如,图像120中包括的对象是“猫”或者“狗”)。在一些实施例中,预测结果120也可以是图像分析引擎110对于图像120的回归预测。例如,预测结果140可以是图像分析模型110输出的图像120中特定对象的边界数据(例如,图像120中所包括的“病理区域”的边界像素点)。
在一些实施例中,不确定性度量150可以用于反映图像分析引擎110对于预测结果140的确定程度。在一些实施例中,可以采用贝叶斯活跃学习分歧度量(Bayesian ActiveLearning by Disagreement,BALD)作为本公开中的不确定性度量150。以下将详叙计算设备130生成预测结果140和不确定性度量150并训练图像分析引擎110的过程。在一些实施例中,用于确定预测结果140的部分操作(如识别、分析、决策等)可在确定不确定性度量150之后进行。
基于不确定性度量的信息处理
下文将参考图2-图4来更详细描述信息处理的过程。图2示出了根据本公开的一些实施例的用于信息处理的过程200的流程图。过程200可以由图1的计算设备130来实现。为了方便讨论,将结合图1来描述过程200。
如图2所示,在框202,计算设备130将一组训练图像120中的第一图像120-1应用于图像分析引擎110,以确定针对第一图像120-1的预测结果140以及与预测结果140相关联的不确定性度量150。具体地,不确定性度量150可以指示图像分析引擎110针对预测结果140的确定程度。
以下将参考图3来描述利用图像分析引擎110来处理第一图像120-1的过程的示意图。如图3所示,第一图像120-1被输入到图像分析引擎110的基干网络(backbone network)302,其是实现图像分析引擎110的处理的主要部分,不同类型的图像分析引擎110可以具有不同的基干网络302。随后,基干网络302的输出304被提供到卷积层306,其中卷积层306执行卷积操作,并最终获得针对第一图像120-1的预测结果140。应当理解,生成预测结果140的过程与通常的神经网络处理过程一致,在此不在详叙。
如图3所示,图像分析引擎110包括贝叶斯卷积层308。基干网络302的输出304还被提供到贝叶斯卷积层308。与传统的卷积层(例如,卷积层306)不同,可以在传统的卷积层上施加可变贝叶斯推断,使得贝叶斯卷积层308中的权重通过分布来表示,例如,可以预先设定贝叶斯卷积层308中的参数满足以下分布:w~N(k,λk2),即权重满足均值为k,方差为λk2的正态分布。
以下将参考图4来描述确定不确定性度量的过程。图4示出了根据本公开实施例的确定不确定性度量的示例过程400的流程图。如图4所示,在框402,计算设备130可以通过对贝叶斯卷积层308的输出进行多次采样来确定贝叶斯卷积层308的权重的分布。继续参考图3所讨论的,贝叶斯卷积层308的输出可以被表示为公式(1):
Figure BDA0002433876510000061
其中x表示基干网络302的输入304,也即贝叶斯卷积层308的输入;⊙表示卷积运算,ε为满足均值为0且方差为1的正态分布的随机变量,K表示采样的次数,例如20次。通过对输出进行多次采样,计算设备130可以确定k和λ的取值。
在框404,计算设备130可以基于权重的分布来确定输出的均值310与方差312。在确定k和λ的取值后,计算设备130可以通过计算公式(1)中的x⊙k以及
Figure BDA0002433876510000062
来分别确定输出的均值310与方差312。
在框406,计算设备130可以基于均值310和方差312来确定与预测结果140相关联的不确定性度量150。例如,计算设备130可以采用贝叶斯活跃学习分歧度量(BayesianActive Learning by Disagreement,BALD)作为本公开中的不确定性度量150。具体地,BALD的值可以基于公式(2)而被确定:
Figure BDA0002433876510000071
其中μ表示均值310;σ2表示方差312;C为常量,其例如可以取值为
Figure BDA0002433876510000072
h表示二进制熵运算;ρ表示高斯累计密度计算。关于BALD度量的更详细介绍可以参见NeilHoulsby、Ferenc Huszár、Zoubin Ghahramani和MátéLengyel发表的文章Bayesian ActiveLearning for classification and preference learning,在此不再详叙。应当理解,当BALD度量的值越大,则表示图像分析引擎110对于预测结果140的不确定性越高。
继续参考图2,在框204,计算设备130基于预测结果140以及不确定性度量150,确定与第一图像120-1的损失函数相关联的第一权重314。
在一些实施例中,权重314可以根据公式(3)被确定:
Figure BDA0002433876510000073
其中U为经归一化的不确定性度量150。具体地,在确定权重314时,计算设备130可以确定预测结果140与第一图像120-1的真值(ground-truth)316进行比较。在确定预测结果140与对应于第一图像120-1的真值316相符时,即图像分析引擎110对于第一图像120-1的预测结果140正确时,计算设备130可以确定第一权重314以使得第一权重314与不确定性度量310成正比。附加地,在确定预测结果140与对应于第一图像120-1的真值316不相符,即图像分析引擎110对于第一图像120-1的预测结果140错误时,计算设备130可以确定第一权重314以使得第一权重314随不确定性度量150的增加而减小。
在一些实施例中,对于分类的问题,计算设备130可以将具有较高概率的分类结果确定为预测结果140,计算设备130可以将具有较高概率的分类结果与真值316比较,来确定预测结果140是否与真值相符。在又一些实施例中,对于图像分割问题,计算设备130可以的所输出的框中的点是否准确,来确定预测结果140是否与真值316相符。通过上文公式(3)所定义的权重314的确定方法,预测结果正确的图像将被分配较低的权重,而预测结果错误的图像将被分配更高的权重。
继续参考图2,在框206,计算设备130至少基于第一权重314并利用一组训练图像120来训练图像分析引擎110,以使得与一组训练图像120相关联的总损失函数的值满足预定的收敛条件。
在利用一组训练图像120来训练图像分析引擎110的过程中,计算设备130可以通过考虑一组训练图像120的总损失函数的值来确定是否满足收敛条件。具体地,计算设备130可以确定与一组训练图像120中的除第一图像120-1以外的至少一个第二图像的损失函数相关联的至少一个第二权重。随手,计算设备130可以基于第一权重和至少一个第二权重,确定与一组训练图像120相关联的总损失函数的值。例如,计算设备130可以将与一组训练图像120中的每个图像对应的损失函数的值的加权和确定为总损失函数的值。
随后,计算设备130可以利用一组训练图像120来训练图像分析引擎110以使得总损失函数的值满足收敛条件。通过迭代地训练图像分析引擎110(即,调整图像分析引擎110中各层的权重),总损失函数的值将发生变化。在一些实施例中,收敛条件可以是使得迭代过程中总损失函数的值的变化小于预定的阈值。
在一些实施例中,在完成图像分析引擎110的训练后,计算设备130可以接收待预测的图像,并利用经训练的图像分析引擎处理待预测的图像,以确定针对待预测的图像的预测结果。
基于上文所描述的信息分析的方法,本公开的实施例通过使得预测错误的样本相对于预测正确的样本具有更高的权重,预测正确的样本中不确定性越高的样本具有更高的权重,预测错误的样本不确定性较低的样本具有较低的权重。通过这样的方式,本公开的实施例可以使得图像分析引擎在训练的过程中聚焦预测错误或者预测困难的样本,从而能够提高图像分析引擎的准确性。
实验数据
通过利用上文所讨论的方法来训练图像分析引擎并利用经训练的图像分析引擎来对图像进行处理,可以获得相对于传统方案更优的性能。
实验一
在VOC07的图像对象检测测试中(Darknet 53作为基干网络),本公开的方法可以获得更高的准确度,具体数据如下表。
方法 均值平均精度(mAP)
Baseline 76.62%
Obj_Focal loss 75.18%
Obj_Anchor loss 76.43%
本公开的方法 77.34%
实验二
在CIFAR-10的图像分类测试中(Resnet50作为基干网络),本公开的方法可以获得更高的准确度,具体数据如下表。
方法 准确度
CE 92.88%
Focal loss 93.07%
Anchor loss 93.13%
本公开的方法 93.56%
实验三
在LIDC数据集的图像分割测试中,本公开的方法可以获得更高的准确度,具体数据如下表:
Figure BDA0002433876510000091
Figure BDA0002433876510000101
在上表中,Gaccu表示分割结果的平均准确性。Maccu代表分割的前景区域(病变区域)的平均准确性。MIou代表分割区域和给定的真值区域的平均重叠。Mdice代表分割后的前景区域和真值区域的平均骰子得分。这些参数的值越大,则表示模型的性能越高。
通过以上实验能够看到,本公开的方法在图像对象检测、图像分类以及图像分割场景中均获得了更优的性能,其能够提高图像分析引擎的预测结果的准确性。
示例设备
图5示出了可以用来实施本公开内容的实施例的示例设备500的示意性框图。例如,如图1所示的计算设备130可以由设备500来实施。如图所示,设备500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的计算机程序指令或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序指令,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如过程200,可由处理单元501执行。例如,在一些实施例中,过程200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序被加载到RAM 503并由CPU 501执行时,可以执行上文描述的过程200的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是、但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
本公开可以被实现为系统、方法和/或计算机程序产品。当本公开被实现为系统时,除了能够在单个设备上实现之外,本文所描述的部件还可以以云计算架构的形式来实现。在云计算环境中,这些部件可以被远程布置,并且可以一起工作以实现本公开所描述的功能。云计算可以提供计算、软件、数据访问和存储服务,它们不需要终端用户知晓提供这些服务的系统或硬件的物理位置或配置。云计算可以使用适当的协议通过广域网(诸如因特网)提供服务。例如,云计算提供商通过广域网提供应用,并且它们可以通过浏览器或任何其他计算组件被访问。云计算的部件以及相应的数据可以被存储在远程服务器上。云计算环境中的计算资源可以在远程数据中心位置处被合并,或者这些计算资源可以被分散。云计算基础设施可以通过共享数据中心提供服务,即使它们表现为针对用户的单一访问点。因此,可以使用云计算架构从远程服务提供商提供本文所描述的各种功能。备选地,它们可以从常规服务器被提供,或者它们可以直接或以其他方式被安装在客户端设备上。此外,本公开还可以被实现为计算机程序产品,该计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施方式,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施方式。在不偏离所说明的各实施方式的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施方式的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施方式。

Claims (17)

1.一种信息处理的方法,包括:
将一组训练图像中的第一图像应用于图像分析引擎,以确定针对所述第一图像的预测结果以及与所述预测结果相关联的不确定性度量;
基于所述预测结果以及所述不确定性度量,确定与所述第一图像的损失函数相关联的第一权重;以及
至少基于所述第一权重,利用所述一组训练图像训练所述图像分析引擎,以使得与所述一组训练图像相关联的总损失函数的值满足预定的收敛条件。
2.根据权利要求1所述的方法,其中确定所述第一权重包括:
根据确定所述预测结果与对应于所述第一图像的真值相符,确定所述第一权重,使得所述第一权重与所述不确定性度量成正比。
3.根据权利要求1所述的方法,其中确定所述第一权重包括:
根据确定所述预测结果与对应于所述第一图像的真值不相符,确定所述第一权重,使得所述第一权重随所述不确定性度量的增加而减小。
4.根据权利要求1所述的方法,其中所述图像分析引擎包括以下中的至少一项:
图像分类引擎;
图像分割引擎;或者
对象检测引擎。
5.根据权利要求1所述的方法,还包括:
利用经训练的图像分析引擎处理待预测的图像,以确定针对所述待预测的图像的预测结果。
6.根据权利要求1所述的方法,其中所述图像分析引擎包括贝叶斯卷积层,并且所述方法还包括:
通过对所述贝叶斯卷积层的输出进行多次采样,确定所述贝叶斯卷积层中的权重的分布;
基于所述分布,确定所述输出的均值与方差;以及
基于所述均值和所述方差,确定与所述预测结果相关联的所述不确定性度量。
7.根据权利要求1所述的方法,其中利用所述一组训练图像训练所述图像分析引擎包括:
确定与所述一组训练图像中的除所述第一图像以外的至少一个第二图像的损失函数相关联的至少一个第二权重;
基于所述第一权重和所述至少一个第二权重,确定与所述一组训练图像相关联的总损失函数的值;以及
利用所述一组图像训练所述图像分析引擎,使得所述总损失函数的值满足所述收敛条件。
8.根据权利要求1所述的方法,其中所述收敛条件包括所述总损失函数的值的变化小于预定的阈值。
9.一种电子设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时使得所述设备执行动作,所述动作包括:
将一组训练图像中的第一图像应用于图像分析引擎,以确定针对所述第一图像的预测结果以及与所述预测结果相关联的不确定性度量;
基于所述预测结果以及所述不确定性度量,确定与所述第一图像的损失函数相关联的第一权重;以及
至少基于所述第一权重,利用所述一组训练图像训练所述图像分析引擎,以使得与所述一组训练图像相关联的总损失函数的值满足预定的收敛条件。
10.根据权利要求9所述的设备,其中确定所述第一权重包括:
根据确定所述预测结果与对应于所述第一图像的真值相符,确定所述第一权重,使得所述第一权重与所述不确定性度量成正比。
11.根据权利要求9所述的设备,其中确定所述第一权重包括:
根据确定所述预测结果与对应于所述第一图像的真值不相符,确定所述第一权重,使得所述第一权重随所述不确定性度量的增加而减小。
12.根据权利要求9所述的设备,其中所述图像分析引擎包括以下中的至少一项:
图像分类引擎;
图像分割引擎;或者
对象检测引擎。
13.根据权利要求9所述的设备,所述动作还包括:
利用经训练的图像分析引擎处理待预测的图像,以确定针对所述待预测的图像的预测结果。
14.根据权利要求9所述的设备,其中所述图像分析引擎包括贝叶斯卷积层,并且所述动作还包括:
通过对所述贝叶斯卷积层的输出进行多次采样,确定所述贝叶斯卷积层中的权重的分布;
基于所述分布,确定所述输出的均值与方差;以及
基于所述均值和所述方差,确定与所述预测结果相关联的所述不确定性度量。
15.根据权利要求9所述的设备,其中利用所述一组训练图像训练所述图像分析引擎包括:
确定与所述一组训练图像中的除所述第一图像以外的至少一个第二图像的损失函数相关联的至少一个第二权重;
基于所述第一权重和所述至少一个第二权重,确定与所述一组训练图像相关联的总损失函数的值;以及
利用所述一组图像训练所述图像分析引擎,使得所述总损失函数的值满足所述收敛条件。
16.根据权利要求9所述的设备,其中所述收敛条件包括所述总损失函数的值的变化小于预定的阈值。
17.一种计算机可读存储介质,具有存储在其上的计算机可读程序指令,所述计算机可读程序指令用于执行根据权利要求1-8中任一项所述的方法。
CN202010245469.7A 2020-03-31 2020-03-31 信息处理的方法、电子设备和介质 Pending CN113469932A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010245469.7A CN113469932A (zh) 2020-03-31 2020-03-31 信息处理的方法、电子设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010245469.7A CN113469932A (zh) 2020-03-31 2020-03-31 信息处理的方法、电子设备和介质

Publications (1)

Publication Number Publication Date
CN113469932A true CN113469932A (zh) 2021-10-01

Family

ID=77865588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010245469.7A Pending CN113469932A (zh) 2020-03-31 2020-03-31 信息处理的方法、电子设备和介质

Country Status (1)

Country Link
CN (1) CN113469932A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130275A1 (en) * 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
CN109902801A (zh) * 2019-01-22 2019-06-18 华中科技大学 一种基于变分推理贝叶斯神经网络的洪水集合预报方法
CN110516512A (zh) * 2018-05-21 2019-11-29 北京中科奥森数据科技有限公司 行人属性分析模型的训练方法、行人属性识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130275A1 (en) * 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
CN110516512A (zh) * 2018-05-21 2019-11-29 北京中科奥森数据科技有限公司 行人属性分析模型的训练方法、行人属性识别方法及装置
CN109902801A (zh) * 2019-01-22 2019-06-18 华中科技大学 一种基于变分推理贝叶斯神经网络的洪水集合预报方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NEIL HOULSBY等: "Bayesian Active Learning for Classication andPreference Learning", 《ARXIV》, 24 December 2011 (2011-12-24), pages 1 - 17 *

Similar Documents

Publication Publication Date Title
CN108229419B (zh) 用于聚类图像的方法和装置
CN108280477B (zh) 用于聚类图像的方法和装置
CN111523640B (zh) 神经网络模型的训练方法和装置
US11379718B2 (en) Ground truth quality for machine learning models
CN113692594A (zh) 通过强化学习的公平性改进
CN113837205B (zh) 用于图像特征表示生成的方法、设备、装置和介质
WO2018157752A1 (en) Approximate random number generator by empirical cumulative distribution function
CN108564102A (zh) 图像聚类结果评价方法和装置
CN111435461B (zh) 使用降低精度的深度神经网络的对抗性输入识别
US10956682B2 (en) Image object disambiguation resolution using learner model based conversation templates
EP4002216A1 (en) Method for recommending object, neural network, computer program product and computer-readable storage medium
CN115810135A (zh) 样本分析的方法、电子设备、存储介质和程序产品
US20220156585A1 (en) Training point cloud processing neural networks using pseudo-element - based data augmentation
CN113822444A (zh) 模型训练及数据处理的方法、设备和计算机可读存储介质
US20220207861A1 (en) Methods, devices, and computer readable storage media for image processing
CN111612022A (zh) 用于分析数据的方法、设备和计算机存储介质
CN111368973A (zh) 用于训练超网络的方法和装置
US20220207866A1 (en) Method, device, and computer readable storage medium for image processing
CN112149754B (zh) 一种信息的分类方法、装置、设备及存储介质
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
US20220171985A1 (en) Item recommendation with application to automated artificial intelligence
CN116569210A (zh) 归一化oct图像数据
CN110059743B (zh) 确定预测的可靠性度量的方法、设备和存储介质
CN116109907B (zh) 目标检测方法、装置、电子设备及存储介质
CN114693052A (zh) 风险预测模型的训练方法、装置、计算设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination