CN117591908A - 用于机器学习模型的具有标签传播的专家指导式半监督的系统和方法 - Google Patents

用于机器学习模型的具有标签传播的专家指导式半监督的系统和方法 Download PDF

Info

Publication number
CN117591908A
CN117591908A CN202311030056.7A CN202311030056A CN117591908A CN 117591908 A CN117591908 A CN 117591908A CN 202311030056 A CN202311030056 A CN 202311030056A CN 117591908 A CN117591908 A CN 117591908A
Authority
CN
China
Prior art keywords
samples
machine learning
untagged
learning model
tagged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311030056.7A
Other languages
English (en)
Inventor
R·Z·A·法索尼
F·J·C·孔德萨
B·K·索伦
F·舍恩
F·郎
T·阿尔贝
M·库卡
A·亨克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN117591908A publication Critical patent/CN117591908A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

一种方法包括:接收包括多个被加标签样本的被加标签数据集,并且使用被加标签数据集来初始训练机器学习模型。所述方法还包括接收包括多个未加标签样本的未加标签数据集。所述方法还包括计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间。所述方法还包括:基于所述隐表示空间来生成k‑最近邻相似性图,通过使用专家导出的相似性图扩充k‑最近邻相似性图来生成组合相似性图,以及使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本。所述方法还包括使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。

Description

用于机器学习模型的具有标签传播的专家指导式半监督的系 统和方法
技术领域
本公开涉及具有人工智能能力的计算机系统,包括神经网络。在实施例中,本公开涉及使用专家指导的、半监督的机器学习,该机器学习使用具有标签传播的训练数据集。
背景技术
在用于训练机器学习模型的数据的开发中,数据收集和加标签是一项费力、昂贵且耗时的行动(venture),这可能代表大多数当前机器学习流水线中的主要瓶颈。在许多真实世界应用中,被加标签样本的数量相对有限,同时未加标签样本相对不充裕(unabundant),并且通常需要有限的资源来收集。通常,为了使用这种未加标签样本,一般使用人工努力来应用标签,这往往会造成准备被加标签的训练数据的增加的成本和时间消耗。
发明内容
所公开的实施例的一方面包括一种针对用于训练机器学习模型的训练数据的标签传播的方法。所述方法包括:接收包括多个被加标签样本的被加标签数据集,并且使用被加标签数据集来初始训练机器学习模型。所述方法还包括接收包括多个未加标签样本的未加标签数据集。所述方法还包括使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间。所述方法还包括基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图。所述方法还包括:通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图,并且使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本。所述方法还包括使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
所公开的实施例的另一方面包括一种针对用于训练机器学习模型的训练数据的标签传播的系统。所述系统包括处理器和存储器。所述方法包括指令,所述指令当由处理器执行时使得处理器:接收包括多个被加标签样本的被加标签数据集;使用被加标签数据集来初始训练机器学习模型;接收包括多个未加标签样本的未加标签数据集;使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
所公开的实施例的另一方面包括一种针对用于训练机器学习模型的训练数据的标签传播的装置。所述装置包括处理器和存储器。所述存储器包括指令,所述指令当由处理器执行时使得处理器:接收包括多个被加标签样本的被加标签数据集;使用全监督学习技术,使用被加标签数据集来初始训练机器学习模型;接收包括多个未加标签样本的未加标签数据集;使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;并且使用半监督学习技术,使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
附图说明
图1总体上图示了根据本公开的原理的用于训练神经网络的系统。
图2总体上图示了根据本公开的原理的用于训练和利用神经网络的计算机实现的方法。
图3总体上图示了根据本公开的原理的标签传播架构。
图4A是总体上图示了根据本公开的原理的标签传播方法的流程图。
图4B是总体上图示了根据本公开的原理的替代标签传播方法的流程图。
图5描绘了根据本公开的原理的计算机控制的机器和控制系统之间的交互的示意图。
图6描绘了根据本公开的原理的图5的控制系统的示意图,该控制系统被配置成控制载具,该载具可以是部分自主的载具、完全自主的载具、部分自主的机器人或完全自主的机器人。
图7描绘了图5的控制系统的示意图,该控制系统被配置成控制制造系统(诸如生产线的一部分)的制造机器,诸如冲压切割器、切割器或枪钻。
图8描绘了图5的控制系统的示意图,该控制系统被配置成控制具有至少部分自主模式的动力工具,诸如动力钻或驱动器。
图9描绘了图5的控制系统的示意图,该控制系统被配置成控制自动化个人助理。
图10描绘了图5的控制系统的示意图,该控制系统被配置成控制监视系统,诸如控制访问系统或监控系统。
图11描绘了图5的控制系统的示意图,该控制系统被配置成控制成像系统,例如MRI装置、x射线成像装置或超声装置。
具体实施方式
本文中描述了本公开的实施例。然而,应理解的是,所公开的实施例仅仅是示例,并且其他实施例可以采取各种和替代形式。各图不一定是按比例的;一些特征可以被夸大或最小化以示出特定组件的细节。因此,本文中公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式来采用实施例的代表性基础。如本领域普通技术人员将理解的,参考各图中的任一个所图示和描述的各种特征可以与一个或多个其他图中所图示的特征组合,以产生未被明确图示或描述的实施例。所图示的特征的组合提供了典型应用的代表性实施例。然而,对于特定的应用或实现方式,可能期望与本公开的教导一致的特征的各种组合和修改。
如所描述的,在用于训练机器学习模型的数据的开发中,数据收集和加标签是一项费力、昂贵且耗时的行动,这可能代表大多数当前机器学习流水线中的主要瓶颈。在许多真实世界应用中,被加标签样本的数量相对有限,同时未加标签样本相对不充裕,并且通常需要有限的资源来收集。通常,为了使用这种未加标签样本,一般使用人工努力来应用标签,这往往会造成准备被加标签的训练数据的增加的成本和时间消耗。
因此,被配置成在半监督学习设置中使用未加标签样本来改进机器学习算法的性能的系统和方法(诸如本文中描述的那些)可能是合期望的。在一些实施例中,本文中描述的系统和方法可以被配置成使用被加标签样本、未加标签样本、由与机器学习算法相关联的从业者提供的专家知识、或其组合来提供机器学习训练数据集。例如,对于声音感知评估应用,本文中描述的系统和方法可以被配置成至少接收导致被人耳类似地感知的两种不同声音的性质的某种准则(例如,其可以由声音分析专家来提供)。
在一些实施例中,本文中描述的系统和方法可以被配置成在深度半监督学习应用中提供连续标签上的标签传播。本文中描述的系统和方法可以被配置成将专家导出的规则、特别是(一个或多个)专家导出的相似性度量注入到机器学习流水线中。本文中描述的系统和方法可以被配置成使用机器学习模型来执行回归任务,其中标签被连续地赋值。本文中描述的系统和方法可以被配置成确定使用深度神经网络所学习的表示空间,该表示空间被用作用于执行标签传播的距离或相似性度量(例如,这对于依赖于深度神经网络学习复杂对象的表示的能力的各种应用来说可能是有用的)。
在一些实施例中,本文中描述的系统和方法可以被配置成接收由被加标签样本{(x1,y1),(x2,y2),...,(xn,yn)}组成的一组被加标签的训练数据X作为输入,其中xi是第i个样本,yi是对应的标签,并且n是被加标签样本的数量。本文中描述的系统和方法可以被配置成接收由未加标签样本{x(n+1),x(n+2),...,X(n+u)}组成的一组未加标签的数据U作为输入,其中u是未加标签样本的数量。本文中描述的系统和方法可以被配置成接收专家领域知识作为输入,该专家领域知识采用关于被加标签数据和未加标签数据两者的相似性图G的形式(例如,其中如果xi和xj在该图中被连接,则这意味着它们彼此相似)。本文中描述的系统和方法可以被配置成使用机器学习模型来执行回归任务,其中标签y被连续赋值(例如),这可以与其中标签被离散赋值的分类任务形成对比。应当理解,除了回归任务之外或者代替回归任务,本文中描述的系统和方法可以被配置成执行分类任务。
在一些实施例中,本文中描述的系统和方法可以被配置成使用将样本xi映射到隐表示空间(latent representation space)zi的特征提取器网络fθ(x)(例如,由θ参数化)。本文中描述的系统和方法可以被配置成使用接收隐表示zi并输出预测标签的预测器(子)网络gω(x)(例如,由ω参数化)。本文中描述的系统和方法可以被配置成使用k-最近邻(KNN)图相似性提取器,该提取器接收被加标签数据和未加标签数据的所有隐表示,并且基于在隐空间上测量的k个最近的邻居(nearest neighbors)来输出相似性图Gknn。本文中描述的系统和方法可以被配置成使用余弦相似性度量来测量两个隐表示之间的相似性,其中Gknn中的每个节点包括至k个最相似样本的k个连接。
本文中描述的系统和方法可以被配置成使用标签传播器,该标签传播器接收由被加标签数据和未加标签数据两者组成的相似性图。标签传播器可以通过将已知标签迭代传播到该图中的对应邻居来将标签从被加标签数据传播到未加标签数据。本文中描述的系统和方法可以被配置成使用损失函数该损失函数用作训练过程中的目标。本文中描述的系统和方法可以被配置成使用平方误差/>作为我们的回归损失函数。
在一些实施例中,本文中描述的系统和方法可以被配置成提供全监督学习阶段,该阶段至少包括针对十个时期(epoch)(例如,或其他合适数量的时期)使用被加标签数据(例如,使得特征提取器可用于标签传播)来训练机器学习模型(例如,包括特征提取器和预测器网络),这是通过最小化下式来进行的:
在一些实施例中,本文中描述的系统和方法可以被配置成提供半监督学习阶段,该阶段至少包括通过迭代地执行本文中描述的步骤从而使用被加标签数据和未加标签数据两者来执行半监督学习。例如,本文中描述的系统和方法可以被配置成使用机器学习模型的经训练网络,计算所有样本(例如,被加标签样本和未加标签样本两者)的隐表示空间zi。本文中描述的系统和方法可以被配置成使用KNN图相似性提取器,以使用所计算的隐表示来构造KNN相似性图Gknn。本文中描述的系统和方法可以被配置成利用专家导出的相似性图G来扩充KNN相似性图Gknn。本文中描述的系统和方法可以被配置成输出组合相似性图Gcomb(例如,其中如果Gcomb中的两个节点在Gknn和G图的至少一个中被连接,则这两个节点被连接)。本文中描述的系统和方法可以被配置成通过接收Gcomb作为输入从而使用标签传播器来传播标签。本文中描述的系统和方法可以被配置成使用标签传播器来输出针对每个未加标签样本的所传播标签所传播标签/>具有置信度水平α,该置信度水平α衡量了在所传播标签的情况下的传播器的置信度。本文中描述的系统和方法可以被配置成针对一个时期使用具有所传播标签的未加标签数据和被加标签数据两者来训练特征提取器和预测器网络,这是通过优化下式来进行的:
本文中描述的系统和方法可以被配置成确定被加标签样本的平方误差上的总和以及具有所传播标签的未加标签样本上的加权平方误差的总和。本文中描述的系统和方法可以被配置成针对收敛准则进行检查,其中如果收敛准则被满足,则本文中描述的系统和方法可以被配置成停止训练(例如,否则返回到半监督学习的开始)。
在一些实施例中,本文中描述的系统和方法可以被配置成提供标签传播,如所描述的。本文中描述的系统和方法可以被配置成接收被加标签样本{(x1,y1),(x2,y2),...,(xn,yn)}、未加标签样本{x(n+1),x(n+2),...,x(n+u)}、相似性图Gcomb和/或置信折扣(confidentdiscount)η作为输入。
在一些实施例中,本文中描述的系统和方法可以被配置成从Gcomb生成加权图Gweighted,其中边的权重是其所连接节点的隐表示的余弦相似性。本文中描述的系统和方法可以被配置成准备所传播的标签变量和置信度变量/>本文中描述的系统和方法可以被配置成针对被加标签样本来设置/>和αi=1。
本文中描述的系统和方法可以被配置成针对未加标签样本来设置和αi=Null。本文中描述的系统和方法可以被配置成重复以下各项,直到收敛条件被满足:执行一步传播(one step propagation)(例如,其可以包括,针对每个样本(该图中的每个节点):归一化其非空邻居的权重,将新的所传播样本计算为其非空邻居的标签上的加权平均值;和/或将所传播标签的新置信度计算为其非空邻居的置信度的平均值乘以置信折扣);以及夹住(clamp)被加标签数据(例如,针对每个被加标签样本,设置/>和αi=1)。在一些实施例中,本文中描述的系统和方法可以被配置成返回针对每个未加标签样本的所传播标签/>以及对应的置信度α。
在一些实施例中,本文中描述的系统和方法可以被配置成接收包括多个被加标签样本的被加标签数据集。本文中描述的系统和方法可以被配置成使用被加标签数据集来初始训练机器学习模型。本文中描述的系统和方法可以被配置成通过初始训练机器学习模型的特征提取器和机器学习模型的一个或多个预测器网络来初始训练机器学习模型。本文中描述的系统和方法可以被配置成使用全监督学习技术来初始训练机器学习模型。
本文中描述的系统和方法可以被配置成接收包括多个未加标签样本的未加标签数据集。本文中描述的系统和方法可以被配置成使用初始训练的机器学习模型来计算多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间。
本文中描述的系统和方法可以被配置成基于多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间来生成KNN相似性图。本文中描述的系统和方法可以被配置成通过使用专家导出的相似性图来扩充KNN相似性图从而生成组合相似性图。响应于组合相似性图的第一节点和第二节点在KNN相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点可以连接到组合相似性图的第二节点。本文中描述的系统和方法可以被配置成使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。本文中描述的系统和方法可以被配置成:通过针对多个未加标签样本中的每个相应样本生成标签和置信度水平,来使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。
本文中描述的系统和方法可以被配置成使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。本文中描述的系统和方法可以被配置成使用半监督学习技术来随后训练机器学习模型。本文中描述的系统和方法可以被配置成通过优化多个被加标签样本中的每个样本的平方误差的总和以及多个未加标签样本中的每个样本的加权平方误差的总和来随后训练机器学习模型。本文中描述的系统和方法可以被配置成响应于至少一个收敛准则未被满足的确定而继续随后训练。本文中描述的系统和方法可以被配置成响应于至少一个收敛准则被满足的确定而中断随后训练机器学习模型。
在一些实施例中,机器学习模型被配置成执行至少一个分类任务。在一些实施例中,机器学习模型被配置成执行至少一个回归任务。
图1示出了用于训练神经网络的系统100。系统100可以包括用于访问用于神经网络的训练数据102的输入接口。例如,如图1中所图示,输入接口可以由数据存储接口104构成,数据存储接口104可以从数据存储装置106访问训练数据102。例如,数据存储接口104可以是存储器接口或持久存储接口,例如硬盘或SSD接口,但也可以是个人、局域网或广域网接口,诸如蓝牙、Zigbee或Wi-Fi接口或以太网或光纤接口。数据存储装置106可以是系统100的内部数据存储装置、诸如硬盘驱动器或SSD,但也可以是外部数据存储装置、例如网络可访问的数据存储装置。
在一些实施例中,数据存储装置106可以进一步包括神经网络的未训练版本的数据表示108,该数据表示108可以由系统100从数据存储装置106访问。然而,将领会的是,训练数据102以及未训练的神经网络的数据表示108也可以各自例如经由数据存储接口104的不同子系统从不同的数据存储装置来访问。每个子系统可以属于如上面针对数据存储接口104所描述的类型。
在一些实施例中,未训练的神经网络的数据表示108可以由系统100在神经网络的设计参数的基础上在内部生成,并且因此可以不显式地存储在数据存储装置106上。系统100可以进一步包括处理器子系统110,该处理器子系统110可以被配置成在系统100的操作期间提供迭代函数,作为待训练的神经网络的层堆叠的代替物(substitute)。这里,被代替的层堆叠的相应层可以具有相互共享的权重,并且可以接收前一层的输出作为输入,或者针对层堆叠的第一层,接收初始激活以及层堆叠的输入的一部分。
处理器子系统110可以进一步被配置成使用训练数据102来迭代地训练神经网络。这里,处理器子系统110的训练的迭代可以包括前向传播部分和后向传播部分。处理器子系统110可以被配置成除了可以执行的定义了前向传播部分的其他操作之外还通过如下操作来执行前向传播部分:确定迭代函数在其处收敛到固定点的迭代函数均衡点(equilibriumpoint),其中确定均衡点包括使用数值寻根算法来找到针对迭代函数减去其输入的根解;以及提供该均衡点作为神经网络中的层堆叠的输出的代替物。
系统100可以进一步包括用于输出经训练的神经网络的数据表示112的输出接口,该数据也可以被称为经训练模型数据112。例如,也如图1中所图示,输出接口可以由数据存储接口104构成,其中在这些实施例中,所述接口是输入/输出(“IO”)接口,经由该输入/输出(“IO”)接口,经训练模型数据112可以被存储在数据存储装置106中。例如,定义了“未训练的”神经网络的数据表示108可以在训练期间或之后至少部分地被经训练的神经网络的数据表示112所替换,这是因为神经网络的参数(诸如权重、超参数、以及神经网络的其他类型的参数)可以适配于反映在训练数据102上的训练。这也在图1中由参考数字108、112图示,参考数字108、112指代数据存储装置106上的相同数据记录。在一些实施例中,数据表示112可以与定义了“未训练的”神经网络的数据表示108分离地存储。在一些实施例中,输出接口可以与数据存储接口104分离,但是一般而言可以属于如上面针对数据存储接口104所描述的类型。
图2描绘了实现用于标注和/或扩充数据的系统的数据标注和/或扩充系统200。数据标注系统200可以包括至少一个计算系统202。计算系统202可以包括操作性地连接到存储器单元208的至少一个处理器204。处理器204可以包括实现中央处理单元(CPU)206的功能性的一个或多个集成电路。CPU 206可以是商业上可获得的处理单元,该处理单元实现诸如x86、ARM、Power或MIPS指令集族之一的指令集。
在操作期间,CPU 206可以执行从存储器单元208检索的所存储的程序指令。所存储的程序指令可以包括控制CPU 206的操作以执行本文中描述的操作的软件。在一些实施例中,处理器204可以是将CPU 206、存储器单元208、网络接口以及输入/输出接口的功能性集成到单个集成设备中的片上系统(SoC)。计算系统202可以实现用于管理操作的各个方面的操作系统。
存储器单元208可以包括用于存储指令和数据的易失性存储器和非易失性存储器。非易失性存储器可以包括固态存储器,诸如NAND闪速存储器、磁性和光学存储介质,或者当计算系统202被去激活或者失去电力时保留数据的任何其他合适的数据存储设备。易失性存储器可以包括存储程序指令和数据的静态和动态随机存取存储器(RAM)。例如,存储器单元208可以存储机器学习模型210或算法、用于机器学习模型210的训练数据集212、原始源数据集216。
计算系统202可以包括被配置成提供与外部系统和设备的通信的网络接口设备222。例如,网络接口设备222可以包括由电气和电子工程师协会(IEEE)802.11标准族所定义的有线和/或无线以太网接口。网络接口设备222可以包括用于与蜂窝网络(例如,3G、4G、5G)通信的蜂窝通信接口。网络接口设备222可以进一步被配置成提供至外部网络224或云的通信接口。
外部网络224可以被称为万维网或互联网。外部网络224可以在计算设备之间建立标准通信协议。外部网络224可以允许信息和数据在计算设备和网络之间容易地交换。一个或多个服务器230可以与外部网络224通信。
计算系统202可以包括可以被配置成提供数字和/或模拟输入和输出的输入/输出(I/O)接口220。I/O接口220可以包括用于与外部设备通信的附加串行接口(例如,通用串行总线(USB)接口)。
计算系统202可以包括人机接口(HMI)设备218,人机接口设备218可以包括使得系统200能够接收控制输入的任何设备。输入设备的示例可以包括诸如键盘、鼠标、触摸屏、语音输入设备和其他类似设备之类的人机接口输入。计算系统202可以包括显示设备232。计算系统202可以包括用于向显示设备232输出图形和文本信息的硬件和软件。显示设备232可以包括电子显示屏、投影仪、打印机、或用于向用户或操作者显示信息的其他合适的设备。计算系统202可以进一步被配置成允许经由网络接口设备222与远程HMI和远程显示设备进行交互。
系统200可以使用一个或多个计算系统来实现。虽然该示例描绘了实现所有所描述特征的单个计算系统202,但是所意图的是,各种特征和功能可以由彼此通信的多个计算单元来分离和实现。所选择的特定系统架构可以取决于多种因素。
系统200可以实现被配置成分析原始源数据集216的机器学习算法210。原始源数据集216可以包括原始的或未处理的传感器数据,该原始的或未处理的传感器数据可以代表用于机器学习系统的输入数据集。原始源数据集216可以包括视频、视频片段、图像、基于文本的信息、以及原始的或部分处理的传感器数据(例如,对象的雷达图)。在一些实施例中,机器学习算法210可以是被设计成执行预定功能的神经网络算法。例如,神经网络算法可以在汽车应用中被配置成标识视频图像中的行人。
计算机系统200可以存储用于机器学习算法210的训练数据集212。训练数据集212可以表示用于训练机器学习算法210的先前构造的数据的集合。机器学习算法210可以使用训练数据集212来学习与神经网络算法相关联的加权因子。训练数据集212可以包括具有机器学习算法210试图经由学习过程来复制的对应成果(outcome)或结果的源数据的集合。在该示例中,训练数据集212可以包括具有和不具有行人的源视频以及对应的存在和位置信息。源视频可以包括其中标识了行人的各种场景。
机器学习算法210可以使用训练数据集212作为输入在学习模式中操作。机器学习算法210可以使用来自训练数据集212的数据在多次迭代内执行。随着每次迭代,机器学习算法210可以基于所实现的结果来更新内部加权因子。例如,机器学习算法210可以将输出结果(例如,标注)与训练数据集212中包括的那些结果进行比较。由于训练数据集212包括预期结果,因此机器学习算法210可以确定何时性能是可接受的。在机器学习算法210实现预定性能水平(例如,与关联于训练数据集212的成果100%一致)之后,可以使用不在训练数据集212中的数据来执行机器学习算法210。经训练的机器学习算法210可以应用于新的数据集,以生成经标注的数据。
机器学习算法210可以被配置成标识原始源数据216中的特定特征。原始源数据216可以包括针对其期望标注结果的多个实例或输入数据集。例如,机器学习算法210可以被配置成标识视频图像中行人的存在并标注这些出现。机器学习算法210可以被编程为处理原始源数据216以标识特定特征的存在。机器学习算法210可以被配置成将原始源数据216中的特征标识为预定特征(例如,行人)。原始源数据216可以从各种源中导出。例如,原始源数据216可以是由机器学习系统收集的实际输入数据。原始源数据216可以是机器生成的,以用于测试该系统。作为示例,原始源数据216可以包括来自相机的原始视频图像。
在该示例中,机器学习算法210可以处理原始源数据216并且输出图像的表示的指示。输出还可以包括图像的扩充表示。机器学习算法210可以针对每个所生成的输出生成置信度水平或因子。例如,超过预定高置信度阈值的置信度值可以指示机器学习算法210确信所标识的特征对应于该特定特征。小于低置信度阈值的置信度值可以指示机器学习算法210对于该特定特征存在具有某种不确定性。
在一些实施例中,如图3中总体上图示的,系统200可以接收包括多个被加标签样本的被加标签数据集作为输入。系统200可以使用被加标签数据集来初始训练机器学习算法210。系统200可以通过初始训练机器学习算法210的特征提取器和机器学习算法210的一个或多个预测器网络来初始训练机器学习算法210。系统200可以使用全监督学习技术来初始训练机器学习算法210。机器学习算法210可以被配置成执行至少一个分类任务、至少一个回归任务、其他合适的任务、或其组合。
系统200可以接收包括多个未加标签样本的未加标签数据集作为输入。系统200可以使用初始训练的机器学习算法210来计算多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间。
系统200可以基于多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间来生成KNN相似性图。系统200可以通过使用专家导出的相似性图扩充KNN相似性图来生成组合相似性图。在一些实施例中,响应于组合相似性图的第一节点和第二节点在KNN相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点可以连接到组合相似性图的第二节点。
系统200可以使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。例如,系统200可以通过针对多个未加标签样本中的每个相应样本生成标签和置信度水平,来使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。
系统200可以使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习算法210。例如,系统200可以使用半监督学习技术来随后训练机器学习算法210。系统200可以通过优化多个被加标签样本中的每个样本的平方误差的总和以及多个未加标签样本中的每个样本的加权平方误差的总和来随后训练机器学习算法210。系统200可以响应于至少一个收敛准则未被满足的确定而继续随后训练。系统200可以响应于至少一个收敛准则被满足的确定而中断随后训练机器学习算法210。在一些实施例中,系统200可以使用被加标签样本和/或未加标签样本来执行损失函数。
图4A是总体上图示了根据本公开的原理的标签传播方法300的流程图。在302处,方法300接收被加标签数据。例如,系统200可以接收被加标签数据。
在304处,方法300可以针对10个时期使用被加标签数据进行训练。例如,系统200可以针对10个时期来训练机器学习算法210。
在306处,方法300使用经训练的网络来计算被加标签数据和未加标签数据的隐表示。例如,系统200可以使用经训练的网络来计算被加标签数据和未加标签数据的隐表示。
在308处,方法30接收未加标签数据。例如,系统200可以接收未加标签数据。
在310处,方法300使用隐空间上的KNN来创建被加标签数据和未加标签数据的相似性图。例如,系统200可以使用隐空间上的KNN来创建被加标签数据和未加标签数据的相似性图。
在312处,方法300利用专家导出的相似性图来扩充KNN相似性图。例如,系统200可以利用专家导出的相似性图来扩充KNN相似性图。
在314处,方法300确定停止条件是否被满足。例如,系统200可以确定停止条件是否被满足。如果系统200确定停止条件被满足,则方法300在320处继续。替代地,如果系统200确定停止条件未被满足,则方法300在316处继续。
在316处,方法300使用与未加标签数据(例如,包括所传播的标签)组合的被加标签数据以针对一个时期来训练该网络。例如,系统200可以使用与未加标签数据(例如,包括所传播的标签)组合的被加标签数据以针对一个时期来训练该网络。
在318处,方法300使用组合相似性图来执行标签传播。例如,系统200可以使用组合相似性图来执行标签传播。
在320处,方法300结束。
图4B是总体上图示了根据本公开的原理的替代标签传播方法400的流程图。在402处,方法400接收包括多个被加标签样本的被加标签数据集。例如,系统200可以接收包括多个被加标签样本的被加标签数据集。
在404处,方法400使用被加标签数据集来初始训练机器学习模型。例如,系统200可以使用被加标签数据集来初始训练机器学习算法210。
在406处,方法400接收包括多个未加标签样本的未加标签数据集。例如,系统200可以接收包括多个未加标签样本的未加标签数据集。
在408处,方法400使用初始训练的机器学习模型来计算多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间。例如,系统200可以使用初始训练的机器学习算法210来计算多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间。
在410处,方法400基于多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图。例如,系统200可以基于多个被加标签样本中的每个相应样本和多个未加标签样本中的每个相应样本的隐表示空间来生成KNN相似性图。
在412处,方法400通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图。例如,系统200可以通过使用专家导出的相似性图扩充KNN相似性图来生成组合相似性图。
在414处,方法400使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。例如,系统200可以使用组合相似性图将标签传播到多个未加标签样本中的每个相应样本。
在416处,方法400使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。例如,系统200可以使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来训练机器学习算法210。
图5描绘了计算机控制的机器500和控制系统502之间的交互的示意图。计算机控制的机器500包括致动器504和传感器506。致动器504可以包括一个或多个致动器,并且传感器506可以包括一个或多个传感器。传感器506被配置成感测计算机控制的机器500的状况。传感器506可以被配置成将感测到的状况编码成传感器信号508,并将传感器信号508传输到控制系统502。传感器506的非限制性示例包括视频、雷达、LiDAR、超声和运动传感器。在一些实施例中,传感器506是被配置成感测接近于计算机控制的机器500的环境的光学图像的光学传感器。
控制系统502被配置成从计算机控制的机器500接收传感器信号508。如下面所阐述,控制系统502可以进一步被配置成取决于传感器信号来计算致动器控制命令510,并将致动器控制命令510传输到计算机控制的机器500的致动器504。
如图5中所示,控制系统502包括接收单元512。接收单元512可以被配置成从传感器506接收传感器信号508,并将传感器信号508变换成输入信号x。在替代实施例中,在没有接收单元512的情况下,传感器信号508被直接接收作为输入信号x。每个输入信号x可以是每个传感器信号508的一部分。接收单元512可以被配置成处理每个传感器信号508以产生每个输入信号x。输入信号x可以包括对应于由传感器506记录的图像的数据。
控制系统502包括分类器514。分类器514可以被配置成使用机器学习(ML)算法(诸如上述神经网络)将输入信号x分类到一个或多个标签中。分类器514被配置成由诸如上面描述的那些参数(例如,参数θ)来参数化。参数θ可以被存储在非易失性存储装置516中并由非易失性存储装置516提供。分类器514被配置成从输入信号x来确定输出信号y。每个输出信号y包括向每个输入信号x指派一个或多个标签的信息。分类器514可以将输出信号y传输到转换单元518。转换单元518被配置成将输出信号y转换成致动器控制命令510。控制系统502被配置成向致动器504传输致动器控制命令510,致动器504被配置成响应于致动器控制命令510来致动计算机控制的机器500。在一些实施例中,致动器504被配置成直接基于输出信号y来致动计算机控制的机器500。
当致动器504接收到致动器控制命令510时,致动器504被配置成执行对应于相关致动器控制命令510的动作。致动器504可以包括控制逻辑,该控制逻辑被配置成将致动器控制命令510变换成用于控制致动器504的第二致动器控制命令。在一个或多个实施例中,代替于致动器或者除了致动器之外,致动器控制命令510可以用于控制显示器。
在一些实施例中,代替于计算机控制的机器500包括传感器506或者除了计算机控制的机器500包括传感器506之外,控制系统502也包括传感器506。代替于计算机控制的机器500包括致动器504或者除了计算机控制的机器500包括致动器504之外,控制系统502也可以包括致动器504。
如图5中所示,控制系统502还包括处理器520和存储器522。处理器520可以包括一个或多个处理器。存储器522可以包括一个或多个存储器设备。一个或多个实施例的分类器514(例如,ML算法)可以由控制系统502实现,控制系统502包括非易失性存储装置516、处理器520和存储器522。
非易失性存储装置516可以包括一个或多个持久数据存储设备,诸如硬盘驱动器、光学驱动器、磁带驱动器、非易失性固态设备、云存储装置、或能够持久地存储信息的任何其他设备。处理器520可以包括从以下各项中选择的一个或多个设备:包括高性能核心的高性能计算(HPC)系统、微处理器、微控制器、数字信号处理器、微计算机、中央处理单元、现场可编程门阵列、可编程逻辑设备、状态机、逻辑电路、模拟电路、数字电路、或基于驻留在存储器522中的计算机可执行指令来操纵信号(模拟或数字)的任何其他设备。存储器522可以包括单个存储器设备或多个存储器设备,包括但不限于随机存取存储器(RAM)、易失性存储器、非易失性存储器、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、闪速存储器、高速缓冲存储器或能够存储信息的任何其他设备。
处理器520可以被配置成读入存储器522中并且执行驻留在非易失性存储装置516中并体现一个或多个实施例的一个或多个ML算法和/或方法论的计算机可执行指令。非易失性存储装置516可以包括一个或多个操作系统和应用。非易失性存储装置516可以存储从使用各种编程语言和/或技术创建的计算机程序编译和/或解释的数据,所述编程语言和/或技术没有限制地并且单独或组合地包括Java、C、C++、C#、Objective C、Fortran、Pascal、Java Script、Python、Perl和PL/SQL。
在由处理器520执行时,非易失性存储装置516的计算机可执行指令可以使得控制系统502实现如本文中公开的ML算法和/或方法论中的一个或多个。非易失性存储装置516还可以包括支持本文中描述的一个或多个实施例的功能、特征和过程的ML数据(包括数据参数)。
体现本文中描述的算法和/或方法论的程序代码能够以各种不同的形式作为程序产品被单独地或共同地分发。程序代码可以使用其上具有计算机可读程序指令的计算机可读存储介质来分发,该指令用于使得处理器实行一个或多个实施例的方面。固有地是非暂时性的计算机可读存储介质可以包括以用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术实现的易失性和非易失性以及可移除和不可移除的有形介质。计算机可读存储介质可以进一步包括RAM、ROM、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、闪速存储器或其他固态存储器技术、便携式致密盘只读存储器(CD-ROM)或其他光学存储装置、盒式磁带、磁带、磁盘存储装置或其他磁性存储设备、或者可以用于存储期望信息并且可以由计算机读取的任何其他介质。计算机可读程序指令可以从计算机可读存储介质下载到计算机、另一种类型的可编程数据处理装置或另一设备,或者经由网络下载到外部计算机或外部存储设备。
存储在计算机可读介质中的计算机可读程序指令可以用于引导计算机、其他类型的可编程数据处理装置或其他设备以特定方式运作,使得存储在计算机可读介质中的指令产生包括实现流程图或示图中指定的功能、动作和/或操作的指令的制品。在某些替代实施例中,流程图和示图中指定的功能、动作和/或操作可以与一个或多个实施例一致地被重新排序、串行地处理和/或并发地处理。此外,流程图和/或示图中的任何可以包括比与一个或多个实施例一致地图示的那些节点或框更多或更少的节点或框。
过程、方法或算法可以使用合适的硬件组件(诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、控制器或其他硬件组件或设备)、或者硬件、软件和固件组件的组合来整体地或部分地体现。
图6描绘了控制系统502的示意图,该控制系统502被配置成控制载具600,载具600可以是至少部分自主的载具或至少部分自主的机器人。载具600包括致动器504和传感器506。传感器506可以包括一个或多个视频传感器、相机、雷达传感器、超声传感器、LiDAR传感器和/或位置传感器(例如GPS)。一个或多个特定传感器中的一个或多个可以集成到载具600中。替代于上面标识的一个或多个特定传感器或者除了上面标识的一个或多个特定传感器之外,传感器506可以包括软件模块,该软件模块被配置成在执行时确定致动器504的状态。软件模块的一个非限制性示例包括:天气信息软件模块,其被配置成确定接近载具600或其他位置的天气的当前或未来状态。
载具600的控制系统502的分类器514可以被配置成取决于输入信号x来检测载具600附近的对象。在这种实施例中,输出信号y可以包括表征对象在载具600附近的信息。致动器控制命令510可以根据该信息来确定。致动器控制命令510可以用于避免与检测到的对象碰撞。
在一些实施例中,载具600是至少部分自主的载具,致动器504可以体现在载具600的制动器、推进系统、引擎、传动系或转向装置中。可以确定致动器控制命令510,使得致动器504被控制,以使得载具600避免与检测到的对象碰撞。检测到的对象也可以根据分类器514认为它们最有可能是什么(诸如行人或树木)被分类。致动器控制命令510可以取决于该分类来确定。在其中可能发生对抗性攻击的场景中,上述系统可以被进一步训练以更好地检测对象或标识载具600上的传感器或相机的照明条件或角度的改变。
在其中载具600是至少部分自主的机器人的一些实施例中,载具600可以是被配置成实行一个或多个功能(诸如飞行、游泳、潜水和迈步(stepping))的移动机器人。该移动机器人可以是至少部分自主的割草机或至少部分自主的清洁机器人。在这种实施例中,可以确定致动器控制命令510,使得该移动机器人的推进单元、转向单元和/或制动单元可以被控制,以使得该移动机器人可以避免与所标识的对象碰撞。
在一些实施例中,载具600是以园艺机器人形式的至少部分自主的机器人。在这种实施例中,载具600可以使用光学传感器作为传感器506来确定接近载具600的环境中的植物的状态。致动器504可以是被配置成喷洒化学品的喷嘴。取决于植物的所标识品种和/或所标识状态,可以确定致动器控制命令510,以使得致动器504向植物喷洒合适量的合适化学品。
载具600可以是以家用电器形式的至少部分自主的机器人。家用电器的非限制性示例包括洗衣机、炉子、烤箱、微波炉或洗碗机。在这种载具600中,传感器506可以是光学传感器,该光学传感器被配置成检测将经历由家用电器进行的处理的对象的状态。例如,在家用电器是洗衣机的情况下,传感器506可以检测洗衣机内的衣物的状态。致动器控制命令510可以基于检测到的衣物状态来确定。
图7描绘了控制系统502的示意图,控制系统502被配置成控制制造系统702(诸如生产线的一部分)的系统700(例如,制造机器),诸如冲压切割器、切割器或枪钻。控制系统502可以被配置成控制致动器504,致动器504被配置成控制系统700(例如,制造机器)。
系统700(例如,制造机器)的传感器506可以是被配置成捕获所制造产品704的一个或多个性质的光学传感器。分类器514可以被配置成根据一个或多个所捕获的性质来确定所制造产品704的状态。致动器504可以被配置成取决于所制造产品704的所确定状态来控制系统700(例如,制造机器),以用于所制造产品704的随后制造步骤。致动器504可以被配置成取决于所制造产品704的所确定状态来控制系统700(例如,制造机器)关于系统700(例如,制造机器)的随后制造产品706的功能。
图8描绘了控制系统502的示意图,控制系统502被配置成控制具有至少部分自主模式的动力工具800,诸如动力钻或驱动器。控制系统502可以被配置成控制致动器504,致动器504被配置成控制动力工具800。
动力工具800的传感器506可以是光学传感器,该光学传感器被配置成捕获工作表面802和/或被驱动到工作表面802中的紧固件804的一个或多个性质。分类器514可以被配置成从一个或多个所捕获的性质来确定工作表面802和/或紧固件804相对于工作表面802的状态。该状态可以是紧固件804与工作表面802齐平。替代地,该状态可以是工作表面802的硬度。致动器504可以被配置成控制动力工具800,使得动力工具800的驱动功能取决于紧固件804相对于工作表面802的所确定状态或工作表面802的一个或多个所捕获性质来调整。例如,如果紧固件804的状态相对于工作表面802齐平,则致动器504可以中断驱动功能。作为另一个非限制性示例,致动器504可以取决于工作表面802的硬度来施加附加的或更少的扭矩。
图9描绘了控制系统502的示意图,控制系统502被配置成控制自动化个人助理900。控制系统502可以被配置成控制致动器504,致动器504被配置成控制自动化个人助理900。自动化个人助理900可以被配置成控制家用电器,诸如洗衣机、炉子、烤箱、微波炉或洗碗机。
传感器506可以是光学传感器和/或音频传感器。光学传感器可以被配置成接收用户902的手势904的视频图像。音频传感器可以被配置成接收用户902的语音命令。
自动化个人助理900的控制系统502可以被配置成确定致动器控制命令510,致动器控制命令510被配置成控制系统502。控制系统502可以被配置成根据传感器506的传感器信号508来确定致动器控制命令510。自动化个人助理900被配置成将传感器信号508传输到控制系统502。控制系统502的分类器514可以被配置成执行手势识别算法,以标识用户902做出的手势904,从而确定致动器控制命令510,并且将致动器控制命令510传输到致动器504。分类器514可以被配置成响应于手势904从非易失性存储装置中检索信息,并且以适合用户902接收的形式输出检索到的信息。
图10描绘了控制系统502的示意图,控制系统502被配置成控制监视系统1000。监视系统1000可以被配置成物理地控制通过门1002的访问。传感器506可以被配置成检测在决定是否准许访问方面相关的场景。传感器506可以是被配置成生成和传输图像和/或视频数据的光学传感器。控制系统502可以使用这种数据来检测人的面部。
监视系统1000的控制系统502的分类器514可以被配置成通过匹配存储在非易失性存储装置516中的已知人的身份来解释图像和/或视频数据,从而确定人的身份。分类器514可以被配置成响应于图像和/或视频数据的解释而生成致动器控制命令510。控制系统502被配置成将致动器控制命令510传输到致动器504。在该实施例中,致动器504可以被配置成响应于致动器控制命令510来将门1002锁定或解锁。在一些实施例中,非物理的逻辑访问控制也是可能的。
监视系统1000也可以是监控系统。在这种实施例中,传感器506可以是被配置成检测在监控下的场景的光学传感器,并且控制系统502被配置成控制显示器1004。分类器514被配置成确定场景的分类,例如由传感器506检测到的场景是否可疑。控制系统502被配置成响应于分类而向显示器1004传输致动器控制命令510。显示器1004可以被配置成响应于致动器控制命令510来调整所显示的内容。例如,显示器1004可以突出显示被分类器514认为可疑的对象。利用所公开的系统的实施例,监控系统可以预测对象在未来的某些时间出现。
图11描绘了控制系统502的示意图,控制系统502被配置成控制成像系统1100,例如MRI装置、x射线成像装置或超声装置。传感器506例如可以是成像传感器。分类器514可以被配置成确定感测到的图像的全部或部分的分类。分类器514可以被配置成响应于由经训练的神经网络获得的分类来确定或选择致动器控制命令510。例如,分类器514可以将感测到图像的区域解释为潜在异常的。在该情况下,可以确定或选择致动器控制命令510,以使得显示器1102显示该成像并突出显示潜在异常的区域。
在一些实施例中,一种针对用于训练机器学习模型的训练数据的标签传播的方法包括:接收包括多个被加标签样本的被加标签数据集,并且使用被加标签数据集来初始训练机器学习模型。所述方法还包括接收包括多个未加标签样本的未加标签数据集。所述方法还包括使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间。所述方法还包括基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图。所述方法还包括通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图,并且使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本。所述方法还包括使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
在一些实施例中,初始训练机器学习模型包括:初始训练机器学习模型的特征提取器和机器学习模型的一个或多个预测器网络。在一些实施例中,初始训练机器学习模型包括使用全监督学习技术。在一些实施例中,随后训练机器学习模型包括使用半监督学习技术。在一些实施例中,使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型包括:优化所述多个被加标签样本中的每个样本的平方误差的总和以及所述多个未加标签样本中的每个样本的加权平方误差的总和。在一些实施例中,使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型包括:基于至少一个收敛准则来确定是否继续训练机器学习模型。在一些实施例中,响应于组合相似性图的第一节点和第二节点在k-最近邻相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点连接到组合相似性图的第二节点。在一些实施例中,使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本包括:针对所述多个未加标签样本中的每个相应样本生成标签和置信度水平。在一些实施例中,机器学习模型被配置成执行至少一个分类任务。在一些实施例中,机器学习模型被配置成执行至少一个回归任务。
在一些实施例中,一种针对用于训练机器学习模型的训练数据的标签传播的系统包括处理器和存储器。所述方法包括指令,所述指令当由处理器执行时使得处理器:接收包括多个被加标签样本的被加标签数据集;使用被加标签数据集来初始训练机器学习模型;接收包括多个未加标签样本的未加标签数据集;使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
在一些实施例中,所述指令进一步使得处理器:通过初始训练机器学习模型的特征提取器和机器学习模型的一个或多个预测器网络来初始训练机器学习模型。在一些实施例中,所述指令进一步使得处理器:使用全监督学习技术来初始训练机器学习模型。在一些实施例中,所述指令进一步使得处理器:使用半监督学习技术来随后训练机器学习模型。在一些实施例中,所述指令进一步使得处理器:通过优化所述多个被加标签样本中的每个样本的平方误差的总和以及所述多个未加标签样本中的每个样本的加权平方误差的总和,从而使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。在一些实施例中,所述指令进一步使得处理器:通过基于至少一个收敛准则来确定是否继续训练机器学习模型,从而使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。在一些实施例中,响应于组合相似性图的第一节点和第二节点在k-最近邻相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点连接到组合相似性图的第二节点。在一些实施例中,所述指令进一步使得处理器:通过针对所述多个未加标签样本中的每个相应样本生成标签和置信度水平,来使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本。在一些实施例中,机器学习模型被配置成执行至少一个分类任务和至少一个回归任务中的至少一个。
在一些实施例中,一种针对用于训练机器学习模型的训练数据的标签传播的装置,包括处理器和存储器。存储器包括指令,所述指令当由处理器执行时使得处理器:接收包括多个被加标签样本的被加标签数据集;使用全监督学习技术,使用被加标签数据集来初始训练机器学习模型;接收包括多个未加标签样本的未加标签数据集;使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;通过使用专家导出的相似性图来扩充k-最近邻相似性图来生成组合相似性图;使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及使用半监督学习技术,使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
本文中公开的过程、方法或算法可以可递送到处理设备、控制器或计算机/由处理设备、控制器或计算机来实现,所述处理设备、控制器或计算机可以包括任何现有的可编程电子控制单元或专用电子控制单元。类似地,所述过程、方法或算法可以以许多形式被存储为可由控制器或计算机执行的数据和指令,所述形式包括但不限于永久存储在诸如ROM设备之类的不可写存储介质上的信息以及可变更地存储在诸如软盘、磁带、CD、RAM设备和其他磁性和光学介质之类的可写存储介质上的信息。所述过程、方法或算法也可以在软件可执行对象中实现。替代地,所述过程、方法或算法可以使用合适的硬件组件(诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、控制器或其他硬件组件或设备)、或者硬件、软件和固件组件的组合来整体地或部分地体现。
虽然上面描述了示例性实施例,但是并不意图这些实施例描述了权利要求所涵盖的所有可能的形式。说明书中使用的词语是描述性而不是限制性的词语,并且应理解,在不脱离本公开的精神和范围的情况下,可以做出各种改变。如先前所描述,各种实施例的特征可以被组合以形成可能没有被显式描述或图示的本发明的进一步实施例。虽然各种实施例可能已经被描述为在一个或多个期望特性方面提供了相比于其他实施例或现有技术实现方式的优点或者相比于其他实施例或现有技术实现方式是优选的,但是本领域的普通技术人员应认识到,一个或多个特征或特性可以被折衷以实现期望的总体系统属性,这取决于具体的应用和实现方式。这些属性可以包括但不限于成本、强度、耐用性、生命周期成本、适销性、外观、包装、大小、可服务性、重量、可制造性、组装容易性等。照此,就任何实施例被描述为在一个或多个特性方面相比于其他实施例或现有技术实现方式较不合期望而言,这些实施例并不在本公开的范围之外,并且对于特定应用可能是合期望的。

Claims (20)

1.一种针对用于训练机器学习模型的训练数据的标签传播的方法,所述方法包括:
接收包括多个被加标签样本的被加标签数据集;
使用被加标签数据集来初始训练机器学习模型;
接收包括多个未加标签样本的未加标签数据集;
使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;
基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;
通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;
使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及
使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
2.根据权利要求1所述的方法,其中初始训练机器学习模型包括初始训练机器学习模型的特征提取器和机器学习模型的一个或多个预测器网络。
3.根据权利要求1所述的方法,其中初始训练机器学习模型包括使用全监督学习技术。
4.根据权利要求1所述的方法,其中随后训练机器学习模型包括使用半监督学习技术。
5.根据权利要求1所述的方法,其中使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型包括:优化所述多个被加标签样本中的每个样本的平方误差的总和以及所述多个未加标签样本中的每个样本的加权平方误差的总和。
6.根据权利要求1所述的方法,其中使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型包括:基于至少一个收敛准则来确定是否继续训练机器学习模型。
7.根据权利要求1所述的方法,其中响应于组合相似性图的第一节点和第二节点在k-最近邻相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点连接到组合相似性图的第二节点。
8.根据权利要求1所述的方法,其中使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本包括:针对所述多个未加标签样本中的每个相应样本生成标签和置信度水平。
9.根据权利要求1所述的方法,其中机器学习模型被配置成执行至少一个分类任务。
10.根据权利要求1所述的方法,其中机器学习模型被配置成执行至少一个回归任务。
11.一种针对用于训练机器学习模型的训练数据的标签传播的系统,所述系统包括:
处理器;以及
存储器,包括指令,所述指令当由处理器执行时使得处理器:
接收包括多个被加标签样本的被加标签数据集;
使用被加标签数据集来初始训练机器学习模型;
接收包括多个未加标签样本的未加标签数据集;
使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;
基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;
通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;
使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及
使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
12.根据权利要求11所述的系统,其中所述指令进一步使得处理器:通过初始训练机器学习模型的特征提取器和机器学习模型的一个或多个预测器网络来初始训练机器学习模型。
13.根据权利要求11所述的系统,其中所述指令进一步使得处理器:使用全监督学习技术来初始训练机器学习模型。
14.根据权利要求11所述的系统,其中所述指令进一步使得处理器:使用半监督学习技术来随后训练机器学习模型。
15.根据权利要求11所述的系统,其中所述指令进一步使得处理器:通过优化所述多个被加标签样本中的每个样本的平方误差的总和以及所述多个未加标签样本中的每个样本的加权平方误差的总和,从而使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
16.根据权利要求11所述的系统,其中所述指令进一步使得处理器:通过基于至少一个收敛准则来确定是否继续训练机器学习模型,从而使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
17.根据权利要求11所述的系统,其中响应于组合相似性图的第一节点和第二节点在k-最近邻相似性图和专家导出的相似性图中的至少一个中被连接,组合相似性图的第一节点连接到组合相似性图的第二节点。
18.根据权利要求11所述的系统,其中所述指令进一步使得处理器:通过针对所述多个未加标签样本中的每个相应样本生成标签和置信度水平,来使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本。
19.根据权利要求11所述的系统,其中机器学习模型被配置成执行至少一个分类任务和至少一个回归任务中的至少一个。
20.一种针对用于训练机器学习模型的训练数据的标签传播的装置,所述装置包括:
处理器;以及
存储器,包括指令,所述指令当由处理器执行时使得处理器:
接收包括多个被加标签样本的被加标签数据集;
使用全监督学习技术,使用被加标签数据集来初始训练机器学习模型;
接收包括多个未加标签样本的未加标签数据集;
使用初始训练的机器学习模型来计算所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间;
基于所述多个被加标签样本中的每个相应样本和所述多个未加标签样本中的每个相应样本的隐表示空间来生成k-最近邻相似性图;
通过使用专家导出的相似性图扩充k-最近邻相似性图来生成组合相似性图;
使用组合相似性图将标签传播到所述多个未加标签样本中的每个相应样本;以及
使用半监督学习技术,使用被加标签数据集以及具有使用组合相似性图而被传播有标签的样本的未加标签数据集来随后训练机器学习模型。
CN202311030056.7A 2022-08-16 2023-08-15 用于机器学习模型的具有标签传播的专家指导式半监督的系统和方法 Pending CN117591908A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/888605 2022-08-16
US17/888,605 US20240062058A1 (en) 2022-08-16 2022-08-16 Systems and methods for expert guided semi-supervision with label propagation for machine learning models

Publications (1)

Publication Number Publication Date
CN117591908A true CN117591908A (zh) 2024-02-23

Family

ID=89808554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311030056.7A Pending CN117591908A (zh) 2022-08-16 2023-08-15 用于机器学习模型的具有标签传播的专家指导式半监督的系统和方法

Country Status (4)

Country Link
US (1) US20240062058A1 (zh)
KR (1) KR20240024020A (zh)
CN (1) CN117591908A (zh)
DE (1) DE102023207515A1 (zh)

Also Published As

Publication number Publication date
KR20240024020A (ko) 2024-02-23
US20240062058A1 (en) 2024-02-22
DE102023207515A1 (de) 2024-02-22

Similar Documents

Publication Publication Date Title
US20220100850A1 (en) Method and system for breaking backdoored classifiers through adversarial examples
CN113962399A (zh) 用于机器学习中学习扰动集的方法和系统
US11687619B2 (en) Method and system for an adversarial training using meta-learned initialization
CN113537486A (zh) 单调算子神经网络的系统和方法
US12026621B2 (en) Method and system for low-query black-box universal attacks
CN116258865A (zh) 使用机器学习的图像量化
CN117592542A (zh) 用于机器学习模型的具有对比损失的专家引导半监督的系统和方法
JP2024035192A (ja) ノイズ除去された拡散モデルを用いた入力摂動を汎用精製するためのシステム及び方法
US20230100765A1 (en) Systems and methods for estimating input certainty for a neural network using generative modeling
US20230100132A1 (en) System and method for estimating perturbation norm for the spectrum of robustness
US20230102866A1 (en) Neural deep equilibrium solver
CN114332551A (zh) 学习联合潜在对抗训练的方法和系统
CN116894799A (zh) 用于域泛化的数据增强
CN115482428A (zh) 针对对抗性攻击为预训练模型预置鲁棒器的系统和方法
US20230101812A1 (en) Monotone mean-field inference in deep markov random fields
US20220101116A1 (en) Method and system for probably robust classification with detection of adversarial examples
US20230107463A1 (en) Method and system for probably robust classification with multiclass enabled detection of adversarial examples
CN117591908A (zh) 用于机器学习模型的具有标签传播的专家指导式半监督的系统和方法
CN113743442A (zh) 元学习演化策略黑盒优化分类器
US20220092466A1 (en) System and method for utilizing perturbation in a multimodal environment
US20240110825A1 (en) System and method for a model for prediction of sound perception using accelerometer data
US20230107917A1 (en) System and method for a hybrid unsupervised semantic segmentation
US20240112019A1 (en) System and method for deep learning-based sound prediction using accelerometer data
US20240110996A1 (en) System and method for prediction analysis of a system utilizing machine learning networks
CN117236372A (zh) 分布移位下神经网络性能的改进

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication