CN113379064A - 用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序 - Google Patents

用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序 Download PDF

Info

Publication number
CN113379064A
CN113379064A CN202110204703.6A CN202110204703A CN113379064A CN 113379064 A CN113379064 A CN 113379064A CN 202110204703 A CN202110204703 A CN 202110204703A CN 113379064 A CN113379064 A CN 113379064A
Authority
CN
China
Prior art keywords
machine learning
learning system
configuration
training data
data record
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110204703.6A
Other languages
English (en)
Inventor
A·泽拉
F·胡特
J·西姆斯
L·齐默
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN113379064A publication Critical patent/CN113379064A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Abstract

用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序。本发明涉及用于预测机器学习系统的适合于第一训练数据记录的配置的方法。该方法开始于使多个机器学习系统有关第一训练数据记录进行学习,其中机器学习系统和/或所使用的学习方法不一样地被配置。然后创建第二训练数据记录D,其包括经过学习的机器学习系统的所确定的工作能力以及相应的机器学习系统和/或学习方法的分别被分配的配置。然后,根据第二训练数据记录D来使图同构网络进行学习,并且借助于GIN来分别预测多个、尤其是未被用于学习的配置的性能。本发明还涉及用于实施该方法的计算机程序和设备以及在其上存储有该计算机程序的机器可读存储元件。

Description

用于预测机器学习系统的适合于训练数据记录的配置的方 法、设备和计算机程序
技术领域
本发明涉及一种用于借助于图形神经网络来预测机器学习系统和/或学习方法的适合于训练数据记录的配置的方法。本发明同样涉及分别被设立为实施该方法的设备和计算机程序。
背景技术
未在先公开的DE 10 2019 207 911.3公开了一种用于预测机器学习系统的迭代学习方法的学习曲线的方法。
本发明的优点
在机器学习系统进行真正的学习之前,必须选择机器学习系统的适合的配置、在理想情况下最佳配置,使得机器学习系统不仅有关训练数据而且有关测试或验证数据都实现尽可能好的性能。然而,事先找出这样适合的配置的花费极高,因为搜索空间(英文search space)为此可能提供极多的、不同的组合(多达1023个),这些组合无法在可预见的时间内借助于标准优化方法、尤其是基于搜索空间的离散特性的标准优化方法被找到。
本发明的目的在于:以小花费找出最佳配置,接着,基于该最佳配置可以使机器学习系统初始化并且进行学习。这具有如下优点:借此所找出并经过学习的机器学习系统(所述机器学习系统例如接着可以被用作分类器)可以特别好地有关训练数据被适配并且最终性能特别卓越。
利用所提出的方法,首次可行的是:能够运用是所有到目前为止所使用的搜索空间的至少1018倍大的搜索空间。借此,也首次可行的是:运用联合搜索空间,该联合搜索空间不仅包含所有架构参数而且也包含所有超参数(英文joint architectur andhyperparamter space(联合架构和超参数空间))。由此可能得是,找出还更优越的配置,因为所提到的两种参数类型可能彼此相关。
发明内容
在本发明的第一方面中,提出了一种用于预测机器学习系统的适合于第一训练数据记录的配置的方法。配置可以被理解为机器学习系统的架构参数和/或机器学习系统的学习方法的超参数。架构参数是表征机器学习系统的构造或结构的参数,例如层的数目。超参数是表征用于使机器学习系统进行学习的学习方法、尤其是优化方法的参数。超参数例如可以是学习率。机器学习系统可以是人工神经网络。替选地,机器学习系统可以是人工神经网络的DARTS单元模型。
适合的配置可以被理解为:利用该配置来被配置的机器学习系统可以尽可能全面地并且优选地在尽可能简单的架构情况下表现训练数据记录中的信息;和/或利用该配置的学习方法具有对于训练数据记录来说良好的收敛特性。
所提出的方法包括如下步骤,这些步骤在可编程数据处理设备、如计算机上被实施。该方法开始于使多个机器学习系统有关第一训练数据记录进行学习,其中机器学习系统和/或所使用的学习方法不一样地被配置。应注意:该学习可以是完整学习,其中使机器学习系统一直学习,直至满足收敛标准为止,例如,学习曲线的斜率不再大于阈值或者性能或精度不再被改善。但是,也可设想的是:只要学习曲线的斜率大于阈值,就只是部分地进行学习。
在下文,训练数据记录被理解为如下数据记录,该数据记录包括训练输入参量和分别被分配的标签,其中这些标签表征它们的分别被分配的训练输入参量。第一训练数据记录的训练输入参量可以是任意的传感器数据,优选地是图像。第二训练数据记录的训练输入参量是配置。
然后,创建第二训练数据记录D,该第二训练数据记录包括经过学习的机器学习系统有关第一训练数据记录所确定的工作能力以及相应的机器学习系统和/或学习方法的分别被分配的配置。
该工作能力可以被理解为机器学习系统有关第一训练数据记录的性能。该性能例如表征借助于经过学习的机器学习系统根据训练输入参量可以有多精确地描绘训练输出参量,诸如训练/测试/验证精度。也可设想的是:该工作能力表征总训练时间、模型参数的数目和/或“学习曲线”的训练/测试/验证精度。学习曲线描述了随时间的训练过程,其中机器学习系统的性能被记录在沿着对于学习来说所花的时间的轴上。
然后,根据第二训练数据记录D使图同构网络(Graph Isomorphism Network,GIN)进行学习,使得GIN根据配置来确定所属的性能。GIN在作者XU等人的出版物“How Powerfulare Graph Neural Networks”(International Conference on LearningRepresentations,2019年,
Figure 816754DEST_PATH_IMAGE002
)中被公开。
然后,借助于GIN来预测多个、尤其是未被用于学习的配置的性能。然后,选择对其来说预测到了最好的性能的那些被预测的配置。
提出:根据所选择的配置来使新的机器学习系统初始化,该新的机器学习系统接着有关第一和/或其它数据记录被优化。
实验表明:借助于所提出的方法,实现了测试误差与验证误差之间的非常高的相关(Spearman corr. coeff. 0.995)。也就是说,GIN能够实现良好的一般化。相同的情况也适用于训练和验证误差。这能够在使用相对少的训练数据的情况下实现GIN的高质量预测。因此,搜索空间可以样本非常高效地(英文sample efficient)被找出并且紧接着特别准确地被预测。
有针对性地使用GIN的优点在于:与其它模型的比较实验表明了:恰好GIN可以特别好地学习以及还有预测这些配置与机器学习系统在相应的配置下的性能的关联。由此,实现了特别好的内插和外推特性。这解释了前文提到的在训练数据少的情况下有良好的一般化的优点。
还提出:这些配置包括至少一个参数,该参数表征机器学习系统的结构,其中机器学习系统借助于DARTS单元来被构造或被定义或被表征。在这种情况下的优点在于:通过该方法,也可以避免可能由DARTS不利地找出的次优架构。也就是说,利用通过本发明的第一方面的方法所提出的配置,DARTS被初始化为使得该DARTS就局部最优而言更稳健并且不能收敛于次优架构。DARTS是作者Liu等人的题目为“Differentiable Architecture Search”的架构搜索方法,可在线调用:https://arxiv.org/abs/1806.09055。
还提出:表征机器学习系统的用于不同的DARTS单元、尤其是用于标准单元和简化单元的结构的参数被分组成第二训练数据记录的不相交图,其中这些配置的表征全部堆叠的单元的可预先给定的数目c和/或训练时期的可预先给定的数目e的其它参数针对机器学习系统的每个DARTS单元被组合(英文concatenate)。
还提出:借助于连续减半法(英文“SuccesiveHalving”),根据可预先给定的计算预算来确定其它配置,直至达到这些配置的其它参数的值的可预先给定的集合中的最大值为止。连续减半法是由作者Jamieson等人的“A Non-stochastic best armidentification and hyperparameter optimization”(In Proceedings of theSeventeenth International Conference on Artificial Intelligence andStatistics (AISTATS),2016年)公开的,可在线调用:https://arxiv.org/abs/1502.07943。
使用连续减半法的优点是:对于更简单和更复杂的配置来说恰当的时间预算分配,还聚焦搜索空间中的往往更重要的区域,由此GIN对于更重要的配置来说变得更精确。
还提出:在进行学习时,附加地,针对值的可预先给定的集合中的最小值随机使用多个不同的其它配置。优选地,值域的值是最小值的数倍(乘以可预先给定的因子)并且同样被用于使机器学习系统进行学习。在这种情况下的优点是:对搜索空间的更精确的扫描和对配置的极端情况的描绘。
还提出:替代GIN,使用差分图池网络(Differentiable Graph Pooling Network,DiffPool)或者XGBoost或者LGBoost。比较实验表明,XGBoost和LGBoost具有如下优点:所述XGBoost和LGBoost有关数据快速进行学习,但是与GIN相比所达到的一般化不那么好。还发现了:DiffPool是GIN的等效替代品。
DiffPool是由作者Ying等人的“Hierarchical graph representation learningwith differentiable pooling.”(In proceedings of the 32nd InternationalConference on Neural Information Processing Systems,NIPS’18,第4805–4815页,RedHook, NY, USA, 2018年,Curran Associates Inc.,https://papers.nips.cc/paper/7729-hierarchical-graph-representation-learning-with-differentiable-pooling)公开的。XGBoost是由作者Chen等人的“XgBoost: A scalable tree boosting system”公开的,可在线调用:https://arxiv.org/abs/1603.02754。LGBoost是由作者Ke等人的“Ahighly efficient gradient boosting decision tree”公开的,可在线调用https://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradient-boosting-decision-tree.pdf。
新配置的机器学习系统可以在具有执行器的物理/技术系统、例如机器人或至少部分自主车辆中被使用,该机器学习系统是利用所选择的配置来被配置并且接着有关第一和/或其它数据记录被优化的。经优化的机器学习系统的所确定的输出参量可以被控制单元使用,使得该控制单元根据该输出参量来控制该执行器。为此,该控制单元可以根据所确定的输出参量来确定控制参量并且使用该控制参量来控制执行器。
替选地,根据经优化的机器学习系统的所确定的输出参量,可以确定控制参量,该控制参量可以被用于控制技术系统的执行器。可以根据该控制参量来控制该执行器。该技术系统例如可以是至少部分自主机器、至少部分自主车辆、机器人、工具、工厂机器或者如无人驾驶飞机那样的飞行器。例如,这样可以控制机器人或车辆的运动或者控制执行器。
经优化的机器学习系统的所提供的输入参量例如可以根据所检测到的传感器数据来被确定并且被提供给该机器学习系统。传感器数据可以由技术系统的传感器、诸如摄像机来检测或者替选地从外部被接收。
优选地,机器学习系统是分类器,所述分类器被设立为将它们的输入参量分配给多个类别中的一个类别。
在另一方面,提出了一种计算机程序。该计算机程序被设立为实施上文提到的方法之一。该计算机程序包括指令,当该计算机程序在计算机上运行时,这些指令促使该计算机以这些所提到的方法之一的所有步骤来实施该方法。还提出了一种机器可读存储模块,在其上存储有该计算机程序。还提出了一种设备,该设备被设立为实施这些方法之一。
附图说明
上述方面的实施例在随附的附图中示出并且在随后的描述中进一步予以阐述。在此:
图1示出了机器学习系统的示意图;
图2示出了流程图的示意图;
图3示出了用于控制至少部分自主机器人的示意性实施例;
图4示出了用于控制生产系统的示意性实施例;
图5示出了用于控制访问系统的示意性实施例;
图6示出了用于控制监控系统的示意性实施例;
图7示出了用于控制私人助理的示意性实施例;
图8示出了用于控制医学成像系统的示意性实施例;
图9示出了第二训练设备的可能的构造。
具体实施方式
图1示出了图同构网络(GIN)(12)的示意图。GIN(12)获得机器学习系统的配置(11)和/或学习方法的配置(11)作为输入参量,该学习方法被用于机器学习系统进行学习。GIN(12)将这些配置(11)处理成输出参量,该输出参量在该实施例中表征机器学习系统的性能和/或运行时间(Runtime)。
在下文,应该进一步阐述包括所有可能的配置(11)的搜索空间。搜索空间
Figure 530632DEST_PATH_IMAGE003
包括:
·如在DARTS中使用的单元结构的架构空间(英文cell-structuredarchitecture space)
Figure 44790DEST_PATH_IMAGE004
,其具有:
- 标准单元(英文normal cell),该标准单元的特点在于该标准单元保留其输入参量的空间分辨率,
- 简化单元(英文reduction cell),该简化单元的特点在于该简化单元使其输入参量的空间分辨率降低可预先给定的倍数;
和/或
·训练超参数空间
Figure 112103DEST_PATH_IMAGE005
,该训练超参数空间诸如包含如下参数:
- 学习率
Figure 926475DEST_PATH_IMAGE006
,该学习率优选地根据对数正态分布
Figure 483358DEST_PATH_IMAGE007
得出,该对数正态分布在
Figure 547129DEST_PATH_IMAGE008
Figure 746029DEST_PATH_IMAGE009
之间被截取,
- 权重衰减(英文weight decay)
Figure 149329DEST_PATH_IMAGE010
,该权重衰减优选地根据对数正态分布
Figure 814797DEST_PATH_IMAGE011
得出并且在
Figure 975651DEST_PATH_IMAGE012
Figure 447083DEST_PATH_IMAGE013
之间被截取;
和/或
·另一参数空间
Figure 970468DEST_PATH_IMAGE014
,该另一参数空间例如包含如下参数:
- 卷积通道的可预先给定的数目
Figure 72417DEST_PATH_IMAGE015
- 全部堆叠的单元的可预先给定的数目
Figure 48463DEST_PATH_IMAGE016
- 训练时期的可预先给定的数目
Figure 120324DEST_PATH_IMAGE017
术语配置应该描述由架构编码
Figure 498216DEST_PATH_IMAGE018
、学习方法的至少一个超参数
Figure 505486DEST_PATH_IMAGE019
和/或所述其它参数中的至少一个参数
Figure 968828DEST_PATH_IMAGE020
所构成的组合
Figure DEST_PATH_IMAGE021
在该实施例中,对于架构编码α来说,可以使用与在DARTS(Liu等人,2019年)中相同的架构搜索空间。应注意:也可以使用其它架构搜索空间。
应注意:在DARTS的情况下,标准单元和简化单元分别是有向图,该有向图具有2个输入节点n0和n1(所述输入节点分别接收先前的以及它们先前的单元的输出参量)以及分别具有4个中间节点(所述中间节点分别逐个元素地将所有先前的节点的输出参量添加在单元中)和一个输出节点(所述输出节点使所有中间节点的输出端相联接)。所有输入节点和中间节点都可以通过表示数学运算的有向边来连接。每条边都可具有运算集O,该运算集包括如下运算:
- 3x3卷积,
- 5x5卷积,
- 3x3膨胀卷积(英文dilated convolution),
- 5x5膨胀卷积,
- 3x3最大池化,和
- 3x3平均值池化。
GIN(12)的输出性能可以是如下量度之一或者这些量度的组合:
- 训练/验证/测试精度,和/或
- 训练的以秒为单位的总运行时间,和/或
- 机器学习系统的模型参数的数目,和/或
- 学习曲线的训练/验证误差或精度。
图2示范性地示出了用于在使用GIN(12)的情况下预测机器学习系统的适合的配置的方法的流程图。
该方法开始于步骤S21。在该步骤中,利用不同的配置来使多个机器学习系统初始化,并且紧接着有关第一训练数据记录来使所述多个机器学习系统进行学习。然后,在步骤S21中,将所使用的配置和分别被分配的训练进度或学习曲线组合成第二训练数据记录。可设想的是:除了训练进度之外或者替选于训练进度,保存成本函数的变化过程和/或训练时间,该成本函数是被用于训练相应的机器学习系统的。学习曲线可以描述学习方法的收敛特性。
通过容许该另一参数空间
Figure 578801DEST_PATH_IMAGE014
的值的大的变化,用于针对不同的配置进行训练的训练时间和所需的资源可能有很大变化。因而,优选地在该另一参数空间
Figure 745953DEST_PATH_IMAGE014
针对几个架构参数A的便宜值的评估与该另一参数空间
Figure 252021DEST_PATH_IMAGE014
的在架构参数较少的情况下的“较昂贵”参数的评估之间进行权衡。这可以像在下文所提出的那样被执行。
为了从该另一参数空间
Figure 999397DEST_PATH_IMAGE014
中获取样本,在一个实施例中提出:对于该另一参数空间
Figure 616323DEST_PATH_IMAGE014
的每个维度来说,优选地选择7个离散点,这导致训练时期的数目e、初始通道的数目ch和堆叠的单元的数目c的343种可能的组合。例如,可以使该另一参数空间
Figure 640911DEST_PATH_IMAGE014
中的“最便宜”的组合初始化,其中ζmin = (50; 8; 5)。
为了从该另一参数空间
Figure 317880DEST_PATH_IMAGE014
中的组合ζi到达下一个配置ζi+1,可以选择固定的乘法因子η =(ηch; ηc; ηe)。接着,从ζmin出发,可以通过ζi+1 = round(η*ζi)来获得下一个组合,其中*是逐个元素的乘法并且i∈{0,1,2,…,6}。
为了获得尽可能高效的样本,从搜索空间中例如可以按照随机原则选择和评估30000个配置。
在选择配置ζi时可以实施所谓的连续减半法(英文“SuccessiveHalving”),其方式是将组合ζi的最好的值部分地用于下一个计算预算。该做法被实施直至达到配置ζ6为止。由此保证了;被用于最低和最高配置ζi的时间大致一样长。
为了研究极端情况并且实现对组合的更好的覆盖,可以添加其它配置:可预先给定的数目、例如50个按照随机原则选择的配置,其中两个参数被规定到它们的最低值并且其余的参数只通过相对应的乘数来被改变。
包括配置的第二训练数据记录D优选地包含大约50000个数据点(δ, av, at, r),其中δ∈Δ并且av是验证/测试精度并且r是相应的配置的运行时间。
在接下来的步骤S22中,在使用第二训练数据记录D的情况下使GIN(12)进行学习,使得GIN(12)根据机器学习系统的配置(该机器学习系统具有该配置和/或是利用该配置学习过的)可以预测该机器学习系统可达到怎样的性能。
在完成步骤S22之后,可以进行步骤S23。在该步骤中,利用GIN(12)来对搜索空间Δ进行探索。由于通过GIN(12)对配置的传播非常省时,所以甚至可以通过GIN(12)快速探索数目很多的不同的配置。接着,在该探索中,输出如下那些配置,所述配置例如产生了GIN(12)的最小或最大的输出参量。
接着,在步骤S24中,根据从步骤S23中所选择的配置,对机器学习系统进行初始化,该机器学习系统接着可以有关第一训练数据记录进行学习。这里可设想的是:使用根据步骤S21所训练的网络之一的参数化,作为该机器学习系统的初始参数化。
在接下来的步骤S25中,根据步骤S24进行学习的机器学习系统例如可以在控制系统中使用,经由传感器来给该控制系统提供传感器数据,其中该控制系统根据经过学习的机器学习系统的输出参量来确定控制参量。接着,可以使用该控制参量来操控执行器。
图3示出了包含根据步骤S25来进行学习的机器学习系统的控制系统40可以如何被用于控制至少部分自主机器人、这里是至少部分自主机动车100。
传感器30例如可以是优选地布置在机动车100中的视频传感器。
对于随后的实施例来说,根据步骤S24来进行学习的机器学习系统可以是人工神经网络60。该网络(6)可以被设立为根据输入图像x可靠地标识对象。
优选地布置在机动车100中的执行器10例如可以是机动车100的刹车装置、驱动装置或转向装置。那么,操控信号A可以被确定为使得该执行器或这些执行器10被操控为使得尤其是当涉及某些类型的对象、例如行人时,机动车100例如防止了与由人工神经网络60可靠地标识的对象相撞。
替选地,该至少部分自主机器人也可以是其它移动机器人(未绘出),例如是这种通过飞行、漂浮、潜水或步行来前进的机器人。该移动机器人例如也可以是至少部分自主割草机或者至少部分自主清洁机器人。在这些情况下,操控信号A也可以被确定为使得移动机器人的驱动装置和/或转向装置被操控为使得该至少部分自主机器人例如防止与由人工神经网络60所标识的对象相撞。
替选地或附加地,可以利用操控信号A来操控显示单元10a,并且例如可以呈现所确定的安全区域。例如,在机动车100具有非自动化转向装置的情况下,也可能的是:显示单元10a利用操控信号A被操控为使得如果确定机动车100即将与可靠地标识的对象之一相撞,则该显示单元输出光学或声音报警信号。
图4示出了如下实施例,在该实施例中,控制系统40被用于操控生产系统200的生产机器11,其方式是对控制该生产机器11的执行器10进行操控。生产机器11例如可以是用于冲压、锯切、钻孔和/或切割的机器。
接着,传感器30例如可以是光学传感器,该光学传感器例如检测制成品12a、12b的特性。可能的是:这些制成品12a、12b能运动。可能的是:控制生产机器11的执行器10根据所检测到的制成品12a、12b的关联来予以操控,以便生产机器11相对应地实施制成品12a、12b中的正确制成品的随后的加工步骤。也可能的是:通过标识制成品12a、12b中的同一制成品的正确特性(也就是说在没有错误关联的情况下),生产机器11相对应地将用于加工随后的制成品的相同的生产步骤适配。
图5示出了如下实施例,在该实施例中,控制系统40被用于操控访问系统300。访问系统300例如可以包括物理访问控制装置、例如门401。设立视频传感器30来检测人员。借助于对象标识系统60,可以解释该所检测到的图像。如果同时检测到多个人员,则例如可以通过这些人员(即对象)彼此间的关联来特别可靠地确定这些人员的身份,例如通过对这些人员的运动的分析来特别可靠地确定这些人员的身份。执行器10可以是锁,该锁根据操控信号A来激活访问控制装置或者不激活访问控制装置,例如将门401打开或者不打开门401。为此,操控信号A可以根据对象标识系统60的解释来被选择,例如根据人员的所确定的身份来被选择。替代物理访问控制装置,也可以设置逻辑访问控制装置。
图6示出了如下实施例,在该实施例中,控制系统40被用于控制监控系统400。在图5中示出的实施例与该实施例的区别在于:替代执行器10,设置显示单元10a,该显示单元由控制系统40来操控。例如,人工神经网络60可以可靠地确定由视频传感器30所拍摄到的对象的身份,以便根据此例如推断哪些对象变得可疑,而且操控信号A接着可以被选择为使得该对象由显示单元10a用颜色突出呈现。
图7示出了如下实施例,在该实施例中,控制系统40被用于操控私人助理250。优选地,传感器30是光学传感器,该光学传感器接收用户249的姿态的图像。
根据传感器30的信号,控制系统40确定私人助理250的操控信号A,例如其方式是神经网络执行姿态识别。接着,将该所确定的操控信号A传送给私人助理250并且该私人助理因此相对应地被操控。该所确定的操控信号A尤其可以被选择为使得该操控信号对应于用户249所设想的所希望的操控。该所设想的所希望的操控可以根据由人工神经网络60识别出的姿态来予以确定。接着,控制系统40可以根据所设想的所希望的操控来选择用于传送给私人助理250的操控信号A和/或选择用于传送给与所设想的所希望的操控相对应的私人助理250的操控信号A。
该相对应的操控例如可包含:私人助理250从数据库中调用信息并且以对于用户249来说可接收到的方式来重现这些信息。
替代私人助理250,也可以设置家用电器(未绘出),尤其是洗衣机、炉灶、烤箱、微波炉或洗碗机,以便相对应地被操控。
图8示出了如下实施例,在该实施例中,控制系统40被用于控制医学成像系统500、例如MRT设备、X光设备或超声设备。传感器30例如可以通过成像传感器来给出,通过控制系统40来操控显示单元10a。例如,可以由神经网络60确定由成像传感器所记录的区域是否异常,而且操控信号A接着可以被选择为使得该区域由显示单元10a用颜色突出呈现。
图9示出了训练设备140,该训练设备包括提供器91,该提供器根据训练数据记录来提供输入参量和所属的标签。输入参量被输送到训练模块91,该训练模块据此来确定输出参量a。输出参量a和所属的标签被输送给评估器93,该评估器据此通过学习方法来确定参数θ',所述参数被输送给参数存储器P并且在那里替代参数θ,所述参数属于训练模块的当前参数。
由训练设备141实施的方法可以以作为计算机程序来实现的方式存放在机器可读存储介质147上并且由处理器148来实施。

Claims (11)

1.一种用于预测机器学习系统和/或学习方法的适合于第一训练数据记录的配置(11)的方法(20),所述方法包括在计算机上被实施的如下步骤:
使多个机器学习系统利用所述第一训练数据记录进行学习,其中所述机器学习系统和/或所使用的学习方法不一样地被配置;
创建第二训练数据记录D,所述第二训练数据记录包括经过学习的机器学习系统有关所述第一训练数据记录所确定的工作能力(13)以及分别被分配的配置;
根据所述第二训练数据记录D来使图同构网络(英文Graph Isomorphism Network,GIN,12)进行学习,使得图同构网络(12)根据所述配置(11)来确定所属的工作能力(13);
借助于图同构网络(12)来预测所提供的多个配置的工作能力(13);并且
选择如下那些所预测的配置,对于所述配置来说预测到了最好的工作能力(13)。
2.根据权利要求1所述的方法,其中所述配置分别包括至少一个参数,所述至少一个参数表征所述机器学习系统的结构,其中所述结构借助于DARTS单元来被定义。
3.根据权利要求2所述的方法,其中表征所述机器学习系统的结构和不同的DARTS单元、尤其是标准单元和简化单元的参数被分组成所述第二训练数据记录的不相交图,其中所述配置的表征全部堆叠的单元的可预先给定的数目c和/或训练时期的可预先给定的数目e的其它参数针对所述机器学习系统的每个DARTS单元被组合(英文concatenate)。
4.根据权利要求3所述的方法,其中分别提供所述配置的其它参数的不同实现形式的值的可预先给定的集合,其中所述机器学习系统首先开始于包括所述其它参数的配置地在值的可预先给定的集合中的分别最小值的情况下进行学习,其中其它配置接着根据可预先给定的计算预算(英文computational budget)从值的可预先给定的集合中被选择并且利用所述配置根据所述计算预算来使所述机器学习系统进行学习。
5.根据权利要求4所述的方法,其中借助于连续减半法(英文SuccesiveHalving),根据可预先给定的计算预算来确定其它配置,直至达到所述其它参数的值的可预先给定的集合中的最大值为止。
6.根据权利要求4或5所述的方法,其中在进行学习时,附加地,针对所述值的可预先给定的集合中的所选择的最小值随机使用多个不同的其它配置。
7.根据上述权利要求中任一项所述的方法,其中根据所选择的配置之一来使其它机器学习系统初始化,其中使所述其它机器学习系统进行学习而且其中使用经过学习的其它机器学习系统来确定针对执行器的控制参量。
8.根据上述权利要求中任一项所述的方法,其中替代图同构网络,使用差分图池网络(DiffPool)或者XGBoost或者LGBoost。
9.一种计算机程序,所述计算机程序包括如下指令,在通过计算机来实施所述计算机程序时,所述指令促使所述计算机来实施根据上述权利要求中任一项所述的方法。
10.一种机器可读存储元件,在其上存放有根据权利要求9所述的计算机程序。
11.一种设备,所述设备被设立为实施根据权利要求1至8中任一项所述的方法。
CN202110204703.6A 2020-02-25 2021-02-24 用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序 Pending CN113379064A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE202020101012.3 2020-02-25
DE202020101012.3U DE202020101012U1 (de) 2020-02-25 2020-02-25 Vorrichtung zum Vorhersagen einer geeigneten Konfiguration eines maschinellen Lernsystems für einen Trainingsdatensatz

Publications (1)

Publication Number Publication Date
CN113379064A true CN113379064A (zh) 2021-09-10

Family

ID=69955639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110204703.6A Pending CN113379064A (zh) 2020-02-25 2021-02-24 用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序

Country Status (3)

Country Link
US (1) US20210264256A1 (zh)
CN (1) CN113379064A (zh)
DE (1) DE202020101012U1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100057A1 (en) * 2021-11-30 2023-06-08 International Business Machines Corporation Providing reduced training data for training a machine learning model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488976B (zh) * 2020-12-11 2022-05-17 华中科技大学 一种基于darts网络的多模态医学图像融合方法
CN114413910B (zh) * 2022-03-31 2022-07-12 中国科学院自动化研究所 视觉目标导航方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100057A1 (en) * 2021-11-30 2023-06-08 International Business Machines Corporation Providing reduced training data for training a machine learning model
US11853392B2 (en) 2021-11-30 2023-12-26 International Business Machines Corporation Providing reduced training data for training a machine learning model

Also Published As

Publication number Publication date
DE202020101012U1 (de) 2020-03-08
US20210264256A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
CN113379064A (zh) 用于预测机器学习系统的适合于训练数据记录的配置的方法、设备和计算机程序
JP6902645B2 (ja) センサデータを与える複数の装置を含むシステムを管理する方法
JP2022524244A (ja) 将来の動作の予測分類
EP2690582B1 (en) System for controlling an automated device
US20230260259A1 (en) Method and device for training a neural network
US20220019890A1 (en) Method and device for creating a machine learning system
CN113286008B (zh) 一种边缘计算智能网关业务处理方法及智能网关系统
CN115238904A (zh) 用于在车辆中创建训练数据的方法、设备和计算机程序
US20220012531A1 (en) Method for configuring an image evaluation device and also image evaluation method and image evaluation device
US11599827B2 (en) Method and apparatus for improving the robustness of a machine learning system
CN113378874A (zh) 用于异常检测的设备和方法
Kumar et al. A Reflective Neural Network Based Learning Framework for Intelligent Physical Systems
Pires et al. An approach for fuzzy Kalman filter modeling based on evolving clustering of experimental data
JP2022515756A (ja) 「敵対的サンプル」に対するロバスト性を改善する装置及び方法
US20230024743A1 (en) Efficient second order pruning of computer-implemented neural networks
US20230306265A1 (en) Method and device for determining an optimal architecture of a neural network
EP4273752A1 (en) Device and method for detecting anomalies in technical systems
JP7264412B2 (ja) 敵対的サンプルに対するロバストネスを改善するためのデバイス及び方法
US20240020535A1 (en) Method for estimating model uncertainties with the aid of a neural network and an architecture of the neural network
EP4343619A1 (en) Method for regularizing a neural network
US20240013026A1 (en) Method for ascertaining an optimal architecture of an artificial neural network
US20220012636A1 (en) Method and device for creating a system for the automated creation of machine learning systems
US20240135699A1 (en) Device and method for determining an encoder configured image analysis
US20230022777A1 (en) Method and device for creating a machine learning system including a plurality of outputs
US20230072747A1 (en) Device and method for training a neural network for image analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination