CN114127736A - 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 - Google Patents

处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 Download PDF

Info

Publication number
CN114127736A
CN114127736A CN202080051252.0A CN202080051252A CN114127736A CN 114127736 A CN114127736 A CN 114127736A CN 202080051252 A CN202080051252 A CN 202080051252A CN 114127736 A CN114127736 A CN 114127736A
Authority
CN
China
Prior art keywords
training
neural network
artificial neural
gradient
learning algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080051252.0A
Other languages
English (en)
Inventor
T·厄尔斯肯
F·胡特尔
D·斯托尔
J·H·梅岑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN114127736A publication Critical patent/CN114127736A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

用于处理数字传感器数据的设备、计算机实施的方法及对此的训练方法,其中提供(302)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(304)针对人工神经网络的架构和针对人工神经网络的权重的参数集,其中根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练(306)所述人工神经网络。

Description

处理数字传感器数据的设备和计算机实施的方法及对此的训 练方法
技术领域
本发明以一种用于处理数字传感器数据的设备和计算机实施的方法为出发点。本发明也涉及一种对此的训练方法。
背景技术
人工神经网络适用于处理数字传感器数据。为了训练人工神经网络,需要大数量的数据和高的时间和计算开销。
期望的是,给出与此相对照被改进的措施。
发明内容
这通过独立权利要求的主题来实现。
一种计算机实施的用于处理数字传感器数据的方法设置了,提供来自训练任务的分布的多个训练任务,其中这些训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的参数集,其中根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练人工神经网络,其中根据人工神经网络来处理数字传感器数据。针对离线训练,可以事先记录、模拟或者计算表征数字传感器数据的训练任务。由此,在第一训练阶段,利用至少一个第一训练任务,针对具体的应用或者与具体应用无关地,既可训练人工神经网络的架构,又可训练人工神经网络的权重。针对具体应用,由此在第二训练阶段,可以执行仅利用第二训练任务进行的训练。尤其是当第二训练任务与第一训练任务良好相关时,这极大地减少了用于在适配时进行训练的开销。例如,由此以少的训练开销可能使人工神经网络适配于新的传感器,该新的传感器被用在针对先前的传感器的系统中。借此,提供了用于机器学习的模型,所述模型已经针对确定的训练任务已被优化。尤其是针对深度神经网络,存在如下可能性,容易地将用于机器学习的这样的先验优化过的模型适配于新的训练任务。在这种情况下,例如在使用非常少量的新的被表征的训练数据的情况下,相对于针对先验优化曾必需的训练,“快速”意味着在短的时间内和/或以小的计算开销。
优选地,人工神经网络通过多个层来限定,其中这些层中的多个层的元素具有共同的输入并限定共同的输出,其中除了针对元素中的神经元的权重之外,通过参数限定人工神经网络的架构,其中这些参数中的每个参数都表征多个层的元素之一对输出的贡献。例如,这些元素并行布置。这些参数通过其值例如说明,参数分配给其的元素对输出作出何种贡献。通过除了人工神经网络针对元素中的神经元设置的权重之外的值,对各个元素的输出进行加权。
优选地,在第一阶段,根据多个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,训练人工神经网络,其中在第二阶段,根据第二训练任务并且根据基于梯度的第一学习算法,而且与基于梯度的第二学习算法无关地,训练人工神经网络。例如,第一阶段利用第一训练任务进行,尤其是离线地进行,第一训练任务源自通用应用。例如为了适配于具体应用,第二阶段利用第二训练任务进行,所述第二训练任务源自具体应用的运行。例如,在应用运行中,实施第二训练阶段。
优选地,在第一阶段,根据大量第一训练任务,训练人工神经网络,其中在第二阶段,根据来自第二训练任务的训练数据的小部分,训练人工神经网络。借此,以小的开销,事先经过预先训练的人工神经网络在架构和权重方面被适配于新的应用。
优选地,利用基于梯度的第二学习算法,训练人工神经网络的至少如下参数:所述参数限定人工神经网络的架构。
优选地,设置了一种用于操控计算机控制的机器、尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统、接入控制系统的方法,其中根据数字传感器数据,产生针对训练任务的训练数据,其中借助训练任务,按照所描述的方法来训练用于机器学习、尤其是用于回归(Regression)和/或用于分类和/或另外的应用的设备,所述设备包括人工神经网络,其中根据这样训练过的设备的输出信号,操控计算机控制的机器。针对具体应用来检测训练数据,并且尤其是在第二训练阶段,所述训练数据被用于进行训练。这使人工神经网络的适配变得容易,并且使得能够立即使用。
优选地,训练数据包括传感器的图像数据、视频数据和/或数字传感器数据,所述传感器尤其是摄像机、热图像摄像机(Waermebildkamera)、激光雷达(LiDAR)传感器、雷达(Radar)传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器(Drehzahlfuehler)、扭矩传感器、加速度传感器和/或位置传感器(Lagesensor)。这些传感器特别适用于进行自动化。
计算机实施的用于训练用于机器学习、分类或者操控计算机控制的机器的设备的方法设置了,提供来自训练任务的分布的多个训练任务,其中这些训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的参数集。由此,与具体应用无关地,并且在使用之前,紧接着根据具体设备来训练该设备,而且由此为了使用在具体应用中而准备该设备。
优选地设置了,根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练人工神经网络。由此,可以高效地实现适配到新的训练任务上。
用于处理数字传感器数据、尤其是用于机器学习、分类或者操控计算机控制的机器的设备包括处理器和针对至少一个人工神经网络的存储器,所述处理器和所述存储器构造为,实施该方法。可以与具体应用无关地准备该设备,并且紧接着可以根据具体应用来训练该设备。
附图说明
其他有利的实施形式从下列描述和附图中得出。
在附图中,
图1示出了用于处理数字传感器数据的设备的部分的示意图,
图2示出了人工神经网络的部分的示意图,
图3示出了在计算机实施的用于处理数字传感器数据的方法中的步骤,
图4示出了在用于操控计算机控制的机器的方法中的步骤,
图5示出了在计算机实施的用于训练的方法中的步骤。
具体实施方式
在图1中,示意性地示出了用于处理数字传感器数据的设备100。设备100包括处理器102和存储器104。为了检测数字传感器数据,在该实例中设置有传感器106。在该实例中,设备100构造用于操控计算机控制的机器108。设备100也可以构造用于机器学习或者分类。
在该实例中,传感器106可经由信号线路110与处理器102连接。在该实例中,处理器102构造为,接收传感器106的数字信号并将所述数字信号作为训练数据存储在存储器104中。训练数据例如包括传感器106的图像数据、视频数据和/或另外的数字传感器数据。训练数据可以至少部分地在设备100运行中利用传感器106来检测。训练数据也可以与由传感器106检测到的数字信号无关,或者也可以与由传感器106提供的数字信号无关。
传感器106尤其是可以是摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器。可以设置有这些传感器中的多个传感器。
在该实例中,计算机控制的机器108经由针对输出信号112的信号线路与处理器102连接。在该实例中,处理器102构造用于根据数字信号来操控计算机控制的机器108。
计算机控制的机器108尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统或者接入控制系统。
在该实例中,存储器104和处理器102与信号线路114连接。这些部件可以在服务器基础设施中尤其是分布式来实现。设备100也可以是以集成在微处理器中的方式包括这些部件的控制设备。
设备100构造为,实施在下文描述的方法或者在下文描述的方法之一。
设备100包括至少一个人工神经网络。在图2中,示意性示出了示例性人工神经网络200。
人工神经网络200通过多个层202-1、...、202-m来限定。在该实例中,输入202-1和输出202-m各通过多个层202-1、...、202-m之一来限定。输入202-1可以是人工神经网络200的输入层,或者可以是人工神经网络200的隐藏层。输出202-m可以是人工神经网络200的输出层,或者可以是人工神经网络200的隐藏层。
多个层202-1、...、202-m的确定的元素202-k、...、202-1具有输入202-1作为共同的输入。在该实例中,元素202-k、...、202-l将输出202-m限定为元素202-k、...、202-l的共同的输出。这意味着,元素202-k、...、202-l在人工神经网络200中关于其共同的输入和关于其共同的输出并行布置。
人工神经网络200例如仅包括唯一的隐藏层。该隐藏层包括多个并行的元素。例如,设置有构造为3×3卷积(Convolution)的第一元素202-k。例如,设置有在图2中未示出的第二元素,该第二元素构造为5×5卷积。例如,设置有第三元素202-l,该第三元素202-l构造为MaxPooling。这三个元素并行布置,并且形成由三个元素{Conv3x3, Conv5x5,MaxPool}组成的搜索空间。
例如,可以如下地给出根据共同的输入“input”针对这三个元素中的每个元素描述该元素的输出“output”的数学函数:
output= Conv3x3(input),
output= Conv5x5(input),
output= MaxPool(input)。
例如,可以如下地给出根据共同的输入“input”来描述这三个元素的共同的输出“output”的数学函数:
Figure DEST_PATH_IMAGE001
更一般而言,除了针对元素202-k、...、202-l中的神经元204-i、...、204-j的权重
Figure 443920DEST_PATH_IMAGE002
、...、
Figure DEST_PATH_IMAGE003
之外,通过参数
Figure 361061DEST_PATH_IMAGE004
、...、
Figure DEST_PATH_IMAGE005
来限定人工神经网络200的架构。参数
Figure 750585DEST_PATH_IMAGE004
、...、
Figure 145794DEST_PATH_IMAGE005
中的每个参数都表征元素202-k、...、202-1之一对共同的输出的贡献。在该实例中,针对n=l-k个元素,限定参数
Figure 960166DEST_PATH_IMAGE004
、...、
Figure 782629DEST_PATH_IMAGE005
。在该实例中,在针对单个元素的所有输出的乘法中,参数
Figure 384684DEST_PATH_IMAGE004
、...、
Figure 380322DEST_PATH_IMAGE006
之一确定该单个元素对该层的输出的贡献。
通过相对应地确定参数
Figure 49201DEST_PATH_IMAGE004
、...、
Figure DEST_PATH_IMAGE007
,可能的是,具体地这些元素202-k、...、202-1中的一个元素单独地确定在该层的输出处的结果。在该实例中,这可能会仅通过参数
Figure 42565DEST_PATH_IMAGE004
、...、
Figure 796894DEST_PATH_IMAGE005
中的恰好一个参数的不为零的值而是可实现的。例如,在示例性描述的三个元素{Conv3x3, Conv5x5, MaxPool}中,
Figure 330643DEST_PATH_IMAGE004
=0、
Figure 854029DEST_PATH_IMAGE008
=1和
Figure DEST_PATH_IMAGE009
=0意味着,仅考虑Conv5x5的输出,也就是说具有Conv5x5层的架构。对于
Figure 565764DEST_PATH_IMAGE010
=1、
Figure 774766DEST_PATH_IMAGE011
=0和
Figure 49890DEST_PATH_IMAGE009
=0的情况,得出具有Conv3x3层的架构。一般而言,针对元素202-k、...、202-1中的每个元素的参数利用在下文描述的措施来确定,其方式是:确定其中所有元素202-k、...、202-1彼此并行存在的人工神经网络200。每个元素202-k、...、202-1在此都通过实值参数
Figure 568727DEST_PATH_IMAGE004
、...、
Figure 903893DEST_PATH_IMAGE005
来加权。
参数
Figure 632815DEST_PATH_IMAGE004
、...、
Figure 446050DEST_PATH_IMAGE005
不是必须一定是0或者1,而是可以取任意实值数,例如
Figure 724453DEST_PATH_IMAGE004
= 0.7、
Figure 496100DEST_PATH_IMAGE012
=0.2和
Figure 243476DEST_PATH_IMAGE013
=0.1。这是搜索空间的松弛。例如,针对参数
Figure 860403DEST_PATH_IMAGE004
、...、
Figure 275203DEST_PATH_IMAGE005
选择边界条件,使得参数
Figure 93118DEST_PATH_IMAGE004
、...、
Figure 531052DEST_PATH_IMAGE005
的总和得到值1。例如通过确定参数
Figure 951669DEST_PATH_IMAGE004
、...、
Figure 424239DEST_PATH_IMAGE007
的实值的值并且通过利用所有值的总和来使参数
Figure 537689DEST_PATH_IMAGE004
、...、
Figure 462919DEST_PATH_IMAGE005
的值归一化,这是可能的。该松弛是对在人工神经网络200的通过所有这些元素202-k、...、202-1限定的架构中的各个元素202-k、...、202-1进行加权。
可能利用这些、尤其是实值参数
Figure DEST_PATH_IMAGE014
、...、
Figure 795549DEST_PATH_IMAGE015
简单地优化架构。例如,优化使用基于梯度的算法。优选地,采用随机梯度下降法(stochastic gradient descent)。特别优选地,采用相同类型的算法,该相同类型的算法被用于优化针对元素202-k、...、202-l 中的神经元204-i、...、204-j的权重
Figure DEST_PATH_IMAGE016
、...、
Figure 857046DEST_PATH_IMAGE017
图2中的人工神经网络200是针对并行元素202-k、...、202-1的这样的布局的实例。一般而言,人工神经网络可以尤其是在不同的、相继的隐藏层中具有任意数目的这样的并行元素。也可以设置,将这些元素中的至少一个元素与另一元素或者与多个串行布置的元素并行地进行布置。
人工神经网络的这样的通过确定参数
Figure 141397DEST_PATH_IMAGE004
、...、
Figure 366973DEST_PATH_IMAGE015
可优化的元素是具有共同的输入并限定共同的输出的部分。可以设置有多个这样的层,所述这样的层具有相应的输入和输出。尤其是,隐藏层中的每个隐藏层都可以这样来构建。可以为这些层中的每个层都设置有相应的输入和输出。
依据图3,以人工神经网络200为例,描述了计算机实施的用于利用这样的人工神经网络来处理数字传感器数据的方法。
在步骤302中,提供来自训练任务T的分布p(T)的多个p个训练任务Tl、T2、...、Tp
此外,在该实例中,针对三个元素{Conv3x3, Conv5x5, MaxPool},提供元架构
Figure 394972DEST_PATH_IMAGE018
。在该实例中,元架构
Figure 576555DEST_PATH_IMAGE018
初始限定为
Figure 766228DEST_PATH_IMAGE019
这可以是随机的、尤其是实值的从零到一的量。在该实例中,也初始限定元权重
Figure 774373DEST_PATH_IMAGE020
在该实例中,训练任务T表征对数字传感器数据的处理。例如,涉及已由传感器检测到的数据,或者根据传感器检测到的数据确定的数据,或者与这些数据相关的数据。传感器106的图像数据、视频数据和/或数字传感器数据可以作为基础。训练任务T例如表征将数字传感器数据分配至处理结果的分配关系(Zuordnung)。尤其是,针对至少一个摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器的数字传感器数据,至尤其是用于至少部分自主地控制机器108的事件的分类的分配关系可以限定为训练任务。为了进行机器学习或者回归,可以限定相对应的训练任务。
在紧接着的步骤304中,根据来自训练任务T的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的至少一个第一参数集W1、A1。第一参数集W1、A1包括针对参数
Figure 215849DEST_PATH_IMAGE010
、...、
Figure 517518DEST_PATH_IMAGE007
的第一参数值集合A1和针对权重
Figure 111048DEST_PATH_IMAGE021
、...、
Figure 311216DEST_PATH_IMAGE022
的第一集合W1。此外,针对权重的第一集合W1可以包括针对人工神经网络200的所有另外的神经元或者人工神经网络200的神经元的部分的所有另外的权重的值。由在下文描述的梯度下降方法得出的最后的参数值集合
Figure 681018DEST_PATH_IMAGE023
限定了第一参数值集合A1。由在下文描述的梯度下降方法得出的最后的带有权重的集合
Figure 571613DEST_PATH_IMAGE024
限定了针对权重的第一集合W1
针对确定的训练任务Ti、带有参数
Figure 899826DEST_PATH_IMAGE025
、...、
Figure 39821DEST_PATH_IMAGE026
的参数值集合
Figure 947734DEST_PATH_IMAGE023
和具有权重
Figure 738841DEST_PATH_IMAGE027
、...、
Figure DEST_PATH_IMAGE028
的集合
Figure 237956DEST_PATH_IMAGE029
,基于梯度的第一学习算法例如包括如下分配关系:
Figure DEST_PATH_IMAGE030
利用
Figure 865246DEST_PATH_IMAGE031
标明元架构。利用
Figure DEST_PATH_IMAGE032
标明元权重。
在此,
Figure 108009DEST_PATH_IMAGE033
是一种算法,尤其是优化算法、训练算法或者学习算法,所述算法针对特定的训练任务既优化神经网络针对该训练任务的权重,又优化神经网络针对该训练任务的架构。例如,随着算法
Figure 520667DEST_PATH_IMAGE033
的实施,实施k步梯度下降法,以便优化权重和架构。对于计算,算法
Figure 393945DEST_PATH_IMAGE033
可以如DARTS算法那样来构造。DARTS标明“Differentiable Architecture Search(可微分的架构搜索)”算法(Hanxiao Liu、Karen Simonyan、Yiming Yang;ICLR;2019年;https://arxiv.org/abs/1806.09055)。
在该实例中,根据该训练任务Ti,经过优化的架构
Figure 774110DEST_PATH_IMAGE034
根据初始的元架构
Figure DEST_PATH_IMAGE035
和初始的权重
Figure 554985DEST_PATH_IMAGE036
被确定为
Figure DEST_PATH_IMAGE037
此外,确定针对权重
Figure 461630DEST_PATH_IMAGE027
、...、
Figure 771388DEST_PATH_IMAGE038
的经过优化的集合
Figure 842112DEST_PATH_IMAGE029
索引i用信号通知,从第i个训练任务Ti中已确定
Figure 895519DEST_PATH_IMAGE034
。这意味着,参数
Figure 532037DEST_PATH_IMAGE025
、...、
Figure 12697DEST_PATH_IMAGE026
与第i个训练任务Ti有关,并且可以视训练任务Ti而定地变化。
在该实例中,根据另外的训练任务Ti,经过优化的架构
Figure 305138DEST_PATH_IMAGE034
也可以根据初始的元架构被确定为
Figure DEST_PATH_IMAGE039
此外,确定针对权重
Figure 162235DEST_PATH_IMAGE027
、...、
Figure 590943DEST_PATH_IMAGE038
的经过优化的集合
Figure 39241DEST_PATH_IMAGE029
根据基于梯度的第二学习算法,确定至少一个如下参数:所述参数限定所述元素中的至少一个元素对输出的贡献。在该实例中,确定参数
Figure 818979DEST_PATH_IMAGE004
、...、
Figure 197876DEST_PATH_IMAGE007
例如针对多个p个训练任务Tl、...、Tp,基于梯度的第二学习算法包括如下分配关系:
Figure 746669DEST_PATH_IMAGE040
Figure DEST_PATH_IMAGE041
标明元学习算法。根据一系列训练任务Tl、...、Tp,利用所属的经过优化的架构
Figure 818399DEST_PATH_IMAGE042
、...、
Figure DEST_PATH_IMAGE043
和所属的经过优化的权重
Figure 256072DEST_PATH_IMAGE044
、...、
Figure DEST_PATH_IMAGE045
,元学习算法
Figure 268021DEST_PATH_IMAGE041
优化元架构
Figure 733638DEST_PATH_IMAGE035
连带元权重
Figure 992581DEST_PATH_IMAGE046
。经过优化的架构通过参数值集合
Figure 746910DEST_PATH_IMAGE042
、...、
Figure 483922DEST_PATH_IMAGE043
来表示。经过优化的权重通过针对权重的集合
Figure 53312DEST_PATH_IMAGE044
、...、
Figure 545473DEST_PATH_IMAGE045
来表示。
元学习算法
Figure DEST_PATH_IMAGE047
例如是MAML算法。MAML标明用于深度网络快速适配的与模型无关的元学习算法(Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks)(Chelsea Finn、Pieter Abbeel、Sergey Levine;Proceedings of the 34thInternational Conference on Machine Learning;2017年;https://arxiv.org/pdf/1703.03400.pdf)。与迭代地元学习神经网络权重的元学习算法(如例如最初的MAML算法)相反,在所述最初的MAML算法中仅元学习被固定的神经网络的权重w,借此也元学习神经网络200的架构。
对于人工神经网络的架构的实值表示,在该实例中利用MAML算法也针对架构参数计算架构空间中的梯度。利用该梯度下降方法,既优化权重又优化架构。
例如,经由梯度下降方法使下列方程式最小化:
Figure 521520DEST_PATH_IMAGE048
紧接着,在步骤306中检查,第一阶段是否结束。
在该实例中,在第一阶段,根据多个第一训练任务T1、...、Tp,利用基于梯度的第一学习算法和基于梯度的第二学习算法,训练人工神经网络200。
在该实例中,针对参数
Figure DEST_PATH_IMAGE049
、...、
Figure 62222DEST_PATH_IMAGE015
的第一参数值集合A1和针对权重
Figure 705693DEST_PATH_IMAGE021
、...、
Figure 40860DEST_PATH_IMAGE050
的第一集合W1限定了在利用DARTS和MAML算法训练之后的人工神经网络200。
例如,如果停止标准合乎实际,则第一阶段结束。例如,停止标准是达到时间阈值或者资源预算。如果第一阶段结束,则实施步骤308。否则,实施步骤304。
在步骤308中,根据第一参数集W1、A1并且根据第二训练任务,利用基于梯度的第一学习算法来训练人工神经网络200。从利用基于梯度的第一学习算法进行的训练得出的最后的参数值集合
Figure 769781DEST_PATH_IMAGE034
限定了第二参数值集合A2。从利用基于梯度的第一学习算法进行的训练得出的最后的具有权重的集合
Figure DEST_PATH_IMAGE051
限定了针对权重的第二集合W2
这意味着,根据新的训练任务并且根据基于梯度的第一学习算法,而且与基于梯度的第二学习算法无关地,训练人工神经网络200。在该实例中,针对参数
Figure 723962DEST_PATH_IMAGE052
、...、
Figure 221940DEST_PATH_IMAGE007
的第二参数值集合A2和针对权重
Figure 728007DEST_PATH_IMAGE021
、...、
Figure 114864DEST_PATH_IMAGE050
的第二集合W2限定了在仅利用DARTS算法进行最终训练之后的人工神经网络200。
紧接着,在步骤310中,根据经过训练的人工神经网络200,处理数字传感器数据。
紧接着,该方法结束。
在一个方面,人工神经网络200在第一阶段根据多个第一训练任务被训练,并且在第二阶段根据训练数据的小部分、尤其是来自仅第二训练任务的训练数据的小部分来训练。
在下文,参阅图4来描述在用于操控计算机控制的机器108的方法中的步骤。
用于操控计算机控制的机器108的方法例如在该机器108要被训练时开始。在一个方面,人工神经网络200在第一阶段如前面所描述的那样来训练,并且实施在用于机器学习、用于例如回归和/或用于分类的设备100中。设备100按照该方法来操控计算机控制的机器108。例如,在接通其中实施该人工神经网络200的计算机控制的机器108之后,该方法开始。如例如传感器106的调换或者针对传感器106或者针对计算机控制的机器108的软件更新之类的事件也可以触发开始。
在开始之后,在步骤402中,根据数字传感器数据110,产生针对第二训练任务的训练数据。训练数据可以是传感器106的图像数据、视频数据和/或数字传感器数据。例如,使用摄像机或者热图像摄像机的图像数据。图像数据也可以源自激光雷达传感器、雷达传感器、声学传感器或者超声波传感器。训练数据也可以包括卫星导航系统的接收器的方位、转速传感器的转速、扭矩传感器的扭矩、加速度传感器的加速度和/或位置传感器的位置信息。在该实例中,训练数据与在第一阶段被用于训练人工神经网络200的训练数据相关。这些训练任务同样相关。例如,在调换传感器106时或者在具有传感器106的计算机控制的机器108首次开始运转时,可以使用来自第一阶段的第一训练任务,在所述第一训练任务中,通过实际上由传感器106确定的传感器数据来替换用于第一阶段的通用传感器数据。
在紧接着的步骤404中,借助第二训练任务,训练人工神经网络200。在一个方面,人工神经网络200如前面针对第二阶段所描述的那样被训练。这样,训练设备100。
在紧接着的步骤406中,根据这样经过训练的设备100的输出信号112,操控计算机控制的机器108。
紧接着,例如当计算机控制的机器108被关断时,该方法结束。
在下文,依据图5描述了在计算机实施的用于训练的方法中的步骤。
在开始之后,实施步骤502。
在步骤502中,为按照第一阶段的第一训练任务提供训练数据。例如,训练数据在数据库中被提供。
在紧接着的步骤504中,针对第一阶段确定第一训练任务。例如,为针对第一阶段的训练任务的分布p(T)被确定,并且从分布p(T)中对第一训练任务进行抽样。多个第二训练任务或者一个第二训练任务必须在该时刻还没有给出或者已知。
紧接着,在步骤506中,借助按照第一阶段的第一训练任务,训练人工神经网络200。
在下文,针对第一训练任务的分布p(T),描绘了示例性的实施方案:
while(<some stopping criterion such as time or resource budget(一些停止标准、诸如时间或者资源预算)>):
Figure DEST_PATH_IMAGE053
紧接着,该方法结束。
可选地可以设置,借助按照第二阶段的多个第二训练任务或者仅一个第二训练任务,训练人工神经网络200。
在步骤508中,为按照第二阶段的多个第二训练任务或者仅为按照第二阶段的一个第二训练任务提供训练数据。
紧接着,在步骤510中,确定针对第二阶段的至少一个第二训练任务。
紧接着,根据按照第二阶段的至少一个第二训练任务,训练人工神经网络200。在下文,针对单个第二训练任务T,描绘了步骤512的示例性实施方案:
Figure 997369DEST_PATH_IMAGE054
可以相互独立地预先给定来自训练任务集合的训练任务。根据该方法的第一阶段以及根据仅仅一个新的训练任务,可以确定训练的结果。在需要时,可以将步骤510应用于各种新的训练任务,这些任务那么是相互独立的。
所描述的方法可以被采用,以便利用人工神经网络200作出预测,尤其是根据接收到的传感器数据作出预测。也可以设置,利用人工神经网络从接收到的传感器数据中提取关于传感器106的信息。
在第一阶段,通用训练数据可以被用于确定的传感器类别的传感器,例如传感器106属于该确定的传感器类别。在调换传感器106时,人工神经网络因此可以通过在第二阶段的训练而容易地适配于硬件或者软件代的变动。
另外的具体应用例如是交通标志识别。例如,在第一阶段,使用仅对于少数国家(例如德国或者奥地利)存在的国家特定的交通标志。在第一阶段,利用基于这些国家特定的交通标志的第一训练数据,训练人工神经网络200。如果要在另外的国家中采用该交通标志识别,则在第二阶段利用具有如下交通标志的少量第二训练数据来训练人工神经网络200:所述交通标志对于这些另外的国家而言是特定的。

Claims (12)

1.一种计算机实施的用于处理数字传感器数据的方法,其特征在于,提供(302)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自所述训练任务的所述分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(304)针对人工神经网络的架构和针对所述人工神经网络的权重的参数集,其中根据所述参数集并且根据第二训练任务,利用所述基于梯度的第一学习算法,训练(306)所述人工神经网络,其中根据所述人工神经网络(200)来处理数字传感器数据。
2.根据权利要求1所述的方法,其特征在于,所述人工神经网络(200)通过多个层(202-1、...、202-m)来限定,其中所述层中的所述多个层(202-1、...、202-m)的元素(202-k、...、202-l)具有共同的输入(202-l)并限定共同的输出(202-m),其中除了针对所述元素(202-k、...、202-l)中的神经元(204-i、...、204-j)的所述权重(
Figure 183987DEST_PATH_IMAGE001
、...、
Figure 412712DEST_PATH_IMAGE002
)之外,通过参数(
Figure 192449DEST_PATH_IMAGE003
、...、
Figure 587658DEST_PATH_IMAGE004
)限定所述人工神经网络(200)的所述架构,其中所述参数(
Figure 402030DEST_PATH_IMAGE005
、...、
Figure 99859DEST_PATH_IMAGE004
)中的每个参数都表征所述多个层(202-1、...、202-m)的所述元素(202-k、...、202-l)之一对所述输出的贡献。
3.根据权利要求1或者2所述的方法,其特征在于,在第一阶段,根据大量第一训练任务,利用所述基于梯度的第一学习算法和所述基于梯度的第二学习算法,训练所述人工神经网络(200),其中在第二阶段,根据第二训练任务并且根据所述基于梯度的第一学习算法,而且与所述基于梯度的第二学习算法无关地,训练所述人工神经网络(200)。
4.根据权利要求3所述的方法,其特征在于,在所述第一阶段,根据多个第一训练任务,训练所述人工神经网络(200),其中在所述第二阶段,根据来自所述第二训练任务的所述训练数据的小部分,训练所述人工神经网络(200)。
5.根据权利要求4所述的方法,其特征在于,利用所述基于梯度的第二学习算法,训练所述人工神经网络(200)的至少如下所述参数(
Figure 366892DEST_PATH_IMAGE003
、...、
Figure 565793DEST_PATH_IMAGE004
):所述参数(
Figure 234671DEST_PATH_IMAGE003
、...、
Figure 336357DEST_PATH_IMAGE004
)限定所述人工神经网络(200)的所述架构。
6.一种用于操控计算机控制的机器(108)的方法,所述计算机控制的机器(108)尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统、接入控制系统,其特征在于,根据数字传感器数据(110),产生(402)针对训练任务的训练数据,其中借助训练任务,按照根据权利要求1至5中任一项所述的方法,训练(404)包括人工神经网络(200)的设备(100),其中根据这样经过训练的所述设备(100)的输出信号(112),操控(406)所述计算机控制的机器(108)。
7.根据权利要求6所述的方法,其特征在于,所述训练数据包括传感器(106)的图像数据、视频数据和/或数字传感器数据,所述传感器(106)尤其是至少一个摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器。
8.一种计算机实施的用于训练用于机器学习、分类或者操控计算机控制的机器(108)的设备(100)的方法,其特征在于,提供(502,504)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自所述训练任务的所述分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(506)针对人工神经网络(200)的架构和针对所述人工神经网络(200)的权重的参数集。
9.根据权利要求8所述的方法,其特征在于,根据所述参数集和根据第二训练任务,利用所述基于梯度的第一学习算法,训练(512)所述人工神经网络。
10.一种用于处理数字传感器数据的设备(100),所述设备(100)尤其是用于机器学习、分类或者操控计算机控制的机器(108),其特征在于,所述设备(100)包括处理器(102)和针对至少一个人工神经网络(200)的存储器(104),所述处理器(102)和所述存储器(104)构造为,实施根据权利要求1至9中任一项所述的方法。
11.一种计算机程序,其特征在于,所述计算机程序包括计算机可读的指令,在所述计算机可读的指令在计算机上实施时,运行根据权利要求1至8中任一项所述的方法。
12.一种计算机程序产品,其特征在于机器可读的存储介质,在所述机器可读的存储介质上存储有根据权利要求11所述的计算机程序。
CN202080051252.0A 2019-07-16 2020-06-24 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 Pending CN114127736A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102019210507.6A DE102019210507A1 (de) 2019-07-16 2019-07-16 Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür
DE102019210507.6 2019-07-16
PCT/EP2020/067689 WO2021008836A1 (de) 2019-07-16 2020-06-24 Vorrichtung und computerimplementiertes verfahren für die verarbeitung digitaler sensordaten und trainingsverfahren dafür

Publications (1)

Publication Number Publication Date
CN114127736A true CN114127736A (zh) 2022-03-01

Family

ID=71170583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080051252.0A Pending CN114127736A (zh) 2019-07-16 2020-06-24 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法

Country Status (5)

Country Link
US (1) US20220292349A1 (zh)
EP (1) EP4000010A1 (zh)
CN (1) CN114127736A (zh)
DE (1) DE102019210507A1 (zh)
WO (1) WO2021008836A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11682218B2 (en) 2021-03-17 2023-06-20 Geotab Inc. Methods for vehicle data collection by image analysis
US11669593B2 (en) 2021-03-17 2023-06-06 Geotab Inc. Systems and methods for training image processing models for vehicle data collection
DE102022116627A1 (de) 2022-07-04 2024-01-04 Ifm Electronic Gmbh Computerimplementiertes Verfahren zum KI-basierten Betreiben eines Feldgerätes der Automatisierungstechnik

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017128082A1 (de) * 2017-11-28 2019-05-29 Connaught Electronics Ltd. Meta-Architektur-Design für ein CNN-Netzwerk

Also Published As

Publication number Publication date
EP4000010A1 (de) 2022-05-25
WO2021008836A1 (de) 2021-01-21
DE102019210507A1 (de) 2021-01-21
US20220292349A1 (en) 2022-09-15

Similar Documents

Publication Publication Date Title
CN114127736A (zh) 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法
CN108351982B (zh) 卷积门控递归神经网络
CN106560997B (zh) 机械学习装置以及电动机控制装置
EP4152154A1 (en) Adaptive artificial neural network selection techniques
CN110088775B (zh) 使用加强学习的环境预测
CN107808111A (zh) 用于行人检测和姿态估计的方法和装置
WO2016033506A1 (en) Processing images using deep neural networks
CN112055863A (zh) 用于确定神经网络的网络配置的方法和设备
US11715020B2 (en) Device, configured to operate a machine learning system based on predefinable rollout
CN111989696A (zh) 具有顺序学习任务的域中的可扩展持续学习的神经网络
CN111226234A (zh) 用于创建深度神经网络的方法、设备和计算机程序
US20220067526A1 (en) Hardware accelerator extension to transfer learning - extending/finishing training to the edge
CN114078195A (zh) 分类模型的训练方法、超参数的搜索方法以及装置
CN114077899A (zh) 用于在被修改的任务之间进行迁移学习的方法和设备
CN113614743A (zh) 用于操控机器人的方法和设备
CN114154633A (zh) 用于压缩神经网络的方法和设备
CN111010595A (zh) 一种新节目推荐的方法及装置
KR102574434B1 (ko) 사용자가 요청하는 전문화된 경량 신경망 모델을 실시간으로 생성하는 방법 및 장치
Sang et al. YOLOv3-VD: A sparse network for vehicle detection using variational dropout
CN113947208A (zh) 用于创建机器学习系统的方法和设备
CN109840921B (zh) 无人驾驶任务结果的确定方法、装置及无人驾驶设备
US20220392212A1 (en) Object identification apparatus, object identification method, learning apparatus,learning method, and recording medium
DE202019103924U1 (de) Vorrichtung für die Verarbeitung digitaler Sensordaten
EP3572982A1 (en) Machine learning system
JP2022540171A (ja) 人工ニューラルネットワークのよりロバストなトレーニング

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination