CN114127736A - 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 - Google Patents
处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 Download PDFInfo
- Publication number
- CN114127736A CN114127736A CN202080051252.0A CN202080051252A CN114127736A CN 114127736 A CN114127736 A CN 114127736A CN 202080051252 A CN202080051252 A CN 202080051252A CN 114127736 A CN114127736 A CN 114127736A
- Authority
- CN
- China
- Prior art keywords
- training
- neural network
- artificial neural
- gradient
- learning algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
用于处理数字传感器数据的设备、计算机实施的方法及对此的训练方法,其中提供(302)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(304)针对人工神经网络的架构和针对人工神经网络的权重的参数集,其中根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练(306)所述人工神经网络。
Description
技术领域
本发明以一种用于处理数字传感器数据的设备和计算机实施的方法为出发点。本发明也涉及一种对此的训练方法。
背景技术
人工神经网络适用于处理数字传感器数据。为了训练人工神经网络,需要大数量的数据和高的时间和计算开销。
期望的是,给出与此相对照被改进的措施。
发明内容
这通过独立权利要求的主题来实现。
一种计算机实施的用于处理数字传感器数据的方法设置了,提供来自训练任务的分布的多个训练任务,其中这些训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的参数集,其中根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练人工神经网络,其中根据人工神经网络来处理数字传感器数据。针对离线训练,可以事先记录、模拟或者计算表征数字传感器数据的训练任务。由此,在第一训练阶段,利用至少一个第一训练任务,针对具体的应用或者与具体应用无关地,既可训练人工神经网络的架构,又可训练人工神经网络的权重。针对具体应用,由此在第二训练阶段,可以执行仅利用第二训练任务进行的训练。尤其是当第二训练任务与第一训练任务良好相关时,这极大地减少了用于在适配时进行训练的开销。例如,由此以少的训练开销可能使人工神经网络适配于新的传感器,该新的传感器被用在针对先前的传感器的系统中。借此,提供了用于机器学习的模型,所述模型已经针对确定的训练任务已被优化。尤其是针对深度神经网络,存在如下可能性,容易地将用于机器学习的这样的先验优化过的模型适配于新的训练任务。在这种情况下,例如在使用非常少量的新的被表征的训练数据的情况下,相对于针对先验优化曾必需的训练,“快速”意味着在短的时间内和/或以小的计算开销。
优选地,人工神经网络通过多个层来限定,其中这些层中的多个层的元素具有共同的输入并限定共同的输出,其中除了针对元素中的神经元的权重之外,通过参数限定人工神经网络的架构,其中这些参数中的每个参数都表征多个层的元素之一对输出的贡献。例如,这些元素并行布置。这些参数通过其值例如说明,参数分配给其的元素对输出作出何种贡献。通过除了人工神经网络针对元素中的神经元设置的权重之外的值,对各个元素的输出进行加权。
优选地,在第一阶段,根据多个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,训练人工神经网络,其中在第二阶段,根据第二训练任务并且根据基于梯度的第一学习算法,而且与基于梯度的第二学习算法无关地,训练人工神经网络。例如,第一阶段利用第一训练任务进行,尤其是离线地进行,第一训练任务源自通用应用。例如为了适配于具体应用,第二阶段利用第二训练任务进行,所述第二训练任务源自具体应用的运行。例如,在应用运行中,实施第二训练阶段。
优选地,在第一阶段,根据大量第一训练任务,训练人工神经网络,其中在第二阶段,根据来自第二训练任务的训练数据的小部分,训练人工神经网络。借此,以小的开销,事先经过预先训练的人工神经网络在架构和权重方面被适配于新的应用。
优选地,利用基于梯度的第二学习算法,训练人工神经网络的至少如下参数:所述参数限定人工神经网络的架构。
优选地,设置了一种用于操控计算机控制的机器、尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统、接入控制系统的方法,其中根据数字传感器数据,产生针对训练任务的训练数据,其中借助训练任务,按照所描述的方法来训练用于机器学习、尤其是用于回归(Regression)和/或用于分类和/或另外的应用的设备,所述设备包括人工神经网络,其中根据这样训练过的设备的输出信号,操控计算机控制的机器。针对具体应用来检测训练数据,并且尤其是在第二训练阶段,所述训练数据被用于进行训练。这使人工神经网络的适配变得容易,并且使得能够立即使用。
优选地,训练数据包括传感器的图像数据、视频数据和/或数字传感器数据,所述传感器尤其是摄像机、热图像摄像机(Waermebildkamera)、激光雷达(LiDAR)传感器、雷达(Radar)传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器(Drehzahlfuehler)、扭矩传感器、加速度传感器和/或位置传感器(Lagesensor)。这些传感器特别适用于进行自动化。
计算机实施的用于训练用于机器学习、分类或者操控计算机控制的机器的设备的方法设置了,提供来自训练任务的分布的多个训练任务,其中这些训练任务表征对数字传感器数据的处理,其中根据来自训练任务的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的参数集。由此,与具体应用无关地,并且在使用之前,紧接着根据具体设备来训练该设备,而且由此为了使用在具体应用中而准备该设备。
优选地设置了,根据参数集并且根据第二训练任务,利用基于梯度的第一学习算法,训练人工神经网络。由此,可以高效地实现适配到新的训练任务上。
用于处理数字传感器数据、尤其是用于机器学习、分类或者操控计算机控制的机器的设备包括处理器和针对至少一个人工神经网络的存储器,所述处理器和所述存储器构造为,实施该方法。可以与具体应用无关地准备该设备,并且紧接着可以根据具体应用来训练该设备。
附图说明
其他有利的实施形式从下列描述和附图中得出。
在附图中,
图1示出了用于处理数字传感器数据的设备的部分的示意图,
图2示出了人工神经网络的部分的示意图,
图3示出了在计算机实施的用于处理数字传感器数据的方法中的步骤,
图4示出了在用于操控计算机控制的机器的方法中的步骤,
图5示出了在计算机实施的用于训练的方法中的步骤。
具体实施方式
在图1中,示意性地示出了用于处理数字传感器数据的设备100。设备100包括处理器102和存储器104。为了检测数字传感器数据,在该实例中设置有传感器106。在该实例中,设备100构造用于操控计算机控制的机器108。设备100也可以构造用于机器学习或者分类。
在该实例中,传感器106可经由信号线路110与处理器102连接。在该实例中,处理器102构造为,接收传感器106的数字信号并将所述数字信号作为训练数据存储在存储器104中。训练数据例如包括传感器106的图像数据、视频数据和/或另外的数字传感器数据。训练数据可以至少部分地在设备100运行中利用传感器106来检测。训练数据也可以与由传感器106检测到的数字信号无关,或者也可以与由传感器106提供的数字信号无关。
传感器106尤其是可以是摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器。可以设置有这些传感器中的多个传感器。
在该实例中,计算机控制的机器108经由针对输出信号112的信号线路与处理器102连接。在该实例中,处理器102构造用于根据数字信号来操控计算机控制的机器108。
计算机控制的机器108尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统或者接入控制系统。
在该实例中,存储器104和处理器102与信号线路114连接。这些部件可以在服务器基础设施中尤其是分布式来实现。设备100也可以是以集成在微处理器中的方式包括这些部件的控制设备。
设备100构造为,实施在下文描述的方法或者在下文描述的方法之一。
设备100包括至少一个人工神经网络。在图2中,示意性示出了示例性人工神经网络200。
人工神经网络200通过多个层202-1、...、202-m来限定。在该实例中,输入202-1和输出202-m各通过多个层202-1、...、202-m之一来限定。输入202-1可以是人工神经网络200的输入层,或者可以是人工神经网络200的隐藏层。输出202-m可以是人工神经网络200的输出层,或者可以是人工神经网络200的隐藏层。
多个层202-1、...、202-m的确定的元素202-k、...、202-1具有输入202-1作为共同的输入。在该实例中,元素202-k、...、202-l将输出202-m限定为元素202-k、...、202-l的共同的输出。这意味着,元素202-k、...、202-l在人工神经网络200中关于其共同的输入和关于其共同的输出并行布置。
人工神经网络200例如仅包括唯一的隐藏层。该隐藏层包括多个并行的元素。例如,设置有构造为3×3卷积(Convolution)的第一元素202-k。例如,设置有在图2中未示出的第二元素,该第二元素构造为5×5卷积。例如,设置有第三元素202-l,该第三元素202-l构造为MaxPooling。这三个元素并行布置,并且形成由三个元素{Conv3x3, Conv5x5,MaxPool}组成的搜索空间。
例如,可以如下地给出根据共同的输入“input”针对这三个元素中的每个元素描述该元素的输出“output”的数学函数:
output= Conv3x3(input),
output= Conv5x5(input),
output= MaxPool(input)。
例如,可以如下地给出根据共同的输入“input”来描述这三个元素的共同的输出“output”的数学函数:
更一般而言,除了针对元素202-k、...、202-l中的神经元204-i、...、204-j的权重、...、之外,通过参数、...、来限定人工神经网络200的架构。参数、...、中的每个参数都表征元素202-k、...、202-1之一对共同的输出的贡献。在该实例中,针对n=l-k个元素,限定参数、...、。在该实例中,在针对单个元素的所有输出的乘法中,参数、...、之一确定该单个元素对该层的输出的贡献。
通过相对应地确定参数、...、,可能的是,具体地这些元素202-k、...、202-1中的一个元素单独地确定在该层的输出处的结果。在该实例中,这可能会仅通过参数、...、中的恰好一个参数的不为零的值而是可实现的。例如,在示例性描述的三个元素{Conv3x3, Conv5x5, MaxPool}中,=0、=1和=0意味着,仅考虑Conv5x5的输出,也就是说具有Conv5x5层的架构。对于=1、=0和=0的情况,得出具有Conv3x3层的架构。一般而言,针对元素202-k、...、202-1中的每个元素的参数利用在下文描述的措施来确定,其方式是:确定其中所有元素202-k、...、202-1彼此并行存在的人工神经网络200。每个元素202-k、...、202-1在此都通过实值参数、...、来加权。
参数、...、不是必须一定是0或者1,而是可以取任意实值数,例如= 0.7、=0.2和=0.1。这是搜索空间的松弛。例如,针对参数、...、选择边界条件,使得参数、...、的总和得到值1。例如通过确定参数、...、的实值的值并且通过利用所有值的总和来使参数、...、的值归一化,这是可能的。该松弛是对在人工神经网络200的通过所有这些元素202-k、...、202-1限定的架构中的各个元素202-k、...、202-1进行加权。
可能利用这些、尤其是实值参数、...、简单地优化架构。例如,优化使用基于梯度的算法。优选地,采用随机梯度下降法(stochastic gradient descent)。特别优选地,采用相同类型的算法,该相同类型的算法被用于优化针对元素202-k、...、202-l 中的神经元204-i、...、204-j的权重、...、。
图2中的人工神经网络200是针对并行元素202-k、...、202-1的这样的布局的实例。一般而言,人工神经网络可以尤其是在不同的、相继的隐藏层中具有任意数目的这样的并行元素。也可以设置,将这些元素中的至少一个元素与另一元素或者与多个串行布置的元素并行地进行布置。
人工神经网络的这样的通过确定参数、...、可优化的元素是具有共同的输入并限定共同的输出的部分。可以设置有多个这样的层,所述这样的层具有相应的输入和输出。尤其是,隐藏层中的每个隐藏层都可以这样来构建。可以为这些层中的每个层都设置有相应的输入和输出。
依据图3,以人工神经网络200为例,描述了计算机实施的用于利用这样的人工神经网络来处理数字传感器数据的方法。
在步骤302中,提供来自训练任务T的分布p(T)的多个p个训练任务Tl、T2、...、Tp。
在该实例中,训练任务T表征对数字传感器数据的处理。例如,涉及已由传感器检测到的数据,或者根据传感器检测到的数据确定的数据,或者与这些数据相关的数据。传感器106的图像数据、视频数据和/或数字传感器数据可以作为基础。训练任务T例如表征将数字传感器数据分配至处理结果的分配关系(Zuordnung)。尤其是,针对至少一个摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器的数字传感器数据,至尤其是用于至少部分自主地控制机器108的事件的分类的分配关系可以限定为训练任务。为了进行机器学习或者回归,可以限定相对应的训练任务。
在紧接着的步骤304中,根据来自训练任务T的分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定针对人工神经网络的架构和针对人工神经网络的权重的至少一个第一参数集W1、A1。第一参数集W1、A1包括针对参数、...、的第一参数值集合A1和针对权重、...、的第一集合W1。此外,针对权重的第一集合W1可以包括针对人工神经网络200的所有另外的神经元或者人工神经网络200的神经元的部分的所有另外的权重的值。由在下文描述的梯度下降方法得出的最后的参数值集合限定了第一参数值集合A1。由在下文描述的梯度下降方法得出的最后的带有权重的集合限定了针对权重的第一集合W1。
在此,是一种算法,尤其是优化算法、训练算法或者学习算法,所述算法针对特定的训练任务既优化神经网络针对该训练任务的权重,又优化神经网络针对该训练任务的架构。例如,随着算法的实施,实施k步梯度下降法,以便优化权重和架构。对于计算,算法可以如DARTS算法那样来构造。DARTS标明“Differentiable Architecture Search(可微分的架构搜索)”算法(Hanxiao Liu、Karen Simonyan、Yiming Yang;ICLR;2019年;https://arxiv.org/abs/1806.09055)。
例如针对多个p个训练任务Tl、...、Tp,基于梯度的第二学习算法包括如下分配关系:
用标明元学习算法。根据一系列训练任务Tl、...、Tp,利用所属的经过优化的架构、...、和所属的经过优化的权重、...、,元学习算法优化元架构连带元权重。经过优化的架构通过参数值集合、...、来表示。经过优化的权重通过针对权重的集合、...、来表示。
元学习算法例如是MAML算法。MAML标明用于深度网络快速适配的与模型无关的元学习算法(Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks)(Chelsea Finn、Pieter Abbeel、Sergey Levine;Proceedings of the 34thInternational Conference on Machine Learning;2017年;https://arxiv.org/pdf/1703.03400.pdf)。与迭代地元学习神经网络权重的元学习算法(如例如最初的MAML算法)相反,在所述最初的MAML算法中仅元学习被固定的神经网络的权重w,借此也元学习神经网络200的架构。
对于人工神经网络的架构的实值表示,在该实例中利用MAML算法也针对架构参数计算架构空间中的梯度。利用该梯度下降方法,既优化权重又优化架构。
例如,经由梯度下降方法使下列方程式最小化:
紧接着,在步骤306中检查,第一阶段是否结束。
在该实例中,在第一阶段,根据多个第一训练任务T1、...、Tp,利用基于梯度的第一学习算法和基于梯度的第二学习算法,训练人工神经网络200。
例如,如果停止标准合乎实际,则第一阶段结束。例如,停止标准是达到时间阈值或者资源预算。如果第一阶段结束,则实施步骤308。否则,实施步骤304。
在步骤308中,根据第一参数集W1、A1并且根据第二训练任务,利用基于梯度的第一学习算法来训练人工神经网络200。从利用基于梯度的第一学习算法进行的训练得出的最后的参数值集合限定了第二参数值集合A2。从利用基于梯度的第一学习算法进行的训练得出的最后的具有权重的集合限定了针对权重的第二集合W2。
这意味着,根据新的训练任务并且根据基于梯度的第一学习算法,而且与基于梯度的第二学习算法无关地,训练人工神经网络200。在该实例中,针对参数、...、的第二参数值集合A2和针对权重、...、的第二集合W2限定了在仅利用DARTS算法进行最终训练之后的人工神经网络200。
紧接着,在步骤310中,根据经过训练的人工神经网络200,处理数字传感器数据。
紧接着,该方法结束。
在一个方面,人工神经网络200在第一阶段根据多个第一训练任务被训练,并且在第二阶段根据训练数据的小部分、尤其是来自仅第二训练任务的训练数据的小部分来训练。
在下文,参阅图4来描述在用于操控计算机控制的机器108的方法中的步骤。
用于操控计算机控制的机器108的方法例如在该机器108要被训练时开始。在一个方面,人工神经网络200在第一阶段如前面所描述的那样来训练,并且实施在用于机器学习、用于例如回归和/或用于分类的设备100中。设备100按照该方法来操控计算机控制的机器108。例如,在接通其中实施该人工神经网络200的计算机控制的机器108之后,该方法开始。如例如传感器106的调换或者针对传感器106或者针对计算机控制的机器108的软件更新之类的事件也可以触发开始。
在开始之后,在步骤402中,根据数字传感器数据110,产生针对第二训练任务的训练数据。训练数据可以是传感器106的图像数据、视频数据和/或数字传感器数据。例如,使用摄像机或者热图像摄像机的图像数据。图像数据也可以源自激光雷达传感器、雷达传感器、声学传感器或者超声波传感器。训练数据也可以包括卫星导航系统的接收器的方位、转速传感器的转速、扭矩传感器的扭矩、加速度传感器的加速度和/或位置传感器的位置信息。在该实例中,训练数据与在第一阶段被用于训练人工神经网络200的训练数据相关。这些训练任务同样相关。例如,在调换传感器106时或者在具有传感器106的计算机控制的机器108首次开始运转时,可以使用来自第一阶段的第一训练任务,在所述第一训练任务中,通过实际上由传感器106确定的传感器数据来替换用于第一阶段的通用传感器数据。
在紧接着的步骤404中,借助第二训练任务,训练人工神经网络200。在一个方面,人工神经网络200如前面针对第二阶段所描述的那样被训练。这样,训练设备100。
在紧接着的步骤406中,根据这样经过训练的设备100的输出信号112,操控计算机控制的机器108。
紧接着,例如当计算机控制的机器108被关断时,该方法结束。
在下文,依据图5描述了在计算机实施的用于训练的方法中的步骤。
在开始之后,实施步骤502。
在步骤502中,为按照第一阶段的第一训练任务提供训练数据。例如,训练数据在数据库中被提供。
在紧接着的步骤504中,针对第一阶段确定第一训练任务。例如,为针对第一阶段的训练任务的分布p(T)被确定,并且从分布p(T)中对第一训练任务进行抽样。多个第二训练任务或者一个第二训练任务必须在该时刻还没有给出或者已知。
紧接着,在步骤506中,借助按照第一阶段的第一训练任务,训练人工神经网络200。
在下文,针对第一训练任务的分布p(T),描绘了示例性的实施方案:
while(<some stopping criterion such as time or resource budget(一些停止标准、诸如时间或者资源预算)>):
紧接着,该方法结束。
可选地可以设置,借助按照第二阶段的多个第二训练任务或者仅一个第二训练任务,训练人工神经网络200。
在步骤508中,为按照第二阶段的多个第二训练任务或者仅为按照第二阶段的一个第二训练任务提供训练数据。
紧接着,在步骤510中,确定针对第二阶段的至少一个第二训练任务。
紧接着,根据按照第二阶段的至少一个第二训练任务,训练人工神经网络200。在下文,针对单个第二训练任务T,描绘了步骤512的示例性实施方案:
可以相互独立地预先给定来自训练任务集合的训练任务。根据该方法的第一阶段以及根据仅仅一个新的训练任务,可以确定训练的结果。在需要时,可以将步骤510应用于各种新的训练任务,这些任务那么是相互独立的。
所描述的方法可以被采用,以便利用人工神经网络200作出预测,尤其是根据接收到的传感器数据作出预测。也可以设置,利用人工神经网络从接收到的传感器数据中提取关于传感器106的信息。
在第一阶段,通用训练数据可以被用于确定的传感器类别的传感器,例如传感器106属于该确定的传感器类别。在调换传感器106时,人工神经网络因此可以通过在第二阶段的训练而容易地适配于硬件或者软件代的变动。
另外的具体应用例如是交通标志识别。例如,在第一阶段,使用仅对于少数国家(例如德国或者奥地利)存在的国家特定的交通标志。在第一阶段,利用基于这些国家特定的交通标志的第一训练数据,训练人工神经网络200。如果要在另外的国家中采用该交通标志识别,则在第二阶段利用具有如下交通标志的少量第二训练数据来训练人工神经网络200:所述交通标志对于这些另外的国家而言是特定的。
Claims (12)
1.一种计算机实施的用于处理数字传感器数据的方法,其特征在于,提供(302)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自所述训练任务的所述分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(304)针对人工神经网络的架构和针对所述人工神经网络的权重的参数集,其中根据所述参数集并且根据第二训练任务,利用所述基于梯度的第一学习算法,训练(306)所述人工神经网络,其中根据所述人工神经网络(200)来处理数字传感器数据。
2.根据权利要求1所述的方法,其特征在于,所述人工神经网络(200)通过多个层(202-1、...、202-m)来限定,其中所述层中的所述多个层(202-1、...、202-m)的元素(202-k、...、202-l)具有共同的输入(202-l)并限定共同的输出(202-m),其中除了针对所述元素(202-k、...、202-l)中的神经元(204-i、...、204-j)的所述权重(、...、)之外,通过参数(、...、)限定所述人工神经网络(200)的所述架构,其中所述参数(、...、)中的每个参数都表征所述多个层(202-1、...、202-m)的所述元素(202-k、...、202-l)之一对所述输出的贡献。
3.根据权利要求1或者2所述的方法,其特征在于,在第一阶段,根据大量第一训练任务,利用所述基于梯度的第一学习算法和所述基于梯度的第二学习算法,训练所述人工神经网络(200),其中在第二阶段,根据第二训练任务并且根据所述基于梯度的第一学习算法,而且与所述基于梯度的第二学习算法无关地,训练所述人工神经网络(200)。
4.根据权利要求3所述的方法,其特征在于,在所述第一阶段,根据多个第一训练任务,训练所述人工神经网络(200),其中在所述第二阶段,根据来自所述第二训练任务的所述训练数据的小部分,训练所述人工神经网络(200)。
6.一种用于操控计算机控制的机器(108)的方法,所述计算机控制的机器(108)尤其是至少部分自主的机器人、车辆、家用装置、被驱动的工具、个人辅助系统、接入控制系统,其特征在于,根据数字传感器数据(110),产生(402)针对训练任务的训练数据,其中借助训练任务,按照根据权利要求1至5中任一项所述的方法,训练(404)包括人工神经网络(200)的设备(100),其中根据这样经过训练的所述设备(100)的输出信号(112),操控(406)所述计算机控制的机器(108)。
7.根据权利要求6所述的方法,其特征在于,所述训练数据包括传感器(106)的图像数据、视频数据和/或数字传感器数据,所述传感器(106)尤其是至少一个摄像机、热图像摄像机、激光雷达传感器、雷达传感器、声学传感器、超声波传感器、卫星导航系统的接收器、转速传感器、扭矩传感器、加速度传感器和/或位置传感器。
8.一种计算机实施的用于训练用于机器学习、分类或者操控计算机控制的机器(108)的设备(100)的方法,其特征在于,提供(502,504)来自训练任务的分布的多个训练任务,其中所述训练任务表征对数字传感器数据的处理,其中根据来自所述训练任务的所述分布的至少一个第一训练任务,利用基于梯度的第一学习算法和基于梯度的第二学习算法,确定(506)针对人工神经网络(200)的架构和针对所述人工神经网络(200)的权重的参数集。
9.根据权利要求8所述的方法,其特征在于,根据所述参数集和根据第二训练任务,利用所述基于梯度的第一学习算法,训练(512)所述人工神经网络。
10.一种用于处理数字传感器数据的设备(100),所述设备(100)尤其是用于机器学习、分类或者操控计算机控制的机器(108),其特征在于,所述设备(100)包括处理器(102)和针对至少一个人工神经网络(200)的存储器(104),所述处理器(102)和所述存储器(104)构造为,实施根据权利要求1至9中任一项所述的方法。
11.一种计算机程序,其特征在于,所述计算机程序包括计算机可读的指令,在所述计算机可读的指令在计算机上实施时,运行根据权利要求1至8中任一项所述的方法。
12.一种计算机程序产品,其特征在于机器可读的存储介质,在所述机器可读的存储介质上存储有根据权利要求11所述的计算机程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019210507.6A DE102019210507A1 (de) | 2019-07-16 | 2019-07-16 | Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür |
DE102019210507.6 | 2019-07-16 | ||
PCT/EP2020/067689 WO2021008836A1 (de) | 2019-07-16 | 2020-06-24 | Vorrichtung und computerimplementiertes verfahren für die verarbeitung digitaler sensordaten und trainingsverfahren dafür |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114127736A true CN114127736A (zh) | 2022-03-01 |
Family
ID=71170583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080051252.0A Pending CN114127736A (zh) | 2019-07-16 | 2020-06-24 | 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220292349A1 (zh) |
EP (1) | EP4000010A1 (zh) |
CN (1) | CN114127736A (zh) |
DE (1) | DE102019210507A1 (zh) |
WO (1) | WO2021008836A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11682218B2 (en) | 2021-03-17 | 2023-06-20 | Geotab Inc. | Methods for vehicle data collection by image analysis |
US11669593B2 (en) | 2021-03-17 | 2023-06-06 | Geotab Inc. | Systems and methods for training image processing models for vehicle data collection |
DE102022116627A1 (de) | 2022-07-04 | 2024-01-04 | Ifm Electronic Gmbh | Computerimplementiertes Verfahren zum KI-basierten Betreiben eines Feldgerätes der Automatisierungstechnik |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017128082A1 (de) * | 2017-11-28 | 2019-05-29 | Connaught Electronics Ltd. | Meta-Architektur-Design für ein CNN-Netzwerk |
-
2019
- 2019-07-16 DE DE102019210507.6A patent/DE102019210507A1/de active Pending
-
2020
- 2020-06-24 US US17/625,041 patent/US20220292349A1/en active Pending
- 2020-06-24 EP EP20734900.2A patent/EP4000010A1/de active Pending
- 2020-06-24 CN CN202080051252.0A patent/CN114127736A/zh active Pending
- 2020-06-24 WO PCT/EP2020/067689 patent/WO2021008836A1/de unknown
Also Published As
Publication number | Publication date |
---|---|
EP4000010A1 (de) | 2022-05-25 |
WO2021008836A1 (de) | 2021-01-21 |
DE102019210507A1 (de) | 2021-01-21 |
US20220292349A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114127736A (zh) | 处理数字传感器数据的设备和计算机实施的方法及对此的训练方法 | |
CN108351982B (zh) | 卷积门控递归神经网络 | |
CN106560997B (zh) | 机械学习装置以及电动机控制装置 | |
EP4152154A1 (en) | Adaptive artificial neural network selection techniques | |
CN110088775B (zh) | 使用加强学习的环境预测 | |
CN107808111A (zh) | 用于行人检测和姿态估计的方法和装置 | |
WO2016033506A1 (en) | Processing images using deep neural networks | |
CN112055863A (zh) | 用于确定神经网络的网络配置的方法和设备 | |
US11715020B2 (en) | Device, configured to operate a machine learning system based on predefinable rollout | |
CN111989696A (zh) | 具有顺序学习任务的域中的可扩展持续学习的神经网络 | |
CN111226234A (zh) | 用于创建深度神经网络的方法、设备和计算机程序 | |
US20220067526A1 (en) | Hardware accelerator extension to transfer learning - extending/finishing training to the edge | |
CN114078195A (zh) | 分类模型的训练方法、超参数的搜索方法以及装置 | |
CN114077899A (zh) | 用于在被修改的任务之间进行迁移学习的方法和设备 | |
CN113614743A (zh) | 用于操控机器人的方法和设备 | |
CN114154633A (zh) | 用于压缩神经网络的方法和设备 | |
CN111010595A (zh) | 一种新节目推荐的方法及装置 | |
KR102574434B1 (ko) | 사용자가 요청하는 전문화된 경량 신경망 모델을 실시간으로 생성하는 방법 및 장치 | |
Sang et al. | YOLOv3-VD: A sparse network for vehicle detection using variational dropout | |
CN113947208A (zh) | 用于创建机器学习系统的方法和设备 | |
CN109840921B (zh) | 无人驾驶任务结果的确定方法、装置及无人驾驶设备 | |
US20220392212A1 (en) | Object identification apparatus, object identification method, learning apparatus,learning method, and recording medium | |
DE202019103924U1 (de) | Vorrichtung für die Verarbeitung digitaler Sensordaten | |
EP3572982A1 (en) | Machine learning system | |
JP2022540171A (ja) | 人工ニューラルネットワークのよりロバストなトレーニング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |