CN117332834A - 借助于神经网络对时间上展开到过去的过程的管理 - Google Patents
借助于神经网络对时间上展开到过去的过程的管理 Download PDFInfo
- Publication number
- CN117332834A CN117332834A CN202310802249.3A CN202310802249A CN117332834A CN 117332834 A CN117332834 A CN 117332834A CN 202310802249 A CN202310802249 A CN 202310802249A CN 117332834 A CN117332834 A CN 117332834A
- Authority
- CN
- China
- Prior art keywords
- neural network
- time
- stopwatch
- input data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 137
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000008569 process Effects 0.000 title claims abstract description 24
- 238000012549 training Methods 0.000 claims description 46
- 230000000630 rising effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 10
- 238000009434 installation Methods 0.000 claims description 8
- 238000011161 development Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 description 22
- 238000004088 simulation Methods 0.000 description 21
- 238000013461 design Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 230000000306 recurrent effect Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000031018 biological processes and functions Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 235000016936 Dendrocalamus strictus Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000009711 regulatory function Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/067—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Neurology (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Control Of Conveyors (AREA)
Abstract
借助于神经网络对时间上展开到过去的过程,特别是在工业设施中同时运行的过程的管理。以包括用于单件货物的多个并行输送段的物流系统为例,每个输送段在输送方向上汇集到组合单元,描述了如何能够借助于神经网络重建对这种工业设施在时间和空间上极其复杂的控制,使得神经网络也可以可靠地识别时间和空间依赖性。这是通过数字秒表实现的,除了物流系统的传感器数据之外,所述数字秒表也被施加到神经网络,并且总是在运动检测器表明包裹通过时被重置为初始值。
Description
背景技术
神经网络是机器学习和人工智能技术领域中的计算机实现的人工工具。数字技术领域的技术人员将技术术语“神经网络”理解为具有准确确定的形状和结构的计算机人工网络(将计算机称为“节点”或“神经元”)。计算机实现的人工神经网络具有输入节点和输出节点以及根据设计位于输入节点和输出节点之间的内部节点。这些节点通过所谓的边以清晰明确的方式相互连接。每个节点都具有接收侧和发送侧。在接收侧,从上游节点接收值并在节点中基于本地权重进行关联,其方式是例如将每个接收到的值与特定于该边的权重相乘,并且必要时增加预给定值,然后将所有以这种方式加权的值相加。如果所得到的总和超过特定值(例如由所谓的“激活函数”定义),则节点激活自身并且所确定的值在发送侧输出(例如输出到下游节点)。从未激活的节点例如输出零或根本不输出任何值。
在运行中,在输入节点上施加输入数据,所述输入数据将由网络如上所述进行处理,从而导致在输出节点处输出输出数据。神经网络的这种工作方式称为“预测”或“推理”。
节点中的本地权重是通过所谓的“训练”或“学习”来配置的。在此,开始时通过为权重分配随机数来随机选择学习过程的起点,因为不知道神经网络可以使用哪种权重组合来解决为该神经网络设立的任务。然后,逐步将训练数据的一部分(例如90%)先后输入到神经网络中,并观察神经网络输出了什么作为预测。该步骤称为“前向传递(ForwardPass)”。训练数据在此通过网络向前运行。在每个步骤中,将网络的输出与网络应针对相应训练数据输出的期望结果进行比较。然后通过形成差值确定神经网络的错误程度。以这种方式计算的错误现在被用于通过一种称为“反向传播”(backpropagation)的学习方法来改变存储在神经网络中的权重,使得结果变得稍微好一些。为此,将错误从输出节点出发朝着相反的方向(即朝着输入节点的方向)沿着神经网络的结构分配给节点,由此为每个节点形成特定于节点的期望结果。利用这些特定于节点的期望结果,在节点中将权重稍微向上或向下调整。在此,权重距离特定于节点的期望结果越远,就越强烈地调整所述权重。学习方法由此确定网络的哪个部分导致了最严重的错误,并通过重新调整权重来对应加权地抵消最严重的错误。这就是所谓的“向后传递”(Backward Pass),因为错误向后从输出通过网络流动到输入。然后在下一次,网络离得稍微更近一些并且重复整个过程。必须这样做很长一段时间:对于诸如识别图像的简单任务,必须这样做数万或数十万次;对于诸如为自主驾驶的汽车识别行人的困难任务也必须这样做数十亿次。如果训练过程中的错误对于该训练数据足够小,则继续到下一个训练数据,如果该错误对于所有训练数据都足够小,则停止训练。使用训练数据和训练的其他终止标准的其他顺序也是可能的。
现在使用尚未用于训练的剩余训练数据(例如10%)来检查训练的质量。网络从未见过这些训练数据,因此无法“熟记”这些训练数据,即无法通过训练将这些训练数据存储在权重中。
如果网络能够基于可接受数量的这种训练数据提供与之匹配的期望结果,则神经网络的训练很可能是成功的。训练可以结束并且神经网络的操作运行可以开始。在此,可以在运行期间继续通过训练重新调整神经网络(例如,如果用户选择在哪些图像上看到特定的被查询对象,但神经网络尚未识别出所述被查询对象的存在)。
然而,如果网络无法基于可接受数量的这种训练数据提供与之匹配的期望结果,则面临大多要求极高的技术任务,即寻找其原因和/或解决方案,在这些解决方案中网络基于可接受数量的这种训练数据提供与之匹配的期望结果。
由于复杂神经网络的复杂性和多维结构,描述复杂神经网络的行为可能非常具有挑战性。从数学中借用的术语可以为此成为功能良好的描述工具。从而可以很好地用状态向量来检测例如神经网络在特定时间点的状态,在所述状态向量中为每个节点提供一个条目。同时,可以用矩阵很好地表示所有学习到的权重的总和。然后,可以借助于所述状态向量与权重矩阵的乘法很好地描述神经网络随时间的动态行为。
神经网络有时被视为应当本身具有抽象数学性质的计算模型和算法的示例,这或许得益于神经网络良好的数学可描述性。然而,这种观点造成了语言和事实上的困难。从语言上来说,网络就是网络,模型就是模型。一个物品不会仅仅因为声称它或想要这样看待它就成为另一个物品。从事实上来说,神经网络对于数字技术领域的相关技术人员在语言上与开头描述的词语一致,是计算机实现的节点的人工“网络”。尽管这可能很诱人,甚至可能是可以理解的,但使用数学描述手段不允许仅仅因为神经网络可以用从数学中借用的术语来很好地描述就将神经网络等同于数学。
这种重要的区别也反映在欧洲专利局上诉委员会05/03/07于2019年7月29日做出的T 1924/17号决定中,根据该决定的第19.1段,数学并且特别是数学“本身”仅应如下理解:
-数字、数量和空间的抽象科学,
-基于一组数学公理的数学定理的推导和证明,
-根据特定的简单规则用无意义的标记在纸上进行的游戏。
因此,神经网络不是数学。相反,神经网络形成了独立的技术领域,具有特定于神经网络的技术问题以及这些问题的大量可能的技术解决方案。
发明内容
与每个技术领域一样,这里的任务是识别至少一个技术问题并说明至少一种技术教导以解决所述技术问题。
该任务通过本文献并且这里尤其是通过以下描述部分和附图来完成。哪些技术教导在此作为发明受到保护由权利要求得出。
尽管神经网络作为独立的技术领域通常可以普遍应用并且不限于特定应用,但如果基于具体应用来描述神经网络的具体问题和解决方案,则仍然可以更好地理解。因此,下面描述借助于神经网络对在时间上展开到过去的过程,特别是在工业设施中同时运行的过程的管理,所述工业设施特别是由单独可控的流水线区段组成的工业设施。不过如前所述,这仅用于提供更好的说明,而决不应理解为限于该应用。
由单独可控的流水线区段组成的工业设施通常用于内部物流或一般而言用于生产环境。例如,包裹分拣设施由一个或多个指状件组成,这些指状件又包含多个依次连接的流水线区段。包裹分拣设施尤其是用于分离不同或相同长度的包裹。另一个示例是包装机,其中产品必须在输送段上加速/减速,以与时钟频率匹配地将所述产品运送到位于输送段末端处的制袋装袋机。
“动态间隙器”在此是一种在内部物流中使用的受控驱动应用。在该应用中,应当将通常由两个或更多个并行输送段朝着一个方向输送的包裹汇集到唯一的一个出口输送段上。在此,在两个或更多个并行输送段上彼此之间具有未定义距离的包裹应当借助于组合单元分拣到出口输送段上,同时被置于定义的距离下。
包裹的组合和定义距离的产生是借助于相应输送段的多个子传送带来实现的。相应子传送带由齿轮电动机驱动并由变频器控制。相应子输送段的速度目标值由控制器预给定。在此,包裹在子输送段上的位置由传感器探测并在控制器中加以处理。包裹之间的位置通常由在每两个包裹之间作用的PI调节器影响。基于当前存在的信息,控制器对子输送段进行不同的加速和减速。
由于存在多个并行的输送段且每个输送段具有多个应当彼此独立地加速和减速的子传送带,控制器在调节技术方面是费事的。由于包裹大小和包裹特性不同,优化非常复杂。在不同机械设计类型的情况下对调节过程的适配是巨大的。例如,如果输送段的数量或各个子输送段的长度发生变化,则会对调节过程产生重大影响,并且需要在控制器中进行适配。
此外,如果不存在设施的物理模型(例如仿真),则在任何时间点和任何状况(各个包裹的数量、大小和位置)下确定各个流水线的最佳速度在技术上非常具有挑战性。
作为解决该任务的基础可以使用忠实于物理的仿真模型形式的数字孪生。它们可以借助于数字工具创建,如Siemens Digital IndustriesSoftware公司(以前称为SiemensProduct Lifecycle ManagementSoftware公司,简称Siemens PLM Software)的NX MCD(MechatronicConcept Design,机电一体化概念设计)或Unity Software公司(以UnityTechnologies为公司名称)的Unity Simulation Pro。
使用NX MCD进行忠实于物理的仿真例如使得除了显示几何形状的建模之外还可以在物理效应(例如力、惯性、加速度)起作用的环境中对模型进行运动学评估。通过重用库来支持验证,从所述重用库中可以将组件添加到功能模型中。这些组件包含进一步的信息,例如几何形状、参数或运动学。通过这种方式逐步地创建基于物理的交互式仿真以验证未来的机器运行。
已经认识到,忠实于物理的仿真有时也可能带来困难和问题:
a)物理仿真大多需要熟悉系统的专家或一套已仿真的个体部件(例如不同的驱动电动机模型)。如果这些不可用,则可能无法创建这些仿真。
b)当包裹在流水线之间传递时,忠实于物理的仿真有时可能不够准确。
c)复杂设施的忠实于物理的建模可能非常耗时,因此成本高昂。
d)如果无法访问产品的控制器,则由于缺乏对控制器细节的了解,也可能无法借助于忠实于物理的仿真来重建控制器的行为。例如,如果应当模拟竞争对手的产品,但无法访问该产品的控制器,则可能会出现这种情况,例如在计算机实现的控制器的情况下当该控制器的源代码不可用,而仅机器可读代码可用以及对机器可读代码的反编译出于某种原因(例如合同禁令、技术上的阻碍)不可能时就会出现这种情况。
为了解决这些问题的至少一个,建议借助于神经网络来实现数字孪生。
在此,神经网络连接到现有传感器,利用所述现有传感器检测传送带的实际状态。在此,术语“传感器”应广泛地理解并且例如也可以包括当前存在的控制命令。于是神经网络的输入数据可以例如包括以下数据:
-光栅的状态,利用所述状态在特定部位检测是否恰好存在包裹-传送带的驱动电动机的实际速度
-传送带的驱动电动机的目标速度,所述目标速度可以例如从由控制器传送到驱动电动机的控制命令中导出。
于是神经网络的任务是基于这些数据来预测这些参数在未来的特定时间点预计将具有什么样的值。
在解决该任务时出现了另外的意想不到的技术问题。必须首先识别这些技术问题并找出这些技术问题的原因。然后应当找到解决方案。
例如,只有在存在足够的训练数据时才能以足够的准确度训练神经网络。如果只存在很少的训练数据,则训练数据无法足够密集地覆盖神经网络的整个状态空间。这导致神经网络必须在训练数据之间的空隙中进行大量插值。由此可能导致显著的不准确、过度拟合和不良泛化。
已经认识到,该技术问题的可能解决方案在于追求大约10ms(或更短)的尽可能窄的仿真时钟,以便由此为运行和训练生成尽可能多的并且尤其是在时间上非常靠近的输入数据。
在这种情况下,神经网络的任务是基于输入数据来预测这些参数在所追求的10ms的窄时钟的下一个时钟内预计将具有什么样的值。
令人惊讶的是,如果多个子输送段必须相对于彼此进行协调,则神经网络无法基于上述输入数据可靠地做出期望的预测。
在这种情况下,至少两个至(通常是)所有待相关的子输送段的传感器连接到神经网络,并且借助于传感器的实际状态来训练神经网络的权重,所述状态如建议的那样是例如每10ms检测的。在此,时间点t处的传感器数据形成神经网络的输入数据,所述神经网络从中导出时间点t+1处的预计传感器数据作为输出数据,其中t和t+1之间的间隔是任意选择的并且如建议的那样可以非常接近10ms。所述输出数据与时间点t+1处实际存在的传感器数据进行比较。
预测与现实的一致程度形成神经网络的一个质量参数,因此该一致程度(就像许多其他依赖于精度的工具一样)例如可以将因为做出特别精确的预测而高质量的神经网络与具有较低质量的神经网络区分开来。
此外,在训练神经网络期间将偏差用于配置神经网络,大多通过适配所述神经网络的权重。
神经网络的处理速度可以是另一个质量参数,该质量参数与预测精度无关,但尤其是在所建议的10ms的窄时钟的情况下一样重要。作为粗略的经验法则,对于少量输入数据和/或运行缓慢的过程而言,处理速度通常是次要的,并且随着复杂度的增加可能变得更加重要。
现在令人惊讶的是,在这种布置和这种过程中,神经网络不能基于时间点t处的传感器数据可靠地创建对时间点t+1处的预计传感器数据的足够准确的预测。
根据一项发现,这尤其是由于神经网络的另外一个技术问题所致,即处理随时间动态运行的过程对于神经网络来说非常困难。神经网络根据其结构和其通过训练学习到的权重将输入数据映射为输出数据。只要网络的结构和权重不改变,该映射对于相同的输入数据而言原则上总是相同的。已经认识到,开头描述结构的神经网络使用上述输入数据不能识别过去何时检测到子输送段的包裹以及该包裹当前已经移动了多远。
同样,如果神经网络应当在依次连接和/或并行连接的多个子输送段之间进行时间区分以确定哪些子输送段必须加速,哪些子输送段必须减速,则例如由此防止在相同高度上并行运输的包裹在组合单元中的碰撞和/或与被下游子输送段减速的包裹碰撞。这里可能会出现对于神经网络来说矛盾的状况,即特定的子输送段在输入数据相同的情况下有时加速,有时减速,有时保持不变地运行。
根据一项发现,这取决于上游、下游或并排的子输送段的状况如何。各个包裹的运输进程中最微小的差异对于控制器决定哪些包裹要加速、减速或保持不变地继续运输都是至关重要的。
当单独考虑特定的子输送段时,神经网络无法识别这些差异。当总体考虑所有子输送段和10ms的窄时钟时,神经网络也无法识别这些差异。网络基于其输入数据总是仅在扫描传感器数据的时间点才看到各个当前状态。然而,无法从检测到的传感器数据中识别出这种状态已经持续了多长时间。
因此,实现具有马尔可夫特性的神经网络也不容易,在该神经网络中对于例如以10ms的间隔检测的时间上连续的传感器数据的集合而言,这些传感器数据的将由神经网络确定的下一个状态的概率仅取决于直接在前的状态,而不取决于更早的状态。
最后,这种动态性导致与以下范式的矛盾,即只要神经网络结构和权重不改变,神经网络对相同输入数据的预测原则上总是相同。在针对相同的输入数据进行训练时,神经网络会反复遇到部分截然相反的训练规范。对于神经网络的相同输入数据,相同的子输送段必须有时加速、有时减速、有时保持不变。于是权重的配置取决于随机参数,例如训练数据的顺序或选择。
形象地说,可以大致想象成神经网络的内部结构在训练期间开始“振荡”。该内部结构随机地(例如取决于训练数据是如何构造的)有时倾向于一个方向,有时倾向于另一个方向,必要时甚至在不同的方向之间来回摇摆。
这种扩散性在训练完成后仍在继续。在运行时也总是得出以下状况,即神经网络的预测与控制器的实际行为不仅仅是略有偏差,而是明显偏差。
现在,一个任务是为已识别的问题找到解决方案。当追求约为10ms的窄时钟时,该技术任务特别具有挑战性,因为在这种情况下信息必须在许多时间步骤上传输,由此仿真模型可能变得非常复杂。
为了解决时间问题,对于用作神经网络的应用示例的包裹分拣设施,建议针对每个例如借助于光栅来检查包裹是否存在的传感器提供一种“秒表”作为神经网络的进一步输入数据,总是在分配的传感器表明其状态发生变化时,所述秒表就被重置为初始值(在秒表的情况下通常为“零”)。在光栅的情况下,该传感器的这种状态通常是二元的,即该状态恰好具有两种状态:
(1)“光栅中断”=
“现在有一个包裹”
(2)“光栅未中断”=
“目前没有包裹”。
脱离该应用示例,可以看出该解决方案可以简化为只有一个设计为运动检测器的传感器和只有一个分配给该传感器的秒表。在此,总是在传感器探测到运动时重置秒表。
在重置后,秒表重新开始并测量时间的流逝。然后当前在每个预测瞬时出现的秒表值可以指示传感器的触发是在过去多久。通过这种技术教导,该信息可以在许多时间步骤上传输,并且神经网络可以理解时间上向过去的展开。
如果施加锯齿曲线作为附加输入值,则可以实现与秒表的直接对应,所述锯齿曲线在每次重置后重新开始并在所建议的10ms的窄时钟情况下在每个预测周期中线性变化恒定值。通过这种方式,可以以恒定的耗费在许多时间步骤上传输该时间信息。取决于变化值的设计,这在结果方面得出线性上升或线性下降的锯齿曲线。在此,一种变型是分别被重置为“0”并在每个周期中变化“+1”的曲线。
可以想到其中秒表以不同于线性的方式随时间变化的替代设计。秒表例如可以被建模为光栅信号的上升沿/下降沿,并且在此不仅可以被建模为线性锯齿函数,还可以被建模为指数锯齿函数。或者可以基于下降沿或上升沿时的传送带位置与各当前时间点之间的差异来改变秒表。从而神经网络可以识别包裹之间的不同距离,这尤其是在控制器也考虑到这一方面时很重要,所述控制器应当由作为数字孪生的神经网络重建。
同样,秒表可以在经过一定时间后停止。在此这里要考虑的是,例如在考察包裹分拣设施的情况下,控制器尤其是在探测到运动后不久决定包裹相对于其他包裹来看是否更快、更慢或以相同的速度继续运输。一旦做出该决定,该决定对于相应的运输区段大多保持不变,直到由于其他运动检测器的触发而在必要时需要校正为止。然而,其他秒表则负责识别这种状况。例如在具有大量秒表的大型系统中,就神经网络的处理速度和可能需要的实时能力而言,秒表的停止可以具有相当大的优势。
此外,还可以为例如构造为运动检测器的传感器提供多于一个秒表。例如就包裹分拣设施而言,有利的是提供两个秒表,并且在此当探测到包裹时启动第一个秒表,当该包裹经过所述传感器时启动第二个秒表。从而神经网络例如可以通过将两个秒表之间的差异与必要时子传送带的速度(例如,从该子传送带的齿轮电动机的速度导出)相关联来识别包裹的大小。这种知识使得神经网络例如能够重建控制器的行为,该控制器考虑了诸如组合单元前面或包装机的制袋装袋机前面的包裹之间特定的、定义的距离等预给定值。
使用这种神经网络形成的数字孪生可以尤其是用于以下目的和/或具有以下优点:
-对设施的标准运行进行仿真以确保符合规范;
-确定所述设施的吞吐量;
-对所述设施的运行中的特殊情况进行仿真,无需投资特殊硬件或不会对设施组件造成潜在损坏;
-与设施运行并行地在边缘设备上运行仿真模型,并且在此过程中识别异常运行状态;
-优化设施结构(例如指状件、即流水线的数量);
-使用强化学习确定设施的最优控制。如果为此使用具有马尔可夫特性的神经网络,则对于借助于强化学习进行最佳控制是特别有利的。
-基于神经网络的预测模型可以是纯粹基于数据的,即不需要关于例如驱动电动机的系统行为的详细知识,而只需要来自过去或来自相同结构的设施的数据,而物理仿真模型以关于设施组件及其环境的精确知识为前提。因此,使用诸如NX MCD或Unity的程序创建复杂设施的物理仿真模型通常需要专家花费大量时间来映射设施的精确行为,而预测模型的创建可以通过借助于监督学习训练神经网络来自动进行。这也使得创建更具成本效益,因为无需专家即可创建。
-如果模型的准确度不再令人满意,则可以随时重新训练通过借助于监督学习训练神经网络而创建的预测模型。
-通过训练神经网络创建的预测模型基于真实数据,并且一起学习传送带区段上的难以仿真的过渡。
-如果应当更换尚不存在使用例如NX MCD或Unity的物理仿真模型的设施组件(例如驱动电动机),则可以明显更快地并且因此更具成本效益地创建纯粹基于数据的预测模型。
-通过使用神经网络,可以安装来自不同制造商的设施组件,然后为此创建预测模型,对于这些设施组件不存在使用例如NX MCD或Unity的物理仿真模型,并且由于无法访问制造商的数据也不能创建物理仿真模型。从而可以为不存在物理仿真模型的(竞争)设施开发最佳控制器。
-当在边缘设备上使用时,神经网络可以与设施运行并行地运行并识别异常运行状态,例如由神经网络实现的预测模型的不完整数据或设施组件(例如驱动电动机)的缺陷。如果现实与预测显著不同,也可以生成警报数据。
-通过使用具有长短期记忆(LSTM)模块的递归神经网络(RNN),由于时间展开很长(例如,时钟为10ms情况下的4秒的时间段对应于超过400个预测周期的时间展开)可以抵消梯度消失。
-通过RNN向过去的长时间展开得出非常准确的分辨率。
-通过考虑传送带长度,可以获得所有设施的通用模型,无论这些设施的传送带长度如何。由此可以实现泛化。
-神经网络的一个特别好的优点在于,由两个物理个体模型的链接产生的传送带过渡在物理仿真模型中倾向于不准确,如果预测系统通过训练学习了准确映射这些关系的话。
-通过自动创建由神经网络实现的预测模型而可以实现的进一步优点是:
o自动探索不同的设施设计;
o模型快速适配于新的运行模式、设施组件或变化的状况;
o不同设施之间的迁移学习。
神经网络的实现有利地通过具有程序代码的计算机程序来进行,该程序代码例如可以存储在非易失性机器可读载体上或存储在互联网的云中。当程序代码在计算机上执行时,所述计算机程序实现上述实施方式。
附图说明
从以下结合附图的详细描述中得出所建议的技术教导的更好理解。在此:
图1示出了具有计算单元的物流系统的示意图,该计算单元用于执行根据本发明的用于计算机实现地配置在该计算单元中实现的受控驱动应用的方法;
图2示出了由计算单元执行的方法步骤的示意图;
图3示出了计算单元的设计;
图4示出了计算单元的另一设计;
图5示出了物流系统的动态行为及通过神经网络用多个线性秒表对该动态行为的预测;
图6示出了递归神经网络的动态行为;
图7示出了另一递归神经网络的动态行为;
图8示出了神经网络的秒表的替代动态行为。
具体实施方式
图1示出了具有受控驱动应用的物流系统1的示意图。物流系统1示例性地包括彼此并行延伸的三个输送段10、20、30,在每个输送段10、20、30上可以朝着从右向左延伸的输送方向FR输送单件货物,特别是包裹。每个在该示例中具有相同长度(但也可以具有不同长度)并且也称为指状件的输送段10、20、30包括多个子输送段11-13、21-23、31-33。在当前实施例中,每个输送段10、20、30的子输送段的数量是相同的(这也不是强制性的并且可以是不同的)。相应输送段10、20、30的子输送段11-13、21-23、31-33也可以具有相同的长度或具有不同的长度。
向每个子输送段11-13、21-23、31-33分别分配一个驱动器11A-13A、21A-23A、31A-33A。通过借助于计算单元60对应地操控驱动器11A-13A、21A-23A、31A-33A,子输送段11-13、21-23、31-33可以单独地加速或减速。
在输送段10、20、30的末端,即在输送方向FR上,布置了组合单元40,在输送方向FR上最后的子输送段13、23、33将由其运输的单件货物传递到组合单元40上。在组合单元40的出口41处布置了唯一的出口输送段50。该出口输送段可以由一个或多个子输送段51组成。一个或多个子输送段51又在计算单元60的控制下由驱动器51A驱动。
通过适用于驱动器11A-13A、21A-23A、31A-33A的控制信号来加速和减速相应子输送段使得可以将在并行的输送段10、20、30上运输的单件货物时间错开地运输到组合单元40上。由此使得组合单元40能够将单件货物输送到出口输送段50上,使得每两个时间上连续的单件货物彼此具有预给定的、定义的距离。
为了使计算单元60能够输出适合于加速和减速驱动器11A-13A、21A-23A、31A-33A的操控信号,相应子输送段11-13、21-23、31-33配备有一定数量的相应传感器11S-13S、21S-23S、31S-33S。传感器11S-13S、21S-23S、31S-33S特别是包括用于确定单件货物的相应运输速度、长度和/或位置和/或该单件货物与预期位置的偏差的光栅。传感器可选地包括例如用于探测驱动器11A-13A、21A-23A、31A-33A的转速的转速传感器、用于探测驱动器11A-13A、21A-23A、31A-33A的电动机电流的电流传感器等。
单件货物经由相应的传递单元18、28、38供应到输送段10、20、30上,传递单元18、28、38例如也被构造为子输送段。传递单元18、28、38还具有对应的驱动器(但此处未明确示出)和一定数量的对应传感器18S、28S、38S。这些传递单元可以是独立于实际输送段10、20、30的分段。然而,传递单元18、28、38还可以表示所分配的输送段10、20、30的相应子输送段。
为了简单起见,在图1中仅传递单元18、28、38配备有对应的传感器18S、28S、38S。将对应的测量信号供应给计算单元60以进行进一步处理。测量信号由虚线表示。为了简单起见,并未示出所有测量信号或传输所需的信号线路。
分配给子输送段11-13、21-23、31-33的驱动器11A-13A、21A-23A、31A-33A、51A通过虚线用对应的操控信号来控制。为了简单起见,并未示出所有操控信号或传输所需的操控线路。
图1中由计算单元60对物流系统1的受控驱动应用进行计算机实现的配置。然而,这些步骤也可以在与物流系统1的最终控制无关的计算单元上执行。
由计算单元60执行的该控制的控制逻辑也可以由图2中示意性示出的系统200教导并且然后预测/仿真,系统200包括至少一个神经网络NN以及至少一个秒表SU。该过程示意性地在图2中示出。
在第一步骤S1中,基于物流系统的运行数据BD确定物流系统1的系统模型。运行数据BD在物流系统1的运行的大量时间点存在,并且针对每个时间点都包括传感器11S-13S、21S-23S、31S-33S、18S-38S的测量值,例如光栅信号、电动机电流、单件货物在相应子输送段11-13、21-23、31-33、18-38上的位置、驱动器11A-13A、21A-23A、31A-33A的转速以及子输送段11-13、21-23、31-33的速度。原则上,在此不仅可以处理当前考察的物流系统1的运行数据BD,而且还可以处理来自其他物流系统(优选相似的物流系统)的运行数据BD。
此外,在步骤S1中,针对每个时间点确定和处理操纵变量变化,所述操纵变量变化包括例如驱动器11A-13A、21A-23A、31A-33A、18A-38A的速度变化或转速变化。
此外,在步骤S1中还使用至少一个秒表SU。总是在分配的运行数据BD的值以特定方式变化(例如从“0”变为“1”或反过来)时,将秒表重置为初始值。优选地,该运行数据BD是传感器11S-13S、21S-23S、31S-33S、18S-38S的测量值之一,特别是用于确定单件货物在相应子输送段11-13、21-23、31-33上的位置的光栅信号。可以为多个光栅或甚至为所有光栅提供秒表SU。为每个运行数据BD提供的秒表SU的数量也是可变的。秒表SU的这种使用灵活性由附图标记SU上的索引1..n表示。如果没有提及特定的秒表,则省略这些索引。在此,通用附图标记SU原则上不应被理解为限于唯一的秒表,而且即使为了简化起见仅描述特定秒表的行为时也不应如此。
在此,本领域技术人员清楚的是,秒表在该计算机实现的技术教导的上下文中被构造为计算机实现的数字秒表。除了物流系统的传感器数据之外,也将秒表施加到神经网络NN,并且例如总是在运动检测器表明包裹通过时将秒表重置为初始值。
系统模型是借助于至少一个(优选递归)神经网络NN来确定的。在此,本领域技术人员清楚的是,在该技术领域中利用该技术术语来表示计算机实现的人工神经网络NN。
为了确定系统模型,通过训练/学习并且在此特别是通过监督学习的方法来配置神经网络NN,其中秒表SU作为除运行数据BD之外的(附加)输入数据供应给神经网络NN。由于这方面的过程是已知的(尤其是还参见说明书开始处关于神经网络训练的陈述),因此此时将不再重复描述。作为结果,该训练导致在以这种方式配置和结构化的神经网络NN的权重中附加地存储运行数据BD与秒表SU的相应进程之间的相关性。
如果输入数据在没有秒表SU的情况下在给定时间点相同但在先前输入数据的时间上下文中不同,则该过程具有特别好的效果。同时运行的子输送段11-13、21-23、31-33、18-38存在于过去的行为的时间展开对于计算单元60的控制行为而言高度相关,并且在很大程度上确定了子输送段11-13、21-23、31-33、18-38中的哪些将被加速、减速以及以不变的速度继续运行。
现在由于秒表SU的附加输入,在没有秒表SU的情况下相同的输入数据由于秒表SU的当前值的不同组合而彼此不同。通过这种方式,可以避免开头描述的训练的“振荡”和经过训练的神经网络NN的预测的“振荡”。
在第二步骤S2中,由系统200确定物流系统1的预计调节函数REGF。调节函数REGF包括例如驱动器11A-13A、21A-23A、31A-33A的配置数据KD,即电动机电流和/或转速等,使得分配的子输送段11-13、21-23、31-33能够以合适的方式加速或减速。系统200现在可以预测配置数据KD的全部或一些部分。还可以想到训练和/或设计系统200,使得该系统200预测包裹在输送方向FR上何时到达下一个光栅(预测1)和/或何时完全通过下一个光栅(预测2)。这些值例如可以作为下降的锯齿曲线输出。在此,各个阶梯的进程由系统200进行预测所采取的频率来确定。在开头建议的10ms的时钟情况下,这种阶梯函数将在1秒的时间段内例如具有100个台阶。
基于在步骤S1中配置的系统模型来确定调节函数REGF可以非常普遍地使用,其方式是在预给定待实现的一个或多个目标的情况下在该系统模型中预测至少一个预计的调节。例如,可以考虑以下参数中的一个或多个作为目标:在组合单元40的出口41处单件货物的平均吞吐量;两个直接依次输送的单件货物之间的距离,即间隙距离,特别是最小距离;组合单元40中的碰撞探测,特别是在其出口41处;距离均匀性度量,其表征每两个直接依次输送的单件货物之间的距离与等距离的偏差,即间隙距离的均匀性;以及为了例如实现磨损优化,相应输送段的三个输送段或输送段整体的运行速度。
在此,通过改变典型的模型输入变量,例如单件货物的大小、单件货物的质量、摩擦系数等,可以通过到目前为止存在的运行数据BD来产生接近于实际的分布。这使得导出的预测的调节函数REGF和配置数据KD具有高度鲁棒性。
图3示出了这里描述的技术教导的计算机实现的示例,该计算机实现包括:
(301)计算机系统
(302)处理器
(303)存储器
(304)计算机程序(产品)
(305)用户界面。
在该实施方式中,计算机程序产品304包括用于执行本发明的程序指令。计算机程序304存储在存储器303中,这尤其是使得存储器和/或相关联的计算机系统301成为计算机程序产品304的提供设备。系统301可以通过由处理器302执行计算机程序304的程序指令来执行本发明。本发明的结果可以显示在用户界面305上。替代地,这些结果可以存储在存储器303中或其他适用于存储数据的装置中。
图4示出了计算机实现的另一实施例,该实施例包括:
(401)提供设备
(402)计算机程序(产品)
(403)计算机网络/互联网
(404)计算机系统
(405)移动设备/智能电话。
在该实施方式中,提供设备401存储包含用于执行本发明的程序指令的计算机程序402。提供设备401使得计算机程序402经由计算机网络/互联网403可用。例如,计算机系统404或移动设备/智能电话405可以加载计算机程序402并且通过执行计算机程序402的程序指令来执行本发明。
图5以图1中在输送方向FR上依次布置的两个子输送段31和32为例来说明性地示出系统200的预测,该系统200的神经网络NN的目标是预测包裹在通过第一光栅31S后何时到达第二光栅32S(预测1)和完全通过第二光栅32S(预测2)。在此在本示例中,两个值作为下降的锯齿曲线输出。
在该最小实施中示出了先后连接的两个传送带区段31、32的数据。一个目标是基于输入传送带31的光栅31S的上升沿/下降沿来预测传送带31下游的传送带32的光栅32S的上升沿/下降沿。在此,光栅提供二进制信号,其中“0”=没有包裹通过该光栅,“1”=包裹通过该光栅。目标是产生上升沿/下降沿Pec_32_up_t(NN)、Pec_32_down_t(NN),其描述了在每个时间点t到下一次切换时间点(从0到1或从1到0)为止的时间。
在该实施中,首先使用待优化设施或类似设施的历史数据通过监督学习来训练由神经网络NN实现的仿真模型(也称为预测模型)。
在本示例中,训练预测模型的前提是:
-传送带起点处的光栅31S、32S总是安装在相同位置。例如如果应当在设计优化的范围中对不同的传送带长度进行仿真,这可能是相关的。
-子传送带11-13、21-23、31-33、18-38的长度是已知的并且作为输入数据的一部分供应给预测模型。这样做的优点是该模型可以应付不同的传送带长度,甚至可以在不同的已知传送带长度之间进行插值。
也可以类似地对整个设施进行仿真,即多个下游传送带或并行延伸的传送带臂的光栅的行为。本示例中的实施以部分代整体。
使用(t+1)-t≈10ms来对非常小的时间步骤进行仿真。对于预测模型,这需要向过去的高度时间展开,以便能够由于包裹通过而基于输入光栅31S的上升沿/下降沿尽可能精确地确定下游光栅32S的上升沿/下降沿的时间点。例如,如果为此使用来自过去的n=400个步骤,则这对应于传送带31S、32S上的4秒的真实交互时间。
在图表501-508中,局部示出来自设施对应地在图1中大约超过16秒的时间段内的真实运行的一些参数。该时间段分别以毫秒为单位绘制在x轴上。
在这16秒内,在两个传送带31S、32S上完整地运输了四个包裹(加上起点和末端的另外两个包裹部分地运输)。图表503中的曲线Pec_31(数据)示出了包裹通过光栅31S的过程,并且图表504中的曲线Pec 32(数据)示出了同一包裹通过光栅32S的时间错开的过程。光栅31S、32S从“1”到“0”(当前包裹过去了)以及从“0”回到“1”(识别出随后的包裹)的每两个相邻状态变化是由两个连续包裹之间的间隙引起的。可以清楚地看到,在该示例中,间隙具有可变的大小并且大约在0.1-0.5秒的范围内,而包裹在传送带31、32上的停留时间明显更长并且粗略估计在大约2.5-3.5秒的范围内。因此,每个包裹在传送带31、32之一上停留少于4秒,从而在该示例中n=400个步骤的过去足以覆盖包裹在传送带31、32中的每一个传送带上的完整通过。然而,与此同时,过去也不必选择得(甚至)更大。
在图表507、508中,两条曲线Target 31A(数据)、Target 32A(数据)示出了由计算单元60输出的用于两个传送带31、32的两个驱动器31A、32A的速度或转速的操纵变量。这些操纵变量的目标是通过对包裹的加速和减速来实现控制器的预给定目标,即,例如防止组合单元40中的碰撞,或通过最小化包裹之间的间距或通过形成使得由设施1运输的包裹与时钟频率匹配地运送给位于输送段末端的制袋装袋机(未示出)的间距来最佳地利用传送带容量。
通过将光栅31S、32S从“1”到“0”(当前包裹过去了)以及从“0”回到“1”(识别出随后的包裹)的两个相邻状态变化之间的时间间隔与各自分配的驱动器31A、32A的操纵变量相关联,可以相当准确地导出通过的包裹的水平距离,这是用于实现包裹之间的理想距离的重要信息。因此,通过将该信息作为输入数据施加到神经网络NN,神经网络NN还能够通过步骤S1中的训练在其权重中内化所述相关性,然后由此在步骤S2中从给定的输入数据中导出控制器的未来行为的预测,所述控制器还以可靠的方式考虑包裹的水平距离。
也可以通过类似的方式导出包裹的水平大小。在此,决定性因素是光栅31S、32S从“1”到“0”(识别出当前包裹)以及从“0”回到“1”(当前包裹过去了)的两个相邻状态变化之间的时间间隔。然而,这种相关性更复杂,因为它在明显更长的时间段上延伸并且驱动器31A、32A的多个不同速度落在这些时间段内。由于与包裹之间的距离相比向过去的延伸明显更长,对神经网络NN而言包裹的水平大小比两个包裹之间的距离更难教导和识别。
系统200的预测模型可以应对这些和其他挑战,其方式是该预测模型在时间点t(在该示例中为了有助于理解限于两个传送带31、32)使用以下输入特征作为神经网络NN的输入数据(所述输入特征是在最后n个时间步骤测量的):
-传送带区段31、32的长度
-光栅状态Pec_31(数据)、Pec_32(数据)
-最后光栅状态变化的时间点作为时间上升的锯齿曲线(在图表501、502中分别由两个秒表SU31_up、SU31_down的当前值代表,其中第一秒表SU31_up在曲线Pec_31(数据)的下降沿时被重置为初始值“0”,该下降沿表明包裹进入光栅31S,而第二秒表SU31_down在曲线Pec_31(数据)的上升沿时被重置为初始值“0”,该上升沿表明包裹从光栅31S退出。在此,这不一定必须是诸如锯齿曲线的分段线性函数,而是也可以例如是指数函数。在图5中通过图表501和502之间的示例性箭头来指示由光栅状态变化触发的分配的秒表SU被重置为初始值,其中这些箭头从图表502出发并且在图表501中具有它们的效果,其方式是在那里显示的秒表SU在该示例中被重置为初始值“0”。
-驱动电动机31A、32A的实际和/或目标速度(在图表507、508中,目标速度显示在曲线“Target_31A(数据)”/“Target_32A(数据)”中)。
图6和图7示出了具有神经网络NN的可能预测模型的不同变型。
在此,对于特定时间点t:
-s(t)表示设施1的当前状态
-u(t)表示系统200的输入数据
-y(t)表示系统200的输出数据。
在此,以子输送段31为例来部分代整体,在示出的两个变型中,输入数据在时间点t可以是:
-子输送段31的长度
-光栅31的状态
-秒表SU31_up、SU31_down的值
-驱动器31A、32A的实际速度
-驱动器31A、32A的目标速度。
由文献已知的递归神经网络NN非常适合于预测模型的实现,因为递归神经网络具有能够固有地映射时间关系的特性。这特别是具有以下优点,即可以通过唯一的矩阵A来学习底层动态系统(例如设施1)的时间行为,并且相应时间点t处的状态s(t)相对较小。在来自过去的待考虑的时间步骤很多的情况下,例如在这里的情况下的n=400,该矩阵对于标准MLP(多层感知器)来说会非常大,因此容易过度拟合。矩阵A/B/C在所示出的两个变型中都是“共享”权重矩阵,即所谓的共享权重,它们例如通过时间反向传播(Backpropagation-Through-Time,BPTT)加以训练,其方式是针对一个梯度下降步骤使用所有n个错误梯度的平均值。
图6所示的变型示出了递归神经网络NN,该递归神经网络的目标是预测从时间点t开始测量的时间步骤数量作为系统200在时间点t的输出数据(例如,作为倒数计数器),在这些时间步骤之后期待下游传送带32的光栅32的上升沿/下降沿。
该变型通过以下状态过渡方程和遵循以下优化目标来解决该任务:
状态过渡方程:
yi=Cst (1)
st=tanh(But+Asi-1) (2)
优化目标:
以这种方式实现的输出数据的时间变化过程在图5中的图表506中作为下降沿的曲线Pec32_doWn_t(NN)示出,以及在图表505中作为上升沿的曲线Pec32_up_t(NN)示出。通过将两条预测曲线与真实测量的数据叠加,可以看出,在每个时间点t的预测几乎完全与代表现实的曲线——图表505中的Pec_32_up_t(数据)和图表506中的Pec_32_down_t(数据)——一致。在图5中,通过图表504和505之间的箭头以示例方式表明神经网络NN非常精确地预测了边沿的实际出现。
有利地,利用这一变型可以在较长的时间范围内仅用一个步骤来预测下游光栅32的预计行为,由此在计算机实现中省略了许多(中间)计算步骤。这在以下情况下是特别好的优点,即例如应当在许多步骤中优化给驱动器的控制命令(驱动电动机的目标速度),以例如在输出流水线上的包裹分离过程中及早避免即将到来的碰撞(通过多个臂观察)。
然而,通过这种方式无法实现驱动电动机的实际速度的一步动态。“一步动态”意味着时间点t+1的后续状态仅取决于时间点t的状态和输入数据BD(马尔可夫特性)。
图7中示出的变型示出了可以在时间点t实现这种一步动态的递归神经网络NN。该变型的目标是预测以下输出数据:
-预计下游传送带的光栅32在时间点t+1的预期的二元状态,以及
-基于驱动电动机31A、32A直到时间点t的目标速度预计驱动电动机31A、32A在时间点t+1的预期的实际速度。
该变型通过以下状态转移方程并追求以下优化目标来解决此任务:
该变型通过以下状态过渡方程和遵循以下优化目标来解决该任务:
状态过渡方程:
yt+1=Cst (1)
st=tanh(Bat+Ast-1) (2)
优化目标:
有利地,利用该变型,除了下游光栅的预计状态之外还可以仿真驱动电动机在时间点t+1的预计实际速度(驱动器的惯性)。
一个特别好的优点在于,在时间点t的输出可以由神经网络NN直接用作在时间点t+1的输入,由此理论上可以在未来的任意多的步骤上仿真逐步动态。这尤其是使得能够跟踪传送带上的包裹。
在两个变型的比较中,图6所示的变型的计算机实现必要时需要稍微较少的计算工作,因为在图7所示的变型中每个计算步骤被单独仿真,包括待实现的目标速度。
图8示出了数字秒表SU的替代设计。在该示例中,图表800-804中的五个曲线SGNL_EDGE_UP_X_0至SGNL_EDGE_UP_X_4示出了依赖于分配给5个数字秒表SU的光栅的上升沿/下降沿的5个数字秒表SU的动态变化过程。在该示例中,数字秒表SU的曲线是通过锯齿函数实现的,这些锯齿函数不会随时间线性增长,而是基于
-在分配给秒表的光栅的下降沿或上升沿的时间点与
-在当前时间点的传送带位置之间的差异。
出于简化的原因,在图表800-804中仅示出了在光栅的上升沿时被重置为初始值的秒表SU的曲线。也可以为在光栅的下降沿时被重置为初始值的秒表SU提供类似的曲线(未示出)。
在该示例中,秒表SU的曲线显示了在每个时间点1200-1700时自曲线sensorData_0至sensorData_4中最后的光栅上升沿以来传送带的累积移动(以[mm]为单位测量)。
在此,图表800和804中所示的传送带以恒定速度移动,因此针对两条曲线SGNL_EDGE_UP_X_0和SGNL_EDGE_UP_X_4得出了线性上升的曲线。
与此不同,图表801至803中所示的传送带以可变速度移动,由此在该示例中产生曲线SGNL_EDGE_UP_X_1至SGNL_EDGE_UP_X_3的非线性、单调上升的行为。
尽管尤其是以具有多个并行传送带的复杂包裹输送设施的子传送带之间的高度复杂的、依赖于时间的相关性为例来部分地和非常详细地描述了上述考虑,但是它们不限于所公开的示例,并且本领域技术人员可以从中导出其他变型,而特别是不会脱离由权利要求限定的本发明的保护范围。从而许多考虑同样适用于以下任何系统,该系统的动态行为可以借助于在一段时间内分布式收集的可测量系统参数的至少一系列测量值来描述。许多与环境相互作用的动态系统都满足这一前提。在不要求完整的情况下,动态系统可以是例如机械结构、电网、机器、用于任何物体(例如手提箱、信件或材料)的传送或分拣设施、生产线(例如在汽车制造中使用的生产线)、从方法技术中已知的计量设施或生物过程。调节技术系统的动态行为也可以得到测量并且从而由本发明预测。本领域技术人员可以从这些应用示例中导出本发明的其他应用和应用领域,而不脱离本发明的保护范围。
这种广泛而普遍的应用范围尤其是可以通过以下事实来解释:解决技术问题的技术教导是通过提供创新的神经网络NN来完成的,如果不是更早地只通过神经网络NN的布置和功能作用连接的话。对于技术教导的完整实施,对特定系统的具体应用不是绝对必要的,该具体应用可以是例如通过产生、输出和/或向系统应用控制信号来影响系统。这种对系统的下游应用是可能的,但是是可选的。同样,完整的实施不需要直接连接到在系统运行期间直接收集测量值的传感器。这些测量值也可以在较早的时间点收集或人为生成,因为想要研究假设系统的行为,该假设系统例如仅被计划但尚未制造。显然,通过避免原型可以显著节省宝贵的资源。
由神经网络NN产生的控制信号是由机器控制设备自动应用于系统还是通过人为干预手动应用于系统也是无关紧要的或不重要的,因为这只是技术教导下游的一个步骤,该步骤取决于实施可以单独地或与——以这种方式来看上游的——神经网络NN相互作用地代表独立的技术教导。神经网络NN对系统的这种应用可以示例性地直接影响包裹分拣设施。然而,基于创新的神经网络NN及由这些神经网络创建的预测和控制信号可以对系统施加许多其他相同类型的影响,这些影响可以由机器自动执行或由经过对应指导的人员手动执行。仅举从许多其他示例中选择的一些示例,如详细描述的,这些影响可以是影响包裹分拣设施的传送带的速度,以抵消预测的未来堵塞;在汽车的生产线中,可以提早对未来的零部件短缺做出反应,以抵消生产的停顿;在生物过程中,这可能是成分的变化,以提早并且尤其是及时地抵消预测的未来发展,这种发展被认为是不利的。与许多动态系统一样,该时间分量特别重要,因为系统对系统参数变化的反应存在固有的等待时间,特别是当不利的发展只能预防性地得到抵消时,因为当损坏已经发生时就不再可能进行校正了。
Claims (10)
1.一种用于管理在时间上展开到过去的过程的神经网络(NN),所述神经网络具有描述所述过程的状态的输入数据(BD)和由所述神经网络从所述输入数据中导出的输出数据(REGF),其中提供至少一个数字秒表(SU),
a.所述数字秒表的值作为进一步的输入数据供应给所述神经网络,并且
b.所述数字秒表在所述输入数据之一发生特定变化时被设置为初始值,然后通过其值的上升或下降变化过程向所述神经网络表明与该时间点的不断增加的距离。
2.根据权利要求1所述的神经网络,其中所述秒表的值的变化过程
a.线性上升或下降,
b.指数上升或下降,或
c.基于至少一个所述输入数据在所述秒表的最后一次重置为其初始值的时间点时的值与该输入数据在后续时间点时的值之间的差异而上升或下降。
3.根据前述权利要求中任一项所述的神经网络,其中所述秒表在经过一定时间之后停止。
4.根据前述权利要求中任一项所述的神经网络,其中至少一个输入数据是光栅的状态,由所述光栅在时间展开的过程的范围内借助于二进制值交替地表明经过光栅的单件货物的存在和不存在,并且对于该输入数据提供了两个秒表(SU31_up、SU31_down),其中一个秒表在通过所述二进制值的变化所表明的存在开始时被重置,另一个秒表在通过所述二进制值的变化所表明的不存在开始时被重置。
5.一种用于配置根据前述权利要求中任一项构造的神经网络的方法,其中通过借助于过程的来自过去的输入数据对所述网络的基于数据的训练来实现所述配置。
6.一种按照前述方法训练的神经网络。
7.根据前述权利要求中任一项构造的神经网络用于预测工业设施(1)的至少一个预计的未来行为的用途,在所述工业设施中至少两个过程同时彼此相对依赖地运行并且至少部分地依赖于所述至少两个过程向过去的时间展开来相对于彼此地得到控制。
8.一种具有程序代码的计算机程序,当所述程序代码由计算机执行时,由所述计算机程序实现根据前述权利要求中任一项所述的神经网络。
9.一种计算单元(60),包括根据权利要求8所述的计算机程序。
10.一种物流系统(1),具有用于单件货物的一个或多个并行延伸的输送段(10、20、30),每个输送段在输送方向(FR)上汇集到组合单元(40),其中每个输送段(10、20、30)由多个子输送段(11-13、21-23、31-33)组成,所述多个子输送段在根据权利要求9构造的计算单元(60)的控制下分别由所分配的驱动器(11A-13A、21A-23A、31A-33A)加速或减速,以使得所述组合单元(40)能够以定义的距离将所述单件货物组合到唯一的出口输送段(50)上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22182422.0A EP4300362A1 (de) | 2022-06-30 | 2022-06-30 | Management von prozessen mit zeitlicher entfaltung in die vergangenheit, insbesondere von gleichzeitig ablaufenden prozessen in industriellen anlagen, mit hilfe von neuronalen netzen |
EP22182422.0 | 2022-06-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117332834A true CN117332834A (zh) | 2024-01-02 |
Family
ID=82494081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310802249.3A Pending CN117332834A (zh) | 2022-06-30 | 2023-06-30 | 借助于神经网络对时间上展开到过去的过程的管理 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240005149A1 (zh) |
EP (1) | EP4300362A1 (zh) |
CN (1) | CN117332834A (zh) |
DE (1) | DE102023206106A1 (zh) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015117241B4 (de) * | 2015-10-09 | 2018-11-15 | Deutsche Post Ag | Ansteuerung einer Förderanlage |
EP3825263A1 (de) * | 2019-11-20 | 2021-05-26 | Siemens Aktiengesellschaft | Verfahren zur computer-implementierten konfiguration einer geregelten antriebsapplikation eines logistiksystems |
-
2022
- 2022-06-30 EP EP22182422.0A patent/EP4300362A1/de active Pending
-
2023
- 2023-06-26 US US18/214,121 patent/US20240005149A1/en active Pending
- 2023-06-28 DE DE102023206106.6A patent/DE102023206106A1/de active Pending
- 2023-06-30 CN CN202310802249.3A patent/CN117332834A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102023206106A1 (de) | 2024-01-04 |
US20240005149A1 (en) | 2024-01-04 |
EP4300362A1 (de) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11275345B2 (en) | Machine learning Method and machine learning device for learning fault conditions, and fault prediction device and fault prediction system including the machine learning device | |
US10203666B2 (en) | Cell controller for finding cause of abnormality in manufacturing machine | |
Hofmann et al. | Implementation of an IoT-and cloud-based digital twin for real-time decision support in port operations | |
CN106409120B (zh) | 机械学习方法及机械学习装置、以及故障预知装置及系统 | |
US11040719B2 (en) | Vehicle system for recognizing objects | |
US8069021B2 (en) | Distributed simulation and synchronization | |
US8843230B2 (en) | Machining time predicting apparatus of numerically controlled machine tool | |
US20120165972A1 (en) | Pick And Place | |
Krumeich et al. | Advanced planning and control of manufacturing processes in steel industry through big data analytics: Case study and architecture proposal | |
US20200339146A1 (en) | A state estimator | |
US20220383194A1 (en) | Information processing device, method, and program | |
CN114595607B (zh) | 一种数字孪生纺织条桶输送方法及系统 | |
CN114206599A (zh) | 用于接头改进的机器学习 | |
CN114650958A (zh) | 用于以计算机实施的方式配置物流系统的受控驱动应用的方法 | |
US20220269248A1 (en) | Method and device for automatically determining an optimized process configuration of a process for manufacturing or processing products | |
US11579000B2 (en) | Measurement operation parameter adjustment apparatus, machine learning device, and system | |
Rinciog et al. | Towards standardising reinforcement learning approaches for production scheduling problems | |
Mejía et al. | Job shop rescheduling with rework and reconditioning in Industry 4.0: an event-driven approach | |
Saadallah et al. | Explainable predictive quality inspection using deep learning in electronics manufacturing | |
CN117332834A (zh) | 借助于神经网络对时间上展开到过去的过程的管理 | |
US10577191B2 (en) | Conveyor article management system | |
CN112836439A (zh) | 用于处理传感器数据的方法和设备 | |
US11059171B2 (en) | Method and apparatus for optimizing a target working line | |
EP2770465A1 (en) | Event-based data processing | |
Vaisi et al. | Multiobjective optimal model for task scheduling and allocation in a two machines robotic cell considering breakdowns |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |