CN114002949A - 基于人工智能的控制方法与控制装置 - Google Patents
基于人工智能的控制方法与控制装置 Download PDFInfo
- Publication number
- CN114002949A CN114002949A CN202010735233.1A CN202010735233A CN114002949A CN 114002949 A CN114002949 A CN 114002949A CN 202010735233 A CN202010735233 A CN 202010735233A CN 114002949 A CN114002949 A CN 114002949A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- target
- control
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 176
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 88
- 238000012549 training Methods 0.000 claims abstract description 199
- 238000009826 distribution Methods 0.000 claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 45
- 230000015654 memory Effects 0.000 claims description 68
- 238000005057 refrigeration Methods 0.000 claims description 68
- 238000000605 extraction Methods 0.000 claims description 30
- 238000003860 storage Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 description 30
- 238000013527 convolutional neural network Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 28
- 239000011159 matrix material Substances 0.000 description 25
- 238000004891 communication Methods 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 238000011217 control strategy Methods 0.000 description 17
- 238000001816 cooling Methods 0.000 description 17
- 238000005265 energy consumption Methods 0.000 description 15
- 230000008901 benefit Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000007613 environmental effect Effects 0.000 description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 10
- 238000010438 heat treatment Methods 0.000 description 9
- 238000012216 screening Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 239000000872 buffer Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000007791 dehumidification Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 239000003507 refrigerant Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本申请提供一种基于人工智能的控制方法与控制装置,涉及人工智能/智能网络领域。该控制方法包括:获取与控制目标相关的目标数据,从目标数据中选取落入预设的数据分布范围的第一可信数据,其中,数据分布范围是基于与控制目标相关的历史数据得到的,将第一可信数据输入到目标模型进行处理,得到目标控制信息,目标控制信息用于控制被控设备实现控制目标,其中,目标模型是利用历史数据训练得到的。在该控制方法中对目标数据进行了一定的筛选,只利用在历史数据的分布范围内的目标数据来得到目标控制信息,能够有效提高控制的准确性,从而提高控制质量。
Description
技术领域
本申请涉及人工智能/智能网络领域,并且更具体地,涉及一种基于人工智能的控制方法与控制装置。
背景技术
在控制领域,往往会利用各种类型的控制方法对一些目标数据进行处理,来生成相应的控制策略或控制参数,从而实现对于被控对象的控制。随着科技的发展,对于控制速率、控制精度等都提出了更高的要求,而人工智能(artificial intelligence,AI)方法具有比传统控制方法更为强大的运算能力,因此被应用于控制领域来实现更好的控制效果。对于利用人工智能方法进行控制的方法可以称之为AI控制方法,AI控制方法往往需要借助于模型,此时该模型可以称之为AI控制模型、AI决策模型、AI推理模型等等,也就是说,可以利用AI控制模型来实现对于被控对象的控制。
现有的AI控制方法中,往往是利用历史数据建立AI控制模型,然后将该模型用于生成控制策略,具体而言是在训练阶段利用能够获得的数据来训练出AI控制模型,然后在执行阶段利用AI控制模型来执行相应的AI控制任务。在执行阶段该AI控制模型不会改变,也正因为如此,AI控制方法不能适用于动态变化的场景。而由于控制过程中能够获得的用来训练模型的历史数据较少,所以该AI控制模型的质量相对较低,随着控制过程的持续进行,会陆续出现之前没有出现过的情况,此时如果依然采用一成不变的模型来生成控制策略,就导致控制效果较差。简而言之,现有的AI控制方法的控制质量较低,例如控制效果较差、推理速率较慢、推理的结果准确性较差等等。
因此如何持续提高AI控制方法的控制质量是亟待解决的技术问题。
发明内容
本申请实施例提供一种基于人工智能的控制方法与控制装置,能够持续有效地提高控制质量。
第一方面,提供一种基于人工智能的控制方法,该控制方法包括:获取与控制目标相关的目标数据,从目标数据中选取落入预设的数据分布范围的第一可信数据,其中,该数据分布范围是基于与控制目标相关的历史数据得到的,将第一可信数据输入到目标模型进行处理,得到目标控制信息,该目标控制信息用于控制被控设备实现控制目标,上述目标模型是利用历史数据训练得到的。
在本申请技术方案中,能够有效提高控制质量。在该控制方法中对目标数据进行了一定的筛选,,只利用从目标数据中选择的可信数据(在历史数据分布范围内的数据)来获得目标控制信息,有效提高目标控制信息的准确性,从而能够得到更好的控制效果。
可选地,该目标数据可以包括能够对控制目标产生影响的至少一种参数的数据。例如,对于某个制冷系统,当控制目标是减少能耗(节能)的时候,可能对该控制目标产生影响的任何一种或多种因素(参数)的数据都可以作为目标数据,也就是说,目标数据可以理解为运行过程中获取的或者运行过程中产生的对控制目标产生影响的数据。
举例说明,在一个例子中,在对某个制冷系统进行控制的时候,可以是使得环境温湿度达到目标温湿度,而会对目标温湿度带来影响的因素都可以作为上述目标数据,例如真实的环境温湿度、冷却塔的功率、冷却塔的进出水温度、冷却塔的工作负载、冷机的功率、冷机的流量、冷机的功率、冷冻水泵的流量、冷冻水泵的转速、冷冻水泵的功率、末端风机的转速、末端冷通道温度、末端进出水温度、机柜的负载等等。可以利用上述部分或全部目标数据,来生成控制策略,该控制策略例如可以是以下至少一种:调整冷却塔的风量、调整风速、改变各设备的工作电流、工作电压等,通过根据生成的控制策略来调整相应设备的工作参数,从而使得环境温湿度达到目标温湿度。
应理解,可以在初始选择会对目标温湿度产生影响的因素,来确定目标数据所包括的参数,但也可以选择一部分可以获取的参数作为目标数据,但这些参数是否真的对控制目标有影响可以通过后面的处理过程获知。举例说明,假设可以作为目标数据的有10种参数,可以从这10种参数中选择任意一种或多种参数作为目标数据,但被选中的一种或多种参数中至少有一种参数是已知对控制目标有影响的参数。
在另一个例子中,在对制冷系统进行控制的时候,可以是使得能耗尽可能小,也就是说控制目标为节能,而会影响能耗的因素(参数)则都可以作为目标数据,例如环境温度、每个制冷设备的功率、数据中心的负载等等。
可选地,历史数据可以包括与控制目标相关的数据。在本申请实施例中,历史数据可以看作是用来训练模型的时候用到的数据,或者可以理解为历史数据包括历史时刻的目标数据。相当于在训练阶段的时候,利用历史数据训练得到目标模型,在执行阶段的时候利用目标模型对目标数据进行处理,得到目标控制信息。
可选地,在上述通过判断目标数据是否在数据分布范围内来选取第一可信数据的过程中,除了直接用目标数据来判断以外,还可以将目标数据生成推理样本,再利用目标数据的推理样本和历史数据的训练样本之间的距离来判定推理样本是否在数据分布范围内,从而判断目标数据是否在数据分布范围内。也就是说,通过比较目标数据的推理样本与历史数据的训练样本之间的距离,来选取可信数据。
结合第一方面,在第一方面的某些实现方式中,利用目标数据生成至少一个推理样本,获取利用历史数据生成的训练样本中的至少一个训练样本,获得至少一个推理样本中每个推理样本与至少一个训练样本之间的第一距离,将至少一个推理样本中第一距离小于或等于第一距离阈值的推理样本划分到可信集合,从可信集合中的推理样本所对应的目标数据中选取第一可信数据。在上述方式中,通过比较样本之间的距离来选取可信数据,容易实现,只要设置距离阈值即可,且可以通过改变距离阈值的值来调整筛选的力度。也就是说,当距离阈值设置较小的时候,相当于对于可信数据的筛选较为严格,而当距离阈值设置较大的时候,相当于对于可信数据的筛选较为宽松。
可选地,为了进一步提高控制的准确性和提高控制效率,还可以对目标模型进行一些改进。例如可以通过设置第一模型和第二模型两个不同大小的模型,而在将可信数据输入到目标模型的时候就可以根据需求进行一定的选择。
结合第一方面,在第一方面的某些实现方式中,可以从第一模型和第二模型中选取上述目标模型,其中,第一模型是利用第一训练方法对历史数据进行训练得到的,第二模型是利用第二训练方法对历史数据进行训练得到的,第二训练方法需要的历史数据的数据量少于第一训练方法需要的历史数据的数据量。在上述实现方式中,设置了两个对于数据量的需求不同的模型,且可以从中选取合适的作为目标模型,可以进一步提高目标控制信息的准确性,以及还可以提高控制效率。
为了便于理解,可以将第一模型称之为大模型,第二模型称之为小模型。在本申请实施例中,小模型(例如第二模型)是指利用较少的训练样本就能够得到的模型,这类模型相当于学习到的知识较少,而且整个模型所具备的知识也相对较少。大模型(例如第一模型)则是指利用大量的训练样本才能得到的模型,这类模型相当于学习到的知识较多,而且整个模型所具备的知识也相对较多。因此,对于复杂的场景,利用小模型学习到的知识太少,相当于不能学习到足够的知识,所以小模型的质量较低;而利用大模型则能够学习到足够的知识,所以大模型的质量较高。但是对于数据稀疏的场景,也就是说能够获得的训练样本较少的场景中,小模型可以得到及时的训练,而大模型则因为训练数据不足,反而导致不能得到有效的模型更新,使得质量较低。
对于控制场景,尤其是动态控制场景,场景复杂、数据稀疏,以及动态变化特性,使得小模型和大模型都无法适用,小模型会导致学到的知识不全面,且会不断遗忘旧知识,大模型则导致训练数据不足,无法及时学习到新知识。而本申请实施例的方案则综合了小模型和大模型的优点,以及弥补各自的缺陷,从而达到更高的控制质量。
还需要说明的是,上述被控设备可以是一个或多个,不存在限定。
结合第一方面,在第一方面的某些实现方式中,在将第一可信数据输入到第一模型或第二模型时,可以根据第一可信数据的数量或第一可信数据所对应的推理样本的数量来选择要输入的模型,也就是说,根据第一可信数据的数量或第一可信数据的推理样本的数量来选择合适的目标模型。例如可以采用下面的方式选定目标模型:
当第一可信数据的数量大于或等于第一数量阈值时,将第一模型选定为目标模型;
当第一可信数据的数量小于第一数量阈值时,将第二模型选定为目标模型。
又例如可以采用下面的方式选定目标模型:
当第一可信数据的推理样本的数量大于或等于第七数量阈值时,将第一模型选定为目标模型;
当第一可信数据的推理样本的数量小于第七数量阈值时,将第二模型选定为目标模型。
需要说明的是,在本申请实施例中,在设置数量阈值的时候,既可以对数据的数量来设置,又可以对样本的数量来设置,二者未必是完全等同的,可以只设置其中之一也可以是同时设置。当数据和样本成等比例关系的时候二者是可以等同的,但当有些数据能生成很多样本,有些数据只能生成少量样本的时候,根据数据的数量阈值所选定的目标模型未必会是根据样本数量所选定的目标模型。
可选地,除了划分上述可信集合以外,还可以划分出次可信集合,以便于可以利用两个集合中的推理样本分别所能得到的控制信息,来综合得到一个较好的目标控制信息。
可选地,可以将至少一个推理样本中第一距离小于或等于第二距离阈值且大于第一距离阈值的推理样本划分到次可信集合,第二距离阈值大于第一距离阈值。但应理解,次可信集合是为了百年与理解,也可以不设置集合,也就是说,可以将至少一个推理样本中第一距离小于或等于第二距离阈值且大于第一距离阈值的推理样本所对应的目标数据作为第二可信数据,而不需要先把样本划分到集合,再从集合中选择样本。对于上述可信集合也是相同的,可以设置可信集合,再从可信集合中选取推理样本,以及把选取的推理样本对应的目标数据作为第一可信数据,也可以只与第一距离阈值进行比较。
结合第一方面,在第一方面的某些实现方式中,可以将第一可信数据输入到目标模型,得到第一控制信息;将第二可信数据输入到目标模型,得到第二控制信息,其中第二可信数据所对应的推理样本的第一距离小于或等于第二距离阈值且大于第一距离阈值,第二距离阈值大于第一距离阈值;从第一控制信息和第二控制信息中选取目标控制信息。再上述实现方式中,相当于放宽了对于目标数据的筛选要求,选取一些虽然不在数据分布范围内,但距离数据分布范围较近的目标数据来得到第二控制信息,综合第一控制信息和第二控制信息来得到一个相对更好的目标控制信息。
结合第一方面,在第一方面的某些实现方式中,在将第二可信数据输入到目标模型的时候可以执行与第一可信数据相同的操作,例如可以根据第二可信数据的数量或第二可信数据的推理样本的数量来选定目标模型。
可选地,可以采用下面的方式选定要输入的目标模型:
当第二可信数据的数量大于或等于第二数量阈值时,将第二可信数据输入到第一模型;
当第二可信数据的数量小于第二数量阈值时,将第二可信数据输入到第二模型。
可选地,还可以采用下面的方式选定要输入的目标模型:
当第二可信数据的推理样本的数量(即次可信集合中推理样本的数量)大于或等于第二数量阈值时,将第二可信数据输入到第一模型;
当第二可信数据的推理样本的数量(即次可信集合中推理样本的数量)小于第二数量阈值时,将第二可信数据输入到第二模型。结合第一方面,在第一方面的某些实现方式中,在从第一控制信息和第二控制信息中选取目标控制信息的时候,可以选取二者中对控制目标的收益更高的控制信息作为目标控制信息。也就是说,比较第一控制信息和第二控制信息的收益,收益较高的控制信息为目标控制信息。
可选地,还可以通过不断更新第一模型和第二模型的方式,使得模型不断得到优化。
结合第一方面,在第一方面的某些实现方式中,可以执行以下至少一项操作:
当目标数据的数量大于或等于第三数量阈值时,更新第一模型;
当目标数据的数量大于或等于第四数量阈值时,更新第二模型。
也就是说,第三数量阈值和第四数量阈值是可以单独设置的。
可选地,可以使得第三数量阈值大于第四数量阈值。
可选地,还可以在目标数据的数量不能满足上述条件时,也就是说,目标数据的数量小于第三数量阈值且小于第四数量阈值的时候,不更新任何模型。
结合第一方面,在第一方面的某些实现方式中,第二模型是对第一特征数据进行训练得到的,第一特征数据是对第二特征数据进行压缩得到的,第二特征数据是对历史数据进行特征提取得到的。
结合第一方面,在第一方面的某些实现方式中,第二特征数据是利用第一模型对历史数据进行特征提取得到的;第二模型包括第一模型中用于执行特征提取的部分。
结合第一方面,在第一方面的某些实现方式中,本申请实施例所述方法可以应用于制冷系统,相当于被控设备为制冷设备。控制目标可以有一个或多个,例如可以包括以下至少一种:制冷效率、节能或设备故障率。
可选地,在得到目标控制信息后,可以将目标控制信息发送给制冷设备,以使得制冷设备根据上述目标控制信息生成控制参数以及根据生成的控制参数工作。例如从目标控制信息获知需要调整哪些制冷设备的工作状态,又例如生成不同制冷设备的控制参数。
第二方面,提供一种AI控制模型的训练方法,该训练方法包括:获取与控制目标相关的目标数据,根据目标数据的数量,更新第一模型或第二模型,第一模型是利用第一训练方法对与控制目标相关的历史数据进行训练得到的,第二模型是利用第二训练方法对上述历史数据进行训练得到的,第二训练方法需要的历史数据的数据量少于第一训练方法需要的历史数据的数据量。
在本申请技术方案中,根据目标数据的数据量来更新第一模型或第二模型能够使得目标数据得到充分的利用,且使得第一模型和第二模型都能够得到及时有效的更新,能够使得模型所适用的数据分布范围更广或更符合当前时刻。对于第一模型来说,第一模型能够学习到更多的知识,对于旧知识不会过快遗忘,而第二模型可以快速学习到新知识,两个模型相当于互补,能够彼此弥补对方的缺陷,也能够发挥自己的长处。
结合第二方面,在第二方面的某些实现方式中,可以执行以下至少一项操作:
当目标数据的数量大于或等于第五数量阈值时,利用目标数据更新第一模型;
当目标数据的数量大于或等于第六数量阈值时,利用目标数据更新第二模型;
当目标数据的数据量小于第六数量阈值时,继续获取目标数据。
需要说明的是,目标数据的数量会影响到能够产生的用于训练的训练样本的数据量,而通过对于目标数据的数量判断是否够更新模型,与先生成训练样本、再根据训练样本的数量和特征维度来判断训练样本的数据量的方式相比更为简洁,上述几种操作相当于当能生成的训练样本的数据量够更新小模型(第二模型)的时候更新小模型,当能生成的训练样本的数据量更新大模型(第一模型)的时候更新大模型,当能生成的训练样本的数据量不够更新模型的时候继续获取目标数据。但除了上述几种操作,还可以有其他情况存在,例如当能生成的训练样本的数据量够更新大模型的时候可以是只更新大模型,也可以是既更新大模型又更新小模型。在实际实现的时候,可以是这样的情况:连续更新几次小模型,之后更新一次大模型,之后再更新几次小模型,之后在更新一次大模型,如此不断重复执行。
结合第二方面,在第二方面的某些实现方式中,第二模型是利用第一特征数据训练得到的,第一特征数据是对第二特征数据进行压缩得到的,第二特征数据是对历史数据进行特征提取得到的。
结合第二方面,在第二方面的某些实现方式中,第二特征数据是利用第一模型对历史数据进行特征提取得到的;第二模型包括第一模型中用于执行特征提取的部分。
第三方面,提供了一种基于人工智能的控制装置,该装置包括用于执行上述第一方面的任意一种实现方式的控制方法的单元。
第四方面,提供了一种训练AI控制模型的训练装置,该训练装置包括用于执行上述第二方面的任意一种实现方式的控制方法的单元。
第五方面,提供了一种基于人工智能的控制装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第一方面中的任意一种实现方式中的控制方法。
第六方面,提供了一种训练AI控制模型的训练装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行第二方面中的任意一种实现方式中的控制方法。
第七方面,提供一种计算机可读介质,该计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行第一方面中的任意一种实现方式中的控制方法。
第八方面,提供一种计算机可读介质,该计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行第二方面中的任意一种实现方式中的控制方法。
第九方面,提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述第一方面中的任意一种实现方式中的控制方法。
第十方面,提供一种包含指令的计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行第二方面中的任意一种实现方式中的控制方法。
第十一方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第一方面中的任意一种实现方式中的控制方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面中的任意一种实现方式中的控制方法。
第十二方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第二方面中的任意一种实现方式中的控制方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第二方面中的任意一种实现方式中的控制方法。
附图说明
图1是一种制冷系统架构的示意图。
图2是历史数据和目标数据的分布示意图。
图3是本申请实施例的训练过程和执行过程的示意图。
图4是本申请实施例的卷积神经网络的结构示意图。
图5是本申请实施例的一种芯片硬件结构的示意图。
图6是训练数据集的压缩示意图。
图7是本申请实施例的AI控制模型的训练方法的示意性流程图。
图8是本申请实施例的基于人工智能的控制方法的示意性流程图。
图9是本申请实施例的一种基于人工智能的控制装置的示意性框图。
图10是本申请实施例的一种基于人工智能的控制装置的硬件结构示意图。
图11是本申请实施例的一种AI控制模型的训练装置的示意性框图。
图12是本申请实施例的一种AI控制模型的训练装置的硬件结构示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例涉及神经网络,为了更好地理解本申请实施例的方法,下面先对神经网络的相关术语和概念进行介绍。
本申请实施例针对AI控制技术领域中因训练数据不足导致模型不准确或适用范围过窄带来的控制质量过低的问题,提出了一种能够提高控制质量的AI控制方法。本申请实施例的方案可以应用于各类控制场景,例如对于各类工业过程、化学反应过程、生产过程、检测过程等各类过程进行控制,但无论是那种控制场景,都是利用控制方法对获取的目标数据(与控制目标相关的某些参数的数据)进行处理,从而产生一些控制策略或控制参数,以达到控制目标。为了便于理解,下面以一种制冷系统的控制为例,但应理解本申请实施例的方案并不只局限于该制冷系统。
图1是一种制冷系统架构的示意图。图1所示制冷系统可以是应用于数据中心的制冷系统,用于使得数据中心的设备能够工作在良好的工作环境下。制冷系统中包括有各类制冷相关的设备,例如图1所示的冷却塔、冷机、冷却泵、冷冻泵,利用这些制冷设备来保持数据中心的设备(例如图1中的机柜等)能够工作在良好的环境中。
制冷系统还可以分为一个或多个子系统,例如图1所示冷却子系统、冷机子系统、末端子系统。在制冷系统中往往涉及对温度、湿度的控制,所以需要获取环境温度、湿度等参数;此外还可能需要获取负载情况,例如图1中所示机柜的负载情况。
在一个例子中,在对图1所示制冷系统进行控制的时候,可以是使得环境温湿度达到目标温湿度,而会对目标温湿度带来影响的因素都可以作为目标数据,例如真实的环境温湿度、冷却塔的功率、冷却塔的进出水温度、冷却塔的工作负载、冷机的功率、冷机的流量、冷机的功率、冷冻水泵的流量、冷冻水泵的转速、冷冻水泵的功率、末端风机的转速、末端冷通道温度、末端进出水温度、机柜的负载等等,可以利用上述部分或全部目标数据,来生成控制策略,该控制策略例如可以是以下至少一种:调整冷却塔的风量、调整风速、改变各设备的工作电流、工作电压等,通过根据生成的控制策略来调整相应设备的工作参数,从而使得环境温湿度达到目标温湿度。
应理解,可以在初始选择会对目标温湿度产生影响的因素,来确定目标数据所包括的参数,但也可以选择一部分可以获取的参数作为目标数据,但这些参数是否真的对控制目标有影响可以通过后面的处理过程获知。举例说明,假设可以作为目标数据的有10种参数,可以从这10种参数中选择任意一种或多种参数作为目标数据,但被选中的一种或多种参数中至少有一种参数是已知对控制目标有影响的参数。
在另一个例子中,在对图1所示的制冷系统进行控制的时候,可以是使得能耗尽可能小,而会影响能耗的因素(参数)则都可以作为目标数据,例如环境温度、每个制冷设备的功率、数据中心的负载(例如图1中机柜的负载)等等。
上述给出了两个对制冷系统进行控制的例子,但应理解还可以存在对该系统的其他控制,也就是说,对于同一个系统可以存在多个控制过程,多个控制过程可以达到不同的控制目标,根据这些控制目标的不同可以决定获取不同的目标数据,利用不同的控制方法,以及产生不同的控制策略或控制参数。
本申请实施例下面主要以降低制冷系统的能耗,提高能效比为例进行介绍,相当于被控对象是制冷系统,但这并不是对于本申请实施例的方案的限定,被控对象还可以是其他任意系统或设备,例如可以是制热系统、某个电机、某个化学反应罐等等,还可以是测试软件等软件类产品,不再一一列举。
要实现制冷系统的高能效比,从而达到节能的目的,可以利用AI控制方法实现,但由于历史运维条件限制,制冷系统能够提供的可以用于进行训练的数据的数量有限,导致训练出来的模型的适用范围有限。换而言之,假设历史数据满足一个特定分布,则利用这些历史数据所建立的AI控制模型也只能适用于该特定分布内的数据,对于不在该特定分布内的数据则表现较差。而在制冷系统工作过程中必然会陆续产生一些不在该分布范围内的数据,这就会使得利用历史数据训练出来的AI控制模型不再适用。下面结合图举例说明。
图2是历史数据和目标数据的分布示意图。为了便于描述,在图2中绘制了4个不规则形状的框,其中,图2中的(a)框框出的是历史数据的分布情况,图2中的(b)、(c)、(d)三个框则框出的是在实际控制过程中实时产生的新的数据(可以称之为目标数据或新数据)的分布情况。从图2中可以看出,目标数据的分布并不完全在历史数据的分布范围内。具体而言,(b)框与(a)框几乎没有交集,也就是说,(b)框内的目标数据几乎全都不在历史数据的分布范围内;(c)框内的数据大部分落在(a)框内,也就是说,(c)框内的目标数据大部分在历史数据的分布范围内,少部分不在历史数据的分布范围内;(d)框内的数据少量落在(a)框内,也就是说,(d)框内的目标数据少量在历史数据的分布范围内,但大部分不在历史数据的分布范围内。
如果采用(a)框内的数据建立一个AI控制模型,该AI控制模型并不能完全适用于(b)-(d)三个框内的数据,尤其是对于三个框内不在历史数据的分布范围内的目标数据,如果将(b)-(d)中这些不在历史数据分布范围内的目标数据输入到AI控制模型,很难得到一个相对准确的结果。
假设图2所示的数据是由制冷系统产生的,则这些历史数据具体可以包括历史控制参数、目标数据等等。(a)框内的数据是制冷系统的历史产生的数据,也就是说,制冷系统的历史数据仅仅集中在整个系统状态和寻优控制参数全空间的部分空间内。(b)-(d)框内的数据是制冷系统的目标数据,也就是说,制冷系统的目标数据不再历史数据的分布范围内。如果基于当前的历史数据训练得到AI控制模型,则该AI控制模型在整个系统状态寻优控制参数全空间内推理的可信的区域占比较小,当目标数据超出了历史数据所覆盖的分布范围,基于该AI控制模型得到的推理结果并不可信。
在本申请实施例中,目标数据还没产生相应的控制策略或控制参数,也就是说,对于还没用来处理和进行推理过的目标数据,是没有对应的真实的控制参数的,或者可以理解为,目标数据是上文所述目标数据,所以在判断目标数据是否在历史数据分布范围内的时候,无论历史数据是否包括历史时刻的控制参数,都不影响判断目标数据是否在其分布范围内。
可选地,除了上面直接判断目标数据是否在历史数据的分布范围内以外,还可以先生成目标数据所对应的推理样本,也就是说,先将目标数据拼接一些非真实的可能的推理结果,使其成为一些推理样本,再看这些推理样本是否在历史数据所对应的样本的分布范围内,当推理样本在该范围内的时候,则对应的目标数据也在该范围内;当推理样本不在该范围内的时候,则对应的目标数据也不在该范围内。在这种情况下,相当于历史数据的分布范围实际相当于历史推理样本的分布范围(历史数据的推理空间),当目标数据的推理样本在该历史数据的推理空间内的时候认为该目标数据在历史数据的分布范围内,当目标数据的推理样本不在该历史数据的推理空间内的时候认为该目标数据不在历史数据的分布范围内。
需要说明的是,在本申请实施例中,历史数据是指历史时刻的数据,而目标数据是指运行过程中产生的数据,或者可以是运行过程中所能够获得的数据,无论是历史数据还是目标数据,都需要包括能够对控制目标产生影响的至少一种因素(参数)的数据。
目标数据可以是每隔一段时间获取一次,也可以实时不断获取,所以可以理解为,目标数据是用来进行控制的时候用到的数据,而历史数据是用来训练模型的时候用到的数据。目标数据包括实时数据,而实时数据则是指实时获取的数据。
还应理解,历史数据是与控制目标相关的数据,历史数据除了可以包括能够对控制目标产生影响的参数的数据以外,还可以包括历史实际生成的控制参数。
以制冷系统为例,假设在t1时刻之前,制冷系统处于离线状态,t1时刻开始制冷系统在线运行,则t1时刻之前的数据都是历史数据,t1时刻之后的数据都是实时数据。也就是说,实时数据未必是只包括某个时刻的数据,也可以是多个时刻的数据。
还需说明的是,目标数据是指与控制目标相关的数据,可以包括可能会对控制目标产生影响的任意一种或多种参数的数据,例如可以包括环境数据、设备自身参数、系统状态参数等等。而控制参数则是根据目标数据生成的可以用于控制系统或设备的工作,以达到或接近控制目标的参数。举例说明,假设在图1所示制冷系统中,控制目标是降低能耗,则目标数据可以包括环境温湿度、制冷设备的负载等等能够对制冷能耗产生影响的参数,而控制参数则可以是制冷设备的电机转速等参数。一次控制的过程相当于,先获取一些目标数据,例如获取一些可能对控制目标产生影响的参数的数据,然后对这些目标数据进行处理,得到目标控制信息,目标控制信息用于指导制冷设备的工作,通过制冷设备的工作使得制冷系统达到降低能耗的目的。还应理解,图2中的(a)还可以看作是历史数据所对应的推理样本的分布范围(历史数据的推理空间),此时图2中的(b)可以看作是目标数据所对应的推理样本的分布范围(目标数据的推理空间),其他内容与上文介绍相类似,也就是说,当目标数据的推理样本不在历史数据的推理空间内的时候,推理结果会不准确,为了简洁,不再重复介绍。
如果希望得到适用范围更广的AI控制模型,则需要不断获取分布覆盖范围更广的新数据,以及利用这些新数据不断更新AI控制模型。但由于在对被控对象的不断控制过程中,所能收集到的数据量有限,如果直接采用小模型进行学习,会导致该模型适用范围一直较小,只是适用范围在不断变化,相当于不断学习新知识,遗忘旧知识。而如果采用大模型进行学习,则因为收集到的数据量太少,导致不能更新模型或者使得模型的精度降低。
需要说明的是,在本申请实施例中,小模型是指利用较少的训练样本就能够得到的模型,这类模型相当于学习到的知识较少,而且整个模型所具备的知识也相对较少。大模型则是指利用大量的训练样本才能得到的模型,这类模型相当于学习到的知识较多,而且整个模型所具备的知识也相对较多。因此,对于复杂的场景,利用小模型学习到的知识太少,相当于不能学习到足够的知识,所以小模型的质量较低;而利用大模型则能够学习到足够的知识,所以大模型的质量较高。但是对于数据稀疏的场景,也就是说能够获得的训练样本较少的场景中,小模型可以得到及时的训练,而大模型则因为训练数据不足,反而导致不能得到有效的模型更新,使得质量较低。
对于控制场景,尤其是动态控制场景,场景复杂、数据稀疏,以及动态变化特性,使得小模型和大模型都无法适用,小模型会导致学到的知识不全面,且会不断遗忘旧知识,大模型则导致训练数据不足,无法及时学习到新知识。而本申请实施例的方案则综合了小模型和大模型的优点,以及弥补各自的缺陷,从而达到更高的控制质量。
为了便于理解本申请实施例的方案,下面对涉及的一些技术术语进行介绍。
(1)被控对象
被控对象是指控制领域中被控制的对象,也就是说被施加控制策略的对象,被控对象可以是设备、装置、系统,也可以是软件,也就是说,被控对象可以包括以下至少一种:被控设备、被控装置、被控系统、被控软件,但应理解,当被控对象为被控设备的时候,也可以是被控设备中某个或某些具体的装置或软件是实际被控对象,当被控对象为被控系统的时候也可以是被控系统中某个或某些具体的设备或装置是实际的被控对象,所以,在一定程度上被控对象也可以简单理解为被控设备,该设备可以看作是某个独立的装置,可以是对该设备/装置的控制,也可以是对该设备中的某个或某些装置或软件的控制,也可以是对该设备所在的系统的控制。例如,可以把一个电机作为被控对象,也可以把具有该电机的某个设备/装置作为被控对象,还可以把这些具有该设备/装置的系统作为被控对象。
在图1所示的场景中,制冷系统中的各个设备可以单独作为被控对象,也可以将多个设备作为被控对象,还可以将整个制冷系统整体作为被控对象。
(2)控制目标
控制目标是指控制领域中在控制时期望达到的目的。可以是期望被控对象达到某些技术效果,也可以是期望环境参数达到期望的参数等等。例如,对于电机,控制目标可以是转速稳定、最大转速尽可能大、从静止到达到目标转速的时间尽可能短等等,都可以作为控制目标。对于图1所示场景,控制目标可以是末端设备的工作环境适宜,例如环境温湿度适宜;还可以是整个系统的工作电流或电压稳定;还可以是制冷能效比尽可能高以达到节能效果;还可以是设备故障率尽可能低;还可以是整个系统的整体功耗尽可能低等等,在此不再一一列举。
(3)推理空间
推理空间可以理解为对推理样本进行处理后得到的结果所构成的空间。举例说明,环境温湿度可能会受气候、工作时会产热的设备等等,如果环境温湿度的过高则希望环境温度降低,可以减少高负荷工作设备的负载,还可以利用制冷设备降温,还可以利用除湿设备除湿,这些动作都可以看作是对应于环境温湿度过高的控制策略,可以通过设置相应的控制参数来实现,而且还可以评价这些动作的收益。如果环境温湿度过低则希望环境温度升高,可以利用制热设备升温,还可以利用加湿器增加湿度,这些动作可以看作时对应于环境温湿度过低的控制策略,同样可以通过设置相应的控制参数来实现,也可以评价这些动作的收益。则上述动作所构成的空间就可以看作是环境温湿度所对应的推理空间。
(4)全空间
全空间可以理解为所有数据或所有结果所构成的空间。例如所有推理空间的集合就可以构成推理空间的全空间。
(5)控制策略
控制策略是指为了达到控制目标所执行的操作,例如为了升温可以加热,为了降温可以制冷等等。控制策略往往需要利用控制参数实现,例如加热可以通过设置加热装置的电流或电压的值和/或加热时间来控制具体的加热温度和希望产生多少热量,例如制冷可以通过设置制冷装置的功率等来控制具体的制冷温度和希望多少时间达到目标温度。上述加热装置的电流或电压值、加热时间、制冷装置的功率等都可以看作是控制参数,被控对象,例如被控设备根据这些控制参数来工作就能够实现相应的控制策略,以及进一步实现相应的控制目标。
(6)收益
收益是用于评价控制效果的量。收益可以根据控制目标来选择木一种或多种参数。继续以上述列举的控制目标为例,对于被控对象是电机,控制目标是转速稳定、最大转速尽可能大或从静止到达到目标转速的时间尽可能短时,收益可以分别是:转速的变化率、最大转速或从静止到达到目标转速的时间长度,当收益为转速的变化率的时候,变化率越小收益越高;当收益为最大转速时,转速越高,收益越高;当收益为从静止到达到目标转速的时间长度时,时间长度越短,收益越高。概括而言,控制效果越好、越接近控制目标,收益越高;反之,控制效果越差、越远离控制目标,收益越低。以上述制冷系统为例,如果控制目标是节省能源,则收益可以是能耗、能效比、节省的能源量等参数,也就是说,达到相同的温度、湿度等需要的能源量越少越好。能效比可以理解为能耗和效果的比之,所以对于能效比来说,能效比越高,收益越高。对于节省的能源量来说,节省的能源量越多,收益越高。对于能耗来说,在其他条件一定的前提下,达到相同的目标所需要耗费的能源量越高,能耗越高,对于节省能源这一目标越产生负影响,所以能耗越高,收益越低;能耗越低,收益越高。
图3是本申请实施例的训练过程和执行过程的示意图。如图3所示,在离线阶段进行AI控制模型的初始化。
可选地,可以通过训练装置获取历史数据。
可选地,在获取历史数据后,可以执行步骤301、利用历史数据训练得到AI控制模型,该AI控制模型包括第一模型和第二模型,也就是说,可以利用历史数据训练得到第一模型和第二模型。
可选地,第一模型和第二模型可以采用不同的训练方法,例如第一模型可以采用第一训练方法,第二模型可以采用第二训练方法。
可选地,第一模型可以是上文所述大模型,相当于需要利用大量训练样本才可以获得的模型,第二模型可以是上文所述小模型,是利用少量训练样本即可获得的模型。也就是说,第二训练方法需要的训练样本的数据量可以少于第一训练方法需要的训练样本的数据量。
可选地,第一模型可以是利用历史数据建立的神经网络模型。
可选地,可以采用任意一种神经网络来建立第一模型,也就是说,第一训练方法可以是任意一种基于神经网络的训练方法,在本申请实施例中,主要可以采用对于训练样本的数据量要求相对较高的训练方法。例如,传统的机器学习的神经网络、卷积神经网络、深度神经网路、循环神经网络、深度卷积神经网络(deep convolutional neural networks,DCNN)等。下面以卷积神经网络(convolutional neuron network,CNN)为例进行介绍。卷积神经网络是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构,深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元可以对输入其中的待处理数据作出响应。
图4是本申请实施例的卷积神经网络的结构示意图,如图4所示,卷积神经网络(CNN)200可以包括输入层210,卷积层/池化层220(其中池化层为可选的),以及全连接层(fully connected layer)230。下面对这些层的相关内容做详细介绍。
卷积层/池化层220:
卷积层:
如图4所示卷积层/池化层220可以包括如示例221-226层,举例来说:在一种实现中,221层为卷积层,222层为池化层,223层为卷积层,224层为池化层,225为卷积层,226为池化层;在另一种实现方式中,221、222为卷积层,223为池化层,224、225为卷积层,226为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。
下面将以卷积层221为例,介绍一层卷积层的内部工作原理。
卷积层221可以包括很多个卷积算子,卷积算子也称为核,其在数据处理中的作用相当于一个从输入数据向量/矩阵中提取特定信息的过滤器,卷积算子本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对输入数据进行卷积操作的过程中,利用权重矩阵从输入数据中提取特定特征。该权重矩阵的大小应该与数据的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入数据的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入数据的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用多个尺寸(行×列)相同的权重矩阵,即多个同型矩阵。每个权重矩阵的输出被堆叠起来形成卷积数据的纵深维度,这里的维度可以理解为由上面所述的“多个”来决定。不同的权重矩阵可以用来提取数据中不同的特征,例如一个权重矩阵用来提取数据的边缘信息,另一个权重矩阵用来提取数据的关联信息等。该多个权重矩阵尺寸(行×列)相同,经过该多个大小相同的权重矩阵提取后的卷积特征数据的大小也相同,再将提取到的多个大小相同的卷积特征数据合并形成卷积运算的输出。
在本申请实施例中,在利用训练好的模型执行任务的时候上述输入数据可以是目标数据,在训练模型的时候上述输入数据可以是历史数据。
这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以用来从输入数据中提取信息,或者可以理解为提取特征,从而使得卷积神经网络200进行正确的预测。
当卷积神经网络200有多个卷积层的时候,初始的卷积层(例如221)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络200深度的加深,越往后的卷积层(例如226)提取到的特征越来越复杂,比如高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。
池化层:
由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,在如图4中220所示例的221-226各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少数据的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入数据进行采样得到维度或长度较小的数据。最大池化算子可以在特定范围内取该范围内最大的值作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与输入数据大小相关一样,池化层中的运算符也应该与输入数据的大小相关。通过池化层处理后输出的数据的大小可以小于输入池化层的数据的大小。
在通常情况下,在经过卷积层/池化层220的处理后,卷积神经网络200还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层220只会提取特征,并减少输入数据带来的参数,例如进行本申请实施例的推理过程的时候,光经过特征提取是不够的,还需要继续对这些提取到的特征进行一些处理,从而得到想要的结果。
但是需要特别说明的是,在本申请实施例中,也存在特征提取之后就输出的情况,也就是说,只保留神经网络的执行特征提取的部分,例如当为上述CNN的网络时,可以去掉卷积层/池化层220后面的其他层。也就是说,可以把神经网络用来作为特征提取器使用。还应理解,也有一些神经网络是只用于进行特征提取的。
能用于提取特征的神经网络还可以与其他的神经网络进行拼接。
全连接层230:
为了生成最终的输出信息(类信息、推理结果的信息或其他相关信息),卷积神经网络200需要利用全连接层230来生成一个或者一组所需要的类的数量的输出。因此,在全连接层230中可以包括多层隐含层(如图4所示的231、232至23n)以及输出层240,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类等等,在本申请实施例中该任务类型为推理,也就是说根据输入数据推理出一个或一些结果,以使得可以根据这些结果控制被控设备工作,从而达到期望的控制目标。
在全连接层230中的多层隐含层之后,也就是整个卷积神经网络200的最后层为输出层240,该输出层240具有类似分类交叉熵的损失函数,具体用于计算预测误差,一旦整个卷积神经网络200的前向传播(如图4由210至240方向的传播为前向传播)完成,反向传播(如图4由240至210方向的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络200的损失,及卷积神经网络200通过输出层输出的结果和理想结果之间的误差。
需要说明的是,如图4所示的卷积神经网络200仅作为一种卷积神经网络的示例,在具体的应用中,卷积神经网络还可以以其他网络模型的形式存在。
应理解,可以采用图4所示的卷积神经网络(CNN)200来训练第一模型和/或第二模型,如图4所示,可以将待处理数据经过输入层210、卷积层/池化层220和全连接层230的处理之后可以得到待处理数据的处理结果。
图5是本申请实施例的一种芯片硬件结构的示意图。该芯片包括神经网络处理器60。该芯片可以被设置在如图3所示的处理装置中,用以完成该处理装置的计算工作。该芯片也可以被设置在如图3所示的训练装置中,用以完成该训练装置的训练工作,并输出训练得到的AI控制模型。如图4所示的卷积神经网络中各层的算法均可在如图5所示的芯片中得以实现。
神经网络处理器(neural-network processing unit,NPU)500作为协处理器挂载到主中央处理器(central processing unit,CPU)(host CPU)上,由主CPU分配任务。NPU的核心部分为运算电路503,控制器504控制运算电路503提取存储器(权重存储器或输入存储器)中的数据并进行运算。
在一些实现中,运算电路503内部包括多个处理单元(process engine,PE)。在一些实现中,运算电路503是二维脉动阵列。运算电路503还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路503是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路503从权重存储器502中取矩阵B相应的数据,并缓存在运算电路503中每一个PE上。运算电路503从输入存储器501中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)508中。
向量计算单元507可以对运算电路503的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元507可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(local response normalization)等。
在一些实现中,向量计算单元能507将经处理的输出的向量存储到统一缓存器506。例如,向量计算单元507可以将非线性函数应用到运算电路503的输出,例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元507生成归一化的值、合并值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路503的激活输入,例如用于在神经网络中的后续层中的使用。
统一存储器506用于存放输入数据以及输出数据。
权重数据直接通过存储单元访问控制器505(direct memory accesscontroller,DMAC)将外部存储器中的输入数据搬运到输入存储器501和/或统一存储器506、将外部存储器中的权重数据存入权重存储器502,以及将统一存储器506中的数据存入外部存储器。
总线接口单元(bus interface unit,BIU)510,用于通过总线实现主CPU、DMAC和取指存储器509之间进行交互。
与控制器504连接的取指存储器(instruction fetch buffer)509,用于存储控制器504使用的指令;
控制器504,用于调用指存储器509中缓存的指令,实现控制该运算加速器的工作过程。
一般地,统一存储器506,输入存储器501,权重存储器502以及取指存储器509均为片上(on-chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random accessmemory,DDR SDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。
另外,在本申请中,图4所示的卷积神经网络中各层的运算可以由运算电路503或向量计算单元507执行。
可选地,第一模型可以是利用较多数量的历史数据建立的模型,第二模型可以是利用较少数量的历史数据建立的模型。在这种情况下,相当于利用相同的训练样本集合,从中选取适量的训练样本来建立大小两个模型,在后续使用时,根据实际情况选择第一模型或第二模型。这种方式可以解决现有技术中控制模型适用的数据分布范围窄导致推理不准确的问题。
可选地,第二模型也可以利用神经网络训练得到的模型,也就是说,第二训练方法也可以是基于神经网络的训练方法,但需要选择对训练样本数据量要求相对较低的神经网络,此外,第二模型还可以利用非神经网络方法获得。
可选地,第二训练方法可以包括以下至少一种:高斯过程回归(Gauss processregression,GPR)算法、k近邻(k-nearest neighbor,KNN)回归算法)算法、小样本学习(fewshot learning,FSL)类的算法等各类对于训练样本的数据量要求较低的算法。
可选地,在利用第二训练方法进行第二模型的训练时,训练样本可以是直接来自于历史数据的,例如上面采用少量的历史数据来训练第二模型,此外,训练样本还可以是对于历史数据进行特征提取之后的特征数据。
可选地,可以先对历史数据进行特征提取,得到特征数据,再利用特征数据来训练第二模型,在这种情况下,由于第二训练方法需要的训练样本的数据量较少,所以同样可以只选择少量的历史数据,然后对这些少量的历史数据进行特征提取。
需要说明的是,在本申请实施例中,训练样本的数据量和训练样本的数量是不同的概念,训练样本的数据量可以理解为训练样本的数量和特征维度的乘积,或者可以理解为,训练样本的数量是能够影响训练样本的数据量的一个因素。
为了使得历史数据得到尽可能充分的利用,可以采用压缩的方式对特征数据进行压缩,使得训练样本的数据量减少。可选地,可以先对历史数据进行特征提取,得到第二特征数据,再对第二特征数据进行压缩得到第一特征数据,之后再利用第一特征数据来训练得到第二模型。在压缩过程中是对于特征维度的压缩,训练样本的数量不会发生改变。也就是说,第二特征数据的特征维度大于第一特征数据的特征维度,第二特征数据的样本数量等于第一特征数据的样本数量。上述压缩过程可参考图6的介绍。
图6是训练数据集的压缩示意图,如图6所示,可以将原始训练数据集进行压缩后得到新的训练数据集,其中,原始训练数据集的样本数量为M,特征维度为N1;新的训练数据集的样本数量为M,特征维度为N2,且N1大于N2,M、N1、N2均为正整数。
可以看出,在压缩的时候,样本数量不减少,减少的是特征维度,这种压缩方式能够保持参与训练的训练样本的数量的同时,通过特征维度的降低使得新的训练样本更利于第二模型的训练。
为了建立第一模型和第二模型之间的关系,还可以利用第一模型来为第二模型提供训练数据。可选地,可以将第一模型的一部分作为第二模型的特征提取器,将利用第一模型从历史数据中提取的特征向量或矩阵作为第二模型的训练数据的输入。例如可以从神经网络模型(第一模型的一例)中选取一个隐含层作为输出层,将历史数据在该隐含层的输出作为第二模型的训练数据的输入向量,从而构造出第二模型的训练数据和训练数据集。假设第一模型是利用上述CNN训练得到的,还可以去掉其全连接层,在卷积层/池化层之后将特征数据进行数据,作为第二模型的训练数据。在这个例子中,相当于对历史数据进行特征提取的时候利用了第一模型,提取得到的特征向量/矩阵即为上述第二特征数据,而对第二特征数据再进行压缩就可以得到上述第一特征数据。
可选地,第二模型可以采用任意对于训练样本的数据量要求相对较低的训练方法来建模,例如上文所述任意一种第二训练方法,在此不再重复介绍,本申请实施例中主要以GPR算法作为第二训练方法为例进行介绍。
需要说明的是,在本申请实施例中,第一模型和第二模型可以是独立训练完成的,也可以是第二模型是在第一模型的一部分结构的基础上训练得到的,对于后一种情况,可以将第一模型的特征提取部分和第二模型看作一个整体,可以理解为是一个集成模型,以及将这个集成模型看作是后续使用的第二模型。也就是说,第二模型可以是上述利用第一特征数据训练得到的模型,也可以是,第一模型的一部分与第二模型综合在一起的集成模型。举例说明,假设第一模型包括特征提取部分和分类部分,可以将其特征提取部分保留,分类部分去除,再拼接原始的第二模型作为集成模型,也就是说,新的第二模型既包括第一模型的一部分(特征提取部分),又包括原始的第二模型,而完整的第一模型依然作为本申请实施例中的第一模型使用。
如图3所示,在在线阶段可以利用第一模型和第二模型对目标数据进行处理,得到推理结果,且在在线阶段还可以利用目标数据对第一模型和/或第二模型进行更新。
可选地,可以利用处理装置执行步骤302、利用AI控制模型对目标数据进行处理,得到目标控制信息。
可选地,在得到推理结果之后还可以执行步骤303、输出目标控制信息。
可选地,推理结果可以用于指导被控设备根据推理结果进行工作,也可以根据推理结果生成控制策略或控制参数,以及将控制策略或控制参数发送给被控设备,使得被控设备可以根据控制策略或控制参数进行工作。
可选地,还可以将目标数据传送给训练装置。由训练装置更新模型。也就是说,可以执行步骤304、利用目标数据更新AI控制模型。
可选地,在执行步骤304时,可以根据目标数据的数据量来更新第一模型和/或第二模型,具体方法会在下文中给出,在此不进行展开。
目标数据可以理解为是实时获取的被控设备的目标数据,例如对于制冷系统而言,可以是制冷系统的系统状态,该系统状态可以包括上文所述环境温湿度、设备的实时参数等各类数据,具体内容可参照上文相关描述,不再重复介绍,系统状态所包括的参数类别可以为一种或多种。但应理解,目标数据可以包括被控设备的数据,但也可以包括环境数据和/或干扰数据,例如上文的制冷系统,目标数据可以是被控设备的实时参数、末端设备的实时参数,但也可以是环境温湿度等参数。对于具体怎样利用第一模型和第二模型对目标数据进行处理,以及怎样利用目标数据更新AI控制模型会在下面内容中进行详细介绍,在此不再展开。
图7是本申请实施例的AI控制模型的训练方法的示意性流程图,下面对图7所示各个步骤进行介绍。
701、获取与控制目标相关的目标数据。
可选地,该目标数据可以包括能够对控制目标产生影响的至少一种参数的数据。例如,对于上述制冷系统,当控制目标是节约能源的时候,可能对该控制目标产生影响的任何一种或多种因素(参数)的数据都可以作为目标数据,而目标数据则可以理解为运行过程中获取的或者运行过程中产生的数据。
702、根据目标数据的数量更新第一模型或第二模型。
可选地,第一模型可以是上文所述任意一种第一模型,第二模型可以是上文所述任意一种第二模型。第一模型和第二模型均可以看作是AI控制模型的一例。
需要说明的是,步骤702执行过程中也可能存在不更新模型的情况,相当于数量太少,不足以更新第一模型和第二模型。
可选地,可以采用下面的方法执行步骤702,也就是说,在执行步骤702时,可以通过执行以下至少一项操作来实现:
当目标数据的数量大于或等于第五数量阈值时,利用目标数据更新第一模型;
当目标数据的数量大于或等于第六数量阈值时,利用目标数据更新第二模型,第五数量阈值大于第六数量阈值;
当目标数据的数量小于第六数量阈值时,重复执行步骤701。
需要说明的是,目标数据的数量会影响到能够产生的用于训练的训练样本的数据量,而通过对于目标数据的数量判断是否够更新模型,与先生成训练样本、再根据训练样本的数量和特征维度来判断训练样本的数据量更为方便简洁,上述几种操作相当于当能生成的训练样本的数据量够更新小模型(第二模型)的时候更新小模型,当能生成的训练样本的数据量更新大模型(第一模型)的时候更新大模型,当能生成的训练样本的数据量不够更新模型的时候继续获取目标数据。但除了上述几种操作,还可以有其他情况存在,例如当能生成的训练样本的数据量够更新大模型的时候可以是只更新大模型,也可以是既更新大模型又更新小模型。在实际实现的时候,可以是这样的情况:连续更新几次小模型,之后更新一次大模型,之后再更新几次小模型,之后在更新一次大模型,如此不断重复执行。
进一步举例说明,假设训练(更新)一次第二模型需要10个数据,训练一次第一模型需要100个数据,每个时刻能产生的数据均为5个,也就是说,每次获取实时数据的时候可以增加5个新数据,假设当前时刻之前没有产生任何实时数据,则在实际执行中,相当于:(1)执行701获取5个数据;(2)执行702不更新模型;(3)执行701获取5个数据;(4)执行702更新第二模型;中间重复数次(1)-(4)直到在执行701后数据量大于或等于100的时候:执行702更新第一模型;之后继续重复。在这个例子中相当于在获取到100个数据期间,第二模型被更新了9次,第一模型没有被更新,而在获取到100个数据的时候,可以第10次更新第二模型以及第1次更新第一模型。应理解,这只是一个非常具体的示例,但实际中每次获取的数据量未必是例子中的数值,而且每次获取的数据量未必一致,还可以通过调整数量阈值来改变更新频次,例如虽然训练一次第二模型只需要10个数据,但可以在只有达到15个数据或20个数据的时候才执行一次更新,等等,在此不再一一列举。
在图7所示方法中,第一模型可以采用上文所述任意一种第一训练方法进行训练,第二模型可以采用上文所述任意一种第二训练方法进行训练。
可选地,第二训练方法需要的训练样本的数据量可以少于第一训练方法需要的训练样本的数据量。训练样本的数据量可以是训练样本的数量和特征维度的乘积。
可以理解为训练样本是利用历史数据或目标数据得到的,或者可以理解为训练样本是对目标数据进行一些处理之后得到的。
可选地,在利用第二训练方法训练第二模型时,可以选取少量的历史数据作为第二模型的训练数据,也可以选取少量历史数据的特征数据作为第二模型的训练数据,还可以是对历史数据的特征数据进行压缩之后,将得到的压缩后的特征数据作为第二模型的训练数据。
可选地,在对历史数据进行特征提取的时候,可以利用第一模型的一部分来实现,也就是说,将第一模型的一部分,此处为执行特征提取操作的部分作为特征提取器使用,用于为第二模型提供目标数据。在这种情况下,第二模型可以包括第一模型执行上述特征提取的那部分。
需要说明的是,在上述例子中,第二模型相当于上文所述小模型,所需要的训练样本的数据量较少,因此可以直接从历史数据中选择一部分作为训练样本;还可以先对历史数据进行特征提取,以及对提取到的特征向量/矩阵(此处对应上述第二特征数据)进行压缩,将压缩后的特征向量/矩阵(此处对应上述第一特征数据)作为第二模型的训练样本;还可以在进行特征提取的时候利用第一模型来执行,从而建立第一模型和第二模型的内在联系,在这种情况下,还可以把第一模型能够执行特征提取操作的那部分作为第二模型的一部分。上述例子相当于给出了利用历史数据训练得到第二模型的几种方法示例,具体过程也可以参照图3中对于训练过程的介绍。
应理解,利用目标数据更新AI控制模型,例如上述第一模型、第二模型,也可以看作是对AI控制模型进行训练。
在图7所示方法中,根据目标数据的数据量来更新第一模型或第二模型能够使得目标数据得到充分的利用,且使得第一模型和第二模型都能够得到及时有效的更新,能够使得模型所适用的数据分布范围更广或更符合不断推进的时刻。对于第一模型来说,第一模型能够学习到更多的知识,对于旧知识不会过快遗忘,而第二模型可以快速学习到新知识,两个模型相当于互补,能够彼此弥补对方的缺陷,也能够发挥自己的长处。
图8是本申请实施例的基于人工智能的控制方法的示意性流程图,下面对图8所示各个步骤进行介绍。
801、获取与控制目标相关的目标数据。
可选地,目标数据可以包括以下至少一种:被控设备运行过程中产生的数据、环境数据、干扰数据等。
可选地,目标数据包括能够对控制目标产生影响的至少一种参数的数据。例如图1所示系统中,当控制目标为环境温湿度维持在目标温湿度的时候,图1所示各个制冷设备的不同参数、实际环境温度、末端设备的负载等工作参数都可以作为上述对控制目标产生影响的参数。
802、从目标数据中选取第一可信数据。
可选地,第一可信数据可以是落在预设的数据分布范围内的数据,而该数据分布范围可以是基于历史数据得到。
也就是说,第一可信数据可以是在历史数据的分布范围内的数据。
步骤802相当于对目标数据进行了一定的筛选,只利用在根据历史数据得到的数据分布范围内的数据做推理,可以得到一个相对准确的结果。当目标数据在数据分布范围内的时候,用AI控制模型来做推理能得到一个相对准确的值。
可选地,历史数据可以包括上述至少一种能够对控制目标产生影响的参数的数据。
目标数据可以理解为在被控设备或被控系统等运行过程中(即控制过程中)实时产生的数据,这些产生的数据可以包括被控设备产生的数据,也可以包括环境数据、干扰数据等其他数据。历史数据可以理解为在建立AI控制模型时所用到的数据。
在一种实现方式中,可以对目标数据和历史数据进行比较,从而从目标数据中选取第一可信数据。可以理解为,将目标数据中与历史数据差异性相对较小的数据作为第一可信数据。这样操作的目的是,从目标数据中选择在历史数据的分布范围内的数据或与历史数据相同或相近的数据做推理。以图2为例,相当于选择(b)框与(a)框交集内的目标数据、(c)框与(a)框交集内的目标数据、(d)框与(a)框交集内的目标数据,选取这些在历史数据的分布范围内的数据就可以使得推理准确。
在另一种实现方式中,可以是把目标数据的推理样本与历史数据的训练样本比较,也就是说,根据目标数据生成推理样本,把推理样本与用来训练AI控制模型的训练样本比较,把与训练样本差异性相对较小的推理样本所对应的目标数据作为第一可信数据。在上述两种实现方式中,第一种是数据与数据之间比较,第二种是样本与样本之间比较。
可选地,在第二种实现方式中,可以采用下面的方法确定。
利用目标数据生成至少一个推理样本,获得至少一个推理样本中的每个样本与训练样本之间的第一距离,根据第一距离来将推理样本划分到至少一个集合,该至少一个集合中包括可信集合,将可信集合中的推理样本所对应的目标数据确定为第一可信数据。
可选地,可以设置第一距离阈值,根据第一距离与第一距离阈值之间的关系来划分集合。当第一距离小于或等于第一距离阈值的时候,将该推理样本划分至可信集合,当第一距离大于第一距离阈值的时候,将该推理样本划分至不可信集合。也就是说,将推理样本中与训练样本比较接近的样本作为可信的样本,换而言之,距离越小说明目标数据与历史数据之间的分布越接近,或者属于相同的分布,此时更可能得到更为准确的目标控制信息。
在上述方式中,通过比较样本之间的距离来选取可信数据,容易实现,只要设置距离阈值即可,且可以通过改变距离阈值的值来调整筛选的力度。也就是说,当距离阈值设置较小的时候,相当于对于可信数据的筛选较为严格,而当距离阈值设置较大的时候,相当于对于可信数据的筛选较为宽松。
需要说明的是,该至少一个集合可以只包括可信集合,也可以包括可信集合和不可信集合。
可选地,还可以设置次可信集合,也就是说,该至少一个集合可以包括可信集合和次可信集合,也可以包括可信集合、次可信集合和不可信集合。
可选地,可以利用第二距离阈值来将推理样本划分到至少一个集合。
可选地,可以将推理样本中第一距离小于或等于第二距离阈值且大于第一距离阈值的推理样本划分到次可信集合,第二距离阈值大于第一距离阈值。
可选地,当只有可信集合和不可信集合时,可以将第一距离大于第一距离阈值的推理样本划分到不可信集合。当同时有可信集合、次可信集合和不可信集合时,可以将第一距离大于第二距离阈值的推理样本划分到不可信集合。
可选地,不可信集合中的推理样本所对应的目标数据可以不进行推理,也就是说不输入到AI控制模型中。
803、将第一可信数据输入到目标模型。
可选地,为了进一步提高控制的准确性和提高控制效率,还可以对目标模型进行一些改进。例如可以通过设置第一模型和第二模型两个不同大小的模型,而在将可信数据输入到目标模型的时候就可以根据需求进行一定的选择。
可选地,第一模型可以是利用上文所述任意一种第一训练方法训练得到的,第二模型可以是利用上文所述任意一种第二训练方法训练得到的,在此不再展开描述。
可选地,可以根据第一可信数据的数量或第一可信数据所对应的推理样本的数量来选择将第一可信数据输入到第一模型还是第二模型。
可选地,可以设置第一数量阈值,当第一可信数据的数量大于或等于第一数量阈值时,将第一可信数据或第一可信数据所对应的推理样本输入到第一模型。
可选地,可以在当第一可信数据的数量小于第一数量阈值时,将第一可信数据或第一可信数据所对应的推理样本输入到第二模型。
可选地,可以设置第七数量阈值,当第一可信数据所对应的推理样本的数量大于或等于第七数量阈值时,将第一可信数据或第一可信数据所对应的推理样本输入到第一模型。
可选地,可以在当第一可信数据所对应的推理样本的数量小于第七数量阈值时,将第一可信数据或第一可信数据所对应的推理样本输入到第二模型。
也就是说,上述给出了根据第一可信数据的数量或第一可信数据的推理样本的数量来选择合适的目标模型的示例。
需要说明的是,在本申请实施例中,在设置数量阈值的时候,既可以对数据的数量来设置,又可以对样本的数量来设置,二者未必是完全等同的,可以只设置其中之一也可以是同时设置。当数据和样本成等比例关系的时候二者是可以等同的,但当有些数据能生成很多样本,有些数据只能生成少量样本的时候,根据数据的数量阈值所选定的目标模型未必会是根据样本数量所选定的目标模型。
还应理解,当只划分可信集合或者是当只设置第一距离阈值的时候,吧第一可信数据输入到目标模型所得到的控制信息,即可作为目标控制信息直接输出,而如果还需要进行一些其他处理,则是将得到的控制信息经过一定处理后采会输出目标控制信息,为了便于区分,把第一可信数据输入到目标模型的输出称之为第一控制信息,把本申请实施例中第二可信数据输入到目标模型的输出称之为第二控制信息。
与之类似,对于次可信集合所对应的第二可信数据来说,也可以执行类似与步骤803的操作,利用第一模型或第二模型,得到第二可信数据的第二控制信息。
可选地,可以根据第二可信数据的数量或第二可信数据的推理样本的数量(即次可信集合中的推理样本的数量)来选择将第二可信数据输入到第一模型还是第二模型,即从第一模型和第二模型中选定目标模型。
可选地,可以设置第二数量阈值,当第二可信数据的数量或次可信集合中的推理样本的数量大于或等于第二数量阈值时,将第二可信数据输入到第一模型,还可以在当第二可信数据的数量或次可信集合中的推理样本的数量小于第二数量阈值时,将第二可信数据输入到第二模型。
需要说明的是,在本申请实施例中,在设置数量阈值的时候,既可以对数据的数量来设置,又可以对样本的数量来设置,二者未必是完全等同的,可以只设置其中之一也可以是同时设置。当数据和样本成等比例关系的时候二者是可以等同的,但当有些数据能生成很多样本,有些数据只能生成少量样本的时候,根据数据的数量阈值所选定的目标模型未必会是根据样本数量所选定的目标模型。
可选地,还可以综合第一控制信息和第二控制信息来得到目标控制信息,例如可以将两个控制信息中收益较高的控制信息作为目标控制信息。也就是说,比较第一控制信息和第二控制信息的收益,收益较高的控制信息为目标控制信息。
可选地,图8中所使用的第一模型或第二模型,可以采用图7所示方法进行更新,可以执行以下至少一项操作:
当目标数据的数量大于或等于第三数量阈值时,更新第一模型;
当目标数据的数量大于或等于第四数量阈值时,更新第二模型。
也就是说,第三数量阈值和第四数量阈值是可以单独设置的。
可选地,可以使得第三数量阈值大于第四数量阈值。
可选地,还可以在目标数据的数量不能满足上述条件时,也就是说,目标数据的数量小于第三数量阈值且小于第四数量阈值的时候,不更新任何模型。
假设将图8所示方法应用于制冷系统,则相当于被控设备为制冷设备。控制目标可以有一个或多个,例如可以包括以下至少一种:制冷效率、节能或设备故障率。
可选地,在得到目标控制信息后,可以将目标控制信息发送给制冷设备,以使得制冷设备根据上述目标控制信息生成控制参数以及根据生成的控制参数工作。例如从目标控制信息获知需要调整哪些制冷设备的工作状态,又例如生成不同制冷设备的控制参数。
利用图8所示方法,能够有效提高控制质量。首先,在进行推理的时候,只利用从目标数据中选择的在数据分布范围内的数据,有效保证了目标控制信息的准确性,从而能够得到更好的控制质量。其次,在进行推理的时候,根据可信数据的数据量来用两个模型进行推理,相当于选择合适的模型做推理,同样能够提高推理的准确性,且能够提高推理的效率,也就是说可以进一步提高控制质量。
此外,第二可信数据的确定和利用,以及综合两个控制信息得到一个收益较高的作为目标控制信息,能够进一步提高目标控制信息的准确性,而利用目标数据更新模型则能够不断提高第一模型和第二模型的准确性,当更新后的第一模型和第二模型在后续被使用时,可以提高控制质量。
图9是本申请实施例的一种基于人工智能的控制装置的示意性框图。图9所示的装置2000包括获取单元2001和处理单元2002。
装置2000可以用于执行本申请实施例的基于人工智能的控制方法的步骤。例如,获取单元2001可以用于执行图8所示方法中的步骤801,处理单元2002可以用于执行图8所示方法中的步骤802和步骤803。
可选地,处理单元2002还可以用于根据推理结果生成控制策略或控制参数。
可选地,装置2000还可以包括发送单元2003,发送单元2003可以用于将控制策略或控制参数发送给被控设备,从而指导被控设备进行工作。
可选地,装置2000还可以包括存储单元,用于存储目标数据、中间数据、目标控制信息等各类数据。
图9所示的装置2000中的获取单元2001可以是实时获取数据的单元,例如可以通过获取单元2001实时获取用户的目标数据,也可以实从存储单元中读取目标数据。此外,获取单元2001和发送单元2003的组合还可以相当于图10所示的装置3000中的通信接口3003,通过该通信接口3003可以获得待处理的目标数据,或者,获取单元2001也可以相当于图10所示的装置3000中的处理器3002,此时可以通过处理器3002从存储器3001中获取待处理的目标数据。
此外,上述图9所示的装置2000中的处理单元2002可以相当于图10所示的装置3000中处理器3002。
图10是本申请实施例的一种基于人工智能的控制装置的硬件结构示意图。图10所示的装置3000包括存储器3001、处理器3002、通信接口3003以及总线3004。其中,存储器3001、处理器3002、通信接口3003通过总线3004实现彼此之间的通信连接。
存储器3001可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器3001可以存储程序,当存储器3001中存储的程序被处理器3002执行时,处理器3002和通信接口3003用于执行本申请实施例的基于人工智能的控制方法的各个步骤。
处理器3002可以采用通用的CPU,微处理器,应用专用集成电路(applicationspecific integrated circuit,ASIC),图形处理器(graphic processing unit,GPU)或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的基于人工智能的控制装置中的单元所需执行的功能,或者执行本申请实施例的基于人工智能的控制方法的各个步骤。
处理器3002还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的基于人工智能的控制方法的各个步骤可以通过处理器3002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器3002还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gatearray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的基于人工智能的控制方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器3001,处理器3002读取存储器3001中的信息,结合其硬件完成本申请实施例的基于人工智能的控制装置中包括的单元所需执行的功能,或者执行本申请实施例的基于人工智能的控制方法的各个步骤。
通信接口3003使用例如但不限于收发器一类的收发装置,来实现装置3000与其他设备或通信网络之间的通信。例如,可以通过通信接口3003发送推理结果所对应的控制参数。
总线3004可包括在装置3000各个部件(例如,存储器3001、处理器3002、通信接口3003)之间传送信息的通路。
图11是本申请实施例的一种AI控制模型的训练装置的示意性框图。图11所示的装置4000包括获取单元4001和处理单元4002。
装置4000可以用于执行本申请实施例的AI控制模型的训练方法的步骤。
可选地,收发单元4001可以用于执行图7所示训练方法中的步骤701,处理单元4002可以用于执行图7所示训练方法中的步骤702。
图11所示的装置4000中的获取单元4001可以相当于图12所示的装置5000中的通信接口5003,处理单元4002可以相当于图12所示的装置5000中处理器5002。
图12是本申请实施例的一种AI控制模型的训练装置的硬件结构示意图。图12所示的装置5000包括存储器5001、处理器5002、通信接口5003以及总线5004。其中,存储器5001、处理器5002、通信接口5003通过总线5004实现彼此之间的通信连接。
存储器5001可以是ROM,静态存储设备和RAM。存储器5001可以存储程序,当存储器5001中存储的程序被处理器5002执行时,处理器5002和通信接口5003用于执行本申请实施例的人工智能模型的训练方法的各个步骤。
处理器5002可以采用通用的,CPU,微处理器,ASIC,GPU或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的训练装置中的单元所需执行的功能,或者执行本申请实施例的人工智能模型的训练方法的各个步骤。
处理器5002还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的人工智能模型的训练方法的各个步骤可以通过处理器5002中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器5002还可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的AI控制模型的训练方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器5001,处理器5002读取存储器5001中的信息,结合其硬件完成本申请实施例的训练装置中包括的单元所需执行的功能,或者执行本申请实施例的人工智能模型的训练方法的各个步骤。
通信接口5003使用例如但不限于收发器一类的收发装置,来实现装置5000与其他设备或通信网络之间的通信。例如,可以通过通信接口5003获取目标数据。
总线5004可包括在装置5000各个部件(例如,存储器5001、处理器5002、通信接口5003)之间传送信息的通路。
需要说明的是,尽管上述装置3000、装置5000和装置7000仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,装置3000、装置5000和装置7000还可以包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解,装置3000、装置5000还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,装置3000、装置5000也可仅仅包括实现本申请实施例所必须的器件,而不必包括图10、图12中所示的全部器件。
本申请实施例并未对本申请实施例提供的方法的执行主体的具体结构进行特别限定,只要能够通过运行记录有本申请实施例提供的方法的代码的程序,以根据本申请实施例提供的方法进行通信即可。例如,本申请实施例提供的方法的执行主体可以是终端设备或网络设备,或者,是终端设备或网络设备中能够调用程序并执行程序的功能模块。
本申请的各个方面或特征可以实现成方法、装置或使用标准编程和/或工程技术的制品。本文中使用的术语“制品”可以涵盖可从任何计算机可读器件、载体或介质访问的计算机程序。例如,计算机可读介质可以包括但不限于:磁存储器件(例如,硬盘、软盘或磁带等),光盘(例如,压缩盘(compact disc,CD)、数字通用盘(digital versatile disc,DVD)等),智能卡和闪存器件(例如,可擦写可编程只读存储器(erasable programmableread-only memory,EPROM)、卡、棒或钥匙驱动器等)。
本文描述的各种存储介质可代表用于存储信息的一个或多个设备和/或其它机器可读介质。术语“机器可读介质”可以包括但不限于:无线信道和能够存储、包含和/或承载指令和/或数据的各种其它介质。
需要说明的是,当处理器为通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件时,存储器(存储模块)可以集成在处理器中。
还需要说明的是,本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的保护范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。此外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上,或者说对现有技术做出贡献的部分,或者该技术方案的部分,可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,该计算机软件产品包括若干指令,该指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。前述的存储介质可以包括但不限于:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (29)
1.一种基于人工智能的控制方法,其特征在于,包括:
获取与控制目标相关的目标数据;
从所述目标数据中选取落入预设的数据分布范围的第一可信数据,所述数据分布范围是基于与所述控制目标相关的历史数据得到的;
将所述第一可信数据输入到目标模型进行处理,得到目标控制信息,所述目标控制信息用于控制被控设备实现所述控制目标,所述目标模型是利用所述历史数据训练得到的。
2.如权利要求1所述的控制方法,其特征在于,所述从所述目标数据中选取落入预设的数据分布范围的第一可信数据,包括:
利用所述目标数据生成至少一个推理样本;
获取利用所述历史数据生成的训练样本中的至少一个训练样本;
获得所述至少一个推理样本中每个推理样本与所述至少一个训练样本之间的第一距离;
将所述至少一个推理样本中所述第一距离小于或等于第一距离阈值的推理样本划分到可信集合;
从所述可信集合中的推理样本所对应的所述目标数据中选取所述第一可信数据。
3.如权利要求1或2所述的控制方法,其特征在于,所述方法还包括:
从第一模型和第二模型中选取所述目标模型,所述第一模型是利用第一训练方法对所述历史数据进行训练得到的,所述第二模型是利用第二训练方法对所述历史数据进行训练得到的,所述第二训练方法需要的所述历史数据的数据量少于所述第一训练方法需要的所述历史数据的数据量。
4.如权利要求3所述的控制方法,其特征在于,所述从第一模型和第二模型中选取所述目标模型,包括:
当所述第一可信数据的数量大于或等于第一数量阈值时,将所述第一模型选定为所述目标模型;
当所述第一可信数据的数量小于所述第一数量阈值时,将所述第二模型选定为所述目标模型。
5.如权利要求3或4所述的控制方法,其特征在于,所述从第一模型和第二模型中选取所述目标模型,包括:
当所述第一可信数据的推理样本的数量大于或等于第七数量阈值时,将所述第一模型选定为所述目标模型;
当所述第一可信数据的推理样本的数量小于所述第七数量阈值时,将所述第二模型选定为所述目标模型。
6.如权利要求2至5中任一项所述的控制方法,其特征在于,所述将所述第一可信数据输入到目标模型进行处理,得到目标控制信息,包括:
将所述第一可信数据输入到所述目标模型,得到第一控制信息;
将第二可信数据输入到所述目标模型,得到第二控制信息,所述第二可信数据所对应的推理样本的所述第一距离小于或等于第二距离阈值且大于所述第一距离阈值,所述第二距离阈值大于所述第一距离阈值;
从所述第一控制信息和所述第二控制信息中选取所述目标控制信息。
7.如权利要求6所述的控制方法,其特征在于,所述将第二可信数据输入到所述目标模型,得到第二控制信息,包括:
当所述第二可信数据的数量大于或等于第二数量阈值时,将所述第二可信数据输入到所述第一模型;
当所述第二可信数据的数量小于所述第二数量阈值时,将所述第二可信数据输入到所述第二模型。
8.如权利要求6或7所述的控制方法,其特征在于,所述从所述第一控制信息和所述第二控制信息中选取所述目标控制信息,包括:
从所述第一控制信息和所述第二控制信息中选取对所述控制目标的收益更高的控制信息作为所述目标控制信息。
9.如权利要求3至8中任一项所述的控制方法,其特征在于,所述方法还包括执行以下至少一项操作:
当所述目标数据的数量大于或等于第三数量阈值时,更新所述第一模型;
当所述目标数据的数量大于或等于第四数量阈值时,更新所述第二模型。
10.如权利要求3至9中任一项所述的控制方法,其特征在于,所述第二模型是对第一特征数据进行训练得到的,所述第一特征数据是对第二特征数据进行压缩得到的,所述第二特征数据是对所述历史数据进行特征提取得到的。
11.如权利要求10所述的控制方法,其特征在于,所述第二特征数据是利用所述第一模型对所述历史数据进行特征提取得到的;所述第二模型包括所述第一模型中用于执行所述特征提取的部分。
12.如权利要求1至11中任一项所述的控制方法,其特征在于,所述被控设备为制冷设备,所述控制目标包括以下至少一种:制冷效率、节能或设备故障率。
13.如权利要求12所述的控制方法,其特征在于,所述方法还包括:
将所述目标控制信息发送给所述制冷设备,以使得所述制冷设备根据所述目标控制信息生成控制参数以及根据所述控制参数工作。
14.一种基于人工智能的控制装置,其特征在于,包括:
获取单元,用于获取与控制目标相关的目标数据;
处理单元,用于从所述目标数据中选取落入预设的数据分布范围的第一可信数据,所述数据分布范围是基于与所述控制目标相关的历史数据得到的;
所述处理单元还用于,将所述第一可信数据输入到目标模型进行处理,得到目标控制信息,所述目标控制信息用于控制被控设备实现所述控制目标,所述目标模型是利用所述历史数据训练得到的。
15.如权利要求14所述的控制装置,其特征在于,所述处理单元具体用于:
利用所述目标数据生成至少一个推理样本;
获取利用所述历史数据生成的训练样本中的至少一个训练样本;
获得所述至少一个推理样本中每个推理样本与所述至少一个训练样本之间的第一距离;
将所述至少一个推理样本中所述第一距离小于或等于第一距离阈值的推理样本划分到可信集合;
从所述可信集合中的推理样本所对应的所述目标数据中选取所述第一可信数据。
16.如权利要求14或15所述的控制装置,其特征在于,所述处理单元还用于:
从第一模型和第二模型中选取所述目标模型,所述第一模型是利用第一训练方法对所述历史数据进行训练得到的,所述第二模型是利用第二训练方法对所述历史数据进行训练得到的,所述第二训练方法需要的所述历史数据的数据量少于所述第一训练方法需要的所述历史数据的数据量。
17.如权利要求16所述的控制装置,其特征在于,所述处理单元具体用于:
当所述第一可信数据的数量大于或等于第一数量阈值时,将所述第一模型选定为所述目标模型;
当所述第一可信数据的数量小于所述第一数量阈值时,将所述第二模型选定为所述目标模型。
18.如权利要求16或17所述的控制装置,其特征在于,所述处理单元具体用于:
当所述第一可信数据的推理样本的数量大于或等于第七数量阈值时,将所述第一模型选定为所述目标模型;
当所述第一可信数据的推理样本的数量小于所述第七数量阈值时,将所述第二模型选定为所述目标模型。
19.如权利要求15至18中任一项所述的控制装置,其特征在于,所述处理单元具体用于:
将所述第一可信数据输入到所述目标模型,得到第一控制信息;
将第二可信数据输入到所述目标模型,得到第二控制信息,所述第二可信数据所对应的推理样本的所述第一距离小于或等于第二距离阈值且大于所述第一距离阈值,所述第二距离阈值大于所述第一距离阈值;
从所述第一控制信息和所述第二控制信息中选取所述目标控制信息。
20.如权利要求19所述的控制装置,其特征在于,所述处理单元具体用于:
当所述第二可信数据的数量大于或等于第二数量阈值时,将所述第二可信数据输入到所述第一模型;
当所述第二可信数据的数量小于所述第二数量阈值时,将所述第二可信数据输入到所述第二模型。
21.如权利要求19或20所述的控制装置,其特征在于,所述处理单元具体用于:从所述第一控制信息和所述第二控制信息中选取对所述控制目标的收益更高的控制信息作为所述目标控制信息。
22.如权利要求16至21中任一项所述的控制装置,其特征在于,所述处理单元还用于执行以下至少一项操作:
当所述目标数据的数量大于或等于第三数量阈值时,更新所述第一模型;
当所述目标数据的数量大于或等于第四数量阈值时,更新所述第二模型。
23.如权利要求16至22中任一项所述的控制装置,其特征在于,所述第二模型是对第一特征数据进行训练得到的,所述第一特征数据是对第二特征数据进行压缩得到的,所述第二特征数据是对所述历史数据进行特征提取得到的。
24.如权利要求23所述的控制装置,其特征在于,所述第二特征数据是利用所述第一模型对所述历史数据进行特征提取得到的;所述第二模型包括所述第一模型中用于执行所述特征提取的部分。
25.如权利要求16至24中任一项所述的控制装置,其特征在于,所述被控设备为制冷设备,所述控制目标包括以下至少一种:制冷效率、节能或设备故障率。
26.如权利要求25所述的控制装置,其特征在于,所述装置还包括:
发送单元,用于将所述目标控制信息发送给所述制冷设备,以使得所述制冷设备根据所述目标控制信息生成控制参数以及根据所述控制参数工作。
27.一种基于人工智能的控制装置,其特征在于,包括:
存储器,用于存储指令;
处理器,用于从所述存储器中读取所述指令,以执行如权利要求1-13中任一项所述的控制方法。
28.一种计算机可读存储介质,其特征在于,所述计算机可读介质存储用于设备执行的程序代码,该程序代码包括用于执行如权利要求1-13中任一项所述的控制方法的指令。
29.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求1-13中任一项所述的控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010735233.1A CN114002949B (zh) | 2020-07-28 | 基于人工智能的控制方法与控制装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010735233.1A CN114002949B (zh) | 2020-07-28 | 基于人工智能的控制方法与控制装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114002949A true CN114002949A (zh) | 2022-02-01 |
CN114002949B CN114002949B (zh) | 2024-06-11 |
Family
ID=
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115915708A (zh) * | 2022-10-28 | 2023-04-04 | 北京百度网讯科技有限公司 | 制冷设备控制参数预测方法、装置、电子设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930437A (zh) * | 2009-06-19 | 2010-12-29 | 日电(中国)有限公司 | 与特定查询相关的不一致和不确定本体的推理方法和设备 |
CN103546338A (zh) * | 2011-05-04 | 2014-01-29 | 成都勤智数码科技股份有限公司 | 利用相关性的it运维指标预测方法 |
CN106778287A (zh) * | 2017-01-12 | 2017-05-31 | 成都信息工程大学 | 基于云模型推理的移动用户行为可信评判模型及评判方法 |
CN107271974A (zh) * | 2017-06-08 | 2017-10-20 | 中国人民解放军海军航空工程学院 | 一种基于稳定角点的时空误差求取方法 |
CN107506333A (zh) * | 2017-08-11 | 2017-12-22 | 深圳市唯特视科技有限公司 | 一种基于自运动估计的视觉测距算法 |
CN109765786A (zh) * | 2019-01-25 | 2019-05-17 | 杭州电子科技大学 | 一种基于证据滤波的电推船电机转轴不平衡故障检测方法 |
CN110059819A (zh) * | 2018-01-17 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 器件的工作控制方法、装置、系统、控制设备及存储介质 |
US20190370665A1 (en) * | 2018-06-01 | 2019-12-05 | DeepCube LTD. | System and method for mimicking a neural network without access to the original training dataset or the target model |
US20190377738A1 (en) * | 2018-06-08 | 2019-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for determining search results, device and computer storage medium |
CN110795625A (zh) * | 2019-10-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 推荐方法、装置、计算机设备及存储介质 |
CN111078479A (zh) * | 2019-09-26 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 一种内存检测模型训练的方法、内存检测的方法及装置 |
CN111291131A (zh) * | 2019-12-25 | 2020-06-16 | 东软集团股份有限公司 | 数据处理方法、装置、存储介质及电子设备 |
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101930437A (zh) * | 2009-06-19 | 2010-12-29 | 日电(中国)有限公司 | 与特定查询相关的不一致和不确定本体的推理方法和设备 |
CN103546338A (zh) * | 2011-05-04 | 2014-01-29 | 成都勤智数码科技股份有限公司 | 利用相关性的it运维指标预测方法 |
CN106778287A (zh) * | 2017-01-12 | 2017-05-31 | 成都信息工程大学 | 基于云模型推理的移动用户行为可信评判模型及评判方法 |
CN107271974A (zh) * | 2017-06-08 | 2017-10-20 | 中国人民解放军海军航空工程学院 | 一种基于稳定角点的时空误差求取方法 |
CN107506333A (zh) * | 2017-08-11 | 2017-12-22 | 深圳市唯特视科技有限公司 | 一种基于自运动估计的视觉测距算法 |
CN110059819A (zh) * | 2018-01-17 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 器件的工作控制方法、装置、系统、控制设备及存储介质 |
US20190370665A1 (en) * | 2018-06-01 | 2019-12-05 | DeepCube LTD. | System and method for mimicking a neural network without access to the original training dataset or the target model |
US20190377738A1 (en) * | 2018-06-08 | 2019-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for determining search results, device and computer storage medium |
CN109765786A (zh) * | 2019-01-25 | 2019-05-17 | 杭州电子科技大学 | 一种基于证据滤波的电推船电机转轴不平衡故障检测方法 |
CN111078479A (zh) * | 2019-09-26 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 一种内存检测模型训练的方法、内存检测的方法及装置 |
CN110795625A (zh) * | 2019-10-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 推荐方法、装置、计算机设备及存储介质 |
CN111291131A (zh) * | 2019-12-25 | 2020-06-16 | 东软集团股份有限公司 | 数据处理方法、装置、存储介质及电子设备 |
Non-Patent Citations (1)
Title |
---|
夏志军 等: "数据挖掘技术在温室作物生长预测中的应用", 江苏大学学报(自然科学版), no. 02, pages 20 - 22 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115915708A (zh) * | 2022-10-28 | 2023-04-04 | 北京百度网讯科技有限公司 | 制冷设备控制参数预测方法、装置、电子设备及存储介质 |
CN115915708B (zh) * | 2022-10-28 | 2024-04-12 | 北京百度网讯科技有限公司 | 制冷设备控制参数预测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Angelov et al. | A new type of simplified fuzzy rule-based system | |
CN111126605B (zh) | 一种基于强化学习算法的数据中心机房控制方法及装置 | |
CN110991311A (zh) | 一种基于密集连接深度网络的目标检测方法 | |
CN114722574A (zh) | 一种基于ai算法的数据中心中央空调冷冻水参数设定方法 | |
Yang et al. | A novel general-purpose hybrid model for time series forecasting | |
CN114066071A (zh) | 一种基于能耗的电力参数优化方法、终端设备及存储介质 | |
CN112990258A (zh) | 一种冷水机组故障诊断方法及系统 | |
CN111505944B (zh) | 节能控制策略学习方法、实现空调节能控制的方法及装置 | |
US20240078428A1 (en) | Neural network model training method, data processing method, and apparatus | |
CN110928341B (zh) | 温度控制方法、装置、设备及存储介质 | |
CN113449919A (zh) | 一种基于特征和趋势感知的用电量预测方法及系统 | |
CN114162146A (zh) | 行驶策略模型训练方法以及自动驾驶的控制方法 | |
CN114353872A (zh) | 一种机房温度的预测方法及装置 | |
CN109214610B (zh) | 一种基于长短期记忆神经网络的饱和电力负荷预测方法 | |
CN116963482B (zh) | 一种基于数据中心暖通系统的智能化节能方法及相关设备 | |
CN113821903A (zh) | 温度控制方法和设备、模块化数据中心及存储介质 | |
CN114002949A (zh) | 基于人工智能的控制方法与控制装置 | |
CN114002949B (zh) | 基于人工智能的控制方法与控制装置 | |
CN113993343A (zh) | 制冷设备的节能控制方法、装置、终端及存储介质 | |
Li et al. | CoAxNN: Optimizing on-device deep learning with conditional approximate neural networks | |
Mohamad et al. | Adaptive median filter background subtractions technique using fuzzy logic | |
Ma et al. | Clustered reinforcement learning | |
Shen et al. | A parallel and reverse Learn++. NSE classification algorithm | |
Li et al. | Neural plasticity networks | |
CN112966707B (zh) | 通用暖通空调设备模型自动化辨识方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |