CN114399033B - 基于神经元指令编码的类脑计算系统和计算方法 - Google Patents

基于神经元指令编码的类脑计算系统和计算方法 Download PDF

Info

Publication number
CN114399033B
CN114399033B CN202210298594.3A CN202210298594A CN114399033B CN 114399033 B CN114399033 B CN 114399033B CN 202210298594 A CN202210298594 A CN 202210298594A CN 114399033 B CN114399033 B CN 114399033B
Authority
CN
China
Prior art keywords
neuron
instruction
parameter
calculation
brain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210298594.3A
Other languages
English (en)
Other versions
CN114399033A (zh
Inventor
马德
孙世春
李一涛
胡有能
金孝飞
陆启明
潘纲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Zhejiang Lab
Original Assignee
Zhejiang University ZJU
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU, Zhejiang Lab filed Critical Zhejiang University ZJU
Priority to CN202210298594.3A priority Critical patent/CN114399033B/zh
Publication of CN114399033A publication Critical patent/CN114399033A/zh
Application granted granted Critical
Publication of CN114399033B publication Critical patent/CN114399033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经元指令编码的类脑计算系统和计算方法,包括脉冲神经网络,所述脉冲神经网络包括多个神经元节点;还包括:神经元指令编码单元,用于通过编码方式指定神经元指令执行时需要的参数、参数排列方式以及参数使用方式中的至少一种;参与计算的神经元节点依据神经元指令编码单元形成的神经元指令并结合自身参数值执行计算。该类脑计算系统和计算方法通过编码神经元指令实现对不同神经元的计算控制,兼具各神经元集群的计算功能特异性和通用性,且能实现对不同神经元的扩展计算。

Description

基于神经元指令编码的类脑计算系统和计算方法
技术领域
本发明属于脉冲神经网络技术领域,具体涉及一种基于神经元指令编码的类脑计算系统和计算方法。
背景技术
近年来“内存墙”与“功耗墙”效应日趋严重,传统计算机所遵循的冯诺依曼体系结构正在面临巨大的挑战。半导体行业迫切需要寻求新的架构与方法以满足电子产业对不断提高的计算性能和极低功耗的需求。随着脑科学的发展,人们逐渐了解到人脑是一部极高能效的计算机,类脑计算应运而生,如专利文献CN113222134A公开的一种类脑计算系统,在类脑计算系统中,内存与计算单元合二为一,从根本上去除了经典冯诺依曼体系架构的“内存墙”问题。类脑计算的基本思路是将生物神经网络的概念应用于计算机系统设计,针对智能信息处理的特定应用来提高性能与降低功耗。
脉冲神经网络作为第三代神经网络具有高度的生物真实性,由于在真实世界学习的任务中展现出独特优势,迅速成为类脑计算芯片研究热点,但目前类脑芯片和生物脑之间还有很大的差距,包括:大脑不同位置、不同类型神经元之间具有神经动力学异质性和计算功能的特异性,但是经典神经元模型一般难以表征多样性的神经元集群,即不能实现各神经元集群的计算功能特异性。
专利文献CN112270407A公开了一种支持亿级神经元的类脑计算机,包括层级拓展的体系架构和体系架构内部演算过程控制;体系架构包括层级化组织管理的多个用于实现计算任务的类脑计算芯片,每个类脑计算芯片包含计算神经元和突触资源并形成神经网络,体系架构内计算神经元之间的脉冲事件通过层级化传输模式实现传输;演算过程控制包括控制体系架构内计算任务的并行处理,控制体系架构内同步时间的管理,控制体系架构内神经网络的重构来实现计算神经元与突触资源的容错性和鲁棒性管理。虽然该类脑计算机能够支持亿级神经元的计算,但是并不能实现各神经元集群的计算功能特异性。
发明内容
鉴于上述,本发明的目的是提供一种基于神经元指令编码的类脑计算系统和计算方法,通过编码神经元指令实现对不同神经元的计算控制,兼具各神经元集群的计算功能特异性和通用性,且能实现对不同神经元的扩展计算。
为实现上述发明目的,实施例提供的一种基于神经元指令编码的类脑计算系统,包括脉冲神经网络,所述脉冲神经网络包括多个神经元节点;还包括:
神经元指令编码单元,用于通过编码方式指定神经元指令执行时需要的参数、参数排列方式以及参数使用方式中的至少一种;
参与计算的神经元节点依据神经元指令编码单元形成的神经元指令并结合自身参数值执行计算。
在一个实施例中,所述神经元指令编码单元提供可视化编码接口,接收外部用户通过可视化编码接口编码的参数、参数排列方式和参数使用方式中的至少一种,以形成满足特定应用需求的个性化神经元指令。
在一个实施例中,所述神经元指令编码单元嵌于底层,不同底层的神经元指令编码单元固定编码参数、参数排列方式和参数使用方式中的至少一种,以形成满足通用需求的通用神经元指令。
在一个实施例中,所述嵌于底层的神经元指令编码单元编码的参数包括底层硬件属性参数以及属性参数值,该属性参数值作为神经元节点的状态值,参与计算。
在一个实施例中,所述参数排列方式约束了参数被应用的先后顺序;
在一个实施例中,所述参数使用方式约束了参数参与的计算操作。
在一个实施例中,所述类脑计算系统还包括参数值写入单元,用于写入神经元节点的自身参数值。
在一个实施例中,所述参数值写入单元提供可视化写入接口,接收外部用户通过可视化写入接口写入的参数值并赋值给神经元节点。
在一个实施例中,所述参数值写入单元嵌于底层,不同底层的参数值写入单元固定写入神经元节点的自身参数值。
在一个实施例中,根据神经元指令编码单元编码的同一神经元指令执行计算的神经元节点形成神经元集群,该神经元集群根据同一神经元指令执行同一计算任务,实现计算任务的全局统一性,每个神经元节点结合自身参数值执行计算,实现计算任务的局部差异化。
在一个实施例中,参与计算的神经元节点依据神经元指令编码单元编码的不同神经元指令形成不同的神经元节点集群,每个神经元节点集群依据对应的神经元指令实现不同计算任务,实现了脉冲神经网络的集群差异性。
为实现上述发明目的,实施例还提供了一种计算方法,所述计算方法应用所述基于神经元指令编码的类脑计算系统实现。
与现有技术相比,本发明具有的有益效果至少包括:
通过神经元指令编码单元编码执行神经元指令时需要的参数、参数排列方式以及参数使用方式中的至少一种,这样形成的神经元指令在被应用时,不要传递参数实际值。神经元指令独立于神经元节点,可以由多个神经元共享使用,其差异部分通过神经元节点各自的参数值体现,参数值独立存在于每个神经元节点内部。这样通过调整参数值实现不同神经元节点的功能,而不需要调整神经元指令,实现神经元节点执行计算任务的全局统一,局部差异化。
神经元指令编码单元呈现的编码方式可以是显式给出也可以是隐式存在,参数值可以是显式写入也可以是隐式存在。显式方式面向用户,隐式方式面向底层实现,实现了神经元计算行为的扩展性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是实施例提供的类脑计算系统的结构示意图;
图2是另一实施例提供的类脑计算系统的结构示意图;
图3是再一实施例提供的类脑计算系统的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
图1是实施例提供的类脑计算系统的结构示意图。如图1所示,实施例提供的基于神经元指令编码的类脑计算系统包括:脉冲神经网络和神经元指令编码单元,其中,脉冲神经网络包括神经元节点,每个神经元节点内部独立存储有自身的参数值以体现神经元节点的差异性,每个神经元节点还执行计算操作,可用作类脑计算处理器。
如图1所示,神经元指令编码单元用于通过编码方式指定神经元指令执行时需要的参数、参数排列方式以及参数使用方式中的至少一种。即通过神经元指令编码单元可以指定形成神经元指令的参数、参数排列方式、参数使用方式,以形成不同的神经元指令。需要说明的是,通过编码不同的参数、参数排列方式以及参数使用方式,形成的不同神经元指令能够执行不同的计算任务。
基于神经元指令编码单元,参与计算的神经元节点依据神经元指令编码单元形成的神经元指令并结合自身参数值执行计算,以完成计算任务。
在一个实施方式中,神经元指令编码单元提供可视化编码接口,接收外部用户通过可视化编码接口编码的参数、参数排列方式和参数使用方式中的至少一种,以形成满足特定应用需求的个性化神经元指令。通过该可视化编码接口将指令编码方式面向用户,这样用户可以通过可视化编码接口显式地设计编码方式,即设计选用的参数、参数排列方式和参数使用方式,个性化定制约束神经元统一行为的神经元指令。例如,设计积分发射模型(Integrate-And-Fire Models,简称IF模型)对应的神经元指令包括:使用三个参数:膜电位V,权重和Wgtsum,发放阈值Vth;参数排列方式为(膜电位V,权重和Wgtsum,发放阈值Vth);参数使用方式为:先使用权重和更新膜电位:V=V+Wgtsum,再使用发放阈值决定是否发放脉冲信号并更新膜电位:Spike and V = 0 if V > Vth;其中,符号“=”为赋值符号。
在另外一个实施方式中,神经元指令编码单元嵌于底层,不同底层的神经元指令编码单元固定编码参数、参数排列方式和参数使用方式中的至少一种,以形成满足通用需求的通用神经元指令。这种将指令编码方式面向底层实现,不同底层的神经元指令编码单元提供的编码方式是固定不变的,提供了针对大部分通用需求的通用神经元指令。例如,通用神经元指令包括:三种参数P1,P2,P3,参数排列方式为(P1,P2,P3),参数使用方式为:先进行P1=P1+P2,再进行P1=P1*P2+P3。
实施例中,嵌于底层的神经元指令编码单元编码的参数包括底层硬件属性参数以及属性参数值,该属性参数值作为神经元节点的状态值,参与计算。这些硬件属性参数可以是RRAM的电阻值,SRAM的存储值,这些硬件参数可以作为权重使用,也可以作为其他参数的衰减系数使用等。
实施例中,神经元指令编码单元的编码参数是指计算使用的状态和变量,包括膜电位,膜电流,权重,权重和,发放阈值,振荡电位,衰减系数,学习率,奖惩值,脉冲,脉冲轨迹等。
实施例中,参数排列方式约束了参数被应用的先后顺序,即约束了参数被用于计算的先后顺序。
实施例中,参数使用方式约束了参数参与的计算操作,也就是被选用参数参与的运算类型,该计算操作包括加、减、乘、比较、逻辑运算等,这些计算操作自带的运算优先级配合选用参数被应用的先后顺序,形成了神经元指令。
如图2所示,实施例提供的类脑计算系统还包括参数值写入单元,用于写入神经元节点的自身参数值。在一个实施方式中,参数值写入单元提供可视化写入接口,接收外部用户通过可视化写入接口写入的参数值并赋值给神经元节点。通过该可视化写入接口将参数值写入方式面向用户,这样用户可以通过可视化写入接口显式地写入参数值,个性化定制约束神经元节点的个性化计算行为。
在另一个实施方式中,参数值写入单元嵌于底层,不同底层的参数值写入单元固定写入神经元节点的自身参数值。这种将参数值写入方式面向底层实现,不同底层的参数值写入单元提供的参数值是固定不变的,提供了针对大部分通用需求计算的固定参数值。
在一个实施例中,根据神经元指令编码单元编码的同一神经元指令执行计算的神经元节点形成神经元集群,该神经元集群的多个神经元节点共享同一神经元指令,并根据同一神经元指令执行同一计算任务,实现计算任务的全局统一性,每个神经元节点结合独立于内部的自身参数值执行计算,实现计算任务的不同神经元节点的局部差异化。
在一个实施例中,如图3所示,计算的神经元节点依据神经元指令编码单元编码的不同神经元指令形成不同的神经元节点集群,每个神经元节点集群依据对应的神经元指令实现不同计算任务,实现了脉冲神经网络的集群差异性。在整个脉冲神经网络中,依据神经元指令将整个脉冲神经网络划分成不同的神经元节点集群,神经元节点集群由于执行不同的计算任务,实现了集群差异性,多种神经元节点集群可以同时实现多种主流神经元模型的计算行为,在现有脉冲神经网络中,添加新神经元节点集群,其行为针对需求自主设计,扩展整个网络的扩展能力。
上述实施例提供的基于神经元指令编码的类脑计算系统,通过神经元指令编码单元实现的编码方式可以将多种复杂神经元模型进行整合,实现主流神经元模型的计算行为。通过编码方式编码的神经元指令可以由多个神经元共享使用,其差异部分通过独立存在于每个神经元内部的各自参数值体现。通过调整参数值实现不同神经元节点的计算功能,而不需要调整神经元指令,这样可以实现神经元全局统一,局部差异化。
实施例还提供了一种计算方法,该计算方法应用上述基于神经元指令编码的类脑计算系统实现,包括以下步骤:
利用神经元指令编码单元编码神经元指令;
通过计算任务配置参与计算的神经元节点的个数;
被配置的神经元节点依据神经元指令编码单元形成的神经元指令并结合自身参数值执行计算。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于神经元指令编码的类脑计算系统,包括脉冲神经网络,所述脉冲神经网络包括多个神经元节点;其特征在于,还包括:
神经元指令编码单元,用于通过编码方式指定神经元指令执行时需要的参数、参数排列方式以及参数使用方式中的至少一种,包括:
所述神经元指令编码单元提供可视化编码接口,接收外部用户通过可视化编码接口编码的参数、参数排列方式和参数使用方式中的至少一种,以形成满足特定应用需求的个性化神经元指令;
和/或,所述神经元指令编码单元嵌于底层,不同底层的神经元指令编码单元固定编码参数、参数排列方式和参数使用方式中的至少一种,以形成满足通用需求的通用神经元指令;
其中,参数排列方式约束了参数被应用的先后顺序;参数使用方式约束了参数参与的计算操作;
参与计算的神经元节点依据神经元指令编码单元形成的神经元指令并结合自身参数值执行计算,包括:
根据神经元指令编码单元编码的同一神经元指令执行计算的神经元节点形成神经元集群,该神经元集群根据同一神经元指令执行同一计算任务,实现计算任务的全局统一性,每个神经元节点结合自身参数值执行计算,实现计算任务的局部差异化;
和/或,参与计算的神经元节点依据神经元指令编码单元编码的不同神经元指令形成不同的神经元节点集群,每个神经元节点集群依据对应的神经元指令实现不同计算任务,实现了脉冲神经网络的集群差异性。
2.根据权利要求1所述的基于神经元指令编码的类脑计算系统,其特征在于,所述嵌于底层的神经元指令编码单元编码的参数包括底层硬件属性参数以及属性参数值,该属性参数值作为神经元节点的状态值,参与计算。
3.根据权利要求1所述的基于神经元指令编码的类脑计算系统,其特征在于,所述类脑计算系统还包括参数值写入单元,用于写入神经元节点的自身参数值。
4.根据权利要求3所述的基于神经元指令编码的类脑计算系统,其特征在于,所述参数值写入单元提供可视化写入接口,接收外部用户通过可视化写入接口写入的参数值并赋值给神经元节点;
或,所述参数值写入单元嵌于底层,不同底层的参数值写入单元固定写入神经元节点的自身参数值。
5.一种计算方法,其特征在于,所述计算方法应用权利要求1-4任一项所述的基于神经元指令编码的类脑计算系统实现。
CN202210298594.3A 2022-03-25 2022-03-25 基于神经元指令编码的类脑计算系统和计算方法 Active CN114399033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210298594.3A CN114399033B (zh) 2022-03-25 2022-03-25 基于神经元指令编码的类脑计算系统和计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210298594.3A CN114399033B (zh) 2022-03-25 2022-03-25 基于神经元指令编码的类脑计算系统和计算方法

Publications (2)

Publication Number Publication Date
CN114399033A CN114399033A (zh) 2022-04-26
CN114399033B true CN114399033B (zh) 2022-07-19

Family

ID=81234063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210298594.3A Active CN114399033B (zh) 2022-03-25 2022-03-25 基于神经元指令编码的类脑计算系统和计算方法

Country Status (1)

Country Link
CN (1) CN114399033B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909869A (zh) * 2019-11-21 2020-03-24 浙江大学 一种基于脉冲神经网络的类脑计算芯片
CN111045726A (zh) * 2018-10-12 2020-04-21 上海寒武纪信息科技有限公司 支持编码、解码的深度学习处理装置及方法
CN111325321A (zh) * 2020-02-13 2020-06-23 中国科学院自动化研究所 基于多神经网络融合的类脑计算系统及指令集的执行方法
CN112735514A (zh) * 2021-01-18 2021-04-30 清华大学 神经网络提取调控dna组合模式的训练和可视化方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650922B (zh) * 2016-09-29 2019-05-03 清华大学 硬件神经网络转换方法、计算装置、软硬件协作系统
CN109858620B (zh) * 2018-12-29 2021-08-20 北京灵汐科技有限公司 一种类脑计算系统
CN110287858A (zh) * 2019-06-21 2019-09-27 天津大学 基于fpga的仿生脉冲神经网络视觉识别系统
CN110322010B (zh) * 2019-07-02 2021-06-25 深圳忆海原识科技有限公司 用于类脑智能与认知计算的脉冲神经网络运算系统及方法
US11934946B2 (en) * 2019-08-01 2024-03-19 International Business Machines Corporation Learning and recall in spiking neural networks
CN112130118B (zh) * 2020-08-19 2023-11-17 复旦大学无锡研究院 基于snn的超宽带雷达信号处理系统及处理方法
CN112244877B (zh) * 2020-10-15 2021-09-07 燕山大学 一种基于脑机接口的大脑意图识别方法及系统
CN112270407B (zh) * 2020-11-11 2022-09-13 浙江大学 支持亿级神经元的类脑计算机
CN112270406B (zh) * 2020-11-11 2023-05-23 浙江大学 一种类脑计算机操作系统的神经信息可视化方法
CN112269751B (zh) * 2020-11-12 2022-08-23 浙江大学 一种面向亿级神经元类脑计算机的芯片扩展方法
CN113935475A (zh) * 2021-12-16 2022-01-14 之江实验室 具有脉冲时刻偏移量的脉冲神经网络的仿真与训练方法
CN113962371B (zh) * 2021-12-23 2022-05-20 中科南京智能技术研究院 一种基于类脑计算平台的图像识别方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045726A (zh) * 2018-10-12 2020-04-21 上海寒武纪信息科技有限公司 支持编码、解码的深度学习处理装置及方法
CN110909869A (zh) * 2019-11-21 2020-03-24 浙江大学 一种基于脉冲神经网络的类脑计算芯片
CN111325321A (zh) * 2020-02-13 2020-06-23 中国科学院自动化研究所 基于多神经网络融合的类脑计算系统及指令集的执行方法
CN112735514A (zh) * 2021-01-18 2021-04-30 清华大学 神经网络提取调控dna组合模式的训练和可视化方法及系统

Also Published As

Publication number Publication date
CN114399033A (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
Shukla et al. Energy efficient multi-objective scheduling of tasks with interval type-2 fuzzy timing constraints in an Industry 4.0 ecosystem
Haghnevis et al. A modeling framework for engineered complex adaptive systems
Li et al. Surprisingly popular-based adaptive memetic algorithm for energy-efficient distributed flexible job shop scheduling
CN104809501A (zh) 一种基于类脑协处理器的计算机系统
Hutter Towards a universal theory of artificial intelligence based on algorithmic probability and sequential decisions
Balaji et al. Run-time mapping of spiking neural networks to neuromorphic hardware
Furber Brain‐inspired computing
CN112990485A (zh) 基于强化学习的知识策略选择方法与装置
Edmonds Gossip, sexual recombination and the el farol bar: modelling the emergence of heterogeneity
Sankaranarayanan et al. Cluster-based attacks prevention algorithm for autonomous vehicles using machine learning algorithms
CN113240100B (zh) 基于离散Hopfield神经网络的并行计算方法及系统
CN114399033B (zh) 基于神经元指令编码的类脑计算系统和计算方法
CN111343095B (zh) 一种在软件定义网络中实现控制器负载均衡的方法
Zelinka et al. Controlling complexity
Weise et al. Rule-based genetic programming
CN113222134B (zh) 一种类脑计算系统、方法及计算机可读存储介质
Yang et al. Stochastic numerical P systems with application in data clustering problems
Ge et al. Crowd evolution method based on intelligence level clustering
Tigane et al. Extending GSPNs for the modelling, analysis and performance evaluation of dynamic systems
Subramanian et al. A Neuro-Symbolic Approach to Multi-Agent RL for Interpretability and Probabilistic Decision Making
Cao et al. Enhancing firefly algorithm with multiple swarm strategy
Valdez et al. Fuzzy control for dynamical parameter adaptation in a parallel evolutionary method combining particle swarm optimization and genetic algorithms
Sarraf Shirazi et al. Adaptive modularization of the mapk signaling pathway using the multiagent paradigm
Khelifa et al. Multi-agent reinforcement learning for urban projects planning
Chen et al. A Multiagent Co-Evolutionary Algorithm With Penalty-Based Objective for Network-Based Distributed Optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant