WO2021169368A1 - 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统 - Google Patents

基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统 Download PDF

Info

Publication number
WO2021169368A1
WO2021169368A1 PCT/CN2020/125533 CN2020125533W WO2021169368A1 WO 2021169368 A1 WO2021169368 A1 WO 2021169368A1 CN 2020125533 W CN2020125533 W CN 2020125533W WO 2021169368 A1 WO2021169368 A1 WO 2021169368A1
Authority
WO
WIPO (PCT)
Prior art keywords
bayesian optimization
search
channels
network architecture
nodes
Prior art date
Application number
PCT/CN2020/125533
Other languages
English (en)
French (fr)
Inventor
王娜
邓嘉鹏
Original Assignee
深圳大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳大学 filed Critical 深圳大学
Publication of WO2021169368A1 publication Critical patent/WO2021169368A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统,所述方法应用于自动机器学习的神经网络结构的搜索,所述方法包括:基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作(S100);通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索(S200);在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索(S300)。该方法可大幅度的减少在网络架构搜索时占用的存储资源和计算消耗,大幅度加快搜索时间。

Description

基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统 技术领域
本发明涉及自动机器学习技术领域,尤其涉及的是一种基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统。
背景技术
神经网络结构搜索(Neural Architecture Search,NAS)是自动机器学习(Auto-ML)领域热点之一,通过设计经济高效的搜索方法,自动获取泛化能力强,硬件要求友好的神经网络,大量的解放研究员的创造力。经典的NAS方法(即网络结构搜索方法)中,主要包含以下三个方面:搜索空间,搜索策略,评价评估。现有技术中在进行网络结构搜索时一般都采用可微分架构搜索(DARTS)和渐进式可微分的网络架构搜索(PDARTS)。
但是,现有技术中可微分架构搜索(DARTS)主要缺点有两点:(1)搜索的网络架构深度问题。该方法只能在比较浅层的网络中进行搜索,当加大搜索的网络深度时,其所占用的存储资源以及计算消耗过大,无法支持。所以其搜索出的模型都是浅层网络,然后将搜索好的模型再扩充为较深的网络进行重新训练。但如此便很大程度影响了其效果。(2)该方法在开始搜索时,其所取的操作为随机的,即受随机初始化的影响,搜索出的结果不太可控,很难复现。而渐进式可微分的网络架构搜索(PDARTS)的主要缺点为:(1)虽然一定程度上解决了资源占用问题,但其所需要的内存与计算损耗仍然很大。而且在大的数据集上,会造成很多无参数的连接(skip-connect),虽然文中做了一定的限制,但仍然不够准确,导致所搜索出的网络准确度较低,且耗时较大。
因此,现有技术还有待改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统。
本发明解决问题所采用的技术方案如下:
本发明实施例提供一种基于贝叶斯优化的渐进式可微分网络架构搜索方法,所述方 法应用于自动机器学习的神经网络结构的搜索,其中,所述方法包括:
基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
在一种实施方式中,所述通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索包括:
通过贝叶斯优化,选取1/K的通道,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道进行集中,其中K表示节点之间的中总通道数。
在一种实施方式中,进行通道贝叶斯优化的公式为:
Figure PCTCN2020125533-appb-000001
其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。
在一种实施方式中,所述通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索包括:
通过所述贝叶斯优化,逐渐增加通道的数量,使得进行搜索的操作随之增加,以提高结果的准确度。
一种基于贝叶斯优化的渐进式可微分网络架构搜索系统,所述系统应用于自动机器学习的神经网络结构的搜索,其中,所述系统包括:
操作选择模块,用于基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
通道贝叶斯优化模块,用于通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
加权叠加模块,用于在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
在一种实施方式中,所述通道贝叶斯优化模块用于:
通过贝叶斯优化,选取1/K的通道,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道进行集中,其中K表示节点之间的中总通道数。
在一种实施方式中,所述通道贝叶斯优化模块进行通道贝叶斯优化时执行的公式 为:
Figure PCTCN2020125533-appb-000002
其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。
在一种实施方式中,所述通道贝叶斯优化模块还用于:
通过所述贝叶斯优化,逐渐增加通道的数量,使得进行搜索的操作随之增加,以提高结果的准确度。
本发明的有益效果:本发明在NAS中,刚开始的操作选择,使用贝叶斯优化的方法选择其中较优的部分操作,然后进行后续的渐进式网络架构搜索。对于每个节点的操作选择时,对通道进行操作,同样使用贝叶斯优化的方法,选择其中较优的节点,且由于通道的大小会影响结果的准确度,所以将通道的数量也采用渐进式的方法,逐渐增大通道的数量。由于上述通道采样会导致不稳定性,因此在后续加入注意力机制进行权值叠加,实现网络架构的搜索,因此,本发明的网络架构搜索大幅度的减少在网络架构搜索时占用的存储资源和计算消耗,大幅度加快搜索时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是神经网络结构搜索的流程图。
图2是神经网络结构搜索的部分流程图。
图3是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索方法的流程示意图。
图4是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索方法的具体实施例的流程图。
图5是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索方法中的通道采样示意图。
图6是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索方法中的渐进式 通道示意图。
图7是是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索方法中的注意力机制的位置示意图。
图8是本发明提供的基于贝叶斯优化的渐进式可微分网络架构搜索系统的功能原理框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
神经网络结构搜索(Neural Architecture Search,NAS)是自动机器学习(Auto-ML)领域热点之一,通过设计经济高效的搜索方法,自动获取泛化能力强,硬件要求友好的神经网络,大量的解放研究员的创造力。经典的NAS方法中,主要包含以下三个方面:搜索空间,搜索策略,评价评估,具体如图1中所示。NAS是一个确定环境中的完全延迟奖励任务。具体地,搜索空间:索空间定义了优化问题的变量,网络结构和超参数的变量定义有所不同,不同的变量规模对应算法的难度来说也不尽相同。在早起的一些工作中,以遗传算法为代表的进化算法对神经网络的超参和权重进行优化,因为当时的神经网络尚处浅层网络,可直接对其进行优化。而深度学习模型一方面有着复杂的网络结构,另一方面权重参数通常以百万计,进化算法无法企及。搜索策略:常见的搜索方法包括:随机搜索、贝叶斯优化、进化算法、强化学习、基于梯度的算法。评价评估:评价预估类似于工程优化中的代理模型(surrogate model),因为深度学习模型的效果非常依赖于训练数据的规模,大规模数据上的模型训练会非常耗时,对优化结果的评价将会非常耗时,所以需要一些手段去做近似的评估。在图2中,方框表示节点,具体的物理意义是feature map(节点)。s t表示当前网络结构状态,r表示得分。只有在网络结构最终确定后,agent才能获得一个非零得分acc。图2展示了一个NAS的马尔科夫决策完整过程。
本实施例提供一种基于贝叶斯优化的渐进式可微分网络架构搜索方法,具体如图3中所示,所述方法应用于自动机器学习的神经网络结构的搜索,具体包括:
步骤S100、基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
步骤S200、通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
步骤S300、在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
具体实施时,如图4中所示,本实施例基于DARTS(Progressive Differentiable Architecture Search,渐进式可微分神经网络架构搜索),在节点0到节点1之间的操作选择时,采用贝叶斯优化的方法,选择其中表现较为优秀的部分操作,可以减少操作数,减少资源占用与计算消耗,使得后续可以进行更深的网络搜索。
进一步地,通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索。具体如图4中,在节点3时,分别有从节点0,1,2选择的操作连接到节点3,每个操作都占用了一定的channels,而每个channels都占用一定的内存与计算资源。因此,在此处通过贝叶斯优化,选取其中的1/K的channels,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道数进行集中,具体如图5和图6中所示,其公式表示如下:
Figure PCTCN2020125533-appb-000003
其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。
进一步地,在上述进行通道贝叶斯优化中,其通道数是设定好的,而通道的数量会对结果有一定成都的影响,因此此处采用渐进式的贝叶斯优化通道连接。具体如图4所示。通过逐渐增加通道的数量,可进行搜索的操作随之增加,从而增加了结果的准确度,而且由于通道数的增加,减少了操作选择时的偏向,所以在一定程度上减少了大型数据集上搜索时出现的无参操作(skip-connect)。但该操作仍具有一定的缺点,在迭代优化时是基于采样的,所以其最优边缘连通性的稳定性不强。
在本实施例中,由于进行通道贝叶斯优化,会导致最优边缘连接不够稳定,因此在每个节点连接的通道贝叶斯优化结束之后,在操作混合时,加入注意力机制(attention)进行权值叠加,其中注意力机制的位置如图7中所示,从而实现网络架构的搜索。由于边缘超参在训练阶段是共享的,所以学习到的网络更少依赖于不同迭代间的采样到的通道连接,使得网络搜索过程更稳定。当网络搜索完毕,node间的operation选择由operation-level(操作水平)和edge-level(边缘水平)的参数相乘后共同决定,如图5中所示。
可见,本实施例在NAS中,刚开始的操作选择,使用贝叶斯优化的方法选择其中较优的部分操作,然后进行后续的渐进式网络架构搜索。对于每个节点的操作选择时,对通道进行操作,同样使用贝叶斯优化的方法,选择其中较优的节点,且由于通道的大小会影响结果的准确度,所以将通道的数量也采用渐进式的方法,逐渐增大通道的数量。由于上述通道采样会导致不稳定性,因此在后续加入注意力机制进行权值叠加,实现网络架构的搜索,因此,本发明的网络架构搜索大幅度的减少在网络架构搜索时占用的存储资源和计算消耗,大幅度加快搜索时间。
基于上述实施例,本发明还提供一种基于贝叶斯优化的渐进式可微分网络架构搜索系统,所述系统应用于自动机器学习的神经网络结构的搜索,其特征在于,具体如图8中所示,所述系统包括:
操作选择模块810,用于基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
通道贝叶斯优化模块820,用于通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
加权叠加模块830,用于在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
具体地,所述通道贝叶斯优化模块820用于:通过贝叶斯优化,选取1/K的通道,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道进行集中,其中K表示节点之间的中总通道数。并且所述通道贝叶斯优化模块820进行通道贝叶斯优化时执行的公式为:
Figure PCTCN2020125533-appb-000004
其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。所述通道贝叶斯优化模块820还用于:通过所述贝叶斯优化,逐渐增加通道的数量,使得进行搜索的操作随之增加,以提高结果的准确度。
综上所述,本发明公开了一种基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统,所述方法应用于自动机器学习的神经网络结构的搜索,其特征在于,所述方法包括:基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。 本发明可大幅度的减少在网络架构搜索时占用的存储资源和计算消耗,大幅度加快搜索时间。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (8)

  1. 一种基于贝叶斯优化的渐进式可微分网络架构搜索方法,所述方法应用于自动机器学习的神经网络结构的搜索,其特征在于,所述方法包括:
    基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
    通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
    在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
  2. 根据权利要求1所述的基于贝叶斯优化的渐进式可微分网络架构搜索方法,其特征在于,所述通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索包括:
    通过贝叶斯优化,选取1/K的通道,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道进行集中,其中K表示节点之间的中总通道数。
  3. 根据权利要求2所述的基于贝叶斯优化的渐进式可微分网络架构搜索方法,其特征在于,进行通道贝叶斯优化的公式为:
    Figure PCTCN2020125533-appb-100001
    其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。
  4. 根据权利要求2所述的基于贝叶斯优化的渐进式可微分网络架构搜索方法,其特征在于,所述通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索包括:
    通过所述贝叶斯优化,逐渐增加通道的数量,使得进行搜索的操作随之增加,以提高结果的准确度。
  5. 一种基于贝叶斯优化的渐进式可微分网络架构搜索系统,所述系统应用于自动机器学习的神经网络结构的搜索,其特征在于,所述系统包括:
    操作选择模块,用于基于PDARTS,在进行节点之间的操作选择时,采用贝叶斯优化选择出部分操作;
    通道贝叶斯优化模块,用于通过贝叶斯优化,对节点之间连接的通道进行采样,并进行操作搜索;
    加权叠加模块,用于在每个节点连接的通道贝叶斯优化结束之后,并引入注意力机制进行权值叠加,实现网络架构的搜索。
  6. 根据权利要求5所述的基于贝叶斯优化的渐进式可微分网络架构搜索系统,其特征在于,所述通道贝叶斯优化模块用于:
    通过贝叶斯优化,选取1/K的通道,进行操作搜索,然后操作混合后的结果与剩下的(K-1)/K的通道进行集中,其中K表示节点之间的中总通道数。
  7. 根据权利要求6所述的基于贝叶斯优化的渐进式可微分网络架构搜索系统,其特征在于,所述通道贝叶斯优化模块进行通道贝叶斯优化时执行的公式为:
    Figure PCTCN2020125533-appb-100002
    其中,X i为第i个操作,S i,j为采样比例(第i个操作中采样j个通道),α为concat函数的参数。
  8. 根据权利要求6所述的基于贝叶斯优化的渐进式可微分网络架构搜索系统,其特征在于,所述通道贝叶斯优化模块还用于:
    通过所述贝叶斯优化,逐渐增加通道的数量,使得进行搜索的操作随之增加,以提高结果的准确度。
PCT/CN2020/125533 2020-02-28 2020-10-30 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统 WO2021169368A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010127256.4 2020-02-28
CN202010127256.4A CN113326929A (zh) 2020-02-28 2020-02-28 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统

Publications (1)

Publication Number Publication Date
WO2021169368A1 true WO2021169368A1 (zh) 2021-09-02

Family

ID=77412536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/125533 WO2021169368A1 (zh) 2020-02-28 2020-10-30 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统

Country Status (2)

Country Link
CN (1) CN113326929A (zh)
WO (1) WO2021169368A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109615073A (zh) * 2018-12-03 2019-04-12 郑州云海信息技术有限公司 一种神经网络模型的构建方法、设备以及存储介质
US20190180187A1 (en) * 2017-12-13 2019-06-13 Sentient Technologies (Barbados) Limited Evolving Recurrent Networks Using Genetic Programming
CN110232434A (zh) * 2019-04-28 2019-09-13 吉林大学 一种基于属性图优化的神经网络架构评估方法
CN110276442A (zh) * 2019-05-24 2019-09-24 西安电子科技大学 一种神经网络架构的搜索方法及装置
US20190354837A1 (en) * 2018-05-18 2019-11-21 Baidu Usa Llc Resource-efficient neural architects
CN110569969A (zh) * 2019-09-11 2019-12-13 北京百度网讯科技有限公司 网络模型结构的采样方法、装置以及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190180187A1 (en) * 2017-12-13 2019-06-13 Sentient Technologies (Barbados) Limited Evolving Recurrent Networks Using Genetic Programming
US20190354837A1 (en) * 2018-05-18 2019-11-21 Baidu Usa Llc Resource-efficient neural architects
CN109615073A (zh) * 2018-12-03 2019-04-12 郑州云海信息技术有限公司 一种神经网络模型的构建方法、设备以及存储介质
CN110232434A (zh) * 2019-04-28 2019-09-13 吉林大学 一种基于属性图优化的神经网络架构评估方法
CN110276442A (zh) * 2019-05-24 2019-09-24 西安电子科技大学 一种神经网络架构的搜索方法及装置
CN110569969A (zh) * 2019-09-11 2019-12-13 北京百度网讯科技有限公司 网络模型结构的采样方法、装置以及电子设备

Also Published As

Publication number Publication date
CN113326929A (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
Bai et al. Stabilizing equilibrium models by jacobian regularization
CN109902183B (zh) 一种基于多样图注意力机制的知识图谱嵌入方法
US11341424B2 (en) Method, apparatus and system for estimating causality among observed variables
CN107391512B (zh) 知识图谱预测的方法和装置
CN108446770B (zh) 一种基于采样的分布式机器学习慢节点处理系统及方法
CN111428849A (zh) 基于改进粒子群算法的传递函数模型参数辨识方法及装置
CN107169557A (zh) 一种对布谷鸟优化算法进行改进的方法
CN113158608A (zh) 确定模拟电路参数的处理方法、装置、设备及存储介质
CN111027663A (zh) 一种改进樽海鞘群算法的方法
CN109934330A (zh) 基于多样化种群的果蝇优化算法来构建预测模型的方法
CN113359849B (zh) 一种针对运动目标的多无人机协同快速搜索方法
CN102708327A (zh) 一种基于谱优化的网络社区发现方法
CN106445913A (zh) 基于MapReduce的语义推理方法及系统
CN104616072A (zh) 一种基于区间优化的提高谷氨酸发酵产物浓度的方法
WO2021169368A1 (zh) 基于贝叶斯优化的渐进式可微分网络架构搜索方法及系统
Guo et al. Reducing evaluation cost for circuit synthesis using active learning
CN108197186B (zh) 一种应用于社交网络中的动态图匹配查询方法
CN110889251A (zh) 一种基于两步自适应加点策略的变保真度代理模型建立方法
CN115271273A (zh) 基于改进鲸鱼优化算法的旅行商问题求解方法及系统
Hu et al. PWSNAS: Powering weight sharing NAS with general search space shrinking framework
Zhou et al. An X-architecture SMT algorithm based on competitive swarm optimizer
CN104079439A (zh) 一种基于离散萤火虫算法的片上网络映射方法
Gora et al. Investigating performance of neural networks and gradient boosting models approximating microscopic traffic simulations in traffic optimization tasks
Jiang et al. A parallel based evolutionary algorithm with primary-auxiliary knowledge
Han et al. Robot path planning in dynamic environments based on deep reinforcement learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20922068

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 110123)

122 Ep: pct application non-entry in european phase

Ref document number: 20922068

Country of ref document: EP

Kind code of ref document: A1