CN110728355A - 神经网络架构搜索方法、装置、计算机设备及存储介质 - Google Patents
神经网络架构搜索方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110728355A CN110728355A CN201910859857.1A CN201910859857A CN110728355A CN 110728355 A CN110728355 A CN 110728355A CN 201910859857 A CN201910859857 A CN 201910859857A CN 110728355 A CN110728355 A CN 110728355A
- Authority
- CN
- China
- Prior art keywords
- substructures
- neural network
- network architecture
- searching
- topological
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了神经网络架构搜索方法、装置、计算机设备及存储介质,涉及深度学习技术领域,其中方法可包括:将神经网络架构划分为M个子结构,M为大于一的正整数;分别搜索各子结构中的拓扑结构;通过将各子结构中的拓扑结构相连得到神经网络架构。应用本申请所述方案,可提升搜索速度等。
Description
【技术领域】
本申请涉及深度学习技术领域,特别涉及神经网络架构搜索方法、装置、计算机设备及存储介质。
【背景技术】
目前,深度学习技术在很多方向上都取得了巨大的成功。在深度学习技术中,神经网络架构的好坏对于模型的效果有着非常重要的影响,手工设计神经网络架构需要非常丰富的经验及众多尝试,并且众多参数会产生爆炸性的组合,难于实现,因此近年来神经网络架构搜索技术(NAS,Neural Architecture Search)成为研究热点。
NAS是用算法代替繁琐的人工操作,自动搜索出最佳的神经网络架构,NAS的实现主要包括搜索空间定义、搜索策略和搜索目标评估等关键要素。
搜索空间为要搜索神经网络架构的解的范围,其规模决定了搜索的难度和搜索时间等。神经网络由很多神经元组成,在深度学习中可将这些神经元称之为OP。
目前,在进行神经网络架构搜索时,各OP之间可采用完全任意的组合方式,即每个OP均可和其它任意OP相连,搜索空间随着OP数量呈指数级增加,搜索空间巨大,搜索速度很慢。
【发明内容】
有鉴于此,本申请提供了神经网络架构搜索方法、装置、计算机设备及存储介质。
具体技术方案如下:
一种神经网络架构搜索方法,包括:
将神经网络架构划分为M个子结构,M为大于一的正整数;
分别搜索各子结构中的拓扑结构;
通过将各子结构中的拓扑结构相连得到所述神经网络架构。
根据本申请一优选实施例,所述通过将各子结构中的拓扑结构相连得到所述神经网络架构之前,进一步包括:搜索各子结构之间的连接方式;
所述通过将各子结构中的拓扑结构相连得到所述神经网络架构包括:根据搜索出的连接方式将各子结构中的拓扑结构相连,得到所述神经网络架构。
根据本申请一优选实施例,所述分别搜索各子结构之间的连接方式包括:
按照预定原则,分别搜索各子结构之间的连接方式;
所述预定原则包括:对于每个子结构,至多允许与位于所述子结构之上的各层子结构中的两个子结构相连。
根据本申请一优选实施例,该方法进一步包括:对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,通过将所述第一拓扑结构中的一个神经元与所述第二拓扑结构中的一个神经元相连,实现所述第一拓扑结构和所述第二拓扑结构的相连。
一种神经网络架构搜索装置,包括:划分单元以及搜索单元;
所述划分单元,用于将神经网络架构划分为M个子结构,M为大于一的正整数;
所述搜索单元,用于分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到所述神经网络架构。
根据本申请一优选实施例,所述搜索单元进一步用于,搜索各子结构之间的连接方式,根据搜索出的连接方式将各子结构中的拓扑结构相连,得到所述神经网络架构。
根据本申请一优选实施例,所述搜索单元按照预定原则,分别搜索各子结构之间的连接方式;
所述预定原则包括:对于每个子结构,至多允许与位于所述子结构之上的各层子结构中的两个子结构相连。
根据本申请一优选实施例,所述搜索单元进一步用于,对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,通过将所述第一拓扑结构中的一个神经元与所述第二拓扑结构中的一个神经元相连,实现所述第一拓扑结构和所述第二拓扑结构的相连。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本申请所述方案,可将神经网络架构划分为多个子结构,并可分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到神经网络架构,通过限制搜索空间,提升了搜索速度;而且,可进一步搜索各子结构之间的连接方式,并可限定每个子结构至多允许与位于该子结构之上的各层子结构中的两个子结构相连,从而进一步限制了搜索空间,进而进一步提升了搜索速度;另外,由于不同子结构可以搜索到不同的拓扑结构,不同子结构之间的连接方式也可以进行搜索,搜索空间比较灵活,从而尽可能地确保了最终搜索到的神经网络架构的性能等。
【附图说明】
图1为本申请所述神经网络架构搜索方法第一实施例的流程图。
图2为本申请所述神经网络架构搜索方法第二实施例的流程图。
图3为本申请所示一神经网络架构的示意图。
图4为本申请所述神经网络架构搜索装置实施例的组成结构示意图。
图5示出了适于用来实现本申请实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
为了使本申请的技术方案更加清楚、明白,以下参照附图并举实施例,对本申请所述方案进行进一步说明。
显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请所述神经网络架构搜索方法第一实施例的流程图。如图1所示,包括以下具体实现方式。
在101中,将神经网络架构划分为M个子结构(block),M为大于一的正整数。
在102中,分别搜索各子结构中的拓扑结构。
在103中,通过将各子结构中的拓扑结构相连得到神经网络架构。
将神经网络架构划分为多少个子结构及如何划分子结构可根据实际需要而定,本实施例中不作限制。其中,不同的子结构可分别对应不同的功能等。
可基于搜索空间,针对每个子结构,分别对其中的拓扑结构进行搜索。如何进行搜索不作限制,如可采用现有的搜索策略来进行搜索。所述搜索策略可包括但不限于:基于强化学习的搜索策略、基于进化算法的搜索策略、基于梯度的搜索策略等。
搜索出子结构中的拓扑结构,包括搜索出子结构中包含的OP以及各OP之间的连接方式等。
如前所述,神经网络由很多神经元组成,在深度学习中可将这些神经元称之为OP。OP指特定的操作,如卷积(conv)、池化(pool)、全连接(fc)、批量归一化(bn)等。每个OP可包含若干输入和输出。
可通过将各子结构中的拓扑结构相连得到神经网络架构,即可通过组合各子结构中的拓扑结构得到神经网络架构。
可以看出,本实施例中,可将神经网络架构划分为多个子结构,并可分别搜索各子结构中的拓扑结构,进而可通过将各子结构中的拓扑结构相连得到神经网络架构,通过限制搜索空间,提升了搜索速度。
优选地,除分别搜索各子结构中的拓扑结构外,还可搜索各子结构之间的连接方式。相应地,可根据搜索出的连接方式将各子结构中的拓扑结构相连,得到神经网络架构。
优选地,在分别搜索各子结构之间的连接方式时,可按照预定原则,分别搜索各子结构之间的连接方式。所述预定原则可包括:对于每个子结构,至多允许与位于该子结构之上的各层子结构中的两个子结构相连。即对于每个子结构来说,可以只和位于该子结构之上的各层子结构中的一个子结构相连,也可以和位于该子结构之上的各层子结构中的两个子结构相连,特殊地,如果该子结构为最上层的子结构,那么则不存在位于该子结构上层的子结构。如何进行搜索不作限制,如可采用现有的搜索策略来进行搜索。
也就是说,在分别搜索各子结构中的拓扑结构的同时,可进一步搜索各子结构之间的连接方式,并可限定每个子结构至多允许与位于该子结构之上的各层子结构中的两个子结构相连,从而进一步限制了搜索空间,进而进一步提升了搜索速度。
另外,由于不同子结构可以搜索到不同的拓扑结构,不同子结构之间的连接方式也可以进行搜索,搜索空间比较灵活,从而尽可能确保了最终搜索到的神经网络架构的性能等。
基于上述介绍,图2为本申请所述神经网络架构搜索方法第二实施例的流程图。如图2所示,包括以下具体实现方式。
在201中,将神经网络架构划分为M个子结构,M为大于一的正整数。
将神经网络架构划分为多少个子结构及如何划分子结构可根据实际需要而定,本实施例中不作限制。
在202中,分别搜索各子结构中的拓扑结构,并搜索各子结构之间的连接方式。
搜索各子结构中的拓扑结构以及搜索各子结构之间的连接方式可同时进行。也就是说,可通过搜索,分别确定出各子结构中的拓扑结构以及每个子结构分别与哪个/哪些子结构相连等。其中,搜索出的子结构中的拓扑结构可包括搜索出子结构中包含的OP以及各OP之间的连接方式等。
如何进行搜索不作限制,如可采用现有的搜索策略来进行搜索。所述搜索策略可包括但不限于:基于强化学习的搜索策略、基于进化算法的搜索策略、基于梯度的搜索策略等。
另外,可按照预定原则,分别搜索各子结构之间的连接方式。所述预定原则包括:对于每个子结构,至多允许与位于该子结构之上的各层子结构中的两个子结构相连。
在203中,根据搜索出的连接方式将各子结构中的拓扑结构相连,得到神经网络架构。
图3为本申请所示一神经网络架构的示意图。如图3所示,假设该神经网络架构中包含4个子结构,按照从上到下的顺序分别为子结构1、子结构2、子结构3和子结构4,其中,子结构4和位于其上的各层子结构中的子结构3以及子结构1相连,子结构3和位于其上的各层子结构中的子结构2相连,子结构2和位于其上的各层子结构中的子结构1相连。子结构1、子结构2、子结构3和子结构4中的拓扑结构以及各子结构之间的连接方式均可通过搜索确定。
对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,可通过将第一拓扑结构中的一个OP与第二拓扑结构中的一个OP相连,实现第一拓扑结构和第二拓扑结构的相连。
需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
总之,采用本申请方法实施例所述方案,可将神经网络架构划分为多个子结构,并可分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到神经网络架构,通过限制搜索空间,提升了搜索速度;而且,可进一步搜索各子结构之间的连接方式,并可限定每个子结构至多允许与位于该子结构之上的各层子结构中的两个子结构相连,从而进一步限制了搜索空间,进而进一步提升了搜索速度;另外,由于不同子结构可以搜索到不同的拓扑结构,不同子结构之间的连接方式也可以进行搜索,搜索空间比较灵活,从而尽可能确保了最终搜索到的神经网络架构的性能等。
以上是关于方法实施例的介绍,以下通过装置实施例,对本申请所述方案进行进一步说明。
图4为本申请所述神经网络架构搜索装置实施例的组成结构示意图。如图4所示,包括:划分单元401以及搜索单元402。
划分单元401,用于将神经网络架构划分为M个子结构,M为大于一的正整数。
搜索单元402,用于分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到神经网络架构。
将神经网络架构划分为多少个子结构及如何划分子结构可根据实际需要而定,本实施例中不作限制。
搜索单元402可基于搜索空间,针对每个子结构,分别对其中的拓扑结构进行搜索。如何进行搜索不作限制,如可采用现有的搜索策略来进行搜索。
搜索出子结构中的拓扑结构,包括搜索出子结构中包含的OP以及各OP之间的连接方式等。
可通过将各子结构中的拓扑结构相连得到神经网络架构,即可通过组合各子结构中的拓扑结构得到神经网络架构。
优选地,搜索单元402除分别搜索各子结构中的拓扑结构外,还可搜索各子结构之间的连接方式。相应地,搜索单元402可根据搜索出的连接方式将各子结构中的拓扑结构相连,得到神经网络架构。
优选地,搜索单元402可按照预定原则,分别搜索各子结构之间的连接方式。所述预定原则可包括:对于每个子结构,至多允许与位于该子结构之上的各层子结构中的两个子结构相连。即对于每个子结构来说,可以只和位于该子结构之上的各层子结构中的一个子结构相连,也可以和位于该子结构之上的各层子结构中的两个子结构相连,特殊地,如果该子结构为最上层的子结构,那么则不存在位于该子结构上层的子结构。如何进行搜索不作限制,如可采用现有的搜索策略来进行搜索。
另外,对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,搜索单元402可通过将第一拓扑结构中的一个OP与第二拓扑结构中的一个OP相连,实现第一拓扑结构和第二拓扑结构的相连。
图4所示装置实施例的具体工作流程流程请参照前述方法实施例中的相关说明,不再赘述。
总之,采用本申请装置实施例所述方案,可将神经网络架构划分为多个子结构,并可分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到神经网络架构,通过限制搜索空间,提升了搜索速度;而且,可进一步搜索各子结构之间的连接方式,并可限定每个子结构至多允许与位于该子结构之上的各层子结构中的两个子结构相连,从而进一步限制了搜索空间,进而进一步提升了搜索速度;另外,由于不同子结构可以搜索到不同的拓扑结构,不同子结构之间的连接方式也可以进行搜索,搜索空间比较灵活,从而尽可能确保了最终搜索到的神经网络架构的性能等。
图5示出了适于用来实现本申请实施方式的示例性计算机系统/服务器12的框图。图5显示的计算机系统/服务器12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1或图2所示实施例中的方法。
本申请同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图1或图2所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (10)
1.一种神经网络架构搜索方法,其特征在于,包括:
将神经网络架构划分为M个子结构,M为大于一的正整数;
分别搜索各子结构中的拓扑结构;
通过将各子结构中的拓扑结构相连得到所述神经网络架构。
2.根据权利要求1所述的方法,其特征在于,
所述通过将各子结构中的拓扑结构相连得到所述神经网络架构之前,进一步包括:搜索各子结构之间的连接方式;
所述通过将各子结构中的拓扑结构相连得到所述神经网络架构包括:根据搜索出的连接方式将各子结构中的拓扑结构相连,得到所述神经网络架构。
3.根据权利要求2所述的方法,其特征在于,
所述分别搜索各子结构之间的连接方式包括:
按照预定原则,分别搜索各子结构之间的连接方式;
所述预定原则包括:对于每个子结构,至多允许与位于所述子结构之上的各层子结构中的两个子结构相连。
4.根据权利要求2所述的方法,其特征在于,
该方法进一步包括:对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,通过将所述第一拓扑结构中的一个神经元与所述第二拓扑结构中的一个神经元相连,实现所述第一拓扑结构和所述第二拓扑结构的相连。
5.一种神经网络架构搜索装置,其特征在于,包括:划分单元以及搜索单元;
所述划分单元,用于将神经网络架构划分为M个子结构,M为大于一的正整数;
所述搜索单元,用于分别搜索各子结构中的拓扑结构,通过将各子结构中的拓扑结构相连得到所述神经网络架构。
6.根据权利要求5所述的装置,其特征在于,
所述搜索单元进一步用于,搜索各子结构之间的连接方式,根据搜索出的连接方式将各子结构中的拓扑结构相连,得到所述神经网络架构。
7.根据权利要求6所述的装置,其特征在于,
所述搜索单元按照预定原则,分别搜索各子结构之间的连接方式;
所述预定原则包括:对于每个子结构,至多允许与位于所述子结构之上的各层子结构中的两个子结构相连。
8.根据权利要求6所述的装置,其特征在于,
所述搜索单元进一步用于,对于任意两个子结构分别对应的第一拓扑结构和第二拓扑结构,通过将所述第一拓扑结构中的一个神经元与所述第二拓扑结构中的一个神经元相连,实现所述第一拓扑结构和所述第二拓扑结构的相连。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910859857.1A CN110728355A (zh) | 2019-09-11 | 2019-09-11 | 神经网络架构搜索方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910859857.1A CN110728355A (zh) | 2019-09-11 | 2019-09-11 | 神经网络架构搜索方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110728355A true CN110728355A (zh) | 2020-01-24 |
Family
ID=69218148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910859857.1A Pending CN110728355A (zh) | 2019-09-11 | 2019-09-11 | 神经网络架构搜索方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728355A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021175058A1 (zh) * | 2020-03-05 | 2021-09-10 | 华为技术有限公司 | 一种神经网络架构搜索方法、装置、设备及介质 |
CN113408692A (zh) * | 2020-03-16 | 2021-09-17 | 顺丰科技有限公司 | 网络结构的搜索方法、装置、设备及存储介质 |
-
2019
- 2019-09-11 CN CN201910859857.1A patent/CN110728355A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021175058A1 (zh) * | 2020-03-05 | 2021-09-10 | 华为技术有限公司 | 一种神经网络架构搜索方法、装置、设备及介质 |
CN113408692A (zh) * | 2020-03-16 | 2021-09-17 | 顺丰科技有限公司 | 网络结构的搜索方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11481656B2 (en) | Method and apparatus for evaluating a matching degree of multi-domain information based on artificial intelligence, device and medium | |
US11182557B2 (en) | Driving intent expansion via anomaly detection in a modular conversational system | |
CN104008064B (zh) | 用于多级存储器压缩的方法和系统 | |
CN107391549B (zh) | 基于人工智能的新闻召回方法、装置、设备及存储介质 | |
JP6756079B2 (ja) | 人工知能に基づく三元組チェック方法、装置及びコンピュータプログラム | |
US10248919B2 (en) | Task assignment using machine learning and information retrieval | |
US11030402B2 (en) | Dictionary expansion using neural language models | |
WO2017105864A1 (en) | Maintaining consistent boundaries in parallel mesh simplification | |
CN109559363A (zh) | 图像的风格化处理方法、装置、介质和电子设备 | |
US11030393B2 (en) | Estimation of document structure | |
CN113449859A (zh) | 一种数据处理方法及其装置 | |
US20220237376A1 (en) | Method, apparatus, electronic device and storage medium for text classification | |
CN113469354B (zh) | 受存储器限制的神经网络训练 | |
CN110457683A (zh) | 模型优化方法、装置、计算机设备及存储介质 | |
US20240202381A1 (en) | Customizable reinforcement learning of column placement in structural design | |
CN110728355A (zh) | 神经网络架构搜索方法、装置、计算机设备及存储介质 | |
US20200184368A1 (en) | Machine learning in heterogeneous processing systems | |
US20220207427A1 (en) | Method for training data processing model, electronic device and storage medium | |
CN110674397B (zh) | 年龄点预测模型的训练方法及装置、设备与可读介质 | |
CN114091589B (zh) | 模型训练方法、装置、电子设备及介质 | |
US20210173837A1 (en) | Generating followup questions for interpretable recursive multi-hop question answering | |
CN113204665A (zh) | 图像检索方法、装置、电子设备及计算机可读存储介质 | |
CN113761934B (zh) | 一种基于自注意力机制的词向量表示方法及自注意力模型 | |
CN110738318B (zh) | 网络结构运行时间评估及评估模型生成方法、系统和装置 | |
CN107944564A (zh) | 深度学习作业处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |