CN109299487A - 神经网络模型、加速器、建模方法及装置、介质及系统 - Google Patents
神经网络模型、加速器、建模方法及装置、介质及系统 Download PDFInfo
- Publication number
- CN109299487A CN109299487A CN201710611292.6A CN201710611292A CN109299487A CN 109299487 A CN109299487 A CN 109299487A CN 201710611292 A CN201710611292 A CN 201710611292A CN 109299487 A CN109299487 A CN 109299487A
- Authority
- CN
- China
- Prior art keywords
- neural network
- deep neural
- network model
- sharing module
- multitask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Feedback Control In General (AREA)
Abstract
一种神经网络模型、加速器、建模方法及装置、介质及系统。所述神经网络模型包括:共享模块和与之耦接的多个独享模块,所述共享模块适于处理多个任务,所述多个独享模块适于各自独立处理对应的单个任务。应用上述方案,由于多任务复用共享模块,故可以减少切换任务时传输模型参数所需要的次数,降低模型训练的复杂度,从而降低设备功耗和存储体积。
Description
技术领域
本发明实施例涉及人工智能领域,尤其涉及一种神经网络模型、加速器、建模方法及装置、介质及系统。
背景技术
深度神经网络模型是一种模仿动物神经网络的行为特征,进行信息处理的数学模型。由于具有自学习的能力,神经网络模型越来越多地应用到信息处理领域。其中,深度神经网络模型由于可以利用多层处理来提取结构和分析样本的表征特征,由浅至深地逐层变换和计算样本特征并计算处理结果,越来越广泛地应用于计算机视觉、语音处理等领域。但是典型的深度神经网络模型由于具有百万、千万或上亿数量级的参数,使其对计算和存储设备提出了较高的要求,尤其是将其部署到移动设备时容易出现存储体积大、模型训练复杂度高、功耗高等问题,从而限制了深度神经网络模型在移动设备上的应用。
在现有的产品中,针对单任务神经网络模型,可以通过量化模型参数或者改变神经网络的稀疏程度等方法对神经网络模型进行精简,以减少神经网络模型的存储体积和设备能耗,降低复杂度。对于多任务深度神经网络模型,目前无相应的简化方案,仍然需要装载所有单任务的模型,存在存储体积大、训练复杂度高、设备能耗大等问题,从而限制了多任务深度神经网络模型的应用。
发明内容
本发明实施例解决的技术问题是如何降低多任务深度神经网络模型的训练复杂度、存储体积和设备能耗。
为解决上述技术问题,本发明实施例提供一种深度神经网络模型,所述深度神经网络模型包括:共享模块和与之耦接的多个独享模块,所述共享模块适于处理多个任务,所述多个独享模块适于各自独立处理对应的单个任务。
可选地,所述深度神经网络模型还包括:与所述共享模块耦接的多个输入接口,所述多个输入接口适于各自独立接收对应的单个任务。
可选地,所述深度神经网络模型还包括:与所述共享模块耦接的多个输出接口,所述多个输出接口适于各自独立输出对应的单个任务。
可选地,所述深度神经网络模型包括多个共享模块,且多个共享模块之间通过并联方式、串联方式或者串联并联的组合方式耦接。
可选地,所述共享模块位于所述深度神经网络模型的输入部分、中间部分或者输出部分。
本发明实施例提供一种深度神经网络加速器,包括缓存和与所述缓存耦接的计算单元阵列,所述缓存适于存储上述任一种深度神经网络模型中的共享模块。
本发明实施例提供一种深度神经网络加速器系统,包括片外存储器和上述深度神经网络加速器,所述片外存储器适于存储上述任一种深度神经网络模型中的共享模块。
本发明实施例提供一种深度神经网络模型的建模方法,所述建模方法包括:构建多任务深度神经网络模型,所述多任务深度神经网络模型为上述任一种深度神经网络模型;基于训练算法对所述多任务深度神经网络模型进行迭代训练。
可选地,所述训练算法为以下至少一个:迁移学习方法、蒸馏方法、词嵌入方法、端到端的单输入多输出方法、多任务学习方法。
本发明实施例提供一种建模装置,包括:构建单元,适于构建多任务深度神经网络模型,所述多任务深度神经网络模型为上述任一种深度神经网络模型;训练单元,适于基于训练算法对所述多任务深度神经网络模型进行迭代训练。
本发明实施例提供一种计算机可读介质,其上存储有计算机指令,所述计算机指令运行时执行上述建模方法对应的步骤。
本发明实施例提供一种深度神经网络系统,包括存储器和处理器,所述存储器上存储有能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行上述建模方法对应的步骤。
与现有技术相比,本发明实施例的技术方案具有以下有益效果:
本发明实施例提供了一种深度神经网络模型,由于多任务复用共享模块,故可以减少切换任务时传输模型参数所需要的次数,降低模型训练的复杂度,从而降低设备功耗和存储体积。
附图说明
图1是本发明实施例提供的一种深度神经网络模型的结构示意图;
图2是本发明实施例提供的一种共享模块的深度神经网络结构的示意图;
图3是本发明实施例提供的一种多个共享模块的连接方式的示意图;
图4是本发明实施例提供的一种深度神经网络模型的结构示意图;
图5是本发明实施例提供的一种深度神经网络加速器的结构示意图;
图6是本发明实施例提供的一种深度神经网络模型的建模方法的流程图;
图7是本发明实施例提供的一种建模装置的结构示意图。
具体实施方式
在现有的产品中,对于多任务深度神经网络模型,无相应的简化方案,仍然需要装载所有单任务的神经网络模型,存在存储体积大、训练复杂度高、设备能耗大等问题,从而限制了多任务深度神经网络模型在移动设备上的应用。
本发明实施例提供了一种深度神经网络模型,通过多任务复用共享模块,可以减少切换任务时传输模型参数所需要的次数,降低模型训练的复杂度,从而降低设备功耗和存储体积。
为使本发明的上述目的、特征和有益效果能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1所示,本发明实施例提供的一种深度神经网络模型,包括:共享模块11和与之耦接的多个独享模块12。所述共享模块11可以处理多个任务,所述多个独享模块12可以各自独立处理对应的单个任务。
在具体实施中,所述共享模块可以为通过不同权重连接的深度神经网络层和深度神经网络节点组成的网络。通过复用权重、网络层级、网络节点和网络结构的方式,提高多个网络的相似度,增加网络复用的可能性。
在本发明一实施例中,如图2所示,给出了一种共享模块的内部结构,可以理解的是,所述共享模块也可以采用其他形式的网络结构,本实施例不构成对本发明的限制。
参见图2,所述共享模块20可以由通过不同权重连接的多级深度神经网络层和其对应的深度神经网络节点组成。其中:深度神经网络节点x1,x2…与深度神经网络节点l1,1、l1,2.。。通过深度神经网络权重进行连接,深度神经网络节点lM-1,1,lM-1,2…与深度神经网络节点lM,1、lM,2.。。通过深度神经网络权重进行连接,深度神经网络节点lM,1、lM,2.。。与深度神经网络节点o1,o2…通过深度神经网络权重进行连接。深度神经网络层l1与深度神经网络层lM-1层通过短接权重进行连接,深度神经网络层o通过递归权重与自身进行递归连接。
在具体实施中,当多任务之间需要切换时,由于多个任务可以共享所述共享模块,故不需要重新传输模型参数,仅需替代或者补充独享模块即可完成深度神经网络的装载,降低深度神经网络模型训练的复杂度,从而可以降低设备功耗和存储体积。
在具体实施中,为了进一步提高所述深度神经网络模型复用的可能性,所述深度神经网络模型还可以包括:多个输入接口,所述多个输入接口与所述共享模块耦接,可以各自独立接收对应的单个任务。通过在所述共享模型上有针对性地添加针对单个任务的多个输入接口,可以针对不同的任务,输入不同的参数,从而提高所述共享模块的可复用性。
在具体实施中,为了进一步提高所述深度神经网络模型复用的可能性,所述深度神经网络模型还可以包括:多个输出接口,所述多个输出接口与所述共享模块耦接,可以各自独立输出对应的单个任务。通过在所述共享模型上有针对性地添加针对单个任务的多个输出接口,可以针对不同的任务,产生不同的输出,从而提高所述共享模块的可复用性。
在具体实施中,所述共享模块可以为多个,多个所述共享模块之间可以通过并联方式耦接,也可以通过串联方式耦接,或者通过串联或者并联组合的方式耦接。
在本发明一实施例中,如图3所示,所述共享模块为4个,包括:共享模块31、共享模块32、共享模块33和共享模块34。其中,所述共享模块32、所述共享模块33和所述共享模块34之间采用并联方式耦接后,与所述共享模块31采用串联方式耦接。
在具体实施中,所述共享模块可以位于所述深度神经网络模型的输入部分,也可以位于所述深度神经网络模型的中间部分,还可以位于所述深度神经网络模型的输出部分。
应用上述深度神经网络模型,由于多任务复用共享模块,故可以减少切换任务时传输模型参数所需要的次数,降低模型训练的复杂度,从而降低设备功耗和存储体积。
为使本领域技术人员更好地理解和实现本发明,本发明实施例提供了另一种深度神经网络模型,如图4所示。
在本发明一实施例中,参见图4,N个任务所对应的深度神经网络模型包括:多个共享模块(例如共享模块41、共享模块42)、多个独享模块(例如独享模块44、独享模块46),输入接口43和输出接口45。其中,输入接口43共有N个,分别对应N个任务,依次为输入接口1~N。任务1~任务N-1对应的输入接口1~N-1直接与所述共享模块41的第一端口耦接,任务N对应的输入接口N与所述独享模块44的第一端口耦接后,再通过所述独享模块44的第二端口与所述共享模块41的第一端口耦接。所述共享模块41的第二端口分别与所述共享模块42的第一端口、任务N-1对应的独享模块的第一端口耦接。任务N-1对应的独享模块的第二端口与任务N-1对应的输出接口N-1耦接,输出任务N-1。所述共享模块42的第二端口依次与任务1~任务N-2以及任务N对应的独享模块的第一端口耦接,任务1~任务N-2以及任务N对应的独享模块的第二端口依次与其所对应的输出接口耦接,通过其所对应的输出接口输出任务1~任务N-2以及任务N。
在上述实施例中,由于所述共享模块41适于所有的N个任务,所述共享模块42适于大多数任务(任务N-1之外的所有其他任务),故当N个任务之间切换时,不需要重新传输所述共享模块41和所述共享模块42的传输模型参数,仅需要替代或者补充相应的独享模块44或者独享模型46即可完成深度神经网络的装载,从而可以降低深度神经网络模型训练的复杂度。
为使本领域技术人员更好地理解和实现本发明,本发明实施例还提供了一种深度神经网络加速器,包括缓存和与所述缓存耦接的计算单元阵列,其中所述缓存中可以存储上述任一个实施例中所述的深度神经网络模型中的所述共享模块。
在具体实施中,所述深度神经网络加速器还可以与片外存储器耦接,构成深度神经网络加速器系统,如图5所示,所述加速器系统包括:加速器51和片外存储器52,所述加速器51为上述实施例所述的加速器,包括:缓存511和与之耦接的计算单元阵列512,所述片外存储器可以存储上述任一个实施例中所述的深度神经网络模型中的所述共享模块。
在本发明一实施例中,所述缓存511可以存储上述任一个实施例中所述的深度神经网络模型中的所述共享模块。
在具体实施中,对于单任务神经网络模型,可以通过剪枝、量化或者编码等处理以减小存储体积,使其更易于存储。对于多任务深度神经网络模型,可以不定程度地复用多个执行不同任务的所述共享模块的网络结构和参数,降低神经网络模型的训练难度,在切换任务时仅需替换或补充不能复用的部分即可快速完成网络模型的装载,并高效地执行新的任务,从而节省设备功耗和存储体积。
为使本领域技术人员更好地理解和实现本发明,本发明实施例还提供了一种深度神经网络模型的建模方法,如图6所示。
参见图6,所述深度神经网络模型的建模方法可以包括如下步骤:
S601,构建多任务深度神经网络模型。
在具体实施中,所述多任务深度神经网络模型为上述任一个实施例中所述的深度神经网络模型。
S602,基于训练算法对所述多任务深度神经网络模型进行迭代训练。
在具体实施中,所述训练算法可以为迁移学习方法、蒸馏方法、词嵌入方法、端到端的单输入多输出方法、多任务学习方法等一个或者几个。
在具体实施中,由于多任务复用共享模块,故可以减少切换任务时传输模型参数所需要的次数,从而降低模型迭代训练的复杂度。
为使本领域技术人员更好地理解和实现本发明,本发明实施例还提供了一种建模装置,如图7所示。
参见图7,所述建模装置70包括:构建单元71和训练单元72,其中:
所述建模单元71,适于构建多任务深度神经网路模型。
在具体实施中,所述多任务深度神经网络模型为上述任一个实施例中所述的深度神经网络模型。
训练单元72,适于基于训练算法对所述多任务深度神经网络模型进行迭代训练。
本发明实施例还提供一种计算机可读介质,其上存储有计算机指令,所述计算机指令运行时执行上述任一种实施例所述方法对应的步骤,不再赘述。
本发明实施例还提供一种接收系统,包括存储器和处理器,所述存储器上存储有能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行上述任一种实施例所述方法对应的步骤,不再赘述。
虽然本发明披露如上,但本发明并非限定于此。任何本领域技术人员,在不脱离本发明的精神和范围内,均可作各种更动与修改,因此本发明的保护范围应当以权利要求所限定的范围为准。
Claims (12)
1.一种深度神经网络模型,其特征在于,包括:
共享模块和与之耦接的多个独享模块,所述共享模块适于处理多个任务,所述多个独享模块适于各自独立处理对应的单个任务。
2.根据权利要求1所述的深度神经网络模型,其特征在于,还包括:与所述共享模块耦接的多个输入接口,所述多个输入接口适于各自独立接收对应的单个任务。
3.根据权利要求1或2所述的深度神经网络模型,其特征在于,还包括:与所述共享模块耦接的多个输出接口,所述多个输出接口适于各自独立输出对应的单个任务。
4.根据权利要求1所述的深度神经网络模型,其特征在于,包括多个共享模块,且多个共享模块之间通过并联方式、串联方式或者串联并联的组合方式耦接。
5.根据权利要求1所述的深度神经网络模型,其特征在于,所述共享模块位于所述深度神经网络模型的输入部分、中间部分或者输出部分。
6.一种深度神经网络加速器,包括缓存和与所述缓存耦接的计算单元阵列,其特征在于,所述缓存适于存储权利要求1至5任一项所述的深度神经网络模型中的共享模块。
7.一种深度神经网络加速器系统,包括片外存储器和权利要求6所述的深度神经网络加速器,其特征在于,所述片外存储器适于存储权利要求1至5任一项所述的深度神经网络模型中的共享模块。
8.一种深度神经网络模型的建模方法,其特征在于,包括:
构建多任务深度神经网络模型,所述多任务深度神经网络模型为权利要求1至5任一项所述的深度神经网络模型;
基于训练算法对所述多任务深度神经网络模型进行迭代训练。
9.根据权利要求8所述的深度神经网络模型的建模方法,其特征在于,所述训练算法为以下至少一个:迁移学习方法、蒸馏方法、词嵌入方法、端到端的单输入多输出方法、多任务学习方法。
10.一种建模装置,其特征在于,包括:
构建单元,适于构建多任务深度神经网络模型,所述多任务深度神经网络模型为权利要求1至5任一项所述的深度神经网络模型;
训练单元,适于基于训练算法对所述多任务深度神经网络模型进行迭代训练。
11.一种计算机可读介质,其上存储有计算机指令,其特征在于,所述计算机指令运行时执行权利要求8或9所述方法对应的步骤。
12.一种深度神经网络系统,其特征在于,包括存储器和处理器,所述存储器上存储有能够在所述处理器上运行的计算机指令,所述处理器运行所述计算机指令时执行权利要求8或9所述方法对应的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611292.6A CN109299487B (zh) | 2017-07-25 | 2017-07-25 | 神经网络系统、加速器、建模方法及装置、介质及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611292.6A CN109299487B (zh) | 2017-07-25 | 2017-07-25 | 神经网络系统、加速器、建模方法及装置、介质及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109299487A true CN109299487A (zh) | 2019-02-01 |
CN109299487B CN109299487B (zh) | 2023-01-06 |
Family
ID=65167863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710611292.6A Active CN109299487B (zh) | 2017-07-25 | 2017-07-25 | 神经网络系统、加速器、建模方法及装置、介质及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109299487B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339553A (zh) * | 2020-02-14 | 2020-06-26 | 云从科技集团股份有限公司 | 一种任务处理方法、系统、设备及介质 |
CN111797984A (zh) * | 2020-06-17 | 2020-10-20 | 宁波物栖科技有限公司 | 一种用于多任务神经网络的量化和硬件加速方法及装置 |
CN111797862A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 任务处理方法、装置、存储介质和电子设备 |
CN113127431A (zh) * | 2020-01-10 | 2021-07-16 | 浙江大学 | 智能多任务特征数据共享方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
CN106203395A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于多任务深度学习的人脸属性识别方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
-
2017
- 2017-07-25 CN CN201710611292.6A patent/CN109299487B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
CN106203395A (zh) * | 2016-07-26 | 2016-12-07 | 厦门大学 | 基于多任务深度学习的人脸属性识别方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797862A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 任务处理方法、装置、存储介质和电子设备 |
CN113127431A (zh) * | 2020-01-10 | 2021-07-16 | 浙江大学 | 智能多任务特征数据共享方法及装置 |
CN111339553A (zh) * | 2020-02-14 | 2020-06-26 | 云从科技集团股份有限公司 | 一种任务处理方法、系统、设备及介质 |
CN111797984A (zh) * | 2020-06-17 | 2020-10-20 | 宁波物栖科技有限公司 | 一种用于多任务神经网络的量化和硬件加速方法及装置 |
CN111797984B (zh) * | 2020-06-17 | 2023-12-26 | 宁波物栖科技有限公司 | 一种用于多任务神经网络的量化和硬件加速方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109299487B (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220391771A1 (en) | Method, apparatus, and computer device and storage medium for distributed training of machine learning model | |
CN110516801B (zh) | 一种高吞吐率的动态可重构卷积神经网络加速器 | |
CN109299487A (zh) | 神经网络模型、加速器、建模方法及装置、介质及系统 | |
KR102415506B1 (ko) | 뉴럴 네트워크 간소화 방법 및 장치 | |
CN107918794A (zh) | 基于计算阵列的神经网络处理器 | |
CN108665059A (zh) | 基于现场可编程门阵列的卷积神经网络加速系统 | |
CN108090560A (zh) | 基于fpga的lstm递归神经网络硬件加速器的设计方法 | |
CN106503791A (zh) | 用于有效神经网络部署的系统和方法 | |
CN108510064A (zh) | 包括多个核心处理模块的人工神经网络的处理系统及方法 | |
CN106062786A (zh) | 用于训练神经网络的计算系统 | |
CN108334945A (zh) | 深度神经网络的加速与压缩方法及装置 | |
CN111695696A (zh) | 一种基于联邦学习的模型训练的方法及装置 | |
CN108334944B (zh) | 一种人工神经网络运算的装置及方法 | |
CN103544528A (zh) | 一种基于Hadoop的BP神经网络分类方法 | |
CN109976908A (zh) | 一种基于rnn时间序列预测的服务器集群动态伸缩方法 | |
CN108491924B (zh) | 一种面向人工智能计算的神经网络数据串行流水处理装置 | |
CN116362327A (zh) | 一种模型训练方法、系统及电子设备 | |
CN116579418A (zh) | 联邦边缘学习环境下模型分割优化的隐私数据保护方法 | |
CN109711540B (zh) | 一种计算装置及板卡 | |
US11507813B2 (en) | Modulo operation unit | |
CN107748914A (zh) | 人工神经网络运算电路 | |
WO2018112892A1 (zh) | 一种支持快速人工神经网络运算的装置及方法 | |
CN109542513B (zh) | 一种卷积神经网络指令数据存储系统及方法 | |
Zhan et al. | Field programmable gate array‐based all‐layer accelerator with quantization neural networks for sustainable cyber‐physical systems | |
CN107273970B (zh) | 支持在线学习的卷积神经网络的可重构平台及其构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |