CN111210006A - 面向多特征图的异构深度神经网络结构组合方法及系统 - Google Patents
面向多特征图的异构深度神经网络结构组合方法及系统 Download PDFInfo
- Publication number
- CN111210006A CN111210006A CN202010001772.2A CN202010001772A CN111210006A CN 111210006 A CN111210006 A CN 111210006A CN 202010001772 A CN202010001772 A CN 202010001772A CN 111210006 A CN111210006 A CN 111210006A
- Authority
- CN
- China
- Prior art keywords
- neural network
- splicing
- characteristic
- feature
- subgraphs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
本发明提供一种面向多特征图的异构深度神经网络结构组合方法及系统,该面向多特征图的异构深度神经网络结构组合方法包括:获取前置神经网络的输出模块输出的特征子图;对特征子图进行拼接操作,得到拼接特征图;将拼接特征图输出至后置神经网络的输入模块。本发明通过拼接多个特征子图连接异构神经网络的前置神经网络的输出模块与后置神经网络的输入模块,保留了前置神经网络的输出模块中特征子图的内在空间特征,提高了异构神经网络模型的组合效率,无需进行复杂的计算,提高了异构深度神经网络模型的准确度。
Description
技术领域
本发明涉及异构神经网络技术领域,特别是指一种面向多特征图的异构深 度神经网络结构组合方法及系统。
背景技术
随着人工智能技术的发展,深度学习在各个领域均有广泛的应用。其中, 卷积神经网络(Convolutional Neural Networks,CNN)由于其较好的空间特征识 别能力,被广泛使用于图像领域;循环神经网络(Recurrent Neural Networks, RNN)由于其较好的时间特征识别能力,被广泛应用于自然语言处理领域。
然而单一的深度神经网络结构无法同时提取时间与空间两个维度特征,因 此为实现更复杂任务处理,异构神经网络及融合方法随之产生。CNN用于提 取输入数据的空间维度特征,RNN用于提取输入数据的时间维度特征,二者 融合的结构可同时获取数据的时空特征,大大扩展了深度学习的应用场景。
现有异构深度神经网络结构组合的方法单一,且两个网络结构组合时,未 能考虑前置神经网络的输出中特征映射子图中原有的空间特征,都是直接将其 映射到一维向量并传到后置神经网络的输入中。该种方式不但会破坏特征子图 的内在空间特征,而且计算复杂度高,还会影响深度神经网络模型的准确度。
发明内容
本发明要解决的技术问题是提供一种面向多特征图的异构深度神经网络 结构组合方法及系统,保留前置深度神经网络输出模块中特征子图的内在空间 特征,解决现有异构深度神经网络结构组合方法不但会破坏特征子图的内在空 间特征,而且计算复杂度高,还会影响深度神经网络模型的准确度的问题。
为解决上述技术问题,本发明提供如下技术方案:
一种面向多特征图的异构深度神经网络结构组合方法,所述面向多特征图 的异构深度神经网络结构组合方法包括:
获取前置神经网络的输出模块输出的特征子图;
对所述特征子图进行拼接操作,得到拼接特征图;
将所述拼接特征图输出至后置神经网络的输入模块。
其中,所述前置神经网络为循环神经网络或卷积神经网络。
其中,所述后置神经网络为循环神经网络或卷积神经网络。
其中,当所述后置神经网络为卷积神经网络时,所述对所述特征子图进行 拼接操作,得到拼接特征图的过程,包括:
设横向拼接参数为x,则纵向拼接参数y=c/x;其中,x为[1,c]之间的整数, 且满足c可整除x,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间的特征子图进行横向拼接, 得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,w为所述特征子 图的宽度,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
其中,当所述后置神经网络为循环神经网络时,所述对所述特征子图进行 拼接操作,得到拼接特征图的过程,包括:
判断所述后置神经网络的输入模块的输入层神经元个数W是否为所述特 征子图的宽度w的整数倍;
若W是w的整数倍,则计算横向拼接参数x=W/w,纵向拼接参数y=c/x; 其中,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
相应地,为解决上述技术问题,本发明还提供如下技术方案:
一种面向多特征图的异构深度神经网络结构组合系统,所述面向多特征图 的异构深度神经网络结构组合系统包括:
特征子图获取模块,用于获取前置神经网络的输出模块输出的特征子图;
特征子图拼接模块,用于对所述特征子图进行拼接操作,得到拼接特征图;
拼接特征图输出模块,用于将拼接特征图输至后置神经网络的输入模块。
其中,所述前置神经网络为循环神经网络或卷积神经网络。
其中,所述后置神经网络为循环神经网络或卷积神经网络。
其中,若后置神经网络为卷积神经网络,所述特征子图拼接模块用于:
设横向拼接参数为x,则纵向拼接参数y=c/x;其中,x为[1,c]之间的整数, 且满足c可整除x,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间的特征子图进行横向拼接, 得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,w为所述特征子 图的宽度,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
其中,若后置神经网络为循环神经网络,特征子图拼接模块用于:
判断所述后置神经网络的输入模块的输入层神经元个数W是否为所述特 征子图的宽度w的整数倍;
若W是w的整数倍,则计算横向拼接参数x=W/w,纵向拼接参数y=c/x; 其中,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
本发明的上述技术方案的有益效果如下:
本发明的面向多特征图的异构深度神经网络结构组合方法通过拼接多个 特征子图连接异构神经网络的输出模块与输入模块,通过一个拼接操作替代现 有的扁平化操作与重构操作,保留了前置深度神经网络输出模块中特征子图的 内在空间特征,保持原有特征图的时空特征相关性,不破坏原有特征子图的空 间结构;提高了异构神经网络模型的组合效率,无需进行复杂的计算,提高了 异构神经网络模型的构建效率,并且提高了异构深度神经网络模型的准确度。
附图说明
图1为本发明实施例提供的异构深度神经网络模型总体架构示意图;
图2为本发明实施例提供的卷积神经网络模块结构与参数示意图;
图3为本发明实施例提供的循环神经网络模块结构与参数示意图;
图4为本发明实施例提供的异构深度神经网络模型连接处理流程示意图;
图5为本发明实施例提供的异构深度神经网络连接结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附 图及具体实施例进行详细描述。
第一实施例
本实施例提供一种面向多特征图的异构深度神经网络结构组合方法,所述 面向多特征图的异构深度神经网络结构组合方法包括:
S101,获取前置神经网络的输出模块输出的特征子图;
S102,对特征子图进行拼接操作,得到拼接特征图;
S103,将拼接特征图输出至后置神经网络的输入模块。
其中,上述前置神经网络可以是循环神经网络RNN,也可以是卷积神经网 络CNN。上述后置神经网络可以是循环神经网络RNN,也可以是卷积神经网络 CNN;也即本实施例所组合的异构深度神经网络结构可以是前置RNN+后置CNN, 也可以是前置CNN+后置RNN。
若后置神经网络为CNN,则特征子图的拼接过程,包括:
设横向拼接参数为x,则纵向拼接参数y=c/x;其中,x为[1,c]之间的整 数,且满足c可整除x,c为特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间的特征子图进行横向拼接, 得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,w为特征子图的 宽度,h为特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
若后置神经网络为RNN,则特征子图的拼接过程,包括:
判断后置神经网络的输入模块的输入层神经元个数W是否为特征子图的 宽度w的整数倍;
若W是w的整数倍,则计算横向拼接参数x=W/w,纵向拼接参数y=c/x; 其中,c为特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间特征子图进行横向拼接,得到y 个宽度为w*x,高度为h的横向拼接特征子图;其中,h为特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高 度为h*y的拼接特征图。
下面结合具体应用实例进一步说明本实施例方法的效果,请参阅图1至图 5,本实施例方法的具体应用包括以下步骤:
1、定义异构深度神经网络的网络架构,明确连接结构的逻辑和物理位置
首先根据任务目标定义满足任务需求的异构神经网络总体架构,明确连接 结构的逻辑和物理位置。本实施例采用手写公开数据集MNIST进行实例化说 明。用于手写数字分类的异构神经网络分类模型如图1所示。
2、明确前置神经网络输出模块的结构及参数
根据输入图像大小明确前置卷积神经网络的结构及参数,其内部结构如图 2所示。由图2可知,图像输入尺寸为28x28,进入CNN模块经过了两次5x5 的卷积操作和两次2x2的池化操作,最后生成32张4x4的特征子图,将这些 特征子图作为异构神经网络连接结构的输入。
3、初始化后置神经网络输入模块的结构及参数
初始化后置循环神经网络的结构及参数,设定其输入层初始为12个神经 元节点,隐藏层为20个神经元节点,输出层为10个神经元节点,如图3所示。
4、根据异构神经网络特征子图拼接算法生成连接结构及参数
根据前置神经网络与后置神经网络的结构与参数,利用异构神经网络特征 子图拼接算法生成连接结构及参数。
其中,该异构深度神经网络特征子图拼接算法的输入为:前置卷积神经网 络输出模块的特征子图,特征子图的个数c,宽度w,高度h,后置神经网络 输入模块的参数;输出为:拼接后的特征图的宽度w’和高度h’。
该异构深度神经网络特征子图拼接算法的执行过程为:
步骤1、判断后置神经网络为CNN还是RNN;若后置神经网络为CNN, 则执行步骤2;若后置神经网络为RNN,则执行步骤3;
步骤2、若后置神经网络为CNN,则可对特征子图进行任意拼接。设异 构神经网络连接结构横向拼接参数为x(x为[1,c]之间的整数,且满足c可整除 x),则异构神经网络连接结构纵向拼接参数y=c/x,然后执行步骤5;
步骤3、若后置神经网络为RNN,则判断后置神经网络的输入层神经元 个数W是否为w的整数倍,若是,则执行步骤4,若否,则执行步骤8;
步骤4、计算异构神经网络连接结构横向拼接参数x=W/w,纵向拼接参 数y=c/x,然后执行步骤5;
步骤5、将[1,x],[x+1,2x],…,[c-x+1,c]等各区间特征子图进行横向拼接,得到y个宽度为w*x,高度为h的特征子图,然后执行步骤6;
步骤6、将步骤5中生成的y个特征子图按顺序进行纵向拼接,得到一个 宽度为w*x,高度为h*y的特征图,然后执行步骤7;
步骤7、输出拼接后的特征图的宽度w’=w*x和高度h’=h*y;
步骤8、结束。
5、对融合后的异构深度神经网络进行测评与优化
利用MNIST手写图像训练集对融合后的异构神经网络模型进行训练,利用 MNIST手写图像测试集对模型进行测评。
根据异构神经网络特征子图拼接算法,综合调整前置神经网络、后置神经 网络以及异构神经网络连接结构的参数,对模型进行进一步优化。对比不同异 构神经网络模型的分类准确率与效率,得到其中最优模型。
6、输出异构深度神经网络模型
输出上一步得到的异构深度神经网络模型,整个处理流程如图5所示。
例如,针对图5中的异构深度神经网络模型,经过卷积和池化操作后,得 到32张卷积层特征子图,每个特征子图的大小为4×4,将其作为异构深度神 经网络连接结构的输入,经过连接结构拼接以后输出拼接特征图,将拼接特征 图作为下一个深度神经网络的输入。
7、输出优化后的连接结构
作为连接示例,针对图5所示的异构深度神经网络模型,连接结构将特征 子图进行拼接操作,每组8张特征子图进行横向拼接,因此,横向宽度为32, 并且得到4组4x32的横向拼接特征子图。然后将4组横向拼接特征子图进行 纵向拼接,得到1个16x32的拼接特征图,将该拼接特征图作为后续深度神经 网络的输入。异构深度神经网络连接过程如图4所示。
此时,拼接后特征图高度为16,宽度为32,可将该特征图每一行作为一 个特征向量,输入到RNN输入层,利用RNN模型学习图像中的时间维度特征。
综上,本实施例的面向多特征图的异构深度神经网络结构组合方法通过拼 接多个特征子图连接异构神经网络的输出与输入模块,通过拼接操作替代现有 的扁平化操作与重构操作,保留了前置深度神经网络输出模块中特征子图的内 在空间特征,保持原有特征图的时空特征相关性,不破坏原有特征子图的空间 结构;提高了异构神经网络模型的组合效率,无需进行复杂的计算,提高了异 构神经网络模型的构建效率,并且提高了异构深度神经网络模型的准确度。
第二实施例
本实施例提供一种面向多特征图的异构深度神经网络结构组合系统,所述 面向多特征图的异构深度神经网络结构组合系统包括:
特征子图获取模块,用于获取前置神经网络的输出模块输出的特征子图;
特征子图拼接模块,用于对所述特征子图进行拼接操作,得到拼接特征图;
拼接特征图输出模块,用于将拼接特征图输至后置神经网络的输入模块。
本实施例的面向多特征图的异构深度神经网络结构组合系统与上述第一 实施例的面向多特征图的异构深度神经网络结构组合方法相对应;其中,本实 施例的面向多特征图的异构深度神经网络结构组合系统中的各功能模块所实 现的功能与上述第一实施例的面向多特征图的异构深度神经网络结构组合方 法中的各流程步骤一一对应;故,在此不再赘述。
此外,需要说明的是,本领域内的技术人员应明白,本发明实施例的实施 例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全 硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且, 本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机 可用存储介质上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算 机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现 流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流 程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理 机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机 或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图 一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终 端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储 器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或 多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指 令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他 可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算 机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多 个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变 体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或 者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是 还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制 的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的 过程、方法、物品或者终端设备中还存在另外的相同要素。
最后需说明的是,以上所述是本发明优选实施方式,应当指出,尽管已描 述了本发明优选实施例,但对于本技术领域的技术人员来说,一旦得知了本发 明的基本创造性概念,在不脱离本发明所述原理的前提下,还可以做出若干改 进和润饰,这些改进和润饰也应视为本发明的保护范围。所以,所附权利要求 意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
Claims (10)
1.一种面向多特征图的异构深度神经网络结构组合方法,其特征在于,所述面向多特征图的异构深度神经网络结构组合方法包括:
获取前置神经网络的输出模块输出的特征子图;
对所述特征子图进行拼接操作,得到拼接特征图;
将所述拼接特征图输出至后置神经网络的输入模块。
2.如权利要求1所述的面向多特征图的异构深度神经网络结构组合方法,其特征在于,所述前置神经网络为循环神经网络或卷积神经网络。
3.如权利要求1所述的面向多特征图的异构深度神经网络结构组合方法,其特征在于,所述后置神经网络为循环神经网络或卷积神经网络。
4.如权利要求3所述的面向多特征图的异构深度神经网络结构组合方法,其特征在于,当所述后置神经网络为卷积神经网络时,所述对所述特征子图进行拼接操作,得到拼接特征图的过程,包括:
设横向拼接参数为x,则纵向拼接参数y=c/x;其中,x为[1,c]之间的整数,且满足c可整除x,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间的特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,w为所述特征子图的宽度,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高度为h*y的拼接特征图。
5.如权利要求3所述的面向多特征图的异构深度神经网络结构组合方法,其特征在于,当所述后置神经网络为循环神经网络时,所述对所述特征子图进行拼接操作,得到拼接特征图的过程,包括:
判断所述后置神经网络的输入模块的输入层神经元个数W是否为所述特征子图的宽度w的整数倍;
若W是w的整数倍,则计算横向拼接参数x=W/w,纵向拼接参数y=c/x;其中,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高度为h*y的拼接特征图。
6.一种面向多特征图的异构深度神经网络结构组合系统,其特征在于,所述面向多特征图的异构深度神经网络结构组合系统包括:
特征子图获取模块,用于获取前置神经网络的输出模块输出的特征子图;
特征子图拼接模块,用于对所述特征子图进行拼接操作,得到拼接特征图;
拼接特征图输出模块,用于将拼接特征图输至后置神经网络的输入模块。
7.如权利要求6所述的面向多特征图的异构深度神经网络结构组合系统,其特征在于,所述前置神经网络为循环神经网络或卷积神经网络。
8.如权利要求6所述的面向多特征图的异构深度神经网络结构组合系统,其特征在于,所述后置神经网络为循环神经网络或卷积神经网络。
9.如权利要求8所述的面向多特征图的异构深度神经网络结构组合系统,其特征在于,若后置神经网络为卷积神经网络,所述特征子图拼接模块用于:
设横向拼接参数为x,则纵向拼接参数y=c/x;其中,x为[1,c]之间的整数,且满足c可整除x,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间的特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,w为所述特征子图的宽度,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高度为h*y的拼接特征图。
10.如权利要求8所述的面向多特征图的异构深度神经网络结构组合系统,其特征在于,若后置神经网络为循环神经网络,特征子图拼接模块用于:
判断所述后置神经网络的输入模块的输入层神经元个数W是否为所述特征子图的宽度w的整数倍;
若W是w的整数倍,则计算横向拼接参数x=W/w,纵向拼接参数y=c/x;其中,c为所述特征子图的个数;
将[1,x],[x+1,2x],…,[c-x+1,c]各区间特征子图进行横向拼接,得到y个宽度为w*x,高度为h的横向拼接特征子图;其中,h为所述特征子图的高度;
将y个横向拼接特征子图按顺序进行纵向拼接,得到一个宽度为w*x,高度为h*y的拼接特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010001772.2A CN111210006B (zh) | 2020-01-02 | 2020-01-02 | 面向多特征图的异构深度神经网络结构组合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010001772.2A CN111210006B (zh) | 2020-01-02 | 2020-01-02 | 面向多特征图的异构深度神经网络结构组合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111210006A true CN111210006A (zh) | 2020-05-29 |
CN111210006B CN111210006B (zh) | 2023-07-28 |
Family
ID=70787154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010001772.2A Active CN111210006B (zh) | 2020-01-02 | 2020-01-02 | 面向多特征图的异构深度神经网络结构组合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111210006B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108470320A (zh) * | 2018-02-24 | 2018-08-31 | 中山大学 | 一种基于cnn的图像风格化方法及系统 |
CN110084270A (zh) * | 2019-03-22 | 2019-08-02 | 上海鹰瞳医疗科技有限公司 | 病理切片图像识别方法及设备 |
CN110309837A (zh) * | 2019-07-05 | 2019-10-08 | 北京迈格威科技有限公司 | 基于卷积神经网络特征图的数据处理方法及图像处理方法 |
-
2020
- 2020-01-02 CN CN202010001772.2A patent/CN111210006B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108470320A (zh) * | 2018-02-24 | 2018-08-31 | 中山大学 | 一种基于cnn的图像风格化方法及系统 |
CN110084270A (zh) * | 2019-03-22 | 2019-08-02 | 上海鹰瞳医疗科技有限公司 | 病理切片图像识别方法及设备 |
CN110309837A (zh) * | 2019-07-05 | 2019-10-08 | 北京迈格威科技有限公司 | 基于卷积神经网络特征图的数据处理方法及图像处理方法 |
Non-Patent Citations (1)
Title |
---|
张雨丰;郑忠龙;刘华文;向道红;何小卫;李知菲;何依然;KHODJA ABD ERRAOUF;: "基于特征图切分的轻量级卷积神经网络" * |
Also Published As
Publication number | Publication date |
---|---|
CN111210006B (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3289529B1 (en) | Reducing image resolution in deep convolutional networks | |
US10872290B2 (en) | Neural network processor with direct memory access and hardware acceleration circuits | |
KR102545128B1 (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
US20200104690A1 (en) | Neural processing unit (npu) direct memory access (ndma) hardware pre-processing and post-processing | |
WO2020069239A1 (en) | Exploiting activation sparsity in deep neural networks | |
CN109496294A (zh) | 人工智能处理装置的编译方法及系统、存储介质及终端 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN112132145B (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 | |
CN113841162B (zh) | 深度神经网络中的深度优先卷积 | |
CN108389183A (zh) | 肺部结节检测神经网络加速器及其控制方法 | |
WO2019219949A1 (en) | Image processing using generative graphical models | |
CN116524183A (zh) | 一种基于多任务适配器微调的伪装目标检测方法 | |
CN115018039A (zh) | 一种神经网络蒸馏方法、目标检测方法以及装置 | |
CN113657389A (zh) | 一种软件定义卫星语义分割方法、装置和介质 | |
CN111210006B (zh) | 面向多特征图的异构深度神经网络结构组合方法及系统 | |
Fei et al. | A GNN Architecture With Local and Global-Attention Feature for Image Classification | |
CN115544307A (zh) | 基于关联矩阵的有向图数据特征提取与表达方法和系统 | |
CN114332491A (zh) | 一种基于特征重构的显著性目标检测算法 | |
WO2021055364A1 (en) | Efficient inferencing with fast pointwise convolution | |
CN109670598A (zh) | 一种基于深度学习的数据处理方法 | |
CN113313079B (zh) | 一种车辆属性识别模型的训练方法、系统及相关设备 | |
CN117993443B (zh) | 模型处理方法、装置、计算机设备、存储介质和程序产品 | |
CN118212229B (zh) | 基于深度学习的糖尿病视网膜病变检测方法、系统及设备 | |
US20230376735A1 (en) | Neural topological ordering | |
KR20230101577A (ko) | 대규모 입력 뉴런 처리가 가능한 크로스바 기반의 뉴로모픽 컴퓨팅 장치 및 이를 이용한 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |