CN111325311A - 神经网络模型生成方法、装置、电子设备及存储介质 - Google Patents
神经网络模型生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111325311A CN111325311A CN201811535816.9A CN201811535816A CN111325311A CN 111325311 A CN111325311 A CN 111325311A CN 201811535816 A CN201811535816 A CN 201811535816A CN 111325311 A CN111325311 A CN 111325311A
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- network model
- designated
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 371
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 81
- 238000004590 computer program Methods 0.000 claims description 5
- 239000010410 layer Substances 0.000 description 597
- 230000006870 function Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013178 mathematical model Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 239000002356 single layer Substances 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
一种神经网络模型生成方法,包括获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束;根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型;根据所述指定层的神经网络模型生成完整的神经网络模型。本发明还提供一种神经网络模型生成装置、电子设备及存储介质。本发明能够根据用户的需求及对感兴趣层的指定先生成指定层的神经网络模型,再根据所生成的指定层的神经网络模型生成完整的神经网络模型。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种神经网络模型生成方法、装置、电子设备及存储介质。
背景技术
人工智能处理器即AI(artificial intelligence)芯片,在引入人工智能的深度学习能力后,可实现系统内部资源智能分配以及用户行为预测,进而实现从UI、应用启动、系统响应、图像识别等方面,进行全面升级。
而目前的AI芯片大多基于已知的神经网络模型,例如,卷积神经网络、暂态混沌神经网络、残差神经网络、反向传播神经网络等,对于这些数量有限的已知的神经网络模型,AI芯片具有较好的处理能力。
但是,对于未知的神经网络模型,AI芯片也应当具备相应的处理能力且达到较好的效果。因而,有必要提供一种随机生成神经网络模型的技术方案,增加AI芯片中的神经网络模型的数量和种类。
发明内容
鉴于以上内容,有必要提出一种神经网络模型生成方法、装置、电子设备及存储介质,能够根据用户的需求及对感兴趣层的指定先生成指定层的神经网络模型,再根据所生成的指定层的神经网络模型生成完整的神经网络模型。
本发明的第一方面提供一种神经网络模型生成方法,应用于电子设备中,所述方法包括:
获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束;
根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型;
根据所述指定层的神经网络模型生成完整的神经网络模型。
优选的,所述根据所述指定层的神经网络模型生成完整的神经网络模型包括:
判断所述指定层是否为中间层;
当所述指定层为中间层时,根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型;
当所述指定层不为中间层时,根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型。
优选的,所述根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型包括:
根据所述指定层的神经网络模型生成位于所述指定层之前的层的神经网络模型直至得到第一层神经网络模型;
根据所述指定层的神经网络模型生成位于所述指定层之后的层的神经网络模型直至得到最后一层神经网络模型。
优选的,所述判断所述指定层是否为中间层包括:
判断所述指定层是否为第一层;
当确定所述指定层不为所述第一层时,判断所述指定层是否为最后一层;
当确定所述指定层不为所述最后一层时,则确定所述指定层为中间层。
优选的,当确定所述指定层不为所述中间层时,所述指定层包括:
所述指定层为第一层但不为最后一层;
所述指定层不为第一层但为最后一层;
所述指定层为第一层且为最后一层。
优选的,
当所述指定层为第一层但不为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成下一层神经网络模型直至生成最后一层神经网络模型,得到所述完整的神经网络模型;
当所述指定层不为第一层但为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成上一层神经网络模型直至生成第一层神经网络模型,得到所述完整的神经网络模型;
当所述指定层为第一层且为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:将所述指定层的神经网络模型确定为所述完整的神经网络模型。
优选的,所述获取待生成完整神经网络模型的参数包括以下一种或者多种的组合:
获取显示界面上显示的参数输入框中的参数;
获取命令行中的参数;
获取预设文件并解析所述预设文件得到参数。
本发明的第二方面提供一种神经网络模型生成装置,安装于电子设备中,所述装置包括:
获取模块,用于获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束;
第一生成模块,用于根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型;
第二生成模块,用于根据所述指定层的神经网络模型生成完整的神经网络模型。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现神经网络模型生成方法。
本发明的第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现神经网络模型生成方法。
本发明运用所述的神经网络模型生成方法,装置,电子设备及存储介质,获取待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束,根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型,根据所述指定层的神经网络模型生成完整的神经网络模型。如果对某一层特别感兴趣,通过指定感兴趣的层并对指定的层进行约束从而对感兴趣的层进行有效的控制;获取到总层数、指定层及控制指定层的神经网络的输入来自其它多个指定层的神经网络的输出或者控制指定层的神经网络的输出为其他多个指定层的神经网络的输入等等,先生成指定层的神经网络模型,最后根据所生成的指定层的神经网络模型产生更加复杂的神经网络模型。生成的完整的神经网络模型能够根据用户的需求做到精细的控制。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是现有神经网络模型的结构示意图。
图2是本发明实施例一提供的神经网络模型生成方法的流程图。
图3是本发明生成的两大类神经网络模型的示意图。
图4是本发明实施例二提供的神经网络模型生成装置的结构图。
图5是本发明实施例三提供的电子设备的示意图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本较佳实施例中,所述神经网络模型生成方法应用于具备拍照或摄像功能的移动电子设备或者固定电子设备中,所述电子设备并不限定于个人电脑、智能手机、平板电脑、安装有摄像头的台式机或一体机等。所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
对于需要进行神经网络模型生成的电子设备,可以直接在电子设备上集成本发明的方法所提供的神经网络模型生成功能。本发明所提供的方法以软件开发工具包(Software Development Kit,SDK)的形式提供基于电子设备的人脸识别功能的接口,电子设备通过所提供的接口实现神经网络模型生成的功能。
本较佳实施例中,所述电子设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
图1是现有神经网络模型的结构示意图。
为便于更加清楚的描述或体现本发明实施例提供的神经网络模型生成方法,在此先简单介绍下现有神经网络模型的生成方法。
现有的神经网络模型是由多层神经网络构成的,每层神经网络与上层神经网络或者下层神经网络之间具有关联关系。第一层神经网络接收多个参数的输入,所输入的多个参数可以包括,但不限于:通道的个数、图片的大小等。第一层神经网络的输出作为第二层神经网络的输入,第二层神经网络的输出作为第三层神经网络的输入,以此类推,最后一层神经网络输出所生成的神经网络模型的计算结果。
需要说明的是,将除第一层和最后一层之外的层统称为中间层,位于中间的某一层神经网络的输入还可能来自多个上层神经网络的输出。
示例性的,如图1所示,Ci_num为输入至第一层神经网络中的通道的个数,Ci_w为输入至第一层神经网络中的图片的宽度,Ci_h为输入至第一层神经网络中的图片的高度;Co_num为第一层神经网络输出的通道的个数,Co_w为第一层神经网络输出的图片的宽度,Co_h为第一层神经网络输出的图片的高度。第1层神经网络的输出即为第2层神经网络的输入,第2层神经网络的输出即为第3层神经网络的输入,依次类推。
也即在现有产生神经网络模型的过程中,首先输入多个参数作为第一层神经网络的输入,等第一层神经网络模型完成后,再产生第二层的神经网络模型,依次类推,最终产生完整的神经网络模型。
通过上述产生完整神经网络模型的过程,可看出存在两方面的问题:1,如果对某一层特别感兴趣,比如希望最后一层神经网络做卷积操作,则现有做法无法进行有效的控制;2,现有做法不能产生复杂的神经网络模型,比如无法精确控制中间的某一层神经网络的输入来自其它多个指定层的神经网络的输出等等。
实施例一
图2是本发明实施例一提供的神经网络模型生成方法的流程图。
如图2所示,所述神经网络模型生成方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
S11:获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束。
本实施例中,用户可以根据实际需求自行生成符合需求的完整神经网络模型,电子设备获取到用户输入的参数后根据所述参数生成完整的神经网络模型。
所述参数可以包括:所述待生成完整神经网络模型的总层数、指定层、对应所述指定层的约束、通道数、图片的宽度、图片的高度等。
所述指定层的约束是对指定层的限定,可以包括但不限于:指定层的属性,指定层的输入的来源,指定层的输出的去向等。其中,所述指定层的属性意为指定某一层为卷积层或者激活函数、池化层、全连接层等。所述指定层的输入的来源意为指定某一层的输入来自于哪几个层的输出,所述指定层的输出的去向意为指定某一层的输出为哪几个层的输入。
优选的,所述获取待生成完整神经网络模型的参数包括以下一种或者多种的组合:
1)获取显示界面上显示的参数输入框中的参数;
电子设备可以提供显示界面,所述显示界面上显示有多个参数输入框,用以接收用户输入的参数。例如,显示界面上显示有待生成完整神经网络模型的总层数输入框,指定层输入框,指定层的约束输入框。用户可以通过待生成完整神经网络模型的总层数输入框输入预生成的神经网络模型的总层数,可以通过指定层输入框输入感兴趣的层,可以通过指定层约束输入框输入感兴趣的层的约束。
指定层的约束输入框还可以包括多个约束子输入框,用以接收对所述指定层的多个子约束。
2)获取命令行中的参数;
电子设备可以提供接收并识别命令行的功能。
用户可以使用脚本语言,例如python语言,按照预先设定的格式输入命令行,电子设备通过识别所输入的命令行获取命令行中的参数。
示例性的,用户输入total_num=10,col_num=8,则电子设备识别出所述待生成完整神经网络模型的总层数为10,指定层为第8层。
3)获取预设文件并解析所述预设文件得到参数。
用户还可以直接输入包含有参数的文本,例如,TXT文本或者EXCEL文本。
电子设备对文本进行解析后得到参数。
示例性的,用户在EXCEL的第一行第一列输入10,第一行第二列输入7,第二行第二列输入池化,则电子设备识别出所述待生成完整神经网络模型的总层数为10,指定层为第7层,第7层的约束为池化层。
S12:根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型。
本实施例中,电子设备获取到总层数、指定层以及指定层的约束后,通过神经网络引擎生成所述指定层的神经网络模型。
所述神经网络引擎是专门用于机器学习的硬件,每秒运算速度最高可达6000亿次。
所述神经网络引擎中有用于生成单层神经网络模型的基本参数及各种复杂的数学模型和计算公式。结合这些复杂的数学模型和计算公式能够生成单一层的神经网络模型。
所述神经网络引擎中的数学模型和计算公式中有体现上下层神经网络之间的松耦合关系,通过所述松耦合关系可以根据当前层网络推导出上一层和下一层神经网络。
关于神经网络引擎及通过神经网络引擎生成所述指定层的神经网络模型,本文在此不再详细阐述。
S13:根据所述指定层的神经网络模型生成完整的神经网络模型。
本实施例中,电子设备生成指定层的神经网络模型之后,可以根据所生成的指定层的神经网络模型逐步生成其他层的神经网络模型,直至生成完整的神经网络模型。
优选的,所述根据所述指定层的神经网络模型生成完整的神经网络模型包括:
判断所述指定层是否为中间层;
当所述指定层为中间层时,根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型;
当所述指定层不为中间层时,根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型。
本实施例中,可以预先设置第一规则和第二规则,所述预设第一规则和所述预设第二规则均用于根据所生成的指定层的神经网络模型来生成完整的神经网络模型。
电子设备需要通过判断所述指定层是否为中间层来确定选用预设第一规则还是预设第二规则生成完整的神经网络模型。
优选的,所述判断所述指定层是否为中间层包括:
判断所述指定层是否为第一层;
当确定所述指定层不为所述第一层时,判断所述指定层是否为最后一层;
当确定所述指定层不为所述最后一层时,则确定所述指定层为中间层。
本实施例中,电子设备可以通过比较所述指定层与所述总层数之间的关系来确定所述指定层是否为最后一层。当判断所述指定层等于所述总层数时,则确定所述指定层为最后一层;当判断所述指定层小于所述总层数时,则确定所述指定层不为最后一层。
当所述指定层既不为第一层,也不为最后一层时,则所述指定层必然为介于第一层和最后一层之间的中间层。
需要说明的是,所述指定层要么等于总层数,要么小于总层数,不可能出现大于总层数的情况。
优选的,所述根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型包括:
根据所述指定层的神经网络模型生成位于所述指定层之前的层的神经网络模型直至得到第一层神经网络模型;
根据所述指定层的神经网络模型生成位于所述指定层之后的层的神经网络模型直至得到最后一层神经网络模型。
本实施例中,当所述指定层为中间层时,先根据所述指定层的神经网络模型通过神经网络引擎向前求解位于所述指定层之前的第一层的参数,根据所求解的参数生成位于所述指定层之前的第一层的神经网络模型;然后根据位于所述指定层之前的第一层的神经网络模型通过神经网络引擎向前求解位于所述指定层之前的第二层的参数,根据所求解的参数生成位于所述指定层之前的第二层的神经网络模型;以此类推;直至生成第一层神经网络模型。
同理,同时还要根据所述指定层的神经网络模型通过神经网络引擎向后求解位于所述指定层之后的第一层的参数,根据所求解的参数生成位于所述指定层之后的第一层的神经网络模型;然后根据位于所述指定层之后的第一层的神经网络模型通过神经网络引擎向后求解位于所述指定层之后的第二层的参数,根据所求解的参数生成位于所述指定层之后的第二层的神经网络模型;以此类推;直至生成最后一层神经网络模型。
进一步的,当所述指定层不为中间层时,所述指定层可以为以下中任意的一种:
所述指定层为第一层但不为最后一层;
所述指定层不为第一层但为最后一层;
所述指定层为第一层且为最后一层。
优选的,当所述指定层为第一层但不为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成下一层神经网络模型直至生成最后一层神经网络模型,得到所述完整的神经网络模型。
优选的,当所述指定层不为第一层但为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成上一层神经网络模型直至生成第一层神经网络模型,得到所述完整的神经网络模型。
优选的,当所述指定层为第一层且为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:将所述指定层的神经网络模型确定为所述完整的神经网络模型。
本实施例中,所述指定层不为中间层时,所述指定层可以为第一层,也可以为最后一层。在一些实际应用中,可能还存在只有一层的神经网络模型,此时,第一层即为最后一层。
当所述指定层为第一层但不为最后一层时,根据所述指定层的神经网络模型逐步顺序生成下一层的神经网络模型,每生成一层神经网络模型之后,将层数加1,再通过神经网络引擎生成当前层的神经网络模型,直至生成最后一层神经网络模型,如此便可以得到完整的神经网络模型。
而当所述指定层不为第一层但为最后一层时,根据所述指定层的神经网络模型倒序逐步生成上一层神经网络模型,每生成一层神经网络模型之后,将层数减1,再通过神经网络引擎生成当前层的神经网络模型,直至生成第一层神经网络模型,如此便可以得到完整的神经网络模型。
而当所述指定层为第一层且为最后一层,即为一层神经网络模型时,通过神经网络引擎生成的所述指定层的神经网络模型即为完整的神经网络模型。
需要说明的是,电子设备在进行初始化时,默认为首次运行,并记录初始化时生成指定层神经网络模型的索引,直到生成第一层神经网络模型,则认为首次运行结束。否则,如果不是首次运行的,则根据所述指定层神经网络模型的层数减1生成其他层的神经网络模型。
如图3所示,为通过本发明实施例提供的方法生成的两大类神经网络模型。其中,图3左边的神经网络模型为无分支的神经网络模型,图3右边的神经网络模型为有分支的神经网络模型。
示例性的,以有分支的神经网络模型为例,可以指定层“1”有两个输出:层“20”、层“30”;指定层“50”有两个输入:层“2n”、“3n”。通过指定层并首先生成指定层神经网络模型,然后根据所生成的指定层神经网络模型向前或者先后生成其他层神经网络模型,直至生成用户需求的总层数的完整的神经网络模型。
综上所述,本发明实施例提供的神经网络模型生成方法,获取待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束,根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型,根据所述指定层的神经网络模型生成完整的神经网络模型。如果对某一层特别感兴趣,通过指定感兴趣的层并对指定的层进行约束从而对感兴趣的层进行有效的控制;获取到总层数、指定层及控制指定层的神经网络的输入来自其它多个指定层的神经网络的输出或者控制指定层的神经网络的输出为其他多个指定层的神经网络的输入等等,先生成指定层的神经网络模型,最后根据所生成的指定层的神经网络模型产生更加复杂的神经网络模型。生成的完整的神经网络模型能够根据用户的需求做到精细的控制。
上述图2详细介绍了本发明的神经网络模型生成方法,下面结合图4和图5,分别对实现所述神经网络模型生成方法的软件系统的功能模块以及实现所述神经网络模型生成方法的硬件系统架构进行介绍。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
实施例二
参阅图4所示,是本发明神经网络模型生成装置的较佳实施例中的功能模块图。
在一些实施例中,所述神经网络模型生成装置40运行于电子设备中。所述神经网络模型生成装置40可以包括多个由程序代码段所组成的功能模块。所述神经网络模型生成装置40中的各个程序段的程序代码可以存储于所述电子设备的存储器中,并由至少一个处理器所执行,以执行(详见图2描述)生成用户需求的神经网络模型。
本实施例中,所述神经网络模型生成装置40根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:获取模块401、第一生成模块402、第二生成模块403及判断模块404。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在所述存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
获取模块401,用于获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束。
本实施例中,用户可以根据实际需求自行生成符合需求的完整神经网络模型,电子设备获取到用户输入的参数后根据所述参数生成完整的神经网络模型。
所述参数可以包括:所述待生成完整神经网络模型的总层数、指定层、对应所述指定层的约束、通道数、图片的宽度、图片的高度等。
所述指定层的约束是对指定层的限定,可以包括但不限于:指定层的属性,指定层的输入的来源,指定层的输出的去向等。其中,所述指定层的属性意为指定某一层为卷积层或者激活函数、池化层、全连接层等。所述指定层的输入的来源意为指定某一层的输入来自于哪几个层的输出,所述指定层的输出的去向意为指定某一层的输出为哪几个层的输入。
优选的,所述获取模块401获取待生成完整神经网络模型的参数包括以下一种或者多种的组合:
1)获取显示界面上显示的参数输入框中的参数;
电子设备可以提供显示界面,所述显示界面上显示有多个参数输入框,用以接收用户输入的参数。例如,显示界面上显示有待生成完整神经网络模型的总层数输入框,指定层输入框,指定层的约束输入框。用户可以通过待生成完整神经网络模型的总层数输入框输入预生成的神经网络模型的总层数,可以通过指定层输入框输入感兴趣的层,可以通过指定层约束输入框输入感兴趣的层的约束。
指定层的约束输入框还可以包括多个约束子输入框,用以接收对所述指定层的多个子约束。
2)获取命令行中的参数;
电子设备可以提供接收并识别命令行的功能。
用户可以使用脚本语言,例如python语言,按照预先设定的格式输入命令行,电子设备通过识别所输入的命令行获取命令行中的参数。
示例性的,用户输入total_num=10,col_num=8,则电子设备识别出所述待生成完整神经网络模型的总层数为10,指定层为第8层。
3)获取预设文件并解析所述预设文件得到参数。
用户还可以直接输入包含有参数的文本,例如,TXT文本或者EXCEL文本。
电子设备对文本进行解析后得到参数。
示例性的,用户在EXCEL的第一行第一列输入10,第一行第二列输入7,第二行第二列输入池化,则电子设备识别出所述待生成完整神经网络模型的总层数为10,指定层为第7层,第7层的约束为池化层。
第一生成模块402,用于根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型。
本实施例中,第一生成模块402获取到总层数、指定层以及指定层的约束后,通过神经网络引擎生成所述指定层的神经网络模型。
所述神经网络引擎是专门用于机器学习的硬件,每秒运算速度最高可达6000亿次。
所述神经网络引擎中有用于生成单层神经网络模型的基本参数及各种复杂的数学模型和计算公式。结合这些复杂的数学模型和计算公式能够生成单一层的神经网络模型。
所述神经网络引擎中的数学模型和计算公式中有体现上下层神经网络之间的松耦合关系,通过所述松耦合关系可以根据当前层网络推导出上一层和下一层神经网络。
关于神经网络引擎及通过神经网络引擎生成所述指定层的神经网络模型,本文在此不再详细阐述。
第二生成模块403,用于根据所述指定层的神经网络模型生成完整的神经网络模型。
本实施例中,第一生成模块402生成指定层的神经网络模型之后,第二生成模块403可以根据所生成的指定层的神经网络模型逐步生成其他层的神经网络模型,直至生成完整的神经网络模型。
判断模块404,用于判断所述指定层是否为中间层;
当所述判断模块404确定所述指定层为中间层时,所述第二生成模块403根据所述指定层的神经网络模型生成完整的神经网络模型包括:根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型;
当所述判断模块404确定所述指定层不为中间层时,所述第二生成模块403根据所述指定层的神经网络模型生成完整的神经网络模型包括:根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型。
本实施例中,可以预先设置第一规则和第二规则,所述预设第一规则和所述预设第二规则均用于根据所生成的指定层的神经网络模型来生成完整的神经网络模型。
电子设备需要通过判断所述指定层是否为中间层来确定选用预设第一规则还是预设第二规则生成完整的神经网络模型。
优选的,所述判断模块404判断所述指定层是否为中间层包括:
判断所述指定层是否为第一层;
当确定所述指定层不为所述第一层时,判断所述指定层是否为最后一层;
当确定所述指定层不为所述最后一层时,则确定所述指定层为中间层。
本实施例中,电子设备可以通过比较所述指定层与所述总层数之间的关系来确定所述指定层是否为最后一层。当判断所述指定层等于所述总层数时,则确定所述指定层为最后一层;当判断所述指定层小于所述总层数时,则确定所述指定层不为最后一层。
当所述指定层既不为第一层,也不为最后一层时,则所述指定层必然为介于第一层和最后一层之间的中间层。
需要说明的是,所述指定层要么等于总层数,要么小于总层数,不可能出现大于总层数的情况。
优选的,所述第二生成模块403根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型包括:
根据所述指定层的神经网络模型生成位于所述指定层之前的层的神经网络模型直至得到第一层神经网络模型;
根据所述指定层的神经网络模型生成位于所述指定层之后的层的神经网络模型直至得到最后一层神经网络模型。
本实施例中,当所述指定层为中间层时,先根据所述指定层的神经网络模型通过神经网络引擎向前求解位于所述指定层之前的第一层的参数,根据所求解的参数生成位于所述指定层之前的第一层的神经网络模型;然后根据位于所述指定层之前的第一层的神经网络模型通过神经网络引擎向前求解位于所述指定层之前的第二层的参数,根据所求解的参数生成位于所述指定层之前的第二层的神经网络模型;以此类推;直至生成第一层神经网络模型。
同理,同时还要根据所述指定层的神经网络模型通过神经网络引擎向后求解位于所述指定层之后的第一层的参数,根据所求解的参数生成位于所述指定层之后的第一层的神经网络模型;然后根据位于所述指定层之后的第一层的神经网络模型通过神经网络引擎向后求解位于所述指定层之后的第二层的参数,根据所求解的参数生成位于所述指定层之后的第二层的神经网络模型;以此类推;直至生成最后一层神经网络模型。
进一步的,当所述指定层不为中间层时,所述指定层可以为以下中任意的一种:
所述指定层为第一层但不为最后一层;
所述指定层不为第一层但为最后一层;
所述指定层为第一层且为最后一层。
优选的,当所述指定层为第一层但不为最后一层时,则所述第二生成模块403根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成下一层神经网络模型直至生成最后一层神经网络模型,得到所述完整的神经网络模型。
优选的,当所述指定层不为第一层但为最后一层时,则所述第二生成模块403根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成上一层神经网络模型直至生成第一层神经网络模型,得到所述完整的神经网络模型。
优选的,当所述指定层为第一层且为最后一层时,则所述第二生成模块403根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:将所述指定层的神经网络模型确定为所述完整的神经网络模型。
本实施例中,所述指定层不为中间层时,所述指定层可以为第一层,也可以为最后一层。在一些实际应用中,可能还存在只有一层的神经网络模型,此时,第一层即为最后一层。
当所述指定层为第一层但不为最后一层时,根据所述指定层的神经网络模型逐步顺序生成下一层的神经网络模型,每生成一层神经网络模型之后,将层数加1,再通过神经网络引擎生成当前层的神经网络模型,直至生成最后一层神经网络模型,如此便可以得到完整的神经网络模型。
而当所述指定层不为第一层但为最后一层时,根据所述指定层的神经网络模型倒序逐步生成上一层神经网络模型,每生成一层神经网络模型之后,将层数减1,再通过神经网络引擎生成当前层的神经网络模型,直至生成第一层神经网络模型,如此便可以得到完整的神经网络模型。
而当所述指定层为第一层且为最后一层,即为一层神经网络模型时,通过神经网络引擎生成的所述指定层的神经网络模型即为完整的神经网络模型。
需要说明的是,电子设备在进行初始化时,默认为首次运行,并记录初始化时生成指定层神经网络模型的索引,直到生成第一层神经网络模型,则认为首次运行结束。否则,如果不是首次运行的,则根据所述指定层神经网络模型如图2所示,为通过本发明实施例提供的方法生成的两大类神经网络模型。其中,图2左边的神经网络模型为无分支的神经网络模型,图2右边的神经网络模型为有分支的神经网络模型。
示例性的,以有分支的神经网络模型为例,可以指定层“1”有两个输出:层“20”、层“30”;指定层“50”有两个输入:层“2n”、“3n”。通过指定层并首先生成指定层神经网络模型,然后根据所生成的指定层神经网络模型向前或者先后生成其他层神经网络模型,直至生成用户需求的总层数的完整的神经网络模型。
综上所述,本发明实施例提供的神经网络模型生成装置,获取待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束,根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型,根据所述指定层的神经网络模型生成完整的神经网络模型。如果对某一层特别感兴趣,通过指定感兴趣的层并对指定的层进行约束从而对感兴趣的层进行有效的控制;获取到总层数、指定层及控制指定层的神经网络的输入来自其它多个指定层的神经网络的输出或者控制指定层的神经网络的输出为其他多个指定层的神经网络的输入等等,先生成指定层的神经网络模型,最后根据所生成的指定层的神经网络模型产生更加复杂的神经网络模型。生成的完整的神经网络模型能够根据用户的需求做到精细的控制。
实施例三
在本发明较佳实施例中,所述电子设备5包括存储器51、至少一个处理器52、至少一条通信总线53及显示屏幕54。
本领域技术人员应该了解,图5示出的电子设备的结构并不构成本发明实施例的限定,既可以是总线型结构,也可以是星形结构,所述电子设备5还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述电子设备5包括一种能够按照事先设定或存储的指令,自动进行数值计算和/或者信息处理的设备。所述电子设备5的硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述电子设备5还可包括用户设备,所述用户设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述电子设备5仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器51用于存储程序代码和各种数据,例如安装在所述电子设备5中的神经网络模型生成装置40,并在电子设备5的运行过程中实现高速、自动地完成程序或数据的存取。所述存储器51包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-OnlyMemory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
在一些实施例中,所述至少一个处理器52可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述至少一个处理器52是所述电子设备5的控制核心(Control Unit),利用各种接口和线路连接整个电子设备5的各个部件,通过运行或执行存储在所述存储器51内的程序或者模块,以及调用存储在所述存储器51内的数据,以执行电子设备5的各种功能和处理数据,例如执行神经网络模型生成的功能。
在一些实施例中,所述至少一条通信总线53被设置为实现所述存储器51、所述至少一个处理器52以及所述显示屏幕54等之间的连接通信。
在一些实施例中,所述显示屏幕54可用于显示由观看者输入的信息或提供给观看者的信息以及电子设备5的各种图形观看者接口,这些图形观看者接口可以由图形、文本、图标、视频和其任意组合来构成。所述显示屏幕54可包括显示面板,可选的,可以采用液晶显示屏幕(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-EmittingDiode,OLED)等形式来配置显示面板。
所述显示屏幕54还可以包括触摸面板。如果所述显示屏幕54包括触摸面板,所述显示屏幕54可以被实现为触摸屏,以接收来自观看者的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。上述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与上述触摸或滑动操作相关的持续时间和压力。所述显示面板与所述触摸面板可以作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将所述显示面板与所述触摸面板进行集成而实现输入和输出功能。
尽管未示出,所述电子设备5还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理系统与所述至少一个处理器52逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备5还可以包括多种传感器、蓝牙模块、通讯模块等。本发明在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,客户端,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
在进一步的实施例中,结合图1,所述至少一个处理器52可执行所述电子设备5的操作系统以及安装的各类应用程序(如所述的神经网络模型生成装置40)、程序代码等。
所述存储器51中存储有程序代码,且所述至少一个处理器52可调用所述存储器51中存储的程序代码以执行相关的功能。例如,图4中所述的各个模块是存储在所述存储器51中的程序代码,并由所述至少一个处理器52所执行,从而实现所述各个模块的功能以达到根据用户需求生成神经网络模型的目的。
在本发明的一个实施例中,所述存储器51存储多个指令,所述多个指令被所述至少一个处理器52所执行以实现随机生成神经网络模型的功能。
具体地,所述至少一个处理器52对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种神经网络模型生成方法,应用于电子设备中,其特征在于,所述方法包括:
获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束;
根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型;
根据所述指定层的神经网络模型生成完整的神经网络模型。
2.如权利要求1所述的神经网络模型生成方法,其特征在于,所述根据所述指定层的神经网络模型生成完整的神经网络模型包括:
判断所述指定层是否为中间层;
当所述指定层为中间层时,根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型;
当所述指定层不为中间层时,根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型。
3.如权利要求2所述的神经网络模型生成方法,其特征在于,所述根据预设第二规则及所述指定层的神经网络模型生成完整的神经网络模型包括:
根据所述指定层的神经网络模型生成位于所述指定层之前的层的神经网络模型直至得到第一层神经网络模型;
根据所述指定层的神经网络模型生成位于所述指定层之后的层的神经网络模型直至得到最后一层神经网络模型。
4.如权利要求2所述的神经网络模型生成方法,其特征在于,所述判断所述指定层是否为中间层包括:
判断所述指定层是否为第一层;
当确定所述指定层不为所述第一层时,判断所述指定层是否为最后一层;
当确定所述指定层不为所述最后一层时,则确定所述指定层为中间层。
5.如权利要求4所述的神经网络模型生成方法,其特征在于,当确定所述指定层不为所述中间层时,所述指定层包括:
所述指定层为第一层但不为最后一层;
所述指定层不为第一层但为最后一层;
所述指定层为第一层且为最后一层。
6.如权利要求5所述的神经网络模型生成方法,其特征在于,
当所述指定层为第一层但不为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成下一层神经网络模型直至生成最后一层神经网络模型,得到所述完整的神经网络模型;
当所述指定层不为第一层但为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:根据所述指定层的神经网络模型逐步生成上一层神经网络模型直至生成第一层神经网络模型,得到所述完整的神经网络模型;
当所述指定层为第一层且为最后一层时,则所述根据预设第一规则及所述指定层的神经网络模型生成完整的神经网络模型包括:将所述指定层的神经网络模型确定为所述完整的神经网络模型。
7.如权利要求1所述的神经网络模型生成方法,其特征在于,所述获取待生成完整神经网络模型的参数包括以下一种或者多种的组合:
获取显示界面上显示的参数输入框中的参数;
获取命令行中的参数;
获取预设文件并解析所述预设文件得到参数。
8.一种神经网络模型生成装置,安装于电子设备中,其特征在于,所述装置包括:
获取模块,用于获取待生成完整神经网络模型的参数,所述参数包括所述待生成完整神经网络模型的总层数以及指定层及对应所述指定层的约束;
第一生成模块,用于根据所述总层数、所述指定层及对应所述指定层的约束,通过神经网络引擎生成所述指定层的神经网络模型;
第二生成模块,用于根据所述指定层的神经网络模型生成完整的神经网络模型。
9.一种电子设备,其特征在于,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至7中任意一项所述神经网络模型生成方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述神经网络模型生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811535816.9A CN111325311B (zh) | 2018-12-14 | 2018-12-14 | 用于图像识别的神经网络模型生成方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811535816.9A CN111325311B (zh) | 2018-12-14 | 2018-12-14 | 用于图像识别的神经网络模型生成方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325311A true CN111325311A (zh) | 2020-06-23 |
CN111325311B CN111325311B (zh) | 2024-03-29 |
Family
ID=71168742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811535816.9A Active CN111325311B (zh) | 2018-12-14 | 2018-12-14 | 用于图像识别的神经网络模型生成方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325311B (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039471A1 (en) * | 2015-08-07 | 2017-02-09 | Toyota Jidosha Kabushiki Kaisha | Neural network learning device |
WO2017083777A1 (en) * | 2015-11-12 | 2017-05-18 | Google Inc. | Generating larger neural networks |
JP6150964B1 (ja) * | 2016-10-03 | 2017-06-21 | 三菱電機株式会社 | ネットワーク構築装置及びネットワーク構築方法 |
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107103113A (zh) * | 2017-03-23 | 2017-08-29 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法、装置及优化方法 |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
CN107766787A (zh) * | 2016-08-16 | 2018-03-06 | 深圳云天励飞技术有限公司 | 人脸属性识别方法、装置、终端及存储介质 |
US20180068218A1 (en) * | 2016-09-07 | 2018-03-08 | Samsung Electronics Co., Ltd. | Neural network based recognition apparatus and method of training neural network |
CN108021983A (zh) * | 2016-10-28 | 2018-05-11 | 谷歌有限责任公司 | 神经架构搜索 |
WO2018085643A1 (en) * | 2016-11-04 | 2018-05-11 | Google Llc | Mixture of experts neural networks |
GB201805973D0 (en) * | 2018-04-11 | 2018-05-23 | Nokia Technologies Oy | Neural network |
CN108205699A (zh) * | 2016-12-20 | 2018-06-26 | 谷歌有限责任公司 | 生成用于神经网络输出层的输出 |
CN108229533A (zh) * | 2017-11-22 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法、模型剪枝方法、装置及设备 |
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN108256646A (zh) * | 2018-01-22 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 模型生成方法和装置 |
CN108364068A (zh) * | 2018-01-05 | 2018-08-03 | 华南师范大学 | 基于有向图的深度学习神经网络构建方法和机器人系统 |
CN108573307A (zh) * | 2018-03-05 | 2018-09-25 | 维沃移动通信有限公司 | 一种处理神经网络模型文件的方法及终端 |
CN108875923A (zh) * | 2018-02-08 | 2018-11-23 | 北京旷视科技有限公司 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
-
2018
- 2018-12-14 CN CN201811535816.9A patent/CN111325311B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039471A1 (en) * | 2015-08-07 | 2017-02-09 | Toyota Jidosha Kabushiki Kaisha | Neural network learning device |
WO2017083777A1 (en) * | 2015-11-12 | 2017-05-18 | Google Inc. | Generating larger neural networks |
JP2017182319A (ja) * | 2016-03-29 | 2017-10-05 | 株式会社メガチップス | 機械学習装置 |
CN107766787A (zh) * | 2016-08-16 | 2018-03-06 | 深圳云天励飞技术有限公司 | 人脸属性识别方法、装置、终端及存储介质 |
US20180068218A1 (en) * | 2016-09-07 | 2018-03-08 | Samsung Electronics Co., Ltd. | Neural network based recognition apparatus and method of training neural network |
JP6150964B1 (ja) * | 2016-10-03 | 2017-06-21 | 三菱電機株式会社 | ネットワーク構築装置及びネットワーク構築方法 |
CN108021983A (zh) * | 2016-10-28 | 2018-05-11 | 谷歌有限责任公司 | 神经架构搜索 |
WO2018085643A1 (en) * | 2016-11-04 | 2018-05-11 | Google Llc | Mixture of experts neural networks |
CN108205699A (zh) * | 2016-12-20 | 2018-06-26 | 谷歌有限责任公司 | 生成用于神经网络输出层的输出 |
CN107103113A (zh) * | 2017-03-23 | 2017-08-29 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法、装置及优化方法 |
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN108229533A (zh) * | 2017-11-22 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法、模型剪枝方法、装置及设备 |
CN108364068A (zh) * | 2018-01-05 | 2018-08-03 | 华南师范大学 | 基于有向图的深度学习神经网络构建方法和机器人系统 |
CN108256646A (zh) * | 2018-01-22 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 模型生成方法和装置 |
CN108875923A (zh) * | 2018-02-08 | 2018-11-23 | 北京旷视科技有限公司 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
CN108573307A (zh) * | 2018-03-05 | 2018-09-25 | 维沃移动通信有限公司 | 一种处理神经网络模型文件的方法及终端 |
GB201805973D0 (en) * | 2018-04-11 | 2018-05-23 | Nokia Technologies Oy | Neural network |
Non-Patent Citations (7)
Title |
---|
MENGNAN SHI; FEI QIN等: "A scalable convolutional neural network for task-specified scenarios via knowledge distillation", 2017 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP), 19 June 2017 (2017-06-19), pages 2467 - 2471 * |
刘方园, 王水花, 张煜东: "卷积神经网络架构及其应用的研究", 新型工业化, vol. 7, no. 11, 30 November 2017 (2017-11-30), pages 40 - 51 * |
李敏生等: "神经网络软件模拟平台的设计与实现", 《北京理工大学学报》 * |
李敏生等: "神经网络软件模拟平台的设计与实现", 《北京理工大学学报》, vol. 20, no. 01, 29 February 2000 (2000-02-29), pages 77 - 79 * |
杨斌等: "卷积神经网络的研究进展综述", 《南华大学学报(自然科学版)》 * |
杨斌等: "卷积神经网络的研究进展综述", 《南华大学学报(自然科学版)》, vol. 30, no. 03, 30 September 2016 (2016-09-30), pages 66 - 72 * |
邹谷山, 蔡延光, 罗世亮: "基于粗集理论复杂系统神经网络模型构建", 控制工程, no. 06, 20 November 2004 (2004-11-20), pages 90 - 92 * |
Also Published As
Publication number | Publication date |
---|---|
CN111325311B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740732B (zh) | 神经网络处理器、卷积神经网络数据复用方法及相关设备 | |
EP3588283A1 (en) | System and method for recommending service experience package | |
WO2020253059A1 (zh) | 多级联动下拉框的实现方法、装置和计算机设备 | |
US10902339B2 (en) | System and method providing automatic completion of task structures in a project plan | |
US20230237448A1 (en) | Payment interface display method and apparatus and electronic device | |
CN108628597B (zh) | 一种机器视觉系统开发方法及装置 | |
CN108830383B (zh) | 用于展示机器学习建模过程的方法及系统 | |
CN106325675A (zh) | 一种图标摆放方法及终端设备 | |
US20220374219A1 (en) | Deployment of service | |
CN112949172B (zh) | 一种数据处理方法、装置、机器可读介质及设备 | |
CN111340240A (zh) | 实现自动机器学习的方法及装置 | |
US11636712B2 (en) | Dynamic gesture recognition method, device and computer-readable storage medium | |
CN114626752A (zh) | 一种自动车辆的调度方法、装置、计算机设备及存储介质 | |
CN112396677B (zh) | 动画制作方法、电子装置和存储介质 | |
CN112486491A (zh) | 页面生成方法、装置、计算机设备及存储介质 | |
CN114185874A (zh) | 一种基于大数据的建模方法、装置、开发框架及设备 | |
CN113190427A (zh) | 卡顿监控方法、装置、电子设备及存储介质 | |
CN111325311B (zh) | 用于图像识别的神经网络模型生成方法及相关设备 | |
CN110659090B (zh) | 贩售机的货道调整方法、装置、系统以及计算机设备 | |
CN110879701A (zh) | 工作流可视化配置方法、服务器、系统及介质 | |
CN115061895A (zh) | 业务流程编排方法、装置、电子设备及存储介质 | |
CN113687942A (zh) | 检测方法、装置及电子设备 | |
CN110689922B (zh) | 一种自动并行化敲除策略gc含量分析的方法及系统 | |
CN111242309A (zh) | 形成机器学习应用系统的方法、装置及电子设备 | |
CN113282795B (zh) | 数据结构图生成及更新方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |