CN109063829A - 神经网络构建方法、装置、计算机设备和存储介质 - Google Patents
神经网络构建方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN109063829A CN109063829A CN201810651006.3A CN201810651006A CN109063829A CN 109063829 A CN109063829 A CN 109063829A CN 201810651006 A CN201810651006 A CN 201810651006A CN 109063829 A CN109063829 A CN 109063829A
- Authority
- CN
- China
- Prior art keywords
- network element
- neural network
- target
- target network
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/18—Network design, e.g. design based on topological or interconnect aspects of utility systems, piping, heating ventilation air conditioning [HVAC] or cabling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Artificial Intelligence (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提出一种神经网络构建方法、装置、计算机设备和存储介质,其中,方法包括:根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,获取各目标网络元素的参数信息,根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,根据各目标网络元素间的层级关系及各目标网络元素的参数信息,生成待构建的神经网络。该方法实现了仅根据用户在可视化的神经网络设计界面上选择的目标网络元素和目标网络元素间的有向连接线,即可构建神经网络,无需用户编写代码,降低了开发难度,提高了构建效率。
Description
技术领域
本申请涉及神经网络技术领域,尤其涉及一种神经网络构建方法、装置、计算机设备和存储介质。
背景技术
神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,神经网络可以用于模式识别、信号处理、机器人控制等。
目前,相关技术中在使用神经网络时,通常是基于当前的应用需求,进行代码编写,以构建当前所需的神经网络。
上述通过编写代码方式构建神经网络的方法,对网络构建者要求高,不仅要求网络构建者懂得算法原理,而且需要会代码编写,从而导致神经网络的开发难度大,效率低。
发明内容
本申请提出一种神经网络构建方法、装置、计算机设备和存储介质,用于解决相关技术中,通过编写代码方式构建神经网络的方法,对网络构建者要求高,导致神经网络的开发难度大,效率低的问题。
本申请一方面实施例提出了一种神经网络构建方法,包括:
根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素;
根据所述各目标网络元素的名称,获取所述各目标网络元素的参数信息;
根据所述各目标网络元素间的有向连接线,确定所述各目标网络元素间的层级关系;
根据所述各目标网络元素间的层级关系及所述各目标网络元素的参数信息,生成所述待构建的神经网络。
本申请实施例的神经网络构建方法,通过根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,获取各目标网络元素的参数信息,根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,根据各目标网络元素间的层级关系及各目标网络元素的参数信息,生成待构建的神经网络。本实施例中,通过根据用户在可视化的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,确定各目标网络元素的参数信息,再根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,最终根据各目标网络元素间的层级关系和各目标网络元素的参数信息,生成待构建的神经网络,从而实现了仅根据用户在可视化的神经网络设计界面上选择的目标网络元素和目标网络元素间的有向连接线,即可构建神经网络,无需用户编写代码,降低了开发难度,提高了构建效率,对于有算法基础的用户能够很容易构建出一个可运行能够服务生产的神经网络,工程开发者可以高效的构建神经网络。
本申请另一方面实施例提出了一种神经网络构建装置,包括:
第一确定模块,用于根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素;
第一获取模块,用于根据所述各目标网络元素的名称,获取所述各目标网络元素的参数信息;
第二确定模块,用于根据所述各目标网络元素间的有向连接线,确定所述各目标网络元素间的层级关系;
第一生成模块,用于根据所述各目标网络元素间的层级关系及所述各目标网络元素的参数信息,生成所述待构建的神经网络。
本申请实施例的神经网络构建装置,通过根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,获取各目标网络元素的参数信息,根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,根据各目标网络元素间的层级关系及各目标网络元素的参数信息,生成待构建的神经网络。本实施例中,通过根据用户在可视化的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,确定各目标网络元素的参数信息,再根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,最终根据各目标网络元素间的层级关系和各目标网络元素的参数信息,生成待构建的神经网络,从而实现了仅根据用户在可视化的神经网络设计界面上选择的目标网络元素和目标网络元素间的有向连接线,即可构建神经网络,无需用户编写代码,降低了开发难度,提高了构建效率,对于有算法基础的用户能够很容易构建出一个可运行能够服务生产的神经网络,工程开发者可以高效的构建神经网络。
本申请另一方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如上述一方面实施例所述的神经网络构建方法。
本申请另一方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述一方面实施例所述的神经网络构建方法。
本申请提出的神经网络构建方法、装置、计算机设备和存储介质,通过可视化的神经网络设计界面构建神经网络,无需用户编写代码,操作简单便捷,降低了开发难度,提升了开发效率,对于有算法基础的用户能够很容易构建出一个可运行能够服务生产的神经网络,工程开发者可以高效的构建神经网络。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例提供的一种神经网络构建方法的流程示意图;
图2为本申请实施例提供的一种基于B/S(浏览器/服务器)模式的系统实施架构示意图;
图3为本申请实施例提供的一种基于B/S模式架构实施的客户端神经网络设计界面的示意图;
图4为本申请实施例提供的一种MNIST手写数字识别所需的网络元素及网络元素间的有向连接示意图;
图5为本申请实施例提供的另一种神经网络构建方法的流程示意图;
图6为本申请实施例提供的另一种神经网络构建方法的流程示意图;
图7为本申请实施例提供的一种神经网络构建装置的结构示意图;
图8为本申请实施例提供的另一种神经网络构建装置的结构示意图;
图9示出了适于用来实现本申请实施方式的示例性计算机设备的框图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的神经网络构建方法、装置、计算机设备和存储介质。
本申请实施例针对相关技术中,通过编写代码方式构建神经网络的方法,存在开发难度大,开发效率低的问题,提出一种神经网络构建方法。
本申请实施例提供的神经网络构建方法,通过根据用户在可视化的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,确定各目标网络元素的参数信息,再根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,最终各根据目标网络元素间的层级关系和各目标网络元素的参数信息,生成待构建的神经网络,从而实现了仅根据用户在可视化的神经网络设计界面上选择的目标网络元素和目标网络元素间的有向连接线,即可构建神经网络,无需用户编写代码,降低了开发难度,提高了构建效率,对于有算法基础的用户能够很容易构建出一个可运行能够服务生产的神经网络,工程开发者可以高效的构建调神经网络。
图1为本申请实施例提供的一种神经网络构建方法的流程示意图。
本申请实施例的神经网络构建方法,可由本申请提供的神经网络构建装置执行,上述神经网络构建装置可配置于计算机设备中。
如图1所示,该神经网络构建方法包括:
步骤101,根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素。
相关技术中,在构建神经网络时,通常通过编写代码的方式构建神经网络,但是这种编码代码的方式,会耗费用户大量的时间,从而降低了神经网络的开发效率。
本实施例中,预先设置神经网络设计界面,以实现根据用户在可视化界面上的操作,构建神经网络。该神经网络设计界面中可包括候选网络元素。其中,网络元素是指神经网络各层中包含的元素。
图2为本申请实施例提供的一种基于B/S(浏览器/服务器)模式的系统实施架构示意图;图3为本申请实施例提供的一种基于B/S模式架构实施的客户端神经网络设计界面的示意图。图3所示的神经网络设计界面的左侧为“候选网络元素列表区域”,该候选网络元素列表中包括候选网络元素。如图3所示,该界面还包括“相应功能区域”、“操作及系统信息显示区”。
当用户在图3所示的客户端浏览器的web页面上的神经网络设计界面进行操作,基于操作的配置数据可以通过HTTP请求发送给负载均衡器,经过负载均衡器发送给服务端。服务端对数据进行解析,包含各目标网络元素及相关网络元素的参数配置信息的解析等。服务端可将解析结果发送给客户端浏览器。例如,当用户从“候选网络元素列表区域”中选择了网络元素Dense,服务端经过解析可以确定选择Dense作为目标网络元素。
在实际应用中,在构建神经网络时,用户可先选择“相应功能区域”中的“网络设计”,之后从“候选网络元素区域列表”中选择构建神经网络所需的网络元素,放入“相应功能区域”,用户选择的网络元素,即为待构建的神经网络中的各目标网络元素。
另外,为了便于用户实时了解神经网络的构建过程,“操作及系统信息显示区”还可显示每次用户操作产生的输出信息。需要说明的是,图3所示的界面仅是一个示例,在实际应用中,可以根据需要进行设计。
步骤102,根据目标网络元素的名称,获取目标网络元素的参数信息。
由于不同的网络元素,具有不同的参数信息,本实施例中,可预先建立网络元素的名称与对应参数信息的对应关系,在确定目标网络元素后,根据网络元素的名称与对应参数信息的对应关系,即可获取每个目标网络元素的参数信息。
其中,网络元素的参数信息,可以包括网络元素对应的输入参数数量、各输入参数的类型、输出参数数量及各输出参数的类型等等。
步骤103,根据目标网络元素间的有向连接线,确定目标网络元素间的层级关系。
本实施例中,用户在神经网络设计界面上选择了网络元素之后,可通过有向连接线连接网络元素,从而根据目标元素间的有向连接线,可以确定目标网络元素间的层级关系。
图4为本申请实施例提供的一种MNIST手写数字识别所需的网络元素及网络元素间的有向连接示意图。其中,Dense、Activation、Dropout为网络元素,图4中相邻两个网络元素的之间的“→”为有向连接线。图4中Dense→Activation→Dropout→Dense→Activation→Dropout→Dense→Activation,从而根据目标网络元素间的有向连接线,确定目标网络元素间的层级关系,例如,由于Dense→Activation→Dropout,网络元素Dense、Activation、Dropout分别属于不同的层级。
进一步地,在上述步骤103之前可执行:根据用户在目标网络元素间执行的操作的方向,生成目标网络元素间的有向连接线。具体地,当用户从一个网络元素A向另一个网络元素B画线时,可以确定线的起点处的网络元素A为网络元素B的上一级网络元素。
步骤104,根据目标网络元素间的层级关系及目标网络元素的参数信息,生成待构建的神经网络。
本实施例中,根据目标网络元素间的层级关系及各目标网络元素的参数信息,可生成待构建的神经网络。
本申请实施例的神经网络构建方法,用户可根据需要在可视化的神经网络设计界面上选择网络元素,根据用户在可视化神经网络上的操作,即可构建神经网络,从而不需要用户编写代码,即可构建神经网络,操作简单便捷,提高了神经网络的构建效率。
在上述实施例的基础上,在上述步骤101之前,可先根据目标神经网络框架,获得各网络元素的参数信息,下面结合图5进行详细说明。图5为本申请实施例提供的另一种神经网络构建方法的流程示意图。如图5所示,在上述步骤101之前该神经网络构建方法还可包括:
步骤105,对目标神经网络框架进行解析处理,获取目标神经网络框架中包含的各网络元素及各网络元素所在包的路径。
本实施例中,通过对目标神经网络框架进行解析处理,可以得到每层的网络元素,以及网络元素所在包的路径,从而可以得到目标神经网络中的各网络元素和各网络元素所在包的路径。其中,网络元素所的在的包中包含有网络元素的配置文件。
需要说明的是,同一包中可能包含一个或者多个网络元素。
如果目标神经网络框架为Keras框架,对网络的各层如常用层、循环层、池化层、局部连接层等进行解析处理,那么获得的网络元素可包括:Sequential、Model、Dense、Embedding、Activation、Dropout等等。
步骤106,根据各网络元素所在包的路径,获取各网络元素的配置文件。
针对每个网络元素,可根据网络元素所在包的路径,查找到网络元素的配置文件。其中,配置文件中包含有网络元素的类型、网络元素的参数信息等。
步骤107,对各网络元素的配置文件进行解析,确定各网络元素的参数信息。
在获得网络元素的配置文件后,可对配置文件进行解析,得到网络元素的参数信息。由此,可以确定目标神经网络中各网络元素的参数信息。基于此,在上述步骤102中,根据目标网络元素的名称,获取目标网络元素的参数信息时,可根据上述步骤107中得到各网络元素的参数信息,查找到目标网络元素的参数信息。
进一步地,为了便于在构建神经网络的过程中,获取目标网络元素的参数信息,本实施例中,可创建一个配置文件,该配置文件中可包括包路径和包中包含的网络元素,以表1所示的包路径与对应的包中的网络元素为例。
表1
如表1所示,包路径keras.model对应的包中的网络元素包括Sequential和Model;包路径keras.engine.topology对应的包中网络元素包括Input;包路径keras.layers.core对应的包中的网络元素包括Dense、Embedding、Activation、LSTM、Flatten和Dropout;包路径keras.layers.normalization对应的包中的网络元素包括BatchNormalization;包路径keras.optimizers对应的包中网络元素包括SGD和RMSprop。
进一步地,还可将网络元素的参数信息以及相应的解释说明,扩展写入上述配置文件中。由此,在确定目标网络元素的参数信息时,可根据该配置文件获取目标网络元素的参数信息,并且在构建神经网络时,用户可根据网络元素的参数信息的解释说明,来选择网络元素,从而可以方便用户选择网络元素。
在实际应用中,在构建神经网络时,还可配置全局参数,为了便于设计神经网络,本实施例中,神经网络设计界面还可包括全局信息配置区。如图3所示,在图3所示的神经网络设计界面中还包括全局信息配置区。
在此基础上,本申请实施例的神经网络构建方法还包括:根据用户在神经网络设计界面输入的全局信息,确定待构建神经网络的全局参数。具体地,用户可在神经网络设计界面中的全局信息配置区输入全局信息,神经网络构建装置根据用户输入的全局信息,确定待构建神经网络的全局参数。
其中,全局信息可包括神经网络的工程名称、目标神经网络框架的类型及数据类型至少一个。
作为一个示例,目标神经网络框架的类型可包括Theano和Tensorflow;数据类型可包括channel-first和channel-last,也就是说,根据用户在全局信息配置区输入的全局信息,可以确定待构建神经网络的工程名称、目标神经网络框架的类型是Theano还是Tensorflow,数据类型是channel-first还是channel-last。
在实际应用中,在构建完神经网络之后,还可对神经网络进行训练、优化或测试,下面结合图6进行详细说明。
图6为本申请实施例提供的另一种神经网络构建方法的流程示意图。
如图6所示,在上述步骤104之后该神经网络构建方法还可执行:
步骤201,获取用户输入的配置指令。
本实施例中,用户可在神经网络设计界面上输入配置指令。
当对神经网络进行训练时,配置指令可以包括:损失函数、优化器类型、训练模式及训练数据来源、训练轮数、模型收敛评估指标及存储位置中的至少一个。
当对神经网络进行优化或测试时,可在神经网络设计界面上输入对应的配置指令,配置指令包括对应的配置参数。
以图3所示的神经网络设计界面为例,在“相应功能区域”还包括“模型训练”、“模型优化”、“模型测试”等操作按钮。当对神经网络进行训练时,可先选择“相应功能区域”中的“模型训练”操作按钮,之后在打开的配置页面中输入用于训练神经网络的配置指令,比如训练轮数、损失函数等。相似地,在进行神经网络的优化或者测试时,可先选择界面上的“模型优化”或“模型测试”操作按钮,之后在打开的配置页面中输入相应的配置指令。
步骤202,根据配置指令,对构建的神经网络进行训练、优化或测试。
本实施例中,神经网络构建装置可根据配置指令中包括的配置参数,对构建的神经网络进行训练、优化或测试。
本申请实施例的神经网络构建方法,可根据用户输入的配置指令,对构建的神经网络进行训练、优化或测试,从而实现了根据用户输入的配置指令,即可完成对神经网络的训练、优化或测试,简单便捷。
为了实现上述实施例,本申请实施例还提出一种神经网络构建装置。图7为本申请实施例提供的一种神经网络构建装置的结构示意图。
如图7所示,该神经网络构建装置包括:第一确定模块310、第一获取模块320、第二确定模块330、第一生成模块340。
第一确定模块310用于根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素。
第一获取模块320用于根据各目标网络元素的名称,获取各目标网络元素的参数信息。
第二确定模块330用于根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系。
第一生成模块340用于根据各目标网络元素间的层级关系及各目标网络元素的参数信息,生成待构建的神经网络。
在本申请实施例一种可能的实现方式中,如图8所示,在图7所示装置的基础上,该装置还可包括:
第二获取模块350用于在确定待构建的神经网络中的各目标网络元素之前,对目标神经网络框架进行解析处理,获取目标神经网络框架中包含的各网络元素及各网络元素所在包的路径;
第三获取模块360用于根据各网络元素所在包的路径,获取各网络元素的配置文件;
第三确定模块370用于对各网络元素的配置文件进行解析,确定各网络元素的参数信息。
在本申请实施例一种可能的实现方式中,该装置还包括:
第二生成模块,用于根据各目标网络元素间的有向连接线,确定各目标网络元素将的层级关系之前,根据用户在各目标网络元素间执行的操作的方向,生成各目标网络元素间的有向连接线。
在本申请实施例一种可能的实现方式中,该装置还包括:
第四确定模块,用于根据用户在神经网络设计界面输入的全局信息,确定待构建神经网络的全局参数。
在本申请实施例一种可能的实现方式中,全局信息包括以下信息中至少一个信息:神经网络的工程名称、目标神经网络框架的类型及数据类型。
在本申请实施例一种可能的实现方式中,该装置还可包括:
第四获取模块,用于在生成待构建的神经网络之后,获取用户输入的配置指令;
训练优化模块,用于根据配置指令,对构建的神经网络进行训练、优化或测试。
在本申请实施例一种可能的实现方式中,配置指令中包括以下信息中的至少一个:损失函数、优化器类型、训练模式及训练数据来源、训练轮数、模型收敛评估指标及存储位置。
需要说明的是,前述对神经网络构建方法实施例的解释说明,也适用于该实施例的神经网络构建装置,故在此不再赘述。
本申请实施例的神经网络构建装置,通过根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素,获取各目标网络元素的参数信息,根据各目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,根据各目标网络元素间的层级关系及各目标网络元素的参数信息,生成待构建的神经网络。本实施例中,通过根据用户在可视化的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素,根据各目标网络元素的名称,确定各目标网络元素的参数信息,再各根据目标网络元素间的有向连接线,确定各目标网络元素间的层级关系,最终根据各目标网络元素间的层级关系和各目标网络元素的参数信息,生成待构建的神经网络,从而实现了仅根据用户在可视化的神经网络设计界面上选择的目标网络元素和目标网络元素间的有向连接线,即可构建神经网络,无需用户编写代码,降低了开发难度,提高了构建效率,对于有算法基础的用户能够很容易构建出一个可运行能够服务生产的神经网络,工程开发者可以高效的构建神经网络。
本申请实施例还提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如上述实施例所述的神经网络构建方法。
图9示出了适于用来实现本申请实施方式的示例性计算机设备的框图。图9显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图9所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc ReadOnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的方法。
本申请还实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例所述的神经网络构建方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种神经网络构建方法,其特征在于,包括:
根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素;
根据所述各目标网络元素的名称,获取所述各目标网络元素的参数信息;
根据所述各目标网络元素间的有向连接线,确定所述各目标网络元素间的层级关系;
根据所述各目标网络元素间的层级关系及所述各目标网络元素的参数信息,生成所述待构建的神经网络。
2.如权利要求1所述的方法,其特征在于,在所述根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素之前,所述方法还包括:
对目标神经网络框架进行解析处理,获取所述目标神经网络框架中包含的各网络元素及各网络元素所在包的路径;
根据所述各网络元素所在包的路径,获取所述各网络元素的配置文件;
对所述各网络元素的配置文件进行解析,确定所述各网络元素的参数信息。
3.如权利要求1所述的方法,其特征在于,所述根据所述各目标网络元素间的有向连接线,确定所述各目标网络元素间的层级关系之前,所述方法还包括:
根据所述用户在所述各目标网络元素间执行的操作的方向,生成所述各目标网络元素间的有向连接线。
4.如权利要求1-3任一所述的方法,其特征在于,所述方法还包括:
根据所述用户在所述神经网络设计界面输入的全局信息,确定所述待构建神经网络的全局参数。
5.如权利要求4所述的方法,其特征在于,所述全局信息包括以下信息中至少一个信息:神经网络的工程名称、目标神经网络框架的类型及数据类型。
6.如权利要求1-5任一所述的方法,其特征在于,所述生成所述待构建的神经网络之后,所述方法还包括:
获取所述用户输入的配置指令;
根据所述配置指令,对构建的所述神经网络进行训练、优化或测试。
7.如权利要求6所述的方法,其特征在于,所述配置指令中包括以下信息中的至少一个:损失函数、优化器类型、训练模式及训练数据来源、训练轮数、模型收敛评估指标及存储位置。
8.一种神经网络构建装置,其特征在于,包括:
第一确定模块,用于根据用户在预设的神经网络设计界面的操作,确定待构建的神经网络中的各目标网络元素;
第一获取模块,用于根据所述各目标网络元素的名称,获取所述各目标网络元素的参数信息;
第二确定模块,用于根据所述各目标网络元素间的有向连接线,确定所述各目标网络元素间的层级关系;
第一生成模块,用于根据所述各目标网络元素间的层级关系及所述各目标网络元素的参数信息,生成所述待构建的神经网络。
9.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-7中任一所述的神经网络构建方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的神经网络构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810651006.3A CN109063829B (zh) | 2018-06-22 | 2018-06-22 | 神经网络构建方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810651006.3A CN109063829B (zh) | 2018-06-22 | 2018-06-22 | 神经网络构建方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109063829A true CN109063829A (zh) | 2018-12-21 |
CN109063829B CN109063829B (zh) | 2021-03-16 |
Family
ID=64820821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810651006.3A Active CN109063829B (zh) | 2018-06-22 | 2018-06-22 | 神经网络构建方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109063829B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754084A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 网络结构的处理方法、装置及相关产品 |
CN109754072A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 网络离线模型的处理方法、人工智能处理装置及相关产品 |
CN110046706A (zh) * | 2019-04-18 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 模型生成方法、装置及服务器 |
CN111178512A (zh) * | 2019-12-31 | 2020-05-19 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 器件运行神经网络的测试方法及装置 |
CN111338816A (zh) * | 2020-02-18 | 2020-06-26 | 深圳鲲云信息科技有限公司 | 基于神经网络的指令交互方法、系统、设备及存储介质 |
CN111427567A (zh) * | 2020-03-20 | 2020-07-17 | 杭州涂鸦信息技术有限公司 | 一种智能产品快速生成方法及其系统和设备 |
CN113848821A (zh) * | 2020-10-27 | 2021-12-28 | 上海飞机制造有限公司 | 基于工业神经网络的质量检测方法、装置、设备及介质 |
WO2023071793A1 (zh) * | 2021-10-29 | 2023-05-04 | 华为技术有限公司 | 神经网络的构建方法和装置 |
CN116261729A (zh) * | 2020-07-30 | 2023-06-13 | 华为技术有限公司 | 一种神经网络模型构建方法及其设备 |
WO2023116416A1 (zh) * | 2021-12-24 | 2023-06-29 | 中兴通讯股份有限公司 | 神经网络的生成、指示信息的发送方法,通信节点及介质 |
CN116977525A (zh) * | 2023-07-31 | 2023-10-31 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
WO2024046460A1 (zh) * | 2022-09-02 | 2024-03-07 | 深圳忆海原识科技有限公司 | 端口模型、构建方法、系统及神经网络构建平台 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358546A1 (en) * | 2013-05-28 | 2014-12-04 | International Business Machines Corporation | Hybrid predictive model for enhancing prosodic expressiveness |
CN105303235A (zh) * | 2015-10-26 | 2016-02-03 | 清华大学 | 大规模分层神经网络的构建方法 |
CN107704924A (zh) * | 2016-07-27 | 2018-02-16 | 中国科学院自动化研究所 | 同步自适应时空特征表达学习模型的构建方法及相关方法 |
-
2018
- 2018-06-22 CN CN201810651006.3A patent/CN109063829B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358546A1 (en) * | 2013-05-28 | 2014-12-04 | International Business Machines Corporation | Hybrid predictive model for enhancing prosodic expressiveness |
CN105303235A (zh) * | 2015-10-26 | 2016-02-03 | 清华大学 | 大规模分层神经网络的构建方法 |
CN107704924A (zh) * | 2016-07-27 | 2018-02-16 | 中国科学院自动化研究所 | 同步自适应时空特征表达学习模型的构建方法及相关方法 |
Non-Patent Citations (1)
Title |
---|
SOLOMON1558: "Caffe学习系列-工具篇:神经网络模型结构可视化", 《HTTPS://BLOG.CSDN.NET/SOLOMON1558/ARTICLE/DETAILS/53144606》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11699073B2 (en) | 2018-12-29 | 2023-07-11 | Cambricon Technologies Corporation Limited | Network off-line model processing method, artificial intelligence processing device and related products |
US11544567B2 (en) | 2018-12-29 | 2023-01-03 | Cambricon Technologies Corporation Limited | Network structure processing method and device and related products |
CN109754084A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 网络结构的处理方法、装置及相关产品 |
CN109754072A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 网络离线模型的处理方法、人工智能处理装置及相关产品 |
CN110046706A (zh) * | 2019-04-18 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 模型生成方法、装置及服务器 |
CN110046706B (zh) * | 2019-04-18 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 模型生成方法、装置及服务器 |
CN111178512A (zh) * | 2019-12-31 | 2020-05-19 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 器件运行神经网络的测试方法及装置 |
CN111338816A (zh) * | 2020-02-18 | 2020-06-26 | 深圳鲲云信息科技有限公司 | 基于神经网络的指令交互方法、系统、设备及存储介质 |
CN111427567A (zh) * | 2020-03-20 | 2020-07-17 | 杭州涂鸦信息技术有限公司 | 一种智能产品快速生成方法及其系统和设备 |
CN111427567B (zh) * | 2020-03-20 | 2023-08-18 | 杭州涂鸦信息技术有限公司 | 一种智能产品快速生成方法及其系统和设备 |
CN116261729A (zh) * | 2020-07-30 | 2023-06-13 | 华为技术有限公司 | 一种神经网络模型构建方法及其设备 |
CN113848821A (zh) * | 2020-10-27 | 2021-12-28 | 上海飞机制造有限公司 | 基于工业神经网络的质量检测方法、装置、设备及介质 |
WO2023071793A1 (zh) * | 2021-10-29 | 2023-05-04 | 华为技术有限公司 | 神经网络的构建方法和装置 |
WO2023116416A1 (zh) * | 2021-12-24 | 2023-06-29 | 中兴通讯股份有限公司 | 神经网络的生成、指示信息的发送方法,通信节点及介质 |
WO2024046460A1 (zh) * | 2022-09-02 | 2024-03-07 | 深圳忆海原识科技有限公司 | 端口模型、构建方法、系统及神经网络构建平台 |
CN116977525A (zh) * | 2023-07-31 | 2023-10-31 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
CN116977525B (zh) * | 2023-07-31 | 2024-03-01 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109063829B (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063829A (zh) | 神经网络构建方法、装置、计算机设备和存储介质 | |
CN108073519A (zh) | 测试用例生成方法和装置 | |
Zhu et al. | A survey on automatic infographics and visualization recommendations | |
Wilkinson | The grammar of graphics | |
Cato | User-centered web design | |
Otey et al. | Revisiting the design intent concept in the context of mechanical CAD education | |
CN110263732A (zh) | 多尺度目标检测方法及装置 | |
CN110737778A (zh) | 基于知识图谱和Transformer的专利推荐方法 | |
US20170024308A1 (en) | System and method for testing data representation for different mobile devices | |
CN106874066A (zh) | 一种虚拟机迁移方法及装置、电子设备 | |
CN110197658A (zh) | 语音处理方法、装置以及电子设备 | |
CN108734165A (zh) | 基于人工智能的书法质量检测方法、装置和电子设备 | |
CN108984679A (zh) | 对话生成模型的训练方法和装置 | |
CN109242831A (zh) | 图像质量检测方法、装置、计算机设备和存储介质 | |
CN109740140A (zh) | 页面排版方法、装置和计算机设备 | |
CN110427131A (zh) | 基于按压的动画显示方法和装置 | |
CN107291950A (zh) | 表单数据更新方法、装置及计算机设备 | |
CN110008476A (zh) | 语义解析方法、装置、设备及存储介质 | |
CN113010645A (zh) | 文本生成方法、装置、设备及存储介质 | |
US20230351655A1 (en) | Automatic design-creating artificial neural network device and method, using ux-bits | |
CN112464279A (zh) | 基于业务驱动的表单设计实现方法和系统 | |
Liu | Artificial intelligence interactive design system based on digital multimedia technology | |
CN105868447A (zh) | 基于双层网络的用户通讯行为分析及模型仿真系统 | |
CN107704549A (zh) | 语音搜索方法、装置及计算机设备 | |
CN109976534A (zh) | 学习场景的生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: Floor 36, Zheshang Building, No. 718 Jianshe Avenue, Jiang'an District, Wuhan, Hubei 430019 Patentee after: TK.CN INSURANCE Co.,Ltd. Patentee after: TAIKANG INSURANCE GROUP Co.,Ltd. Address before: Taikang Life Building, 156 fuxingmennei street, Xicheng District, Beijing 100031 Patentee before: TAIKANG INSURANCE GROUP Co.,Ltd. Patentee before: TK.CN INSURANCE Co.,Ltd. |