CN110689124A - 一种构建神经网络模型的方法及系统 - Google Patents
一种构建神经网络模型的方法及系统 Download PDFInfo
- Publication number
- CN110689124A CN110689124A CN201910943429.7A CN201910943429A CN110689124A CN 110689124 A CN110689124 A CN 110689124A CN 201910943429 A CN201910943429 A CN 201910943429A CN 110689124 A CN110689124 A CN 110689124A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- model
- training
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了一种构建神经网络模型的方法及系统,其中该方法包括:显示包括至少两个组件的用户界面;接收用户在用户界面内所执行的第一输入;响应于第一输入,在用户界面内构建第一神经网络模型。本发明可以降低神经网络的使用门槛,方便用户使用,使不会写代码的用户也可以构建、训练、使用神经网络模型,且可以使用户对神经网络有更直观的认识,加深理解,方便用户快速掌握。
Description
技术领域
本发明涉及大数据处理领域,尤其涉及一种构建神经网络模型的方法及系统。
背景技术
随着深度学习的兴起,神经网络具有对于原始数据不需要特征工程,充分训练后神经网络模型预测时间短,预测准确率高的优点,其在人工智能领域的应用越来越广泛,尤其在复杂问题领域,如NLP(Natural Language Processing,自然语言处理),CV(ComputerVision,计算机视觉),自动驾驶,人脸识别等场景有着良好的表现。但是对比基于规则的传统机器学习算法,神经网络算法直接从原始数据中获取“知识”,导致模型训练时间较长,模型可解释性相对较差。
现有数据分析系统中,都需要相对复杂的编码才能构建神经网络,在构建神经网络时还需要调整复杂的参数,各个领域的算法工程人员有一定专业要求。
因此,现有的神经网络模型通常需要通过编码的方式来构建,对算法工程人员的专业要求高。
发明内容
本发明实施例提供一种构建神经网络模型的方法及系统,以解决现有技术中通过编码的方式来构建神经网络模型,对算法工程人员的专业要求高的问题。
本发明实施例提供一种构建神经网络模型的方法,包括:
显示包括至少两个组件的用户界面;
接收用户在所述用户界面内所执行的第一输入;
响应于所述第一输入,在所述用户界面内构建第一神经网络模型。
进一步地,在接收用户在所述用户界面内所执行的第一输入之前,还包括:
接收用户对至少两个组件的选择操作;
响应于所述选择操作,确定所述至少两个组件为目标组件,并在所述用户界面的指定位置内显示所述目标组件。
进一步地,所述接收用户在所述用户界面内所执行的第一输入的步骤,包括:接收用户对所述目标组件的第一触控操作;
所述响应于所述第一输入,在所述用户界面内构建第一神经网络模型的步骤,包括:
响应于所述第一触控操作,获取所述至少两个组件之间的连接关系以及所述至少两个组件的组件参数;
根据所述连接关系以及所述至少两个组件的组件参数,生成所述第一神经网络模型。
进一步地,所述用户界面为画布模式下的编辑界面,在所述用户界面内构建第一神经网络模型后,还包括:
生成与所述第一神经网络模型对应的第一神经网络模型代码;
在代码模式的编辑界面内显示所述第一神经网络模型代码。
进一步地,所述在所述用户界面内构建第一神经网络模型之后,所述方法还包括:
接收用户在所述用户界面内所执行的第二输入,所述第二输入为对所述第一神经网络模型的编辑操作;
响应于所述第二输入,更新所述第一神经网络模型以及与所述第一神经网络模型对应的第一神经网络模型代码。
进一步地,所述目标组件包括已完成构建的第二神经网络模型,所述在所述用户界面内构建第一神经网络模型的步骤,包括:
基于最新版本的所述第二神经网络模型,构建所述第一神经网络模型;
或者,
基于预设版本的所述第二神经网络模型,构建所述第一神经网络模型。
进一步地,所述在所述用户界面内构建第一神经网络模型后,还包括:
通过动画方式或者立体方式展示所述第一神经网络模型。
进一步地,所述在所述用户界面内构建第一神经网络模型之后,还包括:
接收用户在所述用户界面内的第三输入,所述第三输入为对所述第一神经网络模型的模型元信息的查询操作;
响应于所述第三输入,通过图表方式展示表征所述第一神经网络模型特征的模型元信息。
进一步地,所述在所述用户界面内构建第一神经网络模型之后,还包括:
对所述第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
进一步地,所述方法还包括:
在对所述第一神经网络模型进行训练的同时,通过图表展示各训练周期内所述第一神经网络模型的训练指标。
进一步地,在对所述第一神经网络模型进行可视化模型训练之前,还包括:
获取分配的训练资源;
对所述训练资源进行可视化展示。
进一步地,所述获取分配的训练资源的步骤,包括:
在所述用户界面展示训练资源分配区域;
根据用户在所述训练资源分配区域内的第四输入,获取所述训练资源。
进一步地,所述对所述第一神经网络模型进行可视化模型训练之前,还包括:
在所述用户界面展示模型超参数输入区域;
根据用户在所述模型超参数输入区域内的第五输入,获取用户所输入的至少一个模型超参数;
在获取所述模型超参数后,根据所述模型超参数对所述第一神经网络模型进行可视化模型训练。
进一步地,所述获取目标神经网络模型之后,还包括:
生成与所述目标神经网络模型所对应的评估指标;
通过图表形式对所述评估指标进行展示。
进一步地,所述获取目标神经网络模型之后,还包括:
将所述目标神经网络模型存储至模型仓库;
更新所述模型仓库内的至少一个统计视图,其中各统计视图按照不同的统计规则生成。
进一步地,所述获取目标神经网络模型之后,还包括:
基于导出操作,将所述目标神经网络模型通过可视化输出方式进行导出。
进一步地,所述方法还包括:
基于导入操作,导入与所述导入操作对应的第三神经网络模型。
进一步地,所述基于导入操作,导入与所述导入操作对应的第三神经网络模型的步骤,包括:
对所述第三神经网络模型的模型文件进行解析,得到目标结构信息;
根据所述目标结构信息,对所述第三神经网络模型进行模型训练,得到训练后的第三神经网络模型;
导入所述训练后的第三神经网络模型。
进一步地,所述根据所述目标结构信息,对所述第三神经网络模型进行模型训练,得到训练后的第三神经网络模型,包括:
对部分所述目标结构信息进行冻结;
对未冻结的所述目标结构信息所对应的网络层进行训练,得到目标训练结果;
根据冻结的部分所述目标结构信息对应的网络层和所述目标训练结果,得到训练后的第三神经网络模型。
本发明实施例还提供一种构建神经网络模型的系统,包括:
第一显示模块,用于显示包括至少两个组件的用户界面;
第一接收模块,用于接收用户在所述用户界面内所执行的第一输入;
构建模块,用于响应于所述第一输入,在所述用户界面内构建第一神经网络模型。
进一步地,所述系统还包括:
第二接收模块,用于在所述第一接收模块接收用户在所述用户界面内所执行的第一输入之前,接收用户对至少两个组件的选择操作;
第二显示模块,用于响应于所述选择操作,确定所述至少两个组件为目标组件,并在所述用户界面的指定位置内显示所述目标组件。
进一步地,所述第一接收模块进一步用于:接收用户对所述目标组件的第一触控操作;
所述构建模块包括:
处理子模块,用于响应于所述第一触控操作,获取所述至少两个组件之间的连接关系以及所述至少两个组件的组件参数;
生成子模块,用于根据所述连接关系以及所述至少两个组件的组件参数,生成所述第一神经网络模型。
进一步地,所述用户界面为画布模式下的编辑界面,所述系统还包括:
第一生成模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型后,生成与所述第一神经网络模型对应的第一神经网络模型代码;
第三显示模块,用于在代码模式的编辑界面内显示所述第一神经网络模型代码。
进一步地,所述系统还包括:
第三接收模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型之后,接收用户在所述用户界面内所执行的第二输入,所述第二输入为对所述第一神经网络模型的编辑操作;
第一更新模块,用于响应于所述第二输入,更新所述第一神经网络模型以及与所述第一神经网络模型对应的第一神经网络模型代码。
进一步地,所述目标组件包括已完成构建的第二神经网络模型,所述构建模块进一步用于:
基于最新版本的所述第二神经网络模型,构建所述第一神经网络模型;
或者,
基于预设版本的所述第二神经网络模型,构建所述第一神经网络模型。
进一步地,所述系统还包括:
第一展示模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型后,通过动画方式或者立体方式展示所述第一神经网络模型。
进一步地,所述系统还包括:
第四接收模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型之后,接收用户在所述用户界面内的第三输入,所述第三输入为对所述第一神经网络模型的模型元信息的查询操作;
第二展示模块,用于响应于所述第三输入,通过图表方式展示表征所述第一神经网络模型特征的模型元信息。
进一步地,所述系统还包括:
第一获取模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型之后,对所述第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
进一步地,所述系统还包括:
第三展示模块,用于在对所述第一神经网络模型进行训练的同时,通过图表展示各训练周期内所述第一神经网络模型的训练指标。
进一步地,所述系统还包括:
第二获取模块,用于在所述第一获取模块对所述第一神经网络模型进行可视化模型训练之前,获取分配的训练资源;
第四展示模块,用于对所述训练资源进行可视化展示。
进一步地,所述第二获取模块进一步用于:
在所述用户界面展示训练资源分配区域;
根据用户在所述训练资源分配区域内的第四输入,获取所述训练资源。
进一步地,所述系统还包括:
第五展示模块,用于在所述第一获取模块对所述第一神经网络模型进行可视化模型训练之前,在所述用户界面展示模型超参数输入区域;
第三获取模块,用于根据用户在所述模型超参数输入区域内的第五输入,获取用户所输入的至少一个模型超参数;
训练模块,用于在获取所述模型超参数后,根据所述模型超参数对所述第一神经网络模型进行可视化模型训练。
进一步地,所述系统还包括:
第二生成模块,用于在所述第一获取模块获取目标神经网络模型之后,生成与所述目标神经网络模型所对应的评估指标;
第六展示模块,用于通过图表形式对所述评估指标进行展示。
进一步地,所述系统还包括:
存储模块,用于在所述第一获取模块获取目标神经网络模型之后,将所述目标神经网络模型存储至模型仓库;
第二更新模块,用于更新所述模型仓库内的至少一个统计视图,其中各统计视图按照不同的统计规则生成。
进一步地,所述系统还包括:
导出模块,用于在所述第一获取模块获取目标神经网络模型之后,基于导出操作,将所述目标神经网络模型通过可视化输出方式进行导出。
进一步地,所述系统还包括:
导入模块,基于导入操作,导入与所述导入操作对应的第三神经网络模型。
进一步地,所述导入模块包括:
解析子模块,用于对所述第三神经网络模型的模型文件进行解析,得到目标结构信息;
训练子模块,用于根据所述目标结构信息,对所述第三神经网络模型进行模型训练,得到训练后的第三神经网络模型;
导入子模块,用于导入所述训练后的第三神经网络模型。
进一步地,所述训练子模块进一步用于:
对部分所述目标结构信息进行冻结;
对未冻结的所述目标结构信息所对应的网络层进行训练,得到目标训练结果;
根据冻结的部分所述目标结构信息对应的网络层和所述目标训练结果,得到训练后的第三神经网络模型。
本发明实施例提供了一种构建神经网络模型的系统,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述任一项所述的构建神经网络模型的方法。
本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的构建神经网络模型的方法。
本发明技术方案,通过显示包括至少两个组件的用户界面,根据用户在用户界面内所执行的第一输入,构建第一神经网络模型,实现通过可视化的方式构建第一神经网络模型,降低神经网络的使用门槛,方便用户使用,使不会写代码的用户也可以构建、训练、使用神经网络模型,且可以使用户对神经网络有更直观的认识,加深理解,方便用户快速掌握。
附图说明
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1表示本发明实施例构建神经网络模型的方法示意图;
图2表示本发明实施例用户界面示意图之一;
图3表示本发明实施例用户界面示意图之二;
图4表示本发明实施例模型元信息可视化示意图;
图5表示本发明实施例模型训练可视化示意图;
图6表示本发明实施例模型超参数的示意图;
图7a表示本发明实施例ROC曲线示意图;
图7b表示本发明实施例模型评估指标列表;
图8表示本发明实施例根据模型类型和应用场景所生成的统计雷达图;
图9表示本发明实施例构建神经网络模型的系统示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种构建神经网络模型的方法。
其中,本发明提供的构建神经网络模型的方法可应用于数据分析系统中。
其中,为实现底层细节封装,获得更好兼容性,本发明优选的是底层使用Keras、TensorFlow、Torch和/或PyTorch框架,在此基础上实现神经网络模型的整个生命周期各个阶段的可视化。优选的,本发明实施例中涉及的神经网络模型均为Keras和/或TensorFlow支持的模型,具体的可以为Keras的H5格式的模型文件对应的模型和/或TensorFlow的CheckPoint格式的模型文件对应的模型和/或GraphDef格式的模型文件对应的模型。
参见图1所示,本发明实施例的构建神经网络模型的方法,包括:
步骤101、显示包括至少两个组件的用户界面。
本发明实施例可以首先显示用户界面,其中用户界面包括至少两个组件。在显示包括至少两个组件的用户界面之后,可以执行步骤102。
步骤102、接收用户在用户界面内所执行的第一输入。
在显示包括至少两个组件的用户界面之后,可以接收用户在用户界面内所执行的第一输入,这里的第一输入为用于构建神经网络模型的操作。
步骤103、响应于第一输入,在用户界面内构建第一神经网络模型。
在接收到用户在用户界面内所执行的第一输入之后,根据用户的第一输入,可以在用户界面内构建对应的第一神经网络模型。
上述过程,通过显示包括至少两个组件的用户界面,根据用户在用户界面内所执行的第一输入,构建第一神经网络模型,实现通过可视化的方式构建第一神经网络模型,降低了神经网络的使用门槛,方便用户使用,可以使不会写代码的用户也能够构建、训练、使用神经网络模型,且可以使用户对神经网络有更直观的认识,加深理解,方便用户快速掌握。
在本发明实施例中,在接收用户在用户界面内所执行的第一输入之前,还包括:接收用户对至少两个组件的选择操作;响应于选择操作,确定至少两个组件为目标组件,并在用户界面的指定位置内显示目标组件。
在用户界面包括有至少两个组件,用户在执行第一输入之前,可以对至少两个组件进行选择操作,根据用户所执行的选择操作,可以将用户选择的至少两个组件确定为目标组件,然后将所确定的目标组件在用户界面的指定位置进行显示。
其中,这里的选择操作包括但不限于:拖动操作、选中操作等,如通过拖动操作,将组件拖拽到用户界面中的指定位置(画布)进行显示;或者,通过单击、双击、快捷键等方式选中某些组件后,触发用户界面中的指定位置(画布)显示该选中的组件。
在确定出目标组件后,接收用户在用户界面内所执行的第一输入的步骤,包括:接收用户对目标组件的第一触控操作;相应的,响应于第一输入,在用户界面内构建第一神经网络模型的步骤,包括:响应于第一触控操作,获取至少两个组件之间的连接关系以及至少两个组件的组件参数;根据连接关系以及至少两个组件的组件参数,生成第一神经网络模型。
接收用户的第一输入即为接收用户对目标组件的第一触控操作。根据用户的第一触控操作,确定目标组件所包括的至少两个组件之间的连接关系,根据所确定的连接关系对至少两个组件采用连接线进行连接。
其中,连接线能够反映连接线两端的组件的连接关系;连接线的起始端连接一组件的输出端,连接线的终端具有箭头,其连接另一组件的输入端。多个组件使用连接线连接用于确定神经网络模型的结构。
在一可行的实施例中,根据用户的第一触控操作,获取至少两个组件之间的连接关系,根据所确定的连接关系对至少两个组件采用连接线进行连接时,可以基于用户对至少两个组件的第一触控操作的操作轨迹,确定至少两个组件之间的连接关系。如用户对组件A以及组件B的第一触控操作,为在组件A的输出端单击并拖动连接线至组件B的输入端,从而确定组件A与组件B的连接关系为组件A连接组件B。
其中连接线起始端的类型和终止端的类型必须保持一致,即保证连接线起始端输出的数据格式与终止端输入的数据格式相同,用以保证模型的正确性。
进一步的,在确定至少两个组件为目标组件后,还需获取至少两个组件的组件参数。在一可行的实施例中,响应于第一触控操作,获取至少两个组件的组件参数的过程包括:根据用户对目标组件的第一触控操作,显示组件参数配置界面,获取用户在组件参数配置界面所执行的操作,基于用户的操作,确定至少两个组件的组件参数。
例如,接收用户对用户界面内的目标组件的点击操作,根据点击操作在预设区域显示组件参数配置框,其中组件参数配置框中包括每个组件对应的配置框,根据用户在各配置框中的操作,确定各组件的组件参数。
在确定至少两个组件之间的连接关系并获取至少两个组件的组件参数后,可以根据连接关系以及至少两个组件对应的组件参数,生成第一神经网络模型。
其中各个组件在用户界面的对应区域以图形化的方式显示,用户可以用鼠标选择并拖动各个图形化组件至用户界面的指定位置(画布),且在用户选中组件执行拖动操作时,可以调整组件间的相对距离和在画布内的位置。
下面通过图2对编辑界面进行介绍,编辑界面对应于画布模式,代码模式以及元信息模式。在画布模式下,在编辑界面的左侧显示有神经网络模型的多个组件,这里的组件包括但不限于Dense(全连接层),Activation(激活层),Dropout(丢弃层),Flatten(一维化层),Reshape(重塑层),Permute(重排层),RepeatVecor(输入重复层),Lambda(自定义层),ActivityRegularizer(正则化层),Masking(序列值屏蔽层),BatchNormalization(规范化层),UpSampling2D(二维上采样层),Conv2D(二维卷积层),Conv2Dtranspose(二维卷积逆变换层),LeakyReLU(神经元激活改进层),ReLU,MaxPooling2D(二维最大池化层),LSTM(长短期记忆模型层)等,图2中对应的画布模式下仅仅列出几项组件作为代表。中间区域为神经网络模型的画布,右侧部分为对应组件的组件参数,图2中所显示的是二维卷积的组件参数。
在本发明一实施例中,用户界面为画布模式下的编辑界面,在用户界面内构建第一神经网络模型后,还包括:生成与第一神经网络模型对应的第一神经网络模型代码;在代码模式的编辑界面内显示第一神经网络模型代码。
在第一神经网络模型构建完毕,点击生成模型之后,可以根据该模型中的每个组件自动生成的索引、组件的组件参数以及组件之间的连接关系,生成对应的第一神经网络代码,并将所生成的第一神经网络代码在代码模式下进行显示,可以保证代码模式的编辑界面与画布模式的编辑界面的信息同步。
其中,第一神经网络代码对应于代码视图,第一神经网络模型对应于可视化视图(拓扑视图),代码视图和可视化视图可以实现一键切换,如点击视图切换按键,可以在拓扑视图和代码视图中来回切换,两种视图是同一个神经网络模型的两种展示形式。
当第一神经网络模型构建完成生成对应的拓扑快照后,后台会自动根据拓扑快照确定各个组件之间的连接关系,并获取各个组件的组件参数,根据组件、连接关系以及组件参数生成对应的第一神经网络模型代码。相应的,在更新代码视图中的代码并生成新快照后,拓扑视图的组件也会对应更新,具体为根据更新后的代码对相应的组件(包括组件参数)以及组件间的连接关系进行更新,进而实现拓扑视图的更新。
在本发明一实施例中,在用户界面内构建第一神经网络模型之后,该方法还包括:
接收用户在用户界面内所执行的第二输入,第二输入为对第一神经网络模型的编辑操作;响应于第二输入,更新第一神经网络模型以及与第一神经网络模型对应的第一神经网络模型代码。
在构建第一神经网络模型之后,还可以接收用户在用户界面内所执行的第二输入,这里的第二输入为对第一神经网络模型的编辑操作,包括但不限于下述至少之一:新增组件、删除组件、调整组件位置、调整连接关系以及更改组件的组件参数等。例如,在增加新组件时,可以从备选组件中拖拽新组件到画布,调整现有的第一神经网络模型的网络拓扑结构;删除组件时,选中待删除的组件右键删除,然后调整现有的第一神经网络模型的网络拓扑结构;需要调整组件在拓扑中位置时,选中已有连接线删除,并根据需要重新连接各个组件。当需要同时操作多个组件时,可以选中多选功能键,鼠标依次点击需要操作的组件,然后进行需要的操作即可,如复制,移动,删除等。例如,在增加多个新组件时,可以选中多选功能键,通过鼠标依次点击需要增加的多个新组件,然后将接收点击操作的多个新组件同时移动至用户界面中的指定位置(画布)。
在接收到用户所执行的新增组件、删除组件、调整组件位置、调整连接关系或者更改组件的组件参数的操作时,可以根据用户所执行的操作更新第一神经网络模型,在更新第一神经网络模型之后,更新与第一神经网络模型对应的第一神经网络模型代码,以保证代码模式的编辑界面与画布模式的编辑界面的更新同步。
当第一神经网络模型更新之后,且确定更新之后的第一神经网络模型的拓扑结构通过有效性验证的情况下,可以生成对应的拓扑快照,后台会自动根据新的拓扑快照生成更新后第一神经网络模型代码。相应的,更新代码视图中的代码并生成新快照后,拓扑视图的组件也会对应更新。
需要说明的是,对第一神经网络模型的拓扑结构进行有效性验证是为了确保该第一神经网络模型的可用性。在对第一神经网络模型的拓扑结构进行有效性验证时,需要验证第一神经网络模型的拓扑结构的构建规则是否满足预设构建规则,其中预设构建规则至少包括:所有网络组件都在神经网络拓扑结构中,无独自游离的组件,神经网络1个输入对应于1个输出。例如,在画布内拖拽、复制、粘贴、连接等操作完成后,点击检查网络按钮,系统会验证神经网络模型的拓扑结构的有效性,即检查该神经网络模型中的所有网络组件是否都在拓扑结构中,无单独游离网络组件,以及整个神经网络模型有一处输入和一处输出对应;验证通过则可以点击保存按钮保存当前状态,也可以继续根据用户的操作更新神经网络模型并保存。其中每一次保存都对应于神经网络模型的一个版本。
在本发明一实施例中,目标组件包括已完成构建的第二神经网络模型,在用户界面内构建第一神经网络模型的步骤,包括:基于最新版本的第二神经网络模型,构建第一神经网络模型;或者,基于预设版本的第二神经网络模型,构建第一神经网络模型。
目标组件可以包括已经构建完成的第二神经网络模型,在目标组件包括第二神经网络模型的情况下,可以在第二神经网络模型构建的基础上构建第一神经网络模型。具体为,可以在第二神经网络模型的基础上增加其他组件形成新的神经网络模型。其中第二神经网络模型可以是经过或者没有经过训练的模型,且第二神经网络模型是否通过可视化的方式创建,这里不做限定。
本实施例中,通过在第二神经网络模型的基础上构建第一神经网络模型,在一定程度上简化构建神经网络模型的实现过程,提高已有神经网络的使用率。
进一步的,在基于第二神经网络模型构建第一神经网络模型时,为保证构建的第一神经网络模型的可成功使用,在根据已有的第二神经网络模型去构建第一神经网络模型时,需要保证两者的框架类型相同。
第二神经网络模型可以对应于不同的版本,在引用第二神经网络模型构建第一神经网络模型时,还需要确定引用方式以及引用方式所对应的引用版本。具体的:
神经网络模型引用可支持两种模式,联动引用及快照引用。其中,联动引用即为基于最新版本的第二神经网络模型,构建第一神经网络模型,也即,当引用的第二神经网络模型发生变化时,通过引用该第二神经网络模型,构建的第一神经网络模型也随之变化。例如,当网络模型B引用网络模型A,且网络模型A有版本更新时,网络模型B对应的拓扑结构会自动更新。快照引用即为基于预设版本的第二神经网络模型,构建第一神经网络模型,也就是说,在基于预设版本的第二神经网络模型,构建第一神经网络模型时,当引用的第二神经网络模型发生变化时,通过引用该第二神经网络模型,构建的第一神经网络模型不会随之改变。例如,如图3所示,当网络模型B引用网络模型A的第一版本(快照1)时,即使网络模型A后续会进行版本更新,网络模型B中对应的拓扑结构仍是网络模型A的第一版本的拓扑结构。图3中右侧区域可显示对应的引用方式,以及所引用的版本信息。
在本发明一实施例中,在用户界面内构建第一神经网络模型后,还包括:通过动画方式或者立体方式展示所述第一神经网络模型。
在构建第一神经网络模型且确定第一神经网络模型的拓扑结构有效性的情况下,可以通过多种形式查看第一神经网络模型的特征及各部分作用。如动画方式和立体方式(3D方式)。
其中,动画方式包括但不限于下述至少之一:Flash动画方式、GIF动图方式;动画中的动作包括支持箭头指向动作,虚线流动,图像伸缩变换,监控指标曲线生成,指标数值跳动增长、下降等;GIF动图方式为:将上述动作转换为一个gif格式图片。3D方式:通过加载3D处理引擎,可支持神经网络模型缩放,旋转,视角追踪,对象标记等。用以表示训练数据在各个网层的流动方向,数据处理前后变化,模型参数收敛,各层直观特性等。
在本发明一实施例中,在用户界面内构建第一神经网络模型之后,还包括:
接收用户在用户界面内的第三输入,第三输入为对第一神经网络模型的模型元信息的查询操作;响应于第三输入,通过图表方式展示表征第一神经网络模型特征的模型元信息。
在第一神经网络模型构建完成的情况下,通过对模型构建页面的模型元信息按键执行第三输入,可查看该模型的模型元信息,模型元信息包括但不限于下述至少之一:模型的结构信息和模型的指标信息;其中模型的结构信息包括但不限于下述至少之一:神经网络模型的组件总数、神经网络模型的核心网络层的数量、神经网络模型的全连接层的数量以及神经网络模型的卷积核的大小;模型的指标信息包括但不限于下述至少之一:神经网络模型的模型复杂度、神经网络模型的模型预测速度、影响神经网络模型的模型计算量以及神经网络模型的内存使用大小。模型的结构信息从某种程度上反映模型的一些指标特性,模型的结构信息与模型的指标信息存在正相关关系,模型的结构信息与模型的指标信息的对应关系如下:神经网络模型的组件总数影响神经网络模型的模型复杂度,神经网络模型的核心网络层的数量影响神经网络模型的模型预测速度,神经网络模型的全连接层的数量影响神经网络模型的模型计算量,神经网络模型的卷积核的大小影响神经网络模型的内存使用大小。
通过以图表方式可视化这些模型元信息,可以使得使用者快速对模型建立直观认识,便于快速迭代调优。
为了便于用户查看模型运行,在一个显示界面内,可以以多种图标方式展示该第一神经网络模型的多种模型元信息。例如,如图4所述,其中图4为模型元信息可视化的示意图,在图4所述的模型元信息可视化的示意图中,以条形图和数值统计图这两种图表形式,展示了模型的组件总数、网络层数、神经元数量、模型复杂度、组件分布以及资源使用情况等。
进一步的,可以智能推荐训练所用资源,在智能推荐之前,提供典型的数据集和选定典型的资源,完成典型训练(摸底训练),让系统自动记录训练元数据,其中训练元数据为典型训练过程中的相关信息。训练元数据包括但不限于下述至少之一:数据集数量,数据集文件大小,使用CPU(central processing unit,中央处理器),内存,GPU(GraphicsProcessing Unit,图形处理器)资源,训练迭代轮次及最终使用时间。其中,训练所用资源以及训练迭代轮次与最终使用时间存在正相关关系。可以根据系统记录的与典型的数据集和选定典型的资源对应的训练元数据,推荐训练当前模型所需的训练所用资源。
例如典型的数据集为待处理的100张人脸图像,其中人脸图像的大小为100*100,典型的资源为2G内存和2核CPU,训练时长为1小时,则训练元数据包括摸底训练所对应的人脸图像的张数,人脸图像的大小,内存大小,CPU大小以及训练时长。当用户开始自定义训练时,分配一定资源后,系统根据典型训练数据、用户当前分配数据以及摸底训练的训练元数据,给出预估训练时间,这里的典型训练数据是一批待处理的数据,如大小为100*100的200张人脸图像,用户当前分配数据为2G内存和2核CPU,则可以根据摸底训练的训练元数据预估训练时长为2小时。其中用户分配资源变化时,则预估训练时间同步变化。
或者,当用户选择特定训练时长时,系统会基于训练元数据以及用户选择的特定训练时长,评估所需的训练资源,并智能推荐训练资源。如用户选择对待处理的大小为100*100的100张人脸图像训练半小时,则可以智能推荐2G内存和4核CPU。
在本发明一实施例中,在用户界面内构建第一神经网络模型之后,还包括:
对第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
进一步的,为了能够在一定程度上避免对无效的神经网络模型的训练,对第一神经网络模型进行可视化模型训练可以在构建第一神经网络模型且确定第一神经网络模型的拓扑结构有效性的情况下执行。
其中这里的可视化模型训练包括对第一神经网络模型进行至少两个轮次的训练,在第一神经网络模型训练到满足预设条件时,获取目标神经网络模型,这里的预设条件为:第一神经网络模型训练到预设的理想参数。
其中,该方法还包括:在对第一神经网络模型进行训练的同时,通过图表展示各训练周期内第一神经网络模型的训练指标。
一般模型训练需要经过多个epoch(轮次)才可以让模型学习到相对理想的参数,达到可用的水平。在第一神经网络模型经过多个轮次的训练达到可用水平时,即可确定获取对应的目标神经网络模型。整个训练过程的各个阶段全部指标可以以图表形式进行显示,例如:
图表的横坐标为训练阶段,每个阶段名称为p/q,p为当前训练epoch,q为该模型训练的总epoch,其中模型训练的总轮次q是一种超参数,可由用户设置,每个阶段横坐标长短代表该epoch使用时间长短。图表的纵坐标可以为为模型精度、处理器使用率、内存占用大小、GPU使用率、磁盘读写速率、存储文件大小、网络使用信息,训练周期对应的时长。在训练过程中,每个epoch的上述指标的变动,能直观的了解各个训练周期内模型训练的综合指标,加深模型训练的理解。
具体的,请参看图5,图5是以纵坐标为模型精度和训练周期对应的时长,横坐标为模型训练轮次为例所对应的模型训练可视化图。通过图表展示各训练周期内模型的训练综合指标,可以直接了解模型训练的瓶颈,便于更好的调整模型,调整训练资源,加速模型迭代训练。
在本发明一实施例中,在对第一神经网络模型进行可视化模型训练之前,还包括:获取分配的训练资源;对训练资源进行可视化展示。
其中,获取分配的训练资源的步骤,包括:在用户界面展示训练资源分配区域;根据用户在训练资源分配区域内的第四输入,获取训练资源。
模型训练资源的分配会直接影响训练速度,甚至可以决定训练是否可以正常运行。其中,内存用来加载模型和训练数据,CPU和GPU用来进行计算,这三种训练资源都可以根据用户需要在训练前通过图形化方式进行资源分配,且可以将推荐值显示做参考。是否将GPU作为训练资源,可以由用户选择决定,若用户选择将GPU作为训练资源,可以在训练资源分配区域,通过图形化方式对内存、CPU和GPU进行资源分配。
其中,在接收用户在训练资源分配区域内的第四输入之前,可以显示系统的推荐值。例如在训练资源分配区域通过滚动条的方式显示系统的推荐值,且内存、CPU和GPU分别对应于一个滚动条,根据用户在各个滚动条内所执行的滑动输入,可以确定对应的资源分配方式,获取训练资源。
需要说明的是,在确定训练资源分配方式,获取分配的训练资源后,可以对训练资源通过图表方式进行可视化展示。在获取分配资源后,可以对第一神经网络模型进行可视化模型训练,其中在训练的过程中,还可以通过图表形式实时更新资源的使用情况。
在本发明一实施例中,对第一神经网络模型进行可视化模型训练之前,还包括:在用户界面展示模型超参数输入区域;根据用户在模型超参数输入区域内的第五输入,获取用户所输入的至少一个模型超参数;在获取模型超参数后,根据模型超参数对第一神经网络模型进行可视化模型训练。
其中,模型超参数输入区域内包括与每个模型超参数对应的图形化输入子区域。
设置模型超参数的目的是提高学习的性能和效果。其中深度学习的模型超参数包括但不限于下述至少之一:迭代次数、隐藏层的层数、每层神经元的个数、学习率等。这些模型超参数可以通过页面的表格,拖动条,数字输入框等多种图形化的方式设置。
例如,以通过拖动条设置迭代次数为例,拖动条与模型超参数的值成正比,拖动条轨道全长L0,迭代次数的设置范围为[1,10],通过滑动拖动条设置迭代次数的值,基于如下计算公式,计算迭代次数的值,公式如下:迭代次数的值=(拖动条当前长度L1/拖动条轨道全长L0)*10。进一步地,滑动拖动条时,用户界面上显示的迭代次数的值会随着拖动条的位置动态变化。
如图6所示,在用户界面展示模型超参数输入区域,其中模型超参数输入区域内包括:学习率、衰减率、衰减周期、迭代次数以及分批大小5个模型超参数,且每个模型超参数对应的图形化输入子区域,接收用户在某一模型超参数对应的图形化输入区域内的输入,可以获取该模型超参数。
在本发明一实施例中,获取目标神经网络模型之后,还包括:生成与目标神经网络模型所对应的评估指标;通过图表形式对评估指标进行展示。
模型训练完毕后,模型评估指标可以以多种图表展示,包括不限于折线图,柱状图,雷达图等。评估指标包括r2(R方值),f1(F1-score,F1分数),neg_mean_squared_log_error(均方绝对误差),recall(召回率),explained_variance(解释方差,该指标用来衡量模型对数据集波动的解释程度),accuracy(准确率),ROC AUC(ROC曲线下面积),neg_mean_squared_error(均方误差),precision(精确率),neg_median_absolute_error(中值绝对维持),log_loss(对数损失函数),Fbeta(Fβ的物理意义就是将准确率和召回率这两个分值合并为一个分值,在合并的过程中,召回率的权重是准确率的β倍),neg_mean_absolute_error(平均绝对误差)等。如图7a和图7b所示,分别表示ROC(receiver operatingcharacteristic curve,接受者操作特性曲线)曲线示意图和模型评估指标列表。
在本发明一实施例中,获取目标神经网络模型之后,还包括:
将目标神经网络模型存储至模型仓库;更新模型仓库内的至少一个统计视图,其中各统计视图按照不同的统计规则生成。
模型训练完毕后自动进入模型仓库,模型仓库是一种对模型进行统一管理的装置。用户可通过仓库管理页面对模型进行规范的管理,通过多种方式查看和评估模型的优劣,筛选完毕后将模型发布为线上服务用于生产环境具体业务应用。
模型仓库用于对训练完毕模型进行归类管理,在仓库概览页面,有多维度统计页面可以自由切换,这里的统计页面即统计规则,包括但不限于按时间统计,按模型类型统计,按某评估指标筛选,按项目统计、按业务属性、按算法类型等。其中,按时间统计指按照模型训练,或模型进入仓库的时间,以小时、天、周、月、年级别的排序及数量统计。按照模型类型统计指按照模型的二分类,多分类,回归等类型进行分类统计。视图类型包括但不限于折线图,饼图,柱状图,堆积/百分比柱状图/条形图,散点图等。如图8所示,其为模型类型在在不同场景应用的雷达图,图8所述的雷达图中每种折线代表一种模型类型,如卷积神经网络模型、深度神经网络模型、循环神经网络模型、生成式对抗网络模型以及长短期记忆网络模型;雷达图的每个顶角代表一个应用场景,如图像分类、语音识别、目标检测、文本分类以及图像分割的应用场景下;雷达图中的某一折线越靠近某一角,表明该折线代表的模型类型在该应用场景下的应用效果越好。如图8所示,语音识别应用场景中,代表深度神经网络模型的折线相比于其他4种神经网络模型更靠近语音识别场景对应的顶角,也就是说,深度神经网络模型在语音识别应用场景下的应用效果优于其他4种神经网络模型在该语音识别应用场景下的应用效果。同理,由图8可知,图像分类应用场景中应用效果最好的是卷积神经网络模型;目标检测应用场景中应用效果最好的是卷积神经网络;图像分割应用场景中应用效果最好的是卷积神经网络;文本分类应用场景中应用效果最好的是长短期记忆网络。
在本发明一实施例中,获取目标神经网络模型之后,还包括:
基于导出操作,将目标神经网络模型通过可视化输出方式进行导出。
在不同场景下,系统资源、模型要求不尽相同,为方便不同系统间模型成果复用和迁移,使模型有更好的兼容性和更广泛的应用,导入导出功能必不可少。
在将数据分析系统中的模型导出时,除了模型本身数据,上述模型的模型结构、模型超参数、模型训练过程、模型评估指标等模型元信息也支持通过图表进行可视化输出,例如通过静态图片,flash,动态图片等格式进行可视化输出。具体为将上述信息作为模型的附属信息打入模型导出压缩包,例如,默认以静态jpg图片格式输出,用户也可以根据需求选择输出格式。通过将模型的模型结构、模型超参数、模型训练过程、模型评估指标等模型元信息以图表进行可视化输出,方便本身无可视化能力的系统进行该模型可视化信息展示。
在本发明一实施例中,该方法还包括:基于导入操作,导入与导入操作对应的第三神经网络模型。
其中,对于导入数据分析系统的模型,在实现导入时,对导入的模型可以不做任何修改,进行原样导入,或者再导入时做部分优化修改,进行优化导入。
在执行导入操作时,可以区分待导入的第三神经网络模型是否属于数据分析系统导出的模型,若第三神经网络模型属于数据分析系统导出的模型,则此时相当于模型文件原样导入,从该数据分析系统导出的模型再导入该数据分析系统时,由于该数据分析系统能完整的保留相关信息,无需对该模型做特殊处理。
若待导入的第三神经网络模型不属于数据分析系统导出的模型,则此时相当于将第三方系统的模型进行导入,数据分析系统首先进行模型解析,在解析成功的情况下执行导入操作。
即基于导入操作,导入与导入操作对应的第三神经网络模型的步骤,包括:
对第三神经网络模型的模型文件进行解析,得到目标结构信息;根据目标结构信息,对第三神经网络模型进行模型训练,得到训练后的第三神经网络模型;导入训练后的第三神经网络模型。
首先对解析的过程进行阐述:数据分析系统读取模型文件后缀名,检测该模型文件的后缀名是否与本数据分析系统支持框架匹配,如果后缀名和支持的框架匹配,则尝试用对应框架对该模型文件进行解析,从而获取目标结构信息;如果不匹配,则依次尝试用本数据分析系统支持的框架对该模型文件进行解析,如果全部解析失败则提示模型不支持。其中,目标结构信息包括但不限于:获取组件、组件参数以及组件间的连接关系。
即解析的过程包括校验文件格式,在解析成功的情况下,可以获取组件、组件参数以及组件间的连接关系,从而根据组件、组件参数以及组件间的连接关系得到第三神经网络模型,然后对该第三神经网络模型重新训练,并根据训练结果得到对应的模型超参数、模型训练过程、模型评估指标等模型元信息。
在实现模型导入过程中,还可以对导入模型的模型进行优化,即对模型文件进行优化处理。这里需要说明的是,为了便于对模型进行优化,可以基于获取到的目标结构信息,生成对应的模型代码,从而基于该模型代码,通过训练方式,优化该导入模型。
为提高优化处理的效率,减少优化处理时间,在对模型文件进行优化时,采用迁移学习的方式实现优化处理,即对于导入的第三神经网络模型,冻结部分目标结构信息,并重新训练未冻结的目标结构信息所对应的网络层。
进一步的,在对导入模型进行优化时,上述根据目标结构信息,对第三神经网络模型进行模型训练,得到训练后的第三神经网络模型的步骤,包括:对部分目标结构信息进行冻结;对未冻结的目标结构信息所对应的网络层进行训练,得到目标训练结果;根据冻结的部分目目标结构信息对应的网络层和目标训练结果,得到训练后的第三神经网络模型。
下面结合具体应用场景,阐述采用迁移学习的方式实现优化处理的过程。
假设进行优化处理的模型具有M个网络层,其中,第1-N网络层对应的目标结构信息为冻结的部分目标结构信息。其中,M和N均为正整数,且M大于N。采用迁移学习的方式实现优化处理具体方法为:选中从第一层到第N层的连续N个网络层,选择冻结第一层到第N层的连续N个网络层对应目标结构信息,然后,对冻结处理后的模型进行有效性验证,然后,在验证通过的情况下,对该冻结处理后的模型进行训练。训练过程中1-N层的目标结构信息会保持不变,仅改变第N+1层-第M层的网络层对应的目标结构信息。
以上为本发明实施例构建神经网络模型方法的实施过程,通过对模型的创建、编辑进行可视化处理,可以降低神经网络的使用门槛,方便用户使用,使不会写代码的用户也可以构建、训练、使用神经网络模型,且可以使用户对神经网络有更直观认识,加深理解,方便用户快速掌握;通过可视化方式调整模型超参数,可以提高工作效率,通过可视化统计分析模型元信息,便于对模型进行直观理解,通过采用可视化方式进行模型训练,可以了解训练瓶颈,便于更好的调整模型,调整超参数,调整训练资源,加速模型迭代训练,提高效率;通过可视化方式管理模型仓库,可以实现灵活高效管理,通过模型导入导出的可视化,可以有更好的兼容性和扩展性,使得跨系统使用灵活方便,方便不同系统间模型的可视化,增强模型复用性。
本发明实施例还提供一种构建神经网络模型的系统,如图9所示,包括:
第一显示模块10,用于显示包括至少两个组件的用户界面;
第一接收模块20,用于接收用户在用户界面内所执行的第一输入;
构建模块30,用于响应于第一输入,在用户界面内构建第一神经网络模型。
进一步地,该系统还包括:
第二接收模块,用于在第一接收模块接收用户在用户界面内所执行的第一输入之前,接收用户对至少两个组件的选择操作;
第二显示模块,用于响应于选择操作,确定至少两个组件为目标组件,并在用户界面的指定位置内显示目标组件。
进一步地,第一接收模块进一步用于:接收用户对目标组件的第一触控操作;
构建模块包括:
处理子模块,用于响应于第一触控操作,获取至少两个组件之间的连接关系以及至少两个组件的组件参数;
生成子模块,用于根据连接关系以及至少两个组件的组件参数,生成第一神经网络模型。
进一步地,用户界面为画布模式下的编辑界面,系统还包括:
第一生成模块,用于在构建模块在用户界面内构建第一神经网络模型后,生成与第一神经网络模型对应的第一神经网络模型代码;
第三显示模块,用于在代码模式的编辑界面内显示第一神经网络模型代码。
进一步地,系统还包括:
第三接收模块,用于在构建模块在用户界面内构建第一神经网络模型之后,接收用户在用户界面内所执行的第二输入,第二输入为对第一神经网络模型的编辑操作;
第一更新模块,用于响应于第二输入,更新第一神经网络模型以及与第一神经网络模型对应的第一神经网络模型代码。
进一步地,目标组件包括已完成构建的第二神经网络模型,构建模块进一步用于:
基于最新版本的第二神经网络模型,构建第一神经网络模型;
或者,
基于预设版本的第二神经网络模型,构建第一神经网络模型。
进一步地,系统还包括:
第一展示模块,用于在构建模块在用户界面内构建第一神经网络模型后,通过动画方式或者立体方式展示第一神经网络模型。
进一步地,系统还包括:
第四接收模块,用于在构建模块在用户界面内构建第一神经网络模型之后,接收用户在用户界面内的第三输入,第三输入为对第一神经网络模型的模型元信息的查询操作;
第二展示模块,用于响应于第三输入,通过图表方式展示表征第一神经网络模型特征的模型元信息。
进一步地,系统还包括:
第一获取模块,用于在构建模块在用户界面内构建第一神经网络模型之后,对第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
进一步地,系统还包括:
第三展示模块,用于在对第一神经网络模型进行训练的同时,通过图表展示各训练周期内第一神经网络模型的训练指标。
进一步地,系统还包括:
第二获取模块,用于在第一获取模块对第一神经网络模型进行可视化模型训练之前,获取分配的训练资源;
第四展示模块,用于对训练资源进行可视化展示。
进一步地,第二获取模块进一步用于:
在用户界面展示训练资源分配区域;
根据用户在训练资源分配区域内的第四输入,获取训练资源。
进一步地,系统还包括:
第五展示模块,用于在第一获取模块对第一神经网络模型进行可视化模型训练之前,在用户界面展示模型超参数输入区域;
第三获取模块,用于根据用户在模型超参数输入区域内的第五输入,获取用户所输入的至少一个模型超参数;
训练模块,用于在获取模型超参数后,根据模型超参数对第一神经网络模型进行可视化模型训练。
进一步地,系统还包括:
第二生成模块,用于在第一获取模块获取目标神经网络模型之后,生成与目标神经网络模型所对应的评估指标;
第六展示模块,用于通过图表形式对评估指标进行展示。
进一步地,系统还包括:
存储模块,用于在第一获取模块获取目标神经网络模型之后,将目标神经网络模型存储至模型仓库;
第二更新模块,用于更新模型仓库内的至少一个统计视图,其中各统计视图按照不同的统计规则生成。
进一步地,系统还包括:
导出模块,用于在第一获取模块获取目标神经网络模型之后,基于导出操作,将目标神经网络模型通过可视化输出方式进行导出。
进一步地,系统还包括:
导入模块,基于导入操作,导入与导入操作对应的第三神经网络模型。
进一步地,导入模块包括:
解析子模块,用于对第三神经网络模型的模型文件进行解析,得到目标结构信息;
训练子模块,用于根据目标结构信息,对第三神经网络模型进行模型训练,得到训练后的第三神经网络模型;
导入子模块,用于导入训练后的第三神经网络模型。
进一步地,训练子模块进一步用于:
对部分目标结构信息进行冻结;
对未冻结的目标结构信息所对应的网络层进行训练,得到目标训练结果;
根据冻结的部分目标结构信息对应的网络层和目标训练结果,得到训练后的第三神经网络模型。
本发明还提出一种构建神经网络模型的系统,包括处理器、存储器及存储在存储器上并可在处理器上运行的计算机程序,计算机程序被处理器执行时实现上述构建神经网络模型的方法。
本发明还提出一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述构建神经网络模型的方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种构建神经网络模型的方法,其特征在于,包括:
显示包括至少两个组件的用户界面;
接收用户在所述用户界面内所执行的第一输入;
响应于所述第一输入,在所述用户界面内构建第一神经网络模型。
2.根据权利要求1所述的方法,其特征在于,在接收用户在所述用户界面内所执行的第一输入之前,还包括:
接收用户对至少两个组件的选择操作;
响应于所述选择操作,确定所述至少两个组件为目标组件,并在所述用户界面的指定位置内显示所述目标组件。
3.根据权利要求2所述的方法,其特征在于,所述目标组件包括已完成构建的第二神经网络模型,所述在所述用户界面内构建第一神经网络模型的步骤,包括:
基于最新版本的所述第二神经网络模型,构建所述第一神经网络模型;
或者,
基于预设版本的所述第二神经网络模型,构建所述第一神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述在所述用户界面内构建第一神经网络模型之后,还包括:
对所述第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
5.根据权利要求4所述的方法,其特征在于,还包括:
在对所述第一神经网络模型进行训练的同时,通过图表展示各训练周期内所述第一神经网络模型的训练指标。
6.一种构建神经网络模型的系统,其特征在于,包括:
第一显示模块,用于显示包括至少两个组件的用户界面;
第一接收模块,用于接收用户在所述用户界面内所执行的第一输入;
构建模块,用于响应于所述第一输入,在所述用户界面内构建第一神经网络模型。
7.根据权利要求6所述的系统,其特征在于,还包括:
第二接收模块,用于在所述第一接收模块接收用户在所述用户界面内所执行的第一输入之前,接收用户对至少两个组件的选择操作;
第二显示模块,用于响应于所述选择操作,确定所述至少两个组件为目标组件,并在所述用户界面的指定位置内显示所述目标组件。
8.根据权利要求7所述的系统,其特征在于,所述目标组件包括已完成构建的第二神经网络模型,所述构建模块进一步用于:
基于最新版本的所述第二神经网络模型,构建所述第一神经网络模型;
或者,
基于预设版本的所述第二神经网络模型,构建所述第一神经网络模型。
9.根据权利要求6所述的系统,其特征在于,还包括:
第一获取模块,用于在所述构建模块在所述用户界面内构建第一神经网络模型之后,对所述第一神经网络模型进行可视化模型训练,获取目标神经网络模型。
10.根据权利要求9所述的系统,其特征在于,还包括:
第三展示模块,用于在对所述第一神经网络模型进行训练的同时,通过图表展示各训练周期内所述第一神经网络模型的训练指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910943429.7A CN110689124A (zh) | 2019-09-30 | 2019-09-30 | 一种构建神经网络模型的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910943429.7A CN110689124A (zh) | 2019-09-30 | 2019-09-30 | 一种构建神经网络模型的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110689124A true CN110689124A (zh) | 2020-01-14 |
Family
ID=69111431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910943429.7A Pending CN110689124A (zh) | 2019-09-30 | 2019-09-30 | 一种构建神经网络模型的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110689124A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111708520A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 应用构建方法、装置、电子设备及存储介质 |
CN112949614A (zh) * | 2021-04-29 | 2021-06-11 | 成都市威虎科技有限公司 | 一种自动分配候选区域的人脸检测方法及装置和电子设备 |
CN116977525A (zh) * | 2023-07-31 | 2023-10-31 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
WO2024045128A1 (zh) * | 2022-09-01 | 2024-03-07 | 西门子股份公司 | 人工智能模型的展示方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060224533A1 (en) * | 2005-03-14 | 2006-10-05 | Thaler Stephen L | Neural network development and data analysis tool |
CN108319456A (zh) * | 2018-01-29 | 2018-07-24 | 徐磊 | 一种免编程深度学习应用的开发方法 |
CN108537328A (zh) * | 2018-04-13 | 2018-09-14 | 众安信息技术服务有限公司 | 用于可视化构建神经网络的方法 |
-
2019
- 2019-09-30 CN CN201910943429.7A patent/CN110689124A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060224533A1 (en) * | 2005-03-14 | 2006-10-05 | Thaler Stephen L | Neural network development and data analysis tool |
CN108319456A (zh) * | 2018-01-29 | 2018-07-24 | 徐磊 | 一种免编程深度学习应用的开发方法 |
CN108537328A (zh) * | 2018-04-13 | 2018-09-14 | 众安信息技术服务有限公司 | 用于可视化构建神经网络的方法 |
Non-Patent Citations (2)
Title |
---|
企鹅号-运维帮: "TensorEditor:可视化深度网络构建工具,几秒钟就可构建网络结构", 《腾讯云:HTTPS://CLOUD.TENCENT.COM/DEVELOPER/NEWS/231571》 * |
阿里云: "深度学习网络可视化开发", 《HTTPS://WWW.ALIBABACLOUD.COM/HELP/ZH/DOC-DETAIL/126303.HTM?SPM=A2C63.P38356.B99.25.299FCA95DMM8EC》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111708520A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 应用构建方法、装置、电子设备及存储介质 |
CN111708520B (zh) * | 2020-06-16 | 2023-08-29 | 北京百度网讯科技有限公司 | 应用构建方法、装置、电子设备及存储介质 |
CN112949614A (zh) * | 2021-04-29 | 2021-06-11 | 成都市威虎科技有限公司 | 一种自动分配候选区域的人脸检测方法及装置和电子设备 |
WO2024045128A1 (zh) * | 2022-09-01 | 2024-03-07 | 西门子股份公司 | 人工智能模型的展示方法、装置、电子设备及存储介质 |
CN116977525A (zh) * | 2023-07-31 | 2023-10-31 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
CN116977525B (zh) * | 2023-07-31 | 2024-03-01 | 之江实验室 | 一种图像渲染方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689124A (zh) | 一种构建神经网络模型的方法及系统 | |
US20190272553A1 (en) | Predictive Modeling with Entity Representations Computed from Neural Network Models Simultaneously Trained on Multiple Tasks | |
US20200349482A1 (en) | Techniques for workflow analysis and design task optimization | |
CN111125519B (zh) | 用户行为预测方法、装置、电子设备以及存储介质 | |
CN103440199B (zh) | 测试引导方法和装置 | |
CN111723292A (zh) | 基于图神经网络的推荐方法、系统、电子设备及存储介质 | |
CN113420009B (zh) | 一种基于大数据的电磁数据分析装置、系统及方法 | |
US20220245465A1 (en) | Picture searching method and apparatus, electronic device and computer readable storage medium | |
CN114118192A (zh) | 用户预测模型的训练方法、预测方法、装置及存储介质 | |
CN114072809A (zh) | 经由神经架构搜索的小且快速的视频处理网络 | |
CN112817563A (zh) | 目标属性配置信息确定方法、计算机设备和存储介质 | |
US9594756B2 (en) | Automated ranking of contributors to a knowledge base | |
US20200401880A1 (en) | Generating a recommended target audience based on determining a predicted attendance utilizing a machine learning approach | |
CN113821657A (zh) | 基于人工智能的图像处理模型训练方法及图像处理方法 | |
CN116738081A (zh) | 一种前端组件绑定方法、装置及存储介质 | |
CN114444676A (zh) | 模型通道剪枝方法、装置、计算机设备和存储介质 | |
CN114268625B (zh) | 特征选择方法、装置、设备及存储介质 | |
JP7441682B2 (ja) | データ処理システムおよびデータ圧縮方法 | |
CN111414538A (zh) | 基于人工智能的文本推荐方法、装置及电子设备 | |
Wang et al. | Website recommendation with side information aided variational autoencoder | |
CN116089474B (zh) | 自定义编辑模式下的数据缓存方法、装置、设备及介质 | |
CN113342998B (zh) | 一种多媒体资源推荐方法、装置、电子设备及存储介质 | |
CN115062230B (zh) | 数据处理方法、装置、设备、介质和程序产品 | |
US11430219B2 (en) | Explainable video performance prediction | |
CN117493694A (zh) | 应用程序的推荐方法、推荐模型的训练方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200114 |
|
RJ01 | Rejection of invention patent application after publication |