CN110531975A - 一种图形化编程的深度学习模型训练方法 - Google Patents

一种图形化编程的深度学习模型训练方法 Download PDF

Info

Publication number
CN110531975A
CN110531975A CN201910812181.0A CN201910812181A CN110531975A CN 110531975 A CN110531975 A CN 110531975A CN 201910812181 A CN201910812181 A CN 201910812181A CN 110531975 A CN110531975 A CN 110531975A
Authority
CN
China
Prior art keywords
data
model
deep learning
learning model
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910812181.0A
Other languages
English (en)
Inventor
杨涛
梁效宁
刘勇
潘泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Cisco Rudi Network Security Technology Co ltd
Original Assignee
Shaanxi Cisco Rudi Network Security Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Cisco Rudi Network Security Technology Co ltd filed Critical Shaanxi Cisco Rudi Network Security Technology Co ltd
Priority to CN201910812181.0A priority Critical patent/CN110531975A/zh
Publication of CN110531975A publication Critical patent/CN110531975A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种图形化编程的深度学习模型训练方法,包括:从数据库中导出原始数据并对原始数据进行预处理;对整个深度学习模型的参数进行初始化操作;将处理后的数据分批输入整个深度学习模型中进行训练;通过对输入数据的训练完成整个深度学习模型参数的调整;图形化整个训练过程,包括模型结构图形化、参数图形化和loss变化趋势图形化;在训练过程前或结束后,设定验证指标,验证指标为:召回率和准确率;根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。本发明通过界面操作的方式从数据库中导入数据,用户点击相应按钮操作即可完成数据导入及数据预处理,不需要用户精通数据库语言,可操作性强。

Description

一种图形化编程的深度学习模型训练方法
技术领域
本发明属于电子信息技术领域,特别涉及一种图形化编程的深度学习模型训练方法。
背景技术
伴随着计算机领域的蓬勃发展,机器学习的发展越来越迅速,深度学习作为机器学习领域的一个新的研究方向,近年来在学术和工业等领域都取得了突破性的进展。
传统的基本深度学习模型训练过程一般需要经过以下七个步骤:1.数据预处理;2.将数据输入已搭建完成的神经网络中正向传播,得到预测值;3.将预测值以及期待值输入误差函数中得到误差值loss;4.通过反向传播的方式确定梯度向量;5.根据梯度向量调整设置好的参数如偏置、权重等,使loss向趋于0或者收敛的趋势调节;6.重复以上步骤直至设定次数或者loss不再下降。7.通过验证集验证整个模型的训练效果。
传统的深度学习模型训练过程虽然简单方便,但是仍然存在着几个问题。在编程方面,无论是对数据进行预处理还是对已搭建完成的神经网络模型的代码实现,亦或是参数的图形化表示,通常都需要大量代码来实现,这对于未接触编程语言的非专业用户来说是一个难以解决的问题。在可视化方面,传统的深度学习模型训练过程中,非专业用户在没有编程能力的情况下无法完成模型参数的可视化,查看整个网络模型参数变化和判断训练趋势,也无法通过对验证标准的可视化查看模型的训练效果,因此用户难以根据自身需求对深度学习模型进行改进,增加用户上手难度和工作量。
发明内容
本发明的目的在于提供一种图形化编程的深度学习模型训练方法,以解决现有技术中存在的问题。
为实现上述目的,本发明采用如下技术方案:
一种图形化编程的深度学习模型训练方法,包括以下步骤:
步骤1、从数据库中导出原始数据并对原始数据进行预处理;
步骤2、对整个深度学习模型的参数进行初始化操作;
步骤3、将步骤1中处理后的数据分批输入整个深度学习模型中进行训练;
步骤4、通过对输入数据的训练完成整个深度学习模型参数的调整;
步骤5、图形化整个训练过程,包括模型结构图形化、参数图形化和loss变化趋势图形化;
步骤6、在训练过程前或结束后,设定验证指标,验证指标为:召回率和准确率;根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
进一步的,步骤1中,所述原始数据为训练数据和模型数据,将原始数据变为指定大小、指定长度的矩阵队列。
进一步的,步骤1中,通过界面操作的方式从数据库中导出原始数据,通过点击界面上的相应按钮完成原始的数据导出及原始数据预处理。
进一步的,步骤2中,将已搭建或已训练完成的模型数据存储于pkl或hdf5格式的文件中,通过在界面上设定的操作连接对模型数据进行操作,提取对应的模型数据。
进一步的,选择对模型参数进行初始化操作或保留已训练过的模型参数继续训练。
进一步的,步骤3中,确认输入数据后,通过开始、暂停和结束按钮对整个模型数据进行训练以及验证操作。
进一步的,步骤5中,根据在训练的深度学习网络模型将整个模型参数封装为图标并显示在模型界面旁;模型参数为权重、偏置和loss值。
进一步的,步骤5中,通过点击对应模型参数的图标显示当前参数值以及历史变化趋势,以图形化的方式完成整个模型的训练。
进一步的,步骤6中,在训练过程前或者结束之后,设定验证指标,验证指标为召回率和准确率。
进一步的,根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
本发明具有以下优点:
1、本发明通过界面操作的方式从数据库中导入数据,用户通过点击相应按钮操作即可根据自身所需格式完成数据导入以及数据预处理,不需要用户精通数据库语言就可以完成对数据库的操作,上手难度低,可操作性强。
2、为解决传统模型训仅能通过编程语言调用网络模型的问题,本发明可以选择导入已有的或者用户自己搭建的网络模型,并通过用户按键操作的方式完成模型导入、训练以及保存等功能。
3、本发明将各个训练需要的参数等封装为图形框,在模型训练过程中,用户可以根据自身需求在页面上查看每个参数的当前值、历史值以及变化图表,通过对整个模型训练图形化的方式方便用户把握整个模型的训练趋势。
4、本发明可以根据用户操作设定验证标准如召回率、准确值等,在验证过程中通过图表化的形式表示验证标准,方便用户查看训练效果。
5、本发明可以根据用户操作导入历史训练模型的数据并进行再次训练或者验证,并且对已训练完成的模型数据的保存,方便用户下次导入与使用。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明图形化编程的深度学习模型训练方法流程图。
具体实施方式
下面将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
以下详细说明均是示例性的说明,旨在对本发明提供进一步的详细说明。除非另有指明,本发明所采用的所有技术术语与本申请所属领域的一般技术人员的通常理解的含义相同。本发明所使用的术语仅是为了描述具体实施方式,而并非意图限制根据本发明的示例性实施方式。
如图1所示,一种图形化编程的深度学习模型训练方法,包括以下步骤:
步骤1、从数据库中导出原始数据并对原始数据进行预处理;
步骤2、对整个深度学习模型的参数进行初始化操作;
步骤3、将步骤1中处理后的数据分批输入整个深度学习模型中进行训练;
步骤4、通过对输入数据的训练完成整个深度学习模型参数的调整;
步骤5、图形化整个训练过程,包括模型结构图形化、参数图形化和loss变化趋势图形化;
步骤6、在训练过程前或结束后,设定验证指标,验证指标为:召回率和准确率;根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
进一步的,步骤1中,所述原始数据为训练数据和模型数据,将原始数据变为指定大小、指定长度的矩阵队列。
进一步的,步骤1中,通过界面操作的方式从数据库中导出原始数据,通过点击界面上的相应按钮完成原始的数据导出及原始数据预处理。
进一步的,步骤2中,将已搭建或已训练完成的模型数据存储于pkl或hdf5格式的文件中,通过在界面上设定的操作连接对模型数据进行操作,提取对应的模型数据。
进一步的,选择对模型参数进行初始化操作或保留已训练过的模型参数继续训练。
进一步的,步骤3中,确认输入数据后,通过开始、暂停和结束按钮对整个模型数据进行训练以及验证操作。
进一步的,步骤5中,根据在训练的深度学习网络模型将整个模型参数封装为图标并显示在模型界面旁;模型参数为权重、偏置和loss值。
进一步的,步骤5中,通过点击对应模型参数的图标显示当前参数值以及历史变化趋势,以图形化的方式完成整个模型的训练。
进一步的,步骤6中,在训练过程前或者结束之后,设定验证指标,验证指标为召回率和准确率。
进一步的,根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
用户在进行深度学习网络模型训练之前首先将所需的数据上传spl server数据库中,将数据库的导出流程封装成包,用户只需对界面进行操作,根据自身需求确定导出的数据,设置矩阵大小、每次输入队列长度(batchsize)等,根据导出流程的封装包完成数据的预处理工作,将原始数据变为指定大小,长度为batchsize的矩阵队列,完成训练集、测试集的数据预处理和输入工作。
将用户已搭建或者已训练完成的模型数据通过矩阵数据的形式存入指定的文件,格式如pkl、h5中,并在界面上设定操作链接,用户通过界面对模型数据进行操作,根据用户操作按钮选择从指定文件中提取对应的模型数据,并根据用户选择是否对模型参数进行初始化操作或者保留已训练过的参数继续训练。
通过对整个深度学习网络模型训练流程的组合封装,用户在操作确认输入数据之后即可以通过开始、暂停、结束等按钮对整个模型数据进行训练以及验证操作,对当前模型的训练流程进行训练,对整个模型的参数进行调整。
根据在训练的深度学习网络模型将整个模型的参数包括权重(Weight)、偏置(Bias)、loss值等封装为图标并显示在模型界面旁,用户可以根据自身需求通过点击对应参数的图标显示当前参数值以及历史变化趋势,以图形化的方式完成整个模型的训练,方便用户进行更改操作。
在训练过程前或者结束之后,用户可以通过自身需求设定召回率、准确率等验证指标,根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。利用现有的神经网络图形化应用平台也能够实现本发明方法。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。

Claims (10)

1.一种图形化编程的深度学习模型训练方法,其特征在于,包括以下步骤:
步骤1、从数据库中导出原始数据并对原始数据进行预处理;
步骤2、对整个深度学习模型的参数进行初始化操作;
步骤3、将步骤1中处理后的数据分批输入整个深度学习模型中进行训练;
步骤4、通过对输入数据的训练完成整个深度学习模型参数的调整;
步骤5、图形化整个训练过程,包括模型结构图形化、参数图形化和loss变化趋势图形化;
步骤6、在训练过程前或结束后,设定验证指标,验证指标为:召回率和准确率;根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
2.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤1中,所述原始数据为训练数据和模型数据,所述预处理为将原始数据变为指定大小、指定长度的矩阵队列。
3.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤1中,将所需的原始数据上传到spl server数据库中,从spl server数据库中导出原始数据。
4.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤2中,将已搭建或已训练完成的模型数据存储于pkl或hdf5格式的文件中,通过在界面上设定的操作链接对模型数据进行操作,提取对应的模型数据。
5.根据权利要求4所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤2中,选择对模型参数进行初始化操作或保留已训练过的模型参数继续训练。
6.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤3中,确认输入数据后,通过开始、暂停和结束按钮对整个模型数据进行训练以及验证操作。
7.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤5中,根据在训练的深度学习网络模型将整个模型参数封装为图标并显示在模型界面旁;模型参数为权重、偏置和loss值。
8.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤5中,通过点击对应模型参数的图标显示当前参数值以及历史变化趋势,以图形化的方式完成整个模型的训练。
9.根据权利要求1所述的一种图形化编程的深度学习模型训练方法,其特征在于,步骤6中,在训练过程前或者结束之后,设定验证指标,验证指标为召回率和准确率。
10.根据权利要求9所述的一种图形化编程的深度学习模型训练方法,其特征在于,根据验证指标变化自动生成图表,显示指标变化趋势以及与标准值的对比,可视化模型训练效果。
CN201910812181.0A 2019-08-30 2019-08-30 一种图形化编程的深度学习模型训练方法 Pending CN110531975A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910812181.0A CN110531975A (zh) 2019-08-30 2019-08-30 一种图形化编程的深度学习模型训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910812181.0A CN110531975A (zh) 2019-08-30 2019-08-30 一种图形化编程的深度学习模型训练方法

Publications (1)

Publication Number Publication Date
CN110531975A true CN110531975A (zh) 2019-12-03

Family

ID=68665337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910812181.0A Pending CN110531975A (zh) 2019-08-30 2019-08-30 一种图形化编程的深度学习模型训练方法

Country Status (1)

Country Link
CN (1) CN110531975A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199194A (zh) * 2019-12-25 2020-05-26 吉林大学 基于机器视觉和深度学习的汽车智能座舱仪表测试方法
CN111259988A (zh) * 2020-02-24 2020-06-09 深圳前海微众银行股份有限公司 交互式随机森林集成方法、设备及可读存储介质
CN113592017A (zh) * 2021-08-10 2021-11-02 菲特(天津)检测技术有限公司 一种深度学习模型标准化训练方法、管理系统、处理终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120158623A1 (en) * 2010-12-21 2012-06-21 Microsoft Corporation Visualizing machine learning accuracy
CN107169575A (zh) * 2017-06-27 2017-09-15 北京天机数测数据科技有限公司 一种可视化机器学习训练模型的建模系统和方法
CN107203809A (zh) * 2017-04-20 2017-09-26 华中科技大学 一种基于Keras的深度学习自动化调参方法及系统
CN108319456A (zh) * 2018-01-29 2018-07-24 徐磊 一种免编程深度学习应用的开发方法
CN109213482A (zh) * 2018-06-28 2019-01-15 清华大学天津高端装备研究院 基于卷积神经网络的人工智能图形化应用平台及应用方法
CN109241141A (zh) * 2018-09-04 2019-01-18 北京百度网讯科技有限公司 深度学习的训练数据处理方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120158623A1 (en) * 2010-12-21 2012-06-21 Microsoft Corporation Visualizing machine learning accuracy
CN107203809A (zh) * 2017-04-20 2017-09-26 华中科技大学 一种基于Keras的深度学习自动化调参方法及系统
CN107169575A (zh) * 2017-06-27 2017-09-15 北京天机数测数据科技有限公司 一种可视化机器学习训练模型的建模系统和方法
CN108319456A (zh) * 2018-01-29 2018-07-24 徐磊 一种免编程深度学习应用的开发方法
CN109213482A (zh) * 2018-06-28 2019-01-15 清华大学天津高端装备研究院 基于卷积神经网络的人工智能图形化应用平台及应用方法
CN109241141A (zh) * 2018-09-04 2019-01-18 北京百度网讯科技有限公司 深度学习的训练数据处理方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199194A (zh) * 2019-12-25 2020-05-26 吉林大学 基于机器视觉和深度学习的汽车智能座舱仪表测试方法
CN111259988A (zh) * 2020-02-24 2020-06-09 深圳前海微众银行股份有限公司 交互式随机森林集成方法、设备及可读存储介质
CN113592017A (zh) * 2021-08-10 2021-11-02 菲特(天津)检测技术有限公司 一种深度学习模型标准化训练方法、管理系统、处理终端
CN113592017B (zh) * 2021-08-10 2024-05-31 菲特(天津)检测技术有限公司 一种深度学习模型标准化训练方法、管理系统、处理终端

Similar Documents

Publication Publication Date Title
CN110531975A (zh) 一种图形化编程的深度学习模型训练方法
Sastry Problems and paradoxes in a model of punctuated organizational change
CN106030524B (zh) 用于可视化地实现软件代码的方法和设备
CN109977682A (zh) 一种基于深度学习的区块链智能合约漏洞检测方法及装置
CN108241296A (zh) 学习组装动作的机器学习装置以及部件组装系统
CN107908566A (zh) 自动化测试管理方法、装置、终端设备及存储介质
Doltsinis et al. A symbiotic human–machine learning approach for production ramp-up
CN109318225A (zh) 用于控制码垛机器人的方法、装置及系统
CN116127899B (zh) 芯片设计系统、方法、电子设备和存储介质
CN107463879A (zh) 基于深度学习的人体行为识别方法
CN114548384A (zh) 具有抽象资源约束的脉冲神经网络模型构建方法和装置
CN104123401B (zh) Cae智造系统
CN118276913B (zh) 一种基于人工智能的代码补全方法
CN109828750A (zh) 自动配置数据埋点的方法、装置、电子设备及存储介质
CN108961460A (zh) 基于稀疏esgp与多目标优化的故障预测方法及装置
Abbasnia et al. Time-cost trade-off problem in construction project management, based on fuzzy logic
CN117909243A (zh) 大模型智能体驱动的航空文档分析与测试用例生成系统
CN110533533A (zh) 一种场外交易智能合约的形式验证方法
CN109525307A (zh) 一种基于物理断点实现光纤二进制编码的方法及系统
CN111612152A (zh) 一种量子计算机的模拟控制方法、系统及相关组件
CN110751548A (zh) 一种应用于智慧银行的用户贷款风险预测方法
CN110780660A (zh) 一种基于生产状态的烟草生产工业控制系统故障诊断方法
Baisch et al. Comparison of conventional approaches and soft-computing approaches for software quality prediction
CN114580328A (zh) 一种积木式电子设计自动化系统
JP7332190B2 (ja) 機械学習基盤情報の提供方法および装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191203

RJ01 Rejection of invention patent application after publication