CN114764296A - 机器学习模型训练方法、装置、电子设备及存储介质 - Google Patents

机器学习模型训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114764296A
CN114764296A CN202110039340.5A CN202110039340A CN114764296A CN 114764296 A CN114764296 A CN 114764296A CN 202110039340 A CN202110039340 A CN 202110039340A CN 114764296 A CN114764296 A CN 114764296A
Authority
CN
China
Prior art keywords
machine learning
learning model
model training
graphical component
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110039340.5A
Other languages
English (en)
Inventor
康业猛
乔志强
高达申
李涛
王界涵
刘欢
黄绿君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Information Technology Co Ltd
Original Assignee
Jingdong Technology Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Information Technology Co Ltd filed Critical Jingdong Technology Information Technology Co Ltd
Priority to CN202110039340.5A priority Critical patent/CN114764296A/zh
Publication of CN114764296A publication Critical patent/CN114764296A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例涉及一种机器学习模型训练方法、装置、电子设备及存储介质,所述方法包括:通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;基于所述可视化机器学习模型训练流程图执行机器学习模型训练。由此,可以实现用户通过拖拽图形化组件即可完成机器学习模型训练工作流的创建,实现复杂的机器学习模型训练,极大降低了机器学习技术的应用门槛。

Description

机器学习模型训练方法、装置、电子设备及存储介质
技术领域
本发明实施例涉及技术领域,尤其涉及一种机器学习模型训练方法、装置、电子设备及存储介质。
背景技术
随着机器学习技术的持续发展,越来越多的用户开始思考如何借助机器学习相关技术,通过数据赋能现有业务以使业务得到进一步发展。
然而,机器学习模型开发是一个非常复杂的过程,涉及多个环节,主要包括数据依赖、数据预处理、特征工程、模型训练以及模型评估。现有技术中,每一环节都需要技术人员根据业务场景利用pycharm、notebook、terminal、sparkshell等工具编写调试代码。
由此可见,现有的机器学习模型开发周期较长,且需要专业技术人员付出大量劳动,应用门槛高。
发明内容
鉴于此,为解决上述机器学习模型开发周期长,且需要专业技术人员付出大量劳动的技术问题,本发明实施例提供一种机器学习模型训练方法、装置、电子设备及存储介质。
第一方面,本发明实施例提供一种机器学习模型训练方法,所述方法包括:
通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
在一个可能的实施方式中,所述确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图,包括:
接收用户针对至少一个图形化组件的拖拽指令;
基于所述拖拽指令在预设的工作流编排界面上显示所述至少一个图形化组件,得到可视化机器学习模型训练流程图。
在一个可能的实施方式中,所述方法还包括:
接收用户针对所述工作流编排界面上至少一个图形化组件的选中操作,输出被选中的所述图形化组件对应的参数配置界面,所述参数配置界面上包括至少一个输入控件;
通过所述至少一个输入控件接收用户输入的针对所述被选中的图形化组件中封装的算法的配置参数。
在一个可能的实施方式中,所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练,包括:
在接收到对所述可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求;
根据所述机器学习模型训练请求生成与所述可视化机器学习模型训练流程图对应的有向无环图,所述有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;
将所述有向无环图存入预设的任务队列中,以及监听所述任务队列;
当监听到所述任务队列中存入有向无环图时,将所述有向无环图提交至分布式计算集群,以使所述分布式计算集群根据所述有向无环图执行机器学习模型训练。
在一个可能的实施方式中,在所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练之后,所述方法还包括:
在接收到对训练好的机器学习模型的触发操作时,触发模型部署请求;
根据所述模型部署请求创建部署模型所需的容器,将所述训练好的机器学习模型加载至所述容器中,以将所述训练好的机器学习模型部署至线上。
在一个可能的实施方式中,在所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练之后,所述方法还包括:
在接收到对训练好的机器学习模型的触发操作时,触发模型性能评估结果展示请求;
根据所述模型评估结果展示请求生成所述训练好的机器学习模型的模型性能评估报告,并展示所述模型性能评估报告;所述模型性能评估报告中包括至少一项所述训练好的机器学习模型的模型评价指标值。
第二方面,本发明实施例提供一种机器学习模型训练装置,所述装置包括:
界面输出模块,用于通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
流程生成模块,用于确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
模型训练模块,用于基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
在一个可能的实施方式中,所述流程生成模块具体用于:
接收用户针对至少一个图形化组件的拖拽指令;
基于所述拖拽指令在预设的工作流编排界面上显示所述至少一个图形化组件,得到可视化机器学习模型训练流程图。
在一个可能的实施方式中,所述装置还包括:
选中模块,用于接收用户针对所述工作流编排界面上至少一个图形化组件的选中操作,输出被选中的所述图形化组件对应的参数配置界面,所述参数配置界面上包括至少一个输入控件;
参数配置模块,用于通过所述至少一个输入控件接收用户输入的针对所述被选中的图形化组件中封装的算法的配置参数。
在一个可能的实施方式中,所述模型训练模块具体用于:
在接收到对所述可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求;
根据所述机器学习模型训练请求生成与所述可视化机器学习模型训练流程图对应的有向无环图,所述有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;
将所述有向无环图存入预设的任务队列中,以及监听所述任务队列;
当监听到所述任务队列中存入有向无环图时,将所述有向无环图提交至分布式计算集群,以使所述分布式计算集群根据所述有向无环图执行机器学习模型训练。
在一个可能的实施方式中,所述装置还包括:
第一触发模块,用于在接收到对训练好的机器学习模型的触发操作时,触发模型部署请求;
模型部署模块,用于根据所述模型部署请求创建部署模型所需的容器,将所述训练好的机器学习模型加载至所述容器中,以将所述训练好的机器学习模型部署至线上。
在一个可能的实施方式中,所述装置还包括:
第二触发模块,用于在接收到对训练好的机器学习模型的触发操作时,触发模型性能评估结果展示请求;
性能展示模块,用于根据所述模型评估结果展示请求生成所述训练好的机器学习模型的模型性能评估报告,并展示所述模型性能评估报告;所述模型性能评估报告中包括至少一项所述训练好的机器学习模型的模型评价指标值。
第三方面,本发明实施例提供一种电子设备,包括:处理器和存储器,所述处理器用于执行所述存储器中存储的机器学习模型训练程序,以实现第一方面中任一项所述的机器学习模型训练方法。
第四方面,本发明实施例提供一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现第一方面中任一项所述的机器学习模型训练方法。
本发明实施例提供的技术方案,通过预设的可视化界面输出至少一个图形化组件,其中,每一图形化组件封装有一项与机器学习模型训练相关的算法,确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图,基于可视化机器学习模型训练流程图执行机器学习模型训练,实现了用户通过拖拽图形化组件即可完成机器学习模型训练工作流的创建,实现复杂的机器学习模型训练,如此极大缩短了机器学习模型的开发周期,且无需依赖于编程等专业技能,极大降低了机器学习技术的应用门槛。
附图说明
图1为本发明实施例示出的一种系统架构示意图;
图2为本发明实施例示出的另一种系统架构示意图;
图3为本发明实施例提供的一种机器学习模型训练方法的实施例流程图;
图4为本发明实施例提供的一种可视化界面的示意图;
图5为图4所示例的可视化机器学习模型训练流程图对应的有向无环图;
图6为模型列表的示意图;
图7为本发明实施例提供的一种机器学习模型训练装置的实施例框图;
图8为本发明实施例提供的一种的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,为本发明实施例示出的一种系统架构示意图。
图1所示例的系统100可包括:终端设备101、分布式计算集群102,终端设备101与分布式计算集群102通信连接。
终端设备101可以是支持具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、服务器等,图1中仅以台式计算机为例。在实践中,用户可通过终端设备101向分布式计算集群102提交机器学习模型训练任务。
分布式计算集群102中可包括多个节点,该节点的类型包括但不限于计算节点、存储节点、管理节点等,图1中仅以2个节点为例。在实践中,分布式计算集群102可基于Hadoop框架或者Spark框架实现,由于Hadoop框架和Spark框架均具备良好的可扩展性,因此,在本发明实施例中,可以对机器学习算法组件,比如tensorflow、xgboost、lightgbm等组件进行简易扩展,以提高分布式计算集群102的计算速度。
以上从硬件层面介绍了本发明实施例涉及的系统架构,下面从软件层面介绍本发明实施例涉及的系统架构:
参见图2,为本发明实施例示出的另一种系统架构示意图。
图2所示例的系统可包括:应用层、组件服务引擎层、计算层、调度层、存储层,以及功能层。
其中,应用层包括但不限于:风控征信、广告营销、搜索推荐、量化增长等应用服务。组件服务引擎层包括但不限于:DAG(Directed Acyclic Graph,有向无环图)解析引擎,任务队列、Livy工具等。计算层包括但不限于:Hadoop、Spark、TensorFlow、PyTorch、Xgboost、scikit-kleam等软件算法。调度层包括但不限于:YARN(一种Hadoop资源管理器)、Kubernetes(一种开源容器集群管理系统)等。存储层包括但不限于:HDFS(HadoopDistributed Filesystem,分布式文件系统)、HIVE(基于Hadoop的一个数据仓库工具)、MySQL数据库、GlusterFS(一个开源的分布式文件系统)、Redis数据库等。功能层包括但不限于:流程模板仓库、镜像仓库、kerberos认证算法等。
下面结合附图以具体实施例对本发明提供的机器学习模型训练方法做进一步的解释说明,实施例并不构成对本发明实施例的限定。
参见图3,为本发明实施例提供的一种机器学习模型训练方法的实施例流程图,作为一个实施例,该方法可应用于图1所示例的系统100上,包括以下步骤:
步骤301、通过预设的可视化界面输出至少一个图形化组件,其中,每一图形化组件封装有一项与机器学习模型训练相关的算法。
参见图4,为本发明实施例提供的一种可视化界面的示意图。如图4所示,可视化界面400输出至少一个可供用户选择的图形化组件,每一图形化组件封装有一项与机器学习模型训练相关的算法。具体的,常规的机器学习模型训练流程主要包括数据依赖、数据预处理、特征工程、模型训练以及模型评估等环节,每个环节可对应多种算法,因此,每个环节可对应多个图形化组件。比如,如图4所示,数据预处理这一环节对应数据拆分、标准化、归一化、缺失值填充以及类型转换共5个图形化组件;特征工程这一环节对应特征变换、特征重要性评估共2个图形化组件,进一步特征变换这一图形化组件具体表现为主成分分析、向量化共2个图形化组件。
图4中,读数据表组件所封装的算法用于指示:读取数据库中的结构化数据或非结构化数据作为样本数据,可选的,样本数据可具有已知标签,在该种情况下,后续则进行有监督机器学习模型训练。数据拆分组件所封装的算法用于指示:按照设定的划分比例,将上述样本数据划分为训练数据集和测试数据集,其中,训练数据集用于对初始模型进行训练,测试数据集则用于对训练好的机器学习模型进行测试,得到至少一个模型评价指标值,比如准确率、Loss值等。数据预处理环节对应的除数据拆分组件以外的其他图形化组件所封装的算法用于指示:对训练数据集中的训练数据进行预处理,以将训练数据的格式转换为模型训练所需要的特定格式。特征工程环节对应的图形化组件所封装的算法用于指示:对训练数据进行特征提取。模型训练环节对应的图形化组件所封装的算法则为机器学习算法,且不同的图形化组件封装的机器学习算法不同。模型评估环节对应的图形化组件所封装的算法则用于指示:利用上述测试数据对训练好的机器学习模型进行测试,得到至少一个模型评价指标值。
需要说明的是,图4中所示例的图形化组件仅仅作为举例,在实际应用中,还可以存在封装有其他算法的图形化组件,本发明实施例对此并不作限制。
在实践中,可通过图1中所示例的终端设备101输出图4所示例的可视化界面。
步骤302、确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图。
基于图4所示例的可视化界面,在应用中,用户可根据实际业务场景选择图形化组件,并按照上述常规的机器学习模型训练流程设置所选择的图形化组件的执行顺序,得到图4所示例的工作流编排界面中的可视化机器学习模型训练流程图。
具体的,在应用中,用户可通过外部设备,比如鼠标向其要选择的图形化组件发送拖拽指令,系统100则基于拖拽指令在图4所示例的工作流编排界面上显示至少一个图形化组件,得到可视化机器学习模型训练流程图。
作为一个可选的实现方式,用户可按照上述常规的机器学习模型训练流程,顺序地选择图形化组件并向选择的图形化组件发送拖拽指令,比如顺序选择读数据表组件、数据拆分组件、归一化组件、向量化组件、线性回归组件、模型评估组件。由此可见,本发明实施例中,对于一个环节可选择一个或多个图形化组件。
作为另一个可选的实现方式,用户可按照上述常规的机器学习模型训练流程,无序地选择图形化组件并向选择的图形化组件发送拖拽指令,之后,再在工作流程编排界面上对所选择的图形化组件进行拖拽,以对所选择的图形化组件的执行顺序进行排列,最终得到图4所示例的可视化机器学习模型训练流程图。
步骤303、基于可视化机器学习模型训练流程图执行机器学习模型训练。
作为一个实施例,在本步骤303中,在接收到对可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求,之后则根据机器学习模型训练请求生成与可视化机器学习模型训练流程图对应的有向无环图,该有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;将有向无环图存入预设的任务队列中,以及监听任务队列,当监听到任务队列中存入有向无环图时,将有向无环图提交至分布式计算集群,以使分布式计算集群根据有向无环图执行机器学习模型训练。
具体的,参见图4所示例的可视化界面,在应用中,用户可通过外部设备,比如鼠标、触控笔等点击运行图标,当检测到运行图标被触发时,则意味着接收到对图3所示例的可视化界面上显示的可视化机器学习模型训练流程图的触发操作,此时将触发机器学习模型训练请求。
如上所述,之后则可调用DAG解析引擎解析可视化机器学习模型训练流程图中各图形化组件之间的连接关系,从而生成与可视化机器学习模型训练流程图对应的有向无环图,比如,如图5所示,为图4所示例的可视化机器学习模型训练流程图对应的有向无环图,该有向无环图中包括6个顶点,分别对应机器学习模型训练流程中的数据依赖、数据预处理、特征工程、模型训练以及模型评估共5个环节,其中,数据拆分和归一化均对应数据预处理环节。
下一步将上述生成的有向无环图存入预设的任务队列中,当监听到任务队列中存入有向无环图时,可利用livy工具提供的API接口将任务队列中存入的有向无环图提交至分布式计算集群。进一步的,在将任务队列中存入的有向无环图提交至分布式计算集群的过程中,分布式计算集群可对该有向无环图进行合法性认证,比如调用kerberos认证算法进行合法性认证,以保证有向无环图对应的机器学习模型训练任务来自于合法用户。
分布式计算集群接收到上述有向无环图之后,可根据有向无环图执行机器学习模型训练。可以理解的是,分布式计算集群具有强大的数据处理能力,以及支持多用户共享计算资源,因此,使用分布式计算集群执行机器学习模型训练,不仅可以提高机器学习模型训练效率,还可以实现在一些多用户场景下,多个用户能够同时提交机器学习模型训练任务,极大地提高了资源利用率。
本发明实施例提供的技术方案,通过预设的可视化界面输出至少一个图形化组件,其中,每一图形化组件封装有一项与机器学习模型训练相关的算法,确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图,基于可视化机器学习模型训练流程图执行机器学习模型训练,实现了用户通过拖拽图形化组件即可完成机器学习模型训练工作流的创建,实现复杂的机器学习模型训练,如此极大缩短了机器学习模型的开发周期,且无需依赖于编程等专业技能,极大降低了机器学习技术的应用门槛。
作为一个实施例,在执行完上述步骤302,得到可视化机器学习模型训练流程图之后,用户还可针对任意一个或多个图形化组件配置参数。具体的,用户可选中工作流编排界面上至少一个图形化组件,当接收用户针对工作流编排界面上至少一个图形化组件的选中操作,输出被选中的图形化组件对应的参数配置界面,该参数配置界面上包括至少一个输入控件,通过至少一个输入控件接收用户输入的针对被选中的图形化组件中封装的算法的配置参数。
举例来说,参见图4,用户选中的是归一化图形化组件,此时将输出归一化图形化组件对应的参数配置界面,该参数配置界面上包括3个输入控件,分别用于输入特征列、标准化最小值、标准化最大值,基于此,用户可在每一输入控件中输入配置参数,从而完成模型训练前的超参数配置工作。可以理解的是,在应用中,每一图形化组件对应有默认参数,若用户未手动进行参数配置,或者用户选择使用默认参数,比如用户勾选图4中的保留原有特征按钮,则在模型训练过程中,可使用默认参数。
此外,由上述描述可知,本发明提供的系统中内置有诸如scikit-learn的超参数搜索软件,因此,在设置模型的超参数时,可调用前述超参数搜索软件,这能够大大简化用户操作,使得用户通过简单的操作即可完成机器学习模型训练。
在完成机器学习模型训练后,还可将训练好的机器学习模型部署到线上,以实现部署在线服务,比如在线预测服务。基于此,本发明提出以下实施例:
作为一个实施例,参见图4所示例的可视化界面,在应用中,用户可通过外部设备,比如鼠标、触控笔等点击发布图标,当检测到发布图标被触发时,将触发机器学习模型发布请求。下一步则根据该机器学习模型发布请求将训练好的机器学习模型以及上述可视化机器学习模型训练流程图进行保存,并将训练好的机器学习模型同步到模型列表,如图6所示,为模型列表的一种示例,该模型列表中包括多个已训练好的机器学习模型。
进一步的,基于图6所示例的模型列表,用户可选择其中一个训练好的机器学习模型,点击其对应的离线部署图标,当检测到离线部署图标被触发时,则意味着接收到对训练好的机器学习模型的触发操作,此时将触发模型部署请求。
再进一步的,根据模型部署请求创建部署模型所需的容器,将上述用户选择的训练好的机器学习模型加载至容器中,以将训练好的机器学习模型部署至线上。
可选的,上述所描述的离线部署过程可以为批量部署,或者是基于T+1机制部署,本发明对此不做限制。
由上述描述可见,应用本发明实施例,可以实现无代码部署,用户通过简单地操作即可触发系统自动地将模型部署为线上服务。
此外,由上述描述可知,机器学习模型训练过程包括模型评估环节,通过执行该模型评估环节可得到模型评价指标值。基于此,作为一个实施例,用户可请求展示训练好的模型的模型评价指标值。具体的,参见图4所示例的可视化界面,用户可触发其中的查看图标,当检测到查看图标被触发时,则意味着接收到对训练好的机器学习模型的触发操作,此时可触发模型性能评估结果展示请求。进一步的,则可根据模型评估结果展示请求生成训练好的机器学习模型的模型性能评估报告,并展示模型性能评估报告,该模型性能评估报告中包括至少一项训练好的机器学习模型的模型评价指标值。
在应用中,通过展示上述模型性能评估报告,可使得用户直观了解训练好的模型的性能。若用户认为训练好的模型的性能不理想,可进一步手动调整模型超参数,并触发重新进行机器学习模型训练,直至训练得到的机器学习模型满足要求。
参见图7,为本发明实施例提供的一种机器学习模型训练装置的实施例框图。如图7所示,该装置包括:
界面输出模块71,用于通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
流程生成模块72,用于确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
模型训练模块73,用于基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
在一个可能的实施方式中,所述流程生成模块72具体用于:
接收用户针对至少一个图形化组件的拖拽指令;
基于所述拖拽指令在预设的工作流编排界面上显示所述至少一个图形化组件,得到可视化机器学习模型训练流程图。
在一个可能的实施方式中,所述装置还包括(图7未示出):
选中模块,用于接收用户针对所述工作流编排界面上至少一个图形化组件的选中操作,输出被选中的所述图形化组件对应的参数配置界面,所述参数配置界面上包括至少一个输入控件;
参数配置模块,用于通过所述至少一个输入控件接收用户输入的针对所述被选中的图形化组件中封装的算法的配置参数。
在一个可能的实施方式中,所述模型训练模块73具体用于:
在接收到对所述可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求;
根据所述机器学习模型训练请求生成与所述可视化机器学习模型训练流程图对应的有向无环图,所述有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;
将所述有向无环图存入预设的任务队列中,以及监听所述任务队列;
当监听到所述任务队列中存入有向无环图时,将所述有向无环图提交至分布式计算集群,以使所述分布式计算集群根据所述有向无环图执行机器学习模型训练。
在一个可能的实施方式中,所述装置还包括(图7未示出):
第一触发模块,用于在接收到对训练好的机器学习模型的触发操作时,触发模型部署请求;
模型部署模块,用于根据所述模型部署请求创建部署模型所需的容器,将所述训练好的机器学习模型加载至所述容器中,以将所述训练好的机器学习模型部署至线上。
在一个可能的实施方式中,所述装置还包括(图7未示出):
第二触发模块,用于在接收到对训练好的机器学习模型的触发操作时,触发模型性能评估结果展示请求;
性能展示模块,用于根据所述模型评估结果展示请求生成所述训练好的机器学习模型的模型性能评估报告,并展示所述模型性能评估报告;所述模型性能评估报告中包括至少一项所述训练好的机器学习模型的模型评价指标值。
图8为本发明实施例提供的一种的电子设备的结构示意图,图8所示的电子设备800包括:至少一个处理器801、存储器802、至少一个网络接口804和其他用户接口803。电子设备800中的各个组件通过总线系统805耦合在一起。可理解,总线系统805用于实现这些组件之间的连接通信。总线系统805除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图8中将各种总线都标为总线系统805。
其中,用户接口803可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本发明实施例中的存储器802可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器(ProgrammableROM,PROM)、可擦除可编程只读存储器(ErasablePROM,EPROM)、电可擦除可编程只读存储器(ElectricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(RandomAccessMemory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(StaticRAM,SRAM)、动态随机存取存储器(DynamicRAM,DRAM)、同步动态随机存取存储器(SynchronousDRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(DoubleDataRateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(SynchlinkDRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambusRAM,DRRAM)。本文描述的存储器802旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器802存储了如下的元素,可执行单元或者数据结构,或者他们的子集,或者他们的扩展集:操作系统8021和应用程序8022。
其中,操作系统8021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序8022,包含各种应用程序,例如媒体播放器(MediaPlayer)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序8022中。
在本发明实施例中,通过调用存储器802存储的程序或指令,具体的,可以是应用程序8022中存储的程序或指令,处理器801用于执行各方法实施例所提供的方法步骤,例如包括:
通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
上述本发明实施例揭示的方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器801中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器801可以是通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecific IntegratedCircuit,ASIC)、现成可编程门阵列(FieldProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件单元组合执行完成。软件单元可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器802,处理器801读取存储器802中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecificIntegratedCircuits,ASIC)、数字信号处理器(DigitalSignalProcessing,DSP)、数字信号处理设备(DSPDevice,DSPD)、可编程逻辑设备(ProgrammableLogicDevice,PLD)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文所述功能的单元来实现本文所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本实施例提供的电子设备可以是如图8中所示的电子设备,可执行如图3中机器学习模型训练方法的所有步骤,进而实现图3所示机器学习模型训练方法的技术效果,具体请参照图3相关描述,为简洁描述,在此不作赘述。
本发明实施例还提供了一种存储介质(计算机可读存储介质)。这里的存储介质存储有一个或者多个程序。其中,存储介质可以包括易失性存储器,例如随机存取存储器;存储器也可以包括非易失性存储器,例如只读存储器、快闪存储器、硬盘或固态硬盘;存储器还可以包括上述种类的存储器的组合。
当存储介质中一个或者多个程序可被一个或者多个处理器执行,以实现上述在电子设备侧执行的机器学习模型训练方法。
所述处理器用于执行存储器中存储的机器学习模型训练程序,以实现以下在电子设备侧执行的机器学习模型训练方法的步骤:
通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种机器学习模型训练方法,其特征在于,所述方法包括:
通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
2.根据权利要求1所述的方法,其特征在于,所述确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图,包括:
接收用户针对至少一个图形化组件的拖拽指令;
基于所述拖拽指令在预设的工作流编排界面上显示所述至少一个图形化组件,得到可视化机器学习模型训练流程图。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
接收用户针对所述工作流编排界面上至少一个图形化组件的选中操作,输出被选中的所述图形化组件对应的参数配置界面,所述参数配置界面上包括至少一个输入控件;
通过所述至少一个输入控件接收用户输入的针对所述被选中的图形化组件中封装的算法的配置参数。
4.根据权利要求1所述的方法,其特征在于,所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练,包括:
在接收到对所述可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求;
根据所述机器学习模型训练请求生成与所述可视化机器学习模型训练流程图对应的有向无环图,所述有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;
将所述有向无环图存入预设的任务队列中,以及监听所述任务队列;
当监听到所述任务队列中存入有向无环图时,将所述有向无环图提交至分布式计算集群,以使所述分布式计算集群根据所述有向无环图执行机器学习模型训练。
5.根据权利要求1所述的方法,其特征在于,在所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练之后,所述方法还包括:
在接收到对训练好的机器学习模型的触发操作时,触发模型部署请求;
根据所述模型部署请求创建部署模型所需的容器,将所述训练好的机器学习模型加载至所述容器中,以将所述训练好的机器学习模型部署至线上。
6.根据权利要求1所述的方法,其特征在于,在所述基于所述可视化机器学习模型训练流程图执行机器学习模型训练之后,所述方法还包括:
在接收到对训练好的机器学习模型的触发操作时,触发模型性能评估结果展示请求;
根据所述模型评估结果展示请求生成所述训练好的机器学习模型的模型性能评估报告,并展示所述模型性能评估报告;所述模型性能评估报告中包括至少一项所述训练好的机器学习模型的模型评价指标值。
7.一种机器学习模型训练装置,其特征在于,所述装置包括:
界面输出模块,用于通过预设的可视化界面输出至少一个图形化组件,其中,每一所述图形化组件封装有一项与机器学习模型训练相关的算法;
流程生成模块,用于确定用户选择的图形化组件,并根据用户针对所选择的图形化组件设置的执行顺序得到可视化机器学习模型训练流程图;
模型训练模块,用于基于所述可视化机器学习模型训练流程图执行机器学习模型训练。
8.根据权利要求7所述的装置,其特征在于,所述流程生成模块具体用于:
接收用户针对至少一个图形化组件的拖拽指令;
基于所述拖拽指令在预设的工作流编排界面上显示所述至少一个图形化组件,得到可视化机器学习模型训练流程图。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
选中模块,用于接收用户针对所述工作流编排界面上至少一个图形化组件的选中操作,输出被选中的所述图形化组件对应的参数配置界面,所述参数配置界面上包括至少一个输入控件;
参数配置模块,用于通过所述至少一个输入控件接收用户输入的针对所述被选中的图形化组件中封装的算法的配置参数。
10.根据权利要求7所述的装置,其特征在于,所述模型训练模块具体用于:
在接收到对所述可视化机器学习模型训练流程图的触发操作时,触发机器学习模型训练请求;
根据所述机器学习模型训练请求生成与所述可视化机器学习模型训练流程图对应的有向无环图,所述有向无环图中的每一顶点对应机器学习模型训练流程中的一个环节;
将所述有向无环图存入预设的任务队列中,以及监听所述任务队列;
当监听到所述任务队列中存入有向无环图时,将所述有向无环图提交至分布式计算集群,以使所述分布式计算集群根据所述有向无环图执行机器学习模型训练。
11.一种电子设备,其特征在于,包括:处理器和存储器,所述处理器用于执行所述存储器中存储的机器学习模型训练程序,以实现权利要求1~6中任一项所述的机器学习模型训练方法。
12.一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1~6中任一项所述的机器学习模型训练方法。
CN202110039340.5A 2021-01-12 2021-01-12 机器学习模型训练方法、装置、电子设备及存储介质 Pending CN114764296A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110039340.5A CN114764296A (zh) 2021-01-12 2021-01-12 机器学习模型训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110039340.5A CN114764296A (zh) 2021-01-12 2021-01-12 机器学习模型训练方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114764296A true CN114764296A (zh) 2022-07-19

Family

ID=82362991

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110039340.5A Pending CN114764296A (zh) 2021-01-12 2021-01-12 机器学习模型训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114764296A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115545401A (zh) * 2022-08-26 2022-12-30 广州市规划和自然资源自动化中心(广州市基础地理信息中心) 基于可视化指标模型配置的城市体检评估方法、系统及计算机设备
CN116992241A (zh) * 2023-09-26 2023-11-03 深圳前海环融联易信息科技服务有限公司 模型生成方法及装置、存储介质、计算机设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169575A (zh) * 2017-06-27 2017-09-15 北京天机数测数据科技有限公司 一种可视化机器学习训练模型的建模系统和方法
CN109948804A (zh) * 2019-03-15 2019-06-28 北京清瞳时代科技有限公司 跨平台拖拽式深度学习建模与训练方法及装置
CN110598868A (zh) * 2018-05-25 2019-12-20 腾讯科技(深圳)有限公司 一种机器学习模型搭建方法、装置及相关设备
CN111047190A (zh) * 2019-12-12 2020-04-21 广西电网有限责任公司 一种基于交互式学习技术的多元化业务建模框架系统
CN111158745A (zh) * 2019-12-30 2020-05-15 山东浪潮商用系统有限公司 一种基于Docker的数据处理平台
CN111310936A (zh) * 2020-04-15 2020-06-19 光际科技(上海)有限公司 机器学习训练的构建方法、平台、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169575A (zh) * 2017-06-27 2017-09-15 北京天机数测数据科技有限公司 一种可视化机器学习训练模型的建模系统和方法
CN110598868A (zh) * 2018-05-25 2019-12-20 腾讯科技(深圳)有限公司 一种机器学习模型搭建方法、装置及相关设备
CN109948804A (zh) * 2019-03-15 2019-06-28 北京清瞳时代科技有限公司 跨平台拖拽式深度学习建模与训练方法及装置
CN111047190A (zh) * 2019-12-12 2020-04-21 广西电网有限责任公司 一种基于交互式学习技术的多元化业务建模框架系统
CN111158745A (zh) * 2019-12-30 2020-05-15 山东浪潮商用系统有限公司 一种基于Docker的数据处理平台
CN111310936A (zh) * 2020-04-15 2020-06-19 光际科技(上海)有限公司 机器学习训练的构建方法、平台、装置、设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115545401A (zh) * 2022-08-26 2022-12-30 广州市规划和自然资源自动化中心(广州市基础地理信息中心) 基于可视化指标模型配置的城市体检评估方法、系统及计算机设备
CN116992241A (zh) * 2023-09-26 2023-11-03 深圳前海环融联易信息科技服务有限公司 模型生成方法及装置、存储介质、计算机设备
CN116992241B (zh) * 2023-09-26 2024-01-19 深圳前海环融联易信息科技服务有限公司 模型生成方法及装置、存储介质、计算机设备

Similar Documents

Publication Publication Date Title
CN108304201B (zh) 对象更新方法、装置及设备
CN111522552B (zh) 子应用生成方法、装置、计算机设备和存储介质
CN112199086B (zh) 自动编程控制系统、方法、装置、电子设备及存储介质
CN108459792B (zh) 一种流量切换方法、装置、及计算机设备
WO2013188540A1 (en) Practical natural-language human-machine interfaces
US11861469B2 (en) Code generation for Auto-AI
US12001823B2 (en) Systems and methods for building and deploying machine learning applications
CA3036812A1 (en) Test case generator built into data-integration workflow editor
US11201806B2 (en) Automated analysis and recommendations for highly performant single page web applications
CN112214210A (zh) 后勤业务规则引擎及其配置方法、装置、设备和存储介质
US11422783B2 (en) Auto-deployment of applications
US20230043882A1 (en) Method for assisting launch of machine learning model
CN114764296A (zh) 机器学习模型训练方法、装置、电子设备及存储介质
KR20220027870A (ko) 딥 러닝을 위한 비주얼 프로그래밍
CN114185874A (zh) 一种基于大数据的建模方法、装置、开发框架及设备
CN113448678A (zh) 应用信息生成方法、部署方法及装置、系统、存储介质
Shrivastava Learning Salesforce Einstein
CN108681426B (zh) 用于针对数据执行特征处理的方法及系统
CN117707917A (zh) 业务测试方法、装置及设备、介质、产品
CN114741294A (zh) 一种页面的调试方法、装置、设备及存储介质
CN108960433B (zh) 用于运行机器学习建模过程的方法及系统
KR20220046038A (ko) Ai 연산 프로세서 가속 성능 평가 인터페이스 시스템 및 그 방법
US20220245060A1 (en) System and Method for Automated Testing
Piazza Startup performance analysis and optimization of an Android banking application
CN117873843A (zh) 一种引擎控制方法、系统及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination