CN116560639A - 一种模型训练方法、装置、电子设备及存储介质 - Google Patents
一种模型训练方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116560639A CN116560639A CN202310547221.XA CN202310547221A CN116560639A CN 116560639 A CN116560639 A CN 116560639A CN 202310547221 A CN202310547221 A CN 202310547221A CN 116560639 A CN116560639 A CN 116560639A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- model training
- party
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 248
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003860 storage Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 claims abstract description 39
- 238000012545 processing Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 13
- 238000007726 management method Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 208000025174 PANDAS Diseases 0.000 description 4
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 4
- 240000004718 Panda Species 0.000 description 4
- 235000016496 Panda oleosa Nutrition 0.000 description 4
- 238000012550 audit Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000004062 sedimentation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种模型训练方法、装置、电子设备及存储介质;该方法包括:基于预先构建的数据集接收用户发送的模型训练请求;其中,该模型训练请求包括:内部模型训练请求或者外部模型训练请求;若模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型;通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。本申请实施例不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验。
Description
技术领域
本申请实施例涉及人工智能技术领域,尤其涉及一种模型训练方法、装置、电子设备及存储介质。
背景技术
近年来,随着人工智能技术的进步,人工智能领域也得到了空前的发展。基于数据进行训练得到的机器学习模型在多个领域展开应用,例如常见的虚拟助理、智能音箱、无人驾驶、智能客服等。
现有生成模型的方案主要包括以下两类:第一、基于原生的人工智能(ArtificialIntelligence,简称AI)模型框架生成模型,该方案需要业务人员必须精通多种开发语言、算法和训练逻辑等。第二、基于封装的训练平台生成模型,但是该方案只支持特定的自建模型,无法针对第三方平台的大模型进行训练。
发明内容
本申请提供一种模型训练方法、装置、电子设备及存储介质,不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验。
第一方面,本申请实施例提供了一种模型训练方法,所述方法包括:
基于预先构建的数据集接收用户发送的模型训练请求;其中,所述模型训练请求包括:内部模型训练请求或者外部模型训练请求;
若所述模型训练请求为所述外部模型训练请求,则通过代理服务器在第三方平台中获取所述第三方平台的大模型;
通过可视化界面对所述第三方的大模型进行训练,得到所述第三方的大模型的训练结果,并通过所述可视化界面对所述第三方的大模型的训练结果进行管理。
第二方面,本申请实施例还提供了一种模型训练装置,所述装置包括:接收模块、获取模块和训练模块;其中,
所述接收模块,用于基于预先构建的数据集接收用户发送的模型训练请求;其中,所述模型训练请求包括:内部模型训练请求或者外部模型训练请求;
所述获取模块,用于若所述模型训练请求为所述外部模型训练请求,则通过代理服务器在第三方平台中获取所述第三方平台的大模型;
所述训练模块,用于通过可视化界面对所述第三方的大模型进行训练,得到所述第三方的大模型的训练结果,并通过所述可视化界面对所述第三方的大模型的训练结果进行管理。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的模型训练方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的模型训练方法。
本申请实施例提出了一种模型训练方法、装置、电子设备及存储介质,先基于预先构建的数据集接收用户发送的模型训练请求;若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型;然后通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。也就是说,在本申请的技术方案中,可以通过代理服务器在第三方平台中获取第三方平台的大模型,并通过可视化界面对第三方的大模型进行训练和管理。而在现有技术中,基于原生的AI模型框架生成模型的方案技术难度高,基于封装的训练平台生成模型的方案无法针对第三方平台的大模型进行训练。因此,和现有技术相比,本申请实施例提出的模型训练方法、装置、电子设备及存储介质,不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
附图说明
图1为本申请实施例提供的模型训练方法的第一流程示意图;
图2为本申请实施例提供的模型训练架构的示意图;
图3为本申请实施例提供的模型训练方法的第二流程示意图;
图4为本申请实施例提供的模型训练方法的第三流程示意图;
图5为本申请实施例提供的模型训练装置的结构示意图;
图6为本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
实施例一
图1为本申请实施例提供的模型训练方法的第一流程示意图,该方法可以由模型训练装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,模型训练方法可以包括以下步骤:
S101、基于预先构建的数据集接收用户发送的模型训练请求;其中,该模型训练请求包括:内部模型训练请求或者外部模型训练请求。
在本步骤中,电子设备可以基于预先构建的数据集接收用户发送的模型训练请求;其中,该模型训练请求包括:内部模型训练请求或者外部模型训练请求。具体地,用户可以先在预先构建的数据集中选择数据,然后向电子设备发送模型训练请求;其中,该模型训练请求中携带用户在数据集中选择的数据。本申请实施例中的模型训练请求可以包括两种类型,分别为:内部模型训练请求和外部模型训练请求;其中,内部模型训练请求是针对模型训练架构内部的待训练的模型的训练请求;外部模型训练请求是针对模型训练架构外部的待训练的模型的训练请求。
S102、若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型。
在本步骤中,若该模型训练请求为外部模型训练请求,则电子设备可以通过代理服务器在第三方平台中获取第三方平台的大模型。具体地,电子设备可以向代理服务器发送模型调用请求,使得代理服务器响应于该模型调用请求在第三方平台中获取大模型;然后接收代理服务器返回的第三方的大模型。
S103、通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。
在本步骤中,电子设备可以通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。具体地,用户可以通过可视化界面选择配置数据,然后根据配置数据构造相应的内部函数,并基于内部函数对第三方的大模型进行训练。
图2为本申请实施例提供的模型训练架构的示意图。如图2所示,模型训练架构可以包括:接入层、应用层、领域层和基建层;其中,接入层可以包括通用网关,例如WEB API网关,通用网关是系统的唯一入口,它封装了系统内部架构,为客户端统一提供服务,与业务无关的公共逻辑可以抽象到通用网关中实现,比如,客户端的认证、访问控制、负载均衡、监控、缓存等。无论是对内网的接口,还是外网的接口,都是需要做用户身份认证的。一些较大规模的公司都会有统一的单点登录系统,如果每个微服务系统都去执行单点登录系统的工作,那么显然比较浪费资源,降低开发效率。本申请可以将用户身份认证的功能抽取到接入层,然后微服务系统无需关注认证的逻辑只关注自身业务即可。对一些特定的接口设置白名单,访问次数,访问频率等各类设置,而这些非业务功能的配置以及变更不会影响微服务的实现可以在网关层单独做操作。
应用层,用于管理用户在系统中的访问权限,它的主要作用是确保只有授权的用户才可以访问系统中的资源和数据,保护系统的安全性和完整性。具体地,应用层可以包括:权限应用和业务应用;其中,权限应用可以包括:用户权限和数据权限;管理员可以通过用户权限系统来管理用户、角色的权限,以确保用户、角色只能够访问其被授权的资源和数据。还可以通过数据权限系统对系统中的数据和资源进行管理,包括资源和数据的创建、修改、删除等操作,以确保只有经过授权的用户和角色可以访问受保护的资源和数据。另外,应用层还可以包括审计和日志记录,用于记录用户和角色对系统中资源和数据的访问情况,以便管理员进行审计和监控,管理员可以通过权限系统来查看日志记录,以确保系统的安全性和完整性。此外,业务应用可以包括:数据集管理、训练任务管理、模型配置管理和模型服务调用;其中,数据集管理是对AI模型算法训练所需的数据集进行管理和维护,以保证数据的质量和可用性。数据集是人工智能算法训练的基础,数据集管理的好坏直接影响到人工智能算法的准确性和效率。本申请通过对数据集进行管理和维护,保证数据的质量和可用性,从而提高人工智能算法的准确性和效率。通过对数据进行清洗和标注,减少算法训练的时间和成本,提高算法训练的效率。通过对数据进行管理和维护,提高数据的利用价值,为企业带来更多的商业价值。训练任务管理,用于针对数据集,生成模型训练任务,对机器学习模型训练任务进行计划、监控和管理。通过模型训练可以让机器学习算法从数据中学习到模式和规律,从而实现生产预测、分类、聚类等业务可运用的模型。模型配置管理,用于对训练完成的模型进行管理,模型的版本控制、模型的上下线、模型编码和业务场景的信息关联以及模型介绍文档说明。模型服务调用,用于生成restful和rpc调用接口,将具备的模型能力给外部调用。
领域层,用于对于数据集管理后的收集、存储、处理、传输等环节,进行安全性评估和审核,其目的是确保数据在各个环节中的安全性,防止数据泄露、篡改、丢失等问题的发生。具体可以将拉取或者导入的大量数据流转到内审模块进行内审。内审模块可以采用两种方式进行审核,一个是机器审核,通过自建模型识别数据内容是否存在安全泄露隐患;另一个是通过机器无法判断的会经过人工审核。通过这个过程保障了数据的安全和质量。另外,领域层还可以包括代理服务,该代理服务可以通过代理服务器来实现,代理服务器是个人网络和Internet服务商之间的中间代理机构,负责转发合法的网络信息,对转发进行控制和登记。代理服务器的控制和过滤功能可以帮助网络管理员更好地管理网络流量,保护网络安全。此外,代理服务器还可以缓存常用的网页和文件,当用户再次请求相同的内容时,代理服务器可以直接从缓存中返回数据,减少了网络流量和响应时间。本申请中的代理服务器扮演平台的sdk mannger模块和外部大模型提供服务的中转站,上层的请求到sdkmannger模块,sdk mannger模块会经过特定的代码解析转发向代理服务器发送请求。代理服务器接收到请求后,会检查请求的类型和内容,并根据预设的过滤规则对请求进行过滤和控制。例如,代理服务器可以根据黑名单或白名单过滤特定的网站、应用程序或内容。如果请求被允许通过,代理服务器会将请求转发给外部大模型服务器。代理服务器获取到外部的响应返回后再将响应转发给内部。sdk mannger模块接收到响应后,会进行解析和处理,并将结果透传到上层展现给用户。
基建层,用于将各渠道外部大模型提供的API SDK统一收口,并进行管理和解析转为内部SDK,将生成的内部统一SDK接口提供给数据集管理、训练任务管理、模型服务调用,实现UI界面可直接进行操作数据管理沉淀、模型训练、模型调用的功能。
本申请实施例提出的模型训练方法,先基于预先构建的数据集接收用户发送的模型训练请求;若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型;然后通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。也就是说,在本申请的技术方案中,可以通过代理服务器在第三方平台中获取第三方平台的大模型,并通过可视化界面对第三方的大模型进行训练和管理。而在现有技术中,基于原生的AI模型框架生成模型的方案技术难度高,基于封装的训练平台生成模型的方案无法针对第三方平台的大模型进行训练。因此,和现有技术相比,本申请实施例提出的模型训练方法,不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图3为本申请实施例提供的模型训练方法的第二流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图3所示,模型训练方法可以包括以下步骤:
S301、接收用户上传的数据或者从业务数据库中拉取数据,将用户上传的数据或者从业务数据库中拉取的数据作为原始采集数据。
S302、对原始采集数据进行处理,得到处理后的采集数据。
本步骤中,电子设备可以对原始采集数据进行处理,得到处理后的采集数据。具体可以对原始采集数据进行去重、去噪、格式化等处理,保证数据的一致性和准确性。由于本申请可以第三方的大模型进行友好地兼容,将不同平台和不同格式的数据集,如CSV、TSV、XLSX、JSON或JSONL文件等,统一转换进行训练数据准备,在底层实现上可以到python的pandas库。pandas是基于NumPy的一种工具,该工具是为解决数据分析任务而创建的。pandas纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。pandas提供了大量能使我们快速便捷地处理数据的函数和方法。接着可以数据进行标注,对前面的数据打上标签或者对其进行分类,以便人工智能算法能够识别和理解数据。然后是数据存储和备份,数据集最终会存储在可靠的存储介质中,目前可以支持mysql和阿里云的oss进行数据存储。
S303、将处理后的采集数据存储至数据集中,并通过可视化界面对数据集进行管理。
S304、基于预先构建的数据集接收用户发送的模型训练请求;其中,该模型训练请求包括:内部模型训练请求或者外部模型训练请求。
S305、若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型。
在本步骤中,若该模型训练请求为外部模型训练请求,则电子设备可以通过代理服务器在第三方平台中获取第三方平台的大模型。具体地,电子设备可以先向代理服务器发送模型调用请求,使得代理服务器响应于该模型调用请求在第三方平台中获取大模型;然后接收代理服务器返回的第三方的大模型。
S306、通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。
在本申请的具体实施例中,当模型训练人员从已有数据集清单里选择数据进行训练时,将会生成一个模型训练任务,同时会对正在进行模型训练的任务进行监控,包括:任务进度、训练效果、异常情况等,当发生训练中断和训练异常时可对相应的任务发起重新训练或者继续训练,并进行模型训练任务的记录,训练的过程和结果将存入数据库以便后续分析。本申请实施例中的sdk manger模块解析了外部大模型的训练和调用API,在这里可以通过调用sdk manger模块实现的函数从而达到训练第三方的大模型的功能。
本申请实施例提出的模型训练方法,先基于预先构建的数据集接收用户发送的模型训练请求;若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型;然后通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。也就是说,在本申请的技术方案中,可以通过代理服务器在第三方平台中获取第三方平台的大模型,并通过可视化界面对第三方的大模型进行训练和管理。而在现有技术中,基于原生的AI模型框架生成模型的方案技术难度高,基于封装的训练平台生成模型的方案无法针对第三方平台的大模型进行训练。因此,和现有技术相比,本申请实施例提出的模型训练方法,不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图4为本申请实施例提供的模型训练方法的第三流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图4所示,模型训练方法可以包括以下步骤:
S401、基于预先构建的数据集接收用户发送的模型训练请求;其中,该模型训练请求包括:内部模型训练请求或者外部模型训练请求。
S402、若该模型训练请求为外部模型训练请求,则响应于该模型训练请求生成对应的模型训练任务,并通过可视化界面对模型训练任务进行管理;其中,模型训练任务包括以下阶段:未启动训练的阶段、正在进行训练的阶段和已完成训练的阶段。
本申请实施例中的模型训练任务包括未启动训练的阶段、正在进行训练的阶段和已完成训练的阶段。用户通过可视化界面可以对各个阶段的模型训练任务进行管理。
S403、基于模型训练任务向代理服务器发送模型调用请求,使得代理服务器响应于模型调用请求在第三方平台中获取第三方平台的大模型。
S404、接收代理服务器返回的第三方的大模型。
S405、通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。
本申请实施例提出的模型训练方法,先基于预先构建的数据集接收用户发送的模型训练请求;若该模型训练请求为外部模型训练请求,则通过代理服务器在第三方平台中获取第三方平台的大模型;然后通过可视化界面对第三方的大模型进行训练,得到第三方的大模型的训练结果,并通过可视化界面对第三方的大模型的训练结果进行管理。也就是说,在本申请的技术方案中,可以通过代理服务器在第三方平台中获取第三方平台的大模型,并通过可视化界面对第三方的大模型进行训练和管理。而在现有技术中,基于原生的AI模型框架生成模型的方案技术难度高,基于封装的训练平台生成模型的方案无法针对第三方平台的大模型进行训练。因此,和现有技术相比,本申请实施例提出的模型训练方法,不仅可以针对第三方平台的大模型进行训练,还可以降低模型训练的技术难度,从而可以提高模型训练效率,提升用户使用体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图5为本申请实施例提供的模型训练装置的结构示意图。如图5所示,所述模型训练装置包括:接收模块501、获取模块502和训练模块503;其中,
所述接收模块501,用于基于预先构建的数据集接收用户发送的模型训练请求;其中,所述模型训练请求包括:内部模型训练请求或者外部模型训练请求;
所述获取模块502,用于若所述模型训练请求为所述外部模型训练请求,则通过代理服务器在第三方平台中获取所述第三方平台的大模型;
所述训练模块503,用于通过可视化界面对所述第三方的大模型进行训练,得到所述第三方的大模型的训练结果,并通过所述可视化界面对所述第三方的大模型的训练结果进行管理。
上述模型训练装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的模型训练方法。
实施例五
图6为本申请实施例提供的电子设备的结构示意图。图6示出了适于用来实现本申请实施方式的示例性电子设备的框图。图6显示的电子设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图6中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例所提供的模型训练方法。
实施例六
本申请实施例提供了一种计算机存储介质。
本申请实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (10)
1.一种模型训练方法,其特征在于,所述方法包括:
基于预先构建的数据集接收用户发送的模型训练请求;其中,所述模型训练请求包括:内部模型训练请求或者外部模型训练请求;
若所述模型训练请求为所述外部模型训练请求,则通过代理服务器在第三方平台中获取所述第三方平台的大模型;
通过可视化界面对所述第三方的大模型进行训练,得到所述第三方的大模型的训练结果,并通过所述可视化界面对所述第三方的大模型的训练结果进行管理。
2.根据权利要求1所述的方法,其特征在于,在所述基于预先构建的数据集接收用户发送的模型训练请求之前,所述方法还包括:
接收用户上传的数据或者从业务数据库中拉取数据,将所述用户上传的数据或者从所述业务数据库中拉取的数据作为原始采集数据;
对所述原始采集数据进行处理,得到处理后的采集数据;
将所述处理后的采集数据存储至所述数据集中,并通过所述可视化界面对所述数据集进行管理。
3.根据权利要求1所述的方法,其特征在于,在所述通过代理服务器在第三方平台中获取所述第三方平台的大模型之前,所述方法还包括:
响应于所述模型训练请求生成对应的模型训练任务,并通过所述可视化界面对所述模型训练任务进行管理;其中,所述模型训练任务包括以下阶段:未启动训练的阶段、正在进行训练的阶段和已完成训练的阶段;
基于所述模型训练任务执行所述通过所述代理服务器在第三方平台中获取所述第三方平台的大模型的操作。
4.根据权利要求3所述的方法,其特征在于,响应于所述模型训练请求生成对应的模型训练任务,包括:
在所述模型训练请求中提取出所述用户在所述数据集中选择的数据;
基于所述用户在所述数据集中选择的数据生成所述模型训练任务。
5.根据权利要求1所述的方法,其特征在于,通过所述代理服务器在第三方平台中获取所述第三方平台的大模型,包括:
向所述代理服务器发送模型调用请求,使得所述代理服务器响应于所述模型调用请求在所述第三方平台中获取所述第三方平台的大模型;
接收所述代理服务器返回的所述第三方的大模型。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
基于所述模型调用请求生成对应的模型调用数据,并通过所述可视化界面对所述模型调用数据进行管理。
7.根据权利要求1所述的方法,其特征在于,基于预先构建的数据集接收用户发送的模型训练请求之前,所述方法还包括:
对所述用户的身份进行鉴权,得到所述用户的鉴权结果;其中,所述用户的鉴权结果包括:通过鉴权或者不通过鉴权;
若所述用户的鉴权结果为通过鉴权,则对所述用户在所述数据集中选择的数据进行鉴权,得到所述数据的鉴权结果;其中,所述数据的鉴权结果包括:通过鉴权或者不通过鉴权;
若所述数据的鉴权结果为通过鉴权,则执行所述基于预先构建的数据集接收用户发送的模型训练请求的操作。
8.一种模型训练装置,其特征在于,所述装置包括:接收模块、获取模块和训练模块;其中,
所述接收模块,用于基于预先构建的数据集接收用户发送的模型训练请求;其中,所述模型训练请求包括:内部模型训练请求或者外部模型训练请求;
所述获取模块,用于若所述模型训练请求为所述外部模型训练请求,则通过代理服务器在第三方平台中获取所述第三方平台的大模型;
所述训练模块,用于通过可视化界面对所述第三方的大模型进行训练,得到所述第三方的大模型的训练结果,并通过所述可视化界面对所述第三方的大模型的训练结果进行管理。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的模型训练方法。
10.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310547221.XA CN116560639A (zh) | 2023-05-15 | 2023-05-15 | 一种模型训练方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310547221.XA CN116560639A (zh) | 2023-05-15 | 2023-05-15 | 一种模型训练方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116560639A true CN116560639A (zh) | 2023-08-08 |
Family
ID=87497844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310547221.XA Pending CN116560639A (zh) | 2023-05-15 | 2023-05-15 | 一种模型训练方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116560639A (zh) |
-
2023
- 2023-05-15 CN CN202310547221.XA patent/CN116560639A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9934003B2 (en) | System and method for creating a development and operational platform for mobile applications | |
CA2946224C (en) | Method and apparatus for automating the building of threat models for the public cloud | |
CN109670297B (zh) | 业务权限的开通方法、装置、存储介质及电子设备 | |
US10223329B2 (en) | Policy based data collection, processing, and negotiation for analytics | |
WO2020020202A1 (zh) | 应用程序的账号管理方法、装置、设备和介质 | |
CN110113188A (zh) | 跨子域通信运维方法、总运维服务器和介质 | |
CN111680313B (zh) | 一种数据处理方法、装置、设备及存储介质 | |
US11481508B2 (en) | Data access monitoring and control | |
Sanjappa et al. | Analysis of logs by using logstash | |
WO2022142536A1 (zh) | 灰度发布方法、系统、装置、设备及存储介质 | |
KR101024808B1 (ko) | 도식화된 질문가능한 데이터 소스로서의 리포트 노출 | |
CN111178849A (zh) | 线性流程引擎实现方法、装置、设备及存储介质 | |
CN114626026A (zh) | 对安全敏感计算系统的api访问 | |
US9819559B2 (en) | Integrated solution for application data layer coverage discovery and gap analysis | |
CN113779609B (zh) | 数据管理方法、装置、电子设备及存储介质 | |
CN114237853A (zh) | 应用于异构系统的任务执行方法、装置、设备、介质和程序产品 | |
CN110221910A (zh) | 用于执行mpi作业的方法和装置 | |
CN112579929A (zh) | 一种可视化区块链浏览器页面构建方法及装置 | |
CN112416700A (zh) | 分析启动的预测性故障和smart日志 | |
CN116560639A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN114363202A (zh) | 终端接入状态监测方法及装置、系统、电子设备、介质 | |
CN113656812A (zh) | 一种基于大数据技术的数据管理系统和方法 | |
CN113946328A (zh) | 业务处理方法及系统、存储介质和电子设备 | |
KR20110070767A (ko) | 네트워크 기반 원격 포렌식 시스템 | |
CN110324183B (zh) | 配置多个微信公众号的管理系统、方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |