CN116992982A - 模型部署方法、装置、系统、电子设备和存储介质 - Google Patents

模型部署方法、装置、系统、电子设备和存储介质 Download PDF

Info

Publication number
CN116992982A
CN116992982A CN202310576084.2A CN202310576084A CN116992982A CN 116992982 A CN116992982 A CN 116992982A CN 202310576084 A CN202310576084 A CN 202310576084A CN 116992982 A CN116992982 A CN 116992982A
Authority
CN
China
Prior art keywords
model
server
target
routing information
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310576084.2A
Other languages
English (en)
Inventor
黎智鑫
梁钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Quyan Network Technology Co ltd
Original Assignee
Guangzhou Quyan Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Quyan Network Technology Co ltd filed Critical Guangzhou Quyan Network Technology Co ltd
Priority to CN202310576084.2A priority Critical patent/CN116992982A/zh
Publication of CN116992982A publication Critical patent/CN116992982A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种模型部署方法、装置、系统、电子设备和存储介质,包括:在待部署的模型存储到云端后获取模型的元数据,元数据包括模型的提供方选择的路由信息;根据路由信息确定目标模型服务器;根据元数据为目标模型服务器生成模型配置文件并发送到目标模型服务器,目标模型服务器根据模型配置文件从云端加载模型;将路由信息发送到推荐业务集群中的节点,推荐业务集群中的节点根据路由信息向目标模型服务器发送业务请求,本实施例无需人工介入修改配置文件,实现自动化部署、更新模型,提高了模型部署效率,且可以为不同业务类型的模型配置不同路由信息,以将相同业务类型的模型部署在相同的服务器,优化了服务器资源,提高模型的预测效率。

Description

模型部署方法、装置、系统、电子设备和存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种模型部署方法、装置、系统、电子设备和存储介质。
背景技术
Tersonflow模型由于具有更高的准确性和可拓展性,被广泛应用于处理大规模的数据集和复杂的推荐场景,因此,如何部署使用TensorFlow模型以提升TensorFlow模型的使用效率尤为重要。
目前,主要是通过部署TensorFlow Server,然而,现有的TensorFlow Server服务需要在配置文件中人工指定需要加载的模型,业务端与TensorFlow Server服务相对固定,当模型改版或发布新模型时需要修改配置文件重启后才生效,并且业务端需要相应修改,降低了模型部署效率。
发明内容
本发明提供了一种模型部署方法、装置、系统、电子设备和存储介质,以解决现有模型部署需要人工修改配置文件和业务端设置,导致模型部署效率低的问题。
第一方面,本发明提供了一种模型部署方法,包括:
在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括所述模型的提供方选择的路由信息;
根据所述路由信息确定目标模型服务器;
根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
将所述路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
第二方面,本发明提供了一种模型部署装置,包括:
元数据获取模块,用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;
目标模型服务器确定模块,用于根据所述路由信息确定目标模型服务器;
模型配置文件生成和发送模块,用于根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
业务集群通知模块,用于将所述路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
第三方面,本发明提供了一种模型部署系统,包括机器学习平台、设置多个模型服务器的模型服务集群以及设置多个节点的推荐业务集群;
所述机器学习平台用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;根据所述路由信息确定目标模型服务器;根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器;将所述路由信息发送到推荐业务集群中的节点;
所述模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
第四方面,本发明提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明第一方面所述的模型部署方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明第一方面所述的模型部署方法。
本发明提供的方案,在新模型发布或模型改版时,模型提供方选择路由信息后能够根据路由信息自动确定目标模型服务器,并为目标模型服务器生成配置文件,以使得目标模型服务器根据配置文件加载模型,以及推荐业务集群中的节点根据路由信息向目标模型服务器发送业务请求,即选择路由信息后自动在目标模型服务器部署模型,以及通知推荐业务集群向目标模型服务器发送业务请求,无需人工介入修改配置文件,并且模型配置文件自动推送到目标模型服务器,实现自动化部署、更新模型,提高了模型部署效率,无需在重新加载配置文件后通过重启的方式使得模型生效,另外,根据路由信息确定目标模型服务器,可以为不同业务类型的模型预先配置不同路由信息,由此对模型服务器分类,从而能够将相同业务类型的模型部署在相同的服务器,不同业务类型的模型部署在不同的服务器,优化了服务器资源,减少预测耗时,提高模型的预测效率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种模型部署方法的流程图;
图2A是本发明实施例二提供的一种模型部署方法的流程图;
图2B是本发明实施例中选择路由信息的交互界面的示意图;
图2C是本发明实施例中模型部署的示意图;
图3是本发明实施例三提供的一种模型部署装置的结构示意图;
图4是本发明实施例四提供的一种模型部署系统的结构示意图;
图5是本发明实施例五提供的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例一
图1为本发明实施例一提供的一种模型部署方法的流程图,本实施例可适用于模型部署的情况,该方法可以由模型部署装置来执行,该模型部署装置可以采用硬件和/或软件的形式实现,该模型部署装置可配置于电子设备中。如图1所示,该模型部署方法包括:
S101、在待部署的模型存储到云端后,获取模型的元数据,元数据包括模型的提供方选择的路由信息。
本实施例可适用于模型部署系统进行模型部署,模型部署系统包括机器学习平台、模型服务集群以及业务推荐集群,其中,机器学习平台用于训练模型、存储模型以及推送模型,模型服务集群用于加载模型,业务推荐集群用于向模型服务集群发送业务请求,以使得模型服务集群返回推荐列表,本实施例的目的是将机器学习平台所训练的模型部署到模型服务集群,并使得推荐业务集群能够准确地向模型服务集群请求推荐业务,另外,模型服务集群可以包括多个模型服务器,每个模型服务器可以包括至少一台机器。
待部署的模型可以是新发布的模型,也可以是更新的模型,模型按照业务类型可以分为分数预测模型、推荐列表生成模型等,按照学习框架可以是TensorFlow、caffe、DSSTNE等,元数据可以包括路由信息、模型ID、模型名称、版本、类型、业务场景、更新周期等数据。
本实施例可以预先设置路由信息与模型服务集群中模型服务器的映射关系,在机器学习平台提供交互界面,以供模型的提供方在该交互界面中输入模型ID、名称等信息,并为提供方提供路由信息的选项,以供提供方选择路由信息。
在模型训练完成后,机器学习平台将模型存储到云端后,机器学习平台可以获取到模型的元数据,示例性地,机器学习平台可以将模型的模型文件和模型特征描述文件存储到云端OBS(Object Storage Service,对象存储服务)服务器,OBS服务器是基于对象存储服务的分布式、并行、高可用的文件系统,旨在为大规模数据存储和处理提供高效、可扩展和可靠的存储和访问服务,OBS服务器可以在多个节点之间访问大数据集,支持超过百万个对象的存储,提供最高70GB/s的读取和写入吞吐量,同时还具有无故障切换能力,可在节点故障时自动修复和重建数据,由此OBS服务器广泛应用于大规模科学计算、机器学习、深度学习、金融风控等领域。
S102、根据路由信息确定目标模型服务器。
具体地,可以对模型服务集群中的模型服务器进行分类,并为每个分类的模型服务器设置对应的路由,在一个示例中,可以按照业务功能对模型服务集群中的模型服务器进行分类,比如,推荐音乐频道的模型服务器、推荐话题频道的模型服务器等,并为每类模型服务器设置相应的路由信息,从而形成路由-模型服务器的映射关系,当确定待部署的模型的路由信息后,可以从路由-模型服务器的映射关系确定目标模型服务器,该目标模型服务器为需要加载待部署的模型的服务器,从而通过对模型服务器分类并且设置相应的路由信息,能够将相同类型的模型部署在相同的服务器,将不同类型的模型部署在不同类型的服务器,优化了服务器资源,减少预测耗时,提高模型的预测效率。
在另一个示例中,也可以按照模型服务器的负载能力对模型服务器分类,比如,可以将模型服务集群中的模型服务器分为高负载、中负载以及轻负载等,以根据待部署的模型所需资源大小设置相应的路由信息,模型提供方选择相应的路由信息后将模型部署到高负载、中负载以及轻负载的模型服务器中的一个服务器。
S103、根据元数据为目标模型服务器生成模型配置文件,并发送到目标模型服务器,目标模型服务器用于根据模型配置文件从云端加载模型。
模型配置文件可以是模型服务器所需要加载的模型列表信息,该模型列表信息中包括模型服务器所需要加载的模型的名称、ID、版本、存储路径等信息,元数据中可以包括模型的名称、ID、版本等数据,存储路径在待部署的模型存储到云端后,可以确定模型的存储路径,则可以采用名称、ID、版本、存储路径等信息生成目标模型服务器的模型配置文件,并将模型配置文件发送到目标模型服务器,目标模型服务器可以按照预设周期轮询本地的模型配置文件,当通过模型配置文件确定新增模型或更新模型时,通过模型配置文件中的存储路径从云端加载模型。
S104、将路由信息发送到推荐业务集群中的节点,推荐业务集群中的节点用于根据路由信息向目标模型服务器发送业务请求。
在目标模型服务器从云端加载完模型后,机器学习平台可以将模型的模型信息发送到推荐业务集群中的节点,比如,将模型所在的目标模型服务器的路由信息、模型的版本等发送到推荐业务集群中的各个节点,以使得推荐业务集群中的各个节点在有业务需求时,生成包含路由信息和版本的业务请求,以使得该业务请求能够根据路由信息发送到目标模型服务器,以在目标模型服务器根据相应版本的模型执行预测业务,并返回预测结果到推荐业务集群中的节点。
本发明实施例在新模型发布或模型改版时,模型提供方选择路由信息后能够根据路由信息自动确定目标模型服务器,并为目标模型服务器生成配置文件,以使得目标模型服务器根据配置文件加载模型,以及推荐业务集群中的节点根据路由信息向目标模型服务器发送业务请求,即选择路由信息后自动在目标模型服务器部署模型,以及通知推荐业务集群向目标模型服务器发送业务请求,无需人工介入修改配置文件,并且模型配置文件自动推送到目标模型服务器,实现自动化部署、更新模型,提高了模型部署效率,无需在重新加载配置文件后通过重启的方式使得模型生效,另外,根据路由信息确定目标模型服务器,可以为不同业务类型的模型预先配置不同路由信息,由此对模型服务器分类,从而能够将相同业务类型的模型部署在相同的服务器,不同业务类型的模型部署在不同的服务器,优化了服务器资源,减少预测耗时,提高模型的预测效率。
实施例二
图2A为本发明实施例二提供的一种模型部署方法的流程图,本发明实施例在上述实施例一的基础上进行优化,如图2A所示,该模型部署方法包括:
S201、在待部署的模型存储到云端后,当接收到模型部署通知时,从模型部署通知中确定出模型的元数据,对元数据进行解析得到模型的类型。
如图2B所示为本实施例中模型提供方在交互界面设置元数据的示意图,其中包括模型ID、名称、类型、业务场景、作用、更新周期、版本以及路由信息等,其中更新周期可以设置为每个月、天、小时等,以图2B中更新周期为每天作为示例,可以设置是每天的预设时间训练模型,即模型训练事件可以是每天的预设时间,比如,每天的00:00,则在检测到模型训练事件时训练模型,在模型训练结束后,对模型进行校验,并在校验通过后将模型的模型文件和模型特征描述文件存储到云端。
如图2C所示,机器学习平台用于训练模型并推送模型,大数据平台采集、处理训练模型所需要的训练数据,并将训练数据发送到机器学习平台,机器学习平台检测到模型训练事件后,采用训练数据训练模型,得到训练后的模型,并将训练好的模型上传到模型管理中心,模型管理中心对模型的模型文件和模型特征描述文件进行校验,比如,可以根据模型文件和模型特征描述文件试运行模型,如果模型运行成功,则确定校验通过,则将模型文件和模型特征描述文件存储到云端OBS服务器,其中,模型文件可以是模型的结构、参数等设置文件,模型特征描述文件可以是描述模型预测时所需特征参数、以及特征参数的组装方式的文件。
S202、对元数据进行解析得到模型的类型。
如图2C所示,模型管理中心将模型存储到云端OBS服务器后,通过ETCD、RPC、HTTP等发出通知到模型推送服务,模型推送服务对通知中的元数据解析,得到模型的类型,其中,模型的类型为模型提供方在交互界面中所选择的类型,如图2B所示模型类型为DEEPFM,本实施例在模型存储到云端OBS服务器后即通过通知触发模型推送服务推送模型,能够在模型存储后及时推送模型到目标模型服务器,使得新的模型或更新的模型能够及时部署。
S203、确定模型的类型是否为指定类型。
本实施例中,指定类型可以是指通过TensorFlow构建和训练的模型类型,TensorFlow是开源的数值计算库,用于构建和训练机器学习模型,是基于数据流图的编程模型,其中节点表示数学运算,边表示在节点之间传递的张量(多维数组),本实施例可以预先设置属于指定类型的模型类型,在解析得到模型的类型后,判断模型的类型是否包含在指定类型之内,若是,则执行S204,否则,结束本实施例的流程。本实施例通过判断模型的类型是否为指定类型,可以对指定类型的模型进行自动部署。
S204、根据路由信息确定目标模型服务器。
当模型的类型为指定类型时,可以根据元数据中的路由信息确定目标模型服务器,在一个示例中,可以在路由-模型服务器对照表中查找与路由信息匹配的模型服务器,以作为目标模型服务器,该目标模型服务器为待部署的模型所需要部署的服务器,并且目标模型服务器可以包括一个以上的机器。
S205、从元数据中确定模型的版本信息,以及确定模型在云端的存储路径。
如图2B所示,元数据中还包括模型的版本信息,在将模型存储到云端之后,还包括模型在云端的存储路径,比如模型文件的存储路径和模型特征描述文件的存储路径等。
S206、采用版本信息和存储路径生成目标模型服务器的模型配置文件。
模型配置文件可以是模型服务器所需要加载的模型列表信息,该模型配置文件中可以包括模型的ID、名称、版本信息、模型文件的存储路径等,则可以采用模型的ID、名称、版本信息、模型文件的存储路径等生成目标模型服务器的模型配置文件。
S207、将模型配置文件发送到目标模型服务器,目标模型服务器用于根据模型配置文件确定是否存在新模型或者更新的模型,若是,根据存储路径从云端加载模型。
如图2C所示,模型推送服务生成目标模型服务器的模型配置文件后,将模型配置文件发送到目标模型服务器,以目标模型服务器为TensorFlow Server A作为示例,模型推送服务将所生成的模型配置文件发送到TensorFlow Server A,TensorFlow Server A在接收到模型配置文件存储在本地,TensorFlow Server A中的各个机器(节点)按照预设周期(比如1秒、1分钟等)轮询模型配置文件,以根据当前的模型配置文件和之前的模型配置文件确定是否有新模型发布或者模型更新,若是,则根据模型配置文件中的存储路径从云端OBS服务器加载模型文件,能够按照预设周期自动加载最新的模型配置文件来加载模型,无需重启目标模型服务器后加载模型配置文件使得模型生效,模型能够及时部署生效。
S208、向目标模型服务器发送加载进度请求,目标模型服务器用于在接收到加载进度请求时返回模型的加载进度。
具体地,模型推送服务在将模型配置文件发送到目标模型服务器后,可以向模型服务器发送加载进度请求,以请求目标模型服务器返回模型的加载进度,目标模型服务器在接收到请求后,确定各个机器加载模型的进度并返回到模型推送服务。
S209、在接收到目标模型服务器返回的加载进度时,确定目标模型服务器是否已加载完模型。
具体地,一个模型的加载进度可以是已加载的模型文件的数据大小与模型文件的总数据大小的比值,如果通过加载进度确定已加载完模型,执行S210,若未加载完,则执行S211。
S210、将目标模型服务器的路由信息和模型特征描述文件的路由信息发送到推荐业务集群中的节点。
本实施例中,模型文件加载在目标模型服务器中,模型特征描述文件存储在云端OBS服务器,当然,模型特征描述文件也可以加载在目标模型服务器中,在模型文件在目标模型服务器加载完成后,模型推送服务可以采用模型文件的路由信息、模型特征描述文件的路由信息、模型版本信息等生成新的元数据,并通过ETCD、RPC、HTTP等方式将新的元数据通知到推荐业务集群中的各个节点。
推荐业务集群中的节点在接收到推荐业务请求时,根据模型特征描述文件的路由信息获取模型特征描述文件,并根据模型特征描述文件的描述确定推荐业务所需的特征参数和组装方式,并生成指定形式的特征参数,生成包含该指定形式的特征参数的业务请求,并将该业务请求发送到目标模型服务器的路由信息所指示的目标模型服务器,以使得目标模型服务器接收到特征参数后输入到相应版本的模型中,得到结果,并将结果返回到推荐业务集群中的节点,推荐业务集群中的节点将结果反馈到客户端。
S211、统计向目标模型服务器发送加载进度请求的次数。
本实施例中,可以设置计数器进行次数计算,在每向目标模型服务器发送一次加载进度请求时,计数器中的次数累加1次,得到向目标模型服务器发送加载进度请求询问加载进度的次数。
S212、判断次数是否大于或等于预设次数。
在次数大于或等于预设次数时,执行S213,在次数小于预设次数时,在预设时长后返回S208,以继续向模型服务器发送加载进度请求。
S213、生成告警信息。
若模型推送服务在多次请求询问加载进度结果均为未加载完模型时,可以生成告警信息,并展示告警信息或将告警信息发送到模型提供方的客户端,从而使得模型提供方能够重新选择路由信息或者更改模型的存储路径,并重新向目标模型服务器发送模型配置文件,以使得目标模型服务器重加载待部署的模型,以便目标模型服务器能够成功加载模型,保证模型成功部署。
本实施例通过询问目标模型服务器加载模型的加载进度,以便在加载进度完成时通知推荐业务集群切换业务请求的路由信息,避免了模型未加载完成时推荐业务集群请求业务失败的问题,保证了在模型加载完成后推荐业务集群向加载完后的模型请求业务,提高了请求业务的成功率。
为了使得本领域技术人员更清楚理解本实施例的模型部署方法,以下结合图2B和图2C对模型部署的过程进行说明如下:
假设模型提供方在图2B中选择模型的更新周期为每天00:00,模型路由信息为tf-serving-topic-channel-hight,在当前时间到达00:00时,对模型进行重训练,得到训练好的模型上传到模型管理中心,模型管理中心试运行训练好的模型,如果成功运行,将模型文件和模型特征描述文件存储到云端OBS服务器并获取相应的存储路径,然后通过ETCD将包含模型的元数据通知到模型推送服务,模型推送服务解析其中的元数据得到路由信息和模型的类型,如果模型的类型为TensorFlow模型,则根据路由信息tf-serving-topic-channel-hight确定目标模型服务器为TensorFlow ServerA,生成包含模型ID、名称、存储路径、版本等信息的TensorFlow ServerA的模型配置文件,并发送到TensorFlow ServerA,TensorFlow ServerA中的多个节点(机器)轮询配置文件确定模型更新或发布,则通过存储路径从云端OBS服务器加载模型文件,模型推送服务询问TensorFlow ServerA是否已加载完模型文件,若是,模型推送服务采用TensorFlow ServerA的路由信息、模型特征描述文件在云端OBS服务器的路由信息(存储路径)、模型的版本信息、ID、名称等生成新的元数据,并通过ETCD等方式通知到推荐业务集群中的各个节点,推荐业务集群中的各个节点根据接收到元数据切换推荐业务的相关路由,在接收到推荐业务请求时,通过模型特征描述文件在云端OBS服务器的路由信息从云端OBS服务器获取模型特征描述文件来组装生成特征参数后,生成包含特征参数的业务请求发送到TensorFlow ServerA,由TensorFlow ServerA将特征参数输入相应版本的模型后返回结果到推荐业务集群中的节点。
本实施例在待部署的模型存储到云端并接收到模型部署通知时,对模型的元数据解析得到模型的类型和路由信息,在模型的类型为指定类型时根据路由信息确定目标模型服务器,并采用模型的版本信息和存储路径生成模型配置文件发送到目标模型服务器,以及将目标模型服务器的路由信息和模型特征描述文件的路由信息发送到推荐业务集群中的节点,无需人工介入修改配置文件,实现自动化部署、更新模型,提高了模型部署效率,另外,根据路由信息确定目标模型服务器,可以为不同业务类型的模型预先配置不同路由信息,由此对模型服务器分类,从而能够将相同业务类型的模型部署在相同的服务器,不同业务类型的模型部署在不同的服务器,优化了服务器资源,减少预测耗时,提高模型的预测效率。
实施例三
图3为本发明实施例三提供的一种模型部署装置的结构示意图。如图3所示,该模型部署装置包括:
元数据获取模块301,用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;
目标模型服务器确定模块302,用于根据所述路由信息确定目标模型服务器;
模型配置文件生成和发送模块303,用于根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
业务集群通知模块304,用于将所述路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
可选的,还包括:
模型训练模块,用于在检测到模型训练事件时,训练模型;
存储模块,用于对所述模型进行校验,并在校验通过后将所述模型的模型文件和模型特征描述文件存储到云端。
可选的,所述元数据获取模块301包括:
元数据确定单元,用于在待部署的模型存储到云端后,当接收到模型部署通知时,从所述模型部署通知中确定出所述模型的元数据。
可选的,还包括:
元数据解析模块,用于对所述元数据进行解析得到所述模型的类型;
模型类型判断模块,用于确定所述模型的类型是否为指定类型,若是,则目标模型服务器确定模块302执行根据所述路由信息确定目标模型服务器的操作。
可选的,所述模型配置文件生成和发送模块303包括:
版本和路径确定单元,用于从所述元数据中确定所述模型的版本信息,以及确定所述模型在所述云端的存储路径;
配置文件生成单元,用于采用所述版本信息和所述存储路径生成所述目标模型服务器的模型配置文件;
配置文件发送单元,用于将所述模型配置文件发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件确定是否存在新模型或者更新的模型,若是根据所述存储路径从所述云端加载模型。
可选的,还包括:
加载进度请求发送模块,用于向所述目标模型服务器发送加载进度请求,所述目标模型服务器用于在接收到所述加载进度请求时返回所述模型的加载进度;
加载进度判断模块,用于在接收到所述目标模型服务器返回的加载进度时,确定所述目标模型服务器是否已加载完所述模型,若是,所述业务集群通知模块304执行将所述路由信息发送到推荐业务集群中的节点的操作;
次数统计模块,用于在所述加载进度判断模块确定所述目标模型服务器未加载完所述模型时,统计向所述目标模型服务器发送加载进度请求的次数;
次数判断模块,用于判断所述次数是否大于或等于预设次数;
告警信息生成模块,用于在所述次数判断模块判断所述次数大于或等于预设次数时,生成告警信息。
可选的,所述业务集群通知模块304用于将目标模型服务器的路由信息和模型特征描述文件的路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述模型特征描述文件的路由信息获取所述模型特征描述文件,并根据所述模型特征描述文件生成特征参数,采用所述特征参数生成业务请求发送到目标模型服务器的路由信息所指示的目标模型服务器。
本发明实施例所提供的模型部署装置可执行本发明任意实施例所提供的模型部署方法,具备执行方法相应的功能模块和有益效果。
实施例四
图4为本发明实施例四提供的一种模型部署系统的结构示意图。如图4所示,该模型部署系统包括机器学习平台401、设置有多个模型服务器的模型服务集群402以及设置有多个节点的推荐业务集群403;
所述机器学习平台401用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;根据所述路由信息确定目标模型服务器;根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器;将所述路由信息发送到推荐业务集群中的节点;
所述模型服务集群402中的模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
所述推荐业务集群403中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
本发明实施例所提供的模型部署系统可执行本发明任意实施例所提供的模型部署方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5示出了可以用来实施本发明的实施例的电子设备50的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备50包括至少一个处理器51,以及与至少一个处理器51通信连接的存储器,如只读存储器(ROM)52、随机访问存储器(RAM)53等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器51可以根据存储在只读存储器(ROM)52中的计算机程序或者从存储单元58加载到随机访问存储器(RAM)53中的计算机程序,来执行各种适当的动作和处理。在RAM 53中,还可存储电子设备50操作所需的各种程序和数据。处理器51、ROM 52以及RAM 53通过总线54彼此相连。输入/输出(I/O)接口55也连接至总线54。
电子设备50中的多个部件连接至I/O接口55,包括:输入单元56,例如键盘、鼠标等;输出单元57,例如各种类型的显示器、扬声器等;存储单元58,例如磁盘、光盘等;以及通信单元59,例如网卡、调制解调器、无线通信收发机等。通信单元59允许电子设备50通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器51可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器51的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器51执行上文所描述的各个方法和处理,例如模型部署方法。
在一些实施例中,模型部署方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元58。在一些实施例中,计算机程序的部分或者全部可以经由ROM 52和/或通信单元59而被载入和/或安装到电子设备50上。当计算机程序加载到RAM 53并由处理器51执行时,可以执行上文描述的模型部署方法的一个或多个步骤。备选地,在其他实施例中,处理器51可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型部署方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (11)

1.一种模型部署方法,其特征在于,包括:
在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括所述模型的提供方选择的路由信息;
根据所述路由信息确定目标模型服务器;
根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
将所述路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
2.根据权利要求1所述的模型部署方法,其特征在于,在获取所述模型的元数据之前,还包括:
在检测到模型训练事件时,训练模型;
对所述模型进行校验,并在校验通过后将所述模型的模型文件和模型特征描述文件存储到云端。
3.根据权利要求1所述的模型部署方法,其特征在于,所述在待部署的模型存储到云端后,获取所述模型的元数据,包括:
在待部署的模型存储到云端后,当接收到模型部署通知时,从所述模型部署通知中确定出所述模型的元数据。
4.根据权利要求1所述的模型部署方法,其特征在于,在根据所述路由信息确定目标模型服务器之前,还包括:
对所述元数据进行解析得到所述模型的类型;
确定所述模型的类型是否为指定类型;
若是,执行根据所述路由信息确定目标模型服务器的步骤。
5.根据权利要求1-4任一项所述的模型部署方法,其特征在于,所述根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,包括:
从所述元数据中确定所述模型的版本信息,以及确定所述模型在所述云端的存储路径;
采用所述版本信息和所述存储路径生成所述目标模型服务器的模型配置文件;
将所述模型配置文件发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件确定是否存在新模型或者更新的模型,若是根据所述存储路径从所述云端加载模型。
6.根据权利要求1-4任一项所述的模型部署方法,其特征在于,在将所述路由信息发送到推荐业务集群中的节点之前,还包括:
向所述目标模型服务器发送加载进度请求,所述目标模型服务器用于在接收到所述加载进度请求时返回所述模型的加载进度;
在接收到所述目标模型服务器返回的加载进度时,确定所述目标模型服务器是否已加载完所述模型;
若是,执行将所述路由信息发送到推荐业务集群中的节点的步骤;
若否,统计向所述目标模型服务器发送加载进度请求的次数;
判断所述次数是否大于或等于预设次数;
若是,生成告警信息;
若否,执行向所述目标模型服务器发送加载进度请求的步骤。
7.根据权利要求1-4任一项所述的模型部署方法,其特征在于,所述将所述路由信息发送到推荐业务集群中的节点,包括:
将所述目标模型服务器的路由信息和模型特征描述文件的路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述模型特征描述文件的路由信息获取所述模型特征描述文件,并根据所述模型特征描述文件生成特征参数,采用所述特征参数生成业务请求发送到所述目标模型服务器的路由信息所指示的目标模型服务器。
8.一种模型部署装置,其特征在于,包括:
元数据获取模块,用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;
目标模型服务器确定模块,用于根据所述路由信息确定目标模型服务器;
模型配置文件生成和发送模块,用于根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器,所述目标模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
业务集群通知模块,用于将所述路由信息发送到推荐业务集群中的节点,所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
9.一种模型部署系统,其特征在于,包括机器学习平台、设置多个模型服务器的模型服务集群以及设置多个节点的推荐业务集群;
所述机器学习平台用于在待部署的模型存储到云端后,获取所述模型的元数据,所述元数据包括路由信息;根据所述路由信息确定目标模型服务器;根据所述元数据为所述目标模型服务器生成模型配置文件,并发送到所述目标模型服务器;将所述路由信息发送到推荐业务集群中的节点;
所述模型服务器用于根据所述模型配置文件从所述云端加载所述模型;
所述推荐业务集群中的节点用于根据所述路由信息向所述目标模型服务器发送业务请求。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的模型部署方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的模型部署方法。
CN202310576084.2A 2023-05-22 2023-05-22 模型部署方法、装置、系统、电子设备和存储介质 Pending CN116992982A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310576084.2A CN116992982A (zh) 2023-05-22 2023-05-22 模型部署方法、装置、系统、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310576084.2A CN116992982A (zh) 2023-05-22 2023-05-22 模型部署方法、装置、系统、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN116992982A true CN116992982A (zh) 2023-11-03

Family

ID=88522117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310576084.2A Pending CN116992982A (zh) 2023-05-22 2023-05-22 模型部署方法、装置、系统、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN116992982A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117992115A (zh) * 2024-04-02 2024-05-07 建信金融科技有限责任公司 系统配置处理方法、装置、设备、介质及程序产品

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117992115A (zh) * 2024-04-02 2024-05-07 建信金融科技有限责任公司 系统配置处理方法、装置、设备、介质及程序产品

Similar Documents

Publication Publication Date Title
US10552247B2 (en) Real-time monitoring alert chaining, root cause analysis, and optimization
US11080159B2 (en) Monitor-mine-manage cycle
CN114997414B (zh) 数据处理方法、装置、电子设备和存储介质
CN116992982A (zh) 模型部署方法、装置、系统、电子设备和存储介质
CN113377626A (zh) 基于服务树的可视化统一报警方法、装置、设备和介质
CN115335821B (zh) 卸载统计收集
CN113760638A (zh) 一种基于kubernetes集群的日志服务方法和装置
CN114070889B (zh) 配置方法、流量转发方法、设备、存储介质及程序产品
CN113360689B (zh) 图像检索系统、方法、相关装置及计算机程序产品
CN113138772B (zh) 数据处理平台的构建方法、装置、电子设备和存储介质
CN115774602A (zh) 一种容器资源的分配方法、装置、设备及存储介质
CN114756301A (zh) 日志处理方法、装置和系统
US11586964B2 (en) Device component management using deep learning techniques
CN114064403A (zh) 一种任务延迟分析处理方法和装置
CN111858234A (zh) 一种任务执行方法、装置、设备、介质
CN112799797A (zh) 一种任务管理的方法和装置
CN114679468B (zh) 文件传输方法、装置、电子设备及计算机可读存储介质
CN111767085B (zh) Storm平台参数配置方法和装置
CN114615144B (zh) 网络优化方法及系统
CN117130873B (zh) 一种任务监控的方法和装置
CN113778657B (zh) 一种数据处理方法和装置
CN113641670B (zh) 数据存储及数据检索方法、装置、电子设备及存储介质
CN117076251A (zh) 一种实时计算任务监控方法、装置及电子设备
CN117726719A (zh) 一种图表处理方法和装置
CN117453988A (zh) 一种产品推荐方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination