CN111399853B - 机器学习模型与自定义算子的模板化部署方法 - Google Patents

机器学习模型与自定义算子的模板化部署方法 Download PDF

Info

Publication number
CN111399853B
CN111399853B CN202010105170.1A CN202010105170A CN111399853B CN 111399853 B CN111399853 B CN 111399853B CN 202010105170 A CN202010105170 A CN 202010105170A CN 111399853 B CN111399853 B CN 111399853B
Authority
CN
China
Prior art keywords
machine learning
learning model
user
model
templated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010105170.1A
Other languages
English (en)
Other versions
CN111399853A (zh
Inventor
何思佑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan XW Bank Co Ltd
Original Assignee
Sichuan XW Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan XW Bank Co Ltd filed Critical Sichuan XW Bank Co Ltd
Priority to CN202010105170.1A priority Critical patent/CN111399853B/zh
Publication of CN111399853A publication Critical patent/CN111399853A/zh
Application granted granted Critical
Publication of CN111399853B publication Critical patent/CN111399853B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Stored Programmes (AREA)

Abstract

本发明涉及机器学习模型与自定义算子的模板化部署方法,包括:包括:A.根据机器学习模型的预测过程设置通用模板;B.将用户输入的框架名称和机器学习模型的模型名称在配置文件中进行匹配,用配置文件中的相应字段替换通用模板中的替代符;C.根据通用模板生成可执行文件;D.在服务器中以容器的形式运行通用模板和用户上传的机器学习模型,将实例化后的机器学习模型加入到服务序列中;E.用户进行HTTP请求时,根据用户输入的模型ID或自定义算子ID在服务序列中查找机器学习模型实例,并调用模型实例中的预测方法计算后返回结果。本发明能够大幅度缩短机器学习模型的部署时间,显著的降低了在部署环节中的人员开发成本和时间成本。

Description

机器学习模型与自定义算子的模板化部署方法
技术领域
本发明涉及机器学习模型与自定义算子的部署方法,具体讲是机器学习模型与自定义算子的模板化部署方法。
背景技术
近年来,机器学习技术的应用十分广泛,多个行业的技术也因此发生了变革,如金融风控技术、图像识别技术、自动驾驶技术等。机器学习技术应用主要分为两个步骤:(1)训练模型:通过算法拟合数据,持久化一个可复用的模型;(2)部署模型:将模型部署为API(应用程序接口)供其他应用系统调用。前者主要被学术界深入研究,而后者在工业生产应用中是一个比较重要且复杂的环节。它的主要挑战在于常用的技术框架繁多,如:Sklearn、H2O、pyspark、TensorFlow、Keras、Pytorch等,每个框架生成的模型都需要使用一套完全不同的环境依赖和方法来部署调用,并且多数应用不仅会用到模型,还会使用算子(自定义代码)对输入数据进行大量的转化处理,这对模型部署的复杂逻辑处理能力要求较高。上述问题为模型的部署带来了过多的开发工作,大量增加了时间和人力成本。
在现有技术中实现对机器学习模型部署的方法有:
(1)通过MLeap:MLeap(machine learning pipelines)是一种常用的序列化格式和执行引擎。它将可用的机器学习模型持久化为一个MLeap Bundle格式的json文件,再使用Java语言统一运行环境,通过解析Json文件还原模型参数,规避运行环境和框架依赖的问题。
该方法的缺点是:MLeap Bundle的定义并不标准且并不兼容所有模型,并且MLeap的原始目的是为了解决spark MLlib和sciket-learn的模型相互转化的问题,对其他框架的支持较弱。最大的缺点是没有提供模型API(应用程序接口)快速发布的功能。
(2)通过KubeFlow:KubeFlow是基于Kubernetes的主流机器学习解决方案,它采用kubernetes+TensorFlow结合的方式,使用容器编排技术,一站式统一模型训练的集群化管理,并通过seldon core将模型部署为REST API形式。
该方法的缺点是:作为全力支持Tensorflow模型的框架,对于模型部署,其包含了过多的冗余功能,较为“笨重”,如训练步骤中的节点资源管理等。并且该框架的模型部署服务对自定义算子的支持十分薄弱,不能灵活组装模型与代码的pipeline。
上述现有方法实现对机器学习模型部署的步骤一般为:
1、使用原生框架实现模型训练,并保存模型文件。
2、针对模型文件写一个Web服务。
3、将服务打包放到Tomcat服务器中。
4、启动Tomcat服务。
这种部署方法比较复杂,且当模型更新时需重复2、3、4步骤,耗时长且难以对模型服务进行集中管理。
在现有技术中,还包括有用于工作流的模板化开发部署与实例化。而工作流要应对的问题主要是集成大量的无关联计算机程序,使其产生关联,该现有技术与机器学习模型的部署属于两种不同的应用领域。
发明内容
本发明提供了一种机器学习模型与自定义算子的模板化部署方法,以缩短机器学习模型的部署时间,降低在部署环节中的人员开发成本和时间成本。
本发明机器学习模型与自定义算子的模板化部署方法,包括:
A.根据机器学习模型的预测过程,通过服务器的处理器在存储介质中设置具有5个步骤的供不同框架模型实例化时调用的通用模板,在通用模板中具有实现所述5个步骤的通用代码和不通用部分,并将所述的不通用部分以替代符的形式替代;
B.所述处理器提取出用户通过输入设备输入的框架名称和上传的机器学习模型中的模型名称,并将所述的框架名称和模型名称在配置文件中进行匹配,如果配置文件中有对应的框架名称和模型名称,则提取出配置文件中对应的框架和机器学习模型中的相应字段对应替换通用模板中的替代符;所述的配置文件可以是在机器学习模型开发阶段制定的两套通用模板:spark和sklearn,也可以是用户上传的需要支持的框架。配置文件可以做到一次制定多次复用。在配置文件中包含文中所述5个步骤的必要操作。
C.处理器根据替换了替代符的通用模板生成可执行文件并保存在服务器内存中;
D.在服务器中以容器的形式运行通用模板和用户上传的机器学习模型,以用户输入的模型ID和用户请求当前模型的自定义算子ID作为唯一区分键,然后将实例化后的机器学习模型加入到供用户调用的服务序列中;
E.当服务器接收到用户的HTTP请求时,根据用户输入的模型ID或自定义算子ID在所述服务序列中查找对应的机器学习模型实例,并调用查找到的机器学习模型实例中的预测方法计算后返回结果。
通过将机器学习模型的预测过程以通用模板的形式进行模板化,能够使用户在不需要编写额外代码的情况下,将已有的机器学习模型通过通用模板和配置文件发布为可靠API(应用程序接口)服务;并提供自定义代码为API服务与机器学习模型进行组合使用,大幅度缩短了机器学习模型的部署时间,明显降低了在部署环节的人员开发成本和时间成本。
进一步的,步骤A中所述的5个步骤分别是与机器学习模型的预测过程对应的输入检测、模型载入、数据转化、预测结果和卸载模型。
进一步的,步骤B中,如果配置文件中没有对应的框架名称和模型名称,则由用户补充相应的配置文件后再执行步骤B。
进一步的,由于自定义算子中可能存在代码编写不规范或自定义方法,以及局部变量与全局变量定义交织的情况,因此针对自定义算子,在所述通用模板中具有接收用户输入参数的过程方法,作为用户调用的入口,并且无论该过程方法是否有返回值,都在该过程方法的末尾添加返回代码以区分变量区间。并且运行时以“方法”为主体,避免与生成的可执行文件中的类冲突。
进一步的,步骤C所述的可执行文件中包括:对步骤B所述框架名称对应的框架所需的所有依赖库、以用户输入的模型ID为区分键的统一命名格式的类,以及组成完整的模型预测周期的方法。
进一步的,步骤D中,通过Flask工具读取服务器内存中所述的可执行文件,通过Docker工具整合通用模板和机器学习模型的依赖库,然后在服务器中以容器的形式运行通用模板和用户上传的机器学习模型。Flask工具是一种用Python语言基于Werkzeug工具箱编写的轻量级Web开发框架,Flask工具作为Web服务提供者,服务器内存中的可执行文件被看作独立的小服务,运行在Flask这个服务载体上。Flask工具通常运行于类似于Tomcat或Apache等常用的服务容器中。Docker是一种开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的镜像中。
进一步的,步骤D所述供用户调用的服务序列中包含的所有机器学习模型实例对外只提供一个接口地址,由此可以屏蔽用户对请求分发给不同模型服务的感知,简化用户的调用;步骤E中当服务器接收到用户的HTTP请求时,根据用户输入的模型ID或自定义算子ID将用户的HTTP请求分发给服务序列中对应的机器学习模型实例。
进一步的,步骤E中,在根据用户输入的模型ID或自定义算子ID在所述服务序列中查找到对应的机器学习模型实例后,通过该机器学习模型实例中的检查方法检查用户输入的数据是否正确,如果正确,再调用查找到的机器学习模型实例中的预测方法计算后返回结果,否则返回输入错误的提示信息。
本发明的机器学习模型与自定义算子的模板化部署方法,能够大幅度缩短机器学习模型的部署时间,并且在部署时不需要编写额外代码,显著的降低了在部署环节中的人员开发成本和时间成本。
以下结合实施例的具体实施方式,对本发明的上述内容再作进一步的详细说明。但不应将此理解为本发明上述主题的范围仅限于以下的实例。在不脱离本发明上述技术思想情况下,根据本领域普通技术知识和惯用手段做出的各种替换或变更,均应包括在本发明的范围内。
附图说明
图1为本发明机器学习模型与自定义算子的模板化部署方法的流程图。
图2为实施例中配置文件的一种模板示例。
图3为将图2模板中的替换符替换后的模板示例。
具体实施方式
如图1所示本发明机器学习模型与自定义算子的模板化部署方法,包括:
A.根据机器学习模型的预测过程,通过服务器的处理器在存储介质中设置具有5个步骤的供不同框架模型实例化时调用的通用模板,其中所述的5个步骤分别为:输入检测、模型载入、数据转化、预测结果和卸载模型。在通用模板中具有实现所述5个步骤的通用代码和不通用部分,其中通用代码包括:数据接收、数据解析、字段检查、结果封装等,不通用部分包括:环境依赖引入、模型ID、模型读取、数据转化、模型预测等。将所述的不通用部分以替代符的形式替代。
由于自定义算子中可能存在代码编写不规范或自定义方法,以及局部变量与全局变量定义交织的情况,因此针对自定义算子,在所述通用模板中具有接收用户输入参数的过程方法process(input_parameters),作为用户调用的入口,并且无论该过程方法是否有返回值,都在该过程方法的末尾添加返回代码return,以区分变量区间。并且运行时以“方法”为主体,避免与生成的可执行文件中的类冲突。
B.所述处理器提取出用户通过输入设备输入的框架名称和上传的机器学习模型中的模型名称,并将所述的框架名称和模型名称在配置文件中进行匹配。所述的配置文件可以是在机器学习模型开发阶段制定的两套通用模板:spark和sklearn,也可以是用户上传的需要支持的框架。在配置文件中包含文中所述5个步骤的必要操作。如果配置文件中有对应的框架名称和模型名称,则提取出配置文件中对应的框架和机器学习模型中的相应字段对应替换通用模板中的替代符。如果配置文件中没有对应的框架名称和模型名称,则由用户补充相应的配置文件后再执行步骤B。如图2所示的原始模板,其中方框中的内容为不通用部分的替换符内容,例如第一个方框中的##dependicieds##会根据框架的不同导入不同的依赖。将所有替换符替换后的效果如图3所示。
C.处理器根据替换了替代符的通用模板生成可执行文件并保存在服务器内存中。在所述的可执行文件中包括:对步骤B所述框架名称对应的框架所需的所有依赖库、以用户输入的模型ID为区分键将类名统一为“CODE_FRAMEWORK”格式,以及组成完整的模型预测周期的方法,包括有:初始化方法init()、有效性检查方法check_define()、加载方法load_model()、数据转换方法prepare_data()、预测方法predict()、卸载模型方法stop_service()。
D.通过Flask工具读取服务器内存中所述的可执行文件,Flask工具作为Web服务提供者,服务器内存中的可执行文件被看作独立的小服务,运行在Flask这个服务载体上。Flask工具通常运行于类似于Tomcat或Apache等常用的服务容器中。通过Docker工具整合通用模板(可执行文件)和机器学习模型的依赖库,然后在服务器中以容器的形式运行通用模板和用户上传的机器学习模型。以用户输入的模型ID和用户请求当前模型的自定义算子ID作为唯一区分键,再调用init()与load_model()方法将机器学习模型实例化,然后将实例化后的机器学习模型加入到供用户调用的服务序列中。在所述的服务序列中包含的所有机器学习模型实例对外只提供一个接口地址,由此可以屏蔽用户对请求分发给不同模型服务的感知,简化用户的调用。
E.当服务器接收到用户的HTTP请求时,根据用户输入的模型ID或自定义算子ID在所述服务序列中查找到对应的机器学习模型实例,并将用户的HTTP请求分发给该机器学习模型实例。通过该机器学习模型实例中的有效性检查方法check_define()检查用户输入的数据是否正确,如果正确,再通过所述数据转换方法prepare_data()将用户输入数据转化为可用类型,然后调用预测方法predict()计算后返回结果。如果检查到用户输入数据不正确,则返回输入错误的提示信息。
本发明通过将机器学习模型的预测过程以通用模板的形式进行模板化,能够使用户在不需要编写额外代码的情况下,将已有的机器学习模型通过通用模板和配置文件发布为可靠API(应用程序接口)服务;并提供自定义代码为API服务与机器学习模型进行组合使用,大幅度缩短了机器学习模型的部署时间,明显降低了在部署环节的人员开发成本和时间成本。
通过表1的测试数据对比不同方法部署机器学习模型的时间来衡量本发明为部署人员带来的时间收益(部署人员使用Mleap和KubeFlow方法实现简单的Web服务):
MLeap(machine learning pipelines)是一种常用的序列化格式和执行引擎。它将可用的机器学习模型持久化为一个MLeap Bundle格式的json文件,再使用Java语言统一运行环境,通过解析Json文件还原模型参数,规避运行环境和框架依赖的问题。
KubeFlow是基于Kubernetes的主流机器学习解决方案,它采用kubernetes+TensorFlow结合的方式,使用容器编排技术,一站式统一模型训练的集群化管理,并通过seldon core将模型部署为REST API形式。
表1:
模型部署方法 所需时间
Mleap 45min
KubeFlow 15min
本发明方法 3min
另外,通过本发明的部署,模型部署后的迁移也非常方便,仅需拷贝镜像与代码启动容器,执行启动服务命令即可。

Claims (8)

1.机器学习模型与自定义算子的模板化部署方法,其特征包括:
A.根据机器学习模型的预测过程,通过服务器的处理器在存储介质中设置具有5个步骤的供不同框架模型实例化时调用的通用模板,在通用模板中具有实现所述5个步骤的通用代码和不通用部分,并将所述的不通用部分以替代符的形式替代;
B.所述处理器提取出用户通过输入设备输入的框架名称和上传的机器学习模型中的模型名称,并将所述的框架名称和模型名称在配置文件中进行匹配,如果配置文件中有对应的框架名称和模型名称,则提取出配置文件中对应的框架和机器学习模型中的相应字段对应替换通用模板中的替代符;
C.处理器根据替换了替代符的通用模板生成可执行文件并保存在服务器内存中;
D.在服务器中以容器的形式运行通用模板和用户上传的机器学习模型,以用户输入的模型ID和用户请求当前模型的自定义算子ID作为唯一区分键,然后将实例化后的机器学习模型加入到供用户调用的服务序列中;
E.当服务器接收到用户的HTTP请求时,根据用户输入的模型ID或自定义算子ID在所述服务序列中查找对应的机器学习模型实例,并调用查找到的机器学习模型实例中的预测方法计算后返回结果。
2.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤A中所述的5个步骤分别是与机器学习模型的预测过程对应的输入检测、模型载入、数据转化、预测结果和卸载模型。
3.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤B中,如果配置文件中没有对应的框架名称和模型名称,则由用户补充相应的配置文件后再执行步骤B。
4.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:针对自定义算子,在所述通用模板中具有接收用户输入参数的过程方法,作为用户调用的入口,并且无论该过程方法是否有返回值,都在该过程方法的末尾添加返回代码以区分变量区间。
5.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤C所述的可执行文件中包括:对步骤B所述框架名称对应的框架所需的所有依赖库、以用户输入的模型ID为区分键的统一命名格式的类,以及组成完整的模型预测周期的方法。
6.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤D中,通过Flask工具读取服务器内存中所述的可执行文件,通过Docker工具整合通用模板和机器学习模型的依赖库,然后在服务器中以容器的形式运行通用模板和用户上传的机器学习模型。
7.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤D所述供用户调用的服务序列中包含的所有机器学习模型实例对外只提供一个接口地址;步骤E中当服务器接收到用户的HTTP请求时,根据用户输入的模型ID或自定义算子ID将用户的HTTP请求分发给服务序列中对应的机器学习模型实例。
8.如权利要求1所述的机器学习模型与自定义算子的模板化部署方法,其特征为:步骤E中,在根据用户输入的模型ID或自定义算子ID在所述服务序列中查找到对应的机器学习模型实例后,通过该机器学习模型实例中的检查方法检查用户输入的数据是否正确,如果正确,再调用查找到的机器学习模型实例中的预测方法计算后返回结果,否则返回输入错误的提示信息。
CN202010105170.1A 2020-02-20 2020-02-20 机器学习模型与自定义算子的模板化部署方法 Active CN111399853B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010105170.1A CN111399853B (zh) 2020-02-20 2020-02-20 机器学习模型与自定义算子的模板化部署方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010105170.1A CN111399853B (zh) 2020-02-20 2020-02-20 机器学习模型与自定义算子的模板化部署方法

Publications (2)

Publication Number Publication Date
CN111399853A CN111399853A (zh) 2020-07-10
CN111399853B true CN111399853B (zh) 2023-06-06

Family

ID=71432742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010105170.1A Active CN111399853B (zh) 2020-02-20 2020-02-20 机器学习模型与自定义算子的模板化部署方法

Country Status (1)

Country Link
CN (1) CN111399853B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784000B (zh) * 2020-07-16 2024-05-17 矩阵元技术(深圳)有限公司 数据处理方法、装置和服务器
EP4141663A4 (en) * 2020-07-17 2023-05-31 Huawei Technologies Co., Ltd. DATA PROCESSING METHOD AND APPARATUS, AND INTELLIGENT VEHICLE
CN112130895B (zh) * 2020-08-04 2022-04-15 中科天玑数据科技股份有限公司 一种可移植性的模型发布方法、装置和存储介质
CN112015519A (zh) * 2020-08-28 2020-12-01 江苏银承网络科技股份有限公司 模型线上部署方法及装置
CN112148494B (zh) * 2020-09-30 2023-07-25 北京百度网讯科技有限公司 用于算子服务的处理方法、装置、智能工作站和电子设备
CN112230956A (zh) * 2020-10-15 2021-01-15 北京明略昭辉科技有限公司 一种人工智能模型更新方法、系统、电子设备及存储介质
CN112631882B (zh) * 2020-12-03 2023-06-06 四川新网银行股份有限公司 一种结合线上业务指标特征的容量预估方法
CN112966833B (zh) * 2021-04-07 2023-01-31 福州大学 基于Kubernetes集群的机器学习模型平台
CN113296766B (zh) * 2021-05-31 2022-10-11 中电福富信息科技有限公司 基于Seldon的AI模型发布方法及系统
CN113608762B (zh) * 2021-07-30 2024-05-17 烽火通信科技股份有限公司 一种深度学习多模型统一部署方法与装置
CN113515925A (zh) * 2021-08-06 2021-10-19 上海中通吉网络技术有限公司 基于PMML模型及配置自动生成dubbo服务的方法
CN114063868A (zh) * 2021-11-18 2022-02-18 神州数码系统集成服务有限公司 一种ai拖拽建模系统、方法、计算机设备及应用

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104572235A (zh) * 2014-12-31 2015-04-29 北京奇虎科技有限公司 一种可加载内核模块的编译方法和装置
CN106250987A (zh) * 2016-07-22 2016-12-21 无锡华云数据技术服务有限公司 一种机器学习方法、装置及大数据平台
CN106528165A (zh) * 2016-11-11 2017-03-22 深圳中兴网信科技有限公司 代码生成方法及代码生成系统
CN110083334A (zh) * 2018-01-25 2019-08-02 北京顺智信科技有限公司 模型上线的方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030233631A1 (en) * 2002-06-13 2003-12-18 Ambrose Curry Web services development method
US7890315B2 (en) * 2005-12-29 2011-02-15 Microsoft Corporation Performance engineering and the application life cycle
WO2015187710A1 (en) * 2014-06-02 2015-12-10 Blackwatch International A generic template node for developing and deploying model software packages
US10831519B2 (en) * 2017-11-22 2020-11-10 Amazon Technologies, Inc. Packaging and deploying algorithms for flexible machine learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104572235A (zh) * 2014-12-31 2015-04-29 北京奇虎科技有限公司 一种可加载内核模块的编译方法和装置
CN106250987A (zh) * 2016-07-22 2016-12-21 无锡华云数据技术服务有限公司 一种机器学习方法、装置及大数据平台
CN106528165A (zh) * 2016-11-11 2017-03-22 深圳中兴网信科技有限公司 代码生成方法及代码生成系统
CN110083334A (zh) * 2018-01-25 2019-08-02 北京顺智信科技有限公司 模型上线的方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jim Pivarski等.Deploying Analytics with the Portable Format for Analytics (PFA).《Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining》.2016,579-588. *
林桂芳.异构化TensorFlow架构的研究与实现.《中国优秀硕士学位论文全文数据库信息科技辑》.2018,(第6期),I139-149. *

Also Published As

Publication number Publication date
CN111399853A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111399853B (zh) 机器学习模型与自定义算子的模板化部署方法
CN108845940B (zh) 一种企业级信息系统自动化功能测试方法和系统
US9760365B2 (en) Systems, methods, and computer program products for a software build and load process using a compilation and deployment service
CA2713247C (en) Integration environment generator
CN105022630B (zh) 一种组件管理系统及组件管理方法
Sneed Migrating from COBOL to Java
US10169222B2 (en) Apparatus and method for expanding the scope of systems management applications by runtime independence
CN104077140A (zh) 用于持续集成的自动化编译方法和编译装置
US20080276221A1 (en) Method and apparatus for relations planning and validation
CN109032631B (zh) 应用程序补丁包获取方法、装置、计算机设备及存储介质
US10996935B2 (en) Automated technology modernization accelerator
Balogh et al. Workflow-driven tool integration using model transformations
Diercks et al. Evaluation of tools for describing, reproducing and reusing scientific workflows
US20180314497A1 (en) Translation of assembler language code using intermediary technical rules language (trl)
CN109765838B (zh) 可编程逻辑控制器组态文件的生成方法及装置
US10958514B2 (en) Generating application-server provisioning configurations
Wotawa et al. The Java2CSP debugging tool utilizing constraint solving and model-based diagnosis principles
CN110321138B (zh) 一种程序更新、迁移方法和装置
CN111722996B (zh) 交互标准符合性测试方法和装置
US20220207438A1 (en) Automatic creation and execution of a test harness for workflows
CN110837896B (zh) 机器学习模型的存储和调用方法、装置
CN107636606B (zh) 一种配置文件分级方法及终端
Farooq et al. Ontology Based Test Case Reduction in Regression Testing
CN114489676A (zh) 源代码的处理方法、系统、存储介质及电子设备
WO2020245770A1 (en) Traceability based impact analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant