CN117519838B - Ai工作流建模方法及相关装置、设备、系统和介质 - Google Patents

Ai工作流建模方法及相关装置、设备、系统和介质 Download PDF

Info

Publication number
CN117519838B
CN117519838B CN202410012615.XA CN202410012615A CN117519838B CN 117519838 B CN117519838 B CN 117519838B CN 202410012615 A CN202410012615 A CN 202410012615A CN 117519838 B CN117519838 B CN 117519838B
Authority
CN
China
Prior art keywords
component
workflow
current
previous
resource parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410012615.XA
Other languages
English (en)
Other versions
CN117519838A (zh
Inventor
殷俊
郑子泽
吴立
姚国勤
程长
杜功元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202410012615.XA priority Critical patent/CN117519838B/zh
Publication of CN117519838A publication Critical patent/CN117519838A/zh
Application granted granted Critical
Publication of CN117519838B publication Critical patent/CN117519838B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44521Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
    • G06F9/44526Plug-ins; Add-ons

Abstract

本申请公开了一种AI工作流建模方法及相关装置、设备、系统和介质,AI工作流建模方法包括:响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息;其中,AI工作流包含顺序连接的若干AI组件,且详细信息至少包括AI组件的配置资源参数;从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备。上述方案,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。

Description

AI工作流建模方法及相关装置、设备、系统和介质
技术领域
本申请涉及人工智能技术领域,特别是涉及一种AI工作流建模方法及相关装置、设备、系统和介质。
背景技术
人工智能(Artificial Intelligence,AI)的开发往往需要特定的软/硬件环境的支持,目前大量的开发工作都是用户在线下使用自己搭建的环境进行开发。
面对该问题,相关研究提出可视化建模平台以为建模AI工作流提供便利。但是,现有技术中的可视化建模平台通常是本地的或局域网内的,故仍然需要用户花费资金购置硬件设备,且难以实现异地工作,AI工作流的建模效率也较为低下。有鉴于此,如何在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率,成为亟待解决的问题。
发明内容
本申请主要解决的技术问题是提供一种AI工作流建模方法及相关装置、设备、系统和介质,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
为了解决上述问题,本申请第一方面提供了一种AI工作流建模方法,包括:响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息;其中,AI工作流包含顺序连接的若干AI组件,且详细信息至少包括AI组件的配置资源参数;从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备。
为了解决上述问题,本申请第二方面提供了一种AI工作流建模方法,包括:在服务端设备调度AI工作流中当前AI组件之前,向服务端设备至少反馈当前AI组件的上一AI组件的运行资源参数和运行容器地址;其中,AI工作流包含顺序连接的若干AI组件,且服务端设备响应于对AI工作流的启动指令而从AI工作流中起始启动的AI组件开始调度;接受服务端设备对当前AI组件的调度指令;其中,当前AI组件的调度指令由服务端设备基于上一AI组件的运行资源参数和运行容器起始及当前AI组件的配置资源参数而发起,且AI工作流中AI组件的配置资源参数包含于AI工作流的详细信息,AI工作流的详细信息由服务端设备基于AI工作流的基础信息查询得到。
为了解决上述问题,本申请第三方面提供了一种AI工作流建模装置,包括:信息查询模块和组件调度模块,信息查询模块,用于响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息;其中,AI工作流包含顺序连接的若干AI组件,且详细信息至少包括AI组件的配置资源参数;组件调度模块,用于从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备。
为了解决上述问题,本申请第四方面提供了一种AI工作流建模装置,包括:运行反馈模块和指令接收模块,运行反馈模块,用于在服务端设备调度AI工作流中当前AI组件之前,向服务端设备至少反馈当前AI组件的上一AI组件的运行资源参数和运行容器地址;其中,AI工作流包含顺序连接的若干AI组件,且服务端设备响应于对AI工作流的启动指令而从AI工作流中起始启动的AI组件开始调度;指令接收模块,用于接收服务端设备对当前AI组件的调度指令;其中,当前AI组件的调度指令由服务端设备基于上一AI组件的运行资源参数和运行容器起始及当前AI组件的配置资源参数而发起,且AI工作流中AI组件的配置资源参数包含于AI工作流的详细信息,AI工作流的详细信息由服务端设备基于AI工作流的基础信息查询得到。
为了解决上述问题,本申请第五方面提供了一种电子设备,包括通信电路、存储器和处理器,括通信电路、存储器分别耦接于处理器,存储器存储有程序指令,处理器用于执行程序指令以实现上述第一方面中的AI工作流建模方法。
为了解决上述问题,本申请第六方面提供了一种AI工作流系统,包括通信连接的服务端设备和客户端设备,服务端设备用于执行上述第一方面中的AI工作流建模方法,客户端设备用于执行上述第二方面中的AI工作流建模方法。
为了解决上述问题,本申请第七方面提供了一种计算机可读存储介质,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的AI工作流建模方法。
上述方案,响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息,且AI工作流包含顺序连接的若干AI组件,详细信息至少包括AI组件的配置资源参数,基于此从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
附图说明
图1是本申请AI工作流建模方法一实施例的流程示意图;
图2a是可视化建模平台的前端界面一实施例的示意图;
图2b是数据预处理组件的相关信息一实施例的示意图;
图2c是交互界面中AI工作流一实施例的示意图;
图2d是服务端设备与客户端设备之间相互交互一实施例的过程示意图;
图2e是服务端设备与客户端设备之间相互交互另一实施例的过程示意图;
图2f是编辑页面一实施例的示意图;
图2g是修改记录一实施例的示意图;
图3是本申请AI工作流建模方法另一实施例的流程示意图;
图4是本申请AI工作流建模装置一实施例的框架示意图;
图5是本申请AI工作流建模装置另一实施例的框架示意图;
图6是本申请电子设备一实施例的框架示意图;
图7是本申请AI工作流系统一实施例的框架示意图;
图8是本申请计算机可读存储介质一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。
请参阅图1,图1是本申请AI工作流建模方法一实施例的流程示意图。具体而言,本公开实施例中步骤可以由服务端设备执行,具体可以包括如下步骤:
步骤S11:响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息。
本公开实施例中,AI工作流可以包含顺序连接的若干AI组件,且详细信息至少包括AI组件的配置资源参数。需要说明的是,AI组件可以表征实现相应功能的AI算法。示例性地,可以包括但不限于:读数据组件、写数据组件等数据源组件,以及预标注组件、数据清洗组件等数据预处理组件、模型训练组件、模型推理组件、仿真验证组件等,在此不做限定。当然,为了提升用户搭建AI工作流的便利性,还可以包括自定义组件,即用户可以自行设计AI组件。此外,配置资源参数表征AI组件运行时理论所需资源,如资源类型、资源容量等。示例性地,资源可以如CPU或GPU,进一步地,对于GPU还可以细分为1080Ti、3060Ti等,在此不做限定。
在一个实施场景中,为了便于用户搭建AI工作流,本公开实施例中AI工作流可以由用户基于可视化建模平台而搭建。请结合参阅图2a,图2a是可视化建模平台的前端界面一实施例的示意图。更为具体地,图2a所示为前端界面中的交互界面。如图2a所示,交互界面左侧为组件树,用于为用户在搭建AI工作流过程中提供各种AI组件,交互界面中间为画布,用于供用户在此搭建AI工作流,交互界面的右侧展示AI工作流的相关信息或AI组件的相关信息。具体地,用户可以在交互界面的左侧从组件树中选择AI组件拖拽至交互界面中间的画布中,最终连接AI组件,即可形成完整的AI工作流。此外,还可以选中画布的空白区域,在右侧展示AI工作流的相关信息。示例性地,如图2a所示,AI工作流的相关信息可以包括但不限于:AI工作流的名称、AI工作流的管理员、AI工作流的开发人员,在此不做限定。或者,也可以选中AI工作流中任一AI组件,在右侧展示被选中AI组件的相关信息。当然,不同AI组件的相关信息可以各有差异。以数据预处理组件为例,请结合参阅图2b,图2b是数据预处理组件的相关信息一实施例的示意图。如图2b所示,数据预处理组件的相关信息可以包括数据预处理组件运行的环境信息,包括但不限于:资源类型、容器类型等环境依赖信息,以及数据预处理组件的输入/输出数据类型,包括但不限于:标注数据、视频、图片、音频等类型。此外,根据AI组件运行的需要与否,用户可以自定义需要的参数设置,同时上传AI组件的运行文件,在保存AI组件时还可以进一步提示填写AI组件的名称和对应的说明文档。请结合参阅图2c,图2c是交互界面中AI工作流一实施例的示意图。如图2c所示,AI组件的状态可以包括但不限于:创建、等待、运行中、失败、成功、停止。特殊地,当训练任务组件的状态为运行中时,鼠标移到AI组件上可以展示训练任务的状态,包括但不限于:初始化、排队中、运行中、停止、失败、已完成等,在此不做限定。当然,图2c中所示的AI工作流仅仅是实际应用过程中一种可能搭建的AI工作流,并不因此而限定AI工作流的具体构成。进一步地,为了提升算法开发的便利性,如图2a所示,还可以嵌入模型推理组件、模型转换组件、模型评估组件等。其中,模型推理组件可以针对训练出的AI模型,选择相关进行推理,通过写数据组件上传之后可以实现可视化推理结果,从而可以更为直观地评价训练出的AI模型其性能优劣;模型转换组件用于对训练生成的AI模型进行转换,如将ONNX转换为PTH等,使用转换后的AI模型后续还可以进行单算子测试、一致性验证等流程;模型评估组件用于对训练生成的AI模型进行评估,并生成对应的测试报告,且报告中可以包含各类别目标的准确率、检测率、AP(Average Precision,平均精度)、AR(Average Recall,平均召回率)等指标。
在一个实施场景中,请结合参阅图2a,前端界面上可以显示有用于触发启动AI工作流的交互控件(如图2a中“启动按钮”),则在交互控件受触发时,可以生成对AI工作流的启动指令。当然,在实际应用过程中,也不局限于此。例如,还可以接收并识别用户的语音指令,从而在确定语音指令表征启动AI工作流的情况下,可以生成对AI工作流的启动指令。
在一个实施场景中,AI工作流的基础信息至少可以包括AI工作流中AI组件的标识符(如组件ID等)。当然,AI工作流的基础信息还可以包括AI工作流中起始启动的AI组件。示例性地,在用户指定AI工作流中某一AI组件为AI工作流启动时的起始组件的情况下,后续可以从该AI组件开始调度;或者,在用户未指定AI工作流中任一AI组件为AI工作流启动时的起始组件的情况下,后续可以从AI工作流中首个AI组件开始调度。
在一个实施场景中,服务端设备可以运行有第一服务和第二服务,第一服务可以负责与前端界面交互,以与前端界面相同步,从而至少可以前端界面获取用户在前面界面设置的AI工作流,且第一服务还与第二服务交互,以由第一服务发送AI工作流的基础信息至第二服务,从而第二服务可以基于基础信息中所含的标识符查询数据库,以得到AI工作流的详细信息。为了便于字面区分第一服务和第二服务,可以将第一服务称之为web服务,即主要负责界面交互,第二服务可以称之为task服务,即主要负责任务下发与调度。上述方式,由服务端设备中第一服务发送基础信息至服务端设备中第二服务,且第一服务与前端界面相同步,以至少从前端界面获取用户在前端界面设置的AI工作流,基础信息至少包括AI工作流中AI组件的标识符,基于此再由第二服务基于标识符查询数据库获取详细信息,故能够通过第一服务和第二服务之间相互配合实现信息传输以及查询,有助于提高AI工作流的构建效率。
步骤S12:从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备。
具体地,请结合参阅图2d,图2d是服务端设备与客户端设备之间相互交互一实施例的过程示意图。如图2d所示,对于AI工作流中起始启动的AI组件而言,服务端设备可以直接将该AI组件调度至客户端设备,客户端设备响应于该AI组件的调度指令,可以基于该AI组件的配置资源参数为该AI组件创建容器,以允许该AI组件,如图2d中组件1所示。在该AI组件运行完毕之后,客户端设备将至少反馈该AI组件的运行资源参数和运行容器地址。需要说明的是,AI组件的运行资源参数表征AI组件在客户端设备运行时实际资源参数。此外,运行容器地址表征AI组件在客户端设备运行时所配置容器的网络地址(如IP地址),从而服务端设备在调度下一AI组件(如图2d中组件2)时,可以结合其配置资源参数以及最新接收到的运行资源参数和运行容器地址,将该下一AI组件调度至客户端设备,并在其运行完毕之后,客户端设备至少反馈其运行资源参数和运行容器地址,如此往复,直至整个AI工作流运行结束或运行失败为止。
在一个实施场景中,在接收到客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址之后,即可准备调度当前AI组件。具体地,可以获取表征上一AI组件的运行资源参数和当前AI组件的配置资源参数是否匹配的第一检测结果,并基于第一检测结果,调度当前AI组件至客户端设备中与上一AI组件的运行容器地址相对应的目标容器,或调度当前AI组件至客户端设备中与当前AI组件的配置资源参数相匹配的新建容器。上述方式,通过表征第一AI组件的运行资源参数和当前AI组件的配置资源参数是否匹配的第一检测结果来调整当前AI组件至上一AI组件的运行容器中或调度至新建容器中,能够免于为AI工作流中资源需求相同或相似的AI组件重复创建容器,有助于提升AI组件的调度效率。
在一个具体的实施场景中,若当前AI组件的配置资源参数和上一AI组件的运行资源参数完全一致,则可以确定当前AI组件的配置资源参数和上一AI组件的运行资源参数相匹配,否则可以确定当前AI组件的配置资源参数和上一AI组件的运行资源参数不匹配;或者,若根据当前AI组件的配置资源参数和上一AI组件的运行资源参数,确定当前AI组件和上一AI组件所需资源类型相同,且当前AI组件所需资源量不高于上一AI组件所需资源量,则可以确定当前AI组件的配置资源参数和上一AI组件的运行资源参数相匹配,否则可以确定当前AI组件的配置资源参数和上一AI组件的运行资源参数不匹配。当然,上述举例仅仅是实际应用过程中,检测当前AI组件的配置资源参数和上一AI组件的运行资源参数是否匹配的几种可能实施方式,并不因此而限定其他可能实施方式。
在一个具体的实施场景中,在得到第一检测结果之后,响应于第一检测结果包括上一AI组件的运行资源参数和当前AI组件的配置资源参数相匹配,可以调度当前AI组件至客户端设备中目标容器,即可以将当前AI组件调度至其上一AI组件的运行容器中,从而能够在确保为当前AI组件提供得以正常运行的资源条件情况下,尽可能地提升AI组件的调度效率。
在一个实施场景中,区别于前述情况,在得到第一检测结果之后,响应于第一检测结果包括上一AI组件的运行资源参数和当前AI组件的配置资源参数不匹配,可以调度当前AI组件至客户端设备中新建容器。作为一种可能的实施方式,服务端设备在调度当前AI组件至客户端设备运行时,还可以一同传输当前AI组件的配置资源参数,以使客户端设备根据当前AI组件的配置资源参数创建相应容器,即作为前述用于供当前AI组件运行的新建容器,从而能够确保为当前AI组件提供得以正常运行的资源条件。
在一个实施场景中,如前所述,服务端设备可以运行有第一服务和第二服务,则上一AI组件在客户端设备运行完毕之后,可以由第二服务接收客户端设备运行上一AI组件后所反馈的组件运行结果,并转发组件运行结果至第一服务,从而由第一服务发送上一AI组件的组件运行结果至前端界面,以在前端界面上展示上一AI组件的组件运行结果。需要说明的是,组件运行结果可以包括但不限于组件运行状态(如,成功、失败等),此外,在组件运行状态为成功的情况下,组件运行结果还可以进一步包括上一AI组件运行完毕后的输出数据及其类型(如,标注、素材等类型)。上述方式,由第二服务接收客户端设备运行上一AI组件后所反馈的组件运行结果,并经与其互联的第一服务同步到前端界面,能够在前面界面即时更新各个AI组件的组件运行结果,有助于AI组件运行出错时,管理人员或开发人员能够及时跟进并纠正,进而能够提升AI工作流的建模精度。
需要说明的是,请结合参阅图2d和图2e,图2e是服务端设备和客户端设备之间相互交互另一实施例的过程示意图。如图2e所示,总的来说,在用户对AI工作流触发启动指令之后,第一服务即可将对AI工作流的启动指令同步到第二服务,以使第二服务响应于该启动指令,调度到容器并关联数据处理训练脚本到容器,训练集群受此触发可以启动调度进程,其中计算节点(worker)可以作为客户端设备来运行AI工作流中AI组件,当然在此之前,需先与服务端设备,特别是服务端设备所运行的第二服务建立消息通道。在此基础上,如图2d所示,客户端设备可以下载数据集,并对AI工作流中各个AI组件(如图2d中组件1、组件2所示)依次执行数据处理。当然,在此过程中,若不同AI组件分属于AI工作流中不同分支,则可以并行执行,以提升调度效率。在AI组件运行完毕之后,第二服务即可请求文件数据或由客户端设备主动发送文件数据。具体来说,文件数据可以包括但不限于:AI组件的运行资源配置、运行容器地址和组件运行结果,对于前两者可以供下一AI组件调度之用,对于第三者可以由第二服务同步至第一服务,并由第一服务在前端界面进行展示,以使管理人员或开发人员即时关注到AI组件的运行状态,并在运行失败时即时排除故障。当然,在AI工作流中还包括模型训练组件、模型评估组件的情况下,可以以此类推,在此不再一一举例。至此,AI工作流即构建完毕。
上述方案,响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息,且AI工作流包含顺序连接的若干AI组件,详细信息至少包括AI组件的配置资源参数,基于此从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并进一步提升AI工作流的建模效率。
作为一种可能的实施方式,为了进一步提升AI工作流的建模效率,响应于在前端界面对AI工作流的编辑指令,可以获取表征对应AI工作流是否正在被编辑的第二检测结果,从而可以基于第二检测结果,拒绝或接受编辑指令。具体地,在第二检测结果表征AI工作流正在被编辑的情况下,可以拒绝编辑指令,此时发出编辑指令的用户对AI工作流的编辑操作无效,否则,在第二检测结果表征AI工作流未在被编辑的情况下,可以接受编辑指令,此时发出编辑指令的用户对AI工作流的编辑操作有效。请结合参阅图2a,为了预防用户在其他用户正在编辑AI工作流的情况下仍然尝试对AI工作流触发编辑指令,还可以在前端界面显示提示信息,该提示信息表征AI工作流是否正在被编辑,如图2a中所示“用户A正在编辑中”,则表征用户A正在编辑AI工作流,则此时若其他用户触发对该AI工作流的编辑指令,该编辑指令将会被拒绝,直至用户A退出编辑后,该AI工作流解除编辑状态,其他用户可以尝试获取对该AI工作流的编辑权限,直至某一用户获得对该AI工作流的编辑权限为止。上述方式,响应于在前端界面对AI工作流的编辑指令,获取表征对应AI工作流是否正在被编辑的第二检测结果,并基于第二检测结果,决绝或接受编辑指令,能够支持协同编辑,有助于进一步提升AI工作流的建模效率。
作为一种可能的实施方式,如前述公开实施例中所述,客户端设备还可以反馈上一AI组件的组件运行结果,为了提升AI工作流的建模效率,在上一AI组件运行完毕之后,以及在调度当前AI组件之前,可以检测上一AI组件的组件运行结果是否表征上一AI组件运行失败,并响应于上一AI组件的组件运行结果表征上一AI组件运行失败,停止运行AI工作流,即不再继续调度当前AI组件以及后续AI组件,直至指定AI工作流中任一AI组件为重启AI工作流时开始启动的AI组件并重启AI工作流为止。需要说明的是,用户在重启AI工作流时,可以指定AI工作流中任一AI组件为重启时的起始AI组件。与前述情况不同的是,响应于上一AI组件的组件运行结果表征上一AI组件运行成功且上一AI组件并非AI工作流中最后一个AI组件,可以继续调度前述当前AI组件,如此往复,在此不再赘述。上述方式,在上一AI组件的运行失败的情况下,停止运行AI工作流,且接受对AI工作流中任一AI组件的指定并在重启AI工作流时以指定AI组件为起始AI组件,故能够支持任意AI组件的重复启动,即对于已成功运行的AI组件在重新启动时无需重新运行,有助于进一步提升AI工作流的建模效率。
作为一种可能的实施方式,为了进一步提升AI工作流的建模效率,响应于在前端界面对AI工作流中任一AI组件的编辑指令,显示对应AI组件的编辑页面,且编辑页面用于供用户对AI组件的运行文件执行编辑、调试中至少一种操作,并在AI组件编辑完成之后,将AI组件编辑之后的运行文件应用于对应AI组件处于非运行状态的各个AI工作流中,即若某AI工作流中该AI组件尚处于非运行状态,则可对该AI工作流中该AI组件直接生效为编辑之后的运行文件。请结合参阅图2b和图2f,图2f是编辑页面一实施例的示意图。如图2b和图2f所示,在点击图2b中所示的“在线编辑”按钮之后,即可跳转至图2f所示的编辑页面,以供开发人员直接在图2f所示的编辑页面中对AI组件的运行文件进行编辑、调试等操作,从而无需再重复上传AI组件,进而能够提升AI组件的再编辑效率。需要说明的是,图2f左侧所示“rotate.py”、“run.sh”为AI组件所含内容的可能示例,即前者表示名称为“rotate”(即旋转),后缀为“.py”的Python程序,后者表示名称为“run”(即运行),后缀为“.sh”的shell脚本。此外,图2f右侧为run.sh的具体内容,其中“python rotate.py”表示通过python执行文件rotate.py,而$1 $2 $3 $4分别表示shell脚本的第1至第4个参数。图2f仅仅是编辑页面所展示内容的一种可能示例,并不因此而限定编辑页面具体展示内容。上述方式,响应于在前端界面对AI工作流中任一AI组件的编辑指令,显示对应AI组件的编辑页面,且编辑页面用于供用户对AI组件的运行文件执行编辑、调试中至少一种操作,并在AI组件编辑完成之后,将AI组件编辑之后的运行文件应用于对应AI组件处于非运行状态的各个AI工作流中,故能支持对AI组件的在线编辑并在不影响AI组件正常运行的情况下,还支持在AI工作流中即时生效之后的AI组件,有助于进一步提升AI工作流的建模效率。
作为一种可能的实施方式,为了进一步提升AI工作流的建模效率,还可以展示对AI工作流的修改记录。具体地,可以在前端界面展示对AI工作流的修改记录,并响应于对任一修改记录的回溯指令,将AI工作流恢复为对应修改记录之前的配置状态。请结合参阅图2g,图2g是修改记录一实施例的示意图。如图2g所示,修改记录具体可以显示于前端界面中的记录页面,记录页面可以显示有分别在不同时间对AI工作流所做的修改记录,还可以支持查看每条修改记录的详情。示例性地,在对图2g所示5月31日的修改记录执行回溯指令之后,AI工作流将恢复为组件1和组件3未被修改时的配置状态。其他情况可以以此类推,在此不再一一举例。上述方式,展示对AI工作流的修改记录,响应于对任一修改记录的回溯指令,将AI工作流恢复为对应修改记录之前的配置状态,有助于进一步提升AI工作流的建模效率。
请参阅图3,图3是本申请AI工作流建模方法另一实施例的流程示意图。具体而言,本公开实施例中步骤可以由客户端设备执行,具体可以包括如下步骤:
步骤S31:在服务端设备调度AI工作流中当前AI组件之前,向服务端设备至少反馈当前AI组件的上一AI组件的运行资源参数和运行容器地址。
本公开实施例中,AI工作流包含顺序连接的若干AI组件,且服务端设备响应于对AI工作流的启动指令而从AI工作流中起始启动的AI组件开始调度。具体可以参阅前述公开实施例中相关描述,在此不再赘述。
步骤S32:接收服务端设备对当前AI组件的调度指令。
本公开实施例中,当前AI组件的调度指令由服务端设备基于上一AI组件的运行资源参数和运行容器起始及当前AI组件的配置资源参数而发起,且AI工作流中AI组件的配置资源参数包含于AI工作流的详细信息,AI工作流的详细信息由服务端设备基于AI工作流的基础信息查询得到。具体地,如前所述公开实施例,在服务端设备可以获取表征上一AI组件的运行资源参数和当前AI组件的配置资源参数是否匹配的第一检查结果,并基于第一检测结果,调度当前AI组件至客户端设备中与上一AI组件的运行容器地址相对应的目标容器,或调度当前AI组件至客户端设备中与当前AI组件的配置资源参数相匹配的新建容器。示例性地,对于客户端服务器来说,响应于接收到上一AI组件的运行容器地址,则可以确定经服务端设备检测当前AI组件的配置资源参数和上一AI组件的运行资源参数相匹配,故可以直接将当前AI组件置于上一AI组件的运行容器(即目标容器)中运行;反之,响应于接收到当前AI组件的配置资源参数,则可以确定经服务端设备检测当前AI组件的配置资源参数和上一AI组件的运行资源参数不匹配,故可以创建与当前AI组件的配置资源参数与相匹配的新建容器,并将当前组件置于新建容器中运行。此外,在上一AI组件运行完毕之后,客户端设备除了可以反馈上一AI组件的运行资源参数和运行容器地址,还可以反馈上一AI组件的组件运行结果,具体可以参阅前述公开实施例中相关描述,在此不再赘述。
上述方案,在服务端设备调度AI工作流中当前AI组件之前,向服务端设备至少反馈当前AI组件的上一AI组件的运行资源参数和运行容器地址,AI工作流包含顺序连接的若干AI组件,且服务端设备响应于对AI工作流的启动指令而从AI工作流中起始启动的AI组件开始调度,基于此再接受服务端设备对当前AI组件的调度指令,当前AI组件的调度指令由服务端设备基于上一AI组件的运行资源参数和运行容器起始及当前AI组件的配置资源参数而发起,且AI工作流中AI组件的配置资源参数包含于AI工作流的详细信息,AI工作流的详细信息由服务端设备基于AI工作流的基础信息查询得到,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
请参阅图4,图4是本申请AI工作流建模装置40一实施例的框架示意图。AI工作流建模装置40包括:信息查询模块41和组件调度模块42,信息查询模块41,用于响应于对AI工作流的启动指令,基于AI工作流的基础信息,查询AI工作流的详细信息;其中,AI工作流包含顺序连接的若干AI组件,且详细信息至少包括AI组件的配置资源参数;组件调度模块42,用于从AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备。
上述方案,AI工作流建模装置40一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
在一些公开实施例中,组件调度模块42包括检测子模块,用于获取表征上一AI组件的运行资源参数和当前AI组件的配置资源参数是否匹配的第一检测结果;组件调度模块42包括调度子模块,用于基于第一检测结果,调度当前AI组件至客户端设备中与上一AI组件的运行容器地址相对应的目标容器,或调度当前AI组件至客户端设备中与当前AI组件的配置资源参数相匹配的新建容器。
在一些公开实施例中,调度子模块包括第一响应单元,用于响应于第一检测结果包括上一AI组件的运行资源参数和当前AI组件的配置资源参数相匹配,调度当前AI组件至客户端设备中目标容器;调度子模块包括第二响应单元,用于响应于第一检测结果包括上一AI组件的运行资源参数和当前AI组件的配置资源参数不匹配,调度当前AI组件至客户端设备中新建容器。
在一些公开实施例中,信息查询模块41包括发送子模块,用于由服务端设备中第一服务发送基础信息至服务端设备中第二服务;其中,第一服务与前端界面相同步,以至少从前端界面获取用户在前端界面设置的AI工作流,且基础信息至少包括AI工作流中AI组件的标识符;信息查询模块41包括查询子模块,用于由第二服务基于标识符查询数据库获取详细信息。
在一些公开实施例中,AI工作流建模装置40还包括结果获取模块,用于由第二服务接收客户端设备运行上一AI组件后所反馈的组件运行结果,并转发组件运行结果至第一服务;AI工作流建模装置40还包括结果呈现模块,用于由第一服务发送上一AI组件的组件运行结果至前端界面,以在前端界面展示上一AI组件的组件运行结果。
在一些公开实施例中,AI工作流建模装置40还包括编辑检测模块,用于响应于在前端界面对AI工作流的编辑指令,获取表征对应AI工作流是否已正在被编辑的第二检测结果;AI工作流建模装置40还包括指令处理模块,用于基于第二检测结果,拒绝或接受编辑指令。
在一些公开实施例中,客户端设备还反馈上一AI组件的组件运行结果,AI工作流建模装置40还包括状态检测模块,用于检测组件运行结果是否表征上一AI组件运行失败;AI工作流建模装置40还包括运行停止模块,用于响应于组件运行结果表征上一AI组件运行失败,停止运行AI工作流,直至指定AI工作流中任一AI组件为重启AI工作流时起始启动的AI组件并重启AI工作流。
在一些公开实施例中,AI工作流建模装置40还包括循环执行模块,用于响应于组件运行结果表征上一AI组件运行成功且上一AI组件并非AI工作流中最后一个AI组件,执行基于上一AI组件的运行资源参数和运行容器地址及当前AI组件的配置资源参数,调度当前AI组件至客户端设备的步骤。
在一些公开实施例中,AI工作流建模装置40还包括组件编辑模块,用于响应于在前端界面对AI工作流中任一AI组件的编辑指令,显示对应AI组件的编辑页面;其中,编辑页面用于供用户对AI组件的运行文件执行编辑、调试中至少一种操作;AI工作流建模装置40还包括文件应用模块,用于在AI组件编辑完成之后,将AI组件编辑之后的运行文件应用于对应AI组件处于非运行状态的各个AI工作流中。
在一些公开实施例中,AI工作流建模装置40还包括记录展示模块,用于展示对AI工作流的修改记录;AI工作流建模装置40还包括配置回溯模块,用于响应于对任一修改记录的回溯指令,将AI工作流恢复为对应修改记录之前的配置状态。
请参阅图5,图5是本申请AI工作流建模装置50另一实施例的框架示意图。AI工作流建模装置50包括:运行反馈模块51和指令接收模块52,运行反馈模块51,用于在服务端设备调度AI工作流中当前AI组件之前,向服务端设备至少反馈当前AI组件的上一AI组件的运行资源参数和运行容器地址;其中,AI工作流包含顺序连接的若干AI组件,且服务端设备响应于对AI工作流的启动指令而从AI工作流中起始启动的AI组件开始调度;指令接收模块52,用于接收服务端设备对当前AI组件的调度指令;其中,当前AI组件的调度指令由服务端设备基于上一AI组件的运行资源参数和运行容器起始及当前AI组件的配置资源参数而发起,且AI工作流中AI组件的配置资源参数包含于AI工作流的详细信息,AI工作流的详细信息由服务端设备基于AI工作流的基础信息查询得到。
上述方案,AI工作流建模装置50一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
请参阅图6,图6是本申请电子设备60一实施例的框架示意图。电子设备60包括相互耦接的存储器61和处理器62,存储器61存储有程序指令,处理器62用于执行程序指令以实现上述任一AI工作流建模方法实施例中步骤,具体可以参阅前述公开实施例,在此不再赘述。需要说明的是,电子设备60可以包括但不限于:服务器、台式计算机、笔记本电脑等,在此不做限定。
具体地,处理器62还可以称为CPU(Central Processing Unit,中央处理单元)。处理器62可能是一种集成电路芯片,具有信号的处理能力。处理器62还可以是通用处理器、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器62可以由多个成电路芯片共同实现。
上述方案,电子设备60中处理器62实现上述任一AI工作流建模方法实施例中步骤,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
请参阅图7,图7是本申请AI工作流系统70一实施例的框架示意图。如图7所示,AI工作流系统70可以包括通信连接的服务端设备71和客户端设备72,服务端设备71用于执行前述由服务端设备所执行AI工作流建模方法实施例中步骤,客户端设备72用于执行前述由客户端设备所执行AI工作流建模方法实施例中步骤,具体可以参阅前述公开实施例中相关描述,在此不再赘述。
上述方案,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
请参阅图8,图8是本申请计算机可读存储介质80一实施例的框架示意图。计算机可读存储介质80存储有处理器可运行的程序指令81,该程序指令81能够被执行,用以实现上述任一AI工作流建模方法实施例中步骤。
需要说明的是,计算机可读存储介质80具体可以为U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储程序指令81的介质,或者也可以为存储有该程序指令81的服务器,该服务器可将存储的程序指令81发送给其他设备运行,或者也可以自运行该存储的程序指令81。
上述方案,计算机可读存储介质80实现上述任一AI工作流建模方法实施例中步骤,一方面AI工作流由服务端设备调度至客户端设备运行,无需用户为此购置硬件设备,能够为用户降低AI工作流建模成本,另一方面服务端设备与客户端设备之间通过上述方式实现互通,即远程建模AI工作流,能够实现支持AI工作流的异地建模,又一方面服务端设备根据AI工作流少量的基础信息查询得到至少包含AI组件其配置资源参数的详细信息,故在启动时无需事无巨细地传输AI工作流的海量信息,从而信息传输效率得以提升,且在调度当前AI组件时,结合客户端设备反馈其上一AI组件的运行资源参数和运行容器地址来调度当前AI组件至客户端设备,故有助于结合当前AI组件的配置资源参数和上一AI组件的运行资源参数之间的异同来调度当前AI组件,尽可能地减少频繁为AI组件创建容器,从而AI组件的运行效率得以提升。故此,能够在为用户降低AI工作流建模成本的同时,实现支持AI工作流的异地建模,并提升AI工作流的建模效率。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。

Claims (11)

1.一种AI工作流建模方法,其特征在于,包括:
响应于对AI工作流的启动指令,基于所述AI工作流的基础信息,查询所述AI工作流的详细信息;其中,所述AI工作流包含顺序连接的若干AI组件,且所述详细信息至少包括所述AI组件的配置资源参数;
从所述AI工作流中起始启动的AI组件开始,接收客户端设备运行当前AI组件的上一AI组件后所至少反馈的运行资源参数和运行容器地址,基于所述上一AI组件的运行资源参数和运行容器地址及所述当前AI组件的配置资源参数,调度所述当前AI组件至所述客户端设备;
其中,所述基于所述上一AI组件的运行资源参数和运行容器地址及所述当前AI组件的配置资源参数,调度所述当前AI组件至所述客户端设备,包括:
获取表征所述上一AI组件的运行资源参数和所述当前AI组件的配置资源参数是否匹配的第一检测结果;
基于所述第一检测结果,调度所述当前AI组件至所述客户端设备中与所述上一AI组件的运行容器地址相对应的目标容器,或调度所述当前AI组件至所述客户端设备中与所述当前AI组件的配置资源参数相匹配的新建容器。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一检测结果,调度所述当前AI组件至所述客户端设备中与所述上一AI组件的运行容器地址相对应的目标容器,或调度所述当前AI组件至所述客户端设备中与所述当前AI组件的配置资源参数相匹配的新建容器,包括以下至少一者:
响应于所述第一检测结果包括所述上一AI组件的运行资源参数和所述当前AI组件的配置资源参数相匹配,调度所述当前AI组件至所述客户端设备中所述目标容器;
响应于所述第一检测结果包括所述上一AI组件的运行资源参数和所述当前AI组件的配置资源参数不匹配,调度所述当前AI组件至所述客户端设备中所述新建容器。
3.根据权利要求1所述的方法,其特征在于,所述基于所述AI工作流的基础信息,查询所述AI工作流的详细信息,包括:
由服务端设备中第一服务发送所述基础信息至所述服务端设备中第二服务;其中,所述第一服务与前端界面相同步,以至少从所述前端界面获取用户在所述前端界面设置的AI工作流,且所述基础信息至少包括所述AI工作流中所述AI组件的标识符;
由所述第二服务基于所述标识符查询数据库获取所述详细信息。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于在前端界面对所述AI工作流的编辑指令,获取表征对应所述AI工作流是否已正在被编辑的第二检测结果;
基于所述第二检测结果,拒绝或接受所述编辑指令。
5.根据权利要求1所述的方法,其特征在于,所述客户端设备还反馈所述上一AI组件的组件运行结果,在所述基于所述上一AI组件的运行资源参数和运行容器地址及所述当前AI组件的配置资源参数,调度所述当前AI组件至所述客户端设备之前,所述方法还包括:
检测所述组件运行结果是否表征所述上一AI组件运行失败;
响应于所述组件运行结果表征所述上一AI组件运行失败,停止运行所述AI工作流,直至指定所述AI工作流中任一所述AI组件为重启所述AI工作流时起始启动的AI组件并重启所述AI工作流。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于在前端界面对所述AI工作流中任一所述AI组件的编辑指令,显示对应所述AI组件的编辑页面;其中,所述编辑页面用于供用户对所述AI组件的运行文件执行编辑、调试中至少一种操作;
在所述AI组件编辑完成之后,将所述AI组件编辑之后的运行文件应用于对应所述AI组件处于非运行状态的各个所述AI工作流中。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
展示对所述AI工作流的修改记录;
响应于对任一所述修改记录的回溯指令,将所述AI工作流恢复为对应所述修改记录之前的配置状态。
8.一种AI工作流建模方法,其特征在于,包括:
在服务端设备调度AI工作流中当前AI组件之前,向所述服务端设备至少反馈所述当前AI组件的上一AI组件的运行资源参数和运行容器地址;其中,所述AI工作流包含顺序连接的若干AI组件,且所述服务端设备响应于对所述AI工作流的启动指令而从所述AI工作流中起始启动的AI组件开始调度;
接受所述服务端设备对所述当前AI组件的调度指令;其中,所述当前AI组件的调度指令由所述服务端设备基于所述上一AI组件的运行资源参数和运行容器起始及所述当前AI组件的配置资源参数而发起,且所述AI工作流中AI组件的配置资源参数包含于所述AI工作流的详细信息,所述AI工作流的详细信息由所述服务端设备基于所述AI工作流的基础信息查询得到,所述调度指令具体由所述服务端设备通过如下步骤而发起:获取表征所述上一AI组件的运行资源参数和所述当前AI组件的配置资源参数是否匹配的第一检测结果,并基于所述第一检测结果,调度所述当前AI组件至客户端设备中与所述上一AI组件的运行容器地址相对应的目标容器,或调度所述当前AI组件至所述客户端设备中与所述当前AI组件的配置资源参数相匹配的新建容器。
9.一种电子设备,其特征在于,包括通信电路、存储器和处理器,所述通信电路、所述存储器分别耦接于所述处理器,所述存储器存储有程序指令,所述处理器用于执行所述程序指令以实现权利要求1至8任一项所述的AI工作流建模方法。
10.一种AI工作流系统,其特征在于,包括通信连接的服务端设备和客户端设备,所述服务端设备用于执行权利要求1至7任一项所述的AI工作流建模方法,所述客户端设备执行权利要求8所述的AI工作流建模方法。
11.一种计算机可读存储介质,其特征在于,存储有能够被处理器运行的程序指令,所述程序指令用于实现权利要求1至8任一项所述的AI工作流建模方法。
CN202410012615.XA 2024-01-04 2024-01-04 Ai工作流建模方法及相关装置、设备、系统和介质 Active CN117519838B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410012615.XA CN117519838B (zh) 2024-01-04 2024-01-04 Ai工作流建模方法及相关装置、设备、系统和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410012615.XA CN117519838B (zh) 2024-01-04 2024-01-04 Ai工作流建模方法及相关装置、设备、系统和介质

Publications (2)

Publication Number Publication Date
CN117519838A CN117519838A (zh) 2024-02-06
CN117519838B true CN117519838B (zh) 2024-04-12

Family

ID=89753483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410012615.XA Active CN117519838B (zh) 2024-01-04 2024-01-04 Ai工作流建模方法及相关装置、设备、系统和介质

Country Status (1)

Country Link
CN (1) CN117519838B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112882817A (zh) * 2021-03-24 2021-06-01 国家超级计算天津中心 一种基于超级计算机的工作流处理方法
CN112965803A (zh) * 2021-03-22 2021-06-15 共达地创新技术(深圳)有限公司 Ai模型生成方法及电子设备
CN113641457A (zh) * 2021-08-20 2021-11-12 北京百度网讯科技有限公司 容器创建方法、装置、设备、介质及程序产品
CN114266324A (zh) * 2021-12-30 2022-04-01 智慧眼科技股份有限公司 模型可视化建模方法、装置、计算机设备及存储介质
CN115115329A (zh) * 2022-05-20 2022-09-27 华南理工大学 一种面向智能生产线的制造中间件及云制造架构
CN115309558A (zh) * 2022-08-12 2022-11-08 星环信息科技(上海)股份有限公司 一种资源调度管理系统、方法、计算机设备及存储介质
CN115639993A (zh) * 2022-10-10 2023-01-24 江苏鸿程大数据技术与应用研究院有限公司 一种基于web动态布局的可视化建模平台及方法
CN115658295A (zh) * 2022-10-11 2023-01-31 浙江大华技术股份有限公司 资源调度方法、装置、电子设备和存储介质
CN115714816A (zh) * 2022-10-25 2023-02-24 中国农业银行股份有限公司 数据中心资源供给方法、装置、电子设备及存储介质
CN116880823A (zh) * 2023-07-17 2023-10-13 杭州谐云科技有限公司 一种基于容器技术的应用开发方法、系统、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020008301A1 (en) * 2018-07-05 2020-01-09 Open Text Sa Ulc Systems and methods for communication flow modeling

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965803A (zh) * 2021-03-22 2021-06-15 共达地创新技术(深圳)有限公司 Ai模型生成方法及电子设备
CN112882817A (zh) * 2021-03-24 2021-06-01 国家超级计算天津中心 一种基于超级计算机的工作流处理方法
CN113641457A (zh) * 2021-08-20 2021-11-12 北京百度网讯科技有限公司 容器创建方法、装置、设备、介质及程序产品
CN114266324A (zh) * 2021-12-30 2022-04-01 智慧眼科技股份有限公司 模型可视化建模方法、装置、计算机设备及存储介质
CN115115329A (zh) * 2022-05-20 2022-09-27 华南理工大学 一种面向智能生产线的制造中间件及云制造架构
CN115309558A (zh) * 2022-08-12 2022-11-08 星环信息科技(上海)股份有限公司 一种资源调度管理系统、方法、计算机设备及存储介质
CN115639993A (zh) * 2022-10-10 2023-01-24 江苏鸿程大数据技术与应用研究院有限公司 一种基于web动态布局的可视化建模平台及方法
CN115658295A (zh) * 2022-10-11 2023-01-31 浙江大华技术股份有限公司 资源调度方法、装置、电子设备和存储介质
CN115714816A (zh) * 2022-10-25 2023-02-24 中国农业银行股份有限公司 数据中心资源供给方法、装置、电子设备及存储介质
CN116880823A (zh) * 2023-07-17 2023-10-13 杭州谐云科技有限公司 一种基于容器技术的应用开发方法、系统、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
The Role of System Modeling on Artificial Intelligence: A Review of Emerging Trends;Aldoihi S等;《2023 IEEE International Conference on Metrology for eXtended Reality, Artificial Intelligence and Neural Engineering (MetroXRAINE)》;20231027;第161-165页 *
人工智能计算与数据服务平台的研究与应用;王彦棡;王珏;曹荣强;;数据与计算发展前沿;20191215(第06期);第90-101页 *

Also Published As

Publication number Publication date
CN117519838A (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
EP3842948A2 (en) Method and apparatus for testing edge computing, device, and readable storage medium
US11829853B2 (en) Systems and methods for tracking and representing data science model runs
CN110941446B (zh) 基于多环境离线任务的版本发布方法及装置
US6772107B1 (en) System and method for simulating activity on a computer network
CN111831269A (zh) 一种应用开发系统、运行方法、设备及存储介质
US20210209099A1 (en) Systems And Methods For Tracking And Representing Data Science Data Runs
EP2192536A2 (en) Integrated design application
CN110083455B (zh) 图计算处理方法、装置、介质及电子设备
US20070226231A1 (en) Systems and methods for managing business issues
CN108197155A (zh) 信息数据同步方法、装置及计算机可读存储介质
CN113672352A (zh) 一种基于容器部署联邦学习任务的方法及装置
CN110908793A (zh) 长时任务执行方法、装置、设备及可读存储介质
CN111125518A (zh) 家电信息推荐的系统及方法
KR20210129584A (ko) 동적으로 할당된 클라우드 작업자 관리 시스템 및 그의 방법
US20120311538A1 (en) Capturing Rich Actionable Feedback on Working Software
CN115086752A (zh) 一种针对浏览器页面内容的录制方法、系统及存储介质
CN112069134A (zh) 需求文档处理方法、装置及介质
CN113296653B (zh) 一种仿真交互模型构建方法、交互方法及相关设备
CN117519838B (zh) Ai工作流建模方法及相关装置、设备、系统和介质
CN107203471B (zh) 联调方法、服务平台及计算机存储介质
CN115129542A (zh) 数据处理方法、装置、存储介质及电子装置
CN114327709A (zh) 一种控制页面生成方法、装置、智能设备及存储介质
US9412083B2 (en) Aggregation and workflow engines for managing project information
CN113568676B (zh) 一种商业平台上互联网服务快速发布的通用方法
CN112291329B (zh) 信息显示方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant