CN112882696B - 一种基于超级计算机的全要素模型训练系统 - Google Patents
一种基于超级计算机的全要素模型训练系统 Download PDFInfo
- Publication number
- CN112882696B CN112882696B CN202110311629.8A CN202110311629A CN112882696B CN 112882696 B CN112882696 B CN 112882696B CN 202110311629 A CN202110311629 A CN 202110311629A CN 112882696 B CN112882696 B CN 112882696B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- training
- supercomputer
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 75
- 238000013507 mapping Methods 0.000 claims abstract description 38
- 238000013135 deep learning Methods 0.000 claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 16
- 238000004891 communication Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000013473 artificial intelligence Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 7
- 230000005012 migration Effects 0.000 abstract description 5
- 238000013508 migration Methods 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract 1
- 230000003993 interaction Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/33—Intelligent editors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/36—Software reuse
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Stored Programmes (AREA)
Abstract
本发明涉及一种基于超级计算机的全要素模型训练系统,包括流程编辑器,设置于用户终端的浏览器上,用于生成人工智能算法有向无环图;参数提取器和模型映射器设置于云服务器上,云服务器与超级计算机和用户终端通信连接,参数提取器根据预设的参数框架从有向无环图中提取预设参数;模型映射器,选择目标深度学习框架,将所提取的预设参数映射为目标深度学习框架对应的映射数据和映射模型;代码生成器和代码执行器设置于超级计算机上,代码生成器将映射数据和映射模型动态生成可执行的代码;代码执行器运行可执行的代码,并生成运行结果。本发明实现了算法复用和框架迁移,避免多次编程,简化了模型训练过程,提高了模型训练的效率,且容错性好。
Description
技术领域
本发明涉及超级计算机技术领域,尤其涉及一种基于超级计算机的全要素模型训练系统。
背景技术
“算力、算法、数据”是驱动人工智能发展的三要素,超级计算机具备天然的巨大算力和大规模数据融合的属性,是人工智能的基础支撑设施。近年来,建设高效能计算基础设施,提升超级计算中心对人工智能应用的服务支撑能力,统筹布局人工智能创新平台方面,建立人工智能超级计算中心成为重要的发展方向。
但是,现有的在超级计算机上进行模型训练的技术至少具有以下缺点:第一、每个模型都有其特定的网络结构和不同的代码内容,当模型网络结构或参数发生变化,其代码将会被重写。这就导致在开展模型调试的过程中,新代码将不断被生成,编码效率低,容错性差,且模型文件以及其对应的数据日志文件管理难度大。第二、不同的深度学习框架使用上存在一定的差异性,例如,基于深度学习框架A编写的算法,如果需要转化为深度学习框架B下的算法,需要按照深度学习框架B的要求进行代码重写,通用性差。第三、超级计算机下模型调试难度大。
发明内容
本发明目的在于,提供一种基于超级计算机的全要素模型训练系统,实现了算法复用和框架迁移,避免多次编程,简化了模型训练过程,提高了模型训练的效率,且容错性好。
为了解决上述技术问题,本发明实施例,提供了一种基于超级计算机的全要素模型训练系统,包括:
流程编辑器,设置于用户终端的浏览器上,用于生成人工智能算法有向无环图;
参数提取器,设置于云服务器上,所述云服务器与超级计算机和所述用户终端通信连接,所述参数提取器用于根据预设的参数框架从所述人工智能算法有向无环图中提取预设参数;
模型映射器,设置于所述云服务器上,用于选择目标深度学习框架,将所提取的预设参数映射为目标深度学习框架对应的映射数据和映射模型;
代码生成器,设置于所述超级计算机上,用于将所述映射数据和映射模型动态生成可执行的代码;
代码执行器,设置于超级计算机上,用于运行所述可执行的代码,并生成运行结果。
进一步的,所述系统还包括目标深度学习框架确定模块,用于根据超级计算机上所配置的深度学习框架以及资源使用情况,确定所述目标深度学习框架。
进一步的,所述流程编辑器内设置有数据层、计算图层和训练层,所述流程编辑器在所述数据层设定训练数据的位置,在所述计算图层设定网络结构模型的有向图结构,在所述训练层设定训练计算所需资源,所述训练计算所需资源包括节点数、训练轮次和每轮次所需数据量大小。
进一步的,所述预设的参数框架包括数据参数、模型参数和计算资源,所述参数提取器具体用于:
从所述数据层提取所述数据参数,所述数据参数包括数据源、数据格式和数据大小;
从所述计算图层提取模型参数,所述模型参数包括图的节点组成、连接关系以及所述计算图层中每个图节点对应的参数;
从所述训练层中提取训练计算所需的计算资源。
进一步的,所述映射数据为所述数据参数解析得到的目标深度学习框架对应的训练数据,包括训练数据源、每训练批次数据大小、增广选项和预处理选项;
所述映射模型为由所述模型参数映射等得到的目标深度学习框架对应的图表形式数据,包括json表单形式和xml表格形式。
进一步的,代码生成器具体用于预置一个转换模板,并采用依赖库加载、数据加载、模型加载、训练配置的顺序将所述映射数据和映射模型依次转换为对应的代码。
进一步的,所述代码执行器用于将所述可执行的代码转换为超级计算机对应的运行脚本进行运行,生成所述运行结果。
进一步的,所述系统还包括:
结果回收器,用于从所述代码执行器获取运行结果,将所述运行结果存储至云服务器,并发送给结果查看器;
结果查看器,设置在用户终端的浏览器上,用于根据预设的显示规则显示所述运行生成的结果对应的显示参数。
进一步的,所述结果回收器将运行结果存储至网盘中,并挂载至所述云服务器上,再由所述云服务器发送给所述结果查看器。
进一步的,所述结果查看器用于根据预设的规则显示关键参数,所述关键参数包括损失参数、学习率和准确率。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种基于超级计算机的全要素模型训练系统可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
(1)实现了算法复用和框架迁移,避免多次编程,简化了模型训练过程,提高了模型训练的效率,且容错性好。
(2)保证模型的有效快速的执行,动态实现资源调配,实现不同框架的适配,用户只要创建了训练任务,系统会根据当前的框架的安装情况和资源的可用情况自动配置相应的计算环境和资源,从而能快速执行。
(3)系统具有一套统一的模型结构,使其具有很好的可移植性,即写一套代码可以在不同的框架下执行,便于对比分析和后期的改进。
(4)具有可视化的功能,交互和执行效率很高,具备很好的用户体验。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的基于超级计算机的全要素模型训练系统示意图。
【符号说明】
1:流程编辑器 2:参数提取器
3:模型映射器 4:代码生成器
5:代码执行器 6:结果回收器
7:结果查看器。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于超级计算机的全要素模型训练系统的具体实施方式及其功效,详细说明如后。
为解决背景技术中所述的技术问题,本发明实施例通过构建可实现模型资源、计算资源、数据资源全要素配置的模型训练引擎来动态完成模型的训练,通过设计机器学习模型生成技术流程,实现从前端可视化模型到后端机器学习框架的动态映射。通过对拖拽式建模形成的模型描述文件进行流程解析和参数解析,形成具有统一描述格式的网络结构,然后根据网络参数关于训练数据的指定,实现对训练数据库的加载,形成目标模型。通过指定训练所需计算资源,适配对应的训练框架、目标模型。最后开展训练,并实现对模型的保存等操作。
具体地,本发明实施例提供了一种基于超级计算机的全要素模型训练系统,如图1所示,包括流程编辑器1、参数提取器2、模型映射器3、代码生成器4和代码执行器5,其中,流程编辑器1设置于用户终端的浏览器上,用于生成人工智能算法有向无环图;参数提取器2设置于云服务器上,所述云服务器与超级计算机和所述用户终端通信连接,所述参数提取器2用于根据预设的参数框架从所述人工智能算法有向无环图中提取预设参数;模型映射器3设置于所述云服务器上,用于选择目标深度学习框架,将所提取的预设参数映射为目标深度学习框架对应的映射数据和映射模型;代码生成器4设置于所述超级计算机上,用于将所述映射数据和映射模型动态生成可执行的代码;代码执行器5设置于超级计算机上,用于运行所述可执行的代码,并生成运行结果。
为了便于用户直接通过可视化界面获取到执行结果,提升用户体验。所述系统还包括结果回收器6和结果查看器7,如图1所示,其中,结果回收器6用于从所述代码执行器5获取运行结果,将所述运行结果存储至云服务器,并发送给结果查看器7;结果查看器7设置在用户终端的浏览器上,用于根据预设的显示规则显示所述运行生成的结果对应的显示参数。所述结果回收器6将运行结果存储至网盘中,并挂载至所述云服务器上,再由所述云服务器发送给所述结果查看器7。所述结果查看器7用于根据预设的规则显示关键参数,所述关键参数包括损失参数、学习率和准确率,还可供下一次模型编辑调整参考。
所述系统通过设置流程编辑器1和参数提取器2可以有效解决在超级计算机上执行人工智能运算时,算法复用和修改难度大的技术问题。当模型网络结构或参数发生变化,无需重写代码,降低了模型文件以及其对应的数据日志文件管理难度增大。所述系统通过设置模型映射器3,解决了跨框架迁移难度大的技术问题,可直接转换为对应的目标深度学习框架对应的映射数据和映射模型,无需重写代码,提高了容错性。所述系统通过设置代码执行器5、结果回收器6和结果查看器7,使得计算过程在超级计算机上运行,用户输入任务以及查询结果均在浏览器上进行,简化了调试的难度既提高了交互效率,也提高了计算效率,同时提升了用户体验。
作为一种示例,所述人工智能算法有向无环图采用嵌套式工作流格式,嵌套式工作流格式相关内容详见201810696802.9专利申请文件,在此不做赘述。所述流程编辑器1内设置有数据层、计算图层和训练层,所述流程编辑器1在所述数据层设定训练数据的位置,在所述计算图层设定网络结构模型的有向图结构,在所述训练层设定训练计算所需资源,所述训练计算所需资源包括节点数、训练轮次和每轮次所需数据量大小。
作为一种示例,所述系统还包括目标深度学习框架确定模块,用于根据超级计算机上所配置的深度学习框架以及资源使用情况,确定所述目标深度学习框架。可以理解的是,也可直接由用户指定,或系统根据任务需求推选默认的深度学习框架作为目标深度学习框架。
作为一种示例,所述预设的参数框架包括数据参数、模型参数和计算资源,所述参数提取器2具体用于:从所述数据层提取所述数据参数,所述数据参数包括数据源、数据格式和数据大小;从所述计算图层提取模型参数,所述模型参数包括图的节点组成、连接关系以及所述计算图层中每个图节点对应的参数;从所述训练层中提取训练计算所需的计算资源。需要说明的是,参数框架中还可预留状态参数,用于记录每一运行阶段的运行参数和结果,可以反映整个运行过程的状态,后续可根据需求,调取对应阶段的状态参数进行显示。
所述映射数据可为所述数据参数解析得到的目标深度学习框架对应的训练数据,包括训练数据源、每训练批次数据大小、增广选项和预处理选项;所述映射模型可为由所述模型参数映射等得到的目标深度学习框架对应的图表形式数据,包括json表单形式和xml表格形式。
作为一种示例,代码生成器4具体用于预置一个转换模板,并采用依赖库加载、数据加载、模型加载、训练配置的顺序将所述映射数据和映射模型依次转换为对应的代码,具体可采用Python语言来实现,Python是一种计算机程序设计语言,是一种面向对象的动态类型语言。
所述代码执行器5用于将所述可执行的代码转换为超级计算机对应的运行脚本进行运行,生成所述运行结果。例如,在天河超级计算机上,运行脚本假设命名为xxx.bat 为yhrun -N N -p P run.py ,其中N为计算资源指定的节点数;P为超级计算上的资源分区;run.py为代码生成器4生成的代码,该脚本将由yhbath -N N -p P xxx.bat。将计算资源配置为核数时,需要进行节点与核数转换,即:节点数=INT(核数/每个节点核数),如果核数/每个节点核数非整除,则节点数=INT(核数/每个节点核数)+1。
本发明实施例所述系统实现了算法复用和框架迁移,避免多次编程,简化了模型训练过程,提高了模型训练的效率,且容错性好。还可保证模型的有效快速的执行,动态实现资源调配,实现不同框架的适配,用户只要创建了训练任务,系统会根据当前的框架的安装情况和资源的可用情况自动配置相应的计算环境和资源,从而能快速执行。此外,所述系统具有一套统一的模型结构,使其具有很好的可移植性,即写一套代码可以在不同的框架下执行,便于对比分析和后期的改进。所述系统还具有可视化的功能,交互和执行效率很高,具备很好的用户体验。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (10)
1.一种基于超级计算机的全要素模型训练系统,其特征在于,包括:
流程编辑器,设置于用户终端的浏览器上,用于生成人工智能算法有向无环图;
参数提取器,设置于云服务器上,所述云服务器与超级计算机和所述用户终端通信连接,所述参数提取器用于根据预设的参数框架从所述人工智能算法有向无环图中提取预设参数;
模型映射器,设置于所述云服务器上,用于选择目标深度学习框架,将所提取的预设参数映射为目标深度学习框架对应的映射数据和映射模型;
代码生成器,设置于所述超级计算机上,用于将所述映射数据和映射模型动态生成可执行的代码;
代码执行器,设置于超级计算机上,用于运行所述可执行的代码,并生成运行结果。
2.根据权利要求1所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述系统还包括目标深度学习框架确定模块,用于根据超级计算机上所配置的深度学习框架以及资源使用情况,确定所述目标深度学习框架。
3.根据权利要求1所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述流程编辑器内设置有数据层、计算图层和训练层,所述流程编辑器在所述数据层设定训练数据的位置,在所述计算图层设定网络结构模型的有向图结构,在所述训练层设定训练计算所需资源,所述训练计算所需资源包括节点数、训练轮次和每轮次所需数据量大小。
4.根据权利要求3所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述预设的参数框架包括数据参数、模型参数和计算资源,所述参数提取器具体用于:
从所述数据层提取所述数据参数,所述数据参数包括数据源、数据格式和数据大小;
从所述计算图层提取模型参数,所述模型参数包括图的节点组成、连接关系以及所述计算图层中每个图节点对应的参数;
从所述训练层中提取训练计算所需的计算资源。
5.根据权利要求4所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述映射数据为所述数据参数解析得到的目标深度学习框架对应的训练数据,包括训练数据源、每训练批次数据大小、增广选项和预处理选项;
所述映射模型为由所述模型参数映射等得到的目标深度学习框架对应的图表形式数据,包括json表单形式和xml表格形式。
6.根据权利要求1所述的基于超级计算机的全要素模型训练系统,其特征在于,
代码生成器具体用于预置一个转换模板,并采用依赖库加载、数据加载、模型加载、训练配置的顺序将所述映射数据和映射模型依次转换为对应的代码。
7.根据权利要求1所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述代码执行器用于将所述可执行的代码转换为超级计算机对应的运行脚本进行运行,生成所述运行结果。
8.根据权利要求1-7中任意一项所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述系统还包括:
结果回收器,用于从所述代码执行器获取运行结果,将所述运行结果存储至云服务器,并发送给结果查看器;
结果查看器,设置在用户终端的浏览器上,用于根据预设的显示规则显示运行生成的结果对应的显示参数。
9.根据权利要求8所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述结果回收器将运行结果存储至网盘中,并挂载至所述云服务器上,再由所述云服务器发送给所述结果查看器。
10.根据权利要求8所述的基于超级计算机的全要素模型训练系统,其特征在于,
所述结果查看器用于根据预设的规则显示关键参数,所述关键参数包括损失参数、学习率和准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311629.8A CN112882696B (zh) | 2021-03-24 | 2021-03-24 | 一种基于超级计算机的全要素模型训练系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110311629.8A CN112882696B (zh) | 2021-03-24 | 2021-03-24 | 一种基于超级计算机的全要素模型训练系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112882696A CN112882696A (zh) | 2021-06-01 |
CN112882696B true CN112882696B (zh) | 2024-02-02 |
Family
ID=76041984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110311629.8A Active CN112882696B (zh) | 2021-03-24 | 2021-03-24 | 一种基于超级计算机的全要素模型训练系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112882696B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114091688B (zh) * | 2021-11-25 | 2022-05-20 | 北京九章云极科技有限公司 | 一种计算资源获取方法、装置、电子设备和存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109002879A (zh) * | 2018-07-23 | 2018-12-14 | 济南浪潮高新科技投资发展有限公司 | 神经网络模型的可视化建模方法和装置 |
WO2019067631A1 (en) * | 2017-09-27 | 2019-04-04 | Johnson Controls Technology Company | BUILDING MANAGEMENT SYSTEM WITH INTELLIGENT ENTITIES, TIMELINE, INBOUND FLOW GENERATION, CLOUD CONTROL AND ID AND INSURANCE MANAGEMENT SERVICES |
CN110108914A (zh) * | 2019-05-21 | 2019-08-09 | 国网湖南省电力有限公司 | 一种反窃电智能化决策方法、系统、设备及介质 |
CN111131335A (zh) * | 2020-03-30 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 基于人工智能的网络安全防护方法、装置、电子设备 |
CN111399911A (zh) * | 2020-03-24 | 2020-07-10 | 杭州博雅鸿图视频技术有限公司 | 一种基于多核异构计算的人工智能开发方法及装置 |
CN111651191A (zh) * | 2020-05-12 | 2020-09-11 | 北京仁科互动网络技术有限公司 | 应用于微服务构架的单应用打包方法及系统 |
CN112130827A (zh) * | 2019-06-25 | 2020-12-25 | 北京启瞳智能科技有限公司 | 基于云端模块化技术的模型开发方法、平台和智能终端 |
CN112418438A (zh) * | 2020-11-24 | 2021-02-26 | 国电南瑞科技股份有限公司 | 基于容器的机器学习流程化训练任务执行方法及系统 |
-
2021
- 2021-03-24 CN CN202110311629.8A patent/CN112882696B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019067631A1 (en) * | 2017-09-27 | 2019-04-04 | Johnson Controls Technology Company | BUILDING MANAGEMENT SYSTEM WITH INTELLIGENT ENTITIES, TIMELINE, INBOUND FLOW GENERATION, CLOUD CONTROL AND ID AND INSURANCE MANAGEMENT SERVICES |
CN109002879A (zh) * | 2018-07-23 | 2018-12-14 | 济南浪潮高新科技投资发展有限公司 | 神经网络模型的可视化建模方法和装置 |
CN110108914A (zh) * | 2019-05-21 | 2019-08-09 | 国网湖南省电力有限公司 | 一种反窃电智能化决策方法、系统、设备及介质 |
CN112130827A (zh) * | 2019-06-25 | 2020-12-25 | 北京启瞳智能科技有限公司 | 基于云端模块化技术的模型开发方法、平台和智能终端 |
CN111399911A (zh) * | 2020-03-24 | 2020-07-10 | 杭州博雅鸿图视频技术有限公司 | 一种基于多核异构计算的人工智能开发方法及装置 |
CN111131335A (zh) * | 2020-03-30 | 2020-05-08 | 腾讯科技(深圳)有限公司 | 基于人工智能的网络安全防护方法、装置、电子设备 |
CN111651191A (zh) * | 2020-05-12 | 2020-09-11 | 北京仁科互动网络技术有限公司 | 应用于微服务构架的单应用打包方法及系统 |
CN112418438A (zh) * | 2020-11-24 | 2021-02-26 | 国电南瑞科技股份有限公司 | 基于容器的机器学习流程化训练任务执行方法及系统 |
Non-Patent Citations (1)
Title |
---|
Scene Segmentation with DAG-Recurrent Neural Networks;Bing Shuai等;《 IEEE Transactions on Pattern Analysis and Machine Intelligence》;第40卷(第6期);第1480 - 1493页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112882696A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8417798B2 (en) | Deploying artifacts for packaged software application in cloud computing environment | |
CN112153165B (zh) | 一种电力业务仿真环境构建方法、系统、设备及存储介质 | |
CN111488145B (zh) | 一种基于业务域数据模型库的微服务代码生成系统及方法 | |
Bünder | Decoupling Language and Editor-The Impact of the Language Server Protocol on Textual Domain-Specific Languages. | |
CN113177034A (zh) | 一种跨平台统一的分布式图数据处理方法 | |
CN101183370A (zh) | 基于类定义和关系定义的拓扑建模方法 | |
CN117992078B (zh) | 一种基于TensorRT-LLM模型推理加速服务的自动化部署方法 | |
CN112130812B (zh) | 一种基于数据流混合编排的分析模型构建方法及系统 | |
CN113835693A (zh) | 代码生成方法、装置、电子设备、存储介质 | |
CN112882696B (zh) | 一种基于超级计算机的全要素模型训练系统 | |
CN115794106A (zh) | 一种轨道交通二进制协议数据配置式解析的方法及系统 | |
CN114048188A (zh) | 一种跨数据库的数据迁移系统及方法 | |
CN109753281B (zh) | 一种基于图形化编程的微电网能量管理策略可视化开发工具 | |
CN112883654B (zh) | 一种基于数据驱动的模型训练系统 | |
CN112965914A (zh) | 应用页面测试方法、系统、设备和介质 | |
CN110750258A (zh) | 一种基于xml的可重用监控软件设计方法 | |
Mazzocca et al. | Integrated Tools for Performance-Oriented Distributed Software Development. | |
CN112582014B (zh) | 一种固态硬盘批量生产方法、装置、设备及介质 | |
EP4231204A1 (en) | System for developing and running applications in hybrid quantum computing networks | |
CN113688603B (zh) | 模型文件的处理方法及装置、存储介质、电子设备 | |
CN113641352B (zh) | 一种自动生成snmp代码的方法及系统 | |
CN113705183B (zh) | 面向web服务的电子表格数据生成及维护方法和相关设备 | |
CN109213540B (zh) | 用于手持设备的电网数据处理方法和装置 | |
CN115268925A (zh) | 代码转换方法以及装置 | |
Ravikumar et al. | Towards cim based control centers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |