CN111782613B - 一种优化模型集成平台运行效率的方法 - Google Patents

一种优化模型集成平台运行效率的方法 Download PDF

Info

Publication number
CN111782613B
CN111782613B CN202010583098.3A CN202010583098A CN111782613B CN 111782613 B CN111782613 B CN 111782613B CN 202010583098 A CN202010583098 A CN 202010583098A CN 111782613 B CN111782613 B CN 111782613B
Authority
CN
China
Prior art keywords
model
node
parameter
parameters
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010583098.3A
Other languages
English (en)
Other versions
CN111782613A (zh
Inventor
梁旗军
康登光
杨丰玉
郑巍
樊鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Hangkong University
Original Assignee
Nanchang Hangkong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Hangkong University filed Critical Nanchang Hangkong University
Priority to CN202010583098.3A priority Critical patent/CN111782613B/zh
Publication of CN111782613A publication Critical patent/CN111782613A/zh
Application granted granted Critical
Publication of CN111782613B publication Critical patent/CN111782613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/172Caching, prefetching or hoarding of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/13File access structures, e.g. distributed indices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/1737Details of further file system functions for reducing power consumption or coping with limited storage space, e.g. in mobile devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5011Pool
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5018Thread allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Devices For Executing Special Programs (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明公开了一种优化模型集成平台运行效率的方法,包括:针对模型经常使用相同的输入参数进行重复性计算,通过建立模型参数缓存空间,模型优先使用广度优先遍历算法遍历缓存空间中的模型参数树,并使用LRU置换算法选择最近最长时间未匹配成功的模型参数予以淘汰,匹配成功后直接返回叶子节点中存储的模型结果,本发明的优点是:降低对计算机资源的消耗,提高模型的整体运行效率。

Description

一种优化模型集成平台运行效率的方法
技术领域
本发明涉及优化模型集成平台技术领域,特别涉及一种优化模型集成平台运行效率的方法。
背景技术
随着计算机编程技术的发展,传统行业也逐步利用计算机强大的算力辅助计算,从业者通常采用Fortran、C/C++等编程语言进行数据模拟,甚至使用Python进行人工智能、机器学习等算法模拟计算。并将程序封装成可执行文件(EXE)模型,将文本文件(TXT)、数据文件(DAT)等文件作为输入输出的媒介,给他人使用。由于非计算机行业从业者缺乏专业的计算机能力,所编写的程序无法得到高效、便利的使用。
针对此类包含输入文件以及主控文件,可直接驱动EXE文件运行并产生输出文件的模型。为提高模型的使用效率,目前多采用基于WEB的运行集成方式,解决模型并发问题,并且输入输出参数使用丰富的前端控件输入或展示,便于直观分析数据。在平台调用的过程中,后端采用独立空间的方式为多并发提供基础,即新建文件夹,复制EXE执行文件,并将通过程序实现输入参数转换为输入文件,最后调用原模型的EXE文件实现模型计算。
针对此类模型时,由于模型经常使用相同的输入参数进行重复性计算,且模型的运行时间长,对计算机资源的消耗高,尽管独立空间的方式为并发提供了解决方案,但是并没有提高模型的单个任务的运行效率。由于模型的参数经过前端-后端-前端的传递以及其他资源的耗时,模型集成平台的整体运行效率不高。
发明内容
本发明针对现有技术的缺陷,提供了一种优化模型集成平台运行效率的方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种优化模型集成平台运行效率的方法,包括:前端完成模型输入参数,模型输入参数产生,前端进行必要的参数校验。模型输入参数进入模型缓存空间中,使用先序遍历算法遍历模型参数树,当遍历某条路径至到叶子节点,即检索成功后直接把叶子节点中存储的输出结果返回前端。若检索不成功,将本次模型任务的输入参数,传入线程池并等待结果。模型任务在线程池中运行完成后,将模型输出参数以及状态描述返回模型缓存空间,将模型参数在当前检索不成功的父节点依次建立子节点存储输入参数,在叶子节点中存储模型输出参数以及状态描述等信息,并把模型输出参数返回前端。
进一步地,模型缓存空间的工作流程如下:
步骤一:初始化模型缓存空间。根据模型输入参数的结构,通过分离规则Rule将其分离成n个输入参数序列P{p1,p2,p3,…,pn}。构建模型参数树,树的深度为n+2,每个层次所有节点的集合记为Ti,其中i∈[1,n+2],则树的所有节点可表示为T{T1,T2,T3,…,Tn+1,Tn+2}。其中T1为根节点,不存储内容,{T2,T3,…,Tn+1}依次储存{p1,p2,p3,…,pn},Tn+2为叶子节点,存储模型的输出参数。模型参数树每个层次的最大宽度序列为L{l1,l2,l3,…,ln+1,ln+2},其中l1=1,ln+1=ln+2。模型参数树每层使用一个指针指向最左端节点,并依次连接到最右端节点,指针序列为Q{q1,q2,q3,…,qn+1,qn+2}。
步骤二:当前端将模型输入参数CP传入模型缓存空间,将CP根据步骤一的规则Rule将其分离成n个输入参数部分{cp1,cp2,cp3,…,cpn}。使用广度优先遍历算法遍历模型缓存空间的模型参数树。遍历过程如下:从根节点T1出发,将输入参数部分cp1与模型参数树根节点T1的子节点内容进行比对,若cp1与根节点T1的子节点p1j的内容完全相同,则继续遍历节点p1j的子节点,其中j∈[1,l2]。普遍地,将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对(根节点T1视为第1层已匹配的节点),若cpi与节点pij的子节点p(i+1)m的内容完全相同,将节点pkm作为第i+1层已匹配的节点,则继续输入参数部分cpi+1的比对,其中j∈[1,li],m∈[1,li+1]。若cpn匹配成功,获取当前节点的子节点存储的内容,即叶子节点存储的模型的输出参数。跳转至步骤七。
步骤三:将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对(根节点T1视为第1层已匹配的节点),若cpi与节点pij的子节点的内容均不完全相同,其中j∈[1,li],m∈[1,li+1],则cpi匹配失败,保留第i层已匹配节点pij索引,将任务传入线程池,等待结果返回。
步骤四:模型输出参数结果返回后,判断状态描述是否正常,若不正常,向前端返回相应的错误信息。跳转至步骤二。
步骤五:若状态描述正常,判断模型参数树第i+1层的节点个数不小于li+1,利用指针qn+2获取模型参数树的叶子节点存储的访问字段序列
Figure BDA0002553179170000031
利用最近最长时间未访问过(LRU)置换算法,选择最近最长时间未访问过的模型参数,利用遍历算法找到该条路径,自下向上删除单度节点,同时不破坏树的指针结构。
步骤六:若模型参数树第i+1层的节点个数小于li+1,将模型的为匹配的输入参数序列{cpi,…,cpn}依次存储在节点pij的子节点中,若i<n则cpi+1作为cpi的子节点,最后插入叶子节点,并将模型的输出参数存储在叶子节点中。
步骤七:刷新叶子节点中存储的访问字段
Figure BDA0002553179170000032
向前端返回该模型输出参数部分。
进一步地,基于线程池的并发工作流程如下:
步骤一:初始化线程池,定义线程池大小、线程存活保持时间、任务队列、线程饱和策略等线程池参数。
步骤二:模型缓存空间传入模型输入参数,新增模型任务。
步骤三:模型任务进入线程池,进行线程调控,若线程池拒绝执行任务,跳转至步骤。
步骤四:若正常执行任务,则新建任务空间,复制原模型的主控文件。若此步骤出现异常,跳转至步骤八。
步骤五:将模型任务的输入参数部分,转换为模型的输入文件。若此步骤出现异常,跳转至步骤八。
步骤六:驱动模型EXE文件,监测模型运行结束。若此步骤出现异常或超时,跳转至步骤八。
步骤七:监测模型输出文件,并将模型输出文件转换为模型输出参数。删除模型任务空间。
步骤八:添加相应的状态描述,结束任务。
步骤九:将模型输出参数以及状态描述返回至模型缓存空间。
与现有技术相比,本发明的优点在于:
通过构建模型缓存空间,避免了多重复性计算给计算机带来的高负荷工作,减少用户等待时间。通过构建模型参数树,大大节省了内存空间,提高了模型缓存空间中匹配的速度。通过使用最近最长时间未访问过(LRU)置换算法,提高前端输入参数和模型缓存空间内结果的匹配率。
针对模型自身运行的耗时和占用大量存储空间的特点:经常使用相同的输入参数进行重复性计算,模型的运行时间长,对计算机资源的消耗高。本发明能有效减轻系统负载,提高模型集成平台的整体运行效率。
附图说明
图1为本发明实施例模型集成平台的工作过程中模型参数的数据交互图;
图2为本发明模型参数树的结构示意图;
图3为本发明实施例模型缓存空间的工作示意图;
图4为本发明实施例基于线程池的并发工作示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
如图1所示,前端完成模型输入参数,模型输入参数产生,前端进行必要的参数校验。模型输入参数进入模型缓存空间中,匹配现有的模型参数树的输入参数部分。若匹配成功,直接把模型输出参数返回前端。若匹配不成功,将本次模型任务的输入参数,传入线程池并等待结果。模型任务在线程池中运行完成后,将运行结果返回模型缓存空间,模型参数树将本次模型任务的参数插入树中,并把模型输出参数返回前端。
模型缓存空间的含义:存储多种模型的模型参数树,用于优化模型运行效率。
模型参数树的含义:存储模型输入参数、输出参数以及访问字段的树状结构。如图2所示,树的深度为n+2,每个层次所有节点的集合记为Ti,其中i∈[1,n+2],则树的所有节点可表示为T{T1,T2,T3,…,Tn+1,Tn+2}。其中T1为根节点,不存储内容,{T2,T3,…,Tn+1}依次储存输入参数的不同内容,Tn+2为叶子节点,存储模型的输出参数。模型参数树每个层次的最大宽度序列为L{l1,l2,l3,…,ln+1,ln+2},其中l1=1,ln+1=ln+2。模型参数树每层使用一个指针指向最左端节点,并依次连接到最右端节点,指针序列为Q{q1,q2,q3,…,qn+1,qn+2}。
如图3所示,模型缓存空间的工作流程如下:
步骤一:初始化模型缓存空间。根据模型输入参数的结构,通过分离规则Rule将其分离成n个输入参数序列P{p1,p2,p3,…,pn}。构建模型参数树,树的深度为n+2,每个层次所有节点的集合记为Ti,其中i∈[1,n+2],则树的所有节点可表示为T{T1,T2,T3,…,Tn+1,Tn+2}。其中T1为根节点,不存储内容,{T2,T3,…,Tn+1}依次储存{p1,p2,p3,…,pn},Tn+2为叶子节点,存储模型的输出参数。模型参数树每个层次的最大宽度序列为L{l1,l2,l3,…,ln+1,ln+2},其中l1=1,ln+1=ln+2。模型参数树每层使用一个指针指向最左端节点,并依次连接到最右端节点,指针序列为Q{q1,q2,q3,…,qn+1,qn+2}。
步骤二:当前端将模型输入参数CP传入模型缓存空间,将CP根据步骤一的规则Rule将其分离成n个输入参数部分{cp1,cp2,cp3,…,cpn}。使用广度优先遍历算法遍历模型缓存空间的模型参数树。遍历过程如下:从根节点T1出发,将输入参数部分cp1与模型参数树根节点T1的子节点内容进行比对,若cp1与根节点T1的子节点p1j的内容完全相同,则继续遍历节点p1j的子节点,其中j∈[1,l2]。普遍地,将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对(根节点T1视为第1层已匹配的节点),若cpi与节点pij的子节点p(i+1)m的内容完全相同,将节点pkm作为第i+1层已匹配的节点,则继续输入参数部分cpi+1的比对,其中j∈[1,li],m∈[1,li+1]。若cpn匹配成功,获取当前节点的子节点存储的内容,即叶子节点存储的模型的输出参数。跳转至步骤七。
步骤三:将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对(根节点T1视为第1层已匹配的节点),若cpi与节点pij的子节点的内容均不完全相同,其中j∈[1,li],m∈[1,li+1],则cpi匹配失败,保留第i层已匹配节点pij索引,将任务传入线程池,等待结果返回。
步骤四:模型输出参数结果返回后,判断状态描述是否正常,若不正常,向前端返回相应的错误信息。跳转至步骤二。
步骤五:若状态描述正常,判断模型参数树第i+1层的节点个数不小于li+1,利用指针qn+2获取模型参数树的叶子节点存储的访问字段序列
Figure BDA0002553179170000071
利用最近最长时间未访问过(LRU)置换算法,选择最近最长时间未访问过的模型参数,利用遍历算法找到该条路径,自下向上删除单度节点,同时不破坏树的指针结构。
步骤六:若模型参数树第i+1层的节点个数小于li+1,将模型的为匹配的输入参数序列{cpi,…,cpn}依次存储在节点pij的子节点中,若i<n则cpi+1作为cpi的子节点,最后插入叶子节点,并将模型的输出参数存储在叶子节点中。
步骤七:刷新叶子节点中存储的访问字段
Figure BDA0002553179170000072
向前端返回该模型输出参数部分。
如图4所示,基于线程池的并发工作流程如下:
步骤一:初始化线程池,定义线程池大小、线程存活保持时间、任务队列、线程饱和策略等线程池参数。
步骤二:模型缓存空间传入模型输入参数,新增模型任务。
步骤三:模型任务进入线程池,进行线程调控,若线程池拒绝执行任务,跳转至步骤。
步骤四:若正常执行任务,则新建任务空间,复制原模型的主控文件。若此步骤出现异常,跳转至步骤八。
步骤五:将模型任务的输入参数部分,转换为模型的输入文件。若此步骤出现异常,跳转至步骤八。
步骤六:驱动模型EXE文件,监测模型运行结束。若此步骤出现异常或超时,跳转至步骤八。
步骤七:监测模型输出文件,并将模型输出文件转换为模型输出参数。删除模型任务空间。
步骤八:添加相应的状态描述,结束任务。
步骤九:将模型输出参数以及状态描述返回至模型缓存空间。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (1)

1.一种优化模型集成平台运行效率的方法,其特征在于,包括:前端完成模型输入参数,模型输入参数产生,前端进行参数校验;模型输入参数进入模型缓存空间中,使用先序遍历算法遍历模型参数树,当遍历某条路径至到叶子节点,即检索成功后直接把叶子节点中存储的输出结果返回前端;若检索不成功,将本次模型任务的输入参数,传入线程池并等待结果;模型任务在线程池中运行完成后,将模型输出参数以及状态描述返回模型缓存空间,将模型参数在当前检索不成功的父节点依次建立子节点存储输入参数,在叶子节点中存储模型输出参数以及状态描述信息,并把模型输出参数返回前端;
所述模型缓存空间的工作流程如下:
步骤一:初始化模型缓存空间;根据模型输入参数的结构,通过分离规则Rule将其分离成n个输入参数序列P{p1,p2,p3,,pn};构建模型参数树,树的深度为n+2,每个层次所有节点的集合记为Ti,其中i∈[1,n+2],则树的所有节点可表示为T{T1,T2,T3,,Tn+1,Tn+2};其中T1为根节点,不存储内容,{T2,T3,,Tn+1}依次储存{p1,p2,p3,,pn},Tn+2为叶子节点,存储模型的输出参数;模型参数树每个层次的最大宽度序列为L{l1,l2,l3,,ln+1,ln+2},其中l1=1,ln+1=ln+2;模型参数树每层使用一个指针指向最左端节点,并依次连接到最右端节点,指针序列为Q{q1,q2,q3,,qn+1,qn+2};
步骤二:当前端将模型输入参数CP传入模型缓存空间,将CP根据步骤一的规则Rule将其分离成n个输入参数部分{cp1,cp2,cp3,,cpn};使用广度优先遍历算法遍历模型缓存空间的模型参数树;遍历过程如下:从根节点T1出发,将输入参数部分cp1与模型参数树根节点T1的子节点内容进行比对,若cp1与根节点T1的子节点p1j的内容完全相同,则继续遍历节点p1j的子节点,其中j∈[1,l2];普遍地,将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对,根节点T1视为第1层已匹配的节点,若cpi与节点pij的子节点p(i+1)m的内容完全相同,将节点pkm作为第i+1层已匹配的节点,则继续输入参数部分cpi+1的比对,其中j∈[1,li],m∈[1,li+1];若cpn匹配成功,获取当前节点的子节点存储的内容,即叶子节点存储的模型的输出参数;跳转至步骤七;
步骤三:将输入参数部分cpi与模型参数树第i层已匹配节点pij的子节点内容进行比对,根节点T1视为第1层已匹配的节点,若cpi与节点pij的子节点的内容均不完全相同,其中j∈[1,li],m∈[1,li+1],则cpi匹配失败,保留第i层已匹配节点pij索引,将任务传入线程池,等待结果返回;
步骤四:模型输出参数结果返回后,判断状态描述是否正常,若不正常,向前端返回相应的错误信息;跳转至步骤二;
步骤五:若状态描述正常,判断模型参数树第i+1层的节点个数不小于li+1,利用指针qn+2获取模型参数树的叶子节点存储的访问字段序列
Figure FDA0004194746120000021
利用最近最长时间未访问过LRU置换算法,选择最近最长时间未访问过的模型参数,利用遍历算法找到该条路径,自下向上删除单度节点,同时不破坏树的指针结构;
步骤六:若模型参数树第i+1层的节点个数小于li+1,将模型的为匹配的输入参数序列{cpi,,cpn}依次存储在节点pij的子节点中,若i<n则cpi+1作为cpi的子节点,最后插入叶子节点,并将模型的输出参数存储在叶子节点中;
步骤七:刷新叶子节点中存储的访问字段
Figure FDA0004194746120000022
向前端返回该模型输出参数部分;
基于线程池的并发工作流程如下:
步骤一:初始化线程池,定义线程池参数:线程池大小、线程存活保持时间、任务队列、线程饱和策略;
步骤二:模型缓存空间传入模型输入参数,新增模型任务;
步骤三:模型任务进入线程池,进行线程调控,若线程池拒绝执行任务,跳转至步骤;
步骤四:若正常执行任务,则新建任务空间,复制原模型的主控文件;若此步骤出现异常,跳转至步骤八;
步骤五:将模型任务的输入参数部分,转换为模型的输入文件;若此步骤出现异常,跳转至步骤八;
步骤六:驱动模型EXE文件,监测模型运行结束;若此步骤出现异常或超时,跳转至步骤八;
步骤七:监测模型输出文件,并将模型输出文件转换为模型输出参数;删除模型任务空间;
步骤八:添加相应的状态描述,结束任务;
步骤九:将模型输出参数以及状态描述返回至模型缓存空间。
CN202010583098.3A 2020-06-23 2020-06-23 一种优化模型集成平台运行效率的方法 Active CN111782613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010583098.3A CN111782613B (zh) 2020-06-23 2020-06-23 一种优化模型集成平台运行效率的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010583098.3A CN111782613B (zh) 2020-06-23 2020-06-23 一种优化模型集成平台运行效率的方法

Publications (2)

Publication Number Publication Date
CN111782613A CN111782613A (zh) 2020-10-16
CN111782613B true CN111782613B (zh) 2023-06-02

Family

ID=72757037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010583098.3A Active CN111782613B (zh) 2020-06-23 2020-06-23 一种优化模型集成平台运行效率的方法

Country Status (1)

Country Link
CN (1) CN111782613B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113010413B (zh) * 2021-02-20 2023-04-25 烽火通信科技股份有限公司 一种接口自动化测试方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819596A (zh) * 2010-04-28 2010-09-01 烽火通信科技股份有限公司 一种基于内存的xml脚本缓存容器
CN104243425A (zh) * 2013-06-19 2014-12-24 深圳市腾讯计算机系统有限公司 一种在内容分发网络中进行内容管理的方法、装置及系统
CN104504076A (zh) * 2014-12-22 2015-04-08 西安电子科技大学 一种高并发和高空间利用率的分布式缓存方法
CN104573140A (zh) * 2013-10-09 2015-04-29 北京军区军事训练模拟仿真研发服务中心 一种应用于虚拟仿真的分层动态路径规划方法
CN104915427A (zh) * 2015-06-15 2015-09-16 华中科技大学 一种基于广度优先遍历的图处理优化方法
CN105677563A (zh) * 2016-01-05 2016-06-15 南昌航空大学 一种基于SysML模块图的集成测试序列生成方法
CN106067039A (zh) * 2016-05-30 2016-11-02 桂林电子科技大学 基于决策树剪枝的模式匹配方法
CN107045530A (zh) * 2017-01-20 2017-08-15 华中科技大学 一种将对象存储系统实现为本地文件系统的方法
CN107621985A (zh) * 2017-08-30 2018-01-23 天津大学 一种基于Android的APP内容注入及自动执行框架
CN111177090A (zh) * 2020-01-14 2020-05-19 江苏鸿程大数据技术与应用研究院有限公司 一种基于子模优化算法的客户端缓存方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7703101B2 (en) * 2004-02-13 2010-04-20 International Business Machines Corporation Autonomic workload classification using predictive assertion for wait queue and thread pool selection

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819596A (zh) * 2010-04-28 2010-09-01 烽火通信科技股份有限公司 一种基于内存的xml脚本缓存容器
CN104243425A (zh) * 2013-06-19 2014-12-24 深圳市腾讯计算机系统有限公司 一种在内容分发网络中进行内容管理的方法、装置及系统
CN104573140A (zh) * 2013-10-09 2015-04-29 北京军区军事训练模拟仿真研发服务中心 一种应用于虚拟仿真的分层动态路径规划方法
CN104504076A (zh) * 2014-12-22 2015-04-08 西安电子科技大学 一种高并发和高空间利用率的分布式缓存方法
CN104915427A (zh) * 2015-06-15 2015-09-16 华中科技大学 一种基于广度优先遍历的图处理优化方法
CN105677563A (zh) * 2016-01-05 2016-06-15 南昌航空大学 一种基于SysML模块图的集成测试序列生成方法
CN106067039A (zh) * 2016-05-30 2016-11-02 桂林电子科技大学 基于决策树剪枝的模式匹配方法
CN107045530A (zh) * 2017-01-20 2017-08-15 华中科技大学 一种将对象存储系统实现为本地文件系统的方法
CN107621985A (zh) * 2017-08-30 2018-01-23 天津大学 一种基于Android的APP内容注入及自动执行框架
CN111177090A (zh) * 2020-01-14 2020-05-19 江苏鸿程大数据技术与应用研究院有限公司 一种基于子模优化算法的客户端缓存方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
哈夫曼编码译码功能的简单实现;许子明;;科技风(第18期);全文 *

Also Published As

Publication number Publication date
CN111782613A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
US6983458B1 (en) System for optimizing data type definition in program language processing, method and computer readable recording medium therefor
CN105095425B (zh) 一种数据库的跨库结转方法及装置
CN105706057B (zh) 一种用于并行地控制多个处理单元的设备、方法、系统
US8631416B2 (en) Parallelizing scheduler for database commands
CN109891438B (zh) 数值量子实验方法和系统
CN113064586B (zh) 一种基于抽象语法树增广图模型的代码补全方法
Robson Using the STL: the C++ standard template library
CN113283613B (zh) 深度学习模型的生成方法、优化方法、装置、设备及介质
CN113157917B (zh) 基于OpenCL的优化分类模型的建立、优化分类方法及系统
WO2023197554A1 (zh) 模型推理加速方法、装置、电子设备及存储介质
CN111782613B (zh) 一种优化模型集成平台运行效率的方法
US20050198627A1 (en) Loop transformation for speculative parallel threads
JP5108252B2 (ja) インデクス更新方法及びそのシステム
CN112527304B (zh) 基于异构平台的自适应节点融合编译优化方法
CN117216461A (zh) 一种搭建遗传优化算法计算平台的方法及平台使用方法
CN115759979B (zh) 基于rpa和流程挖掘的流程智能处理方法和系统
CN115757464B (zh) 一种基于深度强化学习的智能物化视图查询方法
CN111290855B (zh) 分布式环境中多gpu服务器的gpu卡管理方法、系统及存储介质
CN114691302A (zh) 一种面向大数据处理的动态缓存替换方法及设备
US20060004863A1 (en) Method, system and program for simplifying data flow in a statement with sequenced subexpressions
US8904348B2 (en) Method and system for handling errors during script execution
CN113011585A (zh) 消除拼接算子的编译优化方法、系统、设备及存储介质
US11915135B2 (en) Graph optimization method and apparatus for neural network computation
CN112506566A (zh) 信息处理设备、计算机可读存储介质以及信息处理方法
Zhang Multi-relational data mining based on higher-order inductive logic programming

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant