CN116719648B - 一种用于计算机系统的数据管理方法及系统 - Google Patents

一种用于计算机系统的数据管理方法及系统 Download PDF

Info

Publication number
CN116719648B
CN116719648B CN202311003051.5A CN202311003051A CN116719648B CN 116719648 B CN116719648 B CN 116719648B CN 202311003051 A CN202311003051 A CN 202311003051A CN 116719648 B CN116719648 B CN 116719648B
Authority
CN
China
Prior art keywords
computer system
piece
currently running
memory
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311003051.5A
Other languages
English (en)
Other versions
CN116719648A (zh
Inventor
李鑫
冯斌
冯昌利
王霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taishan University
Original Assignee
Taishan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taishan University filed Critical Taishan University
Priority to CN202311003051.5A priority Critical patent/CN116719648B/zh
Publication of CN116719648A publication Critical patent/CN116719648A/zh
Application granted granted Critical
Publication of CN116719648B publication Critical patent/CN116719648B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种用于计算机系统的数据管理方法及系统,涉及电数字数据处理领域,所述方法包括:针对计算机系统当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘空间;基于各个进程分别对应的各份参考数据和各份进程信息智能预测各个进程下一时刻分别对应的各份关联数据。所述系统与所述方法对应通过本发明,面对未来时刻计算机系统内存消耗状态难以判断导致内存溢出的技术问题,能够采用人工智能模型完成未来时刻各个进程占用内存空间和硬盘空间的有效数值判断,从而解决了上述技术问题。

Description

一种用于计算机系统的数据管理方法及系统
技术领域
本发明涉及电数字数据处理领域,尤其涉及一种用于计算机系统的数据管理方法及系统。
背景技术
数据管理是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程,其目的在于充分有效地发挥数据的作用,实现数据有效管理的关键是数据组织。而内存管理是计算机系统的数据管理的重要内容,在计算机系统运行进程过多或者运行进程消耗数据过多的情况下,计算机系统的内存相对不足,需要增设虚拟内存以从硬盘中调配用作内存使用的数据存储空间,如果硬盘内的存储空间也不足时,只能从物理上为计算机系统添加插入额外的内存卡,以保证计算机系统的各个进程的正常运行。
示例地,中国发明专利公开文本CN114116382A提出的一种数据处理方法、装置、系统、计算机设备和存储介质,所述方法包括:在监听到代理进程对业务进程对应的数据集合文件进行更新的情况下,对更新后的目标数据集合文件进行内存映射,得到所述目标数据集合文件的虚拟内存地址;释放所述业务进程的物理内存中原始数据集合文件中的数据;根据所述目标数据集合文件的虚拟内存地址,将所述目标数据集合文件中的数据写入所述物理内存中。所述方法可以降低内存消耗。
示例地,中国发明专利公开文本CN103617133A提出的一种Windows系统中虚拟内存压缩方法和装置,该方法包括:拦截系统进程中的常驻线程通过虚拟内存向虚拟内存文件写数据的行为,将数据进行压缩,存储在虚拟内存中;拦截常驻线程通过虚拟内存向虚拟内存文件读数据的行为,将存储在虚拟内存中的数据进行解压缩,返回给系统进程。根据本发明的Windows系统中虚拟内存压缩方法和装置,可以在当前进程都在工作的情况下,所占用的虚拟内存过大时,避免对磁盘的频繁读写造成的时间浪费,进而避免了系统运行缓慢的问题。
但是,上述现有技术仅仅限于对计算机系统的实时的内存管理,无法解决未来时刻计算机系统内存消耗状态难以判断导致内存溢出的技术问题,该技术问题的关键在于计算机系统的各个运行进程中每一个进程信息的复杂性以及随时间对计算机内存消耗的不确定性,使得未来时刻计算机系统各个运行进程对计算机内存以及计算机硬盘消耗缺乏有效参考数据,进而无法实施针对未来时刻计算机系统的有效内存数据管理。
发明内容
为了解决现有技术中的技术问题,本发明提供了一种用于计算机系统的数据管理方法及系统,能够为计算机系统构建针对性设计的人工智能模型,同时采集计算机系统的各个进程的历史运行数据以及进程本身信息,实现对计算机系统未来时刻各个进程占用内存空间以及硬盘空间的有效判断,为未来时刻计算机系统的内存数据管理提供可靠依据。
根据本发明的一方面,提供了一种用于计算机系统的数据管理方法,所述方法包括:
检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据。
根据本发明的另一方面,提供了一种用于计算机系统的数据管理系统,所述系统包括:
第一检测器件,用于检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
第二检测器件,用于检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
进程分析器件,用于获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
数据捕获器件,与所述进程分析器件连接,用于针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
信息预测器件,分别与所述进程分析器件以及所述数据捕获器件连接,用于基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据;
溢出判断器件,分别与所述信息预测器件、所述第一检测器件以及所述第二检测器件连接,用于在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号;
其中,所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:所述人工智能模型为完成设定数目的多次学习后的卷积神经网络;
其中,所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:预测的当前运行的每一个进程在下一时刻分别对应的关联数据包括当前运行的每一个进程在下一时刻占用的内存空间和硬盘存储空间。
由此可见,本发明至少具备以下四处突出的实质性特点:
(1)在计算机系统运行的各个进程未发生增减变化的情况下,基于各个进程的分别对应的各份进程信息以及各个进程在当前时刻以前各个时刻分别占用的内存空间以及硬盘空间的具体数值,采用人工智能模型预测各个进程在下一时刻分别占用的内存空间以及硬盘空间的具体数值,从而为后续的下一时刻的内容数据管理提供关键信息;
(2)在预测获得的各个进程在下一时刻分别占用的内存空间的累计值超过计算机系统的最大内存容量时,触发虚拟内存释放信号以准备从硬盘空间内提取存储空间用作下一时刻计算机系统的虚拟内存,否则,触发内存充足判断信号;
(3)在预测获得的各个进程在下一时刻分别占用的硬盘空间的累计值超过或者等于计算机系统的最大硬盘存储容量,即便触发了虚拟内存释放信号,也禁用虚拟内存释放操作并发出增设内存请求,以请求增设更多的内存卡,从而实现了计算机系统的动态、智能的内容数据管理;
(4)执行预测的人工智能模型为完成设定数目的多次学习后的卷积神经网络,且学习的次数与时间轴上相邻两个时刻之间的间隔时长正向关联,并执行每一次的针对性学习操作,从而保证了预测结果的有效性和稳定性。
附图说明
以下将结合附图对本发明的实施例进行描述,其中:
图1为根据本发明的用于计算机系统的数据管理方法及系统的技术流程图。
图2为根据本发明的第一实施例示出的用于计算机系统的数据管理方法的步骤流程图。
图3为根据本发明的第二实施例示出的用于计算机系统的数据管理方法的步骤流程图。
图4为根据本发明的第三实施例示出的用于计算机系统的数据管理方法的步骤流程图。
图5为根据本发明的第四实施例示出的用于计算机系统的数据管理方法的步骤流程图。
图6为根据本发明的第五实施例示出的用于计算机系统的数据管理方法的步骤流程图。
图7为根据本发明的第六实施例示出的用于计算机系统的数据管理系统的内部结构图。
具体实施方式
如图1所示,给出了根据本发明示出的用于计算机系统的数据管理方法及系统的技术流程图,本发明应用于在计算机系统运行的各个进程未发生增减变化的场景。
如图1所示,本发明的具体的技术流程如下:
流程一:建立执行各个进程未来时刻分别占用的内存空间以及硬盘空间的智能预测处理的人工智能模型;
示例地,为保证建立的人工智能模型执行智能预测的可靠性,采用了以下几项针对性的模型设计操作:
所述人工智能模型为完成设定数目的多次学习后的卷积神经网络,且学习的次数与时间轴上相邻两个时刻之间的间隔时长正向关联,并基于进程历史关联数据执行每一次的针对性学习操作;
流程二:采集用于执行智能预测的基础数据,用于预测各个进程在当前时刻的下一时刻分别占用的内存空间以及硬盘空间,所述基础数据包括各个进程的分别对应的各份进程信息以及各个进程在当前时刻以前各个时刻分别占用的内存空间以及硬盘空间的具体数值,当前时刻以前各个时刻分别包括当前时刻;
具体地,各个进程的分别对应的各份进程信息中,每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
流程三:采用流程一建立的人工智能模型,用于基于流程二获取的基础数据智能预测当前时刻的下一时刻分别占用的内存空间以及硬盘空间;
流程四:在预测获得的各个进程在下一时刻分别占用的内存空间的累计值超过计算机系统的最大内存容量时,触发虚拟内存释放信号以准备从硬盘空间内提取存储空间用作下一时刻计算机系统的虚拟内存,否则,触发内存充足判断信号;
流程五:在预测获得的各个进程在下一时刻分别占用的硬盘空间的累计值超过或者等于计算机系统的最大硬盘存储容量,即便触发了虚拟内存释放信号,也禁用虚拟内存释放操作并发出增设内存请求,以请求增设更多的内存卡;
通过本发明示出的用于计算机系统的数据管理方法及系统的上述各个流程,实现了计算机系统的动态、智能的内容数据管理,从而保证了计算机系统在各种复杂进程运行环境下均能保持充足的内存空间。
本发明的关键点在于:执行各个进程未来时刻分别占用的内存空间以及硬盘空间的智能预测处理的人工智能模型、执行智能预测的基础数据的针对性选择、从使用现有实体内存到开辟虚拟内存再到增设实体内存的动态内存管理机制。
下面,将对本发明的用于计算机系统的数据管理方法及系统以实施例的方式进行具体说明。
实施例一:图2为根据本发明的第一实施例示出的用于计算机系统的数据管理方法的步骤流程图。
如图2所示,所述用于计算机系统的数据管理方法包括以下步骤:
步骤S101:检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
示例地,在计算机系统内存在第一内存卡且第一内存卡的容量为第一容量,以及存在第二内存卡且第二内存卡的容量为第二容量时,确定的所述计算机系统的最大内存容量为第一容量和第二容量的和值;
步骤S102:检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
示例地,在计算机系统内存在第一硬盘且第一硬盘的容量为第三容量,以及存在第二硬盘且第二硬盘的容量为第四容量时,确定的所述计算机系统的最大硬盘存储容量为第三容量和第四容量的和值;
步骤S103:获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
例如,每一进程的最大运算消耗量、最小运算消耗量以及平均运算消耗量可以用消耗计算机系统的处理器的最大运算量、最小运算量以及平均运算量分别进行数值表示;
步骤S104:针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
示例地,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比包括:在计算机系统当前运行的各个进程的数量为5且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为10,在计算机系统当前运行的各个进程的数量为8且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为16,在计算机系统当前运行的各个进程的数量为10且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为20;
步骤S105:基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据;
示例地,可以选择采用MATLAB工具箱完成基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据的仿真处理。
实施例二:图3为根据本发明的第二实施例示出的用于计算机系统的数据管理方法的步骤流程图。
如图3所示,相比较于图2,在基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据之后,所述用于计算机系统的数据管理方法还包括:
步骤S106:在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号;
其中,所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化;
这样,在上述进程未发生增减变化的场景下,也就是一直保持固定数量的进程运行在所述计算机系统中且没有发生进程的增加和进程的减少,才能够实现本发明的数据管理模式。
实施例三:图4为根据本发明的第三实施例示出的用于计算机系统的数据管理方法的步骤流程图。
如图4所示,相比较于图3,在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号之后,所述用于计算机系统的数据管理方法还包括:
步骤S107:在接收到虚拟内存释放信号时,计算预测的当前运行的各个进程在下一时刻分别占用的硬盘存储空间的累计值,并在计算获得的累计值大于等于所述计算机系统的最大硬盘存储容量时,禁用虚拟内存释放操作并发出增设内存请求;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:所述人工智能模型为完成设定数目的多次学习后的卷积神经网络;
示例地,所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:可以选择数值仿真模式完成对卷积神经网络的设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出;
其中,所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:预测的当前运行的每一个进程在下一时刻分别对应的关联数据包括当前运行的每一个进程在下一时刻占用的内存空间和硬盘存储空间。
实施例四:图5为根据本发明的第四实施例示出的用于计算机系统的数据管理方法的步骤流程图。
如图5所示,相比较于图2,在基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据之前,所述用于计算机系统的数据管理方法还包括:
步骤S108:对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出;
其中,对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出包括:在对卷积神经网络执行的每一次学习中,将当前运行的各个进程在某一过往时刻分别对应的各份关联数据作为卷积神经网络的输出内容,将计算机系统当前运行的各个进程分别对应的各份过往数据以及分别对应的各份进程信息作为卷积神经网络的输入内容,执行本次学习;
这样,采用进程的历史关联数据实现要进行每一次学习的卷积神经网络的输入内容和输出内容的定制,从而保证每一次学习的效果;
其中,对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出还包括:计算机系统当前运行的每一个进程对应的单份过往数据包括其在所述某一过往时刻之前均匀间隔的各个时刻分别对应的各份关联数据。
实施例五:图6为根据本发明的第五实施例示出的用于计算机系统的数据管理方法的步骤流程图。
如图6所示,相比较于图5,在对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出之后,所述用于计算机系统的数据管理方法还包括:
步骤S109:存储所述人工智能模型的各项模型参数以实现对所述人工智能模型的模型存储;
示例地,可以选择FLASH存储芯片、静态存储器或者TF存储器来实现所述人工智能模型的各项模型参数的存储。
接着,将继续对本发明的各个实施例进行进一步地说明。
在上述各个实施例内,可选地,在所述用于计算机系统的数据管理方法中:
所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化包括:计算机系统当前运行的各个进程分别对应各个进程ID,在所述各个时刻与所述下一时刻共同占用的时间区间内,所述计算机系统运行的各个进程ID未发生变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:将计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息作为人工智能模型的输入内容以运行人工智能模型,获取所述人工智能模型输出的当前运行的各个进程在下一时刻分别对应的各份关联数据。
在上述各个实施例内,可选地,在所述用于计算机系统的数据管理方法中:
基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量包括:将检测到的计算机系统内的各种内存卡分别对应的各份最大存储容量进行累计以获得所述计算机系统的最大内存容量;
其中,基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量包括:将检测到的计算机系统内的各件硬盘分别对应的各份最大存储容量进行累计以获得所述计算机系统的最大硬盘存储容量。
以及在上述各个实施例内,可选地,在所述用于计算机系统的数据管理方法中:
当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的关联组件数量为所述进程运行过程中使用的计算机系统的组件的数量;
其中,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的共享进程数量为所述进程运行时与所述进程存在数据交互的其他进程的总数;
其中,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的代码数量为所述进程对应的代码文本包括的代码字符的总数;
示例地,计算机系统运行的每一个进程其可以用计算机识别语言进行表示,将所述计算机识别语言的各个组成的代码字符进行计数以获得所述进程对应的代码文本包括的代码字符的总数,并作为所述进程的代码数量输出。
实施例六:图7为根据本发明的第六实施例示出的用于计算机系统的数据管理系统的内部结构图。
如图7所示,所述用于计算机系统的数据管理系统包括以下组件:
第一检测器件,用于检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
示例地,在计算机系统内存在第一内存卡且第一内存卡的容量为第一容量,以及存在第二内存卡且第二内存卡的容量为第二容量时,确定的所述计算机系统的最大内存容量为第一容量和第二容量的和值;
第二检测器件,用于检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
示例地,在计算机系统内存在第一硬盘且第一硬盘的容量为第三容量,以及存在第二硬盘且第二硬盘的容量为第四容量时,确定的所述计算机系统的最大硬盘存储容量为第三容量和第四容量的和值;
进程分析器件,用于获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
例如,每一进程的最大运算消耗量、最小运算消耗量以及平均运算消耗量可以用消耗计算机系统的处理器的最大运算量、最小运算量以及平均运算量分别进行数值表示;
数据捕获器件,与所述进程分析器件连接,用于针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
示例地,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比包括:在计算机系统当前运行的各个进程的数量为5且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为10,在计算机系统当前运行的各个进程的数量为8且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为16,在计算机系统当前运行的各个进程的数量为10且保持不变时,所述各个时刻包括当前时刻且所述各个时刻的数量为20;
信息预测器件,分别与所述进程分析器件以及所述数据捕获器件连接,用于基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据;
示例地,可以选择采用MATLAB工具箱完成基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据的仿真处理;
溢出判断器件,分别与所述信息预测器件、所述第一检测器件以及所述第二检测器件连接,用于在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号;
例如,可以选择采用CPLD器件、FPGA器件或者ASIC器件来实现所述溢出判断器件,在选择采用CPLD器件来实现所述溢出判断器件时,采用VHDL语言实现在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号的操作的设计;
其中,所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:所述人工智能模型为完成设定数目的多次学习后的卷积神经网络;
其中,所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联;
示例地,所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联包括:时间轴上相邻两个时刻之间的间隔时长为2秒,所述设定数目的取值为100,时间轴上相邻两个时刻之间的间隔时长为5秒,所述设定数目的取值为200,以及时间轴上相邻两个时刻之间的间隔时长为10秒,所述设定数目的取值为300;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:预测的当前运行的每一个进程在下一时刻分别对应的关联数据包括当前运行的每一个进程在下一时刻占用的内存空间和硬盘存储空间。
另外,在根据本发明的用于计算机系统的数据管理方法及系统中:
在对卷积神经网络执行的每一次学习中,将当前运行的各个进程在某一过往时刻分别对应的各份关联数据作为卷积神经网络的输出内容,将计算机系统当前运行的各个进程分别对应的各份过往数据以及分别对应的各份进程信息作为卷积神经网络的输入内容,执行本次学习包括:采用数值仿真模式实现对卷积神经网络执行的每一次学习的仿真和测试;
其中,所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联包括:采用数值转换函数表示所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长的正向关联的数值对应关系,在所述数值转换函数中,时间轴上相邻两个时刻之间的间隔时长为其输入数值,所述设定数目的取值为其输出数值。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/电子设备/计算机可读存储介质/计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (8)

1.一种用于计算机系统的数据管理方法,其特征在于,所述方法包括:
检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据;
在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号;
在接收到虚拟内存释放信号时,计算预测的当前运行的各个进程在下一时刻分别占用的硬盘存储空间的累计值,并在计算获得的累计值大于等于所述计算机系统的最大硬盘存储容量时,禁用虚拟内存释放操作并发出增设内存请求;
其中,所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:所述人工智能模型为完成设定数目的多次学习后的卷积神经网络。
2.如权利要求1所述的用于计算机系统的数据管理方法,其特征在于:
所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:预测的当前运行的每一个进程在下一时刻分别对应的关联数据包括当前运行的每一个进程在下一时刻占用的内存空间和硬盘存储空间。
3.如权利要求1所述的用于计算机系统的数据管理方法,其特征在于,在基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据之前,所述方法还包括:
对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出;
其中,对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出包括:在对卷积神经网络执行的每一次学习中,将当前运行的各个进程在某一过往时刻分别对应的各份关联数据作为卷积神经网络的输出内容,将计算机系统当前运行的各个进程分别对应的各份过往数据以及分别对应的各份进程信息作为卷积神经网络的输入内容,执行本次学习;
其中,对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出还包括:计算机系统当前运行的每一个进程对应的单份过往数据包括其在所述某一过往时刻之前均匀间隔的各个时刻分别对应的各份关联数据。
4.如权利要求3所述的用于计算机系统的数据管理方法,其特征在于,在对卷积神经网络执行设定数目的多次学习,以获得完成设定数目的多次学习后的卷积神经网络并作为所述人工智能模型输出之后,所述方法还包括:
存储所述人工智能模型的各项模型参数以实现对所述人工智能模型的模型存储。
5.如权利要求1-4任一所述的用于计算机系统的数据管理方法,其特征在于:
所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化包括:计算机系统当前运行的各个进程分别对应各个进程ID,在所述各个时刻与所述下一时刻共同占用的时间区间内,所述计算机系统运行的各个进程ID未发生变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:将计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息作为人工智能模型的输入内容以运行人工智能模型,获取所述人工智能模型输出的当前运行的各个进程在下一时刻分别对应的各份关联数据。
6.如权利要求1-4任一所述的用于计算机系统的数据管理方法,其特征在于:
基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量包括:将检测到的计算机系统内的各种内存卡分别对应的各份最大存储容量进行累计以获得所述计算机系统的最大内存容量;
其中,基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量包括:将检测到的计算机系统内的各件硬盘分别对应的各份最大存储容量进行累计以获得所述计算机系统的最大硬盘存储容量。
7.如权利要求1-4任一所述的用于计算机系统的数据管理方法,其特征在于:
当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的关联组件数量为所述进程运行过程中使用的计算机系统的组件的数量;
其中,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的共享进程数量为所述进程运行时与所述进程存在数据交互的其他进程的总数;
其中,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量包括:所述进程的代码数量为所述进程对应的代码文本包括的代码字符的总数。
8.一种用于计算机系统的数据管理系统,其特征在于,所述系统包括:
第一检测器件,用于检测计算机系统的内存卡数量以及每一张内存卡的最大存储容量,并基于检测到的计算机系统的内存卡数量以及每一张内存卡的最大存储容量确定所述计算机系统的最大内存容量;
第二检测器件,用于检测计算机系统的硬盘数量以及每一份硬盘的最大存储容量,并基于检测到的计算机系统的硬盘数量以及每一张硬盘的最大存储容量确定所述计算机系统的最大硬盘存储容量;
进程分析器件,用于获取计算机系统当前运行的各个进程分别对应的各份进程信息,当前运行的每一个进程对应的进程信息包括所述进程的关联组件数量、共享进程数量、最大运算消耗量、最小运算消耗量、代码数量以及平均运算消耗量;
数据捕获器件,与所述进程分析器件连接,用于针对当前运行的每一个进程,获取其在当前时刻以前均匀间隔的各个时刻分别对应的各份关联数据以作为其对应的单份参考数据,每一份关联数据包括对应进程在对应时刻占用的内存空间和硬盘存储空间,所述各个时刻包括当前时刻且所述各个时刻的数量与计算机系统当前运行的各个进程的数量成正比;
信息预测器件,分别与所述进程分析器件以及所述数据捕获器件连接,用于基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据;
溢出判断器件,分别与所述信息预测器件、所述第一检测器件以及所述第二检测器件连接,用于在预测的当前运行的各个进程在下一时刻分别占用的内存空间的累计值超过所述计算机系统的最大内存容量时,触发虚拟内存释放信号,否则,触发内存充足判断信号;
其中,所述各个时刻与所述下一时刻在时间轴上均匀间隔分布且所述各个时刻与所述下一时刻共同占用的时间区间内所述计算机系统运行的进程未发生增减变化;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:所述人工智能模型为完成设定数目的多次学习后的卷积神经网络;
其中,所述人工智能模型为完成设定数目的多次学习后的卷积神经网络包括:所述设定数目的取值与时间轴上相邻两个时刻之间的间隔时长正向关联;
其中,基于计算机系统当前运行的各个进程分别对应的各份参考数据以及分别对应的各份进程信息采用人工智能模型预测当前运行的各个进程在下一时刻分别对应的各份关联数据包括:预测的当前运行的每一个进程在下一时刻分别对应的关联数据包括当前运行的每一个进程在下一时刻占用的内存空间和硬盘存储空间。
CN202311003051.5A 2023-08-10 2023-08-10 一种用于计算机系统的数据管理方法及系统 Active CN116719648B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311003051.5A CN116719648B (zh) 2023-08-10 2023-08-10 一种用于计算机系统的数据管理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311003051.5A CN116719648B (zh) 2023-08-10 2023-08-10 一种用于计算机系统的数据管理方法及系统

Publications (2)

Publication Number Publication Date
CN116719648A CN116719648A (zh) 2023-09-08
CN116719648B true CN116719648B (zh) 2023-11-07

Family

ID=87870175

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311003051.5A Active CN116719648B (zh) 2023-08-10 2023-08-10 一种用于计算机系统的数据管理方法及系统

Country Status (1)

Country Link
CN (1) CN116719648B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367828A (zh) * 2020-02-27 2020-07-03 Oppo广东移动通信有限公司 内存压缩方法、装置、终端及存储介质
CN111475298A (zh) * 2020-04-03 2020-07-31 北京字节跳动网络技术有限公司 任务处理方法、装置、设备及存储介质
CN114461538A (zh) * 2022-01-26 2022-05-10 北京广通优云科技股份有限公司 一种基于实时内容预测与历史资源占用的云计算应用内存管理方法
CN115203073A (zh) * 2022-07-20 2022-10-18 重庆大学 一种内存预取方法、装置及介质
CN115756872A (zh) * 2022-12-13 2023-03-07 陈应钦 基于数据分析的计算机内存释放系统
CN115809072A (zh) * 2021-09-15 2023-03-17 华为技术有限公司 一种升级进程的方法、装置、设备及存储介质
CN116388864A (zh) * 2023-05-31 2023-07-04 中诚华隆计算机技术有限公司 量子网络设备性能预测方法、装置、电子设备及存储介质
WO2023143080A1 (zh) * 2022-01-30 2023-08-03 华为技术有限公司 一种数据处理方法以及相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111367828A (zh) * 2020-02-27 2020-07-03 Oppo广东移动通信有限公司 内存压缩方法、装置、终端及存储介质
CN111475298A (zh) * 2020-04-03 2020-07-31 北京字节跳动网络技术有限公司 任务处理方法、装置、设备及存储介质
CN115809072A (zh) * 2021-09-15 2023-03-17 华为技术有限公司 一种升级进程的方法、装置、设备及存储介质
CN114461538A (zh) * 2022-01-26 2022-05-10 北京广通优云科技股份有限公司 一种基于实时内容预测与历史资源占用的云计算应用内存管理方法
WO2023143080A1 (zh) * 2022-01-30 2023-08-03 华为技术有限公司 一种数据处理方法以及相关设备
CN115203073A (zh) * 2022-07-20 2022-10-18 重庆大学 一种内存预取方法、装置及介质
CN115756872A (zh) * 2022-12-13 2023-03-07 陈应钦 基于数据分析的计算机内存释放系统
CN116388864A (zh) * 2023-05-31 2023-07-04 中诚华隆计算机技术有限公司 量子网络设备性能预测方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种基于预测建模的WSN数据管理方案;熊浩;唐鼎;周旭;赵志军;唐晖;;网络新媒体技术(05);24-30 *

Also Published As

Publication number Publication date
CN116719648A (zh) 2023-09-08

Similar Documents

Publication Publication Date Title
CN109597685B (zh) 任务分配方法、装置和服务器
US8141053B2 (en) Call stack sampling using a virtual machine
CN108563739B (zh) 天气数据获取方法及装置、计算机装置及可读存储介质
CN108959004B (zh) 磁盘故障预测方法、装置、设备及计算机可读存储介质
US8132170B2 (en) Call stack sampling in a data processing system
US20100017789A1 (en) Selectively Obtaining Call Stack Information Based on Criteria
CN109656779A (zh) 内存监控方法、装置、终端和存储介质
CN110806954A (zh) 评估云主机资源的方法、装置、设备及存储介质
CN110471945B (zh) 活跃数据的处理方法、系统、计算机设备和存储介质
CN112800061B (zh) 一种数据存储方法、装置、服务器及存储介质
CN105094708A (zh) 一种磁盘容量的预测方法及装置
CN108153587A (zh) 一种针对大数据平台的慢任务原因检测方法
US8255435B2 (en) Detecting memory management anti-patterns
CN101645802B (zh) 内容控制方法及装置
CN113449703A (zh) 环境在线监测数据的质控方法、装置、存储介质及设备
CN116719648B (zh) 一种用于计算机系统的数据管理方法及系统
CN102436535B (zh) 计算机辅助设计过程中创意拐点的识别方法及系统
CN112565228A (zh) 一种客户端网络分析方法及装置
Baier et al. Probabilistic causes in Markov chains
CN110932935A (zh) 资源控制方法、装置、设备及计算机存储介质
CN114785616A (zh) 数据风险检测方法、装置、计算机设备及存储介质
CN112395179B (zh) 一种模型训练方法、磁盘预测方法、装置及电子设备
CN112631941B (zh) 定位linux内核slub内存泄漏的方法和系统
CN113626340A (zh) 测试需求识别方法、装置、电子设备及存储介质
CN111078522A (zh) 页面待优化区域的识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant