CN118069377B - 一种处理器环境验证的云数据处理方法及系统 - Google Patents

一种处理器环境验证的云数据处理方法及系统 Download PDF

Info

Publication number
CN118069377B
CN118069377B CN202410479762.8A CN202410479762A CN118069377B CN 118069377 B CN118069377 B CN 118069377B CN 202410479762 A CN202410479762 A CN 202410479762A CN 118069377 B CN118069377 B CN 118069377B
Authority
CN
China
Prior art keywords
processor
resource
data processing
model
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410479762.8A
Other languages
English (en)
Other versions
CN118069377A (zh
Inventor
王嘉诚
张少仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongcheng Hualong Computer Technology Co Ltd
Original Assignee
Zhongcheng Hualong Computer Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongcheng Hualong Computer Technology Co Ltd filed Critical Zhongcheng Hualong Computer Technology Co Ltd
Priority to CN202410479762.8A priority Critical patent/CN118069377B/zh
Publication of CN118069377A publication Critical patent/CN118069377A/zh
Application granted granted Critical
Publication of CN118069377B publication Critical patent/CN118069377B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/301Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is a virtual computing platform, e.g. logically partitioned systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3024Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3037Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a memory, e.g. virtual memory, cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3051Monitoring arrangements for monitoring the configuration of the computing system or of the computing system component, e.g. monitoring the presence of processing resources, peripherals, I/O links, software programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/71Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45587Isolation or security of virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明涉及计算机处理器技术领域,具体涉及一种处理器环境验证的云数据处理方法及系统,包括以下步骤:初始化云数据处理环境,包括配置处理器资源;基于用户需求动态调整处理器资源配置;实施环境安全检查,验证处理器资源的完整性和安全性;在环境安全检查通过后,启动数据处理任务;监控数据处理过程,实时调整资源分配以优化性能,使用监控工具跟踪处理任务的性能,识别瓶颈或性能下降的问题,并动态调整处理器资源分配来优化处理效率和响应时间。本发明,提高了资源的使用效率,还确保了云数据处理任务能够连续且高效地运行,降低了因资源不足导致的任务失败或延迟的风险。

Description

一种处理器环境验证的云数据处理方法及系统
技术领域
本发明涉及计算机处理器技术领域,尤其涉及一种处理器环境验证的云数据处理方法及系统。
背景技术
在当前的云计算环境中,处理器资源管理和环境验证面临着独特的挑战。云服务提供商必须有效管理其计算资源,以满足不断变化的客户需求,同时确保数据处理的安全性和可靠性。随着云计算用户数量的增加以及计算需求的不断扩大,对处理器资源的管理变得更加复杂和关键。
传统的处理器资源管理方法通常依赖于静态或预设的资源分配策略,这些策略很难适应云环境的动态性和可扩展性需求,在这些环境中,资源需求可以在短时间内显著变化,因此需要更灵活和响应性更强的资源管理方法来优化性能和成本效率。
此外,处理器环境的安全性和完整性验证是云计算安全的另一个重要方面。云环境的开放性和多租户特性使其面临多种安全威胁,包括数据泄露、恶意攻击和服务中断,因此,需要在处理器层面实施高效的安全机制来保护数据和处理任务,确保云服务的信任和合规性。
现有技术的局限性在于它们往往无法充分适应云计算环境的可变性和需求波动,同时在处理资源的安全性和完整性验证方面也存在不足,这导致了资源利用效率低下、成本增加、性能瓶颈以及安全隐患,从而影响了云服务的整体质量和可靠性。
发明内容
基于上述目的,本发明提供了一种处理器环境验证的云数据处理方法及系统。
一种处理器环境验证的云数据处理方法,包括以下步骤:
S1:初始化云数据处理环境,包括配置处理器资源,其中,配置包括为处理器分配初始计算能力、内存容量和网络带宽,根据处理需求对处理器资源进行基线设置;
S2:基于用户需求动态调整处理器资源配置,实时分析用户数据处理任务的复杂性和需求,预估所需处理器资源,并调整处理器资源配置以满足需求;
S3:实施环境安全检查,验证处理器资源的完整性和安全性,包括对处理器硬件和软件环境执行完整性检验,以及对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
S4:在环境安全检查通过后,启动数据处理任务;
S5:监控数据处理过程,实时调整资源分配以优化性能,使用监控工具跟踪处理任务的性能,识别瓶颈或性能下降的问题,并动态调整处理器资源分配来优化处理效率和响应时间;
S6:结束数据处理后,存储处理结果,并进行环境清理和资源释放,包括将数据处理结果存储存储单元,清理临时文件和日志,以及释放不再需要的处理器资源。
进一步的,所述S1具体包括:
S11:在选定的云平台上部署容器实例,作为数据处理任务的执行环境;
S12:为处理器分配初始计算能力,包括确定容器实例的CPU核心数和时钟频率,以满足基线的计算需求;
S13:分配内存容量,确保每个容器实例有足够的内存来支持其运行和数据处理活动,同时留有缓冲区以应对峰值需求;
S14:配置网络带宽,确保容器实例之间以及容器实例与外界的通信流畅,无阻碍,根据基线需求设置带宽上限和下限,以保证数据传输的效率和稳定性;
S15:对容器实例的处理器资源进行基线配置,包括设置容器运行时的CPU和内存分配策略,以及网络配置,以确保系统运行的稳定性和性能。
进一步的,所述S2包括分析用户的数据处理任务需求,包括任务类型、预期数据量、计算复杂度和预计执行时间,使用预测模型,基于用户需求的分析结果来预估所需的处理器资源,包括计算能力、内存需求和网络带宽,根据预测模型的结果调整处理器资源配置,如果预测结果表明即将面临资源短缺,则提前增加处理器核心数、扩大内存分配或增加网络带宽,以确保能够满足用户需求。
进一步的,所述预测模型基于队列模型,具体包括:
S21:根据用户的数据处理任务需求(包括任务类型、预期的数据量、计算复杂度和预计执行时间),确定任务到达率λ和服务率μ,任务到达率反映新任务的频率,服务率代表处理任务的能力;
S22:选择M/M/c队列模型,基于任务到达率和服务率来模拟处理器资源的使用情况,M/M/c模型适用于有多个处理器核心的情况;
S23:在所选的M/M/c队列模型中进行模拟,以估计平均队列长度、等待时间和利用率;
S24:根据队列模型结果和性能目标,确定所需的处理器核心数、内存大小和网络带宽,如果模拟显示当前资源无法满足性能要求(如队列长度过长或等待时间过长),则需增加资源配置;
S25:调整处理器资源配置,以确保处理器资源能够处理预期的数据处理任务,同时保持所需的性能水平和响应时间。
进一步的,所述M/M/c队列模型是基于多服务台(c个服务台)的队列器,其中,到达过程遵循泊松分布,服务时间遵循指数分布:
确定到达率和服务率/>:根据用户的数据处理任务需求,计算任务的平均到达率,以及每个处理器核心的平均服务率/>
计算流量强度和服务器利用率:流量强度表示每个处理器核心平均的负载,服务器利用率也由/>表示,反映每个处理器核心的繁忙程度;
计算M/M/c队列模型的关键指标:平均队列长度和平均等待时间/>通过以下计算:
首先计算队列模型中的总人数的概率分布的基础上,计算队列中人数/>
,其中/>是模型为空,即没有任务的概率,计算为:
平均等待时间使用/>除以到达率/>来计算:/>
根据计算结果调整处理器资源配置:使用计算结果来评估当前处理器资源配置是否能满足性能要求,如果或/>超过预定阈值,表示需要更多的处理器资源来减少队列长度和等待时间,根据分析,确定所需增加的处理器核心数(c的值),以确保处理器资源能够处理用户的数据处理任务。
进一步的,所述S3中的实施环境安全检查具体包括:
S31:部署预测性安全模型,利用历史数据和当前环境行为数据来预测未来安全事件,并制定预防措施;
S32:在处理器硬件层面,引入受信任的平台模块TPM,以增强硬件的安全性,确保物理级的完整性和防篡改能力,选择TPM 2.0平台并将其集成到处理器上,支持加密、密钥生成和存储、完整性度量和安全启动,启动时,通过TPM 2.0平台执行安全启动过程,验证固件、操作系统和启动加载程序的完整性,通过TPM 2.0平台记录和验证处理器组件的完整性指标(如散列值),任何未授权的更改都会被检测,并可触发安全响应机制。
进一步的,所述预测性安全模型采用预测型自编码器模型,所述预测型自编码器模型具体包括:
模型训练:收集关于处理器运行环境的正常行为数据,包括处理器使用率、内存访问模式、网络流量,从收集的数据中提取基线运行特征,基线运行特征应能代表系统的正常运行状态;
模型构建:使用自编码器网络结构学习基线运行特征的高级表示,自编码器由编码器、解码器构成:编码器将输入转换为一个低维度的隐藏表示,解码器将隐藏表示再转换回原始输入空间;
编码器:编码器,其中/>是输入数据,/>是隐藏表示;
解码器:解码器,其中/>是重构的输入数据。
训练过程:通过最小化重构误差(即输入和重构输出/>之间的差异)来训练自编码器,使用均方误差MSE作为损失函数:
预测和检测:模型训练完成后,使用预测型自编码器模型来评估新的观测数据,对于新的输入数据,自编码器尝试重构,并计算重构误差,如果新数据的重构误差高于训练数据时的平均重构误差,则表明新数据表示异常,是安全事件的迹象。
进一步的,所述S5具体包括:
部署监控工具:在云数据处理环境中部署监控工具,实时跟踪和记录处理器使用率、内存消耗、网络带宽利用率、磁盘I/O操作;
定义性能基线和阈值:确定每项服务和应用的性能基线,并设置阈值,阈值用于识别何时资源使用超过正常运行范围,需要调整;
实时性能跟踪:监控工具实时收集和分析性能数据,以便快速识别任何偏离预定性能基线的行为,基于时间序列算法分析导致性能瓶颈或下降的问题;
动态资源调整:引入资源优化算法,并根据监控数据和性能分析结果,动态调整资源分配。
进一步的,所述时间序列算法采用改进的ARIMA模型,所述改进的ARIMA模型表示为,其中,/>是自回归项的阶数,/>是时间序列差分的阶数,使序列平稳,/>是移动平均项的阶数,具体包括:
收集处理器资源使用的历史时间序列数据,包括CPU使用率、内存使用量;
对于每个处理器资源的时间序列,使用自相关函数ACF和偏自相关函数PACF图来辅助确定ARIMA模型的参数
ARIMA模型表示为:,其中,是滞后算子,/>和/>分别是模型的参数,/>是误差项;
使用历史数据训练模型,通过均方误差的损失函数来确定最佳参数:均方误差,利用训练好的模型对未来处理器资源使用进行预测;
所述使用自相关函数ACF和偏自相关函数PACF图来辅助确定ARIMA模型的参数具体如下:
确定差分阶数,观察原始时间序列的图形和其自相关图ACF,查找非季节性的自相关性是否快速减少,对时间序列进行一阶差分,然后再次检查序列和ACF图,如果序列在一次差分后变得平稳,则/>;如果需要多次差分才能达到平稳,差分次数/>应增加;
确定自回归阶数:时间序列平稳后,使用PACF图来确定/>的值,PACF图显示了时间序列与其自身滞后版本之间的相关性,排除了中间滞后的影响,对于一个ARIMA模型,PACF在滞后/>之后会出现截尾(突然下降到不显著的值),如果PACF在滞后/>个时间单位后截尾,则/>
确定移动平均阶数,使用ACF图来确定/>的值,ACF图展示了时间序列和其滞后值之间的相关性,对于ARIMA模型,ACF在滞后/>后截尾,如果ACF在滞后/>个时间单位后截尾,则可/>
所述资源优化算法基于线性规划优化算法,具体包括:
优化目标和约束条件:设定线性规划的目标函数为最小化资源配置的总成本:,其中,/>是总成本,/>是资源/>的单位成本,/>是分配给资源/>的数量,/>是资源的种类,约束条件基于ARIMA模型预测的资源需求来设置,确保每种资源的分配量/>能满足未来的使用需求而不超过上限:
其中,是资源/>的效率系数,/>是资源/>的预测需求,是资源/>的最大可用量;
利用线性规划求解器(如Simplex算法或内点法)找到最优的资源分配,根据优化结果调整处理器资源配置,以实现成本最小化同时保证性能需求得到满足。
一种处理器环境验证的云数据处理系统,用于实现上述的一种处理器环境验证的云数据处理方法,包括以下模块:
资源初始化模块:负责在云环境中部署容器实例,并为容器实例配置初始的处理器资源;
资源预测与调整模块:利用队列理论模型来预测未来的处理器资源需求,并基于预测动态调整资源配置,以确保处理能力能满足未来的需求;
完整性与安全验证模块:执行处理器运行环境的完整性检查,包括使用平台模块TPM安全验证,对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
性能监控与优化模块:实时监控处理任务的性能,使用时间序列分析技术预测性能趋势,识别性能瓶颈或下降问题,根据监控和分析结果,动态调整处理器资源分配来优化处理效率和响应时间;
数据处理与存储模块:在验证的安全环境下执行数据处理任务,包括数据分析、计算任务,存储处理结果,并在任务完成后进行环境清理和资源释放。
本发明的有益效果:
本发明,通过引入基于队列理论的模型预测处理器资源需求,并结合实时性能监控数据,系统能够动态调整资源分配,通过应用M/M/c队列模型,能够精确预测并管理处理器资源的需求,特别是在多用户和高并发的云环境中,这种队列模型考虑了多个服务通道(即处理器核心或计算资源),使得资源分配更加高效和平衡,通过对即将到来的资源需求进行准确预测。
本发明,通过在处理器硬件层面引入TPM,以及在软件层面进行完整性检验和安全扫描,显著增强了数据处理环境的安全性和可靠性,这些措施确保了从物理硬件到软件应用的全面安全防护,能有效防御外部攻击和内部威胁,减少了数据泄露或损坏的风险。
本发明,利用改进的ARIMA模型,并结合自相关函数(ACF)和偏自相关函数(PACF)图来辅助确定模型参数(p, d, q),可以更精确地预测处理器资源使用趋势和潜在的性能瓶颈,这种方法使得资源分配策略能够基于数据驱动的预测来进行,而不仅仅是基于过去的经验或简单规则,通过精确的预测,系统能够预先调整资源配置,避免性能下降和过载情况的发生,这不仅提高了资源的使用效率,还确保了云数据处理任务能够连续且高效地运行,降低了因资源不足导致的任务失败或延迟的风险。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的功能模块示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本发明进一步详细说明。
需要说明的是,除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如图1所示,一种处理器环境验证的云数据处理方法,包括以下步骤:
S1:初始化云数据处理环境,包括配置处理器资源,其中,配置包括为处理器分配初始计算能力、内存容量和网络带宽,根据处理需求对处理器资源进行基线设置;
S2:基于用户需求动态调整处理器资源配置,实时分析用户数据处理任务的复杂性和需求,预估所需处理器资源,并调整处理器资源配置以满足需求;
S3:实施环境安全检查,验证处理器资源的完整性和安全性,包括对处理器硬件和软件环境执行完整性检验,以及对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
S4:在环境安全检查通过后,启动数据处理任务;
S5:监控数据处理过程,实时调整资源分配以优化性能,使用监控工具跟踪处理任务的性能,识别瓶颈或性能下降的问题,并动态调整处理器资源分配来优化处理效率和响应时间;
S6:结束数据处理后,存储处理结果,并进行环境清理和资源释放,包括将数据处理结果存储存储单元,清理临时文件和日志,以及释放不再需要的处理器资源。
S1具体包括:
S11:在选定的云平台上部署容器实例,作为数据处理任务的执行环境;
S12:为处理器分配初始计算能力,包括确定容器实例的CPU核心数和时钟频率,以满足基线的计算需求;
S13:分配内存容量,确保每个容器实例有足够的内存来支持其运行和数据处理活动,同时留有缓冲区以应对峰值需求;
S14:配置网络带宽,确保容器实例之间以及容器实例与外界的通信流畅,无阻碍,根据基线需求设置带宽上限和下限,以保证数据传输的效率和稳定性;
S15:对容器实例的处理器资源进行基线配置,包括设置容器运行时的CPU和内存分配策略,以及网络配置,以确保系统运行的稳定性和性能。
S2包括分析用户的数据处理任务需求,包括任务类型、预期数据量、计算复杂度和预计执行时间,使用预测模型,基于用户需求的分析结果来预估所需的处理器资源,包括计算能力、内存需求和网络带宽,根据预测模型的结果调整处理器资源配置,如果预测结果表明即将面临资源短缺,则提前增加处理器核心数、扩大内存分配或增加网络带宽,以确保能够满足用户需求,在资源需求预测较低时,适当减少资源分配,以提高资源使用效率,避免不必要的成本开销。
预测模型基于队列模型,具体包括:
S21:根据用户的数据处理任务需求(包括任务类型、预期的数据量、计算复杂度和预计执行时间),确定任务到达率λ和服务率μ,任务到达率反映新任务的频率,服务率代表处理任务的能力;
S22:选择M/M/c队列模型,基于任务到达率和服务率来模拟处理器资源的使用情况,M/M/c模型适用于有多个处理器核心的情况;
S23:在所选的M/M/c队列模型中进行模拟,以估计平均队列长度、等待时间和利用率;
S24:根据队列模型结果和性能目标,确定所需的处理器核心数、内存大小和网络带宽,如果模拟显示当前资源无法满足性能要求(如队列长度过长或等待时间过长),则需增加资源配置;
S25:调整处理器资源配置,以确保处理器资源能够处理预期的数据处理任务,同时保持所需的性能水平和响应时间。
M/M/c队列模型是基于多服务台(c个服务台)的队列器,其中,到达过程遵循泊松分布,服务时间遵循指数分布:
确定到达率和服务率/>:根据用户的数据处理任务需求,计算任务的平均到达率,以及每个处理器核心的平均服务率/>
计算流量强度和服务器利用率:流量强度表示每个处理器核心平均的负载,服务器利用率也由/>表示,反映每个处理器核心的繁忙程度;
计算M/M/c队列模型的关键指标:平均队列长度和平均等待时间/>通过以下计算:
首先计算队列模型中的总人数的概率分布的基础上,计算队列中人数/>
,其中/>是模型为空,即没有任务的概率,计算为:
平均等待时间使用/>除以到达率/>来计算:/>
根据计算结果调整处理器资源配置:使用计算结果来评估当前处理器资源配置是否能满足性能要求,如果或/>超过预定阈值,表示需要更多的处理器资源来减少队列长度和等待时间,根据分析,确定所需增加的处理器核心数(c的值),以确保处理器资源能够处理用户的数据处理任务。
在设定队列长度和等待时间/>的阈值时,需要考虑云数据处理环境的性能目标和用户的服务水平协议(SLA),为了确保高效和响应迅速的云数据处理,设定以下具体的数值作为阈值:
队列长度阈值:假设我们希望在任何时候,待处理的任务数量不超过10个以避免过载,因此将/>的阈值设定为10,这意味着如果队列长度超过10,需要增加处理能力以降低队列长度。
等待时间阈值:对于等待时间,如果希望每个任务的平均等待时间不超过1分钟,那么/>的阈值应该设定为1分钟(或等价的时间单位),这表示如果任何任务的平均等待时间超过1分钟,就需要增加资源来减少等待时间。
阈值需根据实际的业务需求和系统容量进行调整,如果系统需要处理大量短时任务,需要设置更低的和/>阈值来保证高响应性。相反,如果任务处理时间较长且容忍度高,阈值可适当增加。
计算平均到达率,平均到达率/>表示单位时间内新任务到达的平均数量,首先计算单位时间内到达的总任务数以及单位时间的长度,公式如下:/>,例如,如果在2小时内观察到100个新任务到达,则平均到达率为:/>50 任务/小时,这意味着每小时有50个新任务到达。
计算每个处理器核心的平均服务率,平均服务率/>表示每个处理器核心单位时间内可服务的任务数,首先计算单个核心处理单个任务所需的平均时间,公式如下:,其中平均服务时间是单个处理器核心完成一个任务所需的时间,如果我们知道处理器核心完成一个任务的平均时间为2分钟,则平均服务率为:任务/>分钟,这意味着每个处理器核心每分钟可以处理0.5个任务,或者说每小时可以处理30个任务。
S3中的实施环境安全检查具体包括:
S31:部署预测性安全模型,利用历史数据和当前环境行为数据来预测未来安全事件,并制定预防措施;
S32:在处理器硬件层面,引入受信任的平台模块TPM,以增强硬件的安全性,确保物理级的完整性和防篡改能力,选择TPM 2.0平台并将其集成到处理器上,支持加密、密钥生成和存储、完整性度量和安全启动,启动时,通过TPM 2.0平台执行安全启动过程,验证固件、操作系统和启动加载程序的完整性,通过TPM 2.0平台记录和验证处理器组件的完整性指标(如散列值),任何未授权的更改都会被检测,并可触发安全响应机制。
使用TPM 2.0记录和验证处理器组件的完整性指标涉及以下步骤:
初始化和配置TPM:首先,确保处理器系统中的TPM 2.0模块已启用并正确初始化,包括在系统固件(如BIOS或UEFI)中激活TPM支持,并配置TPM的所有权和使用策略。
启动度量和记录:在处理器系统启动过程中,TPM 2.0参与度量启动组件的完整性,这个过程称为“启动度量”,其中包括计算BIOS、引导加载程序、操作系统加载器等组件的散列值,并将这些散列值安全地存储在TPM的平台配置寄存器(PCR)中。
完整性验证:在处理器系统运行期间,请求TPM提供存储在PCR中的散列值,以验证启动组件的完整性,通过比较实际组件的当前散列值与TPM中存储的散列值,可以检测是否有未经授权的更改。
例如,验证处理器固件或操作系统内核的完整性时,会计算其当前的散列值并与TPM PCR中存储的值进行比较。如果两者匹配,表明组件未被篡改;不匹配则可能指示存在安全问题。
利用TPM的扩展功能:TPM 2.0支持更复杂的安全操作,如密钥创建和管理、加密服务、数字签名等,用于加强对处理器组件的进一步保护。
预测性安全模型采用预测型自编码器模型,预测型自编码器模型具体包括:
模型训练:收集关于处理器运行环境的正常行为数据,包括处理器使用率、内存访问模式、网络流量,从收集的数据中提取基线运行特征,基线运行特征应能代表系统的正常运行状态;
模型构建:使用自编码器网络结构学习基线运行特征的高级表示,自编码器由编码器、解码器构成:编码器将输入转换为一个低维度的隐藏表示,解码器将隐藏表示再转换回原始输入空间;
编码器:编码器,其中/>是输入数据,/>是隐藏表示;
解码器:解码器,其中/>是重构的输入数据。
训练过程:通过最小化重构误差(即输入和重构输出/>之间的差异)来训练自编码器,使用均方误差MSE作为损失函数:
预测和检测:模型训练完成后,使用预测型自编码器模型来评估新的观测数据,对于新的输入数据,自编码器尝试重构,并计算重构误差,如果新数据的重构误差高于训练数据时的平均重构误差,则表明新数据表示异常,是安全事件的迹象。
在本发明中,自编码器模型可以用来实时监控处理器资源的使用情况和行为,任何偏离正常模式的行为都会被模型检测出来,从而提前预测可能的安全事件。这种方法能够有效地识别未知的、复杂的攻击模式,包括零日攻击和先进的持续威胁(APT)。
S5具体包括:
部署监控工具:在云数据处理环境中部署监控工具,实时跟踪和记录处理器使用率、内存消耗、网络带宽利用率、磁盘I/O操作;
定义性能基线和阈值:确定每项服务和应用的性能基线,并设置阈值,阈值用于识别何时资源使用超过正常运行范围,需要调整;
实时性能跟踪:监控工具实时收集和分析性能数据,以便快速识别任何偏离预定性能基线的行为,基于时间序列算法分析导致性能瓶颈或下降的问题;
动态资源调整:引入资源优化算法,并根据监控数据和性能分析结果,动态调整资源分配,例如,如果检测到CPU负载过高,则可以增加CPU资源;如果内存使用接近上限,则可以增加内存资源。
资源调整可以通过自动化脚本或云平台的动态资源管理功能来实现,以确保快速响应。
时间序列算法采用改进的ARIMA模型,改进的ARIMA模型表示为,其中,/>是自回归项的阶数,/>是时间序列差分的阶数,使序列平稳,/>是移动平均项的阶数,具体包括:
收集处理器资源使用的历史时间序列数据,包括CPU使用率、内存使用量;
对于每个处理器资源的时间序列,使用自相关函数ACF和偏自相关函数PACF图来辅助确定ARIMA模型的参数
ARIMA模型表示为:,其中,是滞后算子,/>和/>分别是模型的参数,/>是误差项;
使用历史数据训练模型,通过均方误差的损失函数来确定最佳参数:均方误差,利用训练好的模型对未来处理器资源使用进行预测;
使用自相关函数ACF和偏自相关函数PACF图来辅助确定ARIMA模型的参数具体如下:/>
确定差分阶数,观察原始时间序列的图形和其自相关图ACF,查找非季节性的自相关性是否快速减少,对时间序列进行一阶差分,然后再次检查序列和ACF图,如果序列在一次差分后变得平稳,则/>;如果需要多次差分才能达到平稳,差分次数/>应增加;
确定自回归阶数:时间序列平稳后,使用PACF图来确定/>的值,PACF图显示了时间序列与其自身滞后版本之间的相关性,排除了中间滞后的影响,对于一个ARIMA模型,PACF在滞后/>之后会出现截尾(突然下降到不显著的值),如果PACF在滞后/>个时间单位后截尾,则/>
确定移动平均阶数,使用ACF图来确定/>的值,ACF图展示了时间序列和其滞后值之间的相关性,对于ARIMA模型,ACF在滞后/>后截尾,如果ACF在滞后/>个时间单位后截尾,则可/>
示例:假设差分后的序列显示出明显的平稳性,然后我们查看PACF图,如果PACF图在滞后2处截尾(即在第二个滞后之后的所有自相关系数都接近于零),则选择。接着观察ACF图,如果ACF图在滞后处截尾,那么选择/>。综合以上,得到一个ARIMA/>模型,其中差分阶数/>,自回归阶数/>,移动平均阶数/>
资源优化算法基于线性规划优化算法,具体包括:
优化目标和约束条件:设定线性规划的目标函数为最小化资源配置的总成本:,其中,/>是总成本,/>是资源/>的单位成本,/>是分配给资源/>的数量,/>是资源的种类,约束条件基于ARIMA模型预测的资源需求来设置,确保每种资源的分配量/>能满足未来的使用需求而不超过上限:
其中,是资源/>的效率系数,/>是资源/>的预测需求,是资源/>的最大可用量;
利用线性规划求解器(如Simplex算法或内点法)找到最优的资源分配,根据优化结果调整处理器资源配置,以实现成本最小化同时保证性能需求得到满足。
如图2所示,一种处理器环境验证的云数据处理系统,用于实现上述的一种处理器环境验证的云数据处理方法,包括以下模块:
资源初始化模块:负责在云环境中部署容器实例,并为容器实例配置初始的处理器资源;
资源预测与调整模块:利用队列理论模型来预测未来的处理器资源需求,并基于预测动态调整资源配置,以确保处理能力能满足未来的需求;
完整性与安全验证模块:执行处理器运行环境的完整性检查,包括使用平台模块TPM安全验证,对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
性能监控与优化模块:实时监控处理任务的性能,使用时间序列分析技术预测性能趋势,识别性能瓶颈或下降问题,根据监控和分析结果,动态调整处理器资源分配来优化处理效率和响应时间;
数据处理与存储模块:在验证的安全环境下执行数据处理任务,包括数据分析、计算任务,存储处理结果,并在任务完成后进行环境清理和资源释放。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明的范围被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本发明旨在涵盖落入权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种处理器环境验证的云数据处理方法,其特征在于,包括以下步骤:
S1:初始化云数据处理环境,包括配置处理器资源,其中,配置包括为处理器分配初始计算能力、内存容量和网络带宽,根据处理需求对处理器资源进行基线设置;
S2:基于用户需求动态调整处理器资源配置,实时分析用户数据处理任务的复杂性和需求,预估所需处理器资源,并调整处理器资源配置以满足需求;
S3:实施环境安全检查,验证处理器资源的完整性和安全性,包括对处理器硬件和软件环境执行完整性检验,以及对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
S4:在环境安全检查通过后,启动数据处理任务;
S5:监控数据处理过程,实时调整资源分配以优化性能,使用监控工具跟踪处理任务的性能,识别瓶颈或性能下降的问题,并动态调整处理器资源分配来优化处理效率和响应时间,具体包括:
部署监控工具:在云数据处理环境中部署监控工具,实时跟踪和记录处理器使用率、内存消耗、网络带宽利用率、磁盘I/O操作;
定义性能基线和阈值:确定每项服务和应用的性能基线,并设置阈值,阈值用于识别何时资源使用超过正常运行范围,需要调整;
实时性能跟踪:监控工具实时收集和分析性能数据,以便快速识别任何偏离预定性能基线的行为,基于时间序列算法分析导致性能瓶颈或下降的问题;
动态资源调整:引入资源优化算法,并根据监控数据和性能分析结果,动态调整资源分配;
所述时间序列算法采用改进的ARIMA模型,所述改进的ARIMA模型表示为,其中,/>是自回归项的阶数,/>是时间序列差分的阶数,使序列平稳,/>是移动平均项的阶数,具体包括:
收集处理器资源使用的历史时间序列数据,包括CPU使用率、内存使用量;
对于每个处理器资源的时间序列,使用自相关函数ACF和偏自相关函数PACF图来辅助确定ARIMA模型的参数
ARIMA模型表示为:,其中,/>是滞后算子,/>和/>分别是模型的参数,/>是误差项;
使用历史数据训练模型,通过均方误差的损失函数来确定最佳参数:均方误差,利用训练好的模型对未来处理器资源使用进行预测;
所述使用自相关函数ACF图和偏自相关函数PACF图来辅助确定ARIMA模型的参数具体如下:
确定差分阶数,观察原始时间序列的图形和其自相关函数ACF图,查找非季节性的自相关性是否快速减少,对时间序列进行一阶差分,然后再次检查序列和自相关函数ACF图,如果序列在一次差分后变得平稳,则/>;如果需要多次差分才能达到平稳,差分次数/>应增加;
确定自回归阶数:时间序列平稳后,使用偏自相关函数PACF图来确定/>的值,偏自相关函数PACF图显示了时间序列与其自身滞后版本之间的相关性,排除了中间滞后的影响,对于一个ARIMA模型,偏自相关函数PACF图在滞后/>之后会出现截尾,如果偏自相关函数PACF图在滞后/>个时间单位后截尾,则/>
确定移动平均阶数,使用自相关函数ACF图来确定/>的值,自相关函数ACF图展示了时间序列和其滞后值之间的相关性,对于ARIMA模型,自相关函数ACF图在滞后/>后截尾,如果自相关函数ACF图在滞后/>个时间单位后截尾,则可/>
所述资源优化算法基于线性规划优化算法,具体包括:
优化目标和约束条件:设定线性规划的目标函数为最小化资源配置的总成本:,其中,/>是总成本,/>是资源/>的单位成本,/>是分配给资源/>的数量,/>是资源的种类,约束条件基于ARIMA模型预测的资源需求来设置,确保每种资源的分配量/>能满足未来的使用需求而不超过上限:
其中,是资源/>的效率系数,/>是资源/>的预测需求,是资源/>的最大可用量;
利用线性规划求解器找到最优的资源分配,根据优化结果调整处理器资源配置,以实现成本最小化同时保证性能需求得到满足;
S6:结束数据处理后,存储处理结果,并进行环境清理和资源释放,包括将数据处理结果存储存储单元,清理临时文件和日志,以及释放不再需要的处理器资源。
2.根据权利要求1所述的一种处理器环境验证的云数据处理方法,其特征在于,所述S1具体包括:
S11:在选定的云平台上部署容器实例,作为数据处理任务的执行环境;
S12:为处理器分配初始计算能力,包括确定容器实例的CPU核心数和时钟频率,以满足基线的计算需求;
S13:分配内存容量,确保每个容器实例有足够的内存来支持其运行和数据处理活动,同时留有缓冲区以应对峰值需求;
S14:配置网络带宽,确保容器实例之间以及容器实例与外界的通信流畅,无阻碍,根据基线需求设置带宽上限和下限,以保证数据传输的效率和稳定性;
S15:对容器实例的处理器资源进行基线配置,包括设置容器运行时的CPU和内存分配策略,以及网络配置,以确保系统运行的稳定性和性能。
3.根据权利要求2所述的一种处理器环境验证的云数据处理方法,其特征在于,所述S2包括分析用户的数据处理任务需求,包括任务类型、预期数据量、计算复杂度和预计执行时间,使用预测模型,基于用户需求的分析结果来预估所需的处理器资源,包括计算能力、内存需求和网络带宽,根据预测模型的结果调整处理器资源配置,如果预测结果表明即将面临资源短缺,则提前增加处理器核心数、扩大内存分配或增加网络带宽,以确保能够满足用户需求。
4.根据权利要求3所述的一种处理器环境验证的云数据处理方法,其特征在于,所述预测模型基于队列模型,具体包括:
S21:根据用户的数据处理任务需求,确定任务到达率λ和服务率μ,任务到达率反映新任务的频率,服务率代表处理任务的能力;
S22:选择M/M/c队列模型,基于任务到达率和服务率来模拟处理器资源的使用情况,M/M/c模型适用于有多个处理器核心的情况;
S23:在所选的M/M/c队列模型中进行模拟,以估计平均队列长度、等待时间和利用率;
S24:根据队列模型结果和性能目标,确定所需的处理器核心数、内存大小和网络带宽,如果模拟显示当前资源无法满足性能要求,则需增加资源配置;
S25:调整处理器资源配置,以确保处理器资源能够处理预期的数据处理任务,同时保持所需的性能水平和响应时间。
5.根据权利要求4所述的一种处理器环境验证的云数据处理方法,其特征在于,所述M/M/c队列模型是基于多服务台的队列器,其中,到达过程遵循泊松分布,服务时间遵循指数分布:
确定到达率和服务率/>:根据用户的数据处理任务需求,计算任务的平均到达率/>,以及每个处理器核心的平均服务率/>
计算流量强度和服务器利用率:流量强度表示每个处理器核心平均的负载,服务器利用率也由/>表示,反映每个处理器核心的繁忙程度;
计算M/M/c队列模型的关键指标:平均队列长度和平均等待时间/>通过以下计算:
首先计算队列模型中的总人数的概率分布的基础上,计算队列中人数/>
,其中/>是模型为空,即没有任务的概率,计算为:
平均等待时间使用/>除以到达率/>来计算:/>
根据计算结果调整处理器资源配置:使用计算结果来评估当前处理器资源配置是否能满足性能要求,如果或/>超过预定阈值,表示需要更多的处理器资源来减少队列长度和等待时间,根据分析,确定所需增加的处理器核心数,以确保处理器资源能够处理用户的数据处理任务。
6.根据权利要求1所述的一种处理器环境验证的云数据处理方法,其特征在于,所述S3中的实施环境安全检查具体包括:
S31:部署预测性安全模型,利用历史数据和当前环境行为数据来预测未来安全事件,并制定预防措施;
S32:在处理器硬件层面,引入受信任的平台模块TPM,以增强硬件的安全性,确保物理级的完整性和防篡改能力,选择TPM 2.0平台并将其集成到处理器上,支持加密、密钥生成和存储、完整性度量和安全启动,启动时,通过TPM 2.0平台执行安全启动过程,验证固件、操作系统和启动加载程序的完整性,通过TPM 2.0平台记录和验证处理器组件的完整性指标,任何未授权的更改都会被检测,并可触发安全响应机制。
7.根据权利要求6所述的一种处理器环境验证的云数据处理方法,其特征在于,所述预测性安全模型采用预测型自编码器模型,所述预测型自编码器模型具体包括:
模型训练:收集关于处理器运行环境的正常行为数据,包括处理器使用率、内存访问模式、网络流量,从收集的数据中提取基线运行特征;
模型构建:使用自编码器网络结构学习基线运行特征的高级表示,自编码器由编码器、解码器构成:编码器将输入转换为一个低维度的隐藏表示,解码器将隐藏表示再转换回原始输入空间;
编码器:编码器,其中/>是输入数据,/>是隐藏表示;
解码器:解码器,其中/>是重构的输入数据;
训练过程:通过最小化重构误差来训练自编码器,使用均方误差MSE作为损失函数:
预测和检测:模型训练完成后,使用预测型自编码器模型来评估新的观测数据,对于新的输入数据,自编码器尝试重构,并计算重构误差,如果新数据的重构误差高于训练数据时的平均重构误差,则表明新数据表示异常,是安全事件的迹象。
8.一种处理器环境验证的云数据处理系统,用于实现如权利要求1-7任一项所述的一种处理器环境验证的云数据处理方法,其特征在于,包括以下模块:
资源初始化模块:负责在云环境中部署容器实例,并为容器实例配置初始的处理器资源;
资源预测与调整模块:利用队列理论模型来预测未来的处理器资源需求,并基于预测动态调整资源配置,以确保处理能力能满足未来的需求;
完整性与安全验证模块:执行处理器运行环境的完整性检查,包括使用平台模块TPM安全验证,对运行环境进行安全扫描,以识别和防御潜在的安全威胁;
性能监控与优化模块:实时监控处理任务的性能,使用时间序列分析技术预测性能趋势,识别性能瓶颈或下降问题,根据监控和分析结果,动态调整处理器资源分配来优化处理效率和响应时间;
数据处理与存储模块:在验证的安全环境下执行数据处理任务,包括数据分析、计算任务,存储处理结果,并在任务完成后进行环境清理和资源释放。
CN202410479762.8A 2024-04-22 2024-04-22 一种处理器环境验证的云数据处理方法及系统 Active CN118069377B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410479762.8A CN118069377B (zh) 2024-04-22 2024-04-22 一种处理器环境验证的云数据处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410479762.8A CN118069377B (zh) 2024-04-22 2024-04-22 一种处理器环境验证的云数据处理方法及系统

Publications (2)

Publication Number Publication Date
CN118069377A CN118069377A (zh) 2024-05-24
CN118069377B true CN118069377B (zh) 2024-06-21

Family

ID=91111582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410479762.8A Active CN118069377B (zh) 2024-04-22 2024-04-22 一种处理器环境验证的云数据处理方法及系统

Country Status (1)

Country Link
CN (1) CN118069377B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104065663A (zh) * 2014-07-01 2014-09-24 复旦大学 一种基于混合云调度模型的自动伸缩、费用优化的内容分发服务方法
CN113781002A (zh) * 2021-09-18 2021-12-10 北京航空航天大学 云边协同网络中基于代理模型和多种群优化的低成本工作流应用迁移方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230267007A1 (en) * 2020-08-27 2023-08-24 Smart Software, Inc. System and method to simulate demand and optimize control parameters for a technology platform
CN115397026A (zh) * 2022-08-25 2022-11-25 中国科学院计算技术研究所 一种接入网系统的资源调度方法
CN117768469B (zh) * 2024-02-22 2024-06-07 广州宇中网络科技有限公司 一种基于大数据的云服务管理方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104065663A (zh) * 2014-07-01 2014-09-24 复旦大学 一种基于混合云调度模型的自动伸缩、费用优化的内容分发服务方法
CN113781002A (zh) * 2021-09-18 2021-12-10 北京航空航天大学 云边协同网络中基于代理模型和多种群优化的低成本工作流应用迁移方法

Also Published As

Publication number Publication date
CN118069377A (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
US10620839B2 (en) Storage pool capacity management
US10452983B2 (en) Determining an anomalous state of a system at a future point in time
US10623416B2 (en) Torrent attack detection
US8543711B2 (en) System and method for evaluating a pattern of resource demands of a workload
Di et al. Google hostload prediction based on Bayesian model with optimized feature combination
US11176257B2 (en) Reducing risk of smart contracts in a blockchain
US9612751B2 (en) Provisioning advisor
US11797416B2 (en) Detecting performance degradation in remotely deployed applications
EP3126995A1 (en) Cloud computing benchmarking
US10521301B1 (en) Managing distributed system performance using accelerated data retrieval operations
WO2017123271A1 (en) Performance-based migration among data storage devices
Torres et al. A hierarchical approach for availability and performance analysis of private cloud storage services
CA2713889C (en) System and method for estimating combined workloads of systems with uncorrelated and non-deterministic workload patterns
CN117707771A (zh) 基于多线程技术的分布式对象读写性能提升方法
US20240249160A1 (en) Prediction apparatus, prediction method and prediction program
US10409662B1 (en) Automated anomaly detection
CN118069377B (zh) 一种处理器环境验证的云数据处理方法及系统
US9021499B2 (en) Moving a logical device between processor modules in response to identifying a varying load pattern
Su et al. Predicting response latency percentiles for cloud object storage systems
US20200265168A1 (en) Device identification via chip manufacturing related fingerprints
US20220229697A1 (en) Management computer, management system, and recording medium
Ambati et al. Modeling and analyzing waiting policies for cloud-enabled schedulers
Soikkeli et al. Redundancy planning for cost efficient resilience to cyber attacks
Wu et al. A quality model for evaluating encryption-as-a-service
US20220377109A1 (en) Crypto-jacking detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant