CN112948063A - 云平台的创建方法、装置、云平台以及云平台实现系统 - Google Patents

云平台的创建方法、装置、云平台以及云平台实现系统 Download PDF

Info

Publication number
CN112948063A
CN112948063A CN202110531474.9A CN202110531474A CN112948063A CN 112948063 A CN112948063 A CN 112948063A CN 202110531474 A CN202110531474 A CN 202110531474A CN 112948063 A CN112948063 A CN 112948063A
Authority
CN
China
Prior art keywords
cluster
server
computing
management
management cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110531474.9A
Other languages
English (en)
Other versions
CN112948063B (zh
Inventor
白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Information Technology Co Ltd
Original Assignee
Beijing Huijun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Huijun Technology Co ltd filed Critical Beijing Huijun Technology Co ltd
Priority to CN202110531474.9A priority Critical patent/CN112948063B/zh
Publication of CN112948063A publication Critical patent/CN112948063A/zh
Application granted granted Critical
Publication of CN112948063B publication Critical patent/CN112948063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45587Isolation or security of virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5011Pool

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Abstract

本公开涉及一种云平台的创建方法、装置、云平台以及云平台实现系统,涉及计算机技术领域。本公开的方法包括:利用多个第一服务器,构建云平台中的管理集群;利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。

Description

云平台的创建方法、装置、云平台以及云平台实现系统
技术领域
本公开涉及计算机技术领域,特别涉及一种云平台的创建方法、装置、云平台以及云平台实现系统。
背景技术
“信创”是信息技术应用创新的简称,信创技术是基于我国自主研发的国产化产品和技术,通过核心芯片和系统的自主可控,并借助国产化产品搭建的产品和方案生态,实现国家重要信息系统的安全保障。当前信创技术正处于快速发展阶段,采用云平台对具有国产芯片的信创服务器进行统一管理是一个技术方向。
发明内容
本公开所要解决的一个技术问题是:提出一种新的云平台的创建方法。
根据本公开的一些实施例,提供的一种云平台的创建方法,包括:利用多个第一服务器,构建云平台中的管理集群;利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络; 在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,第一服务器中CPU的性能大于或等于第二服务器中CPU的性能。
在一些实施例中,构建云平台中的管理集群包括:在管理集群中的各个第一服务器上配置第一服务器中CPU对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。
在一些实施例中,构建云平台中一个或多个计算集群包括:针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
在一些实施例中,该方法还包括:通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中CPU的类型;根据各个备选服务器中CPU的类型和不同类型的CPU的性能,从各个备选服务器选取第一服务器和第二服务器。
在一些实施例中,该方法还包括:在不进行数据隔离的计算集群之间部署数据网络。
在一些实施例中,该方法还包括:针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。
在一些实施例中,该方法还包括:利用多个第三服务器,构建云平台中的备用管理集群;在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络; 在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,构建云平台中的备用管理集群包括:在备用管理集群中的各个第三服务器上配置第三服务器中CPU对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件;其中,备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。
在一些实施例中,该方法还包括:识别待添加服务器的CPU的类型;将待添加服务器添加至具有相同类型的CPU的计算集群中;在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的第二服务器之间配置数据网络;将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中;在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。
在一些实施例中,将待添加服务器添加至具有相同类型的CPU的计算集群中包括:在待添加服务器上配置CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
在一些实施例中,该方法还包括:在管理集群中共享数据在本集群中存储的情况下,管理集群将运行数据实时传输到备用管理集群,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作。
在一些实施例中,该方法还包括:在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群将运行数据作为共享数据实时传输到预设存储地址,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。
在一些实施例中,该方法还包括:管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定运行情况异常的第二服务器作为异常服务器;管理集群在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。
在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机;该创建方法还包括:管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。
根据本公开的另一些实施例,提供的一种云平台的创建装置,包括:管理集群构建模块,用于利用多个第一服务器,构建云平台中的管理集群;计算集群构建模块,用于利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;网络配置模块,用于在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;注册模块,用于在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
根据本公开的又一些实施例,提供的一种云平台的创建装置,包括:处理器;以及耦接至处理器的存储器,用于存储指令,指令被处理器执行时,使处理器执行如前述任意实施例的云平台的创建方法。
根据本公开的再一些实施例,提供的一种云平台,包括:包括多个第一服务器的管理集群以及包括多个第二服务器的一个或多个计算集群;其中,每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;管理集群和每个计算集群之间通过管理网络连接,管理集群内的第一服务器之间和每个计算集群内的第二服务器之间通过数据网络连接。管理集群用于登记计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,第一服务器中CPU的性能大于或等于第二服务器中CPU的性能。
在一些实施例中,不进行数据隔离的计算集群之间通过数据网络连接。
在一些实施例中,针对进行数据隔离的各个计算集群,不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。
在一些实施例中,云平台还包括:包括多个第三服务器的备用管理集群;其中,备用管理集群和管理集群之间通过数据网络连接,备用管理集群内的第三服务器之间通过数据网络连接,备用管理集群与每个计算集群之间通过管理网络连接; 备用管理集群用于登记计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,在管理集群中共享数据在本集群中存储的情况下,管理集群用于将运行数据实时传输到备用管理集群;备用管理集群用于实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作;或者,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群用于将运行数据作为共享数据实时传输到预设存储地址,备用管理集群用于实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。
在一些实施例中,管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定运行情况异常的第二服务器作为异常服务器;在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。
在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机; 管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。
根据本公开的又一些实施例,提供的一种云平台实现系统,包括:前述任意实施例的云平台和前述任意实施例的云平台的创建装置。
根据本公开的再一些实施例,提供的一种非瞬时性计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意实施例的云平台的创建方法。
本公开利用多个第一服务器构建云平台中的管理集群,利用多个第二服务器,构建云平台中一个或多个计算集群,并且针对每个计算集群建立独立的计算虚拟化资源池,属于同一个计算虚拟化资源池的第二服务器的CPU的类型相同,属于不同的计算虚拟化资源池的第二服务器的CPU的类型不同。通过管理网络的部署使管理集群与每个计算集群之间能够互相通信,通过数据网络的部署实现计算虚拟化资源池内各个第二服务器之间的数据交互。将第二服务器在管理集群注册,并使管理集群标记每个第二服务器所属的计算虚拟化资源池,从而使管理集群可以对同一计算虚拟化资源池的第二服务器的虚拟机在资源池内进行调度和管理。
本公开的方案可以应用于信创技术场景,第一服务器和第二服务器均采用国产CPU,采用管理集群和计算集群分离设计的架构,利用管理集群对计算集群进行统一管理。由于国产CPU可能包括多种类型,对应不同的指令集,在CPU包括多种类型的情况下,通过划分不同计算集群以及建立不同的计算虚拟化资源池,实现对不同CPU的服务上的虚拟机的调度和管理,可以解决不同的CPU类型的服务器上运行的虚拟机的管理问题。此外,本公开的方案相对于部署多套管理集群分别对计算集群进行管理的方案,节省资源。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开的一些实施例的云平台的创建方法的流程示意图。
图2A示出本公开的一些实施例的高可用分布设计的示意图。
图2B示出本公开的另一些实施例的高可用分布设计的示意图。
图3示出本公开的另一些实施例的云平台的创建方法的流程示意图。
图4示出本公开的又一些实施例的云平台的创建方法的流程示意图。
图5示出本公开的一些实施例的云平台的创建装置的结构示意图。
图6示出本公开的另一些实施例的云平台的创建装置的结构示意图。
图7示出本公开的又一些实施例的云平台的创建装置的结构示意图。
图8示出本公开的一些实施例的云平台的结构示意图。
图9示出本公开的一些实施例的云平台实现系统的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开提出一种云平台的创建方法,下面结合图1~4进行描述。
图1为本公开云平台的创建方法一些实施例的流程图。如图1所示,该实施例的方法包括:步骤S102~S108。
在步骤S102中,利用多个第一服务器,构建云平台中的管理集群。
在一些实施例中,在管理集群中的各个第一服务器上配置第一服务器中CPU对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。
管理集群中可以进一步划分实现不同功能的服务节点(第一服务器),例如控制服务节点、存储服务节点、网络服务节点、PaaS(平台即服务)服务节点中至少一种。分别在不同的服务节点上可以部署云平台控制、存储、网络、容灾、PaaS功能等平台软件系统。在实现不同功能的第一服务器上还可以配置相应的服务组件,服务组件例如包括:数据库服务、数据缓存服务、消息队列服务、容器管理服务等至少一项,不限于所举示例。
在步骤S104中,利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池。
在一些实施例中,针对多个计算集群的情况,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同。例如,一个计算集群内的第二服务器的CPU为CPU A,另一个计算集群内的第二服务器的CPU为CPU B。针对不同CPU类型的第二服务器分别建立独立的计算虚拟化资源池,可以控制同一CPU类型的第二服务器上的虚拟机在各自的资源池内进行调度和迁移,基于系统管理策略和用户的需求,对独立计算虚拟化资源池内的虚拟机进行高可用管理和调度,实现不同CPU的第二服务器虚拟化计算资源的统一管理,解决不同CPU上虚拟机指令集不同带来的问题,同时还能减少管理资源开销。
在一些实施例中,针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件。云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
由于符合国家信创要求的CPU包含多个不同的类型,为了节省成本云平台中也可能采用多种类型的CPU的服务器。可以采用管理集群和计算集群CPU类型分离的设计,即管理集群中第一服务器的CPU的类型与计算集群中第二服务器的CPU的类型不同。当然,第一服务器的CPU的类型可以与一个或多个计算集群中第二服务器的CPU的类型相同。
例如,某些国产CPU芯片,如龙芯等,CPU的核数、内存容量、运算频率等参数指标相对比较低,若用该CPU同时作为管理集群和计算集群中CPU,为了构建一个功能完备和安全可靠的云平台,则会导致成本大幅上升。为此,设计管理集群和计算集群CPU类型分离的方案,在管理集群可以上采用高性能(如CPU核数大、内存容量大)的国产CPU A,在计算集群中采用符合用户安全性和政策要求的国产CPU B,可以通过网络通讯管理协议来屏蔽不同集群的CPU架构差异,实现不同CPU架构服务器集群的有效管理。
针对采用多种类型的CPU的服务器构建云平台的场景,会产生管理集群和计算集群的计算能力要求并不均衡,在管理集群上由于需要对整个云平台进行管理往往需要更高的计算能力,而管理集群的计算能力随用户需求的情况而可以略低,从而取得安全性和性能的均衡。因此,在一些实施例中,第一服务器中CPU的性能大于或等于第二服务器中CPU的性能。这样可以解决管理集群和计算集群计算能力需求不均衡的技术问题,降低整体系统的资源成本。
例如,在管理集群上采用具有更高CPU性能的第一服务器,假定CPU 类型为X。将多种CPU型号的第二服务器按照CPU的类型 A、B、C…划分为不同的计算集群,并在每个计算集群区域上建立计算虚拟化资源池。
在一些实施例中,通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中CPU的类型;根据各个备选服务器中CPU的类型和不同类型的CPU的性能,从各个备选服务器选取第一服务器和第二服务器。进一步,根据第二服务器中CPU的类型,将第二服务器或分为不同的计算集群,并在每个计算集群区域上建立计算虚拟化资源池。
在步骤S106中,在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络。
在管理集群和各个计算集群之间用管理网络进行连接,用于管理集群和各个虚拟化资源池之间进行高速安全通讯。在独立的计算虚拟化资源池内,建立内部数据网络,用于各个虚拟机之间的高速数据通讯。在第一服务器和第二服务器上安装网络程序并进行管理网络配置,使第二服务器能与第一服务器通过管理网络进行统信。在第二服务器上进行数据网络配置,使计算虚拟化资源池内的各个第二服务器之间能通过数据网络进行通信。
各个计算虚拟化资源池之间,根据用户的数据和网络安全要求选择是否进行数据网络连接。当用户需要各个计算虚拟化资源池进行数据隔离时,则不连通各个计算虚拟化资源池的网络。若不要求数据隔离,并且需要进行数据高速通信时,则将各个计算虚拟化资源池的网络进行连通。即在不进行数据隔离的计算集群之间部署数据网络。
在步骤S108中,在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在管理集群注册后,管理集群可以通过第二服务器的网络地址与其进行通信,并且根据第二服务器所属的计算虚拟化资源池进行后续的调度。
上述实施例中利用多个第一服务器构建云平台中的管理集群,利用多个第二服务器,构建云平台中一个或多个计算集群,并且针对每个计算集群建立独立的计算虚拟化资源池,属于同一个计算虚拟化资源池的第二服务器的CPU的类型相同,属于不同的计算虚拟化资源池的第二服务器的CPU的类型不同。通过管理网络的部署使管理集群与每个计算集群之间能够互相通信,通过数据网络的部署实现计算虚拟化资源池内各个第二服务器之间的数据交互。将第二服务器在管理集群注册,并使管理集群标记每个第二服务器所属的计算虚拟化资源池,从而使管理集群可以对同一计算虚拟化资源池的第二服务器的虚拟机在资源池内进行调度和管理。
上述实施例的方案可以应用于信创技术场景,第一服务器和第二服务器均采用国产CPU,采用管理集群和计算集群分离设计的架构,利用管理集群对计算集群进行统一管理。由于国产CPU可能包括多种类型,对应不同的指令集,在CPU包括多种类型的情况下,通过划分不同计算集群以及建立不同的计算虚拟化资源池,实现对不同CPU的服务上的虚拟机的调度和管理,可以解决不同的CPU类型的服务器上运行的虚拟机的管理问题。此外,上述实施例的方案相对于部署多套管理集群分别对计算集群进行管理的方案,节省资源。
本公开还提供一种高可用分布设计,下面结合图2A和2B进行描述。
在一些实施例中,针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内。管理集群对应的服务器机架可以设置在任意故障域内。当各个计算虚拟化资源池之间需要进行网络隔离时,则每个服务器机架上安装相同类型CPU的第二服务器。将具有相同类型的CPU的服务器机架分别分布在各个故障域中。如图2A所示,故障域X的服务器机架上安装具有CPU A的第二服务器,故障域Y的服务器机架上安装具有CPU B的第二服务器,故障域Z的服务器机架上安装具有CPU C的第二服务器。这样设计,当一个故障域内断电或出现其他异常情况,不会影响其他计算集群的工作。
在另一些实施例中,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。管理集群对应的服务器机架可以设置在任意故障域内。当各个计算虚拟化资源池之间不需要进行网络隔离时,则每个故障域的服务器机架上交替安装不同类型的CPU的第二服务器。如图2B所示,故障域X的服务器机架上安装具有CPU A、B、C的第二服务器,还可以安装具有CPU S的第一服务器,故障域Y的服务器机架上安装具有CPU A、B、C的第二服务器和具有CPU S的第一服务器,故障域Z的服务器机架上安装具有CPU A、B、C的第二服务器和具有CPU S的第一服务器。这样设计,当一个故障域内断电或出现其他异常情况,各个计算集群和管理集群中仍有能够工作的服务器。
为了防止管理集群发生大规模故障导致云平台不可用,本公开还设计管理集群的异构多活的方案,下面结合图3进行描述。
图3为本公开云平台的创建方法另一些实施例的流程图。如图3所示,该实施例的方法包括:步骤S302~S306。
在步骤S302中,利用多个第三服务器,构建云平台中的备用管理集群。
第三服务器中CPU的类型和第一服务器中CPU的类型相同或不同。在一些实施例中,在备用管理集群中的各个第三服务器上配置第三服务器中CPU对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件。备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。
利用第一服务器构建的管理集群作为主管理集群。依照主管理集群的功能和规模,形成具有相当功能和规模的备用管理集群。例如,主管理集群具有控制、存储、网络、容灾、PaaS功能等功能,则备用管理集群也具有这些功能,并且备用管理集群中实现这些功能的资源量也与主管理集群中实现这些功能的资源量大致相同。例如,备用管理集群的服务器CPU的类型与主管理集群的CPU的类型可以不一致,但CPU的核数总量、内存总量需保持基本相当。
在步骤S304中,在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络。
对备用管理集群的网络进行配置,确保备用管理集群能够与管理集群和各个计算虚拟化资源池进行互通。
在步骤S306中,在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,在步骤S304之后还可以包括:在管理集群中共享数据在本集群中存储的情况下,将管理集群上的共享数据同步到备用管理集群;或者,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,在备用管理集群中配置预设存储地址。该步骤可以在步骤S306之前或之后或者并列执行,不分先后顺序。将管理集群中的共享数据同步到备用管理集群,或者,在备用管理集群中配置预设存储地址置,可以在管理集群故障的情况下,使备用管理集群快速获取相关数据。
在一些实施例中,在备用管理集群的配置全部完成之后,可以启动备用管理集群,对备用管理集群的全部功能进行测试验证。测试切换备用管理集群为主管理集群,测试云平台的功能正确性、性能和稳定性。再将将原主管理集群重新切换为主管理集群。
管理集群的异构多活的方案可以在管理集群故障时,启用备用管理集群以确保云平台的运行正常。
在一些实施例中,在管理集群中共享数据在本集群中存储的情况下,管理集群将运行数据实时传输到备用管理集群,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,接管管理集群的工作。
例如,在管理集群X和备用管理集群Y之间建立高速数据连接,并设置管理集群X为主管理集群,管理集群X在运行时产生的数据可以实时传输到备用管理集群Y并进行存储。备用管理集群Y可以实时检测管理集群X的运行情况,当检测到管理集群X停止工作时,备用管理集群Y接管管理集群X的工作,并对各个计算虚拟化资源池进行统一管理。管理集群X和备用管理集群Y可以共享数据存储,当共享数据存储时,管理集群X和备用管理集群Y可以采用无状态组件设计,从而确保发生故障时管理集群的快速切换。
在另一些实施例中,在管理集群中共享数据在本集群之外的预设存储地址存储情况下,管理集群将运行数据作为共享数据实时传输到预设存储地址,备用管理集群实时监测管理集群的运行情况,在管理集群停止工作的情况下,从预设存储地址获取共享数据,接管管理集群的工作。
上述实施例中,管理集群运行数据实时传输的功能,备用管理集群监测管理集群,接管管理集群的工作的功能可以在构建管理集群和备用管理集群后分别进行配置。
本公开还提出一种针对服务器故障情况,提高云平台运行的稳定性的方案。在一些实施例中,管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定运行情况异常的第二服务器作为异常服务器;管理集群在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将异常服务器上的虚拟机迁移到定位的第二服务器上。
当管理集群检测到计算虚拟化资源池内的第二服务器即将发生硬件故障(运行异常)时,负责根据该第二服务器标记在同一计算虚拟化资源池内定位新的服务器,并将该第二服务器上的虚拟机迁移到新的服务器上。
在另一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机,主用虚拟机和备用虚拟机可以分别设置在同一计算虚拟化资源池中不同的第二服务器上。管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;管理集群确定主虚拟机所在的第二服务器故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。
当管理集群未能及时迁移虚拟机而发生服务器故障时,基于虚拟机的主备设计,切换备用虚拟机为主虚拟机,并在同一计算虚拟资源池内查找新的第二服务器并创建新的备用虚拟机。
管理集群监测第二服务器以及进行备用虚拟机切换和迁移的功能可以在管理集群创建后进行相应的配置,以使管理集群实现上述功能。
本公开的云平台还可以实现横向的弹性扩展,下面结合图4进行描述。
图4为本公开云平台的创建方法又一些实施例的流程图。如图4所示,该实施例的方法包括:步骤S402~S410。
在步骤S402中,识别待添加服务器的CPU的类型。
可以通过读取待添加服务器的系统硬件参数,自动识别待添加服务器中CPU的类型。
在步骤S404中,将待添加服务器添加至具有相同类型的CPU的计算集群中。
在步骤S406中,在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的服务器之间配置数据网络。
在步骤S408中,将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中。
在一些实施例中,在待添加服务器上配置CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
在步骤S410中,在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。
如果配置了备用管理集群,在备用管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。
基于云平台的横向可扩展的高可用架构设计,可以在原有计算虚拟化资源池集群上增加同类型CPU的服务器。在待添加服务器安装虚拟化管理软件,云平台管理驻留软件,并配置服务器的网络连接。逐一在管理集群上注册待添加服务器,将待添加服务器进行标记,并将待添加服务器加入原有的计算虚拟化资源池中。
本公开中创建的云平台包括管理集群和一个或多个计算集群,计算集群上构建计算虚拟化资源池分别对应不同的CPU服务器。这种多芯独立管理的计算虚拟化资源池的设计方案,结合高效调度管理机制,可以实现一个集中化云平台,统一管理多芯异构的服务器集群,解决管理节点和计算节点计算能力需求不均衡的技术问题,降低整体系统的资源成本。本公开还提出管理集群的异构多活设计,保障在主管理集群因故障、设备报废、CPU断供等原因造成的管理集群不可用时,云平台通过备用管理集群依旧可以正常提供平台服务。本公开还设计两种组织服务器集群的方案包括:同芯单机架方案(不同计算集群对应的服务器机架设置在不同故障域内)和同芯多机架方案(每个故障域内的服务器机架上安装属于不同计算集群的第二服务器)。
本公开还提供一种云平台的创建装置,下面结合图5进行描述。
图5为本公开云平台的创建装置的一些实施例的结构图。如图5所示,该实施例的装置50包括:管理集群构建模块510,计算集群构建模块520,网络配置模块530,注册模块540。
管理集群构建模块510用于利用多个第一服务器,构建云平台中的管理集群。
在一些实施例中,管理集群构建模块510用于在管理集群中的各个第一服务器上配置第一服务器中CPU对应的操作系统,并在实现不同功能的第一服务器上配置与功能对应的软件。
计算集群构建模块520用于利用多个第二服务器,构建云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同。
在一些实施例中,第一服务器中CPU的性能大于或等于第二服务器中CPU的性能。
在一些实施例中,计算集群构建模块520用于针对每个计算集群,在该计算集群内的各个第二服务器上配置第二服务器中CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
网络配置模块530用于在管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络。
在一些实施例中,网络配置模块530用于在不进行数据隔离的计算集群之间部署数据网络。
注册模块540用于在管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,该装置50还包括:识别模块550,用于通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中CPU的类型;根据各个备选服务器中CPU的类型和不同类型的CPU的性能,从各个备选服务器选取第一服务器和第二服务器。
在一些实施例中,该装置50还包括:故障域管理模块560,用于针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。
在一些实施例中,该装置50还包括:备用管理集群构建模块570,用于利用多个第三服务器,构建云平台中的备用管理集群;网络配置模块530还用于在管理集群和备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在备用管理集群与每个计算集群之间部署管理网络;注册模块540还用于在备用管理集群中注册计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
在一些实施例中,备用管理集群构建模块570用于在备用管理集群中的各个第三服务器上配置第三服务器中CPU对应的操作系统,并在实现不同功能的服务器上配置与功能对应的软件;其中,备用管理集群配置的软件与管理集群相同,备用管理集群提供的实现每种功能的资源量与管理集群提供的实现相应功能的资源量的差距小于预设值。
在一些实施例中,识别模块550还用于识别待添加服务器的CPU的类型;计算集群构建模块520还用于将待添加服务器添加至具有相同类型的CPU的计算集群中,将待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中;网络配置模块530还用于在待添加服务器与管理集群之间配置管理网络,并在待添加服务器与所属的计算集群内的第二服务器之间配置数据网络;注册模块540还用于在管理集群中注册待添加服务器的网络地址,并标记待添加服务器所属的计算虚拟化资源池。
在一些实施例中,计算集群构建模块520用于在待添加服务器上配置CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,云平台驻留程序软件用于与管理集群进行通信,根据管理集群的指令执行相应的操作,虚拟化管理软件用于进行虚拟化。
本公开的实施例中的云平台的创建装置可各由各种计算设备或计算机系统来实现,下面结合图6以及图7进行描述。本公开的第一服务、第二服务器和第三服务器均可以由各种计算设备或计算机系统来实现,可以参考图6和图7的描述,不再赘述。
图6为本公开云平台的创建装置的一些实施例的结构图。如图6所示,该实施例的装置60包括:存储器610以及耦接至该存储器610的处理器620,处理器620被配置为基于存储在存储器610中的指令,执行本公开中任意一些实施例中的云平台的创建方法。
其中,存储器610例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)、数据库以及其他程序等。
图7为本公开云平台的创建装置的另一些实施例的结构图。如图7所示,该实施例的装置70包括:存储器710以及处理器720,分别与存储器610以及处理器620类似。还可以包括输入输出接口730、网络接口740、存储接口750等。这些接口730,740,750以及存储器710和处理器720之间例如可以通过总线760连接。其中,输入输出接口730为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口740为各种联网设备提供连接接口,例如可以连接到数据库服务器或者云端存储服务器等。存储接口750为SD卡、U盘等外置存储设备提供连接接口。
本公开还提供一种云平台,可以采用前述实施例的云平台的创建方法和创建装置进行创建。下面结合图8进行描述。
图8为本公开云平台的一些实施例的结构图。如图8所示,该实施例的云平台80包括:包括多个第一服务器811的管理集群810以及包括多个第二服务器822的一个或多个计算集群820。
每个计算集群820区域上建立独立的计算虚拟化资源池,其中,每个计算集群820内第二服务器822的CPU的类型相同,不同计算集群820的第二服务器821的CPU的类型不同。
管理集群810和每个计算集群820之间通过管理网络连接,管理集群810内的第一服务器811之间和每个计算集群820内的第二服务器821之间通过数据网络连接。管理集群810用于登记计算集群820中每个第二服务器821的网络地址,并标记每个第二服务器821所属的计算虚拟化资源池。
在一些实施例中,第一服务器811中CPU的性能大于或等于第二服务器821中CPU的性能。
在一些实施例中,不进行数据隔离的计算集群820之间通过数据网络连接。
在一些实施例中,针对进行数据隔离的各个计算集群820,不同计算集群820对应的服务器机架设置在不同故障域内;或者,针对不进行数据隔离的各个计算集群820,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器821。
在一些实施例中,云平台80还包括:包括多个第三服务器831的备用管理集群830;其中,备用管理集群830和管理集群810之间通过数据网络连接,备用管理集群830内的第三服务器831之间通过数据网络连接,备用管理集群830与每个计算集群820之间通过管理网络连接; 备用管理集群830用于登记计算集群820中每个第二服务器821的网络地址,并标记每个第二服务器821所属的计算虚拟化资源池。
在一些实施例中,在管理集群810中共享数据在本集群中存储的情况下,管理集群810用于将运行数据实时传输到备用管理集群830;备用管理集群830用于实时监测管理集群810的运行情况,在管理集群810停止工作的情况下,接管管理集群810的工作;或者,在管理集群810中共享数据在本集群之外的预设存储地址存储情况下,管理集群810用于将运行数据作为共享数据实时传输到预设存储地址,备用管理集群830用于实时监测管理集群810的运行情况,在管理集群810停止工作的情况下,从预设存储地址获取共享数据,接管管理集群810的工作。
在一些实施例中,管理集群810用于监测每个计算虚拟资源池内的第二服务器821的运行情况;确定运行情况异常的第二服务器821作为异常服务器;在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器821,并将异常服务器上的虚拟机迁移到定位的第二服务器821上。
在一些实施例中,计算虚拟化资源池中包括:主虚拟机和备用虚拟机; 管理集群810用于监测每个计算虚拟资源池内的第二服务器821的运行情况;确定主虚拟机所在的第二服务器821故障的情况下,将主虚拟机切换为备用虚拟机,在标记的主虚拟机所属的计算虚拟化资源池内定位另一第二服务器821,并在定位的第二服务器821上创建新的备用虚拟机。
本公开还提供一种云平台实现系统,下面结合图9进行描述。
图9为本公开云平台实现系统的一些实施例的结构图。如图9所示,该实施例的系统9包括:前述任意实施例的云平台80,以及云平台的创建装置50/60/70。
本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (27)

1.一种云平台的创建方法,包括:
利用多个第一服务器,构建云平台中的管理集群;
利用多个第二服务器,构建所述云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;
在所述管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;
在所述管理集群中注册所述计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
2.根据权利要求1所述的创建方法,其中,
所述第一服务器中CPU的性能大于或等于所述第二服务器中CPU的性能。
3.根据权利要求1所述的创建方法,其中,所述构建云平台中的管理集群包括:
在所述管理集群中的各个第一服务器上配置所述第一服务器中CPU对应的操作系统,并在实现不同功能的第一服务器上配置与所述功能对应的软件。
4.根据权利要求1所述的创建方法,其中,所述构建所述云平台中一个或多个计算集群包括:
针对每个计算集群,在该计算集群内的各个第二服务器上配置所述第二服务器中CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,所述云平台驻留程序软件用于与所述管理集群进行通信,根据所述管理集群的指令执行相应的操作,所述虚拟化管理软件用于进行虚拟化。
5.根据权利要求2所述的创建方法,还包括:
通过读取各个备选服务器的系统硬件参数,自动识别各个备选服务器中CPU的类型;
根据各个备选服务器中CPU的类型和不同类型的CPU的性能,从各个备选服务器选取所述第一服务器和所述第二服务器。
6.根据权利要求1所述的创建方法,还包括:
在不进行数据隔离的计算集群之间部署数据网络。
7.根据权利要求1所述的创建方法,还包括:
针对进行数据隔离的各个计算集群,将不同计算集群对应的服务器机架设置在不同故障域内;
或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。
8.根据权利要求1所述的创建方法,还包括:
利用多个第三服务器,构建所述云平台中的备用管理集群;
在所述管理集群和所述备用管理集群之间部署数据网络,在备用管理集群内的第三服务器之间部署数据网络,并在所述备用管理集群与每个计算集群之间部署管理网络;
在所述备用管理集群中注册所述计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
9.根据权利要求8所述的创建方法,其中,所述构建所述云平台中的备用管理集群包括:
在所述备用管理集群中的各个第三服务器上配置所述第三服务器中CPU对应的操作系统,并在实现不同功能的服务器上配置与所述功能对应的软件;
其中,所述备用管理集群配置的软件与所述管理集群相同,所述备用管理集群提供的实现每种功能的资源量与所述管理集群提供的实现相应功能的资源量的差距小于预设值。
10.根据权利要求1所述的创建方法,还包括:
识别待添加服务器的CPU的类型;
将所述待添加服务器添加至具有相同类型的CPU的计算集群中;
在所述待添加服务器与所述管理集群之间配置管理网络,并在所述待添加服务器与所属的计算集群内的第二服务器之间配置数据网络;
将所述待添加服务器上的虚拟机加入所属的计算集群对应的计算虚拟化资源池中;
在所述管理集群中注册所述待添加服务器的网络地址,并标记所述待添加服务器所属的计算虚拟化资源池。
11.根据权利要求10所述的创建方法,其中,所述将所述待添加服务器添加至具有相同类型的CPU的计算集群中包括:
在所述待添加服务器上配置CPU对应的操作系统,虚拟化管理软件以及云平台驻留程序软件,其中,所述云平台驻留程序软件用于与所述管理集群进行通信,根据所述管理集群的指令执行相应的操作,所述虚拟化管理软件用于进行虚拟化。
12.根据权利要求8所述的创建方法,还包括:
在所述管理集群中共享数据在本集群中存储的情况下,所述管理集群将运行数据实时传输到所述备用管理集群,所述备用管理集群实时监测所述管理集群的运行情况,在所述管理集群停止工作的情况下,接管所述管理集群的工作。
13.根据权利要求8所述的创建方法,还包括:
在所述管理集群中共享数据在本集群之外的预设存储地址存储情况下,所述管理集群将运行数据作为共享数据实时传输到所述预设存储地址,所述备用管理集群实时监测所述管理集群的运行情况,在所述管理集群停止工作的情况下,从所述预设存储地址获取所述共享数据,接管所述管理集群的工作。
14.根据权利要求1所述的创建方法,还包括:
所述管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;
所述管理集群确定运行情况异常的第二服务器作为异常服务器;
所述管理集群在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将所述异常服务器上的虚拟机迁移到定位的第二服务器上。
15.根据权利要求1所述的创建方法,其中,所述计算虚拟化资源池中包括:主虚拟机和备用虚拟机;
所述创建方法还包括:
所述管理集群监测每个计算虚拟资源池内的第二服务器的运行情况;
所述管理集群确定主虚拟机所在的第二服务器故障的情况下,将所述主虚拟机切换为备用虚拟机,在标记的所述主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。
16.一种云平台的创建装置,包括:
管理集群构建模块,用于利用多个第一服务器,构建云平台中的管理集群;
计算集群构建模块,用于利用多个第二服务器,构建所述云平台中一个或多个计算集群,并在每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;
网络配置模块,用于在所述管理集群与每个计算集群之间部署管理网络,并在管理集群内的第一服务器之间和每个计算集群内的第二服务器之间部署数据网络;
注册模块,用于在所述管理集群中注册所述计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
17.一种云平台的创建装置,包括:
处理器;以及
耦接至所述处理器的存储器,用于存储指令,所述指令被所述处理器执行时,使所述处理器执行如权利要求1-11任一项所述的云平台的创建方法。
18.一种云平台,包括:包括多个第一服务器的管理集群以及包括多个第二服务器的一个或多个计算集群;其中,
每个计算集群区域上建立独立的计算虚拟化资源池,其中,每个计算集群内第二服务器的CPU的类型相同,不同计算集群的第二服务器的CPU的类型不同;
所述管理集群和每个计算集群之间通过管理网络连接,所述管理集群内的第一服务器之间和每个计算集群内的第二服务器之间通过数据网络连接;
所述管理集群用于登记所述计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
19.根据权利要求18所述的云平台,其中,
所述第一服务器中CPU的性能大于或等于所述第二服务器中CPU的性能。
20.根据权利要求18所述的云平台,其中,不进行数据隔离的计算集群之间通过数据网络连接。
21.根据权利要求18所述的云平台,其中,
针对进行数据隔离的各个计算集群,不同计算集群对应的服务器机架设置在不同故障域内;
或者,针对不进行数据隔离的各个计算集群,每个故障域内的服务器机架上安装属于不同计算集群的第二服务器。
22.根据权利要求18所述的云平台,还包括:包括多个第三服务器的备用管理集群;
其中,所述备用管理集群和所述管理集群之间通过数据网络连接,所述备用管理集群内的第三服务器之间通过数据网络连接,所述备用管理集群与每个计算集群之间通过管理网络连接;
所述备用管理集群用于登记所述计算集群中每个第二服务器的网络地址,并标记每个第二服务器所属的计算虚拟化资源池。
23.根据权利要求18所述的云平台,其中,
在所述管理集群中共享数据在本集群中存储的情况下,所述管理集群用于将运行数据实时传输到所述备用管理集群;所述备用管理集群用于实时监测所述管理集群的运行情况,在所述管理集群停止工作的情况下,接管所述管理集群的工作;
或者,在所述管理集群中共享数据在本集群之外的预设存储地址存储情况下,所述管理集群用于将运行数据作为共享数据实时传输到所述预设存储地址,所述备用管理集群用于实时监测所述管理集群的运行情况,在所述管理集群停止工作的情况下,从所述预设存储地址获取所述共享数据,接管所述管理集群的工作。
24.根据权利要求18所述的云平台,其中,
所述管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定运行情况异常的第二服务器作为异常服务器;在标记的异常服务器所属的计算虚拟化资源池内定位另一第二服务器,并将所述异常服务器上的虚拟机迁移到定位的第二服务器上。
25.根据权利要求18所述的云平台,其中,所述计算虚拟化资源池中包括:主虚拟机和备用虚拟机;
所述管理集群用于监测每个计算虚拟资源池内的第二服务器的运行情况;确定主虚拟机所在的第二服务器故障的情况下,将所述主虚拟机切换为备用虚拟机,在标记的所述主虚拟机所属的计算虚拟化资源池内定位另一第二服务器,并在定位的第二服务器上创建新的备用虚拟机。
26.一种云平台实现系统,包括:权利要求16或17所述的云平台的创建装置;以及权利要求18-25任一项所述的云平台。
27.一种非瞬时性计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现权利要求1-15任一项所述方法的步骤。
CN202110531474.9A 2021-05-17 2021-05-17 云平台的创建方法、装置、云平台以及云平台实现系统 Active CN112948063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110531474.9A CN112948063B (zh) 2021-05-17 2021-05-17 云平台的创建方法、装置、云平台以及云平台实现系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110531474.9A CN112948063B (zh) 2021-05-17 2021-05-17 云平台的创建方法、装置、云平台以及云平台实现系统

Publications (2)

Publication Number Publication Date
CN112948063A true CN112948063A (zh) 2021-06-11
CN112948063B CN112948063B (zh) 2021-09-17

Family

ID=76233907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110531474.9A Active CN112948063B (zh) 2021-05-17 2021-05-17 云平台的创建方法、装置、云平台以及云平台实现系统

Country Status (1)

Country Link
CN (1) CN112948063B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113472571A (zh) * 2021-06-28 2021-10-01 北京汇钧科技有限公司 一种智能网卡设备和智能网卡设备的旁路探测方法
CN113485645A (zh) * 2021-07-07 2021-10-08 北京汇钧科技有限公司 云硬盘资源池的管理方法及装置、存储介质及电子设备
CN113537766A (zh) * 2021-07-14 2021-10-22 海南马良师傅网络科技有限公司 基于云平台大数据管理的仪器报废评估方法
CN114465914A (zh) * 2022-04-12 2022-05-10 杭州银行股份有限公司 一种服务器集群构建方法、计算设备及存储介质
CN116112512A (zh) * 2022-12-28 2023-05-12 中国人寿保险股份有限公司上海数据中心 一种基于故障域的分布式存储系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605561A (zh) * 2013-11-28 2014-02-26 中标软件有限公司 一种云计算集群系统及其在线迁移物理服务器的方法
CN104898573A (zh) * 2015-04-06 2015-09-09 华中科技大学 一种基于云计算的数控系统数据采集及处理方法
CN106331150A (zh) * 2016-09-18 2017-01-11 北京百度网讯科技有限公司 用于调度云服务器的方法和装置
US20170235782A1 (en) * 2016-02-12 2017-08-17 Nutanix, Inc. Entity database notifications
US10664357B1 (en) * 2016-12-20 2020-05-26 EMC IP Holding Company LLC Single agent backup for cloud networks
CN111367654A (zh) * 2020-02-12 2020-07-03 吉利汽车研究院(宁波)有限公司 基于异构云平台的数据处理方法及装置
CN111679886A (zh) * 2020-06-03 2020-09-18 科东(广州)软件科技有限公司 异构计算资源调度方法、系统、电子设备及存储介质
CN112000421A (zh) * 2020-07-15 2020-11-27 北京计算机技术及应用研究所 基于超融合架构的管理调度技术
CN112162852A (zh) * 2020-09-18 2021-01-01 北京浪潮数据技术有限公司 一种多架构cpu节点的管理方法、装置及相关组件

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103605561A (zh) * 2013-11-28 2014-02-26 中标软件有限公司 一种云计算集群系统及其在线迁移物理服务器的方法
CN104898573A (zh) * 2015-04-06 2015-09-09 华中科技大学 一种基于云计算的数控系统数据采集及处理方法
US20170235782A1 (en) * 2016-02-12 2017-08-17 Nutanix, Inc. Entity database notifications
CN106331150A (zh) * 2016-09-18 2017-01-11 北京百度网讯科技有限公司 用于调度云服务器的方法和装置
US10664357B1 (en) * 2016-12-20 2020-05-26 EMC IP Holding Company LLC Single agent backup for cloud networks
CN111367654A (zh) * 2020-02-12 2020-07-03 吉利汽车研究院(宁波)有限公司 基于异构云平台的数据处理方法及装置
CN111679886A (zh) * 2020-06-03 2020-09-18 科东(广州)软件科技有限公司 异构计算资源调度方法、系统、电子设备及存储介质
CN112000421A (zh) * 2020-07-15 2020-11-27 北京计算机技术及应用研究所 基于超融合架构的管理调度技术
CN112162852A (zh) * 2020-09-18 2021-01-01 北京浪潮数据技术有限公司 一种多架构cpu节点的管理方法、装置及相关组件

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113472571A (zh) * 2021-06-28 2021-10-01 北京汇钧科技有限公司 一种智能网卡设备和智能网卡设备的旁路探测方法
CN113472571B (zh) * 2021-06-28 2023-11-03 北京汇钧科技有限公司 一种智能网卡设备和智能网卡设备的旁路探测方法
CN113485645A (zh) * 2021-07-07 2021-10-08 北京汇钧科技有限公司 云硬盘资源池的管理方法及装置、存储介质及电子设备
CN113537766A (zh) * 2021-07-14 2021-10-22 海南马良师傅网络科技有限公司 基于云平台大数据管理的仪器报废评估方法
CN114465914A (zh) * 2022-04-12 2022-05-10 杭州银行股份有限公司 一种服务器集群构建方法、计算设备及存储介质
CN114465914B (zh) * 2022-04-12 2022-07-08 杭州银行股份有限公司 一种服务器集群构建方法、计算设备及存储介质
CN116112512A (zh) * 2022-12-28 2023-05-12 中国人寿保险股份有限公司上海数据中心 一种基于故障域的分布式存储系统

Also Published As

Publication number Publication date
CN112948063B (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
CN112948063B (zh) 云平台的创建方法、装置、云平台以及云平台实现系统
EP3252608B1 (en) Node system, server device, scaling control method, and program
CN102346460B (zh) 一种基于事务的服务控制系统及其控制方法
CN108632067B (zh) 容灾部署方法、装置及系统
CN108270726B (zh) 应用实例部署方法及装置
CN103778031B (zh) 一种云环境下的分布式系统多级故障容错方法
Koslovski et al. Reliability support in virtual infrastructures
WO2015103113A1 (en) System and method for allocating resources and managing a cloud based computer system
CN110661641B (zh) 一种虚拟网络功能vnf部署方法及装置
CN106612312A (zh) 一种虚拟化数据中心调度系统和方法
CA2975242A1 (en) System, virtualization control apparatus, method for controlling a virtualization control apparatus, and program
CN111694789A (zh) 嵌入式可重构异构测定方法、系统、存储介质、处理器
CN108347339B (zh) 一种业务恢复方法及装置
EP3442201B1 (en) Cloud platform construction method and cloud platform
CN103595801A (zh) 一种云计算系统及其虚拟机实时监控方法
CN108319492B (zh) 复位物理机的方法、装置与系统
CN111669284A (zh) OpenStack自动化部署方法、电子设备、存储介质及系统
CN111857951A (zh) 容器化部署平台及部署方法
CN107395710A (zh) 一种云平台网元的配置和高可用ha实现方法和装置
CN115080436A (zh) 测试指标确定方法、装置、电子设备及存储介质
CN108600156A (zh) 一种服务器及安全认证方法
CN103442033A (zh) 一种运行状态信息的同步方法和设备
CN102868594B (zh) 一种消息处理方法和装置
CN115827148A (zh) 一种资源管理方法、装置、电子设备及存储介质
CN111221620A (zh) 存储方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240108

Address after: 601, 6 / F, building 2, No. 18, Kechuang 11th Street, Daxing District, Beijing, 100176

Patentee after: Jingdong Technology Information Technology Co.,Ltd.

Address before: 100176 room 1004, 10th floor, building 1, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone, Daxing District, Beijing

Patentee before: Beijing Huijun Technology Co.,Ltd.

TR01 Transfer of patent right