CN110750334A - 一种基于Ceph的网络靶场后端存储系统设计方法 - Google Patents

一种基于Ceph的网络靶场后端存储系统设计方法 Download PDF

Info

Publication number
CN110750334A
CN110750334A CN201911021203.8A CN201911021203A CN110750334A CN 110750334 A CN110750334 A CN 110750334A CN 201911021203 A CN201911021203 A CN 201911021203A CN 110750334 A CN110750334 A CN 110750334A
Authority
CN
China
Prior art keywords
ceph
storage
service
cluster
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911021203.8A
Other languages
English (en)
Other versions
CN110750334B (zh
Inventor
杨亦松
温泉
单联强
夏旸
刑元
卫宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Computer Technology and Applications
Original Assignee
Beijing Institute of Computer Technology and Applications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Computer Technology and Applications filed Critical Beijing Institute of Computer Technology and Applications
Priority to CN201911021203.8A priority Critical patent/CN110750334B/zh
Publication of CN110750334A publication Critical patent/CN110750334A/zh
Application granted granted Critical
Publication of CN110750334B publication Critical patent/CN110750334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • G06F11/1451Management of the data involved in backup or backup restore by selection of backup contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45575Starting, stopping, suspending or resuming virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种基于Ceph的网络靶场后端存储系统设计方法,涉及信息安全技术领域。本发明针对现有网络靶场后端存储系统中存在的问题,提供一种云架构下网络靶场后端存储系统的构建方法。这种方法将Ceph与OpenStack相结合,使Ceph作为OpenStack中Nova,Glance,Cinder原生组件的存储后端,将OpenStack的身份认证服务Keystone与Ceph对象网关绑定,并基于Ceph网关模块进行管理应用的二次开发。该方法能够有效提高网络靶场的部署效率及存储安全性。从而实现网络靶场内虚拟机秒速启动、虚拟机实时迁移、数据分片存储、数据全备份,数据增量备份等功能。

Description

一种基于Ceph的网络靶场后端存储系统设计方法
技术领域
本发明涉及信息安全技术领域,具体涉及一种基于Ceph的网络靶场后端存储系统设计方法。
背景技术
网络靶场作为应对网络安全威胁、网络对抗技术装备试验、网络攻防战法演练、培育生成网络攻防对抗能力的重要基础设施,被众多网络安全部门所应用。目前网络靶场的构建大多基于OpenStack开源云计算平台。
网络靶场中后端存储可分为虚拟机系统存储、镜像(靶标)存储、和逻辑卷存储。目前,网络靶场的后端存储系统普遍依赖于OpenStack的原生组件实现。由于网络靶场的多元性,其后端存储对效率和安全性有较高的要求。OPENSTACK的原生组件并不完全适合网络靶场的后端存储架构。例如Cinder作为OpenStack的块存储模块,可以为网络靶场提供持久性存储。但Cinder单点存储模式成本高且存在故障问题,若单个节点的数据损坏,数据便会全部丢失。Swift作为OpenStack的原生对象存储系统,并不具备块存储的功能,其异步写入方式,在高并发情况下可能导致数据不完整更新,读取到错误数据。且存在中心服务器性能带宽瓶颈问题。由此可以看出使用原生OpenStack组件构建网络靶场后端存储系统存在如下问题:
网络靶场部署效率低,镜像(靶标)文件在不同宿主机之间复制需要花费大量时间。
靶场内虚拟机使用单点存储模式,存在单点故障的安全隐患。
靶场内虚拟机迁移效率低,无法做到时时迁移。
虚拟机数据备份速度慢,无法利用硬件本身的存储能力实现备份、无法实现增量备份。
Ceph是一种统一的、分布式存储系统。具有高性能、高可靠性和可扩展性等特点,支持数据无缝复制和并发读写。Ceph可以作为块存储、文件存储和对象存储系统,最大程度上简化了存储系统部署运维工作。其去中心化的设计有效避免了大规模存储集群中吞吐量瓶颈问题。并且Ceph使用C++语言开发,速度性能上要明显优于python等开发语言。
Ceph的这些优秀特性,使其可以满足网络靶场后端存储系统的构建需求,但如何运用Ceph构建网络靶场后端存储系统,提升网络靶场的安全性及可用性,仍是一个亟需解决的问题。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何运用Ceph构建网络靶场后端存储系统,提升网络靶场的安全性及可用性。
(二)技术方案
为了解决上述技术问题,本发明提供了一种一种基于Ceph的网络靶场后端存储系统设计方法,将该系统按照如下方式设计:将Ceph集群作为网络靶场的存储后端,为OpenStack集群中Nova、Glance、Cinder原生组件提供块存储服务并对外提供对象存储服务;部署完成后,Nova负责计算服务,使用Ceph集群作为后端存储,Nova创建虚拟机时由Glance服务提供镜像,并使用Cinder服务提供逻辑卷;OpenStack集群的原生可视化组件Horizon服务负责为各组件,即为Nova、Glance、Cinder提供可视化界面。
优选地,该方法中,还将Ceph集群的对象网关与OpenStack集群的身份认证服务Keystone集成在一起,使Ceph集群的对象网关接收Keystone的权限认证信息,被Keystone授权的账户信息同时也被Ceph集群的对象网关授权,并自动生成账户记录,并且Keystone验证通过的令牌将被Ceph集群的对象网关视为有效访问凭证。
优选地,该方法中,使用亚马逊S3、SwiftCmd接口与Ceph集群进行交互,并基于OpenStack的原生可视化组件Horizon对Ceph应用进行二次开发。
优选地,该方法中,还按照如下方式设计所述Ceph集群:
将Ceph集群设计为包括Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务,每个服务作为一个节点,且任一节点都可以作为Ceph集群的主节点,Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务分别部署在不同的服务器上,从而形成多个服务节点;
Ceph集群的公共网络共享OpenStack集群中的覆盖网络Overlay network,且部署独立的Ceph集群内部网络;
将Ceph监控服务、Ceph OSD存储服务分别作为Ceph集群中的监控节点、数据节点,在一个Ceph集群中部署3个数据节点,数据节点之间能够通信,监控节点有权限读取Config配置文件,Ceph集群中每个节点都能直接访问数据节点,在Ceph集群的主节点上登记每个节点的名称和IP地址。
优选地,所述系统在网络靶场后端存储底层实现时,设计为:
存储系统的底层使用RADOS机制实现,将数据节点配置RADOS机制,利用配置了RADOS机制的数据节点,使数据和负载动态地分布在不均匀的存储集群上;
使用亚马逊S3接口与Ceph的对象网关,即自动可信分布式对象网关Radosgw进行交互,使用keystone进行认证,通过亚马逊S3接口中的S3cmd的工具将集群的信息返回到Web界面上;
基于Horizon开发,将Ceph的信息返回到Horizon的Dashboard组件上。
本发明还提供了一种在所述的系统中实现将Ceph块存储作为网络靶场镜像靶标的后端存储功能的方法,该方法中,将Glance作为OpenStack的原生组件为OpenStack提供镜像及元数据注册服务,Glance与Ceph完成对接后,Glance上传的镜像文件会作为块设备储存在Ceph集群中,该方法的具体步骤如下:
1.1对/etc/glance/glance-api.conf文件进行如下配置:
开启写时拷贝COPY-ON-WRITE CLONING功能;
设置镜像存储类型为rbd;
设置存储池为Ceph中镜像文件所在的存储池;
设置镜像文件的可访问用户为glance;
设定ceph中镜像配置文件位置;
设定镜像服务所使用的存储对象容量为8MB;
设定镜像服务访问认证机制为keystone;
1.2重启镜像服务;
1.3使用RAW格式创建镜像靶标文件,镜像靶标创建过程如下:
检查原始镜像,确认原有镜像文件可以使用;
将原始镜像文件转化为RAW格式;
将原始镜像文件上传至Openstack集群,设置上传后的镜像类型为非保护类型,并设定访问权限为“PUBLIC”。
本发明又提供了一种在所述的系统中实现将Ceph块存储作为网络靶场逻辑卷存储的后端功能的方法,该方法中,将Cinder作为OpenStack原生组件提供卷服务,将Cinder对接Ceph后,Cinder组件创建的卷为Ceph的块存储设备,当卷被网络靶场中虚拟机挂载后,虚拟机以rbd协议的方式使用这些磁盘设备,创建卷的过程如下:
2.1配置/etc/cinder/cinder.conf文件:
将存储后端设置为CPEH及逻辑卷管理;
设置镜像存储服务的版本为第二版;
配置镜像存储服务的网络地址;
配置存储驱动程序为LVM及RBD;
设定卷存储后端的名称为LVM和CEPH;
设定卷组的名称为cinder-volumes;
设定传输协议为iscsi;
设置存储池为Ceph中卷文件所在的存储池;
配置CEPH管理文件路径;
设置丛快照创建卷的时启用克隆功能;
配置镜像最大克隆深度为5;
配置卷存储对象大小为4MB;
配置RBD访问用户为cinder;
配置CEPH连接超时时间为-1,表示永不超时;
开启ceph身份验证功能;
配置cinder用户访问Ceph时所使用的SecretUUID;
2.2创建卷:
1.创建卷类型模板,模板中设置访问权限为“public”,存储后端名称设置为“ceph”;
2.使用创建的模板创建卷,并设置卷容量。
本发明还提供了一种在所述的系统中实现将Ceph块存储作为网络靶场虚拟机的后端存储的方法,该方法中,Nova做为OpenStack原生组件为OpenStack提供计算服务,将其对接Ceph存储集群后,虚拟机实例的系统磁盘将被储存到Ceph集群中,该方法具体步骤如下:
在各个节点上配置Ceph:
创建日志目录及Socket管理目录,并配置虚拟机用户可访问的权限;
修改/etc/Ceph/Ceph.conf配置文件,启用RBD客户端缓存,日志管理及Socket管理;
3.2修改各节点上虚拟机配置:
将虚拟机类型设置为qemu。
将虚拟机存储类型设置为rbd;
配置自动可信分布式块存储网关librbd地址;
将虚拟机存储池设置为CPEH中对应的存储池;
配置CEPH管理文件路径;
配置用于访问CEPH的用户名及UUID号;
禁止使用文件注入功能;
启用磁盘缓存机制;
3.3创建虚拟。
本发明又提供了一种在所述的系统中实现基于Ceph存储后端完成网络靶场内虚拟机热迁移的方法,该方法中包括以下步骤:
4.1热迁移前条件检查:权限检查,检查执行迁移的用户是否有足够的权限执行动态迁移;
参数检查,如是否指定了block-migrate参数;
检查目标物理主机是否存在;
检查被迁移的虚拟机是否是运行状态;
检查源和目的物理主机上的nova-compute service是否正常运行;
检查目的物理主机和源物理主机是否是同一台机器;
检查目的物理主机是否有足够的内存;
检查目的和源物理主机器虚拟机服务程序版本是否相同;
计算节点之间可以通过主机名互相访问;
计算节点和控制节点的novauid和gid保持一致;
设置vnc服务监听IP为本地IP;
Ceph存储集群已经配置完毕时,实例存放在Ceph共享存储中,且每个计算节点都可访问共享存储;
4.2热迁移配置文件:
修改虚拟机nova的配置文件,在[libvirt]段下添加如下字段:
live_migration_flag=
"VIR_MIGRATE_UNDEFINE_SOURCE,
VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,
VIR_MIGRATE_PERSIST_DEST,VIR_MIGRATE_TUNNELLED"
配置/etc/libvirt/libvirtd.conf文件:启动TCP协议监控功能;设置监控端口为16509;设置本机IP地址;关闭TCP安全认证功能;
在/etc/sysconfig/libvirtd文件中修改虚拟机配置文件路径;
重启libvirt服务;完成迁移。
本发明还提供了一种在所述的系统中实现将CEPH与OPENSTACKKEYSTONE集成的方法,包括以下步骤:
在ceph中配置keystone认证文件,内容包括:开启keystone认证;设置keystone服务认证地址;关闭令牌环admin_token认证;启用用户口令admin_user登录方式,并设置用户名及密码;关闭ssl认证;接受keystone中已认证的角色名称;
配置keystone对象存储终结点endpoint指向ceph对象网关。
(三)有益效果
本发明针对现有网络靶场后端存储系统中存在的问题,提供一种云架构下网络靶场后端存储系统的构建方法。这种方法将Ceph与OpenStack相结合,使Ceph作为OpenStack中Nova,Glance,Cinder原生组件的存储后端,将OpenStack的身份认证服务Keystone与Ceph对象网关绑定,并基于Ceph网关模块进行管理应用的二次开发。该方法能够有效提高网络靶场的部署效率及存储安全性。从而实现网络靶场内虚拟机秒速启动、虚拟机实时迁移、数据分片存储、数据全备份,数据增量备份等功能。
附图说明
图1为本发明设计的云架构下网络靶场后端存储系统总体设计图;
图2为本发明系统中Ceph存储集群整体设计结构图;
图3为本发明设计的网络靶场后端存储底层逻辑结构图;
图4为本发明设计的网络靶场内虚拟机后端存储逻辑图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
针对现有网络靶场后端存储系统中存在的问题,本发明的目的在于提供一种云架构下网络靶场后端存储系统的构建方法。这种方法将Ceph与OpenStack相结合,使Ceph作为OpenStack中Nova,Glance,Cinder原生组件的存储后端,将OpenStack的身份认证服务Keystone与Ceph对象网关绑定,并基于Ceph网关模块进行管理应用的二次开发。该方法能够有效提高网络靶场的部署效率及存储安全性。从而实现网络靶场内虚拟机秒速启动、虚拟机实时迁移、数据分片存储、数据全备份,数据增量备份等功能。
本发明提供了一种云架构下网络靶场后端存储系统的构建方法,参考图1,将该系统按照如下方式设计:将Ceph集群作为网络靶场的存储后端,为OpenStack集群中Nova、Glance、Cinder原生组件提供块存储服务并对外提供对象存储服务;部署完成后,Nova负责计算服务,使用Ceph集群作为后端存储,Nova创建虚拟机时由Glance服务提供镜像,并使用Cinder服务提供逻辑卷;OpenStack集群的原生可视化组件Horizon服务负责为各组件,即Nova、Glance、Cinder提供可视化界面;
该方法中,还将Ceph集群的对象网关与OpenStack集群的身份认证服务Keystone集成在一起,使Ceph集群的对象网关接收Keystone的权限认证信息,被Keystone授权的账户信息同时也被Ceph集群的对象网关授权,并自动生成账户记录(如果之前不存在),并且Keystone验证通过的令牌将被Ceph集群的对象网关视为有效访问凭证;
该方法中,使用亚马逊S3、SwiftCmd接口与Ceph集群进行交互,并基于OpenStack的原生可视化组件Horizon对Ceph应用进行二次开发。
该方法中,还按照如下方式设计所述Ceph集群,如图2所示:
将Ceph集群设计为:包括Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务,每个服务作为一个节点,且任一节点都可以作为Ceph集群的主节点,Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务分别部署在不同的服务器上,从而形成多个服务节点,服务节点数量随存储集群规模扩大而增加,从而增强存储集群的稳定性及安全性;
还将Ceph集群设计为:Ceph集群的公共网络共享OpenStack集群中的覆盖网络(Overlay network),且部署独立的Ceph集群内部网络,从而缓解Ceph集群的公共网络中数据复制和心跳流量的传输压力;
将Ceph监控服务、Ceph OSD存储服务分别作为Ceph集群中的监控节点、数据节点,为确保Ceph集群数据的安全,在一个Ceph集群中部署3个数据节点,数据节点之间能够通信,监控节点有权限读取Config配置文件,Ceph集群中每个节点都能直接访问数据节点,在Ceph集群的主节点上登记每个节点的名称和IP地址。
所述系统在网络靶场后端存储底层实现时,设计为:
1、存储系统的底层使用RADOS机制实现;RADOS是一个可靠的自动的分布式对象存储机制,将数据节点配置RADOS机制,利用配置了RADOS机制的数据节点,来解决集群中存在的数据一致性访问,冗余存储,错误检测和数据恢复等问题,使得数据和负载动态地分布在不均匀的存储集群上。
2、使用亚马逊S3接口与Ceph的对象网关,即自动可信分布式对象网关(Radosgw)进行交互,使用keystone进行认证,通过亚马逊S3接口中的S3cmd的工具将集群的信息返回到Web界面上。
3、基于Horizon开发,将Ceph的信息返回到Horizon的Dashboard组件上,使得用户可以直观地管理所存储的数据。
本发明还提供了一种在所述系统中实现将Ceph块存储作为网络靶场镜像靶标的后端存储功能的方法,Glance作为OpenStack的原生组件为OpenStack提供镜像及元数据注册服务,Glance与Ceph完成对接后,Glance上传的镜像(靶标)文件会作为块设备储存在Ceph集群中,该方法的具体步骤如下:
1.1对/etc/glance/glance-api.conf文件进行如下配置:
开启写时拷贝(COPY-ON-WRITE CLONING)功能。
设置镜像存储类型为rbd。
设置存储池为Ceph中镜像文件所在的存储池。
设置镜像文件的可访问用户为glance。
设定ceph中镜像配置文件位置,例如/etc/Ceph/Ceph.conf。
设定镜像服务所使用的存储对象容量为8MB。
设定镜像服务访问认证机制为keystone。
1.2重启镜像服务:
1.3使用RAW格式创建镜像靶标文件。利用Ceph的写时拷贝特性避免创建虚拟机时进行的镜像复制操作。镜像靶标创建过程如下:
检查原始镜像,确认原有镜像文件可以使用。
将原始镜像文件转化为RAW格式。
将原始镜像文件上传至Openstack集群,设置上传后的镜像类型为非保护类型,并设定访问权限为“PUBLIC”。
本发明还提供了一种在所述系统中实现将Ceph块存储作为网络靶场逻辑卷存储的后端功能的方法,Cinder作为OpenStack原生组件提供卷服务,将Cinder对接Ceph后,Cinder组件创建的卷,其本质就是Ceph的块存储设备,当卷被网络靶场中虚拟机挂载后,虚拟机会以rbd协议的方式使用这些磁盘设备。创建过程如下:
2.1配置/etc/cinder/cinder.conf文件:
将存储后端设置为CPEH及逻辑卷管理(LVM)。
设置镜像存储服务的版本为第二版。
配置镜像存储服务的网络地址。例如,http://controller:9292
配置存储驱动程序为LVM及RBD。
设定卷存储后端的名称为LVM和CEPH。
设定卷组的名称为cinder-volumes。
设定传输协议为iscsi。
设置存储池为Ceph中卷文件所在的存储池。例如,volumes。
配置CEPH管理文件路径,例如/etc/Ceph/Ceph.conf。
设置丛快照创建卷的时启用克隆功能。
配置镜像最大克隆深度为5。
配置卷存储对象大小为4MB。
配置RBD访问用户为cinder。
配置CEPH连接超时时间为-1,表示永不超时。
开启ceph身份验证功能。
配置cinder用户访问Ceph时所使用的SecretUUID。
例如rbd_secret_uuid=4810c760-dc42-4e5f-9d41-7346db7d7da2
2.2创建卷:
1.创建卷类型模板。模板中设置访问权限为“public”,存储后端名称设置为“ceph”。
2.使用之前创建的模板创建卷,并设置卷容量。
本发明又提供了一种在所述系统中实现将Ceph块存储作为网络靶场虚拟机的后端存储的方法,Nova做为OpenStack原生组件为OpenStack提供计算服务,将其对接Ceph存储集群后,虚拟机实例的系统磁盘将被储存到Ceph集群中。因为Librbd早已原生集成到Openstack中,所以也可以理解为将Ceph存储集群集成到QEMU-KVM/libvirt中。如图4所示。该方法具体步骤如下:
在各个节点上配置Ceph:
创建日志目录及Socket管理目录,并配置虚拟机用户可访问的权限。
修改/etc/Ceph/Ceph.conf配置文件,启用RBD客户端缓存,日志管理及Socket管理,提升性能,方便查看故障日志。
3.2修改各节点上虚拟机配置:
将虚拟机类型设置为qemu。
将虚拟机存储类型设置为rbd。
配置自动可信分布式块存储网关(librbd)地址。
将虚拟机存储池设置为CPEH中对应的存储池,例如vms。
配置CEPH管理文件路径。
配置用于访问CEPH的用户名及UUID号。
禁止使用文件注入功能。
启用磁盘缓存机制。
3.3创建虚拟。
本发明又提供了一种在所述系统中实现基于Ceph存储后端完成网络靶场内虚拟机热迁移的方法,网络靶场所承担的网络对抗演练,技术装备试验等任务都具有多元化的特点,演练角色和装备试验地点经常会发生变化。并且随着靶场规模的增加,物理服务器也会存在重启或故障等问题。在这种情况下靶场中虚拟机的热迁移(Live Migration),又叫动态迁移、实时迁移,就显得非常重要。
该方法能够将网络靶场中整个虚拟机的运行状态完整保存下来,同时可以快速的恢复到原有硬件平台甚至是不同硬件平台上。恢复以后,虚拟机仍旧平滑运行,靶场中演练人员不会察觉到任何差异。虚拟机热迁移步奏如下:
4.1热迁移前条件检查:
权限检查,执行迁移的用户是否有足够的权限执行动态迁移。
2.参数检查,如是否指定了block-migrate参数。
3.检查目标物理主机是否存在。
4.检查被迁移的虚拟机是否是运行状态。
5.检查源和目的物理主机上的nova-compute service是否正常运行。
6.检查目的物理主机和源物理主机是否是同一台机器。
7.检查目的物理主机是否有足够的内存。
8.检查目的和源物理主机器虚拟机服务程序版本是否相同。
9.计算节点之间可以通过主机名互相访问
10.计算节点和控制节点的novauid和gid保持一致
11.设置vnc服务监听IP为本地IP
12.Ceph存储集群已经配置完毕,实例存放在Ceph共享存储中,且每个计算节点都可以访问共享存储。
4.2热迁移配置文件:
修改虚拟机nova的配置文件,在[libvirt]段下添加如下字段:
live_migration_flag=
"VIR_MIGRATE_UNDEFINE_SOURCE,
VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST,VIR_MIGRATE_TUNNELLED"
配置/etc/libvirt/libvirtd.conf文件:
启动TCP协议监控功能
设置监控端口为16509
设置本机IP地址
关闭TCP安全认证功能。
在/etc/sysconfig/libvirtd文件中修改虚拟机配置文件路径。例如:
LIBVIRTD_CONFIG=/etc/libvirt/libvirtd.conf
LIBVIRTD_ARGS="--listen"
重启libvirt服务;
完成迁移:
nova live-migration“虚拟机id”computer1
本发明还提供了一种CEPH与OPENSTACKKEYSTONE集成的方法,包括以下步骤:
5.1在ceph中配置keystone认证文件,内容包括:
开启keystone认证。
设置keystone服务认证地址。
关闭令牌环(admin_token)认证。
启用用户口令(admin_user)登录方式,并设置用户名及密码。
关闭ssl认证。
接受keystone中已认证的角色名称。
5.2配置keystone对象存储终结点(endpoint)指向ceph对象网关,命令代码如下:
Figure BDA0002247281270000161
可以看出,本发明将网络靶场中镜像(靶标)存储、逻辑卷存储、虚拟机系统存储都对接到Ceph分布式存储集群之后,虚拟机直接通过rbd协议访问Ceph存储集群中的块设备,不需要从远程下载镜像文件。从镜像启动的虚拟机以及从镜像卷启动的虚拟机,都可以通过Ceph RBD COW Clone机制快速得到镜像。虚拟机的快照,实际上是Ceph块存储设备的快照,可以在Ceph集群中直接创建。因此本方法解决了网络靶场中后端存储、存储过程认证和存储应用管理问题。可以有效解决靶场内虚拟机启动速度慢,达到秒级启动虚拟机的效果,实现虚拟机时时迁移,大幅提高网络靶场的部署效率。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种基于Ceph的网络靶场后端存储系统设计方法,其特征在于,将该系统按照如下方式设计:将Ceph集群作为网络靶场的存储后端,为OpenStack集群中Nova、Glance、Cinder原生组件提供块存储服务并对外提供对象存储服务;部署完成后,Nova负责计算服务,使用Ceph集群作为后端存储,Nova创建虚拟机时由Glance服务提供镜像,并使用Cinder服务提供逻辑卷;OpenStack集群的原生可视化组件Horizon服务负责为各组件,即为Nova、Glance、Cinder提供可视化界面。
2.如权利要求2所述的方法,其特征在于,该方法中,还将Ceph集群的对象网关与OpenStack集群的身份认证服务Keystone集成在一起,使Ceph集群的对象网关接收Keystone的权限认证信息,被Keystone授权的账户信息同时也被Ceph集群的对象网关授权,并自动生成账户记录,并且Keystone验证通过的令牌将被Ceph集群的对象网关视为有效访问凭证。
3.如权利要求2所述的方法,其特征在于,该方法中,使用亚马逊S3、SwiftCmd接口与Ceph集群进行交互,并基于OpenStack的原生可视化组件Horizon对Ceph应用进行二次开发。
4.如权利要求3所述的方法,其特征在于,该方法中,还按照如下方式设计所述Ceph集群:
将Ceph集群设计为包括Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务,每个服务作为一个节点,且任一节点都可以作为Ceph集群的主节点,Ceph监控服务、Ceph元数据服务和Ceph OSD存储服务分别部署在不同的服务器上,从而形成多个服务节点;
Ceph集群的公共网络共享OpenStack集群中的覆盖网络Overlay network,且部署独立的Ceph集群内部网络;
将Ceph监控服务、Ceph OSD存储服务分别作为Ceph集群中的监控节点、数据节点,在一个Ceph集群中部署3个数据节点,数据节点之间能够通信,监控节点有权限读取Config配置文件,Ceph集群中每个节点都能直接访问数据节点,在Ceph集群的主节点上登记每个节点的名称和IP地址。
5.如权利要求3所述的方法,其特征在于,所述系统在网络靶场后端存储底层实现时,设计为:
存储系统的底层使用RADOS机制实现,将数据节点配置RADOS机制,利用配置了RADOS机制的数据节点,使数据和负载动态地分布在不均匀的存储集群上;
使用亚马逊S3接口与Ceph的对象网关,即自动可信分布式对象网关Radosgw进行交互,使用keystone进行认证,通过亚马逊S3接口中的S3cmd的工具将集群的信息返回到Web界面上;
基于Horizon开发,将Ceph的信息返回到Horizon的Dashboard组件上。
6.一种在权利要求4所述的系统中实现将Ceph块存储作为网络靶场镜像靶标的后端存储功能的方法,其特征在于,该方法中,将Glance作为OpenStack的原生组件为OpenStack提供镜像及元数据注册服务,Glance与Ceph完成对接后,Glance上传的镜像文件会作为块设备储存在Ceph集群中,该方法的具体步骤如下:
1.1对/etc/glance/glance-api.conf文件进行如下配置:
开启写时拷贝COPY-ON-WRITE CLONING功能;
设置镜像存储类型为rbd;
设置存储池为Ceph中镜像文件所在的存储池;
设置镜像文件的可访问用户为glance;
设定ceph中镜像配置文件位置;
设定镜像服务所使用的存储对象容量为8MB;
设定镜像服务访问认证机制为keystone;
1.2重启镜像服务;
1.3使用RAW格式创建镜像靶标文件,镜像靶标创建过程如下:
检查原始镜像,确认原有镜像文件可以使用;
将原始镜像文件转化为RAW格式;
将原始镜像文件上传至Openstack集群,设置上传后的镜像类型为非保护类型,并设定访问权限为“PUBLIC”。
7.一种在权利要求4所述的系统中实现将Ceph块存储作为网络靶场逻辑卷存储的后端功能的方法,其特征在于,该方法中,将Cinder作为OpenStack原生组件提供卷服务,将Cinder对接Ceph后,Cinder组件创建的卷为Ceph的块存储设备,当卷被网络靶场中虚拟机挂载后,虚拟机以rbd协议的方式使用这些磁盘设备,创建卷的过程如下:
2.1配置/etc/cinder/cinder.conf文件:
将存储后端设置为CPEH及逻辑卷管理;
设置镜像存储服务的版本为第二版;
配置镜像存储服务的网络地址;
配置存储驱动程序为LVM及RBD;
设定卷存储后端的名称为LVM和CEPH;
设定卷组的名称为cinder-volumes;
设定传输协议为iscsi;
设置存储池为Ceph中卷文件所在的存储池;
配置CEPH管理文件路径;
设置丛快照创建卷的时启用克隆功能;
配置镜像最大克隆深度为5;
配置卷存储对象大小为4MB;
配置RBD访问用户为cinder;
配置CEPH连接超时时间为-1,表示永不超时;
开启ceph身份验证功能;
配置cinder用户访问Ceph时所使用的SecretUUID;
2.2创建卷:
1.创建卷类型模板,模板中设置访问权限为“public”,存储后端名称设置为“ceph”;
2.使用创建的模板创建卷,并设置卷容量。
8.一种在权利要求4所述的系统中实现将Ceph块存储作为网络靶场虚拟机的后端存储的方法,其特征在于,该方法中,Nova做为OpenStack原生组件为OpenStack提供计算服务,将其对接Ceph存储集群后,虚拟机实例的系统磁盘将被储存到Ceph集群中,该方法具体步骤如下:
在各个节点上配置Ceph:
创建日志目录及Socket管理目录,并配置虚拟机用户可访问的权限;
修改/etc/Ceph/Ceph.conf配置文件,启用RBD客户端缓存,日志管理及Socket管理;
3.2修改各节点上虚拟机配置:
将虚拟机类型设置为qemu。
将虚拟机存储类型设置为rbd;
配置自动可信分布式块存储网关librbd地址;
将虚拟机存储池设置为CPEH中对应的存储池;
配置CEPH管理文件路径;
配置用于访问CEPH的用户名及UUID号;
禁止使用文件注入功能;
启用磁盘缓存机制;
3.3创建虚拟。
9.一种在如权利要求4所述的系统中实现基于Ceph存储后端完成网络靶场内虚拟机热迁移的方法,其特征在于,该方法中包括以下步骤:
4.1热迁移前条件检查:权限检查,检查执行迁移的用户是否有足够的权限执行动态迁移;
参数检查,如是否指定了block-migrate参数;
检查目标物理主机是否存在;
检查被迁移的虚拟机是否是运行状态;
检查源和目的物理主机上的nova-compute service是否正常运行;
检查目的物理主机和源物理主机是否是同一台机器;
检查目的物理主机是否有足够的内存;
检查目的和源物理主机器虚拟机服务程序版本是否相同;
计算节点之间可以通过主机名互相访问;
计算节点和控制节点的novauid和gid保持一致;
设置vnc服务监听IP为本地IP;
Ceph存储集群已经配置完毕时,实例存放在Ceph共享存储中,且每个计算节点都可访问共享存储;
4.2热迁移配置文件:
修改虚拟机nova的配置文件,在[libvirt]段下添加如下字段:
live_migration_flag=
"VIR_MIGRATE_UNDEFINE_SOURCE,
VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,
VIR_MIGRATE_PERSIST_DEST,VIR_MIGRATE_TUNNELLED"
配置/etc/libvirt/libvirtd.conf文件:启动TCP协议监控功能;设置监控端口为16509;设置本机IP地址;关闭TCP安全认证功能;
在/etc/sysconfig/libvirtd文件中修改虚拟机配置文件路径;
重启libvirt服务;完成迁移。
10.一种在如权利要求4所述的系统中实现将CEPH与OPENSTACKKEYSTONE集成的方法,其特征在于,包括以下步骤:
在ceph中配置keystone认证文件,内容包括:开启keystone认证;设置keystone服务认证地址;关闭令牌环admin_token认证;启用用户口令admin_user登录方式,并设置用户名及密码;关闭ssl认证;接受keystone中已认证的角色名称;
配置keystone对象存储终结点endpoint指向ceph对象网关。
CN201911021203.8A 2019-10-25 2019-10-25 一种基于Ceph的网络靶场后端存储系统设计方法 Active CN110750334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911021203.8A CN110750334B (zh) 2019-10-25 2019-10-25 一种基于Ceph的网络靶场后端存储系统设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911021203.8A CN110750334B (zh) 2019-10-25 2019-10-25 一种基于Ceph的网络靶场后端存储系统设计方法

Publications (2)

Publication Number Publication Date
CN110750334A true CN110750334A (zh) 2020-02-04
CN110750334B CN110750334B (zh) 2024-02-02

Family

ID=69279840

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911021203.8A Active CN110750334B (zh) 2019-10-25 2019-10-25 一种基于Ceph的网络靶场后端存储系统设计方法

Country Status (1)

Country Link
CN (1) CN110750334B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111338751A (zh) * 2020-02-13 2020-06-26 山东汇贸电子口岸有限公司 同ceph集群中数据跨pool迁移方法及装置
CN111367475A (zh) * 2020-03-10 2020-07-03 山东汇贸电子口岸有限公司 一种基于helm部署cinder下对接G2存储的自动配置方法
CN111427666A (zh) * 2020-04-01 2020-07-17 山东汇贸电子口岸有限公司 一种OpenStack环境下虚拟机镜像快速导入方法及系统
CN111478820A (zh) * 2020-06-24 2020-07-31 南京赛宁信息技术有限公司 网络靶场大规模网络环境的网络设备配置系统与方法
CN111600953A (zh) * 2020-05-18 2020-08-28 广州锦行网络科技有限公司 基于蜜罐系统实现分布式部署的方法
CN111638855A (zh) * 2020-06-03 2020-09-08 山东汇贸电子口岸有限公司 一种物理裸机支持Ceph后端卷的方法
CN111654410A (zh) * 2020-04-28 2020-09-11 长沙证通云计算有限公司 网关请求监控方法、装置、设备及介质
CN111736955A (zh) * 2020-06-29 2020-10-02 苏州浪潮智能科技有限公司 一种数据存储方法、装置、设备及可读存储介质
CN111914229A (zh) * 2020-07-15 2020-11-10 中国民航信息网络股份有限公司 一种身份验证方法、装置、电子设备及存储介质
CN112328571A (zh) * 2020-11-25 2021-02-05 创新奇智(重庆)科技有限公司 对象存储方法、装置及通信设备、存储介质
CN112463170A (zh) * 2020-10-29 2021-03-09 苏州浪潮智能科技有限公司 云平台上制作镜像的方法、装置、设备及存储介质
CN112711469A (zh) * 2020-12-29 2021-04-27 武汉联影医疗科技有限公司 云主机迁移方法、装置、计算机设备和存储介质
CN113268206A (zh) * 2021-07-19 2021-08-17 南京赛宁信息技术有限公司 一种网络靶场资源热插拔实现方法与系统
CN113326598A (zh) * 2021-06-30 2021-08-31 北京计算机技术及应用研究所 一种物联网靶场设计方法
CN113726899A (zh) * 2021-09-01 2021-11-30 内蒙古工业大学 一种基于OpenStack的高校高可用微型数据中心构建方法
CN113973053A (zh) * 2021-10-21 2022-01-25 南京赛宁信息技术有限公司 一种网络靶场的探针管理系统与方法
CN114501501A (zh) * 2022-02-09 2022-05-13 北京恒安嘉新安全技术有限公司 移动通信网络靶场的配置管理方法、装置、设备及介质
CN114510324A (zh) * 2022-04-20 2022-05-17 银河麒麟软件(长沙)有限公司 一种挂载有ceph卷的KVM虚拟机的磁盘管理方法及系统
CN114640597A (zh) * 2022-02-24 2022-06-17 烽台科技(北京)有限公司 网络靶场配置迁移方法、装置、计算机设备及介质
CN115001959A (zh) * 2022-08-08 2022-09-02 南京赛宁信息技术有限公司 一种网络靶场网络设备初始化方法与系统
CN115426322A (zh) * 2022-08-23 2022-12-02 绿盟科技集团股份有限公司 一种虚拟存储的方法及装置
WO2024017274A1 (zh) * 2022-07-22 2024-01-25 中电信数智科技有限公司 一种虚拟机克隆方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050228835A1 (en) * 2004-04-12 2005-10-13 Guillermo Roa System and method for supporting block-based protocols on a virtual storage appliance executing within a physical storage appliance
CN106095527A (zh) * 2016-06-07 2016-11-09 国云科技股份有限公司 一种适用于云平台虚拟机的存储池实现方法
CN106993064A (zh) * 2017-06-03 2017-07-28 山东大学 一种基于Openstack云平台实现海量数据可伸缩性存储的系统及其构建方法与应用
CN107197022A (zh) * 2017-06-02 2017-09-22 华南理工大学 OpenStack存储优化方法及系统
WO2017166785A1 (zh) * 2016-04-01 2017-10-05 华为技术有限公司 一种部署虚拟机的方法、宿主机及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050228835A1 (en) * 2004-04-12 2005-10-13 Guillermo Roa System and method for supporting block-based protocols on a virtual storage appliance executing within a physical storage appliance
WO2017166785A1 (zh) * 2016-04-01 2017-10-05 华为技术有限公司 一种部署虚拟机的方法、宿主机及系统
CN106095527A (zh) * 2016-06-07 2016-11-09 国云科技股份有限公司 一种适用于云平台虚拟机的存储池实现方法
CN107197022A (zh) * 2017-06-02 2017-09-22 华南理工大学 OpenStack存储优化方法及系统
CN106993064A (zh) * 2017-06-03 2017-07-28 山东大学 一种基于Openstack云平台实现海量数据可伸缩性存储的系统及其构建方法与应用

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111338751A (zh) * 2020-02-13 2020-06-26 山东汇贸电子口岸有限公司 同ceph集群中数据跨pool迁移方法及装置
CN111367475A (zh) * 2020-03-10 2020-07-03 山东汇贸电子口岸有限公司 一种基于helm部署cinder下对接G2存储的自动配置方法
CN111367475B (zh) * 2020-03-10 2023-05-09 山东省电子口岸有限公司 一种基于helm部署cinder下对接G2存储的自动配置方法
CN111427666A (zh) * 2020-04-01 2020-07-17 山东汇贸电子口岸有限公司 一种OpenStack环境下虚拟机镜像快速导入方法及系统
CN111427666B (zh) * 2020-04-01 2022-04-12 浪潮云信息技术股份公司 一种OpenStack环境下虚拟机镜像快速导入方法及系统
CN111654410A (zh) * 2020-04-28 2020-09-11 长沙证通云计算有限公司 网关请求监控方法、装置、设备及介质
CN111600953B (zh) * 2020-05-18 2021-01-08 广州锦行网络科技有限公司 基于蜜罐系统实现分布式部署的方法
CN111600953A (zh) * 2020-05-18 2020-08-28 广州锦行网络科技有限公司 基于蜜罐系统实现分布式部署的方法
CN111638855A (zh) * 2020-06-03 2020-09-08 山东汇贸电子口岸有限公司 一种物理裸机支持Ceph后端卷的方法
CN111478820B (zh) * 2020-06-24 2020-10-09 南京赛宁信息技术有限公司 网络靶场大规模网络环境的网络设备配置系统与方法
CN111478820A (zh) * 2020-06-24 2020-07-31 南京赛宁信息技术有限公司 网络靶场大规模网络环境的网络设备配置系统与方法
CN111736955A (zh) * 2020-06-29 2020-10-02 苏州浪潮智能科技有限公司 一种数据存储方法、装置、设备及可读存储介质
CN111736955B (zh) * 2020-06-29 2023-01-10 苏州浪潮智能科技有限公司 一种数据存储方法、装置、设备及可读存储介质
CN111914229A (zh) * 2020-07-15 2020-11-10 中国民航信息网络股份有限公司 一种身份验证方法、装置、电子设备及存储介质
CN112463170A (zh) * 2020-10-29 2021-03-09 苏州浪潮智能科技有限公司 云平台上制作镜像的方法、装置、设备及存储介质
CN112463170B (zh) * 2020-10-29 2022-08-23 苏州浪潮智能科技有限公司 云平台上制作镜像的方法、装置、设备及存储介质
CN112328571A (zh) * 2020-11-25 2021-02-05 创新奇智(重庆)科技有限公司 对象存储方法、装置及通信设备、存储介质
CN112711469A (zh) * 2020-12-29 2021-04-27 武汉联影医疗科技有限公司 云主机迁移方法、装置、计算机设备和存储介质
CN113326598A (zh) * 2021-06-30 2021-08-31 北京计算机技术及应用研究所 一种物联网靶场设计方法
CN113268206A (zh) * 2021-07-19 2021-08-17 南京赛宁信息技术有限公司 一种网络靶场资源热插拔实现方法与系统
CN113726899A (zh) * 2021-09-01 2021-11-30 内蒙古工业大学 一种基于OpenStack的高校高可用微型数据中心构建方法
CN113726899B (zh) * 2021-09-01 2022-10-04 内蒙古工业大学 一种基于OpenStack的高校高可用微型数据中心构建方法
CN113973053B (zh) * 2021-10-21 2023-10-27 南京赛宁信息技术有限公司 一种网络靶场的探针管理系统与方法
CN113973053A (zh) * 2021-10-21 2022-01-25 南京赛宁信息技术有限公司 一种网络靶场的探针管理系统与方法
CN114501501B (zh) * 2022-02-09 2024-03-29 北京恒安嘉新安全技术有限公司 移动通信网络靶场的配置管理方法、装置、设备及介质
CN114501501A (zh) * 2022-02-09 2022-05-13 北京恒安嘉新安全技术有限公司 移动通信网络靶场的配置管理方法、装置、设备及介质
CN114640597A (zh) * 2022-02-24 2022-06-17 烽台科技(北京)有限公司 网络靶场配置迁移方法、装置、计算机设备及介质
CN114640597B (zh) * 2022-02-24 2023-08-15 烽台科技(北京)有限公司 网络靶场配置迁移方法、装置、计算机设备及介质
CN114510324B (zh) * 2022-04-20 2022-07-22 银河麒麟软件(长沙)有限公司 一种挂载有ceph卷的KVM虚拟机的磁盘管理方法及系统
CN114510324A (zh) * 2022-04-20 2022-05-17 银河麒麟软件(长沙)有限公司 一种挂载有ceph卷的KVM虚拟机的磁盘管理方法及系统
WO2024017274A1 (zh) * 2022-07-22 2024-01-25 中电信数智科技有限公司 一种虚拟机克隆方法、装置及存储介质
CN115001959A (zh) * 2022-08-08 2022-09-02 南京赛宁信息技术有限公司 一种网络靶场网络设备初始化方法与系统
CN115426322B (zh) * 2022-08-23 2023-09-19 绿盟科技集团股份有限公司 一种虚拟存储的方法及装置
CN115426322A (zh) * 2022-08-23 2022-12-02 绿盟科技集团股份有限公司 一种虚拟存储的方法及装置

Also Published As

Publication number Publication date
CN110750334B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN110750334A (zh) 一种基于Ceph的网络靶场后端存储系统设计方法
US11973643B2 (en) Distributed data storage techniques for edge devices
US11469964B2 (en) Extension resource groups of provider network services
JP6498230B2 (ja) フレキシブルなhdd/ssdストレージサポートのシステムおよび方法
US9258262B2 (en) Mailbox-based communications system for management communications spanning multiple data centers and firewalls
EP1908261B1 (en) Client failure fencing mechanism for fencing network file system data in a host-cluster environment
JP4311637B2 (ja) 記憶制御装置
CN109981367B (zh) 基于内网穿透的虚机paas服务管理的方法
CN102223409B (zh) 一种网络存储资源应用系统及方法
US20200159555A1 (en) Provider network service extensions
CN114629921B (zh) 云平台及其提供的对象存储服务的桶管理方法
JP2008217281A (ja) ストレージ利用排他方式
EP3407571A1 (en) Method for providing network-based services to user of network storage server, associated network storage server and associated storage system
CN107493204B (zh) 一种镜像检测的方法以及装置
US10735514B2 (en) Remote application configuration on network-attached storage
CN107294959B (zh) 内外网通信的方法、装置及系统
WO2019056688A1 (zh) 云服务平台区域资源扩展方法、装置、设备及存储介质
EP3884648B1 (en) Geo-replicated iot hub
US20200329012A1 (en) System and method for dedicated storage, through a secure internet connection, in a remote location
US20240036988A1 (en) Disaster recovery pipeline for block storage and dependent applications
US11700556B2 (en) Cell-based backup for recovering from system failures in a multi-tenant computing system
US20080104239A1 (en) Method and system of managing accounts by a network server
US20240054052A1 (en) Failover recovery techniques for multi cloud recovery
US11972300B2 (en) Techniques for managing edge device provisioning
WO2023149887A1 (en) Configuring a quorum component on network storage

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant