CN112667293B - 一种部署操作系统的方法、装置及存储介质 - Google Patents

一种部署操作系统的方法、装置及存储介质 Download PDF

Info

Publication number
CN112667293B
CN112667293B CN201910985336.0A CN201910985336A CN112667293B CN 112667293 B CN112667293 B CN 112667293B CN 201910985336 A CN201910985336 A CN 201910985336A CN 112667293 B CN112667293 B CN 112667293B
Authority
CN
China
Prior art keywords
edge computing
computing node
message
packet
port
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910985336.0A
Other languages
English (en)
Other versions
CN112667293A (zh
Inventor
赵�怡
徐京京
陆尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Suzhou Software Technology Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Suzhou Software Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Suzhou Software Technology Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201910985336.0A priority Critical patent/CN112667293B/zh
Publication of CN112667293A publication Critical patent/CN112667293A/zh
Application granted granted Critical
Publication of CN112667293B publication Critical patent/CN112667293B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本申请公开了一种部署操作系统的方法,包括:服务器生成自生系统镜像,服务器通过部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器、配置第一OpenFlow软交换机流表,以及预启动执行环境PXE部署边缘计算节点;第一边缘计算节点加载服务器的自生系统镜像,第一边缘计算节点基于自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统;所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署第一边缘计算节点的操作系统。本申请还公开了一种部署操作系统的装置及存储介质;通过本申请实施例,使得在边缘计算节点分布比较分散的边缘计算环境中,无需在服务器或交换机上部署中继代理,服务器可以远程部署边缘计算节点的操作系统。

Description

一种部署操作系统的方法、装置及存储介质
技术领域
本申请涉及通信技术领域,尤其涉及一种部署操作系统的方法、装置及存储介质。
背景技术
相关技术中,服务器通过预启动执行环境(Preboot Execute Environment,PXE)远程部署边缘计算节点的操作系统,需要单独部署一个跳板机,实现二层网络和三层网络的报文转发处理,进而完成服务器远程部署边缘计算节点的操作系统。在边缘计算环境中没有单独的中继代理的情况下,服务器无法实现远程部署边缘计算节点的操作系统。
发明内容
本申请实施例提供一种部署操作系统的方法、装置及存储介质,使得在边缘计算环境没有单独中继代理的情况下,服务器仍然可以远程部署边缘环境中边缘计算节点的操作系统。
一方面,本申请实施例提供一种部署操作系统的方法,所述方法包括:
服务器生成自生系统镜像,所述自生系统镜像用于在边缘计算节点上加载;
所述服务器通过部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器、以及配置第一OpenFlow软交换机流表,预启动执行环境PXE部署边缘计算节点。
上述方案中,所述服务器生成自生系统镜像包括下述中的至少一项:
所述服务器在所述自生系统镜像中写入OpenFlow控制器程序;
所述服务器在所述自生系统镜像中写入OpenFlow虚拟软件交换机程序;
所述服务器在所述自生系统镜像中写入黄色狗更新程序YUM软件包源和初始安装镜像;
其中,所述YUM软件包源和所述初始安装镜像用于边缘计算节点基于PXE部署操作系统。
上述方案中,所述配置第一OpenFlow软交换机流表包括:
在所述服务器的第一网桥上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;所述第一网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;
所述第一管理网络IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
上述方案中,所述第一OpenFlow软交换机流表包括:
所述服务器的第一端口接收的vxlan报文对应的隧道身份标识ID与连接服务器与第一边缘计算节点的隧道ID一致的情况下,所述服务器剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至所述服务器的控制器;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述第一OpenFlow软交换机流表包括:
所述服务器的控制器接收的packet_in报文为DHCP请求报文的情况下,所述服务器的控制器为发送所述DHCP请求报文的所述边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,并通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述第一OpenFlow软交换机流表包括:
所述服务器的控制器接收的packet_in报文为简单文件传输协议TFTP请求报文,且所述TFTP请求报文请求快速启动kickstart配置文件以外的其他文件的情况下,所述服务器的控制器将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述第一OpenFlow软交换机流表包括:
所述服务器的控制器接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,所述服务器的控制器在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述自生系统镜像包括:第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表用于所述边缘计算节点中的第一边缘计算节点处理报文。
另一方面,本申请实施例提供一种部署操作系统的方法,所述方法包括:
第一边缘计算节点加载服务器的自生系统镜像;
所述第一边缘计算节点基于所述自生系统镜像和预启动执行环境PXE,部署至少一个第二边缘计算节点的操作系统;
所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署所述第一边缘计算节点的操作系统;
所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的边缘计算节点;所述第一边缘计算节点和所述第二边缘计算节点均为同一个边缘计算环境的边缘计算节点。
上述方案中,所述自生系统镜像包括第二开放流OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,所述第一边缘计算节点为连接所述服务器与所述第一边缘计算节点的隧道分配隧道身份标识ID,并将所述隧道ID发送至第四端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接所述服务器与所述第一边缘计算节点的隧道ID一致的情况下,所述第一边缘计算节点剥除所述vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议UDP,且所述报文对应的端口号为第一端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述报文至所述第一边缘计算节点的控制器;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于所述第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第五端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于所述第三网桥上,与第二网桥连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议TCP,且所述报文对应的端口号为第四端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述报文至所述第一边缘计算节点的控制器;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的控制器接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第一边缘计算节点的控制器通过packet_out报文发送所述DHCP报文,并通过第五端口发出;
或者,所述第一边缘计算节点的控制器接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文不包含第一关键字段的情况下,所述第一边缘计算节点的控制器丢弃所述DHCP报文;
所述第五端口为位于所述第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的控制器接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第三端口号的HTTP报文的情况;
所述第一边缘计算节点的控制器的HTTP服务器找到所述DHCP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述方法还包括:
所述第一边缘计算节点建立第二网桥和第三网桥;
所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输PXE的动态主机设置DHCP报文;
所述PXE用于部署边缘计算节点的操作系统。
上述方案中,所述方法还包括:
所述第一边缘计算节点根据自生系统中写入的OpenFlow虚拟软件交换机程序,安装所述第一边缘计算节点的虚拟软件交换机;
和/或,所述第一边缘计算节点根据自生系统中写入的OpenFlow控制器程序安装所述第一边缘计算节点的控制器。
上述方案中,所述第一边缘计算节点基于所述自生系统镜像和预启动执行环境PXE,部署至少一个第二边缘计算节点的操作系统包括:
所述第一边缘计算节点接收所述第二边缘计算节点发送的请求报文;
所述第一边缘计算节点基于所述请求报文,向所述第二边缘计算节点发送配置文件,所述配置文件用于所述第二边缘计算节点部署操作系统。
上述方案中,所述DHCP信息包括下述中的至少一项:
所述第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
第三方面,本申请实施例还提供一种部署操作系统的装置,包括:
生成单元,用于服务器生成自生系统镜像,所述自生系统镜像用于在边缘计算节点上加载;
第一部署单元,用于服务器部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器;用于通过预启动执行环境PXE部署边缘计算节点的操作系统;
配置单元,用于服务器配置第一OpenFlow软交换机流表。
上述方案中,所述生成单元用于执行下述至少一种操作:
在所述自生系统镜像中写入OpenFlow控制器程序;
在所述自生系统镜像中写入OpenFlow虚拟软件交换机程序;
在所述自生系统镜像中写入黄色狗更新程序YUM软件包源和初始安装镜像;
其中,所述YUM软件包源和所述初始安装镜像用于边缘计算节点基于PXE部署操作系统。
上述方案中,所述配置单元,
用于在所述服务器的第一网桥上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;转发跨网段管理网络虚拟可扩展局域网vxlan报文;
所述第一管理网络IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
上述方案中,所述配置单元:
用于在所述服务器的第一端口接收的vxlan报文对应的隧道身份标识ID与连接服务器与第一边缘计算节点的隧道ID一致的情况下,剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至第一控制单元;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述装置还包括:
第一控制单元,用于在所述第一控制单元接收的packet_in报文为DHCP请求报文的情况下,为发送所述DHCP请求报文的边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,并通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述装置还包括:
第二控制单元,用于在所述第二控制单元接收的packet_in报文为简单文件传输协议TFTP请求报文,且所述TFTP请求报文请求快速启动kickstart配置文件以外的其他文件的情况下,将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述装置还包括:
第三控制单元,用于在所述第三控制单元接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
上述方案中,所述生成单元,还用于在所述自生系统镜像中写入第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表用于所述边缘计算节点中的第一边缘计算节点处理报文。
第四方面,本申请实施例提供一种部署操作系统的装置,包括:
加载单元,用于第一边缘计算节点加载服务器的自生系统镜像;
部署单元,用于所述第一边缘计算节点基于所述自生系统镜像和预启动执行环境PXE,部署至少一个第二边缘计算节点的操作系统;用于所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署所述第一边缘计算节点的操作系统;
所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的边缘计算节点;所述第一边缘计算节点和所述第二边缘计算节点均为同一个边缘计算环境的边缘计算节点。
上述方案中,所述装置还包括:
第一信息处理单元,用于在所述第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,为连接所述服务器与所述第一边缘计算节点的隧道分配隧道身份标识ID,并将所述隧道ID发送至第四端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
上述方案中,所述装置还包括:
第二信息处理单元,用于在所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接所述服务器与所述第一边缘计算节点的隧道ID一致的情况下,剥除所述vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
上述方案中,所述装置还包括:
第三信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议UDP,且所述报文对应的端口号为第一端口号的情况下,通过packet_in报文发送所述报文至第四控制单元;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述装置还包括:
第四信息处理单元,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,将所述报文发送至第三端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于所述第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述装置还包括:
第五信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第五端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于所述第三网桥上,与第二网桥连接的虚拟端口。
上述方案中,所述装置还包括:
第六信息处理单元,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第三端口;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述装置还包括:
第七信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议TCP,且所述报文对应的端口号为第四端口号的情况下,通过packet_in报文发送所述报文至第五控制单元;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述装置还包括:
第四控制单元,用于在所述第二控制单元接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第四控制单元通过packet_out报文发送所述DHCP报文,并通过第五端口发出;
或者,在所述第四控制单元接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文不包含第一关键字段的情况下,所述第四控制单元丢弃所述DHCP报文;
所述第五端口为位于所述第三网桥上,与所述第二网桥连接的虚拟端口。
上述方案中,所述装置还包括:
第五控制单元,用于在所述第五控制单元接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第三端口号的HTTP报文的情况下,将所述packet_in报文发送至HTTP服务单元;
HTTP服务单元,用于找到所述DHCP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
上述方案中,所述装置还包括:
第八信息处理单元,用于建立第二网桥和第三网桥;
所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输PXE的动态主机设置DHCP报文;
所述PXE用于部署边缘计算节点的操作系统。
上述方案中,所述装置还包括:
安装单元,用于根据自生系统中写入的OpenFlow虚拟软件交换机程序,安装所述第一边缘计算节点的虚拟软件交换机;
和/或,所述第一边缘计算节点根据自生系统中写入的OpenFlow控制器程序安装所述第一边缘计算节点的控制器。
上述方案中,所述装置还包括:
第一接收单元,用于所述第一边缘计算节点接收所述第二边缘计算节点发送的请求报文;所述第一边缘计算节点基于所述请求报文,向所述第二边缘计算节点发送配置文件,所述配置文件用于所述第二边缘计算节点部署操作系统。
上述方案中,所述装置还包括:
第二接收单元,用于所述第一边缘计算节点接收其中一个第二边缘计算节点发出的DHCP信息;
所述第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
本申请实施例还提供一种部署操作系统的装置,包括存储器、处理器及存储在存储器上并能够由所述处理器运行的可执行程序,所述处理器运行所述可执行程序时实现所述部署操作系统的方法的步骤。
本申请实施例提供一种部署操作系统的方法、装置及存储介质,通过服务器生成自生系统镜像,服务器通过部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器、配置第一OpenFlow软交换机流表,以及PXE部署边缘计算节点的操作系统;第一边缘计算节点加载服务器的自生系统镜像,第一边缘计算节点基于自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统;所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署第一边缘计算节点的操作系统。如此,使得在多个边缘计算节点分布比较分散的边缘计算环境中,不需要在服务器或交换机上部署中继代理,以中继代理作为跳板机来部署各边缘计算节点的操作系统,而是利用边缘计算环境中的第一边缘计算节点作为基于自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统;在所有第二边缘计算节点的操作系统部署完成后,再选择任意一个第二边缘计算节点来部署第一边缘计算节点的操作系统,完成边缘计算环境中所有边缘计算节点的操作系统部署;无需跳板机便实现了二层以上的网络环境中,边缘计算节点的自动部署。
附图说明
图1为本申请实施例提供的部署操作系统的服务器端的可选流程示意图;
图2为本申请实施例提供的服务器生成自生系统镜像的可选流程示意图;
图3为本申请实施例提供的服务器配置第一OpenFlow软交换机流表的可选流程示意图;
图4为本申请实施例提供的服务器配置前置条件的可选流程示意图;
图5为本申请实施例提供的部署操作系统的边缘计算节点端的可选流程示意图
图6为本申请实施例提供的第一边缘计算节点加载服务器的Live CD镜像的可选流程示意图;
图7为本申请实施例提供的第一边缘计算节点的Live CD镜像内配置第二OpenFlow软交换机流表的可选流程示意图;
图8为本申请实施例提供的第二边缘计算节点部署第一边缘计算节点的可选流程示意图;
图9为本申请实施例提供的边缘计算节点配置前置条件的可选流程示意图;
图10为本申请实施例提供的部署操作系统的可选流程示意图;
图11为本申请实施例提供的部署操作系统的服务器装置的结构示意图一;
图12为本申请实施例提供的部署操作系统的服务器装置的结构示意图二;
图13为本申请实施例提供的部署操作系统的第一边缘计算节点装置的结构示意图一;
图14为本申请实施例提供的部署操作系统的第一边缘计算节点装置的结构示意图二;
图15为本申请实施例提供的部署操作系统的服务器与边缘计算环境中边缘计算节点连接的可选结构示意图。
具体实施方式
以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
对本发明进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。
1)云计算(Cloud Computing),是一种基于互联网的计算方式,通过云计算,可以按照计算机和其他设备的需求向计算机和其他设备提供共享的软件资源、硬件资源和信息。
2)边缘计算(Edge Computing),是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。边缘计算的应用程序在边缘侧发起,产生更快的网络服务响应,满足行业在实时业务、应用智能、安全与隐私保护等方面的基本需求。边缘计算和云计算是互补的关系,可解决云计算面临的网络高延迟、无法应对大连接、应用低可靠等问题。
3)预启动执行环境(Preboot Execute Environment,PXE)是工作于客户机和服务器结构(Client/Server,C/S)的网络模式,支持客户机通过网络从远端服务器下载映像,进而支持服务器通过网络启动客户机的操作系统。在启动客户机的操作系统的过程中,客户机要求服务器分配网络协议(Internet Protocol,IP)地址,再通过简单文件传输协议(Trivial File Transfer Protocol,TFTP)和多点简单文件传输协议(Multicast TrivialFile Transfer Protocol,MTFTP)下载一个启动软件包到客户机内存中执行,由所述启动软件包完成客户机的基本软件设置,从而引导预先安装在远端服务器中的终端操作系统进行安装。PXE可以引导多种操作系统,如:Windows95、Windows98、Windows2000、Windows2003、Windows2008、WindowsXP、Windows7、Windows8及Linux等系统。
4)开放流(OpenFlow)属于软件定义网络(Software Defined Network,SDN)概念中的一种协议,用于将交换机上的报文转发功能和报文转发策略分离开。通常会使用一台控制器(controller)来管理报文转发策略,使同在一台交换机设备上的报文转发功能(硬件芯片实现)和报文转发策略(各种软件协议)被分开到了不同的硬件设备上,其中报文转发功能仍然在交换机上完成,而报文转发策略被转移到了控制器上实现。一台控制器可以控制多台OpenFlow交换机,从而实现了统一的转发面管理,能更有效地控制网络。
边缘计算可视为一种分布式的云计算,不同于一般云计算部署在集中式数据中心机房中,边缘计算节点的特点是节点极其多,在地理上分布极为分散,一般部署在市、县以下的汇聚或接入机房,甚至是用户所在园区、工厂的机房中。由于边缘计算的节点极多且在地理上分布分散,远程部署边缘计算节点操作系统变得非常必要。
部署边缘计算节点的操作系统的一种可选方式是:部署环境中包括主控节点和与主控节点通过网络连接的多个云节点,所述主控节点和所述云节点均为服务器。部署时,服务器首先准备好部署环境,然后选择一台服务器作为主控节点,利用制作好的通用串行总线闪存盘(Universal Serial Bus flash disk,U盘),接入到所述主控节点中,所述主控节点从U盘启动,自动安装系统;接着在主控节点,修改部署文件,执行自动部署程序;主控节点安装后,选择需要加入云计算环境中的服务器作为云节点,并以PXE方式启动云节点,最后自动部署云节点。
部署边缘计算节点的操作系统的另一种可选方式是:将分布式云计算系统自动安装到远程的机房中;指定分布式云计算系统中,各组件需要的节点个数;计算好需要的总节点数,远程将分布式云计算系统需要的操作系统安装好;根据配置好的节点数,将各个组件安装好;将组件的配置配置好,安装完毕。
部署边缘计算节点的操作系统的第三种可选方式是:首先,在主控端根据特定的智能平台管理接口(Intelligent Platform Management Interface,IPMI)服务端口扫描IP地址,然后通过动态主机设置协议(Dynamic Host Configuration Protocol,DHCP)服务为扫描出来的客户端分配PXE客户端地址,并在PXE服务端设置上传镜像;通过IPMI协议设置目标节点为PXE启动,并且重启目标节点;目标节点重启后开始执行PXE客户端程序,并通过TFTP协议从主控端远程下载系统镜像;镜像下载完成后,客户端开始自动安装操作系统;最后,主控端检查所有节点是否安装完成,通过远程获取操作系统上输出的IPMI地址来确认是否安装成功。
部署边缘计算节点的操作系统的第四种可选方式是:服务端服务器配置操作系统部署任务,并将操作系统部署任务下发给多个代理端服务器;将任一代理端服务器设为第一缓存服务器,并为第一缓存服务器配置DHCP;由第一缓存服务器基于操作系统部署任务为剩余代理端服务器部署操作系统;将任一剩余代理端服务器设为第二缓存服务器同时配置DHCP,由第二缓存服务器为第一代理端服务器部署操作系统。
现有的通过PXE部署边缘计算节点的操作系统的方法,一般只支持在本地二层网络内进行部署,原因是服务器启动时PXE会通过发送DHCP广播报文来向DHCP服务器请求IP地址,然后通过三层网络来进行后续部署。而根据以太网规范,DHCP广播报文只能在同一个二层网络内进行广播,并不能跨网络转发。目前常见的解决方法是在该二层网络内的单独服务器(即跳板机)或者交换机上部署和开启DHCP中继(DHCP-Relay)代理,通过该中继将DHCP广播报文转换成单播报文并转发到其他二、三层网络中。否则,部署人员只能到现场接入部署工具进行操作系统部署,不能够远程部署。
针对目前PXE部署边缘计算节点的操作系统方法中存在的问题,本申请提出一种部署操作系统的方法,能够解决现有技术方案中无法解决的技术难题和缺点。
图1示出了本申请实施例提供的部署操作系统的服务器端的可选流程示意图一,将根据各个步骤进行说明。
步骤S101,服务器生成自生系统镜像。
服务器对自生系统(Live CD)镜像进行定制化。其中,所述服务器为相对于边缘计算节点的远端服务器;所述Live CD镜像是一种能够直接引导并使用的操作系统镜像,无需安装操作系统,就可以直接启动并在边缘计算节点的内存中运行的操作系统。
在一些实施例中,所述Live CD镜像为CentOS7,所述操作系统为Linux系统。
在一些实施例中,所述服务器生成Live CD镜像是指服务器对Live CD镜像进行定制化。服务器生成Live CD镜像的可选流程示意图,如图2所示,包括步骤S201至步骤S204。
步骤S201,服务器在所述Live CD镜像中写入开放流(OpenFlow)控制器程序。
在一些实施例中,服务器将OpenFlow控制器程序复制或烧录到Live CD镜像中。所述OpenFlow控制器程序用于边缘计算节点中第一边缘计算节点安装OpenFlow控制器,所述OpenFlow控制器用于第一边缘计算节点在第二边缘计算节点部署操作系统过程中处理OpenFlow控制器接收的packet_in报文,并根据packet_in报文的内容发出相应的packet_out报文。所述第二边缘计算节点为边缘计算环境中,除第一边缘计算节点以外的所述边缘计算环境中所有边缘计算节点,所述第一边缘计算节点和所述第二边缘计算节点属于同一个边缘计算环境。所述OpenFlow控制器的具体行为将在后续进行详细介绍。
步骤S202,服务器在所述Live CD镜像中写入OpenFlow虚拟软件交换机程序。
在一些实施例中,服务器将OpenFlow虚拟软件交换机程序复制或烧录到Live CD镜像中。所述OpenFlow虚拟软件交换机程序用于边缘计算节点中第一边缘计算节点安装OpenFlow虚拟软件交换机,所述OpenFlow虚拟软件交换机用于边缘计算节点之间、边缘计算节点与服务器之间的通信或文件传输;例如,第一边缘计算节点与第二边缘计算节点之间的通信或文件传输,第一边缘计算节点与服务器之间的通信或文件传输。
在一些可选实施例中,所述OpenFlow虚拟软件交换机为Open vSwitch。
步骤S203,服务器在所述Live CD镜像中写入黄色狗更新程序(YellowdogUpdater Modified,YUM)软件包源和初始安装镜像。
在一些可选实施例中,服务器将YUM软件包源和初始安装镜像复制或烧录到LiveCD镜像中。所述YUM软件包源和初始安装镜像,为第一边缘计算节点在PXE流程中部署第二边缘计算节点的操作系统所需要的配置文件。所述YUM软件包源会通过第一边缘计算节点的OpenFlow控制器上的超文本传输协议(Hyper Text Transfer Protocol,HTTP)向第二边缘计算节点提供部署第二边缘计算节点的操作系统所需的本地YUM软件包源服务。所述初始安装镜像会通过第一边缘计算节点的OpenFlow控制器上的TFTP向第二边缘计算节点提供部署第二边缘计算节点的操作系统所需的初始安装镜像。
步骤S204,服务器在所述Live CD镜像中写入第二OpenFlow软交换机流表。
在一些实施例中,服务器将第二OpenFlow软交换机流表复制或烧录到Live CD镜像中。所述第二OpenFlow软交换机流表用于第一边缘计算节点处理报文。
在另一些实施例中,所述第一边缘计算节点处理报文包括:第一边缘计算节点接收服务器发送的vxlan报文,并根据所述vxlan报文以及第二OpenFlow软交换机流表处理所述vxlan报文;第一边缘计算节点接收第二边缘计算节点发送的DHCP报文,并根据所述DHCP报文以及第二OpenFlow软交换机流表处理所述DHCP报文。
步骤S102,服务器部署第一OpenFlow虚拟软件交换机和第一OpenFlow控制器。
在一些实施例中,服务器通过安装OpenFlow虚拟软件交换机软件部署第一OpenFlow虚拟软件交换机;服务器通过安装OpenFlow控制器软件部署第一OpenFlow控制器。
在另一些实施例中,所述服务器部署第一OpenFlow虚拟软件交换机和第一OpenFlow控制器之后,还包括:服务器在OpenFlow控制器内集成DHCP、TFTP、HTTP等应用服务。
所述第一OpenFlow虚拟软件交换机用于服务器与边缘计算节点通信或传输文件;所述第一OpenFlow控制器用于在边缘计算节点部署操作系统过程中处理第一OpenFlow控制器接收的packet_in报文,并根据packet_in报文的内容发出相应的packet_out报文。
S103,服务器配置第一OpenFlow软交换机流表。
在一些实施例中,所述第一软交换机流表用于服务器处理边缘计算节点发送至服务器的报文。
在一些实施例中,服务器配置第一OpenFlow软交换机流表的可选流程示意图,如图3所示,包括步骤S301至步骤S304,将根据各个步骤进行说明。
S301,服务器建立第一网桥。
在一些实施例中,所述第一网桥用于传输跨网段管理网络vxlan报文,即三层网络的报文。所述vxlan报文内会封装DHCP报文,即二层网络的DHCP报文被三层网络的vxlan报文封装后转发至服务器。
S302,服务器的第一网桥上配置第一管理网络网络协议(Internet Protocol,IP)地址以及第一边缘计算节点所在的网络IP地址。
在一些实施例中,服务器在第一网桥上配置第一管理网络IP地址,所述第一管理网络IP地址为服务器所在的网络IP地址。
S303,服务器配置第一OpenFlow软交换机流表。
在一些实施例中,服务器为第一网桥配置第一OpenFlow软交换机流表,所述第一网桥根据所述第一OpenFlow软交换机流表对接收的报文进行传输。
一种可选的第一OpenFlow软交换机流表包括:
所述服务器的第一端口接收的vxlan报文对应的隧道身份标识(Identifier,ID)与连接服务器和第一边缘计算节点的隧道ID一致的情况下,所述服务器剥除所述vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至所述服务器的控制器。
另一种可选的第一OpenFlow软交换机流标包括:
所述服务器的第一端口接收的报文为第二优先级的报文,所述服务器丢弃所有第二优先级的报文。
其中,所述第一端口为位于所述第一网桥上,与边缘计算节点连接的远端网络的端口;所述第二优先级为优先级1。
在一些实施例中,所述第一OpenFlow软交换机流表包括:所述服务器的第一端口接收的vxlan报文的流表为0、优先级为999,且对应的隧道ID与连接服务器和第一边缘计算节点的隧道ID一致的情况下,所述服务器剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至所述服务器的控制器。
在另一些实施例中,所述第一OpenFlow软交换机流表包括:所述服务器的第一端口接收的报文的流表为0,优先级为1,所述服务器丢弃所有报文。
S304,服务器配置第一OpenFlow软交换机流表。
在一些实施例中,服务器为所述服务器的控制器配置第一OpenFlow软交换机流表,所述服务器的控制器根据所述第一OpenFlow软交换机流表对接收的报文进行处理。
第一种可选的第一OpenFlow软交换机流表包括:所述服务器的控制器接收的packet_in报文为DHCP请求报文的情况下,所述服务器的控制器为发送所述DHCP请求报文的第二边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,并通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口。
其中,所述控制器接收的packet_in报文为第一网桥通过第一管理通道发送至服务器的控制器的报文。
在一些实施例中,所述第一OpenFlow软交换机流表为:所述packet_in报文为DHCP请求报文,所述服务器的控制器根据预先存储的网络IP地址分配表,为发出所述DHCP请求报文的第二边缘计算节点分配一个未经使用的IP,并根据PXE,对所述DHCP报文各字段以及DHCP选项(Opinion)的要求生成DHCP响应报文,通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口。
所述预先存储的网络IP地址分配表将在后文详细阐述。
第二种可选的第一OpenFlow软交换机流表包括:所述服务器的控制器接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求快速启动(kickstart)配置文件以外的其他文件的情况下,所述服务器的控制器将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
其中,所述kickstart配置文件以外的其他文件包括:初始安装镜像、系统引导配置文件或Linux内核文件中至少一项。
第三种可选的第一OpenFlow软交换机流表包括:所述服务器的控制器接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,所述服务器的控制器在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口。
其中,所述管理网络为第二边缘计算节点所在网络的管理网络;所述业务网络为边缘计算节点所在网络的业务网络。
在一些可选实施例中,所述第一OpenFlow软交换机流表为:所述服务器的控制器接收的packet_in报文是TFTP请求报文,且请求的是kickstart配置文件,则所述服务器的控制器根据packet_in报文内封装的发出所述TFTP请求报文的第二边缘计算节点的所在的网络的源IP地址,及服务器存储的事先规划的网络IP地址分配方法,为发出所述TFTP请求报文的第二边缘计算节点的网络分配对应的网络IP地址和网络网关。在kickstart配置文件中写入服务器所在网络的IP地址、服务器所在网络的网关、为第二边缘计算节点所在的网络分配的IP地址及网关,并将所述kickstart配置文件发送至所述边缘计算节点。
如此,第二边缘计算节点在操作系统部署完成后,就有了静态IP地址,无需再通过DHCP报文向服务器请求IP地址,后续服务器也可以直接通过管理网络访问第二边缘计算节点。
如此,通过上述步骤S301至步骤S304,服务器可以根据第二边缘计算节点通过第一边缘计算节点发送到服务器的请求报文,为第二边缘计算节点分配网络IP地址及网关;服务器还可以根据第二边缘计算节点通过第一边缘计算节点发送到服务器的请求报文,向第二边缘计算节点发送第二边缘计算节点部署操作系统需要的配置文件,辅助第二边缘计算节点部署操作系统。
步骤S104,服务器通过PXE部署边缘计算节点的操作系统。
在一些实施例中,所述服务器通过步骤S102部署的第一OpenFlow虚拟软件交换机和第一OpenFlow控制器,以及步骤S103配置的OpenFlow软交换机流表,部署边缘计算节点的操作系统。
在一些可选实施例中,所述步骤S101之前,还包括步骤S100。
步骤S100,服务器配置前置条件。
在一些实施例中,所述前置条件是本申请实施例能够实现服务器部署边缘计算节点的操作系统的前提,服务器配置前置条件的可选流程示意图,如图4所示,包括步骤S401至步骤S403,将根据各个步骤进行说明。
步骤S401,服务器的控制器存储网络IP地址分配表。
在一些实施例中,所述网络IP地址分配表为,服务器预先根据边缘计算节点的PXE网络IP地址、PXE网络网关、管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关中至少一项规划的网络IP地址分配表。所述服务器规划完成网络IP地址分配表后,将所述网络IP地址分配表发送至所述服务器的控制器,所述服务器的控制器接收网络IP地址分配表并存储。
所述网络IP地址分配表用于,根据边缘计算节点的源IP地址为所述边缘计算节点分配对应的网络IP地址和/或网络网关。
在一些可选实施例中,所述服务器的控制器接收TFTP请求报文,所述控制器根据发出所述TFTP请求报文的边缘计算节点的源IP地址及网络IP地址分配表,为所述边缘计算节点分配对应的网络IP地址和/或网络网关。
步骤S402,服务器的控制器存储部署边缘计算节点的操作系统所需的配置文件。
在一些实施例中,服务器的控制器预先存储部署边缘计算节点的操作系统所需的配置文件,在第二边缘计算节点部署操作系统的过程中,根据第二边缘计算节点通过第一边缘计算节点转发至所述服务器的控制器的请求报文,所述服务器的控制器将相应的配置文件发送至所述第二边缘计算节点。
在一些实施例中,所述配置文件包括:初始安装镜像、系统引导配置、kickstart配置文件模板或Linux内核中至少一个。
所述配置文件用于部署第二边缘计算节点的操作系统。
步骤S403,服务器配置服务器的IPMI管理地址、IPMI用户名及IPMI密码。
在一些实施例中,所述服务器的IPMI管理地址、IPMI用户名及IPMI密码用于服务器通过IPMI向第一边缘计算节点加载Live CD系统镜像。
如此,服务器可以在第二边缘计算节点部署操作系统的过程中,为边缘计算节点分配网络IP地址及网络网关,并且,根据第二边缘计算节点的请求报文,向第二边缘计算节点发送相关配置文件,辅助第二边缘计算节点部署操作系统。
图5示出了本申请实施例提供的部署操作系统的边缘计算节点端的可选流程示意图一,将根据各个步骤进行说明。
步骤S501,第一边缘计算节点加载服务器的自生系统镜像。
在一些实施例中,所述Live CD镜像用于部署第二边缘计算节点的操作系统,图6示出了第一边缘计算节点加载服务器的Live CD镜像的可选流程示意图,将根据各个步骤进行说明。
步骤S601,第一边缘计算节点加载服务器的Live CD镜像。
在一些实施例中,所述Live CD镜像包括:基于OpenFlow的虚拟软件交换机软件、基于OpenFlow控制器软件、第二边缘计算节点部署操作系统所需的YUM软件包源、第二边缘计算节点部署操作系统所需的初始安装镜像或第二OpenFlow软交换机流表中至少一项。
在另一些实施例中,所述第一边缘计算节点,通过IPMI加载服务器的Live CD镜像。
步骤S602,第一边缘计算节点加载Live CD镜像中配置的管理网络IP地址和相关路由信息。
在一些实施例中,所述管理网络IP地址为服务器所在网络的管理网络IP地址,用于第一边缘计算节点与服务器通信或文件传输。
在另一些实施例中,所述相关路由信息为边缘计算节点之间通信或文件传输的路由信息,以及边缘计算节点与服务器之间通信或传输文件的路由信息;例如,第一边缘计算节点与第二边缘计算节点之间的通信或文件传输的路由信息,第一边缘计算节点与服务器之间的通信或文件传输的路由信息。
在再一些实施例中,第一边缘计算节点根据相关路由信息与第二边缘计算节点进行通信或文件传输;第一边缘计算节点根据相关路由信息和/或管理网络IP地址与服务器进行通信或文件传输。
步骤S603,第一边缘计算节点安装OpenFlow虚拟软件交换机程序和OpenFlow控制器程序。
在一些实施例中,第一边缘计算节点根据Live CD镜像中写入的OpenFlow虚拟软件交换机程序,安装第一边缘计算节点的虚拟软件交换机,和/或第一控制节点根据LiveCD镜像中写入的OpenFlow控制器程序安装第一边缘计算节点的控制器。
步骤S604,第一边缘计算节点的Live CD镜像内配置第二OpenFlow软交换机流表。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点向第一边缘计算节点发送的请求报文。所述第一边缘计算节点根据接收到的请求报文及第二OpenFlow软交换机流表,向所述第二边缘计算节点发送所述请求报文请求的文件。
图7示出了第一边缘计算节点的Live CD镜像内配置第二OpenFlow软交换机流表的可选流程示意图,包括步骤S701至步骤S704,将根据各个步骤进行说明。
步骤S701,第一边缘计算节点建立第二网桥和第三网桥。
在一些实施例中,所述第二网桥用于传输跨网段管理网络vxlan报文;所述第三网桥用于传输边缘计算节点之间的DHCP报文。
在另一些实施例中,所述第二网桥和第三网桥通过Linux的虚拟网络设备vethpair或ovs patch port打通。
步骤S702,第一边缘计算节点配置第二OpenFlow软交换机流表。
在一些实施例中,第一边缘计算节点为第二网桥配置第二OpenFlow软交换机流表,所述第二网桥根据所述第二OpenFlow软交换机流表的策略对接收的报文进行处理。
在另一些实施例中,所述第二网桥用于传输跨网段管理网络vxlan报文,所述vxlan报文内会封装DHCP报文。第二网桥上配置第一边缘计算节点所在的IP地址为管理网络IP地址,以及服务器所在网络的IP地址。
一般情况下,DHCP报文只能在同一个二层网络内进行广播,vxlan报文可以进行跨网段广播,因此,将DHCP报文封装在vxlan报文内,可以实现DHCP报文的跨网段广播。
第一种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,所述第一边缘计算节点为连接所述服务器与所述第一边缘计算节点的隧道分配隧道ID,并将隧道ID发送至第四端口。
其中,所述第二端口为位于第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于第二网桥上,与服务器连接的vxlan虚拟端口;所述第一优先级为999。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理服务器发送至第一边缘计算节点的报文。第一边缘计算节点的第二网桥的第二端口接收所述报文,根据第二OpenFlow软交换机流表,为连接所述第一边缘计算节点与服务器的隧道分配隧道ID,并将所述隧道ID通过第四端口发送至服务器。
在一些实施例中,所述第二OpenFlow软交换机流表为:所述第一边缘计算节点的第一网桥的第二端口接收到的报文的流表为0,优先级为999,所述第一边缘计算节点为连接服务器与第一边缘计算节点的隧道分配隧道ID,并将所述隧道ID发送至第四端口。
第二种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接服务器与边缘主计算节点的隧道ID一致时,所述第一边缘计算节点剥除所述vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理服务器向第一边缘计算节点发出的响应报文,所述第一边缘计算节点接收所述响应报文后,根据第二OpenFlow软交换机流表,对所述响应报文进行处理,发送至第二端口。
在另一些实施例中,所述第二OpenFlow软交换机流表为:所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的流表为0,优先级为第三优先级,且对应的隧道ID与连接服务器和第一边缘计算节点的隧道ID一致,所述第一边缘计算节点剥除vxlan报文的报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口。
在再一些实施例中,所述第三优先级为优先级等于998。
第三种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第二网桥接收的报文为第二优先级的报文,所述第一边缘计算节点丢弃所有第二优先级的报文。
在一些实施例中,所述第二优先级为优先级1。所述第二OpenFlow软交换机流表用于第一边缘计算节点处理一般报文,所述第一边缘计算节点接收的报文为第二优先级的报文的情况下,第一边缘计算节点根据第二OpenFlow软交换机流表丢弃所述第二优先级的报文。
在另一些实施例中,所述第二OpenFlow软交换机流表为:所述第二网桥接收的报文的流表为0,优先级为1,所述第二网桥丢弃所述报文。
如此,在服务器与第一计算节点通信的过程中,所述第一计算节点根据第二OpenFlow软交换机流表配置连接服务器与第一边缘计算节点的隧道的隧道id,根据第二OpenFlow软交换机流表,处理接收的vxlan报文,在所述接收vxlan报文的端口以及所述隧道id与策略二的条件匹配的情况下,第一边缘计算节点对vxlan报文进行去除报文头并转发的操作;在所述接收vxlan报文的端口和/或所述隧道id与第二OpenFlow软交换机流表不匹配的情况下,第一边缘计算节点根据第二OpenFlow软交换机流表对vxlan报文进行丢弃处理。
步骤S703,第一边缘计算节点配置第二OpenFlow软交换机流表。
在一些实施例中,边缘计算节点为第三网桥配置第二OpenFlow软交换机流表,所述第三网桥根据所述第二OpenFlow软交换机流表对接收的报文进行处理。
在另一些实施例中,所述第三网桥用于处理第一边缘计算节点与第二边缘计算节点之间的报文,其中,所述报文为PXE的DHCP二层网络报文。
在再一些实施例中,所述第三网桥用于处理第一边缘计算节点与服务器之间的去除报文头的vxlan报文,其中,所述vxlan报文为三层网络报文,去除报文头的vxlan报文为DHCP报文,即二层网络报文。
一般情况下,DHCP报文只能在同一个二层网络内进行广播,vxlan报文可以进行跨网段广播,因此,将DHCP报文封装在vxlan报文内,可以实现DHCP报文的跨网段广播。当第一边缘计算节点接收服务器的vxlan报文后,通过步骤S702去除所述vxlan报文头,得到DHCP报文。
第一种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议(User Datagram Protocol,UDP),且所述报文对应的端口号为第一端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述报文至第一边缘计算节点的控制器;
所述第三端口为位于第三网桥上,与第二边缘计算节点连接的虚拟端口。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点向第一边缘计算节点发送的DHCP请求报文,所述第一边缘计算节点根据第二OpenFlow软交换机流表,将所述DHCP请求报文发送至第一边缘计算节点的控制器。
在另一些实施例中,所述第一端口号为68。
在再一些实施例中,所述第二OpenFlow软交换机流表为:第三网桥的第三端口接收流表为0,优先级为999,网络协议为UDP且端口号为68的DHCP报文,所述第一边缘计算节点通过packet_in报文发送所述DHCP报文至第一边缘计算节点的控制器。
第二种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口;
在一些实施例中,所述第三端口为位于第三网桥上,与除第一边缘计算节点以外的第二边缘计算节点相连的虚拟端口;所述第五端口为位于第三网桥上,连接第二网桥的虚拟端口。
在另一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理服务器发送至第一边缘计算节点的DHCP响应报文。所述DHCP响应报文为第二边缘计算节点通过第一边缘计算节点向服务器发送DHCP请求报文,所述服务器根据PXE,对所述DHCP报文各字段以及DHCP选项的要求生成的DHCP响应报文。所述服务器通过packet_out报文将所述DHCP响应报文发送至第一边缘计算节点。
在再一些实施例中,所述第二端口号为67。
在一些实施例中,所述第二OpenFlow软交换机流表为:第三网桥的第五端口接收流表为0,优先级为998的DHCP报文,所述第一边缘计算节点将所述DHCP报文发送至第三端口。
第三种可选的第二OpenFlow软交换机流表包括:所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第五端口;
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点的TFTP请求报文。所述第二边缘计算节点发送所述TFTP请求报文至第一边缘计算节点,所述第一边缘计算节点根据第二OpenFlow软交换机流表,将所述TFTP报文转发至第五端口,并从第五端口发送至服务器。
在另一些实施例中,所述第三端口号为69。
在一些实施例中,所述第二OpenFlow软交换机流表为:第三网桥的第三端口接收的报文的流表为0,优先级为997,网络协议为UDP,端口号为69,所述第一边缘计算节点将所述报文转发至第五端口。
第四种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理服务器发送至第一边缘计算节点的TFTP响应报文。所述TFTP响应报文为第二边缘计算节点通过第一边缘计算节点向服务器发送的TFTP请求报文所请求的文件。所述服务器将所述TFTP请求报文请求的文件,发送至第一边缘计算节点。所述第一边缘计算节点接收所述TFTP响应文件后,根据第二OpenFlow软交换机流表,将所述TFTP响应报文发送至发送所述TFTP请求报文的第二边缘计算节点。
在另一些实施例中,所述第二OpenFlow软交换机流表为:第三网桥的第五端口接收流表为0,优先级为996,网络协议为UDP,端口号为69的TFTP响应报文,所述第一边缘计算节点将所述TFTP响应报文发送至第三端口。
第五种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议(Transmission Control Protocol,TCP),且所述报文对应的端口号为第四端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述第三端口接收的报文至所述第一边缘计算节点的控制器;
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点发送至第一边缘计算节点的HTTP请求报文,所述第一边缘计算节点根据所述HTTP请求报文及第二OpenFlow软交换机流表,将所述HTTP请求报文发送至第一边缘计算节点的控制器。
在一些实施例中,所述HTTP请求报文请求的是YUM软件包源;所述第四端口号为80。
在另一些实施例中,所述第二OpenFlow软交换机流表为:第三网桥的第三端口接收流表为0,优先级为995,网络协议为TCP,端口号为80的HTTP请求报文,所述第一边缘计算节点将所述HTTP请求报文发送至控制器。
第六种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的第三网桥接收的报文为第二优先级的报文,所述第一边缘计算节点丢弃所有第二优先级的报文。
在一些实施例中,所述第二优先级为优先级1。所述第二OpenFlow软交换机流表用于第一边缘计算节点处理一般报文,所述第一边缘计算节点接收的报文为第二优先级的报文的情况下,第一边缘计算节点根据策略六丢弃所述第二优先级的报文。
在一些实施例中,所述第二OpenFlow软交换机流表为:所述第三网桥接收的报文的流表为0,优先级为1,所述第三网桥丢弃所有报文。
如此,在第一边缘计算节点与第二边缘计算节点通信的过程中,所述第一边缘计算节点根据第二OpenFlow软交换机流表,接收第二边缘计算节点发出的请求报文,并基于第二OpenFlow软交换机流表,接收服务器发出的相应的响应报文,将所述响应报文发送至相应的第二边缘计算节点。
步骤S704,第一边缘计算节点配置第二OpenFlow软交换机流表。
在一些实施例中,第一边缘计算节点为第一边缘计算节点的控制器配置第二OpenFlow软交换机流表,所述第一边缘计算节点的控制器根据所述第二OpenFlow软交换机流表对接收的报文进行处理。
在一些实施例中,所述第一边缘计算节点的控制器用于管理第三网桥,还用于监听第三网桥发送至所述第一边缘计算节点的控制器的packet_in报文。所述第二OpenFlow软交换机流表的策略用于第一边缘计算节点的控制器处理第三网桥发送至所述控制器的packet_in报文。
第一种可选的第二OpenFlow软交换机流表包括:第一边缘计算节点的控制器接收的packet_in报文为网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号的DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第一边缘计算节点的控制器通过packet_out报文发送所述DHCP报文,并通过第五端口发出;
或者,所述第一边缘计算节点的控制器接收的packet_in报文为网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号的DHCP报文,在所述DHCP报文不包含第一关键字段的情况下,所述第一边缘计算节点的控制器丢弃所述DHCP报文。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点的控制器处理第二边缘计算节点发送至第一边缘计算节点的DHCP请求报文。所述DHCP请求报文中包含第一关键字的情况下,则所述第一边缘计算节点的控制器根据第二OpenFlow软交换机流表,将所述DHCP请求报文从第五端口发出,通过第二网桥转发至服务器;若所述DHCP请求报文中不包含第一关键字,所述第一边缘计算节点的控制器丢弃所述DHCP报文。
在一些可选实施例中,所述第一关键字为“PXEClient:”。
在一些可选实施例中,所述第二OpenFlow软交换机流表为:第一边缘计算节点的控制器接收的packet_in报文为端口号68,网络协议为UDP的DHCP请求报文。所述控制器检查所述DHCP请求报文的option:vendor-class-identifier字段,如果所述字段中包含“PXEClient:”,所述控制器发送packet_out报文,并将所述packet_out报文从第五端口上转发至服务器;如果所述字段中不包含“PXEClient:”,所述控制器丢弃所述DHCP请求报文。
如此,第一边缘计算节点的控制器通过检测所述DHCP请求报文是否包括第一关键字,判断所述DHCP请求是否为基于PXE部署操作系统的边缘计算环境中的边缘计算节点发出的,避免基于PXE部署操作系统的边缘计算环境以外的边缘计算节点的DHCP请求报文的干扰。
第二种可选的第二OpenFlow软交换机流表包括、第一边缘计算节点的控制器接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第三端口号的DHCP报文,由第一边缘计算节点的控制器的超文本传输协议HTTP服务器处理;
所述第一边缘计算节点的控制器的HTTP服务器找到所述HTTP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的边缘计算节点。
在一些实施例中,所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点发送至所述第一边缘计算节点的HTTP报文。
在另一些实施例中,所述第二OpenFlow软交换机流表为:第一边缘计算节点的控制器接收的HTTP报文的端口号为80,且所述HTTP报文由第三端口接收,由第一边缘计算节点的控制器的HTTP服务器处理。所述第一边缘计算节点的控制器的HTTP服务器找到所述HTTP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点。
如此,第一边缘计算节点通过第二OpenFlow软交换机流表,可以作为跳板机在部署第二边缘计算节点的操作系统流程中进行报文处理,具体包括:
1)第一边缘计算节点接收第二边缘计算节点的DHCP请求报文,根据第二OpenFlow软交换机流表将所述DHCP请求报文发送至第一边缘计算节点的控制器,控制器验证所述DHCP请求报文是基于PXE部署操作系统的边缘计算环境中的第二边缘计算节点发出的报文后,第一边缘计算节点将所述DHCP请求报文封装到vxlan报文中,并发送至服务器。所述服务器根据vxlan报文中封装的DHCP请求报文,分配一个未使用的IP地址,并生成DHCP响应报文,并通过第一边缘计算节点发送至发出所述DHCP请求报文的第二边缘计算节点。
2)第一边缘计算节点接收第二边缘计算节点的TFTP请求报文,第一边缘计算节点将所述TFTP请求报文发送至服务器。所述服务器根据TFTP请求报文所请求的配置文件,将相应配置文件通过第一边缘计算节点发送至发出所述DHCP请求报文的第二边缘计算节点。
3)第一边缘计算节点接收第二边缘计算节点的HTTP请求报文,第一边缘计算节点将所述HTTP请求报文发送至第一边缘计算节点的控制器。所述第一边缘计算节点的控制器的HTTP服务器处理所述HTTP请求报文,找到所述HTTP请求报文请求的文件,通过第一边缘计算节点的虚拟端口发送至所述第二边缘计算节点。
步骤S502,第一边缘计算节点基于所述自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统。
在一些实施例中,所述第一边缘计算节点接收第二边缘计算节点发送的请求报文,所述第一边缘计算节点基于请求报文,向第二边缘计算节点发送所述请求报文请求的文件,所述文件用于第二边缘计算节点部署操作系统。
其中,所述第二边缘计算节点为除第一边缘计算节点以外的任意一个边缘计算节点。
在一些实施例中,所述第二边缘计算节点发送的请求报文包括:DHCP请求报文、TFTP请求报文、HTTP请求报文中至少一种。
在另一些实施例中,第一边缘计算节点基于HTTP请求报文及第二OpenFlow软交换机流表,将第一边缘计算节点的Live CD镜像中的YUM软件包源和/或初始安装镜像发送至第二边缘计算节点。
在再一些实施例中,第一边缘计算节点基于DHCP请求报文和/或TFTP请求报文,以及第二OpenFlow软交换机流表,将所述DHCP请求报文和/或TFTP请求报文封装在vxlan报文中,并将所述vxlan报文发送至服务器。第一边缘计算节点接收所述服务器根据所述DHCP请求报文和/或TFTP请求报文发出的DHCP响应报文和/或TFTP响应报文,并将所述DHCP响应报文和/或TFTP响应报文发送至所述第二边缘计算节点。所述第二边缘计算节点根据YUM软件包源、初始安装镜像、DHCP响应报文、TFTP响应报文安装所述第二边缘计算节点的操作系统。
如此,第一边缘计算节点在部署第二边缘计算节点的操作系统的过程中,作为跳板机将第二边缘计算节点发出的请求报文转发至服务器,以及,将服务器根据所述请求报文发送至第一边缘计算节点的响应报文转发至边缘计算节点。
在一些可选实施例中,所述部署至少一个第二边缘计算节点的操作系统还包括:重启第二边缘计算节点。
步骤S503,第二边缘计算节点部署所述第一边缘计算节点的操作系统。
边缘计算环境中所有第二边缘计算节点的操作系统均部署完成后,任意一个第二边缘计算节点作为跳板机部署第一边缘计算节点的操作系统,图8示出了第二边缘计算节点部署第一边缘计算节点的可选流程示意图,所述第二边缘计算节点部署第一边缘计算节点包括步骤S801至步骤S803,将根据各个步骤进行说明。
S801,第二边缘计算节点安装虚拟软件交换机、控制器、创建OpenFlow网桥、配置第二OpenFlow软交换机流表。
在一些实施例中,第二边缘计算节点中没有Live CD镜像,进一步也没有YUM软件包源、初始安装镜像、OpenFlow控制器软件、OpenFlow虚拟软件交换机软件,但经过上述步骤S501至步骤S502的部署,服务器已经为第二边缘计算节点分配IP地址和网关,服务器可以直接将所述YUM软件包源、初始安装镜像、OpenFlow控制器软件、OpenFlow虚拟软件交换机软件发送至第二边缘计算节点并安装。
在另一些实施例中,所述第二边缘计算节点安装虚拟软件交换机、控制器、创建OpenFlow网桥、配置OpenFlow软交换机流表的步骤与第一边缘计算节点安装虚拟软件交换机、控制器、创建OpenFlow网桥、配置OpenFlow软交换机流表的步骤S603至步骤S604相同,此处不再赘述。
步骤S802,第二边缘计算节点向第一边缘计算节点发送DHCP信息。
在一些实施例中,所述DHCP信息包括:第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
步骤S803,重启第一边缘计算节点。
在一些实施例中,第一边缘计算节点通过第二边缘计算节点获得安装操作系统所需的配置文件并安装所述配置文件后,第一边缘计算节点重启,完成第一边缘计算节点操作系统的部署。
在一些可选实施例中,所述步骤S501之前,还包括:
步骤S500,边缘计算节点配置前置条件。
在一些实施例中,所述前置条件用于边缘计算节点部署边缘计算节点的操作系统。
图9示出了边缘计算节点配置前置条件的可选流程示意图,将根据各个步骤进行说明。
步骤S901,边缘计算节点配置IPMI管理地址、IPMI用户名及IPMI密码。
在一些实施例中,所述IPMI管理地址、IPMI用户名及IPMI密码用于边缘计算节点加载Live CD系统镜像。
在另一些实施例中,边缘环境中每个边缘计算节点均配置边缘计算节点的IPMI管理地址、IPMI用户名及IPMI密码。
步骤S902,边缘计算节点将边缘计算节点的服务器网卡的物理连线接入边缘计算环境中的交换机。
在一些实施例中,边缘计算节点将边缘计算节点的服务器网卡的物理连线接入边缘计算环境中的交换机,实现边缘计算节点与边缘环境中交换机的连接。
在一些实施例中,所述边缘计算节点的服务器网卡包括:边缘计算节点的IPMI网络的网卡、PXE网络的网卡、管理网络的网卡、业务网络的网卡。
在一些实施例中,边缘环境中每个边缘计算节点的服务器网卡的物理连线,均接入边缘计算节点对应的边缘计算机房的交换机。
在另一些实施例中,所述交换机由边缘计算节点所在的机房提供,通常一个机房内有至少一个交换机。所述交换机用于为边缘计算节点提供外网访问能力。
步骤S903,边缘计算节点配置第一边缘计算节点和服务器之间的三层网络的数据传输功能。
在一些实施例中,所述边缘计算节点配置第一边缘计算节点和服务器之间的三层网络的数据传输功能是指,第一边缘计算节点通过在机房的路由器上配置路由,实现第一边缘计算节点的IPMI管理网络和服务器所在的网络之间的三层网络的数据传输。
在另一些实施例中,所述边缘计算节点配置第一边缘计算节点和服务器之间的三层网络的数据传输功能还包括:通过建立安全套接层(Secure Sockets Layer,SSL)虚拟专用网络(Virtual Private Network,VPN)隧道连接或者通过网络地址转换(NetworkAddress Translation,NAT)转换开放公网访问等方式进行SSL加密。
步骤S904,边缘计算节点打开PXE网络上网卡的PXE功能。
如此,根据步骤S201和步骤S202,可以实现通过Live CD将第一边缘计算节点转换为DHCP代理服务器作为跳板机,节省了额外的服务器要求以及交换机配置。达到远程部署除第一边缘计算节点以外的第二边缘计算节点的目的。根据步骤S203,将已经部署完成的第二边缘计算节点作为跳板机,部署第一边缘计算节点,可以有效的重复利用现有服务器资源,解决边缘计算节点中没有单独跳板机的问题,完成全部边缘计算节点的部署。
图10示出了本申请实施例提供的部署操作系统的可选流程示意图,将根据各个步骤进行说明。
步骤S1001,配置前置条件。
在一些实施例中,所述配置前置条件包括:第一边缘计算节点配置IPMI管理地址、IPMI用户名及IPMI密码;所述IPMI管理地址、IPMI用户名及IPMI密码用于第一边缘计算节点加载Live CD系统镜像。
在一些实施例中,所述配置前置条件包括:边缘计算节点将边缘计算节点的服务器网卡的物理连线接入边缘计算环境中的交换机,所述边缘计算节点的服务器网卡包括:IPMI网络的网卡、PXE网络的网卡、管理网络的网卡、业务网络的网卡。
在一些实施例中,所述配置前置条件包括:边缘计算节点配置边缘计算节点和服务器之间的三层网络的数据传输功能;所述实现边缘计算节点和服务器之间的三层网络的数据传输功能是指,通过在机房的路由器上配置路由,实现边缘计算节点的IPMI管理网络和服务器所在的网络之间的三层网络的数据传输。
在一些实施例中,所述配置前置条件包括:所有边缘计算节点打开PXE网络上网卡的PXE功能;
在一些实施例中,所述配置前置条件包括:服务器的控制器存储网络IP地址分配表;服务器的控制器存储部署边缘计算节点的操作系统所需的配置文件;服务器配置IPMI管理地址、IPMI用户名及IPMI密码。
在一些实施例中,所述配置前置条件包括:服务器规划网络IP地址分配表。服务器根据边缘计算节点的PXE网络IP地址、PXE网络网关、管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关中至少一项规划的网络IP地址分配表。所诉边缘计算节点规划完成网络IP地址分配表后,将所述网络IP地址分配表发送至所述服务器的控制器。
在另一些实施例中,所述网络IP地址分配表用于,服务器的控制器接收的packet_in报文为TFTP请求报文,所述控制器根据发出所述TFTP请求报文的边缘计算节点的源IP地址及网络IP地址分配表,为所述边缘计算节点分配对应的网络IP地址和/或对应的网络网关。
步骤S1002,服务器生成自生系统镜像。
在一些实施例中,服务器对Live CD镜像进行定制化。其中,所述服务器为相对于边缘计算节点的远端服务器;所述Live CD镜像是一种能够直接引导并使用的操作系统镜像,无需安装操作系统,就可以直接启动并在边缘计算节点的内存中运行的操作系统。
在一些实施例中,所述Live CD镜像为CentOS7,所述操作系统为Linux裁减系统。
步骤S1003,第一边缘计算节点加载服务器的自生系统镜像。
在一些实施例中,所述第一边缘计算节点加载服务器的Live CD镜像包括:第一边缘计算节点加载服务器的Live CD镜像、第一边缘计算节点通过IPMI在Live CD镜像中配置管理网络IP地址和相关路由信息、第一边缘结算节点安装OpenFlow虚拟软件交换机程序和OpenFlow控制器程序第一边缘计算节点的Live CD镜像内配置第二OpenFlow软交换机流表。
其中,所述相关路由信息为边缘计算节点之间通信和/或传输文件的路由信息,以及边缘计算节点与服务器之间通信和/或传输文件的路由信息;所述第二OpenFlow软交换机流表用于第一边缘计算节点处理第二边缘计算节点向第一边缘计算节点发送的请求报文。所述第一边缘计算节点根据接收到的请求报文及第二OpenFlow软交换机流表,向第二边缘计算节点发送所述请求报文请求的文件。
步骤S1004,第一边缘计算节点配置第二OpenFlow软交换机流表。
第一边缘计算节点建立第二网桥和第三网桥。所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输边缘计算节点之间的动态主机设置DHCP报文。
第一边缘计算节点配置第二OpenFlow软交换机流表。所述第二OpenFlow软交换机流表用于第二网桥接收和/或转发和/或丢弃报文。
第一边缘计算节点配置第二OpenFlow软交换机流表。所述第二OpenFlow软交换机流表用于在第一边缘计算节点与第二边缘计算节点通信的过程中,接收第二边缘计算节点发出的请求报文,并基于第二OpenFlow软交换机流表,接收服务器发出的相应的响应报文,并将所述响应报文发送至第二边缘计算节点。
第一边缘计算节点配置第一边缘计算节点的控制器的第二OpenFlow软交换机流表。所述控制器用于管理第三网桥,还用于监听第三网桥发送至所述控制器的packet_in报文。所述第二OpenFlow软交换机流表用于第一边缘计算节点的控制器处理第三网桥发送至所述控制器的packet_in报文。
步骤S1005,服务器部署第一OpenFlow虚拟软件交换机和第一OpenFlow控制器。
在一些实施例中,所述服务器部署第一OpenFlow虚拟软件交换机和第一OpenFlow控制器,包括:服务器通过OpenFlow虚拟软件交换机软件和OpenFlow控制器软件安装第一OpenFlow虚拟软件交换机和第一OpenFlow控制器。
服务器配置第一OpenFlow软交换机流表。所述第一OpenFlow软交换机流表用于服务器处理报文。
步骤S1006,第一边缘计算节点基于所述自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统。
第一边缘计算节点接收第二边缘计算节点发送的请求报文,所述第一边缘计算节点基于请求报文,向第二边缘计算节点发送所述请求报文请求的文件,所述文件用于第二边缘计算节点部署操作系统。
其中,所述第二边缘计算节点为除第一边缘计算节点以外的任意一个边缘计算节点。
步骤S1007,第二边缘计算节点部署所述第一边缘计算节点的操作系统。
此时,边缘计算节点中除第一边缘计算节点以外的其他所有节点的操作系统均已部署完成。第二边缘计算节点作为跳板机部署第一边缘计算节点的操作系统。
如此,在边缘计算机房内资源紧张,不会事先单独部署一套DHCP-Relay中继服务器的情况下,通过Live CD将第一边缘计算节点转换为DHCP代理服务器作为跳板机,节省了额外的服务器要求以及交换机配置。达到远程部署除第一边缘计算节点以外的第二边缘计算节点的目的。
本申请实施例中,将二层网络报文DHCP报文封装在三层网络报文vxlan报文内,解决了由于边缘计算机房、网络的安全性以及DHCP-Relay运维、配置的复杂性,边缘计算机房很难在接入交换机上开启额外的DHCP-Relay服务,并且,一些交换机不支持DHCP-Relay功能,无法实现三层网络部署的问题。在部署完其他边缘极端节点的操作系统后,将已经部署完成的第二边缘计算节点转换为DHCP代理服务器作为跳板机,部署第一边缘计算节点,可以有效的重复利用现有服务器资源,解决边缘计算节点中没有单独跳板机的问题,完成全部边缘计算节点的部署,避免了错在多个边缘计算机房的情况下,很难实现全自动部署的问题。
图11示出了本申请实施例提供的部署操作系统的装置的服务器结构示意图一,将根据各个单元进行说明。
其中,服务器1200包括:
生成单元1201,用于服务器生成自生系统镜像,所述自生系统镜像用于在边缘计算节点上加载。
第一部署单元1206,用于服务器部署第一OpenFlow虚拟软件交换机和第一OpenFlow控制器;用于服务器通过PXE部署边缘计算节点的操作系统。
配置单元1202,用于服务器配置第一OpenFlow软交换机流表。具体用于:在所述服务器的第一网桥模块上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;所述第一网桥模块用于转发跨网段管理网络虚拟可扩展局域网vxlan报文。
所述第一管理网络IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
所述生成单元1201还用于:用于执行下述至少一种操作:在所述自生系统镜像中写入OpenFlow控制器程序;在所述自生系统镜像中写入OpenFlow虚拟软件交换机程序;在所述自生系统镜像中写入黄色狗更新程序YUM软件包源和初始安装镜像;
其中,所述YUM软件包源和所述初始安装镜像用于边缘计算节点基于PXE部署操作系统。
所述配置单元1202,还用于在所述服务器的第一网桥上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;转发跨网段管理网络虚拟可扩展局域网vxlan报文;
所述第一管理网络IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
所述配置单元1202,还用于在所述服务器的第一端口接收的vxlan报文对应的隧道身份标识ID与连接服务器与第一边缘计算节点的隧道ID一致的情况下,剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至第一控制单元;
第一控制单元1203,用于在所述第一控制单元接收的packet_in报文为DHCP请求报文的情况下,为发送所述DHCP请求报文的边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,并通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
第二控制单元1204,用于在所述第二控制单元接收的packet_in报文为简单文件传输协议TFTP请求报文,且所述TFTP请求报文请求快速启动kickstart配置文件以外的其他文件的情况下,将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
第三控制单元1205,用于在所述第三控制单元接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口;
所述生成单元1201,还用于在所述自生系统镜像中写入第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表用于所述边缘计算节点中的第一边缘计算节点处理报文。
图12示出了本申请实施例提供的部署操作系统的装置的服务器1300结构示意图二,将根据各个单元进行说明。
DHCP服务单元1301,用于处理控制单元1303发送至所述DHCP服务单元1301的DHCP请求报文。所述DHCP服务单元1301接收所述DHCP请求报文,根据所述DHCP请求报文,为发出所述DHCP请求报文的边缘计算节点分配一个未使用的IP地址,并生成DHCP响应报文,将所述DHCP响应报文发送至所述控制单元1303。
TFTP服务单元1302,用于处理控制单元1303发送至所述TFTP服务单元1302的TFTP请求报文。所述TFTP服务单元1302接收所述TFTP请求报文,根据TFTP请求报文找到所述TFTP请求报文请求的文件,并生成TFTP响应报文,将所述TFTP响应报文发送至所述控制单元1303。
控制单元1303,用于处理信息处理单元1304发送至所述控制单元1303的DHCP请求报文,并将所述DHCP请求报文发送至所述DHCP服务单元1301;接收所述DHCP服务单元1301发出的DHCP响应报文,并将所述DHCP响应报文发送至信息处理单元1304。
所述控制单元1303,还用于处理信息处理单元1304发送至所述控制单元1303的TFTP请求报文,并将所述TPTP请求报文发送至所述TFTP服务单元1302;接收所述TFTP服务单元1302发出的TFTP响应报文,并将所述TPTP响应报文发送至信息处理单元1304。
信息处理单元1304,用于处理第一端口单元1305接收的报文。在所述第一端口单元1305接收的vxlan报文对应的隧道身份标识(Identifier,ID)与连接服务器和第一边缘计算节点的隧道ID一致的情况下,所述信息处理单元1304剥除所述vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至所述控制单元1303。
所述信息处理单元1304,还用于在所述第一端口单元1305接收的报文为第二优先级的报文,所述信息处理单元1304丢弃所有第二优先级的报文。
在一些实施例中,所述第二优先级为1。
第一端口单元1305,用于接收管理网络网卡1306发送的报文,并将所述报文发送至信息处理单元1304处理。
管理网络网卡1306,用于接收和/或发送边缘计算节点与服务器1300之间通信的信息,所述信息包括报文和/或文件。
图13示出了本申请实施例提供的部署操作系统的装置的第一边缘计算节点1400结构示意图一,将根据各个单元进行说明。
加载单元1401,用于第一边缘计算节点加载服务器的自生系统镜像。
第二部署单元1402,用于所述第一边缘计算节点基于所述自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统;用于所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署所述第一边缘计算节点的操作系统;
所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的边缘计算节点;所述第一边缘计算节点和所述第二边缘计算节点均为同一个边缘计算环境的边缘计算节点。
第一信息处理单元1403,用于在所述第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,为连接所述服务器与所述第一边缘计算节点的隧道分配隧道身份标识ID,并将所述隧道ID发送至第四端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
第二信息处理单元1404,用于在所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接所述服务器与所述第一边缘计算节点的隧道ID一致的情况下,剥除所述vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口。
第三信息处理单元1405,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议UDP,且所述报文对应的端口号为第一端口号的情况下,通过packet_in报文发送所述报文至所述第一边缘计算节点的第四控制单元1411。
在一些实施例中,所述第一端口号为68。
第四信息处理单元1406,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,将所述报文发送至第三端口。
在一些实施例中,所述第二端口号为67。
第五信息处理单元1407,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第五端口。
在一些实施例中,所述第三端口号为69。
第六信息处理单元1408,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第三端口。
第七信息处理单元1409,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议TCP,且所述报文对应的端口号为第四端口号的情况下,通过packet_in报文发送所述报文至第五控制单元。
在一些实施例中,所述第四端口号为80。
第四控制单元1411,用于在所述第二控制单元接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第四控制单元1411通过packet_out报文发送所述DHCP报文,并通过第五端口发出;或者,在所述第四控制单元1411接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文不包含第一关键字段的情况下,所述第四控制单元1411丢弃所述DHCP报文。
第五控制单元1412,用于在所述第三控制单元接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第三端口号的HTTP报文的情况下,将所述packet_in报文发送至HTTP服务单元1413。
HTTP服务单元1413,用于找到所述DHCP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点。
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
第八信息处理单元1410,用于建立第二网桥和第三网桥;
所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输PXE的动态主机设置DHCP报文;
所述PXE用于部署边缘计算节点的操作系统。
安装单元1414,用于根据自生系统中写入的OpenFlow虚拟软件交换机程序,安装所述第一边缘计算节点的虚拟软件交换机;和/或,所述第一边缘计算节点根据自生系统中写入的OpenFlow控制器程序安装所述第一边缘计算节点的控制器。
第一接收单元1415,用于接收所述第二边缘计算节点发送的请求报文;所述第一边缘计算节点基于所述请求报文,向所述第二边缘计算节点发送配置文件,所述配置文件用于所述第二边缘计算节点部署操作系统。
第二接收单元1416,用于接收其中一个第二边缘计算节点发出的DHCP信息;
所述第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
图14示出了本申请实施例提供的部署操作系统的装置的第一边缘计算节点1500结构示意图二,将根据各个单元进行说明。
HTTP服务单元1501,用于处理控制单元1502发送至所述HTTP服务单元1501的HTTP请求报文。所述HTTP服务单元1501接收所述HTTP请求报文,根据所述HTTP请求报文,找到相应的请求文件,并生成HTTP响应报文,将所述HTTP响应报文发送至所述控制单元1502。
控制单元1502,用于根据第二OpenFlow软交换机流表处理第一信息处理单元发送至所述控制单元1502的报文,还用于根据第二OpenFlow软交换机流表处理所述HTTP服务单元1501发送至所述控制单元1502的HTTP响应报文。
第一信息处理单元1503,用于根据第二OpenFlow软交换机流表处理其他边缘计算节点通过PXE网络网卡1505发送至所述第一边缘计算节点的二层网络报文;用于根据第二OpenFlow软交换机流表处理第二信息处理单元1504发送至所述第一处理单元1503的报文。
第二信息处理单元1504,用于根据第二OpenFlow软交换机流表处理服务器通过管理网络网卡1506发送至所述第一边缘计算节点的三层网络报文;用于根据第二OpenFlow软交换机流表处理第一信息处理单元1503发送至所述第二信息处理单元1504的报文。
PXE网络网卡1505,用于接收和/或发送边缘计算节点之间通信的信息,所述信息包括报文和/或文件。
本发明实施例中,边缘计算节点包括一个第一边缘计算节点和至少一个第二边缘计算节点;所述边缘计算节点之间通信包括:第一边缘计算节点与第二边缘计算节点通信。
管理网络网卡1506,用于接收和/或发送边缘计算节点1500与服务器之间通信的信息,所述信息包括报文和/或文件。
图15示出了本申请实施例提供的服务器与边缘计算环境中边缘计算节点连接的可选结构示意图,将根据各个部分进行说明。
服务器1600,用于通过PXE远程部署边缘计算环境中边缘计算节点的操作系统。
接入交换机/路由器1601,用于服务器与边缘计算环境1602中边缘计算节点之间的通信。
第一边缘计算节1603,在服务器通过PXE远程部署边缘计算环境中边缘计算节点的操作系统的过程中,作为跳板机,实现服务器1600与第二边缘计算节点之间的通信和/或文件传输。所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的其他所有边缘计算节点。
第二边缘计算节点1604,用于部署第一边缘计算节点1603的操作系统。所述第二边缘计算节点为,完成操作系统部署的任意一个第二边缘计算节点。在服务器1600部署第一边缘计算节点1603的过程中,第二边缘计算节点1604,作为跳板机,实现服务器1600与第一边缘计算节点之间的通信和/或文件传输。
本领域普通技术人员可以理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序命令相关的硬件来完成,前述的程序可以存储于一存储介质中,该程序在执行时,执行在第一应用运行过程中接收到基于第二应用的通知消息时,在电子设备屏幕上的第一区域响应所述通知消息;其中,所述第一区域小于单独运行第二应用时加载的输入法应用在所述电子设备屏幕上对应的区域。而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (27)

1.一种部署操作系统的方法,其特征在于,所述方法包括:
服务器生成自生系统镜像,所述自生系统镜像用于在边缘计算节点上加载;
所述服务器通过部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器、配置第一OpenFlow软交换机流表,以及预启动执行环境PXE部署边缘计算节点的操作系统;
所述服务器生成自生系统镜像包括下述中的至少一项:
所述服务器在所述自生系统镜像中写入OpenFlow控制器程序;
所述服务器在所述自生系统镜像中写入OpenFlow虚拟软件交换机程序;
所述服务器在所述自生系统镜像中写入黄色狗更新程序YUM软件包源和初始安装镜像;
其中,所述YUM软件包源和所述初始安装镜像用于边缘计算节点基于PXE部署操作系统;
所述配置第一OpenFlow软交换机流表包括:
在所述服务器的第一网桥上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;所述第一网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;
所述第一管理网络网络协议IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
2.根据权利要求1所述的方法,其特征在于,所述第一OpenFlow软交换机流表包括:
所述服务器的第一端口接收的vxlan报文对应的隧道身份标识ID与连接服务器与第一边缘计算节点的隧道ID一致的情况下,所述服务器剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至所述服务器的控制器;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
3.根据权利要求1所述的方法,其特征在于,所述第一OpenFlow软交换机流表包括:
所述服务器的控制器接收的packet_in报文为DHCP请求报文的情况下,所述服务器的控制器为发送所述DHCP请求报文的所述边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口;
或者,在所述服务器的控制器接收的packet_in报文为简单文件传输协议TFTP请求报文,且所述TFTP请求报文请求快速启动kickstart配置文件以外的其他文件的情况下,所述服务器的控制器将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
或者,在所述服务器的控制器接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,所述服务器的控制器在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述自生系统镜像包括:第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表用于所述边缘计算节点中的第一边缘计算节点处理报文。
5.一种部署操作系统的方法,其特征在于,所述方法包括:
第一边缘计算节点加载服务器的自生系统镜像;
所述第一边缘计算节点基于所述自生系统镜像和预启动执行环境PXE,部署至少一个第二边缘计算节点的操作系统;
所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署所述第一边缘计算节点的操作系统;
所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的边缘计算节点;所述第一边缘计算节点和所述第二边缘计算节点均为同一个边缘计算环境的边缘计算节点;
所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,所述第一边缘计算节点为连接所述服务器与所述第一边缘计算节点的隧道分配隧道身份标识ID,并将隧道ID发送至第四端口;
或者,所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接所述服务器与所述第一边缘计算节点的隧道ID一致的情况下,所述第一边缘计算节点剥除vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
6.根据权利要求5所述的方法,其特征在于,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议UDP,且所述报文对应的端口号为第一端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述报文至所述第一边缘计算节点的控制器;
或者,所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口;
或者,所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第五端口;
或者,所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,所述第一边缘计算节点将所述报文发送至第三端口;
或者,所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议TCP,且所述报文对应的端口号为第四端口号的情况下,所述第一边缘计算节点通过packet_in报文发送所述报文至所述第一边缘计算节点的控制器;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
7.根据权利要求5所述的方法,其特征在于,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的控制器接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第一边缘计算节点的控制器通过packet_out报文发送所述DHCP报文,并通过第五端口发出;
或者,所述第一边缘计算节点的控制器接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文不包括第一关键字段的情况下,所述第一边缘计算节点的控制器丢弃所述DHCP报文;
所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
8.根据权利要求5所述的方法,其特征在于,所述自生系统镜像包括第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表包括:
所述第一边缘计算节点的控制器接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第三端口号的HTTP报文的情况下;
所述第一边缘计算节点的控制器的HTTP服务器找到所述DHCP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
9.根据权利要求5至8任一项权利要求所述的方法,其特征在于,所述方法还包括:
所述第一边缘计算节点建立第二网桥和第三网桥;
所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输PXE的动态主机设置DHCP报文;
所述PXE用于部署边缘计算节点的操作系统。
10.根据权利要求5至8任一项权利要求所述的方法,其特征在于,所述方法还包括:
所述第一边缘计算节点根据自生系统中写入的OpenFlow虚拟软件交换机程序,安装所述第一边缘计算节点的虚拟软件交换机;
和/或,所述第一边缘计算节点根据自生系统中写入的OpenFlow控制器程序安装所述第一边缘计算节点的控制器。
11.根据权利要求5所述的方法,其特征在于,所述第一边缘计算节点基于所述自生系统镜像和PXE,部署至少一个第二边缘计算节点的操作系统包括:
所述第一边缘计算节点接收所述第二边缘计算节点发送的请求报文;
所述第一边缘计算节点基于所述请求报文,向所述第二边缘计算节点发送配置文件,所述配置文件用于所述第二边缘计算节点部署操作系统。
12.根据权利要求5所述的方法,其特征在于,所述DHCP信息包括下述中的至少一项:
所述第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
13.一种部署操作系统的装置,其特征在于,所述装置包括:
生成单元,用于服务器生成自生系统镜像,所述自生系统镜像用于在边缘计算节点上加载;
第一部署单元,用于服务器部署第一开放流OpenFlow虚拟软件交换机和第一OpenFlow控制器;用于通过预启动执行环境PXE部署边缘计算节点的操作系统;
配置单元,用于服务器配置第一OpenFlow软交换机流表;
所述生成单元还用于执行下述至少一种操作:
在所述自生系统镜像中写入OpenFlow控制器程序;
在所述自生系统镜像中写入OpenFlow虚拟软件交换机程序;
在所述自生系统镜像中写入黄色狗更新程序YUM软件包源和初始安装镜像;
其中,所述YUM软件包源和所述初始安装镜像用于边缘计算节点基于PXE部署操作系统;
所述配置单元,还用于在所述服务器的第一网桥上配置第一管理网络网络协议IP地址以及第一边缘计算节点所在的网络IP地址;转发跨网段管理网络虚拟可扩展局域网vxlan报文;
所述第一管理网络网络协议IP地址为所述服务器所在的网络IP地址,所述第一边缘计算节点为边缘计算节点中任意一个节点。
14.根据权利要求13所述的装置,其特征在于,所述配置单元:
用于在所述服务器的第一端口接收的vxlan报文对应的隧道身份标识ID与连接服务器与第一边缘计算节点的隧道ID一致的情况下,剥除vxlan报文头,通过packet_in报文将剥除vxlan报文头后的vxlan报文发送至第一控制单元;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
15.根据权利要求13所述的装置,其特征在于,所述装置还包括:
第一控制单元,用于在所述第一控制单元接收的packet_in报文为DHCP请求报文的情况下,为发送所述DHCP请求报文的边缘计算节点分配一个未经使用的IP,并生成DHCP响应报文,并通过packet_out报文将所述DHCP响应报文发送至所述服务器的第一端口;
或者,第二控制单元,用于在所述第二控制单元接收的packet_in报文为简单文件传输协议TFTP请求报文,且所述TFTP请求报文请求快速启动kickstart配置文件以外的其他文件的情况下,将所述TFTP请求报文请求的文件,通过packet_out报文发送至所述服务器的第一端口;
或者,第三控制单元,用于在所述第三控制单元接收的packet_in报文为TFTP请求报文,且所述TFTP请求报文请求kickstart配置文件的情况下,在所述kickstart配置文件中至少写入管理网络IP地址、管理网络网关、业务网络IP地址及业务网络网关,并通过packet_out报文发送至所述服务器的第一端口;
所述第一端口为服务器连接所述边缘计算节点的vxlan虚拟端口。
16.根据权利要求13至15任一项所述的装置,其特征在于,所述生成单元,还用于在所述自生系统镜像中写入第二OpenFlow软交换机流表,所述第二OpenFlow软交换机流表用于所述边缘计算节点中的第一边缘计算节点处理报文。
17.一种部署操作系统的装置,其特征在于,所述装置包括:
加载单元,用于第一边缘计算节点加载服务器的自生系统镜像;
部署单元,用于所述第一边缘计算节点基于所述自生系统镜像和预启动执行环境PXE,部署至少一个第二边缘计算节点的操作系统;用于所述第一边缘计算节点从一个第二边缘计算节点获取动态主机设置协议DHCP信息,部署所述第一边缘计算节点的操作系统;
所述第二边缘计算节点为边缘计算环境中除第一边缘计算节点以外的边缘计算节点;所述第一边缘计算节点和所述第二边缘计算节点均为同一个边缘计算环境的边缘计算节点;
第一信息处理单元,用于在所述第一边缘计算节点的第二网桥的第二端口接收到的报文为第一优先级的vxlan报文的情况下,为连接所述服务器与所述第一边缘计算节点的隧道分配隧道身份标识ID,并将隧道ID发送至第四端口;
或者,第二信息处理单元,用于在所述第一边缘计算节点的第二网桥的第四端口接收的vxlan报文对应的隧道ID与连接所述服务器与所述第一边缘计算节点的隧道ID一致的情况下,剥除vxlan报文头,将剥除vxlan报文头后的vxlan报文发送至第二端口;
所述第二端口为位于所述第二网桥上,与第三网桥连接的虚拟端口;所述第四端口为位于所述第二网桥上,与所述服务器连接的vxlan虚拟端口。
18.根据权利要求17所述的装置,其特征在于,所述装置还包括:
第三信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为用户数据报协议UDP,且所述报文对应的端口号为第一端口号的情况下,通过packet_in报文发送所述报文至第四控制单元;
或者,第四信息处理单元,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的端口号为第二端口号的情况下,将所述报文发送至第三端口;
或者,第五信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第五端口;
或者,第六信息处理单元,用于在所述第一边缘计算节点的第三网桥的第五端口接收的报文对应的网络协议为UDP,且所述报文对应的端口号为第三端口号的情况下,将所述报文发送至第三端口;
或者,第七信息处理单元,用于在所述第一边缘计算节点的第三网桥的第三端口接收的报文对应的网络协议为传输控制协议TCP,且所述报文对应的端口号为第四端口号的情况下,通过packet_in报文发送所述报文至第五控制单元;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口;所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
19.根据权利要求17所述的装置,其特征在于,所述装置还包括:
第四控制单元,用于在第二控制单元接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文包括第一关键字段的情况下,所述第四控制单元通过packet_out报文发送所述DHCP报文,并通过第五端口发出;
或者,在所述第二控制单元接收的packet_in报文的网络协议为UDP,且所述packet_in报文对应的端口号为第一端口号,所述packet_in报文为DHCP报文,在所述DHCP报文不包含第一关键字段的情况下,所述第四控制单元丢弃所述DHCP报文;
所述第五端口为位于第三网桥上,与所述第二网桥连接的虚拟端口。
20.根据权利要求17所述的装置,其特征在于,所述装置还包括:
第五控制单元,用于在所述第五控制单元接收的packet_in报文为所述第一边缘计算节点的第三网桥的第三端口接收的端口号为第四端口号的HTTP报文的情况下,将所述packet_in报文发送至HTTP服务单元;
HTTP服务单元,用于找到所述DHCP报文请求的YUM软件包源,并通过packet_out报文从第三端口转发至发出所述HTTP报文的第二边缘计算节点;
所述第三端口为位于所述第三网桥上,与第二边缘计算节点连接的虚拟端口。
21.根据权利要求17至20任一项权利要求所述的装置,其特征在于,所述装置还包括:
第八信息处理单元,用于建立第二网桥和第三网桥;
所述第二网桥用于传输跨网段管理网络虚拟可扩展局域网vxlan报文;所述第三网桥用于传输PXE的动态主机设置DHCP报文;
所述PXE用于部署边缘计算节点的操作系统。
22.根据权利要求17至20任一项权利要求所述的装置,其特征在于,所述装置还包括:
安装单元,用于根据自生系统中写入的OpenFlow虚拟软件交换机程序,安装所述第一边缘计算节点的虚拟软件交换机;
和/或,所述第一边缘计算节点根据自生系统中写入的OpenFlow控制器程序安装所述第一边缘计算节点的控制器。
23.根据权利要求17所述的装置,其特征在于,所述装置还包括:
第一接收单元,用于所述第一边缘计算节点接收所述第二边缘计算节点发送的请求报文;所述第一边缘计算节点基于所述请求报文,向所述第二边缘计算节点发送配置文件,所述配置文件用于所述第二边缘计算节点部署操作系统;
第二接收单元,用于所述第一边缘计算节点接收其中一个第二边缘计算节点发出的DHCP信息;
所述DHCP信息包括下述中至少一项:第一边缘计算节点的网络IP地址、子网掩码、网关地址、TFTP地址及PXE配置文件。
24.一种存储介质,其上存储有可执行程序,其特征在于,所述可执行程序被处理器执行时实现如权利要求1至4任一项所述部署操作系统的方法的步骤。
25.一种部署操作系统的装置,包括存储器、处理器及存储在存储器上并能够由所述处理器运行的可执行程序,其特征在于,所述处理器运行所述可执行程序时执行如权利要求1至4任一项所述部署操作系统的方法的步骤。
26.一种存储介质,其上存储有可执行程序,其特征在于,所述可执行程序被处理器执行时实现如权利要求5至12任一项所述部署操作系统的方法的步骤。
27.一种部署操作系统的装置,包括存储器、处理器及存储在存储器上并能够由所述处理器运行的可执行程序,其特征在于,所述处理器运行所述可执行程序时执行如权利要求5至12任一项所述部署操作系统的方法的步骤。
CN201910985336.0A 2019-10-16 2019-10-16 一种部署操作系统的方法、装置及存储介质 Active CN112667293B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910985336.0A CN112667293B (zh) 2019-10-16 2019-10-16 一种部署操作系统的方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910985336.0A CN112667293B (zh) 2019-10-16 2019-10-16 一种部署操作系统的方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN112667293A CN112667293A (zh) 2021-04-16
CN112667293B true CN112667293B (zh) 2023-04-07

Family

ID=75400417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910985336.0A Active CN112667293B (zh) 2019-10-16 2019-10-16 一种部署操作系统的方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN112667293B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022226703A1 (zh) * 2021-04-25 2022-11-03 西门子股份公司 软件模块部署方法、装置、计算设备以及存储介质
CN113992494B (zh) * 2021-12-23 2022-03-11 武汉迈异信息科技有限公司 一种云平台创建堡垒机并自动纳管云主机的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398382B2 (en) * 2004-12-29 2008-07-08 Intel Corporation Method and apparatus to enhance platform boot efficiency
CN103037002A (zh) * 2012-12-21 2013-04-10 中标软件有限公司 一种云计算集群环境中服务器集群的部署方法及系统
CN104219099A (zh) * 2014-09-25 2014-12-17 浪潮(北京)电子信息产业有限公司 一种服务器集群自动部署的方法和装置

Also Published As

Publication number Publication date
CN112667293A (zh) 2021-04-16

Similar Documents

Publication Publication Date Title
CN109104318B (zh) 用于实现集群自适应部署的方法
US9137105B2 (en) Method and system for deploying at least one virtual network on the fly and on demand
US11502950B2 (en) Universal customer premise equipment
CN110611588B (zh) 一种网络创建方法、服务器、计算机可读存储介质和系统
US10541877B2 (en) Dynamic reservation protocol for 5G network slicing
JP6203943B2 (ja) デバイスのネットワークへのアクセス方法及び装置
EP3522451B1 (en) Method for implementing network virtualization and related apparatus and communications system
US20160359805A1 (en) Addressing and managing an internal network of a virtual branch node
CN114070723B (zh) 裸金属服务器的虚拟网络配置方法、系统及智能网卡
CN111526223B (zh) 边缘业务服务器的管理方法、业务数据处理方法及装置
US20180048588A1 (en) Automated instantiation of wireless virtual private networks
CN112328262A (zh) 操作系统的部署方法、系统、装置及电子设备
CN110716787A (zh) 容器地址设置方法、设备和计算机可读存储介质
GB2462160A (en) A distributed server system includes a table indicating communication relationships between various service programs
CN112667293B (zh) 一种部署操作系统的方法、装置及存储介质
CN112187532A (zh) 一种节点管控方法及系统
JP2010124129A (ja) 仮想計算機送信方法、システム、管理装置及びプログラム
CN105827496A (zh) 管理pe设备的方法及装置
CN107113333A (zh) 服务器设备的配置
CN110247778A (zh) 操作系统安装方法、装置、电子设备及存储介质
CN113923149B (zh) 网络接入方法、装置、网络系统、电子设备及存储介质
US20190052347A1 (en) Communication system, control device, relay device, control method, and storage medium in which program is stored
CN114363294B (zh) 一种租户服务器的管理方法、装置以及系统
US11099855B2 (en) System and method for updating files through a peer-to-peer network
JP4380443B2 (ja) 通信装置及びその制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant