WO2023031994A1 - サーバ装置、情報処理方法およびプログラム - Google Patents

サーバ装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2023031994A1
WO2023031994A1 PCT/JP2021/031704 JP2021031704W WO2023031994A1 WO 2023031994 A1 WO2023031994 A1 WO 2023031994A1 JP 2021031704 W JP2021031704 W JP 2021031704W WO 2023031994 A1 WO2023031994 A1 WO 2023031994A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
server device
information
script
node
Prior art date
Application number
PCT/JP2021/031704
Other languages
English (en)
French (fr)
Inventor
亮太 壬生
アイジャン ビジャノヴァ
アミット シン
ドアーメンドラ クシュワー
良奈 高木
貴弘 渡邉
達也 外山
Original Assignee
楽天モバイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天モバイル株式会社 filed Critical 楽天モバイル株式会社
Priority to PCT/JP2021/031704 priority Critical patent/WO2023031994A1/ja
Publication of WO2023031994A1 publication Critical patent/WO2023031994A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping

Definitions

  • the present invention relates to a server device, an information processing method and a program, and more particularly to server technology deployed in a large number of accommodation stations in a mobile network.
  • Patent Literature 1 discloses a network boot using the above method and speeding up the startup.
  • the above conventional PXE boot requires a DHCP server and a TFTP server. Since a DHCP server cannot be constructed as a common network with another network beyond a network segment (router), it is necessary to provide a DHCP server for each segment. Alternatively, you need to set up a DHCP relay to allow communication with a DHCP server on another network.
  • a DHCP server is provided for each data center or each rack where physical servers are installed. I had to do some network design and set up a DHCP relay. Also, each node had to make a request to the DHCP server and the TFTP server respectively. Thus, server deployment in large-scale networks has been cumbersome and inefficient.
  • an object of the present invention is to provide a server device that can be deployed quickly and efficiently in a large-scale network, and an information processing method and program for the server device.
  • one aspect of a server device is a server device that receives a command for mounting a remote disk from a server management device connected via a network, and receives the command.
  • a disk mounting unit that mounts the remote disk on the server according to the received command; and a boot execution unit that reads the script written on the remote disk mounted by the disk mounting unit and boots the server.
  • an information setting unit that sets configuration information and identifier information of the server device included in the script to the server device.
  • the server device transmits a request for distribution of an OS (operating system) to be installed in the server device to the server management device using the identifier information set in the server device by the information setting unit.
  • a request unit and an installation execution unit that installs the OS distributed from the server management device in the server device in response to the request transmitted by the distribution request unit may be further provided.
  • the installation execution unit may install the OS on the server device by activating an installation procedure distributed together with the OS from the server management device.
  • the boot execution unit may be triggered by a command to power on the server device, which is input from the server management device.
  • the boot may be a PXE boot
  • the script may be an iPXE script.
  • one aspect of the information processing method according to the present invention is an information processing method in a server apparatus, in which a command for mounting a remote disk is received from a server management apparatus connected via a network, and the received command is received. mounting the remote disk on the server device according to the command, reading a script written on the mounted remote disk and booting the server device, and booting the server device included in the script. and setting configuration information and identifier information for the server device.
  • one aspect of the program according to the present invention is a program for causing a computer to execute information processing in a server device, the program being remote from a server management device connected to the computer via a network.
  • a disk mounting process for receiving a command for mounting a disk and mounting the remote disk on the server according to the received command; and a script written on the remote disk mounted by the disk mounting process. It is for executing processing including boot execution processing for reading and booting the server device, and information setting processing for setting the configuration information and identifier information of the server device included in the script to the server device. be.
  • server devices are rapidly and efficiently deployed in a large-scale network.
  • FIG. 1 is a conceptual diagram showing an example of a network configuration of a mobile network system according to this embodiment.
  • FIG. 2 is a block diagram showing an example of the relationship between the virtualization infrastructure of the mobile network system and the server management device.
  • FIG. 3 is an example showing the overall configuration of server provisioning in this embodiment.
  • FIG. 4 is an example showing the overall configuration of conventional server provisioning.
  • FIG. 5 is a block diagram illustrating an example of a functional configuration of a provisioning server;
  • FIG. 6 is a flowchart illustrating an operation example of a provisioning server.
  • FIG. 7 is a block diagram illustrating an example of the functional configuration of a node;
  • FIG. 8 is a flowchart illustrating an example of node operation.
  • FIG. 9 is a diagram explaining the flow of server provisioning in the mobile network system.
  • FIG. 10 is a conceptual diagram of orchestration in a mobile network system.
  • the server device is accommodated in a large number of accommodation stations (data centers) arranged in a mobile network built on a virtualization platform, and network management implemented in a central data center that constitutes a core network.
  • An example of receiving a boot command from a device and installing an OS (Operating System) on a physical server will be described.
  • the physical server is a general-purpose server that can configure a network virtualization infrastructure, and is a bare metal server before an OS is installed.
  • the server management device is installed in any data center other than the central data center, such as a backhaul network (mobile backhaul: MBH) that relays the radio access network (RAN) to the core network. good.
  • MBH mobile backhaul network
  • RAN radio access network
  • FIG. 1 is a conceptual diagram showing an example of a network configuration of a mobile network system 100 according to an embodiment.
  • a terminal capable of mobile communication such as a smartphone communicates wirelessly with a radio access network, and the information is transmitted to the core network via a mobile backhaul (MBH) for processing.
  • MCH mobile backhaul
  • the mobile network 100 comprises a base station 11 and a plurality of accommodating stations 12-14.
  • the accommodation station 12 is an edge data center
  • the accommodation station 13 is a regional data center (RDC)
  • the accommodation station 14 is a central data center (CDC).
  • a backhaul network is configured from the edge data center 12 to the central data center 14 .
  • the edge data center is also referred to as a GC (Group unit Center) to distinguish it from other data centers.
  • the mobile network 100 in this embodiment may be a virtualized network built on a virtualization infrastructure.
  • software is implemented on a general-purpose server from the switchboard of the backbone network to the wireless access function of the base station.
  • the base station 11 includes an antenna, a switchboard, a battery, and the like.
  • the edge data center 12 is installed near the base stations 11 and is connected to the plurality of base stations 11 by optical fiber cables or the like.
  • the edge data center 12 implements RAN-related radio access functions.
  • the regional data center 13 is connected to a plurality of edge data centers 12 arranged in the target region. In this regional data center 13, firewall/NAT (Network Address Translation), CDN (Content Distribution Network), and various applications for edge computing are implemented by software.
  • the central data center 14 is connected to multiple regional data centers 13 .
  • the central data center 14 implements core functions such as EPC (Evolved Packet Core) and IMS (IP Multimedia Subsystem).
  • each data center such as the edge data center 12, the regional data center 13, and the central data center 14 is not limited to the number shown in FIG.
  • the number of each data center (accommodating station) such as the edge data center 12, the regional data center 13, and the central data center 14 is not limited to the number shown in FIG.
  • a plurality of regional data centers 13 and central data centers 14 may be installed.
  • FIG. 2 is a block diagram showing an example of the relationship between the virtualization infrastructure and the server management device that constitute the mobile network 100. As shown in FIG. Each component shown in FIG. 2 has a reference point. Lines connecting components shown in FIG. 2 indicate that information can be sent and received from each other.
  • NFVI (NFV Infrastructure) 110 is a network function virtualization infrastructure, and includes physical resources, a virtualization layer, and virtualization resources. Physical resources include hardware resources such as computing resources, storage resources, and transmission resources.
  • the virtualization layer is a virtualization layer such as a hypervisor for virtualizing physical resources and providing them to VNF (Network Function Virtualization) 120 .
  • a virtualized resource is a virtualized infrastructure resource provided to the VNF 120 .
  • the NFVI 110 flexibly virtualizes hardware resources such as computing, storage, and network functions as virtualized hardware resources such as virtualized computing, virtualized storage, and virtualized networks in a virtualization layer such as a hypervisor. It is a base that can be handled.
  • a plurality of general-purpose servers constituting the NFVI 110 of FIG. 2 may be arranged in each of the data centers (accommodating stations) 12-14.
  • the number of general-purpose servers to be placed in each of the data centers 12 to 14, their placement positions, wiring, etc. are determined in advance according to the data center type (accommodating station type).
  • the general-purpose servers installed are connected by an internal network so that information can be exchanged with each other.
  • Data centers are connected by a network, and general-purpose servers provided in different data centers can transmit and receive information to and from each other via the network.
  • the VNF 120 corresponds to an application running on a virtual machine (VM) on a general-purpose server and implements network functions in software. Although not shown, each VNF 120 may be provided with a management function called EM (Element Manager).
  • EM Element Manager
  • the NFVI 110 and VNF 120 in FIG. 2 constitute a virtual environment. That is, the virtualization environment is composed of three layers, hardware, virtualization layer, and virtual machine, in order from the bottom.
  • a MANO (Management and Orchestration) 130 has a virtual environment management function and an orchestration function.
  • the MANO 130 includes an NFVO (NFV-Orchestrator) 131 , a VNFM (VNF-Manager) 132 and a VIM (Virtualized Infrastructure Manager) 133 .
  • the NFVO 131 performs orchestration of NFVI resources, life cycle management of network services, and integrated operation management of the entire system.
  • the NFVO 131 can perform processing according to instructions from an OSS/BSS (Operation Support System/Business Support System) 140, which will be described later.
  • OSS/BSS Operaation Support System/Business Support System
  • VNFM 132 performs life cycle management of VNF 120 .
  • VNFM 132 may be arranged in MANO 130 as a dedicated VNFM corresponding to each VNF 120 .
  • one VNFM 132 may manage the lifecycles of two or more VNFs 120 .
  • VNFM 132 may be a generic VNFM that corresponds to VNF 120 from a different vendor.
  • the VIM 133 manages and operates resources used by the VNF 120 .
  • OSS/BSS 140 is an integrated management system for mobile network 100 .
  • OSS is a system (equipment, software, mechanism, etc.) necessary for building and operating a service
  • BSS is information used for billing such as usage fees, billing, customer service, etc. It is a system (equipment, software, mechanism, etc.).
  • the server management device 150 is communicably connected to the NFVI 110, the OSS/BSS 140 and the MANO 130, and executes server management processing for managing the servers (nodes) arranged in each data center.
  • FIG. 2 shows an example in which the server management device 150 is an external function of the OSS/BSS 140 and the MANO 130, this embodiment is not limited to this.
  • the server management device 150 may be provided inside the OSS/BSS 140 or inside the MANO 130 .
  • the server management functions of the server management device 150 are part of the functions of the OSS/BSS 140 and the MANO 130 .
  • FIG. 3 is an example showing the overall configuration of server provisioning in this embodiment.
  • the provisioning server 20 includes a northbound interface (Northbound I/F) 21 , a workflow engine 22 , an information management database 23 and an HTTP (Hypertext Transfer Protocol) server 24 .
  • a plurality of nodes 30 are each connected to the provisioning server 20 via a network.
  • Each of the plurality of nodes 30 constitutes a server device in this embodiment.
  • Each node 30 has a motherboard (M/B) 31 .
  • the motherboard 31 includes a BMC (Baseboard Management Controller) chipset 32 , a remote disk 33 mounted on a remote KVM, and a UEFI (Unified Extensible Firmware Interface) 34 .
  • KVM is an abbreviation for Keyboard, Video, Mouse.
  • the motherboard 31 may include connectors for connecting various chipsets, expansion slots, power supplies, and various disk drives, although not shown.
  • the provisioning server 20 activates the workflow engine 22 according to triggers input via the northbound interface 21 .
  • the workflow engine 22 acquires the node information of the plurality of nodes 30 to be provisioned from the information management database 23 that manages the node information (server information) of the plurality of nodes (servers) 30 that constitute the mobile network 100, Necessary files are generated for each of the plurality of nodes 30 based on the acquired node information.
  • the workflow engine 22 generates a disk image of the remote disk 33 to be mounted on each of the plurality of nodes 30 based on the node information, and mounts the remote disk 33 on the corresponding node 30. Submit the mount command via the network.
  • the remote disk 33 can be mounted using the remote disk function (virtual media function) of the remote KVM functions of the motherboard 31 .
  • the workflow engine 22 can input a power command (boot command) for turning on the power of the node 30 to the node 30 via the network.
  • This boot instruction may be an IPMI command using the IPMI (Intelligent Platform Management Interface) protocol.
  • the node 30 is powered on by receiving a boot command from the provisioning server 20 using IPMI/BMC.
  • the UEFI 34 When the power is turned on, the UEFI 34 is activated, the UEFI 34 reads information written in the remote disk 33, and performs initial settings such as network settings.
  • the node 30 is equipped with a NIC (Network Interface Card) compatible with PXE (Preboot eXecution Environment).
  • the node 30 activates the boot loader (eg, syslinux) 36 with the NIC firmware (PXE) 35 and sends a distribution request for the OS to be installed to the provisioning server 20 .
  • the node 30 acquires an OS package including an OS image, an OS setting file, etc. from the HTTP server 24 in response to the distribution request, and installs the OS 37 .
  • the workflow engine 22 can also install the middleware (M/W) 38 and the like in the node 30 after the OS 37 is installed in the node 30 .
  • M/W middleware
  • FIG. 4 is an example showing the overall configuration of conventional server provisioning.
  • the example shown in FIG. 4 is an example of adopting PXE boot for network booting from firmware written in the NIC.
  • Conventional PXE booting requires obtaining a boot image over the network. Therefore, a TFTP server for distributing the boot image and a DHCP server for issuing an address for communication with the TFTP server are essential. That is, as shown in FIG. 4, the provisioning server 20A includes a DHCP server 21A, a TFTP server 22A, and an HTTP server 23A.
  • Each node 30A makes a DHCP request to the DHCP server 21A with NIC firmware (PXE) 31A according to the boot command from the provisioning server 20A.
  • This DHCP request includes an IP address request, a TFTP server address request, and the like.
  • each node 30A receives a response from the DHCP server 21A, it makes a TFTP request to the TFTP server 22A based on the received information, acquires a boot script (such as a boot image) from the TFTP server 22A, and executes it. do.
  • each node 30A activates the boot loader 32A by the executed boot script, and transmits an OS distribution request to the HTTP server 23A.
  • each node 30A acquires the OS package from the HTTP server 23A as a response to the distribution request and installs the OS 33A.
  • a DHCP server and a TFTP server are unnecessary.
  • the UEFI 34 first reads the information written in the pre-mounted remote disk 33, thereby realizing the functions of the conventional DHCP server and TFTP server such as IP address setting. be able to.
  • IP assignment by the local network can be omitted. Therefore, the OS can be installed simply by obtaining the OS package from the HTTP server. Therefore, complicated settings in the conventional L2 network can be made unnecessary.
  • FIG. 5 is a block diagram showing an example of the functional configuration of the provisioning server 20.
  • the provisioning server 20 includes a server information acquisition unit 20a, a script generation unit 20b, a remote disk setting unit 20c, a mount command input unit 20d, a power command input unit 20e, and a distribution unit 20f.
  • the server information acquisition unit 20a acquires node information (server information) from the information management database 23 according to instructions from the administrator.
  • the information management database 23 is a database that manages node information of the plurality of nodes 30 that make up the mobile network 100 .
  • the node information managed by the information management database 23 is inventory information (Inventory information) required for provisioning of the node 30, and includes node configuration information and node identifier information.
  • the node information includes identification information of the node (ID, code, serial number, MAC address, IP address, etc.), identification information of the data center to which the node belongs (ID, type, code, etc.), location information of the node (data rack name in the center, rack number, etc.).
  • the node information may be managed in the information management database 23, for example, in units of clusters (units of data center (unit of GC, etc.), units of rack, units of POD, etc.).
  • the server information acquisition unit 20a receives information (for example, GC type, etc.) regarding provisioning target nodes specified by the administrator, and acquires corresponding node information from the information management database 23 based on the received information.
  • the node information acquired at this time may be node information in units of clusters (for example, in units of GCs).
  • the script generation unit 20b generates an iPXE script corresponding to each of the plurality of nodes 30 belonging to the cluster based on the node information for each cluster.
  • the iPXE script is a script for booting each node 30 and includes identifier information such as configuration information of each node 30 and IP address of each node 30 .
  • the script generation unit 20b embeds necessary information in a predefined iPXE script template based on the node information acquired by the server information acquisition unit 20a, thereby generating an iPXE script for each node. can be generated.
  • iPXE script templates may be stored in the information management database 23 for each type such as node type or GC type.
  • the script generation unit 20b generates an installation procedure corresponding to each of the plurality of nodes 30 belonging to the cluster based on the node information for each cluster, and stores the generated installation procedure in the HTTP server 24.
  • the installation procedure is a kickstart file in which an OS installation scenario for each node 30 is set.
  • the script generation unit 20b embeds necessary information in a predefined kickstart file template based on the node information acquired by the server information acquisition unit 20a, thereby performing kickstart for each node.
  • a file can be generated.
  • kickstart file templates may be stored in the information management database 23 for each type such as node type or GC type.
  • the remote disk setting unit 20 c generates disk images in which the iPXE scripts generated by the script generating unit 20 b are written, and sets these as remote disks to be mounted on each node 30 .
  • the mount command input unit 20d inputs to the corresponding node 30 via the network a disk mount command for mounting the remote disk set by the remote disk setting unit 20c on the corresponding node 30.
  • FIG. As a result, the remote disk 33 is mounted on the mother board 31 of the node 30 to which the command is input.
  • the power command input unit 20e inputs a power command (boot instruction) for powering on the node 30 to the node 30 via the network.
  • the distribution unit 20f Upon receiving an OS distribution request from the node 30, the distribution unit 20f sends the OS package stored in the HTTP server 24 and the Distribute the kickstart file.
  • an HTTP server is used as the file server, but the file server may be an HTTPS (Hypertext Transfer Protocol Secure) server, an NFS (Network File System) server, or the like.
  • FIG. 6 is a flowchart showing an operation example of the provisioning server 20.
  • the processing shown in FIG. 6 is started when the workflow engine 22 is activated.
  • the server information acquisition unit 20a acquires node information of a plurality of target nodes, and proceeds to step S2.
  • the script generation unit 20b generates an iPXE script for each node based on the node information acquired in step S1, and proceeds to step S3.
  • the remote disk setting unit 20c sets a remote disk to be mounted on each node 30 by generating a disk image for each node in which the iPXE script for each node generated in step S2 is written. , the process proceeds to step S4.
  • step S4 the script generation unit 20b generates a kickstart file for each node based on the node information acquired in step S1, and proceeds to step S5.
  • step S5 the script generator 20b places the kickstart file generated in step S4 in the HTTP server 24, and proceeds to step S6.
  • step S6 the mount command input unit 20d inputs to each node 30 via the network a disk mount command for mounting the remote disk set in step S3 on the corresponding node 30, and the process proceeds to step S7.
  • step S7 the power command input unit 20e inputs a power command (boot instruction) for powering on each node 30 to each node 30 via the network.
  • step S8 the distribution unit 20f determines whether or not an OS distribution request has been received from the node 30. If the distribution unit 20f has not received an OS distribution request from the node 30, the distribution unit 20f waits until an OS distribution request is received. Then, the OS package stored in the HTTP server 24 and the kickstart file corresponding to the node 30, which is the source of the OS distribution request, are distributed to the node 30, which is the source of the OS distribution request.
  • FIG. 7 is a block diagram showing an example of the functional configuration of the node 30.
  • the node 30 includes a disk mount section 30a, a boot execution section 30b, an information setting section 30c, a distribution request section 30d, and an install execution section 30e.
  • the disk mount unit 30a receives a disk mount command for mounting the remote disk 33 from the provisioning server 20, and mounts the remote disk 33 on the motherboard 31 according to the received command. An iPXE script is written on this remote disk 33 .
  • the boot executing unit 30b is triggered by a power command input from the provisioning server 20, reads the iPXE script written in the remote disk 33, and executes booting.
  • the information setting unit 30c sets node configuration information, an IP address, and the like included in the iPXE script read from the remote disk 33 to its own device.
  • the distribution request unit 30d transmits a distribution request for the OS to be installed to the provisioning server 20 using the IP address set in the own device. Also, the distribution requesting unit 30d receives the OS package and the kickstart file distributed from the provisioning server 20 in response to the transmitted distribution request.
  • the installation executing unit 30e installs the OS according to the procedure of the kickstart file.
  • FIG. 8 is a flowchart showing an operation example (information processing procedure) of the node 30 .
  • the processing shown in FIG. 8 is started when a disk mount command is received from the provisioning server 20 while the power of the node 30 is off.
  • the disk mount unit 30a mounts the remote disk 33 according to the disk mount command from the provisioning server 20, and proceeds to step S12.
  • the boot execution unit 30b receives a boot command from the provisioning server 20, powers on the node 30, and proceeds to step S13.
  • step S13 the boot execution unit 30b activates the UEFI 34, reads the iPXE script from the remote disk 33, and proceeds to step S14.
  • step S14 the information setting unit 30c performs network settings such as IP address settings based on the iPXE script read in step S13, and proceeds to step S15.
  • step S15 the distribution request unit 30d uses the IP address set in step S14 to transmit an OS distribution request to the HTTP server 24, acquires the OS package and the kickstart file from the HTTP server 24, The process proceeds to step S16.
  • step S16 the installation executing unit 30e installs the OS using the OS package obtained in step S15 along with the kickstart file obtained in step S15.
  • the OSS 140 which is the highest layer of the virtualized network, manages inventory information such as configuration information and identifier information of each node 30 that constitutes the mobile network 100. and a BMaaS (Bare Metal as a Service) 142 that generates and deploys scripts for executing booting and OS installation for each node using the inventory information.
  • the workflow engine 143 included in the BMaaS 142 corresponds to the workflow engine 22 shown in FIG. 3
  • the script 144 corresponds to the iPXE script generated by the workflow engine 22 shown in FIG.
  • the OSS 140 can have the functionality of the provisioning server 20 shown in FIG.
  • the mobile network 100 of the present embodiment for example, as shown in FIG. 10, by constructing one set of the inventory management function 141, BMaaS 142 and HTTP server 145 in the central data center (CDC) 14 shown in FIG. , server deployment to multiple edge data centers (GC) 12 and multiple regional data centers (RDC) 13 connected via a network.
  • the HTTP server 145 corresponds to the HTTP server 23 shown in FIG. In this way, central control by a central data center (CDC) is possible.
  • each node 30 that constitutes the mobile network 100 in this embodiment includes the remote disk 33 mounted by the provisioning server 20, and is triggered by a power command input from the provisioning server 20 to activate the remote disk.
  • the iPXE script is a script for booting each node 30 and includes configuration information and identifier information (IP address, etc.) of each node.
  • Each node 30 reads and executes the iPXE script from the remote disk 33 with the power command as a trigger. It can set its own IP address, etc., and boot. In this way, each node 30 can set an IP address and acquire a boot script by referring to the remote disk 33 mounted on itself. Therefore, the DHCP server and TFTP server required for conventional PXE booting are no longer required, and for example, complicated L2 network settings can be eliminated. Also, in each node 30, it is possible to eliminate the need for requests to the DHCP server and the TFTP server respectively.
  • each node 30 executes an iPXE script and sends an OS distribution request to the provisioning server 20 using the IP address set to itself, thereby downloading the OS package and kickstart file from the HTTP server 24. can do. Then, each node 30 can install the OS by activating the acquired kickstart file.
  • the kickstart file downloaded at this time is an installation procedure corresponding to each node 30 generated in the provisioning server 20 . Therefore, each node 30 can install the OS in an appropriate scenario according to each environment according to the kickstart file.
  • each node 30 mounts the remote disk 33 that has only the function to perform the initial network configuration and boot the node 30, and the files necessary for OS installation (OS package, kickstart file) are Acquired from the HTTP server 24 .
  • OS package, kickstart file the files necessary for OS installation
  • the remote disk 33 can be made very light.
  • boot provisioning using the remote disk function can be realized, and servers can be rapidly and efficiently deployed on a large scale in a large-scale network.
  • the server management device 150 may be implemented in any general-purpose server that constitutes the backhaul network, core network, or the like of the mobile network 100 .
  • the server management device 150 may be implemented in a dedicated server.
  • the server management device 150 may be implemented on a single computer or multiple computers.
  • the server management device 150 includes a CPU, ROM, RAM, HDD, input unit (keyboard, pointing device, etc.), display unit (monitor, etc.), communication I/ F etc. can be provided.
  • the server management device 150 shown in FIG. 3 can be implemented by the CPU executing the program.
  • at least some of the elements of the server management device 150 shown in FIG. 3 may operate as dedicated hardware. In this case, the dedicated hardware operates under the control of the CPU.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Stored Programmes (AREA)

Abstract

大規模ネットワークにおいて、迅速かつ効率的にサーバを展開する。 サーバ装置は、ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信されたコマンドに従って、リモートディスクをサーバ装置にマウントするディスクマウント部と、ディスクマウント部によりマウントされたリモートディスクに書き込まれたスクリプトを読み出して、サーバ装置をブートするブート実行部と、スクリプトに含まれるサーバ装置の構成情報および識別子情報をサーバ装置に設定する情報設定部と、を備える。

Description

サーバ装置、情報処理方法およびプログラム
 本発明は、サーバ装置、情報処理方法およびプログラムに関し、特に、モバイルネットワークにおいて多数の収容局に展開されるサーバの技術に関する。
 従来のネットワークブート方式として、PXE(Preboot eXecution Environment)に対応したネットワークカードとDHCP(Dynamic Host Configuration Protocol)サーバおよびTFTP(Trivial File Transfer Protocol)サーバとを利用したPXEブートがある。
 特許文献1は、上記の方式を利用したネットワークブートとその起動の高速化について開示する。
特開2005-149334号公報
 上記従来のPXEブートでは、DHCPサーバおよびTFTPサーバを必要とする。DHCPサーバは、ネットワークセグメント(ルータ)を越えて別のネットワークと共通のものとして構築することができないため、セグメント毎にそれぞれDHCPサーバを設ける必要がある。もしくは、DHCPリレーを設定して、別のネットワーク上にあるDHCPサーバとの通信を可能とする必要がある。
 近年のモバイルネットワーク等の大規模ネットワークにおいては、ネットワークの構築、保守、運用に効率化および自動化が求められている。例えばデータセンタ(収容局)を新たに構築する場合には、当該データセンタに物理サーバを設置し、設置した物理サーバにOS(Operating System)等をインストールしていくが、こうしたデータセンタは多数存在し、地理的にも分散配置されているため、遠隔でOS等のインストールが行われる。
 しかしながら、このような大規模ネットワークにおいて、上記従来のPXEブートを利用したOSインストールを行う場合、例えばデータセンタ単位や物理サーバが設置されたラック単位でそれぞれDHCPサーバを設け、それぞれの環境に応じたネットワーク設計を行ったり、DHCPリレーを設定したりする必要があった。また、各ノードにおいては、DHCPサーバおよびTFTPサーバそれぞれに対して要求を行う必要があった。このように、大規模ネットワークにおけるサーバ展開は煩雑かつ非効率的であった。
 そこで、本発明は、大規模ネットワークにおいて、迅速かつ効率的に展開されることが可能なサーバ装置、そのサーバ装置における情報処理方法およびプログラムを提供することを課題とする。
 上記課題を解決するために、本発明に係るサーバ装置の一態様は、サーバ装置であって、ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするディスクマウント部と、前記ディスクマウント部によりマウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするブート実行部と、前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定する情報設定部と、を備える。
 前記サーバ装置は、前記情報設定部により前記サーバ装置に設定された前記識別子情報を用いて、前記サーバ装置にインストールすべきOS(オペレーティングシステム)の配信の要求を、前記サーバ管理装置に送信する配布要求部と、前記配布要求部により送信された前記要求に応答して、前記サーバ管理装置から配信される前記OSを、前記サーバ装置にインストールするインストール実行部と、をさらに備えてよい。
 前記インストール実行部は、前記サーバ管理装置から前記OSとともに配信されるインストールプロシージャを起動することにより、前記OSを前記サーバ装置にインストールしてよい。
 前記ブート実行部は、前記サーバ管理装置から投入される、前記サーバ装置の電源をオンするコマンドをトリガに起動されてよい。
 前記ブートはPXEブートであり、前記スクリプトはiPXEスクリプトであってよい。
 また、本発明に係る情報処理方法の一態様は、サーバ装置における情報処理方法であって、ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするステップと、マウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするステップと、前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定するステップと、を含む。
 さらに、本発明に係るプログラムの一態様は、サーバ装置における情報処理をコンピュータに実行させるためのプログラムであって、該プログラムは、前記コンピュータに、ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするディスクマウント処理と、前記ディスクマウント処理によりマウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするブート実行処理と、前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定する情報設定処理と、を含む処理を実行させるためのものである。
 本発明の一つの態様によれば、大規模ネットワークにおいて、迅速かつ効率的にサーバ装置が展開される。
 上記した本発明の目的、態様及び効果並びに上記されなかった本発明の目的、態様及び効果は、当業者であれば添付図面及び請求の範囲の記載を参照することにより下記の発明を実施するための形態から理解できるであろう。
図1は、本実施形態におけるモバイルネットワークシステムのネットワーク構成の一例を示す概念図である。 図2は、モバイルネットワークシステムの仮想化基盤とサーバ管理装置との関係の一例を示すブロック図である。 図3は、本実施形態におけるサーバプロビジョニングの全体構成を示す一例である。 図4は、従来のサーバプロビジョニングの全体構成を示す一例である。 図5は、プロビジョニングサーバの機能構成の一例を示すブロック図である。 図6は、プロビジョニングサーバの動作例を示すフローチャートである。 図7は、ノードの機能構成の一例を示すブロック図である。 図8は、ノードの動作例を示すフローチャートである。 図9は、モバイルネットワークシステムにおけるサーバプロビジョニングの流れを説明する図である。 図10は、モバイルネットワークシステムにおけるオーケストレーションの概念図である。
 以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。以下に開示される構成要素のうち、同一機能を有するものには同一の符号を付し、その説明を省略する。なお、以下に開示される実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
 以下、本実施形態に係るサーバ装置が、仮想化基盤で構築されたモバイルネットワークに配置される多数の収容局(データセンタ)に収容され、コアネットワークを構成する中央データセンタにおいて実装されたネットワーク管理装置からブート命令を受け、物理サーバにOS(Operating System)のインストールを行う例を説明する。ここで、上記物理サーバは、ネットワーク仮想化基盤を構成可能な汎用サーバであって、OSがインストールされる前のベアメタルサーバである。
 しかしながら、本実施形態はこれに限定されない。サーバ管理装置は、中央データセンタ以外、例えば無線アクセスネットワーク(Radio Access Network:RAN)をコアネットワークに中継するバックホールネットワーク(モバイルバックホール:MBH)等を構成するいずれかのデータセンタに実装されてよい。
 図1は、実施形態におけるモバイルネットワークシステム100のネットワーク構成の一例を示す概念図である。
 図1に示すモバイルネットワーク100においては、スマートフォンなどのモバイル通信可能な端末と無線アクセスネットワークとが無線通信し、その情報を、モバイルバックホール(MBH)を中継してコアネットワークに送って処理することで、インターネット200に接続したり、他社のネットワークと接続して音声通話をしたりすることができる。
 具体的には、モバイルネットワーク100は、基地局11と、複数の収容局12~14と、を備えて構成される。ここで、収容局12はエッジデータセンタ、収容局13は地域データセンタ(Regional Data Center:RDC)、収容局14は中央データセンタ(Central Data Center:CDC)である。エッジデータセンタ12から中央データセンタ14までの間でバックホールネットワークが構成される。なお、以下の説明では、エッジデータセンタを他のデータセンタと区別するためにGC(Group unit Center)ともいう。
 本実施形態におけるモバイルネットワーク100は、仮想化基盤で構築された仮想化ネットワークであってよい。このモバイルネットワーク100では、汎用的なサーバ上に、基幹網の交換機から基地局の無線アクセス機能までをソフトウェアで実現している。
 基地局11は、アンテナや配電盤、バッテリー等を備える。
 エッジデータセンタ12は、基地局11の近くに設置され、複数の基地局11とそれぞれ光ファイバーケーブル等で接続されている。エッジデータセンタ12では、RAN関連の無線アクセス機能を実現する。
 地域データセンタ13は、対象地域に配置される複数のエッジデータセンタ12と接続されている。この地域データセンタ13では、ファイアウォール/NAT(Network Address Translation)、CDN(Content Distribution Network)や、エッジコンピューティングのためのさまざまなアプリケーションをソフトウェアにより実現する。
 中央データセンタ14は、複数の地域データセンタ13と接続されている。この中央データセンタ14では、EPC(Evolved Packet Core)やIMS(IP Multimedia Subsystem)などのコア機能を実現する。
 なお、エッジデータセンタ12、地域データセンタ13、中央データセンタ14といった各データセンタ(収容局)の数は、図1に示す数に限定されない。例えば図1では、地域データセンタ13および中央データセンタ14を1つずつしか図示していないが、地域データセンタ13および中央データセンタ14はそれぞれ複数設置されていてもよい。
 図2は、モバイルネットワーク100を構成する仮想化基盤とサーバ管理装置との関係の一例を示すブロック図である。
 この図2に示す構成要素は、それぞれ参照点を有している。図2に示す構成要素間を結ぶ線は、互いに情報の送受信が可能であることを示している。
 NFVI(NFV Infrastructure)110は、ネットワーク機能仮想化基盤であり、物理資源、仮想化層、仮想化資源を含んで構成される。物理資源には、計算資源、記憶資源、伝送資源といったハードウェアリソースが含まれる。仮想化層は、物理資源を仮想化してVNF(Network Function Virtualization)120に提供するためのハイパーバイザー等の仮想化レイヤである。仮想化資源は、VNF120に提供される仮想化されたインフラ資源である。
 即ち、NFVI110は、コンピューティング、ストレージ、ネットワーク機能といったハードウェアリソースを、ハイパーバイザー等の仮想化レイヤで仮想化した仮想化コンピューティング、仮想化ストレージ、仮想化ネットワークといった仮想化ハードウェアリソースとして柔軟に扱えるようにした基盤である。
 各データセンタ(収容局)12~14には、それぞれ、図2のNFVI110を構成する複数の汎用サーバが配置されてよい。各データセンタ12~14のそれぞれに配置される汎用サーバの台数や配置位置、配線等は、データセンタのタイプ(収容局タイプ)によって予め定められている。各データセンタ12~14では、配置された汎用サーバが内部のネットワークによって接続されており、互いに情報の送受信を行うことができるようになっている。また、データセンタ間はネットワークで接続されており、異なるデータセンタに設けられた汎用サーバは、当該ネットワークを介して互いに情報の送受信を行うことができるようになっている。
 VNF120は、汎用サーバ上の仮想マシン(Virtual Machine:VM)で動作するアプリケーションに対応し、ネットワーク機能をソフトウェア的に実現する。なお、特に図示しないが、VNF120ごとにEM(Element Manager)という管理機能が設けられていてもよい。
 図2におけるNFVI110とVNF120とで仮想化環境を構成している。つまり、仮想化環境は、下層から順に、ハードウェア、仮想化レイヤ、仮想マシンの3レイヤで構成される。
 MANO(Management and Orchestration)130は、仮想化環境の管理機能とオーケストレーション機能とを有する。MANO130は、NFVO(NFV-Orchestrator)131、VNFM(VNF-Manager)132、VIM(Virtualized Infrastructure Manager)133を備える。
 NFVO131は、NFVIリソースのオーケストレーションや、ネットワークサービスのライフサイクル管理を行い、システム全体の統合的な運用管理を行う。このNFVO131は、後述するOSS/BSS(Operation Support System/Business Support System)140からの指示に応じた処理を行うことができる。
 VNFM132は、VNF120のライフサイクル管理を行う。なお、VNFM132は、VNF120毎に、それぞれ対応する専用VNFMとしてMANO130に配置されていてもよい。または、1つのVNFM132が、2以上のVNF120のライフサイクルを管理してもよい。この場合、VNFM132は、異なるベンダから提供されるVNF120に対応する汎用VNFMであってもよい。
 VIM133は、VNF120が使用するリソースの運用管理を行う。
 OSS/BSS140は、モバイルネットワーク100の統合管理システムである。
 ここで、OSSは、サービスを構築し、運営していくために必要なシステム(機器やソフトウェア、仕組みなど)であり、BSSは、利用料などの課金、請求、顧客対応などのために用いる情報システム(機器やソフトウェア、仕組みなど)である。
 サーバ管理装置150は、NFVI110、OSS/BSS140およびMANO130と通信可能に接続され、各データセンタに配置されたサーバ(ノード)を管理するサーバ管理処理を実行する。
 なお、図2は、サーバ管理装置150が、OSS/BSS140やMANO130の外部機能である例を示すが、本実施形態はこれに限定されない。例えば、サーバ管理装置150は、OSS/BSS140の内部に設けられていてもよいし、MANO130の内部に設けられていてもよい。この場合、サーバ管理装置150が有するサーバ管理機能は、OSS/BSS140やMANO130の機能の一部となる。
 図3は、本実施形態におけるサーバプロビジョニングの全体構成を示す一例である。
 プロビジョニングサーバ20は、ノースバウンドインタフェース(Northbound I/F)21と、ワークフローエンジン22と、情報管理データベース23と、HTTP(Hypertext Transfer Protocol)サーバ24と、を備える。
 複数のノード30は、ネットワークを介してプロビジョニングサーバ20とそれぞれ接続されている。この複数のノード30が、それぞれ本実施形態におけるサーバ装置を構成している。各ノード30は、マザーボード(M/B)31を備える。マザーボード31は、BMC(Baseboard Management Controller)チップセット32と、リモートKVMにマウントされたリモートディスク33と、UEFI(Unified Extensible Firmware Interface)34と、を備える。ここで、KVMは、Keyboard,Video,Mouseの略である。なお、特に図示しないが、マザーボード31は、上記の他に各種チップセット、拡張スロット、電源や各種ディスクドライブを接続するコネクタを備えてよい。
 プロビジョニングサーバ20は、ノースバウンドインタフェース21を介して入力されるトリガに従ってワークフローエンジン22を起動する。
 ワークフローエンジン22は、モバイルネットワーク100を構成する複数のノード(サーバ)30のノード情報(サーバ情報)を管理する情報管理データベース23から、プロビジョニングの対象となる複数のノード30のノード情報を取得し、取得されたノード情報に基づいて、複数のノード30のそれぞれについて必要なファイルを生成する。
 具体的には、ワークフローエンジン22は、ノード情報に基づいて、複数のノード30のそれぞれにマウントされるべきリモートディスク33のディスクイメージを生成し、対応するノード30に、リモートディスク33をマウントさせるディスクマウントコマンドを、ネットワークを介して投入する。リモートディスク33は、マザーボード31のリモートKVM機能のうち、リモートディスク機能(仮想メディア機能)を用いてマウントすることができる。
 また、ワークフローエンジン22は、ノード30の電源をオンさせる電源コマンド(ブート命令)を、ネットワークを介してノード30に投入することができる。このブート命令は、IPMI(Intelligent Platform Management Interface)プロトコルを用いたIPMIコマンドであってよい。
 ノード30は、プロビジョニングサーバ20からIPMI/BMCを用いてブート命令を受信することで、電源がオンされる。電源がオンすると、UEFI34が起動され、UEFI34がリモートディスク33に書き込まれた情報を読み出し、ネットワーク設定等の初期設定を行う。
 また、ノード30には、PXE(Preboot eXecution Environment)に対応したNIC(Network Interface Card)が搭載されている。ノード30は、リモートディスク33に書き込まれた情報を用いてNICファームウェア(PXE)35でブートローダ(例えばsyslinux)36を起動し、プロビジョニングサーバ20に対してインストールすべきOSの配信要求を送信する。そして、ノード30は、当該配信要求の応答としてHTTPサーバ24からOSイメージやOS設定ファイル等を含むOSパッケージを取得して、OS37をインストールする。
 なお、ワークフローエンジン22は、ノード30においてOS37がインストールされた後、ノード30にミドルウェア(M/W)38等をインストールすることもできる。
 図4は、従来のサーバプロビジョニングの全体構成を示す一例である。
 この図4に示す例は、NICに書き込まれたファームウェアからネットワークブートするPXEブートを採用した例である。
 従来のPXEブートでは、ネットワーク経由でブートイメージを取得する必要がある。そのため、ブートイメージを配布するためのTFTPサーバと、TFTPサーバと通信するためのアドレスを払い出すDHCPサーバとが必須となる。
 つまり、図4に示すように、プロビジョニングサーバ20Aは、DHCPサーバ21Aと、TFTPサーバ22Aと、HTTPサーバ23Aと、を備える。
 各ノード30Aは、プロビジョニングサーバ20Aからのブート命令に従って、NICファームウェア(PXE)31AでDHCPサーバ21Aに対してDHCP要求を行う。このDHCP要求には、IPアドレス要求やTFTPサーバアドレス要求等が含まれる。
 また、各ノード30Aは、DHCPサーバ21Aから応答を受け取ると、受け取った情報をもとにTFTPサーバ22Aに対してTFTP要求を行い、TFTPサーバ22Aからブートスクリプト(ブートイメージ等)を取得し、実行する。
 そして、各ノード30Aは、実行されたブートスクリプトによってブートローダ32Aが起動し、HTTPサーバ23Aに対してOSの配信要求を送信する。そして、各ノード30Aは、当該配信要求の応答としてHTTPサーバ23AからOSパッケージを取得して、OS33Aをインストールする。
 このように、従来のPXEブートでは、DHCPサーバおよびTFTPサーバを必要とする。しかしながら、DHCPサーバはL2ネットワーク毎に設ける必要があるため、モバイルネットワーク100のような大規模ネットワークにおいては、例えばデータセンタ単位やラック単位でDHCPサーバを設ける必要があった。つまり、データセンタ単位やラック単位でプロビジョニングサーバ20Aを構築する必要があった。
 これに対して、本実施形態では、DHCPサーバおよびTFTPサーバは不要である。各ノード30においては、電源オンで、まず、UEFI34が、予めマウントされたリモートディスク33に書き込まれた情報を読み込むことで、IPアドレスの設定等、従来のDHCPサーバやTFTPサーバの機能を実現することができる。つまり、各ノード30の固有の設定情報はそれぞれ各ノード30のリモートディスク33によって管理することで、ローカルネットワークによるIP付与を省略することができる。そのため、HTTPサーバからOSパッケージを取得するだけでOSのインストールが可能である。したがって、従来のL2ネットワークにおける煩雑な設定を不要とすることができる。
 以下、プロビジョニングサーバ20の具体的構成について説明する。
 図5は、プロビジョニングサーバ20の機能構成の一例を示すブロック図である。
 この図5に示すように、プロビジョニングサーバ20は、サーバ情報取得部20a、スクリプト生成部20b、リモートディスク設定部20c、マウントコマンド投入部20d、電源コマンド投入部20eおよび配信部20fを備える。
 サーバ情報取得部20aは、管理者による指示に従って情報管理データベース23からノード情報(サーバ情報)を取得する。
 情報管理データベース23は、モバイルネットワーク100を構成する複数のノード30のノード情報を管理するデータベースである。この情報管理データベース23が管理するノード情報は、ノード30のプロビジョニングに必要なインベントリ情報(Inventory情報)であり、ノードの構成情報とノードの識別子情報とを含む。例えば、ノード情報は、ノードの識別情報(ID、コード、シリアルナンバー、MACアドレス、IPアドレス等)、当該ノードが属するデータセンタの識別情報(ID、タイプ、コード等)、ノードの位置情報(データセンタ内のラック名、ラック番号等)などを含んでよい。また、ノード情報は、情報管理データベース23において、例えばクラスタ単位(データセンタ単位(GC単位等)、ラック単位、POD単位等)で管理されてよい。
 サーバ情報取得部20aは、管理者によって指定されたプロビジョニングの対象ノードに関する情報(例えばGCタイプ等)を受信し、受信した情報をもとに情報管理データベース23から対応するノード情報を取得する。このとき取得されるノード情報は、クラスタ単位(例えばGC単位)のノード情報であってよい。
 スクリプト生成部20bは、クラスタ単位のノード情報に基づいて、当該クラスタに属する複数のノード30にそれぞれ対応するiPXEスクリプトを生成する。ここで、iPXEスクリプトは、各ノード30をブートするためのスクリプトであって、各ノード30の構成情報および各ノード30のIPアドレス等の識別子情報を含む。
 具体的には、スクリプト生成部20bは、予め定義されたiPXEスクリプトのテンプレートに、サーバ情報取得部20aにより取得されたノード情報をもとに必要な情報を埋め込むことで、ノード毎のiPXEスクリプトを生成することができる。例えば、iPXEスクリプトのテンプレートは、ノードのタイプやGCのタイプ等の種類毎に情報管理データベース23に格納されてよい。
 さらに、スクリプト生成部20bは、クラスタ単位のノード情報に基づいて、当該クラスタに属する複数のノード30にそれぞれ対応するインストールプロシージャを生成し、生成したインストールプロシージャをHTTPサーバ24に格納する。ここで、上記インストールプロシージャは、ノード30毎のOSインストールのシナリオを設定したキックスタートファイルである。
 具体的には、スクリプト生成部20bは、予め定義されたキックスタートファイルのテンプレートに、サーバ情報取得部20aにより取得されたノード情報をもとに必要な情報を埋め込むことで、ノード毎のキックスタートファイルを生成することができる。例えば、キックスタートファイルのテンプレートは、ノードのタイプやGCのタイプ等の種類毎に情報管理データベース23に格納されてよい。
 リモートディスク設定部20cは、スクリプト生成部20bにより生成されたiPXEスクリプトをそれぞれ書き込んだディスクイメージを生成し、これを各ノード30にマウントされるべきリモートディスクして設定する。
 マウントコマンド投入部20dは、リモートディスク設定部20cにより設定されたリモートディスクを対応するノード30にマウントさせるディスクマウントコマンドを、ネットワークを介して対応するノード30に対して投入する。これにより、コマンドが投入されたノード30が有するマザーボード31にリモートディスク33がマウントされる。
 電源コマンド投入部20eは、ノード30の電源をオンさせる電源コマンド(ブート命令)を、ネットワークを介してノード30に対して投入する。
 配信部20fは、ノード30からのOSの配信要求を受信した場合に、当該配信要求に応答して、当該配信要求の送信元のノード30に対して、HTTPサーバ24に格納されたOSパッケージおよびキックスタートファイルを配信する。
 なお、本実施形態ではファイルサーバとしてHTTPサーバを用いる場合について説明するが、ファイルサーバは、HTTPS(Hypertext Transfer Protocol Secure)サーバやNFS(Network File System)サーバ等であってもよい。
 図6は、プロビジョニングサーバ20の動作例を示すフローチャートである。
 この図6に示す処理は、ワークフローエンジン22が起動されたタイミングで開始される。
 まずステップS1において、サーバ情報取得部20aは、複数の対象ノードのノード情報を取得し、ステップS2に移行する。
 ステップS2では、スクリプト生成部20bは、ステップS1において取得されたノード情報に基づいて、ノード毎のiPXEスクリプトを生成し、ステップS3に移行する。
 ステップS3では、リモートディスク設定部20cは、ステップS2において生成されたノード毎のiPXEスクリプトをそれぞれ書き込んだノード毎のディスクイメージを生成することで、各ノード30にマウントされるべきリモートディスクを設定し、ステップS4に移行する。
 ステップS4では、スクリプト生成部20bは、ステップS1において取得されたノード情報に基づいて、ノード毎のキックスタートファイルをそれぞれ生成し、ステップS5に移行する。
 ステップS5では、スクリプト生成部20bは、ステップS4において生成されたキックスタートファイルをHTTPサーバ24に配置し、ステップS6に移行する。
 ステップS6では、マウントコマンド投入部20dは、ステップS3において設定されたリモートディスクを対応するノード30にマウントさせるためのディスクマウントコマンドを、ネットワークを介して各ノード30に投入し、ステップS7に移行する。
 ステップS7では、電源コマンド投入部20eは、各ノード30の電源をオンさせるための電源コマンド(ブート命令)を、ネットワークを介して各ノード30に投入する。
 ステップS8では、配信部20fは、ノード30からOSの配信要求を受信したか否かを判定する。そして、配信部20fは、ノード30からのOS配信要求を受信していない場合には、OS配信要求を受信するまで待機し、ノード30からOSの配信要求を受信した場合には、ステップS9に移行して、OS配信要求の送信元のノード30に対して、HTTPサーバ24に格納されたOSパッケージと、OS配信要求の送信元のノード30に対応したキックスタートファイルとを配信する。
 図7は、ノード30の機能構成の一例を示すブロック図である。
 この図7に示すように、ノード30は、ディスクマウント部30aと、ブート実行部30bと、情報設定部30cと、配布要求部30dと、インストール実行部30eと、を備える。
 ディスクマウント部30aは、プロビジョニングサーバ20からリモートディスク33をマウントするためのディスクマウントコマンドを受信し、受信されたコマンドに従って、リモートディスク33をマザーボード31にマウントする。このリモートディスク33には、iPXEスクリプトが書き込まれている。
 ブート実行部30bは、プロビジョニングサーバ20から投入される電源コマンドをトリガにして、リモートディスク33に書き込まれたiPXEスクリプトを読み出してブートを実行する。
 情報設定部30cは、リモートディスク33から読み出したiPXEスクリプトに含まれるノードの構成情報やIPアドレス等を自装置に設定する。
 配布要求部30dは、自装置に設定されたIPアドレスを用いて、インストールすべきOSの配信要求を、プロビジョニングサーバ20に送信する。また、配布要求部30dは、送信した配信要求に応答してプロビジョニングサーバ20から配信されるOSパッケージおよびキックスタートファイルを受信する。
 インストール実行部30eは、キックスタートファイルのプロシージャに沿ってOSをインストールする。
 図8は、ノード30の動作例(情報処理の手順)を示すフローチャートである。
 この図8に示す処理は、ノード30の電源が入っていない状態で、プロビジョニングサーバ20からのディスクマウントコマンドを受信したタイミングで開始される。
 まずステップS11において、ディスクマウント部30aは、プロビジョニングサーバ20からのディスクマウントコマンドに従ってリモートディスク33をマウントし、ステップS12に移行する。
 次にステップS12では、ブート実行部30bは、プロビジョニングサーバ20からのブート命令を受信してノード30の電源をオンし、ステップS13に移行する
 ステップS13では、ブート実行部30bは、UEFI34を起動し、リモートディスク33からiPXEスクリプトを読み込み、ステップS14に移行する。
 ステップS14では、情報設定部30cは、ステップS13において読み込まれたiPXEスクリプトをもとにIPアドレスの設定等のネットワーク設定を行い、ステップS15に移行する。
 ステップS15では、配布要求部30dは、ステップS14において設定されたIPアドレスを用いて、HTTPサーバ24に対してOSの配信要求を送信し、HTTPサーバ24からOSパッケージおよびキックスタートファイルを取得し、ステップS16に移行する。
 ステップS16では、インストール実行部30eは、ステップS15において取得されたキックスタートファイルに沿って、ステップS15において取得されたOSパッケージを用いてOSのインストールを実行する。
 本実施形態のモバイルネットワーク100においては、例えば図9に示すように、仮想化ネットワークの最上位層であるOSS140が、モバイルネットワーク100を構成する各ノード30の構成情報や識別子情報といったインベントリ情報を管理するインベントリ管理機能141と、上記インベントリ情報を用いて、ノード毎のブートやOSインストールを実行するためのスクリプトを生成して展開するBMaaS(Bare Metal as a Service)142と、を有することができる。ここで、BMaaS142が備えるワークフローエンジン143は、図3に示すワークフローエンジン22に対応し、スクリプト144は、図3に示すワークフローエンジン22によって生成されるiPXEスクリプトに対応する。
 このように、OSS140が、図3に示すプロビジョニングサーバ20の機能を有することができる。
 したがって、本実施形態のモバイルネットワーク100においては、例えば図10に示すように、図1に示す中央データセンタ(CDC)14に、インベントリ管理機能141、BMaaS142およびHTTPサーバ145を1セット構築するだけで、ネットワークを介して接続された多数のエッジデータセンタ(GC)12および多数の地域データセンタ(RDC)13へのサーバ展開が可能となる。ここで、HTTPサーバ145は、図3に示すHTTPサーバ23に対応する。
 このように、中央データセンタ(CDC)による中央制御が可能となる。
 以上説明したように、本実施形態におけるモバイルネットワーク100を構成する各ノード30は、プロビジョニングサーバ20によってマウントされたリモートディスク33を備え、プロビジョニングサーバ20から投入される電源コマンドをトリガにして、リモートディスク33に書き込まれたiPXEスクリプトを読み出して実行する。ここで、iPXEスクリプトは、各ノード30をブートするためのスクリプトであって、各ノードの構成情報および識別子情報(IPアドレス等)を含むスクリプトである。
 各ノード30は、上記電源コマンドをトリガにしてリモートディスク33からiPXEスクリプトを読み出して実行することで、DHCPサーバからIPアドレスを取得することなく、また、TFTPサーバからブートスクリプトを取得することなく、自身のIPアドレス等を設定し、ブートすることができる。
 このように、各ノード30は、自身にマウントされたリモートディスク33を参照することで、IPアドレス等の設定やブートスクリプトの取得が可能となる。したがって、従来のPXEブートで必要であったDHCPサーバおよびTFTPサーバは不要となり、例えばL2ネットワークの煩雑な設定等を不要とすることができる。また、各ノード30においては、DHCPサーバ、TFTPサーバそれぞれに対する要求を不要とすることができる。
 さらに、各ノード30は、iPXEスクリプトを実行して、自身に設定されたIPアドレスを用いてOSの配信要求をプロビジョニングサーバ20に送信することで、HTTPサーバ24からOSパッケージおよびキックスタートファイルをダウンロードすることができる。そして、各ノード30は、取得したキックスタートファイルを起動することにより、OSをインストールすることができる。
 このときダウンロードされるキックスタートファイルは、プロビジョニングサーバ20において生成された各ノード30のそれぞれに対応するインストールプロシージャである。したがって、各ノード30は、キックスタートファイルに沿って、それぞれの環境に応じた適切なシナリオでOSをインストールすることができる。
 このように、各ノード30は、初期設定であるネットワークコンフィグレーションを行ってノード30をブートできる機能のみを備えるリモートディスク33をマウントし、OSインストールに必要なファイル(OSパッケージ、キックスタートファイル)はHTTPサーバ24から取得する。つまり、リモートディスク33には、プロビジョニングに必要なすべての情報がマウントされているわけではなく、必要最低限の情報のみがマウントされている。したがって、リモートディスク33を非常に軽くすることができる。
 以上のように、本実施形態では、リモートディスク機能を用いたブート・プロビジョニングを実現することができ、大規模ネットワークにおいて、迅速かつ効率的にサーバを大規模展開することができる。
 本実施形態に係るサーバ管理装置150は、モバイルネットワーク100のバックホールネットワークやコアネットワーク等を構成するいずれかの汎用サーバに実装されてよい。なお、サーバ管理装置150は、専用サーバに実装されてもよい。また、サーバ管理装置150は、単一または複数のコンピュータ上に実装されてもよい。
 サーバ管理装置150が単一のコンピュータに実装される場合、当該サーバ管理装置150は、CPU、ROM、RAM、HDD、入力部(キーボード、ポインティングデバイス等)、表示部(モニター等)、通信I/F等を備えることができる。この場合、図3に示すサーバ管理装置150の各要素の少なくとも一部の機能は、上記CPUがプログラムを実行することで実現することができる。ただし、図3に示すサーバ管理装置150の各要素のうちの少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、上記CPUの制御に基づいて動作する。
 なお、上記において特定の実施形態が説明されているが、当該実施形態は単なる例示であり、本発明の範囲を限定する意図はない。本明細書に記載された装置及び方法は上記した以外の形態において具現化することができる。また、本発明の範囲から離れることなく、上記した実施形態に対して適宜、省略、置換及び変更をなすこともできる。かかる省略、置換及び変更をなした形態は、請求の範囲に記載されたもの及びこれらの均等物の範疇に含まれ、本発明の技術的範囲に属する。
 11…基地局、12…エッジデータセンタ、13…地域データセンタ、14…中央データセンタ、20…プロビジョニングサーバ、22…ワークフローエンジン、23…情報管理データベース、24…HTTPサーバ、30…ノード、31…マザーボード、33…リモートディスク、34…UEFI、35…NICファームウェア(PXE)、100…モバイルネットワーク、150…サーバ管理装置
 

 

Claims (7)

  1.  サーバ装置であって、
     ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするディスクマウント部と、
     前記ディスクマウント部によりマウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするブート実行部と、
     前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定する情報設定部と、
     を備えることを特徴とするサーバ装置。
  2.  前記情報設定部により前記サーバ装置に設定された前記識別子情報を用いて、前記サーバ装置にインストールすべきOS(オペレーティングシステム)の配信の要求を、前記サーバ管理装置に送信する配布要求部と、
     前記配布要求部により送信された前記要求に応答して、前記サーバ管理装置から配信される前記OSを、前記サーバ装置にインストールするインストール実行部と、
     をさらに備えることを特徴とする請求項1に記載のサーバ装置。
  3.  前記インストール実行部は、前記サーバ管理装置から前記OSとともに配信されるインストールプロシージャを起動することにより、前記OSを前記サーバ装置にインストールする
     ことを特徴とする請求項2に記載のサーバ装置。
  4.  前記ブート実行部は、前記サーバ管理装置から投入される、前記サーバ装置の電源をオンするコマンドをトリガに起動される
     ことを特徴とする請求項1から3のいずれか1項に記載のサーバ装置。
  5.  前記ブートはPXEブートであり、前記スクリプトはiPXEスクリプトであることを特徴とする請求項1から4のいずれか1項に記載のサーバ装置。
  6.  サーバ装置における情報処理方法であって、
     ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするステップと、
     マウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするステップと、
     前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定するステップと、
     を含むことを特徴とする情報処理方法。
  7.  サーバ装置における情報処理をコンピュータに実行させるためのプログラムであって、該プログラムは、前記コンピュータに、
     ネットワークを介して接続されるサーバ管理装置から、リモートディスクをマウントするためのコマンドを受信し、受信された前記コマンドに従って、前記リモートディスクを前記サーバ装置にマウントするディスクマウント処理と、
     前記ディスクマウント処理によりマウントされた前記リモートディスクに書き込まれたスクリプトを読み出して、前記サーバ装置をブートするブート実行処理と、
     前記スクリプトに含まれる前記サーバ装置の構成情報および識別子情報を前記サーバ装置に設定する情報設定処理と、
     を含む処理を実行させるためのものであることを特徴とするプログラム。

     
PCT/JP2021/031704 2021-08-30 2021-08-30 サーバ装置、情報処理方法およびプログラム WO2023031994A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/031704 WO2023031994A1 (ja) 2021-08-30 2021-08-30 サーバ装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/031704 WO2023031994A1 (ja) 2021-08-30 2021-08-30 サーバ装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2023031994A1 true WO2023031994A1 (ja) 2023-03-09

Family

ID=85412293

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/031704 WO2023031994A1 (ja) 2021-08-30 2021-08-30 サーバ装置、情報処理方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2023031994A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176213A (ja) * 2008-01-28 2009-08-06 Hitachi Software Eng Co Ltd ネットワークブート方式
US20150149758A1 (en) * 2013-11-22 2015-05-28 Bull Sas Method, computer readable medium and device for the configuration or maintenance of a computer system in a cluster

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176213A (ja) * 2008-01-28 2009-08-06 Hitachi Software Eng Co Ltd ネットワークブート方式
US20150149758A1 (en) * 2013-11-22 2015-05-28 Bull Sas Method, computer readable medium and device for the configuration or maintenance of a computer system in a cluster

Similar Documents

Publication Publication Date Title
US11405274B2 (en) Managing virtual network functions
US11444765B2 (en) Methods and apparatus to manage credentials in hyper-converged infrastructures
US10044795B2 (en) Methods and apparatus for rack deployments for virtual computing environments
JP7391862B2 (ja) 自動的に配備される情報技術(it)システム及び方法
US10740081B2 (en) Methods and apparatus for software lifecycle management of a virtual computing environment
US7600005B2 (en) Method and apparatus for provisioning heterogeneous operating systems onto heterogeneous hardware systems
CN106911729B (zh) 一种适用于国产处理器的操作系统远程安装方法
KR102524126B1 (ko) 5g 인프라 구축을 위한 분산 클라우드 시스템의 설계 및 설치를 제공하는 장치 및 방법
CN105306225B (zh) 一种基于Openstack的物理机远程关机方法
WO2014169870A1 (zh) 虚拟网元自动装载及虚拟机ip地址获取的方法与系统、存储介质
CN114968477A (zh) 容器热迁移方法及容器热迁移装置
CN107810475B (zh) 用于虚拟计算环境的软件生命周期管理的方法和装置
US20170034120A1 (en) Network device setting method and information processing device
US10592221B2 (en) Parallel distribution of application services to virtual nodes
WO2023031994A1 (ja) サーバ装置、情報処理方法およびプログラム
WO2023031993A1 (ja) サーバ管理装置、サーバ管理方法およびプログラム
KR100439175B1 (ko) 리눅스 기반의 클러스터 시스템의 운영체제 원격 자동설치 방법
WO2023276039A1 (ja) サーバ管理装置、サーバ管理方法およびプログラム
Yang et al. Architecture for virtual network function's high availability in hybrid cloud infrastructure
US11947987B2 (en) Live node imaging
US20240126903A1 (en) Simulation of edge computing nodes for hci performance testing
WO2023276038A1 (ja) サーバ管理装置、サーバ管理方法およびプログラム
US20240129403A1 (en) Dummy node management in edge computing
CN117389677A (zh) 一种基于云计算技术的服务器以及云系统
JP2015011658A (ja) ネットワークブートサーバ、ネットワークブートシステム、ネットワークブート制御方法、ネットワークブート制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 17800887

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21955891

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE