WO2015162660A1 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
WO2015162660A1
WO2015162660A1 PCT/JP2014/061125 JP2014061125W WO2015162660A1 WO 2015162660 A1 WO2015162660 A1 WO 2015162660A1 JP 2014061125 W JP2014061125 W JP 2014061125W WO 2015162660 A1 WO2015162660 A1 WO 2015162660A1
Authority
WO
WIPO (PCT)
Prior art keywords
server computer
server
storage controller
computer system
computer
Prior art date
Application number
PCT/JP2014/061125
Other languages
English (en)
French (fr)
Inventor
里山 愛
江口 賢哲
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2016514559A priority Critical patent/JP6273353B2/ja
Priority to CN201480076346.8A priority patent/CN106030552A/zh
Priority to PCT/JP2014/061125 priority patent/WO2015162660A1/ja
Priority to US14/657,287 priority patent/US20150304423A1/en
Publication of WO2015162660A1 publication Critical patent/WO2015162660A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/10Program control for peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45579I/O management, e.g. providing access to device drivers or storage

Definitions

  • the present invention relates to a computer system including a nonvolatile memory device.
  • flash A flash memory device (hereinafter referred to as “flash”) has higher I / O (Input / Output) performance than an HDD (Hard Disk Drive).
  • I / O Input / Output
  • HDD Hard Disk Drive
  • SCSI Small Computer System Interface
  • OS Operating System
  • NVMe Non-Volatile Memory Express
  • This specification defines a streamlined set of registers whose functionality includes: ⁇ Indication of controller capabilities ⁇ Status for controller failures (command status is processed via CQ directly) ⁇ Admin Queue configuration (I / O Queue configuration processed via Admin commands) ⁇ Doorbell registers for scalable number of submission and Completion Queues
  • NVMe has the following key points: Does not require uncacheable / MMIO register reads in the command submission or completion path. ⁇ A maximum of one MMIO register write is necessary in the command submission path. ⁇ Support for up to 65,535 I / O queues, with each I / O queue supporting up to 64K outstanding commands. ⁇ Priority associated with each I / O queue with well-defined arbitration mechanism. ⁇ All information to complete a 4KB read request is included in the 64B command itself, ensuring efficient small I / O operation. ⁇ Efficient and streamlined command set. ⁇ Support for MSI / MSI-X and interrupt aggregation. ⁇ Support for multiple namespaces. ⁇ Efficient support for I / O virtualization architectures like SR-IOV. ⁇ Robust error reporting and management capabilities. ⁇ Support for multi-path I / O and namespace sharing.
  • Non-Patent Document 1 discloses a concept of sharing a namespace (hereinafter abbreviated as NS) from a plurality of hosts.
  • NS namespace
  • Non-Patent Document 2 improves server I / O performance by using a PCI-Express flash memory SSD (Solid State Drive) that interprets such NVMe-compliant commands (hereinafter abbreviated as NVMe commands). It is disclosed.
  • PCI-Express flash memory SSD Solid State Drive
  • NVM Express 1.1a Specification http://www.nvmexpress.org/wp-content/uploads/NVM-Express-1_1a.pdf
  • NVM Express: Unlock Your Solid State Drives Potential http://www.nvmexpress.org/wp-content/uploads/2013-FMS-NVMe-Track.pdf
  • Non-Patent Document 1 Although the shared concept of NS is disclosed in the NVMe standard disclosed in Non-Patent Document 1, the implementation form is not disclosed as disclosed below, and a computer system that realizes high-performance I / O is provided. Is not easy. "1.3 Outside of Scope The register interface and command set are specified apart from any usage model for the NVM, but rather only specifies the communication interface to the NVM subsystem. Thus, this specification does not specify whether the non-volatile memory system is used as a solid state drive , a main memory, a cache memory, a backup memory, a redundant memory, etc. Specific usage models are outside the scope, optional, and not licensed. "
  • a computer system is connected to a first server computer, a second server computer, a nonvolatile memory device, the first server computer and the second server computer via PCI-Express, A storage controller connected to the non-volatile memory device.
  • the storage controller provides a storage area in the nonvolatile memory device as a shared data area for the first server computer and the second server computer.
  • Each of the first server computer and the second server computer stores a program for issuing an NVM-Express command that is a command conforming to the NVM-Express standard.
  • the program causes the server computer to access the shared data area via PCI-Express by issuing an NVM-Express command specifying a namespace associated with the shared data area.
  • the summary of an Example is shown.
  • the physical and logical configuration of CPF is shown.
  • the physical configuration and logical configuration of another CPF are shown.
  • the details of CPF when the NVMe interpretation site is candidate (3) are shown. Indicates the PCIe space in the server-side PCIe I / F device.
  • the relationship between NS of NVMe and the storage area of the storage controller is shown. It is a flowchart which shows the process relevant to a NVMe command. It is a flowchart which shows the starting method of CPF. Details of CPF when the NVMe interpretation site is candidate (2) are shown. An example of the application form of CPF is shown.
  • the information of the present embodiment will be described using the expression “table”.
  • the information may not necessarily be expressed by a data structure using a table.
  • it may be expressed by a data structure such as “list”, “DB (database)”, “queue”, or the like. Therefore, “table”, “list”, “DB”, “queue”, and the like can be simply referred to as “information” in order to show that they do not depend on the data structure.
  • the expressions “identification information”, “identifier”, “name”, “name”, “ID” can be used, and these can be replaced with each other. It is.
  • program will be the subject of the explanation, but since the program uses the memory and communication port (communication control device) to perform the processing determined by being executed by the CPU (Central Processing Unit), The description may be based on the CPU.
  • the processing disclosed with the program as the subject may be processing performed by a computer such as a server computer, a storage controller, a management computer, or an information processing apparatus. Part or all of the program may be realized by dedicated hardware, or may be modularized.
  • Various programs may be installed in each computer by a program distribution server or a storage medium.
  • Figure 1 shows a summary of the example.
  • the following explanation can be applied to the successor standard of NVMe that will appear in the future, and also to the successor standard of PCI-Express (Peripheral Component Interconnect Express: hereinafter abbreviated as PCIe). Applicable. If terms related to NVMe or PCIe are used, they should also be considered to indicate equivalent terms in the successor standards.
  • PCIe Peripheral Component Interconnect Express
  • the embodiment is described for NVMe targeting the current Block access. However, if access in byte or word units is defined by the NVMe standard, this embodiment can also be applied to those accesses. Needless to say.
  • nonvolatile memory devices using flash memory
  • nonvolatile memories other than flash memory such as FeRAM (Ferroelectric Random Access Memory), MRAM (Magnetoresistive Random Access Memory), phase change memory, etc. (Ovonic Unified Memory) and non-volatile memory devices using RRAM (registered trademark, Resistance RAM) may be applied.
  • FeRAM Feroelectric Random Access Memory
  • MRAM Magneticoresistive Random Access Memory
  • phase change memory etc.
  • RRAM registered trademark, Resistance RAM
  • NVMe is an I / F (Interface) standard for realizing high-speed access to flash memory SSDs.
  • high-speed access such as high IOPS (Input / Output per Second) and low latency is possible for flash memory SSDs.
  • IOPS Input / Output per Second
  • low latency is possible for flash memory SSDs.
  • the access latency which was 6.0 ⁇ s in the SSD adopting SCSI / SAS (Serial Attached SCSI) can be reduced to 2.8 ⁇ s by adopting NVMe. ing.
  • SCSI / SAS Serial Attached SCSI
  • the key point is as described above, but the memory access efficiency between CPU cores can be improved by using multiple I / O queues and not having to share one I / O queue among multiple cores.
  • NVMe is standardized and a wide range of flash memory devices are expected to support the NVMe standard. Therefore, it is expected that vendors of programs other than device drivers (typically application programs) directly issue NVMe commands and access flash memory devices at high speed.
  • device drivers typically application programs
  • flash memory device in this embodiment is a device having at least the following characteristics, and the flash memory SSD is one example: * Includes flash memory chips. * Includes a flash memory controller that: # In response to a read request from the outside, the data stored in the flash memory chip is transferred to the outside. Then, the data received together with the write request received from the outside is stored in the flash memory chip. # Erase the flash memory chip.
  • the computer system includes at least one or more server computers, one or more storage controllers, a flash memory device (may be abbreviated as “Flash” in the figure), and a communication mechanism. Each of these contents in the computer system may be referred to as a computer system component.
  • the computer system is preferably a Converged Platform.
  • Converged Platform is also called Converged Infrastructure and Converged System.
  • Converged may be replaced by the term “vertical integration”. In the present embodiment, these are hereinafter collectively referred to as a converged platform (sometimes abbreviated as CPF).
  • CPF has the following characteristics: * Products that include server computers, storage systems (including storage controllers and storage devices), and communication mechanisms that connect them. When an administrator of a company individually introduces a server computer and a storage system, the operation verification represented by such a connection check between the server computer and the storage system is performed by the administrator.
  • Some CPFs may include a management subsystem that executes a management program that collectively sets server computers, storage systems, and communication mechanisms. This management subsystem can quickly provide the execution environment (virtual machine, DBMS: Database Management System, Web server, etc.) desired by the administrator. For example, in order to provide a virtual machine having a necessary amount of resources, the management program requests allocation of necessary resources to the server computer and the storage system, and creates a virtual machine using the allocated resources. Request to.
  • Server computers (1) and (2) are units for storing and executing programs (1) and (2) for accessing the storage controller, respectively.
  • the programs (1) and (2) access the shared data area provided by the storage controller by issuing an NVMe command.
  • the part that provides the shared data area as the NS of NVMe will be described later.
  • the server computer includes at least a CPU, main memory (hereinafter abbreviated as memory), and RC.
  • the server computer may be, for example: * File server * Blade server system * PC (Personal Computer) server * Blade plugged into the blade server system.
  • the programs (1) and (2) are, for example, business application programs (for example, Web server, DBMS, analysis program, middleware), programs that can create LPAR (Logical Partitioning) and virtual machines, OS, device drivers, However, other programs may be used.
  • business application programs for example, Web server, DBMS, analysis program, middleware
  • LPAR Logical Partitioning
  • the communication mechanism connects the server computer and the storage controller via PCIe.
  • PCIe Peripheral Component Interconnect Express
  • FC Fibre Channel
  • SAN Storage Area Network
  • Ethernet registered trademark
  • NVMe is premised on a communication mechanism based on PCIe. Therefore, the part that interprets the NVMe command from the server computer needs to be an endpoint in PCIe (hereinafter abbreviated as EP). Also, if the PCIe chipset does not allow sharing of EPs from multiple Root Complexes (hereinafter abbreviated as RC) (hereinafter referred to as “coexistence of multiple RCs”) (for example, MR-IOV: Multi-Root This restriction must also be considered when I / O Virtualization is not supported.
  • RC Root Complexes
  • the computer system includes one of three candidates.
  • the three candidates (1), (2), (3) (shown as NVMe I / F candidates (1), (2), (3) in the figure) are as follows: * Candidate (1): Flash memory device.
  • the storage controller and the flash memory device are connected by PCIe, and the flash memory device is an EP having a function conforming to NVMe.
  • the storage controller passes the NVMe command from the server computer to the flash memory device.
  • Candidate (2) Storage controller.
  • the server computer and the storage controller are connected by PCIe.
  • the intermediary device includes logic that provides an EP for each RC of the server computer, logic that provides another EP for the RC of the storage controller, and write data between the server computer and the storage controller. And the logic that mediates the transfer of read data.
  • PCIe was originally used as a communication path in server computers and storage systems, the communicable distance of PCIe is short compared to FC and Ethernet, and RC has a smaller number of communication nodes than can communicate with FC or Ethernet. Can communicate only with EP. Also, compared to communication protocols that run on FC and Ethernet, PCIe fault handling is weak. For this reason, the computer system that employs PCIe as the communication mechanism is preferably a CPF. This is because, by using CPF as the computer system, it is possible to eliminate the need for cabling of the communication mechanism between the server computer and the storage unit by the customer, so troubles due to the aforementioned weaknesses of PCIe are less likely to occur, resulting in highly reliable NVMe. Can provide access.
  • the candidate parts (1) to (3) for interpreting the NVMe command have the following merits.
  • Candidate (1) There is no or small processing overhead by the storage controller.
  • Candidate (1) can easily implement efficient NVMe queue control in consideration of the internal state of the flash memory device. This is because the part that interprets the NVMe command and the controller that performs wear leveling or reclamation of the flash memory device are the same or close. For example, although there are a plurality of I / O queues in NVMe, candidate (1) changes the way of extracting NVMe commands from a plurality of I / O queues based on the internal state.
  • Candidate (2) The enterprise function provided by the storage controller can be applied to NS of NVMe.
  • the candidate (2) can perform efficient NVMe queue control in consideration of the internal state of the storage controller. This is because the part that interprets the NVMe command and the storage controller are the same or close. For example, the candidate (2) can change the way of extracting NVMe commands from a plurality of I / O queues based on the internal state, and in accordance with the accumulation state of NVMe commands in the I / O queue, The control of other processes of the storage controller can be changed.
  • Candidate (3) Enterprise functions provided by the storage controller can be applied to NS of NVMe.
  • the storage program executed by the storage controller can be executed at the execution code, intermediate code, or source code level at the conventional SAN storage subsystem. Easy to maintain compatibility with other storage programs. As a result, it is possible to improve the quality and function of the storage program of the computer system, and it becomes easy to implement the cooperation processing between the storage controller of the computer system and the SAN storage subsystem such as the above-mentioned remote copy. This is because most of the same parts as the linkage between normal SAN storage subsystems.
  • the storage controller uses the storage area of the flash memory device and provides high performance I / O processing.
  • the storage controller may have functions related to reliability, redundancy, high functionality, and ease of maintenance and management as provided by enterprise SAN storage subsystems.
  • the storage controller makes the flash memory device redundant, and provides a shared data area from the redundant storage area.
  • the storage controller enables device maintenance such as replacement, addition, and removal of a flash memory device without prohibiting or failing to access data stored in the shared data area (so-called non-stop).
  • non-stop non-stop
  • flash memory devices Unlike HDDs, flash memory devices have the property of shortening device life due to excessive writing. Therefore, the reliability as the computer system can be improved by providing the storage controller with such redundancy and non-stop maintenance.
  • the storage controller provides copy functions such as remote copy and snapshot for data stored by NVMe.
  • the storage controller is connected to the HDD as a storage device in addition to the flash memory device, thereby enabling tearing using these storage devices. Note that the storage controller may make the storage area provided by the HDD correspond to NS of NVMe.
  • the storage controller is not connected to the server computer (1) or (2), but from a computer system outside the computer system (including server computers and storage systems) or network devices (including SAN switches and Ethernet switches). Provide access over the network. As a result, the above-described remote copy can be performed, and storage consolidation including a computer system or network device outside the computer system can be provided, thereby improving flexibility.
  • the storage controller is configured to be inserted into the chassis of the blade server system.
  • a board such as a backplane for the PCIe connection between the blade that is the server computer and the storage controller, troubles associated with the PCIe connection can be reduced.
  • a blade server system chassis and a storage controller chassis in a single rack may be sold as a CPF.
  • the management subsystem is a subsystem that performs at least one of the following processes: * Receive requests from administrators or integrated management subsystems and make settings for computer system components according to requests. * Obtain information from computer system components and display it to the administrator or send it to the integrated management subsystem.
  • the information to be acquired includes, for example, performance information, failure information, setting information, configuration information, and the like.
  • the configuration information includes items that are fixed to the computer system and items that can be changed unless components are inserted and removed, and the setting information is an item that can be changed by setting, particularly among the configuration information. Note that these types of information may be collectively referred to as component information.
  • the information displayed to the administrator or transmitted to another computer may be the acquired component information as it is, or the information may be displayed or transmitted after being converted / processed according to some standard.
  • So-called automatic / autonomous management that automatically and autonomously configures computer system components based on the above component information.
  • the management subsystem may be in the following forms (including a mixture of these forms), but any form may be used as long as the above processing is performed.
  • a set of related functions and computers is a management subsystem.
  • a computer one or more) separate from the computer system component.
  • the management subsystem is a plurality of computers connected to the computer system via a network, for example, a computer such as a computer dedicated to a server computer, a computer dedicated to a storage controller, or a computer dedicated to display processing is included in the management subsystem. May be present.
  • the management subsystem is a BMC (Baseboard Management Controller) or an agent program.
  • the integrated management subsystem is a subsystem that integrates and manages managed devices represented by servers, storage systems, network devices (including SAN switches and Ethernet switches), and this computer system.
  • the integrated management subsystem is connected to the management subsystem and other managed devices via a network.
  • the integrated management subsystem may communicate with the managed device using a vendor-proprietary protocol, but SNMP (Simple Network Management Protocol) or SMI-S (Storage Management Initial-Specification) In some cases, communication with the management target device may be performed using a standardized protocol.
  • the integrated management subsystem includes one or more computers connected to the computer system via a network.
  • the vendor who provides the integrated management subsystem may differ from the vendor of this computer system.
  • the communication mechanism of this computer system is PCIe, so the integrated management subsystem can manage this computer system.
  • PCIe the communication mechanism of this computer system
  • An example of the reason is that the integrated management subsystem recognizes only the FC or Ethernet connection as the connection path between the server computer and the storage controller, and does not recognize the PCIe connection as the aforementioned connection path.
  • the integrated management subsystem assumes that the server computer and the storage controller are not connected, management items based on the assumption that such connection information exists cannot be applied to this computer system.
  • the management subsystem of this computer system converts the PCIe connection information into virtual SAN connection information by emulating the SAN connection to the PCIe connection of this computer system, and By transmitting SAN connection information to the integrated management subsystem, the SAN connection may be managed by the integrated management subsystem.
  • the emulation of SAN connection includes, for example, providing connection information or accepting a setting related to SAN connection (assigning Logical Unit to storage port).
  • the SAN to be emulated may be FC-SAN, IP (Internet Protocol) -SAN, or Ethernet-SAN.
  • this computer system may be introduced, and enterprises provided by the above storage controller without sharing data In order to apply the function to the data stored in NVMe, this computer system may be introduced. Also, if a business system has already been built using a program that issues NVMe commands in an environment that is not this computer system, an interface for vendor-proprietary flash memory devices must not be implemented for that program. However, there are cases where a business system can be constructed with this computer system.
  • Data sharing by NVMe has the following uses, for example: # Fast failover between multiple server computers.
  • the server computer (2) determines to perform a failover that takes over the processing by the server computer (1).
  • a local flash memory device (abbreviated as “Local Flash” in the figure) is connected to each of multiple server computers via a PCIe connection, and the NVMe command issuance destination of the server computer program is only the local flash memory device.
  • Local Flash Local flash memory device
  • # When multiple server computers perform parallel processing by accessing the shared data area in parallel with NVMe. One server computer writes data, and another server computer can immediately read the data.
  • the I / O processing capacity of the storage controller may become a bottleneck.
  • a flash memory device (referred to as a local flash memory device) capable of interpreting the NVMe command may be connected to each server computer via PCIe and occupied by the connected server computer.
  • the program executed on the server computer stores data that does not require application of data sharing and enterprise functions in the local flash memory device, and stores data that is desired to be applied to the data sharing or enterprise functions by the storage controller.
  • What is necessary is just to store in NS of NVMe which is a storage area provided.
  • the server computer (1) program processing is taken over by the server computer (2) due to a failure or load of the server computer (1)
  • the server computer (1) shares data necessary for takeover with shared data. Processing is executed by writing to and reading from the NS, which is the area, and data unnecessary for takeover is written to the local flash memory device.
  • Such setting may be performed manually, but may be performed automatically by the above-described management subsystem or integrated management subsystem.
  • these subsystems determine whether each NS can be shared by multiple server computers (or application of enterprise functions), and can be shared (or enterprise-based) based on the characteristics of programs executed on the server computers. Data for which application of the function is indispensable may be grasped, and it may be set so that the storage area for storing the data is properly used for the program executed by the server computer. Since the administrator of the program is not necessarily familiar with the configuration and characteristics of the computer system, the setting work load of the program by the administrator is reduced.
  • the management subsystem queries the computer system for the relationship between the NSID and the storage area of the storage controller.
  • the server computer program determines that it is a common NS from the information obtained by collecting information by specifying the NSID.
  • Fig. 2 shows the physical and logical configuration of CPF.
  • the CPF 1 in this figure includes a server computer 2, a storage controller 3, a flash memory device 5 as a storage device, and a management computer 7 as an example of a management subsystem.
  • the server computer 2 includes a management I / F 272 for connecting to the management computer 7.
  • the server computer 2 executes an application program 228 (may be simply referred to as an application), an OS 227, an NVMe control program 222, and a server management I / F control program 229 as examples of programs.
  • the connection between the management computer 7, the server computer 2 and the storage controller 3 can be considered to be Ethernet, but other physical / virtual connection forms may be used.
  • the server management I / F control program 229 communicates with the management computer 7 by controlling the management I / F 272.
  • the NVMe control program 222 is a program that issues an NVMe command to the PCIe I / F 262.
  • the program 222 may be a part of another program stored in the server computer 2 or may be a program different from other programs stored in the server computer 2.
  • the application program 228 issues an NVMe command
  • a device driver in the OS 227 issues an NVMe command.
  • the PCIe I / F 262 transmits an NVMe command to the PCIe I / F 362 according to the operation of the NVMe control program 222, receives a response to the NVMe command from the PCIe I / F 362, and returns the response to the NVMe control program 222.
  • the storage controller 3 includes a management I / F 382 for connecting to the management computer 7 and a flash I / F 372 for connecting to the flash memory device 5.
  • the connection between the flash I / F 372 and the flash memory device 5 is preferably a PCIe connection when the flash memory device 5 interprets the NVMe command. Otherwise, SAS or SATA (Serial Advanced Technology Attachment) is used. Or FC or Ethernet, or another communication mechanism may be used.
  • the storage controller 3 executes the storage program 320.
  • the storage program 320 includes, for example, a PCIe I / F control program 322, a flash I / F control program 323, and a management I / F control program 324 that control communication with each interface.
  • the PCIe I / F control program 322 communicates with the server computer 2 by controlling the PCIe I / F 362.
  • the flash I / F control program 323 communicates with the flash memory device 5 by controlling the flash I / F 372.
  • the management I / F control program 324 communicates with the management computer 7 by controlling the management I / F 382.
  • the entities of the PCIe I / F 262 and the PCIe I / F 362 are, for example, the server-side PCIe I / F device 4 shown in FIG. 4 and the storage-side PCIe I / F device 8 shown in FIG.
  • FIG. 3 is a diagram showing the physical configuration and logical configuration of another CPF.
  • Fig. 2 The difference from Fig. 2 is that NVMe and SCSI are used together as an I / O request from the server computer 2 to the storage controller 3.
  • the SCSI control program 224 issues a SCSI request to the SCSI function of the PCIe I / F 262 (SCSI Func. In the figure) to the LUN provided by the storage controller 3 in response to a request from another program.
  • the SCSI control program 224 is, for example, a SCSI device driver. This program may be a part of another program stored in the server computer 2 or may be a program different from the other program stored in the server computer 2.
  • a device driver in the OS 227 may issue a SCSI request.
  • NVMe function NVMe Func. In the figure
  • SCSI function transmits a SCSI command to the PCIe I / F 362 in accordance with the operation of the SCSI control program 224, receives a response to the SCSI command from the PCIe I / F 362, and returns the response to the SCSI control program 224.
  • PCIe I / F 362 is to be a multi-function is determined by whether or not the NVMe command is interpreted by the mediation device.
  • the booting of the server computer 2 means that the BIOS (Basic Input / Output System) program of the server computer 2 needs to be mounted so that an EP having a boot device can be handled.
  • the EP here is, for example, a SCSI HBA (Host Bus Adapter) or a PCIe I / F device (NVMe function or SCSI function).
  • SCSI HBA Hyper Bus Adapter
  • PCIe I / F device NVMe function or SCSI function
  • the specific implementation method is as follows: # The BIOS program obtains the device driver program for the BIOS program from the discovered EP and executes it. # The BIOS program itself includes a driver program for NVMe.
  • the server computer 2 has the following three types.
  • the server computer 2 included in the CPF 1 may be only one type of the above (A) to (C), a combination of any two types of (A) to (C), or ( There may be three types of combinations of A) to (C).
  • FIG. 4 is a detailed diagram of CPF1 when the above-described NVMe interpretation site is candidate (3).
  • PCIe connection between the server computer 2 and the storage controller 3 is performed via a switch, it is omitted in the figure.
  • the server computer 2 includes a CPU 21, a main memory 22 (abbreviated as Mem in the figure, and may be referred to as the memory 22 in the following description), an RC 24, and a server-side PCIe I / F device 4.
  • the RC 24 and the server side PCIe I / F device 4 are connected by PCIe.
  • the RC 24 and the CPU 21 are connected via a network faster than PCIe.
  • the memory 22 is connected to the CPU 21 and the RC 24 via a memory controller (not shown) via a high-speed network.
  • Each program executed by the server computer 2 described so far is loaded into the memory 22 and executed by the CPU 21.
  • the CPU 21 may be a CPU core.
  • the RC 24, the CPU 21, and the memory controller may be combined into one LSI package.
  • the server-side PCIe I / F device 4 is an example of the aforementioned mediation device.
  • the server side PCIe I / F device 4 may be arranged outside the server computer 2.
  • the server-side PCIe I / F device 4 is a device having the following characteristics: * Interprets NVMe commands issued by programs executed by the CPU 21. * Provide EP41 for RC24. * Provide another EP 42 to the RC 33 included in the storage controller 3.
  • the storage controller 3 includes a plurality of RCs and the device 4 needs to communicate with each of the storage controllers 3, the device 4 provides another EP 42 to each RC.
  • the server-side PCIe I / F device 4 here provides two EPs 42 to the two RCs 33 in the storage controller 3, respectively.
  • the server-side PCIe I / F device 4 has a logic for providing a plurality of EPs 42 corresponding to a plurality of server computers 2, a logic for providing EP 41, and a SCSI command based on the NVMe command.
  • EP41 corresponds to the PCIe I / F 262 in FIG. 2
  • EP42 corresponds to the PCIe I / F 362.
  • the server-side PCIe I / F device 4 may include logic for issuing a SCSI request based on the SCSI request issued by the CPU 21 to the storage controller 3 as logic corresponding to the SCSI function of FIG.
  • Each of these logics may be realized by hardware such as a dedicated circuit, or may be realized by a processor that executes software.
  • server-side PCIe I / F device 4 has both the NVMe function and the SCSI function, so that there are, for example, one or more of the following advantages compared to mounting these functions on separate boards: *lowering cost. * Reduced space for inserting PCIe-connected devices in Server Computer 2. * Reduce the number of PCIe slots used in server computer 2. In particular, when the above-described multi-function is realized in this candidate (3), the logic for the server-side PCIe I / F device 4 to send a SCSI request to the storage controller 3 can be shared among the functions. Reduction is possible.
  • the server computer 2 may include the local flash memory device 23 (abbreviated as “Flash” in the figure) as described above.
  • the local flash memory device 23 is connected to the RC 24 by PCIe.
  • the Local flash memory device 23 and the server-side PCIe I / F device 4 are described as communicating via the RC 24, but they may or may not communicate via the RC 24. May be.
  • the storage controller 3 includes one or more (two in the figure) control units 36 (abbreviated as CTL unit in the figure).
  • Each control unit 36 includes a CPU 31, a main memory 32 (abbreviated as Mem in the figure, and may be referred to as the memory 32 in the following description), an RC 33, and a flash I / F 372.
  • the RC 33, the server-side PCIe I / F device 4, and the flash I / F 372 are connected by PCIe.
  • RC 33 and CPU 31 are connected via a network faster than PCIe.
  • the main memory 32 is connected to the CPU 31 and the RC 33 via a memory controller (not shown) via a high-speed network.
  • Each program executed by the storage controller 3 such as the storage program 320 described so far is loaded into the memory 32 and executed by the CPU 31.
  • the CPU 31 may be a CPU core.
  • the RC 33, CPU 31, and memory controller may be combined into one LSI package.
  • Each control unit 36 may include a disk I / F 34 for connection to the HDD 6.
  • the flash I / F 372 and the disk I / F 34 are the same interface type, these two I / Fs may be shared.
  • the disk I / F 34 may be SAS, SATA, FC, or Ethernet, but other communication mechanisms may be used.
  • the flash I / F 372 (or disk I / F 34) and the server-side PCIe I / F device 4 are described to communicate via the RC 33, but the flash I / F 372 (or the disk I / F 34) may communicate via the RC 33. It may not be possible to communicate. This also applies to the flash I / F 372 and the disk I / F 34.
  • control unit 36 there may be a plurality of components included in the control unit 36.
  • control units 36 can communicate with each other, and in the figure, the RC 33 is described as being connected by PCIe as an example.
  • PCIe Peripheral Component Interconnect Express
  • NTB Non-transparent Bridge
  • another mechanism may be used for communication between the control units 36.
  • FIG. 5 is an enlarged view centering on the server-side PCIe I / F device 4 of FIG.
  • the PCIe space 241 is a space controlled by the RC 24 in the server computer 2
  • the PCIe space 331 is a space controlled by the RC 33 in the storage controller 3.
  • the server-side PCIe I / F device 4 can connect the PCIe link for RC24 and the PCIe link for RC33 to separate each PCIe space, and operates as an EP in each link.
  • disk I / F 34 and the flash I / F 372 may exist in a PCIe space different from the PCIe space 331.
  • FIG. 6 is a diagram showing the relationship between the NVMe NS and the storage area of the storage controller 3.
  • the storage controller 3 manages the following storage areas.
  • Parity group It is defined using a plurality of storage devices (flash memory device 5 and HDD 6). As a result, high reliability, high speed, and large capacity are achieved by RAID (Redundant Arrays of Inexpensive Disks).
  • Logical volume It is an area obtained by dividing the storage area of the parity group. Since the storage area of the parity group may be too large to be provided to the server computer as it is, a logical volume exists.
  • Pool It is a group that includes storage areas used for thin provisioning and tearing.
  • the logical volume is assigned to the pool, but the parity group and the storage device itself may be directly assigned to the pool.
  • Virtual volume It is a virtual storage area defined by using a pool and to which thin provisioning or / and tiering is applied. In the following description, a term indicating a logical volume and a virtual volume may be referred to as “volume”.
  • Logical Unit Logical unit, hereafter referred to as LU). It is a storage area that allows access from the server computer 2 in the virtual volume or logical volume.
  • a Logical Unit is assigned a SCSI LUN (Logical Unit Number).
  • the storage controller 3 does not have to provide all types of storage areas.
  • NS may be associated with any type of these storage areas. However, NS is more preferably associated with Logical Unit. This is because the storage program 320 is easily compatible with the storage program 320 of the SAN storage system, and the definition of the storage area is also highly compatible with the SAN storage system.
  • the storage program 320 performs the following processing (not necessarily all): * Receive, interpret and process SCSI requests. For example, if the SCSI request is a read request, the storage program 320 reads data from a storage device such as the flash memory device 5 or the HDD 6 and transfers it to the server computer 2. At that time, the main memory 32 of the storage controller 3 may be used as a cache memory. For example, if the SCSI request is a write request, write data is stored in the cache memory, and then the write data is written to the storage device. * RAID processing for parity groups. * Define the storage area provided by the storage controller 3. The defined result is stored as storage area definition information in the main memory 32 of the storage controller 3 and is referred to in the request processing described above. * Other processing for enterprise functions such as thin provisioning.
  • the server-side PCIe I / F device 4 generates a SCSI command based on the NVMe command received from the server computer 2 and transmits it to the storage controller 3.
  • FIG. 7 is a flowchart showing NVMe command processing related to the NVMe command performed between the server computer 2, the server-side PCIe I / F device 4 and the control unit 36. The following processing is applied when the NVMe command is read or / and write, but may be applied to other NVMe commands.
  • the processing procedure is as follows. The following steps assume a case where the storage controller 3 includes a plurality of control units 36, each control unit 36 includes a plurality of CPUs 31, and the logical unit corresponds to NS: (S8110)
  • the server computer 2 transmits an NVMe command by the processing of the above-described program.
  • the NVMe command can specify the target NS by including the NSID.
  • the NVMe command also includes the access range in the NSID and the memory range of the server computer 2.
  • the server side PCIe I / F device 4 receives the NVMe command.
  • the server-side PCIe I / F device 4 interprets the received NVMe command, and converts the NSID included in the command into a corresponding LUN.
  • the server-side PCIe I / F device 4 generates a SCSI command including the converted LUN.
  • the server-side PCIe I / F device 4 determines the control unit 36 and the CPU 31 that are the transmission destinations of the generated SCSI command.
  • the server-side PCIe I / F device 4 transmits the generated SCSI command to the determined transmission destination.
  • the CPU 31 of the destination control unit 36 receives the SCSI command and processes the received SCSI command.
  • the transmission and reception of the NVMe command in S8110 and S8112 are the following processes: (A) The program being executed in the server computer 2 registers the NVMe command in the I / O queue prepared in the memory 22 of the server computer 2, (B) The program being executed on the server computer 2 increments the head pointer of the I / O queue in the NVMe register space of EP41 of the server side PCIe I / F device 4, (C) The server-side PCIe I / F device 4 detects the increment of the head pointer of the I / O queue and fetches the NVMe command from the I / O queue of the memory 22 of the server computer 2.
  • a plurality of NVMe commands may be fetched in (C).
  • the server-side PCIe I / F device 4 performs the steps after S8114 for each NVMe command.
  • S8114 to S8124 may be repeatedly executed serially for each NVMe command, or may be executed in parallel.
  • the server-side PCIe I / F device 4 uses the write data stored in the memory 22 of the server computer 2 as the storage controller 3 To the memory 32. If the NVMe command is read, the server side PCIe I / F device 4 transfers the read data stored in the memory 32 of the storage controller 3 to the memory 22 of the server computer 2.
  • the conversion from NSID to LUN in S8114 can be performed, for example, by any one of the following or in combination: *
  • the server-side PCIe I / F device 4 converts NSID to LUN using a predetermined conversion formula (which may include bit operations).
  • the server-side PCIe I / F device 4 can convert from a LUN to an NSID by an inverse conversion formula that forms a pair with a predetermined conversion formula.
  • the server-side PCIe I / F device 4 stores a conversion table for obtaining a LUN from the NSID in the memory of the server-side PCIe I / F device 4 and refers to it during conversion.
  • the server-side PCIe I / F device 4 may receive the SCSI command issued from the server computer 2 in S8112. In this case, although the subsequent S8114 and S8116 are omitted, the server-side PCIe I / F device 4 determines whether the received command is an NVMe command or a SCSI command.
  • the destination determination method in S8118 may be determined based on the following criteria, but may be determined based on other criteria: * Check whether the control unit 36 or CPU 31 is faulty.
  • the server-side PCIe I / F device 4 stores the state of the control unit 36 obtained as a result of transmission, and transmits it to the control unit 36 in which no failure has occurred based on the stored state. * Fault load of control unit 36 or CPU 31.
  • the storage controller 3 or the management computer 7 acquires the load of the control unit 36 or the CPU 31, and the control unit 36 or the CPU 31 that is the transmission destination of the SCSI command generated by the request addressed to each NS
  • the server-side PCIe I / F device 4 that has received the determination result and transmits a SCSI command based on the determination result.
  • the server side PCIe I / F device 4 may generate an FCP (Fibre Channel Protocol) command including the generated SCSI command in addition to the generation of the SCSI command in S8116, and may transmit it as an FCP command in S8118.
  • FCP Fibre Channel Protocol
  • the storage program 320 can perform control (access control, priority control, etc.) using a communication identifier on the SAN such as a port ID generated from a WWN (World Wide Name) or WWN, or an IP address.
  • Compatibility with SAN storage subsystem can be maintained. This has both a storage program perspective and an operational perspective.
  • the integrated management subsystem can acquire the connection between the server computer 2 and the storage controller 3.
  • the server side PCIe I / F device 4 When sending an FCP command, the server side PCIe I / F device 4 has the following: * Virtual server port corresponding to EP 41 (virtual WWN is assigned). * Virtual storage port (virtual WWN is assigned) corresponding to EP42. The virtual storage port is recognized and handled by the storage program 320 in the same manner as a normal SAN port.
  • the management subsystem can specify which volume is the NVMe NS by defining a Logical Unit for the virtual storage port.
  • the storage controller 3 that has received the instruction of S03 performs the following processing: (S03-1) The storage controller 3 selects the server-side PCIe I / F device 4 corresponding to the designated virtual storage port. (S03-2) The storage controller 3 defines a Logical Unit corresponding to the designated volume (that is, assigns a LUN to the designated volume). (S03-3) The storage controller 3 notifies the assigned LUN to the selected server-side PCIe I / F device 4. The server-side PCIe I / F device 4 becomes NS by assigning an NSID to the notified LUN. In this allocation process, the server-side PCIe I / F device 4 generates an NSID, and generates / registers the information when the NSID / LUN conversion information is used.
  • the above is the description of the processing flow of the management subsystem.
  • the administrator can designate which server computer 2 the volume is provided as NVMe by designating the virtual storage port. This is because each server-side PCIe I / F device 4 has a virtual storage port and the device 4 is not shared by a plurality of server computers 2.
  • the storage controller 3 has a performance monitoring function for the Logical Unit
  • the server computer 2 that applies the load to the Logical Unit is determined as one, so that the server computer 2 that causes the load can be quickly identified. Can do.
  • the above Logical Unit definition is made for each virtual storage port of the server computer 2 to be shared.
  • FCP has been explained specifically.
  • PDU Protocol Data Unit
  • Ethernet frame of iSCSI Internet Small Computer System Interface
  • Ethernet frame is targeted
  • the WWN in the above explanation is the IP address.
  • MAC Media Access Control
  • the WWN described above may be replaced with a communication identifier (meaning including WWN, IP address, or MAC address).
  • the management subsystem may provide a setting mode for guarding the Logical Unit definition for the SAN port for the NVMe NS volume. This is because in the operation mode in which only temporary data is stored in NS, the Logical Unit for the SAN port is the source of unintended data update. In addition, when the volume is recognized by the OS through both the NS and SAN LUN paths, the OS may recognize each as a separate storage area and perform update processing that causes data inconsistencies. . This guard mode can also avoid such data inconsistencies.
  • FIG. 8 is a flowchart showing a method for starting CPF1.
  • S1531, S1532, S1533 When the storage controller 3 detects that the power is turned on, the storage controller 320 starts the storage program 320, and enters a state of accepting access to the Logical Unit.
  • the storage controller 3 transmits Logical Unit information (LUN, etc.) to the server side PCIe I / F device 4.
  • the storage controller 3 may transmit in response to a request from the server side PCIe I / F device 4 or may transmit independently.
  • S1521) The server computer 2 and the server-side PCIe I / F device 4 detect power ON.
  • the server-side PCIe I / F device 4 is activated and recognizes the Logical Unit by receiving the Logical Unit information received from the storage controller 3. (S1544)
  • the server-side PCIe I / F device 4 generates NS information (NSID or the like) corresponding to the recognized Logical Unit and transmits it to a program executed by the server computer 2.
  • NS information NSID or the like
  • the server side PCIe I / F device 4 transmits in response to a request from the program of the server computer 2, but the server side PCIe I / F device 4 may transmit independently. This step may be performed as part of the activation of the device 4 or may be performed after the activation.
  • the server computer 2 starts programs such as the OS 227 and the application 228, and a program that requires NS recognition waits for reception of NS information (NSID, etc.).
  • S1523 A program that requires NS recognition in the server computer 2 receives NS information from the server-side PCIe I / F device 4. Note that, as shown in the figure, the activation of the storage controller 3 and the server-side PCIe I / F device 4 has been completed when the reception of S1523 is performed. This step may be performed as part of the activation of S1522, or may be performed after the activation.
  • the NVMe command processing described in FIG. 7 is performed.
  • the storage controller 3 and the server computer 2 (and the server-side PCIe I / F device 4) are turned on independently.
  • the storage controller 3 may instruct the server computer 2 (and the server-side PCIe I / F device 4) to turn on the power.
  • FIG. 9 is a detailed diagram of CPF1 when the above-described NVMe interpretation site is candidate (2).
  • the differences from FIG. 4 are as follows: * The server side PCIe I / F device 4 has been replaced with a PCIe switch (SW) 9. * A storage-side PCIe I / F device 8 has been newly installed in the storage controller 3.
  • This device 8 is the same as the server-side PCIe I / F device 4, but this device 8 is provided in order to solve the above-mentioned “multiple RC coexistence” problem by providing the EP 51 to each server computer 2. 8, the number of EPs 51 connected to the server computer 2 is equal to or greater than the number of server computers 2. Further, the device 8 provides the EP 52 to the RC 33 in the storage controller 3.
  • the NVMe command processing of the storage-side PCIe I / F device 8 may be processed according to the flow described with reference to FIG. 7. However, as illustrated in FIG. An efficient NVMe queue control may be performed in consideration of the state. For example, NVMe command processing lowers the priority of fetching from the queue of NVMe related to the NS to which the HDD with load concentration or faulty HDD is assigned.
  • the storage-side PCIe I / F device 8 may convert the NVMe command into a command format other than SCSI, or may transmit the NVMe command to the storage program 320 as it is.
  • the old system includes a server computer (1), a server computer (2), two local flash memory devices (abbreviated as NVMe Local Flash in the figure), a storage controller, and a storage device.
  • the two local flash memory devices are connected to the server computers (1) and (2) by PCIe, respectively.
  • the storage controller is connected to the server computers (1) and (2) by FC.
  • the server computer (1) executes an application.
  • the storage controller uses a storage device to provide a Logical Unit that supports SCSI (shown as SCSI Logical Unit in the figure).
  • the application stores temporarily generated data in the NS of a local flash memory device that supports NVMe, and stores non-temporary data in a Logical Unit provided by the storage controller. This realizes high-speed application processing.
  • the server computer (1) stops, the server computer (2) resumes the processing of the application.
  • the server computer (2) reads the data from the Logical Unit via FC and resumes the processing.
  • the CPF includes a server computer (1), a server computer (2), a storage controller, and a flash memory device (abbreviated as “Flash” in the figure).
  • CPF uses a flash memory device connected to a storage controller instead of a local flash memory device connected to each server computer.
  • the storage controller uses a flash memory device to provide a logical unit that supports SCSI and a namespace that supports NVMe (denoted as NVMe Namespace in the figure).
  • the application of the server computer (1) executes processing by writing temporary data to the shared data area NS and reading the temporary data from the NS.
  • the server computer (2) When it is determined that the server computer (2) takes over the application processing of the server computer (1) to the server computer (2) due to a failure of the server computer (1), the server computer (2) Read data and execute the process.
  • Such a configuration provides the following benefits: * Maintenance of flash memory devices can be consolidated. * Reliability, redundancy, high functionality, and ease of maintenance and management can be improved by using storage controller enterprise functions for flash memory devices.
  • the application settings are changed and the temporary data stored in the NS is taken over between server computers, the time required for switching from the server computer (1) to the server computer (2) due to a failure can be shortened.
  • MTBF Machine Time Between Failure
  • it is easy to switch between server computers improving ease of maintenance and management.
  • non-temporary data that was previously stored in the SCSI Logical Unit can be stored in the NVMe NS, further improving application processing performance.
  • the computer system may include an intermediary device as an interface device.
  • the computer system may include a substrate such as a backplane as a communication mechanism, and may include a blade server system chassis, a storage controller chassis, a PCIe connection cable, and the like as a communication mechanism.
  • the computer system may include a chassis, a rack, and the like as a housing that houses a plurality of server computers, a storage controller, and a communication mechanism.
  • the server computer may include an RC 24 or the like as the server-side RC.
  • the server computer may include the RC 33 or the like as the storage-side RC.
  • the interface device may provide EP 41 or the like as the first EP, and may provide EP 41 or the like different from the first EP as the second EP.
  • the interface device may provide EP 42 or the like as the third EP.
  • the server computer may use temporary data or data necessary for takeover as the first data, and may use data unnecessary for takeover as the second data.
  • the computer system may include a local flash memory device or the like as the local nonvolatile memory device.

Abstract

 計算機システムは、第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、第1サーバ計算機及び第2サーバ計算機にPCI-Expressを介して接続され、不揮発メモリデバイスに接続されるストレージコントローラと、を含む。ストレージコントローラは、不揮発メモリデバイス内の記憶領域を、第1サーバ計算機及び第2サーバ計算機の共有データ領域として提供する。第1サーバ計算機及び第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納する。プログラムは、共有データ領域に対応付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して共有データ領域にアクセスすることを、サーバ計算機に実行させる。

Description

計算機システム
 本発明は、不揮発メモリデバイスを含む計算機システムに関する。
 フラッシュメモリデバイス(以下フラッシュと呼ぶ)はHDD(Hard Disk Drive)と比較して高いI/O(Input/Output)性能を有する。しかし、その性能を発揮させようとした場合、従来のSCSI(Small Computer System Interface)は、サーバで実行されるOS(Operating System)、デバイスドライバ等のプログラム処理の効率が悪いことから、フラッシュメモリデバイスのI/O性能を発揮させることは容易ではない。非特許文献1記載のNVM-Express(Non-Volatile Memory Express:以後NVMeと省略)はそのような問題を解決するための以下を規定した規格である。
This specification defines a streamlined set of registers whose functionality includes:
・ Indication of controller capabilities
・ Status for controller failures (command status is processed via CQ directly)
・ Admin Queue configuration (I/O Queue configuration processed via Admin commands)
・ Doorbell registers for scalable number of Submission and Completion Queues
 NVMeは以下をキーポイントに持つ。
・ Does not require uncacheable / MMIO register reads in the command submission or completion path.
・ A maximum of one MMIO register write is necessary in the command submission path.
・ Support for up to 65,535 I/O queues, with each I/O queue supporting up to 64K outstanding commands.
・ Priority associated with each I/O queue with well-defined arbitration mechanism.
・ All information to complete a 4KB read request is included in the 64B command itself, ensuring efficient small I/O operation.
・ Efficient and streamlined command set.
・ Support for MSI/MSI-X and interrupt aggregation.
・ Support for multiple namespaces.
・ Efficient support for I/O virtualization architectures like SR-IOV.
・ Robust error reporting and management capabilities.
・ Support for multi-path I/O and namespace sharing.
 また、非特許文献1には複数のホストからnamespace(以後、NSと省略)を共有する概念が開示されている。
 非特許文献2にはこのようなNVMeに準拠したコマンド(以後、NVMeコマンドと省略)を解釈するPCI-ExpressフラッシュメモリSSD(Solid State Drive)を用いることにより、サーバのI/O性能が向上することが開示されている。
"NVM Express 1.1a Specification," http://www.nvmexpress.org/wp-content/uploads/NVM-Express-1_1a.pdf "NVM Express: Unlock Your Solid State Drives Potential," http://www.nvmexpress.org/wp-content/uploads/2013-FMS-NVMe-Track.pdf
 非特許文献1に開示のNVMe規格ではNSの共有概念は開示されているものの、以下に開示の通りその実現形態は開示されておらず、高性能I/Oを実現する計算機システムを提供することは容易ではない。
"1.3 Outside of Scope
The register interface and command set are specified apart from any usage model for the NVM, but rather only specifies the communication interface to the NVM subsystem. Thus, this specification does not specify whether the non-volatile memory system is used as a solid state drive, a main memory, a cache memory, a backup memory, a redundant memory, etc. Specific usage models are outside the scope, optional, and not licensed."
 以上の課題を解決するため、計算機システムは、第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、を含む。前記ストレージコントローラは、前記不揮発メモリデバイス内の記憶領域を、前記第1サーバ計算機及び前記第2サーバ計算機の共有データ領域として提供する。前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納する。前記プログラムは、前記共有データ領域に対応付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記共有データ領域にアクセスすることを、前記サーバ計算機に実行させる。
実施例のサマリを示す。 CPFの物理構成及び論理構成を示す。 別なCPFの物理構成及び論理構成を示す。 NVMe解釈部位が候補(3)である場合のCPFの詳細を示す。 サーバ側PCIe I/FデバイスにおけるPCIe空間を示す。 NVMeのNSとストレージコントローラの記憶領域との関係を示す。 NVMeコマンドに関連した処理を示すフローチャートである。 CPFの起動方法を示すフローチャートである。 NVMe解釈部位が候補(2)である場合のCPFの詳細を示す。 CPFの適用形態の例を示す。
 以下、図面を参照しながら実施例を説明する。ただし、本実施例は、発明を実現するための一例に過ぎず、発明の技術的範囲を限定するものではない。また、各図において共通の構成については、同一の参照番号が付されている。
 なお、以後の説明では「テーブル」という表現にて本実施例の情報を説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくてもよい。例えば、「リスト」、「DB(データベース)」、「キュー」等のデータ構造やそれ以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために、「テーブル」、「リスト」、「DB」、「キュー」等については、単に「情報」と呼ぶこともできる。また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
 以後の説明では、「プログラム」を主語として説明を行うが、プログラムはCPU(Central Processing Unit)によって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、CPUを主語とした説明としてもよい。また、プログラムを主語として開示された処理は、サーバ計算機やストレージコントローラや管理計算機等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部又は全ては、専用ハードウェアで実現してもよく、また、モジュール化されていてもよい。各種プログラムは、プログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
<実施例のサマリ>
 図1に実施例のサマリを示す。なお、以後の説明は、今後登場するであろうNVMeの後継規格に対しても適用可能であり、同様にPCI-Express(Peripheral Component Interconnect Express:以後、PCIeと省略)の後継規格に対しても適用可能である。NVMeやPCIeに関連する用語が用いられた場合、その後継規格の同等の用語も指し示すと考えるべきである。同様に実施例は現在のBlockアクセスをターゲットとしたNVMeを対象として説明しているが、仮にバイトやワード単位のアクセスがNVMe規格で規定された場合はそれらアクセスについても本実施例が適用できることは言うまでもない。同様に、実施例は、フラッシュメモリを用いる不揮発メモリデバイスを対象として説明しているが、フラッシュメモリ以外の不揮発メモリ、例えばFeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、相変化メモリ(Ovonic Unified Memory)、RRAM(登録商標、Resistance RAM)を用いる不揮発メモリデバイスに適用してもよい。
≪NVMeについて≫
 非特許文献1及び2の通り、NVMeはフラッシュメモリSSDに対して高速アクセスを実現するためのI/F(Interface)規格である。NVMe規格に沿ってプログラム(例えばデバイスドライバ、及びその他、アプリケーション、OSも含む)を開発することで、フラッシュメモリSSDに対し、高IOPS(Input/Output per Second)や低レイテンシといった高速アクセスが可能となる。例えば非特許文献2の18ページによれば、SCSI/SAS(Serial Attached SCSI)を採用したSSDで6.0μsであったアクセスレイテンシが、NVMeを採用することで2.8μsまで削減できると開示されている。そのキーポイントは既に説明した通りだが、マルチI/Oキュー化し、複数のコアで1つのI/Oキューを共有しなくてもよくしたことで、CPUコア間のメモリアクセス効率を改善できる。
 NVMeは規格化されて、幅広いフラッシュメモリデバイスがNVMe規格に対応することが期待される。そのため、デバイスドライバ以外のプログラム(典型的にはアプリケーションプログラム)のベンダにとって、当該プログラムが直接NVMeコマンドを発行し、フラッシュメモリデバイスに高速にアクセスすることも期待される。
 なお、本実施例における「フラッシュメモリデバイス」は少なくとも以下の特徴を持つデバイスであり、フラッシュメモリSSDはその1例である:
*フラッシュメモリチップを含む。
*以下の処理を行うフラッシュメモリコントローラを含む:
  #外部からのリードリクエストに応じて、フラッシュメモリチップに保存されたデータを外部に転送する。そして、外部から受信したライトリクエストと共に受信したデータをフラッシュメモリチップに保存する。
  #フラッシュメモリチップのイレース処理を行う。
≪計算機システム≫
 計算機システムは、1以上のサーバ計算機と、1以上のストレージコントローラと、フラッシュメモリデバイス(図では「Flash」と省略する場合がある)、通信機構(Communication Mechanism)とを少なくとも含む。なお、計算機システム内のこれらの含有物の夫々を計算機システムコンポーネントと呼ぶことがある。
 なお、本計算機システムはConverged Platformであることが好ましい。なお、Converged PlatformはConverged Infrastructure、Converged Systemとも呼ばれ、日本語では「Converged」が「垂直統合」という用語に置き換わる場合がある。なお、本実施例では以後、これらをConverged Platform(CPFと省略することもある)に統一して呼ぶ。CPFは以下の特徴を持つ:
*サーバ計算機、ストレージシステム(ストレージコントローラと記憶デバイスを含む)、及びこれらを接続する通信機構を含む製品。企業の管理者が個別にサーバ計算機とストレージシステムを導入する場合、こうしたサーバ計算機とストレージシステムの接続確認に代表される動作検証は管理者側で行われていた。しかし、CPFを導入する場合、製品を販売するベンダが事前に動作検証を行うため、製品を設置して使用する顧客の管理者による動作検証が不要又は削減できる。
*なお、一部のCPFは、サーバ計算機、ストレージシステム、及び通信機構の設定を一括して行う管理プログラムを実行する管理サブシステムを含む場合がある。この管理サブシステムは、管理者が希望する実行環境(仮想マシン、DBMS:Database Management System、Webサーバ等)を迅速に提供することができる。例えば、管理プログラムは、必要なリソース量の仮想マシンを提供するために、サーバ計算機及びストレージシステムに必要なリソースの割り当てをリクエストし、割り当てられたリソースを用いて仮想マシンを作成するようにハイパーバイザにリクエストする。
≪サーバ計算機≫
 サーバ計算機(1)及び(2)は夫々、ストレージコントローラにアクセスするプログラム(1)及び(2)を格納し実行するユニットである。プログラム(1)及び(2)は、NVMeコマンドを発行することで、ストレージコントローラにより提供される共有データ領域に対してアクセスする。なお、共有データ領域をNVMeのNSとして提供する部位は後ほど説明する。
 サーバ計算機は、少なくともCPU、メインメモリ(以後メモリと省略する)、RCを含む。サーバ計算機は例えば以下であってもよい:
*ファイルサーバ
*ブレードサーバシステム
*PC(Personal Computer)サーバ
*ブレードサーバシステムに差し込まれるブレード。
≪サーバ計算機のプログラム≫
 なお、プログラム(1)及び(2)は例えば、業務アプリケーションプログラム(例えばWebサーバ、DBMS、分析プログラム、ミドルウェア)や、LPAR(Logical Partitioning)や仮想マシンを作成可能なプログラムや、OS、デバイスドライバ、であることが考えられるが、他のプログラムであってもよい。
≪通信機構≫
 通信機構は、サーバ計算機とストレージコントローラとをPCIeで接続する。なお、サーバ計算機とストレージコントローラとの間のPCIe接続は、従来のサーバ計算機とストレージシステムとの接続で採用されているFC(Fibre Channel)、Ethernet(登録商標)を用いるSAN(Storage Area Network)のようなネットワークを介さない。理由は以下の通りである(いずれか1つ、又は両方):
*これら広域SANも構築可能なプロトコルでは変換処理のオーバーヘッドが高く、共有データ領域への高性能I/O提供の妨げとなるため。
*EthernetやSANのデバイス(特にスイッチ)が高価であるため。
 なお、NVMeはPCIeに基づいた通信機構を前提とする。そのため、サーバ計算機からのNVMeコマンドを解釈する部位はPCIeにおけるEndpoint(以後、EPと省略)である必要がある。また、PCIeのチップセットが、複数のRoot Complex(以後、RCと省略)からEPを共有すること(以後、「複数RCの同居」と呼ぶ)を許容しない場合(例えばMR-IOV:Multi-Root I/O Virtualizationをサポートしない場合)はこの制限も考慮する必要がある。
 本実施例では、以上を踏まえ、NVMeコマンドを解釈する部位の候補として3つの候補を開示する。計算機システムは、3つの候補の中の一種類を含む。3つの候補(1)、(2)、(3)(図ではNVMe I/F候補(1)、(2)、(3)と記載)は以下の通りである:
*候補(1):フラッシュメモリデバイス。この場合はストレージコントローラとフラッシュメモリデバイスとはPCIeで接続され、フラッシュメモリデバイスはNVMeに準拠したFunctionを持つEPとなる。ストレージコントローラはサーバ計算機からのNVMeコマンドを当該フラッシュメモリデバイスにスルーする。
*候補(2):ストレージコントローラ。この場合はサーバ計算機からストレージコントローラまでがPCIeで接続される。なお、前述の複数RCの同居に関する制限がある場合、サーバ計算機(1)のRCとストレージコントローラのRCとのPCIe接続と、サーバ計算機(2)のRCとストレージコントローラのRCとのPCIe接続とは、分離される。そして、ストレージコントローラのRCはそれぞれのサーバ計算機のRCに対して個別なEPを提供する。
*候補(3):サーバ計算機からのPCIe接続とストレージコントローラからのPCIe接続を仲介する仲介デバイス。インテル(R)やAMD(R)等が提供するCPU及びPCIeチップセットはコモディティ化されているため、低価格で高性能である。こうしたものをストレージコントローラに採用する場合に課題となるのが、ストレージコントローラにもRCが存在してしまい、前述の複数RCの同居の制限がある場合は、そのままサーバ計算機と接続できないことである。当該仲介デバイスは、夫々のサーバ計算機のRCに対してはEPを提供するロジックと、ストレージコントローラのRCに対しては別なEPを提供するロジックと、サーバ計算機とストレージコントローラとの間のライトデータやリードデータの転送を仲介するロジックとを含むことにより、この課題を解決する。
 なお、PCIeは元々サーバ計算機やストレージシステム内の通信路として用いられてきたため、FCやEthernetと比較するとPCIeの通信可能距離は短く、RCはFCやEthernetで通信できる通信ノード数よりも少ない数のEPとしか通信ができない。また、FCやEthernet上で動作する通信プロトコルと比較して、PCIeの障害処理は弱い。そのため、通信機構としてPCIeを採用する本計算機システムはCPFであることが好ましい。なぜならば、計算機システムをCPFにすることで顧客によるサーバ計算機とストレージユニット間の通信機構のケーブリングを不要とできることから、前述のPCIeの弱点によるトラブルが発生しにくく、結果として信頼性の高いNVMeアクセスを提供できる。
≪NVMeコマンド解釈部位毎のメリット≫
 なお、前述のNVMeコマンドを解釈する部位の候補(1)から(3)には例えば以下のメリットがある。
*候補(1):ストレージコントローラによる処理のオーバーヘッドが無い、又は小さい。候補(1)は、フラッシュメモリデバイスの内部状態を考慮した、効率的なNVMeのキュー制御を実現しやすい。なぜなら、NVMeコマンドを解釈する部位と、フラッシュメモリデバイスのウェアレベリングやリクラメーション等を行うコントローラが同じ又は近いためである。例えば、NVMeではI/Oキューが複数存在するが、候補(1)は、複数のI/OキューからのNVMeコマンドの取り出し方を当該内部状態に基づいて変更する。
*候補(2):ストレージコントローラが提供する前述のエンタープライズ向け機能をNVMeのNSに対して適用できる。また、候補(2)は、ストレージコントローラの内部状態を考慮した効率的なNVMeのキュー制御を行うことができる。なぜなら、NVMeコマンドを解釈する部位と、ストレージコントローラとが同じ又は近いためである。例えば、候補(2)は、複数のI/OキューからのNVMeコマンドの取り出し方を当該内部状態に基づいて変更することができる他、I/OキューにあるNVMeコマンドの蓄積状態に応じて、ストレージコントローラの他の処理の制御を変更できる。
*候補(3):ストレージコントローラが提供するエンタープライズ向け機能をNVMeのNSに対して適用できる。また、候補(3)の仲介デバイスがNVMeコマンドをSCSIリクエストに変換するのであれば、ストレージコントローラで実行されるストレージプログラムは、実行コード、中間コード、又はソースコードレベルで、従来のSANストレージサブシステムのストレージプログラムと互換性を保ちやすい。その結果として、計算機システムのストレージプログラムの品質向上、機能向上できる他、前述のリモートコピーのような計算機システムのストレージコントローラとSANストレージサブシステムとの間の連携処理の実装も容易になる。なぜなら、通常のSANストレージサブシステム同士の連携と同じ部分が殆どのためである。
≪ストレージコントローラ≫
 ストレージコントローラはフラッシュメモリデバイスの記憶領域を用い、高性能I/O処理を提供する。また、ストレージコントローラは、これまでエンタープライズ向けのSANストレージサブシステムが提供してきたような信頼性、冗長性、高機能性、保守・管理容易性に関係する機能を有してもよい。以下がその例である:
*ストレージコントローラは、フラッシュメモリデバイスを冗長化し、冗長化した記憶領域から共有データ領域を提供する。また、ストレージコントローラは、共有データ領域に格納したデータへのアクセスを禁止又は失敗させずに(いわゆる無停止に)、フラッシュメモリデバイスの交換、増設、抜き去りといったデバイス保守を可能とする。HDDとは異なり、フラッシュメモリデバイスには書き込み過多によるデバイス寿命の短期化という特性がある。そのため、こうした冗長化や無停止保守をストレージコントローラが提供することで本計算機システムとしての信頼性を向上させることができる。また、サーバ計算機にPCIeのフラッシュメモリデバイスが差し込まれる場合、フラッシュメモリデバイスの保守は個々のサーバ計算機に対して個別に行われなければならない。しかし、本計算機システムのようにストレージコントローラにフラッシュメモリデバイスが接続されることにより、フラッシュメモリデバイスの保守をストレージ側にまとめると、保守作業者はまとめてフラッシュメモリデバイスの保守作業を行うことができ、保守が容易になる。
*ストレージコントローラは、NVMeによって格納したデータに対して、リモートコピーやスナップショットといったコピー機能を提供する。
*ストレージコントローラは、フラッシュメモリデバイス以外に記憶デバイスとしてHDDに接続されることにより、これらの記憶デバイスを用いたティアリングを可能とする。なお、ストレージコントローラは、HDDが提供する記憶領域をNVMeのNSに対応させてもよい。
*ストレージコントローラは、サーバ計算機(1)や(2)を介さずに、本計算機システムの外部の計算機システム(サーバ計算機やストレージシステムを含む)又はネットワーク装置(SANスイッチやEthernetスイッチを含む)からのネットワークを介したアクセスを提供する。これにより前述のリモートコピーが行えたり、本計算機システム外部の計算機システム又はネットワーク装置も含めたストレージコンソリデーションも提供できたりする等、柔軟性が向上する。
≪サーバ計算機とストレージコントローラの配置≫
 前述の通り、PCIeは通信可能距離が短いことから、サーバ計算機とストレージコントローラとは物理的に近い位置に配置されていればよい。しかし、以下がより好ましい:
*ストレージコントローラが、ブレードサーバシステムのシャーシに差し込まれる構成を有する。なお、サーバ計算機であるブレードとストレージコントローラとの間のPCIe接続にバックプレーン等の基板を用いることで、PCIe接続に伴うトラブルを削減できる。
*ブレードサーバシステムのシャーシとは別なシャーシにストレージコントローラを入れ、両シャーシをPCIe接続用のケーブルで接続する。なお、ブレードサーバシステムのシャーシとストレージコントローラのシャーシとを1つのラックに入れたものを、CPFとして販売してもよい。このようにラックに両シャーシとPCIe接続用ケーブルとを入れることで、PCIe接続用ケーブルに伴うトラブルを削減でき、また単体販売しているブレードサーバシステムやストレージシステムのシャーシそのもの又は部品をCPFへ流用することが容易である。
≪管理サブシステム≫
 管理サブシステムは以下の少なくとも1つの処理を行うサブシステムである:
*管理者又は統合管理サブシステムからのリクエストを受信し、計算機システムコンポーネントに対してリクエストに応じた設定を行うこと。
*計算機システムコンポーネントから情報を取得し、管理者に表示したり、又は統合管理サブシステムに送信したりすること。なお、取得する情報は例えば性能情報、障害情報、設定情報、構成情報等がある。例えば、構成情報は、コンポーネントの抜き差しをしない限り本計算機システムに固定な項目と、変更可能な項目とを含み、設定情報は特に構成情報のうち、設定により変更可能な項目である。なお、これら種類の情報をまとめてコンポーネント情報と呼ぶことがある。また、管理者に表示したり、別な計算機に送信したりする情報は、取得したコンポーネント情報そのままでもよく、又は何らかの基準で変換・加工した後に、当該情報の表示や送信を行ってもよい。
*上記コンポーネント情報に基づいて、計算機システムコンポーネントへの設定を自動的・自律的に行う、いわゆる自動・自律管理。
 管理サブシステムは例えば以下の形態(それらの形態の混在を含む)であることが考えられるが、上記処理を行う形態であればそれらの形態にこだわらない。関係する機能、計算機の集合が管理サブシステムである。
*計算機システムコンポーネントとは別な計算機(1以上)。管理サブシステムが、ネットワークを介して計算機システムに接続されている複数の計算機である場合、例えば、サーバ計算機専用の計算機、ストレージコントローラ専用の計算機、表示処理専用の計算機、といった計算機が管理サブシステムに存在してもよい。
*計算機システムコンポーネントの一部。例えばBMC(Baseboard Management Controller)やエージェントプログラムが管理サブシステムである。
≪統合管理サブシステム≫
 統合管理サブシステムは、サーバ、ストレージシステム、ネットワーク装置(SANスイッチやEthernetスイッチを含む)、そして本計算機システム、等に代表される管理対象装置を統合管理するサブシステムである。統合管理サブシステムは、ネットワークを介して管理サブシステム及び他の管理対象装置に接続される。統合管理サブシステムは複数の管理対象装置を管理するために、ベンダプロプライエタリなプロトコルで管理対象装置と通信することもあるが、SNMP(Simple Network Management Protocol)やSMI-S(Storage Management Initiative-Specification)といった標準化されたプロトコルで管理対象装置と通信することもある。
 統合管理サブシステムは、ネットワークを介して計算機システムに接続されている1又は複数の計算機を含む。
 なお、統合管理サブシステムの提供ベンダは、本計算機システムのベンダとは異なる場合があり、その場合、本計算機システムの通信機構がPCIeであることで、統合管理サブシステムは本計算機システムの管理ができなかったり、できたとしても通常より劣った管理しかできなかったりすることがある。その理由の一例としては、統合管理サブシステムがサーバ計算機とストレージコントローラとの接続経路としてFC又はEthernet接続のみ認識し、PCIe接続を前述の接続経路として認識しない場合である。この場合、統合管理サブシステムは、サーバ計算機とストレージコントローラが接続されていないとみなすため、このような接続情報があることを前提とする管理項目は本計算機システムに適用できないことになる。
 そのような場合の対策のため、本計算機システムの管理サブシステムは、本計算機システムのPCIe接続にSAN接続をエミュレートさせることにより、PCIe接続の情報を仮想のSAN接続の情報に変換し、そのSAN接続の情報を統合管理サブシステムに送信することにより、そのSAN接続を統合管理サブシステムの管理対象としてもよい。なお、SAN接続のエミュレートとは例えば、接続情報を提供すること、又はSAN接続に関する設定を受け付けること(ストレージポートへのLogical Unit割り当て)、等がある。なお、エミュレート先のSANはFC-SANであってもよく、IP(Internet Protocol)-SAN、Ethernet-SANであってもよい。
≪本計算機システムの用途とLocalフラッシュメモリデバイスの併用≫
 以上説明の通り、複数のサーバ計算機間でNVMeによるデータ共有を実現するために、本計算機システムが導入されることが考えられる他、データ共有をしなくても前述のストレージコントローラが提供するエンタープライズ向け機能を、NVMeで格納したデータに適用するために、本計算機システムが導入されることも考えられる。また、既に本計算機システムではない環境にて、NVMeコマンドを発行するプログラムを用いて業務システムが構築されていた場合は、当該プログラムに対して、ベンダプロプライエタリなフラッシュメモリデバイス向けのインターフェースを実装しなくても、本計算機システムにて業務システムが構築されることができる場合もある。
 なお、NVMeによるデータ共有は例えば以下の用途がある:
  #複数のサーバ計算機間の高速フェイルオーバ。サーバ計算機(1)の障害等に応じて、サーバ計算機(2)はサーバ計算機(1)による処理を引き継ぐフェイルオーバを行うと判定する。複数のサーバ計算機の夫々にPCIe接続を介してLocalフラッシュメモリデバイス(図では「Local Flash」と省略)が接続されており、そしてサーバ計算機のプログラムのNVMeコマンド発行先がLocalフラッシュメモリデバイスだけである場合、複数のサーバ計算機は、フェイルオーバ元と先のLocalフラッシュメモリデバイス間でデータコピーする必要があり、高速なフェイルオーバが難しい。本計算機システムの場合はそのようなデータコピーは不要である。
  #複数のサーバ計算機がNVMeで共有データ領域に並列アクセスすることで、並列処理を行う場合。あるサーバ計算機がデータをライトし、すぐに他のサーバ計算機が当該データをリードすることができる。
 しかし、サーバ計算機の数が増加した場合は、ストレージコントローラのI/O処理能力がボトルネックとなってしまう場合もある。
 こうした場合に対処するために、各サーバ計算機に対して、NVMeコマンドを解釈できるフラッシュメモリデバイス(Localフラッシュメモリデバイスと呼ぶ)がPCIeで接続され、接続されたサーバ計算機により占有されてもよい。こうした構成の場合、サーバ計算機で実行されるプログラムは、データ共有及びエンタープライズ向け機能の適用が不要なデータをLocalフラッシュメモリデバイスに格納し、データ共有又はエンタープライズ向け機能の適用を望むデータをストレージコントローラにより提供される記憶領域であるNVMeのNSに格納すればよい。例えば、サーバ計算機(1)の障害や負荷等により、サーバ計算機(1)のプログラムの処理がサーバ計算機(2)に引き継がれる構成において、サーバ計算機(1)は、引き継ぎに必要なデータを共有データ領域であるNSへ書き込み、NSから読み出すことにより、処理を実行し、引き継ぎに不要なデータをLocalフラッシュメモリデバイスへ書き込む。
 なお、こうした設定は手動で行われてもよいが、前述の管理サブシステムや統合管理サブシステムにより自動で行われてもよい。例えば、これらのサブシステムは、各NSが複数のサーバ計算機による共有(又はエンタープライズ向け機能の適用)可か否かを判断し、サーバ計算機で実行されるプログラムの特性に基づいて共有(又はエンタープライズ向け機能の適用)が必須であるデータを把握し、サーバ計算機で実行されるプログラムに対し、データを格納する記憶領域を使い分けるように設定してもよい。当該プログラムの管理者は本計算機システムの構成・特徴を熟知しているとは限らないため、管理者による当該プログラムの設定作業負荷が軽減される。なお、NSが共有か否かの判断方法としては以下が考えられるが、他の方法であってもよい:
*管理サブシステムがNSIDとストレージコントローラの記憶領域との関係を計算機システムに問い合わせる。
*サーバ計算機のプログラムがNSIDを指定して情報収集を行うことにより得られる情報から共通のNSであることを判断する。
<基本構成図>
 以下に計算機システムがCPFである場合を例により詳細な実施例を説明する。
≪NVMe制御でのCPF≫
 図2はCPFの物理構成及び論理構成を示した図である。
 本図でのCPF1は、サーバ計算機2、ストレージコントローラ3、記憶デバイスとしてフラッシュメモリデバイス5、管理サブシステムの一例として管理計算機7を含む。
 サーバ計算機2は、管理計算機7と接続するための管理I/F272を含む。サーバ計算機2は、プログラムの一例としてアプリケーションプログラム228(単にアプリケーションと省略することがある)、OS227、NVMe制御プログラム222、サーバ管理I/F制御プログラム229を実行する。なお、管理計算機7とサーバ計算機2及びストレージコントローラ3との接続はEthernetであることが考えられえるが、他の物理的・仮想的な接続形態であってもよい。サーバ管理I/F制御プログラム229は、管理I/F272を制御することにより、管理計算機7との通信を行う。
 NVMe制御プログラム222は、NVMeコマンドをPCIe I/F262に発行するプログラムである。なお、プログラム222はサーバ計算機2に格納されている他のプログラムの一部であってもよく、サーバ計算機2に格納されている他のプログラムと別なプログラムであってもよい。例えば、アプリケーションプログラム228がNVMeコマンドを発行する構成や、OS227内のデバイスドライバがNVMeコマンドを発行する構成がある。
 PCIe I/F262は、NVMe制御プログラム222の動作に従ってNVMeコマンドをPCIe I/F362へ送信した後、PCIe I/F362から当該NVMeコマンドに対するレスポンスを受信し、そのレスポンスをNVMe制御プログラム222へ返す。
 ストレージコントローラ3は、管理計算機7と接続するための管理I/F382と、フラッシュメモリデバイス5と接続するためのフラッシュI/F372と、を含む。なお、フラッシュI/F372とフラッシュメモリデバイス5との接続は、フラッシュメモリデバイス5がNVMeコマンドを解釈する場合はPCIe接続であることが好ましいが、そうでない場合はSASやSATA(Serial Advanced Technology Attachment)やFCやEthernetであってもよく、他の通信機構を用いてもよい。
 ストレージコントローラ3は、ストレージプログラム320を実行する。なお、ストレージプログラム320は例えば、各インターフェースとの通信を制御する、PCIe I/F制御プログラム322と、フラッシュI/F制御プログラム323と、管理I/F制御プログラム324と、を含む。PCIe I/F制御プログラム322は、PCIe I/F362を制御することにより、サーバ計算機2との通信を行う。フラッシュI/F制御プログラム323は、フラッシュI/F372を制御することにより、フラッシュメモリデバイス5との通信を行う。管理I/F制御プログラム324は、管理I/F382を制御することにより、管理計算機7との通信を行う。
 なお、PCIe I/F262とPCIe I/F362の実体は、例えば、図4に示すサーバ側PCIe I/Fデバイス4や、図9に示すストレージ側PCIe I/Fデバイス8である。
≪NVMe制御+SCSI制御でのCPF≫
 図3は別なCPFの物理構成及び論理構成を示した図である。
 図2との差異は、サーバ計算機2からストレージコントローラ3へのI/Oリクエストとして、NVMeとSCSIを併用することである。
 SCSI制御プログラム224は、他のプログラムからのリクエストに応じて、ストレージコントローラ3により提供されるLUNに対してSCSIリクエストをPCIe I/F262のSCSIファンクション(図中のSCSI Func.)宛に発行する。SCSI制御プログラム224は例えばSCSIデバイスドライバである。なお、本プログラムはサーバ計算機2に格納されている他のプログラムの一部であってもよく、サーバ計算機2に格納されている他のプログラムとは別なプログラムであってもよい。例えば、OS227内のデバイスドライバがSCSIリクエストを発行する場合がある。
 PCIe I/F262がNVMeコマンドとSCSIコマンドの両方を受け付ける場合、NVMeファンクション(図中のNVMe Func.)とSCSIファンクションの2つを持つ必要がある。この内NVMeファンクションについては図2のPCIe I/F262の説明として説明済みである。SCSIファンクションはSCSI制御プログラム224の動作に従ってSCSIコマンドをPCIe I/F362へ送信した後、PCIe I/F362から当該SCSIコマンドに対するレスポンスを受信し、そのレスポンスをSCSI制御プログラム224へ返す。なお、PCIe I/F362をマルチファンクションにするか否かは、仲介デバイスでNVMeコマンドを解釈するか否かによって定まる。
 このように、あるサーバ計算機2がNVMeコマンドとSCSIリクエストの両方を発行できるようにすることで、以下の少なくとも1つのメリットがある。
*サーバ計算機2においてNVMe非対応のプログラムが、NVMeのNSに対応した記憶領域にアクセスできるようにするため。
*サーバ計算機2においてNVMe非対応のプログラムが、NVMeのNSに対応した記憶領域とは別な記憶領域にアクセスできるようにするため。例えばストレージコントローラ3にHDDが接続している場合、サーバ計算機2が当該HDDの記憶領域に対してはSCSIでアクセスできるようにする。
*本願出願時点ではNVMeのI/FがNSをサーバ計算機2のブートデバイスとして使用できるように規格化されていないため。そのため、ストレージコントローラ3が提供する記憶領域をサーバ計算機2のブートデバイスとする場合、サーバ計算機2がその記憶領域にSCSIリクエストでアクセスできる必要がある。なお、サーバ計算機2がブートするということは、サーバ計算機2のBIOS(Basic Input/Output System)プログラムが、ブートデバイスを持つEPをハンドリング可能なように実装されている必要があるということである。ここでのEPは、例えばSCSI HBA(Host Bus Adapter)やPCIe I/Fデバイス(NVMeファンクション又はSCSIファンクション)である。その具体的な実装方法は以下の通りである:
  #BIOSプログラムが、発見したEPからBIOSプログラム用のデバイスドライバプログラムを取得し、それを実行する。
  #BIOSプログラム自体がNVMe用のドライバプログラムを含む。
 なお、サーバ計算機2には以下の3つのタイプがある。
(A)NVMeコマンドを発行し、SCSIリクエストを発行しない。
(B)NVMeコマンドとSCSIリクエストを発行する。
(C)NVMeコマンドを発行せず、SCSIリクエストを発行する。
 ここで、CPF1に含まれるサーバ計算機2は1つの場合もあれば複数の場合もある。複数の場合、CPF1に含まれるサーバ計算機2は、上記(A)乃至(C)のいずれか1タイプだけの場合もあれば、(A)乃至(C)のいずれか2タイプのコンビネーション、又は(A)乃至(C)の3タイプのコンビネーションの場合もあってもよい。
<候補(3)を用いるCPFのハードウェア全体構成>
 図4は、前述のNVMe解釈部位が候補(3)である場合のCPF1を詳細化した図である。なお、サーバ計算機2とストレージコントローラ3の間のPCIe接続はスイッチを介して行われるが、図では省略している。
 サーバ計算機2は、CPU21と、メインメモリ22(図ではMemと省略し、以後の説明ではメモリ22と呼ぶことがある)と、RC24と、サーバ側PCIe I/Fデバイス4とを含む。RC24とサーバ側PCIe I/Fデバイス4とはPCIeにて接続される。RC24とCPU21とはPCIeより高速なネットワークで接続される。メモリ22は、図示しないメモリコントローラを介して、CPU21及びRC24と高速なネットワークで接続される。これまで説明したサーバ計算機2にて実行される各プログラムは、メモリ22にロードされ、CPU21によって実行される。CPU21はCPUコアであってもよい。RC24とCPU21とメモリコントローラとは1つのLSIパッケージでまとめられてもよい。
 サーバ側PCIe I/Fデバイス4は、前述の仲介デバイスの一例である。サーバ側PCIe I/Fデバイス4は、サーバ計算機2の外部に配置されてもよい。サーバ側PCIe I/Fデバイス4は、以下の特徴を持つデバイスである:
*CPU21により実行されるプログラムによって発行されたNVMeコマンドを解釈する。
*RC24に対してEP41を提供する。
*ストレージコントローラ3に含まれるRC33に対して別なEP42を提供する。なお、ストレージコントローラ3に複数のRCが含まれ、本デバイス4がそれぞれと通信する必要がある場合は、本デバイス4は各RCに対して別なEP42を提供する。ここでのサーバ側PCIe I/Fデバイス4は、ストレージコントローラ3内の二つのRC33に対して二つのEP42を夫々提供する。
 サーバ側PCIe I/Fデバイス4は、これらの特徴を実現するために、複数のサーバ計算機2に夫々対応する複数のEP42を提供するロジックと、EP41を提供するロジックと、NVMeコマンドに基づくSCSIコマンドをストレージコントローラ3に発行するロジックとを含んでもよい。なお、EP41は図2のPCIe I/F262に対応し、EP42はPCIe I/F362に対応しているとも言える。更にサーバ側PCIe I/Fデバイス4が図3のSCSIファンクションに相当するロジックとして、CPU21により発行されたSCSIリクエストに基づくSCSIリクエストをストレージコントローラ3に発行するロジックを含んでもよい。これらのロジックの夫々は、専用回路などのハードウェアにより実現されてもよいし、ソフトウェアを実行するプロセッサにより実現されてもよい。
 なお、サーバ側PCIe I/Fデバイス4がNVMeファンクションとSCSIファンクションの両方を持つことで、別々なボードにこれらファンクションを実装する場合と比較して例えば以下の1つ以上のメリットがある:
*低コスト化。
*サーバ計算機2においてPCIe接続のデバイスを差し込むためのスペースの削減。
*サーバ計算機2内の使用PCIeスロット数の削減。
特に本候補(3)で上記マルチファンクションを実現した場合は、サーバ側PCIe I/Fデバイス4がSCSIリクエストをストレージコントローラ3へ送信するロジックをファンクション間で共通化できるため、デバイスの小型化又はコスト削減が可能である。
 なお、サーバ計算機2は前述の通りLocalフラッシュメモリデバイス23(図ではFlashと省略)を含んでもよい。Localフラッシュメモリデバイス23はRC24とPCIeで接続される。
 なお、サーバ計算機2に含まれる各構成物は複数であってもよい。なお、図ではLocalフラッシュメモリデバイス23とサーバ側PCIe I/Fデバイス4とはRC24を介して通信をするように記載されているが、RC24を介さずに通信してもよく、また通信できなくてもよい。
 ストレージコントローラ3は1つ以上の(図では2つの)コントロールユニット36(図ではCTLユニットと省略)を含む。各コントロールユニット36は、CPU31と、メインメモリ32(図ではMemと省略し、以後の説明ではメモリ32と呼ぶことがある)と、RC33と、フラッシュI/F372とを含む。RC33と、サーバ側PCIe I/Fデバイス4と、フラッシュI/F372とはPCIeにて接続される。RC33とCPU31とはPCIeより高速なネットワークで接続される。メインメモリ32は、図示しないメモリコントローラを介して、CPU31及びRC33と高速なネットワークで接続される。これまで説明してきたストレージプログラム320等のストレージコントローラ3で実行される各プログラムは、メモリ32にロードされ、CPU31によって実行される。CPU31はCPUコアであってもよい。RC33とCPU31とメモリコントローラとは1つのLSIパッケージでまとめられてもよい。
 各コントロールユニット36はHDD6に接続するためのディスクI/F34を含んでもよい。なお、フラッシュI/F372とディスクI/F34が同じインターフェースタイプである場合は、これら2つのI/Fを共通化してもよい。なお、ディスクI/F34はSAS、SATA、FC、Ethernetであることが考えられるが、他の通信機構を用いてもよい。
 なお、図ではフラッシュI/F372(又はディスクI/F34)とサーバ側PCIe I/Fデバイス4とはRC33を介して通信をするように記載されているが、RC33を介さずに通信してもよく、また通信できなくてもよい。この点はフラッシュI/F372とディスクI/F34についても同様である。
 なお、コントロールユニット36に含まれる各構成物は複数であってもよい。
 なお、コントロールユニット36間は通信可能であることが望ましく、図ではその一例としてRC33間をPCIeで接続するように記載している。なお、RC33間をPCIeで接続する場合は、図示しないNTB(Non-transparent Bridge)を介して通信する。なお、コントロールユニット36間の通信は他の機構を用いてもよい。
<候補(3)を用いるCPFのPCIe空間の範囲>
 図5は、図4のサーバ側PCIe I/Fデバイス4を中心に拡大し、PCIeアドレスの空間であるPCIe空間を記載した図である。PCIe空間241は、サーバ計算機2内のRC24がコントロールする空間であり、PCIe空間331は、ストレージコントローラ3内のRC33がコントロールする空間である。なお、前述の「複数RCの同居」問題で示した通り、複数のRCが1つのPCIe空間に同居することができない。そのため、サーバ側PCIe I/Fデバイス4はそれぞれのPCIe空間を分離させるために、RC24向けのPCIeリンクと、RC33向けのPCIeリンクを接続でき、それぞれのリンクにおいてEPとして動作する。
 なお、ディスクI/F34とフラッシュI/F372とはPCIe空間331とは別なPCIe空間に存在してもよい。
<NVMeのNSとストレージコントローラの記憶領域の関係>
 図6は、NVMeのNSとストレージコントローラ3の記憶領域との関係を示した図である。ストレージコントローラ3は以下の記憶領域を管理している。
*パリティグループ。それは複数の記憶デバイス(フラッシュメモリデバイス5やHDD6)を用いて定義される。これにより、RAID(Redundant Arrays of Inexpensive Disks)による高信頼化、高速化、大容量化が達成される。
*論理ボリューム。それはパリティグループの記憶領域を分割した領域である。パリティグループの記憶領域はそのままサーバ計算機に提供されるには大容量過ぎる場合があるため、論理ボリュームが存在する。
*プール。それはシンプロビジョニングやティアリングに用いる記憶領域が含まれるグループである。図では論理ボリュームがプールに割り当てられているが、パリティグループや記憶デバイス自体が直接プールに割り当てられてもよい。
*仮想ボリューム。それはプールを用いて定義された、シンプロビジョニング又は/及びティアリングを適用した仮想記憶領域である。なお、以後の説明では論理ボリュームと仮想ボリュームを指し示す用語として「ボリューム」と呼ぶことがある。
*Logical Unit(論理ユニット、以後、LUと呼ぶことがある)。それは仮想ボリューム又は論理ボリュームのうち、サーバ計算機2からのアクセスを許す記憶領域である。Logical UnitはSCSIのLUN(Logical Unit Number)を割り当てられる。
 なお、ストレージコントローラ3は上記全種類の記憶領域を提供しなくてもよい。
 NSはこれら記憶領域のいずれの種類に対して対応付けられてもよい。しかし、NSはLogical Unitに対応付けられることがより好ましい。なぜならばストレージプログラム320はSANストレージシステムのストレージプログラム320と互換性を保ちやすくなり、また記憶領域の定義についてもSANストレージシステムとの互換性が高くなるからである。
<ストレージプログラム>
 以上説明した項目も含め、ストレージプログラム320は以下の処理を行う(全部である必要はない):
*SCSIリクエストを受信し、解釈し、処理すること。例えば当該SCSIリクエストがリードリクエストであれば、ストレージプログラム320は、フラッシュメモリデバイス5やHDD6等の記憶デバイスからデータをリードし、サーバ計算機2に転送する。なお、その際、ストレージコントローラ3のメインメモリ32をキャッシュメモリとして用いてもよい。例えば当該SCSIリクエストがライトリクエストであればキャッシュメモリにライトデータを格納し、その後記憶デバイスにライトデータをライトする。
*パリティグループに対してRAID処理をすること。
*ストレージコントローラ3により提供される上記記憶領域の定義を行うこと。なお、定義した結果はストレージコントローラ3のメインメモリ32に記憶領域定義情報として格納し、前述のリクエスト処理の際に参照する。
*その他シンプロビジョニング等のエンタープライズ向け機能の処理を行うこと。
<候補(3)におけるリクエスト変換処理>
 前述の通り候補(3)では、サーバ側PCIe I/Fデバイス4は、サーバ計算機2より受信したNVMeコマンドに基づいてSCSIコマンドを生成し、ストレージコントローラ3に送信する。
 図7はサーバ計算機2と、サーバ側PCIe I/Fデバイス4とコントロールユニット36との間で行われるNVMeコマンドに関連したNVMeコマンド処理を示すフローチャートである。なお、下記処理は、NVMeコマンドがリード又は/及びライトの場合に適用されるが、他のNVMeコマンドに適用されてもよい。
 処理手順は以下の通りである。なお、下記ステップはストレージコントローラ3に複数のコントロールユニット36が含まれ、各コントロールユニット36に複数のCPU31が含まれ、また、Logical UnitをNSに対応させる場合を想定している:
(S8110)サーバ計算機2は、前述のプログラムの処理によりNVMeコマンドを送信する。なお、NVMeコマンドはNSIDを含むことで、対象となるNSを指定できる。NVMeコマンドはまた、NSID内のアクセス範囲と、サーバ計算機2のメモリ範囲とを含む。
(S8112)サーバ側PCIe I/Fデバイス4は、NVMeコマンドを受信する。
(S8114)サーバ側PCIe I/Fデバイス4は、受信したNVMeコマンドを解釈し、コマンドに含まれるNSIDを、対応するLUNに変換する。
(S8116)サーバ側PCIe I/Fデバイス4は、変換したLUNを含むSCSIコマンドを生成する。
(S8118)サーバ側PCIe I/Fデバイス4は、生成したSCSIコマンドの送信先となるコントロールユニット36及びCPU31を決定する。
(S8120)サーバ側PCIe I/Fデバイス4は、生成したSCSIコマンドを決定した送信先に送信する。
(S8122、S8124)送信先のコントロールユニット36のCPU31は、SCSIコマンドを受信し、受信したSCSIコマンドを処理する。
 なお、S8110とS8112のNVMeコマンドの送信及び受信とは以下の処理である:
(A)サーバ計算機2で実行中のプログラムは、サーバ計算機2のメモリ22に準備したI/OキューにNVMeコマンドを登録し、
(B)サーバ計算機2で実行中のプログラムは、サーバ側PCIe I/Fデバイス4のEP41のNVMeレジスタ空間のI/Oキューのhead pointerをインクリメントし、
(C)サーバ側PCIe I/Fデバイス4は、I/Oキューのhead pointerのインクリメントを検知し、サーバ計算機2のメモリ22のI/OキューからNVMeコマンドをフェッチする。
 ところで(C)で複数のNVMeコマンドがフェッチされる場合があり、この場合、サーバ側PCIe I/Fデバイス4は個々のNVMeコマンドに対してS8114以降のステップを行うが、その実行順序としては、NVMeコマンド毎にS8114からS8124をシリアルに繰り返し実行してもよく、パラレルに実行してもよい。
 なお、図示はしていないが、S8124の処理の結果、NVMeコマンドがライトであれば、サーバ側PCIe I/Fデバイス4は、サーバ計算機2のメモリ22に格納されたライトデータを、ストレージコントローラ3のメモリ32に転送する。NVMeコマンドがリードであれば、サーバ側PCIe I/Fデバイス4は、ストレージコントローラ3のメモリ32に格納されたリードデータを、サーバ計算機2のメモリ22に転送する。
 また、S8114でのNSIDからLUNへの変換は、例えば以下のいずれか又は併用で行うことが考えられる:
*サーバ側PCIe I/Fデバイス4は、所定の変換式(ビット演算を含んでもよい)でNSIDからLUNに変換する。なお、サーバ側PCIe I/Fデバイス4は、所定の変換式とペアを成す逆変換式により、LUNからNSIDへも変換できる。所定の変換式のシンプルな例がNSID=LUNである。
*サーバ側PCIe I/Fデバイス4は、NSIDからLUNを得るための変換テーブルをサーバ側PCIe I/Fデバイス4のメモリに格納し、変換の際に参照する。
 なお、図3で説明の通り、S8112にてサーバ側PCIe I/Fデバイス4はサーバ計算機2から発行されたSCSIコマンドを受信してもよい。この場合、続くS8114、S8116は省略するが、そのために、サーバ側PCIe I/Fデバイス4は、受信したコマンドがNVMeコマンドか、SCSIコマンドか判断する。
 なお、S8118での送信先の決定方法は以下の基準で決定することが考えられるが、他の基準で決定してもよい:
*コントロールユニット36、又はCPU31の障害の有無。例えば、サーバ側PCIe I/Fデバイス4は送信の結果として得られるコントロールユニット36の状態を記憶し、記憶した状態に基づいて障害が発生していないコントロールユニット36に送信する。
*コントロールユニット36、又はCPU31の障害の負荷。実現形態としては、(A)ストレージコントローラ3又は管理計算機7が、コントロールユニット36又はCPU31の負荷を取得し、各NS宛てのリクエストで生成されたSCSIコマンドの送信先となるコントロールユニット36又はCPU31を決定して各サーバ側PCIe I/Fデバイス4に送信し、(B)決定結果を受信したサーバ側PCIe I/Fデバイス4は決定結果に基づいてSCSIコマンドを送信する。
≪SCSIコマンドを含むFCPコマンドを送信する場合≫
 なお、サーバ側PCIe I/Fデバイス4は、S8116でSCSIコマンドの生成に加えて生成したSCSIコマンドを含むFCP(Fibre Channel Protocol)コマンドを生成し、S8118でFCPコマンドとして送信してもよい。これには以下のメリットがある:
*ストレージプログラム320にてWWN(World Wide Name)又はWWNから生成されたPort IDや、IPアドレスといったSAN上の通信識別子を用いた制御(アクセス制御や優先度制御等)を行うことができる。
*SANストレージサブシステムとの互換性が維持できる。これはストレージプログラム視点と操作視点の両方の意味がある。
*統合管理サブシステムがサーバ計算機2とストレージコントローラ3間の接続を取得できる。
 FCPコマンドを送信する場合、サーバ側PCIe I/Fデバイス4は以下を持つ:
*EP41に対応する仮想サーバポート(仮想WWNが割り当てられる)。
*EP42に対応する仮想ストレージポート(仮想WWNが割り当てられる)。仮想ストレージポートは、ストレージプログラム320により通常のSANポートと同様に認識され、取り扱われる。
 管理サブシステムは上記仮想ストレージポートに対してLogical Unitの定義を行うことで、どのボリュームをNVMeのNSとするか指定することができる。以下が管理サブシステムの処理フローである:
(S01)管理サブシステムは、ストレージポートとボリュームを指定するLogical Unit定義リクエストを受信する。
(S02)指定されたストレージポートが仮想ストレージポートでない場合、管理サブシステムは、SANストレージサブシステムと同様の処理で指定されたストレージポートに対して、指定されたボリュームに対応するLogical Unitを定義する指示を、ストレージコントローラ3に送信する。
(S03)指定されたストレージポートが仮想ストレージポートである場合、管理サブシステムは、指定された仮想ストレージポートに対して、指定されたボリュームに対応するLogical Unitを定義する指示を、ストレージコントローラ3に送信する。
 なお、S03の指示を受けたストレージコントローラ3は以下の処理を行う:
(S03-1)ストレージコントローラ3は、指定された仮想ストレージポートに対応するサーバ側PCIe I/Fデバイス4を選択する。
(S03-2)ストレージコントローラ3は、指定されたボリュームに対応するLogical Unitを定義する(つまりLUNを、指定されたボリュームに割り当てる)。
(S03-3)ストレージコントローラ3は、選択されたサーバ側PCIe I/Fデバイス4に対して、割り当てられたLUNを通知する。なお、サーバ側PCIe I/Fデバイス4は通知されたLUNに対してNSIDを割り当てることでNS化する。なお、この割り当ての処理においてサーバ側PCIe I/Fデバイス4は、NSIDを生成し、NSIDとLUNの変換情報を用いている場合は当該情報の生成・登録を行う。
 以上が管理サブシステムの処理フローの説明である。これにより、管理者は仮想ストレージポートを指定することでどのサーバ計算機2に対してボリュームをNVMeとして提供するか指定することができる。これは、サーバ側PCIe I/Fデバイス4毎に仮想ストレージポートを持ち、当該デバイス4は複数のサーバ計算機2でシェアされない形態であるためである。また、ストレージコントローラ3がLogical Unitを対象とした性能モニタリング機能を持つ場合、当該Logical Unitに負荷を与えるサーバ計算機2が1つに定まることから迅速に負荷の原因となるサーバ計算機2を特定することができる。なお、複数のサーバ計算機2が、あるボリュームを共有NSとしてアクセスする場合は、共有するサーバ計算機2の仮想ストレージポート各々に対して上記Logical Unit定義を行う。
 なお、以上の説明ではFCPに特化して説明したが、FCPの代わりにiSCSI(Internet Small Computer System Interface)のPDU(Protocol Data Unit)やEthernetフレームを対象とする場合は上記説明のWWNをIPアドレスやMAC(Media Access Control)アドレスと読み替えればよく、一般化するとしたら上記説明のWWNを通信識別子(WWNやIPアドレスやMACアドレスを含む意味)と読み替えればよい。
 なお、管理サブシステムは、NVMeのNSとしたボリュームに対してSANポートに対するLogical Unit定義をガードする設定モードを設けてもよい。NSに対して一時的なデータのみを格納する運用形態の場合、SANポートに対するLogical Unitは意図しないデータ更新の元となるからである。また、ボリュームをNSとSANのLUNとの両方の経路でOSに認識させた場合、OSはそれぞれを別な記憶領域として認識してしまい、データ不整合を招く更新処理を実行する可能性がある。本ガードモードはそうしたデータ不整合を回避することもできる。
<CPFの起動方法>
 図8はCPF1の起動方法を示すフローチャートである。
(S1531、S1532、S1533)ストレージコントローラ3は、電源ONを検知したらストレージプログラム320を起動し、Logical Unitへのアクセス受付開始状態となる。
(S1534)ストレージコントローラ3は、サーバ側PCIe I/Fデバイス4へLogical Unit情報(LUN等)を送信する。なお、ここでストレージコントローラ3は、サーバ側PCIe I/Fデバイス4からのリクエストに応じて送信してもよく、主体的に送信してもよい。
(S1521)サーバ計算機2及びサーバ側PCIe I/Fデバイス4は、電源ONを検知する。
(S1542、S1543)サーバ側PCIe I/Fデバイス4は、起動し、ストレージコントローラ3から受信したLogical Unit情報を受信することでLogical Unitを認識する。
(S1544)サーバ側PCIe I/Fデバイス4は、認識したLogical Unitに対応するNS情報(NSID等)を生成し、サーバ計算機2で実行されるプログラムに送信する。なお、ここでサーバ側PCIe I/Fデバイス4はサーバ計算機2のプログラムからのリクエストに応じて送信することが考えられるが、サーバ側PCIe I/Fデバイス4が主体的に送信してもよい。なお、本ステップはデバイス4の起動の一環として行われてもよく、起動後に行われてもよい。
(S1522)サーバ計算機2は、OS227、アプリケーション228等のプログラムを起動し、NSの認識が必要なプログラムはNS情報(NSID等)の受信を待つ。
(S1523)サーバ計算機2においてNSの認識が必要なプログラムは、サーバ側PCIe I/Fデバイス4から、NS情報を受信する。なお、本図が示す通り、S1523の受信を行った時点で、ストレージコントローラ3及びサーバ側PCIe I/Fデバイス4の起動は完了している。なお、本ステップはS1522の起動の一環として行われてもよく、起動後に行われてもよい。
 以上の処理の後、図7にて説明したNVMeコマンドの処理が行われる。なお、本図ではストレージコントローラ3と、サーバ計算機2(及びサーバ側PCIe I/Fデバイス4)との電源ONは独立して行われることとした。しかし、S1531乃至S1533のステップの一環として、ストレージコントローラ3が、サーバ計算機2(及びサーバ側PCIe I/Fデバイス4)の電源ONを指示してもよい。
<NVMe解釈部位が候補(2)である場合>
 図9は、前述のNVMe解釈部位が候補(2)である場合のCPF1を詳細化した図である。図4との相違点は以下である:
*サーバ側PCIe I/Fデバイス4は、PCIeスイッチ(SW)9に代替された。
*ストレージコントローラ3にストレージ側PCIe I/Fデバイス8が新設された。なお、本デバイス8はサーバ側PCIe I/Fデバイス4と同様であるが、サーバ計算機2の各々に対してEP51を提供することで前述の「複数RCの同居」問題を解決するため、本デバイス8においてサーバ計算機2に接続されるEP51の数は、サーバ計算機2の数以上になる。更に本デバイス8は、ストレージコントローラ3内のRC33に対してEP52を提供する。
 なお、ストレージ側PCIe I/Fデバイス8のNVMeコマンド処理は図7で説明したフローで処理してもよいが、図1で説明したようにストレージプログラム320と連携することで、ストレージコントローラ3の内部状態を考慮した効率的なNVMeのキュー制御を行ってもよい。例えばNVMeコマンド処理は、負荷集中や障害があるHDDが割り当てられているNSが関係しているNVMeのキューからのフェッチの優先度を下げる。また、ストレージ側PCIe I/Fデバイス8は、NVMeコマンドをSCSI以外のコマンド形式に変換してもよく、またNVMeコマンドのままストレージプログラム320に送信してもよい。
<CPF1の適用形態>
 これまで説明してきた、CPFの適用形態の例を図10に示す。
 旧システムにより実行されているアプリケーションをCPFへ移行させるケースについて説明する。旧システムは、サーバ計算機(1)と、サーバ計算機(2)と、二つのローカルフラッシュメモリデバイス(図ではNVMe Local Flashと省略)と、ストレージコントローラと、記憶デバイスとを含む。二つのローカルフラッシュメモリデバイスは、サーバ計算機(1)及び(2)にPCIeで夫々接続されている。ストレージコントローラは、サーバ計算機(1)及び(2)にFCで接続されている。サーバ計算機(1)はアプリケーションを実行する。ストレージコントローラは、記憶デバイスを用いて、SCSIをサポートするLogical Unit(図ではSCSI Logical Unitと記載)を提供する。
 旧システムにてアプリケーションが以下の設定で利用されていたとする:
*アプリケーションは、一時的に生成するデータを、NVMeをサポートするローカルフラッシュメモリデバイスのNSに格納し、非一時的なデータを、ストレージコントローラにより提供されるLogical Unitに格納する。これによってアプリケーションの高速処理を実現する。
*仮にサーバ計算機(1)が停止した場合、サーバ計算機(2)がアプリケーションの処理を再開する。ただし、サーバ計算機(2)はサーバ計算機(1)によりローカルフラッシュメモリデバイスに格納されたデータを引き継げないため、サーバ計算機(2)はFC経由でLogical Unitからデータを読み込み、処理を再開する。
 このようなアプリケーションを旧システムからCPFに移行させることができる。CPFは、サーバ計算機(1)と、サーバ計算機(2)と、ストレージコントローラと、フラッシュメモリデバイス(図ではFlashと省略)とを含む。CPFは、各サーバ計算機に接続されたローカルフラッシュメモリデバイスに代えて、ストレージコントローラに接続されたフラッシュメモリデバイスを用いる。ストレージコントローラは、フラッシュメモリデバイスを用いて、SCSIをサポートするLogical Unitと、NVMeをサポートするnamespace(図ではNVMe Namespaceと記載)とを提供する。サーバ計算機(1)のアプリケーションは、共有データ領域であるNSに一時データを書き込み、NSから一時データを読み出すことにより、処理を実行する。サーバ計算機(1)の障害等により、サーバ計算機(2)が、サーバ計算機(1)のアプリケーションの処理をサーバ計算機(2)へ引き継ぐことを判定した場合、サーバ計算機(2)は、NSから一時データを読み出し処理を引き継いで実行する。
このような構成によれば、以下のメリットが得られる:
*フラッシュメモリデバイスの保守を集約できる。
*フラッシュメモリデバイスに対してストレージコントローラのエンタープライズ向け機能を用いることにより、信頼性、冗長性、高機能性、保守・管理容易性が向上できる。
 更に、アプリケーション設定を変更し、NSに格納された一時データを、サーバ計算機間で引き継ぐようにすれば、障害等によるサーバ計算機(1)からサーバ計算機(2)への切り替え時間が短縮でき、アプリケーションのMTBF(Mean Time Between Failure)が向上する他、サーバ計算機間の切り替えが容易となることから、保守・管理容易性が向上する。また、従来はSCSIのLogical Unitに格納していた非一時的なデータをNVMeのNSに格納できるため、アプリケーション処理性能が更に向上する。
 計算機システムは、インターフェースデバイスとして、仲介デバイスを含んでもよい。計算機システムは、通信機構としてバックプレーン等の基板を含んでもよいし、通信機構としてブレードサーバシステムのシャーシとストレージコントローラのシャーシとPCIe接続用ケーブル等を含んでもよい。計算機システムは、複数のサーバ計算機、ストレージコントローラ、及び通信機構を収容する筐体として、シャーシ、ラック等を含んでもよい。サーバ計算機は、サーバ側RCとしてRC24等を含んでもよい。サーバ計算機は、ストレージ側RCとしてRC33等を含んでもよい。インターフェースデバイスは、第1EPとしてEP41等を提供し、第2EPとして第1EPと異なるEP41等を提供してもよい。インターフェースデバイスは、第3EPとしてEP42等を提供してもよい。サーバ計算機は、第1データとして一時データ又は引き継ぎに必要なデータ等を用いてもよく、第2データとして引き継ぎに不要なデータ等を用いてもよい。計算機システムは、ローカル不揮発メモリデバイスとして、Localフラッシュメモリデバイス等を含んでもよい。
 以上で説明を終える。なお、以上で説明したポイントのいくつかはNVMeコマンド以外のSCSIコマンドに対しても適用できる場合がある。
 1…CPF 2…サーバ計算機 3…ストレージコントローラ 4…サーバ側PCIe I/Fデバイス 5…フラッシュメモリデバイス 6…HDD 7…管理計算機 8…ストレージ側PCIe I/Fデバイス 9…PCIeスイッチ 36…コントロールユニット
 

Claims (10)

  1.  第1サーバ計算機と、
     第2サーバ計算機と、
     不揮発メモリデバイスと、
     前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、
    を含み、
     前記ストレージコントローラは、前記不揮発メモリデバイス内の記憶領域を、前記第1サーバ計算機及び前記第2サーバ計算機の共有データ領域として提供し、
     前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
     前記プログラムは、前記共有データ領域に対応付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記共有データ領域にアクセスすることを、前記サーバ計算機に実行させる、
    計算機システム。
  2.  請求項1記載の計算機システムであって、
     前記サーバ計算機にPCI-Expressを介して接続されると共に、前記ストレージコントローラにPCI-Expressを介して接続されることにより、前記サーバ計算機と前記ストレージコントローラの間に介在するインターフェースデバイスを更に含み、
     前記ストレージコントローラは、SCSIリクエストを解釈し前記SCSIリクエストに基づいて前記不揮発メモリデバイスにアクセスすることにより、前記共有データ領域を提供し、
     前記インターフェースデバイスは、
      前記第1サーバ計算機に含まれるRoot Complex(RC)である第1サーバ側RCに対して第1Endpoint(EP)を提供するロジックと、
      前記第2サーバ計算機に含まれるRCである第2サーバ側RCに対して第2EPを提供するロジックと、
      前記ストレージコントローラに含まれるRCであるストレージ側RCに対して第3EPを提供するロジックと、
      前記サーバ計算機により発行されたNVM-Expressコマンドを解釈し、前記解釈されたNVM-Expressコマンドに基づくSCSIリクエストを前記ストレージコントローラへ発行するロジックと、
    を含む、
    計算機システム。
  3.  請求項2に記載の計算機システムであって、
     前記ストレージコントローラは、前記記憶領域をボリュームに割り当て、前記ボリューム及び仮想ストレージポートを論理ユニットに関連付け、前記論理ユニットを前記namespaceに割り当てる、
    計算機システム。
  4.  請求項2記載の計算機システムであって、
     前記プログラムは、SCSIリクエストを発行することを、前記サーバ計算機に実行させ、
     前記インターフェースデバイスは更に、前記サーバ計算機により発行されたSCSIリクエストを解釈し前記サーバ計算機により発行されたSCSIリクエストに基づくSCSIリクエストを前記ストレージコントローラへ発行するロジックを含む、
    計算機システム。
  5.  請求項1記載の計算機システムであって、
     前記第1サーバ計算機と前記第2サーバ計算機と前記ストレージコントローラとに接続される管理サブシステムを更に含み、
     前記管理サブシステムは、前記計算機システムと、ストレージエリアネットワーク(SAN)を用いるネットワーク装置とを管理する統合管理サブシステムに接続され、
     前記管理サブシステムは、
      (1)前記第1サーバ計算機及び前記ストレージコントローラの間のPCI-Express接続と、前記第2サーバ計算機及び前記ストレージコントローラの間のPCI-Express接続との夫々の情報を、仮想のSAN接続の情報に変換し、
      (2)前記SAN接続の情報を前記統合管理サブシステムに送信する、
    計算機システム。
  6.  請求項1に記載の計算機システムであって、
     前記計算機システムはConverged Platformである、
    計算機システム。
  7.  請求項1に記載の計算機システムであって、
     前記第1サーバ計算機は、第1データを前記共有データ領域へ書き込み前記第1データを前記共有データ領域から読み出すことにより、前記第1データを用いて処理を実行し、
     前記第2サーバ計算機は、前記処理を前記第1サーバ計算機から前記第2サーバ計算機へ切り替えさせると判定した場合、前記第1データを前記共有データ領域から読み出すことにより、前記第1データを用いて前記処理を実行する、
    計算機システム。
  8.  請求項7に記載の計算機システムにあって、
     前記第1サーバ計算機にPCI-Expressで接続され、NVMeコマンドを解釈する不揮発メモリデバイスであるローカル不揮発メモリデバイスを更に含み、
     前記ローカル不揮発メモリデバイスは、前記第1サーバ計算機により発行されたNVM-Expressコマンドを解釈し、前記NVM-Expressコマンドに基づいて前記ローカル不揮発メモリデバイス内の記憶領域にアクセスする、
     前記第1サーバ計算機は、前記処理に用いられ前記第1データと異なる第2データを前記ローカル不揮発メモリデバイスへ書き込む、
    計算機システム。
  9.  請求項1に記載の計算機システムであって、
     前記ストレージコントローラは、前記サーバ計算機により発行されたNVM-Expressコマンドを受信し、前記NVM-Expressコマンドを解釈し、前記NVM-Expressコマンドに基づいて前記不揮発メモリデバイスにアクセスすることにより、前記共有データ領域を提供する、
    計算機システム。
  10.  請求項1に記載の計算機システムであって、
     前記不揮発メモリデバイスは、前記第1サーバ計算機により発行されたNVM-Expressコマンドを前記ストレージコントローラを介して受信し、前記NVM-Expressコマンドを解釈し、前記NVM-Expressコマンドに基づいて前記記憶領域にアクセスする、
    計算機システム。
     
PCT/JP2014/061125 2014-04-21 2014-04-21 計算機システム WO2015162660A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016514559A JP6273353B2 (ja) 2014-04-21 2014-04-21 計算機システム
CN201480076346.8A CN106030552A (zh) 2014-04-21 2014-04-21 计算机系统
PCT/JP2014/061125 WO2015162660A1 (ja) 2014-04-21 2014-04-21 計算機システム
US14/657,287 US20150304423A1 (en) 2014-04-21 2015-03-13 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/061125 WO2015162660A1 (ja) 2014-04-21 2014-04-21 計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/657,287 Continuation US20150304423A1 (en) 2014-04-21 2015-03-13 Computer system

Publications (1)

Publication Number Publication Date
WO2015162660A1 true WO2015162660A1 (ja) 2015-10-29

Family

ID=54323017

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/061125 WO2015162660A1 (ja) 2014-04-21 2014-04-21 計算機システム

Country Status (4)

Country Link
US (1) US20150304423A1 (ja)
JP (1) JP6273353B2 (ja)
CN (1) CN106030552A (ja)
WO (1) WO2015162660A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204269A (ja) * 2016-05-12 2017-11-16 廣達電腦股▲ふん▼有限公司 フレキシブルなnvmeドライブ管理ソリューション
KR20180010953A (ko) * 2016-07-22 2018-01-31 삼성전자주식회사 비휘발성 메모리 익스프레스(NVMe) 장치의 커맨드의 실행 조정을 위한 시스템 및 방법
KR20180068004A (ko) * 2016-12-13 2018-06-21 중원대학교 산학협력단 컴퓨터 간 데이터 공유를 위한 내부 및 외부 인터페이스를 갖는 저장장치 및 이를 이용한 컴퓨터 시스템
US10268399B2 (en) 2016-09-16 2019-04-23 Toshiba Memory Corporation Memory system using message monitoring and first and second namespaces

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9430412B2 (en) 2013-06-26 2016-08-30 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over Ethernet-type networks
US10063638B2 (en) * 2013-06-26 2018-08-28 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
US9785356B2 (en) 2013-06-26 2017-10-10 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
US9785355B2 (en) 2013-06-26 2017-10-10 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over ethernet-type networks
US10467166B2 (en) 2014-04-25 2019-11-05 Liqid Inc. Stacked-device peripheral storage card
US9678910B2 (en) 2014-04-25 2017-06-13 Liqid Inc. Power handling in a scalable storage system
WO2015176262A1 (zh) * 2014-05-22 2015-11-26 华为技术有限公司 一种节点互连装置、资源控制节点和服务器系统
US9645902B2 (en) 2014-06-23 2017-05-09 Liqid Inc. Modular switched fabric for data storage systems
US10362107B2 (en) 2014-09-04 2019-07-23 Liqid Inc. Synchronization of storage transactions in clustered storage systems
US9653124B2 (en) 2014-09-04 2017-05-16 Liqid Inc. Dual-sided rackmount storage assembly
US9565269B2 (en) 2014-11-04 2017-02-07 Pavilion Data Systems, Inc. Non-volatile memory express over ethernet
US9712619B2 (en) 2014-11-04 2017-07-18 Pavilion Data Systems, Inc. Virtual non-volatile memory express drive
US10198183B2 (en) 2015-02-06 2019-02-05 Liqid Inc. Tunneling of storage operations between storage nodes
US10108422B2 (en) 2015-04-28 2018-10-23 Liqid Inc. Multi-thread network stack buffering of data frames
US10191691B2 (en) 2015-04-28 2019-01-29 Liqid Inc. Front-end quality of service differentiation in storage system operations
US10019388B2 (en) 2015-04-28 2018-07-10 Liqid Inc. Enhanced initialization for data storage assemblies
US10235102B2 (en) * 2015-11-01 2019-03-19 Sandisk Technologies Llc Methods, systems and computer readable media for submission queue pointer management
US10206297B2 (en) * 2015-11-23 2019-02-12 Liqid Inc. Meshed architecture rackmount storage assembly
US10255215B2 (en) 2016-01-29 2019-04-09 Liqid Inc. Enhanced PCIe storage device form factors
US10372659B2 (en) 2016-07-26 2019-08-06 Samsung Electronics Co., Ltd. Multi-mode NMVE over fabrics devices
US20190109720A1 (en) 2016-07-26 2019-04-11 Samsung Electronics Co., Ltd. Modular system (switch boards and mid-plane) for supporting 50g or 100g ethernet speeds of fpga+ssd
US10210123B2 (en) 2016-07-26 2019-02-19 Samsung Electronics Co., Ltd. System and method for supporting multi-path and/or multi-mode NMVe over fabrics devices
US11144496B2 (en) 2016-07-26 2021-10-12 Samsung Electronics Co., Ltd. Self-configuring SSD multi-protocol support in host-less environment
US11294839B2 (en) 2016-08-12 2022-04-05 Liqid Inc. Emulated telemetry interfaces for fabric-coupled computing units
WO2018031939A1 (en) 2016-08-12 2018-02-15 Liqid Inc. Disaggregated fabric-switched computing units
US11880326B2 (en) 2016-08-12 2024-01-23 Liqid Inc. Emulated telemetry interfaces for computing units
US10482049B2 (en) * 2017-02-03 2019-11-19 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Configuring NVMe devices for redundancy and scaling
US10771340B2 (en) 2017-03-16 2020-09-08 Samsung Electronics Co., Ltd. Automatic ethernet storage discovery in hyperscale datacenter environment
CN108628762B (zh) * 2017-03-22 2021-05-28 北京忆恒创源科技有限公司 一种固态存储设备及其处理io命令的方法
US10545664B2 (en) * 2017-04-11 2020-01-28 Samsung Electronics Co., Ltd. System and method for identifying SSDs with lowest tail latencies
WO2018200761A1 (en) 2017-04-27 2018-11-01 Liqid Inc. Pcie fabric connectivity expansion card
US10795842B2 (en) 2017-05-08 2020-10-06 Liqid Inc. Fabric switched graphics modules within storage enclosures
US10481834B2 (en) 2018-01-24 2019-11-19 Samsung Electronics Co., Ltd. Erasure code data protection across multiple NVME over fabrics storage devices
US10660228B2 (en) 2018-08-03 2020-05-19 Liqid Inc. Peripheral storage card with offset slot alignment
CN110908592B (zh) * 2018-09-17 2023-09-05 深圳大心电子科技有限公司 存储器管理方法以及存储控制器
US11599482B2 (en) 2018-09-21 2023-03-07 Suzhou Kuhan Information Technologies Co., Ltd. Systems, methods and apparatus for a storage controller with multi-mode PCIe functionalities
US10585827B1 (en) 2019-02-05 2020-03-10 Liqid Inc. PCIe fabric enabled peer-to-peer communications
WO2020219807A1 (en) 2019-04-25 2020-10-29 Liqid Inc. Composed computing systems with converged and disaggregated component pool
US11256649B2 (en) 2019-04-25 2022-02-22 Liqid Inc. Machine templates for predetermined compute units
CN110209602A (zh) * 2019-05-17 2019-09-06 北京航空航天大学 跨域虚拟数据空间中区域划分及空间分配方法
US10880205B1 (en) 2019-07-30 2020-12-29 Hewlett Packard Enterprise Development Lp Determining path information in a computing network
US11093352B2 (en) * 2019-09-11 2021-08-17 Hewlett Packard Enterprise Development Lp Fault management in NVMe systems
US11194678B2 (en) * 2020-03-02 2021-12-07 Silicon Motion, Inc. Method and apparatus for performing node information exchange management of all flash array server
JP7167078B2 (ja) * 2020-03-27 2022-11-08 株式会社日立製作所 分散ストレージシステム及び記憶制御方法
CN112069751B (zh) * 2020-08-20 2022-07-08 苏州浪潮智能科技有限公司 一种pcie链路设计用等概率doe极限仿真方法、程序及介质
US11442776B2 (en) 2020-12-11 2022-09-13 Liqid Inc. Execution job compute unit composition in computing clusters
US11900141B2 (en) * 2020-12-31 2024-02-13 Vmware, Inc. Direct access storage for persistent services in a distributed storage system
CN113625944B (zh) * 2021-06-25 2024-02-02 济南浪潮数据技术有限公司 一种基于多路径和远程复制技术的容灾方法、系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282345A (ja) * 2007-05-14 2008-11-20 Fuji Xerox Co Ltd ストレージシステム及びストレージ装置
JP2011508349A (ja) * 2007-12-27 2011-03-10 プライアント テクノロジー インコーポレイテッド プロセッサを内部メモリに接続するクロスバー・スイッチを含むフラッシュメモリ用ストレージコントローラ
JP2014002545A (ja) * 2012-06-18 2014-01-09 Ricoh Co Ltd データ転送装置、及びデータ転送方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8347010B1 (en) * 2005-12-02 2013-01-01 Branislav Radovanovic Scalable data storage architecture and methods of eliminating I/O traffic bottlenecks
JP4927412B2 (ja) * 2006-02-10 2012-05-09 株式会社日立製作所 記憶制御方法及びその制御方法
JP2008140387A (ja) * 2006-11-22 2008-06-19 Quantum Corp クラスタ化されたストレージネットワーク
US7836332B2 (en) * 2007-07-18 2010-11-16 Hitachi, Ltd. Method and apparatus for managing virtual ports on storage systems
US8225019B2 (en) * 2008-09-22 2012-07-17 Micron Technology, Inc. SATA mass storage device emulation on a PCIe interface
US8966172B2 (en) * 2011-11-15 2015-02-24 Pavilion Data Systems, Inc. Processor agnostic data storage in a PCIE based shared storage enviroment
US9467512B2 (en) * 2012-01-17 2016-10-11 Intel Corporation Techniques for remote client access to a storage medium coupled with a server
US20150222705A1 (en) * 2012-09-06 2015-08-06 Pi-Coral, Inc. Large-scale data storage and delivery system
US20140195634A1 (en) * 2013-01-10 2014-07-10 Broadcom Corporation System and Method for Multiservice Input/Output
US9003071B2 (en) * 2013-03-13 2015-04-07 Futurewei Technologies, Inc. Namespace access control in NVM express PCIe NVM with SR-IOV
US9009397B1 (en) * 2013-09-27 2015-04-14 Avalanche Technology, Inc. Storage processor managing solid state disk array
US20150095555A1 (en) * 2013-09-27 2015-04-02 Avalanche Technology, Inc. Method of thin provisioning in a solid state disk array
US9298648B2 (en) * 2013-05-08 2016-03-29 Avago Technologies General Ip (Singapore) Pte Ltd Method and system for I/O flow management using RAID controller with DMA capabilitiy to directly send data to PCI-E devices connected to PCI-E switch
US9430412B2 (en) * 2013-06-26 2016-08-30 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over Ethernet-type networks
KR20150047785A (ko) * 2013-10-25 2015-05-06 삼성전자주식회사 서버 시스템 및 스토리지 시스템
US9400614B2 (en) * 2013-12-05 2016-07-26 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for programmable sequencer for processing I/O for various PCIe disk drives

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008282345A (ja) * 2007-05-14 2008-11-20 Fuji Xerox Co Ltd ストレージシステム及びストレージ装置
JP2011508349A (ja) * 2007-12-27 2011-03-10 プライアント テクノロジー インコーポレイテッド プロセッサを内部メモリに接続するクロスバー・スイッチを含むフラッシュメモリ用ストレージコントローラ
JP2014002545A (ja) * 2012-06-18 2014-01-09 Ricoh Co Ltd データ転送装置、及びデータ転送方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JANENE ELLEFSON: "NVM Express: Unlock Your Solid State Drives Potential", FLASH MEMORY SUMMIT, 2013, pages 96 *
NVM EXPRESS 1.1A SPECIFICATION, 23 September 2013 (2013-09-23), pages 11,12,135 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204269A (ja) * 2016-05-12 2017-11-16 廣達電腦股▲ふん▼有限公司 フレキシブルなnvmeドライブ管理ソリューション
KR20180010953A (ko) * 2016-07-22 2018-01-31 삼성전자주식회사 비휘발성 메모리 익스프레스(NVMe) 장치의 커맨드의 실행 조정을 위한 시스템 및 방법
KR102278721B1 (ko) 2016-07-22 2021-07-16 삼성전자주식회사 비휘발성 메모리 익스프레스(NVMe) 장치의 커맨드의 실행 조정을 위한 시스템 및 방법
US10268399B2 (en) 2016-09-16 2019-04-23 Toshiba Memory Corporation Memory system using message monitoring and first and second namespaces
KR20180068004A (ko) * 2016-12-13 2018-06-21 중원대학교 산학협력단 컴퓨터 간 데이터 공유를 위한 내부 및 외부 인터페이스를 갖는 저장장치 및 이를 이용한 컴퓨터 시스템
KR102032238B1 (ko) * 2016-12-13 2019-10-15 중원대학교 산학협력단 컴퓨터 간 데이터 공유를 위한 컴퓨터 시스템

Also Published As

Publication number Publication date
CN106030552A (zh) 2016-10-12
JP6273353B2 (ja) 2018-01-31
US20150304423A1 (en) 2015-10-22
JPWO2015162660A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6273353B2 (ja) 計算機システム
JP6286542B2 (ja) 計算機システム
US11314543B2 (en) Architecture for implementing a virtualization environment and appliance
US9990313B2 (en) Storage apparatus and interface apparatus
US9606745B2 (en) Storage system and method for allocating resource
US8977781B1 (en) Computer system
US10498645B2 (en) Live migration of virtual machines using virtual bridges in a multi-root input-output virtualization blade chassis
US7685335B2 (en) Virtualized fibre channel adapter for a multi-processor data processing system
US20170102952A1 (en) Accessing data stored in a remote target using a baseboard management controler (bmc) independently of the status of the remote target's operating system (os)
US20130290541A1 (en) Resource management system and resource managing method
US10901626B1 (en) Storage device
US20100275203A1 (en) Storage management system and storage management method in virtualization environment
JP5996098B2 (ja) ストレージデバイスの高速アクセス及びデータ保護を実現する計算機、計算機システム、及びi/o要求処理方法
US9483211B2 (en) Storage control apparatus, storage control method, and computer-readable recording medium having stored storage control program
US10241950B2 (en) Multipath I/O proxy device-specific module
EP2696275A2 (en) I/o device and storage management system
US11003357B2 (en) Managing single path communication between a host and a storage system
US20190213147A1 (en) Storage system and mapping method
JP2018101440A (ja) 計算機システム
JP6516875B2 (ja) 統合プラットフォーム、サーバ、及び、フェイルオーバ方法
WO2016139749A1 (ja) 計算機システム、及び、記憶制御方法
JP2017134584A (ja) 制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14890039

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016514559

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14890039

Country of ref document: EP

Kind code of ref document: A1