JP2017090951A - ストレージ制御装置、および制御プログラム - Google Patents

ストレージ制御装置、および制御プログラム Download PDF

Info

Publication number
JP2017090951A
JP2017090951A JP2015215460A JP2015215460A JP2017090951A JP 2017090951 A JP2017090951 A JP 2017090951A JP 2015215460 A JP2015215460 A JP 2015215460A JP 2015215460 A JP2015215460 A JP 2015215460A JP 2017090951 A JP2017090951 A JP 2017090951A
Authority
JP
Japan
Prior art keywords
storage
storage control
virtual volume
control device
tpv
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015215460A
Other languages
English (en)
Other versions
JP6569477B2 (ja
Inventor
敬宏 大山
Takahiro Oyama
敬宏 大山
明人 小林
Akito Kobayashi
明人 小林
基裕 酒井
Motohiro Sakai
基裕 酒井
振一郎 松村
Shinichiro Matsumura
振一郎 松村
拓郎 隈部
Takuro Kumabe
拓郎 隈部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015215460A priority Critical patent/JP6569477B2/ja
Priority to US15/298,680 priority patent/US20170123699A1/en
Publication of JP2017090951A publication Critical patent/JP2017090951A/ja
Application granted granted Critical
Publication of JP6569477B2 publication Critical patent/JP6569477B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0664Virtualisation aspects at device level, e.g. emulation of a storage device or system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】仮想ボリュームに対するアクセスによる複数のストレージ制御装置の間の通信を抑制すること。
【解決手段】図1の(1)で示すように、ストレージ制御装置101#0は、TPV#1のチャンクへの割り当て要求を取得する。TPV#1への割り当て要求を取得した場合、ストレージ制御装置101#0は、図1の(2)で示すように、第1のストレージ制御装置101として、TPV#1を制御するストレージ制御装置101#1が制御する物理領域102#1をTPV#1に割り当てる。これにより、TPV#1へのI/Oの処理において、TPV#1を制御するストレージ制御装置101とTPV#1に割り当てられた物理領域102を制御するストレージ制御装置101とが同一となる。従って、ストレージ制御装置101間の通信が減り、オーバヘッドを減らすことができる。
【選択図】図1

Description

本発明は、ストレージ制御装置、および制御プログラムに関する。
従来、物理的な記憶領域の記憶容量以上の容量を有する仮想ボリュームを提供する、シン・プロビジョニングと呼ばれる技術がある。関連する先行技術として、例えば、上位装置から所定の機能の実行を要求された場合、第1および第2記憶制御装置の状況と各記憶制御装置でそれぞれ実行可能な機能とに基づいて、各記憶制御装置のうちいずれが所定の機能を実行すべきか判断するものがある。また、物理的に存在する実ストレージの記憶容量、実ストレージのアクセス制御の担当コントローラ、実ストレージの仮想ストレージの記憶容量、仮想ストレージのデータの移行先を考慮し、ストレージプールに跨って移管すべき実ストレージを検索する技術がある。
特開2010−238131号公報 特開2007−199891号公報
しかしながら、従来技術によれば、それぞれ異なる記憶領域を制御する複数のストレージ制御装置のいずれかの記憶領域が割り当てられた仮想ボリュームに対してアクセスを行うと、複数のストレージ制御装置の間の通信が増大することがある。例えば、仮想ボリュームを制御するストレージ制御装置と、仮想ボリュームに割り当てられた記憶領域を制御するストレージ制御装置とが異なる場合、仮想ボリュームにアクセスすると、2つのストレージ制御装置の間で通信が発生することになる。
1つの側面では、本発明は、仮想ボリュームに対するアクセスによる複数のストレージ制御装置の間の通信を抑制することができるストレージ制御装置、および制御プログラムを提供することを目的とする。
本発明の一側面によれば、仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する仮想ボリュームへの記憶領域の割り当て要求を取得し、割り当て要求を取得した場合、それぞれ異なる記憶領域を制御する複数のストレージ制御装置のうちの仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を仮想ボリュームに割り当てるストレージ制御装置、および制御プログラムが提案される。
本発明の一態様によれば、仮想ボリュームに対するアクセスによる複数のストレージ制御装置の間の通信を抑制することができるという効果を奏する。
図1は、本実施の形態にかかるストレージ制御装置101#0〜#3の動作例を示す説明図である。 図2は、ストレージシステム200の構成例を示す説明図である。 図3は、CM214のハードウェア構成例を示す説明図である。 図4は、TPP均等モードによる割り当て例を示す説明図である。 図5は、TPV均等モードによる割り当て例を示す説明図である。 図6は、本実施の形態による割り当て例を示す説明図である。 図7は、CM214の機能構成例を示す説明図である。 図8は、ReceiveCMとOLU代表CMと物理担当CMとがそれぞれ異なる場合のI/O処理の一例を示す説明図である。 図9は、OLU代表CMと物理担当CMとが同一であり、ReceiveCMが異なる場合のI/O処理の一例を示す説明図である。 図10は、ReceiveCMと物理担当CMとが同一であり、OLU代表CMが異なる場合のI/O処理の一例を示す説明図である。 図11は、ReceiveCMとOLU代表CMとが同一であり、物理担当CMが異なる場合のI/O処理の一例を示す説明図である。 図12は、ReceiveCMとOLU代表CMと物理担当CMとが全て同一の場合のI/O処理の一例を示す説明図である。 図13は、ライトI/O時における物理領域割り当て処理手順の一例を示すフローチャートである。
以下に図面を参照して、開示のストレージ制御装置、および制御プログラムの実施の形態を詳細に説明する。
図1は、本実施の形態にかかるストレージ制御装置101#0〜#3の動作例を示す説明図である。ストレージ制御装置101#0〜#3は、実際の記憶領域である物理領域102#0〜#3をそれぞれ制御するコンピュータである。また、ストレージ制御装置101#0〜#3は、シン・プロビジョニングによる仮想ボリュームを、ストレージ制御装置101#0〜#3を利用するホストコンピュータに提供する。以下、ホストコンピュータを、「ホスト」と称する。ホストは、例えば、Webサーバ、データベースサーバ等といったサーバである。
ここで、シン・プロビジョニングとは、物理的な記憶領域の記憶容量以上の容量を有する仮想ボリュームを提供する技術である。シン・プロビジョニング機能により仮想化したLUN(Logical Unit Number)をシン・プロビジョニングボリューム(Thin Provisioning Volume:TPV)と呼ぶ。また、TPVを一定の論理ブロックサイズごとに分割した管理単位をチャンク(chunk)と呼ぶ。また、TPVは、ある数のRAID(Redundant Arrays of Inexpensive Disks)グループから成るシン・プロビジョニングプール(Thin Provisioning Pool:TPP)内に作成される。ストレージ制御装置101#0〜#3は、それぞれ、担当のTPVの制御を行う。
ここで、RAIDグループは、RAID技術により仮想化したボリュームを形成する記憶装置の集合である。そして、RAID技術は、複数の記憶装置を組み合わせて仮想的なボリュームとして運用する技術である。ここで、RAIDには、仮想化したボリュームの形成の仕方を表すRAIDレベルが存在する。RAIDレベルは、RAID0〜RAID6までのRAIDレベルが存在する。また、RAIDには、RAID0+1というように、複数のRAIDレベルを組み合わせたレベルも存在する。本実施の形態は、どのRAIDレベルであっても適用することができる。
従って、図1の例では、物理領域102#0〜#3は、RAIDグループにより形成されたボリュームである。そして、物理領域102#0〜#3が1つのTPPを形成する。なお、物理領域102#0〜#3のRAIDレベルは、同一でもよいし異なってもよい。また、物理領域102#0〜#3のそれぞれが、1つの物理的な記憶装置でもよい。また、物理領域102#0〜#3のいずれかがRAIDグループに形成されたボリュームであり、他が1つの物理的な記憶装置である、というように混在していてもよい。
ここで、TPVに対して、ホストからデータのライトが行われたとする。この場合、ストレージ制御装置101#0〜#3のうちの割り当てを制御するストレージ制御装置101は、ホストからライトされた量に応じた物理ディスク領域をチャンクごとに論理領域へ、TPP内のRAIDグループから割り当てる。ライトが行われる範囲の論理領域が、全て割り当て済みであった場合、割り当てを制御するストレージ制御装置101は、新たに物理領域の割り当てを行わない。なお、シン・プロビジョニング機能によりTPVを作成した直後は、どのチャンクにも物理領域は割り当たっていない。このように、TPVは、TPVの使用状況に応じて物理領域の割り当て量が変化する。
ここで、ライトが行われる範囲の論理領域に未割り当ての領域がある場合には、チャンクに対して物理領域を割り当てることになる。チャンクに対して物理領域を割り当てる方法は、TPP均等モードによる方法と、TPV均等モードによる方法とが考えられる。TPP均等モードの詳細については、図4で説明する。また、TPV均等モードの詳細については、図5で説明する。
しかしながら、TPP均等モードと、TPV均等モードのいずれの方法を行っても、I/O時に複数のストレージ制御装置の間の通信が増大する。具体的には、TPVを制御するストレージ制御装置と、TPVに割り当てられた物理領域を制御するストレージ制御装置とが異なる場合、仮想ボリュームにアクセスすると、2つのストレージ制御装置の間で通信が発生することになる。
そこで、本実施の形態では、TPVを制御するストレージ制御装置101が制御する物理領域102を、TPVのチャンクに割り当てることについて説明する。
以下、図1を用いて、ストレージ制御装置101#0〜#3の動作例について説明する。図1の例では、割り当てを制御するストレージ制御装置101が、ストレージ制御装置101#0であるとする。そして、ストレージ制御装置101#0がTPV#0の制御をし、ストレージ制御装置101#1がTPV#1の制御をし、ストレージ制御装置101#2がTPV#2の制御をするものとする。また、図1の例では、物理領域102#0〜3は、それぞれ4つの物理領域を有するものとする。
この状態で、図1の(1)で示すように、ストレージ制御装置101#0は、TPV#1のチャンクへの割り当て要求を取得する。例えば、ホストからTPV#1への書き込み要求を受けると、TPV#1を制御するストレージ制御装置101#1は、書き込み要求に対する論理領域に対する物理領域が未割り当てであれば、新たな物理領域の割り当て要求を生成する。そして、ストレージ制御装置101#1は、生成した割り当て要求をストレージ制御装置101#0に送信する。この場合、ストレージ制御装置101#0は、ストレージ制御装置101#1から、TPV#1のチャンクへの割り当て要求を取得する。
また、図1の例とは異なるが、TPV#0への書き込み要求を受けると、TPV#0を制御するストレージ制御装置101#0は、書き込み要求に対する領域が未割り当てである場合、新たな物理領域の割り当て要求を生成する。この場合、ストレージ制御装置101#0は、割り当て要求を生成することにより、ストレージ制御装置101#1から、TPV#0への割り当て要求を取得する。
TPV#1への割り当て要求を取得した場合、ストレージ制御装置101#0は、図1の(2)で示すように、第1のストレージ制御装置101として、TPV#1を制御するストレージ制御装置101#1が制御する物理領域102#1をTPV#1に割り当てる。本実施の形態による割り当て例を、図6で示す。具体的には、図1の例では、ストレージ制御装置101#0は、ストレージ制御装置101#1に対して、物理領域102#1をTPV#1に割り当てる指示を送信する。そして、ストレージ制御装置101#1は、指示に従って、TPV#1のチャンクに対して物理領域102#1の1つの分割領域を割り当てる。
これにより、TPV#1へのI/Oの処理において、TPV#1を制御するストレージ制御装置101とTPV#1に割り当てられた物理領域102を制御するストレージ制御装置101とが同一となる。従って、ストレージ制御装置101間の通信が減り、オーバヘッドを減らすことができる。次に、図1で示したストレージ制御装置101#0〜#2を、ストレージシステムに適用した例を、図2を用いて説明する。
図2は、ストレージシステム200の構成例を示す説明図である。図2では、ストレージシステム200の構成例を説明する。ストレージシステム200は、ディスクアレイ装置201と、ホスト202とを有する。ディスクアレイ装置201は、CE(Controller Enclosure)211#0、#1、…と、FE(Frontend Enclosure)212と、DE(Drive Enclosure)213#00〜#73、…とを有する。CE211は、CM(Controller Module)214を有する。具体的には、CE211#0は、CM214#0、#1を有し、CE211#1は、CM214#2、#3を有する。ここで、CM214は、図1で説明したストレージ制御装置101に相当する。
ホスト202は、TPVを使用する装置である。例えば、ホスト202は、TPVに対して、リードアクセスやライトアクセスといったI/Oを発行する。
FE212は、SVC(SerVice Controller)221#0、#1と、FRT(Front end RouTer)222#0〜#3とを有する。SVC221は、システム管理を行うユニットである。FRT222は、CM間の通信経路を提供するモジュールである。
DE213#00〜#73、…は、複数のディスクを収める筐体である。ここで、DE213に収められるディスクは、例えば、HDD(Hard Disk Drive)である。または、DE213#00〜#73は、SSD(Solid State Drive)を収めていてもよいし、HDDとSSDとが混在していてもよい。また、DE213に収められるディスクは、同一の記憶容量を持つものでもよいし、異なる記憶容量を持つものでもよい。
CM214は、DE213に収められるディスクを用いて、TPVを形成する。ここで、複数のTPVのそれぞれのTPVごとに、TPVを制御するCMが存在する。以下の記載では、TPVを制御するCMを、「OLU(Open LUN Unit)代表CM」と呼称する。なお、CM214は、1つのTPVを制御してもよいし、複数のTPVを制御してもよい。
また、TPP内のRAIDグループは、それぞれのRAIDグループを制御するCMが存在する。以下の記載では、RAIDグループを制御するCMを、「物理担当CM」と呼称する。例えば、物理担当CMは、制御下にあるRAIDグループのRAIDレベル5であり、書き込み要求を受信した場合には、パリティの計算を行って、データとパリティをRAIDグループの各ディスクに書き込む。なお、CM214は、1つのRAIDグループを制御してもよいし、複数のRAIDグループを制御してもよい。
また、以下の記載では、ホスト202からのアクセスを受け付けるCMを、「ReceiveCM」と呼称する。
図3は、CM214のハードウェア構成例を示す説明図である。CM214は、CPU301と、メモリ302と、キャッシュメモリ303と、CA(Channel Adaptor)304と、EXP(EXPander)305と、を含む。CPU301〜EXP305はそれぞれ接続される。
CPU301は、CM214の全体の制御を司る演算処理装置である。また、CPU301は、複数のコアを有するマルチコアプロセッサでもよい。メモリ302は、CPU301のワークエリアとして使用される揮発性メモリである。キャッシュメモリ303は、メモリ302よりアクセス性能が高く、メモリ302の一部を記憶するメモリである。CA304は、ホスト202と通信する通信インタフェースである。CM214は、図3の例で示すように、複数個のCA304を有して、CA304を冗長構成としてもよい。
EXP305は、SAS(Serial Attached SCSI(Small Computer System Interface))/SATA(Serial ATA(Advanced Technology Attachment))接続用のExpanderチップである。CM214は、図3の例で示すように、複数個のEXP305を有して、EXP305を冗長構成としてもよい。
図4〜図6を用いて、TPP均等モードによる割り当て例と、TPV均等モードによる割り当て例と、本実施の形態による割り当て例について説明する。図4〜図6における前提として、CMがCM214#0〜#3と4つあり、TPVがTPV#0〜#2と3つあり、RAIDグループがRAID#0〜#3と4つあるとする。RAID#0〜#3は、DE213内の複数のディスクにより形成されたRAIDグループである。
そして、TPV#0のOLU代表CMがCM214#0であり、TPV#1のOLU代表CMがCM214#1であり、TPV#2のOLU代表CMがCM214#2であるとする。そして、TPV#0に対して、物理領域を割り当てるものとする。また、RAID#0の物理担当CMがCM214#0であり、RAID#1の物理担当CMがCM214#1であり、RAID#2の物理担当CMがCM214#2であり、RAID#3の物理担当CMがCM214#3であるとする。
また、図4〜図6の例では、RAID#0〜#3が、物理領域を分割した4つの分割領域を有するものとする。そして、図4、図5の例では、RAID#0、#1は、TPV#0、#1のそれぞれの1つのチャンクに対して2つの分割領域を割り当てており、RAID#2はTPV#1、#2のそれぞれの1つのチャンクに対して2つの分割領域を割り当てているとする。そして、RAID#3はTPV#0の1つのチャンクに対して分割領域を割り当てているとする。
また、図6の例では、RAID#0はTPV#0の3つのチャンクに対して3つの分割領域を割り当てており、RAID#1はTPV#1の3つのチャンクに対して3つの分割領域を割り当てているとする。そして、RAID#2はTPV#2の1つのチャンクに対して1つの分割領域を割り当てているとする。そして図4〜図6の例では、TPV#0に対して、分割領域を新規に割り当てるものとする。
図4は、TPP均等モードによる割り当て例を示す説明図である。TPP均等モードは、TPP内のRAIDグループを、他のTPVも含めて均等に使用するように物理領域を選択し、TPPとしてバランスよく物理領域を配置するモードである。
図4の例では、RAID#0、#1、#2は、TPVの2つのチャンクに対して2つの分割領域を割り当てており、RAID#3は、TPVの1つのチャンクに対して1つの分割領域を割り当てている。この場合、TPP均等モードに従うと、割り当てを制御するCMは、TPP内でのバランスをとるために、TPV#0のチャンクに対してRAID#3の物理領域を割り当てる。
図5は、TPV均等モードによる割り当て例を示す説明図である。TPV均等モードは、TPV内の物理領域が、TPP内のRAIDグループを均等に使用するように物理領域を選択し、TPVとしてバランス良く物理領域を配置するモードである。
図5の例では、割り当て要求があったTPV#0の各チャンクは、RAID#0、#1、#3のそれぞれ1つの物理領域が割り当てられている。従って、TPV均等モードに従うと、割り当てを制御するCMは、TPV内でのバランスをとるために、TPV#0のチャンクに対してRAID#2の物理領域を割り当てる。
図6は、本実施の形態による割り当て例を示す説明図である。図6の例では、本実施の形態に従うと、割り当てを制御するCMは、TPV#0のチャンクに対して、TPV#0のOLU代表CMであるCM#0が制御するRAID#0の分割領域を割り当てる。
図4、図5で示した方法では、OLU代表CMとは関係なくチャンクが割り当てられる。そのため、I/O処理において、OLU代表CMと物理担当CMが異なることにより、各処理間でのCM間通信回数が増えてオーバヘッドが発生する可能性がある。これに対し、図6で示した方法では、OLU代表CMと物理担当CMが同一となるため、各処理間でのCM間通信回数が減り、オーバヘッドを抑えることができる。なお、マルチパス環境で、チャンクが存在する物理担当CMとReceiveCMが同じになるようにする機能が有効であれば、この機能を併用することにより、さらにCM間通信を削減することが可能となる。
また、TPVが多数ある場合を想定すると、あるRAIDグループに物理領域の割り当てが偏らず、TPP全体的に見て均等に物理領域が割り当たるようになり、CMへの負荷が分散されることになる。次に、図7を用いて、CM214が有する機能について説明する。
(CM214の機能構成例)
図7は、CM214の機能構成例を示す説明図である。CM214は、制御部700を有する。制御部700は、排他制御部701と、キャッシュ制御部702と、コピー制御部703と、ディスク制御部704とを含む。キャッシュ制御部702は、取得部711と、割り当て部712とを含む。ここで、制御部700は、記憶装置に記憶されたプログラムをCPU301が実行することにより、各部の機能を実現する。ここで、記憶装置とは、具体的には、メモリ302、DE213内の記憶装置などである。また、各部の処理結果は、CPU301のレジスタや、キャッシュメモリ303等に格納される。
排他制御部701は、I/O範囲における排他(Extent排他)獲得処理およびExtent排他解除処理を実行する。
キャッシュ制御部702は、キャッシュメモリ303に対するキャッシュの獲得処理およびキャッシュの解放処理を実行する。
コピー制御部703は、ディスクアレイ装置201内のデータをコピーする。例えば、バックアップの目的のため、コピー制御部703は、ディスクアレイ装置201内のあるボリュームのデータを、他のボリュームにコピーする。
ディスク制御部704は、DE213の複数のディスクを制御する。取得部711は、TPVのチャンクへの割り当て要求を取得する。
割り当て部712は、取得部711が割り当て要求を取得した場合、CM214#0〜#3、…のうちの割り当て要求があったTPVのOLU代表CMが制御する物理領域をTPVのチャンクに割り当てる。
例えば、割り当て部712は、取得部711が割り当て要求を取得した場合、OLU代表CMが制御する物理領域の割り当て量が所定の閾値以下であれば、OLU代表CMが制御する物理領域をTPVのチャンクに割り当てる。また、割り当て部712は、取得部711が割り当て要求を取得した場合、OLU代表CMが制御する物理領域の割り当て量が所定の閾値より大きければ、CM214#0〜#3、…のうちのReceiveCMが制御する物理領域をTPVのチャンクに割り当てる。
ここで、以下、所定の閾値を、「割り当て量閾値」と呼称する。例えば、割り当て量閾値は、OLU代表CMの制御下の物理領域に対する、ある割合でもよい。具体的には、ストレージシステム200の管理者によって、CM214は、OLU代表CMの物理領域全体の記憶容量の9割、8割といった値を割り当て量閾値に設定する。
または、割り当て量閾値は、各CM214の制御下の物理領域の割り当て量の最小値から所定の割合を加えた値でもよい。ここで、説明を簡略化するため、各CM214の制御下の物理領域の記憶容量が、全て同一であるとする。そして、各CM214の制御下の物理領域の割り当て量の最小値が物理領域全体の記憶容量の2割であれば、CM214は、2割に所定の割合、例えば、1割や2割といった値を加えた値を、割り当て量閾値に設定する。これにより、各CM214の間で、割り当て量が著しく偏るということを抑制することができる。
また、割り当て部712は、ReceiveCMが制御する物理領域の割り当て量が割り当て量閾値より大きければ、CM214#0〜#3、…のうちの割り当て量が最も小さいCMの物理領域をTPVのチャンクに割り当ててもよい。
また、上述した機能を、TPVのチャンクの再割り当ての際にも適用することができる。ここで、再割り当てを行う状況としては、例えば、OLU代表CMの制御下の物理領域の割り当て量が割り当て量閾値より一旦大きくなった後、割り当て量が最も小さいCMの物理領域を割り当てたとする。そして、TPVのデータが削除されて割り当てが解除された等により、OLU代表CMの制御下の物理領域の割り当て量が割り当て量閾値以下となる場合がある。このような場合に、CM間通信を減らすべく、CM214は、TPVのチャンクの再割り当てを行ってもよい。
再割り当てを行う場合、取得部711は、CM214#0〜#3、…に含まれる、あるTPVのOLU代表CMとは異なる他のCMが制御する物理領域のうちのあるTPVのチャンクとして割り当てられた物理領域に記憶されたデータの移動要求を取得する。そして、割り当て部712は、取得部711が移動要求を取得した場合、移動要求があったデータの移動先となる、あるTPVのOLU代表CMが制御する物理領域を、あるTPVのチャンクに割り当てる。割り当てた後、CM214は、移動要求があったデータを移動先にコピーする。
ここで、図4のTPV#0のチャンクにRAID#3の分割領域を割り当てた後の例を用いて再割り当ての具体例を説明する。再割り当てを行う場合、取得部711は、あるTPVとして、TPV#0のOLU代表CMとなるCM214#0とは異なるCM214#1のTPV#0のチャンクに割り当てられたRAID#1の分割領域のデータの移動要求を取得する。そして、割り当て部712は、TPV#0のOLU代表CMとなるCM214#0が制御する分割領域を、TPV#0のチャンクに割り当てる。割り当てた後、CM214は、RAID#1のTPV#0のチャンクに割り当てられていた分割領域のデータを、RAID#0内の割り当て部712が割り当てた分割領域に書き込む。
次に、ReceiveCM、OLU代表CM、物理担当CMの3つのCMが異なる場合や同一となる場合のI/O処理について、図8〜図12を用いて説明する。図8〜図12において、CM間の実線の矢印は、CM間通信を示す。
図8は、ReceiveCMとOLU代表CMと物理担当CMとがそれぞれ異なる場合のI/O処理の一例を示す説明図である。ReceiveCMは、I/Oを受信する(ステップS801)。I/Oを受信すると、ReceiveCMは、OLU代表CMに対してCM間通信を実行する。
CM間通信を受けたOLU代表CMは、Extent排他獲得処理を実行する(ステップS802)。そして、OLU代表CMは、論理領域に対する物理領域を求める処理である論理物理変換処理を実行する(ステップS803)。次に、OLU代表CMは、ReceiveCMに対してCM間通信を実行し、処理をReceiveCMに戻す。
CM間通信を受けたReceiveCMは、ホストI/Oを開始し(ステップS804)、求められた物理領域を担当する物理担当CMに対してCM間通信を実行する。
CM間通信を受けた物理担当CMは、キャッシュの獲得処理を実行する(ステップS805)。ここで、物理担当CMは、ReceiveCMに対してCM間通信を実行し、処理をReceiveCMに戻す。
CM間通信を受けたReceiveCMは、データ処理を実行する(ステップS806)。そして、ReceiveCMは、ホスト202からのI/OがリードI/Oである場合、ホスト202に完了応答を返す(ステップS807)。ホスト202からのI/OがリードI/OでなければステップS806の終了後、ホスト202からのI/OがリードI/OであればステップS807の終了後、ReceiveCMは、物理担当CMに対してCM間通信を実行する。
CM間通信を受けた物理担当CMは、キャッシュの解放処理を実行する(ステップS808)。そして、物理担当CMは、ReceiveCMに対してCM間通信を実行し、処理をReceiveCMに戻す。
CM間通信を受けたReceiveCMは、性能情報の集計処理を実行する(ステップS809)。そして、ReceiveCMは、OLU代表CMに対してCM間通信を実行する。
CM間通信を受けたOLU代表CMは、Extent排他解除処理を実行する(ステップS810)。次に、OLU代表CMは、ReceiveCMに対してCM間通信を実行し、処理をReceiveCMに戻す。
CM間通信を受けたReceiveCMは、ホスト202からのI/OがライトI/Oである場合、ホスト202に完了応答を返す(ステップS811)。以上により、図8で示す場合、CM間通信が行われる回数は8回となる。
図9は、OLU代表CMと物理担当CMとが同一であり、ReceiveCMが異なる場合のI/O処理の一例を示す説明図である。ステップS901〜S911の処理は、ステップS801〜S811と同一であるため、説明を省略する。OLU代表CMと物理担当CMとが同一である場合、図8と同様に、CM間通信が行われる回数は8回となる。
図10は、ReceiveCMと物理担当CMとが同一であり、OLU代表CMが異なる場合のI/O処理の一例を示す説明図である。ステップS1001〜S1011の処理は、ステップS801〜S811と同一であるため、説明を省略する。ReceiveCMと物理担当CMとが同一である場合、ステップS1004〜S1006の各処理の2つの間と、ステップS1007〜S1009の各処理の2つの間とにおいて、CM間通信を行わなくてよくなる。以上により、図10で示す場合、CM間通信が行われる回数は4回となる。
図11は、ReceiveCMとOLU代表CMとが同一であり、物理担当CMが異なる場合のI/O処理の一例を示す説明図である。ステップS1101〜S1111の処理は、ステップS801〜S811と同一であるため、説明を省略する。ReceiveCMとOLU代表CMとが同一である場合、ステップS1101、S1102の処理の間と、ステップS1103、S1104の処理の間と、ステップS1109〜S1111の各処理の2つの間とにおいて、CM間通信を行わなくてよくなる。以上により、図11で示す場合、CM間通信が行われる回数は4回となる。
図12は、ReceiveCMとOLU代表CMと物理担当CMとが全て同一の場合のI/O処理の一例を示す説明図である。ステップS1201〜S1211の処理は、ステップS801〜S811と同一であるため、説明を省略する。ReceiveCMとOLU代表CMと物理担当CMとが同一である場合、ステップS1201〜S1211の全てにおいて、CM間通信を行わなくてよくなる。以上により、図12で示す場合、CM間通信が行われる回数は0回となる。
次に、物理領域割り当て処理を示すフローチャートを、図13を用いて説明する。
図13は、ライトI/O時における物理領域割り当て処理手順の一例を示すフローチャートである。ライトI/O時における物理領域割り当て処理は、ライトI/Oを受け付けた際に行う処理である。ここで、ホスト202との接続がシングルパスである場合、ホスト202と接続するCM214がReceiveCMとなる。また、ホスト202との接続がマルチパスであり、かつ、Active/Active−preferredの環境である場合、Active−preferredとなるパスで接続するCM214がReceiveCMとなる。ここで、Active/Active−preferredの環境とは、有効な複数のパスのいずれか一つが、Active−preferredとして優先的なパスとして設定された状態のことである。
OLU代表CMは、IO範囲に対応する領域が割り当て済みか否かを判断する(ステップS1301)。IO範囲に対応する領域が割り当て済みである場合(ステップS1301:Yes)、ディスクアレイ装置201は、ライトI/O時における物理領域割り当て処理を終了する。
一方、IO範囲に対応する領域が割り当て済みでない場合(ステップS1301:No)、IO範囲に対応する領域に物理領域を割り当てることになるため、OLU代表CMは、割り当てを制御するCMにIO範囲に対応する領域の割り当て要求を発行する。そして、割り当てを制御するCMは、OLU代表CMからIO範囲に対応する領域の割り当て要求を取得する。なお、割り当てを制御するCMとOLU代表CMとが同一である場合、割り当てを制御するCMは、自身によって割り当て要求を生成することにより、割り当て要求を取得するものとする。
そして、割り当てを制御するCMは、OLU代表CM制御下の割り当て量が割り当て量閾値を超えているか否かを判断する(ステップS1302)。OLU代表CM制御下の割り当て量が割り当て量閾値を超えていない場合(ステップS1302:No)、割り当てを制御するCMから指示を受けた物理担当CMは、OLU代表CM制御下の物理領域を割り当てる(ステップS1303)。ステップS1303の処理が実行された場合、OLU代表CMと物理担当CMとが同一となり、図9で示した状態か、図12で示した状態かのいずれかとなる。
一方、OLU代表CM制御下の割り当て量が割り当て量閾値を超えている場合(ステップS1302:Yes)、割り当てを制御するCMは、ReceiveCM制御下の割り当て量が割り当て量閾値を超えているか否かを判断する(ステップS1304)。ReceiveCM制御下の割り当て量が割り当て量閾値を超えていない場合(ステップS1304:No)、割り当てを制御するCMから指示を受けた物理担当CMは、ReceiveCM制御下の物理領域を割り当てる(ステップS1305)。ステップS1305の処理が実行された場合、ReceiveCMと物理担当CMとが同一となり、図10で示した状態となる。
一方、ReceiveCM制御下の割り当て量が割り当て量閾値を超えている場合(ステップS1304:Yes)、割り当てを制御するCMから指示を受けた物理担当CMは、割り当て量が最小のCM制御下の物理領域を割り当てる(ステップS1306)。ステップS1306の処理が実行された場合、図8〜図12で示した状態のいずれかとなる。
ステップS1303、ステップS1305、ステップS1306のいずれかの処理終了後、ディスクアレイ装置201は、ライトI/O時における物理領域割り当て処理を終了する。
なお、図13で示したフローチャートは、ライトI/O時における物理領域の割り当てを示すものであるが、再割り当てを行う際にも適用することもできる。まず、割り当てを制御するCMは、例えば、全ての物理担当CMに対して、制御下の割り当て量が割り当て量閾値を超えているCMを探索する。そして、割り当てを制御するCMは、探索して検出した物理担当CMの制御下の物理領域のうち、検出した物理担当CMの制御下にあるTPV以外の他のTPVに割り当てられた物理領域があるか否かを判断する。他のTPVに割り当てられた物理領域があるならば、割り当てを制御するCMは、ステップS1302の処理を適用して、他のTPVのOLU代表CM制御下の割り当て量が割り当て量閾値を超えているか否かを判断する。以降の処理については、ディスクアレイ装置201は、図13に示すフローチャートに従って処理を行って、他のTPVのチャンクに割り当てられた物理領域に記憶されたデータの移動先となる物理領域を、他のTPVのチャンクに割り当てる。
物理領域を割り当てた後、ディスクアレイ装置201は、検出した物理担当CMの制御下にある他のTPVに割り当てられた物理領域に記憶されたデータを、移動先となる物理領域にコピーする。
本実施の形態におけるライトI/O時における物理領域割り当て処理を実行する方法により、OLU代表CM制御下の割り当て量が割り当て量閾値を超えない限り、OLU代表CMが物理担当CMと一致することができる。そして、OLU代表CMとReceiveCMとが一致するかどうかの違いにより、CM間通信が8回、または0回となる。これに対し、OLU代表CMと関係なく物理担当CMを決定する方法では、CM間通信が8回、8回、4回、4回、0回のいずれかとなる。2つの方法を比較すると、本実施の形態における方法は、CM間通信のオーバヘッドが削減でき、I/Oのレスポンスを早めることができる。特に、OLU代表CMと関係なく物理担当CMを決定する方法では、CMの数が多いほど、CM間通信が8回となる確率が高まり、CM間通信のオーバヘッドが大きくなってしまう。
また、CM間通信を削減する効果の方が、CMの負荷が上がるデメリットよりもはるかに大きいため、本実施の形態における方法は、I/Oのスループットにおける最大性能を上げることに寄与する。
以上説明したように、CM214は、TPVのチャンクへの物理領域の割り当て要求を取得したら、割り当て要求があったTPVのOLU代表CMが制御する物理領域をTPVのチャンクに割り当てる。これにより、CM214は、OLU代表CMと物理担当CMとが同一になるため、TPVへのアクセス時にCM間通信を削減することができる。また、TPVがたくさんあるほど、TPVに対応するOLU代表CMもあることになるため、割り当てを分散することができる。
また、CM214は、OLU代表CMが制御する物理領域の割り当て量が割り当て量閾値以下であれば、割り当て要求があったTPVのOLU代表CMが制御する物理領域をTPVのチャンクに割り当ててもよい。一方、CM214は、OLU代表CMが制御する物理領域の割り当て量が割り当て量閾値より大きければ、ReceiveCMが制御する物理領域をTPVのチャンクに割り当てる。これにより、CM214は、OLU代表CMの割り当て量に空きがあればOLU代表CMと物理担当CMとが同一になるため、TPVへのアクセス時にCM間通信を削減することできる。さらに、OLU代表CMの割り当て量に空きが無くとも、ReceiveCMと物理担当CMとが同一になるため、TPVへのアクセス時のCM間通信を削減することができる。
また、CM214は、ReceiveCMが制御する物理領域の割り当て量が割り当て量閾値より大きければ、割り当て量が最も小さいCMの物理領域をTPVのチャンクに割り当ててもよい。これにより、CM214は、割り当てを分散することができる。
また、CM214は、あるTPVのOLU代表CMとは異なる他のCMが制御する物理領域のうちのあるTPVのチャンクとして割り当てられた物理領域に記憶されたデータの移動先として、あるTPVのOLU代表CMが制御する物理領域を割り当ててもよい。これにより、CM214は、一旦CM間通信が増大するように割り当てたとしても、再割り当てにより、TPVへのアクセス時のCM間通信を削減することができる。
また、各CMが制御する物理領域は、RAIDグループにより形成されたボリュームであってもよい。RAIDグループにはRAIDレベルに応じた処理があり、RAIDレベルに応じた処理による負荷を分散するために、本実施の形態では、RAIDグループごとに制御するCMを設定している。そして、物理領域にアクセスするには、OLU担当CMによる論理側の制御と、物理担当CMによる物理側の制御という2つの制御があり、この2つの制御を同一のCMが行うことにより、CM間通信を削減することができる。
なお、本実施の形態で説明したストレージ制御方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本ストレージ制御プログラムは、ハードディスク、フレキシブルディスク、CD−ROM(Compact Disc−Read Only Memory)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また本ストレージ制御プログラムは、インターネット等のネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
前記割り当て要求を取得した場合、それぞれ異なる記憶領域を制御する複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
制御部を有することを特徴とするストレージ制御装置。
(付記2)前記制御部は、
前記割り当て要求を取得した場合、前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域の割り当て量が所定の閾値以下であれば、前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当て、
前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域の割り当て量が前記所定の閾値より大きければ、前記複数のストレージ制御装置のうちの前記仮想ボリュームを使用する装置からアクセスを受け付けたストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
ことを特徴とする付記1に記載のストレージ制御装置。
(付記3)前記制御部は、
前記割り当て要求を取得した場合、前記アクセスを受け付けたストレージ制御装置が制御する記憶領域の割り当て量が前記所定の閾値より大きければ、前記複数のストレージ制御装置のうち記憶領域の割り当て量が最も小さいストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
ことを特徴とする付記2に記載のストレージ制御装置。
(付記4)前記制御部は、
前記複数のストレージ制御装置に含まれる前記仮想ボリュームを制御するストレージ制御装置とは異なる他のストレージ制御装置が制御する記憶領域のうちの前記仮想ボリュームに割り当てられた記憶領域に記憶されたデータの移動要求を取得し、
前記移動要求を取得した場合、前記データの移動先となる前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
ことを特徴とする付記1〜3のいずれか一つに記載のストレージ制御装置。
(付記5)前記複数のストレージ制御装置の各々のストレージ制御装置が制御する記憶領域は、複数の記憶装置を含むRAIDグループにより形成されたボリュームである、
ことを特徴とする付記1〜4のいずれか一つに記載のストレージ制御装置。
(付記6)それぞれ異なる記憶領域を制御する複数のストレージ制御装置を有するストレージシステムであって、
前記複数のストレージ制御装置のいずれかのストレージ制御装置は、
仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
前記割り当て要求を取得した場合、それぞれ異なる記憶領域を制御する複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
ことを特徴とするストレージシステム。
(付記7)それぞれ異なる記憶領域を制御する複数のストレージ制御装置のいずれかのストレージ制御装置に、
仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
前記割り当て要求を取得した場合、前記複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
処理を実行させることを特徴とする制御プログラム。
(付記8)それぞれ異なる記憶領域を制御する複数のストレージ制御装置のいずれかのストレージ制御装置が、
仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
前記割り当て要求を取得した場合、前記複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
処理を実行することを特徴とする制御方法。
101 ストレージ制御装置
102 物理領域
200 ストレージシステム
700 制御部
711 取得部
712 割り当て部

Claims (6)

  1. 仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
    前記割り当て要求を取得した場合、それぞれ異なる記憶領域を制御する複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
    制御部を有することを特徴とするストレージ制御装置。
  2. 前記制御部は、
    前記割り当て要求を取得した場合、前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域の割り当て量が所定の閾値以下であれば、前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当て、
    前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域の割り当て量が前記所定の閾値より大きければ、前記複数のストレージ制御装置のうちの前記仮想ボリュームを使用する装置からアクセスを受け付けたストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
    ことを特徴とする請求項1に記載のストレージ制御装置。
  3. 前記制御部は、
    前記割り当て要求を取得した場合、前記アクセスを受け付けたストレージ制御装置が制御する記憶領域の割り当て量が前記所定の閾値より大きければ、前記複数のストレージ制御装置のうち記憶領域の割り当て量が最も小さいストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
    ことを特徴とする請求項2に記載のストレージ制御装置。
  4. 前記制御部は、
    前記複数のストレージ制御装置に含まれる前記仮想ボリュームを制御するストレージ制御装置とは異なる他のストレージ制御装置が制御する記憶領域のうちの前記仮想ボリュームに割り当てられた記憶領域に記憶されたデータの移動要求を取得し、
    前記移動要求を取得した場合、前記データの移動先となる前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
    ことを特徴とする請求項1〜3のいずれか一つに記載のストレージ制御装置。
  5. 前記複数のストレージ制御装置の各々のストレージ制御装置が制御する記憶領域は、複数の記憶装置を含むRAIDグループにより形成されたボリュームである、
    ことを特徴とする請求項1〜4のいずれか一つに記載のストレージ制御装置。
  6. それぞれ異なる記憶領域を制御する複数のストレージ制御装置のいずれかのストレージ制御装置に、
    仮想ボリュームの使用状況に応じて記憶領域の割り当て量が変化する前記仮想ボリュームへの記憶領域の割り当て要求を取得し、
    前記割り当て要求を取得した場合、前記複数のストレージ制御装置のうちの前記仮想ボリュームを制御するストレージ制御装置が制御する記憶領域を前記仮想ボリュームに割り当てる、
    処理を実行させることを特徴とする制御プログラム。
JP2015215460A 2015-11-02 2015-11-02 ストレージ制御装置、および制御プログラム Expired - Fee Related JP6569477B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015215460A JP6569477B2 (ja) 2015-11-02 2015-11-02 ストレージ制御装置、および制御プログラム
US15/298,680 US20170123699A1 (en) 2015-11-02 2016-10-20 Storage control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015215460A JP6569477B2 (ja) 2015-11-02 2015-11-02 ストレージ制御装置、および制御プログラム

Publications (2)

Publication Number Publication Date
JP2017090951A true JP2017090951A (ja) 2017-05-25
JP6569477B2 JP6569477B2 (ja) 2019-09-04

Family

ID=58638526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015215460A Expired - Fee Related JP6569477B2 (ja) 2015-11-02 2015-11-02 ストレージ制御装置、および制御プログラム

Country Status (2)

Country Link
US (1) US20170123699A1 (ja)
JP (1) JP6569477B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857334A (zh) * 2017-11-30 2019-06-07 株式会社日立制作所 存储系统及其控制方法
JP2021047786A (ja) * 2019-09-20 2021-03-25 富士通株式会社 ストレージ制御装置、ストレージ装置及び決定プログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12039165B2 (en) 2016-10-04 2024-07-16 Pure Storage, Inc. Utilizing allocation shares to improve parallelism in a zoned drive storage system
US10191662B2 (en) * 2016-10-04 2019-01-29 Pure Storage, Inc. Dynamic allocation of segments in a flash storage system
US11947814B2 (en) 2017-06-11 2024-04-02 Pure Storage, Inc. Optimizing resiliency group formation stability
US11163447B2 (en) * 2017-09-03 2021-11-02 Ashish Govind Khurange Dedupe file system for bulk data migration to cloud platform
US11520514B2 (en) 2018-09-06 2022-12-06 Pure Storage, Inc. Optimized relocation of data based on data characteristics
US12032848B2 (en) 2021-06-21 2024-07-09 Pure Storage, Inc. Intelligent block allocation in a heterogeneous storage system
US11500570B2 (en) 2018-09-06 2022-11-15 Pure Storage, Inc. Efficient relocation of data utilizing different programming modes
US12001684B2 (en) 2019-12-12 2024-06-04 Pure Storage, Inc. Optimizing dynamic power loss protection adjustment in a storage system
US11681448B2 (en) 2020-09-08 2023-06-20 Pure Storage, Inc. Multiple device IDs in a multi-fabric module storage system
US11832410B2 (en) 2021-09-14 2023-11-28 Pure Storage, Inc. Mechanical energy absorbing bracket apparatus
US11994723B2 (en) 2021-12-30 2024-05-28 Pure Storage, Inc. Ribbon cable alignment apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251970A (ja) * 2008-04-07 2009-10-29 Hitachi Ltd 複数のストレージシステムモジュールを備えたストレージシステム
WO2011135635A1 (ja) * 2010-04-30 2011-11-03 株式会社日立製作所 計算機システム及びその記憶制御方法
JP2013114624A (ja) * 2011-11-30 2013-06-10 Hitachi Ltd ストレージシステム及びプール容量縮小の制御方法
JP2013246582A (ja) * 2012-05-24 2013-12-09 Fujitsu Ltd ストレージ装置およびストレージ装置の制御方法
US20140122823A1 (en) * 2012-10-31 2014-05-01 International Business Machines Corporation Generalized storage allocation for multiple architectures

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL147073A0 (en) * 2001-12-10 2002-08-14 Monosphere Ltd Method for managing the storage resources attached to a data network
JP4757038B2 (ja) * 2006-01-25 2011-08-24 株式会社日立製作所 ストレージシステム及び記憶制御装置
US7949847B2 (en) * 2006-11-29 2011-05-24 Hitachi, Ltd. Storage extent allocation method for thin provisioning storage
JP2010033261A (ja) * 2008-07-28 2010-02-12 Hitachi Ltd ストレージ装置及びその制御方法
US8984221B2 (en) * 2011-10-18 2015-03-17 Hitachi, Ltd. Method for assigning storage area and computer system using the same
JP5853734B2 (ja) * 2012-02-02 2016-02-09 富士通株式会社 仮想ストレージ装置,制御装置及び制御プログラム
JP2014013459A (ja) * 2012-07-03 2014-01-23 Fujitsu Ltd 制御装置、ストレージ装置および制御装置の制御方法
JP6160173B2 (ja) * 2013-03-28 2017-07-12 富士通株式会社 ストレージ装置、割当解放制御方法及び割当解放制御プログラム
US9785575B2 (en) * 2014-12-30 2017-10-10 International Business Machines Corporation Optimizing thin provisioning in a data storage system through selective use of multiple grain sizes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251970A (ja) * 2008-04-07 2009-10-29 Hitachi Ltd 複数のストレージシステムモジュールを備えたストレージシステム
WO2011135635A1 (ja) * 2010-04-30 2011-11-03 株式会社日立製作所 計算機システム及びその記憶制御方法
JP2013114624A (ja) * 2011-11-30 2013-06-10 Hitachi Ltd ストレージシステム及びプール容量縮小の制御方法
JP2013246582A (ja) * 2012-05-24 2013-12-09 Fujitsu Ltd ストレージ装置およびストレージ装置の制御方法
US20140122823A1 (en) * 2012-10-31 2014-05-01 International Business Machines Corporation Generalized storage allocation for multiple architectures

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857334A (zh) * 2017-11-30 2019-06-07 株式会社日立制作所 存储系统及其控制方法
JP2021047786A (ja) * 2019-09-20 2021-03-25 富士通株式会社 ストレージ制御装置、ストレージ装置及び決定プログラム

Also Published As

Publication number Publication date
US20170123699A1 (en) 2017-05-04
JP6569477B2 (ja) 2019-09-04

Similar Documents

Publication Publication Date Title
JP6569477B2 (ja) ストレージ制御装置、および制御プログラム
US10853139B2 (en) Dynamic workload management based on predictive modeling and recommendation engine for storage systems
US8782335B2 (en) Latency reduction associated with a response to a request in a storage system
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
US11023147B2 (en) Mapping storage extents into resiliency groups
US8768883B2 (en) Storage apparatus and control method of the same
JP2020533694A (ja) クラウド・ベースのランクを使用するデータの動的再配置
CN111095903B (zh) 使用云存储作为模组的存储系统
US10581969B2 (en) Storage system using cloud based ranks as replica storage
JP7135074B2 (ja) クラウド・ベースのランクを使用するシン・プロビジョニング
JP6476959B2 (ja) ストレージ制御装置、ストレージシステム、および制御プログラム
US11429318B2 (en) Redirect-on-write snapshot mechanism with delayed data movement
US8799573B2 (en) Storage system and its logical unit management method
KR20170135594A (ko) 스토리지 시스템 및 그의 볼륨 관리 방법
US10152234B1 (en) Virtual volume virtual desktop infrastructure implementation using a primary storage array lacking data deduplication capability
US11144445B1 (en) Use of compression domains that are more granular than storage allocation units
US11201788B2 (en) Distributed computing system and resource allocation method
US20130151808A1 (en) Allocation device, allocation method and storage device
US11782641B2 (en) Backend aware virtualized storage
US11947803B2 (en) Effective utilization of different drive capacities
US9658803B1 (en) Managing accesses to storage
US10565068B1 (en) Primary array data dedup/compression using block backup statistics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6569477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees