JP5250482B2 - 省電力制御装置及び方法 - Google Patents

省電力制御装置及び方法 Download PDF

Info

Publication number
JP5250482B2
JP5250482B2 JP2009122943A JP2009122943A JP5250482B2 JP 5250482 B2 JP5250482 B2 JP 5250482B2 JP 2009122943 A JP2009122943 A JP 2009122943A JP 2009122943 A JP2009122943 A JP 2009122943A JP 5250482 B2 JP5250482 B2 JP 5250482B2
Authority
JP
Japan
Prior art keywords
file
group
files
power saving
raid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009122943A
Other languages
English (en)
Other versions
JP2010271901A (ja
Inventor
信之 雜賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009122943A priority Critical patent/JP5250482B2/ja
Priority to US12/504,466 priority patent/US8645737B2/en
Publication of JP2010271901A publication Critical patent/JP2010271901A/ja
Application granted granted Critical
Publication of JP5250482B2 publication Critical patent/JP5250482B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3268Power saving in hard disk drive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Description

本発明は、省電力制御装置及び方法に関し、例えば計算機システムの省電力制御に適用して好適なものである。
近年、ストレージ装置の大規模化及び高性能化に伴い、ストレージ装置における消費電力が増加の一途を辿っており、ストレージ装置の省電力化の要求が高まってきている。
このような状況のもと、近年では、ストレージ装置の電源のオン/オフを制御することによって省電力化を行う方法(特許文献1参照)や、RAID(Redundant Arrays of Independent Disks)グループ単位で省電力制御を行う方法(特許文献2参照)が提案されている。
特開2008−225772号公報 特開2008−134829号公報
ところで、ストレージ装置をRAIDグループ単位で省電力制御する方法の1つとして、そのRAIDグループが提供する記憶領域に格納(以下、これを「RAIDグループに格納」と呼ぶ)されたファイルに対するユーザからのアクセスパターンに基づいてそのRAIDグループを構成する各ディスク装置を省電力制御する方法がある。
しかしながら、この省電力制御方法では、RAIDグループを構成する各ディスク装置を省電力モード及び通常モードのいずれで動作させるかを、そのRAIDグループに格納されているファイルのアクセスパターンに基づいて、時間帯ごとに多数決で決定しているため、重要度の高いファイルへのアクセスパターンが反映され難い。この結果、重要度の高いファイルへのアクセスが迅速にできない時間帯が増加し、業務に悪影響を及ぼす問題があった。
本発明は以上の点を考慮してなされたもので、重要度の高いファイルへのアクセス速度の低下を防止しながら省電力化を行い得る省電力制御装置及び方法を提案しようとするものである。
かかる課題を解決するため本発明においては、ストレージ装置の省電力制御を行う省電力制御装置において、前記ストレージ装置に格納された複数のファイルに対するアクセスログを取得し、取得した前記アクセスログに基づいて各前記ファイルに対するユーザのアクセスパターンを検出し、検出した各前記ファイルに対するアクセスパターンに基づいて、アクセスパターンが類似した前記ファイルをグループ化し、グループ化した各前記ファイルを、グループごとに、それぞれ別個に省電力制御が可能な異なる記憶媒体に移行させると共に、各前記ファイルに対するアクセスパターンに基づいて、前記グループごとに省電力制御のスケジュールを設定する第1のファイル移行処理を実行する第1のファイル移行処理部と、設定された前記グループごとの前記スケジュールに従って、各前記記憶媒体を省電力制御する省電力制御処理部とを設け、前記第1のファイル移行処理部が、前記グループごとに、前記グループに属する前記ファイルのうち、重要度が最も高く設定された前記ファイルに対するアクセスパターンに基づいて、前記グループに対する省電力制御のスケジュールを設定するようにした。
また本発明においては、ストレージ装置の省電力制御を行う省電力制御方法において、前記ストレージ装置に格納された複数のファイルに対するアクセスログを取得し、取得した前記アクセスログに基づいて各前記ファイルに対するユーザのアクセスパターンを検出し、検出した各前記ファイルに対するアクセスパターンに基づいて、アクセスパターンが類似した前記ファイルをグループ化し、グループ化した各前記ファイルを、グループごとに、それぞれ別個に省電力制御が可能な異なる記憶媒体に移行させると共に、各前記ファイルに対するアクセスパターンに基づいて、前記グループごとに省電力制御のスケジュールを設定する第1のファイル移行処理を実行する第1のステップと、設定された前記グループごとの前記スケジュールに従って、各前記記憶媒体を省電力制御する第2のステップとを設け、前記第1のステップでは、前記グループごとに、前記グループに属する前記ファイルのうち、重要度が最も高く設定された前記ファイルに対するアクセスパターンに基づいて、前記グループに対する省電力制御のスケジュールを設定するようにした。
本発明によれば、重要度が高いファイルのアクセスパターンがグループに対する省電力制御のスケジュールに反映されるため、重要度の高いファイルへのアクセス速度の低下を防止しながら省電力化を図ることができる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による計算機システムの構成
図1において、1は全体として本実施の形態による計算機システムを示す。この計算機システム1は、クライアント/ホスト2、GNSサーバ3、複数のNAS(Network Attached Storage)サーバ4及び管理サーバ5がLAN(Local Area Network)又はSAN(Storage Area Network)等のネットワーク6を介して接続されると共に、GNSサーバ3及びNASサーバ4がFCネットワーク7を介してRAIDサブシステム8と接続されることにより構成されている。
クライアント/ホスト2は、CPU(Central Processing Unit)10、メモリ11、NIC(Network Interface Card)12及びハードディスク装置などのディスク装置13を備えるコンピュータ装置であり、例えばパーソナルコンピュータ、ワークステーション又はメインフレームなどから構成される。
GNSサーバ3は、複数のNASサーバ4を一元化してクライアント/ホスト2に対して単一のネームスペース(GNS)として見せるためのサーバであり、CPU20及びメモリ21等の情報処理資源を備えて構成される。GNSサーバ3は、NIC22を介してネットワーク6と接続されており、このネットワーク6を介してクライアント/ホスト2や管理サーバ5との間で通信を行い得るようになされている。またGNSサーバ3は、HBA(Host Bus Adapter)23を介してFCネットワーク7と接続されており、このFCネットワーク7を介して各種プログラムやデータをRAIDサブシステム8から読み出し得るようになされている。
NASサーバ4は、クライアント/ホスト2に対してファイル共有サービスを提供するサーバであり、CPU30及びメモリ31等の情報処理資源を備えて構成される。NASサーバ4は、GNSサーバ3と同様に、NIC32を介してネットワーク6と接続されており、このネットワーク6を介してGNSサーバ3や管理サーバ5との間で各種のコマンドやデータをやり取りし得るようになされている。またNASサーバ4は、HBA33を介してFCネットワーク7と接続されており、このFCネットワーク7を介してクライアント/ホスト2からのデータをRAIDサブシステム8に読み書きし得るようになされている。
管理サーバ5は、システム管理者が計算機システム1内のGNSサーバ3、NASサーバ4、FCネットワーク7及びRAIDサブシステム8を管理するためのサーバであり、パーソナルコンピュータ又はワークステーションなどから構成される。管理サーバ5は、CPU40、メモリ41、NIC42及びディスク装置43などを備えており、NIC42を介してネットワーク6と接続されている。また管理サーバ5は、図示しないネットワークを介してRAIDサブシステム8とも接続されており、当該ネットワークを介してRAIDサブシステム8を制御し得るようになされている。
FCネットワーク7は、1又は複数のFCスイッチから構成される。GNSサーバ3又はNASサーバ4と、RAIDサブシステム8との間におけるデータやコマンドのやり取りは、このFCネットワーク7を介して行われる。
RAIDサブシステム8は、1又は複数のディスク装置50と、ディスク装置50に対するデータの入出力を制御するコントロール部51とから構成されるストレージ装置である。
ディスク装置50は、例えばSCSI(Small Computer System Interface)ディスク等の高価なディスクや、SATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクなどから構成される。1又は複数のディスク装置50により1つのRAIDグループ52が構成され、1つのRAIDグループ52を構成する各ディスク装置50が提供する物理的な記憶領域上に、1又は複数の論理ボリュームが設定される。そしてクライアント/ホスト2からのデータは、この論理ボリューム内に所定大きさのブロック(以下、これを論理ブロックと呼ぶ)を単位として記憶される。
各論理ボリュームには、それぞれ固有のボリューム番号が付与される。本実施の形態の場合、データの入出力は、このボリューム番号と、各論理ブロックにそれぞれ付与されるその論理ブロックのブロック番号(LBA:Logical Block Address)とを組み合わせたものをアドレスとして、当該アドレスを指定して行われる。
コントロール部51は、1又は複数のチャネルアダプタ(CHA)53と、1又は複数のディスクコントローラ(DKC)54とを備えて構成される。コントロール部51は、クライアント/ホスト2からI/O要求に基づいてNASサーバ4からFCネットワーク7を介して与えられるI/O(Input/Output)要求をチャネルアダプタ53において受信し、このI/O要求に応じて、ディスクコントローラ54の制御のもとに、対応するディスク装置50にデータを読み書きする。
図2は、かかる計算機システム1のソフトウェア構成を示す。計算機システム1において、RAIDサブシステム8のRAIDグループ52上には、上述のように論理ボリュームが複数作成される。NAS環境では、かかる論理ボリュームとして、OSボリューム(OS−LU)VOL1及びユーザボリューム(User−LU)VOL2の2種類の論理ボリュームが作成される。
OSボリュームVOL1は、GNSサーバ3やNASサーバ4のOS(Operation System)が使用するプログラムが格納される論理ボリュームである。またユーザボリュームVOL2は、クライアント/ホスト2からのI/O要求によるデータが格納される論理ボリュームである。このユーザボリュームVOL2が提供する記憶領域は、ファイルシステムにより使用される。
NASサーバ4には、ファイル共有プログラム60、ファイルシステムプログラム61及びカーネル62が実装される。
ファイルシステムプログラム61は、物理ボリューム上にファイルという管理単位を実現するために構築された論理構造であるファイルシステムを管理するためのプログラムである。
ここでファイルシステムについて説明すると、ファイルシステムは、図3に示すように、スーパーブロック70、ディレクトリエントリ71、iノード管理テーブル72及びデータブロック73を備える。このうちスーパーブロック70は、ファイルシステムの大きさ及び空き容量などのファイルシステムの情報を一括して保持する論理ブロックである。
またファイルシステムでは、1つのファイルに1つのiノードを対応させて管理しており、これらの対応関係がディレクトリエントリ71において管理される。具体的に、ディレクトリエントリ71は、図4に示すように、ディレクトリパス名71Aと、iノードを指すインデックス(以下、これをiノード番号と呼ぶ)71Bとを組みにしたテーブルである。
なお、iノードとは、対応するファイルの所有権、アクセス権、ファイルサイズ及びデータの格納位置などの情報からなる当該ファイルの管理情報のことをいう。後述するように、本実施の形態の場合、対応するファイルについてユーザが設定した重要度を表す情報も、このiノードに含まれて管理される。iノードとデータブロック73との参照関係を図5に示す。この図5の左側の枠線内の表において、「100」、「200」及び「250」はブロックアドレスを示し、「3」、「2」及び「5」はそのブロックアドレスから連続する、データが格納されたデータブロック73のブロック数を示す。個々のファイルのiノードは、図6に示すように、iノード管理テーブル72に格納されて管理される。
またデータブロック73は、実際のファイルデータや管理データなどが格納される論理ブロックのことをいう。
図2に戻って、ファイル共有プログラム60は、CIFS(Common Internet File System)やNFS(Network File System)といった通信プロトコルを使用してクライアント/ホスト2に対してファイル共有サービスを提供するプログラムである。またカーネル62は、NASサーバ4上で動作する複数のプログラム(プロセス)のスケジュール制御やハードウェアからの割り込みをハンドリングするなど、NASサーバ4の全般的な制御を実施する。
GNSサーバ3には、GNS管理プログラム80が実装されている。GNS管理プログラム80は、クライアント/ホスト2に対して複数のNASサーバ4に分散格納されているファイルを単一のディレクトリイメージで一元化したビューを提供するためのプログラムである。例えばクライアント/ホスト2に対して図7に示すようなディレクトリイメージを提供する。
この際、GNS管理プログラム80は、図8に示すようなファイル管理テーブル84を作成する。このファイル管理テーブル84は、ディレクトリパス名欄84A、ホスト名欄84B、ファイルシステム名欄84C及びiノード番号欄84Dから構成される。このうちディレクトリパス名欄84Aには、そのGNS管理プログラム80がクライアント/ホスト2に提供するGNSに属する各ファイルへのディレクトリパス名が格納され、ホスト名欄84Bにはそのファイルを管理するNASサーバ4のNAS名が格納される。またファイルシステム名欄84Cには、そのファイルを提供するファイルシステムのファイルシステム名が格納され、iノード欄84Dには、そのファイルのiノードの識別番号(iノード番号)が格納される。
そしてGNS管理プログラム80は、図8の事例において、例えばクライアント/ホスト2からディレクトリパス名が「/Holder-2/a.txt」のファイルへのリード要求を受け取った場合(図9、SP1)、図9に示すように、このリード要求を、かかるファイル管理テーブル84を使用して、「NAS-3」がもつファイルシステム「FS31」上にあるiノード番号が「1000(a.txt)」のファイルのリード要求に変換し、このリード要求を「NAS-3」に送信する(SP2)。そして「NAS-3」は、このリード要求に応じて「a.txt」をユーザボリュームVOL2から読み出す(SP3,SP4)。そしてこの「a.txt」は、この後、「NAS-3」からGNSサーバ3を介してクライアント/ホスト2へと転送される(SP5,SP6)。
なおGNSサーバ3には、GNS管理プログラム80の他に、図2に示すように、ファイル共有プログラム81、ファイルシステムプログラム82及びカーネル83も実装されているが、これらは、NASサーバ4のものと同様の機能を有するものであるため、ここでの説明は省略する。
一方、管理サーバ5には、図2に示すように、移行方法選択プログラム90、第1のファイル移行処理プログラム91、第2のファイル移行処理プログラム92及び省電力制御プログラム93が実装されている。これら移行方法選択プログラム90、第1のファイル移行処理プログラム91、第2のファイル移行処理プログラム92及び省電力制御プログラム93の詳細については、後述する。なお図2では図示していないが、管理サーバ5にもファイルシステムプログラム及びカーネルが実装される。
さらにクライアント/ホスト2には、各種のアプリケーションソフトウェアが実装されており、このアプリケーションソフトウェアが使用するデータがデータセンタのRAIDサブシステム8に読み書きされる。そのための手段として、クライアント/ホスト2にもファイルシステムプログラム及びカーネルが実装される。
(2)本実施の形態による省電力制御機能
(2−1)概要及び各種管理テーブルの構成
次に、かかる管理サーバ5に搭載された省電力機能について説明する。本実施の形態による管理サーバ5には、ファイルに対するユーザからのアクセスパターンに基づいて省電力制御を行う省電力制御機能が搭載されている。
実際上、かかる管理サーバ5は、ユーザからのアクセスパターンが類似したファイルをファイルグループとしてグループ化し、ファイルグループごとに異なるNASサーバ4により管理されるRAIDグループ52内にファイルを再配置したうえで、かかるRAIDグループ52を構成するディスク装置50及びそのRAIDグループ52を担当するNASサーバ4を、各ファイルに対するユーザからのアクセスパターンに基づいて省電力制御する。そして本実施の形態においては、以上のような省電力制御機能に関する各種処理のうち、ファイルをそのユーザからのアクセスパターンに基づいてグループ化する処理を、予めファイルに設定された重要度に基づいて行う点を特徴とする。
このような省電力制御機能に基づく各種処理を実行するための手段として、管理サーバ5のメモリ41(図1)には、図8について上述したファイル管理テーブル84に加えて、図10〜図12に示すようなファイル別アクセス時間帯テーブル100、ファイルグループ管理テーブル101及び省電力スケジュール管理テーブル102が格納されている。
ファイル別アクセス時間帯テーブル100は、各NASサーバ4から収集したアクセスログを解析し、ファイルごとにアクセス時間帯をまとめたテーブルであり、図10に示すように、ディレクトリパス名欄100A、重要度欄100B及びアクセス時間帯管理欄100Cから構成される。そしてディレクトリパス名欄100Aには、対応するファイルへのディレクトリパス名が格納され、重要度欄100Bには、そのファイルについて予めユーザが設定した重要度が格納される。本実施の形態の場合、この重要度は、「A」〜「C」の3つがあり、このうち「A」が最も重要度が高く、「C」が最も重要度が低い。
またアクセス時間帯管理欄100Cは、予め設定された解像度に応じた数の時間帯欄100Dから構成される。これら時間帯欄100Dは、それぞれ一日のうちのいずれかの時間帯にそれぞれ対応付けられており、各時間帯欄100Dに、その時間帯にそのファイルに対してアクセスがあったか否かを表すフラグ(以下、これをアクセス有無フラグと呼ぶ)がそれぞれ格納されている。
そしてその時間帯にそのファイルにユーザからのアクセスがあったときにはアクセス有無フラグが「0」に設定され、当該アクセスがあったときにはアクセス有無フラグが「1」に設定される。なお図10においては、アクセス有無フラグが「1」の時間帯欄100Dに網掛けしている。
従って、図10の例の場合、「/File-1.txt」というディレクトリパス名のファイルは、重要度が「B」に設定されており、このファイルに対して「T1〜T2」、「T5〜T6」及び「T6〜T7」の各時間帯にそれぞれユーザからのアクセスがあったことが示されている。
またファイルグループ管理テーブル101は、類似するアクセスパターンのファイルをグループ化して管理するためのテーブルであり、ファイルグループごとに作成される。このファイルグループ管理テーブル101は、図11に示すように、ファイル別アクセス時間帯テーブルと同様の構成を有するものであるため、詳細な説明は省略する。
省電力スケジュール管理テーブル102は、ファイルグループごとの省電力のスケジュール(以下、これを省電力スケジュールと呼ぶ)を管理するためのテーブルであり、図12に示すように、ファイルグループ名欄102A、RAIDグループ名欄102B、省電力時間帯欄102Cから構成される。
そしてファイルグループ名欄102Aには、対応するファイルグループのグループ名が格納され、RAIDグループ欄102Bには、そのファイルグループに属する各ファイルが配置されるRAIDグループ52(図1)の識別子(RAIDグループ名)が格納される。
また省電力時間帯欄102Cは、ファイル別アクセス時間帯テーブル100(図11)のアクセス時間帯欄100Cと同じ数の時間帯欄102Dから構成され、これら時間帯欄102D内に、対応する時間帯に省電力化するか否かを表すフラグ(以下、これを省電力モード可否フラグと呼ぶ)が格納されている。そして省電力化有無フラグは、対応する時間帯に省電力化を行うときには「0」に設定され、対応する時間帯に通常運転を行うときには「1」に設定される。図12では、省電力化有無フラグが「1」に設定された時間帯の時間帯欄102Dを網掛けして示している。
なお以下において、省電力化とは、RAIDグループ52については、当該RAIDグループ52を構成する各ディスク装置50(図1)のディスクの回転数を下げ又は停止(いわゆるスピンダウン)することをいい、NASサーバ4については、CPU30の動作周波数を下げる(いわゆるダウンクロック)ことを指すものとする。
(2−2)省電力機能に関する各種処理
次に、本実施の形態による省電力機能に関する各種処理の流れについて説明する。まず、ファイルの重要度に基づいて、ファイルをユーザからのアクセスパターンに応じてグループ化し、各ファイルグループに属するファイルをそれぞれファイル再配置処理について、図13〜図26を用いて説明する。
なお、以下においては、図13に示すように、「NAS-1」というNASサーバ4は「RG1」というRAIDグループ52が提供する記憶領域を管理する「FS-11」というファイルシステムと対応付けられ、「NAS-2」というNASサーバ4は「RG2」というRAIDグループ52が提供する記憶領域を管理する「FS-21」というファイルシステムと対応付けられ、「NAS-3」というNASサーバ4は「RG3」というRAIDグループ52が提供する記憶領域を管理する「FS-31」というファイルシステムと対応付けられ、「NAS-4」というNASサーバ4は「RG4」というRAIDグループ52が提供する記憶領域を管理する「FS-41」というファイルシステムと対応付けられているものとする。
また以下においては、「FS-11」に「File1」〜「File9」の9個のファイルが格納されており、「FS-11」以外の「FS-21」、「FS-31」及び「FS-41」上にはファイルが存在しないものとする。さらに「NAS-1」は、「File1」〜「File9」に対するユーザからのアクセスについてのアクセスログを保持しているものとする。なお、NASサーバ4が保持するアクセスログは、図14に示すように、ユーザからのアクセスがあったファイルのファイル名、そのユーザの識別子(ユーザID)及びそのアクセスの日時から構成されるものである。
以上のような事例において、管理サーバ5は、図15に示すように、「NAS-1」にアクセスして、「FS-11」上に格納されている全ファイル(「File1」〜「File9」)についてのアクセスログをすべて取得する(図15のSP1)。
そして管理サーバ5は、この後、取得したアクセスログに基づいて、重要度が最も高いファイル(重要度が「A」のファイル)について、アクセスパターンが類似するもののグループ分けを行う。
具体的に、管理サーバ5は、「NAS-1」から取得したアクセスログに基づいてファイル別アクセス時間帯テーブル100(図10)を作成する。この際、個々のファイルの重要度は、管理サーバ5が管理している図5及び図6について上述したそのファイルのiノードに含まれる重要度に関する情報を参照する。
次いで管理サーバ5は、このようにして作成したファイル別アクセス時間帯テーブル100に登録された各ファイルのうち、重要度が「A」のファイルを抽出する。例えば、このとき作成されたファイル別アクセス時間帯テーブル100が図16(A)に示すようなものであったとすると、「File-2」、「File-5」、「File-8」及び「File-9」が抽出される。
そして管理サーバ5は、これら重要度が「A」のファイルがアクセスされた時間帯を参照して、アクセスパターンが類似するファイルをファイルグループとしてグループ化する。例えば図16(A)の例では、「File-5」及び「File-9」のアクセスパターンが類似しており、これら以外のアクセスパターンは類似していないため、「File-5」及び「File-9」によって1つのファイルグループ(図16(C)の「FileGroup-2」)が作成される。またこのファイルグループとは別に「File-2」が属するファイルグループ(図16(B)の「FileGroup-1」)と、「File-8」が属するファイルグループ(図16(D)の「FileGroup-3」)とが作成されることになる。なお、アクセスパターンに基づいてファイルをグループ化するファイルグループ化処理の処理手法については、後述する。
そして管理サーバ5は、上述のようなファイルグループ化処理により作成したファイルグループごとのファイルグループ管理テーブル101(図11)を作成し、作成したファイルグループ管理テーブル101に対して、それぞれ対応するファイルグループに属するファイルに関する必要な情報を登録する(図15のSP2)。
続いて管理サーバ5は、図17及び図18に示すように、以上までの処理により作成されたファイルグループに対して、後述のようにそのファイルグループに属するファイルを移行(再配置)させて集約するための集約先のRAIDグループ52を対応付ける。なお、各ファイルグループに対応付けるRAIDグループ52としては、それぞれ個別に省電力制御が可能なものが選択される。また管理サーバ5は、各ファイルグループのグループ名と、そのファイルグループに対応付けたRAIDグループ52のグループ名とを省電力スケジュール管理テーブル102にそれぞれ登録すると共に、登録した各ファイルグループについて対する省電力制御を行うスケジュール(以下、これを省電力スケジュールと呼ぶ)を併せてその省電力スケジュール管理テーブル102に設定する(SP3)。
例えば、図16の例の場合、「FileGroup-1」に属する「File-2」は、図16(B)を参照すると、「T2〜T3」及び「T3〜T4」の時間帯にアクセスがあるがそれ以外の時間帯ではアクセスがない。従って、「T2〜T3」及び「T3〜T4」以外の時間帯において、「File-2」が格納されたRAIDグループ52を構成するディスク装置50を省電力モードに移行させても、「File-2」に対するユーザからのアクセスには支障がないと考えることができる。そこで管理サーバ5は、「FileGroup-1」について、「T2〜T3」及び「T3〜T4」の時間帯にそれぞれ対応する省電力モード可否フラグのみをオンにし、他の時間帯と対応する省電力モード可否フラグをオフにしたスケジュールを省電力スケジュール管理テーブル102に設定する。
また「FileGroup-2」については、図16(C)を参照すると、「T4〜T5」、「T5〜T6」及び「T6〜T7」以外の時間帯では「File-5」又は「File-9」に対するアクセスがない。従って、「T4〜T5」、「T5〜T6」及び「T6〜T7」以外の時間帯において、「File-5」及び「File-9」が格納されたRAIDグループ52を構成するディスク装置50を省電力モードに移行させても、「File-5」及び「File-9」に対するユーザからのアクセスには支障がないと考えることができる。そこで、管理サーバ5は、「FileGroup-2」について、「T4〜T5」、「T5〜T6」及び「T6〜T7」の時間帯にそれぞれ対応する省電力モード可否フラグのみをオンにし、他の時間帯と対応する省電力モード可否フラグをオフにしたケジュールを省電力スケジュール管理テーブル102に設定する。
さらに管理サーバ5は、「FileGroup-3」について、上述と同様にして、「T1〜T2」及び「T7〜T8」の時間帯に対応する省電力モード可否フラグのみをオンにし、他の時間帯に対応する省電力モード可否フラグをオフにしたスケジュールを省電力スケジュール管理テーブル102に設定する。
以上までの処理により、重要度が最も高いファイル(重要度が「A」のファイル)に対するグループ分けと、各ファイルグループについての省電力スケジュールの作成とが完了する。
続いて管理サーバ5は、図19に示すように、重要度が次に高い各ファイル(重要度が「B」の各ファイル)について、そのファイルに対するユーザからのアクセスパターンと最も近い省電力スケジュールが設定されたファイルグループに振り分ける(SP4)。
例えば図16(A)の事例では、重要度が「B」のファイルは、「File-1」、「File-3」及び「File-6」の3つであり、「File-1」に対するユーザからのアクセスパターンは「FileGroup-2」の省電力スケジュールと最も近く、「File-3」に対するユーザからのアクセスパターンは「FileGroup-3」の省電力スケジュールと最も近く、「File-6」に対するユーザからのアクセスパターンは「FileGroup-1」の省電力スケジュールと最も近い。
そこで、管理サーバ5は、図20(A)〜(C)に示すように、「File-1」を「FileGroup-2」のファイルグループ管理テーブル101に登録し、「File-3」を「FileGroup-3」のファイルグループ管理テーブル101に登録し、「File-6」を「FileGroup-1」のファイルグループ管理テーブル101に登録する。なお図20において「※」は、その時間帯にそのファイルを格納しているRAIDグループ52を構成するディスク装置50が省電力モードにあるため、アクセスを受け付けてから対応できるまでにある程度の時間を要する時間帯を示す。
次いで管理サーバ5は、重要度が最も低い各ファイル(重要度が「C」のファイル)について、そのファイルに対するユーザからのアクセスパターンを考慮することなく、各ファイルグループにそれぞれ対応付けられた各RAIDグループ52の容量や、負荷分散の観点などのシステム上都合に合わせて、これらのファイルをそれぞれいずれかのファイルグループに振り分ける(SP5)。
例えば図16(A)の事例では、重要度が「C」のファイルは、「File-4」及び「File-7」の2つである。そこで、管理サーバ5は、これら2つのファイルを、システムの都合に合わせて例えば図22(A)〜(C)のように振り分けて、これら「File-4」及び「File-7」を振り分け先のファイルグループに対応するファイルグループ管理テーブル101にそれぞれ登録する。
続いて管理サーバ5は、上述のようにして作成した各ファイルグループのファイルグループ管理テーブル101に基づいてRAIDサブシステム8を制御することにより、各ファイルグループに属するファイルのデータをそれぞれそのファイルグループに対応付けられたRAIDグループ52(正確には、そのRAIDグループ52が提供する記憶領域上に設定された論理ボリューム。以下、同じ。)に移行させる(SP6)。また管理サーバ5は、かかるファイルの移行に伴って、GNAサーバ3上のファイル管理テーブル84(図8)を更新する。従って、本事例の場合、図24(A)のような内容であったファイル管理テーブル84が、図24(B)のように更新されることになる。なお、以下においては、ステップSP1〜ステップSP6までの処理を、第1のファイル移行処理と呼ぶものとする。
この後、管理サーバ5は、図25に示すように、省電力スケジュール管理テーブル102に従ってRAIDサブシステム8及び対応するNASサーバ4の動作モードを制御する。具体的に管理サーバ5は、そのとき省電力モードであるべきファイルグループに属する各ファイルが格納されているRAIDグループ52を構成する各ディスク装置50の動作モードを省電力モード(例えばディクスの回転数をスピンダウンした動作モード)に移行させる。また管理サーバ5は、これと併せて、そのRAIDグループ52を管理するNASサーバ4に対して、動作モードを省電力モード(例えばCPU30の動作周波数を下げるいわゆるダウンクロックした動作モード)に移行するよう指示を与える(SP7)。
さらに管理サーバ5は、この後、図26に示すように、省電力スケジュール管理テーブル102に従って、RAIDサブシステム8及びNASサーバ4を制御することにより、RAIDグループ52を構成する各ディスク装置50及びNASサーバ4の動作モードを、省電力モードから通常モードに、又は通常モードから省電力モードに必要に応じて移行させる(SP7)。これにより、省電力スケジュール管理テーブル102に従った省電力制御が行われる。
さらに管理サーバ5は、第1のファイル移行処理を実行してから一定時間が経過すると、第1のファイル移行処理を再度実行するか否かを判断する。そして管理サーバ5は、第1のファイル移行処理を実行してから一定期間が経過していない場合には、既存のファイルグループの再構成を行うことなく、新たなファイルをいずれかのファイルグループに振り分け、そのファイルグループに対応付けられたRAIDグループ52にその新たなファイルを移行させるなどの処理(以下、これを第2のファイル移行処理と呼ぶ)を実行する。
(2−3)ファイルグループ化処理
次に、上述のようにユーザからのアクセスパターンが類似するファイルをグループ化するファイルグループ化処理の一般的な手法について説明する。なお、以下においては、「ファイルA」〜「ファイルE」の5つのファイルがそれぞれ図27に示すようなアクセスパターンでアクセスされている場合を例に説明する。
まず、時間の解像度(30分又は1時間等)を定め、図28に示すように、各ファイルに対するユーザからのアクセスパターンをビットマップ化する。解像度が1時間の場合、1ファイル当たりのビットマップサイズは24ビットとなる。ファイルに対するユーザからのアクセスパターンをビットマップ化する際、端数は、解像度の半分の時間よりも大きい場合には切り上げ、解像度の半分以下の場合には切り捨てる。従って、解像度が1時間の場合、ファイルが「5:45」から「13:05」までの間ユーザによりアクセスされていたものとすると、そのファイルが「6:00」から「13:00」までの間ユーザによりアクセスされていたものとして以下の計算を行う。なお、図28は、解像度を1時間として場合における「ファイルA」〜「ファイルE」へのユーザからのアクセスパターンのビットマップである。
続いて、上述のようにして作成したビットマップを用いて「ファイルA」〜「ファイルE」のグループ化を行う。具体的には、「ファイルA」〜「ファイルE」のビットマップについて、時間帯ごとにビットのXOR演算を行い、演算結果が予め定められた閾値以下の場合にそのファイルに対するユーザからのアクセスパターンが類似すると判断する。
例えば図28の事例において、「ファイルA」と「ファイルB」〜「ファイルE」との間でXOR演算を行った場合、閾値が「3」とすると、「ファイルC」に関しては、図29に示すように、不一致のビット(時間帯)数が3つであり、「ファイルB」、「ファイルD」及び「ファイルE」に関しては、それぞれ不一致のビット数がいずれも4つ以上であることから、「ファイルC」のみが「ファイルA」とが同一のファイルグループに振り分けられることになる。
また「ファイルB」、「ファイルD」及び「ファイルE」の3つのファイルについて、同様に時間帯ごとにXOR演算を行うと、図30に示すように、不一致のビット数が1つであることから、これら3つのファイルが同じファイルグループに振り分けられることになる。
この後、上述のようにして得られたファイルグループ全体としてのアクセスパターンを求める。具体的には、ファイルグループごとに、そのファイルグループに振り分けられたファイルのアクセスパターンをビットごとにOR演算し、得られた演算結果をそのファイルグループ全体のアクセスパターンとすることができる。例えば図28の例の場合、「ファイルA」及び「ファイルC」からなるファイルグループを「Group-1」とし、「ファイルB」、「ファイルD」及び「ファイルE」からなるファイルグループを「Group-2」とすると、これら「Group-1」及び「Group-2」のグループ全体としてのアクセスパターンは、図31に示すようになる。
以後、第2のファイル移行処理において、いずれのファイルグループにも振り分けられていない新たなファイルが存在する場合には、その新たなファイルに対するユーザのアクセスパターンと、各ファイルグループ全体のアクセスパターンとをビット(時間帯)ごとにXOR演算し、不一致のビット数が閾値以下のファイルグループが存在するときには、そのファイルグループにその新たなファイルを振り分け、そのようなファイルグループが存在しないときには、新たなファイルグループを作成する。
ただし、本実施の形態の場合、以上のように新たなファイルのために新たなファイルグループを作成するのは、その新たなファイルの重要度が「A」のときだけである。その新たなファイルの重要度が「B」の場合には、当該新たなファイルを最もファイルアクセスパターンが類似した(つまり不一致の時間帯が最も少ない)ファイルグループに振り分ける。またその新たなファイルの重要度が「C」の場合には、その新たなファイルに対するユーザのアクセスパターンに関わりなく、システムの都合に合わせてその新たなファイルをいずれかのファイルグループに振り分ける。
なお、以上のようなファイルグループ化処理の手法によると、例えば図32に示す「ファイルF」のように、常時アクセスされているファイルが存在した場合、他のファイル(「ファイルA」〜「ファイルE」)のアクセスパターンがすべて「ファイルF」に集約されてしまうことになる。
そこで本実施の形態の管理サーバ5においては、このような状態を回避するために、区分された全時間帯のうち、予め定められた閾値以上の時間帯においてアクセスされているファイル(例えば24時間のうちの75パーセント以上の時間帯でアクセスされているファイル)をフィルタリングした上で、図27〜図31について上述したファイルグループ化処理を実行する。そしてフィルタリングにより取り除かれたファイルについては、特別なファイルグループを作成して、そのファイルグループに振り分けるようになされている(図37のステップSP23、ステップSP27及びステップSP30、並びに、図38のステップSP48、ステップSP51及びステップSP55)。
(2−4)重要度が「C」のファイルの振分け方法
ここで、重要度が「C」のファイルの振分け方法について、説明する。重要度が「C」のファイルをいずれかのファイルグループに振り分ける振分け方法としては、ファイルシステムの空き容量に基づく方法(以下、これを第1の振分け方法と呼ぶ)と、負荷分散を考慮した方法(以下、これを第2の振分け方法と呼ぶ)の2つが考えられる。
まず、第1の振分け方法について説明する。重要度が「C」のファイルをいずれかのファイルグループに振り分けるに際しては、各ファイルグループとそれぞれ対応付けられたRAIDグループ52に属する各ファイルシステムの空き容量を考慮して、ファイルシステム間で偏りのないように振分け先を決定することができる。
具体的には、まず、図3について上述したファイルシステムのスーパーブロック70から各ファイルシステムの空き容量をそれぞれ取得し、その後、これらファイルシステムの空き容量の平均値及び分散値を求める。例えば、図13の事例において、「FS-21」というファイルシステム、「FS-31」というファイルシステム及び「FS-41」というファイルシステムの空き容量がそれぞれ図33に示すような値であるものとすると、これらのファイルシステムの空き容量の平均値は、次式
のように求めることができ、分散値は、次式
のように求めることができる。
続いて、重要度が「C」のファイルを「FS-21」、「FS-31」又は「FS-41」に移行した場合の平均値及び分散値を求める。例えば図33の事例の場合であって、その重要度が「C」のファイルの大きさが200〔MB〕の場合、これらの平均値及び分散値は、それぞれ図34のようになる。なお、かかる重要度が「C」のファイルを「FS-21」、「FS-31」又は「FS-41」に移行した場合における移行後のファイルシステムの空き容量は、733.33〔MB〕である。
そして、図34のように求めた分散値が(2)式で求めた分散値(「26666.67」)と比べてより小さいファイルシステムほど、そのファイルの移行後におけるファイルシステム間の容量のばらつきが小さくなる。従って、そのようなファイルシステムをそのファイルの移行先として決定することができる。
次に、第2の振分け方法について説明する。重要度が「C」のファイルを稼働時間の短い(省電力モードに設定すべき時間が長い)RAIDグループ52に属するファイルシステムに集中して移行すると、短い稼働時間帯にアクセスが集中し、負荷が増加すると考えられる。そこで、省電力スケジュール管理テーブル102(図12)を参照して、各ファイルシステムにそれぞれ移行する重要度が「C」のファイルのファイル数をRAIDグループ52の稼働時間に基づいて按分する方法が考えられる。
例えば省電力スケジュール管理テーブル102が図35のような状態の場合、「FileGroup-1」、「FileGroup-2」及び「FileGroup-3」にそれぞれ対応付けられたRAIDグループ52の稼働時間の比率は、次式
のようになる。そこで、重要度が「C」のファイルのファイル数が例えば100個の場合、「FileGroup-1」については、次式
「FileGroup-2」については、次式
「FileGroup-3」については、次式
のように按分したときのファイル数をそれぞれ計算し、それぞれ得られた数のファイルを「FileGroup-1」、「FileGroup-2」及び「FileGroup-3」にそれぞれ振り分けるようにすることによって、ファイルシステムの負荷を分散させた状態で重要度が「C」のファイルをファイルグループに振り分けることができる。
なお、「FileGroup-1」、「FileGroup-2」及び「FileGroup-3」の各ファイルグループにそれぞれ対応するファイルシステムに負荷の偏りがあるときには、その負荷も考慮して重要度が「C」のファイルの振分け先を決定するようにしても良い。
(2−5)省電力機能に関する管理サーバの具体的な処理
次に、以上のような本実施の形態による省電力制御機能に関する管理サーバ5の具体的な処理内容について説明する。なお、以下においては各種処理の処理主体を管理サーバ5に実装された「プログラム」として説明するが、実際上は、そのプログラムに基づいて管理サーバ5のCPU30(図1)がその処理を実行することは言うまでもない。
(2−5−1)ファイル移行方法選択処理
図36は、管理サーバ5に実装された移行方法選択プログラム90(図2)により定期的に実行されるファイル移行方法選択処理の処理手順を示す。移行方法選択プログラム90は、この図36に示す処理手順に従って、上述した第1及び第2のファイル移行処理のうちのいずれによってファイルの移行を実行するかを選択する。
すなわち移行方法選択プログラム90は、このファイル移行方法選択処理を開始すると、まず、ファイルグループ管理テーブル101(図11)の有無に基づいて、作成済みのファイルグループがあるか否かを判断する(SP10)。
この判断において否定結果を得ることは、未だ第1のファイル移行処理が実行されていないことを意味する。かくしてこのとき移行方法選択プログラム90は、管理サーバ5のメモリ41(図1)に格納された第1のファイル移行処理プログラム91を起動し(SP11)、現在の日時を最後に第1のファイル移行処理を実行した日時としてメモリ41に保存した後(SP12)、この移行方法選択処理を終了する。
これに対してステップSP10の判断において肯定結果を得ることは、既に第1のファイル移行処理が実行されてファイルグループが作成されていることを意味する。かくしてこのとき移行方法選択プログラム90は、最後に行った第1のファイル移行処理の実行日時をメモリ41から読み出す(SP13)。
また移行方法選択プログラム90は、このとき読み出した実行日時に基づいて、最後に第1のファイル移行処理を実行してから予め定められた一定期間が経過したか否かを判断する(SP14)。そして移行方法選択プログラム90は、この判断において肯定結果を得ると、再度、第1のファイル移行処理を実行するためステップSP11に進む。
これに対して移行方法選択プログラム90は、ステップSP14の判断において否定結果を得ると、ユーザや管理者が予め作成した予備のファイルシステムがあるか否かをチェックし(SP15)、この後、第2のファイル移行処理を実行するに際して十分な数の予備のファイルシステムが存在するか否かを判断する(SP16)。これは、後述のように第2のファイル移行処理を実行したときに、新たにファイルグループを追加しなければならない事態が生じた場合に備えるためである。
そして移行方法選択プログラム90は、この判断において否定結果を得るとステップSP11に進み、これに対して肯定結果を得ると、管理サーバ5のメモリ41(図1)に格納されている第2のファイル移行処理プログラム92(図2)を起動し(SP17)、この後、この移行方法選択処理を終了する。
(2−5−2)第1のファイル移行処理
一方、図37は、上述の移行方法選択処理のステップSP11において起動された第1のファイル移行処理プログラム91(図2)により実行される第1のファイル移行処理の処理手順を示す。
第1のファイル移行処理プログラム91は、移行方法選択プログラム90により起動されると、この第1のファイル移行処理を開始し、まず、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルに対するアクセスログをそれぞれ取得する(SP20)。
この後、第1のファイル移行処理プログラム91は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「A」のすべてのファイルのファイル名を取得する(SP21)。
次いで第1のファイル移行処理プログラム91は、ステップSP20において取得したアクセスログと、ステップSP21における調査結果とに基づいて、重要度が「A」のファイルに対するユーザのアクセスパターンをファイルごとに抽出(検出)する(SP22)。
そして第1のファイル移行処理プログラム91は、上述のようにして抽出した、重要度が「A」のファイルごとのアクセスパターンを比較して、アクセスパターンが類似するファイルをグループ化する。そして第1のファイル移行処理部91は、このようにして得られたファイルグループごとに、ファイルグループ管理テーブル101(図11)を作成し、そのファイルグループに属する重要度が「A」のファイルに関する必要な情報を当該ファイルグループ管理テーブル101に登録する。また第1のファイル移行処理プログラム91は、各ファイルグループにそれぞれ異なるNASサーバ4により管理されるRAIDグループ52を対応付け、各ファイルグループのグループ名と、そのファイルグループに対応付けたRAIDグループ52のグループ名と、そのファイルグループに属するファイルのアクセスパターンに基づき決定された省電力制御のスケジュールとを省電力スケジュール管理テーブル102に登録する(SP23)。
この後、第1のファイル移行処理プログラム91は、RAIDサブシステム8を制御することにより、ファイルグループごとにそれぞれ異なるNASサーバ4が管理するRAIDグループ52が提供する記憶領域内に集約するように、重要度が「A」のファイルを、当該ファイルが属するファイルグループに対応付けられたRAIDグループ52に移行(そのファイルのデータをそのRAIDグループ52に移動)させる(SP24)。
続いて第1のファイル移行処理プログラム91は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「B」のすべてのファイルのファイル名を取得する(SP25)。
続いて第1のファイル移行処理プログラム91は、ステップSP20において取得したアクセスログと、ステップSP25において取得したファイル名とに基づいて、重要度が「B」の各ファイルに対するユーザのアクセスパターンをファイルごとに抽出する(SP26)。
そして第1のファイル移行処理プログラム91は、上述のようにして抽出した、重要度が「B」の各ファイルについて、そのファイルのアクセスパターンと、ファイルグループごとのアクセスパターンとを比較し、重要度が「B」の各ファイルをそれぞれアクセスパターンが最も近いファイルグループに振り分け、これら重要度が「B」の各ファイルに関する必要な情報を対応するファイルグループ管理テーブル101に登録する(SP27)。
そして第1のファイル移行処理プログラム91は、この後、RAIDサブシステム8を制御することにより、上述のようにしてそれぞれいずれかのファイルグループに振り分けた重要度が「B」の各ファイルを、それぞれそのファイルが振り分けられたファイルグループと対応付けられたRAIDグループ52に移行させる(SP28)。
次いで第1のファイル移行処理プログラム91は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「C」のすべてのファイルのファイル名を取得する(SP29)。
そして第1のファイル移行処理プログラム91は、上述のようにして抽出した、重要度が「C」の各ファイルを、それぞれシステムの都合に合わせて(例えば各RAIDグループ52の使用容量が均等となるように)いずれかのファイルグループに振り分け、これら重要度が「C」の各ファイルに関する必要な情報を対応するファイルグループ管理テーブル101に登録する(SP30)。
そして第1のファイル移行処理プログラム91は、この後、RAIDサブシステム8を制御することにより、上述のようにしてそれぞれいずれかのファイルグループに振り分けた重要度が「C」の各ファイルを、それぞれそのファイルが振り分けられたファイルグループと対応付けられたRAIDグループ52に移行させる(SP31)。
さらに第1のファイル移行処理プログラム91は、後述する第2のファイル移行処理において使用するため、ステップSP21において取得した重要度が「A」のファイルのファイル名の一覧、ステップSP25において取得した重要度が「B」のファイルのファイル名の一覧、及び、ステップSP29において取得した重要度が「C」のファイルのファイル名の一覧をそれぞれ重要度別ファイル一覧としてメモリ等に保存し(SP32)、この後、この第1のファイル移行処理を終了する。
(2−5−3)第2のファイル移行処理
他方、図38は、上述の移行方法選択処理(図36)のステップSP17において起動された第2のファイル移行処理プログラム92(図2)により実行される第2のファイル移行処理の処理手順を示す。
第2のファイル移行処理プログラム92は、移行方法選択プログラム90により起動されると、この第2のファイル移行処理を開始し、まず、管理サーバ5のメモリ41(図1)に保存されている重要度別ファイル一覧のうちの重要度が「A」のファイル一覧を読み出す(SP40)。
続いて第2のファイル移行処理プログラム92は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「A」のすべてのファイルのファイル名を取得する(SP41)。
この後、第2のファイル移行処理プログラム92は、ステップSP40において取得した重要度が「A」のファイル一覧と、ステップSP41において取得した各ファイル名と照らし合わせ、いずれのファイルグループにも振り分けられていない重要度が「A」のファイルのファイル名をすべて抽出する(SP42)。
次いで第2のファイル移行処理プログラム92は、ステップSP42においてファイル名を抽出した重要度が「A」の各ファイルについて、そのファイルに対するユーザのアクセスパターンと、ファイルグループごとのアクセスパターンとを照合する(SP43)。
そして第2のファイル移行処理プログラム92は、例えばステップSP42において抽出した重要度が「A」のファイルのアクセスパターンがいずれのファイルグループのアクセスパターンとも類似せず、当該ファイルをいずれのファイルグループにも振り分けられない場合には、そのファイルに対応する新たなファイルグループを追加作成する(SP44)。
続いて第2のファイル移行処理プログラム92は、上述のステップSP44において追加したファイルグループの作成時にエラーが発生したか否かを判断し(SP45)、肯定結果を得た場合(例えば予備のファイルシステムが存在しない場合)には、第1のファイル移行処理プログラム91を起動した後(SP46)、この第2のファイル移行処理を終了する。従って、この場合には、図37について上述した第1のファイ移行処理が開始されることになる。
これに対して第2のファイル移行処理プログラム92は、ステップSP45の判断において肯定結果を得ると、ステップSP42において抽出した、いずれのファイルグループにも振り分けられていない重要度が「A」のファイルを、ステップSP43における照合により検出したアクセスパターンが類似するファイルグループ又はステップSP44において追加作成した新たなファイルグループに振り分ける。具体的に、第2のファイル移行処理プログラム92は、その重要度が「A」のファイルに関する必要な情報を、振り分け先のファイルグループに対応するファイルグループ管理テーブル101(図11)に登録する。また第2のファイル移行処理プログラム92は、省電力スケジュール管理テーブル103(図12)における対応するファイルグループのスケジュールを、必要に応じて変更する(SP47)。
そして第2のファイル移行処理プログラム92は、この後、RAIDサブシステム8を制御することにより、上述のようにしてそれぞれいずれかのファイルグループに振り分けた重要度が「A」の各ファイルを、それぞれそのファイルが振り分けられたファイルグループと対応付けられたRAIDグループ52に移行させる(SP48)。
続いて第2のファイル移行処理プログラム92は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「B」のすべてのファイルのファイル名を取得する(SP49)。
この後、第2のファイル移行処理プログラム92は、ステップSP40において取得した重要度が「B」のファイル一覧と、ステップSP49において取得したファイル名と照らし合わせ、いずれのファイルグループにも振り分けられていない重要度が「B」のファイルのファイル名をすべて抽出する(SP50)。
次いで第2のファイル移行処理プログラム92は、上述のようにしてファイル名を抽出した、重要度が「B」の各ファイルについて、そのファイルのアクセスパターンと、ファイルグループごとのアクセスパターンとを比較し、アクセスパターンが最も近いファイルグループにそのファイルを振り分け、そのファイルに関する必要な情報を対応するファイルグループ管理テーブル101(図11)に登録する(SP51)。
そして第2のファイル移行処理プログラム92は、この後、RAIDサブシステム8を制御することにより、上述のようにしてそれぞれいずれかのファイルグループに振り分けた重要度が「B」の各ファイルを、それぞれそのファイルが振り分けられたファイルグループと対応付けられたRAIDグループ52に移行させる(SP52)。
この後、第2のファイル移行処理プログラム92は、計算機システム1内の各NASサーバ4にそれぞれアクセスして、そのNASサーバ4が管理している各ファイルの中から重要度が「C」のすべてのファイルのファイル名を取得する(SP53)。
続いて第2のファイル移行処理プログラム92は、ステップSP40において取得した重要度が「C」のファイル一覧と、ステップSP53において取得したファイル名と照らし合わせ、いずれのファイルグループにも振り分けられていない重要度が「C」のファイルのファイル名をすべて抽出する(SP54)。
そして第2のファイル移行処理プログラム92は、上述のようにしてファイル名を抽出した、重要度が「C」の各ファイルを、それぞれシステムの都合に合わせて(例えば各RAIDグループ52の使用容量が均等となるように)いずれかのファイルグループに振り分け、そのファイルに関する必要な情報を対応するファイルグループ管理テーブル101(図11)に登録する(SP55)。
そして第2のファイル移行処理プログラム92は、この後、RAIDサブシステム8を制御することにより、上述のようにしてそれぞれいずれかのファイルグループに振り分けた重要度が「C」の各ファイルを、それぞれそのファイルが振り分けられたファイルグループと対応付けられたRAIDグループ52に移行させる(SP56)。
さらに第2のファイル移行処理プログラム92は、今後の第1又は第2のファイル移行処理において使用するため、ステップSP42において抽出した重要度が「A」の各ファイルのファイル名、ステップSP49において抽出した重要度が「B」の各ファイルのファイル名、又は、ステップSP53において抽出した重要度が「C」の各ファイルのファイル名を追加するように、対応する重要度が「A」の重要度別ファイル一覧、重要度が「B」の重要度別ファイル一覧及び重要度が「C」の重要度別ファイル一覧を更新する(SP57)。そして第2のファイル移行処理プログラム92は、この後、この第2のファイル移行処理を終了する。
(2−5−4)省電力制御処理
図39は、管理サーバ5のメモリ41(図1)に格納された省電力制御プログラム93(図2)により定期的に実行される省電力化のための制御処理(以下、これを省電力化制御処理と呼ぶ)の処理手順を示す。省電力制御プログラム93は、この図39に示す処理手順に従って、省電力スケジュール管理テーブル102(図12)において規定された省電力スケジュールに従った省電力化制御処理を実行する。
すなわち省電力制御プログラム93は、この省電力制御処理を開始すると、まず、図示しない内部タイマから現在の日時を取得し(SP60)、この後、省電力スケジュール管理テーブル102上で各RAIDグループ52(各ファイルグループ)の省電力スケジュールを検索する(SP61)。
そして省電力制御プログラム93は、省電力スケジュール管理テーブル102の1つのエントリ(行)を選択し(SP62)、この後、省電力スケジュール管理テーブル102のすべてのエントリを選択し終えたか否かを判断する(SP63)。
省電力制御プログラム93は、この判断において否定結果を得ると、ステップSP60において取得した現在日時と、ステップSP62において選択したエントリにおいて規定されている省電力スケジュールとを照合し、対応するRAIDグループ52を通常モード(そのRAIDグループ52を構成する各ディスク装置が通常動作の動作モード)及び省電力モード(そのRAIDグループ52を構成する各ディスク装置50をスピンダウンした動作モード)のいずれに設定すべきかを判断する(SP64)。
次いで省電力制御プログラム93は、ステップSP60において取得した現在日時と、ステップSP62において選択したエントリにおいて規定されている省電力スケジュールとを照合し、対応するRAIDグループ52を管理するNASサーバ4を通常モード(CPU30の動作周波数が通常の周波数の動作モード)及び省電力モード(CPU30の動作周波数をダウンクロックした動作モード)のいずれに設定すべきかを判断する(SP65)。
そして省電力制御プログラム93は、ステップSP64及びステップSP65の判断結果に基づいて、対応するRAIDグループ52及び対応するNASサーバ4の動作モードを必要に応じて通常モード又は省電力モードのいずれかに切り替える(SP66)。さらに省電力制御プログラム90は、ステップSP62に戻り、この後、ステップSP62において選択するエントリを順次他のエントリに切り替えながら、ステップSP62〜ステップSP66の処理を繰り返す。
そして省電力制御プログラム93は、やがて省電力スケジュール管理テーブル102のすべてのエントリにおいて同様の処理を実行し終えることによりステップSP63において肯定結果を得ると、この省電力制御処理を終了する。
(3)本実施の形態の効果
以上のように本実施の形態による計算機システムでは、重要度が「A」のファイルに対するユーザのアクセスパターンに基づいて各ファイルグループとそれぞれ対応付けられた各RAIDグループ52の省電力制御のスケジュールを設定するようにしているため、重要度が「A」のファイルに対するユーザからのアクセスが発生し易い時間帯に、そのファイルが格納されたRAIDグループ52を常に通常モードで稼働することができる。かくするにつき、重要度が「A」のファイルへのアクセス速度が低下するのを防止しながら省電力化を図ることができる。
(4)他の実施の形態
なお上述の実施の形態においては、重要度を「A」〜「C」の3段階とするようにした場合について述べたが、本発明はこれに限らず、2段階又は4段階以上にするようにしても良い。
また上述の実施の形態においては、GNSサーバ3を用いて複数のNASサーバ4を一元化するようにした場合について述べたが、本発明はこれに限らず、例えば複数の異なるRAIDグループ52に配置されたファイルシステムをNASサーバ4のファイルシステムプログラム61(図2)によって一元化するようにしても良い。
具体的には、上述の実施の形態においてGNSサーバ3で管理していたファイル管理テーブル84(図8)を1つのNASサーバ4のファイルシステムプログラム61で管理し、クライアント/ホスト2から受け取ったファイル単位のI/O要求をファイルシステムプログラム61が、ファイル管理テーブル84を参照して、実際にファイルが格納されているファイルシステムを特定し、アクセス処理を実行するようにすれば良い。この構成においても本発明を適用し、実施の形態と同様の効果を得ることができる。なお、この場合、ホストはそのNASサーバ4に集約されるので、ファイル管理テーブル84のホスト名欄84B(図8)を省略することができる。ただし、このホスト名欄84Bを残しておくことによって、階層ファイルシステムをGNSへ変換する場合に利用することができ、ファイル管理テーブル84の供用ができ、移行の手間を省くことができる。
さらに上述の実施の形態においては、重要度が「B」のファイルを、そのファイルに対するユーザからのアクセスパターンと最も近い省電力スケジュールが設定されたファイルグループにそのファイルを振り分けるようにした場合について述べたが、本発明はこれに限らず、重要度が「B」のファイルについても、重要度が「C」のファイルと同様に、システムの都合に合わせていずれかのファイルグループに振り分けるようにしても良い。
さらに上述の実施の形態においては、重要度が「C」のファイルの振り分けを、ファイルシステムの残容量又は負荷分散に基づく観点から行うようにした場合について述べたが、本発明はこれに限らず、この他のシステムの都合に応じていずれかのファイルシステムに振り分けるようにしても良い。
本発明は、種々の構成の計算機システムに広く適用することができる。
本実施の形態による計算機システムのハードウェア構成を示すブロック図である。 本実施の形態による計算機システムのソフトウェア構成を示すブロック図である。 ファイルシステムの説明に供する概念図である。 ディレクトリエントリの構成例を示す概念図である。 iノードによるデータブロックの参照例を示す概念図である。 iノード管理テーブルとiノードとの関係を示す概念図である。 GNSサーバによりクライアントに提供されるディレクトリイメージの一例を示す概念図である。 ファイル管理テーブルの構成を示す概念図である。 GNSの処理の流れの説明に供するブロック図である。 ファイル別アクセス時間帯テーブルの構成を示す概念図である。 ファイルグループ管理テーブルの構成を示す概念図である。 省電力スケジュール管理テーブルの構成を示す概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 アクセスログの説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 (A)〜(D)は、本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 (A)〜(C)は、本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 (A)〜(C)は、本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 (A)及び(B)は、本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 本実施の形態による省電力制御機能に関する各種処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 ファイルグループ化処理の説明に供する概念図である。 重要度がCのファイルの振分け方法の説明に供する図表である。 重要度がCのファイルの振分け方法の説明に供する図表である。 重要度がCのファイルの振分け方法の説明に供する概念図である。 移行方法選択処理の処理手順を示すフローチャートである。 第1のファイル移行処理の処理手順を示すフローチャートである。 第2のファイル移行処理の処理手順を示すフローチャートである。 省電力制御処理の処理手順を示すフローチャートである。
1……計算機システム、2……クライアント/ホスト、3……GNSサーバ、4……NASサーバ、5……管理サーバ、8……RAIDサブシステム、10,20,30,40……CPU、11,21,31,41……メモリ、50……ディスク装置、52……RAIDグループ、90……移行方法選択プログラム、91……第1のファイル移行処理プログラム、92……第2のファイル移行処理プログラム、93……省電力制御プログラム、100……ファイル別アクセス時間帯テーブル、101……ファイルグループ管理テーブル、102……省電力スケジュール管理テーブル。

Claims (5)

  1. NAS(Network Attached Storage)サーバと、
    それぞれ別個に省電力制御可能な複数のRAID(Redundant Arrays of Independent Disks)グループを形成する複数の記憶装置を有するストレージ装置と、
    管理サーバと、
    を有し、
    前記NASサーバは、
    複数の第1のファイルと、前記第1のファイルよりも重要度が低い複数の第2のファイルと、を管理し、
    前記管理サーバは、
    前記複数の第1のファイルの各々の第1のアクセスパターンに基づいて、前記複数の第1のファイルのうち1以上の第1のファイルが含まれるファイルグループを形成し、
    前記複数の第2のファイルの各々の第2のアクセスパターンと、前記ファイルグループに含まれる1以上の第1のファイルにアクセスがある時間帯及びない時間帯を示す第3のアクセスパターンとに基づいて、前記複数の第2のファイルのうち1以上の第2のファイルを前記ファイルグループに割り当て、
    前記ストレージ装置は、
    前記ファイルグループに割り当てられた複数のファイルのデータを、前記複数のRAIDグループのうち前記ファイルグループに対応する第1のRAIDグループに移行する第1のファイル移行処理を実行し、
    前記NASサーバは、
    前記第3のアクセスパターンが示すアクセスがある時間帯の場合、前記第1のRAIDグループを通常モードで運用し、前記第3のアクセスパターンが示すアクセスがない時間帯の場合、前記第1のRAIDグループを省電力モードで運用し、前記第3のアクセスパターンが示さない時間帯においてアクセスがある場合、前記アクセスを契機として、前記第1のRAIDグループを通常モードにする、
    ことを特徴とするシステム。
  2. 前記管理サーバは、
    前記ファイルグループを含む複数のファイルグループを管理し、
    前記複数の第2のファイルよりも重要度が低い第3のファイルを、前記複数のRAIDグループの容量に基づいて、前記複数のファイルグループのうちいずれかのファイルグループに割り当てる、
    ことを特徴とする請求項1に記載のシステム。
  3. 前記管理サーバは、
    前記ファイルグループを含む複数のファイルグループを管理し、
    前記第1のファイル移行処理を実行してから所定の時間が経過していない場合、新たなファイルを前記複数のファイルグループのうちいずれかのファイルグループに割り当て、
    前記ストレージ装置は、
    前記新たなファイルのデータを前記割り当てられたファイルグループに対応付けられ前記複数のRAIDグループに含まれるRAIDグループに移行する第2のファイル移行処理を実行する、
    ことを特徴とする請求項1に記載のシステム。
  4. 前記管理サーバは、
    新たなファイルに前記複数の第1のファイルと同じ重要度が設定されており、新たなファイルのアクセスパターンと前記ファイルグループの前記第3のアクセスパターンとの一致する時間帯が閾値以上の場合には、新たなファイルグループを作成する、
    ことを特徴とする請求項1に記載のシステム。
  5. 前記管理サーバは、
    前記新たなファイルのアクセスパターンと、前記ファイルグループの前記第3のアクセスパターンとの一致する時間帯が閾値より多い場合に、前記新たなファイルを前記ファイルグループに割り当てる、
    ことを特徴とする請求項4に記載のシステム。
JP2009122943A 2009-05-21 2009-05-21 省電力制御装置及び方法 Expired - Fee Related JP5250482B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009122943A JP5250482B2 (ja) 2009-05-21 2009-05-21 省電力制御装置及び方法
US12/504,466 US8645737B2 (en) 2009-05-21 2009-07-16 Power-saving control apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009122943A JP5250482B2 (ja) 2009-05-21 2009-05-21 省電力制御装置及び方法

Publications (2)

Publication Number Publication Date
JP2010271901A JP2010271901A (ja) 2010-12-02
JP5250482B2 true JP5250482B2 (ja) 2013-07-31

Family

ID=43125358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009122943A Expired - Fee Related JP5250482B2 (ja) 2009-05-21 2009-05-21 省電力制御装置及び方法

Country Status (2)

Country Link
US (1) US8645737B2 (ja)
JP (1) JP5250482B2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8683250B2 (en) * 2009-06-25 2014-03-25 International Business Machines Corporation Minimizing storage power consumption
JP5750981B2 (ja) * 2010-06-24 2015-07-22 株式会社リコー 画像処理装置及びその制御方法
GB2506623A (en) * 2012-10-04 2014-04-09 Ibm Managing user files in a tiered storage system
US9152490B2 (en) * 2013-04-02 2015-10-06 Western Digital Technologies, Inc. Detection of user behavior using time series modeling
US9971796B2 (en) * 2013-04-25 2018-05-15 Amazon Technologies, Inc. Object storage using multiple dimensions of object information
JP6183034B2 (ja) * 2013-07-30 2017-08-23 富士通株式会社 アクセス制御プログラム、アクセス制御方法およびシステム
EP3026545B1 (en) 2013-08-09 2019-02-20 Huawei Technologies Co., Ltd. File processing method and storage device
US9477679B2 (en) * 2013-09-20 2016-10-25 Google Inc. Programmatically choosing preferred storage parameters for files in large-scale distributed storage systems
GB2519804A (en) * 2013-10-31 2015-05-06 Nec Corp Power saving in mobile radio communications device
US10019362B1 (en) 2015-05-06 2018-07-10 American Megatrends, Inc. Systems, devices and methods using solid state devices as a caching medium with adaptive striping and mirroring regions
US10089227B1 (en) 2015-05-06 2018-10-02 American Megatrends, Inc. Systems, devices and methods using a solid state device as a caching medium with a write cache flushing algorithm
US10108344B1 (en) * 2015-05-06 2018-10-23 American Megatrends, Inc. Systems, devices and methods using a solid state device as a caching medium with an SSD filtering or SSD pre-fetch algorithm
US10055354B1 (en) 2015-05-07 2018-08-21 American Megatrends, Inc. Systems, devices and methods using a solid state device as a caching medium with a hashing algorithm to maintain sibling proximity
US10176103B1 (en) 2015-05-07 2019-01-08 American Megatrends, Inc. Systems, devices and methods using a solid state device as a caching medium with a cache replacement algorithm
US10114566B1 (en) 2015-05-07 2018-10-30 American Megatrends, Inc. Systems, devices and methods using a solid state device as a caching medium with a read-modify-write offload algorithm to assist snapshots
JP2017068451A (ja) * 2015-09-29 2017-04-06 富士通株式会社 プログラム、パターン送信方法、共有コンテンツ制御システム及び情報処理装置
US11726979B2 (en) 2016-09-13 2023-08-15 Oracle International Corporation Determining a chronological order of transactions executed in relation to an object stored in a storage system
US10733159B2 (en) 2016-09-14 2020-08-04 Oracle International Corporation Maintaining immutable data and mutable metadata in a storage system
US10860534B2 (en) 2016-10-27 2020-12-08 Oracle International Corporation Executing a conditional command on an object stored in a storage system
US10956051B2 (en) * 2016-10-31 2021-03-23 Oracle International Corporation Data-packed storage containers for streamlined access and migration
US10169081B2 (en) 2016-10-31 2019-01-01 Oracle International Corporation Use of concurrent time bucket generations for scalable scheduling of operations in a computer system
US10180863B2 (en) 2016-10-31 2019-01-15 Oracle International Corporation Determining system information based on object mutation events
US10275177B2 (en) 2016-10-31 2019-04-30 Oracle International Corporation Data layout schemas for seamless data migration
US10437799B2 (en) * 2016-12-02 2019-10-08 International Business Machines Corporation Data migration using a migration data placement tool between storage systems based on data access
US10437800B2 (en) * 2016-12-02 2019-10-08 International Business Machines Corporation Data migration using a migration data placement tool between storage systems based on data access
US11675413B2 (en) * 2020-09-30 2023-06-13 Dell Products L.P. Reducing power consumption of memory devices at an information handling system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4042359B2 (ja) * 2001-07-10 2008-02-06 日本電気株式会社 キャッシュ制御方法及びキャッシュ装置
JP4322031B2 (ja) * 2003-03-27 2009-08-26 株式会社日立製作所 記憶装置
JP4682549B2 (ja) * 2004-07-09 2011-05-11 富士ゼロックス株式会社 分類案内装置
US7533230B2 (en) * 2004-10-13 2009-05-12 Hewlett-Packard Developmetn Company, L.P. Transparent migration of files among various types of storage volumes based on file access properties
US7529903B2 (en) * 2005-07-05 2009-05-05 International Business Machines Corporation Systems and methods for memory migration
JP2007164650A (ja) * 2005-12-16 2007-06-28 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法
JP5008955B2 (ja) 2006-11-28 2012-08-22 株式会社日立製作所 節電機能を備えたストレージシステム
JP2008225772A (ja) 2007-03-12 2008-09-25 Hitachi Ltd ストレージシステム及び省電力化のための管理情報取得方法
JP5046725B2 (ja) * 2007-04-24 2012-10-10 株式会社日立製作所 ボリューム割り当て管理装置
JP5090098B2 (ja) * 2007-07-27 2012-12-05 株式会社日立製作所 Nasの消費電力を削減する方法及びその方法を用いた計算機システム
US8006111B1 (en) * 2007-09-21 2011-08-23 Emc Corporation Intelligent file system based power management for shared storage that migrates groups of files based on inactivity threshold

Also Published As

Publication number Publication date
US8645737B2 (en) 2014-02-04
US20100299547A1 (en) 2010-11-25
JP2010271901A (ja) 2010-12-02

Similar Documents

Publication Publication Date Title
JP5250482B2 (ja) 省電力制御装置及び方法
US11314421B2 (en) Method and system for implementing writable snapshots in a virtualized storage environment
US6895467B2 (en) System and method for atomizing storage
JP7053682B2 (ja) データベーステナントマイグレーションのシステム及び方法
US7467268B2 (en) Concurrent data restore and background copy operations in storage networks
US8533419B2 (en) Method for controlling data write to virtual logical volume conforming to thin provisioning, and storage apparatus
JP4772569B2 (ja) 共通名前空間においてディレクトリ単位のマイグレーションを実行するシステム及び方法
US7478177B2 (en) System and method for automatic reassignment of shared storage on blade replacement
US8433848B1 (en) Analysis tool for a multi-tier storage environment
JP5608016B2 (ja) オブジェクト単位階層の管理方法及び装置
EP1818795A2 (en) Storage system, data processing method and storage apparatus
US20120102011A1 (en) Storage System and Method of Managing a Storage System Using a Management Apparatus
US20060106893A1 (en) Incremental backup operations in storage networks
WO2011145132A1 (en) Computing system and data management method
US8726261B2 (en) Zero downtime hard disk firmware update
US9218138B1 (en) Restoring snapshots to consistency groups of mount points
JP5207367B2 (ja) ストレージシステムの消費電力を削減する計算機システム及びその制御方法
US9075755B1 (en) Optimizing data less writes for restore operations
JP2009282800A (ja) ストレージ装置及びその制御方法
WO2010106694A1 (en) Data backup system and data backup method
WO2014083620A1 (ja) ストレージ装置及び階層制御方法
JP2009230367A (ja) 情報処理装置及び情報処理方法
US11755557B2 (en) Flat object storage namespace in an object storage system
JP2010267156A (ja) 計算機システム及び管理方法
JP2008186141A (ja) データ管理方法、データ管理プログラム、データ管理システム、および、構成管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees