CN1920763A - 存储系统 - Google Patents

存储系统 Download PDF

Info

Publication number
CN1920763A
CN1920763A CNA2006100586329A CN200610058632A CN1920763A CN 1920763 A CN1920763 A CN 1920763A CN A2006100586329 A CNA2006100586329 A CN A2006100586329A CN 200610058632 A CN200610058632 A CN 200610058632A CN 1920763 A CN1920763 A CN 1920763A
Authority
CN
China
Prior art keywords
file management
logical block
load
storage system
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006100586329A
Other languages
English (en)
Other versions
CN100440125C (zh
Inventor
永松和重
涩谷广二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN1920763A publication Critical patent/CN1920763A/zh
Application granted granted Critical
Publication of CN100440125C publication Critical patent/CN100440125C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

提出一种存储系统,其可以不给主机系统施加高负荷,进行以文件为单位的批处理,并且,可以分散存储系统的负荷。存储系统(10),具有:多个逻辑单元(120,130,140);文件管理应用软件(200),其对在各个逻辑单元(120,130,140)中存储的多个文件以文件为单位进行文件管理;负荷监视模块(310),其对存储系统(10)的资源的负荷进行监视;和文件管理控制模块(300),其根据负荷监视模块(310)监视的负荷,对文件管理应用软件(200)进行控制。

Description

存储系统
技术领域
本发明涉及一种存储系统,特别地涉及适用于文件管理的存储系统。
背景技术
在特开2003-208362号公报中,公开了具有数据块I/O接口和文件I/O接口的SAN/NAS集成存储系统。数据块I/O接口处理磁盘数据块单位的I/O请求(数据块存取请求)。FC(Fiber Channel)、SCSI(Small Computer SystemInterface)、iSCSI(internet SCSI)、ESCON(Enterprise System Connection:注册商标)等,属于数据块I/O接口。多个主机系统和多个存储系统通过光纤通道等的数据块I/O接口相互连接的系统,称为SAN(Storage Area Network)。
另一方面,文件I/O接口,对基于文件传输协议的文件单位的I/O请求(文件存取请求)进行处理。作为文件服务器和客户机之间的文件传输协议,已知有NFS(Network File System)、CIFS(Common Interface File System)等。通过文件I/O接口,能够与IP(Internet Protocol)网络等网络相连接的存储系统,称为NAS(Network Attached Storage)。
SAN/NAS集成存储系统,通过SAN或IP网络等从多个主机系统接受I/O请求。
传统上,主机系统对存储系统内的磁盘驱动器进行病毒检查或数据备份等的以文件为单位的批处理。
【特许文献1】特开2003-208362号公报
然而,主机系统为了进行这样的文件单位的批处理,需要将磁盘驱动器内的文件全部读出,因此,主机系统的负荷就变得非常重。若主机系统在进行这样的负荷繁重的处理的同时,还提供电子邮件等应用服务,则应用服务的处理性能会降低。
另外,在通过SAN或IP网络等与多个主机系统连接的SAN/NAS集成存储系统中,多个主机系统有时会在相同时间段进行所述的文件单位的批处理,对存储系统的负荷集中。若在存储系统中负荷集中,则存储系统自身的处理性能也降低。
发明内容
因此,本发明的课题是:提出一种存储系统,该系统解决这样的问题,可以不给主机系统施加高负荷,进行以文件为单位的批处理,并且,可以分散存储系统的负荷。
为了解决所述问题,本发明的存储系统,具有:多个逻辑单元;文件管理应用软件,其对各逻辑单元中存储的多个文件以文件单位进行文件管理;负荷监视模块,其监视存储系统的资源的负荷;文件管理控制模块,其根据负荷监视模块监视的负荷,控制文件管理应用软件。文件管理控制模块,根据存储系统的资源的负荷,控制文件管理应用软件,因此可以分散存储系统的负荷。
作为文件管理应用软件,存储系统的资源的负荷加重的处理,例如,对多个文件一起进行文件管理的应用软件是合适的。由存储系统代替主机系统来执行这样的负荷重的处理,因此,可以降低主机系统的负荷。
作为资源的负荷,例如,可以使用各个逻辑单元的I/O负荷。
作为本发明的适宜的实施方式,存储系统还具有:文件管理表,其对各个逻辑单元的文件管理的优先顺序,各个逻辑单元的I/O负荷,以及各个逻辑单元的文件管理的执行顺序进行管理。文件管理控制模块,提前I/O负荷在所规定的阈值以下的逻辑单元的文件管理的优先顺序,来决定执行顺序。文件管理的优先顺序,例如,可以由管理者预先设定。通过根据文件管理的优先顺序和逻辑单元的I/O负荷决定文件管理的执行顺序,可以使资源的负荷分散。
文件管理控制模块,进行文件管理应用软件的启动/停止控制、作为文件管理的对象的逻辑单元的安装/卸下控制、以及文件管理的恢复控制。
文件管理控制模块,当逻辑单元的I/O负荷达到或超过规定的阈值时,卸下逻辑单元,暂时中断逻辑单元的文件管理。由此,通过推迟高负荷的逻辑单元的文件管理,可以使资源的负荷分散。
文件管理控制模块,当逻辑单元的I/O负荷未达到规定的阈值时,再次安装已卸下的逻辑单元,重新开始逻辑单元的文件管理。
文件管理控制模块,当中断逻辑单元的文件管理的次数达到或超过规定的阈值时,也可以中止逻辑单元的文件管理,而进行其它逻辑单元的文件管理。
所谓中断文件管理的次数达到或超过规定的阈值,可以认为该逻辑单元一直处于高负荷状态,因此理想的是优先进行其它逻辑单元的文件管理。
作为本发明的适宜的实施方式,存储系统,还具有:一个或者多个数据块I/O接口,和一个或者多个文件I/O接口。通过数据块I/O接口,提供多个逻辑单元中的某一个逻辑单元给FC-SAN或iSCSI客户机等SAN客户机;通过文件I/O接口,提供多个逻辑单元中的其它逻辑单元给NAS客户机。
文件管理应用软件、负荷监视模块、文件管理控制模块,最好安装在,例如,文件I/O接口。
文件I/O接口,当文件I/O接口的负荷达到或超过规定的阈值时,通过其它文件I/O接口或者数据块I/O接口装载逻辑单元,控制文件管理。由此,可以使存储系统的负荷分散。
存储系统,响应来自SAN客户机或NAS客户机的请求,进行I/O处理,在其后台,进行文件管理。如上所述,通过分散存储系统的资源的负荷,可以响应来自主机系统的基于通常业务的I/O请求,也可以同时合理地进行文件管理。
理想的是,文件管理控制模块向管理者发送电子邮件,通知文件管理的处理结果。例如,逻辑单元因高负荷而中断文件管理的报告,或者病毒检查的结果、发现病毒的报告等。
作为文件管理应用软件,例如,可以使用病毒检查软件、或者备份软件等。
通过本发明,可以不给主机系统施加高负荷,进行以文件为单位的批处理,并且,可以分散存储系统的负荷。
附图说明
图1是本实施方式的存储系统的系统构成图;
图2是本实施方式的存储系统的存储层次的说明图;
图3是以本实施方式的存储系统的文件管理功能为中心的功能框图;
图4是文件管理表的说明图;
图5是阈值管理表的说明图;
图6是LU管理表的说明图;
图7是规则管理表的说明图;
图8是病毒检测列表的说明图;
图9是表示病毒检查的主程序的流程图;
图10是表示病毒检查的主程序的流程图;
图11是表示病毒检查的主程序的流程图;
图12是表示病毒检查的主程序的流程图;
图13是进行NAS处理器的负荷检查的子程序的流程图;
图14是进行连接路径检查的子程序的流程图;
图15是进行LU负荷检查的子程序的流程图;
图16是表示文件管理表的状态迁移的说明图。
符号说明
10存储系统  20,30,40通道适配器  21,31,41端口
42NAS处理器  43存储控制器  50相互结合网  51超高速缓冲存储器
52共享存储器  60磁盘适配器  70存储控制装置
80存储装置  81存储设备  100奇偶组  110逻辑设备
120,130,140  逻辑单元  300文件管理控制模块
310负荷监视模块  320NAS操作系统  400文件管理表
具体实施方式
以下,参照各图,就本发明的实施方式进行说明。
图1表示本实施方式的存储系统10的系统构成。存储系统10是,通过FC-SAN(Fiber Channel Storage Area Network)500,与主机系统700连接,同时,通过IP网络600,与主机系统800以及邮件服务器900连接的SAN/NAS集成存储系统。
主机系统700,是根据光纤通道协议等,向存储系统10进行数据块存取请求的SAN客户机。主机系统800是,根据NFS或CIFS等的文件传输协议,向存储系统10进行文件存取请求的NAS客户机。在主机系统700、800上,例如,安装有Web应用软件、流应用软件、电子商务应用软件等。主机系统700、800是,个人计算机、工作站、大型计算机等。在主机系统700,800中,可以是Windows(注册商标)系统和UNIX(注册商标)系统混合存在。邮件服务器900,将存储系统10的文件管理的处理结果通知给管理者。
存储系统10,具有存储控制装置70和存储装置80。存储控制装置70,具有:多个通道适配器20,30,40;相互结合网50;超高速缓冲存储器51;共享存储器52以及多个磁盘适配器60。存储装置80,具有多个存储设备81。
通道适配器(CHA)20,具有与FC-SAN500连接的多个端口21,向主机系统提供基于光纤通道协议的数据块I/O接口(SAN接口)。通道适配器(CHI)30,具有与IP网络600相连接的多个端口31,向主机系统800提供基于iSCSI(internet Small Computer System Interface)的数据块I/O接口(iSCSI接口)。通道适配器40,具有与FC-SAN500或者IP网络600相连接的多个端口41,向主机系统700、800提供基于文件传输协议的文件I/O接口(NAS接口)。
通道适配器40,还具有NAS处理器42和存储控制器43。NAS处理器42,是用来响应来自主机系统700、800的文件存取请求、进行文件存取处理的专用处理器。通过NAS处理器42的文件存取处理,通道适配器40,作为文件服务器工作。存储控制器43,作为针对文件存取请求的响应,向存储设备81进行I/O请求。存储控制器43,在其与高速缓冲存储器51、共享存储器52以及磁盘适配器60之间进行数据或命令的发送和接收。
通道适配器20、30、40,作为将安装有CPU和存储器的一块或多块电路基板做成一体化的计算机系统(适配器板)而构成。
在本说明书中,为了便于说明,通道适配器20,30,40有时分别另称作CHA,CHI,CHN。
磁盘适配器(DKA)60控制向存储设备81的数据的读写。磁盘适配器60响应来自主机系统700,800的写命令,将写数据写入规定的存储设备81的规定的地址。另外,磁盘适配器60响应来自主机系统700,800的读命令,从规定的存储设备81中读取数据。磁盘适配器在向存储设备81进行数据读写时,将逻辑地址转换为物理地址。按照RAID结构对存储设备81进行管理的情况下,磁盘适配器60进行对应于RAID级别的数据存取。
磁盘适配器60,作为将安装有CPU和存储器的一块或多块电路基板做成一体化的计算机系统(适配器板)而构成。
高速缓冲存储器51,暂时存储从主机系统700,800接收到的数据,或者 暂时存储从存储设备81读出的数据。
共享存储器52,存储存储系统10的构成信息和负荷信息,或者存储在通道适配器20,30,40和磁盘适配器之间发送/接收的各种命令。
例如,通道适配器20,30,40从主机系统700,800接收到写命令时,将该写命令写入共享存储器52,同时,将从主机系统700,800接收到的写数据写入高速缓冲存储器。另一方面,磁盘适配器60对共享存储器52进行持续监视,当检测出共享存储器52中写入写命令时,按照该写命令,从高速缓冲存储器51读出脏数据,将其转储到存储设备81中。
另外,通道适配器20,30,40,当从主机系统700,800接收到读命令时,检测高速缓冲存储器51中是否存在读数据。在此,若高速缓冲存储器中存在读数据的话,通道适配器20,30,40,从高速缓冲存储器51中读取读数据,发送到主机系统700,800。另一方面,当高速缓冲存储器中不存在读数据时,通道适配器20,30,40,将读命令写入共享存储器52。磁盘适配器60,持续监视共享存储器52,若检测出读数据已写入到共享存储器52,则磁盘适配器将读数据从存储设备81读出,将其写入高速缓冲存储器51,同时,将读数据已写入高速缓冲存储器51的旨意写入共享存储器52。这样一来,通道适配器20,30,40,检测出作为读取对象的数据已被写入高速缓冲存储器51,从高速缓冲存储器51中读出该读数据,发送到主机系统700,800。
相互结合网50,将通道适配器20,30,40,高速缓冲存储器51,共享存储器52以及磁盘适配器60相互连接。相互结合网50是,例如,像通过高速开关动作进行数据传输的超高速纵横制开关等那样的高速总线。
存储设备81是,例如,像硬盘驱动器、软盘驱动器、磁带驱动器、半导体存储器、光盘驱动器等那样的物理设备。在存储装置80中,也可以像FC盘或SATA(Serial AT Attachment)盘等那样,让不同种类的盘混合存在。
图2表示的是存储系统10的存储层次。与图1中所示符号相同的符号的设备表示相同的设备,因此省略它们的详细说明。
奇偶组100,例如,通过将4个存储设备81作为一组分组(3D+1P),或者将8个存储设备81作为一组分组(7D+1P)而构成。即,将多个存储设备81的各自提供的存储区域集合起来构成一个奇偶组100。奇偶组100也可以被另称为RAID组或者ECC组。
通过将一个奇偶组100分割成多个,也可以形成多个逻辑设备(LDEV)110,或者也可以将多个奇偶组100集合起来形成一个逻辑设备110。
逻辑单元(LU)120,130,140被分别映射到各个端口21,31,41。逻辑单元120,130,140是主机系统700,800识别的逻辑上的存储单位。例如,当主机系统700,800是UNIX(注册商标)系列的系统时,逻辑单元120,130,140与设备文件(Device File)对应。或者,当主机系统700,800是Windows(注册商标)系列的系统时,逻辑单元120,130,140与驱动器字母(驱动器名称)相对应。对各个逻辑单元120,130,140,分配固有的LUN(Logical Unit Number)。
一个或者多个逻辑设备110被映射到各个逻辑单元120,130,140。在主机系统700,800是开放系统的情况下,主机系统700,800将逻辑设备110作为一个物理设备来识别,通过指定LUN或逻辑数据块地址,对所希望的逻辑设备110进行存取。在主机系统700,800是大型机系统的情况下,主机系统700,800直接识别逻辑设备110。
图3表示的是以存储系统10的文件管理功能为中心的功能框图。与在图1中所示符号相同的符号的设备表示相同的设备,因此省略它们的详细说明。
NAS处理器42使文件管理控制模块300和负荷监视模块310在NAS操作系统320上工作,来控制文件管理应用软件200。文件管理应用软件200对各个逻辑单元120,130,140中存储的多个文件以文件单位进行文件管理。作为文件管理应用软件,例如,有以文件为单位进行病毒检查的病毒检查软件210,或者以文件为单位进行数据备份的备份软件220等。
负荷监视模块310,对存储系统10的资源的负荷进行监视。作为资源负荷信息,例如,有NAS处理器42的处理器使用率,存储控制器43的处理器使用率,通道适配器20、30、40的处理器使用率,磁盘适配器60的处理器使用率,奇偶组100的I/O负荷,逻辑设备110的I/O负荷,逻辑单元120、130、140的I/O负荷,端口21、31、41的I/O负荷,高速缓冲存储器51的利用率或高速缓存命中率,相互结合网络50的使用率等。作为I/O负荷,可以列举出,例如,I/O率(单位时间的I/O数)或输入、输出数据的数据大小等。这些的资源负荷信息,存储在共享存储器52中。负荷监视模块310,可以从共享存储器52取得资源负荷信息。
文件管理控制模块300,参照文件管理表400、阈值管理表410、LU管理表420、规则管理表430以及病毒检测列表440,来控制文件管理应用软件200。文件管理控制模块300,从负荷监视模块310中取得资源负荷信息,控制文件管理应用软件200的启动/停止,或者改变NAS处理器42中安装的逻辑单元,以使存储系统10的各资源的负荷被均等地分散。文件管理控制模块300,当作为文件管理的对象的逻辑单元的I/O负荷升高,或者NAS处理器42的负荷升高时,将文件管理的中间过程记录在文件管理表400中,暂时停止文件管理。此后,当逻辑单元的I/O负荷降低,或者NAS处理器42的负荷降低时,重新开始进行文件管理(恢复功能)。
此外,存储系统10对来自主机系统700,800的通常业务的I/O请求进行响应,在其后台使文件管理控制模块300工作,控制各逻辑单元120,130,140的文件管理。
图4表示文件管理表400。文件管理表400,是用来在对每个逻辑单元管理文件管理的执行顺序的同时,对用来通过恢复功能重新开始文件管理的标识信息等进行管理的表。在文件管理表400的各记录中,设有对管理号码401,LUN402,优先顺序403,负荷状态404,执行顺序405,执行结果406,重新开始标识407,跳越数408以及LU类别409进行存储的栏。
管理号码401,是用来对文件管理表400的各记录进行管理的号码。LUN402表示作为文件管理对象的逻辑单元的LUN。优先顺序403是用户指定的文件管理的优先顺序。负荷状态404表示逻辑单元的负荷状态,在该栏内,逻辑单元的I/O负荷达到或超过阈值时记录【1】,逻辑单元的I/O负荷未达到阈值时记录【0】。对逻辑单元的负荷状态进行判断的阈值,使用阈值管理表410的阈值414或415。
执行顺序405表示文件管理的执行顺序。在用户指定的优先顺序403上加入了逻辑单元的负荷状态404的基础上,决定执行顺序405。例如,负荷状态为【0】和【1】的逻辑单元混合存在的情况下,与负荷状态为【1】的逻辑单元相比,优先提前负荷状态为【0】的逻辑单元的顺序。由此,可以使负荷轻的逻辑单元优先进行文件管理,适度地分散资源的负荷。执行结果406,表示文件管理的完成比例。在该栏中,若逻辑单元内的全部的文件管理结束,则记录100%的值,文件管理未进行的情况下,记录0%。初始值是0%。重新开始标识407是用于通过恢复功能重新开始文件管理的标识信息。跳越数408表示中途中断文件管理的次数。文件管理的执行过程中,若逻辑单元的I/O负荷增高,则暂时中断文件管理。LU类别409,表示与逻辑单元连接的接口的类别(CHA,CHI,CHN)。
图5表示阈值管理表410。阈值管理表410存储对各资源的负荷状态进行判断的阈值411~415。阈值411是作为判断NAS处理器42的负荷状态是否为高负荷的基准的CPU使用率的阈值。阈值412是作为判断存储控制器43的负荷状态是否为高负荷的基准的处理器使用率的阈值。阈值413是作为判断CHA,CHI的负荷状态是否为高负荷的基准的处理器使用率的阈值。阈值414是作为判断各奇偶组100的负荷状态是否为高负荷的基准的I/O率的阈值。阈值415是作为判断各逻辑单元120,130,140的负荷状态是否为高负荷的基准的I/O率的阈值。
图6表示LU管理表。LU管理表,是用来管理各逻辑单元的表。在LU管理表420的各记录中,设有存储LUN421,连接主机名422,管理者电子邮件地址423,连接I/F424,奇偶组425、426、427的栏。LUN421表示作为文件管理的对象的逻辑单元的LUN。连接主机名422表示与管理对象的逻辑单元连接的主机系统700、800的名称。管理者电子邮件地址423是管理逻辑单元的管理者的电子邮件地址。连接I/F424表示与逻辑单元相连接的接口的类别(CHA,CHI,CHN)。奇偶组425,426,427表示映射到管理对象的逻辑单元上的奇偶组。
图7表示规则管理表430。规则管理表430是用于规定文件管理的规则的表。在规则管理表430中,设有存储等待时间431,等待时间432,阈值433以及文件数434的栏。等待时间431、432,在执行NAS处理器42的负荷检查子程序(图13,图14)后,规定用于对NAS处理器42的负荷再次进行检查的间隔。对于NAS处理器42的负荷检查子程序,在后面进行阐述。阈值433表示中断文件管理的次数的阈值。如果中断文件管理的次数超过该阈值,例如,则会将文件管理是未完成的意思通过电子邮件通知给管理者。文件数434表示一次进行文件管理的文件数。
图8表示病毒检测列表440。病毒检测列表440是用于对病毒信息进行管理的列表。在病毒检测列表440中,设有存储文件路径441和病毒名442的栏。文件路径441表示感染了病毒的文件的文件路径。病毒名442表示检测出的病毒的名称。
接下来,参照图9至图15,就由文件管理控制模块300执行的文件管理方法进行说明。在此,作为文件管理的一例,举例说明病毒检查,但是,本发明不仅限于此,可以适用于以文件为单位对多个文件进行批处理的文件管理(例如,以文件为单位的数据备份)。图9至图12表示病毒检查的主程序,图13至图15表示病毒检查的子程序。
首先,参照图9。文件管理控制模块300,调用病毒检查的主程序,对NAS处理器42的负荷进行检查(S101)。在该负荷检查中,调用图13的子程序,来检查NAS处理器的CPU使用率(S201)。接下来,比较该CPU使用率和阈值表410的阈值411(S202)。当该CPU使用率达到或超过阈值411时(S202;YES),等待经过规则管理表430的等待时间431(S203),返回S201。另一方面,在CPU使用率未达到阈值的情况下(S202;NO),退出该子程序。
接下来,文件管理控制模块300,读入文件管理表400(S102)。在此读入的文件管理表400,如图16(A)所示,是初始状态的表,虽然文件管理的优先顺序403已确定,但负荷状态404和执行顺序405处于未确定状态。
接下来,文件管理控制模块300,检查全部的逻辑单元的I/O负荷,在文件管理表400的负荷状态404的栏中记录【0】或者【1】(S103)。作为逻辑单元的I/O负荷,在使用奇偶组100的I/O率的情况下,文件管理控制模块300比较奇偶组100的I/O率和阈值管理表410的阈值414,当前者比后者小时,在负荷状态404的栏中记录【0】,当前者和后者相同或者超过后者时,在负荷状态404的栏中记录【1】。作为逻辑单元的I/O负荷,在使用各逻辑单元120,130,140的I/O率的情况下,文件管理控制模块300比较各逻辑单元120,130,140的I/O率和阈值管理表410的阈值415,当前者比后者小时,在负荷状态404的栏中记录【0】,当前者和后者相同或超过后者时,在负荷状态404的栏中记录【1】。
另外,当多个奇偶组100集合起来形成一个逻辑单元120,130,140时,通过检查奇偶组100的I/O负荷,可以进行更高精度的负荷检查。
接下来,文件管理控制模块300,决定文件管理的执行顺序(S104)。根据用户指定的优先顺序403和逻辑单元120,130,140的负荷状态404,可以决定文件管理的执行顺序。原则上,按优先顺序403决定执行顺序405,但在负荷状态为【0】的逻辑单元和负荷状态为【1】的逻辑单元混合存在的情况下,优先提前负荷状态为【0】的逻辑单元的顺序。图16(B)表示执行顺序405确定后的文件管理表400。
接下来,文件管理控制模块300从文件管理表400中读入执行顺序405为【1】的记录(S105),检查执行结果406是否是未达到100%(S106)。
而后,当执行结果406是未达到100%时(S106;YES),文件管理控制模块300进行连接路径检查(S107)。在该连接路径检查中,调用图14的子程序,对存储控制器43的处理器使用率进行检查(S301)。接下来,比较该处理器使用率和阈值表410的阈值412(S302)。当处理器使用率达到或超过阈值412时(S302;YES),文件管理控制模块300对其它接口CHA或者CHI的处理器使用率进行检查(S304)。
而后,比较其它接口CHA或者CHI的处理器使用率和阈值表410的阈值413(S305)。当其它接口CHA或者CHI的处理器使用率达到或者超过阈值413时(S305;YES),文件管理控制模块300,等待经过规则管理表430的等待时间432(S307),返回S301。
另一方面,当存储控制器43的处理器使用率未达到阈值412时(S302;NO),NAS处理器42通过存储控制器43安装逻辑单元120、130、140(S303)。退出该子程序。或者,当其它接口CHA或CHI的处理器使用率未达到阈值413时(S305;NO),NAS处理器42通过该其它接口CHA或CHI,安装逻辑单元120、130、140(S306),退出该子程序。
这样,即使当NAS处理器42的负荷高时,在其它接口CHA或CHI的负荷轻的情况下,通过NAS处理器42经由其它接口CHA或者CHI安装逻辑单元120,130,140,可以适度地分散资源的负荷。
接下来,文件管理控制模块300,对成为文件管理的对象的逻辑单元进行负荷检查(S108)。在该负荷检查中,调用图15的子程序,检查成为文件管理的对象的逻辑单元的I/O负荷(S401)。接下来,比较该逻辑单元的I/O负荷和阈值表410的阈值415(S402)。当逻辑单元的I/O负荷达到或者超过阈值415时(S402;YES),在文件管理表400的负荷状态404的栏中记录【1】(S406)。并且,跳越数408增加1(S407),退出该子程序。
另一方面,当逻辑单元的I/O负荷未达到阈值415时(S402;NO),文件管理控制模块300,检查成为文件管理的对象的逻辑单元被映射的奇偶组的I/O负荷(S403)。接下来,比较奇偶组的I/O负荷和阈值表410的阈值414(S404)。当奇偶组的I/O负荷达到或超过阈值414时(S404;YES),文件管理控制模块300在文件管理表400的负荷状态404栏中记录【1】(S406)。
另一方面,当奇偶组的I/O负荷未达到阈值414时(S404;NO),文件管理控制模块300在文件管理表400的负荷状态404栏中记录【0】(S405),退出子程序。
接下来,文件管理控制模块300,检查成为文件管理的对象的逻辑单元的负荷状态404是否为【0】(S109)。如果负荷状态为【0】(S109;YES),文件管理控制模块300,对成为文件管理的对象的文件路径进行列表(S110),检查执行结果406是什么程度(S111)。若执行结果406为0%,文件管理控制模块300,从文件路径的起始处提取出规定数目的文件(S112),进入S116。在此提取出的文件数,与规则管理表430的文件数434相同。
另一方面,如果执行结果406大于0%,且未达到100%,文件管理控制模块300参照文件管理表400的重新开始标识,提取出规定数目的文件(S112),进入S116。
另一方面,当执行结果达到100%时(S106;NO),或者负荷状态404为【1】时(S109;NO),文件管理控制模块300,检查文件管理表400的记录是否为最后的记录(S113)。当不是最后的记录时(S113;NO),文件管理控制模块300读入下一个执行顺序405的记录(S114),进入S106。另一方面,当是最后的记录时(S113;YES),进入S133。
接下来,参照图10。文件管理控制模块300,对从逻辑单元提取出的规定数目的文件集中起来进行病毒检查,若检查出病毒,则在病毒检测列表440的文件路径441的栏中记录感染文件的文件路径,同时,在病毒名442的栏中记录病毒的名称(S116)。
接下来,文件管理控制模块300,对NAS处理器42进行负荷检查(S117)。在该负荷检查中,调用图13的子程序,执行S201至S203的处理。
接下来,文件管理控制模块300,对成为文件管理的对象的逻辑单元进行负荷检查(S118)。在该负荷检查中,调用图15的子程序,执行S301至S307的处理。
接下来,文件管理控制模块300,检查成为文件管理的对象的逻辑单元的负荷状态404是否为【0】(S119)。若负荷状态为【0】(S119;YES),则文件管理控制模块300检查逻辑单元内的全部的文件管理是否结束(S 120)。
文件管理控制模块300,在逻辑单元内的部分文件管理结束的情况下(S120;NO),从进行文件管理的文件路径的剩余处、从头提取出所规定数目的文件(S127),进入S116。
文件管理控制模块300,在逻辑单元内的文件管理全部结束的情况下(S120:YES),检查是否检测出病毒(S121)。文件管理控制模块300,在没有检测出病毒的情况下(S121;NO),进入S129。
文件管理控制模块300,在检测出病毒的情况下(S121;YES),将处理结果(例如,表示检测出病毒的警报)通知到LU管理表420的管理者电子邮件地址423中登记的电子邮件地址(S128),进入S129。
另一方面,如果负荷状态为【0】(S119;YES),文件管理控制模块300,在文件管理表400的重新开始标识407的栏中记录标识信息,同时在执行结果406的栏中记录完成比例(S122)。
接下来,文件管理控制模块300,检查是否检测出病毒(S123)。当检测出病毒时,文件管理控制模块300将处理结果(例如,表示检测出病毒的报警)通知到LU管理表420的管理者电子邮件地址423中记录的电子邮件地址(S126)。
文件管理控制模块300,在没有检测出病毒的情况下(S123;NO),或者通过电子邮件,进行了病毒发现的通知的情况下(S126),检查文件管理表400的记录是否是最后的记录(S124)。
当是最后的记录时(S124;YES),进入S133。当不是最后的记录时(S124;NO),文件管理控制模块300读入下一个执行顺序的记录(S125),进入S106。
接下来,参照图11。文件管理控制模块300,卸下进行文件管理的逻辑单元(S129),在文件管理表400的执行结果406中记录完成比例100%(S130)。
接下来,文件管理控制模块300,检查文件管理表400的记录是否是最后的记录(S131)。当是最后的记录时(S131;YES),结束主程序。当不是最后的记录时(S131;NO),读入下一个执行顺序的记录(S132),进入S106。
接下来,参照图12。文件管理控制模块300,等待经过规定时间(S133),进行NAS处理器42的负荷检查(S134)。在该负荷检查中,调用图13的子程序,执行S201~S203的处理。
接下来,文件管理控制模块300,从文件管理表400中读入执行顺序405为【1】的记录(S135),检查文件管理表400的跳越数408是否比规则管理表430的阈值433少(S136)。在跳越数408比阈值433少的情况下(S136;YES),进入S106。
另一方面,在跳越数408和阈值相同或者超过阈值时(S136;NO),文件管理控制模块300将处理结果(例如,表示逻辑单元因负荷高而无法进行病毒检查的报警)通知到LU管理表420的管理者电子邮件地址423中记录的电子邮件地址(S137)。
接下来,文件管理控制模块300,在文件管理表400的执行结果406中记录完成比例100%(S138),读入下一个执行顺序的记录(S139),进入S106。
通过以上的处理,进行以文件为单位的病毒检查。图16(C)表示病毒检查的中间过程。在此例中表示的是,LUN【01.00】的逻辑单元的执行结果在50%中途结束,LUN【01.03】,【01.04】的逻辑单元的病毒检查为未完成的状态。
通过本实施方式,对负荷轻的逻辑单元优先地进行文件管理,因此可以分散负荷,以使存储系统10的资源不出现局部的高负荷。
另外,通过使用当逻辑单元的负荷增高时暂时中断文件管理、而逻辑单元的负荷减轻时重新开始文件管理的恢复功能,可以适度地分散存储系统10的负荷,可以抑制处理性能的降低。
另外,CHN的负荷高的情况下,NAS处理器42通过CHA或者CHI,安装逻辑单元,进行文件管理,因此可以适度地分散存储系统10的负荷。

Claims (14)

1.一种存储系统,其特征在于,具有:
多个逻辑单元;
文件管理应用软件,其以文件单位对各个逻辑单元中存储的多个文件进
行文件管理;
负荷监视模块,其监视存储系统的资源的负荷;
文件管理控制模块,其根据所述负荷监视模块所监视的负荷,控制所述
文件管理应用软件。
2.根据权利要求1所述的存储系统,其特征在于,所述文件管理应用软件,将所述多个文件集中起来进行文件管理。
3.根据权利要求1所述的存储系统,其特征在于,所述资源的负荷,包含所述各个逻辑单元的I/O负荷。
4.根据权利要求3所述的存储系统,其特征在于,
还具有:文件管理表,其对所述各个逻辑单元的文件管理的优先顺序、所述各逻辑单元的I/O负荷以及所述各逻辑单元的文件管理的执行顺序,进行管理;
所述文件管理控制模块,将I/O负荷在规定的阈值以下的逻辑单元的文件管理的优先顺序提前,来决定所述执行顺序。
5.根据权利要求1所述的存储系统,其特征在于,
所述文件管理控制模块,进行所述文件管理应用软件的启动/停止控制、成为文件管理的对象的逻辑单元的安装/卸下控制,以及所述文件管理的恢复控制。
6.根据权利要求5所述的存储系统,其特征在于,
所述文件管理控制模块,当所述逻辑单元的I/O负荷达到或超过规定的阈值时,安装所述逻辑单元,暂时中断所述逻辑单元的文件管理。
7.根据权利要求6所述的存储系统,其特征在于,
所述文件管理控制模块,当所述逻辑单元的I/O负荷未达到规定的阈值时,再次安装已卸下的所述逻辑单元,重新开始所述逻辑单元的文件管理。
8.根据权利要求7所述的存储系统,其特征在于,
所述文件管理控制模块,当中断所述逻辑单元的文件管理的次数达到或超过规定的阈值时,中止所述逻辑单元的文件管理,进行其它逻辑单元的文件管理。
9.根据权利要求1所述的存储系统,其特征在于,
还具有一个或多个数据块I/O接口以及一个或多个文件I/O接口;
所述多个逻辑单元中的某一个逻辑单元,通过所述数据块I/O接口被提供给SAN客户机,所述多个逻辑单元中的其它逻辑单元,通过所述文件I/O接口被提供给NAS客户机。
10.根据权利要求9所述的存储系统,其特征在于,
所述文件管理应用软件、所述负荷监视模块、所述文件管理控制模块,被安装在了所述文件I/O接口上。
11.根据权利要求9所述的存储系统,其特征在于,
所述文件I/O接口,当所述文件I/O接口的负荷达到或超过规定的阈值时,通过其它的文件I/O接口或者数据块I/O接口安装所述逻辑单元,控制文件管理。
12.根据权利要求9所述的存储系统,其特征在于,
所述存储系统,响应来自所述SAN客户机或者所述NAS客户机的请求后进行I/O处理,并在其后台进行所述文件管理。
13.根据权利要求1所述的存储系统,其特征在于,
所述文件管理控制模块,将文件管理的处理结果通过电子邮件通知给管理者。
14.根据权利要求1所述的存储系统,其特征在于,
所述文件管理应用软件是病毒检查软件,或者是备份软件。
CNB2006100586329A 2005-08-22 2006-03-02 存储系统 Expired - Fee Related CN100440125C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005240353A JP4871546B2 (ja) 2005-08-22 2005-08-22 ストレージシステム
JP2005240353 2005-08-22

Publications (2)

Publication Number Publication Date
CN1920763A true CN1920763A (zh) 2007-02-28
CN100440125C CN100440125C (zh) 2008-12-03

Family

ID=36940417

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2006100586329A Expired - Fee Related CN100440125C (zh) 2005-08-22 2006-03-02 存储系统

Country Status (4)

Country Link
US (2) US7987466B2 (zh)
EP (1) EP1758017A1 (zh)
JP (1) JP4871546B2 (zh)
CN (1) CN100440125C (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540777B (zh) * 2008-03-18 2013-07-31 环达电脑(上海)有限公司 网络存储设备的分布式数据备份系统及方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310772A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd ストレージシステム及び通信制御方法
US8056083B2 (en) 2006-10-10 2011-11-08 Diskeeper Corporation Dividing a computer job into micro-jobs for execution
US8239869B2 (en) * 2006-06-19 2012-08-07 Condusiv Technologies Corporation Method, system and apparatus for scheduling computer micro-jobs to execute at non-disruptive times and modifying a minimum wait time between the utilization windows for monitoring the resources
US9588809B2 (en) * 2006-10-10 2017-03-07 Invistasking LLC Resource-based scheduler
US8423731B1 (en) 2006-10-31 2013-04-16 Netapp, Inc. System and method for automatic scheduling and policy provisioning for information lifecycle management
JP5057792B2 (ja) * 2007-01-29 2012-10-24 株式会社日立製作所 性能ボトルネックを緩和する機能を備えたストレージシステム
US8032725B1 (en) * 2007-01-30 2011-10-04 Netapp, Inc. Backup data management on a fractionally reserved storage system
US8301772B2 (en) * 2007-03-27 2012-10-30 Symantec Corporation Method and apparatus for allocating resources among backup tasks in a data backup system
JP5213359B2 (ja) * 2007-06-06 2013-06-19 キヤノン株式会社 情報処理装置および制御方法、制御プログラム
JP5028218B2 (ja) 2007-10-30 2012-09-19 株式会社日立製作所 記憶制御装置、ストレージシステム及び記憶制御装置の制御方法
JP5159421B2 (ja) 2008-05-14 2013-03-06 株式会社日立製作所 ストレージシステム及び管理装置を用いたストレージシステムの管理方法
US20100150131A1 (en) * 2008-12-12 2010-06-17 Qualcomm Incorporated Signaling parameters channel processing
US8463989B2 (en) * 2009-06-16 2013-06-11 Hitachi, Ltd. Storage device and method utilizing both block I/O and file I/O access
US8176208B2 (en) 2009-11-04 2012-05-08 Hitachi, Ltd. Storage system and operating method of storage system
WO2011135622A1 (en) * 2010-04-28 2011-11-03 Hitachi, Ltd. Storage device and method of controlling storage system
JP5658778B2 (ja) * 2013-02-25 2015-01-28 キヤノン株式会社 情報処理装置および制御方法、制御プログラム
US8984190B2 (en) 2013-05-23 2015-03-17 Western Digital Technologies, Inc. Methods and devices for booting a network attached storage with two logical units
US9235450B2 (en) 2013-06-26 2016-01-12 Emc Corporation Method and apparatus for reducing slow or stuck SCSI commands in a multi-service environment at a SCSI target
US8838840B1 (en) * 2013-06-26 2014-09-16 Emc Corporation Method and apparatus for recovering from slow or stuck SCSI commands at a SCSI target
JP2015143945A (ja) * 2014-01-31 2015-08-06 富士通株式会社 ストレージ制御装置、ストレージ装置および制御プログラム
US9864705B2 (en) 2015-11-01 2018-01-09 International Business Machines Corporation Dynamic access method switching for open data sets
JPWO2022168449A1 (zh) * 2021-02-08 2022-08-11
CN113535094A (zh) * 2021-08-06 2021-10-22 上海德拓信息技术股份有限公司 基于分布式存储的跨平台客户端实现方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US135782A (en) * 1873-02-11 John i
US193827A (en) * 1877-08-07 Improvement in pipes for street gas and water stop-cock boxes
US260875A (en) * 1882-07-11 Wagon-axle bearing
US5276867A (en) * 1989-12-19 1994-01-04 Epoch Systems, Inc. Digital data storage system with improved data migration
JPH06309200A (ja) * 1991-04-10 1994-11-04 Internatl Business Mach Corp <Ibm> ボリュームからオブジェクトを読取る方法、並びに階層式記憶システム及び情報処理システム
JP3658420B2 (ja) * 1994-04-14 2005-06-08 株式会社日立製作所 分散処理システム
US6173306B1 (en) * 1995-07-21 2001-01-09 Emc Corporation Dynamic load balancing
US5905866A (en) * 1996-04-30 1999-05-18 A.I. Soft Corporation Data-update monitoring in communications network
JPH1011344A (ja) * 1996-06-24 1998-01-16 Mitsubishi Electric Corp データ・バックアップ方法
US6031978A (en) 1996-06-28 2000-02-29 International Business Machines Corporation System, method and program for enabling a client to reconnect to a same server in a network of computer systems after the server has moved to a different network address
US6801943B1 (en) * 1999-04-30 2004-10-05 Honeywell International Inc. Network scheduler for real time applications
JP2001337790A (ja) 2000-05-24 2001-12-07 Hitachi Ltd 記憶システム及びその階層管理制御方法
EP1168753A1 (de) * 2000-06-26 2002-01-02 Alcatel Verfahren und Mittel zur Übertragung von Daten unterschiedlicher Dienstqualität in Internet-Protokoll Datagrammen
US7165096B2 (en) * 2000-12-22 2007-01-16 Data Plow, Inc. Storage area network file system
WO2002086717A1 (en) 2001-04-16 2002-10-31 Xaxon R & D Corporation Computer virus check device and method
JP4009434B2 (ja) * 2001-04-18 2007-11-14 株式会社日立製作所 磁気ディスク装置間結合装置
JP4156817B2 (ja) 2001-07-27 2008-09-24 株式会社日立製作所 記憶装置システム
JP2003162439A (ja) 2001-11-22 2003-06-06 Hitachi Ltd ストレージシステム及びその制御方法
JP3964212B2 (ja) 2002-01-16 2007-08-22 株式会社日立製作所 記憶装置システム
US6895413B2 (en) * 2002-03-22 2005-05-17 Network Appliance, Inc. System and method for performing an on-line check of a file system
JP2004151825A (ja) * 2002-10-29 2004-05-27 Vistapoint Technology Inc ネットワークシステム
JP2004227098A (ja) * 2003-01-20 2004-08-12 Hitachi Ltd 記憶デバイス制御装置の制御方法、及び記憶デバイス制御装置
JP2004259045A (ja) * 2003-02-26 2004-09-16 Hitachi Ltd ストレージ装置
JP2004302751A (ja) 2003-03-31 2004-10-28 Hitachi Ltd 計算機システムの性能管理方法、および、記憶装置の性能を管理する計算機システム
JP4349871B2 (ja) 2003-09-09 2009-10-21 株式会社日立製作所 ファイル共有装置及びファイル共有装置間のデータ移行方法
JP2005240353A (ja) 2004-02-25 2005-09-08 Ohbayashi Corp 橋梁の架設工法
US7209967B2 (en) * 2004-06-01 2007-04-24 Hitachi, Ltd. Dynamic load balancing of a storage system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540777B (zh) * 2008-03-18 2013-07-31 环达电脑(上海)有限公司 网络存储设备的分布式数据备份系统及方法

Also Published As

Publication number Publication date
US20070043737A1 (en) 2007-02-22
JP2007058346A (ja) 2007-03-08
US8220000B2 (en) 2012-07-10
CN100440125C (zh) 2008-12-03
US20110264619A1 (en) 2011-10-27
EP1758017A1 (en) 2007-02-28
US7987466B2 (en) 2011-07-26
JP4871546B2 (ja) 2012-02-08

Similar Documents

Publication Publication Date Title
CN1920763A (zh) 存储系统
CN1315056C (zh) 存储系统
US8327103B1 (en) Scheduling data relocation activities using configurable fairness criteria
CN100342351C (zh) 存储子系统和存储子系统的控制方法
US8024603B2 (en) Data migration satisfying migration-destination requirements
US8713577B2 (en) Storage apparatus and storage apparatus management method performing data I/O processing using a plurality of microprocessors
JP5795496B2 (ja) 疎結合複数ストレージ環境のための階層式ストレージプール管理及び制御
US8924681B1 (en) Systems, methods, and computer readable media for an adaptative block allocation mechanism
CN1821979A (zh) 存储系统
US7702962B2 (en) Storage system and a method for dissolving fault of a storage system
US8166548B2 (en) Computer system and method for scanning computer virus
US20110289296A1 (en) Storage apparatus and control method thereof
CN1838128A (zh) 存储装置系统的控制技术
US20100106990A1 (en) Power savings using dynamic storage cluster membership
CN1875348A (zh) 信息系统、负载控制方法、负载控制程序和记录媒体
US20110225117A1 (en) Management system and data allocation control method for controlling allocation of data in storage system
US20110283123A1 (en) Storage apparatus and control method of storage system
CN1671134A (zh) 存储系统
CN1786919A (zh) 用于在逻辑分区数据处理系统中管理资源的方法和设备
US8667337B2 (en) Storage apparatus and method of controlling the same
CN1848070A (zh) 数据存储设备、重构控制设备、重构控制方法与存储介质
US8819370B1 (en) Techniques for storage lifecycle policy management
US20110040935A1 (en) Management computer for managing storage system capacity and storage system capacity management method
CN1670652A (zh) 存储管理方法以及存储管理系统
CN1848069A (zh) 数据存储设备、重构控制设备、重构控制方法及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20081203

Termination date: 20170302

CF01 Termination of patent right due to non-payment of annual fee