CN105339886B - 储存系统 - Google Patents

储存系统 Download PDF

Info

Publication number
CN105339886B
CN105339886B CN201480035760.4A CN201480035760A CN105339886B CN 105339886 B CN105339886 B CN 105339886B CN 201480035760 A CN201480035760 A CN 201480035760A CN 105339886 B CN105339886 B CN 105339886B
Authority
CN
China
Prior art keywords
data
control unit
address
time
enforcement division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480035760.4A
Other languages
English (en)
Other versions
CN105339886A (zh
Inventor
村松孝治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Solutions Corp filed Critical Toshiba Corp
Publication of CN105339886A publication Critical patent/CN105339886A/zh
Application granted granted Critical
Publication of CN105339886B publication Critical patent/CN105339886B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Abstract

储存系统具备存储部和控制部。存储部存储数据。控制部基于数据的更新频度,执行被更新的数据的复制。控制部也可以具备频度检测部、策略管理部以及复制执行部。频度检测部通过检测数据的更新次数,检测数据的更新频度。策略管理部基于数据的更新频度,决定数据的复制策略。复制执行部基于复制策略执行被更新的数据的复制。

Description

储存系统
技术领域
本发明的实施方式涉及储存系统。
背景技术
有将存储在主站点中的数据复制到备份站点的储存系统(例如,参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2010-170485号公报
发明内容
发明要解决的问题
但是,储存系统在执行数据的复制时,网络的通信频带成为瓶颈,有在主站点以及备份站点之间的通信中引起拥挤的问题。
例如,每当在主站点更新数据则执行向备份站点的复制的情况下,根据数据的更新频度,会以高频度发生向备份站点的大量的数据传送。此外,例如,即使在主站点更新数据也不立即执行复制、而在特定的时刻集中执行向备份站点的复制的情况下,根据被更新的数据的总量,在特定的时刻会发生大量的数据传送。
本发明要解决的问题是提供一种能够使得在执行数据的复制时在主站点以及备份站点之间的通信(数据传送)中不引起拥挤的储存系统。
用于解决问题的手段
储存系统具备存储部和控制部。存储部存储数据。控制部基于数据的更新频度,执行被更新的数据的复制。
附图说明
图1是表示第1实施方式中的储存系统的结构例的框图。
图2是表示第1实施方式中的作为一个元数据的计数器表的例子的图。
图3是表示第1实施方式中的作为一个元数据的复制策略管理表的例子的图。
图4是表示第1实施方式中的地址表的例子的图。
图5是表示第1实施方式中的主站点中的复制处理的例子的时间图。
图6是表示第1实施方式中的主站点中的复制处理的例子的流程图。
图7是表示第1实施方式中的备份站点中的数据接收处理的例子的流程图。
图8是表示第1实施方式中的备份站点中的站点切换处理的例子的流程图。
图9是表示第2实施方式中的储存系统的结构例的框图。
图10是表示第2实施方式中的作为一个元数据的2位图的例子的图。
图11是表示第2实施方式中的主站点中的复制处理的例子的流程图。
图12是表示第1实施方式中的备份站点中的数据接收处理的例子的流程图。
具体实施方式
[第1实施方式]
以下,参照附图对第1实施方式中的储存系统进行说明。图1通过框图示出了储存系统的结构例。
储存系统1000a在主站点具备主计算机400和储存装置100a。此外,储存系统1000a在备份站点具备主计算机500和储存装置200。
主站点的储存装置100a与备份站点的储存装置200经由通信线路(网络)600连接。对于主站点的储存装置100a中存储的数据,执行经由通信线路600的复制,由此复制(Replication)到备份站点的储存装置200。
出于灾害对策等的目的,备份站点也可以配置在远离主站点的较远的位置。例如,在主站点发生了灾害的情况下,备份站点执行站点切换处理,能够继承主站点的处理。
首先,说明主站点的结构例。
主计算机400向储存装置100a输出I/O(Input/Output)命令而进行数据的读出或写入。根据来自主计算机400的I/O命令对储存装置100读出或写入的数据的单位是规定尺寸(4KB~64KB)的数据块。以下,将对该储存装置100a读出或写入的数据的单位即数据块简单称为数据。
储存装置100a具备控制装置110a和盘阵列装置180。控制装置110a具备主机接口120、控制部130a、程序存储器140、缓冲存储器150、网络接口160以及盘接口170。储存装置100a的各部经由内部总线而相互连接。
盘阵列装置180由N个硬盘驱动器190-1~190-N构成。通过该N个硬盘驱动器190-1~190-N构建RAID(Redundant Arrays of Inexpensive Disks)。为了将说明简化,在盘阵列装置180中构建一个RAID,设置于该RAID的逻辑盘(逻辑体)为一个。当然,也可以在盘阵列装置180中构建多个RAID。同样也可以在一个RAID设置多个逻辑盘。逻辑盘是从主计算机在逻辑上识别为盘驱动器的区域。若将主计算机400对储存装置100a进行数据的读出或写入的情况更详细地说明,则为对逻辑盘进行数据的读出或写入。以下,为了将说明简化,则将主计算机400对逻辑盘进行数据的读出或写入的情况统一为主计算机400对储存装置100a进行数据的读出或写入这样的表述。以下,关于硬盘驱动器190-1~190-N中共通的事项,省略符号1~N而记为“硬盘驱动器190”。也可以将盘阵列阵列装置180的全部或其一部分由SSD(Solid State Drive)构成。盘接口170与硬盘驱动器190连接。
主机接口120经由网络而与主计算机400连接。程序存储器140存储用于使控制部130a动作的程序(固件)。
缓冲存储器150是利用于各种作业的存储部(工作存储器)。缓冲存储器150暂时存储(一次保存)要向盘阵列装置180存储的数据。此外,缓冲存储器150暂时存储从盘阵列装置180读出的数据。此外,缓冲存储器150存储用于对统计信息进行管理的元数据。在此,统计信息例如是表示盘阵列装置180中记录的数据的更新频度的信息。关于存储于缓冲存储器150中的第1实施方式所涉及的元数据的详细内容,使用图2及图3在后面叙述。
控制部130a由CPU(:Central Processing Unit)构成。通过由CPU执行程序存储器140中存储的程序,实现控制部130a的频度检测部131a、策略管理部132a以及复制执行部133。当然,也可以将频度检测部131a、策略管理部132a以及复制执行部133通过硬件来实现(implement)。
频度检测部131a通过对储存装置100a中的数据的更新次数进行检测,取得数据的更新频度。频度检测部131a将检测到的更新次数作为更新频度登记到计数器表(参照图2)。
图2的计数器表中,向储存装置100a的地址“0”写入的数据的计数值被登记为2次。这表示该数据被更新了2次。此外,在计数器表中登记有向储存装置100a的地址“A”写入的数据被更新了128次。在计数器表中设有与储存装置100a的全部的地址对应的条目(entry)。
此外,在计数器表中登记有向地址“2A”写入的数据被更新了0次、即未更新。此外,在计数器表中登记有向地址“3A”写入的数据被更新了15次。
回到图1,继续进行主站点的结构例的说明。策略管理部132a基于数据的更新频度,对数据决定与复制有关的策略(以下,称为复制策略)。更具体而言,将每当数据被更新则执行复制的复制策略称为“每写入发送”。另一方面,将以预先规定的周期(例如,24小时周期)执行复制的复制策略称为“每周期发送”。策略管理部132a将按每个数据决定的复制策略存储到复制管理表(参照图3)。
该预先规定的周期也可以是预先规定为恢复点目标(RPO:Recovery PointObjective)的周期。恢复点目标是目标恢复时间点,意味着取得数据的备份的时刻(定时)或取得数据的备份的周期。关于该周期,基于在系统中数据被更新的频度、在系统中发生了灾害、事故、故障时使数据恢复到何种程度而任意设定。在作为恢复点目标的时刻,将在计数器表中计数值为“0”以外(即,计数器值为1以上)的数据、即被更新的全部的数据向备份站点发送。由此,主站点与备份站点同步。
图3表示作为元数据的复制策略管理表(频度分项表)的一例。图3中,对于向地址“0”写入的数据决定了复制策略“每写入发送”。此外,对于向地址“A”写入的数据决定了复制策略“每周期发送”。此外,对于向地址“2A”写入的数据决定了复制策略“每写入发送”。此外,对于向地址“3A”写入的数据决定了复制策略“每周期发送”。在复制策略管理表中设有与储存装置100a的全部的地址对应的条目。
回到图1,继续进行主站点的结构例的说明。复制执行部133基于按每个数据设定的复制策略,执行所写入的(更新的)数据的复制。更具体而言,复制执行部133基于复制策略管理表,判定所写入的(更新的)数据的复制策略是否为每写入发送。
在作为恢复点目标的时刻以外,复制执行部133在写入的(更新的)数据的策略为每写入发送的情况下,将所写入的(更新的)数据及该数据被写入的储存装置100a的地址(主站点地址)与复制命令一起经由网络接口160而向备份站点发送。由此执行数据的复制。
另一方面,在作为恢复点目标的时刻,复制执行部133将计数器表的计数值为1以上的全部的数据及该数据被写入的储存装置100a的地址(主站点地址)与复制命令一起经由网络接口160而向备份站点发送。另外,作为恢复点目标的时刻是周期性的时刻(例如5分钟周期、24小时周期)。
接着,说明备份站点的结构。
主计算机500与储存装置210的主机接口220连接。主计算机500向储存装置210输出I/O命令而进行数据的读出或写入。
储存装置200具备控制装置210和盘阵列装置280。控制装置210具备主机接口220、控制部230、程序存储器240、缓冲存储器250、网络接口260以及盘接口270。储存装置200的各部经由内部总线而相互连接。
程序存储器240存储用于使控制部230动作的程序(固件)。
缓冲存储器250是利用于各种作业的存储部(工作存储器)。缓冲存储器250暂时存储(一次保存)要向盘阵列装置280存储的数据。此外,缓冲存储器250暂时存储从盘阵列装置280读出的数据。此外,缓冲存储器250存储地址表。关于该地址表的详细内容,使用图4在后面进行叙述。
控制部230由CPU构成。通过由CPU执行程序存储器240中存储的程序,实现控制部230。当然,也可以将控制部230通过硬件来实现(implement)。
盘阵列装置280具备M个硬盘驱动器290和暂时保管区域部300。通过硬盘驱动器290-1~290-M构建RAID。为了将说明简化,在盘阵列装置280中构建一个RAID,设置于该RAID的逻辑盘(逻辑体)为一个。当然,也可以在盘阵列装置280构建多个RAID。同样也可以在一个RAID设置多个逻辑盘。硬盘驱动器290-1~290-M与控制装置210的盘接口270连接。以下,关于硬盘驱动器290-1~290-M中共通的事项,省略符号1~M而记为“硬盘驱动器290”。另外,也可以将盘阵列阵列280的全部或其一部分由SSD(Solid State Drive)构成。若将主计算机500对储存装置200进行数据的读出或写入的情况更详细地说明,则为对逻辑盘进行数据的读出或写入。以下,为了将说明简化,将主计算机500对逻辑盘进行数据的读出或写入的情况统一为主计算机500对储存装置200进行数据的读出或写入这样的表述。盘接口270与硬盘驱动器290连接。
暂时保管区域部300例如由1台硬盘驱动器构成,与控制装置210的盘接口270连接。该暂时保管区域部300也可以由设置于在盘阵列装置280中构建的RAID的一个逻辑盘构成。
控制部230将网络接口260经由通信线路600接收到的要复制的数据与该数据在储存装置100a中的地址(主站点地址)一起暂时存储到缓冲存储器250。
控制部230在缓冲存储器250中存储的数据为基于策略“每写入发送”(参照图3)而从储存装置100a发送的数据的情况下,将该数据向暂时保管区域部300传送而使其存储。
暂时保管区域部300中暂时保管的数据最终由控制部230存储(复制)到盘阵列装置280。
控制部230将该暂时保管区域部300中存储的数据的主站点地址与表示在暂时保管区域部300中的存储位置的地址建立对应,并登记到设置在缓冲存储器250中的地址表。
图4中示出地址表的一例。地址表由主站点地址和表示在暂时保管区域部300中的存储位置的暂时保管区域部地址构成。
图4中,主站点地址“0”与暂时保管区域部地址“B1”被建立了对应。此外,主站点地址“3A”与暂时保管区域部地址“B2”被建立了对应。此外,主站点地址“A”与暂时保管区域部地址“B3”被建立了对应。
控制部230在缓冲存储器250中存储的数据为基于策略“每周期发送”(参照图3)从储存装置100a发送的数据的情况下,将该数据存储到与盘阵列280的主站点地址相同的地址。
接着,说明储存系统1000中的复制处理的一例。作为储存系统1000a开始复制处理的前提,将主站点的储存装置100a中记录的全部的数据复制到备份站点的储存装置210,完成全部的数据的备份。因此,主站点中记录的数据与备份站点中记录的数据同步。图5是表示主站点中的复制处理的一例的时间图。横轴表示时间。图5中示出了计数器表(参照图2)和复制策略管理表(参照图3)中的动作次序。时刻T0是开始复制动作的初始时刻。时刻T1是从时刻T0经过了预先规定的时间的作为恢复点目标(RPO)的时刻。同样T2也是作为恢复点目标(RPO)的时刻。
在时刻T0,频度检测部131a将登记在计数器表中的全部地址中存储的数据的计数值设定为值0而清零(步骤S1)。
策略管理部132a关于登记在复制策略管理表中的全部地址中存储的数据,将各数据的复制策略设定为“每写入发送”并初始化(步骤S2)。
在时刻T0以后,在储存装置100a中数据被写入的(更新的)情况下,频度检测部131a对与写入的数据对应的计数器表的计数值(参照图2)加上值1而将该计数值增加(步骤S3)。
在写入的数据的复制策略为“每写入发送”的情况下,复制执行部133将写入的数据及该数据被写入的地址(主站点地址)与复制命令一起经由网络接口160向备份站点发送(步骤S4)。以下,在作为下一个恢复点目标的时刻T1之前的期间中数据被写入到储存装置100a的情况下,同样进行上述步骤S3和步骤S4的处理。
在作为恢复点目标的时刻T1,复制执行部133将计数器表的计数值为1以上的全部的数据为了进行复制而与复制命令一起经由网络接口160向备份站点发送(步骤S5)。
策略管理部132a将与向登记在复制策略管理表中的全部地址写入的数据建立对应的复制策略设定为“每写入发送”而初始化。然后,策略管理部132a将与向计数器表的计数值为100以上的地址写入的数据建立对应的复制策略变更为“每周期发送”(步骤S6)。
进而,频度检测部131a将向登记在计数器表中的全部地址写入的数据的计数值清零(步骤S7)。其后,重复步骤S3~步骤S7的处理。
图6是表示主站点中的复制处理的一例的流程图。
频度检测部131a将向登记在计数器表(参照图2)中的全部地址写入的数据的计数值清零(步骤Sa1)。
在此,假设实施了步骤Sa1的处理的时刻为图5所示的时刻T0而说明以下的动作。
策略管理部132a将向登记在复制策略管理表(参照图3)中的全部地址写入的数据的复制策略设定为“每写入发送”并初始化(步骤Sa2)。
频度检测部131a等待向盘阵列装置180的数据的写入、即数据的更新(步骤Sa3)。
频度检测部131a对与写入的(更新的)数据对应的计数器表的计数值(参照图2)加上值1而将该计数值增加(步骤Sa4)。
复制执行部133基于复制策略管理表,判定所写入的(更新的)数据的复制策略是否为“每写入发送”。在所写入的数据的复制策略为“每写入发送”的情况下,复制执行部133将写入的数据及该数据的主站点地址与复制命令一起经由网络接口160向备份站点发送(步骤Sa5)。
复制执行部133判定当前的时刻是否达到了从时刻T0经过预先规定的时间后的恢复点目标(RPO)的时刻(步骤Sa6)。在当前的时刻达到了恢复点目标(RPO)的时刻的情况下(步骤Sa6:是),复制执行部133使处理前进到步骤Sa7。
另一方面,在当前的时刻没有达到恢复点目标(RPO)的时刻的情况下(步骤Sa6:否),复制执行部133使处理回到步骤Sa3(步骤Sa6)。
复制执行部133将向计数器表的计数值(参照图2)为1以上的全部地址写入的数据及该数据的主站点地址与复制命令一起经由网络接口160向备份站点发送(步骤Sa7)。
策略管理部132a将向登记在复制策略管理表(参照图3)中的全部地址写入的数据的复制策略初始化为“每写入发送”。进而,策略管理部132a将向计数器表的计数值(参照图2)为100以上的地址写入的数据的复制策略变更为“每周期发送”。在此,将把复制策略变更为“每周期发送”的数据的对象设定为计数值为100以上的数据。但是,不限定于像这样计数值为100以上的数据。将计数值为多少以上的数据的复制策略变更为“每周期发送”,只要由系统管理者根据系统的结构、系统的运用方法等任意地决定即可。也就是说,重要的是将被判断为更新频度高的数据的复制策略变更为“每周期发送”(步骤Sa8)。
频度检测部131a将向登记在计数器表中的全部地址写入的数据的计数值清零(步骤Sa9)。在执行该步骤Sa9的处理之后,处理回到步骤Sa3。
图7是表示备份站点中的复制处理的一例的流程图。
控制部230等待从主站点发送的复制命令(步骤Sb1)。
控制部230判定从主站点发送的复制命令是否为用于对复制策略被设定为每写入发送(参照图3)的数据进行复制的复制命令(步骤Sb2)。
当为复制策略被设定为每写入发送的数据的复制命令的情况下(步骤Sb2:是),控制部230使处理前进到步骤Sb6。另一方面,当不是复制策略被设定为每写入发送的数据的复制命令的情况下、即为复制策略被设定为每周期发送的数据的复制命令的情况下(步骤Sb2:否),控制部230使处理前进到步骤Sb3。
在步骤Sb3的处理中,控制部230基于登记在地址表(参照图4)中的暂时保管区域部地址,读出暂时保管区域部300中暂时存储的全部的数据。控制部230将从暂时保管区域部300读出的数据写入盘阵列装置280。在此,控制部230向盘阵列装置280写入数据的地址是地址表中与和该数据被读出的暂时保管区域部地址建立对应的主站点地址相同的地址。通过该数据向盘阵列装置280的写入,进行复制(步骤Sb3)。
控制部230接收从主站点发送的复制命令(在步骤Sb2中判定的复制命令)所附带的数据和该数据的主站点地址。控制部230将该接收到的数据写入盘阵列装置280的与接收到的主站点地址相同的地址。通过该数据的写入,进行所接收到的数据的复制(步骤Sb4)。
控制部230判定是否接收到复制命令所附带的全部的数据和该数据的主站点地址。在接收到全部的数据和该数据的主站点地址的情况下(步骤Sb5:是),控制部230使处理回到步骤Sb1。另一方面,在还剩下没有接收到的数据和该数据的主站点地址的情况下(步骤Sb5:否),控制部230使处理回到步骤Sb4(步骤Sb5)。
另一方面,在步骤Sb6的处理中,控制部230接收从主站点发送的复制命令所附带的数据和该数据的主站点地址。控制部230将该接收到的数据存储到暂时保管区域部300。控制部230将在暂时保管区域部300中存储了该接收到的数据的地址(暂时保管区域部地址)与接收到的主站点地址建立对应并登记到地址表(参照图4)(步骤Sb6)。
控制部230判定是否接收到复制命令所附带的全部的数据和该数据的主站点地址。在接收到全部的数据和该数据的主站点地址的情况下(步骤Sb7:是),控制部230使处理回到步骤Sb1。另一方面,在还剩下没有接收到的数据和该数据的主站点地址的情况下(步骤Sb7:否),控制部230使处理回到步骤Sb6(步骤Sb7)。
图8是表示备份站点中的站点切换处理的例子的流程图。例如,在主站点中发生了灾害的情况下,备份站点执行站点切换处理,能够继承主站点的处理。
备份站点的储存装置200(参照图1)进行站点切换处理,因此停止复制处理(步骤Sc1)。
控制部230基于登记在地址表(参照图4)中的暂时保管区域部地址,读出暂时存储在暂时保管区域部300中的全部的数据。
控制部230将从暂时保管区域部300读出的数据写入盘阵列装置280。在此,控制部230向盘阵列装置280写入数据的地址是在地址表中与和该数据被读出的暂时保管区域部地址建立对应的主站点地址相同的地址。通过该数据向盘阵列装置280的写入,进行了复制(步骤Sc2)。
主计算机500继承主站点的主计算机400的处理而访问储存装置200(步骤Sc3)。
像这样,在本实施方式中,基于更新频度来决定数据的复制策略,进行基于该复制策略的数据的复制。作为复制策略,设定了将复制数据的时期进行区别的以下两个。一个策略是用于每当更新数据则进行复制的“每写入发送”。另一个策略是用于以预先规定的周期复制数据的“每周期发送”。通过设定这样的复制策略,用于进行复制的从主站点向备份站点的大量的数据传送不会一齐发生。因此,能够避免在主站点与备份站点之间的通信路径上发生拥挤。
[第2实施方式]
以下,参照附图对第2实施方式中的储存系统进行说明。在第2实施方式中,用于执行数据复制的元数据与第1实施方式不同。以下,仅对与第1实施方式的不同点进行说明。
图9中通过框图示出了储存系统的结构例。储存系统1000b在主站点具备主计算机400和储存装置100b。此外,数据复制系统1000b在备份站点具备主计算机500和储存装置200。
主站点的储存装置100b与备份站点的储存装置200经由通信线路(网络)600连接。对于主站点的储存装置100b中存储的数据,通过执行经由通信线路600的复制,复制(replication)到备份站点的储存装置200。
接着,说明主站点的结构例。
储存装置100b具备控制装置110b和盘阵列装置180。控制装置110b具备主机接口120、控制部130b、程序存储器140、缓冲存储器150、网络接口160以及盘接口170。储存装置100b的各部经由内部总线而相互连接。
主机接口120经由网络而与主计算机400连接。
程序存储器140存储用于使控制部130b动作的程序(固件)。
缓冲存储器150是利用于各种作业的存储部(工作存储器)。缓冲存储器150暂时存储(一次保存)要向盘阵列装置180存储的数据。此外,缓冲存储器150暂时存储从盘阵列装置180的数据块读出的数据。此外,缓冲存储器150存储用于对统计信息进行管理的元数据。在此,统计信息例如是表示盘阵列装置180中记录的数据的更新频度的信息。关于第2实施方式所涉及的元数据的详细内容,使用图10在后面进行叙述。
控制部130b由CPU(:Central Processing Unit)构成。通过由CPU执行存储在程序存储器140中的程序,实现控制部130b的频度检测部131b、策略管理部132b以及复制执行部133。当然,也可以将频度检测部131a、策略管理部132b以及复制执行部133通过硬件来实现(implement)。
频度检测部131b检测在储存装置100b中数据被更新的时间段,并登记到2位图。
图10表示2位图的一例。2位图中,将向储存装置100b写入的全部的数据的更新的时间段与被写入该数据的地址建立对应而登记。2位图中登记的更新的时间段被以2位表述。更具体而言,如下表述。
00b:未更新
01b:第1时间段(表示在每时00分到19分的时间段,数据被更新)
10b:第2时间段(表示在每时20分到39分的时间段,数据被更新)
11b:第3时间段(表示在每时40分到59分的时间段,数据被更新)
这些00b~11b的符号b表示是2进制表述。在以下的说明中,将2位图中的2位表述“00b”作为值0来说明。同样,将2位表述“01b”作为值1来说明。将2位表述“10b”作为值2来说明。将2位表述“11b”作为值3来说明。
图10所示的2位图中,在最上行左端的方格,与地址0建立对应地、向地址0写入的数据的更新的时间段被记录为值2。也就是说,登记了向地址0写入的数据在第2时间段被更新。2位图中,在最上行右端的方格,与地址A建立对应地、向地址A写入的数据的更新的时间段被记录为值3。也就是说,登记了向地址A写入的数据在第3时间段被更新。2位图中,在第3行右端的方格,与地址3A建立对应地、向地址3A写入的数据的更新的时间段被记录为值0。也就是说,登记了对于向地址3A写入的数据没有进行更新。2位图中,将向储存装置100b写入的全部的数据的更新的时间段分别以2位表述并登记,因此其容量不会成为大容量而能够以紧凑的小容量实现。2位图中设有与储存装置100b的全部的地址对应的记录。
另外,也可以代替将数据被更新的时间段在元数据中用4值(00b、01b、10b、11b)表述而用3值(例如,0:未更新,1:从数据被更新的时刻起经过了阈值时间,2:从数据被更新的时刻起没有经过阈值时间)表述。在该情况下,元数据也可以存储在3值逻辑的存储部中。
接着,说明储存系统1000b的动作次序的例子。
图11是表示主站点中的复制处理的流程图。图11所示的流程图被重复执行。图11中,作为一例,假设将每天的上午0时预先决定为恢复点目标(RPO)来进行说明。
控制部130b参照未图示的系统所具有的包含日期信息的时间信息,待机到当前时刻成为每时00分、20分或40分中的某一个。控制部130b在当前时刻成为每时00分、20分或40分中的某一个的情况下,使处理前进到步骤Sd2(步骤Sd1)。
控制部130b判定当前时刻为每时00分、20分或40分中的哪一个。当为每时00分的情况下(步骤Sd2:每时00分),控制部130b使处理前进到步骤Sd3。此外,当为每时20分的情况下(步骤Sd2:每时20分),控制部130b使处理前进到步骤Sd5。此外,当为每时40分的情况下(步骤Sd2:每时40分),控制部130b使处理前进到步骤Sd7(步骤Sd2)。
在使处理前进到步骤Sd3的情况下,复制执行部133将2位图从其开头起进行扫描,搜索在比当前时刻00分靠前40分以上的20分期间被更新的数据,将该搜索到的数据从盘阵列装置180读出。也就是说,复制执行部133参照2位图,从盘阵列装置180读出向与值1(2位表述中01b)建立对应而登记的地址写入的数据。复制执行部133将附带所读出的数据和记录有该读出的数据的地址(主站点地址)的复制命令向备份站点发送。通过将该复制命令向备份站点发送,将在比当前时刻00分靠前40分以上的20分期间被更新的数据看作更新频度低的数据而进行了备份处理。向该备份站点发送的复制命令是短周期处理的复制命令。然后,复制执行部133将在2位图中与上述读出的数据建立对应而登记的值设定为0来进行初始化(步骤Sd3)。
复制执行部133判定是否到2位图的末尾为止全部进行了扫描(步骤Sd4)。在到2位图的末尾为止全部进行了扫描的情况下(步骤Sd4:是),使处理前进到步骤Sd9。在没有扫描到2位图的末尾的情况下(步骤Sd4:否),使处理回到步骤Sd3。
在使处理前进到步骤Sd5的情况下,复制执行部133参照2位图,搜索在比当前时刻20分靠前40分以上的20分期间被更新的数据,将该搜索到的数据从盘阵列装置180读出。也就是说,复制执行部133参照2位图,从盘阵列装置180读出向与值2(2位表述中,10b)建立对应而登记的地址写入的数据。复制执行部133将附带所读出的数据和记录有该读出的数据的地址(主站点地址)的复制命令向备份站点发送。通过将该复制命令向备份站点发送,将在比当前时刻20分靠前40分以上的20分期间被更新的数据看作更新频度低的数据而进行了备份处理。向该备份站点发送的复制命令是短周期处理的复制命令。然后,复制执行部133将在2位图中与上述读出的数据建立对应而登记的值设定为0来进行初始化(步骤Sd5)。
复制执行部133判定是否到2位图的末尾为止全部进行了扫描(步骤Sd6)。到2位图的末尾为止全部进行了扫描的情况下(步骤Sd6:是),使处理前进到步骤Sd9。在没有扫描到2位图的末尾的情况下(步骤Sd6:否),使处理回到步骤Sd5。
在使处理前进到步骤Sd7的情况下,复制执行部133参照2位图,搜索在比当前时刻40分靠前40分以上的20分期间被更新的数据,将该搜索到的数据从盘阵列装置180读出。也就是说,复制执行部133参照2位图,从盘阵列装置180读出向与值3(2位表述中11b)建立对应而登记的地址写入的数据。复制执行部133将附带所读出的数据和记录有该读出的数据的地址(主站点地址)的复制命令向备份站点发送。通过将该复制命令向备份站点发送,将在比当前时刻40分靠前40分以上的20分期间被更新的数据看作更新频度低的数据而进行了备份处理。向该备份站点发送的复制命令是短周期处理的复制命令。然后,复制执行部133将在2位图中与上述读出的数据建立对应而登记的值设定为0来进行初始化(步骤Sd7)。
复制执行部133判定是否到2位图的末尾为止全部进行了扫描(步骤Sd8)。在到2位图的末尾为止全部进行了扫描的情况下(步骤Sd8:是),使处理前进到步骤Sd9。在没有扫描到2位图的末尾的情况下(步骤Sd8:否),使处理回到步骤Sd7。
控制部130b参照未图示的系统所具有的包含日期信息的时间信息,判定当前时刻是否超过预先规定为恢复点目标(RPO)的上午0时。控制部130b通过记录最后经过上午0时的日期信息,能够参照时间信息来判定出新经过了上午0时的情况(步骤Sd9)。
在当前时刻经过了上午0时的情况下(步骤Sd9:是),策略管理部132b使处理前进到步骤Sd10。当前时刻经过了上午0时是指达到了恢复点目标(RPO)的时刻。另一方面,在当前时刻没有经过上午0时的情况下(步骤Sd9:否),策略管理部132b使处理回到步骤Sd1。
复制执行部133参照2位图从盘阵列装置180读出向与值0(2位表述中00b)以外建立对应而登记的地址写入的数据。也就是说,复制执行部133从盘阵列装置180读出向在2位图中与值1(2位表述中01b)、2(2位表述中10b)或3(2位表述中11b)建立对应而登记的地址写入的数据。复制执行部133将附带所读出的数据和记录有该读出的数据的地址(主站点地址)的复制命令向备份站点发送。通过将这样的复制命令向备份站点发送,进行了在步骤Sd3、Sd5、Sd7的各处理中没有备份的更新频度高的数据的备份处理。向该备份站点发送的复制命令是长周期处理的复制命令。然后,复制执行部133将在2位图中与上述读出的数据建立对应而登记的值设定为0来进行初始化(步骤Sd10)。
图12是表示备份站点中的复制处理的流程图。控制部230等待从主站点发送的复制命令的接收(步骤Se1)。
控制部230判定从主站点发送的复制命令是否为短周期处理的复制命令。也就是说,控制部230在当前时刻为每时00分、20分或40分中的某一个的情况下,判定为是短周期处理的复制命令。但是,控制部230在当前时刻为上午0时00分的情况下,能够判定为是长周期的复制命令。
当为短周期处理的复制命令的情况下(步骤Se2:是),控制部230使处理前进到步骤Se6。另一方面,当不是短周期处理的复制命令的情况下(步骤Se2:否),控制部230使处理前进到步骤Se3。在该情况下,控制部230判定为接收到的复制命令为长周期处理的复制命令(步骤Se2)。
在步骤Se6的处理中,控制部230接收从主站点发送的复制命令所附带的数据和该数据的主站点地址。控制部230将该接收到的数据存储到暂时保管区域部300。控制部230将在暂时保管区域部300中存储了该接收到的数据的地址(暂时保管区域部地址)与接收到的主站点地址建立对应而登记到地址表(参照图4)(步骤Sb6)。
控制部230判定是否接收到复制命令所附带的全部的数据和该数据的主站点地址。在接收到全部的数据和该数据的主站点地址的情况下(步骤Se7:是),控制部230使处理回到步骤Se1。另一方面,在还剩下没有接收的数据和该数据的主站点地址的情况下(步骤Se7:否),控制部230使处理回到步骤Se6(步骤Se7)。
另一方面,在步骤Se3的处理中,控制部230基于登记在地址表(参照图4)中的暂时保管区域部地址,读出暂时存储在暂时保管区域部300中的全部的数据。控制部230将从暂时保管区域部300读出的数据向盘阵列装置280写入。在此,控制部230向盘阵列装置280写入数据的地址是在地址表中与和该数据被读出的暂时保管区域部地址建立对应的主站点地址相同的地址。通过该数据向盘阵列装置280的写入,进行了复制(步骤Se3)。
控制部230接收从主站点发送的长周期处理的复制命令(步骤Se2中判定为否的情形)所附带的数据和该数据的主站点地址。控制部230将该接收到的数据写入盘阵列装置280的与接收到的主站点地址相同的地址。通过该数据的写入进行了接收到的数据的复制(步骤Se4)。
控制部230判定是否接收到复制命令所附带的全部的数据和该数据的主站点地址。在接收到全部的数据和该数据的主站点地址的情况下(步骤Se5:是),控制部230使处理回到步骤Se1。另一方面,在还剩下没有接收的数据和该数据的主站点地址的情况下(步骤Se5:否),控制部230使处理回到步骤Se4(步骤Se5)。
像这样,在本实施方式中将数据被更新的时间段登记到2位图,基于该2位图中登记的数据的更新时间段实现2种数据的复制。一个是在每时的规定的时刻、例如每时00分、每时20分、每时40分,将比当前时刻靠前40分以上的20分期间被更新的数据进行复制。这是短周期处理的复制。另一个是在预先规定的时刻、例如恢复点目标(RPO)的时刻,将被更新的全部的数据进行复制。这是长周期处理的复制。
通过像这样设置短周期处理的复制和长周期处理的复制,用于复制的从主站点到备份站点的大量的数据传送不会一齐发生。因此,能够避免在主站点与备份站点之间的通信路径中发生拥挤。
进而,在本实施方式中用2位图实现用于管理复制的元数据。因此,不会使元数据的容量增大而能够以较小的存储容量实现。
说明了本发明的几个实施方式,但这些实施方式是作为例来提示的,没有要限定发明的范围的意思。这些实施方式能够以其他多种形态实施,在不脱离发明的主旨的范围内能够进行各种省略、替换、变更。这些实施方式及其变形包含于发明的范围或主旨,并且包含于权利要求书记载的发明及其等效的范围中。

Claims (1)

1.一种储存系统,具有设置在主站点的用于记录数据的第1储存装置、以及设置在备份站点的用于记录数据的第2储存装置,
所述第1储存装置具备:
记录部,用于存储数据;以及
控制部,为了进行复制而将记录在所述记录部中的数据向备份站点传送,
所述控制部具备:
更新时间段检测部,检测在将1小时以第1规定时间间隔划分而得到的多个时间段中的哪个时间段数据被更新;
更新时间段信息存储部,将表示由所述更新时间段检测部检测出的更新时间段的更新时间段信息与存储在所述记录部中的每个数据建立对应来存储;以及
复制执行部,参照所述更新时间段信息存储部,基于存储在所述更新时间段信息存储部中的更新时间段信息,为了进行复制而将存储在所述记录部中的数据向备份站点传送;
在将所述1小时以第1规定时间间隔划分而得到的每个时刻,所述复制执行部为了进行复制,将在比该时刻靠前规定数量的所述时间间隔的时刻作为起点的、到比该时刻靠前所述第1规定时间间隔为止的时间段被更新的数据作为更新频度低的数据,向备份站点传送,
在每经过第2规定时间而到来的时刻,所述复制执行部为了进行复制,将作为更新时间段信息而设定有数据被更新的情况的全部数据作为更新频度高的数据,向备份站点传送,
所述更新时间段检测部将与所述复制执行部向备份站点传送的数据建立对应而存储在所述更新时间段信息存储部中的更新时间段信息设定为没有更新。
CN201480035760.4A 2014-02-28 2014-02-28 储存系统 Active CN105339886B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/055111 WO2015129035A1 (ja) 2014-02-28 2014-02-28 ストレージシステム

Publications (2)

Publication Number Publication Date
CN105339886A CN105339886A (zh) 2016-02-17
CN105339886B true CN105339886B (zh) 2018-07-10

Family

ID=54008400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480035760.4A Active CN105339886B (zh) 2014-02-28 2014-02-28 储存系统

Country Status (4)

Country Link
US (1) US9910608B2 (zh)
JP (1) JP6030269B2 (zh)
CN (1) CN105339886B (zh)
WO (1) WO2015129035A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10802747B2 (en) * 2017-11-30 2020-10-13 Veritas Technologies Llc Performing backup operations using replicas
US11663092B2 (en) 2019-04-30 2023-05-30 Rubrik, Inc. Systems and methods for continuous data protection
US11663089B2 (en) 2019-04-30 2023-05-30 Rubrik, Inc. Systems and methods for continuous data protection
US11061601B2 (en) * 2019-04-30 2021-07-13 Rubrik, Inc. Systems and methods for continuous data protection
US11500664B2 (en) 2019-04-30 2022-11-15 Rubrik, Inc. Systems and method for continuous data protection and recovery by implementing a set of algorithms based on the length of I/O data streams
US11609775B2 (en) 2019-04-30 2023-03-21 Rubrik, Inc. Systems and methods for continuous data protection comprising storage of completed I/O requests intercepted from an I/O stream using touch points
US11436251B2 (en) * 2020-10-02 2022-09-06 EMC IP Holding Company LLC Data size based replication
TWI788084B (zh) * 2021-11-03 2022-12-21 財團法人資訊工業策進會 運算裝置以及資料備份方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102932621A (zh) * 2011-08-08 2013-02-13 杭州海康威视数字技术股份有限公司 一种存储数据的方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2762462B1 (fr) 1997-04-21 1999-05-28 Alsthom Cge Alcatel Systeme a stations receptrices de donnees installees en reseau
US6397307B2 (en) * 1999-02-23 2002-05-28 Legato Systems, Inc. Method and system for mirroring and archiving mass storage
US7130874B2 (en) * 2002-03-12 2006-10-31 International Business Machines Corporation Method, system, and program for maintaining data in a distributed computing environment for processing transaction requests
JP2006236019A (ja) * 2005-02-25 2006-09-07 Hitachi Ltd データコピー方式の切替方法
JP4806037B2 (ja) 2009-01-26 2011-11-02 株式会社東芝 データ記憶システム及び非同期レプリケーション方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102932621A (zh) * 2011-08-08 2013-02-13 杭州海康威视数字技术股份有限公司 一种存储数据的方法及装置

Also Published As

Publication number Publication date
JP6030269B2 (ja) 2016-11-24
US9910608B2 (en) 2018-03-06
US20160357460A1 (en) 2016-12-08
WO2015129035A1 (ja) 2015-09-03
JPWO2015129035A1 (ja) 2017-03-30
CN105339886A (zh) 2016-02-17

Similar Documents

Publication Publication Date Title
CN105339886B (zh) 储存系统
US10956276B2 (en) System state recovery in a distributed, cloud-based storage system
CN102265277B (zh) 数据存储系统的操作方法和装置
TWI669620B (zh) Database switching method, server, storage medium, electronic device and product
KR101231563B1 (ko) 실시간 데이터 복제
CN101118507A (zh) 计算机系统及其快照生成方法
CN110580235B (zh) 一种sas扩展器通信方法及装置
CN104965850A (zh) 一种基于开源技术的数据库高可用实现方法
US20150067418A1 (en) Storage tester capable of individual control for a plurality of storage
CN105824846B (zh) 数据迁移方法及装置
CN103885717B (zh) 一种数据复制方法及装置
US20130346710A1 (en) Source cleaning cascaded volumes
CN107247729B (zh) 一种文件处理方法和装置
US10142169B2 (en) Diagnosis device, diagnosis method, and non-transitory recording medium storing diagnosis program
CN103823708B (zh) 虚拟机读写请求处理的方法和装置
CN104615504A (zh) 一种实现数据保护的方法及装置
CN113743942A (zh) 交易执行方法、区块链、主节点和主存储设备
CN108038201A (zh) 一种数据整合系统及其分布式数据整合系统
CN107977167A (zh) 一种基于纠删码的分布式存储系统的退化读优化方法
CN109684410A (zh) 一种确定主从数据库同步时延的系统、方法及储存介质
CN113760845A (zh) 一种日志处理方法、系统、装置、客户端及存储介质
CN113744062B (zh) 在区块链中执行交易的方法、区块链节点和区块链
US20070083708A1 (en) Controller of redundant arrays of independent disks and operation method thereof
CN102609224B (zh) 一种独立冗余磁盘阵列系统及其初始化方法
CN103744751A (zh) 存储设备配置信息连续优化备份系统及其使用方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Tokyo, Japan, Japan

Co-patentee after: Toshiba Digital Solutions Ltd

Patentee after: Toshiba Corp

Address before: Tokyo, Japan, Japan

Co-patentee before: Toshiba Solutions Corporation

Patentee before: Toshiba Corp