CN101442544A - 数据存储方法、管理服务器及系统 - Google Patents
数据存储方法、管理服务器及系统 Download PDFInfo
- Publication number
- CN101442544A CN101442544A CNA2007101779130A CN200710177913A CN101442544A CN 101442544 A CN101442544 A CN 101442544A CN A2007101779130 A CNA2007101779130 A CN A2007101779130A CN 200710177913 A CN200710177913 A CN 200710177913A CN 101442544 A CN101442544 A CN 101442544A
- Authority
- CN
- China
- Prior art keywords
- data
- equipment
- devices
- storage
- pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种数据存储方法、管理服务器及系统,其中,该方法包括:将所有存储数据的设备组成数据池;当有数据需要存储时,从数据池中的所有设备中轮循选择m个设备作为一组,将所述数据分别存储到该选定组的m个设备中,其中,m为大于1且小于所有设备的总数目的自然数。本发明各实施例可解决现有的群集方式进行数据存储时某节点损坏带来其它节点负荷增加、不稳定及现有的数据存储方式每个节点的利用率不高、可预测性较差等问题,实现某节点损坏时其它节点仍有较高的稳定性,并同时提高节点的资源利用率及可预测性。
Description
技术领域
本发明涉及一种数据存储方法,特别是一种可均匀设备负荷、提高设备资源利用率,增加设备稳定性的方法;本发明还涉及一种管理服务器,特别是一种可对数据存储进行管理,均匀存储设备的负荷、提高设备资源利用率,增加设备稳定性的管理服务器;本发明又涉及一种数据存储系统,属于通信技术领域。
背景技术
电信领域中需要对用户的数据进行存储,如,移动通信领域中,对大量的用户注册信息、业务属性等进行存储,现有技术中对用户数据进行存储主要采用群集(以下简称CLUSTER)方式,现有存储系统中分为若干个群集,每个群集内有两个或多个设备,存储用户数据的每个设备称为该群集内的一个节点(简称NODE),每个群集内部的各个节点拥有相同的用户数据,不同的群集拥有不同的用户数据。
现有技术中采用群集方式对用户数据的存储管理如图1所示,存储系统共有3个群第一群集a、第二群集b及第三群集c,每个群集内有2个存储设备,称为后端(Back End,以下简称BE),每个BE接收到新的用户数据时,会自动将该数据保存并同时存储到该群集下的其它节点,因此每个群集内的所有BE存储相同的数据。如图1所示,第一群集a由第一BE和第二BE组成,第一BE和第二BE均存储有用户11-15和21-25的数据;第二群集b由第三BE和第四BE组构成,并在第三BE和第四BE均存储用户31-35和41-45的数据;第三群集c由第五BE和第六BE组成,第五BE和第六BE均存储用户51-55和61-65的数据。
现有的存储方式在某一节点损坏时,通过该节点所属的群集内的其它后端设备节点可以保证用户正常使用业务,在一定程度上可以保证用户的数据不丢失,但是,现有的存储方式仍存在如下缺陷:当某一群集内的一个节点损坏(简称Fail)后,该群集中的剩余节点将承担此节点的全部负荷,如访问量(简称TRAFFIC)全部增加到剩余节点上,容易造成剩余节点负荷增加,由此导致设备不稳定,严重的还可能导致节点超负荷、无法工作等情况。
以图1为例,假设正常情况下,每个群集内的每个BE的CPU负荷为40%,当第一群集中的第一BE损坏后,它的访问量将会被第二BE完全承担,如表一所示,使得第二BE的负荷突然升高至80%,导致第二BE变的不太稳定。
表一 群内各节点的负荷情况
现有的存储方式不仅容易造成存储系统的不稳定,而且在多个节点(也即图1中的各个BE)损坏时,无法预测实际损失的用户数据量。举例说明,假设存储系统中有N/2个群集,每个群集内有2个后端设备进行数据存储,每个后端设备为一个节点,则共有N个节点,其中有M(M<N)个节点损坏,则损失数据量为:
1)最坏情况下,损坏的M个节点是成对损坏的,则M/2整数个群集内的用户数据均丢失,无法恢复,损失的用户数据占全部用户数据的比例是M/N;
2)最好情况下:损坏的M个节点归属于不同群集,且M小于N/2,则损坏节点的所含用户可通过相同群集内的另一节点正常使用业务,此时没有数据的损失;
3)一般情况下:损坏的数据介于1)和2)两者之间。
由上述计算损失量的3种情况可知,现有的用户数据存储方式可预测性较差,在多个节点损坏时,如果预测、控制的不准确,会造成用户数据的丢失,导致用户无法使用业务,为用户带来影响,如接续不通,造成投诉量的增加等。
综上所述,现有的数据存储方式在某节点损坏后,只能由该群集内剩余节点来接管损坏节点的负荷,因此,对于产生损坏节点的群集,容易造成该群集内剩余节点负荷增加、设备不稳定、资源利用率不高等问题,严重的还可能导致节点超负荷、无法工作;并且现有的数据存储方式对于实际损失的数据量预测性较差,可能带来投诉的用户数量不可预测。
发明内容
本发明的第一目的是提供一种数据存储方法,用以解决现有的群集方式进行数据存储时某节点损坏带来其它节点负荷增加、不稳定及现有的数据存储方式每个节点的利用率不高,可预测性较差等问题,实现某节点损坏时其它节点仍有较高的稳定性,并且提高节点(存储设备)的资源利用率及可预测性。
本发明的第二目的是提供一种管理服务器,用以解决现有的存储设备(如,BE)损坏带来其它设备负荷增加、不稳定及现有存储设备资源利用率不高的问题,以实现每个存储设备具有较高的稳定性,同时提高各存储设备的利用率。
本发明的再一个目的是提供一种数据存储系统,用以解决现有的群存储系统进行数据存储时某节点损坏带来其它节点负荷增加、不稳定及现有的数据存储系统中每个节点的利用率不高,损失量可预测性较差等问题,实现某节点损坏时存储系统仍有较高的稳定性,并且提高整个系统的资源利用率及可预测性。
为了实现本发明第一目的,本发明的数据存储方法包括:
将所有存储数据的设备组成数据池;
当有数据需要存储时,从数据池中的所有设备中轮循选择m个设备作为一组,将所述数据分别存储到该选定组的m个设备中,其中,m为大于1且小于所有设备的总数目的自然数。
为了实现本发明第二目的,本发明的管理服务器包括:
判断模块,用于判断是否有数据进行存储;
资源分配模块,与判断模块连接,用于在有数据进行存储时,从所有存储数据的设备组成的数据池中轮循选择m个设备作为一组,将所述数据分别发送到所述m个设备进行存储,其中,m为大于1且小于所有设备的总数目的自然数;
管理模块,与资源分配模块连接,用于对所述数据池所有设备的总数目及资源进行管理。
为了实现本发明第三目的,本发明的数据存储系统包括:多个存储数据的设备,还包括实现本发明第二目的的任一管理服务器,所述管理服务器通过集中管理方式对所述设备进行管理。
综上所述,本发明将所有存储数据的设备组成同一个数据池(简称POOL),池内的存储设备不再进行划分,对于不同的数据尽量分散存储在池内的多个不同设备上,实现将数据均匀分散的存储在数据池内的若干个BE上,从而提高了资源利用率,与现有技术在一个群集下的所有设备均存储同样的数据不同,因此,本发明在某一设备损坏后,对应该设备的数据访问量将由池内多个设备节点进行承担,能够实现均匀设备负荷、提高设备资源利用率,增加设备和系统的稳定性,具有较好的容灾特性。同时,经证明,本发明某些存储设备损坏后,损失的数据比例是一定的,可以计算,因此,与现有技术相比,本发明上述技术方案可控性好,可以在设备损坏后进行提前预测,避免不易预测带来的影响。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为现有数据存储系统结构示意图;
图2为本发明数据存储方法实施例解析示意图;
图3为本发明数据存储方法实施例一流程图;
图4为本发明数据存储方法实施例二流程图;
图5为本发明数据存储方法实施例三流程图;
图6为本发明管理服务器实施例一示意图;
图7为本发明管理服务器实施例二示意图;
图8为本发明数据存储系统实施例一示意图;
图9为本发明数据存储系统实施例二示意图。
具体实施方式
参见图2,为本发明数据存储方法实施例解析示意图。本发明提出了一种新的数据存储的方法,以下简称数据池存储方式,下面以存储存储系统有6台存储设备共存储用户11-15,21-25,31-35,41-45,51-55,61-65的数据为例,对照图2介绍本发明的存储方法及与现有技术的区别:
1.现有技术中采用群集方法进行存储,第一BE和第二BE属于第一群集a,存储有用户11-15和21-25的数据;第三BE和第四BE属于第二群集b,存储有用户31-35和41-45的数据;第五BE和第六BE属于第三群集c,均存储用户51-55和61-65的数据;
2.本发明采用数据池方式进行存储,虽然存储的数据与图1相同,但存储的方法不同,如图2所示,将所有存储数据的设备组成一个数据池d,第一BE中有数据11-15,但这5个数据又分散存储到其它5个BE上,而不是像图1一样,全部存储到第二BE,其它第二BE-第六BE类似,因此,一旦某个设备损坏,损坏设备上的访问量将由池内的其它5个BE进行分担,不会造成其余某一设备超负荷的情况发生。
假设正常状况下,数据池d中每个节点的CPU负荷为40%,则如图2所示,在第一BE损坏时,对其它设备的影响如表二所示:
表二 数据池内各节点的负荷情况
第一BE | 第二BE | 第三BE | 第四BE | 第五BE | 第六BE | |
正常情况下 | 40% | 40% | 40% | 40% | 40% | 40% |
第一BE损坏 | 0 | 48% | 48% | 48% | 48% | 48% |
由表一和表二可知,现有技术中的数据存储方式在某节点损坏后,只能由所属群集内剩余节点来接管损坏节点的负荷,因此,对于产生损坏节点的群集,容易造成该群集内剩余节点负荷增加、设备不稳定等问题;本发明在进行数据存储是采用数据池方式进行分散存储,将不同的数据进行分散存储到数据池中的不同节点上,因此,一旦发生节点损坏情况,由其余多个节点进行分担,解决了现有存储方式容易出现超负荷、设备不稳定的问题。
图2为本发明的具体解析示意图,图3为本发明数据存储方法实施例一流程图,从实现方式进行说明。如图3所示,本实施例包括:
步骤1:将所有存储数据的设备组成数据池;
步骤2:判断是否有数据需要存储,是则执行步骤3,否则保持状态不变,继续进行步骤2;
步骤3:从数据池中的所有设备中轮循选择m个设备作为一组;
步骤4:将所述数据分别存储到该选定组的m个设备中,其中,m大于1且小于所有设备的总数目。
本实施例可参见图2解析示意图,在接到存储数据时,轮询选择数据池中的一组存储设备,并将该存储数据分别存储到选定组的设备中,每次轮询选择时,按照不同的组进行分别保存,因此,不同的数据保存的位置均不相同,如图2所示,用户11的数据保存在第一BE和第六BE,用户35的数据保存在第三BE和第五BE。采用数据池方式进行分散存储,将不同的数据分散存储到数据池中的不同节点上,因此,节点发生损坏情况时,由其余多个节点进行分担,不易出现超负荷并同时保持了设备的稳定性。
参见图4,为本发明数据存储方法实施例二流程图。图4与图3类似,具有图3的功能,但是更为具体,本实施例包括:
步骤1:将所有存储数据的设备组成数据池;在数据池中设置一管理所有设备的管理服务器;
步骤2’:判断是否收到数据插入请求消息,否则保持状态不变,继续进行步骤2’;是则执行步骤3’;
步骤3’:管理服务器按照Cn 2原理,轮询选择所述数据池中的2个设备作为一组存储设备,其中n表示数据池中所有设备的总数目;Cn 2原理为数学领域中的一个公知常识,表示抽屉原理,意思是从n(n为大于2的自然数)个抽屉中任选2个作为一组,选取每组时不分选取的先后顺序,其计算公式为Cn 2=Pn 2/2!,Pn 2表示表示从n个抽屉中任选2个进行排列,选取时的不同先后顺序表示不同的排列,2!表示2×1=2,均为数学领域的公知常识,不再详述。本实施例根据数学中的抽屉原理可以计算出从数据池(共有n个设备)中任意选择2个作为存储设备的组合数,并且采用轮询选择的方式,从而保证不同的数据存储在不同的组中;
步骤4’:将所述数据分别存储到该选定组的2个设备中。
本实施例以轮询选择2个设备为例进行存储,当然,如果希望每个数据存储在3个设备上,则以Cn 3进行轮询选择,以此类推。本实施例中Cn 2的组合有多种,但是管理服务器并不是每次随机选择,而是在Cn 2的几种组合中进行轮询选择一组,最大限度地保证数据存储的分散原则。
参见图5,为本发明数据存储方法实施例三流程图。如图5所示,本实施例与图3和图4相比,增加了节点加入时的处理,如图5,本实施例包括:
步骤1:将所有存储数据的设备组成数据池;在数据池中设置一管理所有设备的管理服务器;
步骤A:判断是否有新的设备加入该数据池,是则执行步骤B,否则执行步骤2’;
步骤B:对原数据池中所有存储数据的设备进行分析;
步骤C:判断原数据池中的各设备是否超负荷,即是否存在一个或多个设备的负荷超过预设值,是则执行步骤D,否则执行步骤2’;
步骤D:将负荷超过预设值的设备上存储的部分数据转移到该新加入的设备上;
步骤2’:判断是否收到数据插入请求消息,否则保持状态不变,继续进行步骤A;是则执行步骤3’;
步骤3’:管理服务器按照Cn 2原理轮询选择所述数据池中的2个设备作为一组存储设备,其中n表示数据池中所有设备的总数目;
步骤4’:将所述数据分别存储到该选定组的2个设备中,继续执行步骤A。
本实施例对节点加入的情况进行了处理,在某一设备新加入原有设备组成的数据池时,还进一步对原数据池中的所有设备进行分析判断,如果有超负荷情况,则将超负荷部分的数据转移到该新加入的设备上,进一步优化了存储系统,增加了稳定性和容灾特性。
将超负荷部分的数据转移到新加入的设备上具体可以是:将超过负荷预定值的设备上超过预定负荷之外的其余数据存储到所述新加入的设备,并将所述预定负荷之外的其余数据从对应的设备上删除;其中,每个超过负荷预定值的设备存储到所述新的设备上的所述其余数据均不相同。
上述方法实施例均对本发明数据存储方法的有益效果进行了说明:可避免设备超负荷、稳定性高等,下面通过举例验证本发明数据的存储方法还具有较高的可控性。
假设有n个存储数据的设备组成同一个数据池,称这n个设备为数据池中的n个节点,共需存储n*X个用户数据,每个用户的数据希望在数据池中存储两份,即数据池中所有节点共存储2n*X个数据,在插入任一用户数据时,从n个节点中任意选择两个节点(C2 n),将该用户数据放入这两个选定的节点中,这可理解为数学中公知的C2 n原理,总共有C2 n个抽屉,将n*X个用户的数据平均地放入这C2 n个抽屉中,即可实现数据尽量分散的原则。本发明采用轮询选择进行存储的方法,尽量保证了数据的分散存储,最终每个节点存储有数据2X个,其中有X个数据分散的存储在其余的(n-1)个节点上,其余X个数据为分别存储其它(n-1)个节点上的部分数据,如图2所示。假设该数据池中有m个节点损坏,则:
1)用户的数据损失数目:C2 m*每两个节点损失的用户数据=C2 m*(2X/(n-1))=(m-1)*m*(X/(n-1));
2)用户数据的损失比例:用户的数据损失数目/用户数据总数=((X/(n-1))*(m-1)*m)/(n*X)=m*(m-1)/(n*(n-1))。
上述计算公式中,n和m为大于1的自然数。由上述计算验证可知,当某些节点损坏(Fail)后,其损失的用户数目是一定的,可控性较强,具有很好的预测性。现有技术中采用群集方式进行存储,损失的用户数目根据具体损坏节点的情况而变化,预测性差,本发明上述各方法实施例可避免现有技术中预测性不高带来的投诉用户数量不可控制等影响。
综上所述,本发明将所有存储数据的设备组成同一个数据池(简称POOL),池内的存储设备不再进行划分,对于不同的数据尽量分散存储在池内的多个不同设备上,实现将数据均匀分散的存储在数据池内的若干个BE上,从而提高了资源利用率,本发明在某一设备损坏后,对应该设备的数据访问量将由池内多个设备节点进行承担,能够实现较好的容灾特性,提高系统的稳定性。同时,经证明,本发明某些存储设备损坏后,损失的数据比例是一定的,可以计算,因此,与现有技术相比,本发明上述技术方案可控性好,可以在设备损坏后进行提前预测,避免不易预测带来的影响。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
参见图6,为本发明管理服务器实施例一示意图。如图6所示,本实施例包括:
判断模块,用于判断是否有数据进行存储;
资源分配模块,与判断模块连接,用于在有数据进行存储时,从所有存储数据的设备组成的数据池中轮循选择m个设备作为一组,将所述数据分别发送到所述m个设备进行存储,其中,m为大于1且小于所有设备的总数目的自然数;
管理模块,与资源分配模块连接,用于对所述数据池所有设备的总数目及资源进行管理。
本实施例管理服务器通过对所有设备组成的数据池进行集中管理,轮询选择存储的节点、对各设备的资源或负荷进行分配,可以解决现有的存储设备(如,BE)损坏带来其它设备负荷增加、不稳定及现有存储设备资源利用率不高的问题,以实现每个存储设备具有较高的稳定性,同时提高各存储设备的利用率。
参见图7,为本发明管理服务器实施例二示意图。图7对图6实施例内部各功能模块进一步细化。如图7所示,本实施例判断模块包括:
数据录入子模块,用于接收到数据插入请求消息时,触发资源分配模块;
接收子模块,与数据录入子模连接,用于接收插入的数据;
和/或资源分配模块包括:
存储子模块,用于存储数据池中所有设备的总数目n及轮询选择的设备数目m;
轮询计算子模块,与存储模块连接及数据录入子模块连接,用于收到数据插入请求消息时,调用存储子模块,根据Cn m原理,轮询选择一组m设备;
发送子模块,与轮询计算子模块及接收子模块连接,用于将插入的数据分别发送到所述m个设备;
和/或管理模块包括:
监测子模块,与存储子模块连接,用于对数据池中的所有设备进行监测,当收到数据池中某设备的退出请求和/或收到另外一新设备加入该数据池的加入请求时,对管理的资源进行更新,并将更新后的所有设备的总数目发送给所述存储子模块;
分析子模块,与监测子模块连接,用于收到另外一新设备加入该数据池的加入请求时,向原数据池中的所有设备发送负荷查询请求信息,并对所有设备返回的负荷信息进行分析;
执行子模块,与分析子模块连接,用于在原数据池中存在一个以上设备的负荷超过预设值时,将负荷超过预设值的设备上存储的部分数据转移到所述新设备上。
图7实施例中判断模块主要对于数据的录入请求进行处理,管理模块对数据池中各个节点设备的注册、退出等信息进行管理和更新,随时监测整个数据池的情况,便于在收到存储数据时,对数据进行分散存储。图6和图7实施例具有与图2-图5方法实施例类似的功能,具体可参见方法实施例部分的原理及技术方案的介绍,在此不再赘述。
图8为本发明数据存储系统实施例一示意图。如图8所示,本实施例包括4个存储数据的设备后端设备101-后端设备104,还包括一管理4个设备的管理服务器(Back End Management Server,简称BEMS),由4个设备后端设备101-后端设备104组成数据池,4个后端设备均需注册到该服务器上,并通过管理服务器进行存储数据的管理,本实施例中的管理服务器可参见图6-图7实施例,不再举例说明。
本实施例数据存储系统,可以解决现有的群存储系统进行数据存储时某节点损坏带来其它节点负荷增加、不稳定及现有的数据存储系统中每个节点的利用率不高,损失量可预测性较差等问题,实现某节点损坏时存储系统仍有较高的稳定性,并且提高整个系统的资源利用率及可预测性。
参见图9,为本发明数据存储系统实施例二示意图,具有图8所述的功能和有益效果。本实施例中管理服务器采用图6或图7实施例的结构,并且将后端设备,即存储设备内部进行了细化,如图9所示,本实施例中后端设备101包括:
数据录入模块,用于接收管理服务器发送的录入数据,如图7实施例中发送子模块发送的数据;
存储模块,与数据录入模块连接,用于存储录入的数据,计算设备的负荷量;
检测模块,与存储模块连接,用于在设备退出或加入数据池时,向管理服务器,如图7所示的监测子模块发送退出或加入请求,在加入数据池后,与管理服务器保持状态互通,在收到管理服务器查询设备负荷的请求后,返回设备当前的负荷量信息。
本发明能有多种不同形式的具体实施方式,上面以图2-图9为例结合附图对本发明的技术方案作举例说明,这并不意味着本发明所应用的具体实例只能局限在特定的流程、结构中,本领域的普通技术人员应当了解,上文所提供的具体实施方案只是多种优选用法中的一些示例,任何将所有设备组成数据池,并将不同的数据进行分散存储到数据池中的不同节点上的技术方案均应在本发明技术方案所要求保护的范围之内。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (12)
1.一种数据存储方法,其特征在于,包括:
将所有存储数据的设备组成数据池;
当有数据需要存储时,从数据池中的所有设备中轮循选择m个设备作为一组,将所述数据分别存储到该选定组的m个设备中,其中,m为大于1且小于所有设备的总数目的自然数。
2.根据权利要求1所述的数据存储方法,其特征在于,还包括:
在所述数据池中设置一管理所有设备的管理服务器,并通过该管理服务器进行轮询选择的操作。
3.根据权利要求1所述的数据存储方法,其特征在于,所述有数据需要存储具体为:收到数据插入请求消息。
4.根据权利要求1所述的数据存储方法,其特征在于,所述从数据池中的所有设备中轮询选择m个设备作为一组具体包括:
按照Cn m原理,从所述数据池中轮询选择m个设备作为一组存储设备,其中n表示所有设备的总数目,n为大于1的自然数。
5.根据权利要求1-4所述的任一数据存储方法,其特征在于,还包括:
当有新的设备加入所述数据池时,对原数据池中所有存储数据的设备进行分析;
当原数据池中存在至少一个设备的负荷超过预设值时,将负荷超过预设值的设备上存储的部分数据转移到所述新的设备上。
6.根据权利要求5所述的数据存储的方法,其特征在于,所述将负荷超过预设值的设备上存储的部分数据转移到所述新的设备上具体包括:
将超过负荷预定值的设备上超过预定负荷之外的其余数据存储到所述新的设备,并将所述预定负荷之外的其余数据从对应的设备上删除;
其中,每个超过负荷预定值的设备存储到所述新的设备上的所述其余数据均不相同。
7.一种管理服务器,其特征在于,包括:
判断模块,用于判断是否有数据进行存储;
资源分配模块,与判断模块连接,用于在有数据进行存储时,从所有存储数据的设备组成的数据池中轮循选择m个设备作为一组,将所述数据分别发送到所述m个设备进行存储,其中,m大于1且小于所有设备的总数目的自然数;
管理模块,与资源分配模块连接,用于对所述数据池所有设备及设备资源进行管理。
8.根据权利要求7所述的管理服务器,其特征在于,所述判断模块包括:
数据录入子模块,用于接收到数据插入请求消息时,触发资源分配模块;
接收子模块,与数据录入子模连接,用于接收插入的数据。
9.根据权利要求7或8所述的管理服务器,其特征在于,所述资源分配模块包括:
存储子模块,用于存储数据池中所有设备的总数目n及轮询选择的设备数目m;
轮询计算子模块,与存储模块连接,用于根据Cn m原理,轮询选择m个设备作为一组;
发送子模块,与轮询计算子模块连接,用于将需要存储的数据分别发送到所述m个设备。
10.根据权利要求9所述的管理服务器,其特征在于,所述管理模块包括:
监测子模块,用于对数据池中的所有设备进行监测,当收到数据池中某设备的退出请求和/或收到另外一新设备加入该数据池的加入请求时,对管理的数据池中的设备资源进行更新,并将更新后的所有设备的总数目发送给所述存储子模块;
分析子模块,与监测子模块连接,用于收到另外一新设备加入该数据池的加入请求时,向原数据池中的所有设备发送负荷查询请求信息,并对所有设备返回的负荷信息进行分析;
执行子模块,与分析子模块连接,用于在原数据池中至少存在一个设备的负荷超过预设值时,将负荷超过预设值的设备上存储的部分数据转移到所述新设备上。
11.一种包括上述权利要求7-10任一所述的管理服务器的数据存储系统,其中,还包括多个存储数据的设备,所述管理服务器与所有的存储数据的设备相连,通过集中管理方式对所述设备进行管理。
12.根据权利要求11所述的数据存储系统,其特征在于,所述存储数据的设备包括:
数据录入模块,用于接收管理服务器发送的录入数据;
存储模块,与数据录入模块连接,用于存储录入的数据,计算设备的负荷量;
检测模块,与存储模块连接,用于在设备退出或加入数据池时,向管理服务器发送退出或加入请求,在加入数据池后,与管理服务器保持状态互通,在收到管理服务器查询设备负荷的请求信息后,返回设备当前的负荷量信息。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2007101779130A CN101442544A (zh) | 2007-11-22 | 2007-11-22 | 数据存储方法、管理服务器及系统 |
PCT/CN2008/072584 WO2009065318A1 (fr) | 2007-11-22 | 2008-09-28 | Procédé de stockage de données, serveur de gestion, équipement et système de stockage |
US12/741,406 US20100268908A1 (en) | 2007-11-22 | 2008-09-28 | Data storage method, device and system and management server |
EP08851803A EP2202921B1 (en) | 2007-11-22 | 2008-09-28 | A data storage method, a management server, a storage equipment and system |
JP2010534346A JP2011505617A (ja) | 2007-11-22 | 2008-09-28 | データ・ストレージ方法、管理サーバ、ストレージ設備及びシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2007101779130A CN101442544A (zh) | 2007-11-22 | 2007-11-22 | 数据存储方法、管理服务器及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101442544A true CN101442544A (zh) | 2009-05-27 |
Family
ID=40726783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007101779130A Pending CN101442544A (zh) | 2007-11-22 | 2007-11-22 | 数据存储方法、管理服务器及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101442544A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101827120A (zh) * | 2010-02-25 | 2010-09-08 | 浪潮(北京)电子信息产业有限公司 | 一种集群存储方法及系统 |
CN113900638A (zh) * | 2021-11-23 | 2022-01-07 | 重庆允成互联网科技有限公司 | 可视化触发器配置方法及存储介质 |
-
2007
- 2007-11-22 CN CNA2007101779130A patent/CN101442544A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101827120A (zh) * | 2010-02-25 | 2010-09-08 | 浪潮(北京)电子信息产业有限公司 | 一种集群存储方法及系统 |
CN113900638A (zh) * | 2021-11-23 | 2022-01-07 | 重庆允成互联网科技有限公司 | 可视化触发器配置方法及存储介质 |
CN113900638B (zh) * | 2021-11-23 | 2022-04-26 | 重庆允成互联网科技有限公司 | 可视化触发器配置方法及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760491B2 (ja) | イベント処理システム、イベント処理方法、イベント処理装置、及び、イベント処理プログラム | |
US20100268908A1 (en) | Data storage method, device and system and management server | |
CN102523234B (zh) | 一种应用服务器集群实现方法及系统 | |
CN101751415B (zh) | 元数据服务系统、元数据同步方法与写服务器更新方法 | |
CN105025053A (zh) | 基于云存储技术的分布式文件的上传方法及其系统 | |
CN102317916A (zh) | 分散系统 | |
CN104753994A (zh) | 基于集群服务器系统的数据同步方法及其装置 | |
CN103036979A (zh) | 一种服务器负载均衡方法及负载均衡器 | |
CN101860493A (zh) | 为客户端分配应用服务器地址的方法、服务器及系统 | |
CN109743137A (zh) | 一种支持更新的分布式延迟消息队列处理系统 | |
CN101677324A (zh) | 业务管理方法、终端、网络系统及相关设备 | |
CN112948120A (zh) | 负载均衡方法、系统、装置和存储介质 | |
US20130139178A1 (en) | Cluster management system and method | |
CN103166871A (zh) | 一种大型互联网服务器网络实现负载均衡的系统及方法 | |
CN105282244B (zh) | 一种数据处理方法、装置、服务器及控制器 | |
CN109151028A (zh) | 一种分布式存储系统容灾方法及装置 | |
CN104219069A (zh) | 访问频率控制方法、装置及控制系统 | |
US20140156853A1 (en) | Computer and resource retrieval method | |
CN101442543A (zh) | 数据存储方法、设备及系统 | |
CN110519354A (zh) | 一种分布式对象存储系统及其业务处理方法和存储介质 | |
CN102957546A (zh) | 配置处理方法、装置及系统 | |
CN101442544A (zh) | 数据存储方法、管理服务器及系统 | |
CN114675927B (zh) | 服务实例部署方法、装置、电子设备及存储介质 | |
CN106940712A (zh) | 序列生成方法与设备 | |
CN104461705A (zh) | 一种业务访问的方法及存储控制器、集群存储系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20090527 |