JP2010033599A - Unshared database management system - Google Patents

Unshared database management system Download PDF

Info

Publication number
JP2010033599A
JP2010033599A JP2009254559A JP2009254559A JP2010033599A JP 2010033599 A JP2010033599 A JP 2010033599A JP 2009254559 A JP2009254559 A JP 2009254559A JP 2009254559 A JP2009254559 A JP 2009254559A JP 2010033599 A JP2010033599 A JP 2010033599A
Authority
JP
Japan
Prior art keywords
data
server
database
storage
shared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009254559A
Other languages
Japanese (ja)
Other versions
JP5146440B2 (en
Inventor
Daisuke Ito
大輔 伊藤
Kazutomo Ushijima
一智 牛嶋
Frederico Mashel
マシエル・フレデリコ
Shinji Fujiwara
真二 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009254559A priority Critical patent/JP5146440B2/en
Publication of JP2010033599A publication Critical patent/JP2010033599A/en
Application granted granted Critical
Publication of JP5146440B2 publication Critical patent/JP5146440B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of adding a database server with little effect on a table from a user or application to an unshared database management system, and a method of removing therefrom. <P>SOLUTION: A server is added according to a schedule for separately treating addition of a CPU resource and addition of a storage I/O using a scheduler module (4). The server is removed at optional timing using a shared disc. The data region is previously fragmented on the shared disc for dispensing with data transfer due to addition of the server. When applied in an operating method determining addition and removal of new servers in response to a load of the database server, a threshold of a load following determination is set highly, and there are effects such as improving an operating ratio of the servers, and reducing the number of pool servers. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明はデータベース管理システムを構成する各データベースサーバ間で処理対象データの共有を行わない無共有型データベース管理システムに関する。   The present invention relates to a non-shared database management system that does not share data to be processed between database servers constituting the database management system.

<背景の説明、用語の定義>
「無共有型データベース管理システム」
無共有型データベース管理システムは、複数データベースサーバからなる大規模データベースシステムの構成法の一つである。無共有型データベース管理システムでは、計算機の主要要素であるプロセッサ、メモリおよびストレージが、各データベースサーバごとに割り当てられ、ネットワーク以外の構成要素を共有しない。データベースを構成するデータも各データベースサーバごとに分配され、その割り当てストレージに格納される。よって各データベースサーバは、データベースの互いに素な部分集合を処理対象データとして担当し、部分集合ごとに処理を行うことになる。
<Background explanation, definition of terms>
"Non-shared database management system"
The non-shared database management system is one of the construction methods of a large-scale database system composed of a plurality of database servers. In the non-shared database management system, the processor, memory and storage, which are the main elements of the computer, are allocated to each database server and do not share components other than the network. Data constituting the database is also distributed to each database server and stored in the allocated storage. Therefore, each database server takes charge of a disjoint subset of the database as processing target data, and performs processing for each subset.

このような構成の特徴から、無共有型データベース管理システムは共有資源に対する排他制御処理を必要とせず、データベースサーバ数の増加に対するスケーラビリティが高いという長所を持つ。しかし、システムの構成変更などの原因により、各データベースサーバ間で扱うデータ量の不均衡が生じると、データ量の多いデータベースサーバの実行時間が相対的に長くなり、クエリ全体の処理が効率的に行われなくなる。そのため、無共有型データベースシステムでは、データベースサーバ数を変更する際に、あわせてデータベースサーバ間の扱うデータの均衡を取るために、データのサーバへの割り当ての変更を行う必要が生じるという短所を持つ。   Due to the characteristics of such a configuration, the non-shared database management system does not require exclusive control processing for shared resources, and has an advantage of high scalability against an increase in the number of database servers. However, if there is an imbalance in the amount of data handled between database servers due to system configuration changes, etc., the execution time of the database server with a large amount of data will become relatively long, and the entire query processing will be efficient. No longer done. For this reason, the non-shared database system has a disadvantage in that when changing the number of database servers, it is necessary to change the allocation of data to the servers in order to balance the data handled among the database servers. .

「データベースサーバのリソース」
無共有データベース管理システムに新たなデータベースサーバを追加する際には、一般的に新規サーバマシンを追加し、新規サーバマシン上でデータベースサーバを実行する。新規サーバマシンを追加したことで、データベースサーバを実行するための資源が増加し、性能向上に繋がる。本発明では、前記資源のうち、演算能力向上にかかわるものを「CPUリソース」と呼ぶ事とする。また、ストレージ入出力性能向上にかかわるものを「ストレージI/Oリソース」と呼ぶ事とする。
"Database Server Resources"
When a new database server is added to the non-shared database management system, a new server machine is generally added and the database server is executed on the new server machine. By adding a new server machine, resources for executing the database server increase, leading to performance improvement. In the present invention, among the resources, those related to improving the computing ability are referred to as “CPU resources”. In addition, a storage I / O performance improvement is called a “storage I / O resource”.

「データ再配置」
前記のとおり、無共有型データベース管理システムにデータベースサーバを新規に追加する際や、無共有型データベース管理システムからデータベースサーバを取り外す際には、データベースサーバ間でのデータの均衡を取る必要がある。本発明では、この操作を以下「データの再配置」と呼ぶこととする。
"Data Relocation"
As described above, when adding a new database server to the non-shared database management system or removing a database server from the non-shared database management system, it is necessary to balance data among the database servers. In the present invention, this operation is hereinafter referred to as “data rearrangement”.

「ストレージ仮想化」
ストレージ仮想化は、ネットワーク上のストレージの使いやすさを向上させる手段の一つである。ネットワーク上に複数台のストレージが存在し、それらを単一のサーバから使用する際に、あたかも単一のストレージを使用しているように見せることで、運用管理も一つに統合でき、管理コストの低減に繋がる。本発明では、ストレージ仮想化を行う場所を「(ストレージ)仮想化層」と呼ぶ。ストレージ仮想化層は一般にストレージ上、ストレージ管理ミドルウエア、ファイルシステム上に存在する。オペレーティングシステムはストレージをボリューム単位で管理する。そこで、本発明では、仮想化されたストレージを「論理ボリューム」と呼ぶ。また、論理ボリュームを構成する個々のストレージを「単位ボリューム」と呼ぶ。
"Storage Virtualization"
Storage virtualization is one means for improving the usability of storage on a network. There are multiple storage units on the network, and when using them from a single server, it is possible to consolidate operation management into one by making it appear as if a single storage is being used. It leads to reduction of. In the present invention, a place where storage virtualization is performed is referred to as a “(storage) virtualization layer”. The storage virtualization layer generally exists on the storage, storage management middleware, and file system. The operating system manages storage in units of volumes. Therefore, in the present invention, the virtualized storage is referred to as a “logical volume”. Further, individual storages constituting the logical volume are referred to as “unit volumes”.

<従来手法の説明>
従来の手法としては、DB2 バージョン7.2添付のオンラインマニュアル「管理者の手引き 第30章」に記載のALTER NODEGROUPステートメントを使用する手法がある。この手法では、図2(a)に示すように新規データベースサーバの追加を行う際には、新規データベースサーバの割り当てストレージにデータ領域を追加し(21)、複数データベースサーバからなる無共有型データベース管理システムに新規データベースサーバを追加(22)した後に、データ量の均衡を取るためにデータベースサーバ間でデータの再配置を行う(23)となっていた。また、図2(b)に示すデータベースサーバの取り外しを行う際には、データの再配置を行い取り外し対象データベースサーバのデータ領域を空にし(24)、その後データベースサーバの取り外しを行う(25)となっていた。
<Description of conventional method>
As a conventional method, there is a method of using an ALTER NODEGROUP statement described in the online manual “Administrator's Guide Chapter 30” attached to DB2 version 7.2. In this method, as shown in FIG. 2A, when a new database server is added, a data area is added to the storage allocated to the new database server (21), and a non-shared database management consisting of a plurality of database servers is performed. After adding a new database server (22) to the system, the data is rearranged between the database servers (23) in order to balance the amount of data. When the database server shown in FIG. 2B is removed, data is rearranged to empty the data area of the database server to be removed (24), and then the database server is removed (25). It was.

また、これ以外の従来の手法としては、特開平11-282734号公報に記載した並列データベース管理方法があげられる。この手法では、オンライン業務を中断することなくデータベースとデータベース処理装置との対応付けを変更する事で、複数のデータベース処理装置で管理しているデータベースを特定のデータベース処理装置から直接アクセスすることができる。また、この手法はデータベースの分割数は不変である事を特徴とする。   As another conventional method, there is a parallel database management method described in JP-A-11-282734. In this method, the database managed by a plurality of database processing devices can be directly accessed from a specific database processing device by changing the association between the database and the database processing device without interrupting the online operation. In addition, this method is characterized in that the number of database divisions is unchanged.

特開平11-282734号公報Japanese Patent Laid-Open No. 11-282734

前記従来技術は無共有型データベース管理システムにおいて頻繁にデータベースサーバの追加や取り外しが起こる場合への配慮がされておらず、長時間を要するデータ再配置を行わないとデータベースサーバの追加や取り外しが行えないという問題があった。さらにデータ再配置は負荷の高い処理であるため、単純に実行した場合、ユーザやアプリケーションからの表へのアクセス処理性能が低下する。よって負荷に応じてサーバ数を変更可能なシステムに応用した際に、サーバの追加が遅延を生じることなく処理性能の向上に反映されず、むしろ処理性能の低下を招く要因となりうるという問題があった。また、サーバの取り外しを決定してからデータ再配置を行うため、実際にサーバが取り外せるまでに遅延があるという問題があった。   The above-mentioned prior art does not consider the case where database servers are frequently added or removed in a non-shared database management system, and database servers can be added or removed without long-time data relocation. There was no problem. Furthermore, since data rearrangement is a processing with a high load, the performance of access processing to a table from a user or an application is lowered when it is simply executed. Therefore, when applied to a system in which the number of servers can be changed according to the load, there is a problem that the addition of servers is not reflected in the improvement in processing performance without causing a delay, but rather may cause a decrease in processing performance. It was. Further, since data rearrangement is performed after deciding to remove the server, there is a problem that there is a delay until the server can be actually removed.

また、特願平10-81097号公報に記載された方法では、データベースとデータベース処理装置の対応付けを変換することで負荷分散の是正を行う場合、データベースの分割数が不変であるため、データベース処理装置間の負荷を均衡化するのが難しい。この手法でも予めデータベースを細かく分割することで、負荷を均衡化することは可能であるが、その場合にはデータベースが大量に作成され、バキュームやバックアップといった運用管理面のコストが増大してしまう。本発明の目的は、ユーザやアプリケーションからの表へのアクセス処理性能に与える影響の少ないデータベースサーバの追加方法、および取り外し方法を提供することにある。   In addition, in the method described in Japanese Patent Application No. 10-81097, when the load distribution is corrected by converting the correspondence between the database and the database processing device, the number of database divisions does not change, so the database processing It is difficult to balance the load between devices. Even with this method, it is possible to balance the load by dividing the database in advance, but in this case, a large number of databases are created, which increases operational management costs such as vacuum and backup. An object of the present invention is to provide a method for adding and removing a database server that has little influence on the performance of access processing to a table from a user or an application.

本発明の無共有型データベース管理システムは、データの探索、演算を行う複数のバックエンドモジュールと、それぞれがデータベースを構成するデータの細分化された一部を格納する複数の単位ボリュームを含み、複数のバックエンドモジュールから共有される共有ストレージと、各々が複数のバックエンドモジュールのいずれか一つからアクセス可能な複数の仮想ボリュームに単位ボリュームの少なくとも一つを重複しないように対応付け、複数の単位ボリュームの各々が複数のバックエンドモジュールのいずれか一つからアクセスされるように単位ボリュームと仮想ボリュームとを関連付けるストレージ仮想化手段と、単位ボリュームに保持されたデータとバックエンドモジュールとの対応関係を保持した対応表を管理するマッピングモジュールと、データベースへの問い合わせを受け付け、マッピングモジュールマッピング情報を参照してバックエンドモジュールに向けた問い合わせのプランを作成するフロントエンドモジュールとを有し、単位ボリュームと仮想ボリュームとの関連づけを変更することによりバックエンドモジュールへの割り当てデータ領域を変更するようにしたことを特徴とする。   The non-shared database management system of the present invention includes a plurality of back-end modules for searching and calculating data, and a plurality of unit volumes each storing a fragmented part of the data constituting the database. A plurality of units are associated with the shared storage shared by the back-end modules and the plurality of virtual volumes each accessible from any one of the plurality of back-end modules so that at least one of the unit volumes does not overlap. Storage virtualization means for associating a unit volume with a virtual volume so that each of the volumes can be accessed from any one of a plurality of back-end modules, and the correspondence between the data held in the unit volume and the back-end module Mapping that manages the stored correspondence table Module and a front-end module that accepts queries to the database and creates a query plan for the back-end module by referring to the mapping module mapping information, and changes the association between the unit volume and the virtual volume Thus, the data area allocated to the back-end module is changed.

本発明によれば、無共有型データベース管理システムのデータベースサーバリソースの追加および取り外し処理に伴うデータ再配置をストレージ仮想化層と組み合わせる事で、データの移動を仮想ボリュームの更新に置き換え、物理的なデータ移動を伴わないデータ再配置が可能であり、サーバの稼働率を高めることが可能な無共有型データベース管理システムを実現できる。   According to the present invention, by combining data relocation associated with addition and removal processing of database server resources in a non-shared database management system with a storage virtualization layer, data movement is replaced with virtual volume update, Data relocation without data movement is possible, and a non-shared database management system capable of increasing the server operation rate can be realized.

また、データエリアを共有ディスク上で予め細分化しておく手法を取ることで、CPUリソースとストレージI/Oを遅延を生じることなく追加および取り外し可能であり、さらにデータ再配置と要った余計な負荷を生じないことから、先の場合と同様にデータベースサーバの負荷に応じて新規サーバの追加および取り外しを決定する際の負荷の閾値を高く設定でき、サーバの稼働率の向上やプールサーバの台数を減らすといった効果がある。   In addition, by taking a method of subdividing the data area on the shared disk in advance, CPU resources and storage I / O can be added and removed without delay, and data relocation and unnecessary extras are required. Since no load is generated, the load threshold when deciding whether to add or remove a new server can be set high according to the load on the database server, as in the previous case, improving the server operation rate and the number of pool servers The effect is to reduce.

本発明の実施例の無共有型データベース管理システムの概略を示すブロック図である。It is a block diagram which shows the outline of the non-shared database management system of the Example of this invention. 従来手法によるデータベースサーバの追加および取り外しのフローチャートである。It is a flowchart of addition and removal of a database server by a conventional method. 上記実施例のバックエンドモジュール当た当たり1つのデータ領域を割り当てた際の構成図である。It is a block diagram at the time of assigning one data area per backend module of the said Example. 上記実施例当たサーバの追加の手順を示すフローチャートである。It is a flowchart which shows the addition procedure of the server which corresponds to the said Example. 上記実施例当たサーバの取り外しの手順うを示すフローチャートである。It is a flowchart which shows the procedure of the removal of the server which corresponds to the said Example. 共有ストレージ上に細分化されたデータ領域を用いた本発明の別の実施例のバックエンドモジュールの構成図である。It is a block diagram of the back end module of another Example of this invention using the data area subdivided on the shared storage. 上記実施例におけるハッシュ−モジュールID対応表のデータ構造図である。It is a data structure figure of the hash-module ID correspondence table | surface in the said Example. 上記実施例のサーバの追加の手順を示すフローチャートである。It is a flowchart which shows the addition procedure of the server of the said Example. 上記実施例のサーバの取り外しの手順を示すフローチャートである。It is a flowchart which shows the procedure of removal of the server of the said Example. 共有ストレージ上の仮想化層を用いた本発明の更に別の実施例の構成図である。It is a block diagram of further another Example of this invention using the virtualization layer on shared storage. ストレージ管理ミドルウエア上の仮想化層を用いた本発明の更に別の実施例の構成図である。It is a block diagram of further another Example of this invention using the virtualization layer on storage management middleware. 共有ファイルシステム上の仮想化層を用いた本発明の更に別の実施例の構成図である。It is a block diagram of another Example of this invention using the virtualization layer on a shared file system. データベース管理システム上の仮想化層を用いた本発明の更に別の実施例の構成図である。It is a block diagram of another Example of this invention using the virtualization layer on a database management system.

以下、本発明の実施例を図1により説明する。   An embodiment of the present invention will be described below with reference to FIG.

本実施例における無共有型データベース管理システム(1)は、主にユーザインターフェースとなるフロントエンドモジュール(2)、データの探索や演算を行うバックエンドモジュール(3)、データベースサーバの追加および取り外し操作のスケジュールを作成するスケジューラモジュール(4)、データベースサーバの負荷を監視するサーバ監視モジュール(5)、複数のバックエンドモジュール間で共有される共有ストレージ(6)、およびバックエンドモジュールと共有ストレージの間のマッピングを管理するマッピングモジュール(7)を有する。   The non-shared database management system (1) in the present embodiment includes a front-end module (2) mainly serving as a user interface, a back-end module (3) for searching and calculating data, and database server addition and removal operations. A scheduler module (4) for creating a schedule, a server monitoring module (5) for monitoring the load on the database server, a shared storage (6) shared among a plurality of back-end modules, and between the back-end module and the shared storage It has a mapping module (7) that manages the mapping.

また、バックエンドモジュールを論理的に現用サーバ群(8)およびプールサーバ群(9)に分割して管理する。フロントエンドモジュール(2)はユーザ又はプログラムからの問合せを受け付け、複数のデータベースサーバに向けた問合せのプランを作成し、結果を返すモジュールである。本実施例においては現用サーバ群の構成が動的に変更されるため、フロントエンドモジュールもそれに対応して、現用サーバ群の構成に沿った問合せを発行する機能を持つ。   Further, the back-end module is logically divided into an active server group (8) and a pool server group (9) for management. The front-end module (2) is a module that accepts queries from users or programs, creates query plans for a plurality of database servers, and returns the results. In this embodiment, since the configuration of the active server group is dynamically changed, the front-end module also has a function of issuing a query corresponding to the configuration of the active server group correspondingly.

バックエンドモジュール(3)はデータベースサーバ上で動作し、ストレージ上のデータの探索を行い、その結果の演算を行うモジュールである。本実施例ではサーバ1台当たりバックエンドモジュールが1つ起動する。詳細構造は後述する。スケジューラモジュール(4)はデータベースサーバの追加および取り外し操作のスケジュールを作成するモジュールである。スケジューラモジュールの作成したスケジュールに従い、サーバ監視モジュールがバックエンドモジュールに指示を出す。サーバ監視モジュール(5)は各データベースサーバのCPU負荷を監視し、さらにデータベースサーバの追加および取り外し処理のコーディネータとなる。データベースサーバへのストレージ資源の割り当てはマッピングモジュールに委譲する。   The back-end module (3) is a module that operates on the database server, searches for data on the storage, and calculates the result. In this embodiment, one back-end module is activated per server. The detailed structure will be described later. The scheduler module (4) is a module for creating a schedule for adding and removing database servers. In accordance with the schedule created by the scheduler module, the server monitoring module issues an instruction to the back-end module. The server monitoring module (5) monitors the CPU load of each database server and further serves as a coordinator for database server addition and removal processing. Allocation of storage resources to the database server is delegated to the mapping module.

共有ストレージ(6)はストレージ専用ネットワーク上に論理的に構成される。各バックエンドモジュールに対しては、専用のデータ領域が共有ストレージ上に確保されるため、各バックエンドモジュール間でのリソース競合は起こらない。マッピングモジュール(7)は、サーバ監視モジュールから依頼を受けて、バックエンドモジュールと共有ストレージ上のストレージ領域を結びつける。   The shared storage (6) is logically configured on a storage dedicated network. For each back-end module, a dedicated data area is secured on the shared storage, so no resource contention occurs between the back-end modules. Upon receiving a request from the server monitoring module, the mapping module (7) links the back-end module and the storage area on the shared storage.

これら2〜5および7の各モジュール間の通信は非同期に行われる。本実施例ではキューを用いた非同期通信を行う。キューは通信に優先度をつけるために二本用意し、通常用いるキューと、優先度の高い特別なキューとする。   Communication between these modules 2 to 5 and 7 is performed asynchronously. In this embodiment, asynchronous communication using a queue is performed. Two queues are prepared to give priority to communication, and a normal queue and a special queue with high priority are used.

現用サーバ群(8)は複数台のデータベースサーバのうち、現在データ処理にかかわっているサーバの集合をあらわし、プールサーバ群(9)は現在データ処理にかかわっておらず、システム全体が高負荷状態となった時の予備サーバの集合をあらわす。なお、プールサーバ群は複数の無共有型データベース管理システム間で共有することができる。この手法はサーバの稼働率を高める上で有効である。   The active server group (8) represents a set of servers currently involved in data processing among a plurality of database servers, and the pool server group (9) is not currently involved in data processing, and the entire system is in a high load state. It represents a set of spare servers at that time. The pool server group can be shared among a plurality of non-shared database management systems. This method is effective in increasing the server operation rate.

「バックエンドモジュール当たり1つのデータ領域を割り当てた際のバックエンドモジュールの構成」
図3はバックエンドモジュール当たり1つのデータ領域を割り当てた際のバックエンドモジュールの構成を示す。バックエンドモジュール(31)は共有ストレージ(32)上の一つのデータ領域(33)と結び付けられる。また、この構成の元ではデータ領域に割り当てられていないバックエンドモジュール(34)を考える。バックエンドモジュール(31)は、マッピングモジュールによって、共有ストレージ上の共有データ領域を割り当てられる。各バックエンドモジュールは割り当てられたデータ領域上に処理対象データを格納し、探索を行う。また、ソートやマージといったデータ演算も行う。これは複数のバックエンドモジュールでデータをやり取りしながら行うこともある。
“Configuration of back-end module when one data area is allocated per back-end module”
FIG. 3 shows the configuration of the back-end module when one data area is allocated per back-end module. The back end module (31) is associated with one data area (33) on the shared storage (32). Also, consider a back-end module (34) that is not assigned to a data area under this configuration. The back-end module (31) is assigned a shared data area on the shared storage by the mapping module. Each back-end module stores data to be processed in the assigned data area and performs a search. It also performs data operations such as sorting and merging. This may be done while exchanging data between multiple backend modules.

データ領域(33)には主にデータベースの互いに疎な部分集合が格納される。また、データ演算の中間結果やデータ操作の履歴なども格納される。データ領域を持たないバックエンドモジュール(34)はデータの探索は行わず、CPU負荷の高いソートやマージといった操作専用に設定される。操作対象のデータはネットワーク経由で他のバックエンドモジュールから転送される。データ領域を持たないバックエンドモジュールは、現用サーバ群に対してCPUリソースのみを提供する。一方、31に示される通常のバックエンドモジュールはCPUリソースとストレージI/Oを共に提供する。   The data area (33) mainly stores a sparse subset of the database. In addition, intermediate results of data calculations, data operation histories, and the like are also stored. The back-end module (34) having no data area does not search for data, and is set exclusively for operations such as sorting and merging with high CPU load. Data to be operated is transferred from other backend modules via the network. A back-end module that does not have a data area provides only CPU resources to the active server group. On the other hand, the normal back-end module shown at 31 provides both CPU resources and storage I / O.

<バックエンドモジュール当たり1つのデータ領域を割り当てた際の動作の説明>
「サーバの追加」
前記サーバ監視モジュールが高負荷を検出することで、サーバの追加処理が開始され、スケジューラモジュール(4)によって図4に示す処理フローが作成される。処理フローにおいて、まず新規追加サーバが準備される(41)。ここではプールサーバ群の中から適当なサーバを選び、現用サーバ群の構成情報が伝えられる。
<Description of operation when one data area is allocated per backend module>
"Adding Servers"
When the server monitoring module detects a high load, a server addition process is started, and a process flow shown in FIG. 4 is created by the scheduler module (4). In the processing flow, first, a new addition server is prepared (41). Here, an appropriate server is selected from the pool server group, and the configuration information of the active server group is transmitted.

次に準備されたサーバがプールサーバ群から現用サーバ群に追加される(42)。ここではデータ領域を持たないバックエンドモジュール(34)としてサーバを追加するため、データの移動を伴わない。そのため、従来手法を用いた場合と比較して極めて迅速に行われる。42おいてデータ領域を持たないバックエンドモジュールを追加したことによって、現用サーバ群の負荷が低下する。負荷の低下速度および過去の統計情報から、今回検出された高負荷が一過性のものか、それとも長期に及ぶ現用サーバ群のリソース不足を意味するものか判断する(43)。   Next, the prepared server is added from the pool server group to the active server group (42). Here, since a server is added as a back-end module (34) having no data area, data is not moved. Therefore, it is performed very quickly as compared with the case where the conventional method is used. By adding a back-end module having no data area in 42, the load on the active server group is reduced. From the load reduction rate and past statistical information, it is determined whether the high load detected this time is transient or it means a long-term shortage of resources in the active server group (43).

現用サーバ群のリソース不足を意味するのならば、42において追加されたデータ領域を持たないバックエンドモジュールにもデータ領域を割り当てることで、ストレージI/Oもあわせて追加する事が望ましい。しかし前述したようにデータ再配置は負荷の高い操作である。そこで現用サーバ群の負荷が十分に下がるまで待機する(44)。そして負荷の低下後にデータ再配置を行う(45)。   If this means a shortage of resources in the active server group, it is desirable to add a storage I / O together by assigning a data area to a back-end module that does not have a data area added in 42. However, as described above, data rearrangement is a heavy operation. Therefore, it waits until the load on the active server group is sufficiently reduced (44). Then, data rearrangement is performed after the load is reduced (45).

一方、43において現用サーバ群の高負荷が一過性のものと判断された場合は、今回追加したデータ領域を持たないバックエンドモジュールが動作するサーバをプールサーバ群に戻す。この場合は負荷が十分に下がるまで待機(46)した後に、42で追加したデータ領域を持たないバックエンドモジュールの取り外しを行い、該当サーバをプールサーバ群に戻す(47)。これは、プールサーバ群を複数のデータベース管理システム間で共有する際に、総プールサーバの台数を減少させ、サーバの実稼働率を高める。なお、現用サーバ群の構成変更(42)を行う際にはトランザクションのACID特性を保証する必要がある。本実施例のデータベース管理システムでは新規トランザクションを開始することなく現在実行中のトランザクションの終了を待ち、その後全てのバックエンドモジュール間で同期を取って構成変更を行う事でACID特性を保証する。   On the other hand, if it is determined in 43 that the high load on the active server group is transient, the server on which the back-end module that does not have the data area added this time operates is returned to the pool server group. In this case, after waiting (46) until the load is sufficiently reduced, the back-end module having no data area added in 42 is removed, and the corresponding server is returned to the pool server group (47). This reduces the total number of pool servers when the pool server group is shared among a plurality of database management systems, and increases the actual operation rate of the servers. When changing the configuration of the active server group (42), it is necessary to guarantee the ACID characteristics of the transaction. In the database management system of this embodiment, the ACID characteristic is guaranteed by waiting for the end of the transaction currently being executed without starting a new transaction, and then performing a configuration change by synchronizing all back-end modules.

「サーバの取り外し」
前記サーバ監視モジュールが低負荷を検出することで、サーバの取り外し処理が開始され、スケジューラモジュール(4)によって図5に示す処理フローが作成される。
"Removing the Server"
When the server monitoring module detects a low load, the server removal process is started, and the scheduler module (4) creates the process flow shown in FIG.

処理フローにおいて、まず現用サーバ群の構成変更が行われる(51)。ここでは現用サーバ群から任意のデータベースサーバと共にそのサーバ上で実行していたバックエンドモジュールが取り外され、該当データ領域が他のバックエンドモジュール(51−A)に割り当てられる。この操作はデータの不均衡を招く。また、取り外されたデータベースサーバは、サーバの実稼働率を高めるためにプールサーバ群に戻される。次にデータ再配置が行われる(52)。ここでのデータ再配置は、51で他のバックエンドモジュール(51−A)に割り当てられたデータ領域を空にすることが目的である。この操作によって、現用サーバ群の割り当てデータ量は実質的に均衡化される。なお、図5に示される処理フローは現用サーバ群が低負荷の状態で行われるため、データ再配置に伴う負荷上昇の影響は問題とならない。データ再配置完了後、52で空になったデータ領域が完全に削除される(53)。   In the processing flow, first, the configuration of the active server group is changed (51). Here, the back-end module running on the server together with an arbitrary database server is removed from the active server group, and the corresponding data area is assigned to the other back-end module (51-A). This operation leads to data imbalance. Further, the removed database server is returned to the pool server group in order to increase the actual operation rate of the server. Next, data rearrangement is performed (52). The purpose of the data rearrangement here is to empty the data area allocated to the other back-end module (51-A) at 51. By this operation, the amount of data allocated to the active server group is substantially balanced. Note that the processing flow shown in FIG. 5 is performed in a state where the active server group has a low load, and therefore, the influence of the load increase due to the data rearrangement does not matter. After the data rearrangement is completed, the data area emptied in 52 is completely deleted (53).

「共有ストレージ上に細分化されたデータ領域を用いたバックエンドモジュールの構成」
図6は本発明の別の実施例の構成を示す。図6にはバックエンドモジュールと共有ストレージ内の各領域との関係のみ示すが、データベース管理システム全体の構成要素は図1に示す先の実施例と同様であるので図中で省略している。本実施例では、共有ストレージ62のデータ領域63は、そのデータの探索処理、演算処理を担当するバックエンドモジュール61に対応してではなく、より小さな単位に細分化されている。細分化は、例えば領域識別子のハッシュ値を用いたハッシュ分割法による。ただし、各バックエンドモジュールへのデータ領域の割り当てがハッシュ値によって直接定まるのではなく、ハッシュ値と担当するバックエンドモジュールとの対応関係を記録・管理するハッシュ値・モジュールID対応表によって定める。この構成により、バックエンドモジュールの追加投入もしくは削減の時に必要となるデータ領域の割り当て変更は、上記のハッシュ値・モジュールID対応表を更新するのみで可能となる。この割り当ての変更は、データの実移動を伴わないため、瞬時に行うことが可能である。したがって、バックエンドモジュールの追加もしくは削除に際し、データベース管理システム本来のアクセス処理の性能低下が先の実施例に増して回避可能である。
"Configuration of back-end module using data area segmented on shared storage"
FIG. 6 shows the configuration of another embodiment of the present invention. FIG. 6 shows only the relationship between the back-end module and each area in the shared storage, but the components of the entire database management system are the same as those in the previous embodiment shown in FIG. In this embodiment, the data area 63 of the shared storage 62 is subdivided into smaller units rather than corresponding to the back-end module 61 in charge of the data search processing and arithmetic processing. The subdivision is performed by, for example, a hash division method using a hash value of a region identifier. However, the allocation of the data area to each back-end module is not directly determined by the hash value, but is determined by a hash value / module ID correspondence table that records and manages the correspondence between the hash value and the back-end module in charge. With this configuration, it is possible to change the allocation of the data area required when additional back-end modules are added or reduced by simply updating the hash value / module ID correspondence table. This allocation change can be performed instantaneously because it does not involve actual movement of data. Therefore, when adding or deleting a back-end module, it is possible to avoid the performance degradation of the access processing inherent in the database management system, compared to the previous embodiment.

また、データ領域が属するバックエンドモジュールが変更した際にフロントエンドモジュールがクエリを適切なバックエンドモジュールに転送できるように、図7に上記のハッシュ−モジュールID対応表の例を示す。データ領域の識別子のハッシュ値71のそれぞれに対応してバックエンドモジュールID73が設定される。その設定は、バックエンドモジュール間で担当するデータ領域の合計データ量もしくはデータアクセスの頻度ができるだけ均等になるように分散すれば良い。このハッシュ−モジュールID対応表はマッピングモジュール(図1を参照)で管理する。フロントエンドモジュールはスケジュールを立てる際に、マッピングモジュールに問合せを行い、適切なバックエンドモジュールを選択する。   FIG. 7 shows an example of the hash-module ID correspondence table so that the front-end module can transfer the query to an appropriate back-end module when the back-end module to which the data area belongs changes. A back-end module ID 73 is set corresponding to each hash value 71 of the identifier of the data area. The setting may be distributed so that the total data amount in the data area in charge or the frequency of data access is made as uniform as possible between the back-end modules. This hash-module ID correspondence table is managed by a mapping module (see FIG. 1). When the front-end module makes a schedule, it queries the mapping module and selects an appropriate back-end module.

<共有ストレージ上に細分化されたデータ領域を用いた際の動作の説明>
「サーバの追加」
前記サーバ監視モジュールが高負荷を検出することで、サーバの追加処理が開始され、スケジューラモジュール(4)によって図8に示す処理フローが作成される。
<Explanation of operation when subdivided data area is used on shared storage>
"Adding Servers"
When the server monitoring module detects a high load, server addition processing is started, and a processing flow shown in FIG. 8 is created by the scheduler module (4).

処理フローにおいて、まず新規追加サーバが準備される(81)。ここでも41と同様に、プールサーバ群の中から適当なサーバを選び、現用サーバ群の構成情報が伝えられる。次に現用サーバ群の構成が変更される(82)。ここでは81で準備したサーバが追加され、バックエンドモジュールが追加される。さらに全バックエンドモジュール間の割り当てデータ量を均衡化するために、割り当てデータ領域が変更される。前記のように、割り当てデータ領域の変更は瞬時に行われる。   In the processing flow, a new addition server is first prepared (81). Here, as in 41, an appropriate server is selected from the pool server group, and the configuration information of the active server group is transmitted. Next, the configuration of the active server group is changed (82). Here, the server prepared in 81 is added, and the back-end module is added. Furthermore, the allocation data area is changed in order to balance the allocation data amount among all back-end modules. As described above, the allocation data area is changed instantaneously.

「サーバの取り外し」
前記サーバ監視モジュールが低負荷を検出することで、サーバの追加処理が開始され、スケジューラモジュール(4)によって図9に示す処理フローが作成される。
"Removing the Server"
When the server monitoring module detects a low load, a server addition process is started, and a process flow shown in FIG. 9 is created by the scheduler module (4).

処理フローにおいて、現用サーバ群の構成が変更される(91)。ここでは適当なバックエンドモジュールが取り外され、該当サーバがプールサーバ群に戻される。さらに全バックエンドモジュール間の割り当てデータ量を均衡化するために、割り当てデータ領域が変更される。前記のように、割り当てデータ領域の変更は瞬時に行われる。   In the processing flow, the configuration of the active server group is changed (91). Here, an appropriate back-end module is removed, and the corresponding server is returned to the pool server group. Furthermore, the allocation data area is changed in order to balance the allocation data amount among all back-end modules. As described above, the allocation data area is changed instantaneously.

「共有ストレージ上の仮想化層を用いた際の動作の説明」
図10は共有ストレージ上のストレージ仮想化層(103)によって仮想化された仮想ボリュームを用いる実施例の構成を示す。複数のバックエンドモジュール101は各々データ探索及び、データ演算を行う。そのデータ探索の対象は各々の仮想ボリューム105である。共有ストレージ102に設けられたストレージ仮想化層103によって、共有ストレージ上の複数の単位ボリューム106が仮想ボリューム105に関連付けられる。関連付けにはマップ10Aを用いる。ここでもバックエンドモジュール間のデータ配分にはハッシュ分割法を用いる。即ち、バックエンドモジュールが扱うデータ識別子のハッシュ値が等しいデータは同一データグループ107に属するデータと見なされる。また、それらのデータグループはそれぞれ単位ボリューム106に重複なく配置される。バックエンドモジュールを新たに追加したとき、もしくは削除したときに生じるデータ移動の最小単位は上記のデータグループである。
"Explanation of operation when using virtualization layer on shared storage"
FIG. 10 shows a configuration of an embodiment using a virtual volume virtualized by the storage virtualization layer (103) on the shared storage. Each of the plurality of back-end modules 101 performs data search and data calculation. The target of the data search is each virtual volume 105. The storage virtualization layer 103 provided in the shared storage 102 associates a plurality of unit volumes 106 on the shared storage with the virtual volume 105. A map 10A is used for the association. Again, hash partitioning is used to distribute data between back-end modules. That is, data with the same hash value of the data identifier handled by the backend module is regarded as data belonging to the same data group 107. These data groups are arranged in the unit volume 106 without duplication. The minimum unit of data movement that occurs when a new back-end module is added or deleted is the above data group.

本実施例の場合、データグループ単位のデータの移動(108)はデータベース内で対応する単位ボリューム(106)の移動に置換可能である。置換後、ストレージ上のストレージ仮想化層(103)に渡され、ストレージ仮想化層ではデータの移動(108)に対応する(109)ように、マップ(10A)の書き換えを行う。このように、ストレージ仮想化層(103)を用いることで物理的な移動を伴わないデータの移動が実現される。   In this embodiment, the data movement (108) in units of data groups can be replaced with the movement of the corresponding unit volume (106) in the database. After the replacement, the map is transferred to the storage virtualization layer (103) on the storage, and the storage virtualization layer rewrites the map (10A) so as to correspond to the data movement (108) (109). In this way, data movement without physical movement is realized by using the storage virtualization layer (103).

「ストレージ管理ミドルウエア上の仮想化層を用いた際の動作の説明」
図11において、111はストレージ管理ミドルウエア上のストレージ仮想化層(113)によって仮想化されたストレージ(115)を用いた際のバックエンドモジュールである。ストレージ管理ミドルウエアは、バックエンドモジュール(111)と共有ストレージ(112)の間に入り、バックエンドモジュール毎のデータ領域割り当てを管理し仮想ボリューム(115)を割り当てる。データ領域割り当ては共有ストレージ(112)上の単位ボリューム(116)と仮想ボリューム(115)の関連付けとして実現する。関連付けにはマップ(11A)を用いる。ここでもバックエンドモジュール間のデータ配分にはハッシュ分割法を用いる。さらに、ハッシュ値が等しい物を同一データグループ(117)内に配置する事とし、データ移動の最小単位とする。また、データグループはそれぞれ単位ボリューム(116)に重複なく配置される。
"Explanation of operation when using virtualization layer on storage management middleware"
In FIG. 11, reference numeral 111 denotes a back-end module when the storage (115) virtualized by the storage virtualization layer (113) on the storage management middleware is used. The storage management middleware enters between the backend module (111) and the shared storage (112), manages the data area allocation for each backend module, and allocates the virtual volume (115). The data area allocation is realized as an association between the unit volume (116) on the shared storage (112) and the virtual volume (115). A map (11A) is used for the association. Again, hash partitioning is used to distribute data between back-end modules. Furthermore, the thing with the same hash value shall be arrange | positioned in the same data group (117), and let it be the minimum unit of data movement. Each data group is arranged in the unit volume (116) without duplication.

本実施例の場合も、データグループ単位のデータの移動(118)はデータベース内で対応する単位ボリューム(116)の移動に置換可能である。置換後、ストレージ管理ミドルウエア上のストレージ仮想化層(113)に渡され、ストレージ仮想化層ではデータの移動(118)に対応する(119)ように、マップ(11A)の書き換えを行う。このように、ストレージ管理ミドルウエア上のストレージ仮想化層(113)を用いることで物理的な移動を伴わないデータの移動が実現される。   Also in this embodiment, the data movement (118) in units of data groups can be replaced with the movement of the corresponding unit volume (116) in the database. After the replacement, the map is transferred to the storage virtualization layer (113) on the storage management middleware, and the storage virtualization layer rewrites the map (11A) so as to correspond to the data movement (118) (119). In this way, data movement without physical movement is realized by using the storage virtualization layer (113) on the storage management middleware.

「共有ファイルシステム上の仮想化層を用いた際の動作の説明」
図12において、121は共有ファイルシステム上のストレージ仮想化層(123)によって仮想化されたストレージ(125)を用いた際のバックエンドモジュールである。ここではファイルシステムとして、NFSのようなサーバ−クライアント型のファイルシステムを想定している。ファイルシステムは、バックエンドモジュール(121)と共有ストレージ(122)の間に入り、バックエンドモジュール毎のデータ領域割り当てを管理し仮想ボリューム(125)を割り当てる。データ領域割り当ては共有ストレージ(125)上の単位ボリューム(126)と仮想ボリューム(125)の関連付けとして実現する。関連付けにはファイルサーバ上のマップ(12A)を用いる。ここでもバックエンドモジュール間のデータ配分にはハッシュ分割法を用いる。さらに、ハッシュ値が等しい物を同一データグループ(127)内に配置する事とし、データ移動の最小単位とする。また、データグループはそれぞれ単位ボリューム(126)に重複なく配置される。
"Explanation of operation when using virtualization layer on shared file system"
In FIG. 12, reference numeral 121 denotes a back-end module when the storage (125) virtualized by the storage virtualization layer (123) on the shared file system is used. Here, a server-client type file system such as NFS is assumed as the file system. The file system enters between the back-end module (121) and the shared storage (122), manages the data area allocation for each back-end module, and allocates the virtual volume (125). The data area allocation is realized as an association between the unit volume (126) on the shared storage (125) and the virtual volume (125). A map (12A) on the file server is used for the association. Again, hash partitioning is used to distribute data between back-end modules. Furthermore, the thing with the same hash value shall be arrange | positioned in the same data group (127), and let it be the minimum unit of data movement. Each data group is arranged in the unit volume (126) without duplication.

本実施例の場合も、データグループ単位のデータの移動(128)はデータベース内で対応する単位ボリューム(126)の移動に置換可能である。置換後、ファイルシステム上のストレージ仮想化層(123)に渡され、ストレージ仮想化層ではデータの移動(128)に対応する(129)ように、マップ(12A)の書き換えを行う。このように、ファイルシステム上のストレージ仮想化層(123)を用いることで物理的な移動を伴わないデータの移動が実現される。   Also in this embodiment, the data movement (128) in units of data groups can be replaced with the movement of the corresponding unit volume (126) in the database. After the replacement, the map is transferred to the storage virtualization layer (123) on the file system, and the storage virtualization layer rewrites the map (12A) so as to correspond to the data movement (128) (129). In this way, data movement without physical movement is realized by using the storage virtualization layer (123) on the file system.

「データベース管理システム上の仮想化層を用いた際の動作の説明」
図13において、131はデータベース管理システムに内蔵されたストレージ仮想化層(133)によって仮想化されたストレージ(134)上の仮想ボリューム(135)を用いた際のバックエンドモジュールである。ストレージ仮想化層によって、共有ストレージ上の共有ストレージ(132)上の複数の単位ボリューム(136)が仮想ボリュームに関連付けられる。関連付けにはマップ管理モジュール(13B)上のマップ(13A)を用いる。ここでもバックエンドモジュール間のデータ配分にはハッシュ分割法を用いる。さらに、ハッシュ値が等しい物を同一データグループ(137)内に配置する事とし、データ移動の最小単位とする。また、データグループはそれぞれ単位ボリューム(136)に重複なく配置される。
"Explanation of operation when using virtualization layer on database management system"
In FIG. 13, reference numeral 131 denotes a back-end module when the virtual volume (135) on the storage (134) virtualized by the storage virtualization layer (133) built in the database management system is used. The storage virtualization layer associates a plurality of unit volumes (136) on the shared storage (132) on the shared storage with the virtual volume. For the association, the map (13A) on the map management module (13B) is used. Again, hash partitioning is used to distribute data between back-end modules. Furthermore, the thing with the same hash value shall be arrange | positioned in the same data group (137), and it is set as the minimum unit of data movement. Each data group is arranged in the unit volume (136) without duplication.

本実施例の場合も、データグループ単位のデータの移動(138)はデータベース内で対応する単位ボリューム(136)の移動に置換可能である。置換後、ストレージ仮想化層(133)に渡され、ストレージ仮想化層ではデータの移動(138)に対応する(139)ように、マップ(13A)の書き換えを行う。このように、ストレージ管理ミドルウエア上のストレージ仮想化層(133)を用いることで物理的な移動を伴わないデータの移動が実現される。   Also in this embodiment, the data movement (138) in units of data groups can be replaced with the movement of the corresponding unit volume (136) in the database. After the replacement, the map is transferred to the storage virtualization layer (133), and the storage virtualization layer rewrites the map (13A) so as to correspond to the data movement (138) (139). In this way, data movement without physical movement is realized by using the storage virtualization layer (133) on the storage management middleware.

本発明によれば、無共有型データベース管理システムのデータベースサーバリソースの追加および取り外し処理に伴うデータ再配置を低負荷時にずらして行う事で処理に伴う負荷の上昇を避けることができるので、データベースサーバの負荷に応じてサーバの追加および取り外しを決定する際の負荷の閾値を高く設定でき、サーバの稼働率の向上やプールサーバの台数を減らすといった効果がある。   According to the present invention, it is possible to avoid an increase in load due to processing by shifting data relocation associated with addition and removal processing of database server resources in a non-shared database management system at low load. The load threshold when determining whether to add or remove a server according to the load of the server can be set high, which has the effect of improving the server operating rate and reducing the number of pool servers.

さらに、ストレージ仮想化層と組み合わせる事で、データの移動を仮想ボリュームの更新に置き換え、物理的なデータ移動を伴わないデータ再配置も可能であり、サーバの稼働率をさらに高めることが可能である。   Furthermore, when combined with the storage virtualization layer, data movement can be replaced with virtual volume updates, and data relocation without physical data movement is possible, further improving server availability. .

また、データエリアを共有ディスク上で予め細分化しておく手法を取ることで、CPUリソースとストレージI/Oを遅延を生じることなく追加および取り外し可能であり、さらにデータ再配置と要った余計な負荷を生じないことから、先の場合と同様にデータベースサーバの負荷に応じて新規サーバの追加および取り外しを決定する際の負荷の閾値を高く設定でき、サーバの稼働率の向上やプールサーバの台数を減らすといった効果がある。   In addition, by taking a method of subdividing the data area on the shared disk in advance, CPU resources and storage I / O can be added and removed without delay, and data relocation and unnecessary extras are required. Since no load is generated, the load threshold when deciding whether to add or remove a new server can be set high according to the load on the database server, as in the previous case, improving the server operation rate and the number of pool servers The effect is to reduce.

1.無共有型データベース管理システム
2.フロントエンドモジュール
3.バックエンドモジュール
4.スケジューラモジュール
5.サーバ監視モジュール
6.共有ストレージ
7.マッピングモジュール
8.現用サーバ群
9.プールサーバ群。
1. 1. Non-shared database management system 2. Front-end module Backend module4. 4. Scheduler module Server monitoring module6. 6. Shared storage Mapping module8. 8. Active server group Pool server group.

Claims (1)

データの探索、演算を行う複数のバックエンドモジュールと、
それぞれがデータベースを構成するデータの細分化された一部を格納する複数の単位ボリュームを含み、前記複数のバックエンドモジュールから共有される共有ストレージと、
各々が前記複数のバックエンドモジュールのいずれか一つからアクセス可能な複数の仮想ボリュームに前記単位ボリュームの少なくとも一つを重複しないように対応付け、前記複数の単位ボリュームの各々が前記複数のバックエンドモジュールのいずれか一つからアクセスされるように前記複数の単位ボリュームと前記複数の仮想ボリュームとを関連付けるストレージ仮想化手段と、
前記複数の単位ボリュームに保持されたデータと前記複数のバックエンドモジュールとの対応関係を保持した対応表を管理するマッピングモジュールと、
前記データベースへの問い合わせを受け付け、前記マッピングモジュールマッピング情報を参照して前記複数のバックエンドモジュールに向けた問い合わせのプランを作成するフロントエンドモジュールとを有し、
前記複数の単位ボリュームと前記複数の仮想ボリュームとの関連づけを変更することにより前記複数のバックエンドモジュールへの割り当てデータ領域を変更することを特徴とするデータベース管理システム。
Multiple back-end modules for searching and calculating data,
A plurality of unit volumes each storing a fragmented portion of the data constituting the database, and shared storage shared from the plurality of back-end modules;
Each of the unit volumes is associated with a plurality of virtual volumes accessible from any one of the plurality of back-end modules so as not to overlap, and each of the plurality of unit volumes is associated with the plurality of back-end modules. Storage virtualization means for associating the plurality of unit volumes with the plurality of virtual volumes so as to be accessed from any one of the modules;
A mapping module that manages a correspondence table that holds correspondence between the data held in the plurality of unit volumes and the plurality of back-end modules;
A front-end module that accepts an inquiry to the database, creates a query plan for the plurality of back-end modules with reference to the mapping module mapping information, and
A database management system characterized by changing data areas allocated to the plurality of back-end modules by changing associations between the plurality of unit volumes and the plurality of virtual volumes.
JP2009254559A 2009-11-06 2009-11-06 Non-shared database management system Expired - Fee Related JP5146440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009254559A JP5146440B2 (en) 2009-11-06 2009-11-06 Non-shared database management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009254559A JP5146440B2 (en) 2009-11-06 2009-11-06 Non-shared database management system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004003601A Division JP2005196602A (en) 2004-01-09 2004-01-09 System configuration changing method in unshared type database management system

Publications (2)

Publication Number Publication Date
JP2010033599A true JP2010033599A (en) 2010-02-12
JP5146440B2 JP5146440B2 (en) 2013-02-20

Family

ID=41737901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009254559A Expired - Fee Related JP5146440B2 (en) 2009-11-06 2009-11-06 Non-shared database management system

Country Status (1)

Country Link
JP (1) JP5146440B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218858A (en) * 1996-02-14 1997-08-19 Hitachi Ltd Distributed type data base control system
JP2003085014A (en) * 2001-09-12 2003-03-20 Toshiba Corp Volume management method of network system and computer
JP2003296153A (en) * 2002-03-29 2003-10-17 Fujitsu Ltd Storage system and program therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218858A (en) * 1996-02-14 1997-08-19 Hitachi Ltd Distributed type data base control system
JP2003085014A (en) * 2001-09-12 2003-03-20 Toshiba Corp Volume management method of network system and computer
JP2003296153A (en) * 2002-03-29 2003-10-17 Fujitsu Ltd Storage system and program therefor

Also Published As

Publication number Publication date
JP5146440B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
JP2005196602A (en) System configuration changing method in unshared type database management system
US11734307B2 (en) Caching systems and methods
US10997163B2 (en) Data ingestion using file queues
JP4801761B2 (en) Database management method and system, and processing program therefor
JP2007249468A (en) Cpu allocation method, cpu allocation program, cpu allocation device and database management system
CN112753022A (en) Automatic query retry in a database environment
US10579419B2 (en) Data analysis in storage system
US10223256B1 (en) Off-heap memory management
JP5146440B2 (en) Non-shared database management system
Gao et al. Memory-efficient and skew-tolerant MapReduce over MPI for supercomputing systems
US11983198B2 (en) Multi-cluster warehouse
Luo et al. Supporting cost-efficient multi-tenant database services with service level objectives (SLOs)
JP2022070669A (en) Database system and query execution method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121005

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R151 Written notification of patent or utility model registration

Ref document number: 5146440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees