JPH04360265A - Parallel transaction processing system for processing data distribution - Google Patents

Parallel transaction processing system for processing data distribution

Info

Publication number
JPH04360265A
JPH04360265A JP13511291A JP13511291A JPH04360265A JP H04360265 A JPH04360265 A JP H04360265A JP 13511291 A JP13511291 A JP 13511291A JP 13511291 A JP13511291 A JP 13511291A JP H04360265 A JPH04360265 A JP H04360265A
Authority
JP
Japan
Prior art keywords
processor
data
transaction
processing system
parallel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP13511291A
Other languages
Japanese (ja)
Inventor
Haruo Yokota
治夫 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP13511291A priority Critical patent/JPH04360265A/en
Publication of JPH04360265A publication Critical patent/JPH04360265A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Abstract

PURPOSE:To efficiently drive a system even when data are distributed to plural processors in one transaction by executing the processing of a reference unit on a processor storing data relating to the reference processing unit. CONSTITUTION:Transaction processing is decomposed into plural reference processing units, which are dynamically executed on plural processors in parallel with each other in accordance with the dependent relation of respective reference processing units. Each reference processing is executed by the processor including data relating to the reference processing. For instance a transaction 001 reads out the contents of records A, B and C and writes the sum of the contents in the record C. Respective reference processing units are allocated to processors #1 to #3 and executed and processing such as A + B + C relating to all records is executed by the processor #3 in which final data are to be written. Thus efficient execution can be attained.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はトランザクションを基本
処理単位に分解してその基本処理単位でデータの格納さ
れているプロセッサで実行することにより、データ分散
を扱う並列トランザクション処理システムに関し、さら
に具体的には、このトランザクションで処理するデータ
の配置に関する。
[Field of Industrial Application] The present invention relates to a parallel transaction processing system that handles data distribution by decomposing a transaction into basic processing units and executing the basic processing units in processors in which data is stored. Regarding the arrangement of data processed by this transaction.

【0002】0002

【従来の技術】先に、計算機におけるトランザクション
処理の同時実行制御を効率よく行う方法として、(1)
「トランザクション処理システム」(平成2年3月20
日出願)と、そのデッドロックを並列に検出し、部分的
にロールバックを行う(2)「デッドロック検出方式」
(平成2年11月30日出願、特願平2−329658
号)を出願した。
[Prior Art] First, as a method for efficiently controlling the concurrent execution of transaction processing in a computer, (1)
"Transaction Processing System" (March 20, 1990)
(2) ``Deadlock detection method'' that detects deadlocks in parallel and performs partial rollback.
(filed on November 30, 1990, patent application No. 2-329658)
No.) was filed.

【0003】出願(1)では、同時実行制御を柔軟に効
率よく行うため、トランザクションをレコードのロック
、読み出し、内容変更、書き込みなどの基本処理単位に
分解し、その基本処理単位で並列(平行)に実行させる
方法を提案した。効率的な並列(平行)処理のため、そ
の基本処理単位間のデータ及び制御の依存関係をグラフ
にし、グラフに従って基本処理をサスペンド(中断)/
レジューム(再開)させ、複数のトランザクション処理
を同時に進めることを特徴とする。基本処理単位間で動
的に最適の実行順位が定まるため、ロック待ちの必要で
ない処理を、処理のネックとなっているロックが解除さ
れるまで待つことなく、先行させることができ、ロック
の依存関係を考慮したスケジューリングをプログラムに
盛り込む必要がなくなる。また、アプリケーションごと
にグラフを作成することができるため、汎用性も高くな
る。
[0003] In application (1), in order to perform concurrency control flexibly and efficiently, transactions are broken down into basic processing units such as record locking, reading, content modification, and writing, and these basic processing units are parallelized (parallel). proposed a method to implement it. For efficient parallel processing, the data and control dependencies between basic processing units are graphed, and basic processing is suspended/interrupted according to the graph.
It is characterized by being able to resume (restart) and proceed with multiple transaction processing simultaneously. Since the optimal execution order is dynamically determined between basic processing units, processes that do not need to wait for locks can be preceded without having to wait until the lock that is the bottleneck for processing is released, and lock-dependent There is no need to include scheduling in consideration of relationships in the program. Furthermore, since graphs can be created for each application, versatility is also increased.

【0004】また出願(2)では、デッドロックを検出
する方法として、ロック管理テーブルと資源要求元の識
別子(トランザクション処理の場合にはトランザクショ
ンのID:TID)のリストを用い、ロック処理の間の
通信によってロックの依存関係を調べる方法と、デッド
ロックが検出された場合にトランザクション単位でロー
ルバックするのではなく、デッドロックに関係する基本
処理単位だけでロールバックすることにより、デッドロ
ックに関係する部分に限る方法を提案した。つまり、一
回読み出したデータは、デッドロックに関係した物は再
度読み出しを行う必要があるが、デッドロックに関係の
ない部分はそのまま利用することができる。このため、
ロールバック処理を軽くすることができる。関係する部
分と関係しない部分は、基本処理間のグラフから導くこ
とができる。
[0004] Furthermore, in application (2), as a method for detecting deadlock, a lock management table and a list of resource request source identifiers (transaction ID: TID in the case of transaction processing) are used to detect deadlocks during lock processing. How to investigate lock dependencies through communication, and by rolling back only the basic processing unit involved in the deadlock, instead of rolling back on a per-transaction basis when a deadlock is detected. We proposed a method to limit the In other words, once read data, data related to deadlock needs to be read again, but parts unrelated to deadlock can be used as is. For this reason,
Rollback processing can be made easier. Related parts and unrelated parts can be derived from the graph between basic processes.

【0005】[0005]

【発明が解決しようとする課題】以上の発明により、ト
ランザクションを並列に効率良く実行する手段が得られ
たわけであるが、実際に並列に実行する場合、トランザ
クションで処理するデータの配置が考慮されていないと
いう問題点が残っていた。すなわちトランザクションで
処理するデータをどのように各並列処理プロセッサで分
割すればトランザクションが並列に効率良く実行される
かを見つける必要があった。トランザクションを基本処
理単位に分解せずに並列に実行する場合には、トランザ
クション単位でしかプロセッサに割り割てられなかった
ため、1つのトランザクション内で複数のプロセッサに
またがって格納されたデータを処理することはあまり効
率がよくないという問題点があった。すなわち、トラン
ザクションを基本処理単位に分解しないと、このトラン
ザクションについての処理の並列性を高く出来ないので
、このトランザクションを高速に処理することが出来な
い。
[Problem to be Solved by the Invention] The above invention has provided a means for efficiently executing transactions in parallel, but when actually executing transactions in parallel, the arrangement of data to be processed in a transaction is not taken into account. The problem remained that there was no. In other words, it was necessary to find out how to divide the data to be processed in a transaction by each parallel processing processor so that the transaction can be efficiently executed in parallel. When executing transactions in parallel without breaking them down into basic processing units, it is possible to process data stored across multiple processors within one transaction, since only transaction units can be allocated to processors. The problem was that it was not very efficient. That is, unless a transaction is broken down into basic processing units, the parallelism of processing for this transaction cannot be increased, and therefore this transaction cannot be processed at high speed.

【0006】本発明は1つのトランザクション内で複数
のプロセッサにまたがってデータが分散している場合で
効率よくシステムを動作させることのできるデータ分散
を扱う並列トランザクション処理システムを提供するこ
とを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a parallel transaction processing system that handles data distribution and can operate the system efficiently when data is distributed across multiple processors within one transaction. .

【0007】[0007]

【課題を解決するための手段及び作用】トランザクショ
ン処理を基本処理単位に分解して、基本処理単位の依存
関係に従って複数のプロセッサ上で動的に並列に実行さ
せるようにした場合、その基本処理が関係するデータの
存在するプロセッサ上でその処理が実行されるようにす
る。
[Means and effects for solving the problem] When transaction processing is decomposed into basic processing units and executed dynamically in parallel on multiple processors according to the dependencies of the basic processing units, the basic processing is Ensure that the process is executed on the processor where the related data resides.

【0008】例えば、図1の様な例を考える。トランザ
クション001は、レコードAとBとCを読み込み、そ
の和をレコードCに書き込むとする。このとき、レコー
ドAはプロセッサ#1に、レコードBはプロセッサ#2
に、レコードCはプロセッサ#3上にあったとすると、
各基本処理単位は図1に示す様なプロセッサに割り割当
られて実行する。A+B+Cのようにいずれのレコード
にも関係するような処理は、最終的にデータを書き込む
プロセッサ#3上で行うことが望ましい。
For example, consider an example as shown in FIG. It is assumed that transaction 001 reads records A, B, and C, and writes the sum to record C. At this time, record A is sent to processor #1, and record B is sent to processor #2.
Assume that record C was on processor #3,
Each basic processing unit is assigned to and executed by a processor as shown in FIG. It is desirable that processing related to any record, such as A+B+C, be performed on processor #3, which ultimately writes the data.

【0009】このような割り当てを行うために、データ
の配置に関するデータ配置ディクショナリを用意する。 データ配置ディクショナリは、該当するデータに対する
エントリーを持つテーブルで、その中には、当該データ
が格納されているプロセッサの識別子(またはプロセッ
サ番号)を持つ。各エントリーは、ハッシュ等のインデ
ックス手法によりアクセスできることが望ましい。すな
わち、データ配置ディクショナリはテーブルである。こ
のテーブルは、データがあるプロセッサとこのデータの
エントリーを記憶している。
[0009] In order to perform such allocation, a data arrangement dictionary regarding data arrangement is prepared. The data arrangement dictionary is a table that has entries for relevant data, and includes the identifier (or processor number) of the processor in which the data is stored. It is desirable that each entry can be accessed by indexing techniques such as hashing. That is, the data arrangement dictionary is a table. This table stores the processors with data and the entries for this data.

【0010】また、各プロセッサは、自分の中に実行待
ちキューを持つ。各基本処理単位は、その処理するデー
タの格納されたプロセッサ番号を、データ配置ディクシ
ョナリより得て、その番号で示されるプロセッサの実行
待ちキューに積まれる。
Furthermore, each processor has its own execution queue. Each basic processing unit obtains the processor number in which the data to be processed is stored from the data arrangement dictionary, and stores the data in the execution queue of the processor indicated by that number.

【0011】ディクショナリの配置は、並列プロセッサ
の構成の仕方によって変えられるのが望ましい。ここで
、ディクショナリの配置とは、このディクショナリをシ
ステムのどこに置くべきかということである。もちろん
システムの構成によって配置は異なる。例えば、共有メ
モリ方式の並列プロセッサの場合には、共有メモリ上に
1つデータ配置ディクショナリを置き、共有メモリを持
たない並列プロセッサの場合には、各プロセッサにデー
タ配置ディクショナリのコピーを持つようにする。
It is desirable that the arrangement of the dictionaries be changed depending on how the parallel processors are configured. Here, dictionary placement refers to where this dictionary should be placed in the system. Of course, the arrangement differs depending on the system configuration. For example, in the case of a shared memory type parallel processor, one data placement dictionary is placed on the shared memory, and in the case of a parallel processor without shared memory, each processor has a copy of the data placement dictionary. .

【0012】0012

【実施例】【Example】

(実施例その1)本発明の基本構成を図2に示す。 (Embodiment 1) The basic configuration of the present invention is shown in FIG.

【0013】トランザクション1は、ユーザインタフェ
ースを介して入力され、基本処理単位依存関係グラフ3
内にある予め用意されたグラフ中の対応するノードの入
力を活性化する(トランザクションが入った時点でグラ
フを作成する方法も考えられる)。サスペンド/レジュ
ーム機構部4では、グラフのノードの全入力を調べ、そ
のノードが発火可能かどうかをチェックする。ここで、
発火可能というのは、グラフの全てのノードがある条件
を満足するので処理が可能となったことをいう。発火可
能な場合には、そのグラフノードをグラフ実行部5に知
らせる。グラフ実行部5では、サスペンド/レジューム
機構部4からの指示されたグラフのノードに関して、そ
のノードが関係するデータが格納されているプロセッサ
をデータ配置ディクショナリ6から知り、当該基本処理
単位を当該プロセッサの実行待ちキュー(図3)につむ
。各プロセッサは、自分のキューを見てその先頭から実
行し、処理が終わったら、グラフ実行部に知らせる。 グラフ実行部は、基本処理単位依存関係グラフ3に従っ
て、その実行結果を入力するノードの対応する入力を活
性化する。グラフ中のデータベース・アクセス・ノード
を実行する場合には、データベース検索/更新部7にア
クセス要求を出して、データベース8をアクセスする。 処理結果は、ユーザインターフェース部2を通して返さ
れる。排他制御でロックが必要な場合には、ロック機構
部9にロック要求を出す。ロック機構部9では、ロック
要求に従って、ロックテーブルおよびTIDリスト10
を操作する。
[0013] Transaction 1 is input via the user interface and is processed by basic processing unit dependency graph 3.
Activate the input of the corresponding node in a graph prepared in advance (a method of creating a graph at the time a transaction is entered is also possible). The suspend/resume mechanism section 4 examines all inputs of nodes in the graph and checks whether the nodes can fire. here,
Firing is possible means that processing is possible because all nodes in the graph satisfy a certain condition. If firing is possible, the graph execution unit 5 is notified of the graph node. The graph execution unit 5 learns from the data arrangement dictionary 6 which processor stores the data related to the node of the graph instructed by the suspend/resume mechanism unit 4, and determines the basic processing unit of the processor. Put it in the execution queue (Figure 3). Each processor looks at its own queue and executes from the beginning, and notifies the graph execution unit when processing is complete. The graph execution unit activates the corresponding input of the node that inputs the execution result according to the basic processing unit dependency relationship graph 3. When executing a database access node in the graph, an access request is issued to the database search/update section 7 to access the database 8. Processing results are returned through the user interface section 2. If a lock is required for exclusive control, a lock request is issued to the lock mechanism section 9. The lock mechanism unit 9 uses a lock table and a TID list 10 according to the lock request.
operate.

【0014】共有メモリを持つような並列プロセッサ上
での本発明の構成を図3に示す。基本処理単位依存関係
グラフ3とデータ配置ディクショナリ6は、共有メモリ
21上に置かれる。各プロセッサに対応するキュー#1
,#2,#3も、実際には共有メモリ21上に置かれる
。グラフ実行部5、サスペンド/レジューム機構4、ロ
ック機構9、ロックテーブルTIDリスト10、ユーザ
インターフェース部2は、いずれかのプロセッサ(この
例の場合にはプロセッサ#n)上に置かれるが図示を省
略する。これらの機構部分は、各プロセッサに分配配置
する方法も考えられる。データベース検索/更新部7は
、(ディスク中に)データが格納されたすべてのプロセ
ッサ上に置かれる。
FIG. 3 shows a configuration of the present invention on a parallel processor having a shared memory. The basic processing unit dependency relationship graph 3 and the data arrangement dictionary 6 are placed on the shared memory 21. Queue #1 corresponding to each processor
, #2, and #3 are also actually placed on the shared memory 21. The graph execution unit 5, suspend/resume mechanism 4, lock mechanism 9, lock table TID list 10, and user interface unit 2 are placed on one of the processors (processor #n in this example), but are not shown. do. A method of distributing and arranging these mechanical parts to each processor is also conceivable. The database search/update unit 7 is located on every processor in which data is stored (on disk).

【0015】プロセッサ#nは、基本処理単位依存関係
グラフ3とサスペンド/レジューム機構部4の指示に従
って、実行可能な基本処理単位を、共有メモリ上の各プ
ロセッサに対応するキューに積む。各プロセッサ#1,
#2,#3は、共有メモリ上の自分に対応するキュー#
1,#2,#3から、次に実行すべき基本処理単位を持
ってきて実行する。
Processor #n stacks executable basic processing units in a queue corresponding to each processor on the shared memory according to instructions from the basic processing unit dependency graph 3 and the suspend/resume mechanism section 4. Each processor #1,
#2 and #3 are the queues #2 and #3 corresponding to you on the shared memory.
1, #2, and #3, the basic processing unit to be executed next is fetched and executed.

【0016】(実施例その2)共有メモリを持たないよ
うな並列プロセッサ上での本発明の構成を図4に示す。
(Embodiment 2) FIG. 4 shows the configuration of the present invention on a parallel processor that does not have a shared memory.

【0017】基本処理単位依存関係グラフ3とデータ配
置ディクショナリ6は、全プロセッサ上に置かれる。各
プロセッサに対応するキュー#1,#2,#3も、グラ
フ実行部5、サスペンド/レジューム機構4、ロック機
構9、ロックテーブルTIDリスト10、ユーザインタ
ーフェース部2も、各プロセッサ上に置く。また、デー
タベース検索/更新部7は、(ディスク中に)データが
格納されたすべてのプロセッサ上に置かれる。
The basic processing unit dependency relationship graph 3 and data arrangement dictionary 6 are placed on all processors. Queues #1, #2, #3 corresponding to each processor, graph execution section 5, suspend/resume mechanism 4, lock mechanism 9, lock table TID list 10, and user interface section 2 are also placed on each processor. Also, the database search/update section 7 is placed on every processor in which data is stored (on disk).

【0018】レコードA、B、Cはそれぞれ別のプロセ
ッサ#1,#2,#3に分散されて格納されているとす
ると、トランザクションの各基本処理単位、readA
、readB、readCは別のプロセッサ#1,#2
,#3で並列的に行われる。各レコードと各プロセッサ
との対応は各プロセッサ#1,#2,#3に設けられた
データ配置ディクショナリ6に格納されている。したが
って各レコードに対するトランザクションの基本処理単
位はどこのプロセッサで行われるかが各プロセッサで把
握できる。
Assuming that records A, B, and C are distributed and stored in different processors #1, #2, and #3, each basic processing unit of a transaction, readA
, readB, readC are different processors #1, #2
, #3 in parallel. The correspondence between each record and each processor is stored in a data arrangement dictionary 6 provided in each processor #1, #2, #3. Therefore, each processor can know which processor will perform the basic processing unit of the transaction for each record.

【0019】各プロセッサ#1,#2,#3は、自分の
中の依存グラフ3とサスペンド/レジューム機構4に従
って、処理を進める。データ配置ディクショナリ6によ
って、別プロセッサにあるデータを処理する場合には、
その基本処理単位を当該プロセッサに送り、そのプロセ
ッサ上のキューに積む。ある基本処理単位が終わったあ
と、次の基本処理単位の起動を行うため、その情報をネ
ットワークを経由した全プロセッサにブロードキャスト
する方法が考えられる。
Each processor #1, #2, #3 proceeds with its processing according to its own dependency graph 3 and suspend/resume mechanism 4. When processing data in another processor using the data arrangement dictionary 6,
The basic processing unit is sent to the processor and queued on that processor. In order to start the next basic processing unit after a certain basic processing unit is finished, one possible method is to broadcast that information to all processors via the network.

【0020】図5は本発明の他の実施例を示す。キュー
が各プロセッサ毎に設けられるのではなくキューが1本
の場合である。この時は、キューの中に基本処理単位と
プロセッサ番号を入れておく。
FIG. 5 shows another embodiment of the invention. This is the case where there is only one queue instead of one queue provided for each processor. At this time, put the basic processing unit and processor number in the queue.

【0021】各プロセッサは、キューの中から自分のプ
ロセッサ番号と同じ基本処理単位を取ってくる。プロセ
ッサを特定しない処理はプロセッサ番号不定状態を示し
、どのプロセッサでも取っていける。この実施例ではキ
ューの操作には、排他制御が必要となる。
[0021] Each processor takes from the queue the basic processing unit that is the same as its processor number. Processing that does not specify a processor indicates an undefined processor number state and can be performed by any processor. In this embodiment, exclusive control is required for queue operations.

【0022】[0022]

【発明の効果】並列トランザクション処理において処理
対象のデータがプロセッサに分散して格納される場合、
格納されたプロセッサ上で処理を行うことにより、不要
なデータの移動を避けることができる。トランザクショ
ン単位で並列に処理を行う場合には、トランザクション
内で処理するデータが複数のプロセッサに分散されてい
る場合には、データの格納されているプロセッサ上で処
理を行うことが困難となる。トランザクションを基本処
理単位に分解して、その基本処理単位でデータの格納さ
れているプロセッサで実行することにより、効率の良い
実行が可能となる。
[Effect of the invention] When data to be processed is distributed and stored in processors in parallel transaction processing,
By performing processing on the stored processor, unnecessary data movement can be avoided. When performing parallel processing on a transaction-by-transaction basis, if data to be processed within a transaction is distributed among multiple processors, it becomes difficult to perform processing on the processor where the data is stored. Efficient execution is possible by breaking down a transaction into basic processing units and executing each basic processing unit in the processor where the data is stored.

【0023】データ配置ディクショナリを持つことによ
り、基本処理単位でデータの格納されたプロセッサ上で
実行することが可能となる。プロセッサの構成にしたが
って、依存関係グラフやデータ配置ディクショナリ、実
行待ちキューの配置を変えることにより、効率良くシス
テムを構成することができる。
[0023] By having a data arrangement dictionary, it becomes possible to execute the basic processing unit on the processor in which the data is stored. The system can be configured efficiently by changing the placement of the dependency graph, data placement dictionary, and execution queue according to the processor configuration.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】依存関係グラフを示す図である。FIG. 1 is a diagram showing a dependency relationship graph.

【図2】本発明の基本構成を示す図である。FIG. 2 is a diagram showing the basic configuration of the present invention.

【図3】メモリ共有の場合の構成を示す図である。FIG. 3 is a diagram showing a configuration in the case of memory sharing.

【図4】メモリ分散の場合の構成を示す図である。FIG. 4 is a diagram showing a configuration in the case of memory distribution.

【図5】本発明の他の実施例を示す図である。FIG. 5 is a diagram showing another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1    トランザクション 2    ユーザインタフェース 3    基本処理単位依存関係グラフ4    サス
ペンド/レジューム機構5    グラフ実行 6    データ配置ディクショナリ 7    データベース検索/更新 8    データベース 9    ロック機構
1 Transaction 2 User interface 3 Basic processing unit dependency graph 4 Suspend/resume mechanism 5 Graph execution 6 Data placement dictionary 7 Database search/update 8 Database 9 Lock mechanism

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】トランザクションを基本処理単位に分解し
、その基本処理間のデータおよび制御の依存関係に従っ
て基本処理で並列に実行するトランザクション処理シス
テムにおいて、基本処理単位に関するデータが格納さて
いるプロセッサ上で当該基本単位を実行することを特徴
とするデータ分散を扱う並列トランザクション処理シス
テム。
Claim 1: In a transaction processing system that decomposes a transaction into basic processing units and executes them in parallel in basic processing according to data and control dependencies between the basic processings, a processor in which data related to the basic processing units is stored. A parallel transaction processing system that handles data distribution characterized by executing the basic unit.
【請求項2】前記トランザクション処理システムにおい
て、データが格納されているプロセッサの識別子をテー
ブルで管理し、そのテーブルを使って基本処理単位を実
行するプロセッサを決定することを特徴とする請求項1
記載のデータ分散を扱う並列トランザクション処理シス
テム。
2. In the transaction processing system, identifiers of processors in which data is stored are managed in a table, and the table is used to determine a processor that executes a basic processing unit.
A parallel transaction processing system that handles data distribution as described.
【請求項3】前記トランザクション処理システムにおい
て、データが格納されているプロセッサの識別子を管理
するテーブルを、共有メモリ上に置くことを特徴とする
請求項2記載のデータ分散を扱う並列トランザクション
処理システム。
3. The parallel transaction processing system for handling data distribution according to claim 2, wherein a table for managing identifiers of processors in which data is stored is placed in a shared memory in the transaction processing system.
【請求項4】前記トランザクション処理システムにおい
て、データが格納されているプロセッサの識別子を管理
するテーブルを、すべてのプロセッサ上に置くことを特
徴とする請求項2記載のデータ分散を扱う並列トランザ
クション処理システム。
4. A parallel transaction processing system for handling data distribution according to claim 2, wherein in said transaction processing system, a table for managing identifiers of processors in which data is stored is placed on all processors. .
【請求項5】実行可能な基本処理単位を各プロセッサご
との実行待ちキューにつむことを特徴とする請求項2記
載のデータ分散を扱う並列トランザクション処理システ
ム。
5. The parallel transaction processing system for handling data distribution according to claim 2, wherein executable basic processing units are stored in an execution queue for each processor.
【請求項6】実行可能な基本処理単位を各プロセッサに
共通に設けられた1本の実行待ちキューにつむことを特
徴とする請求項2記載のデータ分散を扱う並列トランザ
クション処理システム。
6. A parallel transaction processing system for handling data distribution according to claim 2, characterized in that executable basic processing units are stored in one execution queue provided in common to each processor.
JP13511291A 1991-06-06 1991-06-06 Parallel transaction processing system for processing data distribution Withdrawn JPH04360265A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13511291A JPH04360265A (en) 1991-06-06 1991-06-06 Parallel transaction processing system for processing data distribution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13511291A JPH04360265A (en) 1991-06-06 1991-06-06 Parallel transaction processing system for processing data distribution

Publications (1)

Publication Number Publication Date
JPH04360265A true JPH04360265A (en) 1992-12-14

Family

ID=15144117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13511291A Withdrawn JPH04360265A (en) 1991-06-06 1991-06-06 Parallel transaction processing system for processing data distribution

Country Status (1)

Country Link
JP (1) JPH04360265A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016139171A (en) * 2015-01-26 2016-08-04 日本電信電話株式会社 Resource allocation device, resource allocation system and resource allocation method
US10002019B2 (en) * 2009-05-11 2018-06-19 International Business Machines Corporation System and method for assigning a transaction to a serialized execution group based on an execution group limit for parallel processing with other execution groups

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10002019B2 (en) * 2009-05-11 2018-06-19 International Business Machines Corporation System and method for assigning a transaction to a serialized execution group based on an execution group limit for parallel processing with other execution groups
JP2016139171A (en) * 2015-01-26 2016-08-04 日本電信電話株式会社 Resource allocation device, resource allocation system and resource allocation method

Similar Documents

Publication Publication Date Title
Kontothanassis et al. Scheduler-conscious synchronization
Wang et al. Mostly-optimistic concurrency control for highly contended dynamic workloads on a thousand cores
Kim et al. Ermia: Fast memory-optimized database system for heterogeneous workloads
Stone et al. Multiple reservations and the Oklahoma update
US6339772B1 (en) System and method for performing database operations on a continuous stream of tuples
US7962923B2 (en) System and method for generating a lock-free dual queue
US6397227B1 (en) Database management system and method for updating specified tuple fields upon transaction rollback
US6349310B1 (en) Database management system and method for accessing rows in a partitioned table
US7080375B2 (en) Parallel dispatch wait signaling method, method for reducing contention of highly contended dispatcher lock, and related operating systems, multiprocessor computer systems and products
US6304873B1 (en) System and method for performing database operations and for skipping over tuples locked in an incompatible mode
JPH0465414B2 (en)
JPH01188965A (en) Data processing
Qadah et al. Quecc: A queue-oriented, control-free concurrency architecture
EP0428006A2 (en) Multilevel locking system and method
JPS60128537A (en) Resouce access control
JPH07191944A (en) System and method for prevention of deadlock in instruction to many resources by multiporcessor
US20020029239A1 (en) Method and system for enhanced concurrency in a computing environment
US7823158B2 (en) Adaptive scheduling and management of work processing in a target context in resource contention
Stone Database applications of the fetch-and-add instruction
Michael et al. Relative performance of preemption-safe locking and non-blocking synchronization on multiprogrammed shared memory multiprocessors
Fu et al. Run-time compilation for parallel sparse matrix computations
Adhikari et al. Lockless blockchain sharding with multiversion control
Nanda et al. A Comprehensive Survey of Machine Learning in Scheduling of Transactions
JPH04360265A (en) Parallel transaction processing system for processing data distribution
Son Scheduling real-time transactions

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980903