JPH04360265A - Parallel transaction processing system for processing data distribution - Google Patents
Parallel transaction processing system for processing data distributionInfo
- Publication number
- JPH04360265A JPH04360265A JP13511291A JP13511291A JPH04360265A JP H04360265 A JPH04360265 A JP H04360265A JP 13511291 A JP13511291 A JP 13511291A JP 13511291 A JP13511291 A JP 13511291A JP H04360265 A JPH04360265 A JP H04360265A
- Authority
- JP
- Japan
- Prior art keywords
- processor
- data
- transaction
- processing system
- parallel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 86
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Landscapes
- Multi Processors (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明はトランザクションを基本
処理単位に分解してその基本処理単位でデータの格納さ
れているプロセッサで実行することにより、データ分散
を扱う並列トランザクション処理システムに関し、さら
に具体的には、このトランザクションで処理するデータ
の配置に関する。[Field of Industrial Application] The present invention relates to a parallel transaction processing system that handles data distribution by decomposing a transaction into basic processing units and executing the basic processing units in processors in which data is stored. Regarding the arrangement of data processed by this transaction.
【0002】0002
【従来の技術】先に、計算機におけるトランザクション
処理の同時実行制御を効率よく行う方法として、(1)
「トランザクション処理システム」(平成2年3月20
日出願)と、そのデッドロックを並列に検出し、部分的
にロールバックを行う(2)「デッドロック検出方式」
(平成2年11月30日出願、特願平2−329658
号)を出願した。[Prior Art] First, as a method for efficiently controlling the concurrent execution of transaction processing in a computer, (1)
"Transaction Processing System" (March 20, 1990)
(2) ``Deadlock detection method'' that detects deadlocks in parallel and performs partial rollback.
(filed on November 30, 1990, patent application No. 2-329658)
No.) was filed.
【0003】出願(1)では、同時実行制御を柔軟に効
率よく行うため、トランザクションをレコードのロック
、読み出し、内容変更、書き込みなどの基本処理単位に
分解し、その基本処理単位で並列(平行)に実行させる
方法を提案した。効率的な並列(平行)処理のため、そ
の基本処理単位間のデータ及び制御の依存関係をグラフ
にし、グラフに従って基本処理をサスペンド(中断)/
レジューム(再開)させ、複数のトランザクション処理
を同時に進めることを特徴とする。基本処理単位間で動
的に最適の実行順位が定まるため、ロック待ちの必要で
ない処理を、処理のネックとなっているロックが解除さ
れるまで待つことなく、先行させることができ、ロック
の依存関係を考慮したスケジューリングをプログラムに
盛り込む必要がなくなる。また、アプリケーションごと
にグラフを作成することができるため、汎用性も高くな
る。[0003] In application (1), in order to perform concurrency control flexibly and efficiently, transactions are broken down into basic processing units such as record locking, reading, content modification, and writing, and these basic processing units are parallelized (parallel). proposed a method to implement it. For efficient parallel processing, the data and control dependencies between basic processing units are graphed, and basic processing is suspended/interrupted according to the graph.
It is characterized by being able to resume (restart) and proceed with multiple transaction processing simultaneously. Since the optimal execution order is dynamically determined between basic processing units, processes that do not need to wait for locks can be preceded without having to wait until the lock that is the bottleneck for processing is released, and lock-dependent There is no need to include scheduling in consideration of relationships in the program. Furthermore, since graphs can be created for each application, versatility is also increased.
【0004】また出願(2)では、デッドロックを検出
する方法として、ロック管理テーブルと資源要求元の識
別子(トランザクション処理の場合にはトランザクショ
ンのID:TID)のリストを用い、ロック処理の間の
通信によってロックの依存関係を調べる方法と、デッド
ロックが検出された場合にトランザクション単位でロー
ルバックするのではなく、デッドロックに関係する基本
処理単位だけでロールバックすることにより、デッドロ
ックに関係する部分に限る方法を提案した。つまり、一
回読み出したデータは、デッドロックに関係した物は再
度読み出しを行う必要があるが、デッドロックに関係の
ない部分はそのまま利用することができる。このため、
ロールバック処理を軽くすることができる。関係する部
分と関係しない部分は、基本処理間のグラフから導くこ
とができる。[0004] Furthermore, in application (2), as a method for detecting deadlock, a lock management table and a list of resource request source identifiers (transaction ID: TID in the case of transaction processing) are used to detect deadlocks during lock processing. How to investigate lock dependencies through communication, and by rolling back only the basic processing unit involved in the deadlock, instead of rolling back on a per-transaction basis when a deadlock is detected. We proposed a method to limit the In other words, once read data, data related to deadlock needs to be read again, but parts unrelated to deadlock can be used as is. For this reason,
Rollback processing can be made easier. Related parts and unrelated parts can be derived from the graph between basic processes.
【0005】[0005]
【発明が解決しようとする課題】以上の発明により、ト
ランザクションを並列に効率良く実行する手段が得られ
たわけであるが、実際に並列に実行する場合、トランザ
クションで処理するデータの配置が考慮されていないと
いう問題点が残っていた。すなわちトランザクションで
処理するデータをどのように各並列処理プロセッサで分
割すればトランザクションが並列に効率良く実行される
かを見つける必要があった。トランザクションを基本処
理単位に分解せずに並列に実行する場合には、トランザ
クション単位でしかプロセッサに割り割てられなかった
ため、1つのトランザクション内で複数のプロセッサに
またがって格納されたデータを処理することはあまり効
率がよくないという問題点があった。すなわち、トラン
ザクションを基本処理単位に分解しないと、このトラン
ザクションについての処理の並列性を高く出来ないので
、このトランザクションを高速に処理することが出来な
い。[Problem to be Solved by the Invention] The above invention has provided a means for efficiently executing transactions in parallel, but when actually executing transactions in parallel, the arrangement of data to be processed in a transaction is not taken into account. The problem remained that there was no. In other words, it was necessary to find out how to divide the data to be processed in a transaction by each parallel processing processor so that the transaction can be efficiently executed in parallel. When executing transactions in parallel without breaking them down into basic processing units, it is possible to process data stored across multiple processors within one transaction, since only transaction units can be allocated to processors. The problem was that it was not very efficient. That is, unless a transaction is broken down into basic processing units, the parallelism of processing for this transaction cannot be increased, and therefore this transaction cannot be processed at high speed.
【0006】本発明は1つのトランザクション内で複数
のプロセッサにまたがってデータが分散している場合で
効率よくシステムを動作させることのできるデータ分散
を扱う並列トランザクション処理システムを提供するこ
とを目的とする。SUMMARY OF THE INVENTION An object of the present invention is to provide a parallel transaction processing system that handles data distribution and can operate the system efficiently when data is distributed across multiple processors within one transaction. .
【0007】[0007]
【課題を解決するための手段及び作用】トランザクショ
ン処理を基本処理単位に分解して、基本処理単位の依存
関係に従って複数のプロセッサ上で動的に並列に実行さ
せるようにした場合、その基本処理が関係するデータの
存在するプロセッサ上でその処理が実行されるようにす
る。[Means and effects for solving the problem] When transaction processing is decomposed into basic processing units and executed dynamically in parallel on multiple processors according to the dependencies of the basic processing units, the basic processing is Ensure that the process is executed on the processor where the related data resides.
【0008】例えば、図1の様な例を考える。トランザ
クション001は、レコードAとBとCを読み込み、そ
の和をレコードCに書き込むとする。このとき、レコー
ドAはプロセッサ#1に、レコードBはプロセッサ#2
に、レコードCはプロセッサ#3上にあったとすると、
各基本処理単位は図1に示す様なプロセッサに割り割当
られて実行する。A+B+Cのようにいずれのレコード
にも関係するような処理は、最終的にデータを書き込む
プロセッサ#3上で行うことが望ましい。For example, consider an example as shown in FIG. It is assumed that transaction 001 reads records A, B, and C, and writes the sum to record C. At this time, record A is sent to processor #1, and record B is sent to processor #2.
Assume that record C was on processor #3,
Each basic processing unit is assigned to and executed by a processor as shown in FIG. It is desirable that processing related to any record, such as A+B+C, be performed on processor #3, which ultimately writes the data.
【0009】このような割り当てを行うために、データ
の配置に関するデータ配置ディクショナリを用意する。
データ配置ディクショナリは、該当するデータに対する
エントリーを持つテーブルで、その中には、当該データ
が格納されているプロセッサの識別子(またはプロセッ
サ番号)を持つ。各エントリーは、ハッシュ等のインデ
ックス手法によりアクセスできることが望ましい。すな
わち、データ配置ディクショナリはテーブルである。こ
のテーブルは、データがあるプロセッサとこのデータの
エントリーを記憶している。[0009] In order to perform such allocation, a data arrangement dictionary regarding data arrangement is prepared. The data arrangement dictionary is a table that has entries for relevant data, and includes the identifier (or processor number) of the processor in which the data is stored. It is desirable that each entry can be accessed by indexing techniques such as hashing. That is, the data arrangement dictionary is a table. This table stores the processors with data and the entries for this data.
【0010】また、各プロセッサは、自分の中に実行待
ちキューを持つ。各基本処理単位は、その処理するデー
タの格納されたプロセッサ番号を、データ配置ディクシ
ョナリより得て、その番号で示されるプロセッサの実行
待ちキューに積まれる。Furthermore, each processor has its own execution queue. Each basic processing unit obtains the processor number in which the data to be processed is stored from the data arrangement dictionary, and stores the data in the execution queue of the processor indicated by that number.
【0011】ディクショナリの配置は、並列プロセッサ
の構成の仕方によって変えられるのが望ましい。ここで
、ディクショナリの配置とは、このディクショナリをシ
ステムのどこに置くべきかということである。もちろん
システムの構成によって配置は異なる。例えば、共有メ
モリ方式の並列プロセッサの場合には、共有メモリ上に
1つデータ配置ディクショナリを置き、共有メモリを持
たない並列プロセッサの場合には、各プロセッサにデー
タ配置ディクショナリのコピーを持つようにする。It is desirable that the arrangement of the dictionaries be changed depending on how the parallel processors are configured. Here, dictionary placement refers to where this dictionary should be placed in the system. Of course, the arrangement differs depending on the system configuration. For example, in the case of a shared memory type parallel processor, one data placement dictionary is placed on the shared memory, and in the case of a parallel processor without shared memory, each processor has a copy of the data placement dictionary. .
【0012】0012
(実施例その1)本発明の基本構成を図2に示す。 (Embodiment 1) The basic configuration of the present invention is shown in FIG.
【0013】トランザクション1は、ユーザインタフェ
ースを介して入力され、基本処理単位依存関係グラフ3
内にある予め用意されたグラフ中の対応するノードの入
力を活性化する(トランザクションが入った時点でグラ
フを作成する方法も考えられる)。サスペンド/レジュ
ーム機構部4では、グラフのノードの全入力を調べ、そ
のノードが発火可能かどうかをチェックする。ここで、
発火可能というのは、グラフの全てのノードがある条件
を満足するので処理が可能となったことをいう。発火可
能な場合には、そのグラフノードをグラフ実行部5に知
らせる。グラフ実行部5では、サスペンド/レジューム
機構部4からの指示されたグラフのノードに関して、そ
のノードが関係するデータが格納されているプロセッサ
をデータ配置ディクショナリ6から知り、当該基本処理
単位を当該プロセッサの実行待ちキュー(図3)につむ
。各プロセッサは、自分のキューを見てその先頭から実
行し、処理が終わったら、グラフ実行部に知らせる。
グラフ実行部は、基本処理単位依存関係グラフ3に従っ
て、その実行結果を入力するノードの対応する入力を活
性化する。グラフ中のデータベース・アクセス・ノード
を実行する場合には、データベース検索/更新部7にア
クセス要求を出して、データベース8をアクセスする。
処理結果は、ユーザインターフェース部2を通して返さ
れる。排他制御でロックが必要な場合には、ロック機構
部9にロック要求を出す。ロック機構部9では、ロック
要求に従って、ロックテーブルおよびTIDリスト10
を操作する。[0013] Transaction 1 is input via the user interface and is processed by basic processing unit dependency graph 3.
Activate the input of the corresponding node in a graph prepared in advance (a method of creating a graph at the time a transaction is entered is also possible). The suspend/resume mechanism section 4 examines all inputs of nodes in the graph and checks whether the nodes can fire. here,
Firing is possible means that processing is possible because all nodes in the graph satisfy a certain condition. If firing is possible, the graph execution unit 5 is notified of the graph node. The graph execution unit 5 learns from the data arrangement dictionary 6 which processor stores the data related to the node of the graph instructed by the suspend/resume mechanism unit 4, and determines the basic processing unit of the processor. Put it in the execution queue (Figure 3). Each processor looks at its own queue and executes from the beginning, and notifies the graph execution unit when processing is complete. The graph execution unit activates the corresponding input of the node that inputs the execution result according to the basic processing unit dependency relationship graph 3. When executing a database access node in the graph, an access request is issued to the database search/update section 7 to access the database 8. Processing results are returned through the user interface section 2. If a lock is required for exclusive control, a lock request is issued to the lock mechanism section 9. The lock mechanism unit 9 uses a lock table and a TID list 10 according to the lock request.
operate.
【0014】共有メモリを持つような並列プロセッサ上
での本発明の構成を図3に示す。基本処理単位依存関係
グラフ3とデータ配置ディクショナリ6は、共有メモリ
21上に置かれる。各プロセッサに対応するキュー#1
,#2,#3も、実際には共有メモリ21上に置かれる
。グラフ実行部5、サスペンド/レジューム機構4、ロ
ック機構9、ロックテーブルTIDリスト10、ユーザ
インターフェース部2は、いずれかのプロセッサ(この
例の場合にはプロセッサ#n)上に置かれるが図示を省
略する。これらの機構部分は、各プロセッサに分配配置
する方法も考えられる。データベース検索/更新部7は
、(ディスク中に)データが格納されたすべてのプロセ
ッサ上に置かれる。FIG. 3 shows a configuration of the present invention on a parallel processor having a shared memory. The basic processing unit dependency relationship graph 3 and the data arrangement dictionary 6 are placed on the shared memory 21. Queue #1 corresponding to each processor
, #2, and #3 are also actually placed on the shared memory 21. The graph execution unit 5, suspend/resume mechanism 4, lock mechanism 9, lock table TID list 10, and user interface unit 2 are placed on one of the processors (processor #n in this example), but are not shown. do. A method of distributing and arranging these mechanical parts to each processor is also conceivable. The database search/update unit 7 is located on every processor in which data is stored (on disk).
【0015】プロセッサ#nは、基本処理単位依存関係
グラフ3とサスペンド/レジューム機構部4の指示に従
って、実行可能な基本処理単位を、共有メモリ上の各プ
ロセッサに対応するキューに積む。各プロセッサ#1,
#2,#3は、共有メモリ上の自分に対応するキュー#
1,#2,#3から、次に実行すべき基本処理単位を持
ってきて実行する。Processor #n stacks executable basic processing units in a queue corresponding to each processor on the shared memory according to instructions from the basic processing unit dependency graph 3 and the suspend/resume mechanism section 4. Each processor #1,
#2 and #3 are the queues #2 and #3 corresponding to you on the shared memory.
1, #2, and #3, the basic processing unit to be executed next is fetched and executed.
【0016】(実施例その2)共有メモリを持たないよ
うな並列プロセッサ上での本発明の構成を図4に示す。(Embodiment 2) FIG. 4 shows the configuration of the present invention on a parallel processor that does not have a shared memory.
【0017】基本処理単位依存関係グラフ3とデータ配
置ディクショナリ6は、全プロセッサ上に置かれる。各
プロセッサに対応するキュー#1,#2,#3も、グラ
フ実行部5、サスペンド/レジューム機構4、ロック機
構9、ロックテーブルTIDリスト10、ユーザインタ
ーフェース部2も、各プロセッサ上に置く。また、デー
タベース検索/更新部7は、(ディスク中に)データが
格納されたすべてのプロセッサ上に置かれる。The basic processing unit dependency relationship graph 3 and data arrangement dictionary 6 are placed on all processors. Queues #1, #2, #3 corresponding to each processor, graph execution section 5, suspend/resume mechanism 4, lock mechanism 9, lock table TID list 10, and user interface section 2 are also placed on each processor. Also, the database search/update section 7 is placed on every processor in which data is stored (on disk).
【0018】レコードA、B、Cはそれぞれ別のプロセ
ッサ#1,#2,#3に分散されて格納されているとす
ると、トランザクションの各基本処理単位、readA
、readB、readCは別のプロセッサ#1,#2
,#3で並列的に行われる。各レコードと各プロセッサ
との対応は各プロセッサ#1,#2,#3に設けられた
データ配置ディクショナリ6に格納されている。したが
って各レコードに対するトランザクションの基本処理単
位はどこのプロセッサで行われるかが各プロセッサで把
握できる。Assuming that records A, B, and C are distributed and stored in different processors #1, #2, and #3, each basic processing unit of a transaction, readA
, readB, readC are different processors #1, #2
, #3 in parallel. The correspondence between each record and each processor is stored in a data arrangement dictionary 6 provided in each processor #1, #2, #3. Therefore, each processor can know which processor will perform the basic processing unit of the transaction for each record.
【0019】各プロセッサ#1,#2,#3は、自分の
中の依存グラフ3とサスペンド/レジューム機構4に従
って、処理を進める。データ配置ディクショナリ6によ
って、別プロセッサにあるデータを処理する場合には、
その基本処理単位を当該プロセッサに送り、そのプロセ
ッサ上のキューに積む。ある基本処理単位が終わったあ
と、次の基本処理単位の起動を行うため、その情報をネ
ットワークを経由した全プロセッサにブロードキャスト
する方法が考えられる。Each processor #1, #2, #3 proceeds with its processing according to its own dependency graph 3 and suspend/resume mechanism 4. When processing data in another processor using the data arrangement dictionary 6,
The basic processing unit is sent to the processor and queued on that processor. In order to start the next basic processing unit after a certain basic processing unit is finished, one possible method is to broadcast that information to all processors via the network.
【0020】図5は本発明の他の実施例を示す。キュー
が各プロセッサ毎に設けられるのではなくキューが1本
の場合である。この時は、キューの中に基本処理単位と
プロセッサ番号を入れておく。FIG. 5 shows another embodiment of the invention. This is the case where there is only one queue instead of one queue provided for each processor. At this time, put the basic processing unit and processor number in the queue.
【0021】各プロセッサは、キューの中から自分のプ
ロセッサ番号と同じ基本処理単位を取ってくる。プロセ
ッサを特定しない処理はプロセッサ番号不定状態を示し
、どのプロセッサでも取っていける。この実施例ではキ
ューの操作には、排他制御が必要となる。[0021] Each processor takes from the queue the basic processing unit that is the same as its processor number. Processing that does not specify a processor indicates an undefined processor number state and can be performed by any processor. In this embodiment, exclusive control is required for queue operations.
【0022】[0022]
【発明の効果】並列トランザクション処理において処理
対象のデータがプロセッサに分散して格納される場合、
格納されたプロセッサ上で処理を行うことにより、不要
なデータの移動を避けることができる。トランザクショ
ン単位で並列に処理を行う場合には、トランザクション
内で処理するデータが複数のプロセッサに分散されてい
る場合には、データの格納されているプロセッサ上で処
理を行うことが困難となる。トランザクションを基本処
理単位に分解して、その基本処理単位でデータの格納さ
れているプロセッサで実行することにより、効率の良い
実行が可能となる。[Effect of the invention] When data to be processed is distributed and stored in processors in parallel transaction processing,
By performing processing on the stored processor, unnecessary data movement can be avoided. When performing parallel processing on a transaction-by-transaction basis, if data to be processed within a transaction is distributed among multiple processors, it becomes difficult to perform processing on the processor where the data is stored. Efficient execution is possible by breaking down a transaction into basic processing units and executing each basic processing unit in the processor where the data is stored.
【0023】データ配置ディクショナリを持つことによ
り、基本処理単位でデータの格納されたプロセッサ上で
実行することが可能となる。プロセッサの構成にしたが
って、依存関係グラフやデータ配置ディクショナリ、実
行待ちキューの配置を変えることにより、効率良くシス
テムを構成することができる。[0023] By having a data arrangement dictionary, it becomes possible to execute the basic processing unit on the processor in which the data is stored. The system can be configured efficiently by changing the placement of the dependency graph, data placement dictionary, and execution queue according to the processor configuration.
【図1】依存関係グラフを示す図である。FIG. 1 is a diagram showing a dependency relationship graph.
【図2】本発明の基本構成を示す図である。FIG. 2 is a diagram showing the basic configuration of the present invention.
【図3】メモリ共有の場合の構成を示す図である。FIG. 3 is a diagram showing a configuration in the case of memory sharing.
【図4】メモリ分散の場合の構成を示す図である。FIG. 4 is a diagram showing a configuration in the case of memory distribution.
【図5】本発明の他の実施例を示す図である。FIG. 5 is a diagram showing another embodiment of the present invention.
1 トランザクション
2 ユーザインタフェース
3 基本処理単位依存関係グラフ4 サス
ペンド/レジューム機構5 グラフ実行
6 データ配置ディクショナリ
7 データベース検索/更新
8 データベース
9 ロック機構1 Transaction 2 User interface 3 Basic processing unit dependency graph 4 Suspend/resume mechanism 5 Graph execution 6 Data placement dictionary 7 Database search/update 8 Database 9 Lock mechanism
Claims (6)
、その基本処理間のデータおよび制御の依存関係に従っ
て基本処理で並列に実行するトランザクション処理シス
テムにおいて、基本処理単位に関するデータが格納さて
いるプロセッサ上で当該基本単位を実行することを特徴
とするデータ分散を扱う並列トランザクション処理シス
テム。Claim 1: In a transaction processing system that decomposes a transaction into basic processing units and executes them in parallel in basic processing according to data and control dependencies between the basic processings, a processor in which data related to the basic processing units is stored. A parallel transaction processing system that handles data distribution characterized by executing the basic unit.
て、データが格納されているプロセッサの識別子をテー
ブルで管理し、そのテーブルを使って基本処理単位を実
行するプロセッサを決定することを特徴とする請求項1
記載のデータ分散を扱う並列トランザクション処理シス
テム。2. In the transaction processing system, identifiers of processors in which data is stored are managed in a table, and the table is used to determine a processor that executes a basic processing unit.
A parallel transaction processing system that handles data distribution as described.
て、データが格納されているプロセッサの識別子を管理
するテーブルを、共有メモリ上に置くことを特徴とする
請求項2記載のデータ分散を扱う並列トランザクション
処理システム。3. The parallel transaction processing system for handling data distribution according to claim 2, wherein a table for managing identifiers of processors in which data is stored is placed in a shared memory in the transaction processing system.
て、データが格納されているプロセッサの識別子を管理
するテーブルを、すべてのプロセッサ上に置くことを特
徴とする請求項2記載のデータ分散を扱う並列トランザ
クション処理システム。4. A parallel transaction processing system for handling data distribution according to claim 2, wherein in said transaction processing system, a table for managing identifiers of processors in which data is stored is placed on all processors. .
との実行待ちキューにつむことを特徴とする請求項2記
載のデータ分散を扱う並列トランザクション処理システ
ム。5. The parallel transaction processing system for handling data distribution according to claim 2, wherein executable basic processing units are stored in an execution queue for each processor.
共通に設けられた1本の実行待ちキューにつむことを特
徴とする請求項2記載のデータ分散を扱う並列トランザ
クション処理システム。6. A parallel transaction processing system for handling data distribution according to claim 2, characterized in that executable basic processing units are stored in one execution queue provided in common to each processor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13511291A JPH04360265A (en) | 1991-06-06 | 1991-06-06 | Parallel transaction processing system for processing data distribution |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13511291A JPH04360265A (en) | 1991-06-06 | 1991-06-06 | Parallel transaction processing system for processing data distribution |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04360265A true JPH04360265A (en) | 1992-12-14 |
Family
ID=15144117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13511291A Withdrawn JPH04360265A (en) | 1991-06-06 | 1991-06-06 | Parallel transaction processing system for processing data distribution |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04360265A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016139171A (en) * | 2015-01-26 | 2016-08-04 | 日本電信電話株式会社 | Resource allocation device, resource allocation system and resource allocation method |
US10002019B2 (en) * | 2009-05-11 | 2018-06-19 | International Business Machines Corporation | System and method for assigning a transaction to a serialized execution group based on an execution group limit for parallel processing with other execution groups |
-
1991
- 1991-06-06 JP JP13511291A patent/JPH04360265A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10002019B2 (en) * | 2009-05-11 | 2018-06-19 | International Business Machines Corporation | System and method for assigning a transaction to a serialized execution group based on an execution group limit for parallel processing with other execution groups |
JP2016139171A (en) * | 2015-01-26 | 2016-08-04 | 日本電信電話株式会社 | Resource allocation device, resource allocation system and resource allocation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kontothanassis et al. | Scheduler-conscious synchronization | |
Wang et al. | Mostly-optimistic concurrency control for highly contended dynamic workloads on a thousand cores | |
Kim et al. | Ermia: Fast memory-optimized database system for heterogeneous workloads | |
Stone et al. | Multiple reservations and the Oklahoma update | |
US6339772B1 (en) | System and method for performing database operations on a continuous stream of tuples | |
US7962923B2 (en) | System and method for generating a lock-free dual queue | |
US6397227B1 (en) | Database management system and method for updating specified tuple fields upon transaction rollback | |
US6349310B1 (en) | Database management system and method for accessing rows in a partitioned table | |
US7080375B2 (en) | Parallel dispatch wait signaling method, method for reducing contention of highly contended dispatcher lock, and related operating systems, multiprocessor computer systems and products | |
US6304873B1 (en) | System and method for performing database operations and for skipping over tuples locked in an incompatible mode | |
JPH0465414B2 (en) | ||
JPH01188965A (en) | Data processing | |
Qadah et al. | Quecc: A queue-oriented, control-free concurrency architecture | |
EP0428006A2 (en) | Multilevel locking system and method | |
JPS60128537A (en) | Resouce access control | |
JPH07191944A (en) | System and method for prevention of deadlock in instruction to many resources by multiporcessor | |
US20020029239A1 (en) | Method and system for enhanced concurrency in a computing environment | |
US7823158B2 (en) | Adaptive scheduling and management of work processing in a target context in resource contention | |
Stone | Database applications of the fetch-and-add instruction | |
Michael et al. | Relative performance of preemption-safe locking and non-blocking synchronization on multiprogrammed shared memory multiprocessors | |
Fu et al. | Run-time compilation for parallel sparse matrix computations | |
Adhikari et al. | Lockless blockchain sharding with multiversion control | |
Nanda et al. | A Comprehensive Survey of Machine Learning in Scheduling of Transactions | |
JPH04360265A (en) | Parallel transaction processing system for processing data distribution | |
Son | Scheduling real-time transactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19980903 |