JP6881579B2 - データロードプログラム、データロード方法およびデータロード装置 - Google Patents

データロードプログラム、データロード方法およびデータロード装置 Download PDF

Info

Publication number
JP6881579B2
JP6881579B2 JP2019528274A JP2019528274A JP6881579B2 JP 6881579 B2 JP6881579 B2 JP 6881579B2 JP 2019528274 A JP2019528274 A JP 2019528274A JP 2019528274 A JP2019528274 A JP 2019528274A JP 6881579 B2 JP6881579 B2 JP 6881579B2
Authority
JP
Japan
Prior art keywords
page
records
write
data loading
tuple
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019528274A
Other languages
English (en)
Other versions
JPWO2019008715A1 (ja
Inventor
彬貴 鎌内
彬貴 鎌内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2019008715A1 publication Critical patent/JPWO2019008715A1/ja
Application granted granted Critical
Publication of JP6881579B2 publication Critical patent/JP6881579B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0811Multiuser, multiprocessor or multiprocessing cache systems with multilevel cache hierarchies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/084Multiuser, multiprocessor or multiprocessing cache systems with a shared cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • G06F12/0873Mapping of cache memory to specific storage devices or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0877Cache access modes
    • G06F12/0882Page mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2455Query execution
    • G06F16/24552Database cache management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • G06F2212/1024Latency reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/16General purpose computing application
    • G06F2212/163Server or database system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/31Providing disk cache in a specific location of a storage system
    • G06F2212/311In host system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/46Caching storage objects of specific type in disk cache
    • G06F2212/465Structured object, e.g. database record

Description

本発明は、データロードプログラム、データロード方法およびデータロード装置に関する。
例えば、Relational Database Management System(RDBMS)において、1つのトランザクションで、多くのデータをデータベースに挿入する処理(ロード処理)を行なう高速ローダが用いられている。
高速ローダは、データベースにロードするデータ(インプットデータ)の入力を受け付けると、該インプットデータに含まれる複数のレコードをデータベースの形式に変換し、変換後の複数のレコードをページに書き込む。そして、高速ローダは、複数のレコードが書き込まれたページを、データベースに挿入する。
特開2016−12166号公報 特開2010−55369号公報 特開2015−201233号公報 特開2014−211800号公報
高速ローダは、インプットデータに含まれる複数のレコードをデータベースに適合した形式(タプル)に変換し、タプルをページに書き込む。複数のプロセスが、ページに対して並列にタプルを書き込むことで、ロード処理の高速化が図られる。
例えば、複数のコアを持つGraphics Processing Unit(GPU)を用いて、高速ローダがロード処理を行なうことで、複数のプロセスが並列にタプルをページに書き込むことができる。例えば、該ページを、GPUのL1キャッシュメモリに記憶することが考えられる。
GPUのハードウェアの制約として、L1キャッシュメモリに対して、複数のプロセスが同時にアクセスすることは規制される。従って、1つのプロセスがページに対してタプルを書き込んでいる間、該ページはロックされるため、他のプロセスが該ページに書き込むことは規制される。よって、ロード処理の高速化が図られない。
例えば、GPUには、L1キャッシュと同じ速度でアクセス可能な共有メモリが存在する。共有メモリには上記の制約が存在しないため、該共有メモリにページを記憶することで、複数のプロセスが1つのページに対して、同時にタプルを書き込むことができる。
複数のプロセスが、1つのページに対して、自由にタプルの書き込みを行なうと、タプルの上書きやページ使用率の減少等が生じ、タプルを適正にページに書き込むことが難しい。
1つのプロセスがページに対してタプルを書き込んでいる間に、該ページをロックし、他のプロセスによる該ページへのアクセスを規制することにより、タプルの上書きやページ使用率の減少は回避される。ただし、1つのページに対して、複数のプロセスがタプルを並列に書き込むことが規制されるため、ロード処理の高速化が図られない。
1つの側面として、本発明は、同時アクセスが可能なメモリのページをロックすることなくデータベースのロード処理において複数レコードの並列書き込みを適正に行なうことを目的とする。
1つの態様では、複数のレコードを含むデータをデータベースにロードするデータロードプログラムは、複数のプロセスから同時にアクセス可能な共有メモリ中のページに、前記複数のレコードを割り当て、前記複数のレコードのそれぞれについて、前記レコードの書き込み領域に関する制御情報を前記ページに書き込むとともに、前記複数のレコードのそれぞれに対応した書き込みプロセスを生成し、生成された複数の前記書き込みプロセスにより、それぞれ対応するレコードを、該レコードに対応する前記書き込み領域に書き込み、複数の前記レコードが書き込まれた前記ページを、前記データベースに反映させる、処理をデータロード装置に実行させる。
1つの側面によれば、同時アクセスが可能なメモリのページをロックすることなくデータベースのロード処理において複数レコードの並列書き込みを適正に行なうことができる。
実施形態のシステムの一例を示す図である。 高速ローダに搭載されるGPUアーキテクチャの一例を示すである。 データベースへのロード処理の一例を示す図(その1)である。 データベースへのロード処理の一例を示す図(その2)である。 ページをロックしたタプル書き込みの一例を示す図(その1)である。 ページをロックしたタプル書き込みの一例を示す図(その2)である。 ページをロックしたタプル書き込みの一例を示す図(その3)である。 ページをロックしたタプル書き込みの一例を示す図(その4)である。 ページをロックすることなく複数タプルの並列書き込みを行なう際の不具合の一例を示す図である。 共有メモリのページに対するタプル書き込みの一例を示す図(その1)である。 共有メモリのページに対するタプル書き込みの一例を示す図(その2)である。 共有メモリのページに対するタプル書き込みの一例を示す図(その3)である。 共有メモリのページに対するタプル書き込みの一例を示す図(その4)である。 共有メモリのページに対するタプル書き込みの一例を示す図(その5)である。 実施形態の処理の流れの一例を示すフローチャート(その1)である。 実施形態の処理の流れの一例を示すフローチャート(その2)である。 実施形態の処理の流れの一例を示すフローチャート(その3)である。 実施形態の処理の流れの一例を示すフローチャート(その4)である。 高速ローダのハードウェア構成の一例を示す図である。
<実施形態のシステムの一例>
図1は、実施形態のシステム1の一例を示す。システム1は、サーバ2と高速ローダ3とデータベース4とを含む。図1の例において、サーバ2と高速ローダ3とは、ネットワークを介して、接続される。また、高速ローダ3とデータベース4とは他のネットワークを介して接続される。高速ローダ3は、データロード装置の一例である。
高速ローダ3は、データベース4に挿入する1または複数のデータ(インプットデータ)を受け付け、受け付けたデータに含まれる複数のレコードを、データベース4の形式に適合したタプルに変換する。実施形態の高速ローダ3は、例えば、RDBMSに適用されてもよい。
高速ローダ3は、1つのページに対して、複数のタプルを書き込む。ページは、データベース4の入出力の最小単位であり、例えば、RDBMSにおけるページのサイズは、8キロバイトが採用される。
高速ローダ3は、複数のタプルが書き込まれたページを複数生成してもよい。高速ローダ3は、複数のタプルが書き込まれた1または複数のページを1つのトランザクションとして、一括してデータベース4に挿入する。該挿入の処理は、ロード処理と称される。実施形態では、ロード処理において、多くのレコード(タプル)が一括して、データベース4に挿入されるものとする。
図1では、高速ローダ3とデータベース4とがネットワーク(他のネットワーク)を介して接続される例を示しているが、高速ローダ3とデータベース4とは1つの装置であってもよい。また、高速ローダ3は、上記インプットデータを、サーバ2以外の装置から受け付けてもよい。
以下、高速ローダ3が受け付けたデータ(インプットデータ)を、Comma-Separated Values(CSV)形式のデータとして説明するが、該データは、CSV形式以外のデータであってもよい。
図1の例に示されるように、高速ローダ3は、割り当て部11とデータ変換部12と書き込み部13と反映部14と通信部15とを含む。
割り当て部11は、高速ローダ3が受け付けたデータに含まれる複数のレコードを、ページに割り当てる。実施形態では、複数のページが生成されるものとする。従って、割り当て部11は、複数のページのうち何れかのページに、上記複数のレコードを割り当てる。
データ変換部12は、複数のデータ変換プロセスを含む。各データ変換プロセスは、複数のページのうち何れかに対応し、対応するページに割り当てられた複数のレコードをタプルに変換する。各データ変換プロセスは、並列に動作する。
書き込み部13は、各ページのそれぞれについて、1つのラインポインタ作成プロセスおよび複数のページ作成プロセスを含む。従って、1つのページに対して、1つのラインポインタ作成プロセスおよび複数のページ作成プロセスが生成される。
ラインポインタは、制御情報の一例である。ページ作成プロセスは、書き込みプロセスの一例である。ラインポインタ作成プロセスは、制御プロセスの一例である。
ラインポインタ作成プロセスは、データ変換プロセスからタプルを取得し、取得したタプルに基づいて、ラインポインタをページに書き込むとともに、取得したタプルに対応するページ作成プロセスを生成する。ラインポインタは、タプルの情報量(タプルサイズ)と書き込み開始位置(オフセット)との情報を含む。ラインポインタは、ページの検索時に、ページ内に書き込まれたタプルの位置を特定する際に用いられる。
実施形態では、複数のページ作成プロセスが、1つのページに対して、並列にタプルを書き込む。従って、1つのページに、複数のタプルが並列に書き込まれる。ラインポインタ作成プロセスは、ページ作成プロセスを生成する際に、ラインポインタの情報を該ページ生成プロセスに渡す。
ページ作成プロセスは、ページのうち、該ラインポインタの情報で指定される領域にタプルを書き込む。実施形態では、ページ作成プロセスは、ラインポインタの情報のうちオフセットで指定される位置を書き込み開始位置として、タプルの書き込みを行なう。
複数のページ作成プロセスは、ページに対して並列にタプルを書き込む。上述したように、実施形態では、複数のページが存在する。従って、複数のページのそれぞれについて、複数のページ作成プロセスが並列にタプルを書き込む。
反映部14は、複数のタプルが書き込まれた複数のページをデータベース4に挿入する処理(ロード処理)を行なう。反映部14は、1つのトランザクションで、複数のページが書き込まれた複数のページを一括して、データベース4に挿入する。該挿入により、データベース4に、複数のレコード(タプル)が一括して反映される。
<GPUアーキテクチャの一例>
図2は、高速ローダ3に搭載されるGPUアーキテクチャの一例を示す。GPU21は、Random Access Memory(RAM)22に接続される。GPU21は、チップ23とL2キャッシュメモリ24とグローバルメモリ25とを含む。
チップ23には、複数のストリーミングマルチプロセッサ30(図2では、SMと表記)が搭載される。各ストリーミングマルチプロセッサ30には、複数のGPUコア31(図2では、コアと表記)と複数のレジスタ32とL1キャッシュメモリ33と共有メモリ34とが搭載される。
GPUコア31は、演算処理を行なう演算処理回路である。図2の例では、GPU21には、GPUコア31が8つ搭載されている。従って、最大で8倍の並列度が得られる。GPU21に搭載されるGPUコア31の数は、8つには限定されない。GPUコア31の数が多くなるに応じて、並列度が高くなる。
レジスタ32は、各GPUコア31のそれぞれに対応して設けられる。L1キャッシュメモリ33は、レジスタ32の次に、GPUコア31が高速にアクセスすることが可能なキャッシュメモリである。共有メモリ34は、L1キャッシュメモリ33と同じ速度で、GPUコア31がアクセスすることが可能なメモリである。
L1キャッシュメモリ33および共有メモリ34に対して、GPUコア31は同じ速度でアクセス可能であり、L1キャッシュメモリ33の容量と共有メモリ34の容量との比率は任意に変更可能である。
例えば、L1キャッシュメモリ33と共有メモリ34との合計の容量が64キロバイトである場合、L1キャッシュメモリ33の容量が16キロバイト、共有メモリ34の容量が48キロバイトに設定されてもよい。実施形態では、L1キャッシュメモリ33よりも、共有メモリ34の容量の方が大きく設定されるものとする。
実施形態では、共有メモリ34に記憶された複数のページのそれぞれに対して、複数のタプルが書き込まれる。従って、共有メモリ34の容量を大きくすることで、多くのページを共有メモリ34に記憶させることができる。
L2キャッシュメモリ24は、各GPUコア31からアクセスすることが可能なメモリであり、GPUコア31によるアクセス速度は、L1キャッシュメモリ33より低速である。グローバルメモリ25は、各GPUコア31からアクセスすることが可能なメモリであり、GPUコア31によるアクセス速度は、L2キャッシュメモリ34より低速である。
L1キャッシュメモリ33について説明する。GPUアーキテクチャのハードウェアの制約から、1つのL1キャッシュメモリ33に対して、複数のプロセス(複数のGPUコア31のそれぞれで動作するプロセス)が同時にアクセスすることは規制される。
従って、1つのプロセスが、L1キャッシュメモリ33に対してアクセスしている間、他のプロセスがL1キャッシュメモリ33に対してアクセスすることは規制される。
一方、共有メモリ34は、L1キャッシュメモリ33と同じ速度でGPUコア31がアクセス可能なメモリであり、上記のハードウェアの制約はない。従って、複数のプロセスが、同時に共有メモリ34に対してアクセスすることが許容される。
<データベースへのロード処理の一例>
次に、図3および図4を参照して、データベースへのロード処理の一例について説明する。図3の例におけるCSVは、サーバ2から受け付けたインプットデータである。該インプットデータには、複数のレコードが含まれる。
図3の例における「CSV」は、高速ローダ3が受け付けたインプットデータであることを示す。図3の例では、高速ローダ3は、複数のインプットデータを受け付ける。割り当て部11は、複数のインプットデータに含まれる複数のレコードを、複数のページのうち何れかに割り当てる。
図3の例は、レコード1が、ページ1に割り当てられ、レコード2が、ページ2に割り当てられる場合を示す。なお、レコードn(nは自然数)は、ページnに割り当てられるものとする。
ページ1に割り当てられたレコード1は、データ変換プロセス1が取得する。ページ2に割り当てられたレコード2は、データ変換プロセス2が取得する。ページnに割り当てられたレコードnは、データ変換プロセスnが取得する。各データ変換プロセスは、それぞれ1つのGPUコア31に割り当てられてもよい。
各データ変換プロセスは、取得したレコードを、データベース4の形式に変換する変換処理を行なう。例えば、インプットデータがCSV形式のデータである場合、該データに含まれるレコードの形式は、文字列がカンマで区切られた形式のレコードである。
各データ変換プロセスは、CSV形式のレコードを、データベース4のテーブルの形式に適合した形式に変換する。該変換により、インプットデータに含まれるレコードは、タプルに変換される。各データ変換プロセスは、レコードからタプルへの変換を並列に行なう。
上述したように、ページごとに、1つのラインポインタ作成プロセスが生成される。図3の例において、ラインポインタは「LP」と表記される。図3の例では、ページ1〜nに対応して、n個のラインポインタ作成プロセスが生成される。ただし、1つのページについて、1つのラインポインタ作成プロセスが生成される。
ラインポインタ作成プロセスは、タプルを取得するごとに、ラインポインタをページに書き込むとともに、タプルに応じたページ作成プロセスを生成する。従って、ラインポインタ作成プロセスは、複数のページ作成プロセスを生成する。図3の例の場合、ラインポインタ作成プロセス1が、複数のページ作成プロセス1A、1B、・・・を生成する。
ラインポインタ作成プロセスは、ページ作成プロセスを生成する際に、対応するラインポインタの情報を、該ページ作成プロセスに渡す。各ページ作成プロセスは、ラインポインタ作成プロセスから渡されたラインポインタの情報のうち、オフセット(書き込み開始位置)に基づいて、対応するタプルをページに書き込む。
各ページ作成プロセスがタプルをページに書き込むことにより、複数のタプルが書き込まれた1つのページが生成される。各ページ作成プロセスは、対応するページにタプルを並列に書き込む。
上述したように、各ページは、共有メモリ34に記憶される。図4の例に示されるように、各ページに対するタプルの書き込みが完了すると、反映部14は、各ページをデータベース4のテーブルに挿入する処理を行なう。該処理により、データベース4にデータが反映される。
<ページをロックしたタプル書き込みの一例>
次に、図5乃至図8の例を参照して、ページをロックしたタプル書き込みの一例について説明する。図5乃至図7の例において、共有メモリ34に記憶されたページに対して、1つのプロセスがアクセスすると、該ページがロックされ、他のプロセスによるアクセスは規制されるものとする。
ページのロックという点においては、L1キャッシュメモリ33に上記ページが記憶された場合も、同様である。L1キャッシュメモリ33に対して、複数のプロセスがアクセスすることが規制されるためである。
ラインポインタ作成プロセスは、タプル1の取得に応じて、共有メモリ34に記憶されたページに、ラインポインタLP1を書き込む。ラインポインタ作成プロセスは、ラインポインタLP1をページに書き込む際に、ページをロックする。
ページがロックされることで、他のプロセスによるページへのアクセスは規制される。ページのロックが解除されると、他のプロセスによるページへのアクセスが許容される。つまり、ページの排他制御が行われる。
ラインポインタ作成プロセスが、ページに、タプル1に対応するラインポインタLP1を書き込んでいる間、タプル1の書き込みは行われない。ラインポインタLP1の書き込みが完了すると、ページのロックが解除される。
ページのロックが解除されると、図6の例に示されるように、タプル1に対応するページ作成プロセス1は、ページをロックして、タプル1をページに書き込む。該ページがロックされることで、ラインポインタ作成プロセスを含む他のプロセスによる該ページへのアクセスは規制される。
図6の例に示されるように、ラインポインタ作成プロセスがタプル2を取得している場合、ラインポインタ作成プロセスは、タプル1の書き込みが完了するまで、待機する。ページに対するタプル1の書き込みが完了すると、ページのロックが解除される。
ページのロックが解除されると、図7の例に示されるように、ラインポインタ作成プロセスは、ページをロックし、タプル2のラインポインタをページに書き込む。ラインポインタ作成プロセスがページのロックを解除すると、図8の例に示されるように、ページ作成プロセスが、ページをロックして、該ページに、タプル2を書き込む。
図8の例に示されるように、タプル2の書き込みが行われる際に、タプル1の書き込みは完了している。図8の例において、網掛けが施されているタプル1は、書き込みが完了していることを示す。
従って、1つのページに対して1つのページ作成プロセスによるタプルの書き込みが許容されるため、ページ作成プロセスは、ページ内に順番にタプルを書き込むことができる。よって、タプル1とタプル2とを連続させることができ、タプル1にタプル2を上書きすることが回避される。
一方、上述したように、各プロセスは、ページをロックした後に、該ページにラインポインタまたはタプルを書き込むため、1つのページに、複数のページ作成プロセスが並列にタプルを書き込むことは規制される。よって、ページ生成の並列度が向上しないため、ロード処理の高速化が図られない。
<ページをロックすることなく複数タプルの並列書き込みを行なう際の不具合の一例>
次に、図9を参照して、共有メモリ34に記憶されているページをロックすることなく、複数のページ作成プロセスが並列にタプルをページに書き込む際の不具合の一例について説明する。
上述したように、複数のGPUコア31は、共有メモリ34に対して、同時にアクセスすることが許容される。従って、ページのロックを行なわれなければ、共有メモリ34に対して、複数のページ作成プロセスが、並列にタプルをページに書き込むことができる。
従って、共有メモリ34に記憶されたページに対して、複数のプロセスが並列に書き込みを行なうことができる。例えば、図9は、5つのページ作成プロセスが、ページに対して、並列にタプル1〜タプル5を書き込む例を示す。
図9の例において、ページのロックはされていないため、5つのページ作成プロセスは、タプルを並列にページに書き込むことができる。ただし、各ページ作成プロセスが、自由にタプルの書き込みを行なうと、ページ内のタプルが連続しないことがあり、ページ内のタプルに対して他のタプルによる上書きがされることがある。
図9の例では、ページ内にタプルが存在しない領域が生じている。該領域(不連続領域)は、タプルが連続して書き込まれないことに起因して生じる。ページ内に不連続領域を生じると、ページの使用率が低下する。図9の例において、不連続領域は「empty」と表記される。
ページの使用率が低下すると、データベース4の検索時の検索性能が低下する。一方、ページにタプルが連続して書き込まれると、ページの使用率が高くなり、上記検索性能が向上する。
また、ページ内のタプルに対して他のタプルによる上書きがされると、タプルの情報が失われる。図9の例では、タプル3に対してタプル5による上書きがされているため、タプル3のうち一部(図9の例におけるハッチングで示される領域)の情報が失われる。
<実施形態における共有メモリのページに対するタプル書き込みの一例>
次に、実施形態における共有メモリ34のページに対するタプル書き込みの一例について、図10乃至図15を参照して説明する。図10乃至図15の例におけるページは、共有メモリ34に記憶される。従って、複数のプロセスによるページに対する同時アクセスは許容される。また、共有メモリ34中のページはロックされることなく、複数のプロセスが該ページに、並列に書き込みを行なう。
図10の例に示されるように、1つのページに対して、1つのラインポインタ作成プロセスが生成される。該ラインポインタ作成プロセスは、タプル1を取得すると、タプル1に対応するラインポインタLP1を、ページ内のページヘッダに続く領域に書き込む。該ラインポインタLP1は、タプル1のタプルサイズおよびオフセットの情報を含む。
ラインポインタ作成プロセスは、書き込み済みのラインポインタのオフセットおよびタプルサイズに基づいて、オフセットを求めてもよい。図10の例では、書き込み済みのラインポインタは存在しないため、ラインポインタ作成部は、初期位置(初期アドレス)を、タプル1の書き込み開始位置(オフセット)に設定する。
ラインポインタ作成プロセスは、ラインポインタLP1をページ1に書き込むとともに、タプル1に対応するページ作成プロセス1を生成する。ページ作成プロセス1は、タプル1をページに書き込むプロセスである。
生成されたページ作成プロセス1と、ラインポインタ作成プロセスとは、非同期且つ独立に動作する。例えば、ページ作成プロセス1とラインポインタ作成プロセスとが、異なるGPUコア31に割り当てられたとする。それぞれのGPUコア31に割り当てられたプロセスは、非同期且つ独立に動作する。
従って、ラインポインタ作成プロセスの動作から、ページ作成プロセス1の動作は、分離される。ラインポインタ作成プロセスは、ページ作成プロセス1を生成する際、ラインポインタLP1の情報を該ページ作成プロセス1に渡す。
ページ作成プロセス1は、ラインポインタ作成プロセスから渡されたラインポインタLP1のうちオフセットに基づいて、ページ内におけるタプル1の書き込み開始位置を認識する。
図11の例に示されるように、ページ作成プロセス1は、認識したオフセット(書き込み開始位置)で指定される領域にタプル1を書き込む。ページ作成プロセス1は、ラインポインタ作成プロセスの動作にかかわらず、タプル1をページに書き込む。従って、ラインポインタ作成プロセスとページ作成プロセス1とは、並列にページに対して書き込みを行なう。
図11の例において、ラインポインタ作成プロセスは、タプル2を取得する。ラインポインタの情報量は、タプルの情報量より小さいため、ページ作成プロセス1によるタプル1の書き込みが完了する前に、ラインポインタLP1の書き込みは完了する。
ラインポインタ作成プロセスは、上記初期位置からタプル1のタプルサイズの分だけ後の位置(例えば、初期アドレスからタプルサイズの分だけ後のアドレス)を書き込み開始(オフセット)として設定する。
ラインポインタ作成プロセスは、タプル2のタプルサイズおよび上記オフセットを含むラインポインタLP2を、ラインポインタLP1に続く領域に書き込む。ラインポインタ作成プロセスは、ラインポインタLP2をページに書き込むとともに、ページ作成プロセス2を生成し、該ラインポインタ作成プロセスに、ラインポインタLP2の情報を渡す。
ページ作成プロセス2は、ラインポインタLP2のオフセット(ラインポインタLP2で指定される領域)に基づいて、タプル2を書き込む。従って、タプル1とタプル2とを連続して書き込むことができる。また、タプル1にタプル2が上書きされることはない。
図12の例において、ラインポインタ作成プロセスがタプル3を取得した際、ページ作成プロセス1によるタプル1の書き込みと、ページ作成プロセス2によるタプル2の書き込みとは、並列に行なわれている。
次に、図13の例において、ラインポインタ作成プロセスは、タプル3、タプル4、タプル5の順番で、該3つのタプルを短い時間間隔で取得したとする。ラインポインタ作成プロセスは、タプル3、タプル4、タプル5の順番で、対応するラインポインタをページに書き込む。
ラインポインタ作成プロセスは、タプル3に対応するラインポインタLP3のオフセットを、ラインポインタLP2のオフセットからタプル2のタプルサイズの後に設定する。つまり、ラインポインタ作成プロセスは、取得したタプルの1つ前のタプルに対応するラインポインタのオフセットから、上記1つ前のタプルのタプルサイズの後の位置を、取得したタプルのオフセットに設定する。
実施形態におけるラインポインタの情報量は小さい。従って、ラインポインタ作成プロセスは、上記3つのタプルを取得した時間間隔が短いとしても、順次、ラインポインタをページに書き込むことができる。
上述したように、ページに対してロックがされることなく、各プロセスによるページに対する並列書き込みが許容される。従って、ラインポインタ作成プロセスがラインポインタをページに書き込んでいる間に、ページ作成プロセスはページにタプルを書き込むことができる。
ラインポインタの情報量は、タプルの情報量より小さく、且つ、ラインポインタ作成プロセスと書き込みとページ作成プロセスとがページに対して並列に書き込むことが許容される。
従って、ページ作成プロセスは、タプル作成プロセスの動作が完了するまで、待機することがない。よって、並列度が向上し、ロード処理の高速化が図られる。
ラインポインタ作成プロセスは、タプルをページに書き込むとともに、対応するタプルのページ作成プロセスを生成する。図13の例では、ラインポインタ作成プロセスは、ページ作成プロセス3、ページ作成プロセス4およびページ作成プロセス5を、順次、生成する。
図13の例では、タプル1の書き込みは完了している。一方、ページ作成プロセス2は、タプル2の書き込みを行なっている。
図14の例において、ページ作成プロセス3によるタプル3の書き込みと、ページ作成プロセス4によるタプル4の書き込みと、ページ作成プロセス5によるタプル5の書き込みとは、並列に行なわれる。
従って、複数のタプルの書き込みが並列に行なわれるため、並列度が向上し、ロード処理の高速化が図られる。また、ラインポインタ作成プロセスと各ページ作成プロセスとは、非同期且つ独立に動作するため、並列度が向上する。
1つのページに対応する1つのラインポインタ作成プロセスが、タプルの取得に応じて、ページ作成プロセスを生成するため、短い時間間隔で複数のページ作成プロセスが生成される。
ラインポインタ作成プロセスは、各ページ作成プロセスに、ラインポインタの情報(書き込み領域に関する制御情報)を渡し、各ページ作成プロセスが、ラインポインタの情報に基づいて、タプルを並列に書き込む。
各ページ作成プロセスが並列にタプルを書き込む場合、各ページ作成プロセスは、ページ内のオフセットで指定される位置からタプルを書き込む。従って、ページをロックしなくても、ページ内に上述した不連続領域が生じることがなくなり、ページに書き込み済みのタプルに対して、他のタプルによる上書きがされることが回避される。
ラインポインタ作成プロセスは、タプルの取得に応じて、ラインポインタをページに書き込む。上述したように、ラインポインタは、タプルサイズおよびオフセットの情報を含む。データベース4の検索時に、ラインポインタに基づいて、ページ内に記憶された複数のタプルの書き込み位置が特定される。
例えば、ラインポインタの情報量は、固定の4バイトであるとする。ラインポインタ作成プロセスは、タプルの取得に応じて、順次、ラインポインタをページに書き込む。ラインポインタは固定の4バイトであるため、ラインポインタ作成プロセスは、タプルの取得に応じて、4バイトずつに区切って、順次、ラインポインタをページに書き込む。
従って、ラインポインタ作成プロセスは、ページヘッダのロックおよび該ロックの解除を行なうことなく、順次、ラインポインタをページに書き込むことができる。例えば、ラインポインタ作成プロセスが、ページヘッダのロックおよび該ロックの解除の制御を行うと、該制御に起因する待ち時間が生じる。該待ち時間は、並列度を低下させる要因となる。
ラインポインタの情報量が、4バイトという少ない情報量であっても、GPUコア31の増加に応じて、並列度が向上すると、上記の待ち時間がロード処理全体の処理時間に与える影響が大きくなる。
実施形態では、ラインポインタ作成プロセスは、ページヘッダのロックおよび該ロックの解除を行なうことなく、所定の情報量(4バイト)ごとに、順次、ラインポインタをページに書き込む。従って、上記の待ち時間がなくなり、ロード処理の高速化が図られる。
<実施形態の処理の流れの一例を示すフローチャート>
図15乃至図18のフローチャートを参照して、実施形態の処理の流れの一例について説明する。上述したように、高速ローダ3は、1または複数のページを生成する。高速ローダ3は、ページごとに、データ変換プロセスを生成する(ステップS1)。
従って、複数のデータ変換プロセスが生成される。複数のデータ変換プロセスは、それぞれ、異なるGPUコア31に割り当てられてもよい。高速ローダ3は、ページごとに、1つのラインポインタ作成プロセスを生成する(ステップS2)。ページごとのラインポインタ作成プロセスは、それぞれ異なるGPUコア31に割り当てられてもよい。
高速ローダ3は、インプットデータ(CSVデータ)を受け付けたかを判定する(ステップS3)。例えば、サーバ2からインプットデータを通信部15が受信した場合、ステップS3はYESとなる。
ステップS3でNOの場合、処理は、次のステップに進まない。ステップS3でYESの場合、割り当て部11は、インプットデータに含まれる複数のレコードを、共有メモリ34中の複数のページのうち何れかのページに割り当てる(ステップS4)。
高速ローダ3は、ページをデータベース4にロードするかを判定する(ステップS5)。ステップS5でNOの場合、処理は、ステップS3に戻る。ステップS5でYESの場合、反映部14は、複数のタプルが書き込まれた複数のページを、データベース4にロードすることにより、データベース4に各タプルを反映させる(ステップS6)。
例えば、通信部15が、データベース4に複数のページを送信し、データベース4は、受信した複数のページをテーブルに挿入することにより、ステップS6の処理が行われてもよい。
図16を参照して、各データ変換プロセスが行なうデータ変換処理の流れの一例を説明する。複数のデータ変換プロセスは、インプットデータに含まれる複数のレコードを、順次取得する(ステップS11)。
各データ変換プロセスは、取得したレコードを、データベース4の形式に適合したタプルに変換する(ステップS12)。該タプルは、データベース4のテーブルに挿入可能な形式のデータである。
データ変換プロセスは、上記タプルおよび該タプルのタプルサイズの情報をキューに格納する(ステップS13)。例えば、キューは、共有メモリ34の一部の領域により実現されてもよい。
次に、図17を参照して、ラインポインタ作成プロセスの処理の流れについて説明する。上述したように、1つのページについて、1つのラインポインタ作成プロセスが生成される。該ラインポインタ作成プロセスは、対応するページを初期化する(ステップS21)。
ラインポインタ作成プロセスは、上述したキューにタプルがあるかを判定する(ステップS22)。ステップS22でYESの場合、ラインポインタ作成プロセスは、キューからタプルを取得する(ステップS23)。
キューには、データ変換プロセスがレコードを変換した順番に、タプルが格納される。ラインポインタ作成プロセスは、キューから、タプルを取得することで、レコードからタプルに変換された順番に応じて、タプルおよび該タプルのタプルサイズの情報を取得する。
ラインポインタ作成プロセスは、タプルサイズおよびオフセットを含むラインポインタをページに書き込むとともに、タプルに対応したページ作成プロセスを生成する(ステップS24)。また、ラインポインタ作成プロセスは、生成したページ作成プロセスに、ラインポインタおよびタプルを渡す(ステップS25)。
ラインポインタ作成プロセスは、キューからタプルおよびタプルサイズの情報を取得するごとに、ラインポインタをページに書き込み、対応するページ作成プロセスを生成する。生成された各ページ作成プロセスは、それぞれ非同期且つ独立に動作する。また、各ページ作成プロセスとラインポインタ作成プロセスとは、非同期且つ独立に動作する。
ステップS22でNOの場合、ラインポインタ作成プロセスに対応するページ作成プロセスの動作が全て終了したかが判定される(ステップS26)。ステップS26でNOの場合、ページ作成プロセスがページにタプルを書き込んでいるため、処理は、ステップS26に戻る。ステップS26でYESの場合、処理は、終了する。
次に、図18を参照して、ページ作成プロセスの処理について説明する。上述したように、ラインポインタ作成プロセスは、生成したページ作成プロセスにラインポインタを渡す。ページ作成プロセスは、ラインポインタのうちオフセットを認識する(ステップS31)。該オフセットは、ページ内のタプルの書き込み開始位置を示す。
ページ作成プロセスは、ページ内のオフセットの位置から、タプルを書き込む(ステップS32)。タプルの書き込みが完了するまで(ステップS33でNO)、ページ作成プロセスは、ページにタプルを書き込む。タプルの書き込みが完了すると(ステップS33でYES)、ページ作成プロセスの処理は終了する。
上述したように、1つのページに対応する複数のページ作成プロセスは、非同期且つ並列に動作を行なう。従って、各ページ作成プロセスが、図18に示される各処理を並列に行なうことで、タプルの書き込みが並列に行なわれる。
<高速ローダのハードウェア構成の一例>
次に、図19の例を参照して、高速ローダ3のハードウェア構成の一例を説明する。図19の例に示すように、バス100に対して、GPU21とRAM22とRead Only Memory(ROM)113とが接続される。また、該バス100に対して、補助記憶装置114と媒体接続部115と通信インタフェース116とが接続される。
GPU21は、RAM22に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態における処理を行うプログラムが適用されてもよい。
ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等が適用されてもよい。媒体接続部115は、可搬型記録媒体120と接続可能に設けられている。
可搬型記録媒体115Mとしては、可搬型のメモリ(例えば、半導体メモリ)や光学式ディスク(例えば、Compact Disc(CD)やDigital Versatile Disc(DVD))等が適用されてもよい。この可搬型記録媒体115Mに実施形態の処理を行うプログラムが記録されていてもよい。
上述した割り当て部11とデータ変換部12と書き込み部13と反映部14とは、与えられたプログラムをGPU21が実行することにより実現されてもよい。また、通信部15は、通信インタフェース116により実現されてもよい。
RAM22、ROM113、補助記憶装置114および可搬型記録媒体115Mは、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。
<その他>
上述した実施形態では、高速ローダ3にGPU21が搭載されている例を説明したが、高速ローダ3に、Central Processing Unit(CPU)が搭載されていてもよい。該CPUが複数のCPUコアを持つことで、上述した実施形態の処理が実現される。GPU21およびCPUは、プロセッサの一例である。
上述した実施形態における高速ローダ3は、1つのトランザクションで、複数のタプルが書き込まれたページを、データベース4に挿入する処理(ロード処理)を行う場合を想定している。
例えば、Online Transaction Processing(OLTP)業務においては、複数のトランザクションが、更新処理、削除処理、参照処理等の挿入処理以外の処理を、データベース4に対して要求する。例えば、更新処理であれば、ページに対して更新を行なっている間、該ページに対する他のプロセスによるアクセスは規制される。
従って、OLTP業務において、例えば、更新処理に関するトランザクションと参照処理に関するトランザクションとが同時に発生した場合、一方のトランザクションは、他のトランザクションの処理が完了するまで、待機することになる。このため、処理速度の高速化が図られない。
上述したロード処理は、1つのトランザクションで、複数のタプルが書き込まれたページをデータベース4に挿入する処理であるため、処理速度の高速化が図られる。1つのトランザクションに含まれるタプルの数が多くなるに応じて、処理速度が高速になる。従って、実施形態の処理は、ロード処理に適する。
また、上述した実施形態のシステム1は、銀行等の金融機関のシステムであってもよい。例えば、銀行のシステム1において、サーバ2は、銀行の基幹サーバであるとする。該サーバ2は、多くのAutomated Teller Machine(ATM)に接続される。
ATMの利用者は、該ATMを用いて、金融取引の操作(例えば、振込み等の操作)を行う。銀行の基幹サーバは、1つの金融取引に関するデータをATMから受信すると、該金融取引を1つのレコードとして処理する。
銀行の基幹サーバには、多くのATMが接続されるため、該銀行の基幹サーバ(サーバ2)は、短時間に大量のレコードを生成する。該サーバ2は、大量のレコードからインプットデータを生成し、該インプットデータを高速ローダ3に送信する。
高速ローダ3は、サーバ2からインプットデータを受信すると、該インプットデータに含まれる大量のレコードを、複数のページに割り当てる。高速ローダ3は、実施形態の処理を行い、各ページに対して、複数のタプルを書き込み、複数のページを生成する。
高速ローダ3は、複数のページを一括して、データベース4に挿入するロード処理を行なう。従って、銀行システムのように、大量のレコードをデータベースにロードするシステムに実施形態の高速ローダ3が適用されることで、金融取引に関するデータを高速にデータベースに反映することができる。なお、実施形態のシステム1は、金融機関のシステムには限定されない。
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
1 システム
2 サーバ
3 高速ローダ
4 データベース
11 割り当て部
12 データ変換部
13 書き込み部
14 反映部
15 通信部
21 GPU
22 RAM
31 GPUコア
32 レジスタ
33 L1キャッシュメモリ
34 共有メモリ

Claims (13)

  1. 複数のレコードを含むデータをデータベースにロードするデータロードプログラムであって、
    複数のプロセスから同時にアクセス可能な共有メモリ中のページに、前記複数のレコードを割り当て、
    前記複数のレコードのそれぞれについて、前記レコードの書き込み領域に関する制御情報を前記ページに書き込むとともに、前記複数のレコードのそれぞれに対応した書き込みプロセスを生成し、
    生成された複数の前記書き込みプロセスにより、それぞれ対応するレコードを、該レコードに対応する前記書き込み領域に書き込み、
    複数の前記レコードが書き込まれた前記ページを、前記データベースに反映させる、
    処理をデータロード装置に実行させることを特徴とするデータロードプログラム。
  2. 前記複数のレコードを、前記データベースに適合した形式に変換し、
    前記複数の書き込みプロセスにより、変換された前記複数のレコードを、前記ページに書き込む、
    処理を前記データロード装置に実行させることを特徴とする請求項1記載のデータロードプログラム。
  3. 前記ページに対応して、前記制御情報を書き込む1つの制御プロセスを生成し、
    該1つの制御プロセスが、変換された前記レコードの取得に応じて、複数の前記書き込みプロセスを生成する、
    処理を前記データロード装置に実行させることを特徴とする請求項2記載のデータロードプログラム。
  4. 前記レコードの取得に応じて、前記制御プロセスにより、前記ページに、前記制御情報を書き込む、
    処理を前記データロード装置に実行させることを特徴とする請求項3記載のデータロードプログラム。
  5. 前記制御プロセスにより前記書き込みプロセスが生成された際、該書き込みプロセスに対応する前記制御情報を、該書き込みプロセスに渡す、
    処理を前記データロード装置に実行させることを特徴とする請求項3記載のデータロードプログラム。
  6. 前記複数の書き込みプロセスは、相互に、非同期且つ並列に動作する、
    ことを特徴とする請求項1乃至5のうち何れか1項に記載のデータロードプログラム。
  7. 前記複数の書き込みプロセスは、相互に、非同期且つ並列に動作し、前記複数の書き込みプロセスと前記制御プロセスとは、非同期且つ並列に動作する、
    ことを特徴とする請求項3乃至5のうち何れか1項に記載のデータロードプログラム。
  8. 前記制御プロセスが前記ページに書き込む前記制御情報の情報量は、前記書き込みプロセスが前記ページに書き込む前記レコードの情報量より小さい、
    ことを特徴とする請求項3乃至5および請求項7のうち何れか1項に記載のデータロードプログラム。
  9. 前記制御情報は、前記ページに書き込み済みのタプルの情報量に基づく書き込み開始位置の情報を含む、
    ことを特徴とする請求項1乃至8のうち何れか1項に記載のデータロードプログラム。
  10. 前記割り当てる処理において、前記共有メモリ中の複数のページのうち何れかのページに、前記複数のレコードを割り当て、
    前記反映させる処理において、複数の前記レコードが書き込まれた複数の前記ページを、前記データベースに反映させる、
    ことを特徴とする請求項1乃至9のうち何れか1項に記載のデータロードプログラム。
  11. 前記共有メモリは、マルチコアプロセッサに搭載され、複数のコアから同時にアクセス可能なメモリであること、
    を特徴とする請求項1乃至10のうち何れか1項に記載のデータロードプログラム。
  12. 複数のレコードを含むデータをデータベースにロードするデータロード方法であって、
    複数のプロセスから同時にアクセス可能な共有メモリ中のページに、前記複数のレコードを割り当て、
    前記複数のレコードのそれぞれについて、前記レコードの書き込み領域に関する制御情報を前記ページに書き込むとともに、前記複数のレコードのそれぞれに対応した書き込みプロセスを生成し、
    生成された複数の前記書き込みプロセスにより、それぞれ対応するレコードを、該レコードに対応する前記書き込み領域に書き込み、
    複数の前記レコードが書き込まれた前記ページを、前記データベースに反映させる、
    処理をデータロード装置が実行することを特徴とするデータロード方法。
  13. 複数のレコードを含むデータをデータベースにロードするデータロード装置であって、
    複数のプロセスから同時にアクセス可能な共有メモリ中のページに、前記複数のレコードを割り当てる割り当て部と、
    前記複数のレコードのそれぞれについて、前記レコードの書き込み領域に関する制御情報を前記ページに書き込むとともに、前記複数のレコードのそれぞれに対応した書き込みプロセスを生成し、生成された複数の前記書き込みプロセスにより、それぞれ対応するレコードを、該レコードに対応する前記書き込み領域に書き込む書き込み部と、
    複数の前記レコードが書き込まれた前記ページを、前記データベースに反映させる反映部と、
    を備えることを特徴とするデータロード装置。

JP2019528274A 2017-07-05 2017-07-05 データロードプログラム、データロード方法およびデータロード装置 Active JP6881579B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/024738 WO2019008715A1 (ja) 2017-07-05 2017-07-05 データロードプログラム、データロード方法およびデータロード装置

Publications (2)

Publication Number Publication Date
JPWO2019008715A1 JPWO2019008715A1 (ja) 2020-03-19
JP6881579B2 true JP6881579B2 (ja) 2021-06-02

Family

ID=64950676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528274A Active JP6881579B2 (ja) 2017-07-05 2017-07-05 データロードプログラム、データロード方法およびデータロード装置

Country Status (4)

Country Link
US (1) US11275689B2 (ja)
JP (1) JP6881579B2 (ja)
AU (1) AU2017422723B2 (ja)
WO (1) WO2019008715A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475882B1 (en) * 2019-06-27 2022-10-18 Rapid7, Inc. Generating training data for machine learning models
CN110489696B (zh) * 2019-07-31 2023-07-04 上海艾融软件股份有限公司 缓存更新方法、装置及电子设备、存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255387A (en) * 1990-04-27 1993-10-19 International Business Machines Corporation Method and apparatus for concurrency control of shared data updates and queries
JP2552759B2 (ja) * 1990-08-31 1996-11-13 富士通株式会社 マルチプロセッサによるデータベース処理装置
US5408652A (en) * 1990-08-31 1995-04-18 Fujitsu Limited Method and apparatus for heterogenous database access by generating different access procedures for different database data structures
JPH10124357A (ja) * 1996-10-24 1998-05-15 Nri & Ncc Co Ltd Rdbの表への自動データローディング装置及びその方法
US5895487A (en) * 1996-11-13 1999-04-20 International Business Machines Corporation Integrated processing and L2 DRAM cache
US8078636B2 (en) * 2005-08-24 2011-12-13 Temporal Dynamics, Inc. Database heap management system with variable page size and fixed instruction set address resolution
JP5250869B2 (ja) 2008-08-28 2013-07-31 株式会社日立製作所 ストレージシステム、論理記憶領域割り当て方法及び計算機システム
JP2014211800A (ja) 2013-04-19 2014-11-13 株式会社東芝 データ記憶装置、ストレージコントローラおよびデータ記憶制御方法
JP2016012166A (ja) 2014-06-27 2016-01-21 富士通株式会社 ストレージ管理装置,ストレージ管理プログラム,及び制御方法
JP6039149B2 (ja) 2015-06-25 2016-12-07 株式会社日立製作所 ストレージ装置及びその制御方法

Also Published As

Publication number Publication date
JPWO2019008715A1 (ja) 2020-03-19
AU2017422723B2 (en) 2020-11-26
WO2019008715A1 (ja) 2019-01-10
US20200125489A1 (en) 2020-04-23
US11275689B2 (en) 2022-03-15
AU2017422723A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US11386065B2 (en) Database concurrency control through hash-bucket latching
JP4339371B2 (ja) 情報処理装置および情報処理方法
US20100332765A1 (en) Hierarchical bloom filters for facilitating concurrency control
BRPI0809078A2 (pt) Memória transacional que utiliza gravações armazenadas em buffer e ordem de serialização reforçada
US10303383B1 (en) System and method for implementing non-blocking, concurrent hash tables
US7958149B2 (en) Computer program and product for append mode insertion of rows into tables in database management systems
US8806168B2 (en) Producer-consumer data transfer using piecewise circular queue
JP4294059B2 (ja) 情報処理装置および情報処理方法
WO2016122710A1 (en) Byte addressable non-volatile random access memory for storing log record
US11275689B2 (en) Data loading method, data loading apparatus, and recording medium
CN109213423B (zh) 基于地址屏障无锁处理并发io命令
US9542319B2 (en) Method and system for efficient communication and command system for deferred operation
WO2016106738A1 (zh) 事务冲突检测方法、装置及计算机系统
US9507725B2 (en) Store forwarding for data caches
US8806102B2 (en) Cache system
CN116257359A (zh) 数据处理方法及装置、存储介质及电子设备
US6556994B1 (en) Method and system for improving concurrency through early release of unnecessary locks
US20180081580A1 (en) Buffer Allocation and Memory Management
CN109213424B (zh) 并发io命令的无锁处理方法
JP4279346B2 (ja) データベース管理装置及びプログラム
CN114168306B (zh) 调度方法及调度装置
US11874767B2 (en) Memory partitions for processing entities
US20210034580A1 (en) Method, apparatus and computer program product for maintaining metadata
US11983168B2 (en) Block verification method, apparatus and device
CN111309384B (zh) 针对硬件加速器的软硬件交互方法、装置和存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6881579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150