JP2014160336A - クラスタリング装置、クラスタリング処理方法およびそのプログラム - Google Patents

クラスタリング装置、クラスタリング処理方法およびそのプログラム Download PDF

Info

Publication number
JP2014160336A
JP2014160336A JP2013030215A JP2013030215A JP2014160336A JP 2014160336 A JP2014160336 A JP 2014160336A JP 2013030215 A JP2013030215 A JP 2013030215A JP 2013030215 A JP2013030215 A JP 2013030215A JP 2014160336 A JP2014160336 A JP 2014160336A
Authority
JP
Japan
Prior art keywords
clustering
node
graph data
subgraphs
threads
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013030215A
Other languages
English (en)
Inventor
Hiroaki Shiokawa
浩昭 塩川
Yasuhiro Fujiwara
靖宏 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013030215A priority Critical patent/JP2014160336A/ja
Publication of JP2014160336A publication Critical patent/JP2014160336A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】グラフデータのクラスタリング処理時間を低減する。
【解決手段】複数のCPU(Central Processing Unit)または複数コアのCPUを有する制御部を備え、制御部は、グラフデータが入力されると、CPUが利用可能なN個のスレッドを起動し、入力されたグラフデータからN個の部分グラフを抽出し、抽出したN個の部分グラフをN個のスレッドそれぞれに割り当て、それぞれのスレッドにおいてクラスタリング処理を行うクラスタリング装置とした。
【選択図】図6

Description

本発明は、クラスタリング装置、クラスタリング処理方法およびそのプログラムに関する。
従来のグラフデータのクラスタリング技術として、クラスタリング装置(コンピュータ)が、入力されたグラフデータに含まれるすべてのエッジデータを用いてクラスタリング処理対象ノードを任意の順番で選択し、クラスタリングの中間結果を生成し、集約する。さらに、このクラスタリング装置が、集約されたクラスタに対して繰り返しクラスタリング処理を行うことにより、クラスタサイズの均一化および処理対象ノードの削減を行う技術がある(例えば、非特許文献1参照)。
図1に示すように、クラスタリング装置210は、入力部211、制御部212および出力部213から構成される。入力部211は、グラフデータ記憶装置200から読み込んだグラフデータを、クラスタリング装置210の備える主記憶装置(図4参照)上に展開し、制御部212は、図2に示すフローの処理を行い、出力部213に渡す。出力部213は、制御部212により得られたクラスタリング結果を任意の装置、例えば、クラスタリング結果記憶装置220等に出力する。
以下に制御部212における処理について説明する。
まず、制御部212は、図3(A)に示すようなグラフデータが入力されると、乱数を用いてグラフデータから任意のノードを1つ選択し、その選択したノードに隣接するノードの一覧を主記憶装置上の隣接ノードキューに挿入する(S100)。
次に、制御部212は、隣接ノードキューの中から乱数を用いて隣接ノードを選択し、当該隣接ノードキューから当該ノードを削除する(S110)。
制御部212は、S100で選択されたノードとS110において選択された隣接ノードの2つのノードを同じクラスタに分類した際のクラスタリング精度向上量を計算し、隣接ノードとクラスタリング精度向上量とからなる組({隣接ノード:クラスタリング精度向上量})を生成し、主記憶装置上の処理済キューに挿入する(S120)。クラスタリング精度向上量は、非特許文献1に示されるように、以下の式で求められる。
[定義1]クラスタリング精度向上量ΔQを以下のように計算する。
Figure 2014160336
ただし、ΔQはクラスタリング精度向上量、eijはクラスタiとクラスタjの間に存在するエッジの数、mはグラフ内に存在する全エッジ数、Cはクラスタの集合である。
隣接ノードキューに隣接ノードが存在する場合、つまり、ノードの持つ隣接ノードにまだ処理していないノードがあれば(S130のNo)、S110の処理に戻る。一方、隣接ノードキューに隣接ノードが存在しない場合、つまり、制御部212が、ノードの持つ隣接ノードをすべて処理した場合(S130のYes)、クラスタリング精度向上量が最大となる隣接ノードを主記憶装置上の処理済キューから選択し、ノードと隣接ノードに対して同一のクラスタラベルを付与し、主記憶装置上のクラスタ対応表に格納する。つまり、制御部212は、ノードを最もクラスタリング精度向上量の高い隣接ノードと同じクラスタに分類するようにラベル付けを行う(S140)。なお、クラスタラベル名については任意のクラスタラベルを付与するものとする。主記憶装置上のクラスタ対応表には、ノードaの隣接ノードbであった場合は、ハッシュマップの形式で{クラスタラベル:ノードa,ノードb}の組が格納される。
次に、制御部212は、ノード同士のペアでクラスタリング精度向上の余地があるか否かを判定する(S150)、つまり、まず、制御部212は、主記憶装置上に展開していたグラフデータを取得し、主記憶装置上のクラスタ対応表を読み込み、ノード同士のペアでグラフデータ全体のクラスタリング精度を計算する。グラフデータ全体のクラスタリング精度は、非特許文献1に示されるように、以下の式で求められる。
[定義2]クラスタリング精度Qを以下のように計算する。
Figure 2014160336
そして、制御部212は、前回当該処理を実行したときのクラスタリング精度との差分を求める。なお、初回実行時は前回のクラスタリング精度を0とみなして判定するものとする。上記のS100からS150の処理イメージを図3(B)に示す。差分がある場合、つまり、ノード同士のペアでクラスタリング精度向上の余地がある場合は(S150のNo)、S100に戻る。一方、当該差分がない場合、つまり、ノード同士のペアでクラスタリング精度向上の余地がない場合には(S150のYes)、制御部212は、各クラスタに対して、図3(C)に示すように、クラスタに含まれるノードとエッジを1ノードに集約し、主記憶装置のグラフデータを更新する(S160)。さらに、制御部212は、クラスタ(つまり集約されたノード)同士のペアでグラフデータ全体のクラスタリング精度を計算し、前回の当該処理を実行した時の差分を判定する。つまり、制御部212は、クラスタ同士のペアでクラスタリング精度向上の余地があるか否かを判定する(S170)。なお、制御部212は、初回実行時においては前回のクラスタリング精度を0とみなして判定するものとする。差分がある場合は(S170のNo)、S100に戻り、差分がない場合は(S170のYes)、制御部212は、最終的なクラスタ対応表をクラスタリング結果記憶装置220に出力して当該処理を終了する。
上記の従来の技術は、クラスタサイズの均一化と、処理に利用するエッジ数・ノード数
の削減により、中間結果の集約による処理量を削減することが可能であり、1億ノード規
模のグラフデータのクラスタリング処理を2時間半程度で実行可能である。
Louvain method [Vincent D Blondel, Journal of Statistical Mechanics: Theory and Experiment, 2008年10月9日]
しかし、前記した従来技術には次のような問題点がある。すなわち、従来のクラスタリング装置は、大量のグラフデータを1つのCPU(Central Processing Unit)の1スレッド上の非並列環境下でクラスタリング処理を実行するため、すべてのデータを順に処理する必要がある。このため、グラフデータが増加するにつれてクラスタリング処理時間が激増する。例えば、クラスタリング処理時間は、グラフのノード数に対して指数関数的に増加し、グラフのエッジ数に対しては線形的に増加する。そこで、本発明は、前記した問題を解決し、グラフデータのクラスタリング処理時間を低減することを目的とする。
前記した課題を解決するため、本発明は、複数のCPU(Central Processing Unit)または複数コアのCPUを有する制御部を備え、前記制御部は、グラフデータが入力されると、前記CPUが利用可能なN個のスレッドを起動し、前記入力されたグラフデータから前記N個の部分グラフを抽出し、前記抽出したN個の部分グラフを前記N個のスレッドそれぞれに割り当て、前記N個のスレッドそれぞれにおいて前記部分グラフに対するクラスタリング処理を行い、同じクラスタに属するノードを1ノードに集約し、前記集約されたノードからなるグラフデータに対し、前記N個の部分グラフの抽出、前記部分グラフのスレッドへの割り当て、前記部分グラフに対するクラスタリング処理および前記同じグラスタに属するノードの1ノードへの集約を、隣接する前記ノード同士のペアでクラスタリング精度向上量が最大となるペアを発見するまで繰り返すことを特徴とするクラスタリング装置とした。但し、Nは2以上の整数とする。なお、クラスタリング精度向上量は、[定義1]に記載した数式により計算される。
本発明によれば、クラスタリング装置におけるグラフデータのクラスタリング処理時間を低減することができる。
図1は、従来のクラスタリング装置の構成を示す図である。 図2は、従来のクラスタリング装置におけるクラスタリングの処理手順を示すフローチャートである。 図3は、従来のクラスタリングにおける集約イメージである。 図4は、本実施の形態のクラスタリング装置のハードウェア構成図である。 図5は、図4のクラスタリング装置の処理手順を示すフローチャートである。 図6は、図4のS210におけるグラフデータの分割例を示す図である。 図7は、図5のS220の処理の詳細を示すフローチャートである。 図8は、図4のS210におけるグラフデータの分割例(幅優先探索に基づく方法)を示す図である。 図9は、図4のS210におけるグラフデータの分割例(部分グラフを起点ノードから1ホップの範囲とする方法)を示す図である。 図10は、図4のS210におけるグラフデータの分割例(1ホップの範囲の部分グラフをまとめてスレッドに割り当てる方法)を示す図である。
以下、図面を参照しながら、本発明の実施の形態を説明する。以下に説明する実施の形態はあくまで一例であり、本発明は、他のさまざまな形態でも実施が可能である。以下、前記した図1の構成および図2のフローチャートをベースとして説明する。
クラスタリング装置210として用いられるコンピュータは、CPU(Central Processing Unit)100、主記憶装置110(メモリ)、二次記憶装置120(HDD(Hard Disk Drive)、SSD(Solid State Drive)等)および入出力装置130から構成される。なお、図1における制御部212は、CPU100によって実現される。また、入力部211により入力されたグラフデータ内の隣接ノードは主記憶装置110上の隣接ノードキューに展開される。さらに、処理済みキューも主記憶装置110上に配置される。グラフデータ記憶装置200およびクラスタリング結果記憶装置220は、二次記憶装置120に含まれるHDDやSSD等の記録媒体である。また、入力部211および出力部213は、入出力装置130に含まれる。
以下の実施の形態におけるクラスタリング装置210の構成は、図1と同様であるが、制御部212に用いられるCPU100が、複数のCPUまたはマルチコアのCPUであることを特徴とする。
このクラスタリング装置210の機能を実現するプログラムは、入出力装置130から二次記憶装置120にインストールされ、起動されると、CPU100により複数のスレッド上で並列に実行される。クラスタリング装置210は、二次記憶装置120に格納されたグラフデータを主記憶装置上110に展開し、CPU100によりクラスタリング処理を実行する。
なお、クラスタリング装置210の機能を実現するためのプログラムに係るプログラムモジュールやプログラムデータは、プログラムに係るプログラムモジュールやプログラムデータは、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェースを介してCPU100によって読み出されてもよい。
以下に制御部212(CPU100)における処理について図5のフローチャートにて説明する。なお、以下の説明において、クラスタリング精度向上量は、前記した[定義1]で説明した計算式により計算されるものとする。
まず、CPU100は、図3(A)に示すようなグラフデータが入力されると、N個のスレッドを起動する(S200)。そして、CPU100は、グラフデータを分割し、各スレッドへの割り当てを行う(S210)。ここでのグラフデータの分割は、さまざまな方法が考えられるが、例えば、図6に示すように、グラフデータをランダムにN個のグラフ(部分グラフ)に分割する(ランダム分割方式)。
図5の説明に戻る。S210の後、CPU100は、分割したグラフ(部分グラフ)を各スレッドに割り当てた後、各スレッド内で並列にクラスタリング処理を実行する(S220)。S220の詳細は後記する。
S220の後、CPU100は、グラフデータにスレッド未割り当てのノードが存在するか否かを確認する(S230)。存在する場合には(S230のNo)、S210に戻り、グラフデータのノードの各スレッドへの割り当てを行う。一方、スレッド未割り当てのノードが存在しない場合(S230のYes)、CPU100は、同じクラスタに属するノードを1ノードに集約する(S240)。そして、最後に、クラスタ同士のペアでクラスタリング精度の向上の余地がないことが確認されると(S250のYes)、つまり、隣接するノード同士のペアでクラスタリング精度向上量が最大となるペアを発見すると、CPU100は、処理を終了する。一方、クラスタリング精度の向上の余地がまだある場合(S250のNo)、S210へ戻る。
このようにクラスタリング装置210は、グラフデータの分割とマルチスレッド化とにより、クラスタリング処理を並列に実行することで、クラスタリング処理時間を低減することができる。
次に、図7を用いて、図5のS220を詳細に説明する。
まず、CPU100は、各スレッドに割り当てられた部分グラフから、任意のノードuを選択する(S221)。そして、CPU100は、ノードuの隣接ノードの中から任意の隣接ノードvを選択し(S222)、ノードu,v間でクラスタリング精度向上量を計算する(S223)。その後、CPU100は、ノードuの隣接ノードをすべて処理したと判定すると(S224のYes)、クラスタリング精度向上量が最大の隣接ノードvをノードuと同じクラスタにラベル付けする(S225)。そして、スレッドに割り当てられた部分グラフに未処理のノードがなければ(S226のYes)、CPU100は、処理を終了する。
なお、S224において、ノードuの隣接ノードに未処理のものがある場合(S224のNo)、S222へ戻る。また、スレッドに割り当てられた部分グラフに未処理のノードがあれば(S226のNo)、S222へ戻る。
なお、図5のS210において、CPU100は、入力されたグラフデータをランダムに分割するものとしたが、以下の方法により分割(抽出)し、各スレッドに割り当てるようにしてもよい。
(幅優先探索に基づく方法)
例えば、CPU100は、図8に示すように、グラフデータの中から起点ノード(クラスタリング処理対象ノード)を選択し、幅優先探索により、起点ノードから深さd(dは2以上の整数。図8の例ではd=2)ホップ分の部分グラフを選択して切り出す。そして、切り出した部分グラフをスレッドに割り当てる。その後、CPU100は、部分グラフを切り出した残りのグラフデータの中から、再度起点ノードを選択し、この起点ノードから深さdホップの部分グラフを幅優先探索により選択して切り出す。そして、切り出した部分グラフを別のスレッドに割り当てる。このような処理を、N個のスレッドそれぞれに対し実行する。このようにグラフデータからの抽出する部分グラフを、起点ノードから2ホップ以上の深さとすることで、クラスタリング処理において、ランダム分割方式よりも効率的にデータの割り当てを決定することができる。これにより、各スレッド間で、処理対象の部分グラフのデータサイズの偏りを低減できるので、クラスタリング装置における、グラフデータ全体のクラスタリング処理時間を低減できる。
(部分グラフを起点ノードから1ホップの範囲とする方法)
例えば、CPU100は、図9に例示するように、グラフデータの中から切り出した1ホップ分の部分グラフを各スレッドに割り当てる。つまり、CPU100は、グラフデータの中から起点ノードを選択し、この起点ノードから1ホップの範囲内の部分グラフを切り取り、切り出した部分グラフをスレッドに割り当てる。そして、CPU100は、部分グラフを切り出した残りのグラフデータの中から、再度起点ノードを選択し、この起点ノードから1ホップの範囲の部分グラフを切り取り、切り出した部分グラフを別のスレッドに割り当てる。CPU100は、このような処理を、グラフデータのノードすべてに対して実行する。つまり、CPU100は、グラフデータから抽出する部分グラフを、クラスタリング精度向上量の計算に必要な最小限の範囲である1ホップの範囲とする。よって、グラフデータから抽出される部分グラフの数は、前記した幅優先探索の場合に比べて多数となる。よって、CPU100が多数のスレッドを用いる場合に、クラスタリング処理時間をより低減できる。
(1ホップの範囲の部分グラフをまとめてスレッドに割り当てる方法)
例えば、CPU100は、図10に例示するように、グラフデータを1ホップ単位で分割する。つまり、CPU100は、グラフデータの中から起点ノードを選択し、この起点ノードから1ホップの範囲内の部分データを切り出す処理を、グラフデータすべてを網羅するまで実行する。そして、CPU100は分割後、1以上の部分グラフをまとめて各スレッドに割り当てる。このように、CPU100は、グラフデータをすべて分割してから、つまり、グラフデータすべてを網羅するような部分グラフを抽出してから、各スレッドへの割り当てを行うので、クラスタリング処理時間をさらに低減することができる。例えば、図10のスレッドAにおいて、部分グラフaのクラスタリング処理を実行した後、すぐに次の部分グラフ(部分グラフb)のクラスタリング処理に取りかかることができるので、クラスタリング処理時間をさらに低減することができる。
100 CPU
110 主記憶装置
120 二次記憶装置
130 入出力装置
200 グラフデータ記憶装置
210 クラスタリング装置
211 入力部
212 制御部
213 出力部
220 クラスタリング結果記憶装置

Claims (7)

  1. 複数のCPU(Central Processing Unit)または複数コアのCPUを有する制御部を備え、
    前記制御部は、
    グラフデータが入力されると、前記CPUが利用可能なN個のスレッドを起動し、
    前記入力されたグラフデータから前記N個の部分グラフを抽出し、
    前記抽出したN個の部分グラフを前記N個のスレッドそれぞれに割り当て、前記N個のスレッドそれぞれにおいて前記部分グラフに対するクラスタリング処理を行い、同じクラスタに属するノードを1ノードに集約し、
    前記集約されたノードからなるグラフデータに対し、前記N個の部分グラフの抽出、前記部分グラフのスレッドへの割り当て、前記部分グラフに対するクラスタリング処理および前記同じグラスタに属するノードの1ノードへの集約を、隣接する前記ノード同士のペアでクラスタリング精度向上量が最大となるペアを発見するまで繰り返すことを特徴とするクラスタリング装置。
    但し、Nは2以上の整数とする。
  2. 前記制御部は、
    前記N個の部分グラフを抽出するとき、
    前記入力されたグラフデータを、前記N個の部分グラフに分割することにより、前記部分グラフを抽出することを特徴とする請求項1に記載のクラスタリング装置。
  3. 前記制御部は、
    前記N個の部分グラフを抽出するとき、
    前記入力されたグラフデータの中から、前記クラスタリング処理対象ノードを選択し、前記選択したクラスタリング処理対象ノードから深さが所定のホップ数dまでの範囲のノード群を幅優先探索により切り出す処理を前記N回実行することにより、前記部分グラフを抽出することを特徴とする請求項1に記載のクラスタリング装置。
  4. 前記制御部は、
    前記N個の部分グラフを抽出するとき、
    前記入力されたグラフデータの中から、前記クラスタリング処理対象ノードを選択し、前記選択したクラスタリング処理対象ノードから1ホップまでの範囲のノード群の部分グラフを切り出す処理を、前記N回実行することにより、前記部分グラフを抽出すること特徴とする請求項1に記載のクラスタリング装置。
  5. 前記N個の部分グラフを抽出するとき、
    前記入力されたグラフデータの中から、前記クラスタリング処理対象ノードを選択し、前記選択したクラスタリング処理対象ノードから1ホップまでの範囲のノード群を部分グラフとして切り出す処理を、前記部分グラフが、前記入力されたグラフデータすべてを網羅するまで実行することにより、前記部分グラフを抽出し、
    前記部分グラフを前記N個のスレッドそれぞれに割り当てるとき、
    前記N個のスレッドそれぞれに前記切り出した部分グラフを1以上割り当てることを特徴とする請求項1に記載のクラスタリング装置。
  6. 複数のCPUまたは複数コアのCPUを備える制御部が、
    グラフデータが入力されると、前記CPUが利用可能なN個のスレッドを起動するステップと、
    前記入力されたグラフデータから前記N個の部分グラフを抽出する部分グラフ抽出ステップと、
    前記抽出したN個の部分グラフを前記N個のスレッドそれぞれに割り当てるスレッド割り当てステップと、
    前記N個のスレッドそれぞれにおいて前記部分グラフに対するクラスタリング処理を行い、同じクラスタに属するノードを1ノードに集約するノード集約ステップとを実行し、
    前記部分グラフ抽出ステップと、前記スレッド割り当てステップと、前記ノード集約ステップとを、隣接する前記ノード同士のペアでクラスタリング精度向上量が最大となるペアを発見するまで繰り返し実行することを特徴とするクラスタリング処理方法。
    但し、Nは2以上の整数とする。
  7. 複数のCPUまたは複数コアのCPUを備える制御部に、
    グラフデータが入力されると、前記CPUが利用可能なN個のスレッドを起動するステップと、
    前記入力されたグラフデータから前記N個の部分グラフを抽出する部分グラフ抽出ステップと、
    前記抽出したN個の部分グラフを前記N個のスレッドそれぞれに割り当てるスレッド割り当てステップと、
    前記N個のスレッドそれぞれにおいて前記部分グラフに対するクラスタリング処理を行い、同じクラスタに属するノードを1ノードに集約するノード集約ステップとを実行させ、
    前記部分グラフ抽出ステップと、前記スレッド割り当てステップと、前記ノード集約ステップとを、隣接する前記ノード同士のペアでクラスタリング精度向上量が最大となるペアを発見するまで繰り返し実行させることを特徴とするプログラム。
    但し、Nは2以上の整数とする。
JP2013030215A 2013-02-19 2013-02-19 クラスタリング装置、クラスタリング処理方法およびそのプログラム Pending JP2014160336A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013030215A JP2014160336A (ja) 2013-02-19 2013-02-19 クラスタリング装置、クラスタリング処理方法およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013030215A JP2014160336A (ja) 2013-02-19 2013-02-19 クラスタリング装置、クラスタリング処理方法およびそのプログラム

Publications (1)

Publication Number Publication Date
JP2014160336A true JP2014160336A (ja) 2014-09-04

Family

ID=51611990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013030215A Pending JP2014160336A (ja) 2013-02-19 2013-02-19 クラスタリング装置、クラスタリング処理方法およびそのプログラム

Country Status (1)

Country Link
JP (1) JP2014160336A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7077387B1 (ja) 2020-11-25 2022-05-30 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7077387B1 (ja) 2020-11-25 2022-05-30 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP2022083919A (ja) * 2020-11-25 2022-06-06 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Similar Documents

Publication Publication Date Title
US8799916B2 (en) Determining an allocation of resources for a job
WO2015196911A1 (zh) 数据挖掘方法和节点
US9483319B2 (en) Job scheduling apparatus and method therefor
KR20180077260A (ko) 신경망의 실행 순서 결정
JP6191691B2 (ja) 異常検出装置、制御方法、及びプログラム
CN104199784B (zh) 一种基于分级存储的数据迁移方法及装置
WO2015180340A1 (zh) 一种数据挖掘方法及装置
JP5862245B2 (ja) 配置装置、配置プログラムおよび配置方法
JP2011170774A (ja) 決定木生成装置、決定木生成方法、及びプログラム
WO2012154177A1 (en) Varying a characteristic of a job profile relating to map and reduce tasks according to a data size
JP6382284B2 (ja) ベクトル推定に基づくグラフ分割を伴う、コンピューティング装置のデータフロープログラミング
CN108153594B (zh) 一种人工智能云平台的资源碎片整理方法及电子设备
EP2671152A1 (en) Estimating a performance characteristic of a job using a performance model
US20170228373A1 (en) Dynamic Hash Table Size Estimation During Database Aggregation Processing
US9342902B2 (en) Method and apparatus for improving image reconstruction speed
JP2016024612A (ja) データ処理制御方法、データ処理制御プログラムおよびデータ処理制御装置
US10313457B2 (en) Collaborative filtering in directed graph
US11914648B2 (en) Graph refactorization method and graph refactorization apparatus
JP5600693B2 (ja) クラスタリング装置及び方法及びプログラム
US11250001B2 (en) Accurate partition sizing for memory efficient reduction operations
JP2014160336A (ja) クラスタリング装置、クラスタリング処理方法およびそのプログラム
JP5855594B2 (ja) クラスタリング装置、クラスタリング処理方法およびそのプログラム
WO2013179578A1 (ja) 並列割当最適化装置、並列割当最適化方法およびコンピュータ読取可能な記録媒体
JP5600694B2 (ja) クラスタリング装置及び方法及びプログラム
CN108073583B (zh) 一种分图方法及装置