JP5855594B2 - Clustering apparatus, clustering processing method and program thereof - Google Patents
Clustering apparatus, clustering processing method and program thereof Download PDFInfo
- Publication number
- JP5855594B2 JP5855594B2 JP2013030216A JP2013030216A JP5855594B2 JP 5855594 B2 JP5855594 B2 JP 5855594B2 JP 2013030216 A JP2013030216 A JP 2013030216A JP 2013030216 A JP2013030216 A JP 2013030216A JP 5855594 B2 JP5855594 B2 JP 5855594B2
- Authority
- JP
- Japan
- Prior art keywords
- clustering
- nodes
- node
- data
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、クラスタリング装置、クラスタリング処理方法およびそのプログラムに関する。 The present invention relates to a clustering device, a clustering processing method, and a program thereof.
従来のグラフデータのクラスタリング技術として、クラスタリング装置(コンピュータ)が、入力されたグラフデータに含まれるすべてのエッジデータを用いてクラスタリング処理対象ノードを任意の順番で選択し、クラスタリングの中間結果を生成し、集約する。さらに、このクラスタリング装置が、集約されたクラスタに対して繰り返しクラスタリング処理を行うことにより、クラスタサイズの均一化および処理対象ノードの削減を行う技術がある(例えば、非特許文献1参照)。 As a conventional clustering technique for graph data, a clustering device (computer) selects nodes for clustering processing in any order using all edge data included in the input graph data, and generates an intermediate result of clustering. ,Summarize. Furthermore, there is a technique in which the clustering apparatus repeatedly performs clustering processing on an aggregated cluster to make the cluster size uniform and reduce the number of nodes to be processed (for example, see Non-Patent Document 1).
図1に示すように、クラスタリング装置210は、入力部211、制御部212および出力部213から構成される。入力部211は、グラフデータ記憶装置200から読み込んだグラフデータを、クラスタリング装置210の備える主記憶装置(図4参照)上に展開し、制御部212は、図2に示すフローの処理を行い、出力部213に渡す。出力部213は、制御部212により得られたクラスタリング結果を任意の装置、例えば、クラスタリング結果記憶装置220等に出力する。
As illustrated in FIG. 1, the
以下に制御部212における処理について説明する。
The processing in the
まず、制御部212は、図3(A)に示すようなグラフデータが入力されると、乱数を用いてグラフデータから任意のノードを1つ選択し、その選択したノードに隣接するノードの一覧を主記憶装置上の隣接ノードキューに挿入する(S100)。
First, when graph data as shown in FIG. 3A is input, the
次に、制御部212は、隣接ノードキューの中から乱数を用いて隣接ノードを選択し、当該隣接ノードキューから当該ノードを削除する(S110)。
Next, the
制御部212は、S100で選択されたノードとS110において選択された隣接ノードの2つのノードを同じクラスタに分類した際のクラスタリング精度向上量を計算し、隣接ノードとクラスタリング精度向上量とからなる組({隣接ノード:クラスタリング精度向上量})を生成し、主記憶装置上の処理済キューに挿入する(S120)。クラスタリング精度向上量は、非特許文献1に示されるように、以下の式で求められる。
The
[定義1]クラスタリング精度向上量ΔQを以下のように計算する。 [Definition 1] The clustering accuracy improvement amount ΔQ is calculated as follows.
ただし、ΔQはクラスタリング精度向上量、eijはクラスタiとクラスタjの間に存在するエッジの数、mはグラフ内に存在する全エッジ数、Cはクラスタの集合である。 Where ΔQ is the clustering accuracy improvement amount, e ij is the number of edges existing between cluster i and cluster j, m is the total number of edges existing in the graph, and C is a set of clusters.
隣接ノードキューに隣接ノードが存在する場合、つまり、ノードの持つ隣接ノードにまだ処理していないノードがあれば(S130のNo)、S110の処理に戻る。一方、隣接ノードキューに隣接ノードが存在しない場合、つまり、制御部212が、ノードの持つ隣接ノードをすべて処理した場合(S130のYes)、クラスタリング精度向上量が最大となる隣接ノードを主記憶装置上の処理済キューから選択し、ノードと隣接ノードに対して同一のクラスタラベルを付与し、主記憶装置上のクラスタ対応表に格納する。つまり、制御部212は、ノードを最もクラスタリング精度向上量の高い隣接ノードと同じクラスタに分類するようにラベル付けを行う(S140)。なお、クラスタラベル名については任意のクラスタラベルを付与するものとする。主記憶装置上のクラスタ対応表には、ノードaの隣接ノードbであった場合は、ハッシュマップの形式で{クラスタラベル:ノードa,ノードb}の組が格納される。
If there is an adjacent node in the adjacent node queue, that is, if there is an unprocessed node in the adjacent node of the node (No in S130), the process returns to S110. On the other hand, when there is no adjacent node in the adjacent node queue, that is, when the
次に、制御部212は、ノード同士のペアでクラスタリング精度向上の余地があるか否かを判定する(S150)、つまり、まず、制御部212は、主記憶装置上に展開していたグラフデータを取得し、主記憶装置上のクラスタ対応表を読み込み、ノード同士のペアでグラフデータ全体のクラスタリング精度を計算する。グラフデータ全体のクラスタリング精度は、非特許文献1に示されるように、以下の式で求められる。
Next, the
[定義2]クラスタリング精度Qを以下のように計算する。 [Definition 2] The clustering accuracy Q is calculated as follows.
そして、制御部212は、前回当該処理を実行したときのクラスタリング精度との差分を求める。なお、初回実行時は前回のクラスタリング精度を0とみなして判定するものとする。上記のS100からS150の処理イメージを図3(B)に示す。差分がある場合、つまり、ノード同士のペアでクラスタリング精度向上の余地がある場合は(S150のNo)、S100に戻る。一方、当該差分がない場合、つまり、ノード同士のペアでクラスタリング精度向上の余地がない場合には(S150のYes)、制御部212は、各クラスタに対して、図3(C)に示すように、クラスタに含まれるノードとエッジを1ノードに集約し、主記憶装置のグラフデータを更新する(S160)。さらに、制御部212は、クラスタ(つまり集約されたノード)同士のペアでグラフデータ全体のクラスタリング精度を計算し、前回の当該処理を実行した時の差分を判定する。つまり、制御部212は、クラスタ同士のペアでクラスタリング精度向上の余地があるか否かを判定する(S170)。なお、制御部212は、初回実行時においては前回のクラスタリング精度を0とみなして判定するものとする。差分がある場合は(S170のNo)、S100に戻り、差分がない場合は(S170のYes)、制御部212は、最終的なクラスタ対応表をクラスタリング結果記憶装置220に出力して当該処理を終了する。
And the
上記の従来の技術は、クラスタサイズの均一化と、処理に利用するエッジ数・ノード数
の削減により、中間結果の集約による処理量を削減することが可能であり、1億ノード規
模のグラフデータのクラスタリング処理を2時間半程度で実行可能である。
The above-mentioned conventional technology can reduce the amount of processing by aggregation of intermediate results by making the cluster size uniform and reducing the number of edges and nodes used for processing. Can be executed in about two and a half hours.
しかし、前記した従来技術には次のような問題点がある。すなわち、従来のクラスタリング装置は、大量のグラフデータを1つのCPU(Central Processing Unit)の1スレッド上の非並列環境下でクラスタリング処理を実行するため、すべてのデータを順に処理する必要がある。このため、グラフデータが増加するにつれてクラスタリング処理時間が激増する。例えば、クラスタリング処理時間は、グラフのノード数に対して指数関数的に増加し、グラフのエッジ数に対しては線形的に増加する。そこで、本発明は、前記した問題を解決し、グラフデータのクラスタリング処理時間を低減することを目的とする。 However, the prior art described above has the following problems. That is, the conventional clustering apparatus executes a clustering process on a large amount of graph data in a non-parallel environment on one thread of one CPU (Central Processing Unit), and thus all data must be processed in order. For this reason, the clustering processing time increases dramatically as the graph data increases. For example, the clustering processing time increases exponentially with respect to the number of nodes in the graph, and increases linearly with respect to the number of edges in the graph. In view of the above, an object of the present invention is to solve the above-described problem and to reduce the clustering time of graph data.
前記した課題を解決するため、本発明は、入力されたグラフデータのクラスタリング処理対象ノードのノードを任意の順番で選択し、前記選択したノードの隣接ノードの集合Γを前記グラフデータの中から取得し、前記取得した集合Γの隣接ノードの中から任意のN個の隣接ノードを選択し、前記選択したN個の隣接ノードのデータを、SIMD(Single Instruction Multiple Data)レジスタ上に展開し、前記展開したN個の隣接ノードのデータそれぞれに対して、SIMD命令を用いてクラスタリング精度向上量を計算する処理を、前記集合Γに含まれるすべての隣接ノードに対し実行し、前記計算したクラスタリング精度向上量が最大となった前記隣接ノードと、前記選択したノードとを同じクラスタに分類するようラベル付けを行う制御部を備えることを特徴とするクラスタリング装置とした。但し、前記Nは、前記制御部のSIMDレジスタサイズR、前記グラフデータのデータ型のサイズTに対し、N=[R/T]となる値とする。このような発明によれば、クラスタリング装置がクラスタリング処理を行う際に、SIMD命令を用いるので、クラスタリング処理の性能を最大でN倍に向上させ、クラスタリング処理時間を低減することができる。なお、クラスタリング精度向上量は、[定義1]に記載した数式により計算される。 In order to solve the above-described problem, the present invention selects nodes of clustering processing target nodes of input graph data in an arbitrary order, and acquires a set Γ of adjacent nodes of the selected node from the graph data. Then, arbitrary N adjacent nodes are selected from adjacent nodes of the acquired set Γ, the data of the selected N adjacent nodes are expanded on a SIMD (Single Instruction Multiple Data) register, and A process of calculating the clustering accuracy improvement amount for each of the expanded N adjacent node data using the SIMD instruction is executed for all the adjacent nodes included in the set Γ, and the calculated clustering accuracy improvement is performed. A control unit is provided that performs labeling so that the adjacent node having the maximum amount and the selected node are classified into the same cluster. It was clustering apparatus according to claim Rukoto. However, N is a value such that N = [R / T] with respect to the SIMD register size R of the control unit and the data type size T of the graph data. According to such an invention, since the SIMD instruction is used when the clustering apparatus performs the clustering process, the performance of the clustering process can be improved up to N times and the clustering process time can be reduced. Note that the clustering accuracy improvement amount is calculated by the mathematical formula described in [Definition 1].
本発明によれば、グラフデータのクラスタリング処理時間を低減することができる。 According to the present invention, it is possible to reduce graph data clustering processing time.
以下、図面を参照しながら、本発明の実施の形態を説明する。以下に説明する実施の形態はあくまで一例であり、本発明は、他のさまざまな形態でも実施が可能である。以下、前記した図1の構成および図2のフローチャートをベースとして説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below is merely an example, and the present invention can be implemented in various other forms. The following description is based on the configuration of FIG. 1 and the flowchart of FIG.
クラスタリング装置210として用いられるコンピュータは、CPU(Central Processing Unit)100、主記憶装置110(メモリ)、二次記憶装置120(HDD(Hard Disk Drive)、SSD(Solid State Drive)等)および入出力装置130から構成される。なお、図1における制御部212は、CPU100によって実現される。また、入力部211により入力されたグラフデータ内の隣接ノードは主記憶装置110上の隣接ノードキューに展開される。さらに、処理済みキューも主記憶装置110上に配置される。グラフデータ記憶装置200およびクラスタリング結果記憶装置220は、二次記憶装置120に含まれるHDDやSSD等の記録媒体である。また、入力部211および出力部213は、入出力装置130に含まれる。
A computer used as the
以下の実施の形態におけるクラスタリング装置210の構成は、図1と同様であるが、制御部212に用いられるCPU100はSIMD(Single Instruction Multiple Data)命令を実行可能なCPUであることを特徴とする。
The configuration of the
このクラスタリング装置210の機能を実現するプログラムが、入出力装置130から二次記憶装置120にインストールされ、起動されると、このプログラムは、CPU100によりSIMD命令を利用し、並列に実行される。つまり、クラスタリング装置210は、クラスタリング処理を実行する際、主記憶装置110上にグラフデータを展開し、SIMD命令により実行する。
When a program that realizes the function of the
なお、クラスタリング装置210の機能を実現するためのプログラムに係るプログラムモジュールやプログラムデータは、プログラムに係るプログラムモジュールやプログラムデータは、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェースを介してCPU100によって読み出されてもよい。
Note that the program module and program data related to the program for realizing the functions of the
以下に制御部212(CPU100)における処理について図5のフローチャートを用いて説明する。なお、以下の説明において、クラスタリング精度向上量は、前記した[定義1]で説明した計算式により計算されるものとする。 Hereinafter, processing in the control unit 212 (CPU 100) will be described with reference to the flowchart of FIG. In the following description, it is assumed that the clustering accuracy improvement amount is calculated by the calculation formula described in [Definition 1].
まず、CPU100は、図3(A)に示すようなグラフデータが入力されると、乱数を用いてグラフデータから任意のノードuを1つ選択する(S200)。
First, when graph data as shown in FIG. 3A is input, the
次に、CPU100は、ノードuに対しSIMD命令を用いてクラスタリング処理を並列実行する(S210)。このS210の詳細は、図6を用いて後記する。
Next, the
S220にて、これ以上クラスタリング精度の向上の余地がないと判定された場合、つまり、ノード同士のペア(S210で選択したノードとその隣接ノードとのペア)でクラスタリング精度の向上の余地がないと判定された場合(S220のYes)、CPU100はこれらのノードを同じクラスタに属するノードを1ノードに集約する(S230)。最後に、クラスタ同士(つまり集約されたノード)のペアでクラスタリング精度の向上の余地がないことが確認されると(S240のYes)、CPU100は、処理を終了する。
If it is determined in S220 that there is no room for further improvement in clustering accuracy, that is, there is no room for improvement in clustering accuracy in a pair of nodes (a pair of the node selected in S210 and its adjacent node). When the determination is made (Yes in S220), the
なお、S220およびS240において、クラスタリング精度の向上の余地がまだあると判定された場合(S200のNo、S240のNo)、S200へ戻る。 In S220 and S240, when it is determined that there is still room for improvement in clustering accuracy (No in S200, No in S240), the process returns to S200.
S210の詳細を、図6のフローチャートを用いて説明する。まず、CPU100は、S210において、入力されたグラフデータの中から、S200で選択されたノードuの隣接ノードの集合Γを取得する(S211)。
Details of S210 will be described with reference to the flowchart of FIG. First, in S210, the
次に、CPU100は、隣接ノードの集合Γから任意のN個のノードを選択する(S212)。なお、このNは、CPU100が用いるCPU性能に依存する。このNは、CPU100のSIMDレジスタサイズR、グラフデータのデータ型のサイズTに対して、N=[R/T]とする。
Next, the
その後、CPU100は、SIMDレジスタ上に、S212で選択したN個の隣接ノードを展開する(S213)。そして、CPU100は、SIMDレジスタ上のデータに対してSIMD命令を用いてN個の隣接ノードに対してクラスタリング精度向上量を並列に計算する。つまり、CPU100は、SIMDレジスタ上でS200のノードuとS212で選択したN個の隣接ノードとの間のクラスタリング精度向上量を並列に計算する(S214)。
Thereafter, the
そして、CPU100は、SIMDレジスタ上から、クラスタリング精度向上量が最大の隣接ノードと、その隣接ノードとの間のクラスタリング精度向上量(向上量)を取得し(S215)、その取得した向上量が、集合Γに含まれるノードの中で最も大きければ、つまり、主記憶装置110上に保持された向上量(最大精度向上量)よりも大きければ(S216のNo)、主記憶装置110上の最大精度向上量と向上量最大ノードとを更新する(S217)。つまり、CPU100は、主記憶装置110に記憶された最大精度向上量を、S215で取得した向上量の値で更新し、向上量最大ノードを、この向上量が最大である隣接ノードとして更新する。そして、S218へ進む。
Then, the
一方、CPU100は、S215で取得した向上量が、主記憶装置110上に記憶された最大精度向上量以下であり(S216のYes)、集合Γに未処理のノードがないと判定すると(S218のYes)、S200で選択したノードuと、主記憶装置110上に保持された向上量最大ノードとを同じクラスタに分類するようにラベル付けを行い(S219)、S210の処理を終了する。一方、S218において未処理のノードがある場合(S218のNo)、S213へ戻る。
On the other hand, when the
このようにクラスタリング装置210はグラフデータのクラスタリング処理においてSIMD命令を用いるので、クラスタリング処理時間を最大でN倍程度向上させ、クラスタリング処理時間を低減できる。
As described above, since the
なお、このクラスタリング装置210におけるクラスタリング処理性能はCPU100のSIMDレジスタサイズに依存するが、2012年12月現在、一般に普及しているCPU100のSIMDレジスタサイズは128bit、グラフデータのデータ型は32bitであることから、2012年12月の時点でも4倍の性能向上が見込める。
The clustering processing performance of the
100 CPU
110 主記憶装置
120 二次記憶装置
130 入出力装置
200 グラフデータ記憶装置
210 クラスタリング装置
211 入力部
212 制御部
213 出力部
220 クラスタリング結果記憶装置
100 CPU
DESCRIPTION OF
Claims (4)
前記選択したノードの隣接ノードの集合Γを前記グラフデータの中から取得し、
前記取得した集合Γの隣接ノードの中から任意のN個の隣接ノードを選択し、
前記選択したN個の隣接ノードのデータを、SIMD(Single Instruction Multiple Data)レジスタ上に展開し、
前記展開したN個の隣接ノードのデータそれぞれに対して、SIMD命令を用いてクラスタリング精度向上量を計算する処理を、
前記集合Γに含まれるすべての隣接ノードに対し実行し、
前記計算したクラスタリング精度向上量が最大となった前記隣接ノードと、前記選択したノードとを同じクラスタに分類するようラベル付けを行う制御部を備えることを特徴とするクラスタリング装置。
但し、前記Nは、前記制御部のSIMDレジスタサイズR、前記グラフデータのデータ型のサイズTに対し、N=[R/T]となる値とする。 Select the nodes for the clustering processing target node of the input graph data in any order,
Obtaining a set Γ of adjacent nodes of the selected node from the graph data;
Selecting any N neighboring nodes from neighboring nodes of the acquired set Γ,
The data of the selected N adjacent nodes is expanded on a SIMD (Single Instruction Multiple Data) register,
A process of calculating a clustering accuracy improvement amount using SIMD instructions for each of the expanded N adjacent node data,
Execute for all neighboring nodes included in the set Γ,
A clustering apparatus, comprising: a control unit that performs labeling so that the adjacent node having the maximum improvement in the calculated clustering accuracy and the selected node are classified into the same cluster.
However, N is a value such that N = [R / T] with respect to the SIMD register size R of the control unit and the data type size T of the graph data.
前記制御部が、
前記SIMDレジスタ上で、前記選択したノードと前記選択したN個の隣接ノードとのペアそれぞれについてのクラスタリング精度向上量を並列に計算する処理であることを特徴とする請求項1に記載のクラスタリング装置。 The process of calculating the clustering accuracy improvement amount using the SIMD instruction for each of the expanded N adjacent node data,
The control unit is
2. The clustering apparatus according to claim 1, wherein the clustering apparatus is a process of calculating in parallel a clustering accuracy improvement amount for each pair of the selected node and the N adjacent nodes selected on the SIMD register. .
入力されたグラフデータのクラスタリング処理対象ノードのノードを任意の順番で選択するステップと、
前記選択したノードの隣接ノードの集合Γを前記グラフデータの中から取得するステップと、
前記取得した集合Γの隣接ノードの中から任意のN個の隣接ノードを選択するステップと、
前記選択したN個の隣接ノードのデータを、SIMDレジスタ上に展開するステップと、
前記展開したN個の隣接ノードのデータそれぞれに対して、SIMD命令を用いてクラスタリング精度向上量を計算する処理ステップとを、
前記集合Γに含まれるすべての隣接ノードに対し実行するステップと、
前記計算したクラスタリング精度向上量が最大となった前記隣接ノードと、前記選択したノードとを同じクラスタに分類するようラベル付けを行うステップとを実行することを特徴とするクラスタリング処理方法。 The controller of the clustering device
A step of selecting nodes of clustering processing target nodes of input graph data in an arbitrary order;
Obtaining a set Γ of neighboring nodes of the selected node from the graph data;
Selecting any N neighboring nodes from neighboring nodes of the acquired set Γ;
Expanding the data of the selected N adjacent nodes on a SIMD register;
A processing step of calculating a clustering accuracy improvement amount using a SIMD instruction for each of the expanded N adjacent node data,
Performing for all neighboring nodes in the set Γ;
A clustering processing method comprising: performing a labeling step so as to classify the adjacent node having the maximum improvement in the calculated clustering accuracy and the selected node into the same cluster.
入力されたグラフデータのクラスタリング処理対象ノードのノードを任意の順番で選択するステップと、
前記選択したノードの隣接ノードの集合Γを前記グラフデータの中から取得するステップと、
前記取得した集合Γの隣接ノードの中から任意のN個の隣接ノードを選択するステップと、
前記選択したN個の隣接ノードのデータを、SIMDレジスタ上に展開するステップと、
前記展開したN個の隣接ノードのデータそれぞれに対して、SIMD命令を用いてクラスタリング精度向上量を計算する処理ステップとを、
前記集合Γに含まれるすべての隣接ノードに対し実行するステップと、
前記計算したクラスタリング精度向上量が最大となった前記隣接ノードと、前記選択したノードとを同じクラスタに分類するようラベル付けを行うステップとを実行させるためのプログラム。 In the clustering device,
A step of selecting nodes of clustering processing target nodes of input graph data in an arbitrary order;
Obtaining a set Γ of neighboring nodes of the selected node from the graph data;
Selecting any N neighboring nodes from neighboring nodes of the acquired set Γ;
Expanding the data of the selected N adjacent nodes on a SIMD register;
A processing step of calculating a clustering accuracy improvement amount using a SIMD instruction for each of the expanded N adjacent node data,
Performing for all neighboring nodes in the set Γ;
A program for executing the step of performing labeling to classify the adjacent node having the maximum improvement in the calculated clustering accuracy and the selected node into the same cluster.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013030216A JP5855594B2 (en) | 2013-02-19 | 2013-02-19 | Clustering apparatus, clustering processing method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013030216A JP5855594B2 (en) | 2013-02-19 | 2013-02-19 | Clustering apparatus, clustering processing method and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014160337A JP2014160337A (en) | 2014-09-04 |
JP5855594B2 true JP5855594B2 (en) | 2016-02-09 |
Family
ID=51611991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013030216A Expired - Fee Related JP5855594B2 (en) | 2013-02-19 | 2013-02-19 | Clustering apparatus, clustering processing method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5855594B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102192551B1 (en) * | 2020-04-09 | 2020-12-17 | 국방과학연구소 | Apparatus, method, computer-readable storage medium and computer program for graph clustering |
CN117333926B (en) * | 2023-11-30 | 2024-03-15 | 深圳须弥云图空间科技有限公司 | Picture aggregation method and device, electronic equipment and readable storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5864839A (en) * | 1995-03-29 | 1999-01-26 | Tm Patents, L.P. | Parallel system and method for generating classification/regression tree |
JP4789814B2 (en) * | 2007-01-24 | 2011-10-12 | 日本電信電話株式会社 | Cluster generation apparatus and cluster generation method |
US7818322B2 (en) * | 2008-02-25 | 2010-10-19 | Microsoft Corporation | Efficient method for clustering nodes |
WO2010139091A1 (en) * | 2009-06-03 | 2010-12-09 | Google Inc. | Co-selected image classification |
JP5118114B2 (en) * | 2009-10-20 | 2013-01-16 | 日本電信電話株式会社 | Region characteristic classification apparatus, method, and program |
-
2013
- 2013-02-19 JP JP2013030216A patent/JP5855594B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014160337A (en) | 2014-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6644890B2 (en) | Execution order determination of neural network | |
Sergeyev et al. | A deterministic global optimization using smooth diagonal auxiliary functions | |
Asta et al. | Geometric network comparison | |
US20200218842A1 (en) | Mapping logical qubits on a quantum circuit | |
KR20200001466A (en) | Entropic clustering of objects | |
EP2176754A2 (en) | System and method for optimizing data analysis | |
JP2010092222A (en) | Caching mechanism based on update frequency | |
US11087826B2 (en) | Storing method and apparatus of data | |
US10725907B2 (en) | Information processing apparatus for specifying data region of garbage collection, information processing system and information processing method | |
JP5862245B2 (en) | Arrangement apparatus, arrangement program, and arrangement method | |
Park et al. | EvoGraph: An effective and efficient graph upscaling method for preserving graph properties | |
JP6382284B2 (en) | Data flow programming of computing devices with graph partitioning based on vector estimation | |
TW201447765A (en) | Simulation system and method thereof and computing system including the simulation system | |
JP5855594B2 (en) | Clustering apparatus, clustering processing method and program thereof | |
JP5600693B2 (en) | Clustering apparatus, method and program | |
Pena | Asymptotics for a class of dynamic recurrent event models | |
JP5964781B2 (en) | SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM | |
US20230393895A1 (en) | Dynamic resource allocation for computational simulation | |
JP5600694B2 (en) | Clustering apparatus, method and program | |
JP6365102B2 (en) | Data processing apparatus and program | |
WO2015143708A1 (en) | Method and apparatus for constructing suffix array | |
WO2020218246A1 (en) | Optimization device, optimization method, and program | |
Qiu et al. | Parallelizing big de bruijn graph construction on heterogeneous processors | |
JP2014160336A (en) | Clustering device, clustering processing method, and program therefor | |
CN109388428B (en) | Layer traversal method, control device and data processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150126 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20151001 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20151005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5855594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |