JP7063274B2 - 情報処理装置、ニューラルネットワークの設計方法及びプログラム - Google Patents

情報処理装置、ニューラルネットワークの設計方法及びプログラム Download PDF

Info

Publication number
JP7063274B2
JP7063274B2 JP2018563354A JP2018563354A JP7063274B2 JP 7063274 B2 JP7063274 B2 JP 7063274B2 JP 2018563354 A JP2018563354 A JP 2018563354A JP 2018563354 A JP2018563354 A JP 2018563354A JP 7063274 B2 JP7063274 B2 JP 7063274B2
Authority
JP
Japan
Prior art keywords
subgraphs
subgraph
distance
graph
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018563354A
Other languages
English (en)
Other versions
JPWO2018135515A1 (ja
Inventor
大地 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018135515A1 publication Critical patent/JPWO2018135515A1/ja
Application granted granted Critical
Publication of JP7063274B2 publication Critical patent/JP7063274B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • G06N3/105Shells for specifying net layout

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Databases & Information Systems (AREA)

Description

本開示は、情報処理装置等に関する。
構造をグラフによって表現できる対象は、ビジネスモデル、ソーシャルネットワーク、化学構造など、多数存在する。特許文献1は、遺伝子等の生命情報をグラフによって可視化する技術を開示している。また、非特許文献1は、ニューラルネットワークを用いたグラフ構造の学習に関する技術を開示している。
特開2007-087125号公報
Mathias Niepert, Mohamed Ahmed, Konstantin Kutzkov "Learning Convolutional Neural Networks for Graphs", [online], 2016年6月, Proceedings of The 33rd International Conference on Machine Learning, PMLR 48, インターネット(URL: http://proceedings.mlr.press/v48/niepert16.pdf )
ニューラルネットワークによって高次の特徴を抽出するためには、低次の特徴を抽出し、それらを適切に組み合わせることが重要である。非特許文献1には、学習対象になるグラフから複数の部分グラフをニューラルネットワークに対する受容野(Receptive field)として抽出する方法が開示されている。抽出された部分グラフは低次の特徴とみなせるが、前記の方法ではそれらを適切に組み合わせることができない。そのため、非特許文献1で開示されている方法では、高次の特徴を抽出することが困難である。
本開示の例示的な目的は、高次の特徴を抽出可能なニューラルネットワークの設計を容易にするための技術を提供することにある。
本開示の一態様に係る情報処理装置は、複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出する抽出手段と、前記抽出された複数の部分グラフ間の距離を算出する算出手段と、前記グラフの少なくとも一部を入力とするニューラルネットワークを、前記算出された距離に基づいて設計する設計手段とを含む。
本開示の別の態様に係る情報処理方法は、複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出し、前記抽出された複数の部分グラフ間の距離を算出し、前記グラフの少なくとも一部を入力とするニューラルネットワークを、前記算出された距離に基づいて設計することを含む。
本開示のさらに別の態様に係るプログラムは、コンピュータに、複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出するステップと、前記抽出された複数の部分グラフ間の距離を算出するステップと、前記グラフの少なくとも一部を入力とするニューラルネットワークを、前記算出された距離に基づいて設計するステップとを実行させる。
なお、上記本開示のさらに別の態様に係るプログラムは記録媒体に記録されてもよい。この場合、本開示の目的は、上記プログラムを記録した記録媒体によっても達成される。
本開示によれば、高次の特徴を抽出可能なニューラルネットワークの設計が容易になる。
図1は、情報処理装置の構成の一例を示すブロック図である。 図2は、部分グラフ及び部分グラフ間の距離を例示する図である。 図3は、情報処理装置により実行される処理の一例を示すフローチャートである。 図4は、あるグラフ構造を例示する図である。 図5は、学習装置の構成の一例を示すブロック図である。 図6は、学習装置により実行される処理の一例を示すフローチャートである。 図7は、学習装置の動作の具体例を示す図である。 図8は、距離の算出方法の一例を説明するための図である。 図9は、コンピュータ装置のハードウェア構成の一例を示すブロック図である。
[第1実施形態]
図1は、第一の実施形態に係る情報処理装置100の構成を示すブロック図である。情報処理装置100は、グラフに基づいてニューラルネットワークを設計するための装置である。情報処理装置100は、抽出部110と、算出部120と、設計部130とを含む。情報処理装置100は、他の構成要素をさらに含んでもよい。
本開示におけるグラフは、複数のノードと複数のエッジ(リンクともいう。)とを含んで構成される。ノードは構造の要素を表し、エッジはノード間の接続関係を表す。本開示に係るグラフは、例えば、複数のノードを表すデータと、ノード間の接続の有無(すなわちエッジ)を表すデータとによって構成される。以下においては、グラフを表すこれらのデータのことを「グラフデータ」ともいう。また、本開示に係るグラフによって表現される構造は、特定の対象に限定されない。また、以下においては、グラフに含まれるノードの総数のことを「ノード数」ともいう。
本開示におけるニューラルネットワークとは、人工ニューラルネットワークをいう。また、以下において、ニューラルネットワークは、「NN」と略記される場合がある。NNは、入力層と、1又は複数の中間層(隠れ層ともいう。)と、出力層とを含む。各層は、1又は複数のニューロン(ユニットともいう。)を含む。本開示において、ニューロンの受容野は、グラフ(又はノード)に相当する。
抽出部110は、グラフから部分グラフを抽出する。部分グラフとは、グラフを構成するノード及びエッジの一部により構成されるグラフをいい、サブグラフともいう。抽出部110は、1個のグラフから複数の部分グラフを抽出する。抽出部110は、抽出された部分グラフを表すデータを、メモリ等に一時的に記憶させる。部分グラフを表すデータは、部分グラフを構成するノードを表すデータと、ノード間の接続の有無を表すデータとを含む。
抽出部110は、所定の規則に従って部分グラフを抽出してもよい。いくつかの場合において、抽出部110は、周知のランキングアルゴリズムに基づいてノードを順位付けすることによって部分グラフを抽出することができる。より詳細には、抽出部110は、所定の順位までのノードと、当該ノードと所定の接続関係となるノードとによって構成されるグラフを部分グラフとして抽出する。ノードの順位付けに利用可能なランキングアルゴリズムは、例えば、PageRank(登録商標)、次数中心性(Degree centrality)、近接中心性(Closeness centrality)、媒介中心性(Betweenness centrality)又は固有ベクトル中心性(Eigenvector centrality)に基づいてノードに順位(ランク)を付与するアルゴリズムである。ノードの順位付けは、非特許文献1に記載された方法と同様であってもよい。
抽出部110により抽出される部分グラフの総数は、特定の数に限定されない。また、部分グラフのノード数も、特定の数に限定されない。これらの数は、ニューラルネットワークの設計に際し、あらかじめ決められていてもよい。あるいは、抽出部110は、入力されるグラフのノード数などに基づいて、部分グラフの数及びノード数を決定してもよい。
算出部120は、部分グラフ間の距離を算出する。ここでいう距離は、2個の部分グラフの関係を示す指標である。いくつかの場合において、部分グラフ間の距離は、ノード間の距離(すなわち、2個のノード間の最短経路を構成するエッジの数)と同様に定義することができる。この場合、部分グラフ間の距離は、ある部分グラフを構成するノードと、別の部分グラフを構成するノードとの距離のうちの最短の距離(すなわち最小値)で表される。
なお、2個の部分グラフの距離は、これらが共通のノードを含む場合に、そうでない場合よりも短くなる。以下においては、2個の部分グラフが共通のノードを含む場合の部分グラフ間の接続関係を、「隣接」ともいう。2個の部分グラフが隣接する場合には、2個の部分グラフが1個のノードを共有する場合と2個以上のノードを共有する場合とが含まれ得る。
図2は、部分グラフ及び部分グラフ間の距離を例示する図である。例えば、部分グラフSG11と部分グラフSG12との間の距離は、エッジ1個分に相当するため、「1」と表すことができる。そうすると、部分グラフSG11と部分グラフSG13との間の距離は、エッジ2個分に相当するため、「2」と表すことができる。
一方、部分グラフSG11と部分グラフSG14とは、隣接する関係にある。部分グラフSG14は、部分グラフSG12、SG13に比べて部分グラフSG11と距離的に近い関係であるといえる。そこで、部分グラフSG11と部分グラフSG14との間の距離は、部分グラフSG11と部分グラフSG12との間の距離よりも小さい値、例えば「0」と表すことができる。
なお、図2を参照して説明された距離は、例示にすぎない。部分グラフ間の距離は、他の部分グラフの組み合わせと比較可能であれば、どのように定義されてもよい。例えば、2個の部分グラフが隣接する場合におけるこれらの距離は、「0」以外の値で表されてもよく、共有されるノードの数に応じて異なってもよい。
また、他の例として、算出部120は、2個の部分グラフの距離を他の部分グラフの隣接を介してつながる数で定義してよい。例えば、算出部120は、第1の部分グラフが第2の部分グラフと隣接している場合には、距離を「1」であると定義してよい。また、算出部120は、この第1の部分グラフとは隣接せず、この第2の部分グラフとは隣接している第3の部分グラフと第1の部分グラフとの距離を、これらの部分グラフが2回の隣接を介してつながるため、「2」であると定義してよい。
算出部120は、抽出部110により抽出された部分グラフによって選ばれる組み合わせ(ペア)の全てについて、距離を算出する。例えば、抽出部110により抽出された部分グラフが図2の部分グラフSG11~SG14であるとした場合、算出部120は、SG11-SG12、SG11-SG13、SG11-SG14、SG12-SG13、SG12-SG14、SG13-SG14のそれぞれの間の距離を算出する。
設計部130は、グラフに基づいてNNを設計する。より詳細には、設計部130は、入力されたグラフデータが表すグラフの少なくとも一部を入力として用いるNNを設計する。具体的には、設計部130は、抽出部110により抽出された部分グラフに含まれる各ノードを入力とし、ニューロン間の結合を部分グラフ間の距離によって決定することによりNNを設計する。設計部130によるNNの設計は、ニューロン間の結合関係を決定することであるともいえる。なお、設計部130により設計されるNNは、中間層が1層でも多層でもよい。
図3は、情報処理装置100により実行される処理を示すフローチャートである。情報処理装置100は、グラフが入力されたタイミングや、ユーザによって指示されたタイミングなどでこの処理の実行を開始することができる。なお、ここにおいて、グラフのノード数は、「n」であるとする。
ステップS11において、抽出部110は、グラフから部分グラフを抽出する。より詳細には、抽出部110は、まず、第1の規則に基づいてn個のノードからw個のノードを選択する。なお、wは、n以下の正の整数である。次に、抽出部110は、選択されたw個のノードのそれぞれについて、当該ノードと部分グラフを構成するk-1個のノードを、第2の規則に基づいて選択する。なお、kは、部分グラフのノード数に相当し、n以下の正の整数である。第1の規則及び第2の規則は、例えば、所定のランキングアルゴリズムである。第1の規則及び第2の規則は、同じであってもよいが、そうでなくてもよい。また、第1の規則及び第2の規則は、非特許文献1に記載された方法と同様であってもよい。
抽出部110は、このようにノードを選択することで、w個の部分グラフを抽出する。この例において、個々の部分グラフは、選択されたw個のノードのいずれかと、当該ノードについて選択されたk-1個のノードとにより構成される。ただし、個々の部分グラフのノード数は、一定でなくてもよい。例えば、抽出部110により抽出される部分グラフは、ノード数がk未満のものが含まれてもよい。
ステップS12において、算出部120は、ステップS11において抽出された部分グラフ間の距離を算出する。この例において、算出部120は、w個の部分グラフの相互の距離を算出する。すなわち、算出部120は、w個の部分グラフのそれぞれについて、当該部分グラフ以外のw-1個の部分グラフとの距離をそれぞれ算出する。
ステップS13において、設計部130は、グラフに含まれるノードの少なくとも一部を入力とするNNを設計する。具体的には、設計部130は、ある層(第1の層)のニューロンと次の層(第2の層)のニューロンとの結合関係を、ステップS12において算出された距離に基づいて決定する。例えば、設計部130は、抽出部110により抽出された部分グラフを入力層(第1の層)のニューロンへの入力とした場合に、中間層(第2の層)のニューロンと結合する入力層のニューロンをステップS12において算出された距離に基づいて決定する。
より詳細には、設計部130は、第1の層に入力される部分グラフ(に対応するニューロンからの出力)と、当該部分グラフとの距離が所定の閾値以下である他の部分グラフ(に対応するニューロンからの出力)とを、第2の層のニューロンに対する入力とする。
第1の層のニューロンから第2の層のニューロンへの結合は、あらかじめ決められた数であってもよい。この場合、設計部130は、ある部分グラフ(に対応するニューロンからの出力)と、当該部分グラフとの距離が短い所定数の他の部分グラフ(に対応するニューロンからの出力)とを第2の層のニューロンに対する入力とする。
以上のとおり、本実施形態の情報処理装置100は、部分グラフの距離を算出し、算出された距離に基づいてNNを設計する構成を有する。この構成は、部分グラフを用いたNNにおいて、ある層のニューロンと次の層のニューロンとを選択的に結合することを可能にする。換言すれば、この構成は、情報の取捨選択を可能にするともいえる。このように設計されたNNは、部分グラフ間の関係性又は類似性を伝播させることが可能であるため、そうでないNNと比べて高次の特徴を抽出することが容易になる。
また、本実施形態の情報処理装置100は、本実施形態でいう「隣接」の関係に基づいて部分グラフの距離を定義することにより、他の基準(例えばエッジ数)を用いて部分グラフの距離を定義する場合に比べて以下のような作用効果を奏し得る。
図4は、あるグラフ構造を例示する図である。このグラフ構造は、4個の部分グラフSG21、SG22、SG23及びSG24を含む。この例において、部分グラフ間の距離は、ある部分グラフを構成するノードと別の部分グラフを構成するノードの距離の最小値であるとする。例えば、部分グラフSG21と部分グラフSG22との間の距離は、エッジ2個分であるため「2」である。
図4の例において、部分グラフSG21、SG22間の距離と部分グラフSG21、SG23間の距離は、いずれも「2」である。ただし、部分グラフSG21は、部分グラフSG24と隣接している。また、部分グラフSG24は、部分グラフSG23と隣接している。
この場合、部分グラフSG21と部分グラフSG23とは、部分グラフSG24を介して何らかの機能や特徴が連動しているとみなすことができる。したがって、部分グラフSG21と部分グラフSG23の組み合わせは、部分グラフSG21と部分グラフSG22の組み合わせに比べ、何らかの関連性又は類似性を有している可能性が高いといえる。
本実施形態の情報処理装置100は、このような隣接する関係にある部分グラフを共通のニューロンに対する入力とすることにより、そうでない場合(例えば全結合の場合)に比べてより高次の特徴を抽出しやすいNNを設計することが可能である。ただし、第2の層の1個のニューロンに対して入力される部分グラフが隣接する関係にあることは、上述のとおり、情報処理装置100により設計されるNNにおいて必須ではない。
[第2実施形態]
図5は、別の実施形態に係る学習装置200の構成を示すブロック図である。学習装置200は、NNを用いて学習を実行するための装置である。学習装置200は、抽出部210と、算出部220と、設計部230と、学習部240とを含む。学習装置200は、第1実施形態の情報処理装置100の一例に相当する。
抽出部210、算出部220及び設計部230は、情報処理装置100の抽出部110、算出部120及び設計部130と同様の機能を有する。また、抽出部210、算出部220及び設計部230は、第1実施形態において説明された機能に加え、処理を再帰的に実行する機能を有する。ここでいう再帰的な処理とは、ノードに対して実行した処理を、当該ノードを含む部分グラフに対して実行する処理をいう(詳細は後述)。
学習部240は、設計部230により設計されたNNに学習させる。例えば、学習部240は、学習のためのサンプルデータをNNに入力し、サンプルデータに含まれる特徴をNNに学習させる。サンプルデータは、例えば、ある判断基準に対して正解又は不正解であるグラフ構造を示すデータである。学習部240による学習の具体的な手法は、周知のいずれの方法であってもよい。
図6は、学習装置200により実行される処理を示すフローチャートである。このフローチャートは、NNの中間層が少なくともm層ある場合を示している。なお、mは、2以上の整数である。ステップS21において、抽出部210は、グラフから部分グラフを抽出する。また、ステップS22において、算出部220は、ステップS21において抽出された部分グラフ間の距離を算出する。ステップS21~S22の処理は、第1実施形態のステップS11~S12の処理と同様である。
ステップS23において、抽出部210は、ステップS21~S22の処理がm回繰り返されたか判断する。抽出部210は、ステップS21~S22の処理がm回繰り返されていない場合(S23:NO)、ステップS21の処理を再度実行する。ただし、抽出部210は、この場合、1回前に実行されたステップS21の処理において抽出された部分グラフをノードとみなしたグラフから部分グラフを抽出する。なお、w及びkは、各回のループ処理において共通であってもよく、異なってもよい。
ステップS21の処理において抽出された部分グラフをノードとみなしたグラフについて説明する。以下においては、学習装置200に入力されたグラフ(すなわち元のグラフ)を「第1のグラフ」といい、この第1のグラフから変換されたグラフを「第2のグラフ」ともいう。第2のグラフは、第1のグラフに含まれる部分グラフを1個のノードとみなし、個々のノード(すなわち第1のグラフに含まれる部分グラフ)の接続関係がノード間の距離に応じて定義される。同様に、m-1回目の処理におけるグラフの部分グラフを1個のノードとみなし変換されたグラフを「第mのグラフ」という。
例えば、抽出部210は、第1のグラフの部分グラフが抽出され、抽出された部分グラフ間の距離が算出された後、第2のグラフ、すなわち第1のグラフの部分グラフをノードとするグラフから部分グラフを抽出する。抽出部210は、ステップS21~S22のループ処理の1回目において第1のグラフから部分グラフを抽出し、2回目において第2のグラフから部分グラフを抽出し、という処理を続け、m回目において第mのグラフから部分グラフを抽出する。抽出部210は、このように、m回のループ処理を実行する。
ステップS21~S22の処理がm回繰り返されると(S23:YES)、設計部230は、m回の処理に基づいてステップS24の処理を実行する。ステップS24において、設計部230は、m層の中間層を含むNNを設計する。具体的には、設計部230は、中間層の第m層におけるニューロンの入力をm回目のループ処理において計算された距離に基づいて決定する(詳細は後述)。
なお、ステップS24において、設計部230は、第m層の次に1つ又は複数の層を追加してもよい。第m層と次の層(第m+1層)の結合関係は、あらかじめ定められていてもよいし、ユーザの入力により決定されてもよい。
ステップS25において、学習部240は、ステップS24において設計されたNNを用いて学習処理を実行する。この学習処理には、NNの学習における一般的な手法を用いることが可能である。すなわち、学習処理の具体的な手法は、特に限定されない。
図7は、本実施形態における動作の具体例を示す図である。この例において、部分グラフSG1a、SG1b、SG1c、SG1d、SG1e、SG1f、SG1gは、第1のグラフに含まれる部分グラフである。また、第1層においては、w=7、k=5であり、第2層においては、w=3、k=3であるとする。
まず、抽出部210は、第1のグラフからノード数がk(=5)であるw(=7)個の部分グラフSG1a、SG1b、SG1c、SG1d、SG1e、SG1f、SG1gを抽出する。この場合において、設計部230は、これらの部分グラフのノードを、第1層のニューロンに対する入力とする。例えば、第1層には、各部分グラフに対応する7個のニューロンが含まれていてよい。なお、第1のグラフは、これらの部分グラフのいずれにも含まれないノードを含んでもよい。
また、算出部220は、これらの部分グラフ間の距離を算出する。図7においては、隣接する関係にある部分グラフ同士がエッジで接続されている。例えば、部分グラフSG1aは、部分グラフSG1b、SG1c、SG1d、SG1eと隣接している。一方、部分グラフSG1fは、部分グラフSG1gのみと隣接している。グラフG2は、これらの部分グラフをノードとし、隣接する部分グラフをエッジで接続した第2のグラフに相当する。
抽出部210は、グラフG2から部分グラフSG2a、SG2b、SG2cを抽出する。より詳細には、抽出部210は、グラフG2を構成するノード(すなわち部分グラフSG1a~SG1g)のうち、ランクが高いw(=3)個のノード(この例では、部分グラフSG1a、SG1b、SG1g)に基づいて、ノード数がk(=3)である部分グラフを抽出する。
設計部230は、これらの部分グラフのノードを、第2層のニューロンに対する入力とする。例えば、第2層には、各部分グラフに対応する3個のニューロンが含まれており、第2層の第1のニューロンに対する入力は、部分グラフSG1a、SG1d、SG1eである。第2層の第2のニューロンに対する入力は、部分グラフSG1a、SG1b、SG1cである。第2層の第3のニューロンに対する入力は、部分グラフSG1c、SG1f、SG1gである。
学習装置200は、第1のグラフに対して実行した処理を第2のグラフに対しても実行することができる。学習装置200は、部分グラフSG2a、SG2b、SG2cをノードとする第3のグラフに基づいて、部分グラフの抽出や部分グラフ間の距離の算出を実行する。
以上のとおり、本実施形態の学習装置200によれば、グラフ構造をNNに学習させることが可能である。NNは、学習により、出力の精度を向上させることが可能である。本実施形態の学習装置200により設計されたNNは、ニューロンに対する入力が部分グラフ間の関係性又は類似性に基づいて決定されるため、中間層の多層に渡って特徴を伝播させることが可能である。
[変形例]
上述された第1~第2実施形態は、例えば、以下のような変形を適用することができる。これらの変形例は、必要に応じて適宜組み合わせることも可能である。
(変形例1)
部分グラフ間の距離は、2個の部分グラフを接続するエッジの数以外の要素によって決定されてもよい。例えば、エッジに対して重みが定義されている場合、算出部120は、2個の部分グラフを接続するエッジの重みに基づいてこれらの間の距離を算出してもよい。算出部120は、2個の部分グラフが複数のエッジによって接続される場合に、これらのエッジの重みを加算したり平均したりすることによって距離を算出してもよい。
また、算出部120は、隣接する関係にある2個の部分グラフにおいて共有されているノードの数に基づいて、これらの部分グラフの距離を決定してもよい。より詳細には、算出部120は、2個の部分グラフにおいて共有されるノードの数が多いほど、これらが距離的に近い関係になるように距離を決定してもよい。
図8は、本例に係る距離の算出方法を説明するための図である。この例において、部分グラフSG31は、部分グラフSG32、SG33と隣接する関係にある。部分グラフSG31は、部分グラフSG32とは2個のノードを共有する一方、部分グラフSG33とは1個のノードを共有する。
この場合、算出部120は、部分グラフSG31と部分グラフSG32との距離を部分グラフSG31と部分グラフSG33との距離よりも短くする。なぜならば、隣接する関係にある部分グラフは、共有するノードの数が多いほど、より強い関係性又は類似性を有しているといえるからである。
(変形例2)
本開示に係る装置の具体的なハードウェア構成は、特定の構成に限定されなくてもよい。本開示において、ブロック図を用いて機能的に説明された構成要素は、さまざまなハードウェア及びソフトウェアによって実現可能であり、必ずしも特定の構成に関連付けられない。また、本開示において1個のブロックによって説明された構成要素は、複数のハードウェアの協働によって実現されてもよい。
図9は、本開示に係る装置を実現するコンピュータ装置300のハードウェア構成の一例を示すブロック図である。コンピュータ装置300は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RAM(Random Access Memory)303と、記憶装置304と、ドライブ装置305と、通信インタフェース306と、入出力インタフェース307とを含んで構成される。
CPU301は、RAM303を用いてプログラム308を実行する。プログラム308は、ROM302に記憶されていてもよい。また、プログラム308は、メモリカード等の記録媒体309に記録され、ドライブ装置305によって読み出されてもよいし、外部装置からネットワーク310を介して送信されてもよい。通信インタフェース306は、ネットワーク310を介して外部装置とデータをやり取りする。入出力インタフェース307は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース306及び入出力インタフェース307は、データを取得又は出力するための構成要素として機能することができる。
本開示に係る装置は、図9に示される構成(又はその一部)によって実現され得る。例えば、CPU301は、RAM303を一時的な記憶領域として用いることにより、部分グラフを抽出する機能(抽出部110、210)、部分グラフ間の距離を算出する機能(算出部120、220)、NNを設計する機能(設計部130、230)及びNNに学習させる機能(学習部240)を実現することができる。
なお、本開示に係る装置の構成要素は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。例えば、本開示に係る装置は、一部が専用のプロセッサによって実現され、他の部分が汎用のプロセッサによって実現されてもよい。
上述された実施形態において単体の装置として説明された構成は、複数の装置に分散して設けられてもよい。例えば、情報処理装置100は、クラウドコンピューティング技術などを用いて、複数のコンピュータ装置の協働によって実現されてもよい。また、学習装置200は、抽出部210、算出部220及び設計部230と、学習部240とが別の装置によって構成されてもよい。すなわち、NNを設計するための構成と、その設計されたNNを用いて学習するための構成とは、不可分ではない。
以上、本発明は、上述された実施形態及び変形例を模範的な例として説明された。しかし、本発明は、これらの実施形態及び変形例に限定されない。本発明は、本発明のスコープ内において、いわゆる当業者が把握し得るさまざまな変形又は応用を適用した実施の形態を含み得る。また、本発明は、本明細書に記載された事項を必要に応じて適宜に組み合わせ、又は置換した実施の形態を含み得る。例えば、特定の実施形態を用いて説明された事項は、矛盾を生じない範囲において、他の実施形態に対しても適用し得る。この出願は、2017年1月23日に出願された日本出願特願2017-009730を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 情報処理装置
200 学習装置
110、210 抽出部
120、220 算出部
130、230 設計部
240 学習部
300 コンピュータ装置

Claims (8)

  1. 複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出する抽出手段と、
    前記抽出された複数の部分グラフ間の距離を算出する算出手段と、
    前記抽出された複数の部分グラフのそれぞれを所定層における複数のニューロンのそれぞれへの入力とし、前記抽出された複数の部分グラフのうち、一の部分グラフと、当該一の部分グラフとの距離が閾値以下である他の部分グラフと、を前記所定層の次の層における同一のニューロンへの入力とするニューラルネットワークを設計する設計手段と
    を備える情報処理装置。
  2. 第2のグラフは、前記抽出された複数の部分グラフのそれぞれをノードとし、前記算出された距離が閾値以下であるノードがエッジで接続されるグラフであり、
    前記抽出手段は、前記第2のグラフから複数の部分グラフを抽出し、
    前記設計手段は、前記第2のグラフから抽出された複数の部分グラフのそれぞれを、前記所定層の次の層における複数のニューロンのそれぞれへの入力とする、
    請求項1に記載の情報処理装置。
  3. 前記設計手段は、
    前記抽出された複数の部分グラフのうち、前記複数のノードの少なくともいずれかを共通に含む部分グラフを前記所定層の次の層における同一のニューロンに対する入力とする
    請求項2に記載の情報処理装置。
  4. 前記算出手段は、
    2個の部分グラフがノードを共有する場合に、共有されるノードの数が多いほど距離を短くする
    請求項1から請求項までのいずれか1項に記載の情報処理装置。
  5. 前記算出手段は、
    ある部分グラフと別の部分グラフとを接続するエッジに割り当てられた重みに基づいて距離を算出する
    請求項1から請求項までのいずれか1項に記載の情報処理装置。
  6. 前記設計されたニューラルネットワークに学習させる学習手段をさらに備える
    請求項1から請求項までのいずれか1項に記載の情報処理装置。
  7. コンピュータが、
    複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出し、
    前記抽出された複数の部分グラフ間の距離を算出し、
    前記抽出された複数の部分グラフのそれぞれを所定層における複数のニューロンのそれぞれへの入力とし、前記抽出された複数の部分グラフのうち、一の部分グラフと、当該一の部分グラフとの距離が閾値以下である他の部分グラフと、を前記所定層の次の層における同一のニューロンへの入力とするニューラルネットワークを設計する
    ニューラルネットワークの設計方法。
  8. コンピュータに、
    複数のノードと複数のエッジとを含むグラフから複数の部分グラフを抽出する処理と、
    前記抽出された複数の部分グラフ間の距離を算出する処理と、
    前記抽出された複数の部分グラフのそれぞれを所定層における複数のニューロンのそれぞれへの入力とし、前記抽出された複数の部分グラフのうち、一の部分グラフと、当該一の部分グラフとの距離が閾値以下である他の部分グラフと、を前記所定層の次の層における同一のニューロンへの入力とするニューラルネットワークを設計する処理と、
    を実行させるためのプログラム。
JP2018563354A 2017-01-23 2018-01-17 情報処理装置、ニューラルネットワークの設計方法及びプログラム Active JP7063274B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017009730 2017-01-23
JP2017009730 2017-01-23
PCT/JP2018/001149 WO2018135515A1 (ja) 2017-01-23 2018-01-17 情報処理装置、ニューラルネットワークの設計方法及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018135515A1 JPWO2018135515A1 (ja) 2019-11-14
JP7063274B2 true JP7063274B2 (ja) 2022-05-09

Family

ID=62908590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018563354A Active JP7063274B2 (ja) 2017-01-23 2018-01-17 情報処理装置、ニューラルネットワークの設計方法及びプログラム

Country Status (3)

Country Link
US (1) US11669727B2 (ja)
JP (1) JP7063274B2 (ja)
WO (1) WO2018135515A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824749B2 (en) * 2018-09-28 2020-11-03 Code 42 Software, Inc. Automatic graph-based detection of unlikely file possession
JP2020140452A (ja) 2019-02-28 2020-09-03 富士通株式会社 ノード情報推定方法、ノード情報推定プログラムおよび情報処理装置
WO2021012215A1 (zh) * 2019-07-24 2021-01-28 华为技术有限公司 神经网络切分方法、预测方法及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016174725A1 (ja) 2015-04-28 2016-11-03 株式会社日立製作所 計算機及びニューラルネットワークを用いた演算方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007087125A (ja) 2005-09-22 2007-04-05 Wakayama Univ 生命情報の可視化方法、可視化プログラム及び記憶媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016174725A1 (ja) 2015-04-28 2016-11-03 株式会社日立製作所 計算機及びニューラルネットワークを用いた演算方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BRUNA, Joan et al.,Spectral Networks and Locally Connected Networks on Graphs,arXiv [online],2014年05月,[retrieved on 2021.12.23], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1312.6203.pdf>
NIEPERT, Mathias et al.,Learning Convolutional Neural Networks for Graphs,Proceedings of the 33rd International Conference on Machine Learning [online],2016年06月,[retrieved on 2021.12.23], Retrieved from the Internet: <URL: http://proceedings.mlr.press/v48/niepert16.pdf>

Also Published As

Publication number Publication date
JPWO2018135515A1 (ja) 2019-11-14
US20190362240A1 (en) 2019-11-28
US11669727B2 (en) 2023-06-06
WO2018135515A1 (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
US10026050B2 (en) Association-based product design
Lambiotte et al. Ranking and clustering of nodes in networks with smart teleportation
WO2017137000A1 (zh) 对描述同一实体的不同实例进行合并的方法、装置及设备
CN111695415A (zh) 图像识别模型的构建方法、识别方法及相关设备
JP7063274B2 (ja) 情報処理装置、ニューラルネットワークの設計方法及びプログラム
CN108228728B (zh) 一种参数化的论文网络节点表示学习方法
CN112052404B (zh) 多源异构关系网络的群体发现方法、系统、设备及介质
CN109685204B (zh) 图像处理方法及装置、存储介质及电子设备
CN112396106B (zh) 内容识别方法、内容识别模型训练方法及存储介质
JP6973106B2 (ja) 学習プログラム、学習方法および学習装置
Venturelli et al. A Kriging-assisted multiobjective evolutionary algorithm
JP2012518834A (ja) ウェブサイト訪問者の評価値を計算するための方法及びシステム
CN113158685A (zh) 文本的语义预测方法、装置、计算机设备和存储介质
CN110795558B (zh) 标签获取方法和装置、存储介质及电子装置
CN109992659B (zh) 用于文本排序的方法和装置
WO2021253938A1 (zh) 一种神经网络的训练方法、视频识别方法及装置
CN110750945B (zh) 一种芯片的仿真方法、装置、仿真芯片以及相关产品
JP2019028484A (ja) 属性識別装置、属性識別モデル学習装置、方法、及びプログラム
CN112883736A (zh) 医疗实体关系抽取方法和装置
Lê et al. A novel variable ordering heuristic for BDD-based K-terminal reliability
Javaheripi et al. Swann: Small-world architecture for fast convergence of neural networks
CN113722554A (zh) 数据分类方法、装置及计算设备
CN109840790B (zh) 用户流失的预测方法、装置及计算机设备
WO2019244446A1 (ja) システム構成導出装置、方法およびプログラム
CN110968668A (zh) 一种基于超网络的网络舆情主题相似度计算方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R151 Written notification of patent or utility model registration

Ref document number: 7063274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151