JP6897446B2 - 探索方法、探索プログラムおよび探索装置 - Google Patents
探索方法、探索プログラムおよび探索装置 Download PDFInfo
- Publication number
- JP6897446B2 JP6897446B2 JP2017179396A JP2017179396A JP6897446B2 JP 6897446 B2 JP6897446 B2 JP 6897446B2 JP 2017179396 A JP2017179396 A JP 2017179396A JP 2017179396 A JP2017179396 A JP 2017179396A JP 6897446 B2 JP6897446 B2 JP 6897446B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- search
- evaluation value
- learning
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、実施例1にかかる学習の全体構成例を説明する図である。図1に示すように、実施例1にかかる学習装置10は、探索装置の一例である。学習装置10は、知識ベースから学習データとなるグラフを抽出して学習することで、学習モデルを生成する。そして、学習装置10は、生成された学習モデルに、判別したいデータを入力して判別結果を出力する。
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。
優先切出し処理は、静的評価値の高い属性を探索した場合に、そのノードかエッジを優先的に切出し範囲に入れる処理である。図6は、切出し処理を説明する図である。図6では、A社の学習データの探索を例にして説明するが、B社についても同様に処理することができる。
拡大縮小処理は、静的評価値または動的評価値の高い属性を切出し範囲に含めるように、切出し範囲の末端に対して、周辺のノードとエッジの各評価値を用いて、切出し範囲のどこを拡大し、どこを縮小するかを決定する処理である。図7は、拡大縮小処理を説明する図である。図7では、A社の学習データの探索を例にして説明するが、B社についても同様に処理することができる。
優先末端の設定処理は、静的評価値や動的評価値により単純に削除対象と決定されるノードであっても、複合的に設定問題と関連する組を見つけるために、片側にあたるものについては一定の範囲で削除せずに残しておけるように、削除の対象とならない切り出し範囲内の末端を決める処理である。すなわち、優先末端の設定処理は、通常であれば、上記(1)や(2)などの処理によって削除されるノードについて、他のノードやエッジとの関係性を判断するまで、一時的に削除対象から除外する。なお、本実施例では、削除の対象とならない切り出し範囲内の末端を「優先末端」と記載する場合がある。
削除遅延処理は、各評価値により単純に一斉に削除されると決まってしまうノードであっても、複合的に設定問題と関連する組を見つけるために、各評価値の高さに応じてノードの削除を遅延させて、多くの組み合わせを試せるように、ノードの総合評価値に応じた遅延条件を設定する処理である。
図10Aと図10Bは、学習データの生成処理の流れを示すフローチャートである。図10Aに示すように、学習データ生成部21は、優先末端数とパス長制約を設定し(S101)、知識ベースの各属性が問題設定と関連するか評価し、静的評価値として属性情報DB14に登録する(S102)。なお、静的評価値は、管理者によって設定することもできる。
次に、図11から図20を用いて、上述した処理の具体例を説明する。ここでは、図3に示した知識ベースから適切なグラフの範囲を探索して、学習データ(A社)と学習データ(B社)とを生成する例で説明する。また、ここでは、説明をわかりやすくするために、図11に示す図を用いて、メモリ状況を可視化して説明する。図11は、探索開始時のメモリの初期化状況を説明する図である。図11に示すように、本実施例では、A社とB社のそれぞれについて、リーフ集合と切出し範囲と動的評価結果を示す領域と、探索済み集合を示す領域とを用いて説明する。
まず、学習データ生成部21は、起点ごとに探索済み集合を空に設定し、起点と空パスの対をリーフ集合に追加する。図12は、起点と空パスの対をリーフ集合に追加した状態を説明する図である。図12に示すように、学習データ生成部21は、A社に関して、リーフ集合に、起点であるノード「A社」と「/(空パス)」との対を追加するとともに、探索済み集合を空にする。同様に、学習データ生成部21は、B社に関して、リーフ集合に、起点であるノード「B社」と「/(空パス)」との対を追加するとともに、探索済み集合を空にする。
続いて、学習データ生成部21は、リーフ集合内のノードから数ホップ先まで探索して、静的評価値が高いエッジを探索する。図13Aは、探索開始時を説明する図であり、図13Bは、探索開始時のメモリ格納状況を説明する図である。図13Aに示すように、学習データ生成部21は、起点「A社」および起点「B社」について、例えば2ホップ先までを探索範囲に決定する。そして、学習データ生成部21は、静的評価値が高いエッジである「格付」と「評判」を見つける。なお、エッジ「優良」は、解なので除外する。
続いて、学習データ生成部21は、リーフ集合から探索済みでないパスをランダムにいくつか選択し、選んだパスと対になっているノードに接続しているエッジを検索する。図14Aは、探索開始後の状態1を説明する図であり、図14Bは、状態1のメモリ格納状況を説明する図である。
続いて、学習データ生成部21は、状態1と同様の処理を実行して切出し範囲の拡大を実行する。具体的には、学習データ生成部21は、リーフ集合からランダムに探索済みでないパスをいくつか選択し、選んだパスと対になっているノードに接続しているエッジを検索する。ここでは、A社とB社とについて、学習データ生成部21は、「業種」と「^企業/評判」を選択し、「業種」では「^業種」と「^subClass」を検出し、「^企業/評判」では「^評判」を検出する。
続いて、学習データ生成部21は、状態1や状態2と同様の処理を実行して切出し範囲の拡大を実行する。具体的には、学習データ生成部21は、リーフ集合内のノードから2ホップ以内を探索し、静的評価値が高い「優良」と「格付」を見つけ、切り出し範囲にそれらが入るようにする。これにより、学習データ生成部21は、静的評価値が高く、起点から遠い「^企業/評判/^評判/^企業/優良」と「^企業/評判/^評判/^企業/格付」のパスを優先的に切り出し範囲に入れる。
続いて、学習データ生成部21は、優先末端以外の探索済み集合にある極大なパスである「業種」と「事業部」を特定し、これらについて切出し範囲の縮小を判定する。
続いて、学習データ生成部21は、優先末端「業種」以外の探索済み集合にある極大なパスである「^企業/評判/^評判」を特定する。そして、学習データ生成部21は、A社とB社に関して、その先パス「評判、企業/格付、企業/優良、発言者」のうち該当するパスについて切出し範囲の縮小を判定する。
ここで、学習データ生成部21は、すべてが遅延条件を満たすので、パス長制約を減らす。図18は、パス長制約の変更例を示す図である。図18に示すように、学習データ生成部21は、パス長制約を「6」から「5」に減らし、その他の情報は維持する。そして、学習データ生成部21は、再度、優先末端「業種」以外の探索済み集合にある極大なパスである「^企業/評判/^評判」のその先のパス「評判、企業/格付、企業/優良、発言者」のうち該当するパスについて切出し範囲の縮小を判定する。
上述したように、学習装置10は、推定に有用な情報が規定ホップ数外にある場合でも、推定に有用な情報が入っているパスを検出することができる。また、学習装置10は、様々なデータを連結して構築されている巨大な知識ベースの中で、データが抜け落ちた部分を他の周辺情報から推測するために、設定問題が与えられたときに、与えられた設定問題を解くのに十分な情報を含んでいる適切なグラフを切り出すことができる。また、学習装置10は、計算機のメモリなどの限られたリソース内での探索を行い、設定問題を解くのに最適な学習データの範囲を決定して、モデルの学習を行うことができる。
具体例においては、切出し範囲の拡張時はランダムにリーフノードを選び、選ばれたノードは接続している全エッジを1ホップ拡張する例で説明したが、これに限定されるものではない。例えば、切出し範囲に含まれるノードのすべてについて1ホップ拡張するようにしてもいい。短いホップ数の範囲については網羅的に探索を行いたい場合は、ランダムに選ぶ方が好ましく、メモリ使用量を極力抑えたい場合は、ランダム以外の他の手法の方が好ましい。
具体例においては、静的評価値は高いか低いかの2値とし、静的評価値の高いエッジは切り出し範囲の端から例えば2ホップ先まで探索する例を説明した。また、具体例においては、静的評価値の高いエッジおよびノードが優先的に切り出し範囲に入るように、探索のホップ数は上述した通常の拡張よりも長いように規定した。なお、静的評価値は動的評価値よりも精度は高くないが、学習および判別特徴量評価を行わずに、事前に評価ができるので、メモリ制約がある中で優先的に切り出し範囲に含めることは有用である。
具体例においては、動的評価値を高いか低いかの2値とする例を説明したが、これに限定されるものではない。例えば、動的評価値を多段階にすることにより、動的評価値に基づいて遅延条件を変化させることもできる。なお、動的評価値は、静的評価値よりも精度は高いので、メモリ制約がある中で遅延条件により優先的に切り出し範囲に留めておくことは有用である。
具体例では、優先末端数が1の場合を説明しているが、優先末端数を調整し、優先末端に関連した範囲に関連するメモリ使用量と、他の範囲のメモリ使用量とのバランスを制御することができる。
具体例では、優先末端の変更契機を「切り出し範囲を狭くしても、まだリソース上限を超えている場合」として設定しているが、優先末端を変更するタイミングを調整することで、網羅的に隅々探索するか、全体的にざっくり探索するかを調整することもできる。
具体例においては、優先末端は探索済みノードの極大に設定する例を説明したが、これに限定されるものではない。ここで、グラフは分岐しているので、根元に優先末端があるとその先はすべて削除対象外となり、優先末端の範囲を広くできる。優先末端を伸ばすようにするほど、優先末端の範囲が狭くなり、極大に設定すると優先末端の範囲を最小にできる。優先末端の範囲の大きさは、他の範囲が利用できるメモリ使用量に影響し、深く探索できるかに影響する。
具体例では、遅延条件の定義を「パス長+優先末端側の最大パス長−総合評価値≦パス長制約」とした例で説明したが、これに限定されるものではない。例えば、遅延条件の定義においては、基本的には、静的評価値や動的評価値が高いものが遅延条件を満たすようにできればよい。
具体例では、削除しても切り出し範囲がリソース制限を満たせないときに、パス長制約を1減らす例を説明したが、これに限定されるものではない。パス長制約は、リソース制約に比べて、パス長の制約が緩い場合には、制約を常に満たすようになり、制約が意味をなさなくなる。制約が緩すぎて、リソース削減をすることができない場合に、制約を厳しくして、制約がかかるように補正する。例えば、遅延条件が満たされなくなる最小の差分を減らすようにパス長制約を再設定することもできる。これにより、1ずつ減らして何度も遅延条件のチェックを行うことを抑制でき、処理の高速化が図れる。
具体例では、ソース制限を合計35エッジとして例で説明したが、これに限定されるものではない。例えば、学習時の学習装置10のメモリの使用量は、学習グラフのエッジ数に大きく依存するので、使用する計算機のメモリに応じて、リソース制限を設定することができる。
具体例では、削除は、探索済み集合の極大なパスにし、ノードごとに一括で行う例で説明したが、これに限定されるものではない。これは、極大でない部分での削除を許容して、グラフが途切れてしまうようなことを許容したり、同一ノードと接続しているエッジを消したり消さなかったりして、エッジ単位での削除を許容したりすると、切出し範囲の管理が非常に煩雑になってしまうからである。このようなことから、一例として、具体例では極大なパスに対して、ノードごとに削除するか削除しないかを一括で処理する方式を採用した。
具体例では、高い動的評価値が6個以上あるときに、切出し範囲の探索を終了する例を説明したが、これに限定されるものではない。例えば、学習した結果できた学習モデルを学習で用いたサンプルとは別のテスト用サンプルで判別を行い、その正解率(分別精度)がある一定以上になる契機を設定することもできる。また、学習モデルがうまくできたかにかかわらず、任意の試行回数を設定することもできる。
本実施例では、RNNやCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
図21は、ハードウェア構成例を示す図である。図21に示すように、学習装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。
11 通信部
12 記憶部
13 知識ベースDB
14 属性情報DB
15 学習データDB
16 学習済みモデルDB
20 制御部
21 学習データ生成部
21a 設定部
21b 探索部
22 学習部
23 判別部
Claims (9)
- コンピュータが、
複数のノードが接続される全体グラフから選択された起点ノードに接続される複数のノードまたはエッジそれぞれの属性と設定問題との関連性に基づき、探索対象のノードおよびエッジである探索範囲を設定し、
前記全体グラフから前記探索範囲で抽出された複数のグラフによる前記設定問題の学習モデルによる学習結果に基づき、前記探索範囲に含まれるノードおよびエッジそれぞれの評価値を生成し、
前記探索範囲に含まれるノードおよびエッジそれぞれの前記評価値、および、前記探索範囲に含まれるノードおよびエッジそれぞれの前記属性と前記設定問題との関連性に基づき、探索対象のノードおよびエッジを更新し探索を行う処理を実行する、探索方法。 - 前記複数のノードおよびエッジそれぞれの前記評価値として、前記関連性に基づき設定される第1の評価値と、前記学習結果によって更新される第2の評価値とを付与し、
前記起点ノードから所定範囲内にあるエッジのうち、前記第1の評価値が閾値以上のノードおよびエッジを含む探索範囲を設定し、
前記学習結果に基づき、前記探索範囲に含まれるノードおよびエッジそれぞれの前記第2の評価値を生成または更新し、
前記第1の評価値と前記第2の評価値とを用いた前記探索範囲の再設定、および、再設定された前記探索範囲に基づく前記学習モデルの前記学習結果による前記第2の評価値の更新、を所定回数繰り返して、前記全体グラフから学習対象となる前記複数のグラフの範囲を決定して抽出する処理を、前記コンピュータが実行する請求項1に記載の探索方法。 - 前記探索範囲内の末端のノードおよび末端のエッジのうち、前記学習結果による前記第2の評価値が閾値未満のノードおよびエッジを除外した探索範囲を再設定する処理を、前記コンピュータが実行する請求項2に記載の探索方法。
- 前記探索範囲に含まれないノードおよびエッジのうち、前記探索範囲の末端のノードから所定範囲に位置し、前記第1の評価値が閾値以上であるノードおよびエッジを含めた探索範囲を再設定する処理を、前記コンピュータが実行する請求項2に記載の探索方法。
- 前記探索範囲内の末端で除外対象となるノードまたはエッジを除外保留に設定し、前記探索範囲内における前記末端とは異なる方向の末端のノードまたはエッジについて、前記探索範囲の再設定および前記学習モデルによる学習を行って、前記第2の評価値を更新する処理を、前記コンピュータが実行する請求項3に記載の探索方法。
- 前記探索範囲内の末端とは異なる末端のノードまたはエッジに関し、前記第1の評価値と前記第2の評価値とに基づく総合評価値を算出し、
前記学習モデルによる学習が行われるたびに、前記総合評価値が所定条件を満たすか否かを判定し、
前記総合評価値が前記所定条件を満たさない場合に、前記異なる末端のノードまたはエッジを前記探索範囲から除外する処理を、前記コンピュータが実行する請求項5に記載の探索方法。 - 前記全体グラフから抽出された前記複数のグラフの範囲を用いて学習済みモデルを構築し、
判別対象の全体グラフから前記複数のグラフの範囲に対応した判別対象グラフを抽出して前記学習済みモデルに入力し、判別結果を取得する処理を、前記コンピュータが実行する請求項2に記載の探索方法。 - コンピュータに、
複数のノードが接続される全体グラフから選択された起点ノードに接続される複数のノードまたはエッジそれぞれの属性と設定問題との関連性に基づき、探索対象のノードおよびエッジである探索範囲を設定し、
前記全体グラフから前記探索範囲で抽出された複数のグラフによる前記設定問題の学習モデルによる学習結果に基づき、前記探索範囲に含まれるノードおよびエッジそれぞれの評価値を生成し、
前記探索範囲に含まれるノードおよびエッジそれぞれの前記評価値、および、前記探索範囲に含まれるノードおよびエッジそれぞれの前記属性と前記設定問題との関連性に基づき、探索対象のノードおよびエッジを更新し探索を行う処理を実行させる、探索プログラム。 - 複数のノードが接続される全体グラフから選択された起点ノードに接続される複数のノードまたはエッジそれぞれの属性と設定問題との関連性に基づき、探索対象のノードおよびエッジである探索範囲を設定する設定部と、
前記全体グラフから前記探索範囲で抽出された複数のグラフによる前記設定問題の学習モデルによる学習結果に基づき、前記探索範囲に含まれるノードおよびエッジそれぞれの評価値を生成する生成部と、
前記探索範囲に含まれるノードおよびエッジそれぞれの前記評価値、および、前記探索範囲に含まれるノードおよびエッジそれぞれの前記属性と前記設定問題との関連性に基づき、探索対象のノードおよびエッジを更新し探索する探索部と
を有する、探索装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179396A JP6897446B2 (ja) | 2017-09-19 | 2017-09-19 | 探索方法、探索プログラムおよび探索装置 |
US16/134,161 US10977313B2 (en) | 2017-09-19 | 2018-09-18 | Search method, computer-readable recording medium, and search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179396A JP6897446B2 (ja) | 2017-09-19 | 2017-09-19 | 探索方法、探索プログラムおよび探索装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019056960A JP2019056960A (ja) | 2019-04-11 |
JP6897446B2 true JP6897446B2 (ja) | 2021-06-30 |
Family
ID=65720342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017179396A Active JP6897446B2 (ja) | 2017-09-19 | 2017-09-19 | 探索方法、探索プログラムおよび探索装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10977313B2 (ja) |
JP (1) | JP6897446B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7036689B2 (ja) * | 2018-08-10 | 2022-03-15 | 株式会社日立製作所 | 計算機システム |
WO2020261484A1 (ja) * | 2019-06-27 | 2020-12-30 | 日本電気株式会社 | 矛盾検知装置、矛盾検知方法およびコンピュータ読み取り可能な記録媒体 |
US20220358378A1 (en) * | 2019-06-27 | 2022-11-10 | Nec Corporation | Minimal unsatisfiable set detection apparatus, minimal unsatisfiable set detection method, and computer-readable recording medium |
JP7411977B2 (ja) * | 2019-07-05 | 2024-01-12 | 国立研究開発法人物質・材料研究機構 | 機械学習支援方法及び機械学習支援装置 |
US11475255B2 (en) * | 2019-08-30 | 2022-10-18 | Kabushiki Kaisha Toshiba | Method for adaptive context length control for on-line edge learning |
JP7242508B2 (ja) * | 2019-10-29 | 2023-03-20 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
CN111105167A (zh) * | 2019-12-24 | 2020-05-05 | 河南祥辰工程管理有限公司 | 一种基于bim技术的钢结构工程可视化验收方法 |
JP6893600B1 (ja) * | 2020-05-28 | 2021-06-23 | 篤師 眞野 | 情報処理装置及びプログラム |
US11720927B2 (en) * | 2021-01-13 | 2023-08-08 | Samsung Electronics Co., Ltd. | Method and apparatus for generating user-ad matching list for online advertisement |
KR102485944B1 (ko) * | 2021-11-19 | 2023-01-10 | 주식회사 스탠다임 | 트랜스포머 신경망에서의 그래프 인코딩 방법 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007304685A (ja) * | 2006-05-09 | 2007-11-22 | Hitachi Ltd | ソフトウェア部品の検索システム及びプログラム |
US20140099623A1 (en) * | 2012-10-04 | 2014-04-10 | Karmarkar V. Amit | Social graphs based on user bioresponse data |
-
2017
- 2017-09-19 JP JP2017179396A patent/JP6897446B2/ja active Active
-
2018
- 2018-09-18 US US16/134,161 patent/US10977313B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10977313B2 (en) | 2021-04-13 |
JP2019056960A (ja) | 2019-04-11 |
US20190087509A1 (en) | 2019-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6897446B2 (ja) | 探索方法、探索プログラムおよび探索装置 | |
US11032391B2 (en) | Social network grouping method and system, and computer storage medium | |
WO2019128529A1 (zh) | Url攻击检测方法、装置以及电子设备 | |
Alvari et al. | Community detection in dynamic social networks: A game-theoretic approach | |
US20200265044A1 (en) | Path searching method, storage medium and path searching apparatus | |
JPWO2016151618A1 (ja) | 予測モデル更新システム、予測モデル更新方法および予測モデル更新プログラム | |
KR101965276B1 (ko) | 그래프 기반의 데이터 분석 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 | |
CN112784961A (zh) | 超网络的训练方法、装置、电子设备和存储介质 | |
Wang et al. | Modeling information diffusion in online social networks with partial differential equations | |
US9674083B2 (en) | Path calculation order deciding method, program and calculating apparatus | |
JP2018518764A (ja) | オブジェクト検索方法、装置およびサーバ | |
CN112948608A (zh) | 图片查找方法、装置、电子设备及计算机可读存储介质 | |
CN112800286A (zh) | 用户关系链的构建方法、装置及电子设备 | |
JP2018170008A (ja) | エンティティの属性をマッピングする方法及びシステム | |
US9928313B2 (en) | Seasonal query suggestion system and method | |
EP3336719A1 (en) | Future scenario generation device and method, and computer program | |
KR20210031094A (ko) | 트리 기반 이상치 탐지 장치 및 방법, 컴퓨터 프로그램 | |
US11669727B2 (en) | Information processing device, neural network design method, and recording medium | |
CN114143035A (zh) | 知识图谱推荐系统的对抗攻击方法、系统、设备及介质 | |
KR101890207B1 (ko) | 개체명 연결 방법, 장치 및 컴퓨터 프로그램 | |
JP6338618B2 (ja) | 生成装置、生成方法、及び生成プログラム | |
CN115665082A (zh) | 基于信息熵改进的社交网络关键节点识别方法及系统 | |
Kong et al. | Taprank: A time-aware author ranking method in heterogeneous networks | |
Kozak et al. | Association ACDT as a tool for discovering the financial data rules | |
KR20210058533A (ko) | 복수개의 커뮤니티를 포함하는 네트워크에서 커뮤니티 재구성 방법 및 이를 위한 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6897446 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |