JP2019049783A - 機械学習プログラム、機械学習方法、および機械学習装置 - Google Patents
機械学習プログラム、機械学習方法、および機械学習装置 Download PDFInfo
- Publication number
- JP2019049783A JP2019049783A JP2017172626A JP2017172626A JP2019049783A JP 2019049783 A JP2019049783 A JP 2019049783A JP 2017172626 A JP2017172626 A JP 2017172626A JP 2017172626 A JP2017172626 A JP 2017172626A JP 2019049783 A JP2019049783 A JP 2019049783A
- Authority
- JP
- Japan
- Prior art keywords
- input
- value
- neural network
- values
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Debugging And Monitoring (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
まずコンピュータは、複数の数値を含む入力データと、入力データに対する分類の正解を示す教師データとを取得する。次にコンピュータは、複数の項目それぞれの変数値の組み合わせパタンごとの基準値の配列により、ニューラルネットワークへ入力する数値の順序付けの基準が示された照合パタンに基づいて、入力データに含まれる複数の数値それぞれを組み合わせパタンのいずれかに対応付けることで、複数の数値それぞれの入力順序を決定する。次にコンピュータは、複数の項目それぞれの変数値と、ニューラルネットワークの入力層の次の層のニューロンとの組ごとに設定された第1パラメータ値に基づいて、組み合わせパタンと次の層のニューロンとの組それぞれについて、組み合わせパタンに含まれる変数値それぞれと次の層のニューロンとの組の第1パラメータ値の積を、組み合わせパタンに対応付けられた数値を次の層のニューロンへ入力する際の重み値を示す第2パラメータ値に決定する。次にコンピュータは、次の層のニューロンへ入力する数値の重み値として第2パラメータ値を用いて、入力順序に従った複数の数値の入力に応じたニューラルネットワークの出力値を算出する。次にコンピュータは、出力値と教師データとの誤差に基づいて、ニューラルネットワークで正解を得るための、ニューラルネットワークの入力層と次の層とのそれぞれへの入力値の誤差とを算出する。そしてコンピュータは、入力層と次の層とのそれぞれへの入力値の誤差に基づいて、照合パタンの複数の基準値と第1パラメータ値とを更新する。
〔第1の実施の形態〕
まず第1の実施の形態に係る機械学習装置について説明する。
次に第2の実施の形態について説明する。第2の実施の形態は、コンピュータネットワーク上の通信ログに基づいて、不正な通信の有無を、ニューラルネットワークを用いて解析するものである。
図4は、監視サーバの機能の一例を示すブロック図である。監視サーバ100は、通信情報収集部110、通信ログ記憶部120、教師データ記憶部130、学習部140、学習結果記憶部150、および解析部160を有する。
教師データ記憶部130は、過去の所定の期間における単位時間帯(例えば10分間)ごとの、不正通信の発生の有無(教師フラグ)を示す情報を記憶する。
解析部160は、学習結果記憶部150に格納された学習結果に基づいて、通信ログ記憶部120に新たに格納された単位時間帯の通信ログを解析し、その単位時間帯内に不正通信が行われたか否かを判断する。
図5は、通信ログ記憶部の一例を示す図である。通信ログ記憶部120には、複数の単位期間ログ121,122,・・・が格納されている。単位期間ログ121,122,・・・それぞれには、通信ログの収集期間が示されている。単位期間ログ121,122,・・・には、収集期間で示された時間帯内に収集した通信情報が格納される。
図6は、教師データ記憶部の一例を示す図である。教師データ記憶部130には、正常通信リスト131と不正通信リスト132とが格納されている。正常通信リスト131には、正常な通信が行われていた単位期間のリストが設定される。不正通信リスト132には、不正な通信が行われた単位期間のリストが設定される。正常通信リスト131と不正通信リスト132への単位期間の設定は、例えばシステムの管理者が行う。
図7は、学習結果記憶部の一例を示す図である。学習結果記憶部150には、ニューラルネットワーク151、パラメータ群152、および照合パタン153が格納されている。ニューラルネットワーク151は、入力層から出力層まで、ニューロンを表すユニットを接続したものである。図7において、ユニットは円で表されている。
図8は、過学習の抑止策を適用しない場合のデータの分類方法を示す図である。例えば、1つの単位期間ログを、ニューラルネットワーク151を用いた分類対象の入力データ30として、解析部160に入力する場合を想定する。
このように学習部140は、分類誤差を増加させる変換データの量の変分の方向(入力層の誤差)に、照合パタンの変動に対する変換データの量の変分を掛け合わせることにより、分類誤差を増加させる照合パタンの変動の方向、および変動量を算出する。
図10は、過学習の抑止策を適用しない場合の機械学習処理の手順を示すフローチャートの一例である。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS103]学習部140は、ニューラルネットワークを用いた順伝播および誤差逆伝播により、入力層の誤差ベクトルを取得する。
[ステップS105]学習部140は、選択したレコードの量を「1」だけ増加させたときの、変換データの量の変分ベクトルを算出する。
過学習の抑止策は、過学習が発生しやすい場合に行われる。過学習が発生しやすい場合として、まず教師データが十分にない場合がある。教師データが十分にあるかどうかは、入力層のユニットから、次の中間層のユニット(ニューロン)へのパラメータ数との比較によって決まる。例えば、教師データ数に対して、入力層のユニットから次の中間層のニューロンへのパラメータ数が多いと、機械学習において過学習が発生する。入力層のユニットから次の中間層のニューロンへのパラメータ数は、入力層のユニットが多いほど多くなり、かつ次の中間層のニューロンが多いほど多くなる。
wi,j,k,l=wi,l×wj,l×wk,l ・・・(1)
ここでwi,lは、i番目の通信元ホストの識別子と、入力層の次の層のl番目のニューロンとの組に対応するパラメータの値である。wj,lは、j番目の通信先ホストの識別子と、入力層の次の層のl番目のニューロンとの組に対応するパラメータの値である。wk,lは、k番目のポートの識別子と、入力層の次の層のl番目のニューロンとの組に対応するパラメータの値である。
例えばデータがm個(mは1以上の整数)の項目間の関係であり、各項目の変数値の数がI1,・・・,Im(I1,・・・,Imは、それぞれ1以上の整数)、入力層の次の層のニューロンがL個(Lは1以上の整数)である場合、その間のパラメータ数はI1×L+・・・+Im ×Lとなる。例えば10種類の通信元ホスト、10種類の通信先ホスト、10種類のポートの間の関係を示す変換データ92に対し、入力層の次の層のニューロンが10個なら、その間のパラメータ数は10×10+10×10+10×10=300個になる。
図22は、過学習の抑止策を適用する場合の機械学習処理の手順を示すフローチャートの一例である。以下、図22に示す処理をステップ番号に沿って説明する。
[ステップS202]学習部140は、照合パタンに最も類似する変換データに、入力データを変換する。
[ステップS204]学習部140は、照合パタンの未選択のレコードを1つ選択する。
[ステップS206]学習部140は、ステップS203で取得した誤差ベクトルと、ステップS205で算出した変分ベクトルとの内積を算出する。学習部140は、内積の結果を、選択したレコードの変動値とする。
また、このような過学習抑止策は、入力データに各項目間で相関の強い変数値の集合が多数含まれており、かつ、強い相関を持つ変数値の集合同士の変数値の関係の仕方が分類の特徴として重要である場合に適用される。この場合、過学習の抑止策を適用しても、変換データ中の高相関な変数値の集団の存在を各ニューロンに伝えるように、照合パタンとパラメータとが学習される。
第2の実施の形態は、通信ログの分類の機械学習に関する例であるが、通信ログの分類以外にも、入力値の順番が精度に影響する場合がある。例えば、化合物の位置に関わらず活性をもつ構造により、化合物を分類したい場合が考えられる。化合物の分類に対しても、照合パタンを用いて適切な順序付けを行うことで、精度の高い分類が可能となる。
2 入力データ
3 教師データ
4 変換データ
5 誤差
10 機械学習装置
11 記憶部
11a 照合パタン
11b 入力層・中間層間パラメータ
11c 中間層・出力層間パラメータ
12 処理部
Claims (5)
- コンピュータに、
複数の数値を含む入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、
複数の項目それぞれの変数値の組み合わせパタンごとの基準値の配列により、ニューラルネットワークへ入力する数値の順序付けの基準が示された照合パタンに基づいて、前記入力データに含まれる前記複数の数値それぞれを前記組み合わせパタンのいずれかに対応付けることで、前記複数の数値それぞれの入力順序を決定し、
前記複数の項目それぞれの変数値と、前記ニューラルネットワークの入力層の次の層のニューロンとの組ごとに設定された第1パラメータ値に基づいて、前記組み合わせパタンと前記次の層のニューロンとの組それぞれについて、前記組み合わせパタンに含まれる変数値それぞれと前記次の層のニューロンとの組の前記第1パラメータ値の積を、前記組み合わせパタンに対応付けられた数値を前記次の層のニューロンへ入力する際の重み値を示す第2パラメータ値に決定し、
前記次の層のニューロンへ入力する数値の重み値として前記第2パラメータ値を用いて、前記入力順序に従った前記複数の数値の入力に応じた前記ニューラルネットワークの出力値を算出し、
前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記ニューラルネットワークの入力層と前記次の層とのそれぞれへの入力値の誤差を算出し、
前記入力層と前記次の層とのそれぞれへの入力値の誤差に基づいて、前記照合パタンの前記複数の基準値と前記第1パラメータ値とを更新する、
処理を実行させる機械学習プログラム。 - 前記入力データには、前記複数の項目それぞれの入力変数値の組み合わせパタンごとの数値が設定されており、一項目の2以上の入力変数値の間に、前記入力変数値を含む組み合わせパタンに設定された数値に相関がある、
請求項1記載の機械学習プログラム。 - 前記入力順序の決定では、前記入力変数値それぞれを、前記照合パタンに示される前記複数の変数値のいずれかに変換して、変換後の変数値の組み合わせパタンを前記照合パタンに合わせて並べ替えることで得られる数値の順番を、前記複数の数値それぞれの前記入力順序とする、
請求項2記載の機械学習プログラム。 - コンピュータが、
複数の数値を含む入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、
複数の項目それぞれの変数値の組み合わせパタンごとの基準値の配列により、ニューラルネットワークへ入力する数値の順序付けの基準が示された照合パタンに基づいて、前記入力データに含まれる前記複数の数値それぞれを前記組み合わせパタンのいずれかに対応付けることで、前記複数の数値それぞれの入力順序を決定し、
前記複数の項目それぞれの変数値と、前記ニューラルネットワークの入力層の次の層のニューロンとの組ごとに設定された第1パラメータ値に基づいて、前記組み合わせパタンと前記次の層のニューロンとの組それぞれについて、前記組み合わせパタンに含まれる変数値それぞれと前記次の層のニューロンとの組の前記第1パラメータ値の積を、前記組み合わせパタンに対応付けられた数値を前記次の層のニューロンへ入力する際の重み値を示す第2パラメータ値に決定し、
前記次の層のニューロンへ入力する数値の重み値として前記第2パラメータ値を用いて、前記入力順序に従った前記複数の数値の入力に応じた前記ニューラルネットワークの出力値を算出し、
前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記ニューラルネットワークの入力層と前記次の層とのそれぞれへの入力値の誤差を算出し、
前記入力層と前記次の層とのそれぞれへの入力値の誤差に基づいて、前記照合パタンの前記複数の基準値と前記第1パラメータ値とを更新する、
機械学習方法。 - 複数の項目それぞれの変数値の組み合わせパタンごとの基準値の配列により、ニューラルネットワークへ入力する数値の順序付けの基準が示された照合パタンを記憶する記憶部と、
複数の数値を含む入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、前記照合パタンに基づいて、前記入力データに含まれる前記複数の数値それぞれを前記組み合わせパタンのいずれかに対応付けることで、前記複数の数値それぞれの入力順序を決定し、前記複数の項目それぞれの変数値と、前記ニューラルネットワークの入力層の次の層のニューロンとの組ごとに設定された第1パラメータ値に基づいて、前記組み合わせパタンと前記次の層のニューロンとの組それぞれについて、前記組み合わせパタンに含まれる変数値それぞれと前記次の層のニューロンとの組の前記第1パラメータ値の積を、前記組み合わせパタンに対応付けられた数値を前記次の層のニューロンへ入力する際の重み値を示す第2パラメータ値に決定し、前記次の層のニューロンへ入力する数値の重み値として前記第2パラメータ値を用いて、前記入力順序に従った前記複数の数値の入力に応じた前記ニューラルネットワークの出力値を算出し、前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記ニューラルネットワークの入力層と前記次の層とのそれぞれへの入力値の誤差を算出し、前記入力層と前記次の層とのそれぞれへの入力値の誤差に基づいて、前記照合パタンの前記複数の基準値と前記第1パラメータ値とを更新する、処理部と、
を有する機械学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172626A JP6898562B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
US16/125,420 US11514308B2 (en) | 2017-09-08 | 2018-09-07 | Method and apparatus for machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172626A JP6898562B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049783A true JP2019049783A (ja) | 2019-03-28 |
JP6898562B2 JP6898562B2 (ja) | 2021-07-07 |
Family
ID=65631318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172626A Active JP6898562B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11514308B2 (ja) |
JP (1) | JP6898562B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021014726A (ja) * | 2019-07-12 | 2021-02-12 | 株式会社奥村組 | シールド掘進工法における掘進予測モデルの作成方法 |
JP2021014727A (ja) * | 2019-07-12 | 2021-02-12 | 株式会社奥村組 | シールド掘進機の施工管理方法 |
WO2021054402A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社 Preferred Networks | 推定装置、訓練装置、推定方法及び訓練方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11030722B2 (en) * | 2017-10-04 | 2021-06-08 | Fotonation Limited | System and method for estimating optimal parameters |
EP3575813B1 (en) * | 2018-05-30 | 2022-06-29 | Siemens Healthcare GmbH | Quantitative mapping of a magnetic resonance imaging parameter by data-driven signal-model learning |
JP7279446B2 (ja) * | 2019-03-20 | 2023-05-23 | 富士通株式会社 | 学習プログラム、学習方法、及び学習装置 |
US11836624B2 (en) * | 2019-08-26 | 2023-12-05 | D5Ai Llc | Deep learning with judgment |
US11651197B2 (en) * | 2020-03-04 | 2023-05-16 | International Business Machines Corporation | Holistic service advisor system |
US11615330B2 (en) * | 2020-03-18 | 2023-03-28 | Kyndryl, Inc. | Virtual subject matter expert provisioning |
JP7392537B2 (ja) * | 2020-03-19 | 2023-12-06 | 富士通株式会社 | 学習プログラム、学習方法、および情報処理装置 |
US11475303B2 (en) * | 2020-04-14 | 2022-10-18 | Microsoft Technology Licensing, Llc | Spread neural networks |
CN115938390B (zh) * | 2023-01-06 | 2023-06-30 | 中国科学院自动化研究所 | 生成语音鉴别模型的连续学习方法、装置和电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319844A (ja) | 1994-05-25 | 1995-12-08 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネットワークの学習装置及びニューラルネットワークの学習方法 |
JPH08249303A (ja) | 1995-03-13 | 1996-09-27 | Ricoh Co Ltd | 信号処理装置 |
JP3469677B2 (ja) | 1995-05-31 | 2003-11-25 | 三洋電機株式会社 | 文字認識装置およびその学習方法 |
JPH0981535A (ja) | 1995-09-11 | 1997-03-28 | Matsushita Electric Ind Co Ltd | ニューラルネットワークの学習方法 |
JPH0990981A (ja) | 1995-09-22 | 1997-04-04 | Nippon Telegr & Teleph Corp <Ntt> | パターン認識のためのモデル学習方法 |
JPH09138786A (ja) | 1995-11-14 | 1997-05-27 | Matsushita Electric Ind Co Ltd | ニューラルネットワークの学習装置 |
JPH11224106A (ja) | 1998-02-06 | 1999-08-17 | Matsushita Electric Ind Co Ltd | パラメータ推定装置 |
JP2002222409A (ja) | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | ニューラルネットワークの最適化学習方法 |
JP6435581B2 (ja) * | 2015-01-29 | 2018-12-12 | パナソニックIpマネジメント株式会社 | 転移学習装置、転移学習システム、転移学習方法およびプログラム |
JP6898561B2 (ja) | 2017-09-08 | 2021-07-07 | 富士通株式会社 | 機械学習プログラム、機械学習方法、および機械学習装置 |
-
2017
- 2017-09-08 JP JP2017172626A patent/JP6898562B2/ja active Active
-
2018
- 2018-09-07 US US16/125,420 patent/US11514308B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021014726A (ja) * | 2019-07-12 | 2021-02-12 | 株式会社奥村組 | シールド掘進工法における掘進予測モデルの作成方法 |
JP2021014727A (ja) * | 2019-07-12 | 2021-02-12 | 株式会社奥村組 | シールド掘進機の施工管理方法 |
JP7219180B2 (ja) | 2019-07-12 | 2023-02-07 | 株式会社奥村組 | シールド掘進工法における掘進予測モデルの作成方法 |
JP7219181B2 (ja) | 2019-07-12 | 2023-02-07 | 株式会社奥村組 | シールド掘進機の施工管理方法 |
WO2021054402A1 (ja) * | 2019-09-20 | 2021-03-25 | 株式会社 Preferred Networks | 推定装置、訓練装置、推定方法及び訓練方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6898562B2 (ja) | 2021-07-07 |
US20190080236A1 (en) | 2019-03-14 |
US11514308B2 (en) | 2022-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6898562B2 (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
JP6751235B2 (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
JP6898561B2 (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
Adikari et al. | Identifying fake profiles in linkedin | |
KR101843066B1 (ko) | 기계 학습에 있어서 데이터 확대를 이용하여 데이터의 분류를 수행하는 방법 및 이를 이용한 장치 | |
US11062215B2 (en) | Using different data sources for a predictive model | |
JP6546180B2 (ja) | ネットワークサブジェクトの社会的関係タイプの取得 | |
US20160210555A1 (en) | Dynamic model data facility and automated operational model building and usage | |
US10866998B2 (en) | System and method for identifying contacts of a target user in a social network | |
CN109522922B (zh) | 学习数据选择方法及设备以及计算机可读记录介质 | |
US20180077181A1 (en) | Bot detection based on behavior analytics | |
US12008484B2 (en) | Aggregated feature importance for finding influential business metrics | |
US20180077179A1 (en) | Bot detection based on divergence and variance | |
JP5833817B2 (ja) | ドキュメント使用クラスタリングによるユーザタスク表現を近似するための方法 | |
Zhang et al. | Detecting Insider Threat from Behavioral Logs Based on Ensemble and Self‐Supervised Learning | |
CN115841366B (zh) | 物品推荐模型训练方法、装置、电子设备及存储介质 | |
JP6773972B2 (ja) | データ変換プログラム、データ変換方法、およびデータ変換装置 | |
US20210158179A1 (en) | Dynamic recommendation system for correlated metrics and key performance indicators | |
JP2024510634A (ja) | 可変分布保存を用いて機密データを変換するための学習 | |
US8055607B2 (en) | Adaptive multi-levels dictionaries and singular value decomposition techniques for autonomic problem determination | |
US20180218259A1 (en) | Optimizing node locations within a space | |
US10580017B2 (en) | Using ontological distance to measure unexpectedness of correlation | |
CORELATD | TRANSFORMED DATSET | |
CN117540791B (zh) | 一种对抗训练的方法及装置 | |
US11500864B2 (en) | Generating highlight queries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200611 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200625 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |