JP2019049782A - 機械学習プログラム、機械学習方法、および機械学習装置 - Google Patents
機械学習プログラム、機械学習方法、および機械学習装置 Download PDFInfo
- Publication number
- JP2019049782A JP2019049782A JP2017172625A JP2017172625A JP2019049782A JP 2019049782 A JP2019049782 A JP 2019049782A JP 2017172625 A JP2017172625 A JP 2017172625A JP 2017172625 A JP2017172625 A JP 2017172625A JP 2019049782 A JP2019049782 A JP 2019049782A
- Authority
- JP
- Japan
- Prior art keywords
- input
- item
- value
- pattern
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2323—Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Discrete Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
Abstract
【解決手段】機械学習装置10は、第1項目群内の項目それぞれの変数値の組み合わせパタンと、第2項目群内の項目それぞれの変数値の組み合わせパタンとのそれぞれに対応する複数の基準値の配列により、複数の数値をニューラルネットワーク1へ入力する際の、複数の数値の順序付けの基準を示す照合パタン11a,11bを生成する。次に機械学習装置10は、第1項目群内の項目それぞれの変数値の組み合わせパタンそれぞれ、および第2項目群内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出する。そして機械学習装置10は、複数の入力用数値の入力順序を、照合パタン11a,11bに基づいて決定し、ニューラルネットワーク1の出力値を算出し、入力用数値の誤差8を算出し、入力用数値の誤差8に基づいて、照合パタン11a,11bを更新する。
【選択図】図1
Description
まずコンピュータは、複数の項目それぞれの変数値の組み合わせパタンごとに数値が設定された入力データと、入力データに対する分類の正解を示す教師データとを取得する。次にコンピュータは、入力データの複数の項目のうちの第1項目の変数値それぞれと特定の関係を有する第2項目の変数値が一意に決まる場合、複数の項目から第2項目を除外した第1項目群内の項目それぞれの変数値の組み合わせパタンと、第1項目と第2項目とを含む第2項目群内の項目それぞれの変数値の組み合わせパタンとのそれぞれに対応する複数の基準値の配列により、複数の数値をニューラルネットワークへ入力する際の、複数の数値の順序付けの基準を示す照合パタンを生成する。次にコンピュータは、入力データに基づいて、第1項目群内の項目それぞれの変数値の組み合わせパタンそれぞれ、および第2項目群内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出する。次にコンピュータは、複数の入力用数値の入力順序を、照合パタンに基づいて決定する。次にコンピュータは、ニューラルネットワークの入力層の複数のユニットへ、複数の入力用数値を入力順序に従って入力した場合の、ニューラルネットワークの出力値を算出する。次にコンピュータは、出力値と教師データとの誤差に基づいて、ニューラルネットワークで正解を得るための、複数のユニットへの入力用数値の誤差を算出する。そしてコンピュータは、複数のユニットへの入力用数値の誤差に基づいて、照合パタンの複数の基準値を更新する。
〔第1の実施の形態〕
まず第1の実施の形態に係る機械学習装置について説明する。
処理部12は、複数の数値の組を含む入力データ2と、入力データ2の分類の正解を示す教師データ3(教師ラベルと呼ぶこともある)とを取得する。例えば入力データ2には、複数の項目(項S、項R、項P)それぞれの変数値の組み合わせパタンごとに数値が設定されている。設定された数値は、例えば変数値の組み合わせに対応する事象の発生頻度に応じた値である。
第1項目(項R)の変数値と特定の関係を有する第2項目(項P)の変数値が一意に決まる場合、入力データ2は、複数のデータ(第1部分データ4と第2部分データ5)の結合(JOIN)で表現することができる。そこで処理部12は、結合することで入力データ2となる第1部分データ4と第2部分データ5それぞれの数値を適切に並べ替えるのに利用する照合パタン11a,11bを生成する。照合パタン11a,11bは、複数の基準値の配列により、複数の数値をニューラルネットワーク1へ入力する際の、複数の数値の順序付けの基準を示している。
次に処理部12は、入力データ2に基づいて、第1項目群(項S、項R)内の項目それぞれの変数値の組み合わせパタンそれぞれ、および第2項目群(項R、項P)内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出する。例えば処理部12は、入力データ2に基づいて、第1部分データ4と第2部分データ5とを生成する。第1部分データ4には、第1項目群(項S、項R)内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する入力用数値が設定されている。第2部分データ5には、第2項目群(項R、項P)内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する入力用数値が設定されている。
次に第2の実施の形態について説明する。第2の実施の形態は、コンピュータネットワーク上の通信ログに基づいて、不正な通信の有無を、ニューラルネットワークを用いて解析するものである。
図4は、監視サーバの機能の一例を示すブロック図である。監視サーバ100は、通信情報収集部110、通信ログ記憶部120、教師データ記憶部130、学習部140、学習結果記憶部150、および解析部160を有する。
教師データ記憶部130は、過去の所定の期間における単位時間帯(例えば10分間)ごとの、不正通信の発生の有無(教師フラグ)を示す情報を記憶する。
解析部160は、学習結果記憶部150に格納された学習結果に基づいて、通信ログ記憶部120に新たに格納された単位時間帯の通信ログを解析し、その単位時間帯内に不正通信が行われたか否かを判断する。
図5は、通信ログ記憶部の一例を示す図である。通信ログ記憶部120には、複数の単位期間ログ121,122,・・・が格納されている。単位期間ログ121,122,・・・それぞれには、通信ログの収集期間が示されている。単位期間ログ121,122,・・・には、収集期間で示された時間帯内に収集した通信情報が格納される。
図6は、教師データ記憶部の一例を示す図である。教師データ記憶部130には、正常通信リスト131と不正通信リスト132とが格納されている。正常通信リスト131には、正常な通信が行われていた単位期間のリストが設定される。不正通信リスト132には、不正な通信が行われた単位期間のリストが設定される。正常通信リスト131と不正通信リスト132への単位期間の設定は、例えばシステムの管理者が行う。
図7は、学習結果記憶部の一例を示す図である。学習結果記憶部150には、ニューラルネットワーク151、パラメータ群152、および照合パタン153が格納されている。ニューラルネットワーク151は、入力層から出力層まで、ニューロンを表すユニットを接続したものである。図7において、ユニットは円で表されている。
図8は、過学習の抑止策を適用しない場合のデータの分類方法を示す図である。例えば、1つの単位期間ログを、ニューラルネットワーク151を用いた分類対象の入力データ30として、解析部160に入力する場合を想定する。
このように学習部140は、分類誤差を増加させる変換データの量の変分の方向(入力層の誤差)に、照合パタンの変動に対する変換データの量の変分を掛け合わせることにより、分類誤差を増加させる照合パタンの変動の方向、および変動量を算出する。
図10は、過学習の抑止策を適用しない場合の機械学習処理の手順を示すフローチャートの一例である。以下、図10に示す処理をステップ番号に沿って説明する。
[ステップS103]学習部140は、ニューラルネットワークを用いた順伝播および誤差逆伝播により、入力層の誤差ベクトルを取得する。
[ステップS105]学習部140は、選択したレコードの量を「1」だけ増加させたときの、変換データの量の変分ベクトルを算出する。
過学習の抑止策は、過学習が発生しやすい場合に行われる。過学習が発生しやすい場合として、まず教師データが十分にない場合がある。教師データが十分にあるかどうかは、照合パタンの各項目の変数値の組み合わせパタンの数との相対的な比較によって決まる。例えば、教師データ数に対して、照合パタンの各項目の変数値の組み合わせパタンに対応する量をパラメータとしたときのパラメータ数が多いと、機械学習において過学習が発生する。
図21は、照合パタンの結合表現の一例を示す図である。図21には、結合表現を行わない場合の照合パタン321と、結合表現による照合パタン322,323とが示されている。照合パタン321には、通信元ホスト、通信先ホスト、およびポートの組み合わせごとの量が設定されている。照合パタン322は、通信元ホストと通信先ホストの組に対応する量が設定されている。照合パタン323には、通信先ホストとポートとの組に対応する量が設定されている。照合パタン321の各レコードの量の値は、そのレコードに含まれる通信元ホストと通信先ホストとの組に対応する量の値と、そのレコードに含まれる通信先とポートとの組に対応する量の値との積である。なお照合パタン322,323の量は、初期状態ではランダムな値が設定される。
図22は、過学習の抑止策を適用する場合の機械学習処理の手順を示すフローチャートの一例である。以下、図22に示す処理をステップ番号に沿って説明する。なお、図20に示す入力データ311が入力されたときに、図21に示す照合パタン322,323を用いて、機械学習を行うものとする。
[ステップS205]学習部140は、選択したレコードの量を「1」だけ増加させたときの、入力データ312,313それぞれから生成した変換データの量の変分ベクトルを算出する。変分ベクトルは、例えば入力データ312から生成した変換データの量の変分と、入力データ313から生成した変換データの量の変分とを要素とするベクトルである。
入力データがm項間の関係であり、各項目の変数値の数がI1,・・・,Imであり、入力データが、大きさl1,・・・,lnの多次元配列と大きさln,・・・,lmの多次元配列のn次元目の結合(JOIN)により表現できるものとする。この場合、結合表現に変換した照合パタンのレコード数はI1×…×In +ln×…×lmになる。例えば、10種類の通信元ホスト、10種類の通信先ホスト、10種類のポートの間の関係を示す入力データが、10種類の通信元ホストと10種類の通信先ホストの関係と、10種類の通信先ホストと10種類のポートの関係の結合で表現できるものとする。この場合、照合パタンのレコード数は10×10+10×10=200個になる。
第2の実施の形態は、通信ログの分類の機械学習に関する例であるが、通信ログの分類以外にも、入力値の順番が精度に影響する場合がある。例えば、化合物の位置に関わらず活性をもつ構造により、化合物を分類したい場合が考えられる。化合物の分類に対しても、照合パタンを用いて適切な順序付けを行うことで、精度の高い分類が可能となる。
1a 入力層
2 入力データ
3 教師データ
4 第1部分データ
5 第2部分データ
6,7 変換データ
8 誤差
10 機械学習装置
11 記憶部
11a,11b 照合パタン
12 処理部
Claims (5)
- コンピュータに、
複数の項目それぞれの変数値の組み合わせパタンごとに数値が設定された入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、
前記入力データの前記複数の項目のうちの第1項目の変数値それぞれと特定の関係を有する第2項目の変数値が一意に決まる場合、前記複数の項目から前記第2項目を除外した第1項目群内の項目それぞれの変数値の組み合わせパタンと、前記第1項目と前記第2項目とを含む第2項目群内の項目それぞれの変数値の組み合わせパタンとのそれぞれに対応する複数の基準値の配列により、複数の数値をニューラルネットワークへ入力する際の、前記複数の数値の順序付けの基準を示す照合パタンを生成し、
前記入力データに基づいて、前記第1項目群内の項目それぞれの変数値の組み合わせパタンそれぞれ、および前記第2項目群内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出し、
前記複数の入力用数値の入力順序を、前記照合パタンに基づいて決定し、
前記ニューラルネットワークの入力層の複数のユニットへ、前記複数の入力用数値を前記入力順序に従って入力した場合の、前記ニューラルネットワークの出力値を算出し、
前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記複数のユニットへの入力用数値の誤差を算出し、
前記複数のユニットへの入力用数値の誤差に基づいて、前記照合パタンの前記複数の基準値を更新する、
処理を実行させる機械学習プログラム。 - 前記入力データにおける、複数の項目それぞれの変数値の組み合わせパタンごとに設定された数値は、変数値の組み合わせに対応する事象の発生頻度に応じた値であり、
前記複数の入力用数値の算出では、前記第1項目群に含まれない項目の変数値の影響を除外して、前記第1項目群内の項目それぞれの変数値の組み合わせに対応する事象の発生頻度に応じた入力用数値を算出し、前記第2項目群に含まれない項目の変数値の影響を除外して、前記第2項目群内の項目それぞれの変数値の組み合わせに対応する事象の発生頻度に応じた前記入力用数値を算出する、
請求項1記載の機械学習プログラム。 - 前記照合パタンは、前記第1項目群内の項目それぞれの変数値の組み合わせパタンに対応する基準値が設定された第1照合パタンと、前記第2項目群内の項目それぞれの変数値の組み合わせパタンに対応する基準値が設定された第2照合パタンとを含み、
前記複数の基準値の更新では、
前記第1照合パタンまたは前記第2照合パタンの基準値を変化対象値として選択し、
前記第1照合パタンの前記変化対象値を所定量だけ変動させた仮第1照合パタンと前記第2照合パタンとの組、または前記第2照合パタンの前記変化対象値を所定量だけ変動させた仮第2照合パタンと前記第1照合パタンとの組に基づいて、前記複数の入力用数値それぞれの仮の入力順序を決定し、
決定した前記仮の入力順序と、前記第1照合パタンと前記第2照合パタンとの組に基づいて決定した前記入力順序とにおいて、同じ順番となる数値間の差分値を算出し、
前記複数のユニットへの入力値の誤差と、算出された前記差分値とに基づいて、前記照合パタン内の前記変化対象値の増加または減少を決定し、
増加または減少の決定に従って、前記変化対象値として選択された前記照合パタンの基準値を更新する、
請求項1または2記載の機械学習プログラム。 - コンピュータが、
複数の項目それぞれの変数値の組み合わせパタンごとに数値が設定された入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、
前記入力データの前記複数の項目のうちの第1項目の変数値それぞれと特定の関係を有する第2項目の変数値が一意に決まる場合、前記複数の項目から前記第2項目を除外した第1項目群内の項目それぞれの変数値の組み合わせパタンと、前記第1項目と前記第2項目とを含む第2項目群内の項目それぞれの変数値の組み合わせパタンとのそれぞれに対応する複数の基準値の配列により、複数の数値をニューラルネットワークへ入力する際の、前記複数の数値の順序付けの基準を示す照合パタンを生成し、
前記入力データに基づいて、前記第1項目群内の項目それぞれの変数値の組み合わせパタンそれぞれ、および前記第2項目群内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出し、
前記複数の入力用数値の入力順序を、前記照合パタンに基づいて決定し、
前記ニューラルネットワークの入力層の複数のユニットへ、前記複数の入力用数値を前記入力順序に従って入力した場合の、前記ニューラルネットワークの出力値を算出し、
前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記複数のユニットへの入力用数値の誤差を算出し、
前記複数のユニットへの入力用数値の誤差に基づいて、前記照合パタンの前記複数の基準値を更新する、
機械学習方法。 - ニューラルネットワークへ入力する数値の順序付けの基準が複数の基準値の配列で示された照合パタンを記憶する記憶部と、
複数の項目それぞれの変数値の組み合わせパタンごとに数値が設定された入力データと、前記入力データに対する分類の正解を示す教師データとを取得し、前記入力データの前記複数の項目のうちの第1項目の変数値それぞれと特定の関係を有する第2項目の変数値が一意に決まる場合、前記複数の項目から前記第2項目を除外した第1項目群内の項目それぞれの変数値の組み合わせパタンと、前記第1項目と前記第2項目とを含む第2項目群内の項目それぞれの変数値の組み合わせパタンとのそれぞれに対応する複数の基準値の配列により、複数の数値を前記ニューラルネットワークへ入力する際の、前記複数の数値の順序付けの基準を示す前記照合パタンを生成し、前記照合パタンを前記記憶部に格納し、前記入力データに基づいて、前記第1項目群内の項目それぞれの変数値の組み合わせパタンそれぞれ、および前記第2項目群内の項目それぞれの変数値の組み合わせパタンそれぞれに対応する複数の入力用数値を算出し、前記複数の入力用数値の入力順序を、前記照合パタンに基づいて決定し、前記ニューラルネットワークの入力層の複数のユニットへ、前記複数の入力用数値を前記入力順序に従って入力した場合の、前記ニューラルネットワークの出力値を算出し、前記出力値と前記教師データとの誤差に基づいて、前記ニューラルネットワークで正解を得るための、前記複数のユニットへの入力用数値の誤差を算出し、前記複数のユニットへの入力用数値の誤差に基づいて、前記照合パタンの前記複数の基準値を更新する、処理部と、
を有する機械学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172625A JP6898561B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
US16/125,395 US20190080235A1 (en) | 2017-09-08 | 2018-09-07 | Method and apparatus for machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172625A JP6898561B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049782A true JP2019049782A (ja) | 2019-03-28 |
JP6898561B2 JP6898561B2 (ja) | 2021-07-07 |
Family
ID=65631346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172625A Active JP6898561B2 (ja) | 2017-09-08 | 2017-09-08 | 機械学習プログラム、機械学習方法、および機械学習装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190080235A1 (ja) |
JP (1) | JP6898561B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11651585B2 (en) | 2020-03-26 | 2023-05-16 | Fujitsu Limited | Image processing apparatus, image recognition system, and recording medium |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6898562B2 (ja) | 2017-09-08 | 2021-07-07 | 富士通株式会社 | 機械学習プログラム、機械学習方法、および機械学習装置 |
EP3575813B1 (en) * | 2018-05-30 | 2022-06-29 | Siemens Healthcare GmbH | Quantitative mapping of a magnetic resonance imaging parameter by data-driven signal-model learning |
JP7279446B2 (ja) * | 2019-03-20 | 2023-05-23 | 富士通株式会社 | 学習プログラム、学習方法、及び学習装置 |
US11226801B2 (en) * | 2019-10-30 | 2022-01-18 | Mastercard International Incorporated | System and methods for voice controlled automated computer code deployment |
EP4062646A4 (en) * | 2019-11-19 | 2023-10-04 | Captiv8, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING, TRACKING AND MANAGING A PLURALITY OF SOCIAL NETWORK USERS HAVING PREDEFINED CHARACTERISTICS |
US11372853B2 (en) * | 2019-11-25 | 2022-06-28 | Caret Holdings, Inc. | Object-based search processing |
KR102211851B1 (ko) * | 2020-03-20 | 2021-02-03 | 주식회사 루닛 | 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6456991B1 (en) * | 1999-09-01 | 2002-09-24 | Hrl Laboratories, Llc | Classification method and apparatus based on boosting and pruning of multiple classifiers |
JP2006279636A (ja) * | 2005-03-30 | 2006-10-12 | Hitachi Ltd | クライアント間通信ログの整合性保証管理システム |
SG10201404266YA (en) * | 2011-01-19 | 2014-10-30 | Agency Science Tech & Res | A data structure and a method for using the data structure |
JP5810891B2 (ja) * | 2011-12-20 | 2015-11-11 | 富士通株式会社 | 情報処理装置及び動作状態監視方法 |
US9038178B1 (en) * | 2012-06-25 | 2015-05-19 | Emc Corporation | Detection of malware beaconing activities |
US9112895B1 (en) * | 2012-06-25 | 2015-08-18 | Emc Corporation | Anomaly detection system for enterprise network security |
JP6435581B2 (ja) * | 2015-01-29 | 2018-12-12 | パナソニックIpマネジメント株式会社 | 転移学習装置、転移学習システム、転移学習方法およびプログラム |
US10528866B1 (en) * | 2015-09-04 | 2020-01-07 | Google Llc | Training a document classification neural network |
US10839291B2 (en) * | 2017-07-01 | 2020-11-17 | Intel Corporation | Hardened deep neural networks through training from adversarial misclassified data |
-
2017
- 2017-09-08 JP JP2017172625A patent/JP6898561B2/ja active Active
-
2018
- 2018-09-07 US US16/125,395 patent/US20190080235A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11651585B2 (en) | 2020-03-26 | 2023-05-16 | Fujitsu Limited | Image processing apparatus, image recognition system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6898561B2 (ja) | 2021-07-07 |
US20190080235A1 (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6751235B2 (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
JP2019049782A (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
JP6898562B2 (ja) | 機械学習プログラム、機械学習方法、および機械学習装置 | |
US10033754B2 (en) | Cyber threat monitor and control apparatuses, methods and systems | |
US11645581B2 (en) | Meaningfully explaining black-box machine learning models | |
WO2018170454A2 (en) | Using different data sources for a predictive model | |
US10884891B2 (en) | Interactive detection of system anomalies | |
US20200250556A1 (en) | Providing insights about a dynamic machine learning model | |
US12008484B2 (en) | Aggregated feature importance for finding influential business metrics | |
JP7000766B2 (ja) | 学習データ選択プログラム、学習データ選択方法、および、学習データ選択装置 | |
JP5833817B2 (ja) | ドキュメント使用クラスタリングによるユーザタスク表現を近似するための方法 | |
US20200042887A1 (en) | User Interface to Analyze and Navigate Through Decision Logic | |
Udayakumar et al. | Malware classification using machine learning algorithms | |
JP2012208924A (ja) | 適応的重み付けを用いた様々な文書間類似度計算方法に基づいた文書比較方法および文書比較システム | |
US11068509B2 (en) | A/B testing using ego network clusters | |
US11847599B1 (en) | Computing system for automated evaluation of process workflows | |
US7395457B2 (en) | System and method for detecting faults in a system | |
US20230325632A1 (en) | Automated anomaly detection using a hybrid machine learning system | |
Neto et al. | EOCD: An ensemble optimization approach for concept drift applications | |
JP6773972B2 (ja) | データ変換プログラム、データ変換方法、およびデータ変換装置 | |
WO2017198087A1 (en) | Feature-set augmentation using knowledge engine | |
Kiwit et al. | Benchmarking quantum generative learning: A study on scalability and noise resilience using QUARK | |
CORELATD | TRANSFORMED DATSET | |
JP2019159776A (ja) | 情報処理装置及びプログラム | |
Reinthal et al. | Finding the densest common subgraph with linear programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200611 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200625 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6898561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |