JP7234173B2 - モデル学習装置、モデル学習方法及びコンピュータプログラム - Google Patents

モデル学習装置、モデル学習方法及びコンピュータプログラム Download PDF

Info

Publication number
JP7234173B2
JP7234173B2 JP2020038636A JP2020038636A JP7234173B2 JP 7234173 B2 JP7234173 B2 JP 7234173B2 JP 2020038636 A JP2020038636 A JP 2020038636A JP 2020038636 A JP2020038636 A JP 2020038636A JP 7234173 B2 JP7234173 B2 JP 7234173B2
Authority
JP
Japan
Prior art keywords
nodes
model
communication network
learning
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020038636A
Other languages
English (en)
Other versions
JP2021141481A (ja
Inventor
純一 河崎
元一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020038636A priority Critical patent/JP7234173B2/ja
Publication of JP2021141481A publication Critical patent/JP2021141481A/ja
Application granted granted Critical
Publication of JP7234173B2 publication Critical patent/JP7234173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、モデル学習装置、モデル学習方法及びコンピュータプログラムに関する。
従来、通信情報の異常を検知するためのモデルを機械学習により生成する技術が例えば特許文献1に記載されている。特許文献1に記載される従来技術では、通信機器ごとに収集した通信情報を用いて該通信機器による通信情報の特徴をモデルに学習させている。
特開2019-153893号公報
しかし、上述した特許文献1に記載される従来技術では、機械学習により生成されるモデルは各通信機器に個別であるので、通信ネットワーク全体の構成に対応することが難しい。このため、通信ネットワーク全体で収集した通信情報を用いて該通信ネットワークのモデルを生成することが考えられる。この時、通信ネットワークの構成上の変化があった場合などにも円滑に対応することができる技術が要望されている。
本発明は、このような事情を考慮してなされたものであり、その目的は、複数のノードから構成される通信ネットワークを分析するためのモデルを生成する際の効率の向上を図ることにある。
(1)本発明の一態様は、複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習部と、各前記ノードから通信情報を収集するデータ収集部と、前記通信ネットワークのノード数の変化を検知する構成管理部と、前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理部と、を備えるモデル学習装置である。
(2)本発明の一態様は、前記加工ルールは、通信情報の次元数を、前記通信ネットワークのノード数の変化の前後で同一にするものである、上記(1)のモデル学習装置である。
(3)本発明の一態様は、前記加工ルールは、通信情報の各データ項目の特性に応じたルールを有する、上記(1)又は(2)のいずれかのモデル学習装置。
(4)本発明の一態様は、モデル学習装置が、複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習ステップと、前記モデル学習装置が、各前記ノードから通信情報を収集するデータ収集ステップと、前記モデル学習装置が、前記通信ネットワークのノード数の変化を検知する構成管理ステップと、前記モデル学習装置が、前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理ステップと、を含むモデル学習方法である。
(5)本発明の一態様は、コンピュータに、複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習ステップと、各前記ノードから通信情報を収集するデータ収集ステップと、前記通信ネットワークのノード数の変化を検知する構成管理ステップと、前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理ステップと、を実行させるためのコンピュータプログラムである。
本発明によれば、複数のノードから構成される通信ネットワークを分析するためのモデルを生成する際の効率の向上を図ることができるという効果が得られる。
一実施形態に係るモデル学習装置の構成例を示すブロック図である。 一実施形態に係る構成管理部及び学習前処理部の構成例を示すブロック図である。 一実施形態に係るデータ加工例を示す説明図である。 一実施形態に係るモデル学習方法の手順の例を示すフローチャートである。
以下、図面を参照し、本発明の実施形態について説明する。
図1は、一実施形態に係るモデル学習装置の構成例を示すブロック図である。図1において、通信ネットワーク200は、分析対象の通信ネットワークである。通信ネットワーク200は、複数のノードから構成される。モデル学習装置1は、通信ネットワーク200を分析するためのモデルを機械学習により生成する。
通信ネットワーク200は、複数のノードから構成される。本実施形態の一例として、通信ネットワーク200は、NFV(Network Functions Virtualization:ネットワーク機能仮想化)技術を用いたVNF(Virtual Network Function)aにより構築される仮想ネットワークである。VNFaは、3個のサブコンポーネントVNFC(Virtual Network Function Component)a-a,VNFCa-b,VNFCa-cから構成される。各サブコンポーネントVNFCa-a,VNFCa-b,VNFCa-cは、通信トラフィックの輻輳状況に応じて、スケールアウト(ノード数の増加)したり又はスケールイン(ノード数の減少)したりする。
図1の例では、サブコンポーネントVNFCa-cがスケールアウトにより2個のサブコンポーネントVNFCa-c1,VNFCa-c2に増加されている。各サブコンポーネントVNFCa-a,VNFCa-b,VNFCa-c1,VNFCa-c2は、通信ネットワーク200を構成する各ノード201,202,203,204に対応する仮想ノードである。
なお、本実施形態では、NFV技術により動的に構成が変化する仮想ネットワークが分析対象の通信ネットワークであるが、これに限定されない。例えば、CNF(Cloud-Native Network Functions)により構成される通信ネットワーク等の各種の通信ネットワークを分析対象にしてもよい。
図1の例において、モデル学習装置1による機械学習の当初は、通信ネットワーク200は3個のノード201,202,203から構成される。したがって、モデル学習装置1は、モデルの生成当初において、3個のノード201,202,203から構成される通信ネットワーク200を分析するためのモデルを生成する。その後、図1に例示されるように、通信ネットワーク200において、サブコンポーネントVNFCa-cがスケールアウトにより2個のサブコンポーネントVNFCa-c1,VNFCa-c2に増加される。これにより、通信ネットワーク200を構成するノードは、3個のノード201,202,203から4個のノード201,202,203,204に増加される。ここで、本実施形態では、モデル学習装置1がモデルの生成当初から生成しているモデル(3個のノード201,202,203から構成される通信ネットワーク200を分析するためのモデル)をそのまま活用して、4個のノード201,202,203,204から構成される通信ネットワーク200を分析するためのモデルを機械学習により生成することを図る。
従来、モデル生成対象の通信ネットワークに構成上の変化があった場合、当該通信ネットワークの構成上の変化後の通信ネットワークを新たなモデル生成対象にして最初から機械学習をやり直していた。この従来のモデル学習方法では、通信ネットワークの構成上の変化が生じる度に最初から機械学習をやり直すために、モデル生成の効率が悪い。そこで、本実施形態では、モデル生成対象の通信ネットワークに構成上の変化があった場合、当該通信ネットワークの構成上の変化前のモデルを活用することにより、通信ネットワークの構成上の変化後に最初から機械学習をやり直すことを回避してモデル生成の効率の向上を図る。
通信ネットワーク200のネットワーク負荷の増減等によって通信ネットワーク200を構成するノードの個数が増減すると、通信ネットワーク200から得られる収集データの次元数が、ノードの個数の変更前の次元数Xからノードの個数の変更後の次元数Yに変わる。すると、通信ネットワーク200から得られる収集データを機械学習への入力データに使用する場合、ノードの個数の変更前後で機械学習への入力データに使用する収集データの次元数が異なるので、ノードの個数の変更前の学習結果のモデル(入力データに使用する収集データの次元数X)に対して、ノードの個数の変更後の収集データ(次元数Y)を機械学習への入力データに使用して学習を継続することができない。
このため、本実施形態では、ノードの個数の変更前後で機械学習への入力データに使用する収集データの次元数が同一になるように、ノードの個数の変更後の収集データ(次元数Y)を加工する。このデータ加工によって、ノードの個数の変更後の機械学習への入力データに使用する収集データの次元数が、ノードの個数の変更前の機械学習への入力データに使用された収集データの次元数Xと同じになる。これにより、ノードの個数の変更前の学習結果のモデル(入力データに使用する収集データの次元数X)に対して、ノードの個数の変更後の収集データ(次元数Y)が次元数Xに加工された収集データを機械学習への入力データに使用して学習を継続することができるようになる。
以下、本実施形態に係るモデル学習装置及びモデル学習方法について詳細に説明する。
[モデル学習装置]
図1において、モデル学習装置1は、モデル学習部11と、データ収集部12と、構成管理部13と、学習前処理部14と、を備える。
モデル学習装置1の各機能は、モデル学習装置1がCPU(Central Processing Unit:中央演算処理装置)及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、モデル学習装置1として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、モデル学習装置1は、インターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、モデル学習装置1の各機能はクラウドコンピューティングにより実現されてもよい。
モデル学習部11は、通信ネットワーク200を分析するためのモデルを所定の機械学習アルゴリズムにより学習させる。モデル学習部11には、機械学習パラメータGが入力される。機械学習パラメータGは、機械学習アルゴリズムに設定されるパラメータや学習で使用されるデータなどである。機械学習パラメータGによって、モデルの学習に使用される機械学習アルゴリズムが確定する。機械学習パラメータGは、例えばユーザによって指定される。モデルとして、例えば、ランダムフォレストやニューラルネットワークを適用してもよい。
モデル学習部11は、学習前処理部14が生成した学習用データセットを機械学習アルゴリズムの入力データに使用して、通信ネットワーク200を分析するためのモデルの学習を行う。モデル学習部11による学習により、通信ネットワーク200を分析するためのVNFa用分析モデル30が得られる。VNFa用分析モデル30は、例えば、通信ネットワーク200のネットワーク品質を分析するためのネットワーク品質分析モデルである。
データ収集部12は、各ノード201,202,203,204から各通信情報A,B,C1,C2を収集する。通信情報A,B,C1,C2は、通信ネットワーク200のネットワーク品質に関する情報である。通信情報A,B,C1,C2は、例えば、各ノード201,202,203,204のパフォーマンス(処理能力)の状態やアラームの発生状況などを示す情報である。データ収集部12は、各ノード201,202,203,204から収集した各通信情報A,B,C1,C2を蓄積する。また、データ収集部12は、通信ネットワーク200の障害状況に関する情報を収集し、通信情報A,B,C1,C2と共に蓄積する。
構成管理部13は、通信ネットワーク200の構成を管理する。構成管理部13は、通信ネットワーク200の構成上の変化を検知する。構成管理部13は、通信ネットワーク200の構成上の変化の検知結果を、通信ネットワーク200の構成を示す現況構成情報Eに反映させる。構成管理部13は、通信ネットワーク200から直接得られる情報やネットワーク運用管理システムから得られる情報に基づいて、通信ネットワーク200の構成上の変化を検知する。図1の例では、構成管理部13は、通信ネットワーク200についてのMANO(Management and Orchestration)300から得られる情報Dに基づいて、ノードの増減等の通信ネットワーク200の構成上の変化を検知する。
学習前処理部14は、モデル学習部11がモデルの学習に使用する学習用データセットを生成する。学習前処理部14は、データ収集部12が収集した収集データFから学習用データセットを生成する。図1の例では、収集データFは、各ノード201,202,203,204から収集された各通信情報A,B,C1,C2である。学習用データセットは、機械学習アルゴリズムの入力データとして適合するように、収集データFが前処理されたものである。この前処理として、例えば正規化やベクトル化などが挙げられる。
学習前処理部14は、通信ネットワーク200の構成上の変化が検知された場合、当該変化に該当するノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を学習用データセットの生成に使用する。学習前処理部14は、構成管理部13から通知される現況構成情報Eに基づいて、通信ネットワーク200の構成上の変化を検知する。
本実施形態に係る加工ルールの一例は、通信情報の次元数を、通信ネットワーク200の構成上の変化の前後で同一にするものである。本実施形態に係る加工ルールに係る一例は、通信情報の各データ項目の特性に応じたルールを有するものである。
図2は、本実施形態に係る構成管理部及び学習前処理部の構成例を示すブロック図である。図2において、構成管理部13は、構成変化検知部131を備える。構成変化検知部131は、MANO300から受信した情報Dに基づいて、通信ネットワーク200の構成上の変化を検知する。図1の例では、構成変化検知部131は、情報Dに基づいて、通信ネットワーク200において、サブコンポーネントVNFCa-c(ノード)が2個のサブコンポーネントVNFCa-c1(ノード203),VNFCa-c2(ノード204)に1個増加されたことを検知する。
構成管理部13は、現況構成情報Eを保持する。構成変化検知部131は、通信ネットワーク200の構成上の変化の検知結果を現況構成情報Eに反映させる。図1の例では、現況構成情報Eは、通信ネットワーク200のサブコンポーネントVNFCa-c(ノード)が2個のサブコンポーネントVNFCa-c1(ノード203),VNFCa-c2(ノード204)に更新される。更新された現況構成情報Eは、構成管理部13から学習前処理部14へ送信される。
学習前処理部14は、データ抽出・転送部141と、データ加工部142と、加工ルール情報格納部143と、データ前処理部144と、学習用データセット格納部145と、を備える。
データ抽出・転送部141は、現況構成情報Eに基づいて、データ収集部12から受信した収集データFを、データ加工部142とデータ前処理部144とへ振り分ける。具体的には、データ抽出・転送部141は、現況構成情報Eにおいて通信ネットワーク200の構成上の変化があるノードから収集された通信情報をデータ加工部142へ転送し、それ以外のノード(通信ネットワーク200の構成上の変化がないノード)から収集された通信情報をデータ前処理部144へ転送する。図1の例では、通信ネットワーク200の構成上の変化がある各ノード203,204から収集された各通信情報C1,C2がデータ加工部142へ転送され、それ以外の各ノード201,202(通信ネットワーク200の構成上の変化がないノード)から収集された各通信情報A,Bがデータ前処理部144へ転送される。
データ加工部142は、データ抽出・転送部141から受信した通信情報を、現況構成情報Eに基づいた通信ネットワーク200の構成上の変化に該当する所定の加工ルールに従って加工する。所定の加工ルールは、加工ルール情報格納部143に格納されている加工ルール情報により示される。図1の例では、通信ネットワーク200の構成上の変化がある各ノード203,204から収集された各通信情報C1,C2が、加工ルール情報格納部143に格納されている加工ルール情報により示される所定の加工ルールのうち、ノード数増加に対応する加工ルールに従って加工される。データ加工部142は、加工結果の通信情報をデータ前処理部144へ送信する。
データ前処理部144は、データ抽出・転送部141から受信した通信情報と、データ加工部142から受信した加工結果の通信情報とに対して前処理を行って学習用データセットを生成する。学習用データセット格納部145は、データ前処理部144が生成した学習用データセットを格納する。学習用データセット格納部145に格納された学習用データセットは、モデル学習部11によりモデルの学習に使用される。
図3は、本実施形態に係るデータ加工例を示す説明図である。図3において、通信情報C1は、図1に例示されるノード203(VNFCa-c1)から収集されたデータである。通信情報C2は、図1に例示されるノード204(VNFCa-c2)から収集されたデータである。各通信情報C1,C2は、各ノード203,204のパフォーマンスの状態などを示す情報を有する。ノード203,204は、通信ネットワーク200の構成上の変化としてノード数増加に該当するノードである。データ加工部142は、現況構成情報Eに基づいて、サブコンポーネントVNFCa-cがスケールアウトにより2個のサブコンポーネントVNFCa-c1,VNFCa-c2に増加されたことを認識する。次いで、データ加工部142は、加工ルール情報格納部143に格納されている加工ルール情報に示されるサブコンポーネントVNFCa-c用の加工ルールであって、ノード数増加に対応する加工ルールに従って、通信情報C1,C2を加工する。このデータ加工の結果、通信情報C12が生成される。データ加工部142は、生成された通信情報C12をデータ前処理部144へ送信する。
加工ルールは、通信情報の各データ項目の特性に応じてユーザにより事前に定義される。
数値データについての加工ルールのうちノード増加に対応する加工ルールは、例えば平均や最大や最小や合計などの値を算出することである。これにより、ノード増加後の次元数をノード増加前の次元数と同じにする。例えば、図3において、トラフィック(traffic)のデータ項目に対しては、サブコンポーネントVNFCa-cとしてのトラフィックのメトリックを算出するために合計値が加工ルールに適切であるとして設定されている。一方、数値データについての加工ルールのうちノード減少に対応する加工ルールは、例えばデータを複製することである。これにより、ノード減少後の次元数をノード減少前の次元数と同じにする。
ステータスに関するデータ項目についての加工ルールとしては、例えば、論理積(AND)や論理和(OR)の論理演算式を適用することが挙げられる。また、ステータスに関するデータ項目についての加工ルールとして、ステータスの各値の個数に基づいて多数決によりステータスの値を決定するようにしてもよい。
次に図4を参照して本実施形態に係るモデル学習方法を説明する。図4は、本実施形態に係るモデル学習方法の手順の例を示すフローチャートである。ここでは、図1の例を挙げて説明する。
(ステップS1) モデル学習装置1は、各ノード201,202,203,204から各通信情報A,B,C1,C2を収集する。
(ステップS2) モデル学習装置1は、通信ネットワーク200の構成上の変化を検知する。
(ステップS3) ステップS2の結果、通信ネットワーク200の構成上の変化を検知した場合はステップS4に進み、一方、通信ネットワーク200の構成上の変化を検知しなかった場合はステップS5に進む。図1の例では、ノード数増加が検知されてステップS4に進む。
(ステップS4) モデル学習装置1は、ステップS4で検知された通信ネットワークの構成上の変化に該当するノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工する。図1の例では、ステップS4で検知されたノード数増加に該当する各ノード203,204から収集された各通信情報C1,C2が、ノード数増加に該当する所定の加工ルールに従って加工される。
一方、モデル学習装置1は、ステップS4で検知された通信ネットワークの構成上の変化に該当しないノードから収集された通信情報については加工しない。図1の例では、ステップS4で検知されたノード数増加に該当しない各ノード201,202から収集された各通信情報A,Bは加工されない。
(ステップS5) モデル学習装置1は、ステップS4で加工された通信情報をモデルの学習データに使用する。また、モデル学習装置1は、ステップS4で加工されなかった通信情報をそのままモデルの学習データに使用する。図1の例では、ノード数増加に該当する各ノード203,204から収集された各通信情報C1,C2については、ステップS4の加工後の通信情報がモデルの学習データに使用される。一方、ノード数増加に該当しない各ノード201,202から収集された各通信情報A,Bについては、そのままモデルの学習データに使用される。
モデル学習装置1は、モデルの学習データに対して前処理を行って学習用データセットを生成する。生成された学習用データセットは、学習用データセット格納部145に格納される。
(ステップS6) モデル学習装置1は、学習用データセット格納部145に格納された学習用データセットを使用して、モデルの学習を行う。これにより、図1の例では、ノード203,204に係るノード数増加の以前に学習済みのモデルが当該ノード数増加後も引き続き使用されて、当該モデルの学習が継続される。
本実施形態によれば、モデル生成対象の通信ネットワークに構成上の変化があった場合、当該通信ネットワークの構成上の変化前のモデルを活用することができる。これにより、通信ネットワークの構成上の変化後に最初から機械学習をやり直すことを回避してモデル生成の効率の向上を図ることができる。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
また、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…モデル学習装置、11…モデル学習部、12…データ収集部、13…構成管理部、14…学習前処理部、131…構成変化検知部、141…データ抽出・転送部、142…データ加工部、143…加工ルール情報格納部、144…データ前処理部、145…学習用データセット格納部

Claims (5)

  1. 複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習部と、
    各前記ノードから通信情報を収集するデータ収集部と、
    前記通信ネットワークのノード数の変化を検知する構成管理部と、
    前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理部と、
    を備えるモデル学習装置。
  2. 前記加工ルールは、通信情報の次元数を、前記通信ネットワークのノード数の変化の前後で同一にするものである、
    請求項1に記載のモデル学習装置。
  3. 前記加工ルールは、通信情報の各データ項目の特性に応じたルールを有する、
    請求項1又は2のいずれか1項に記載のモデル学習装置。
  4. モデル学習装置が、複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習ステップと、
    前記モデル学習装置が、各前記ノードから通信情報を収集するデータ収集ステップと、
    前記モデル学習装置が、前記通信ネットワークのノード数の変化を検知する構成管理ステップと、
    前記モデル学習装置が、前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理ステップと、
    を含むモデル学習方法。
  5. コンピュータに、
    複数のノードから構成される通信ネットワークを分析するためのモデルを所定の機械学習アルゴリズムにより学習させるモデル学習ステップと、
    各前記ノードから通信情報を収集するデータ収集ステップと、
    前記通信ネットワークのノード数の変化を検知する構成管理ステップと、
    前記通信ネットワークのノード数の変化が検知された場合、当該変化に該当する前記ノードから収集された通信情報を当該変化に該当する所定の加工ルールに従って加工し、加工された通信情報を前記モデルの学習データに使用する学習前処理ステップと、
    を実行させるためのコンピュータプログラム。
JP2020038636A 2020-03-06 2020-03-06 モデル学習装置、モデル学習方法及びコンピュータプログラム Active JP7234173B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020038636A JP7234173B2 (ja) 2020-03-06 2020-03-06 モデル学習装置、モデル学習方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038636A JP7234173B2 (ja) 2020-03-06 2020-03-06 モデル学習装置、モデル学習方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021141481A JP2021141481A (ja) 2021-09-16
JP7234173B2 true JP7234173B2 (ja) 2023-03-07

Family

ID=77669135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038636A Active JP7234173B2 (ja) 2020-03-06 2020-03-06 モデル学習装置、モデル学習方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7234173B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520962A (ja) 2012-04-23 2015-07-23 アルカテル−ルーセント 同期管理グループ
JP2016163352A (ja) 2015-03-04 2016-09-05 フィッシャー−ローズマウント システムズ,インコーポレイテッド 産業用通信ネットワークにおける異常検出、異常検出システム、及び異常検出を行う方法
WO2018180364A1 (ja) 2017-03-29 2018-10-04 Kddi株式会社 障害自動復旧システム、制御装置、手順作成装置およびコンピュータ可読記憶媒体
JP2019215757A (ja) 2018-06-13 2019-12-19 日本電信電話株式会社 検知装置及び検知方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520962A (ja) 2012-04-23 2015-07-23 アルカテル−ルーセント 同期管理グループ
JP2016163352A (ja) 2015-03-04 2016-09-05 フィッシャー−ローズマウント システムズ,インコーポレイテッド 産業用通信ネットワークにおける異常検出、異常検出システム、及び異常検出を行う方法
WO2018180364A1 (ja) 2017-03-29 2018-10-04 Kddi株式会社 障害自動復旧システム、制御装置、手順作成装置およびコンピュータ可読記憶媒体
JP2019215757A (ja) 2018-06-13 2019-12-19 日本電信電話株式会社 検知装置及び検知方法

Also Published As

Publication number Publication date
JP2021141481A (ja) 2021-09-16

Similar Documents

Publication Publication Date Title
Bolón-Canedo et al. Feature selection for high-dimensional data
TWI818999B (zh) 針對新場景的預測模型訓練方法及裝置
US20200356901A1 (en) Target variable distribution-based acceptance of machine learning test data sets
US10354201B1 (en) Scalable clustering for mixed machine learning data
US10599506B2 (en) Methods and systems for identifying action for responding to anomaly in cloud computing system
US20180113746A1 (en) Software service execution apparatus, system, & method
US10268749B1 (en) Clustering sparse high dimensional data using sketches
JP2011138422A (ja) 行動パターン検出装置、行動パターン検出方法及び行動パターン検出プログラム
WO2014199920A1 (ja) 予測関数作成装置、予測関数作成方法、及びコンピュータ読み取り可能な記録媒体
JP2020080021A (ja) 学習プログラム、学習方法および学習装置
JP5673473B2 (ja) 分散計算機システム及び分散計算機システムの制御方法
JP2023534696A (ja) ネットワークトポロジーにおけるアノマリー検知
Tengku Asmawi et al. Cloud failure prediction based on traditional machine learning and deep learning
JP7234173B2 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
CN110716761A (zh) 信息处理平台上软件应用的执行参数的自动和自优化确定
JP2012155394A (ja) 文書分類学習制御装置、文書分類装置およびコンピュータプログラム
US11593700B1 (en) Network-accessible service for exploration of machine learning models and results
Hsiao Signal discrimination using category-preserving bag-of-words model for condition monitoring
CN109597851B (zh) 基于关联关系的特征提取方法和装置
WO2014054233A1 (ja) 情報システムの性能評価装置、方法およびプログラム
Dass et al. Amelioration of big data analytics by employing big data tools and techniques
JP6138701B2 (ja) 分散計算方法及び分散計算システム
Branco et al. Resampling with neighbourhood bias on imbalanced domains
JP7280921B2 (ja) 計算機システム、推論方法、及びプログラム
WO2022239245A1 (ja) 学習方法、推論方法、学習装置、推論装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R150 Certificate of patent or registration of utility model

Ref document number: 7234173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150