JP2014228972A - 情報処理装置、情報処理システム、情報処理方法、および学習プログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、および学習プログラム Download PDF

Info

Publication number
JP2014228972A
JP2014228972A JP2013106659A JP2013106659A JP2014228972A JP 2014228972 A JP2014228972 A JP 2014228972A JP 2013106659 A JP2013106659 A JP 2013106659A JP 2013106659 A JP2013106659 A JP 2013106659A JP 2014228972 A JP2014228972 A JP 2014228972A
Authority
JP
Japan
Prior art keywords
information
learning
information processing
local
model information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013106659A
Other languages
English (en)
Other versions
JP6214922B2 (ja
Inventor
貴広 濱田
Takahiro Hamada
貴広 濱田
浩志 朝倉
Hiroshi Asakura
浩志 朝倉
上野 正巳
Masami Ueno
正巳 上野
秀雄 北爪
Hideo Kitatsume
秀雄 北爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013106659A priority Critical patent/JP6214922B2/ja
Publication of JP2014228972A publication Critical patent/JP2014228972A/ja
Application granted granted Critical
Publication of JP6214922B2 publication Critical patent/JP6214922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】効率的な機械学習を行うことを課題とする。
【解決手段】処理装置10Aでは、外部から入力された入力情報が局所的な特徴を含む情報であるか否かを判定する。そして、入力情報が局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を局所モデル情報記憶部18に記憶させる。そして、処理装置10Aは、局所モデル情報記憶部18に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置10Aを探索し、探索された他の処理装置10Aとの間で局所モデル情報記憶部18に記憶された局所モデル情報を共有する。
【選択図】 図2

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、および学習プログラムに関する。
従来、オンライン機械学習を並列分散処理する技術がある。例えば、並列分散処理する技術を適用したシステムとして、複数のノードで構成されるシステムであって、各ノードがそれぞれ異なるデータを入力として並列的に学習し、適当なタイミングで学習結果である学習モデル情報をノード間で共有して同期をとることで、自ノード以外のノードによる学習モデル情報を自ノードに反映することが可能となる。これにより、システム全体の処理性能を極端に落すことなく、学習精度を高めることができる。
オンライン機械学習並列分散処理フレームワークJubatus(NTT技術ジャーナル 2012.10,pp.30-35),[online],[平成25年5月8日検索]、インターネット<http://www.ntt.co.jp/journal/1210/files/jn201210030.pdf>
しかしながら、上述した従来のオンライン機械学習を並列分散処理する技術では、効率的な機械学習が行えないという課題があった。つまり、従来の技術は、学習処理を分散することが目的であって、広域ネットワークに分散配置して利用することを想定していない。このため、ノード毎の学習をマージしてシステム全体として一意な学習モデル情報を保持するものであり、ノード毎の局所的な学習モデル情報が活かされず、効率的な機械学習が行えないという課題があった。
例えば、広い範囲のネットワークを流れるトラフィックデータやパターンを学習してアノマリ(いわゆる、ある集合に対する異常値や外れ値)を検知する場合、学習するノードを配置する場所ごとに局所的なデータやパターンの特徴がみられる場合があるが、従来のオンライン機械学習を並列分散処理する技術では、局所的なデータやパターンの特徴を考慮して学習を行うことができなかった。
そこで、本願に係る技術は、上述した従来技術の問題に鑑みてなされたものであって、効率的な機械学習を行うことを可能にする情報処理方法、情報処理装置および学習プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するため、本願に係る情報処理装置は、所定のシステムの構成要素の一部である情報処理装置であって、当該情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部と、外部から入力された入力情報が、前記第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析部と、前記分析部によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習部と、前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有部と、を有することを特徴とする。
また、本願に係る情報処理システムは、所定のシステムの構成要素の一部である複数の情報処理装置が通信可能に接続される情報処理システムであって、前記情報処理装置が、当該情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部と、外部から入力された入力情報が、前記第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析部と、前記分析部によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習部と、前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有部と、を有することを特徴とする。
また、本願に係る情報処理方法は、情報処理装置によって実行される情報処理方法であって、外部から入力された入力情報が、前記情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析工程と、前記分析工程によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習工程と、前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有工程と、を含んだことを特徴とする。
本願に開示する情報処理装置、情報処理システム、情報処理方法、および学習プログラムを行うことが可能である。
図1は、第1の実施形態に係るネットワークシステムの構成の一例を説明するための図である。 図2は、第1の実施形態に係る処理装置の構成を説明するための図である。 図3は、局所情報か上位情報かアノマリかを判定する分析処理を説明するための図である。 図4は、第1の実施形態に係るネットワークシステムにおける最上位の処理装置の構成を説明するための図である。 図5は、第1の実施形態に係る管理サーバの構成を説明するための図である。 図6は、第1の実施形態に係る処理装置における処理の流れを説明するためのフローチャートである。 図7は、第2の実施形態に係る処理装置における処理の流れを説明するためのフローチャートである。 図8は、局所情報か上位情報かアノマリかを判定する分析処理を説明するための図である。 図9は、学習プログラムを実行するコンピュータを示す図である。
以下に添付図面を参照して、本願に係る情報処理装置、情報処理システム、情報処理方法、および学習プログラムの実施形態を詳細に説明する。また、以下の実施形態では、ノード(処理装置)が受け付ける入力情報が、通信トラフィックであり、通信トラフィックから異常検知することを例として説明する。また、後述する処理装置は、通信トラフィックが流れるルータまたはネットワークスイッチに組み込まれる、またはルータまたはネットワークスイッチに流れる通信トラフィックをフック、またはインライン接続して処理装置を経由させる、または、ルータまたはネットワークスイッチを流れる通信トラフィックをミラーリングすることで、入力情報を得るものとする。なお、本願に係る情報処理装置、情報処理システム、情報処理方法、および学習プログラムは、以下の実施形態により限定されるものではない。
(第1の実施形態)
まず、第1の実施形態に係るネットワークシステムの概要について説明する。以下、図1を用いて、第1の実施形態に係るネットワークシステムの構成の一例を説明する。図1は、第1の実施形態に係るネットワークシステム1の構成の一例を説明するための図である。
図1に示すように、第1の実施形態に係るネットワークシステム100は、上位ネットワーク(図1では、上位NWと記載)、下位NW(図1では、下位NWと記載)、および、ローカルネットワーク(図1では、ローカルNWと記載)の3つの階層で構成されている。なお、階層が3つである場合に限定されるものではなく、ネットワークシステム100を構成する処理装置の階層は2つ以上であればよい。また、以下では、下位ネットワークにおける処理装置を処理装置10Aと記載し、上位ネットワークにおける処理装置を処理装置10Bと記載するが、特に上位・下位の区別なく説明する場合には、処理装置10と記載する。
下位ネットワークでは、アクセスネットワークまたはインターネットなどのネットワーク上で、複数のルータ20がそれぞれ接続されている。また、下位ネットワークにおける各処理装置10Aは、ルータ20から通信トラフィックを入力情報として取得し、入力情報が配下の局所性に該当するか否かを判定する。そして、処理装置10Aは、局所性に該当する場合には、自装置が学習し、局所性に該当しない場合には、上位の処理装置10Bへ通信トラフィックを転送する。
また、処理装置10Aは、上位の処理装置から学習結果を受信し、自装置の学習結果に反映させる。これにより、上位レベルでの学習結果(一般的特徴)を共有することができる。ここで、学習結果を共有する契機としては、例えば、低位階層の処理装置10Aから所定の契機で共有を依頼した場合でも良いし、または、上位階層の処理装置10Bから所定の契機で送信した場合でもよいし、下位の処理装置10Aからの依頼が所定数に到達した場合や、所定の時間間隔で共有する処理を行うようにしてもよい。
また、処理装置10Aは、同階層の学習結果が類似する他の処理装置10Aと学習結果を共有している。例えば、図1の例では、通信に特徴AがあるNWにおけるルータ20と接続されている下位ネットワーク上のルータ20から通信トラフィックを取得している処理装置10A同士で特徴が局所的な学習結果を共有し、同じく、通信に特徴CがあるNWにおけるルータ20と接続されている下位ネットワーク上のルータ20から通信トラフィックを取得している処理装置10A同士で特徴が局所的な学習結果を共有している。通信に特徴があるNWは、例えば、ホームネットワークやセンサネットワークなどのように用途や機能で特徴づけられる場合や、利用されているネットワーク上のサービスなどの通信内容に基づいて特徴づけられるネットワークなどが考えられる。
なお、同階層の処理装置10A同士で学習結果を共有する契機としては、例えば、上位の処理装置10への依頼またはアノマリとして判定した回数が所定数または所定割合に到達した時、つまり、自装置の判定材料となる局所モデル情報が十分ではないと判定した時でもよいし、所定の時間間隔または自身で学習した回数が所定数に到達した時でもよい。
また、上位ネットワークでは、インターネットやアクセスネットワークなどのネットワーク上で、最上位の処理装置10B、ルータ20および管理サーバ30が配置されている。この最上位の処理装置20の配置場所については、ルータ20の付近に限られるものではなく、データセンタなどの計算リソースが潤沢にある場所であれば、どこに配置してもよい。
処理装置10Bは、下位ネットワークにおける各処理装置10Aから通信トラフィックまたはこれに該当する情報(例えば、通信トラフィックを特徴ベクトル化した情報)を受信して学習し、下位ネットワークの処理装置10Aへ学習結果を送信して学習結果を処理装置10Aに反映させる。
管理サーバ30は、学習結果である学習モデル情報が類似する複数の処理装置10Aに対して、局所モデル情報を送信することで、各処理装置10Aが記憶する局所モデル情報に反映させる。なお、図1の例では、管理サーバ30は、上位ネットワークに1台のみ配置されているが、各階層ごとに配置されてもよい。また、管理サーバ30を配置せずに、階層内の処理装置10のうちいずれか1つが管理サーバ30の機能を備えることでもよい。または、全処理装置10が備えていて、リーダ選出アルゴリズム等により、管理サーバ30を担う処理装置10を1つ決定することとしてもよい。
また、ネットワークシステム100には、ゲートウェイルータ20が配置されたローカルネットワークが複数ある。このローカルネットワークにおける各ルータ20は、それぞれ配置されたネットワークごとに特徴A、B、Cがあるものとする。なお、図1の例では、ローカルネットワークに処理装置10Aを配置していないが、処理装置10Aをローカルネットワークのルータ側に配置するようにしてもよい。この場合には、図1における下位ネットワークの機能をローカルネットワークが有することとなる。なお、ネットワークシステム100において、各処理装置10Aおよび各処理装置10Bは、通信する必要がある他の処理装置10A、10Bの宛先について既知であるものとする。
[処理装置の構成]
次に、図2を用いて、図1に示した処理装置10Aの構成を説明する。図2は、第1の実施形態に係る処理装置10Aの構成を説明するための図である。図2に示すように、処理装置10Aは、通信部11、分析部12、通知部13、依頼部14、学習部15、探索部16、モデル情報共有部17、局所モデル情報記憶部18および上位モデル情報記憶部19を有する。なお、以下で説明する学習処理において、学習アルゴリズムについては、異常検知に適用可能なものであれば既存のアルゴリズムのいずれを用いてもよい。また、後述する管理サーバ30が実行する類似度判定処理についても同様に、既存の手法のうちいずれの手法を用いてもよい。
通信部11は、外部との間で情報の送受信を行う。例えば、通信部11は、ルータ20から通信トラフィックに関する情報などを入力情報として受信する。また、通信部11は、通信トラフィックに関する情報を上位ネットワークの処理装置10Bに送信し、処理装置10Bから上位階層の学習結果を受信する。また、通信部11は、局所モデル情報を管理サーバ30に送信する。
分析部12は、ルータ20から入力された入力情報が局所的な特徴を含む情報であるか否かを判定する。ここで、局所的な特徴について説明すると、例えば、あるシステムにおいて、その特徴は、システム全体に共通する特徴ではなく、局所的なものであって、システムを構成する一部の要素にみられる特徴であり、場合によっては複数の要素間で共通する特徴である。このような特徴を、以下では、「局所的な特徴」と記載する。
また、分析部12は、入力情報が局所的な特徴を含む情報でないと判定した場合には、入力情報が全体的な特徴を含む情報であるか否かを判定する。具体的には、分析部12は、外部の通信装置であるルータ20から受け付けた入力情報を特徴ベクトル化して分析し、局所情報か上位情報かアノマリかを判定する。ここで、局所情報とは、あるシステムにおいて局所的な特徴を含む入力情報であり、上位情報とは、システム全体に共通する特徴を含む入力情報であり、アノマリとは、ある集合に対する異常値や外れ値として判定された入力情報である。
ここで、分析部12が入力情報を特徴ベクトル化する処理について説明する。具体的には、分析部12は、まず、特徴ベクトルを構成する要素をあらかじめ定義し、各処理装置10間で共有しておく。入力情報が通信パケットである場合、例えば、送信元/宛先IPアドレスやMACアドレス、TCP/UDP、ポート番号、データ部の認証情報(例えば、認証情報有りの場合は1、無しの場合は0とする等)などパケットから取得できるあらゆる情報のうち、分析・学習に必要な要素を予め定義しておき、パケットの入力を受付けた場合、このパケットを解析して定義した必要な要素(IPv4アドレスを例えば8ビットごとの要素とする複数要素で構成してもよい)を抽出し、この要素で構成される特徴ベクトル(要素がn個であればn次元の数値ベクトルとなる)を作成する。
次に、分析部12が局所情報か上位情報かアノマリかを判定する処理について説明する。分析部12は、所定の記憶部の学習結果であるモデル情報(特徴ベクトル群であって、所定の学習アルゴリズムで分類されている1以上の集合となる)に対して、特徴ベクトル化された入力情報を入力として与えた場合に、局所情報を示す集合に該当するか、上位情報を示す集合に該当するか、どの集合にも該当しないか(アノマリとみなす)を判定する。
通知部13は、分析部12でアノマリと分析された場合、アノマリと分析された旨を示すメッセージを作成して、通信部11を介して所定の宛先へ送信する。例えば、通知部13は、分析部12によってアノマリと分析された場合には、アノマリと分析された旨を示すメッセージを作成して、通信部11を介して管理者端末(図示せず)へ送信する。
依頼部14は、分析部12で局所モデル情報にも上位モデル情報にも該当しないと判定された場合には、上位の処理装置10Bへ処理を依頼するメッセージを作成して、通信部11を介して上位の処理装置10Bへメッセージを送信する。これにより、上位の処理装置10Bが特徴ベクトル化する手順を省略できる。
学習部15は、分析部12によって入力情報が局所モデル情報記憶部18に記憶された局所モデル情報を参照し、ネットワークシステム100において局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を局所モデル情報記憶部18に記憶させる。
具体的には、学習部15は、分析部12で局所情報であると分析された場合には、その入力情報を学習して結果を局所モデル情報記憶部18に記憶させる。ここで、学習部15による学習処理について説明する。学習部15は、特徴ベクトルを所定の記憶部に記憶(追記)するとともに、記憶された特徴ベクトル群を、所定の学習アルゴリズムに基づいて分類する。異常検知の学習アルゴリズムとして、例えば、LOF(Local Outlier Factor)が適用可能である。
また、ここで学習とは、所定の記憶部に特徴ベクトル情報を記憶して、所定の記憶部に記憶されている特徴ベクトル情報群から集合の特徴情報(例えば、分類であれば集合を分類するための境界を示す情報など)を導出する。この特徴情報を用いることで分析が可能となる。
ここで、図3の例を用いて、学習処理について説明する。図3の例では、上位モデル情報の領域と局所モデル情報の領域が独立している場合(図3の「A」参照)、上位モデル情報の領域と局所モデル情報の領域が一部重複している場合(図3の「B」参照)、上位モデル情報の領域が局所モデル情報の領域に包含されている場合(図3の「C」参照)、局所モデル情報の領域が上位モデル情報の領域に包含されている場合(図4の「D」)の4つのケースについて説明する。
まず、上位モデル情報の領域と局所モデル情報の領域が独立している場合(図3の「A」参照)であり、(1)局所モデル情報の集合領域と、(2)上位モデル情報の集合領域とでそれぞれ分かれている。また、局所モデル情報の集合領域および上位モデル情報の集合領域に該当しない情報が、(3)アノマリと分析される。
また、上位モデル情報の領域と局所モデル情報の領域が一部重複している場合(図3の「B」参照)では、(1)局所モデル情報の集合領域と、(2)上位モデル情報の集合領域とでそれぞれ分かれている。また、局所モデル情報の集合領域および上位モデル情報の集合領域に該当しない情報が、(3)アノマリと分析される。また、上位モデル情報の領域と局所モデル情報の領域が一部重複している領域については、(4)局所モデル情報の集合領域に振り分ける。なお、上位モデル情報の領域と局所モデル情報の領域が一部重複している領域については、局所モデル情報の集合領域に振り分けずに、上位モデルの情報の集合領域に振り分けるように設定してもよい。
また、上位モデル情報の領域が局所モデル情報の領域に包含されている場合(図3の「C」参照)では、(1)局所モデル情報の集合領域だけでなく、局所モデル情報の領域に包含されている上位モデル情報の領域についても、(2)局所モデル情報の集合領域に振り分ける。また、局所モデル情報の集合領域および上位モデル情報の集合領域に該当しない情報が、(3)アノマリと分析される。なお、局所モデル情報の領域に包含されている上位モデル情報の領域については、局所モデル情報の集合領域に振り分けずに、上位モデルの情報の集合領域に振り分けるように設定してもよい。
また、局所モデル情報の領域が上位モデル情報の領域に包含されている場合(図4の「D」)では、上位モデル情報の領域に包含されている局所モデル情報の領域を(1)局所モデル情報の集合領域とし、局所モデル情報の領域を包含する上位モデル情報の領域を(2)上位モデル情報の領域とする。また、局所モデル情報の集合領域および上位モデル情報の集合領域に該当しない情報が、(3)アノマリと分析される。なお、上位モデル情報の領域に包含されている局所モデル情報の領域については、局所モデル情報の集合領域に振り分けずに、上位モデルの情報の集合領域に振り分けるように設定してもよい。
探索部16は、局所モデル情報記憶部18に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置を探索する。具体的には、探索部16は、局所モデル情報記憶部18に記憶されている情報と類似する情報を記憶している他の処理装置10Aを探索する。なお、この処理装置10Aが配置される階層で、処理装置が1つのみの場合は、探索部16やモデル情報共有部17が不要となる。
モデル情報共有部17は、探索部16によって探索された他の情報処理装置10Aとの間で局所モデル情報記憶部18に記憶された局所モデル情報を共有する。具体的には、モデル情報共有部17は、外部から受けた学習結果を、学習結果の内容を判別して、局所モデル情報記憶部18または上位モデル情報記憶部19に対して、追記、更新、統合、集約、削除などを行うことによって記憶させる。局所または上位を識別できる情報が学習結果に含まれている場合は、その識別情報で判定する。また、モデル情報共有部17は、管理サーバから受信した局所モデル情報を局所モデル情報記憶部18に反映させる。また、他の処理装置と局所モデル情報や上位モデル情報を共有する契機に関する情報を管理する。
局所モデル情報記憶部18は、自処理装置10Aが学習した結果、または、この学習結果と類似する他処理装置10Aによる学習結果である局所モデル情報が記憶される。上位モデル情報記憶部19は、上位の処理装置が学習した結果が記憶される。
次に、ネットワークシステム100における上位の処理装置10Bの構成を説明する。図4は、第1の実施形態に係るネットワークシステムにおける最上位の処理装置の構成を説明するための図である。図4に示すように、サーバ装置10は、通信部11、分析部12、通知部13、学習部15、探索部16、モデル情報共有部17および局所モデル情報記憶部18を有する。なお、図2の処理装置10Aと同様の構成については説明を省略する。処理装置10Bは、n階層構成において、最上位のn階層目の処理装置である。
通信部11は、下位階層の各処理装置10Aから上位情報、すなわち、処理装置10Aにより上位情報と判定された通信トラフィックまたは特徴ベクトル化された情報を受信する。また、通信部11は、処理装置10Bの学習結果であるモデル情報を下位階層の各処理装置10Aに送信する。
探索部16は、局所モデル情報記憶部18に記憶されている情報と類似する情報を記憶している他の処理装置を探索するのではなく、同階層に配置されている他の処理装置10Bを探索する。つまり、最上位の階層であるため、同階層に配置されている他の処理装置10Bとは無条件にモデル情報を共有することになる。なお、この処理装置10Bが配置される階層で、処理装置10Bが一つのみの場合には、他の処理装置10Bとモデル情報を共有する必要がないので、探索部16やモデル情報共有部17が不要となる。局所モデル情報記憶部18は、ネットワークシステム100全体に共通するモデル情報を記憶する。
[管理サーバ構成]
次に、図5を用いて、図1に示した管理サーバ30の構成を説明する。図5は、第1の実施形態に係る管理サーバの構成を説明するための図である。図5に示すように、管理サーバ30は、通信部31、類似度判定部32、学習モデル情報記憶部33および類似情報記憶部34を有する。
通信部31は、各処理装置10から局所モデル情報を受信し、受信した局所モデル情報を送信元の処理装置10に関する情報(例えば、識別情報およびアドレス)と対応付けて学習モデル情報記憶部33に記憶する。
類似度判定部32は、学習モデル情報記憶部33に記憶された局所モデル情報の類似性を判定し、判定の結果を類似情報記憶部34に記憶させる。ここで局所モデル情報間の類似性を判定する処理の一例について説明する。例えば、以下に説明するように、類似度判定部32は、計算した係数「sim」として、ジャッカード係数、ダイス係数、シンプソン係数を求め、計算した係数「sim」が所定の閾値以上であれば、類似すると判定する。なお、ジャッカード係数、ダイス係数、シンプソン係数の3つの係数を求めて類似性を判定しても良いし、いずれか1つまたは2つの係数を求めて類似性を判定しても良い。
例えば、集合XとYの共通要素数を少なくとも一方にある要素の総数で割った「sim=|X∩Y|/|X∪Y|」をジャッカード係数という。X∪Yの要素を、z1、z2・・・znとして、ベクトルx=(x1、x2・・・xn)を、(if zi∈X)、xi=0(otherwise)として定める。ベクトルYも同様に定めると、ジャッカード係数は、「sim=x・y/(Σxi+Σyi−x×y)」とあらわされる。
また、例えば、集合XとYの共通要素を各集合の要素数の平均で割った「sim=2×|X∩Y|/(|X|+|Y|)」をダイス係数という。X、Yに対応するベクトルx、yを使えば、「sim=2×x・y/(Σxi+Σyi)」とあらわされる。
また、例えば、集合XとYの共通要素数を各集合の要素数の最小値で割ったもの「sim=|X∩Y|/min(|X|,|Y|」をシンプソン係数という。X、Yに対応するベクトルx、yを使えば、「sim=x・y/min(Σxi,Σyi)」とあらわされる。
また、類似度判定部32は、処理装置10から局所モデル情報を受付けるたびに、学習モデル情報記憶部内の情報を用いて類似度判定を行ってもよく、所定の契機で、学習モデル情報記憶部内の情報を用いて類似度判定を行ってもよい。また、類似度判定部32は、例えば、処理装置Aと処理装置Bの局所モデル情報が類似すると判定した場合に、処理装置Aには処理装置Bの局所モデル情報を送信し、処理装置Bには処理装置Aの局所モデル情報を送信する。3以上の処理装置が類似の場合も同様である。
また、例えば、処理装置AとBの局所モデル情報が類似することが類似情報記憶部34に既に記憶されている場合には、処理装置Cと処理装置Aが類似すると判定した時に、類似情報記憶部34内の情報を用いて判定を省略し、処理装置Bと処理装置Cも類似すると判定してもよい。
学習モデル情報記憶部33は、局所モデル情報と、該局所モデル情報の送信元である送信元の処理装置10に関する情報とを対応付けて記憶する。例えば、学習モデル情報記憶部33は、局所モデル情報と、送信元の処理装置10を一意に識別する識別情報と、送信元の処理装置10のアドレスとを対応付けて記憶する。学習モデル情報記憶部33と類似情報記憶部34が記憶している情報を、識別情報で関係づけることで、同一集合に属する学習モデル情報及びこの学習モデル情報を記憶している処理装置を特定する。
類似情報記憶部34は、類似度判定部32によって類似すると判定した学習モデル情報の識別情報を、類似する集合として識別可能な類似モデル識別情報と対応付けて、類似情報記憶部に記憶する。
[処理装置の処理]
次に、図6を用いて、第1の実施形態に係る処理装置10Aの処理の手順を説明する。図6は、第1の実施形態に係る処理装置における処理の流れを説明するためのフローチャートである。
処理装置10Aの通信部11は、外部の通信装置であるルータ20から通信トラフィックに関する情報を含むパケットを受信すると、分析部12に対して通信トラフィックを入力情報として入力する(ステップS101)。そして、分析部12は、入力された入力情報を予め決められた形式に基づいて特徴ベクトル化する(ステップS102)。
そして、分析部12は、局所情報、つまり局所的な特徴を示す情報であるか否かを判定する。具体的には、分析部12は、特徴ベクトル化されたパケット情報と局所モデル情報記憶部18に記憶されている情報を用いて、このパケット情報が局所情報に該当するか否かを判定する(ステップS103)。
つまり、局所情報に「該当」とは、局所情報で構成される集合に属する、または、この集合と近い距離に位置することを意味する。なお、近い距離とは、集合には属さないけれど、このパケット情報の点(もしくはベクトル)を取り込んで新たな集合を構成してもよい距離である。この距離内にあるパケット情報の点を取り込んで新たな集合を構成した場合には、集合が広がることとなる。
この結果、分析部12は、パケット情報が局所情報に該当すると判定した場合には(ステップS103肯定)、パケット情報を学習部15に通知する。そして、学習部15は、分析部12から受信したパケット情報を学習し(ステップS107)、その結果を用いて局所モデル情報記憶部18の情報を更新して処理を終了する。
また、分析部12は、パケット情報が局所情報に該当しないと判定した場合には(ステップS103否定)、パケット情報と上位モデル情報記憶部19に記憶されている情報を用いて、パケット情報が上位情報、つまりシステム全体に共通する特徴を示す情報に該当するか判定する(ステップS104)。なお、ステップS103において、パケット情報が局所情報に該当しないと判定した場合に、上位の処理装置10Bへ分析を依頼し、上位の処理装置10Bに上位情報に該当するかアノマリに該当するかを分析させてもよい。この際、上位の処理装置10Bがアノマリと判定した場合には、判定結果を通知してもらい、アノマリであることを把握した上で、後述するS106の処理へ移行してもよい。
また、ステップS104における判定の結果、パケット情報が上位情報に該当する場合には(ステップS104肯定)、依頼部14は、所定の上位の処理装置10Bへ分析を依頼するメッセージを作成し、パケット情報を通信部11を介して送信する(ステップS105)。
また、パケット情報が上位情報に該当しなかった場合には(ステップS104否定)、通知部13は、アノマリを検知した旨を示すメッセージを作成し、管理者端末等の宛先へ通知する(ステップS106)。そして、アノマリを検知した旨を通知した後、学習部15は、分析部12から受信したパケット情報を学習し(ステップS107)、その結果を用いて局所モデル情報記憶部18の情報を更新して処理を終了する。なお、アノマリを検知した場合には、ステップS107の学習処理を行う代わりに、上位の処理装置10Bへ分析・学習を依頼してもよい。
このように、ネットワークシステム100は、分析・学習を行うノード、すわなち、処理装置10を多階層の構成にする。まず下位のノード(処理装置10A)は、受付けた入力に対してそのノードが扱う範囲の局所的なレベルで分析・学習を試み、入力がその範囲に該当しない場合は、階層的に上位に位置するノード(処理装置10B)に分析・学習を委ねる。上位のノードによる学習結果はその下位ノードと共有し、下位のノードによる学習結果は、その傾向が類似する同階層の他ノードと共有する。なお、上位階層のノードによる学習結果も同様に、学習結果の傾向が類似する同階層の他ノードと共有してもよい。
これにより、局所性の強い情報は全体で集約せずに局所的な範囲で学習し、その特徴が類似するノードとの間で共有することで、学習結果の局所性と全体性の両方を精緻化することが可能となり、より深い分析に適用することが可能となる。また、ネットワークへのサイバー攻撃に対するアノマリ検知の適用においては、攻撃の類似性や局所性を自動分析できる。
[第1の実施形態の効果]
上述してきたように、第1の実施形態にかかる処理装置10Aでは、外部から入力された入力情報が局所的な特徴を含む情報であるか否かを判定する。そして、入力情報が局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を局所モデル情報記憶部18に記憶させる。そして、処理装置10Aは、局所モデル情報記憶部18に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置10Aを探索し、探索された他の情報処理装置10Aとの間で局所モデル情報記憶部18に記憶された局所モデル情報を共有する。これにより、効率的な機械学習を行うことが可能である。つまり、第1の実施形態にかかる処理装置10Aでは、システム全体に共通する特徴は全体で共有し、局所的な特徴はシステム全体で共有する必要はなく、その局所的な特徴において共通している局所間でのみ共有することで、システム全体の処理負荷を低減することができ、効率的な機械学習を行うことが可能である。
(第2の実施形態)
上述した第1の実施形態においては、ルータ20から受信したパケット情報が局所情報に該当すると判定した場合には、パケット情報を学習し、その結果を用いて局所モデル情報記憶部18の情報を更新する場合を説明した。しかし、上位モデル情報の領域と局所モデル情報の領域が重複している等の場合には、パケット情報が局所情報に該当し、且つ、上位情報に該当することがあり得る。
そこで、以下の第2の実施形態では、ルータ20から受信したパケット情報が局所情報に該当すると判定した場合でも、その後、パケット情報が上位情報に該当するか否かを判定する場合について説明する。ここでは、図7を用いて、第2の実施形態に係る処理装置10Aにおける処理の流れを説明する。図7は、第2の実施形態に係る処理装置における処理の流れを説明するためのフローチャートである。なお、第1の実施形態と同様の部分については説明を省略する。
図7に示すように、第2の実施形態に係る処理装置10Aの分析部12では、パケット情報が局所情報に該当すると判定した場合には(ステップS203肯定)、パケット情報が上位情報に該当するか否かを判定する(ステップS207)。そして、分析部12が上位情報に該当しないと判定した場合には(ステップS207否定)、学習部15は、分析部12から受信したパケット情報を学習し(ステップS208)、その結果を用いて局所モデル情報記憶部18の情報を更新して処理を終了する。
また、分析部12が上位情報に該当すると判定した場合には(ステップS207肯定)、依頼部14が、所定の上位の処理装置10Bへ分析を依頼するメッセージを作成し、パケット情報を通信部11を介して送信するか、または、学習部15が、分析部12から受信したパケット情報を学習するか、または、上位の処理装置10Bへ分析を依頼する処理と自処理装置10Aで学習する処理とを両方行うか、いずれか予め設定された処理を行う(ステップS209)。これにより、パケット情報のより詳細な分類が可能となる。
つまり、例えば、第1の実施形態に係る処理装置では、上位モデル情報の領域と局所モデル情報の領域が一部重複している場合(図3の「B」参照)において、上位モデル情報の領域と局所モデル情報の領域が一部重複している領域については、(4)局所モデル情報の集合領域に振り分けられていた。これに対して、第2の実施形態に係る処理装置10Aでは、図8に示すように、上位モデル情報の領域と局所モデル情報の領域が一部重複している場合(図8の「B」参照)において、上位モデル情報の領域と局所モデル情報の領域が一部重複している領域を、設定に応じて、上位モデル情報の領域または局所モデル情報の領域のいずれかに振り分けることができる。
また、局所モデル情報の領域に包含されている上位モデル情報の領域(図3の「C」参照)や、上位モデル情報の領域に包含されている局所モデル情報の領域(図3の「D」参照)についても、同様に、設定に応じて、上位モデル情報の領域または局所モデル情報の領域のいずれかに振り分けることができる。
つまり、ステップS209において、上位の処理装置10Bへ分析を依頼する処理を行うか、自装置で学習する処理を行うか、または、両方の処理を行うかに応じて、例えば、上位モデル情報の領域と局所モデル情報の領域が一部重複している領域が上位モデル情報の領域となるか局所モデル情報の領域となるかが変化する。
(第3の実施形態)
これまで第1、2の実施形態を説明したが、本願に係る実施形態は、第1、2の実施形態に限定されるものではない。すなわち、これらの実施形態は、その他の様々な形態で実行されることが可能であり、種々の省略、置き換え、変更を行うことができる。
処理装置10Aが管理サーバ30に局所モデル情報を送信するトラフィックコストを低減するため、自身がどの処理装置10Aと局所モデル情報が類似するかのみを管理サーバ30に問合せ、宛先の応答を受けて、処理装置10A間で局所モデル情報を共有するようにしてもよい。例えば、各処理装置10Aは、探索部16で、自身が記憶している局所モデル情報を要約したメタ情報を生成し、管理サーバ30に送信する。そして、管理サーバ30は、受信したメタ情報を送信元の処理装置10Aと対応付けて記憶する。続いて、管理サーバ30は、受信したメタ情報と既に記憶しているメタ情報との間の類似性を判定する。
例えば、処理装置Aと処理装置Bのメタ情報が類似すると判定した場合、処理装置Aには処理装置Bが類似している旨のメッセージ(類似する処理装置の宛先を含む)を送信し、処理装置Bには処理装置Aが類似している旨のメッセージを送信する。
処理装置10Aは、管理サーバからメッセージを受信すると、類似する処理装置10Aに局所モデル情報を要求し、局所モデル情報の応答を受けた場合にモデル情報共有部を用いて局所モデル情報記憶部18に反映させる。なお、この時、処理装置Aが自身の局所モデル情報を処理装置Bに送信して、処理装置Aの局所モデル情報を処理装置Bに反映してもよい。
また、管理サーバ30不在で、処理装置10A間で類似性を判定し、局所モデル情報を共有するようにしてもよい。処理装置10Aは、自身が記憶している局所モデル情報を要約したメタ情報を生成し、フラッディング方式やブロードキャスト方式、または既知のP2P(Peer to Peer)のルーティングアルゴリズムに従って、同階層の他の処理装置に送信する。同階層の処理装置は所定のセグメントのネットワークに所属していることが望ましい。
そして、メタ情報を受信した処理装置10Aは、モデル情報共有部17にて、自身が記憶している局所モデル情報(生成済みの要約したメタ情報)と類似すると判定した場合、送信元に対して、局所モデル情報を送信する。つまり、局所モデル情報記憶部18または他の記憶部にメタ情報を記憶させていることになる。そして、処理装置10Aは、局所モデル情報の応答を受けた場合にモデル情報共有部17を用いて局所モデル情報記憶部18に反映させる。この時、反映した処理装置10Aは、自身の局所モデル情報を応答してくれた処理装置に送信して、受信した処理装置が処理装置10Aの局所モデル情報を反映してもよい。
ここでメタ情報の生成処理について説明する。各処理装置10Aが局所モデル情報記憶部18に記憶されている情報を要約する方法として、例えば、学習アルゴリズムにLOFを適用した場合、特徴ベクトルの集合の中心点や密度、中心点からの距離等を算出することができるので、これらの値の1以上からなる組をメタ情報として利用することができる。これにより、異なる集合(局所モデル情報)間の距離や密度がそれぞれ所定の閾値以内にある場合、これらの集合を類似するものと判定することができる。
[探索・問い合わせ処理]
また、ネットワークの特徴が動的に変化する場合には、適当な契機のたびにネットワークの特徴が類似する相手を探索する又は問合せて見つけることが望ましい。一方、例えば、ネットワークの特徴が静的であり特徴に大きな変化がないような場合には、共有する相手となる処理装置の宛先をあらかじめ記憶しておくことで,探索や問合せの処理を省略することができる。
[機械学習]
また、上述した各処理装置による機械学習は、教師あり学習でも教師なし学習でもよく、また機械学習に限らずデータマインニング技術などのようなデータを分類可能なアルゴリズムを適用してもよい。教師ありの学習の場合は、事前に各処理装置がそれぞれ局所情報として判断すべきデータセットや局所情報として判断するべきではないデータセットを学習させて局所モデル情報記憶部18に記憶させておいてもよい。
[分析手順]
また、上述した処理装置の説明において、まず、入力情報が局所情報に該当するか否かを分析して、該当しなかった場合は、上位情報に該当するか否かを分析する場合を説明したが、この限りではなく、手順を簡略化することとしてもよい。例えば、まず上位情報に該当するか否かを分析し、該当しなかった場合は、局所情報に該当するものとする分析結果としてもよい。これは、上位情報と局所情報に二分できる情報集合の空間を扱う場合に有用である。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、通知部13aおよび依頼部14を統合してもよい。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
また、上記実施形態において説明した処理装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、第1の実施形態に係る処理装置10が実行する処理をコンピュータが実行可能な言語で記述した学習プログラムを作成することもできる。この場合、コンピュータが学習プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる学習プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録され学習プログラムをコンピュータに読み込ませて実行することにより上記第1の実施形態と同様の処理を実現してもよい。以下に、図2に示した処理装置10と同様の機能を実現する学習プログラムを実行するコンピュータの一例を説明する。
図9は、学習プログラムを実行するコンピュータ1000を示す図である。図9に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、図9に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図9に例示するように、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、図9に例示するように、ディスクドライブ1041に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1041に挿入される。シリアルポートインタフェース1050は、図9に例示するように、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、図9に例示するように、例えばディスプレイ1061に接続される。
ここで、図9に例示するように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の学習プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1031に記憶される。
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1031に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
なお、学習プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、学習プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10A、10B 処理装置
11 通信部
12 分析部
13 通知部
14 依頼部
15 学習部
16 探索部
17 モデル情報共有部
18 局所モデル情報記憶部
19 上位モデル情報記憶部
30 管理サーバ

Claims (8)

  1. 所定のシステムの構成要素の一部である情報処理装置であって、
    当該情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部と、
    外部から入力された入力情報が、前記第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析部と、
    前記分析部によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習部と、
    前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有部と、
    を有することを特徴とする情報処理装置。
  2. 前記情報処理装置よりも上位の情報処理装置により前記システムに共通する特徴を含む情報を用いて学習された学習の結果である全体モデル情報を記憶する第二の記憶部をさらに有し、
    前記分析部は、前記入力情報が局所的な特徴を含む情報でないと判定した場合には、前記第二の記憶部に記憶された全体モデル情報を参照し、前記入力情報が、前記システムに共通する特徴を含む情報であるか否かを判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記分析部は、前記入力情報が局所的な特徴を含む情報でないと判定した場合には、前記入力情報が、前記システムに共通する特徴を含む情報であるか否かを判定し、
    前記分析部によって前記入力情報が、前記システムに共通する特徴を含む情報であると判定された場合には、前記情報処理装置よりも上位の情報処理装置へ前記入力情報の分析を依頼する依頼部をさらに有することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記情報処理装置よりも上位の情報処理装置から、該上位の情報処理装置が学習した学習結果を取得し、該学習結果を第二の記憶部に記憶された全体モデル情報に反映させる反映部をさらに有することを特徴とする請求項2または3に記載の情報処理装置。
  5. 所定のシステムの構成要素の一部である複数の情報処理装置が通信可能に接続される情報処理システムであって、
    前記情報処理装置が、
    当該情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部と、
    外部から入力された入力情報が、前記第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析部と、
    前記分析部によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習部と、
    前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有部と、
    を有することを特徴とする情報処理システム。
  6. 前記情報処理システムは、前記複数の情報処理装置よりも上位の情報処理装置を有し、
    前記分析部は、前記入力情報が局所的な特徴を含む情報でないと判定した場合には、前記入力情報が、前記システムに共通する特徴を含む情報であるか否かを判定し、
    前記情報処理装置が、
    前記分析部によって前記入力情報が、前記システムに共通する特徴を含む情報であると判定された場合には、前記上位の情報処理装置へ前記入力情報の分析を依頼する依頼部と、
    前記上位の情報処理装置から、該上位の情報処理装置が学習した学習結果を受信した場合には、該学習結果を第二の記憶部に記憶された全体モデル情報に反映させる反映部と、をさらに有し、
    前記上位の情報処理装置が、
    下位の情報処理装置から入力情報の分析の依頼を受け付けた場合に、該入力情報を用いて学習を行う上位学習部と、
    前記上位学習部によって学習された学習結果を前記下位の情報処理装置に送信する送信部と、
    を有することを特徴とする請求項5に記載の情報処理システム。
  7. 情報処理装置によって実行される情報処理方法であって、
    外部から入力された入力情報が、前記情報処理装置によって学習された学習の結果である局所モデル情報を記憶する第一の記憶部に記憶された局所モデル情報を参照し、前記システムにおいて局所的な特徴を含む情報であるか否かを判定する分析工程と、
    前記分析工程によって入力情報が、前記システムにおいて局所的な特徴を含む情報であると判定された場合には、該入力情報を用いて学習を行い、該学習の結果である局所モデル情報を前記第一の記憶部に記憶させる学習工程と、
    前記第一の記憶部に記憶された局所モデル情報と類似する局所モデル情報を記憶する他の情報処理装置との間で前記第一の記憶部に記憶された局所モデル情報を共有する共有工程と、
    を含んだことを特徴とする情報処理方法。
  8. コンピュータを請求項1〜4のいずれか一つに記載の情報処理装置として機能させるための学習プログラム。
JP2013106659A 2013-05-20 2013-05-20 情報処理装置、情報処理システム、情報処理方法、および学習プログラム Active JP6214922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013106659A JP6214922B2 (ja) 2013-05-20 2013-05-20 情報処理装置、情報処理システム、情報処理方法、および学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013106659A JP6214922B2 (ja) 2013-05-20 2013-05-20 情報処理装置、情報処理システム、情報処理方法、および学習プログラム

Publications (2)

Publication Number Publication Date
JP2014228972A true JP2014228972A (ja) 2014-12-08
JP6214922B2 JP6214922B2 (ja) 2017-10-18

Family

ID=52128788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013106659A Active JP6214922B2 (ja) 2013-05-20 2013-05-20 情報処理装置、情報処理システム、情報処理方法、および学習プログラム

Country Status (1)

Country Link
JP (1) JP6214922B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177418A (ja) * 2015-03-19 2016-10-06 コニカミノルタ株式会社 読影結果評価装置及びプログラム
JP6059375B1 (ja) * 2016-02-09 2017-01-11 ファナック株式会社 生産制御システムおよび統合生産制御システム
JP2017030067A (ja) * 2015-07-30 2017-02-09 ファナック株式会社 加工時間測定機能とオンマシン測定機能を有する制御装置付き加工装置
US20170344909A1 (en) * 2016-05-27 2017-11-30 Fanuc Corporation Machine learning device, failure prediction device, machine system and machine learning method for learning end-of-life failure condition
JP2018043338A (ja) * 2016-09-16 2018-03-22 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
JP2018510399A (ja) * 2015-01-22 2018-04-12 株式会社Preferred Networks 異種環境におけるエッジデバイスのためのモデルフィルタリングおよびモデルミキシングによる機械学習
JP2018106417A (ja) * 2016-12-26 2018-07-05 ファナック株式会社 数値制御装置及び機械学習装置
WO2018162955A1 (en) 2017-03-09 2018-09-13 Omron Corporation Method, entity, system, computer program, and medium for preparing learning data
WO2018168536A1 (en) 2017-03-14 2018-09-20 Omron Corporation Learning apparatus and learning method
WO2018168537A1 (en) 2017-03-14 2018-09-20 Omron Corporation Learning target apparatus and operating method
WO2019008853A1 (ja) * 2017-07-07 2019-01-10 ソニー株式会社 提供装置、処理装置、情報処理方法、およびプログラム
JP2019110513A (ja) * 2017-12-15 2019-07-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 異常検知方法、学習方法、異常検知装置、および、学習装置
JPWO2018131311A1 (ja) * 2017-01-10 2019-11-07 日本電気株式会社 センシングシステム、センサノード装置、センサ測定値処理方法及びプログラム
JP2020123379A (ja) * 2015-01-22 2020-08-13 株式会社Preferred Networks 機械学習の異種エッジデバイス、方法、およびシステム
US10810018B2 (en) 2016-03-14 2020-10-20 Omron Corporation Device with extensibility
US11375019B2 (en) 2017-03-21 2022-06-28 Preferred Networks, Inc. Server device, learned model providing program, learned model providing method, and learned model providing system
US11475289B2 (en) 2015-06-08 2022-10-18 Preferred Networks, Inc. Learning device unit
WO2023032637A1 (ja) * 2021-08-31 2023-03-09 東京エレクトロン株式会社 情報処理方法、情報処理装置、及び情報処理システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300263A (ja) * 2006-04-28 2007-11-15 Yokogawa Electric Corp ネットワーク異常検出装置およびネットワーク異常検出方法
JP2010020445A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300263A (ja) * 2006-04-28 2007-11-15 Yokogawa Electric Corp ネットワーク異常検出装置およびネットワーク異常検出方法
JP2010020445A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123379A (ja) * 2015-01-22 2020-08-13 株式会社Preferred Networks 機械学習の異種エッジデバイス、方法、およびシステム
JP7002592B2 (ja) 2015-01-22 2022-01-20 株式会社Preferred Networks 機械学習の異種エッジデバイス、方法、およびシステム
JP2022043229A (ja) * 2015-01-22 2022-03-15 株式会社Preferred Networks 機械学習の異種エッジデバイス、方法、およびシステム
JP2022058415A (ja) * 2015-01-22 2022-04-12 株式会社Preferred Networks 異種環境におけるエッジデバイスのためのモデルフィルタリングおよびモデルミキシングによる機械学習
JP7253609B2 (ja) 2015-01-22 2023-04-06 株式会社Preferred Networks デバイス、デバイスの制御方法及びプログラム
JP2018510399A (ja) * 2015-01-22 2018-04-12 株式会社Preferred Networks 異種環境におけるエッジデバイスのためのモデルフィルタリングおよびモデルミキシングによる機械学習
JP7350050B2 (ja) 2015-01-22 2023-09-25 株式会社Preferred Networks 機械学習の異種エッジデバイス、方法、およびシステム
JP2016177418A (ja) * 2015-03-19 2016-10-06 コニカミノルタ株式会社 読影結果評価装置及びプログラム
US11475289B2 (en) 2015-06-08 2022-10-18 Preferred Networks, Inc. Learning device unit
US10180667B2 (en) 2015-07-30 2019-01-15 Fanuc Corporation Controller-equipped machining apparatus having machining time measurement function and on-machine measurement function
JP2017030067A (ja) * 2015-07-30 2017-02-09 ファナック株式会社 加工時間測定機能とオンマシン測定機能を有する制御装置付き加工装置
US9958861B2 (en) 2016-02-09 2018-05-01 Fanuc Corporation Production control system and integrated production control system
JP6059375B1 (ja) * 2016-02-09 2017-01-11 ファナック株式会社 生産制御システムおよび統合生産制御システム
US10810018B2 (en) 2016-03-14 2020-10-20 Omron Corporation Device with extensibility
JP2017211930A (ja) * 2016-05-27 2017-11-30 ファナック株式会社 寿命故障条件を学習する機械学習装置,故障予知装置,機械システムおよび機械学習方法
US20170344909A1 (en) * 2016-05-27 2017-11-30 Fanuc Corporation Machine learning device, failure prediction device, machine system and machine learning method for learning end-of-life failure condition
JP2018043338A (ja) * 2016-09-16 2018-03-22 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
US11511420B2 (en) 2016-09-16 2022-11-29 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning operation program of robot
JP2018106417A (ja) * 2016-12-26 2018-07-05 ファナック株式会社 数値制御装置及び機械学習装置
JP7206915B2 (ja) 2017-01-10 2023-01-18 日本電気株式会社 センシングシステム、センサノード装置、センサ測定値処理方法及びプログラム
JPWO2018131311A1 (ja) * 2017-01-10 2019-11-07 日本電気株式会社 センシングシステム、センサノード装置、センサ測定値処理方法及びプログラム
US11514277B2 (en) 2017-01-10 2022-11-29 Nec Corporation Sensing system, sensor node device, sensor measurement value processing method, and program
WO2018162955A1 (en) 2017-03-09 2018-09-13 Omron Corporation Method, entity, system, computer program, and medium for preparing learning data
WO2018168537A1 (en) 2017-03-14 2018-09-20 Omron Corporation Learning target apparatus and operating method
WO2018168536A1 (en) 2017-03-14 2018-09-20 Omron Corporation Learning apparatus and learning method
US11375019B2 (en) 2017-03-21 2022-06-28 Preferred Networks, Inc. Server device, learned model providing program, learned model providing method, and learned model providing system
WO2019008853A1 (ja) * 2017-07-07 2019-01-10 ソニー株式会社 提供装置、処理装置、情報処理方法、およびプログラム
JP7192769B2 (ja) 2017-07-07 2022-12-20 ソニーグループ株式会社 提供装置、処理装置、情報処理方法、およびプログラム
JPWO2019008853A1 (ja) * 2017-07-07 2020-04-30 ソニー株式会社 提供装置、処理装置、情報処理方法、およびプログラム
JP2019110513A (ja) * 2017-12-15 2019-07-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 異常検知方法、学習方法、異常検知装置、および、学習装置
JP7082533B2 (ja) 2017-12-15 2022-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 異常検知方法および異常検知装置
WO2023032637A1 (ja) * 2021-08-31 2023-03-09 東京エレクトロン株式会社 情報処理方法、情報処理装置、及び情報処理システム

Also Published As

Publication number Publication date
JP6214922B2 (ja) 2017-10-18

Similar Documents

Publication Publication Date Title
JP6214922B2 (ja) 情報処理装置、情報処理システム、情報処理方法、および学習プログラム
JP6470433B2 (ja) ラベルベースのアクセス制御ルールの自動生成
US9507932B2 (en) Policy enforcement in a topology abstraction system
AU2016233354B2 (en) Resource prioritization and communication-channel establishment
US9148381B2 (en) Cloud computing enhanced gateway for communication networks
Mostafavi et al. Fog computing architectures, privacy and security solutions
US10630709B2 (en) Assessing detectability of malware related traffic
JP2016208555A (ja) ネットワーク管理
US20160234234A1 (en) Orchestrating the Use of Network Resources in Software Defined Networking Applications
US20190089725A1 (en) Deep Architecture for Learning Threat Characterization
WO2021137138A1 (en) System and method for determining device attributes using a classifier hierarchy
Li et al. Service selection mechanisms in the Internet of Things (IoT): a systematic and comprehensive study
JP5845877B2 (ja) 情報処理装置、データ制御方法およびデータ制御プログラム
Wijesekara et al. A comprehensive survey on knowledge-defined networking
US20160191368A1 (en) Information processing device, method, and medium
JP2016010124A (ja) 管理装置、管理プログラム及び情報処理システム
KR102476271B1 (ko) 자율 관리(semi-managed) DHT 구성 방법 및 시스템
US10701135B1 (en) Intelligent hub for protocol-agnostic file transfer
US11228525B2 (en) Mission context routing data communication system
KR102058082B1 (ko) 서비스 프로파일 학습 기반의 소프트웨어 정의 네트워킹 장치
KR20130060895A (ko) 스마트 라우터 및 그 제어방법, 및 이를 이용한 스마트 네트워크 서비스 제공 시스템 및 방법
JP2020060978A (ja) 探索装置、探索方法及び探索プログラム
US10999352B1 (en) Intelligent hashing hub
Gong et al. Construction of trusted routing based on trust computation
US10015065B1 (en) Adaptive path trace

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160421

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170920

R150 Certificate of patent or registration of utility model

Ref document number: 6214922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250