JPWO2010035690A1 - Structure learning device, structure learning system, structure learning method, program, and recording medium - Google Patents

Structure learning device, structure learning system, structure learning method, program, and recording medium Download PDF

Info

Publication number
JPWO2010035690A1
JPWO2010035690A1 JP2010530824A JP2010530824A JPWO2010035690A1 JP WO2010035690 A1 JPWO2010035690 A1 JP WO2010035690A1 JP 2010530824 A JP2010530824 A JP 2010530824A JP 2010530824 A JP2010530824 A JP 2010530824A JP WO2010035690 A1 JPWO2010035690 A1 JP WO2010035690A1
Authority
JP
Japan
Prior art keywords
network structure
learning
network
structure learning
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010530824A
Other languages
Japanese (ja)
Inventor
貴之 中田
貴之 中田
森永 聡
聡 森永
遼平 藤巻
遼平 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2010035690A1 publication Critical patent/JPWO2010035690A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができる構造学習装置を提供する。共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定手段と、を備える。Provided is a structure learning device in which a plurality of agents share a network structure and can improve each learning result. A network structure learning unit that learns a network structure from a shared network and determines a candidate network structure, and a network structure mixed parameter that estimates a mixed parameter of a network structure that is a candidate by the network structure learning unit at a network structure level An estimation unit; and an agent mixed parameter estimation unit that estimates a network structure mixed parameter that is a candidate by the network structure learning unit at an agent level.

Description

本発明は、他のエージェントが持つネットワーク構造情報を共有して利用することで、自身が持つネットワーク構造学習結果を改良する構造学習装置、構造学習システム、構造学習方法、プログラム及び記録媒体に関する。   The present invention relates to a structure learning device, a structure learning system, a structure learning method, a program, and a recording medium that improve the network structure learning result of the agent by sharing and using network structure information of other agents.

ネットワーク構造学習システムの学習方法としては、例えば非特許文献1に記載されている。   The learning method of the network structure learning system is described in Non-Patent Document 1, for example.

非特許文献1記載のネットワーク構造学習システムは、ネットワーク構造学習手段と、ネットワーク構造混合パラメータ推定手段とから構成されている。このような構成を有するネットワーク構造学習システムは、次のように動作する。   The network structure learning system described in Non-Patent Document 1 includes network structure learning means and network structure mixed parameter estimation means. The network structure learning system having such a configuration operates as follows.

すなわち、ネットワークの構造学習とネットワーク構造混合パラメータの推定を結果が収束するまでEMアルゴリズムと呼ばれる方法で計算を行う。   That is, network structure learning and network structure mixed parameter estimation are performed by a method called an EM algorithm until the results converge.

Marina Meila, Michael I. Jordan, "Learning with Mixtures of Trees", Journal of Machine Learning Research, Vol 1, p.1-48(2000)Marina Meila, Michael I. Jordan, "Learning with Mixtures of Trees", Journal of Machine Learning Research, Vol 1, p.1-48 (2000)

しかしながら、非特許文献1に記載の技術は、複数エージェントによるネットワーク構造の共有が考慮されていないため、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができない。   However, since the technique described in Non-Patent Document 1 does not consider sharing of the network structure by a plurality of agents, the plurality of agents share the network structure and cannot improve each learning result.

また、複数エージェントによるネットワーク構造の共有、及び複数エージェントの類似性が考慮されていないため、複数エージェントを類似したもの同士にクラスタリングすることができない。   In addition, since the network structure sharing by a plurality of agents and the similarity of the plurality of agents are not taken into consideration, the plurality of agents cannot be clustered into similar ones.

また、パラメトリックモデルを用いているため、モデルの混合数として有限の値をあらかじめ定める必要がある。   Further, since a parametric model is used, it is necessary to determine a finite value as the number of models mixed in advance.

そこで本発明は、上記問題点に鑑みてなされたもので、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができる構造学習装置を提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a structure learning apparatus in which a plurality of agents can share a network structure and improve each learning result.

上記課題を解決するため、本発明における構造学習装置は、共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定手段と、ネットワーク構造学習手段によって候補とされたネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定手段と、を備えることを特徴とする。   In order to solve the above problems, a structure learning device according to the present invention learns a network structure from a shared network and determines a candidate network structure, and a network structure made a candidate by the network structure learning means Network structure mixed parameter estimating means for estimating the mixed parameters of the network structure at the network structure level, and agent mixed parameter estimating means for estimating the network structure mixed parameters that are candidates by the network structure learning means at the agent level. It is characterized by.

ネットワーク構造学習手段にて候補として適合するネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成手段を備えることを特徴とする。   The network structure generating means for generating a new network structure when the network structure learning means determines that there is no suitable network structure as a candidate.

ネットワーク構造学習手段は、ネットワーク構造混合パラメータ推定手段、及びエージェント混合パラメータ推定手段による推定結果が収束するまで繰り返し学習することを特徴とする。   The network structure learning means is characterized in that it repeatedly learns until the estimation results by the network structure mixed parameter estimation means and the agent mixed parameter estimation means converge.

また、本発明における構造学習システムは、上記記載の構造学習装置を複数備えることを特徴とする。   The structure learning system according to the present invention includes a plurality of the structure learning devices described above.

また、本発明における構造学習方法は、共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習ステップと、ネットワーク構造学習ステップによって候補とされたネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定ステップと、ネットワーク構造学習ステップによって候補とされたネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定ステップと、を備えることを特徴とする。   The structure learning method according to the present invention is a network structure learning step for learning a network structure from a shared network and determining a network structure as a candidate, and a network structure mixed parameter determined by the network structure learning step as a network. A network structure mixed parameter estimating step for estimating at a structure level, and an agent mixed parameter estimating step for estimating a network structure mixed parameter made a candidate by the network structure learning step at an agent level.

ネットワーク構造学習ステップにて候補として適合するネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成ステップを備えることを特徴とする。   In the network structure learning step, a network structure generation step is provided for generating a new network structure when it is determined that there is no network structure suitable as a candidate.

ネットワーク構造学習ステップは、ネットワーク構造混合パラメータ推定ステップ、及びエージェント混合パラメータ推定ステップによる推定結果が収束するまで繰り返し学習することを特徴とする。   The network structure learning step is characterized by iteratively learning until the estimation results obtained by the network structure mixed parameter estimation step and the agent mixed parameter estimation step converge.

また、本発明におけるプログラムは、上記記載の構造学習方法をコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute the structure learning method described above.

また、本発明における記録媒体は、上記記載のプログラムを格納したコンピュータ読取可能な記録媒体であることを特徴とする。   A recording medium in the present invention is a computer-readable recording medium storing the above-described program.

本発明により、複数エージェントによるネットワーク構造の共有を考慮したモデルを用いるため、複数エージェントがネットワーク構造を共有し、各々の学習結果を改善することができる。   According to the present invention, since a model that considers sharing of the network structure by a plurality of agents is used, a plurality of agents can share the network structure and improve each learning result.

本発明の実施形態に係る構成を示すハードウェア構成図である。It is a hardware block diagram which shows the structure which concerns on embodiment of this invention. 本発明の実施形態に係る構成を示すシステムブロック図である。It is a system block diagram which shows the structure which concerns on embodiment of this invention. 本発明の実施形態に係るフローチャート図である。It is a flowchart figure which concerns on embodiment of this invention. 本発明の実施形態に係る動作の具体例を示す図である。It is a figure which shows the specific example of the operation | movement which concerns on embodiment of this invention.

次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。   Next, the best mode for carrying out the invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態におけるネットワーク構造学習装置のハードウェア構成図である。本装置は、操作部1と、CPU2と、メモリ3と、ROM4と、ネットワークインターフェース5と、を有して構成される。   FIG. 1 is a hardware configuration diagram of a network structure learning apparatus according to an embodiment of the present invention. The apparatus includes an operation unit 1, a CPU 2, a memory 3, a ROM 4, and a network interface 5.

CPU2は、装置全体の制御を司り、ROM4には、CPU2が実行するプログラム、その他の固定データが格納されている。また、メモリ3は、CPU2による演算の際等にデータの一時格納に用いられる。さらに、ネットワークインターフェース5により、ネットワークが実現され、操作部1にて情報の入出力を行うことが可能である。   The CPU 2 controls the entire apparatus, and the ROM 4 stores programs executed by the CPU 2 and other fixed data. The memory 3 is used for temporary storage of data when the CPU 2 performs calculations. Further, a network is realized by the network interface 5, and information can be input / output by the operation unit 1.

図2は、本発明の実施形態におけるネットワーク構造学習装置のシステムブロック図である。本ネットワーク構造学習装置は、入力手段11と、ネットワーク構造学習手段12と、ネットワーク構造生成手段13と、ネットワーク構造混合パラメータ推定手段14と、エージェント混合パラメータ推定手段15と、出力手段16と、を有して構成される。   FIG. 2 is a system block diagram of the network structure learning apparatus according to the embodiment of the present invention. The network structure learning apparatus includes an input unit 11, a network structure learning unit 12, a network structure generation unit 13, a network structure mixed parameter estimation unit 14, an agent mixed parameter estimation unit 15, and an output unit 16. Configured.

入力手段11は、観測対象のデータを取り込み、ネットワーク構造学習手段12では、観測データを生成するネットワーク構造を学習する。   The input unit 11 takes in the data to be observed, and the network structure learning unit 12 learns the network structure that generates the observation data.

また、ネットワーク構造生成手段13は、ネットワーク構造学習手段12で既存のネットワーク構造が観測値にうまく適合しない場合に新たなネットワーク構造を生成する。   The network structure generation unit 13 generates a new network structure when the network structure learning unit 12 does not match the existing network structure well with the observation value.

ネットワーク構造混合パラメータ推定手段14は、ネットワーク構造レベルの混合確率を推定し、エージェント混合パラメータ推定手段15は、エージェントレベルの混合確率の推定を行う。   The network structure mixed parameter estimation means 14 estimates the mixing probability at the network structure level, and the agent mixing parameter estimation means 15 estimates the mixing probability at the agent level.

一方、出力手段16は、学習したネットワーク構造、及びその混合確率における推定結果の出力を行う。   On the other hand, the output means 16 outputs the learned network structure and the estimation result in the mixing probability.

図3のフローチャートを参照して、本発明の実施形態における全体の動作について詳細に説明する。   With reference to the flowchart of FIG. 3, the overall operation in the embodiment of the present invention will be described in detail.

まず、入力手段11により観測対象のデータを取り込む(ステップS1)。次に、ネットワーク構造学習手段12により観測データを生成するネットワーク構造として最も適合する構造を学習し(ステップS2)、今までに他エージェントも含め、学習して得られた構造でうまく適合するものがあるか否かを判断する(ステップS3)。   First, data to be observed is captured by the input means 11 (step S1). Next, the network structure learning unit 12 learns the most suitable structure as a network structure for generating observation data (step S2). It is determined whether or not there is (step S3).

今までの学習で得られたネットワーク構造でうまく適合するものがない場合は、ネットワーク構造のベースとなる分布から新たに最も適合するネットワーク構造を生成する(ステップS4)。   If none of the network structures obtained by learning so far fits well, a new most suitable network structure is generated from the network structure base distribution (step S4).

適合するネットワーク構造があった場合や新たなネットワーク構造生成後、ネットワーク構造レベルにおいて該ネットワーク構造がどのような混合確率を持っているか計算し、混合確率の推定を行い(ステップS5)、推定結果が収束したか否かを判断する(ステップS6)。ここで、収束しない場合には、ステップS2に戻って学習しなおす。   When there is a compatible network structure or after a new network structure is generated, the network structure level is calculated to calculate what mixing probability the network structure has, and the mixing probability is estimated (step S5). It is determined whether or not it has converged (step S6). Here, when it does not converge, it returns to step S2 and learns again.

一方、収束すれば、エージェントレベルにおいてエージェントがどのような混合確率を持っているかを計算し、混合確率の推定を行い(ステップS7)、推定結果が収束したか否かを判断する(ステップS8)。ここで、収束しない場合には、ステップS2に戻って学習しなおす。   On the other hand, if it converges, it calculates what mixing probability the agent has at the agent level, estimates the mixing probability (step S7), and determines whether the estimation result has converged (step S8). . Here, when it does not converge, it returns to step S2 and learns again.

学習・推定の結果が収束するまで繰り返し、最後に、ステップS2で学習したネットワーク構造、及びステップS5、S7で推定した混合確率の出力を行う(ステップS9)。   It repeats until the result of learning / estimation converges. Finally, the network structure learned in step S2 and the mixed probability estimated in steps S5 and S7 are output (step S9).

以下、図4を参照してより具体的に本発明を実施するための最良の形態の動作を説明する。   Hereinafter, the operation of the best mode for carrying out the present invention will be described more specifically with reference to FIG.

ある属性を表す頂点集合{v∈V}と頂点間を結ぶ枝集合{(u,v)∈E}からなるネットワーク構造G=(V,E)が与えられたとき、ネットワークの観測データxの生成モデルを考える。   Given a network structure G = (V, E) consisting of a vertex set {vεV} representing a certain attribute and a branch set {(u, v) εE} connecting the vertices, the network observation data x Consider a generation model.

ある頂点対およびその間の枝(u,v)∈Eの挙動を表すパラメータ集合をθE={θuv}(u,v)∈Eとし、ネットワーク構造も含めてθT={E,θE}と定義すると、ネットワークの確率分布Tは   A parameter set representing the behavior of a vertex pair and a branch (u, v) ∈ E between them is θE = {θuv} (u, v) ∈E, and θT = {E, θE} is defined including the network structure. The probability distribution T of the network is

Figure 2010035690
Figure 2010035690

と表される。 It is expressed.

次に、エージェントj,(j=1,...,J)が、エージェント間に共通の属性を表す頂点をそれぞれ持つ場合に、お互いのネットワーク構造に関する情報を共有する場合を考える。xji,(i=1,...,Nj)をエージェントj,(j=,...,J)からの観測値とする。ここでNjはエージェントjにおけるデータの観測数を表す。観測値はエージェント内において交換可能であるとし、確率分布xji〜T(・|θT:ji)に従って生成される。ここでネットワーク構造とそのパラメータθT:jiはGjから生成されるとし、すべての   Next, let us consider a case where agents j, (j = 1,..., J) share information related to each other's network structure when they have vertices representing common attributes among the agents. Let xji, (i = 1,..., Nj) be an observed value from agent j, (j =,..., J). Here, Nj represents the number of observations of data at agent j. The observation values are assumed to be exchangeable within the agent, and are generated according to the probability distributions xji to T (· | θT: ji). Here the network structure and its parameter θT: ji are generated from Gj,

Figure 2010035690
Figure 2010035690

は、次のような数学的表現で表される混合モデルを経由してリンクされている。 Are linked via a mixed model represented by the following mathematical expression.

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

ここでδはDiracのデルタ関数である。混合確率πk,ωklは、   Where δ is the Dirac delta function. The mixing probability πk, ωkl is

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

Figure 2010035690
Figure 2010035690

に従う。これはDirichlet processの構成法の一つでstick-breaking processと呼ばれる。これをπ(=(π1,...,πk))〜Stick(α),ωk(=(ωk1,...,ωkl))〜Stick(β)と表すことにする。Hはネットワーク構造とそのパラメータに対する事前分布である。 Follow. This is one of the construction methods of Dirichlet process and is called stick-breaking process. This is expressed as π (= (π1,..., Πk)) to Stick (α), ωk (= (ωk1,..., Ωkl)) to Stick (β). H is the prior distribution for the network structure and its parameters.

上記処理において混合分布として利用される{G1,...,Gj}は、nested Dirichlet process(nDP)に従うという。パラメータはα,β,Hであり、nDP(α,β,H)と表される。nDPはネットワーク構造レベルとエージェントレベルの両方において混合分布を用いているので、ネットワーク構造とエージェントのクラスタリングを同時に行うことができる。   {G1,..., Gj} used as a mixture distribution in the above process is said to follow a nested dirichlet process (nDP). The parameters are α, β, H and are expressed as nDP (α, β, H). Since nDP uses a mixed distribution at both the network structure level and the agent level, network structure and agent clustering can be performed simultaneously.

ここで次のようなインデックスを導入しておく。インデックスcjはエージェントjのネットワーク構造を生成する混合ネットワーク構造を表す。インデックスsjiはデータ点xji生成するネットワーク構造を表す。   Here, the following index is introduced. The index cj represents the mixed network structure that generates the network structure of agent j. The index sji represents the network structure for generating the data point xji.

nDPおよび共有されるネットワーク構造の学習・推定はギブスサンプラーに基づいて行うことができ、収束するまで以下のステップを繰り返す。   Learning and estimating nDP and shared network structure can be done based on Gibbs sampler, and the following steps are repeated until convergence.

i). すべてのエージェントj=1,...,Jに対して、インデックスcjを、事後確率p(cj=k|{xji})従ってサンプルする。 i). For all agents j = 1,..., J, the index cj is sampled according to the posterior probability p (cj = k | {xji}).

ii). すべてのエージェントj=1,...,J、すべてのデータi=1,...,Njに対して、インデックスsjiを、事後確率p(sji=l|{xji})に従ってサンプルする。 ii). For all agents j = 1, ..., J and all data i = 1, ..., Nj, index sji is sampled according to posterior probability p (sji = 1 | {xji}) To do.

iii). エージェントレベルの混合重みπkを事後確率p(πk={xji},{cj})に従って生成する。 iii). The agent level mixture weight πk is generated according to the posterior probability p (πk = {xji}, {cj}).

iv). ネットワーク構造レベルの混合重みωklを事後確率p(ωkl={xji},{sji})に従って生成する。 iv). The network structure level mixture weight ωkl is generated according to the posterior probability p (ωkl = {xji}, {sji}).

v). ネットワーク構造とパラメータ v). Network structure and parameters

Figure 2010035690
Figure 2010035690

を事後確率 The posterior probability

Figure 2010035690
Figure 2010035690

に従ってサンプルする。もし観測値が割り当てられていない場合は事前分布Hから生成される。 According to the sample. If no observation is assigned, it is generated from the prior distribution H.

上記で説明した処理は、(ii)、(iv)が図2のネットワーク構造混合パラメータ推定手段14、及び図3のステップS5に対応し、(i)、(iii)が図2のエージェント混合パラメータ推定手段15、及び図3のステップS7に対応し、(v)が図2のネットワーク構造学習手段12、ネットワーク構造生成手段13、及び図3のステップS2〜S4に対応する。   In the processing described above, (ii) and (iv) correspond to the network structure mixed parameter estimating means 14 of FIG. 2 and step S5 of FIG. 3, and (i) and (iii) are the agent mixed parameters of FIG. 3 corresponds to the estimation means 15 and step S7 in FIG. 3, and (v) corresponds to the network structure learning means 12, the network structure generation means 13 in FIG. 2, and steps S2 to S4 in FIG.

次に、本実施形態の効果について説明する。   Next, the effect of this embodiment will be described.

本実施形態では、複数エージェントがネットワーク構造を共有するというように構成されているため、複数エージェントがネットワーク構造を共有し各々の学習結果を改善することができる。   In the present embodiment, since a plurality of agents share a network structure, a plurality of agents can share a network structure and improve each learning result.

また、本実施形態では、さらに、各エージェントのモデルに混合モデルを用いるというように構成されているため、複数エージェントを類似したもの同士にクラスタリングすることができる。   Further, in the present embodiment, since a mixed model is used for each agent model, a plurality of agents can be clustered into similar ones.

また、本実施形態では、さらに、モデル化、学習、推定をノンパラメトリックなモデルを用いて行うため、モデルの混合数として有限の値をあらかじめ定める必要がない。   Further, in the present embodiment, modeling, learning, and estimation are further performed using a nonparametric model, so that it is not necessary to set a finite value as the number of models mixed in advance.

本発明は、次のような利用可能性が考えられる。   The present invention can be used as follows.

例えば、自動車などの機械システムにおいて,様々な車種の特定のパーツ間の挙動には相関構造が観察される。これらのパーツ相関構造は、ある特定の機能を実現した結果であり、車種間でほぼ同様のパーツ相関構造を共有している。   For example, in a mechanical system such as an automobile, a correlation structure is observed in the behavior between specific parts of various vehicle types. These parts correlation structures are the result of realizing a specific function, and almost the same parts correlation structure is shared among vehicle types.

複数の車種(軽,トラック,ディーゼル,ハイブリッド,…)で考えた場合、エンジン制御などの基本的なパーツ相関構造は、類似した挙動を示すが、例えばハイブリッド車の場合などは、電子モーター制御など車種独自のパーツ相関構造を持つ。   When considering multiple vehicle types (light, truck, diesel, hybrid, etc.), the basic part correlation structure such as engine control shows similar behavior, but for example, in the case of hybrid vehicles, electronic motor control, etc. It has a parts correlation structure unique to the model.

このような場合に、車種間において互いに共通するパーツ相関構造に関しては、他の車種の情報を共有することで学習精度を改善し、特定の車種のみに見られるパーツ相関構造は各車種独自に学習することが可能であり、さらに車種における独自性の高いパーツ相関構造を共有する車種同士を類似した車種としてクラスタリングする、といった用途に適用できる。   In such a case, with regard to the part correlation structure that is common among the vehicle types, the learning accuracy is improved by sharing information on other vehicle types, and the part correlation structure that can be found only in a specific vehicle type is learned independently for each vehicle type. Furthermore, the present invention can be applied to such a case that vehicle types that share a part correlation structure with high uniqueness in the vehicle type are clustered as similar vehicle types.

また、金融機関が内部損失データを共有するデータコンソーシアムにおいて、各銀行の内部損失事象を考えた場合に、特定の損失事象間の発生には、通常は相関構造があるとされている。   Also, in a data consortium where financial institutions share internal loss data, when considering internal loss events of each bank, it is said that there is usually a correlation structure between occurrences of specific loss events.

複数の銀行間で考えた場合、業務のうち預金業務や貸出業務などのある特定の業務にかかわる損失事象に関しては類似した損失事象相関構造を持っていると考えられる。   When considered among multiple banks, loss events related to a specific business such as deposit business and loan business are considered to have a similar loss event correlation structure.

このような場合に、銀行間において互いに共通する損失事象相関構造に関しては、他の銀行の情報を共有することで学習精度を改善することができる。   In such a case, regarding the loss event correlation structure common to the banks, the learning accuracy can be improved by sharing information of other banks.

しかしながら、各銀行の特性(特定の業務の多寡や有無,地震や台風の発生などの地域特性)を考慮した場合、特定の銀行のみに見られるような損失事象相関構造も存在し、この場合はその特定の損失事象相関構造を保有する銀行間で情報を共有し、それらを類似した損失事象相関構造を持つ銀行としてクラスタリングする、といった用途にも適用可能である。   However, when considering the characteristics of each bank (the number of specific operations, regional characteristics such as the occurrence of earthquakes and typhoons), there is also a loss event correlation structure that can be found only in specific banks. The present invention can also be applied to applications such as sharing information between banks having the specific loss event correlation structure and clustering them as banks having a similar loss event correlation structure.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更が可能である。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments thereof, various modifications and changes can be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the claims. is there.

なお、この出願は、2008年9月24日に出願した、日本特許出願番号2008−244168号を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims priority based on Japanese Patent Application No. 2008-244168, filed on September 24, 2008, the entire disclosure of which is incorporated herein.

11 入力手段
12 ネットワーク構造学習手段
13 ネットワーク構造生成手段
14 ネットワーク構造混合パラメータ推定手段
15 エージェント混合パラメータ推定手段
16 出力手段
DESCRIPTION OF SYMBOLS 11 Input means 12 Network structure learning means 13 Network structure generation means 14 Network structure mixed parameter estimation means 15 Agent mixed parameter estimation means 16 Output means

Claims (9)

共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習手段と、
前記ネットワーク構造学習手段によって候補とされた前記ネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定手段と、
前記ネットワーク構造学習手段によって候補とされた前記ネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定手段と、を備えることを特徴とする構造学習装置。
A network structure learning means for learning a network structure from a shared network and determining a candidate network structure;
Network structure mixed parameter estimating means for estimating the network structure mixed parameters that are candidates by the network structure learning means at a network structure level;
A structure learning apparatus comprising: an agent mixed parameter estimation unit that estimates a mixed parameter of the network structure that is a candidate by the network structure learning unit at an agent level.
前記ネットワーク構造学習手段にて候補として適合する前記ネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成手段を備えることを特徴とする請求項1記載の構造学習装置。   2. The structure learning apparatus according to claim 1, further comprising a network structure generation unit that generates a new network structure when it is determined by the network structure learning unit that there is no network structure suitable as a candidate. 前記ネットワーク構造学習手段は、前記ネットワーク構造混合パラメータ推定手段、及び前記エージェント混合パラメータ推定手段による推定結果が収束するまで繰り返し学習することを特徴とする請求項1又は2記載の構造学習装置。   The structure learning apparatus according to claim 1, wherein the network structure learning unit repeatedly learns until estimation results obtained by the network structure mixed parameter estimation unit and the agent mixed parameter estimation unit converge. 請求項1から3のいずれか1項に記載の構造学習装置を複数備えることを特徴とする構造学習システム。   A structure learning system comprising a plurality of the structure learning devices according to claim 1. 共有するネットワークからネットワーク構造を学習し、候補となるネットワーク構造を決定するネットワーク構造学習ステップと、
前記ネットワーク構造学習ステップによって候補とされた前記ネットワーク構造の混合パラメータをネットワーク構造レベルにて推定するネットワーク構造混合パラメータ推定ステップと、
前記ネットワーク構造学習ステップによって候補とされた前記ネットワーク構造の混合パラメータをエージェントレベルにて推定するエージェント混合パラメータ推定ステップと、を備えることを特徴とする構造学習方法。
A network structure learning step for learning a network structure from a shared network and determining a candidate network structure;
A network structure mixed parameter estimation step for estimating a network structure mixed parameter that is a candidate in the network structure learning step at a network structure level;
A structure learning method comprising: an agent mixed parameter estimation step that estimates a mixed parameter of the network structure that is a candidate in the network structure learning step at an agent level.
前記ネットワーク構造学習ステップにて候補として適合する前記ネットワーク構造が無かったと判断された場合に、新たなネットワーク構造を生成するネットワーク構造生成ステップを備えることを特徴とする請求項5記載の構造学習方法。   6. The structure learning method according to claim 5, further comprising a network structure generation step of generating a new network structure when it is determined that there is no network structure suitable as a candidate in the network structure learning step. 前記ネットワーク構造学習ステップは、前記ネットワーク構造混合パラメータ推定ステップ、及び前記エージェント混合パラメータ推定ステップによる推定結果が収束するまで繰り返し学習することを特徴とする請求項5又は6記載の構造学習方法。   7. The structure learning method according to claim 5 or 6, wherein the network structure learning step repeatedly learns until estimation results obtained by the network structure mixed parameter estimation step and the agent mixture parameter estimation step converge. 請求項5から7のいずれか1項に記載の構造学習方法をコンピュータに実行させるプログラム。   The program which makes a computer perform the structure learning method of any one of Claim 5 to 7. 請求項8に記載のプログラムを格納したコンピュータ読取可能な記録媒体。   A computer-readable recording medium storing the program according to claim 8.
JP2010530824A 2008-09-24 2009-09-17 Structure learning device, structure learning system, structure learning method, program, and recording medium Withdrawn JPWO2010035690A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008244168 2008-09-24
JP2008244168 2008-09-24
PCT/JP2009/066259 WO2010035690A2 (en) 2008-09-24 2009-09-17 Structure training device, structure training system, structure training method, program, and recording medium

Publications (1)

Publication Number Publication Date
JPWO2010035690A1 true JPWO2010035690A1 (en) 2012-02-23

Family

ID=42060202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010530824A Withdrawn JPWO2010035690A1 (en) 2008-09-24 2009-09-17 Structure learning device, structure learning system, structure learning method, program, and recording medium

Country Status (2)

Country Link
JP (1) JPWO2010035690A1 (en)
WO (1) WO2010035690A2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106156856A (en) * 2015-03-31 2016-11-23 日本电气株式会社 The method and apparatus selected for mixed model
CN111602148B (en) 2018-02-02 2024-04-02 谷歌有限责任公司 Regularized neural network architecture search

Also Published As

Publication number Publication date
WO2010035690A2 (en) 2010-04-01
WO2010035690A9 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
Ilievski et al. Efficient hyperparameter optimization for deep learning algorithms using deterministic rbf surrogates
CN112149171B (en) Method, device, equipment and storage medium for training federal neural network model
Berg et al. Structure and evolution of protein interaction networks: a statistical model for link dynamics and gene duplications
Kasahara et al. Sequential estimation of structural models with a fixed point constraint
JP6001871B2 (en) How to build a mixed model
Singh et al. Mesh-based affine abstraction of nonlinear systems with tighter bounds
Bhattacharya Evolutionary approaches to expensive optimisation
Wozniak et al. A first attempt to cloud-based user verification in distributed system
CN113642716A (en) Depth variation autoencoder model training method, device, equipment and storage medium
Langford et al. Learning nonlinear dynamic models
WO2020145039A1 (en) Data generation device, predictor learning device, data generation method, and learning method
Lu et al. A stochastic linearized augmented lagrangian method for decentralized bilevel optimization
Doshi et al. The permutable POMDP: fast solutions to POMDPs for preference elicitation
WO2010035690A2 (en) Structure training device, structure training system, structure training method, program, and recording medium
Wong et al. State-space decomposition for reinforcement learning
Cheng et al. Look beneath the surface: Exploiting fundamental symmetry for sample-efficient offline rl
Clementi et al. Folding Lennard‐Jones proteins by a contact potential
Chotard et al. Markov chain analysis of cumulative step-size adaptation on a linear constrained problem
Bobiti Sampling–driven stability domains computation and predictive control of constrained nonlinear systems
CN114944204A (en) Methods, apparatus, devices and media for managing molecular predictions
Bompiani et al. High-performance computing with terastat
Tang et al. Adaptive adversarial training method for improving multi-scale GAN based on generalization bound theory
JP2020030702A (en) Learning device, learning method, and learning program
JP7176371B2 (en) Estimation device, estimation method and program
Heitz et al. Iterative $\alpha $-(de) Blending: Learning a Deterministic Mapping Between Arbitrary Densities

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121204