JP2019021210A - Specification device and specification method - Google Patents
Specification device and specification method Download PDFInfo
- Publication number
- JP2019021210A JP2019021210A JP2017141231A JP2017141231A JP2019021210A JP 2019021210 A JP2019021210 A JP 2019021210A JP 2017141231 A JP2017141231 A JP 2017141231A JP 2017141231 A JP2017141231 A JP 2017141231A JP 2019021210 A JP2019021210 A JP 2019021210A
- Authority
- JP
- Japan
- Prior art keywords
- category
- model
- information
- matrix
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 40
- 239000011159 matrix material Substances 0.000 claims abstract description 97
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 238000009826 distribution Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、特定装置および特定方法に関する。 The present invention relates to a specifying device and a specifying method.
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、所定の条件を満たす情報の特徴を学習したモデルを用いて、判定対象となる情報の中から、所定の条件を満たす情報、すなわち類似する情報を特定する技術が知られている。 2. Description of the Related Art Conventionally, a technique for searching or generating information related to input information based on an analysis result of input information and outputting the searched or generated information as a response is known. As an example of such a technique, a technique for identifying information satisfying a predetermined condition, that is, similar information from information to be determined using a model in which features of information satisfying a predetermined condition are learned is known. It has been.
しかしながら、上記の従来技術では、情報の特徴を学習したモデルの作成が困難であるという問題がある。 However, the above-described conventional technology has a problem that it is difficult to create a model in which information features are learned.
例えば、モデルに所定の条件を満たす情報の特徴を精度良く学習させるには、比較的多くの学習データが必要となる。このため、学習データの数が少ない場合には、モデルに情報の特徴を精度良く学習させることができない。 For example, a relatively large amount of learning data is required to accurately learn features of information that satisfy a predetermined condition in a model. For this reason, when the number of learning data is small, it is impossible to cause the model to learn information features with high accuracy.
本願は、上記に鑑みてなされたものであって、モデルの作成を容易にすることを目的とする。 The present application has been made in view of the above, and aims to facilitate the creation of a model.
本願に係る特定装置は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、当該モデルと対応する行列を生成する行列生成部と、前記行列の固有値を算出する算出部と、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する特定部とを有することを特徴とする。 The specific apparatus according to the present application generates a matrix corresponding to a model based on a connection coefficient between nodes of a model having nodes connected in multiple layers and learning a feature of predetermined information. A matrix generation unit; a calculation unit that calculates eigenvalues of the matrix; a bias of eigenvalues calculated from a matrix of a plurality of models that learned features of information belonging to the first category; and features of information that belong to the second category. A specifying unit that specifies an index of a model for learning features of information belonging to a specified category designated by a user based on a comparison result with a bias of eigenvalues calculated from a matrix of learned models. Features.
実施形態の一態様によれば、モデルの作成を容易にすることができる。 According to one aspect of the embodiment, creation of a model can be facilitated.
以下に、本願に係る特定装置および特定方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る特定装置および特定方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, embodiments for carrying out a specific device and a specific method according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. In addition, the specific apparatus and the specific method which concern on this application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
[実施形態]
〔1−1.特定装置の一例〕
まず、図1を用いて、特定装置が実行する処理の一例について説明する。図1は、実施形態に係る特定装置が実行する特定処理の一例を示す図である。図1では、特定装置10は、以下に説明する特定処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[Embodiment]
[1-1. Example of specific device)
First, an example of processing executed by the specific device will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the specifying process executed by the specifying apparatus according to the embodiment. In FIG. 1, the
より具体的には、特定装置10は、インターネット等の所定のネットワークN(例えば、図2を参照)を介して、登録サーバ100や、クライアントサーバ200といった任意の装置と通信が可能である。なお、図1に示す例では、1つの登録サーバ100やクライアントサーバ200を示したが、特定装置10は、任意の数の登録サーバ100や任意の数のクライアントサーバ200と通信が可能であってもよい。
More specifically, the
登録サーバ100は、各種の情報が有する特徴を学習したモデルを登録する登録者が使用する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。また、クライアントサーバ200は、所定の情報が有する特徴を学習したモデルを要求するクライアントが使用する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
The
このような特定装置10は、以下のモデル提供処理を実行する。例えば、特定装置10は、登録サーバ100から、各種情報の特徴を学習したモデルの登録を受付ける。例えば、特定装置10は、SNS(Social Networking Service)等に投稿された利用者の投稿、ニュース、株価の値動きといった金融情報等の特徴を学習したモデルの登録を受付ける。より具体的な例を挙げると、特定装置10は、あるカテゴリに属する情報が入力されると、入力された情報の要約を出力するように学習が行われたモデルの登録を受付ける。このようなモデルは、例えば、畳み込みミューラルネットワークや再帰型ニューラルネットワーク等、各種の機能を発揮する任意のニューラルネットワークにより実現可能である。
Such a
一方で、特定装置10は、クライアントサーバ200からカテゴリの指定を受付けると、そのカテゴリに属する情報の特徴を学習したモデルを生成し、生成したモデルをクライアントサーバ200へと提供する。例えば、特定装置10は、指定されたカテゴリに属する情報を入力した際に、その情報の要約を出力するよう学習が行われたモデル、すなわち、指定されたカテゴリに属する情報の特徴を学習したモデルを生成し、生成したモデルをクライアントサーバ200へと提供する。
On the other hand, when the
〔1−2.特定装置の処理について〕
ここで、上述したモデル提供処理において、登録サーバ100から登録されたモデルを用いて、クライアントサーバ200に提供するモデルを生成するといった態様が考えられる。例えば、登録サーバ100から登録されたモデルのうち、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルを選択し、選択したモデルをクライアントサーバ200に提供するとともに、そのモデルを登録した登録者に対して、クライアントから報酬を提供するといったビジネスモデルが考えられる。しかしながら、登録者が登録したモデルそのものをクライアントへ提供した場合には、どのような態様で、各種の情報が有する特徴をモデルに学習させているのかというノウハウが漏えいしてしまう恐れがある。
[1-2. About specific device processing)
Here, in the model providing process described above, a mode in which a model to be provided to the
そこで、登録されたモデルのうち、クライアントサーバ200が指定したカテゴリと類似するカテゴリに属する情報の特徴を学習したモデルを選択し、選択したモデルにクライアントサーバ200が指定したカテゴリに属する情報の特徴を学習させることで、より効率的なモデルの学習を実現するといったビジネスモデルも考えられる。このようなビジネスモデルを実現するには、クライアントサーバ200が指定したカテゴリと類似するカテゴリに属する情報の特徴を学習したモデルを適切に選択するには、登録されたモデルがどのような学習データを用いて、どのような特徴を学習させたモデルであるかを登録者が登録する必要がある。しかしながら、モデルを作成する際の学習データには、個人情報等、秘匿しなければならない情報が含まれる場合がある。また、どのような特徴を学習させたかといったノウハウについても、秘匿したいという要望が考えられる。
Therefore, among the registered models, a model that learns the characteristics of information belonging to a category similar to the category specified by the
一方で、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルを一から生成するには、多くの学習データや学習時における計算リソースを要する。このため、従来技術では、クライアントサーバ200が指定したカテゴリに属する情報の特徴を学習したモデルの作成が困難である。
On the other hand, in order to generate a model from which the features of information belonging to the category designated by the
そこで、特定装置10は、以下の特定処理を実行する。まず、特定装置10は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、そのモデルと対応する行列を生成する。続いて、特定装置10は、生成した行列の固有値を算出する。そして、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデル行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する。例えば、特定装置10は、モデルと対応する行列として、ノード間の接続係数に基づいたランダム行列を生成し、生成したランダム行列を用いて、上手した特定処理を実行する。
Therefore, the
例えば、特定装置10は、所定の構造を有するモデルの登録を登録サーバ100から受付ける(ステップS1)。より具体的な例を挙げると、特定装置10は、文字列や写真等、所定の情報を入力した際に、その情報の特徴に基づいた他の情報(例えば、文字列の要約や写真の要部等)を出力するように学習が行われたモデルの登録を受付ける。
For example, the
ここで、ニューラルネットワーク等のモデルが有する各ノードは、1つ又は複数のノード(例えば、より入力層側の層のノードや出力層側の層のノード)と接続されており、シグモイド関数等を用いて、入力層側のノードから入力された値に応じた出力値を算出し、算出した出力値を出力層側の各ノードへと伝達する。また、ノード同士を接続する各経路には、それぞれ接続係数(すなわち、重み)が設定されており、入力層側のノードが出力した値に接続係数を反映させた値を入力層側のノードへと伝達する。 Here, each node of a model such as a neural network is connected to one or a plurality of nodes (for example, a node on a layer on the input layer side or a node on a layer on the output layer side), and a sigmoid function or the like is expressed. The output value corresponding to the value input from the node on the input layer side is calculated, and the calculated output value is transmitted to each node on the output layer side. In addition, a connection coefficient (that is, a weight) is set for each path connecting the nodes, and a value obtained by reflecting the connection coefficient in a value output by the node on the input layer side is sent to the node on the input layer side. Communicate.
このようなモデルに情報の特徴を学習させる場合、ある情報を入力した際に所望する情報が得られるように、バックプロパゲーション等の学習手法を用いて、接続係数の値を補正する。このため、モデルに情報の特徴を学習させた場合、そのモデルが有するノード間の接続係数には、所定の傾向が生じると考えられる。より具体的には、あるカテゴリに属する情報を学習データとし、その学習データが有する特徴を複数のモデルに学習させた場合には、その学習データが有する特徴に応じた傾向、すなわち、学習データが属するカテゴリに応じた傾向が各モデルの接続係数に現れると考えられる。換言すると、同一または類似するカテゴリに属する学習データを用いて学習が行われた複数のモデルの接続係数は、傾向が相互に類似し、非類似のカテゴリに属する学習データを用いて学習が行われた複数のモデルの接続係数は、傾向が相互に類似しないと考えられる。 When learning the characteristics of information in such a model, the value of the connection coefficient is corrected by using a learning method such as backpropagation so that desired information can be obtained when certain information is input. For this reason, when the model learns information features, it is considered that a predetermined tendency occurs in the connection coefficient between nodes of the model. More specifically, when information belonging to a certain category is used as learning data and the characteristics of the learning data are learned by a plurality of models, the tendency corresponding to the characteristics of the learning data, that is, the learning data is It is thought that the tendency according to the category to which it belongs appears in the connection coefficient of each model. In other words, the connection coefficients of a plurality of models learned using learning data belonging to the same or similar categories are similar in tendency to each other, and learning is performed using learning data belonging to dissimilar categories. In addition, the connection coefficients of multiple models are considered to have similar trends.
そこで、特定装置10は、登録者によって登録されたモデル(以下、「登録モデル」と記載する。)の接続係数が有する傾向に応じて、クライアントが指定したカテゴリ(以下「指定カテゴリ」と記載する。)に属する情報の学習により適したモデルの指標を特定し、特定した指標に基づいて、クライアントが指定したカテゴリに属する情報の学習に用いるモデルを選択する。また、特定装置10は、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させる。そして、特定装置10は、学習が行われたモデルをクライアントに出力する。
Therefore, the
ここで、各登録モデルが有する接続係数の傾向を比較することで、各登録モデルの類似性を判断する手法としては、幾つかの手法が考えられるが、本実施形態において、特定装置10は、任意の学習が行われたモデルが学習に用いた学習データの分布と測定に用いるデータの分布との差を考慮する共変量シフトの考え方を用いて、各登録モデルの類似性を判断する。 Here, several methods can be considered as a method of determining the similarity of each registered model by comparing the tendency of the connection coefficient of each registered model. The similarity of each registered model is determined using a covariate shift concept that takes into account the difference between the distribution of learning data used for learning and the distribution of data used for measurement by an arbitrarily learned model.
例えば、特定装置10は、登録モデルが有する接続係数に基づいて、登録モデルと対応するランダム行列を生成し、生成したランダム行列の固有値と固有ベクトルとを算出する(ステップS2)。より具体的には、特定装置10は、登録モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。例えば、特定装置10は、登録モデルA1が有する各ノード間の接続係数をランダム行列A1が有する各要素の値と見做す。そして、特定装置10は、ランダム行列A1が有する固有値A1と固有ベクトルA1とを算出する。
For example, the identifying
このような登録モデルの接続係数を要素とするランダム行列の固有値は、各登録モデルが学習に用いた学習データの偏りと対応する偏りを有すると考えられる。例えば、第1のカテゴリに属する学習データの特徴を学習した複数の登録モデル(以下、「第1登録モデル群」と記載する。)と第2のカテゴリに属する学習データの特徴を学習した複数の登録モデル(以下、「第2登録モデル群」と記載する。)とが存在するものとする。このような場合、第1登録モデル群と対応する複数のランダム行列の固有値や、第2登録モデル群と対応する複数のランダム行列の固有値には、偏りが生じると考えられる。すなわち、各登録モデルの接続係数を要素とするランダム行列の固有値には、各登録モデルの学習に用いた学習データの偏りと対応する偏りが生じると考えられる。 It is considered that the eigenvalues of the random matrix having the connection coefficient of the registered model as an element have a bias corresponding to the bias of the learning data used by each registered model. For example, a plurality of registered models (hereinafter referred to as “first registered model group”) that have learned the characteristics of learning data belonging to the first category and a plurality of learning models that have learned the characteristics of learning data belonging to the second category. It is assumed that there is a registered model (hereinafter referred to as “second registered model group”). In such a case, it is considered that there is a bias in the eigenvalues of a plurality of random matrices corresponding to the first registered model group and the eigenvalues of a plurality of random matrices corresponding to the second registered model group. That is, it is considered that a bias corresponding to the bias of the learning data used for learning of each registered model is generated in the eigenvalue of the random matrix having the connection coefficient of each registered model as an element.
そこで、特定装置10は、各カテゴリに属する登録モデルの固有値の分布の偏りに基づいて、登録モデルに共変量シフトにおけるパラメータθを算出し、カテゴリ間の関係性とパラメータθとの関係性を学習する(ステップS3)。すなわち、特定装置10は、第1のカテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第1のカテゴリに属する情報の分布と見做し、他の第2のカテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第2のカテゴリに属する情報の分布と見做して、情報の分布間における共変量シフトのパラメータを算出する。より具体的には、特定装置10は、第1のカテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りと第2のカテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りとの間の関係性を示すパラメータの値と、第1のカテゴリに属する情報の分布と第2のカテゴリに属する情報の分布との間のズレとの間の関係性を学習した学習モデルを生成する。
Therefore, the specifying
例えば、特定装置10は、カテゴリAに属する登録モデルの固有値A1、A2、A3が有する分布と、カテゴリBに属するモデルの固有値B1、B2、B3の分布との間のズレを、共変量シフトと見做し、共演量シフトを最小化させるパラメータθを算出する。
For example, the identifying
例えば、特定装置10は、登録モデルごとに、以下の式(1)で示されるランダム行列を生成する。なお、式(1)では、各ノード間の接続係数をwb1〜wbnと記載し、m個の所定の確率分布をwa1〜wamと記載した。また、式(1)に示すPは、以下の式(2)にpとして示す値である。
For example, the specifying
ここで、共変量シフトにおける訓練入力を以下の式(3)で示し、訓練標本を以下の式(4)で示す。 Here, the training input in the covariate shift is represented by the following formula (3), and the training sample is represented by the following formula (4).
ここで、訓練入力の確率分布をP0(x)とし共変量シフト化での確率分布をP1(x)とする。すなわち、あるデータ群のうち学習データとして選択されるデータの確率分布をP0(x)とし、そのデータ群のうち測定時に選択されるデータの確率分布をP1(x)とする。このような場合、共変量シフトの値は、以下の式(5)で表すことができる。 Here, it is assumed that the probability distribution of the training input is P 0 (x) and the probability distribution in the covariate shift is P 1 (x). That is, let P 0 (x) be the probability distribution of data selected as learning data in a certain data group, and let P 1 (x) be the probability distribution of data selected at the time of measurement in that data group. In such a case, the value of the covariate shift can be expressed by the following equation (5).
特定装置10は、このような共変量シフトの値を最小化するパラメータθと、学習データのカテゴリとの間の関係性を学習する。例えば、固有値A1、A2、A3をxi、固有値B1、B2、B3をyiとして入力した際に、式(5)の値を最小化するパラメータの値θを算出し、算出した値θをカテゴリAに属する学習データとカテゴリBに属する学習データとの間のズレを示す値とする。
The
このようなθの値は、各学習データが属するカテゴリ間のズレを示す指標となりえる。このような指標は、指定カテゴリの学習データを学習する対象となる登録モデルの選択に利用可能な指標になるとも考えられる。そこで、特定装置10は、学習モデルを用いて、指定カテゴリと所定のカテゴリとの間のθの値を登録モデルの選択に利用可能な指標として特定する。
Such a value of θ can be an index indicating a deviation between categories to which each learning data belongs. Such an index is considered to be an index that can be used to select a registration model that is a target for learning learning data of a specified category. Therefore, the specifying
例えば、特定装置10は、クライアントサーバ200から、カテゴリの指定を受付ける(ステップS4)。より具体的な例を挙げると、特定装置10は、「カテゴリC」を指定カテゴリとして受付ける。このような場合、特定装置10は、学習結果に基づいて、指定カテゴリに属する学習データの学習に適した登録モデルを選択し、選択した登録モデルを用いて、指定カテゴリに対応するモデルを生成する(ステップS5)。
For example, the
例えば、特定装置10は、学習モデルを用いて、カテゴリAとカテゴリCとの間における共変量シフトのパラメータθACを特定する。また、特定装置10は、学習モデルを用いて、カテゴリBとカテゴリCとの間における共変量シフトのパラメータθBCを特定する。このような場合、特定装置10は、登録モデルのうち、カテゴリAに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθACとなるような登録モデルであって、カテゴリBに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθBCとなるような登録モデルを検索する。
For example, the identifying
なお、特定装置10は、カテゴリAとカテゴリCとの間における共変量シフトのパラメータθACのみを特定し、カテゴリAに属する学習データの特徴を学習した登録モデルのランダム行列の固有値の分布との間の共変量シフトのパラメータがパラメータθACとなるような登録モデルを検索してもよい。また、特定装置10は、3つ以上のカテゴリと、カテゴリCとの間の共変量シフトのパラメータを特定し、特定したパラメータを満たすような登録モデルを検索してもよい。
The specifying
そして、特定装置10は、検索した特定モデルを用いて、クライアントに提供するモデル(以下、「提供モデル」と記載する。)を生成する。例えば、特定装置10は、特定モデルに、カテゴリCに属する学習データの特徴を学習させる。そして、特定装置10は、カテゴリCに属する学習データの特徴を学習した提供モデルをクライアントに対して提供する(ステップS6)。
Then, the specifying
このように、特定装置10は、生成した学習モデルを用いて、所定のカテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに対応するパラメータの値を、指標として特定する。すなわち、特定装置10は、第1カテゴリや第2カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに基づいて、第1カテゴリや第2カテゴリに属する情報の特徴を学習した複数のモデルのランダム行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルのランダム行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。
As described above, the specifying
そして、特定装置10は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択し、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させ、学習が行われたモデルを出力する。このため、特定装置10は、モデルの作成を容易にすることができる。
Then, the identifying
例えば、上述した説明では、特定装置10は、各登録モデルが、ある程度の粒度で、どのカテゴリに属する学習データの特徴を学習したかを示す情報の登録を登録者から受付ければよい。また、特定装置10は、共変量シフトの方式を用いて、登録モデルと対応するランダム行列の固有値の分布を、学習データの分布の偏りと見做すことで、指定カテゴリと登録モデルが特徴を学習したカテゴリとの間のズレを、登録モデル同士の固有値の分布と見做し、指定カテゴリの学習に適した登録モデルを選択する。このため、特定装置10は、指定カテゴリの学習データを大量に有さずとも、あるデータ群に対する学習データの分布が、指定カテゴリに属するデータの分布と類似する学習データの特徴を学習した登録モデルを用いて、学習を行うことができる。すなわち、特定装置10は、指定カテゴリに属する学習データと類似する学習データによりプレトレーニングが行われた登録モデルを用いて、提供モデルを生成するので、モデルの作成に要するリソース等を削減できる。
For example, in the above description, the identifying
〔2.特定装置の構成〕
以下、上記した特定処理を実現する特定装置10が有する機能構成の一例について説明する。図2は、実施形態に係る特定装置の構成例を示す図である。図2に示すように、特定装置10は、通信部20、記憶部30、および制御部40を有する。
[2. (Specific device configuration)
Hereinafter, an example of the functional configuration of the specifying
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、登録サーバ100、およびクライアントサーバ200との間で情報の送受信を行う。
The
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、登録モデルデータベース31および学習モデルデータベース32を記憶する。
The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 also stores a registered
登録モデルデータベース31には、登録者により登録がなされた各種の登録モデルが登録される。例えば、図3は、実施形態に係る登録モデルデータベースに登録される情報の一例を示す図である。図3に示すように、登録モデルデータベース31には、「モデルID(Identifier)」、「カテゴリ」、「モデルデータ」、「行列情報」、「固有ベクトル」、および「固有値」といった項目を有する情報が登録される。
Various registered models registered by the registrant are registered in the registered
ここで、「モデルID」とは、各モデルを識別するための識別子である。また、「カテゴリ」とは、各モデルが特徴を学習した学習データが属するカテゴリである。また、「モデルデータ」とは、対応付けられた「モデルID」が示す登録モデルのデータであり、各ノードの情報や接続係数の値等が登録される。また、「行列情報」とは、対応付けられた「モデルID」が示す登録モデルの接続係数の値に基づいて生成されたランダム行列である。また、「固有ベクトル」とは、ランダム行列の固有ベクトルである。また、「固有値」とは、ランダム行列の固有値である。 Here, the “model ID” is an identifier for identifying each model. The “category” is a category to which learning data in which each model has learned features belongs. “Model data” is registered model data indicated by the associated “model ID”, and information on each node, connection coefficient values, and the like are registered. The “matrix information” is a random matrix generated based on the connection coefficient value of the registered model indicated by the associated “model ID”. The “eigenvector” is an eigenvector of a random matrix. The “eigenvalue” is an eigenvalue of a random matrix.
例えば、図3に示す例では、登録モデルデータベース31には、モデルID「モデル#1」、カテゴリ「カテゴリA」、モデルデータ「モデルデータ#1」、行列情報「ランダム行列#1」、固有ベクトル「固有ベクトル#1」、および固有値「固有値#1」とが対応付けて登録されている。このような情報は、モデルID「モデル#1」が示す登録モデルが、カテゴリ「カテゴリA」に属する学習データの特徴を学習しており、そのデータがモデルデータ「モデルデータ#1」である旨を示す。また、このような情報は、モデルID「モデル#1」が示す登録モデルのランダム行列が、「ランダム行列#1」であり、「ランダム行列#1」の固有ベクトルが「固有ベクトル#1」であり、固有値が「固有値#1」である旨を示す。
For example, in the example illustrated in FIG. 3, the registered
なお、図3に示す例では、「モデル#1」、「カテゴリA」、「モデルデータ#1」、「ランダム行列#1」、「固有ベクトル#1」、「固有値#1」といった概念的な値を記載したが、実際には、登録モデルデータベース31には、モデルやカテゴリを識別するための文字列、モデルを構成する各ノードの情報やノード間の接続関係を示す情報、ランダム行列が有する各要素、ランダム行列の固有ベクトル、および固有値を示す値等が登録されることとなる。
In the example shown in FIG. 3, conceptual values such as “
図2に戻り、説明を続ける。学習モデルデータベース32には、共変量シフトのパラメータθと、学習モデルが属するカテゴリとの間の関係性を学習した学習モデルのデータが登録される。なお、学習モデルデータベース32には、ニューラルネットワークや重回帰モデル等、任意の形式のモデルが登録されていてよい。
Returning to FIG. 2, the description will be continued. In the
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、特定装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
The
図2に示すように、制御部40は、取得部41、生成部42、算出部43、特定部44、選択部45、学習部46、および出力部47を有する。
As illustrated in FIG. 2, the
取得部41は、登録モデルを取得する。例えば、取得部41は、登録サーバ100から、登録モデルのデータと、その登録モデルが特徴を学習した学習データが属するカテゴリとの登録を受付ける。このような場合、取得部41は、受付けた登録モデルのデータと、カテゴリとを登録モデルデータベース31にモデルIDと対応付けて登録する。
The
生成部42は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習した登録モデルが有するノード間の接続係数に基づいて、その登録モデルと対応する行列を生成する。より具体的な例を挙げると、生成部42は、登録モデルと対応する行列として、登録モデルの接続係数に基づくランダム行列を生成する。例えば、生成部42は、登録モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。より具体的な例を挙げると、生成部42は、登録モデルデータベース31に登録された登録モデルの中から、ランダム行列が登録されていない登録モデルを特定し、特定した登録モデルのモデルデータを読み出す。そして、生成部42は、上述した式(1)、(2)を用いて、登録モデルが有する各接続係数から、登録モデルと対応するランダム行列を生成し、生成したランダム行列を登録モデルデータベース31に登録する。
The generation unit 42 is a model having nodes connected in multiple layers, and generates a matrix corresponding to the registration model based on the connection coefficient between nodes of the registration model that has learned the features of the predetermined information. . As a more specific example, the generation unit 42 generates a random matrix based on the connection coefficient of the registered model as a matrix corresponding to the registered model. For example, the generation unit 42 generates a random matrix whose element is the occurrence probability of the connection coefficient between the nodes included in the registration model. As a more specific example, the generation unit 42 identifies a registered model in which a random matrix is not registered from among the registered models registered in the registered
算出部43は、ランダム行列の固有値を算出する。例えば、算出部43は、登録モデルデータベース31に登録された登録モデルの中から、固有値や固有ベクトルが登録されていない登録モデルを特定し、特定した登録モデルのランダム行列を読み出す。そして、算出部43は、読み出したランダム行列の固有値および固有ベクトルを算出し、算出した固有値や固有ベクトルを登録モデルデータベース31に登録する。なお、固有値の算出や固有ベクトルの算出は、任意の公知技術が採用可能である。
The
特定部44は、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させる登録モデルの指標を特定する。例えば、特定部44は、所定の第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値群と、所定の第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値群と、を登録モデルデータベース31から読み出す。
The specifying
そして、特定部44は、所定の第1カテゴリと対応する固有値群の偏りと、所定の第2カテゴリと対応する固有値群の偏りとの間の関係性を示すパラメータθの値を上述した式(5)を用いて算出する。すなわち、特定部44は、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第1カテゴリに属する情報の分布と見做し、第2カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りを、第2カテゴリに属する情報の分布と見做して、分布間における共変量シフトのパラメータを算出する。
Then, the specifying
また、特定部44は、式(5)を用いて算出したパラメータθの値が有する特徴を学習モデルに学習させる。より具体的には、特定部44は、第1カテゴリに属する情報の分布と第2カテゴリに属する情報の分布との間のズレと、パラメータθとの間の関係性を学習モデルに学習させる。また、特定部44は、各カテゴリ間ごとに、上述した処理を実行することで、各カテゴリ間における情報の分布のズレと、パラメータθとの間の関係性を学習モデルに学習させる。
In addition, the specifying
また、特定部44は、クライアントサーバ200から指定カテゴリの通知を受付けた場合は、学習モデルを用いて、指定カテゴリに属する情報の分布と、他のカテゴリに属する情報の分布との間のズレに対応するパラメータθの値を指標として特定する。例えば、特定部44は、指定カテゴリと他のカテゴリとを学習モデルに入力することで、指定カテゴリと各カテゴリとの間のズレに対応するパラメータθの値をそれぞれ算出する。すなわち、特定部44は、第1カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに基づいて、第1カテゴリに属する情報の特徴を学習した複数の登録モデルのランダム行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルのランダム行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。
In addition, when the notification of the specified category is received from the
選択部45は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択する。例えば、選択部45は、登録モデルの中から、処理対象となるカテゴリを1つ選択し、選択したカテゴリに属する登録モデルの固有値の偏りと、他のカテゴリに属する登録モデルの固有値の偏りとから、パラメータθの値を算出する。そして、選択部45は、他の各カテゴリとの間のパラメータθの値が、特定部44によって特定されたパラメータθと類似するカテゴリを選択する。
The
例えば、選択部45は、指定カテゴリとして、カテゴリCの指定を受付けた場合、カテゴリAとカテゴリCとの間のパラメータθACと、カテゴリBとカテゴリCとの間のパラメータθBCとを学習モデルを用いて算出する。また、選択部45は、例えば、処理対象となるカテゴリとして、カテゴリDを選択した場合、カテゴリAとカテゴリDとの間のパラメータθADと、カテゴリBとカテゴリCとの間のパラメータθBDとを、各カテゴリに属する登録モデルと対応するランダム行列の固有値の偏りから算出する。そして、選択部45は、パラメータθACと、パラメータθADとの値が類似し、かつ、パラメータθBCとパラメータθBDとの値が類似する場合は、カテゴリDをカテゴリCに類似するカテゴリとして選択する。その後、選択部45は、選択したカテゴリDに属する登録モデルの中から、いズレかの登録モデルを選択する。
For example, when the
学習部46は、選択されたモデルに対し、指定カテゴリに属する情報の特徴を学習させる。例えば、学習部46は、指定カテゴリに属する情報を学習データとして任意の手法で取得する。例えば、学習部46は、クライアントサーバ200から、指定カテゴリに属する学習データの登録を受付けてもよい。そして、学習部46は、選択部45によって選択された登録モデルに、取得した学習データが有する特徴を学習させる。
The learning unit 46 causes the selected model to learn the characteristics of information belonging to the specified category. For example, the learning unit 46 acquires information belonging to the specified category as learning data by an arbitrary method. For example, the learning unit 46 may accept registration of learning data belonging to a specified category from the
出力部47は、学習が行われた登録モデルを提供モデルとして出力する。例えば、出力部47は、学習部46が指定カテゴリに属する学習データを登録モデルに学習させた場合は、かかる登録モデルを提供モデルとして、クライアントサーバ200へと送信する。
The
〔3.特定装置が実行する処理の流れの一例〕
次に、図4、図5を用いて、特定装置10が実行する処理の流れの一例について説明する。図4は、実施形態に係る特定処理の流れの一例を説明するフローチャートである。また、図5は、実施形態に係る特定処理の結果を用いて、提供モデルを生成する処理の流れの一例を説明するフローチャートである。
[3. Example of processing flow executed by specific device]
Next, an example of the flow of processing executed by the specifying
まず、図4を用いて、特定処理の流れの一例を説明する。まず、特定装置10は、登録モデルの登録を受付ける(ステップS101)。このような場合、特定装置10は、登録モデルと対応するランダム行列を生成し、生成したランダム行列の固有値を算出する(ステップS102)。そして、特定装置10は、各カテゴリに属する登録モデルの固有値の分布の偏りに基づいて、共変量シフトにおけるパラメータθの値をカテゴリ間ごとに算出し(ステップS103)、カテゴリ間の関係性と算出したパラメータθの値との特徴を学習モデルに学習させ(ステップS104)、処理を終了する。
First, an example of the flow of specific processing will be described with reference to FIG. First, the identifying
次に、図5を用いて、提供モデルを生成する処理の流れの一例を説明する。まず、特定装置10は、指定カテゴリを受付ける(ステップS201)。このような場合、特定装置10は、指定カテゴリと、他のカテゴリとの間の関係性に基づいて、学習モデルを用いて、対応するパラメータθの値を特定する(ステップS202)。そして、特定装置10は、他のカテゴリとの間の共変量シフトにおけるパラメータθの値が、特定したパラメータの値と類似するカテゴリに属する登録モデルを選択する(ステップS203)。
Next, an example of a process flow for generating a provided model will be described with reference to FIG. First, the
そして、特定装置10は、選択した登録モデルを用いて、指定カテゴリの学習データの特徴を学習したモデルを生成し(ステップS204)、生成した登録モデルを提供モデルとして出力し(ステップS205)、処理を終了する。
Then, the specifying
〔4.変形例〕
上記では、特定装置10による特定処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、特定装置10が実行する特定処理のバリエーションについて説明する。
[4. (Modification)
In the above, an example of the specifying process by the specifying
〔4−1.指標について〕
例えば、特定装置10は、指定カテゴリと他のカテゴリとの間のパラメータθの値を、指標として出力してもよい。このようなパラメータθの値は、指定カテゴリを学習させるためのモデルを生成したり、他に学習データの量が豊富なカテゴリであって、モデルのプレトレーニングに利用することが可能であるカテゴリの選択に利用可能である。また、特定装置10は、各カテゴリ間の関係性と、パラメータθとの間の関係性を学習した学習モデルを指標を示す情報として出力してもよい。
[4-1. About indicators)
For example, the specifying
〔4−2.学習モデルについて〕
ここで、特定装置10は、指定カテゴリと他のカテゴリとの間のパラメータθの値を特定することができるのであれば、任意の学習手法により学習が行われた学習モデルを用いて、パラメータθの値を特定して良い。例えば、特定装置10は、w2v等の技術を用いて、第1カテゴリを示す文字列や第2カテゴリを示す文字列からベクトルを生成し、生成したベクトル間の関係性(例えば、コサイン類似度)と、パラメータθとの間の関係性を学習モデルに学習させる。そして、特定装置10は、w2v等の技術を用いて、指定カテゴリを示す文字列のベクトルを生成し、生成したベクトルと、他のカテゴリのベクトルとの間の関係性から、指定カテゴリと他のカテゴリとの間の関係性に対応するパラメータθの値を算出してもよい。また、特定装置10は、ランダム行列以外にも、各モデルの接続係数の特徴を示すことができる行列であれば、任意の行列の固有値に基づいて、各モデルの学習データの偏りを推定し、推定した偏りに基づいて、指定カテゴリの学習に用いるモデルの指標を特定すればよい。
[4-2. About the learning model)
Here, if the
〔4−3.装置構成〕
上述した例では、特定装置10は、特定装置10内で特定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、特定装置10は、パラメータθの算出、学習モデルの学習、指定カテゴリの学習に利用可能な登録モデルの選択、提供モデルの学習等を実行するバックエンドサーバと、指定カテゴリの受付や提供モデルの提供を行うフロントエンドサーバとにより実現されてもよい。また、特定装置10は、登録モデルデータベース31や学習モデルデータベース32を外部のストレージサーバに記憶させてもよい。
[4-3. Device configuration〕
In the example described above, the specifying
〔4−4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-4. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above text and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined within a range in which processing contents do not contradict each other.
〔5.プログラム〕
また、上述してきた実施形態に係る特定装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5. program〕
Further, the specifying
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from other devices via the network N and sends the data to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が特定装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the computer 1000 functions as the
〔6.効果〕
上述したように、特定装置10は、多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、モデルと対応する行列を生成する。また、特定装置10は、行列の固有値を算出する。そして、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する。このため、特定装置10は、モデルの作成を容易にすることができる。
[6. effect〕
As described above, the specifying
また、特定装置10は、特定された指標に基づいて、指定カテゴリに属する情報の特徴を学習させるモデルを選択する。そして、特定装置10は、選択したモデルに対し、指定カテゴリに属する情報の特徴を学習させ、学習が行われたモデルを出力する。このため、特定装置10は、指定カテゴリに属する学習データの特徴を学習させたモデルを比較的に容易に生成できる。
Further, the identifying
また、特定装置10は、モデルが有する各ノード間の接続係数に基づいた、ランダム行列を生成する。例えば、特定装置10は、モデルが有する各ノードの間の接続係数の発生確率を要素とするランダム行列を生成する。このため、特定装置10は、各モデルが学習した学習データが有する分布の偏りを、ランダム行列の固有値の分布とし、かかる固有値の分布に応じて、指定カテゴリに属する情報の特徴を容易に学習できるモデルを選択することができる。
Further, the identifying
また、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、指定カテゴリに属する情報の特徴を学習する複数のモデルの行列から算出される固有値の偏りとの間のズレを示す情報を、指標として特定する。例えば、特定装置10は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの間の関係性を示すパラメータの値と、所定のカテゴリに属する情報の分布と前記他のカテゴリに属する情報の分布との間のズレとの間の関係性を学習した学習モデルを生成し、生成した学習モデルを用いて、第1カテゴリに属する情報の分布と指定カテゴリに属する情報の分布との間のズレに対応するパラメータの値を、指標として特定する。このため、特定装置10は、第1カテゴリに属する情報の特徴を学習した複数のモデルが、指定カテゴリに属する情報の特徴を容易に学習できるか否かを示す指標を特定することができる。
In addition, the specifying
また、特定装置10は、所定のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、所定のカテゴリに属する情報の分布と見做し、他のカテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りを、他のカテゴリに属する情報の分布と見做して、情報の分布間における共変量シフトのパラメータを算出する。このため、特定装置10は、各モデルが学習した学習データが有する分布の偏りに基づいて、指定カテゴリに属する情報の特徴を容易に学習できるモデルを選択することができる。
Further, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the generation unit can be read as generation means or a generation circuit.
10 特定装置
20 通信部
30 記憶部
31 登録モデルデータデータベース
32 学習モデルデータベース
40 制御部
41 取得部
42 生成部
43 算出部
44 特定部
45 選択部
46 学習部
47 出力部
100 登録サーバ
200 クライアントサーバ
DESCRIPTION OF
Claims (8)
前記行列の固有値を算出する算出部と、
第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する特定部と
を有することを特徴とする特定装置。 A matrix generation unit that generates a matrix corresponding to a model based on a connection coefficient between nodes of a model having nodes connected in multiple layers and having learned features of predetermined information;
A calculation unit for calculating eigenvalues of the matrix;
A bias of eigenvalues calculated from a matrix of models learning information features belonging to the first category, and a bias of eigenvalues calculated from a matrix of models learning information features belonging to the second category A specifying device comprising: a specifying unit that specifies an index of a model for learning features of information belonging to a designated category designated by a user based on a comparison result.
前記選択部が選択したモデルに対し、前記指定カテゴリに属する情報の特徴を学習させる学習部と、
前記学習部により学習が行われたモデルを出力する出力部と
を有することを特徴とする請求項1に記載の特定装置。 A selection unit that selects a model for learning features of information belonging to the specified category based on the index specified by the specifying unit;
A learning unit for learning features of information belonging to the specified category for the model selected by the selection unit;
The specifying device according to claim 1, further comprising: an output unit that outputs a model learned by the learning unit.
ことを特徴とする請求項1に記載の特定装置。 The identification device according to claim 1, wherein the matrix generation unit generates a random matrix as a matrix corresponding to the model.
ことを特徴とする請求項3に記載の特定装置。 The identification device according to claim 3, wherein the matrix generation unit generates a random matrix having an occurrence probability of a connection coefficient between nodes included in the model as an element.
ことを特徴とする請求項1〜3のうちいずれか1つに記載の特定装置。 The specifying unit is calculated from a bias of eigenvalues calculated from a matrix of a plurality of models learning information features belonging to the first category and a matrix of a plurality of models learning information features belonging to the specified category. The identification device according to any one of claims 1 to 3, wherein information indicating a deviation from a deviation in eigenvalues is specified as the index.
ことを特徴とする請求項5に記載の特定装置。 The identifying unit includes eigenvalue biases calculated from a matrix of a plurality of models learned information features belonging to a predetermined category and eigenvalues calculated from a matrix of a plurality of models learned information features belonging to another category. A learning model that learns the relationship between the value of a parameter indicating the relationship between the bias and the deviation between the distribution of information belonging to the predetermined category and the distribution of information belonging to the other category And using the generated learning model, the parameter value corresponding to the deviation between the distribution of information belonging to the first category and the distribution of information belonging to the designated category is specified as the indicator. 6. The identification device according to claim 5, wherein
ことを特徴とする請求項6に記載の特定装置。 The specifying unit considers a bias of eigenvalues calculated from a matrix of a plurality of models that learned features of information belonging to a predetermined category as a distribution of information belonging to the predetermined category, and belongs to the other category Considering the bias of the eigenvalues calculated from the matrix of multiple models that learned the features of the information as the distribution of information belonging to the other category, calculating the parameters of the covariate shift between the information distributions 7. The identification device according to claim 6, wherein
多層に接続されたノードを有するモデルであって、所定の情報が有する特徴を学習したモデルが有するノード間の接続係数に基づいて、当該モデルと対応する行列を生成する行列生成工程と、
前記行列の固有値を算出する算出工程と、
第1カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りと、第2カテゴリに属する情報の特徴を学習した複数のモデルの行列から算出された固有値の偏りとの比較結果に基づいて、利用者が指定した指定カテゴリに属する情報の特徴を学習させるモデルの指標を特定する特定工程と
を含むことを特徴とする特定方法。 A specific method performed by a specific device,
A matrix generation step of generating a matrix corresponding to the model based on a connection coefficient between nodes of a model having nodes connected in multiple layers and having learned features of predetermined information;
A calculation step of calculating eigenvalues of the matrix;
A bias of eigenvalues calculated from a matrix of models learning information features belonging to the first category, and a bias of eigenvalues calculated from a matrix of models learning information features belonging to the second category And a specifying step of specifying an index of a model for learning features of information belonging to a specified category specified by a user based on a comparison result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017141231A JP6910873B2 (en) | 2017-07-20 | 2017-07-20 | Specific device and specific method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017141231A JP6910873B2 (en) | 2017-07-20 | 2017-07-20 | Specific device and specific method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019021210A true JP2019021210A (en) | 2019-02-07 |
JP6910873B2 JP6910873B2 (en) | 2021-07-28 |
Family
ID=65353206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017141231A Active JP6910873B2 (en) | 2017-07-20 | 2017-07-20 | Specific device and specific method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6910873B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135156A (en) * | 2019-02-14 | 2020-08-31 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2020149693A (en) * | 2019-03-14 | 2020-09-17 | アクタピオ,インコーポレイテッド | Generation device, generation method, and generation program |
-
2017
- 2017-07-20 JP JP2017141231A patent/JP6910873B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135156A (en) * | 2019-02-14 | 2020-08-31 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2020149693A (en) * | 2019-03-14 | 2020-09-17 | アクタピオ,インコーポレイテッド | Generation device, generation method, and generation program |
JP7267964B2 (en) | 2019-03-14 | 2023-05-02 | アクタピオ,インコーポレイテッド | Generation device, generation method and generation program |
Also Published As
Publication number | Publication date |
---|---|
JP6910873B2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108431833B (en) | End-to-end depth collaborative filtering | |
US11699095B2 (en) | Cross-domain recommender systems using domain separation networks and autoencoders | |
US11521110B2 (en) | Learning apparatus, learning method, and non-transitory computer readable storage medium | |
CN109726331B (en) | Object preference prediction method, device and computer readable medium | |
US20190354533A1 (en) | Information processing device, information processing method, and non-transitory computer-readable recording medium | |
US11227228B2 (en) | Processing apparatus, processing method, estimating apparatus, estimating method, and program | |
WO2018088277A1 (en) | Prediction model generation system, method, and program | |
JP6947768B2 (en) | Estimator, estimation method and estimation program | |
JP6910873B2 (en) | Specific device and specific method | |
JP7058556B2 (en) | Judgment device, judgment method, and judgment program | |
JP7231322B2 (en) | LEARNING DEVICE, LEARNING METHOD, LEARNING PROGRAM AND PROGRAM | |
US11334935B2 (en) | Method, system, and manufacture for light hypergraph based recommendation | |
WO2018088276A1 (en) | Prediction model generation system, method, and program | |
JP6541737B2 (en) | Selection apparatus, selection method, selection program, model and learning data | |
JP7210792B2 (en) | Information processing method, information processing device, and information processing program | |
JP7449426B2 (en) | Information processing method, information processing device, and information processing program | |
JP7275350B2 (en) | Information processing method, information processing device, and information processing program | |
JP7304475B1 (en) | Information processing method, information processing device, and information processing program | |
JP2019057266A (en) | Generation device, learning apparatus, generation method, learning method, generation program, learning program, and model | |
JP7311700B1 (en) | Information processing method, information processing device, and information processing program | |
JP2018045551A (en) | Determination device, determination method, and determination program | |
JP6956133B2 (en) | model | |
JP7268069B2 (en) | LEARNING DEVICE, LEARNING METHOD, LEARNING PROGRAM, EVALUATION DEVICE, EVALUATION METHOD, AND EVALUATION PROGRAM | |
JP7309673B2 (en) | Information processing device, information processing method, and program | |
JP6998349B2 (en) | Learning equipment, learning methods, and learning programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6910873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |