JP6858082B2 - Management equipment, management methods, and programs - Google Patents
Management equipment, management methods, and programs Download PDFInfo
- Publication number
- JP6858082B2 JP6858082B2 JP2017112748A JP2017112748A JP6858082B2 JP 6858082 B2 JP6858082 B2 JP 6858082B2 JP 2017112748 A JP2017112748 A JP 2017112748A JP 2017112748 A JP2017112748 A JP 2017112748A JP 6858082 B2 JP6858082 B2 JP 6858082B2
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- unit
- model
- learning
- contributor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、学習モデルを管理するための管理装置、管理方法、及びプログラムに関する。 The present invention relates to a management device, a management method, and a program for managing a learning model.
従来、入力データに対する出力データを予測する学習モデルを機械学習に基づいて作成することが行われている(例えば、特許文献1参照)。 Conventionally, a learning model for predicting output data with respect to input data has been created based on machine learning (see, for example, Patent Document 1).
学習モデルは、ニューラルネットワークを用いた学習によって作成された複数の層を有している。学習モデルの作成では、他人が作成した学習モデルを再学習することによって既存の層を更新したり、新たに層を追加したりすることにより学習モデルが作成されることがある。この場合、コントリビュータが、他のコントリビュータが作成した他の学習モデルを無断で用いて学習モデルを作成することがあるという問題が発生する。 The learning model has a plurality of layers created by learning using a neural network. In the creation of a learning model, a learning model may be created by updating an existing layer by re-learning a learning model created by another person or by adding a new layer. In this case, there arises a problem that the contributor may create a learning model by using another learning model created by another contributor without permission.
そこで、本発明はこれらの点に鑑みてなされたものであり、学習モデルが他の学習モデルの少なくとも一部を用いて作成されているかを管理することができる管理装置、管理方法、及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of these points, and provides a management device, a management method, and a program capable of managing whether or not a learning model is created by using at least a part of other learning models. The purpose is to provide.
本発明の第1の態様に係る管理装置は、タスクを実現するための学習モデルを1又は複数のサブセットに分割する分割部と、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する生成部と、を備える。 The management device according to the first aspect of the present invention identifies the learning model by generating a partition portion that divides the learning model for realizing a task into one or a plurality of subsets and a hash value of each of the subsets. It is provided with a generation unit for generating identification information for the purpose.
前記学習モデルはニューラルネットワークを用いた学習によって生成された複数の層それぞれの重みであり、前記分割部は、前記複数の層を分割して前記サブセットとしてもよい。 The learning model is a weight of each of a plurality of layers generated by learning using a neural network, and the division unit may divide the plurality of layers into the subset.
前記分割部は、前記学習モデルのラベルを含めて前記サブセットを生成してもよい。
前記生成部は、前記サブセットそれぞれのハッシュ値を要素とするデータ列を前記識別情報として生成してもよい。
The division may generate the subset including the label of the learning model.
The generation unit may generate a data string having a hash value of each of the subsets as an element as the identification information.
前記管理装置は、生成した識別情報と、前記学習モデルを使用可能なユーザの識別情報とを関連付けたライセンス情報を記憶する記憶部、をさらに備えてもよい。
前記管理装置は、ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける受付部と、前記ライセンス情報を参照して前記他の装置のユーザが前記学習モデルを使用可能か否かを判定する認証部と、前記ユーザが前記学習モデルを使用可能な場合、前記他の装置から取得した前記タスクを実行するためのデータに関する前記学習モデルの実行結果を出力する学習実行部と、をさらに備えてもよい。
The management device may further include a storage unit that stores license information in which the generated identification information is associated with the identification information of a user who can use the learning model.
The management device determines whether or not the user of the other device can use the learning model by referring to the reception unit that receives a request for using the learning model from another device via the network and the license information. The authentication unit is further provided, and when the user can use the learning model, a learning execution unit that outputs an execution result of the learning model regarding data for executing the task acquired from the other device is further provided. You may.
前記管理装置は、前記タスクを実行するための前記学習実行部の利用態様に基づいて、前記ユーザに請求する請求額を算出する対価算出部をさらに備えてもよい。
前記対価算出部は、前記タスクを実行するための前記学習実行部の利用負荷に基づいて、前記ユーザに請求する請求額を算出してもよい。
前記対価算出部は、前記タスクを実行するための前記学習実行部の占有率に基づいて、前記ユーザに請求する請求額を算出してもよい。
The management device may further include a consideration calculation unit that calculates a billing amount to be charged to the user based on a usage mode of the learning execution unit for executing the task.
The consideration calculation unit may calculate the billing amount to be charged to the user based on the usage load of the learning execution unit for executing the task.
The consideration calculation unit may calculate the billing amount to be charged to the user based on the occupancy rate of the learning execution unit for executing the task.
本発明の第2の態様に係る管理方法は、プロセッサが、タスクを実現するための学習モデルを1又は複数のサブセットに分割するステップと、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成するステップと、を実行する。 In the management method according to the second aspect of the present invention, the processor divides the learning model for realizing a task into one or a plurality of subsets, and generates a hash value for each of the subsets to generate the learning model. Perform steps to generate identification information for identification.
本発明の第3の態様に係るプログラムは、コンピュータに、タスクを実現するための学習モデルを1又は複数のサブセットに分割する機能と、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する機能と、を実現させる。 The program according to the third aspect of the present invention identifies the learning model by generating a function of dividing the learning model for realizing a task into one or a plurality of subsets and generating a hash value of each of the subsets on a computer. The function of generating the identification information for the purpose of the above is realized.
本発明によれば、学習モデルが他の学習モデルを用いて作成されているかを管理することができるという効果を奏する。 According to the present invention, it is possible to control whether or not the learning model is created by using another learning model.
[管理装置1の概要]
図1は、本実施形態に係る管理装置1の概要を示す図である。管理装置1は、ニューラルネットワークの学習モデルの登録を受け付け、登録された学習モデルの使用を有償で受け付ける装置である。管理装置1は、LAN(Local Area Network)やインターネット等の通信ネットワークを介してコントリビュータ端末2及びユーザ端末3と通信可能に接続されている。
[Overview of management device 1]
FIG. 1 is a diagram showing an outline of the
本実施形態を説明するにあたり、まず、ニューラルネットワークについて簡単に説明する。ニューラルネットワークの基本構成は、複数種類の層の重ね合わせ(又はグラフ構造)で表現される。 In explaining this embodiment, first, a neural network will be briefly described. The basic configuration of a neural network is represented by a superposition (or graph structure) of a plurality of types of layers.
図1には、順伝播型のニューラルネットワークが示されている。順伝播型のニューラルネットワークは、入力層(input layer)と、隠れ層(hidden layer)と、出力層(output layer)との3つの層から構成され、入力層から出力層へ向けて一方向に伝播する。隠れ層は、グラフ状に複数の層から構成することができる。各層は、複数のユニット(ニューロン)を持つ。各層において、前方層のユニットから後方層のユニットへつなぐ関数のパラメータを、「重み(weight)」という。本実施形態における学習とは、この関数のパラメータとして、適切な「重み」を算出することである。また、本実施形態における学習モデルは、複数の層のそれぞれの重みであり、タスクを実現するために用いられる。 FIG. 1 shows a feedforward neural network. A feedforward neural network is composed of three layers, an input layer, a hidden layer, and an output layer, and is unidirectional from the input layer to the output layer. Propagate. The hidden layer can be composed of a plurality of layers in a graph shape. Each layer has multiple units (neurons). In each layer, the parameter of the function that connects the unit in the front layer to the unit in the rear layer is called "weight". Learning in this embodiment is to calculate an appropriate "weight" as a parameter of this function. Further, the learning model in the present embodiment is the weight of each of the plurality of layers and is used to realize the task.
ニューラルネットワークにおける学習は、訓練データに対する出力層からの出力値と訓練データのラベルとの誤差を用いて、各層の重みを最適に更新することを意味する。その誤差を算出するために、「損失関数」(loss function)が定義される。誤差は、「誤差逆伝播法」によって出力層側から入力層側へ向けて次々に伝播し、各層の重みを少しずつ更新していく。最終的に誤差が小さくなるように、各層の重みを適切な値に調整する収束計算を実行することにより、学習モデルが作成される。 Learning in a neural network means that the weight of each layer is optimally updated by using the error between the output value from the output layer and the label of the training data with respect to the training data. A "loss function" is defined to calculate the error. The error is propagated one after another from the output layer side to the input layer side by the "error backpropagation method", and the weight of each layer is updated little by little. A learning model is created by performing a convergence calculation that adjusts the weights of each layer to appropriate values so that the error is finally small.
ところで、学習モデルを作成するユーザは、予め作成されている学習モデルを再学習することによって既存の重みを更新したり、新たな層を追加したりすることによって学習モデルを作成することがある。この場合には、複数のユーザが学習モデルの作成に寄与していることとなる。以下、学習モデルの作成に寄与したユーザを「コントリビュータ」という。 By the way, a user who creates a learning model may create a learning model by updating an existing weight by re-learning a learning model created in advance or by adding a new layer. In this case, a plurality of users are contributing to the creation of the learning model. Hereinafter, the user who contributed to the creation of the learning model is referred to as a "contributor".
図1に示す例では、学習モデルMが生成されている。学習モデルMには、重みW1〜Wnが含まれている。ここで、図1に示すように、入力層と、隠れ層の一部に対応する重みW1〜WiをコントリビュータAが作成し、隠れ層の他の一部に対応する重みWi+1〜WnをコントリビュータBが作成したとする。この場合、コントリビュータAと、コントリビュータBとが学習モデルMの作成に寄与している。 In the example shown in FIG. 1, the learning model M is generated. The learning model M includes weights W1 to Wn. Here, as shown in FIG. 1, the contributor A creates the input layer and the weights W1 to Wi corresponding to a part of the hidden layer, and the contributor B creates the weights Wi + 1 to Wn corresponding to the other part of the hidden layer. Created by. In this case, the contributor A and the contributor B contribute to the creation of the learning model M.
本実施形態に係る管理装置1は、学習モデルの使用の見返りとして支払われた対価を、各コントリビュータに適切に分配するために、学習モデルと、学習モデルの作成に対する各コントリビュータの寄与率とを関連付けて記憶する(図1の(1))。
The
また、管理装置1は、学習モデルの使用を希望するユーザが使用するユーザ端末3から、学習モデルのライセンス登録を受け付ける(図1の(2))。ここで、ライセンスは、学習モデルを識別するモデル識別情報としてのモデルIDと、学習モデルを使用するユーザのユーザを識別するユーザIDとを関連付けることによって管理される。モデル識別情報は、学習モデルを分割することによって得られる1又は複数のサブセットのハッシュ値に基づいて生成される。このようにすることで、他の学習モデルを用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれるので、管理装置1は、学習モデルを作成した1又は複数のコントリビュータを特定することができる。
Further, the
その後、管理装置1は、学習モデルの使用要求を受け付ける(図1の(3))。管理装置1は、使用要求を受け付けるとユーザが学習モデルを使用可能か否かの認証を行う。管理装置1は、認証に成功した場合に、学習モデルを用いたタスクを実行し、実行結果をユーザ端末3に出力する(図1の(4))。管理装置1は、学習モデルの使用に対する対価を算出し、対価の支払いをユーザ端末3のユーザに請求する。その後、管理装置1は、ユーザから支払われた対価と、学習モデルに関連付けられている寄与率とに基づいて、各コントリビュータに対して支払う報酬を算出する(図1の(5))。このようにすることで、管理装置1は、学習モデルが使用されたことに応じて、コントリビュータに報酬を適切に支払うことができる。
以下、管理装置1の構成について説明する。
After that, the
Hereinafter, the configuration of the
[管理装置1の構成例]
図2は、本実施形態に係る管理装置1の構成を示す図である。
管理装置1は、記憶部11と、制御部12とを備える。
[Configuration example of management device 1]
FIG. 2 is a diagram showing a configuration of the
The
記憶部11は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)等である。記憶部11は、管理装置1を機能させるための各種プログラムを記憶する。例えば、記憶部11は、管理装置1の制御部12を、後述するモデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能させる管理プログラムを記憶する。また、記憶部11は、学習モデルを含む学習モデル情報と、学習モデルのライセンス情報とを記憶する。
The
図3は、本実施形態に係る学習モデル情報の一例を示す図である。図3に示すように、学習モデル情報は、登録者と、モデル名と、説明文と、学習モデルと、モデルIDと、量子化後データ列と、寄与者と、寄与率とを含む。 FIG. 3 is a diagram showing an example of learning model information according to the present embodiment. As shown in FIG. 3, the learning model information includes a registrant, a model name, a description, a learning model, a model ID, a post-quantized data string, a contributor, and a contribution rate.
登録者は、学習モデルを登録したコントリビュータを示しており、コントリビュータを識別するコントリビュータIDが格納される。モデル名は、モデルを識別するための情報である。本実施形態では、モデル名は、全ての学習モデルのそれぞれで異なるものとする。 The registrant indicates the contributor who registered the learning model, and the contributor ID that identifies the contributor is stored. The model name is information for identifying the model. In this embodiment, the model name is different for each of all learning models.
説明文は、モデルの内容を説明するための文字列である。モデルIDは、学習モデルを識別する情報である。量子化後データ列は、モデルIDを量子化した後のハッシュ値である。寄与者は、学習モデルの作成に寄与したコントリビュータを示しており、コントリビュータIDが格納される。ここで、寄与者及び寄与率は、1つの学習モデルに対して1又は複数関連付けられる。 The descriptive text is a character string for explaining the contents of the model. The model ID is information that identifies the learning model. The post-quantization data sequence is a hash value after the model ID is quantized. The contributor indicates the contributor who contributed to the creation of the learning model, and the contributor ID is stored. Here, the contributor and the contribution rate are associated with one or more for one learning model.
図4は、本実施形態に係るライセンス情報の一例を示す図である。図4に示すように、ライセンス情報は、学習モデルを使用するユーザのユーザIDと、モデル名と、モデルIDとを含む。 FIG. 4 is a diagram showing an example of license information according to the present embodiment. As shown in FIG. 4, the license information includes a user ID of a user who uses the learning model, a model name, and a model ID.
図2に説明を戻し、制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されている各種プログラムを実行することにより、管理装置1に係る機能を制御する。制御部12は、管理プログラムを実行することにより、モデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能する。
Returning to FIG. 2, the
[学習モデルの登録及び更新]
モデル登録部13は、コントリビュータが使用するコントリビュータ端末2から学習モデルの新規登録又は更新を受け付ける。図5は、本実施形態に係るモデル登録部13の構成を示す図である。図5に示すように、モデル登録部13は、取得部131と、分割部132と、第1ハッシュ生成部133と、量子化部134と、第2ハッシュ生成部135と、寄与率管理部136と、記憶制御部137とを備える。
[Registration and update of learning model]
The
取得部131は、コントリビュータ端末2から学習モデルを取得する。具体的には、取得部131は、学習モデルの新規登録を受け付ける場合には、コントリビュータ端末2から、学習モデルと、学習モデル名と、学習モデルの説明文と、学習モデルのラベルと、学習モデルを作成したコントリビュータのコントリビュータIDとを取得する。ここで、学習モデルには、複数の層のそれぞれに付与されているインデックスと、複数の層のそれぞれの重みを示す複数の重み値とが含まれている。
The
また、取得部131は、学習モデルの更新を受け付ける場合、まず、コントリビュータ端末2からコントリビュータIDを取得する。取得部131は、記憶部11に記憶されている学習モデル情報を参照し、コントリビュータIDに関連付けられているモデル名を特定し、当該モデル名のうちのいずれかの選択を受け付ける。そして、取得部131は、コントリビュータ端末2から、更新後の学習モデルを取得する。取得部131は、学習モデルの更新時にも学習モデルのラベルを取得してもよい。
Further, when accepting the update of the learning model, the
分割部132は、学習モデルを1又は複数のサブセットに分割する。分割部132は、複数の層を分割し、各層に対応する重みをサブセットとする。ここで、分割部132は、取得部131が学習モデルとともに取得した、学習モデルのラベルを含めてサブセットを生成する。
The
第1ハッシュ生成部133は、分割部132が生成した1又は複数のサブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成する。具体的には、まず、第1ハッシュ生成部133は、1又は複数のサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を生成する。そして、第1ハッシュ生成部133は、例えば、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とするデータ列をモデルIDとして生成する。
The first
量子化部134は、学習モデルの各層の重みである、分割部132が分割したサブセットのそれぞれを量子化する。例えば、量子化部134は、重み値のとりうる範囲を、複数の範囲に分割し、複数の範囲のそれぞれに代表値を設定する。量子化部134は、複数の重み値を、重み値が属する範囲に対応する代表値に変換することにより、サブセットを量子化する。このようにすることで、管理装置1は、学習モデルの細かい更新が発生した場合に、寄与率を変化させず、処理負荷を軽減することができる。
The
第2ハッシュ生成部135は、学習モデルの各層の重みのハッシュ値を要素とする量子化後データ列を生成する。具体的には、まず、第2ハッシュ生成部135は、量子化部134が量子化したサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を算出する。そして、第2ハッシュ生成部135は、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とする量子化後データ列を生成する。
The second
寄与率管理部136は、取得部131が取得した学習モデルの作成に関する各コントリビュータの寄与率を算定する。寄与率管理部136は、学習モデルを新規登録する場合には、記憶部11に記憶されている学習モデル情報を参照して、第1ハッシュ生成部133が生成したモデルIDに、学習モデル情報に記憶されている他の学習モデルのモデルIDが含まれているか否かを判定する。
The contribution
寄与率管理部136は、他の学習モデルのモデルIDが含まれていない場合には、新規登録する学習モデルが、登録を行うコントリビュータが独自に作成したものと判定し、当該コントリビュータの寄与率を1(100%)と算定する。
When the model ID of another learning model is not included, the contribution
寄与率管理部136は、他の学習モデルのモデルIDが含まれている場合には、記憶部11に記憶されている学習モデル情報に含まれている他の学習モデルを参照し、当該他の学習モデルの層数を特定する。そして、寄与率管理部136は、新規登録する学習モデルの全層数から他の学習モデルの層数を減算し、登録を行うコントリビュータが生成した層数を特定する。
When the model ID of another learning model is included, the contribution
また、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、他の学習モデルの寄与者及び寄与率と、当該他の学習モデルの層数とに基づいて、当該他の学習モデルを生成した各コントリビュータが生成した層数を特定する。そして、寄与率管理部136は、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する。
Further, the contribution
また、寄与率管理部136は、学習モデルが更新されることを契機として、寄与率を更新する。具体的には、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、更新対象の学習モデルの量子化後データ列を特定する。そして、寄与率管理部136は、特定した量子化後データ列と、第2ハッシュ生成部135が生成した量子化後データ列とが異なる場合、すなわち、量子化後データ列の変更があった場合に、学習モデルが更新されたと判定し、寄与率を算定する。学習モデルが更新される場合の寄与率の算定方法は、学習モデルが新規登録される場合の寄与率の算定方法と同じであるので、説明を省略する。
Further, the contribution
なお、寄与率管理部136は、各コントリビュータが学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量に基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量を示す情報を取得し、記憶部11に記憶されている学習モデル情報に、当該データ量を示す情報を格納させておく。
The contribution
また、寄与率管理部136は、学習に用いた計算資源の総コストに基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に消費した計算資源の量を示す計算資源情報を取得し、記憶部11に記憶されている学習モデル情報に、当該計算資源情報を格納させておく。ここで、消費資源情報には、CPU使用時間を示す情報と、記憶部11の使用領域(メモリ使用量)を示す情報とが含まれる。
Further, the contribution
また、計算資源に基づいて寄与率を算出するために、管理装置1は、ニューラルネットワークの学習を行うことにより学習モデルを生成するモデル生成部を備えてもよい。そして、モデル生成部は、コントリビュータ端末2からニューラルネットワークの学習に用いるデータを受け付け、ニューラルネットワークの学習を行う。また、モデル生成部は、コントリビュータIDと、生成された学習モデルのモデルIDと、学習において消費した計算資源を示す消費資源情報とを関連付けて記憶部11に記憶させる。寄与率管理部136は、記憶部11に記憶されている消費資源情報が示す計算資源に基づいて、各コントリビュータが学習モデルの生成に用いた計算資源の割合を特定し、当該割合に基づいて寄与率を算出する。
Further, in order to calculate the contribution rate based on the computational resources, the
寄与率管理部136は、学習モデル情報を参照し、学習モデルに対応するデータ量を示す情報と、当該学習モデルに含まれている他の学習モデルに対応するデータ量を示す情報とを特定する。そして、寄与率管理部136は、学習モデルに対応するデータ量と、他の学習モデルに対応するデータ量との割合に基づいて寄与率を算出する。学習モデルの生成では、学習に用いたデータ量が多ければ多いほど、学習効果が高くなり、学習モデルの有用度が増す。したがって、管理装置1は、学習に用いたデータ量に基づいて寄与率を算出することにより、学習モデルの有用度の向上に貢献したコントリビュータの寄与率を高く設定することができる。
The contribution
記憶制御部137は、学習モデルを記憶部11に記憶させる。記憶制御部137は、取得部131が取得したコントリビュータIDを登録者と特定する。記憶制御部137は、学習モデルの新規登録を受け付けた場合には、特定した登録者と、取得部131が取得した学習モデル、学習モデル名、説明文及びラベルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率と、を関連付けて学習モデル情報として記憶部11に記憶させる。
The
また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されたと判定すると、学習モデル情報に記憶されている学習モデル、モデルID、量子化後データ列、寄与者及び寄与率を更新する。記憶制御部137は、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率とに基づいて、学習モデル情報を更新する。
Further, when the
また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されていないと判定すると、学習モデル情報に記憶されている学習モデルと、モデルIDとを、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDとに更新する。
Further, when the
[ライセンス情報の登録]
説明を図2に戻す。ライセンス登録部14は、ユーザ端末3のユーザからライセンスの登録を受け付ける。例えば、ライセンス登録部14は、ユーザ端末3に、モデル名と、モデルIDと、説明文とを表示させ、ユーザが使用する学習モデルの選択を受け付ける。ここで、ライセンス登録部14は、例えば、学習モデルの全層数やラベルに基づいて、学習モデルのライセンス料を算出し、ユーザ端末3にライセンス料を表示してもよい。
[Registration of license information]
The explanation is returned to FIG. The
ユーザ端末3は、学習モデルが選択されると、モデル名と、モデルIDと、ユーザを識別するユーザIDとを含むライセンス登録要求を管理装置1に送信する。ライセンス登録部14は、ライセンス登録要求を受信すると、ライセンス登録要求に含まれているユーザIDと、モデル名と、モデルIDとを関連付けてライセンス情報として記憶部11に記憶させる。
When the learning model is selected, the
[学習モデルの使用]
使用受付部15は、通信ネットワークを介して他の装置としてのユーザ端末3から学習モデルの使用要求を受け付ける。具体的には、使用受付部15は、ユーザ端末3から、ユーザが使用する学習モデルのモデル名と、ユーザIDとを含む学習モデルの使用要求を受信することにより、学習モデルの使用要求を受け付ける。なお、本実施形態では、使用受付部15は、ユーザ端末3から学習モデルの使用要求を受け付けることとしたが、これに限らない。使用受付部15は、コントリビュータ端末2から使用要求を受け付けてもよい。
[Use of learning model]
The
認証部16は、使用受付部15がユーザ端末3から学習モデルの使用要求を受け付けると、記憶部11に記憶されているライセンス情報を参照して、ユーザ端末3のユーザが、当該学習モデルを使用可能か否かを判定する。
When the
具体的には、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用可能と判定する。
Specifically, the
また、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用不可と判定する。認証部16は、学習モデルを使用不可と判定すると、使用不可であることを示すメッセージをユーザ端末3に通知する。
Further, when the model name of the learning model included in the usage request of the learning model and the user ID are associated with each other and stored in the license information, the
学習実行部17は、ユーザが学習モデルを使用可能な場合、ユーザ端末3から取得したタスクを実行するためのデータに関する学習モデルの実行結果を出力する。具体的には、まず、学習実行部17は、ユーザ端末3のユーザが学習モデルを使用可能と認証部16が判定すると、ユーザ端末3から、タスクを実行するためのデータを1又は複数取得する。学習実行部17は、ユーザ端末3から取得したデータを入力データとし、使用要求に対応する学習モデルを使用したタスクを実行することにより実行結果を取得する。学習実行部17は、取得した実行結果をユーザ端末3に出力する。
When the user can use the learning model, the learning execution unit 17 outputs the execution result of the learning model regarding the data for executing the task acquired from the
[学習モデルの使用に対する対価及び各コントリビュータの報酬の算出]
対価算出部18は、タスクを実行するための学習実行部17の利用態様に基づいて、ユーザに請求する請求額を算出する。例えば、対価算出部18は、タスクを実行するための学習実行部17の利用負荷に基づいて、ユーザに請求する請求額を算出する。ここで、学習実行部17の利用負荷は、ユーザが使用した学習モデルに基づくタスクを実行した際に、学習実行部17が費やした時間、すなわちCPU使用時間である。このようにすることで、管理装置1は、利用負荷という観点に基づいて請求額を公平に算出することができる。
[Calculation of compensation for using the learning model and reward for each contributor]
The
なお、対価算出部18は、タスクを実行するための学習実行部17の占有率に基づいて、ユーザに請求する請求額を算出してもよい。ここで、学習実行部17の占有率は、ユーザが使用した学習モデルに基づくタスクを実行した際の、学習実行部17のCPU利用率である。このようにすることで、管理装置1は、複数のユーザが使用する場合に、CPU利用率に基づいて公平に請求額を算出することができる。
The
対価算出部18は、算出した請求額をユーザ端末3に通知する。ユーザ端末3のユーザは、通知された請求額を所定の方法で管理装置1の管理者に支払う。
The
報酬算出部19は、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルの作成に関する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。
The
具体的には、まず、報酬算出部19は、記憶部11に記憶されている学習モデル情報を参照し、対価が算出された学習モデルの各コントリビュータの寄与率を特定する。そして、報酬算出部19は、対価算出部18が算出した対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出する。
Specifically, first, the
ここで、報酬算出部19は、管理装置1の管理者の報酬を算出し、対価算出部18が算出した対価から、管理者の報酬を減算してもよい。そして、報酬算出部19は、減算後の対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出してもよい。報酬算出部19は、算出した請求額を所定の方法で各コントリビュータに支払う。
Here, the
[学習モデルの登録に係る処理の流れ]
続いて、管理装置1における処理の流れについて説明する。まず、学習モデルの登録又は更新に係る処理の流れについて説明する。図6は、本実施形態に係る学習モデルの登録又は更新に係る処理の流れを示すフローチャートである。
[Process flow related to learning model registration]
Subsequently, the flow of processing in the
まず、取得部131は、学習モデルを取得する(S10)。
続いて、分割部132は、学習モデルを分割してサブセットを生成する(S20)。
First, the
Subsequently, the
続いて、第1ハッシュ生成部133は、S20において生成されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて学習モデルのモデルIDを生成する(S30)。
続いて、量子化部134は、サブセットを量子化する(S40)。そして、第2ハッシュ生成部135は、量子化されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて量子化後データ列を生成する(S50)。
Subsequently, the first
Subsequently, the
続いて、寄与率管理部136は、学習モデルの作成に関する各コントリビュータの寄与率を算定する(S60)。
続いて、記憶制御部137は、学習モデルを登録又は更新することにより、学習モデル情報を更新する(S70)。
Subsequently, the contribution
Subsequently, the
[学習モデルの使用及び報酬算出に係る処理の流れ]
続いて、学習モデルの使用及び報酬算出に係る処理の流れについて説明する。図7は、本実施形態に係る学習モデルの使用及び報酬算出に係る処理の流れを示すフローチャートである。
[Flow of processing related to use of learning model and reward calculation]
Next, the flow of processing related to the use of the learning model and the calculation of the reward will be described. FIG. 7 is a flowchart showing the flow of processing related to the use of the learning model and the calculation of the reward according to the present embodiment.
まず、使用受付部15は、学習モデルの使用要求を受け付ける(S110)。ここで、学習モデルの使用要求には、学習モデルのモデル名とユーザIDとが含まれている。
続いて、認証部16は、使用要求が受け付けられた学習モデルが使用可能か否かの認証を行う(S120)。
First, the
Subsequently, the
続いて、学習実行部17は、認証部16における認証に成功したことに応じて、学習モデルを使用したタスクを実行するための入力データを取得する(S130)。
続いて、学習実行部17は、取得した入力データと、使用要求に対応する学習モデルとを使用したタスクを実行する(S140)。これにより、学習実行部17は、タスクの実行結果を取得する。
Subsequently, the learning execution unit 17 acquires input data for executing a task using the learning model according to the success of the authentication in the authentication unit 16 (S130).
Subsequently, the learning execution unit 17 executes a task using the acquired input data and the learning model corresponding to the usage request (S140). As a result, the learning execution unit 17 acquires the execution result of the task.
続いて、対価算出部18は、学習モデルの利用態様に基づいて学習モデルの使用に係る請求額を算出する(S150)。
続いて、報酬算出部19は、使用した学習モデルに対応し、学習モデル情報に記憶されている寄与率に基づいて、各コントリビュータの対価の報酬を算出する(S160)。
Subsequently, the
Subsequently, the
[本実施形態における効果]
以上のとおり、本実施形態に係る管理装置1は、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの学習モデルの作成に関する寄与率とを関連付けて記憶し、ネットワークを介してユーザ端末3から学習モデルの使用要求を受け付け、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルに対応する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。
[Effect in this embodiment]
As described above, the
このようにすることで、管理装置1は、学習モデルの作成に寄与したコントリビュータに対して報酬を適切に支払うことができる。特に、学習モデルが複数のコントリビュータによって作成された場合には、それぞれのコントリビュータの学習モデルの作成に関する寄与率に基づいて、各コントリビュータの報酬を公平に算出することができる。
By doing so, the
また、本実施形態に係る管理装置1は、学習モデルを1又は複数のサブセットに分割し、サブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成し、生成したモデルIDと、学習モデルを使用可能なユーザIDとを関連付けたライセンス情報を記憶する。このようにすることで、他の学習モデルの少なくとも一部を用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれることとなる。したがって、管理装置1は、学習モデルが他の学習モデルを用いて作成されているかを管理することができるとともに、学習モデルを作成した1又は複数のコントリビュータを特定することができる。
Further, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. Further, in particular, the specific embodiments of the distribution / integration of the devices are not limited to those shown above, and all or a part thereof may be arbitrarily added according to various additions or functional loads. It can be functionally or physically distributed / integrated in units.
例えば、上述の実施形態では、管理装置1が、複数の通信機器4のそれぞれにアクセスし、複数の通信機器4のそれぞれが生成したログを取得することとしたが、これに限らない。例えば、複数の通信機器4のそれぞれが生成したログを取得するログ取得装置と、管理装置1とを設けておき、管理装置1が、ログ取得装置から、複数の通信機器4のそれぞれが生成したログを取得してもよい。
For example, in the above-described embodiment, the
例えば、上述の実施形態では、寄与率管理部136が、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する場合について説明した。これに替えて、寄与率管理部136は、各コントリビュータが生成した層が含む重みの、新規登録する学習モデルの各層が備える重みのデータ量の合計に対する割合に基づいて寄与率を算定してもよい。各層が備える重みのデータ量は層によって異なる場合があるので、各コントリビュータが実際に生成した重みのデータ量を寄与率に反映させることができる。
For example, in the above-described embodiment, the case where the contribution
1・・・管理装置、11・・・記憶部、12・・・制御部、13・・・モデル登録部、131・・・取得部、132・・・分割部、133・・・第1ハッシュ生成部、134・・・量子化部、135・・・第2ハッシュ生成部、136・・・寄与率管理部、137・・・記憶制御部、14・・・ライセンス登録部、15・・・使用受付部、16・・・認証部、17・・・学習実行部、18・・・対価算出部、19・・・報酬算出部、2・・・コントリビュータ端末、3・・・ユーザ端末 1 ... management device, 11 ... storage unit, 12 ... control unit, 13 ... model registration unit, 131 ... acquisition unit, 132 ... division unit, 133 ... first hash Generation unit, 134 ... Quantization unit, 135 ... Second hash generation unit, 136 ... Contribution rate management unit, 137 ... Memory control unit, 14 ... License registration unit, 15 ... Usage reception department, 16 ... authentication department, 17 ... learning execution department, 18 ... consideration calculation department, 19 ... reward calculation department, 2 ... contributor terminal, 3 ... user terminal
Claims (7)
前記取得部が取得した前記学習モデルが有する前記複数の層を分割することにより、前記学習モデルを複数のサブセットに分割する分割部と、
前記複数のサブセットそれぞれのハッシュ値を生成し、前記複数のサブセットそれぞれのハッシュ値を要素とするデータ列を、前記学習モデルを識別するモデル識別情報として生成する生成部と、
前記取得部が取得した前記学習モデルと、前記取得部が取得した前記コントリビュータ識別情報と、前記生成部が生成した前記モデル識別情報とを関連付けて学習モデル情報として記憶部に記憶させる記憶制御部と、
を備える管理装置。 A learning model for realizing a task, a learning model of a neural network having a plurality of layers, an acquisition unit for acquiring contributor identification information for identifying a contributor who created the learning model, and an acquisition unit.
A division unit that divides the learning model into a plurality of subsets by dividing the plurality of layers of the learning model acquired by the acquisition unit.
A generation unit that generates hash values of each of the plurality of subsets and generates a data string having hash values of each of the plurality of subsets as elements as model identification information for identifying the learning model.
A storage control unit that associates the learning model acquired by the acquisition unit with the contributor identification information acquired by the acquisition unit and the model identification information generated by the generation unit and stores the learning model information in the storage unit. ,
A management device equipped with.
をさらに備える、
請求項1に記載の管理装置。 A storage unit that stores license information in which the model identification information generated by the generation unit is associated with the identification information of a user who can use the learning model indicated by the model identification information.
Further prepare,
The management device according to claim 1.
前記ライセンス情報を参照して前記他の装置のユーザが前記学習モデルを使用可能か否かを判定する認証部と、
前記ユーザが前記学習モデルを使用可能な場合、前記他の装置から取得した前記タスクを実行するためのデータに関する前記学習モデルの実行結果を出力する学習実行部と、
をさらに備える、
請求項2に記載の管理装置。 A reception unit that accepts requests to use the learning model from other devices via the network,
An authentication unit that determines whether or not a user of the other device can use the learning model by referring to the license information.
When the user can use the learning model, a learning execution unit that outputs an execution result of the learning model regarding data for executing the task acquired from the other device, and a learning execution unit.
Further prepare,
The management device according to claim 2.
請求項3に記載の管理装置。 Based on the use load of the learning execution unit for executing the task, further comprising a compensation calculation unit for calculating a billing amount to charge to the user,
The management device according to claim 3.
請求項3に記載の管理装置。 Based on the learning execution of occupancy for executing the task, further comprising a compensation calculation unit for calculating a billing amount to charge to the user,
The management device according to claim 3.
タスクを実現するための学習モデルであって、複数の層を有するニューラルネットワークの学習モデルと、当該学習モデルを作成したコントリビュータを識別するコントリビュータ識別情報とを取得するステップと、
取得された前記学習モデルが有する前記複数の層を分割することにより、前記学習モデルを複数のサブセットに分割するステップと、
前記複数のサブセットそれぞれのハッシュ値を生成し、前記複数のサブセットそれぞれのハッシュ値を要素とするデータ列を、前記学習モデルを識別するモデル識別情報として生成するステップと、
取得された前記学習モデルと、取得された前記コントリビュータ識別情報と、生成された前記モデル識別情報とを関連付けて学習モデル情報として記憶部に記憶させるステップと、
を実行する管理方法。 The processor,
A learning model for realizing a task, a step of acquiring a learning model of a neural network having a plurality of layers and a contributor identification information for identifying a contributor who created the learning model.
A step of dividing the learning model into a plurality of subsets by dividing the plurality of layers of the acquired learning model.
A step of generating hash values of each of the plurality of subsets and generating a data string having hash values of each of the plurality of subsets as elements as model identification information for identifying the learning model.
A step of associating the acquired learning model with the acquired contributor identification information and the generated model identification information and storing the acquired learning model information in a storage unit as learning model information.
How to manage to run.
タスクを実現するための学習モデルであって、複数の層を有するニューラルネットワークの学習モデルと、当該学習モデルを作成したコントリビュータを識別するコントリビュータ識別情報とを取得する機能と、
取得された前記学習モデルが有する前記複数の層を分割することにより、前記学習モデルを複数のサブセットに分割する機能と、
前記複数のサブセットそれぞれのハッシュ値を生成し、前記複数のサブセットそれぞれのハッシュ値を要素とするデータ列を、前記学習モデルを識別するモデル識別情報として生成する機能と、
取得された前記学習モデルと、取得された前記コントリビュータ識別情報と、生成された前記モデル識別情報とを関連付けて学習モデル情報として記憶部に記憶させる機能と、
を実現させるプログラム。
On the computer
A learning model for realizing a task, a function for acquiring a learning model of a neural network having a plurality of layers, and a contributor identification information for identifying a contributor who created the learning model.
A function of dividing the learning model into a plurality of subsets by dividing the plurality of layers of the acquired learning model.
A function of generating hash values of each of the plurality of subsets and generating a data string having hash values of each of the plurality of subsets as elements as model identification information for identifying the learning model.
A function of associating the acquired learning model with the acquired contributor identification information and the generated model identification information and storing them in a storage unit as learning model information.
A program that realizes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017112748A JP6858082B2 (en) | 2017-06-07 | 2017-06-07 | Management equipment, management methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017112748A JP6858082B2 (en) | 2017-06-07 | 2017-06-07 | Management equipment, management methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206199A JP2018206199A (en) | 2018-12-27 |
JP6858082B2 true JP6858082B2 (en) | 2021-04-14 |
Family
ID=64958029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017112748A Active JP6858082B2 (en) | 2017-06-07 | 2017-06-07 | Management equipment, management methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6858082B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7055769B2 (en) * | 2019-04-23 | 2022-04-18 | 株式会社東芝 | Data generator, data generation method and program |
WO2021075091A1 (en) * | 2019-10-15 | 2021-04-22 | 日本電気株式会社 | Consideration calculation device, control method, and program |
JP7487748B2 (en) | 2022-01-21 | 2024-05-21 | 横河電機株式会社 | Apparatus, method and program |
JP7448271B1 (en) | 2023-12-19 | 2024-03-12 | 株式会社フィードフォース | Information processing system, program and information processing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8171133B2 (en) * | 2006-07-10 | 2012-05-01 | Nec Corporation | Management apparatus and management method for computer system |
JP4893751B2 (en) * | 2007-01-12 | 2012-03-07 | 富士通株式会社 | Document verification program, recording medium, document verification method, and document verification apparatus |
JP5434912B2 (en) * | 2008-05-09 | 2014-03-05 | 日本電気株式会社 | Driving state determination method, driving state determination system and program |
CN106033554A (en) * | 2015-03-13 | 2016-10-19 | 中国科学院声学研究所 | Big data processing method for two-stage depth learning model based on sectionalization |
-
2017
- 2017-06-07 JP JP2017112748A patent/JP6858082B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018206199A (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6858082B2 (en) | Management equipment, management methods, and programs | |
US10924535B2 (en) | Resource load balancing control method and cluster scheduler | |
US11057225B2 (en) | Enforcing compute equity models in distributed blockchain | |
US20190179672A1 (en) | Enforcing compute equity models in distributed blockchain | |
CN104660669B (en) | The method and system of a host is selected from multiple main frames for application model component | |
CN110163474A (en) | A kind of method and apparatus of task distribution | |
JP2019003402A (en) | Management device, management method, and program | |
Poordavoodia et al. | Toward a more accurate web service selection using modified interval DEA models with undesirable outputs | |
JP6247388B2 (en) | Burst mode control | |
US9866565B2 (en) | Method and apparatus for controlling data permissions | |
CN108933700B (en) | Preference trust-based cloud service acquisition method | |
CN104580163B (en) | Access control policy builds system under privately owned cloud environment | |
CN110928689A (en) | Self-adaptive resource management method and device for distributed reinforcement learning training | |
CN109118224A (en) | Proof of work method, apparatus, medium and the electronic equipment of block chain network | |
Tang et al. | Budget‐constraint stochastic task scheduling on heterogeneous cloud systems | |
JP2021508395A (en) | Client, server, and client-server systems adapted to generate personalized recommendations | |
CN112925892B (en) | Dialogue recommendation method and device, electronic equipment and storage medium | |
CN110225039A (en) | Authority models acquisition, method for authenticating, gateway, server and storage medium | |
Fu et al. | A restless bandit model for resource allocation, competition, and reservation | |
JP6869817B2 (en) | Management equipment, management methods, and programs | |
CN103782290A (en) | Generation of recommendation values | |
Cai et al. | Unequal‐interval based loosely coupled control method for auto‐scaling heterogeneous cloud resources for web applications | |
CN111008873A (en) | User determination method and device, electronic equipment and storage medium | |
Friese et al. | Towards efficient resource allocation for distributed workflows under demand uncertainties | |
Shao et al. | A scheduling algorithm for applications in a cloud computing system with communication changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6858082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |