JP2018206200A - Management device, method for management, and program - Google Patents

Management device, method for management, and program Download PDF

Info

Publication number
JP2018206200A
JP2018206200A JP2017112749A JP2017112749A JP2018206200A JP 2018206200 A JP2018206200 A JP 2018206200A JP 2017112749 A JP2017112749 A JP 2017112749A JP 2017112749 A JP2017112749 A JP 2017112749A JP 2018206200 A JP2018206200 A JP 2018206200A
Authority
JP
Japan
Prior art keywords
learning model
contribution rate
unit
contributor
management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017112749A
Other languages
Japanese (ja)
Other versions
JP6869817B2 (en
Inventor
清本 晋作
Shinsaku Kiyomoto
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017112749A priority Critical patent/JP6869817B2/en
Publication of JP2018206200A publication Critical patent/JP2018206200A/en
Application granted granted Critical
Publication of JP6869817B2 publication Critical patent/JP6869817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To pay a contributor an appropriate commission according to usage of a learning model.SOLUTION: A management device 1 includes: a storage unit 11, which relates a learning model created by one or more contributors and the contribution rate of each contributor to creation of the learning model to each other and holds the learning model and the contribution rates to each other; a usage reception unit 15, which receives a request to use the learning model from a user terminal 3 via a network; and a commission calculation unit 19, which calculates each commission in a case where the price paid for usage of the learning model by the user terminal 3 is distributed to each contributor according to the contribution rate.SELECTED DRAWING: Figure 2

Description

本発明は、学習モデルの使用に応じて支払われる対価をコントリビュータに分配するための管理装置、管理方法、及びプログラムに関する。   The present invention relates to a management apparatus, a management method, and a program for distributing a consideration paid according to use of a learning model to a contributor.

従来、入力データに対する出力データを予測する学習モデルを機械学習に基づいて作成することが行われている(例えば、特許文献1参照)。   Conventionally, a learning model for predicting output data with respect to input data has been created based on machine learning (see, for example, Patent Document 1).

特開2015−060237号公報Japanese Patent Laying-Open No. 2015-060237

学習モデルは、ニューラルネットワークを用いた学習によって作成された複数の層を有している。学習モデルの作成では、他人が作成した学習モデルに対して、新たに層を追加することにより学習モデルが作成されることがある。この場合には、学習モデルは複数の作成者としてのコントリビュータにより作成される。   The learning model has a plurality of layers created by learning using a neural network. In creating a learning model, a learning model may be created by adding a new layer to a learning model created by another person. In this case, the learning model is created by a contributor as a plurality of creators.

ところで、学習モデルが使用されたことに対して、コントリビュータに報酬を適切に支払うことが求められている。しかしながら、従来、学習モデルの使用に対して、コントリビュータに報酬を適切に支払うことは考慮されていない。   By the way, it is required to pay a contributor appropriately for the use of the learning model. However, conventionally, paying a contributor appropriately for use of a learning model has not been considered.

そこで、本発明はこれらの点に鑑みてなされたものであり、学習モデルが使用されたことに応じて、コントリビュータに報酬を適切に支払うことができる管理装置、管理方法、及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of these points, and provides a management device, a management method, and a program capable of appropriately paying a contributor according to the use of a learning model. With the goal.

本発明の第1の態様に係る管理装置は、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とを関連付けて保持する記憶部と、ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける受付部と、前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する報酬算出部と、を備える。   The management apparatus according to the first aspect of the present invention includes a storage unit that associates and holds a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor, via a network A receiving unit that receives a request for use of the learning model from another device, and a consideration paid in return for the use of the learning model by the other device, each of which is distributed to each contributor according to the contribution rate A reward calculation unit for calculating a reward.

前記学習モデルはニューラルネットワークを用いた学習によって生成された複数の層それぞれの重みであり、前記管理装置は、各コントリビュータが生成した層数の全層数に対する割合に基づいて前記寄与率を算定する寄与率管理部をさらに備えてもよい。   The learning model is a weight of each of a plurality of layers generated by learning using a neural network, and the management device calculates the contribution rate based on a ratio of the number of layers generated by each contributor to the total number of layers. You may further provide a contribution rate management part.

前記寄与率管理部は、前記コントリビュータが前記学習モデルを生成するために前記ニューラルネットワークの学習に用いたデータ量に基づいて、前記寄与率を算定してもよい。
前記寄与率管理部は、前記学習モデルが更新されることを契機として、前記寄与率を更新してもよい。
The contribution rate management unit may calculate the contribution rate based on a data amount used by the contributor to learn the neural network in order to generate the learning model.
The contribution rate management unit may update the contribution rate when the learning model is updated.

前記管理装置は、前記学習モデルの各層の重みのハッシュ値を要素とするデータ列を生成するハッシュ生成部をさらに備え、前記寄与率管理部は、前記データ列の変更があった場合に前記寄与率を更新してもよい。
前記管理装置は、前記各層の重みを量子化する量子化部をさらに備え、前記ハッシュ生成部は、前記量子化部が量子化した重みのハッシュ値を算出してもよい。
The management apparatus further includes a hash generation unit that generates a data string including a hash value of a weight of each layer of the learning model as an element, and the contribution rate management unit is configured to change the contribution when the data string is changed. The rate may be updated.
The management device may further include a quantization unit that quantizes the weight of each layer, and the hash generation unit may calculate a hash value of the weight quantized by the quantization unit.

本発明の第2の態様に係る管理方法は、プロセッサが、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とが関連付けられた寄与率データを保持する記憶部から、前記寄与率データを読み出すステップと、ネットワークを介して他の装置から前記学習モデルの使用要求を受け付けるステップと、前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出するステップと、を実行する。   In the management method according to the second aspect of the present invention, the processor holds contribution rate data in which a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor are associated with each other. A step of reading out the contribution rate data from the storage unit, a step of accepting a use request for the learning model from another device via a network, and a consideration paid in return for the use of the learning model by the other device. And a step of calculating each reward when distributing to each contributor in accordance with the contribution rate.

本発明の第3の態様に係るプログラムは、コンピュータに、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とが関連付けられた寄与率データを保持する記憶部から、前記寄与率データを読み出す機能と、ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける機能と、前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する機能と、を実現させる。   The program according to the third aspect of the present invention stores, in a computer, contribution rate data in which a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor are associated with each other. A function for reading out the contribution rate data, a function for receiving a request to use the learning model from another device via a network, and a consideration paid in return for the use of the learning model by the other device, And a function of calculating each reward when distributing to each contributor in accordance with the contribution rate.

本発明によれば、学習モデルが使用されたことに応じて、コントリビュータに報酬を適切に支払うことができるという効果を奏する。   According to the present invention, there is an effect that a reward can be appropriately paid to a contributor in accordance with the use of a learning model.

本実施形態に係る管理装置の概要を示す図である。It is a figure which shows the outline | summary of the management apparatus which concerns on this embodiment. 本実施形態に係る管理装置の構成を示す図である。It is a figure which shows the structure of the management apparatus which concerns on this embodiment. 本実施形態に係る学習モデル情報の一例を示す図である。It is a figure which shows an example of the learning model information which concerns on this embodiment. 本実施形態に係るライセンス情報の一例を示す図である。It is a figure which shows an example of the license information which concerns on this embodiment. 本実施形態に係るモデル登録部の構成を示す図である。It is a figure which shows the structure of the model registration part which concerns on this embodiment. 本実施形態に係る学習モデルの登録又は更新に係る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which concerns on the registration or update of the learning model which concerns on this embodiment. 本実施形態に係る学習モデルの使用及び報酬算出に係る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which concerns on use of the learning model which concerns on this embodiment, and reward calculation.

[管理装置1の概要]
図1は、本実施形態に係る管理装置1の概要を示す図である。管理装置1は、ニューラルネットワークの学習モデルの登録を受け付け、登録された学習モデルの使用を有償で受け付ける装置である。管理装置1は、LAN(Local Area Network)やインターネット等の通信ネットワークを介してコントリビュータ端末2及びユーザ端末3と通信可能に接続されている。
[Outline of Management Device 1]
FIG. 1 is a diagram illustrating an overview of a management apparatus 1 according to the present embodiment. The management device 1 is a device that accepts registration of a learning model of a neural network and accepts use of the registered learning model for a fee. The management device 1 is communicably connected to the contributor terminal 2 and the user terminal 3 via a communication network such as a LAN (Local Area Network) or the Internet.

本実施形態を説明するにあたり、まず、ニューラルネットワークについて簡単に説明する。ニューラルネットワークの基本構成は、複数種類の層の重ね合わせ(又はグラフ構造)で表現される。   In describing this embodiment, first, a neural network will be briefly described. The basic configuration of the neural network is expressed by superposition (or graph structure) of a plurality of types of layers.

図1には、順伝播型のニューラルネットワークが示されている。順伝播型のニューラルネットワークは、入力層(input layer)と、隠れ層(hidden layer)と、出力層(output layer)との3つの層から構成され、入力層から出力層へ向けて一方向に伝播する。隠れ層は、グラフ状に複数の層から構成することができる。各層は、複数のユニット(ニューロン)を持つ。各層において、前方層のユニットから後方層のユニットへつなぐ関数のパラメータを、「重み(weight)」という。本実施形態における学習とは、この関数のパラメータとして、適切な「重み」を算出することである。また、本実施形態における学習モデルは、複数の層のそれぞれの重みであり、タスクを実現するために用いられる。   FIG. 1 shows a forward propagation type neural network. A forward-propagation neural network is composed of three layers: an input layer, a hidden layer, and an output layer, and is directed in one direction from the input layer to the output layer. Propagate. The hidden layer can be composed of a plurality of layers in a graph. Each layer has a plurality of units (neurons). In each layer, the parameter of the function connected from the unit in the front layer to the unit in the rear layer is referred to as “weight”. Learning in the present embodiment means calculating an appropriate “weight” as a parameter of this function. Moreover, the learning model in this embodiment is the weight of each of a plurality of layers, and is used to realize a task.

ニューラルネットワークにおける学習は、訓練データに対する出力層からの出力値と訓練データのラベルとの誤差を用いて、各層の重みを最適に更新することを意味する。その誤差を算出するために、「損失関数」(loss function)が定義される。誤差は、「誤差逆伝播法」によって出力層側から入力層側へ向けて次々に伝播し、各層の重みを少しずつ更新していく。最終的に誤差が小さくなるように、各層の重みを適切な値に調整する収束計算を実行することにより、学習モデルが作成される。   Learning in the neural network means that the weight of each layer is optimally updated using an error between the output value from the output layer for the training data and the label of the training data. In order to calculate the error, a “loss function” is defined. The error propagates one after another from the output layer side to the input layer side by the “error back propagation method”, and the weight of each layer is updated little by little. A learning model is created by executing a convergence calculation that adjusts the weight of each layer to an appropriate value so that the error is finally reduced.

ところで、学習モデルを作成するユーザは、予め作成されている学習モデルを再学習することによって既存の重みを更新したり、新たな層を追加したりすることによって学習モデルを作成することがある。この場合には、複数のユーザが学習モデルの作成に寄与していることとなる。以下、学習モデルの作成に寄与したユーザを「コントリビュータ」という。   By the way, a user who creates a learning model may create a learning model by updating an existing weight by re-learning a learning model created in advance or adding a new layer. In this case, a plurality of users contribute to the creation of the learning model. Hereinafter, the user who contributed to the creation of the learning model is referred to as “contributor”.

図1に示す例では、学習モデルMが生成されている。学習モデルMには、重みW1〜Wnが含まれている。ここで、図1に示すように、入力層と、隠れ層の一部に対応する重みW1〜WiをコントリビュータAが作成し、隠れ層の他の一部に対応する重みWi+1〜WnをコントリビュータBが作成したとする。この場合、コントリビュータAと、コントリビュータBとが学習モデルMの作成に寄与している。   In the example shown in FIG. 1, a learning model M is generated. The learning model M includes weights W1 to Wn. Here, as shown in FIG. 1, the contributor A creates weights W1 to Wi corresponding to the input layer and a part of the hidden layer, and the weights Wi + 1 to Wn corresponding to the other part of the hidden layer are the contributor B. Is created. In this case, contributor A and contributor B contribute to the creation of learning model M.

本実施形態に係る管理装置1は、学習モデルの使用の見返りとして支払われた対価を、各コントリビュータに適切に分配するために、学習モデルと、学習モデルの作成に対する各コントリビュータの寄与率とを関連付けて記憶する(図1の(1))。   The management apparatus 1 according to the present embodiment associates the learning model with the contribution rate of each contributor to the creation of the learning model in order to appropriately distribute the consideration paid in return for the use of the learning model to each contributor. (1 in FIG. 1).

また、管理装置1は、学習モデルの使用を希望するユーザが使用するユーザ端末3から、学習モデルのライセンス登録を受け付ける(図1の(2))。ここで、ライセンスは、学習モデルを識別するモデル識別情報としてのモデルIDと、学習モデルを使用するユーザのユーザを識別するユーザIDとを関連付けることによって管理される。モデル識別情報は、学習モデルを分割することによって得られる1又は複数のサブセットのハッシュ値に基づいて生成される。このようにすることで、他の学習モデルを用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれるので、管理装置1は、学習モデルを作成した1又は複数のコントリビュータを特定することができる。   In addition, the management apparatus 1 accepts license registration of the learning model from the user terminal 3 used by the user who wants to use the learning model ((2) in FIG. 1). Here, the license is managed by associating a model ID as model identification information for identifying the learning model with a user ID for identifying the user of the user who uses the learning model. The model identification information is generated based on hash values of one or more subsets obtained by dividing the learning model. By doing in this way, since the learning model created using the other learning model includes the model ID corresponding to the other learning model, the management apparatus 1 can include one or more contributors who created the learning model. Can be specified.

その後、管理装置1は、学習モデルの使用要求を受け付ける(図1の(3))。管理装置1は、使用要求を受け付けるとユーザが学習モデルを使用可能か否かの認証を行う。管理装置1は、認証に成功した場合に、学習モデルを用いたタスクを実行し、実行結果をユーザ端末3に出力する(図1の(4))。管理装置1は、学習モデルの使用に対する対価を算出し、対価の支払いをユーザ端末3のユーザに請求する。その後、管理装置1は、ユーザから支払われた対価と、学習モデルに関連付けられている寄与率とに基づいて、各コントリビュータに対して支払う報酬を算出する(図1の(5))。このようにすることで、管理装置1は、学習モデルが使用されたことに応じて、コントリビュータに報酬を適切に支払うことができる。
以下、管理装置1の構成について説明する。
Thereafter, the management apparatus 1 accepts a learning model use request ((3) in FIG. 1). When receiving the use request, the management device 1 authenticates whether the user can use the learning model. When the authentication is successful, the management device 1 executes a task using the learning model and outputs the execution result to the user terminal 3 ((4) in FIG. 1). The management device 1 calculates a consideration for using the learning model, and charges the user of the user terminal 3 for payment of the consideration. Thereafter, the management device 1 calculates a reward to be paid to each contributor based on the consideration paid by the user and the contribution rate associated with the learning model ((5) in FIG. 1). By doing in this way, the management apparatus 1 can pay a reward appropriately to a contributor according to the learning model being used.
Hereinafter, the configuration of the management apparatus 1 will be described.

[管理装置1の構成例]
図2は、本実施形態に係る管理装置1の構成を示す図である。
管理装置1は、記憶部11と、制御部12とを備える。
[Configuration Example of Management Device 1]
FIG. 2 is a diagram illustrating a configuration of the management apparatus 1 according to the present embodiment.
The management device 1 includes a storage unit 11 and a control unit 12.

記憶部11は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)等である。記憶部11は、管理装置1を機能させるための各種プログラムを記憶する。例えば、記憶部11は、管理装置1の制御部12を、後述するモデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能させる管理プログラムを記憶する。また、記憶部11は、学習モデルを含む学習モデル情報と、学習モデルのライセンス情報とを記憶する。   The storage unit 11 is, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 11 stores various programs for causing the management device 1 to function. For example, the storage unit 11 controls the control unit 12 of the management apparatus 1 into a model registration unit 13, a license registration unit 14, a use reception unit 15, an authentication unit 16, a learning execution unit 17, a consideration calculation unit 18, and a reward calculation which will be described later. A management program that functions as the unit 19 is stored. In addition, the storage unit 11 stores learning model information including a learning model and learning model license information.

図3は、本実施形態に係る学習モデル情報の一例を示す図である。図3に示すように、学習モデル情報は、登録者と、モデル名と、説明文と、学習モデルと、モデルIDと、量子化後データ列と、寄与者と、寄与率とを含む。   FIG. 3 is a diagram illustrating an example of learning model information according to the present embodiment. As illustrated in FIG. 3, the learning model information includes a registrant, a model name, an explanatory note, a learning model, a model ID, a post-quantization data string, a contributor, and a contribution rate.

登録者は、学習モデルを登録したコントリビュータを示しており、コントリビュータを識別するコントリビュータIDが格納される。モデル名は、モデルを識別するための情報である。本実施形態では、モデル名は、全ての学習モデルのそれぞれで異なるものとする。   The registrant indicates the contributor who registered the learning model, and stores a contributor ID for identifying the contributor. The model name is information for identifying the model. In the present embodiment, the model name is different for each of all learning models.

説明文は、モデルの内容を説明するための文字列である。モデルIDは、学習モデルを識別する情報である。量子化後データ列は、モデルIDを量子化した後のハッシュ値である。寄与者は、学習モデルの作成に寄与したコントリビュータを示しており、コントリビュータIDが格納される。ここで、寄与者及び寄与率は、1つの学習モデルに対して1又は複数関連付けられる。   The explanatory text is a character string for explaining the contents of the model. The model ID is information for identifying the learning model. The post-quantization data string is a hash value after the model ID is quantized. The contributor indicates the contributor who contributed to the creation of the learning model, and the contributor ID is stored. Here, one or a plurality of contributors and contribution rates are associated with one learning model.

図4は、本実施形態に係るライセンス情報の一例を示す図である。図4に示すように、ライセンス情報は、学習モデルを使用するユーザのユーザIDと、モデル名と、モデルIDとを含む。   FIG. 4 is a diagram showing an example of license information according to the present embodiment. As illustrated in FIG. 4, the license information includes a user ID of a user who uses the learning model, a model name, and a model ID.

図2に説明を戻し、制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されている各種プログラムを実行することにより、管理装置1に係る機能を制御する。制御部12は、管理プログラムを実行することにより、モデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能する。   Returning to FIG. 2, the controller 12 is, for example, a CPU (Central Processing Unit). The control unit 12 controls functions related to the management device 1 by executing various programs stored in the storage unit 11. The control unit 12 functions as a model registration unit 13, a license registration unit 14, a use reception unit 15, an authentication unit 16, a learning execution unit 17, a price calculation unit 18, and a reward calculation unit 19 by executing a management program. .

[学習モデルの登録及び更新]
モデル登録部13は、コントリビュータが使用するコントリビュータ端末2から学習モデルの新規登録又は更新を受け付ける。図5は、本実施形態に係るモデル登録部13の構成を示す図である。図5に示すように、モデル登録部13は、取得部131と、分割部132と、第1ハッシュ生成部133と、量子化部134と、第2ハッシュ生成部135と、寄与率管理部136と、記憶制御部137とを備える。
[Register and update learning model]
The model registration unit 13 receives a new registration or update of a learning model from the contributor terminal 2 used by the contributor. FIG. 5 is a diagram illustrating a configuration of the model registration unit 13 according to the present embodiment. As illustrated in FIG. 5, the model registration unit 13 includes an acquisition unit 131, a division unit 132, a first hash generation unit 133, a quantization unit 134, a second hash generation unit 135, and a contribution rate management unit 136. And a storage control unit 137.

取得部131は、コントリビュータ端末2から学習モデルを取得する。具体的には、取得部131は、学習モデルの新規登録を受け付ける場合には、コントリビュータ端末2から、学習モデルと、学習モデル名と、学習モデルの説明文と、学習モデルのラベルと、学習モデルを作成したコントリビュータのコントリビュータIDとを取得する。ここで、学習モデルには、複数の層のそれぞれに付与されているインデックスと、複数の層のそれぞれの重みを示す複数の重み値とが含まれている。   The acquisition unit 131 acquires a learning model from the contributor terminal 2. Specifically, when accepting new registration of a learning model, the acquisition unit 131 receives a learning model, a learning model name, a description of the learning model, a learning model label, and a learning model from the contributor terminal 2. Get the contributor ID of the contributor who created Here, the learning model includes an index assigned to each of the plurality of layers and a plurality of weight values indicating the weights of the plurality of layers.

また、取得部131は、学習モデルの更新を受け付ける場合、まず、コントリビュータ端末2からコントリビュータIDを取得する。取得部131は、記憶部11に記憶されている学習モデル情報を参照し、コントリビュータIDに関連付けられているモデル名を特定し、当該モデル名のうちのいずれかの選択を受け付ける。そして、取得部131は、コントリビュータ端末2から、更新後の学習モデルを取得する。取得部131は、学習モデルの更新時にも学習モデルのラベルを取得してもよい。   Moreover, the acquisition part 131 acquires contributor ID from the contributor terminal 2 first, when receiving the update of a learning model. The acquisition unit 131 refers to the learning model information stored in the storage unit 11, identifies the model name associated with the contributor ID, and accepts selection of any one of the model names. Then, the acquisition unit 131 acquires the updated learning model from the contributor terminal 2. The acquisition unit 131 may acquire the label of the learning model even when the learning model is updated.

分割部132は、学習モデルを1又は複数のサブセットに分割する。分割部132は、複数の層を分割し、各層に対応する重みをサブセットとする。ここで、分割部132は、取得部131が学習モデルとともに取得した、学習モデルのラベルを含めてサブセットを生成する。   The dividing unit 132 divides the learning model into one or a plurality of subsets. The dividing unit 132 divides a plurality of layers, and sets a weight corresponding to each layer as a subset. Here, the dividing unit 132 generates a subset including the label of the learning model acquired by the acquiring unit 131 together with the learning model.

第1ハッシュ生成部133は、分割部132が生成した1又は複数のサブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成する。具体的には、まず、第1ハッシュ生成部133は、1又は複数のサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を生成する。そして、第1ハッシュ生成部133は、例えば、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とするデータ列をモデルIDとして生成する。   The first hash generation unit 133 generates a model ID for identifying a learning model by generating a hash value for each of the one or more subsets generated by the dividing unit 132. Specifically, first, the first hash generation unit 133 generates a hash value for each of a plurality of weight values by applying a hash function to each of a plurality of weight values indicating one or a plurality of subsets. To do. And the 1st hash production | generation part 133 connects the hash value produced | generated with respect to each of several weight value, for example in the order of the index provided to each layer, By this, the data sequence which uses these hash values as an element As a model ID.

量子化部134は、学習モデルの各層の重みである、分割部132が分割したサブセットのそれぞれを量子化する。例えば、量子化部134は、重み値のとりうる範囲を、複数の範囲に分割し、複数の範囲のそれぞれに代表値を設定する。量子化部134は、複数の重み値を、重み値が属する範囲に対応する代表値に変換することにより、サブセットを量子化する。このようにすることで、管理装置1は、学習モデルの細かい更新が発生した場合に、寄与率を変化させず、処理負荷を軽減することができる。   The quantization unit 134 quantizes each of the subsets divided by the dividing unit 132, which is the weight of each layer of the learning model. For example, the quantization unit 134 divides the range that the weight value can take into a plurality of ranges, and sets a representative value for each of the plurality of ranges. The quantization unit 134 quantizes the subset by converting the plurality of weight values into representative values corresponding to ranges to which the weight values belong. By doing in this way, the management apparatus 1 can reduce a processing load, without changing a contribution rate, when the detailed update of a learning model generate | occur | produces.

第2ハッシュ生成部135は、学習モデルの各層の重みのハッシュ値を要素とする量子化後データ列を生成する。具体的には、まず、第2ハッシュ生成部135は、量子化部134が量子化したサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を算出する。そして、第2ハッシュ生成部135は、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とする量子化後データ列を生成する。   The second hash generation unit 135 generates a post-quantization data string having the hash value of the weight of each layer of the learning model as an element. Specifically, first, the second hash generation unit 135 applies a hash function to each of a plurality of weight values indicating the subset quantized by the quantization unit 134, thereby each of the plurality of weight values. Calculate a hash value. Then, the second hash generation unit 135 concatenates the hash values generated for each of the plurality of weight values in the order of the indexes assigned to the respective layers, thereby quantizing the data having these hash values as elements. Generate a column.

寄与率管理部136は、取得部131が取得した学習モデルの作成に関する各コントリビュータの寄与率を算定する。寄与率管理部136は、学習モデルを新規登録する場合には、記憶部11に記憶されている学習モデル情報を参照して、第1ハッシュ生成部133が生成したモデルIDに、学習モデル情報に記憶されている他の学習モデルのモデルIDが含まれているか否かを判定する。   The contribution rate management unit 136 calculates the contribution rate of each contributor related to the creation of the learning model acquired by the acquisition unit 131. When newly registering a learning model, the contribution rate management unit 136 refers to the learning model information stored in the storage unit 11, adds the model ID generated by the first hash generation unit 133 to the learning model information. It is determined whether or not the stored model ID of another learning model is included.

寄与率管理部136は、他の学習モデルのモデルIDが含まれていない場合には、新規登録する学習モデルが、登録を行うコントリビュータが独自に作成したものと判定し、当該コントリビュータの寄与率を1(100%)と算定する。   If the model ID of another learning model is not included, the contribution rate management unit 136 determines that the newly registered learning model is created independently by the contributor who performs registration, and determines the contribution rate of the contributor. Calculated as 1 (100%).

寄与率管理部136は、他の学習モデルのモデルIDが含まれている場合には、記憶部11に記憶されている学習モデル情報に含まれている他の学習モデルを参照し、当該他の学習モデルの層数を特定する。そして、寄与率管理部136は、新規登録する学習モデルの全層数から他の学習モデルの層数を減算し、登録を行うコントリビュータが生成した層数を特定する。   When the model ID of another learning model is included, the contribution rate management unit 136 refers to the other learning model included in the learning model information stored in the storage unit 11, and the other Identify the number of layers in the learning model. Then, the contribution rate management unit 136 subtracts the number of layers of the other learning model from the total number of layers of the newly registered learning model, and specifies the number of layers generated by the contributor that performs registration.

また、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、他の学習モデルの寄与者及び寄与率と、当該他の学習モデルの層数とに基づいて、当該他の学習モデルを生成した各コントリビュータが生成した層数を特定する。そして、寄与率管理部136は、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する。   Further, the contribution rate management unit 136 refers to the learning model information stored in the storage unit 11, and based on the contributors and contribution rates of other learning models and the number of layers of the other learning models, The number of layers generated by each contributor who generated other learning models is specified. Then, the contribution rate management unit 136 calculates the contribution rate based on the ratio of the number of layers generated by each contributor to the total number of layers of the newly registered learning model.

また、寄与率管理部136は、学習モデルが更新されることを契機として、寄与率を更新する。具体的には、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、更新対象の学習モデルの量子化後データ列を特定する。そして、寄与率管理部136は、特定した量子化後データ列と、第2ハッシュ生成部135が生成した量子化後データ列とが異なる場合、すなわち、量子化後データ列の変更があった場合に、学習モデルが更新されたと判定し、寄与率を算定する。学習モデルが更新される場合の寄与率の算定方法は、学習モデルが新規登録される場合の寄与率の算定方法と同じであるので、説明を省略する。   In addition, the contribution rate management unit 136 updates the contribution rate when the learning model is updated. Specifically, the contribution rate management unit 136 refers to the learning model information stored in the storage unit 11 and identifies the quantized data string of the learning model to be updated. Then, the contribution rate management unit 136 determines that the specified post-quantization data sequence is different from the post-quantization data sequence generated by the second hash generation unit 135, that is, the post-quantization data sequence has been changed. Then, it is determined that the learning model has been updated, and the contribution rate is calculated. The calculation method of the contribution rate when the learning model is updated is the same as the calculation method of the contribution rate when the learning model is newly registered, and thus description thereof is omitted.

なお、寄与率管理部136は、各コントリビュータが学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量に基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量を示す情報を取得し、記憶部11に記憶されている学習モデル情報に、当該データ量を示す情報を格納させておく。   The contribution rate management unit 136 may calculate the contribution rate based on the amount of data used for learning of the neural network in order for each contributor to generate a learning model. In this case, the acquisition unit 131 acquires information indicating the amount of data used for learning of the neural network to generate the learning model when the learning model is registered, and learning model information stored in the storage unit 11 In addition, information indicating the data amount is stored.

また、寄与率管理部136は、学習に用いた計算資源の総コストに基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に消費した計算資源の量を示す計算資源情報を取得し、記憶部11に記憶されている学習モデル情報に、当該計算資源情報を格納させておく。ここで、消費資源情報には、CPU使用時間を示す情報と、記憶部11の使用領域(メモリ使用量)を示す情報とが含まれる。   Further, the contribution rate management unit 136 may calculate the contribution rate based on the total cost of the calculation resources used for learning. In this case, the acquisition unit 131 acquires calculation resource information indicating the amount of calculation resources consumed for learning of the neural network in order to generate the learning model when the learning model is registered, and is stored in the storage unit 11. The computing resource information is stored in the learning model information. Here, the consumption resource information includes information indicating the CPU usage time and information indicating the usage area (memory usage) of the storage unit 11.

また、計算資源に基づいて寄与率を算出するために、管理装置1は、ニューラルネットワークの学習を行うことにより学習モデルを生成するモデル生成部を備えてもよい。そして、モデル生成部は、コントリビュータ端末2からニューラルネットワークの学習に用いるデータを受け付け、ニューラルネットワークの学習を行う。また、モデル生成部は、コントリビュータIDと、生成された学習モデルのモデルIDと、学習において消費した計算資源を示す消費資源情報とを関連付けて記憶部11に記憶させる。寄与率管理部136は、記憶部11に記憶されている消費資源情報が示す計算資源に基づいて、各コントリビュータが学習モデルの生成に用いた計算資源の割合を特定し、当該割合に基づいて寄与率を算出する。   Moreover, in order to calculate a contribution rate based on a calculation resource, the management apparatus 1 may include a model generation unit that generates a learning model by performing learning of a neural network. Then, the model generation unit receives data used for learning the neural network from the contributor terminal 2 and learns the neural network. In addition, the model generation unit stores the contributor ID, the model ID of the generated learning model, and consumption resource information indicating the calculation resource consumed in learning in association with each other. The contribution rate management unit 136 specifies the ratio of the calculation resource used by each contributor to generate the learning model based on the calculation resource indicated by the consumption resource information stored in the storage unit 11, and contributes based on the ratio. Calculate the rate.

寄与率管理部136は、学習モデル情報を参照し、学習モデルに対応するデータ量を示す情報と、当該学習モデルに含まれている他の学習モデルに対応するデータ量を示す情報とを特定する。そして、寄与率管理部136は、学習モデルに対応するデータ量と、他の学習モデルに対応するデータ量との割合に基づいて寄与率を算出する。学習モデルの生成では、学習に用いたデータ量が多ければ多いほど、学習効果が高くなり、学習モデルの有用度が増す。したがって、管理装置1は、学習に用いたデータ量に基づいて寄与率を算出することにより、学習モデルの有用度の向上に貢献したコントリビュータの寄与率を高く設定することができる。   The contribution rate management unit 136 refers to the learning model information and identifies information indicating the data amount corresponding to the learning model and information indicating the data amount corresponding to another learning model included in the learning model. . And the contribution rate management part 136 calculates a contribution rate based on the ratio of the data amount corresponding to a learning model, and the data amount corresponding to another learning model. In the generation of a learning model, the greater the amount of data used for learning, the higher the learning effect and the more useful the learning model. Therefore, the management apparatus 1 can set the contribution rate of the contributor who contributed to the improvement of the usefulness of a learning model by calculating a contribution rate based on the data amount used for learning.

記憶制御部137は、学習モデルを記憶部11に記憶させる。記憶制御部137は、取得部131が取得したコントリビュータIDを登録者と特定する。記憶制御部137は、学習モデルの新規登録を受け付けた場合には、特定した登録者と、取得部131が取得した学習モデル、学習モデル名、説明文及びラベルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率と、を関連付けて学習モデル情報として記憶部11に記憶させる。   The storage control unit 137 stores the learning model in the storage unit 11. The storage control unit 137 identifies the contributor ID acquired by the acquisition unit 131 as a registrant. When the storage control unit 137 receives a new registration of a learning model, the storage controller 137 includes the identified registrant, the learning model acquired by the acquisition unit 131, the learning model name, the description, and the label, and the first hash generation unit 133. The generated model ID, the post-quantization data string generated by the second hash generation unit 135, and the contributor and contribution rate specified by the contribution rate management unit 136 are associated and stored as learning model information in the storage unit 11. .

また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されたと判定すると、学習モデル情報に記憶されている学習モデル、モデルID、量子化後データ列、寄与者及び寄与率を更新する。記憶制御部137は、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率とに基づいて、学習モデル情報を更新する。   In addition, when the storage control unit 137 receives an update of the learning model, if the contribution rate management unit 136 determines that the learning model has been updated based on the post-quantization data sequence, the storage control unit 136 stores the learning stored in the learning model information. The model, model ID, post-quantization data string, contributor, and contribution rate are updated. The storage control unit 137 includes the learning model acquired by the acquisition unit 131, the model ID generated by the first hash generation unit 133, the quantized data sequence generated by the second hash generation unit 135, and the contribution rate management unit 136. The learning model information is updated based on the contributor and the contribution rate identified by.

また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されていないと判定すると、学習モデル情報に記憶されている学習モデルと、モデルIDとを、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDとに更新する。   Further, when the storage control unit 137 receives an update of the learning model, if the contribution rate management unit 136 determines that the learning model has not been updated based on the post-quantization data sequence, the storage control unit 137 stores the learning model information. The learning model and the model ID are updated to the learning model acquired by the acquisition unit 131 and the model ID generated by the first hash generation unit 133.

[ライセンス情報の登録]
説明を図2に戻す。ライセンス登録部14は、ユーザ端末3のユーザからライセンスの登録を受け付ける。例えば、ライセンス登録部14は、ユーザ端末3に、モデル名と、モデルIDと、説明文とを表示させ、ユーザが使用する学習モデルの選択を受け付ける。ここで、ライセンス登録部14は、例えば、学習モデルの全層数やラベルに基づいて、学習モデルのライセンス料を算出し、ユーザ端末3にライセンス料を表示してもよい。
[Register License Information]
Returning to FIG. The license registration unit 14 receives license registration from the user of the user terminal 3. For example, the license registration unit 14 displays a model name, a model ID, and an explanatory text on the user terminal 3, and accepts selection of a learning model used by the user. Here, for example, the license registration unit 14 may calculate the license fee of the learning model based on the total number of layers and the label of the learning model, and display the license fee on the user terminal 3.

ユーザ端末3は、学習モデルが選択されると、モデル名と、モデルIDと、ユーザを識別するユーザIDとを含むライセンス登録要求を管理装置1に送信する。ライセンス登録部14は、ライセンス登録要求を受信すると、ライセンス登録要求に含まれているユーザIDと、モデル名と、モデルIDとを関連付けてライセンス情報として記憶部11に記憶させる。   When the learning model is selected, the user terminal 3 transmits a license registration request including a model name, a model ID, and a user ID for identifying the user to the management apparatus 1. Upon receiving the license registration request, the license registration unit 14 associates the user ID, model name, and model ID included in the license registration request with each other and stores them in the storage unit 11 as license information.

[学習モデルの使用]
使用受付部15は、通信ネットワークを介して他の装置としてのユーザ端末3から学習モデルの使用要求を受け付ける。具体的には、使用受付部15は、ユーザ端末3から、ユーザが使用する学習モデルのモデル名と、ユーザIDとを含む学習モデルの使用要求を受信することにより、学習モデルの使用要求を受け付ける。なお、本実施形態では、使用受付部15は、ユーザ端末3から学習モデルの使用要求を受け付けることとしたが、これに限らない。使用受付部15は、コントリビュータ端末2から使用要求を受け付けてもよい。
[Use learning model]
The use accepting unit 15 accepts a learning model use request from the user terminal 3 as another device via the communication network. Specifically, the use accepting unit 15 accepts a learning model use request from the user terminal 3 by receiving a learning model use request including a model name of the learning model used by the user and a user ID. . In the present embodiment, the use accepting unit 15 accepts a learning model use request from the user terminal 3, but the present invention is not limited thereto. The use receiving unit 15 may receive a use request from the contributor terminal 2.

認証部16は、使用受付部15がユーザ端末3から学習モデルの使用要求を受け付けると、記憶部11に記憶されているライセンス情報を参照して、ユーザ端末3のユーザが、当該学習モデルを使用可能か否かを判定する。   When the use accepting unit 15 accepts a learning model use request from the user terminal 3, the authentication unit 16 refers to the license information stored in the storage unit 11, and the user of the user terminal 3 uses the learning model. Determine whether it is possible.

具体的には、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用可能と判定する。   Specifically, the authentication unit 16 determines whether the user of the user terminal 3 has the model name of the learning model included in the learning model use request and the user ID associated with each other and stored in the license information. Then, it is determined that the learning model can be used.

また、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用不可と判定する。認証部16は、学習モデルを使用不可と判定すると、使用不可であることを示すメッセージをユーザ端末3に通知する。   In addition, when the model name of the learning model included in the learning model use request and the user ID are associated with each other and stored in the license information, the authentication unit 16 allows the user of the user terminal 3 to perform the learning Determine that the model is unusable. If the authentication unit 16 determines that the learning model is unusable, the authentication unit 16 notifies the user terminal 3 of a message indicating that the learning model is unusable.

学習実行部17は、ユーザが学習モデルを使用可能な場合、ユーザ端末3から取得したタスクを実行するためのデータに関する学習モデルの実行結果を出力する。具体的には、まず、学習実行部17は、ユーザ端末3のユーザが学習モデルを使用可能と認証部16が判定すると、ユーザ端末3から、タスクを実行するためのデータを1又は複数取得する。学習実行部17は、ユーザ端末3から取得したデータを入力データとし、使用要求に対応する学習モデルを使用したタスクを実行することにより実行結果を取得する。学習実行部17は、取得した実行結果をユーザ端末3に出力する。   When the user can use the learning model, the learning execution unit 17 outputs an execution result of the learning model related to data for executing the task acquired from the user terminal 3. Specifically, first, when the authentication unit 16 determines that the user of the user terminal 3 can use the learning model, the learning execution unit 17 acquires one or a plurality of data for executing the task from the user terminal 3. . The learning execution unit 17 uses the data acquired from the user terminal 3 as input data, and acquires an execution result by executing a task using a learning model corresponding to the use request. The learning execution unit 17 outputs the acquired execution result to the user terminal 3.

[学習モデルの使用に対する対価及び各コントリビュータの報酬の算出]
対価算出部18は、タスクを実行するための学習実行部17の利用態様に基づいて、ユーザに請求する請求額を算出する。例えば、対価算出部18は、タスクを実行するための学習実行部17の利用負荷に基づいて、ユーザに請求する請求額を算出する。ここで、学習実行部17の利用負荷は、ユーザが使用した学習モデルに基づくタスクを実行した際に、学習実行部17が費やした時間、すなわちCPU使用時間である。このようにすることで、管理装置1は、利用負荷という観点に基づいて請求額を公平に算出することができる。
[Calculation of consideration for use of learning model and reward for each contributor]
The consideration calculation unit 18 calculates the amount billed to the user based on the usage mode of the learning execution unit 17 for executing the task. For example, the consideration calculation unit 18 calculates the amount charged to the user based on the usage load of the learning execution unit 17 for executing the task. Here, the usage load of the learning execution unit 17 is the time spent by the learning execution unit 17 when the task based on the learning model used by the user is executed, that is, the CPU usage time. By doing in this way, the management apparatus 1 can calculate a charge amount fairly based on a viewpoint of utilization load.

なお、対価算出部18は、タスクを実行するための学習実行部17の占有率に基づいて、ユーザに請求する請求額を算出してもよい。ここで、学習実行部17の占有率は、ユーザが使用した学習モデルに基づくタスクを実行した際の、学習実行部17のCPU利用率である。このようにすることで、管理装置1は、複数のユーザが使用する場合に、CPU利用率に基づいて公平に請求額を算出することができる。   The consideration calculation unit 18 may calculate the amount charged to the user based on the occupation rate of the learning execution unit 17 for executing the task. Here, the occupation rate of the learning execution unit 17 is the CPU utilization rate of the learning execution unit 17 when a task based on the learning model used by the user is executed. By doing in this way, the management apparatus 1 can calculate a charge amount fairly based on CPU utilization, when a some user uses.

対価算出部18は、算出した請求額をユーザ端末3に通知する。ユーザ端末3のユーザは、通知された請求額を所定の方法で管理装置1の管理者に支払う。   The consideration calculation unit 18 notifies the calculated charge amount to the user terminal 3. The user of the user terminal 3 pays the notified bill amount to the administrator of the management apparatus 1 by a predetermined method.

報酬算出部19は、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルの作成に関する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。   The reward calculation unit 19 calculates each reward when the consideration paid in return for the use of the learning model by the user terminal 3 is distributed to each contributor according to the contribution rate related to creation of the learning model.

具体的には、まず、報酬算出部19は、記憶部11に記憶されている学習モデル情報を参照し、対価が算出された学習モデルの各コントリビュータの寄与率を特定する。そして、報酬算出部19は、対価算出部18が算出した対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出する。   Specifically, first, the reward calculation unit 19 refers to the learning model information stored in the storage unit 11 and specifies the contribution rate of each contributor of the learning model for which the consideration has been calculated. And the reward calculation part 19 calculates the reward of each contributor by multiplying the consideration which the consideration calculation part 18 calculated, and the contribution rate of each identified contributor.

ここで、報酬算出部19は、管理装置1の管理者の報酬を算出し、対価算出部18が算出した対価から、管理者の報酬を減算してもよい。そして、報酬算出部19は、減算後の対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出してもよい。報酬算出部19は、算出した請求額を所定の方法で各コントリビュータに支払う。   Here, the remuneration calculation unit 19 may calculate the remuneration of the manager of the management device 1 and subtract the remuneration of the administrator from the consideration calculated by the consideration calculation unit 18. And the reward calculation part 19 may calculate the reward of each contributor by multiplying the consideration after subtraction, and the contribution rate of each specified contributor. The reward calculation unit 19 pays the calculated charge amount to each contributor by a predetermined method.

[学習モデルの登録に係る処理の流れ]
続いて、管理装置1における処理の流れについて説明する。まず、学習モデルの登録又は更新に係る処理の流れについて説明する。図6は、本実施形態に係る学習モデルの登録又は更新に係る処理の流れを示すフローチャートである。
[Flow of processing related to learning model registration]
Next, the flow of processing in the management apparatus 1 will be described. First, the flow of processing related to registration or update of a learning model will be described. FIG. 6 is a flowchart showing a flow of processing related to registration or update of a learning model according to the present embodiment.

まず、取得部131は、学習モデルを取得する(S10)。
続いて、分割部132は、学習モデルを分割してサブセットを生成する(S20)。
First, the acquisition unit 131 acquires a learning model (S10).
Subsequently, the dividing unit 132 divides the learning model to generate a subset (S20).

続いて、第1ハッシュ生成部133は、S20において生成されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて学習モデルのモデルIDを生成する(S30)。
続いて、量子化部134は、サブセットを量子化する(S40)。そして、第2ハッシュ生成部135は、量子化されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて量子化後データ列を生成する(S50)。
Subsequently, the first hash generation unit 133 generates a hash value of the subset generated in S20, and generates a model ID of the learning model based on the hash value (S30).
Subsequently, the quantization unit 134 quantizes the subset (S40). Then, the second hash generation unit 135 generates a hash value of the quantized subset, and generates a quantized data string based on the hash value (S50).

続いて、寄与率管理部136は、学習モデルの作成に関する各コントリビュータの寄与率を算定する(S60)。
続いて、記憶制御部137は、学習モデルを登録又は更新することにより、学習モデル情報を更新する(S70)。
Subsequently, the contribution rate management unit 136 calculates the contribution rate of each contributor related to creation of the learning model (S60).
Subsequently, the storage control unit 137 updates the learning model information by registering or updating the learning model (S70).

[学習モデルの使用及び報酬算出に係る処理の流れ]
続いて、学習モデルの使用及び報酬算出に係る処理の流れについて説明する。図7は、本実施形態に係る学習モデルの使用及び報酬算出に係る処理の流れを示すフローチャートである。
[Flow of processing related to learning model usage and reward calculation]
Next, the flow of processing related to use of the learning model and calculation of reward will be described. FIG. 7 is a flowchart showing a flow of processing relating to use of the learning model and reward calculation according to the present embodiment.

まず、使用受付部15は、学習モデルの使用要求を受け付ける(S110)。ここで、学習モデルの使用要求には、学習モデルのモデル名とユーザIDとが含まれている。
続いて、認証部16は、使用要求が受け付けられた学習モデルが使用可能か否かの認証を行う(S120)。
First, the use receiving unit 15 receives a learning model use request (S110). Here, the learning model use request includes the model name of the learning model and the user ID.
Subsequently, the authentication unit 16 authenticates whether or not the learning model for which the use request has been accepted is usable (S120).

続いて、学習実行部17は、認証部16における認証に成功したことに応じて、学習モデルを使用したタスクを実行するための入力データを取得する(S130)。
続いて、学習実行部17は、取得した入力データと、使用要求に対応する学習モデルとを使用したタスクを実行する(S140)。これにより、学習実行部17は、タスクの実行結果を取得する。
Subsequently, the learning execution unit 17 acquires input data for executing a task using the learning model in response to successful authentication by the authentication unit 16 (S130).
Subsequently, the learning execution unit 17 executes a task using the acquired input data and the learning model corresponding to the use request (S140). Thereby, the learning execution part 17 acquires the execution result of a task.

続いて、対価算出部18は、学習モデルの利用態様に基づいて学習モデルの使用に係る請求額を算出する(S150)。
続いて、報酬算出部19は、使用した学習モデルに対応し、学習モデル情報に記憶されている寄与率に基づいて、各コントリビュータの対価の報酬を算出する(S160)。
Subsequently, the consideration calculating unit 18 calculates a billing amount related to the use of the learning model based on the usage mode of the learning model (S150).
Subsequently, the reward calculating unit 19 calculates a reward for each contributor based on the contribution rate stored in the learning model information corresponding to the used learning model (S160).

[本実施形態における効果]
以上のとおり、本実施形態に係る管理装置1は、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの学習モデルの作成に関する寄与率とを関連付けて記憶し、ネットワークを介してユーザ端末3から学習モデルの使用要求を受け付け、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルに対応する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。
[Effect in this embodiment]
As described above, the management device 1 according to the present embodiment stores the learning model created by one or more contributors and the contribution rate related to the creation of the learning model of each contributor in association with each other, and the user terminal 3 via the network. A learning model use request is received from the user, and each reward is calculated when the consideration paid in return for the use of the learning model by the user terminal 3 is distributed to each contributor according to the contribution rate corresponding to the learning model.

このようにすることで、管理装置1は、学習モデルの作成に寄与したコントリビュータに対して報酬を適切に支払うことができる。特に、学習モデルが複数のコントリビュータによって作成された場合には、それぞれのコントリビュータの学習モデルの作成に関する寄与率に基づいて、各コントリビュータの報酬を公平に算出することができる。   By doing in this way, the management apparatus 1 can pay a reward appropriately with respect to the contributor who contributed to preparation of a learning model. In particular, when a learning model is created by a plurality of contributors, the reward of each contributor can be calculated fairly based on the contribution rate related to creation of the learning model of each contributor.

また、本実施形態に係る管理装置1は、学習モデルを1又は複数のサブセットに分割し、サブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成し、生成したモデルIDと、学習モデルを使用可能なユーザIDとを関連付けたライセンス情報を記憶する。このようにすることで、他の学習モデルの少なくとも一部を用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれることとなる。したがって、管理装置1は、学習モデルが他の学習モデルを用いて作成されているかを管理することができるとともに、学習モデルを作成した1又は複数のコントリビュータを特定することができる。   Further, the management device 1 according to the present embodiment divides the learning model into one or a plurality of subsets, generates a hash value of each subset, generates a model ID for specifying the learning model, and generates the generated model ID And license information that associates the learning model with the user ID that can use the learning model. By doing in this way, the model ID corresponding to the other learning model is included in the learning model created using at least a part of the other learning model. Therefore, the management apparatus 1 can manage whether the learning model is created using another learning model, and can identify one or a plurality of contributors who created the learning model.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. In particular, the specific embodiments of the distribution / integration of the devices are not limited to those illustrated above, and all or a part thereof may be arbitrarily selected according to various additions or according to the functional load. It can be configured to be functionally or physically distributed and integrated in units.

例えば、上述の実施形態では、管理装置1が、複数の通信機器4のそれぞれにアクセスし、複数の通信機器4のそれぞれが生成したログを取得することとしたが、これに限らない。例えば、複数の通信機器4のそれぞれが生成したログを取得するログ取得装置と、管理装置1とを設けておき、管理装置1が、ログ取得装置から、複数の通信機器4のそれぞれが生成したログを取得してもよい。   For example, in the above-described embodiment, the management apparatus 1 accesses each of the plurality of communication devices 4 and acquires the logs generated by each of the plurality of communication devices 4, but is not limited thereto. For example, a log acquisition device that acquires a log generated by each of a plurality of communication devices 4 and a management device 1 are provided, and the management device 1 generates each of the plurality of communication devices 4 from the log acquisition device. A log may be acquired.

例えば、上述の実施形態では、寄与率管理部136が、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する場合について説明した。これに替えて、寄与率管理部136は、各コントリビュータが生成した層が含む重みの、新規登録する学習モデルの各層が備える重みのデータ量の合計に対する割合に基づいて寄与率を算定してもよい。各層が備える重みのデータ量は層によって異なる場合があるので、各コントリビュータが実際に生成した重みのデータ量を寄与率に反映させることができる。   For example, in the above-described embodiment, the case where the contribution rate management unit 136 calculates the contribution rate based on the ratio of the number of layers generated by each contributor to the total number of layers of the newly registered learning model has been described. Instead, the contribution rate management unit 136 may calculate the contribution rate based on the ratio of the weights included in the layers generated by each contributor to the total data amount of the weights included in each layer of the newly registered learning model. Good. Since the amount of weight data included in each layer may differ depending on the layer, the amount of weight data actually generated by each contributor can be reflected in the contribution rate.

1・・・管理装置、11・・・記憶部、12・・・制御部、13・・・モデル登録部、131・・・取得部、132・・・分割部、133・・・第1ハッシュ生成部、134・・・量子化部、135・・・第2ハッシュ生成部、136・・・寄与率管理部、137・・・記憶制御部、14・・・ライセンス登録部、15・・・使用受付部、16・・・認証部、17・・・学習実行部、18・・・対価算出部、19・・・報酬算出部、2・・・コントリビュータ端末、3・・・ユーザ端末
DESCRIPTION OF SYMBOLS 1 ... Management apparatus, 11 ... Memory | storage part, 12 ... Control part, 13 ... Model registration part, 131 ... Acquisition part, 132 ... Dividing part, 133 ... 1st hash Generation unit 134... Quantization unit 135 135 Second hash generation unit 136. Contribution rate management unit 137 Storage control unit 14 License registration unit 15 Use accepting unit, 16 ... authentication unit, 17 ... learning execution unit, 18 ... consideration calculation unit, 19 ... reward calculation unit, 2 ... contributor terminal, 3 ... user terminal

Claims (8)

1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とを関連付けて保持する記憶部と、
ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける受付部と、
前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する報酬算出部と、
を備える管理装置。
A storage unit that associates and holds a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor;
A receiving unit that receives a request to use the learning model from another device via a network;
A reward calculation unit for calculating respective rewards when the consideration paid in return for the use of the learning model by the other device is distributed to each contributor according to the contribution rate;
A management device comprising:
前記学習モデルはニューラルネットワークを用いた学習によって生成された複数の層それぞれの重みであり、
各コントリビュータが生成した層数の全層数に対する割合に基づいて前記寄与率を算定する寄与率管理部をさらに備える、
請求項1に記載の管理装置。
The learning model is a weight of each of a plurality of layers generated by learning using a neural network,
A contribution rate management unit that calculates the contribution rate based on a ratio of the number of layers generated by each contributor to the total number of layers;
The management apparatus according to claim 1.
前記寄与率管理部は、前記コントリビュータが前記学習モデルを生成するために前記ニューラルネットワークの学習に用いたデータ量に基づいて、前記寄与率を算定する、
請求項2に記載の管理装置。
The contribution rate management unit calculates the contribution rate based on the amount of data used by the contributor to learn the neural network in order to generate the learning model.
The management device according to claim 2.
前記寄与率管理部は、前記学習モデルが更新されることを契機として、前記寄与率を更新する、
請求項2又は3に記載の管理装置。
The contribution rate management unit updates the contribution rate when the learning model is updated.
The management device according to claim 2 or 3.
前記学習モデルの各層の重みのハッシュ値を要素とするデータ列を生成するハッシュ生成部をさらに備え、
前記寄与率管理部は、前記データ列の変更があった場合に前記寄与率を更新する、
請求項2から4のいずれか一項に記載の管理装置。
A hash generation unit that generates a data string having a hash value of a weight of each layer of the learning model as an element;
The contribution rate management unit updates the contribution rate when the data string is changed.
The management apparatus as described in any one of Claim 2 to 4.
前記各層の重みを量子化する量子化部をさらに備え、
前記ハッシュ生成部は、前記量子化部が量子化した重みのハッシュ値を算出する、
請求項5に記載の管理装置。
A quantization unit for quantizing the weight of each layer;
The hash generation unit calculates a hash value of the weight quantized by the quantization unit;
The management device according to claim 5.
プロセッサが、
1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とが関連付けられた寄与率データを保持する記憶部から、前記寄与率データを読み出すステップと、
ネットワークを介して他の装置から前記学習モデルの使用要求を受け付けるステップと、
前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出するステップと、
を実行する管理方法。
Processor
Reading the contribution rate data from a storage unit holding contribution rate data associated with a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor;
Receiving a request to use the learning model from another device via a network;
Calculating each reward when distributing the consideration paid in return for the use of the learning model by the other device to each contributor according to the contribution rate;
Management method to execute.
コンピュータに、
1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの前記学習モデルの作成に関する寄与率とが関連付けられた寄与率データを保持する記憶部から、前記寄与率データを読み出す機能と、
ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける機能と、
前記他の装置による前記学習モデルの使用の見返りとして支払われた対価を、前記寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する機能と、
を実現させるプログラム。
On the computer,
A function of reading the contribution rate data from a storage unit that holds contribution rate data associated with a learning model created by one or more contributors and a contribution rate related to creation of the learning model of each contributor;
A function of accepting a request to use the learning model from another device via a network;
A function of calculating each reward when distributing the consideration paid in return for the use of the learning model by the other device to each contributor according to the contribution rate;
A program that realizes
JP2017112749A 2017-06-07 2017-06-07 Management equipment, management methods, and programs Active JP6869817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112749A JP6869817B2 (en) 2017-06-07 2017-06-07 Management equipment, management methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112749A JP6869817B2 (en) 2017-06-07 2017-06-07 Management equipment, management methods, and programs

Publications (2)

Publication Number Publication Date
JP2018206200A true JP2018206200A (en) 2018-12-27
JP6869817B2 JP6869817B2 (en) 2021-05-12

Family

ID=64957256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112749A Active JP6869817B2 (en) 2017-06-07 2017-06-07 Management equipment, management methods, and programs

Country Status (1)

Country Link
JP (1) JP6869817B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176753A1 (en) * 2020-03-03 2021-09-10 株式会社日立製作所 Data value definition method, data collection facilitation method, data value definition system, and data collection facilitation system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014174973A (en) * 2013-03-06 2014-09-22 Skiyaki Inc Collaboration product development system
JP2015521330A (en) * 2012-05-23 2015-07-27 イ・チョンジョン Revenue allocation method for content cooperation work
US20150324688A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015521330A (en) * 2012-05-23 2015-07-27 イ・チョンジョン Revenue allocation method for content cooperation work
JP2014174973A (en) * 2013-03-06 2014-09-22 Skiyaki Inc Collaboration product development system
US20150324688A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176753A1 (en) * 2020-03-03 2021-09-10 株式会社日立製作所 Data value definition method, data collection facilitation method, data value definition system, and data collection facilitation system

Also Published As

Publication number Publication date
JP6869817B2 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
US8909567B2 (en) Method and system for the dynamic allocation of resources based on fairness, throughput, and user behavior measurement
CN106576114A (en) Policy based resource management and allocation system
CN109118224A (en) Proof of work method, apparatus, medium and the electronic equipment of block chain network
JP6869820B2 (en) Management equipment, management methods and programs
KR102206026B1 (en) System and method for transaction of work requests and products based on blockchain
US10656939B2 (en) Modeling lifetime of hybrid software application using application manifest
JP6858082B2 (en) Management equipment, management methods, and programs
JP7445785B2 (en) Information processing methods, devices, electronic devices and storage media
US11776070B2 (en) Systems and methods for participative support of content-providing users
JP2021516805A (en) Blockchain-based set replacement method and equipment for available resource allocation
CN111080276A (en) Payment method, device, equipment and storage medium for withholding order
Kumar et al. An automated resource management framework for minimizing SLA violations and negotiation in collaborative cloud
Li et al. A price-incentive resource auction mechanism balancing the interests between users and cloud service provider
Nikoofal Sahl Abadi et al. Multiobjective model for solving resource‐leveling problem with discounted cash flows
WO2020011010A1 (en) Computing power transaction method and computing channel
CN109299913B (en) Employee salary scheme generation method and device
JP6869817B2 (en) Management equipment, management methods, and programs
JP6183942B1 (en) Point management system and constraint judgment device
CN111866062B (en) Credible negotiation method and device for cloud service transaction
Cai et al. Unequal‐interval based loosely coupled control method for auto‐scaling heterogeneous cloud resources for web applications
Nadjaran Toosi et al. SipaaS: Spot instance pricing as a Service framework and its implementation in OpenStack
Park et al. Efficient computation offloading for ethereum DApps
US20210385634A1 (en) Method of determining shared service index based on shared service of communication credential
CN114004504A (en) Scheduling method and device of learning task, electronic equipment and storage medium
Dhillon et al. Ethereum tokens: high-performance computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6869817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150