JP2018206199A - 管理装置、管理方法、及びプログラム - Google Patents

管理装置、管理方法、及びプログラム Download PDF

Info

Publication number
JP2018206199A
JP2018206199A JP2017112748A JP2017112748A JP2018206199A JP 2018206199 A JP2018206199 A JP 2018206199A JP 2017112748 A JP2017112748 A JP 2017112748A JP 2017112748 A JP2017112748 A JP 2017112748A JP 2018206199 A JP2018206199 A JP 2018206199A
Authority
JP
Japan
Prior art keywords
learning model
unit
learning
model
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017112748A
Other languages
English (en)
Other versions
JP6858082B2 (ja
Inventor
清本 晋作
Shinsaku Kiyomoto
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017112748A priority Critical patent/JP6858082B2/ja
Publication of JP2018206199A publication Critical patent/JP2018206199A/ja
Application granted granted Critical
Publication of JP6858082B2 publication Critical patent/JP6858082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】学習モデルが他の学習モデルを用いて作成されているかを管理する。【解決手段】管理装置1は、タスクを実現するための学習モデルを1又は複数のサブセットに分割する分割部132と、サブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成する第1ハッシュ生成部133とを備える。管理装置1は、生成した識別情報と、学習モデルを使用可能なユーザのユーザIDとを関連付けたライセンス情報を記憶する記憶部11をさらに備える。【選択図】図2

Description

本発明は、学習モデルを管理するための管理装置、管理方法、及びプログラムに関する。
従来、入力データに対する出力データを予測する学習モデルを機械学習に基づいて作成することが行われている(例えば、特許文献1参照)。
特開2015−060237号公報
学習モデルは、ニューラルネットワークを用いた学習によって作成された複数の層を有している。学習モデルの作成では、他人が作成した学習モデルを再学習することによって既存の層を更新したり、新たに層を追加したりすることにより学習モデルが作成されることがある。この場合、コントリビュータが、他のコントリビュータが作成した他の学習モデルを無断で用いて学習モデルを作成することがあるという問題が発生する。
そこで、本発明はこれらの点に鑑みてなされたものであり、学習モデルが他の学習モデルの少なくとも一部を用いて作成されているかを管理することができる管理装置、管理方法、及びプログラムを提供することを目的とする。
本発明の第1の態様に係る管理装置は、タスクを実現するための学習モデルを1又は複数のサブセットに分割する分割部と、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する生成部と、を備える。
前記学習モデルはニューラルネットワークを用いた学習によって生成された複数の層それぞれの重みであり、前記分割部は、前記複数の層を分割して前記サブセットとしてもよい。
前記分割部は、前記学習モデルのラベルを含めて前記サブセットを生成してもよい。
前記生成部は、前記サブセットそれぞれのハッシュ値を要素とするデータ列を前記識別情報として生成してもよい。
前記管理装置は、生成した識別情報と、前記学習モデルを使用可能なユーザの識別情報とを関連付けたライセンス情報を記憶する記憶部、をさらに備えてもよい。
前記管理装置は、ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける受付部と、前記ライセンス情報を参照して前記他の装置のユーザが前記学習モデルを使用可能か否かを判定する認証部と、前記ユーザが前記学習モデルを使用可能な場合、前記他の装置から取得した前記タスクを実行するためのデータに関する前記学習モデルの実行結果を出力する学習実行部と、をさらに備えてもよい。
前記管理装置は、前記タスクを実行するための前記学習実行部の利用態様に基づいて、前記ユーザに請求する請求額を算出する対価算出部をさらに備えてもよい。
前記対価算出部は、前記タスクを実行するための前記学習実行部の利用負荷に基づいて、前記ユーザに請求する請求額を算出してもよい。
前記対価算出部は、前記タスクを実行するための前記学習実行部の占有率に基づいて、前記ユーザに請求する請求額を算出してもよい。
本発明の第2の態様に係る管理方法は、プロセッサが、タスクを実現するための学習モデルを1又は複数のサブセットに分割するステップと、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成するステップと、を実行する。
本発明の第3の態様に係るプログラムは、コンピュータに、タスクを実現するための学習モデルを1又は複数のサブセットに分割する機能と、前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する機能と、を実現させる。
本発明によれば、学習モデルが他の学習モデルを用いて作成されているかを管理することができるという効果を奏する。
本実施形態に係る管理装置の概要を示す図である。 本実施形態に係る管理装置の構成を示す図である。 本実施形態に係る学習モデル情報の一例を示す図である。 本実施形態に係るライセンス情報の一例を示す図である。 本実施形態に係るモデル登録部の構成を示す図である。 本実施形態に係る学習モデルの登録又は更新に係る処理の流れを示すフローチャートである。 本実施形態に係る学習モデルの使用及び報酬算出に係る処理の流れを示すフローチャートである。
[管理装置1の概要]
図1は、本実施形態に係る管理装置1の概要を示す図である。管理装置1は、ニューラルネットワークの学習モデルの登録を受け付け、登録された学習モデルの使用を有償で受け付ける装置である。管理装置1は、LAN(Local Area Network)やインターネット等の通信ネットワークを介してコントリビュータ端末2及びユーザ端末3と通信可能に接続されている。
本実施形態を説明するにあたり、まず、ニューラルネットワークについて簡単に説明する。ニューラルネットワークの基本構成は、複数種類の層の重ね合わせ(又はグラフ構造)で表現される。
図1には、順伝播型のニューラルネットワークが示されている。順伝播型のニューラルネットワークは、入力層(input layer)と、隠れ層(hidden layer)と、出力層(output layer)との3つの層から構成され、入力層から出力層へ向けて一方向に伝播する。隠れ層は、グラフ状に複数の層から構成することができる。各層は、複数のユニット(ニューロン)を持つ。各層において、前方層のユニットから後方層のユニットへつなぐ関数のパラメータを、「重み(weight)」という。本実施形態における学習とは、この関数のパラメータとして、適切な「重み」を算出することである。また、本実施形態における学習モデルは、複数の層のそれぞれの重みであり、タスクを実現するために用いられる。
ニューラルネットワークにおける学習は、訓練データに対する出力層からの出力値と訓練データのラベルとの誤差を用いて、各層の重みを最適に更新することを意味する。その誤差を算出するために、「損失関数」(loss function)が定義される。誤差は、「誤差逆伝播法」によって出力層側から入力層側へ向けて次々に伝播し、各層の重みを少しずつ更新していく。最終的に誤差が小さくなるように、各層の重みを適切な値に調整する収束計算を実行することにより、学習モデルが作成される。
ところで、学習モデルを作成するユーザは、予め作成されている学習モデルを再学習することによって既存の重みを更新したり、新たな層を追加したりすることによって学習モデルを作成することがある。この場合には、複数のユーザが学習モデルの作成に寄与していることとなる。以下、学習モデルの作成に寄与したユーザを「コントリビュータ」という。
図1に示す例では、学習モデルMが生成されている。学習モデルMには、重みW1〜Wnが含まれている。ここで、図1に示すように、入力層と、隠れ層の一部に対応する重みW1〜WiをコントリビュータAが作成し、隠れ層の他の一部に対応する重みWi+1〜WnをコントリビュータBが作成したとする。この場合、コントリビュータAと、コントリビュータBとが学習モデルMの作成に寄与している。
本実施形態に係る管理装置1は、学習モデルの使用の見返りとして支払われた対価を、各コントリビュータに適切に分配するために、学習モデルと、学習モデルの作成に対する各コントリビュータの寄与率とを関連付けて記憶する(図1の(1))。
また、管理装置1は、学習モデルの使用を希望するユーザが使用するユーザ端末3から、学習モデルのライセンス登録を受け付ける(図1の(2))。ここで、ライセンスは、学習モデルを識別するモデル識別情報としてのモデルIDと、学習モデルを使用するユーザのユーザを識別するユーザIDとを関連付けることによって管理される。モデル識別情報は、学習モデルを分割することによって得られる1又は複数のサブセットのハッシュ値に基づいて生成される。このようにすることで、他の学習モデルを用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれるので、管理装置1は、学習モデルを作成した1又は複数のコントリビュータを特定することができる。
その後、管理装置1は、学習モデルの使用要求を受け付ける(図1の(3))。管理装置1は、使用要求を受け付けるとユーザが学習モデルを使用可能か否かの認証を行う。管理装置1は、認証に成功した場合に、学習モデルを用いたタスクを実行し、実行結果をユーザ端末3に出力する(図1の(4))。管理装置1は、学習モデルの使用に対する対価を算出し、対価の支払いをユーザ端末3のユーザに請求する。その後、管理装置1は、ユーザから支払われた対価と、学習モデルに関連付けられている寄与率とに基づいて、各コントリビュータに対して支払う報酬を算出する(図1の(5))。このようにすることで、管理装置1は、学習モデルが使用されたことに応じて、コントリビュータに報酬を適切に支払うことができる。
以下、管理装置1の構成について説明する。
[管理装置1の構成例]
図2は、本実施形態に係る管理装置1の構成を示す図である。
管理装置1は、記憶部11と、制御部12とを備える。
記憶部11は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)等である。記憶部11は、管理装置1を機能させるための各種プログラムを記憶する。例えば、記憶部11は、管理装置1の制御部12を、後述するモデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能させる管理プログラムを記憶する。また、記憶部11は、学習モデルを含む学習モデル情報と、学習モデルのライセンス情報とを記憶する。
図3は、本実施形態に係る学習モデル情報の一例を示す図である。図3に示すように、学習モデル情報は、登録者と、モデル名と、説明文と、学習モデルと、モデルIDと、量子化後データ列と、寄与者と、寄与率とを含む。
登録者は、学習モデルを登録したコントリビュータを示しており、コントリビュータを識別するコントリビュータIDが格納される。モデル名は、モデルを識別するための情報である。本実施形態では、モデル名は、全ての学習モデルのそれぞれで異なるものとする。
説明文は、モデルの内容を説明するための文字列である。モデルIDは、学習モデルを識別する情報である。量子化後データ列は、モデルIDを量子化した後のハッシュ値である。寄与者は、学習モデルの作成に寄与したコントリビュータを示しており、コントリビュータIDが格納される。ここで、寄与者及び寄与率は、1つの学習モデルに対して1又は複数関連付けられる。
図4は、本実施形態に係るライセンス情報の一例を示す図である。図4に示すように、ライセンス情報は、学習モデルを使用するユーザのユーザIDと、モデル名と、モデルIDとを含む。
図2に説明を戻し、制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されている各種プログラムを実行することにより、管理装置1に係る機能を制御する。制御部12は、管理プログラムを実行することにより、モデル登録部13、ライセンス登録部14、使用受付部15、認証部16、学習実行部17、対価算出部18、及び報酬算出部19として機能する。
[学習モデルの登録及び更新]
モデル登録部13は、コントリビュータが使用するコントリビュータ端末2から学習モデルの新規登録又は更新を受け付ける。図5は、本実施形態に係るモデル登録部13の構成を示す図である。図5に示すように、モデル登録部13は、取得部131と、分割部132と、第1ハッシュ生成部133と、量子化部134と、第2ハッシュ生成部135と、寄与率管理部136と、記憶制御部137とを備える。
取得部131は、コントリビュータ端末2から学習モデルを取得する。具体的には、取得部131は、学習モデルの新規登録を受け付ける場合には、コントリビュータ端末2から、学習モデルと、学習モデル名と、学習モデルの説明文と、学習モデルのラベルと、学習モデルを作成したコントリビュータのコントリビュータIDとを取得する。ここで、学習モデルには、複数の層のそれぞれに付与されているインデックスと、複数の層のそれぞれの重みを示す複数の重み値とが含まれている。
また、取得部131は、学習モデルの更新を受け付ける場合、まず、コントリビュータ端末2からコントリビュータIDを取得する。取得部131は、記憶部11に記憶されている学習モデル情報を参照し、コントリビュータIDに関連付けられているモデル名を特定し、当該モデル名のうちのいずれかの選択を受け付ける。そして、取得部131は、コントリビュータ端末2から、更新後の学習モデルを取得する。取得部131は、学習モデルの更新時にも学習モデルのラベルを取得してもよい。
分割部132は、学習モデルを1又は複数のサブセットに分割する。分割部132は、複数の層を分割し、各層に対応する重みをサブセットとする。ここで、分割部132は、取得部131が学習モデルとともに取得した、学習モデルのラベルを含めてサブセットを生成する。
第1ハッシュ生成部133は、分割部132が生成した1又は複数のサブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成する。具体的には、まず、第1ハッシュ生成部133は、1又は複数のサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を生成する。そして、第1ハッシュ生成部133は、例えば、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とするデータ列をモデルIDとして生成する。
量子化部134は、学習モデルの各層の重みである、分割部132が分割したサブセットのそれぞれを量子化する。例えば、量子化部134は、重み値のとりうる範囲を、複数の範囲に分割し、複数の範囲のそれぞれに代表値を設定する。量子化部134は、複数の重み値を、重み値が属する範囲に対応する代表値に変換することにより、サブセットを量子化する。このようにすることで、管理装置1は、学習モデルの細かい更新が発生した場合に、寄与率を変化させず、処理負荷を軽減することができる。
第2ハッシュ生成部135は、学習モデルの各層の重みのハッシュ値を要素とする量子化後データ列を生成する。具体的には、まず、第2ハッシュ生成部135は、量子化部134が量子化したサブセットを示す複数の重み値のそれぞれに対してハッシュ関数を適用することにより、複数の重み値のそれぞれのハッシュ値を算出する。そして、第2ハッシュ生成部135は、複数の重み値のそれぞれに対して生成したハッシュ値を、各層に付与されているインデックス順に連結することにより、これらのハッシュ値を要素とする量子化後データ列を生成する。
寄与率管理部136は、取得部131が取得した学習モデルの作成に関する各コントリビュータの寄与率を算定する。寄与率管理部136は、学習モデルを新規登録する場合には、記憶部11に記憶されている学習モデル情報を参照して、第1ハッシュ生成部133が生成したモデルIDに、学習モデル情報に記憶されている他の学習モデルのモデルIDが含まれているか否かを判定する。
寄与率管理部136は、他の学習モデルのモデルIDが含まれていない場合には、新規登録する学習モデルが、登録を行うコントリビュータが独自に作成したものと判定し、当該コントリビュータの寄与率を1(100%)と算定する。
寄与率管理部136は、他の学習モデルのモデルIDが含まれている場合には、記憶部11に記憶されている学習モデル情報に含まれている他の学習モデルを参照し、当該他の学習モデルの層数を特定する。そして、寄与率管理部136は、新規登録する学習モデルの全層数から他の学習モデルの層数を減算し、登録を行うコントリビュータが生成した層数を特定する。
また、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、他の学習モデルの寄与者及び寄与率と、当該他の学習モデルの層数とに基づいて、当該他の学習モデルを生成した各コントリビュータが生成した層数を特定する。そして、寄与率管理部136は、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する。
また、寄与率管理部136は、学習モデルが更新されることを契機として、寄与率を更新する。具体的には、寄与率管理部136は、記憶部11に記憶されている学習モデル情報を参照し、更新対象の学習モデルの量子化後データ列を特定する。そして、寄与率管理部136は、特定した量子化後データ列と、第2ハッシュ生成部135が生成した量子化後データ列とが異なる場合、すなわち、量子化後データ列の変更があった場合に、学習モデルが更新されたと判定し、寄与率を算定する。学習モデルが更新される場合の寄与率の算定方法は、学習モデルが新規登録される場合の寄与率の算定方法と同じであるので、説明を省略する。
なお、寄与率管理部136は、各コントリビュータが学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量に基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に用いたデータ量を示す情報を取得し、記憶部11に記憶されている学習モデル情報に、当該データ量を示す情報を格納させておく。
また、寄与率管理部136は、学習に用いた計算資源の総コストに基づいて寄与率を算出してもよい。この場合、取得部131は、学習モデルの登録時に、当該学習モデルを生成するために、ニューラルネットワークの学習に消費した計算資源の量を示す計算資源情報を取得し、記憶部11に記憶されている学習モデル情報に、当該計算資源情報を格納させておく。ここで、消費資源情報には、CPU使用時間を示す情報と、記憶部11の使用領域(メモリ使用量)を示す情報とが含まれる。
また、計算資源に基づいて寄与率を算出するために、管理装置1は、ニューラルネットワークの学習を行うことにより学習モデルを生成するモデル生成部を備えてもよい。そして、モデル生成部は、コントリビュータ端末2からニューラルネットワークの学習に用いるデータを受け付け、ニューラルネットワークの学習を行う。また、モデル生成部は、コントリビュータIDと、生成された学習モデルのモデルIDと、学習において消費した計算資源を示す消費資源情報とを関連付けて記憶部11に記憶させる。寄与率管理部136は、記憶部11に記憶されている消費資源情報が示す計算資源に基づいて、各コントリビュータが学習モデルの生成に用いた計算資源の割合を特定し、当該割合に基づいて寄与率を算出する。
寄与率管理部136は、学習モデル情報を参照し、学習モデルに対応するデータ量を示す情報と、当該学習モデルに含まれている他の学習モデルに対応するデータ量を示す情報とを特定する。そして、寄与率管理部136は、学習モデルに対応するデータ量と、他の学習モデルに対応するデータ量との割合に基づいて寄与率を算出する。学習モデルの生成では、学習に用いたデータ量が多ければ多いほど、学習効果が高くなり、学習モデルの有用度が増す。したがって、管理装置1は、学習に用いたデータ量に基づいて寄与率を算出することにより、学習モデルの有用度の向上に貢献したコントリビュータの寄与率を高く設定することができる。
記憶制御部137は、学習モデルを記憶部11に記憶させる。記憶制御部137は、取得部131が取得したコントリビュータIDを登録者と特定する。記憶制御部137は、学習モデルの新規登録を受け付けた場合には、特定した登録者と、取得部131が取得した学習モデル、学習モデル名、説明文及びラベルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率と、を関連付けて学習モデル情報として記憶部11に記憶させる。
また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されたと判定すると、学習モデル情報に記憶されている学習モデル、モデルID、量子化後データ列、寄与者及び寄与率を更新する。記憶制御部137は、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDと、第2ハッシュ生成部135が生成した量子化後データ列と、寄与率管理部136が特定した寄与者及び寄与率とに基づいて、学習モデル情報を更新する。
また、記憶制御部137は、学習モデルの更新を受け付けた場合に、寄与率管理部136が量子化後データ列に基づいて学習モデルが更新されていないと判定すると、学習モデル情報に記憶されている学習モデルと、モデルIDとを、取得部131が取得した学習モデルと、第1ハッシュ生成部133が生成したモデルIDとに更新する。
[ライセンス情報の登録]
説明を図2に戻す。ライセンス登録部14は、ユーザ端末3のユーザからライセンスの登録を受け付ける。例えば、ライセンス登録部14は、ユーザ端末3に、モデル名と、モデルIDと、説明文とを表示させ、ユーザが使用する学習モデルの選択を受け付ける。ここで、ライセンス登録部14は、例えば、学習モデルの全層数やラベルに基づいて、学習モデルのライセンス料を算出し、ユーザ端末3にライセンス料を表示してもよい。
ユーザ端末3は、学習モデルが選択されると、モデル名と、モデルIDと、ユーザを識別するユーザIDとを含むライセンス登録要求を管理装置1に送信する。ライセンス登録部14は、ライセンス登録要求を受信すると、ライセンス登録要求に含まれているユーザIDと、モデル名と、モデルIDとを関連付けてライセンス情報として記憶部11に記憶させる。
[学習モデルの使用]
使用受付部15は、通信ネットワークを介して他の装置としてのユーザ端末3から学習モデルの使用要求を受け付ける。具体的には、使用受付部15は、ユーザ端末3から、ユーザが使用する学習モデルのモデル名と、ユーザIDとを含む学習モデルの使用要求を受信することにより、学習モデルの使用要求を受け付ける。なお、本実施形態では、使用受付部15は、ユーザ端末3から学習モデルの使用要求を受け付けることとしたが、これに限らない。使用受付部15は、コントリビュータ端末2から使用要求を受け付けてもよい。
認証部16は、使用受付部15がユーザ端末3から学習モデルの使用要求を受け付けると、記憶部11に記憶されているライセンス情報を参照して、ユーザ端末3のユーザが、当該学習モデルを使用可能か否かを判定する。
具体的には、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用可能と判定する。
また、認証部16は、学習モデルの使用要求に含まれている学習モデルのモデル名と、ユーザIDとが関連付けられてライセンス情報に記憶されている場合に、ユーザ端末3のユーザが、当該学習モデルを使用不可と判定する。認証部16は、学習モデルを使用不可と判定すると、使用不可であることを示すメッセージをユーザ端末3に通知する。
学習実行部17は、ユーザが学習モデルを使用可能な場合、ユーザ端末3から取得したタスクを実行するためのデータに関する学習モデルの実行結果を出力する。具体的には、まず、学習実行部17は、ユーザ端末3のユーザが学習モデルを使用可能と認証部16が判定すると、ユーザ端末3から、タスクを実行するためのデータを1又は複数取得する。学習実行部17は、ユーザ端末3から取得したデータを入力データとし、使用要求に対応する学習モデルを使用したタスクを実行することにより実行結果を取得する。学習実行部17は、取得した実行結果をユーザ端末3に出力する。
[学習モデルの使用に対する対価及び各コントリビュータの報酬の算出]
対価算出部18は、タスクを実行するための学習実行部17の利用態様に基づいて、ユーザに請求する請求額を算出する。例えば、対価算出部18は、タスクを実行するための学習実行部17の利用負荷に基づいて、ユーザに請求する請求額を算出する。ここで、学習実行部17の利用負荷は、ユーザが使用した学習モデルに基づくタスクを実行した際に、学習実行部17が費やした時間、すなわちCPU使用時間である。このようにすることで、管理装置1は、利用負荷という観点に基づいて請求額を公平に算出することができる。
なお、対価算出部18は、タスクを実行するための学習実行部17の占有率に基づいて、ユーザに請求する請求額を算出してもよい。ここで、学習実行部17の占有率は、ユーザが使用した学習モデルに基づくタスクを実行した際の、学習実行部17のCPU利用率である。このようにすることで、管理装置1は、複数のユーザが使用する場合に、CPU利用率に基づいて公平に請求額を算出することができる。
対価算出部18は、算出した請求額をユーザ端末3に通知する。ユーザ端末3のユーザは、通知された請求額を所定の方法で管理装置1の管理者に支払う。
報酬算出部19は、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルの作成に関する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。
具体的には、まず、報酬算出部19は、記憶部11に記憶されている学習モデル情報を参照し、対価が算出された学習モデルの各コントリビュータの寄与率を特定する。そして、報酬算出部19は、対価算出部18が算出した対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出する。
ここで、報酬算出部19は、管理装置1の管理者の報酬を算出し、対価算出部18が算出した対価から、管理者の報酬を減算してもよい。そして、報酬算出部19は、減算後の対価と、特定した各コントリビュータの寄与率とを乗算することにより、各コントリビュータの報酬を算出してもよい。報酬算出部19は、算出した請求額を所定の方法で各コントリビュータに支払う。
[学習モデルの登録に係る処理の流れ]
続いて、管理装置1における処理の流れについて説明する。まず、学習モデルの登録又は更新に係る処理の流れについて説明する。図6は、本実施形態に係る学習モデルの登録又は更新に係る処理の流れを示すフローチャートである。
まず、取得部131は、学習モデルを取得する(S10)。
続いて、分割部132は、学習モデルを分割してサブセットを生成する(S20)。
続いて、第1ハッシュ生成部133は、S20において生成されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて学習モデルのモデルIDを生成する(S30)。
続いて、量子化部134は、サブセットを量子化する(S40)。そして、第2ハッシュ生成部135は、量子化されたサブセットのハッシュ値を生成し、当該ハッシュ値に基づいて量子化後データ列を生成する(S50)。
続いて、寄与率管理部136は、学習モデルの作成に関する各コントリビュータの寄与率を算定する(S60)。
続いて、記憶制御部137は、学習モデルを登録又は更新することにより、学習モデル情報を更新する(S70)。
[学習モデルの使用及び報酬算出に係る処理の流れ]
続いて、学習モデルの使用及び報酬算出に係る処理の流れについて説明する。図7は、本実施形態に係る学習モデルの使用及び報酬算出に係る処理の流れを示すフローチャートである。
まず、使用受付部15は、学習モデルの使用要求を受け付ける(S110)。ここで、学習モデルの使用要求には、学習モデルのモデル名とユーザIDとが含まれている。
続いて、認証部16は、使用要求が受け付けられた学習モデルが使用可能か否かの認証を行う(S120)。
続いて、学習実行部17は、認証部16における認証に成功したことに応じて、学習モデルを使用したタスクを実行するための入力データを取得する(S130)。
続いて、学習実行部17は、取得した入力データと、使用要求に対応する学習モデルとを使用したタスクを実行する(S140)。これにより、学習実行部17は、タスクの実行結果を取得する。
続いて、対価算出部18は、学習モデルの利用態様に基づいて学習モデルの使用に係る請求額を算出する(S150)。
続いて、報酬算出部19は、使用した学習モデルに対応し、学習モデル情報に記憶されている寄与率に基づいて、各コントリビュータの対価の報酬を算出する(S160)。
[本実施形態における効果]
以上のとおり、本実施形態に係る管理装置1は、1又は複数のコントリビュータが作成した学習モデルと、各コントリビュータの学習モデルの作成に関する寄与率とを関連付けて記憶し、ネットワークを介してユーザ端末3から学習モデルの使用要求を受け付け、ユーザ端末3による学習モデルの使用の見返りとして支払われた対価を、学習モデルに対応する寄与率に応じて各コントリビュータに分配する場合のそれぞれの報酬を算出する。
このようにすることで、管理装置1は、学習モデルの作成に寄与したコントリビュータに対して報酬を適切に支払うことができる。特に、学習モデルが複数のコントリビュータによって作成された場合には、それぞれのコントリビュータの学習モデルの作成に関する寄与率に基づいて、各コントリビュータの報酬を公平に算出することができる。
また、本実施形態に係る管理装置1は、学習モデルを1又は複数のサブセットに分割し、サブセットそれぞれのハッシュ値を生成して学習モデルを特定するためのモデルIDを生成し、生成したモデルIDと、学習モデルを使用可能なユーザIDとを関連付けたライセンス情報を記憶する。このようにすることで、他の学習モデルの少なくとも一部を用いて作成した学習モデルには、他の学習モデルに対応するモデルIDが含まれることとなる。したがって、管理装置1は、学習モデルが他の学習モデルを用いて作成されているかを管理することができるとともに、学習モデルを作成した1又は複数のコントリビュータを特定することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、特に、装置の分散・統合の具体的な実施形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
例えば、上述の実施形態では、管理装置1が、複数の通信機器4のそれぞれにアクセスし、複数の通信機器4のそれぞれが生成したログを取得することとしたが、これに限らない。例えば、複数の通信機器4のそれぞれが生成したログを取得するログ取得装置と、管理装置1とを設けておき、管理装置1が、ログ取得装置から、複数の通信機器4のそれぞれが生成したログを取得してもよい。
例えば、上述の実施形態では、寄与率管理部136が、各コントリビュータが生成した層数の、新規登録する学習モデルの全層数に対する割合に基づいて寄与率を算定する場合について説明した。これに替えて、寄与率管理部136は、各コントリビュータが生成した層が含む重みの、新規登録する学習モデルの各層が備える重みのデータ量の合計に対する割合に基づいて寄与率を算定してもよい。各層が備える重みのデータ量は層によって異なる場合があるので、各コントリビュータが実際に生成した重みのデータ量を寄与率に反映させることができる。
1・・・管理装置、11・・・記憶部、12・・・制御部、13・・・モデル登録部、131・・・取得部、132・・・分割部、133・・・第1ハッシュ生成部、134・・・量子化部、135・・・第2ハッシュ生成部、136・・・寄与率管理部、137・・・記憶制御部、14・・・ライセンス登録部、15・・・使用受付部、16・・・認証部、17・・・学習実行部、18・・・対価算出部、19・・・報酬算出部、2・・・コントリビュータ端末、3・・・ユーザ端末

Claims (11)

  1. タスクを実現するための学習モデルを1又は複数のサブセットに分割する分割部と、
    前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する生成部と、
    を備える管理装置。
  2. 前記学習モデルはニューラルネットワークを用いた学習によって生成された複数の層それぞれの重みであり、
    前記分割部は、前記複数の層を分割して前記サブセットとする、
    請求項1に記載の管理装置。
  3. 前記分割部は、前記学習モデルのラベルを含めて前記サブセットを生成する、
    請求項1又は2に記載の管理装置。
  4. 前記生成部は、前記サブセットそれぞれのハッシュ値を要素とするデータ列を前記識別情報として生成する、
    請求項1から3のいずれか一項に記載の管理装置。
  5. 生成した識別情報と、前記学習モデルを使用可能なユーザの識別情報とを関連付けたライセンス情報を記憶する記憶部、
    をさらに備える、
    請求項1から4のいずれか一項に記載の管理装置。
  6. ネットワークを介して他の装置から前記学習モデルの使用要求を受け付ける受付部と、
    前記ライセンス情報を参照して前記他の装置のユーザが前記学習モデルを使用可能か否かを判定する認証部と、
    前記ユーザが前記学習モデルを使用可能な場合、前記他の装置から取得した前記タスクを実行するためのデータに関する前記学習モデルの実行結果を出力する学習実行部と、
    をさらに備える、
    請求項5に記載の管理装置。
  7. 前記タスクを実行するための前記学習実行部の利用態様に基づいて、前記ユーザに請求する請求額を算出する対価算出部をさらに備える、
    請求項6に記載の管理装置。
  8. 前記対価算出部は、前記タスクを実行するための前記学習実行部の利用負荷に基づいて、前記ユーザに請求する請求額を算出する、
    請求項7に記載の管理装置。
  9. 前記対価算出部は、前記タスクを実行するための前記学習実行部の占有率に基づいて、前記ユーザに請求する請求額を算出する、
    請求項7又は8に記載の管理装置。
  10. プロセッサが、
    タスクを実現するための学習モデルを1又は複数のサブセットに分割するステップと、
    前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成するステップと、
    を実行する管理方法。
  11. コンピュータに、
    タスクを実現するための学習モデルを1又は複数のサブセットに分割する機能と、
    前記サブセットそれぞれのハッシュ値を生成して前記学習モデルを特定するための識別情報を生成する機能と、
    を実現させるプログラム。
JP2017112748A 2017-06-07 2017-06-07 管理装置、管理方法、及びプログラム Active JP6858082B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112748A JP6858082B2 (ja) 2017-06-07 2017-06-07 管理装置、管理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112748A JP6858082B2 (ja) 2017-06-07 2017-06-07 管理装置、管理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018206199A true JP2018206199A (ja) 2018-12-27
JP6858082B2 JP6858082B2 (ja) 2021-04-14

Family

ID=64958029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112748A Active JP6858082B2 (ja) 2017-06-07 2017-06-07 管理装置、管理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6858082B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181240A (ja) * 2019-04-23 2020-11-05 株式会社東芝 データ生成装置、データ生成方法およびプログラム
WO2021075091A1 (ja) * 2019-10-15 2021-04-22 日本電気株式会社 対価算出装置、制御方法、及びプログラム
JP7473274B1 (ja) 2023-12-19 2024-04-23 株式会社フィードフォース 情報処理システム、プログラム及び情報処理方法
JP7487748B2 (ja) 2022-01-21 2024-05-21 横河電機株式会社 装置、方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007669A1 (fr) * 2006-07-10 2008-01-17 Nec Corporation Dispositif et procédé de gestion de système informatique
WO2008084547A1 (ja) * 2007-01-12 2008-07-17 Fujitsu Limited 文書検証プログラム、記録媒体、文書検証方法および文書検証装置
WO2009136616A1 (ja) * 2008-05-09 2009-11-12 日本電気株式会社 運転状態判定方法及びシステム
WO2016145675A1 (zh) * 2015-03-13 2016-09-22 中国科学院声学研究所 一种基于分段的两级深度学习模型的大数据处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008007669A1 (fr) * 2006-07-10 2008-01-17 Nec Corporation Dispositif et procédé de gestion de système informatique
WO2008084547A1 (ja) * 2007-01-12 2008-07-17 Fujitsu Limited 文書検証プログラム、記録媒体、文書検証方法および文書検証装置
WO2009136616A1 (ja) * 2008-05-09 2009-11-12 日本電気株式会社 運転状態判定方法及びシステム
WO2016145675A1 (zh) * 2015-03-13 2016-09-22 中国科学院声学研究所 一种基于分段的两级深度学习模型的大数据处理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181240A (ja) * 2019-04-23 2020-11-05 株式会社東芝 データ生成装置、データ生成方法およびプログラム
JP7055769B2 (ja) 2019-04-23 2022-04-18 株式会社東芝 データ生成装置、データ生成方法およびプログラム
WO2021075091A1 (ja) * 2019-10-15 2021-04-22 日本電気株式会社 対価算出装置、制御方法、及びプログラム
JPWO2021075091A1 (ja) * 2019-10-15 2021-04-22
JP7393030B2 (ja) 2019-10-15 2023-12-06 日本電気株式会社 対価算出装置、制御方法、及びプログラム
JP7487748B2 (ja) 2022-01-21 2024-05-21 横河電機株式会社 装置、方法およびプログラム
JP7473274B1 (ja) 2023-12-19 2024-04-23 株式会社フィードフォース 情報処理システム、プログラム及び情報処理方法

Also Published As

Publication number Publication date
JP6858082B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
US10678598B2 (en) Enforcing compute equity models in distributed blockchain
US11057225B2 (en) Enforcing compute equity models in distributed blockchain
US10609032B2 (en) Enforcing compute equity models in distributed blockchain
US10462138B2 (en) Application programming interface access controls
JP6858082B2 (ja) 管理装置、管理方法、及びプログラム
Martens et al. Costing of cloud computing services: A total cost of ownership approach
Wu et al. Service level agreement (SLA) in utility computing systems
CN110163474A (zh) 一种任务分配的方法及设备
CN101295380B (zh) 用于估计资源供应的方法和系统
JP2019003402A (ja) 管理装置、管理方法及びプログラム
CN109240838A (zh) 接口调用方法、装置、计算机设备及存储介质
CN109118224A (zh) 区块链网络的工作量证明方法、装置、介质及电子设备
US10656939B2 (en) Modeling lifetime of hybrid software application using application manifest
Liu et al. Strategy-proof mechanism for provisioning and allocation virtual machines in heterogeneous clouds
Kumar et al. An automated resource management framework for minimizing SLA violations and negotiation in collaborative cloud
Li et al. A price-incentive resource auction mechanism balancing the interests between users and cloud service provider
WO2020011010A1 (zh) 一种算力交易方法及计算通道
Tang et al. Pricing model for dynamic resource overbooking in edge computing
CN111866062B (zh) 一种云服务交易的可信协商方法及装置
JP6869817B2 (ja) 管理装置、管理方法、及びプログラム
JP6183942B1 (ja) ポイント管理システムおよび制約判定装置
US8873083B2 (en) User centric print usage
Nadjaran Toosi et al. SipaaS: Spot instance pricing as a Service framework and its implementation in OpenStack
Cai et al. Unequal‐interval based loosely coupled control method for auto‐scaling heterogeneous cloud resources for web applications
Giannoutakis et al. Evaluation of self‐organizing and self‐managing heterogeneous high performance computing clouds through discrete‐time simulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210323

R150 Certificate of patent or registration of utility model

Ref document number: 6858082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150