JP6599065B1 - 機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム - Google Patents

機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム Download PDF

Info

Publication number
JP6599065B1
JP6599065B1 JP2019534771A JP2019534771A JP6599065B1 JP 6599065 B1 JP6599065 B1 JP 6599065B1 JP 2019534771 A JP2019534771 A JP 2019534771A JP 2019534771 A JP2019534771 A JP 2019534771A JP 6599065 B1 JP6599065 B1 JP 6599065B1
Authority
JP
Japan
Prior art keywords
model
machine learning
group
user
creation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019534771A
Other languages
English (en)
Other versions
JPWO2020136775A1 (ja
Inventor
聡 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connectome Design Inc
Original Assignee
Connectome Design Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connectome Design Inc filed Critical Connectome Design Inc
Application granted granted Critical
Publication of JP6599065B1 publication Critical patent/JP6599065B1/ja
Publication of JPWO2020136775A1 publication Critical patent/JPWO2020136775A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 複数のユーザによって、機械学習のモデルを共に創る(共創する)ことを目的とする。【解決手段】 機械学習のモデルを共に創る機械学習モデル共創システムに、ユーザの登録を行うユーザ登録手段111と、登録された複数のユーザからなるグループを作成するグループ作成手段112と、グループに所属するユーザから、モデルの登録を受け付けるモデル登録手段113と、登録されたモデルを、分散台帳で管理する管理手段114と、グループに所属するユーザから、分散台帳で管理されたモデルの共創を受け付ける共創手段115と、グループに所属するユーザか前記共創されたモデルに対する学習の依頼を受け付けて学習を行う学習手段116と、所定の条件を満たした時に、学習されたモデルを取得する取得手段117と、取得されたモデルを、グループに所属しない他ユーザ、又は他のグループ、に公開する公開手段118と、を備える。【選択図】 図1

Description

本発明は、複数のユーザによって機械学習のモデルを共に創り(共創し)、それを公開することによって更なる共創を生みだす機械学習モデル共創システム、機械学習モデル共創方法、及びプログラムに関するものである。
近年、機械学習が注目されている。例えば、それぞれの操作者に最適な操作メニューを表示することができる機械学習の技術が提供されている(特許文献1)。
特開2017−138881号公報
しかしながら、特許文献1の技術では、それぞれの操作者に最適な操作メニューを表示することはできるが、複数のユーザによって、機械学習のモデルを共に創ることはできない。
この課題に対し、本発明の発明者は、機械学習のモデルをより良いものにするためには、多様な立場のユーザが、新しい価値を「共」に「創」り上げていくこと、すなわち「共創」が必要であると考えた。そこで、複数のユーザからなるグループを作成し、登録された機械学習モデルを分散台帳で管理して、機械学習モデルの共創を行い、共創したモデルを学習し、学習が終了したモデルを公開することにより、複数のユーザによって、機械学習のモデルを共に創ることができる点に注目した。
本発明は、複数のユーザによって機械学習のモデルを共創し、それを公開することによって更なる共創を生みだす機械学習モデル共創システム、機械学習モデル共創方法、及びプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、
複数のユーザによって、機械学習のモデルを共に創る機械学習モデル共創システムであって、
前記ユーザの登録を行うユーザ登録手段と、
前記登録された複数のユーザからなるグループを作成するグループ作成手段と、
前記グループに所属するユーザから、前記モデルの登録を受け付けるモデル登録手段と、
前記登録されたモデルを、分散台帳で管理する管理手段と、
前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付ける共創手段と、
前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングする学習手段と、
所定の条件を満たした時に、前記学習されたモデルを取得する取得手段と、
前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開する公開手段と、
を備える機械学習モデル共創システムを提供する。
第1の特徴に係る発明によれば、複数のユーザによって、機械学習のモデルを共に創る機械学習モデル共創システムであって、前記ユーザの登録を行うユーザ登録手段と、前記登録された複数のユーザからなるグループを作成するグループ作成手段と、前記グループに所属するユーザから、前記モデルの登録を受け付けるモデル登録手段と、前記登録されたモデルを、分散台帳で管理する管理手段と、前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付ける共創手段と、前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングする学習手段と、所定の条件を満たした時に、前記学習されたモデルを取得する取得手段と、前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開する公開手段と、を備える。
第1の特徴に係る発明は、機械学習モデル共創システムのカテゴリであるが、機械学習モデル共創方法、及びプログラムであっても同様の作用、効果を奏する。
の特徴に係る発明は、第1特徴に係る発明である機械学習モデル共創システムであって、
前記グループ作成手段は、前記グループを作成したユーザが、他ユーザ又は他のグループを招待し、招待したユーザ又は招待したグループに対するアクセス権を設定する機械学習モデル共創システムを提供する。
の特徴に係る発明によれば、第1特徴に係る発明である機械学習モデル共創システムにおいて、前記グループ作成手段は、前記グループを作成したユーザが、他ユーザ又は他のグループを招待し、招待したユーザ又は招待したグループに対するアクセス権を設定する。
の特徴に係る発明は、第1又は第2の特徴に係る発明である機械学習モデル共創システムであって、
前記機械学習のモデルは、ディープニューラルネットワーク、前処理、後処理、他の機械学習のモデルへの入力、他の機械学習のモデルからの出力受け取り等を組み合わせた処理フローと機械学習用のデータからなる機械学習モデル共創システムを提供する。
の特徴に係る発明によれば、第1又は第2の特徴に係る発明である機械学習モデル共創システムにおいて、前記機械学習のモデルは、ディープニューラルネットワーク、前処理、後処理、他の機械学習のモデルへの入力、他の機械学習のモデルからの出力受け取り等を組み合わせた処理フローと機械学習用のデータからなる。
の特徴に係る発明は、第1から第のいずれかの特徴に係る発明である機械学習モデル共創システムであって、
前記所定の条件は、前記モデルがあらかじめ決められた性能に達した場合、前記モデルが指定された時間学習を行った場合、前記学習を依頼したユーザが指定した場合、の何れかである機械学習モデル共創システムを提供する。
の特徴に係る発明によれば、第1から第のいずれかの特徴に係る発明である機械学習モデル共創システムにおいて、前記所定の条件は、前記モデルがあらかじめ決められた性能に達した場合、前記モデルが指定された時間学習を行った場合、前記学習を依頼したユーザが指定した場合、の何れかである。
の特徴に係る発明は、第1から第のいずれかの特徴に係る発明である機械学習モデル共創システムであって、
前記公開手段は、前記取得されたモデルに対する編集の可否、利用料、ライセンス料、等を設定可能とする機械学習モデル共創システムを提供する。
の特徴に係る発明によれば、第1から第のいずれかの特徴に係る発明である機械学習モデル共創システムにおいて、前記公開手段は、前記取得されたモデルに対する編集の可否、利用料、ライセンス料、等を設定可能とする。
の特徴に係る発明は、第の特徴に係る発明である機械学習モデル共創システムであって、
前記機械学習のモデルは、前記アクセス権の設定と前記公開手段による公開の設定に応じて利用が可能なユーザ又はグループは、当該機械学習モデル共創システムが提供するAPIを介して使用することが可能である機械学習モデル共創システムを提供する。
の特徴に係る発明によれば、第の特徴に係る発明である機械学習モデル共創システムにおいて、前記機械学習のモデルは、前記アクセス権の設定と前記公開手段による公開の設定に応じて利用が可能なユーザ又はグループは、当該機械学習モデル共創システムが提供するAPIを介して使用することが可能である。
の特徴に係る発明は、
コンピュータが実行する機械学習モデル共創方法であって、
複数のユーザによる機械学習のモデルの共創を受け付けるために、前記ユーザの登録を行うステップと、
前記登録された複数のユーザからなるグループを作成するステップと、
前記グループに所属するユーザから、前記モデルの登録を受け付けるステップと、
前記登録されたモデルを、分散台帳で管理するステップと、
前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付けるステップと、
前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングするステップと、
所定の条件を満たした時に、前記学習されたモデルを取得するステップと、
前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開するステップと、
を備える機械学習モデル共創方法を提供する。
第9の特徴に係る発明は、
複数のユーザによる機械学習のモデルの共創を受け付けるために、前記ユーザの登録を行うステップ、
前記登録された複数のユーザからなるグループを作成するステップ、
前記グループに所属するユーザから、前記モデルの登録を受け付けるステップ、
前記登録されたモデルを、分散台帳で管理するステップ、
前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付けるステップ、
前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングするステップ、
所定の条件を満たした時に、前記学習されたモデルを取得するステップ、
前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開するステップ、
コンピュータに実行させるためのプログラムを提供する。
本発明によれば、複数のユーザによって機械学習のモデルを共創し、それを公開することによって更なる共創を生みだす機械学習モデル共創システム、機械学習モデル共創方法、及びプログラムを提供することが可能となる。
本発明の好適な実施の形態の概要図である。 機械学習モデル共創システムの概要と、計算装置10の機能ブロック図である。 機械学習モデル共創処理のフローチャート図である。
以下、好適な実施の形態を用いて本発明をさらに具体的に説明する。但し、下記の実施の形態は本発明を具現化した例に過ぎず、本発明はこれに限定されるものではない。
[機械学習モデル共創システムの概要]
図1は、本発明の好適な実施形態の概要図である。この図1に基づいて、本発明の概要を説明する。機械学習モデル共創システムは、図2に示すように、計算装置10、通信網20、ユーザ30から構成される。計算装置10は、機械学習モデル共創システムを運用可能な計算装置であるとする。例として、コンピュータ、スマートフォン、タブレット端末、ウェアラブル端末等であってよい。数は一つに限らず複数であってよく、また、実在する装置に限らず仮想的な装置であってもよい。計算装置10は、制御部110、通信部120、記憶部130、入力部140、出力部150、から構成される。制御部110には、ユーザ登録手段111、グループ作成手段112、モデル登録手段113、管理手段114、共創手段115、学習手段116、取得手段117、公開手段118を備える。制御部110は、各手段の実現のために、必要に応じて通信部120、記憶部130、入力部140、出力部150と協働する。通信網20は、計算装置10とユーザ30間の通信を可能とする通信網である。
図1の機械学習モデル共創システムにおいて、まず、計算装置10のユーザ登録手段111は、ユーザ30の登録を行う(ステップS1)。図1のステップS1では、Aというユーザ30を、機械学習モデル共創システムに登録している。ユーザ登録の方法としては、ユーザ30に計算装置10の入力部140を介して入力させてもよいし、ユーザ30の所有する端末から、通信部120を介して入力させてもよいし、計算装置10の記憶部130に保存した名簿データ等を基に行ってもよい。
次に、グループ作成手段112は、登録された複数のユーザ30からなるグループを作成する(ステップS2)。図1のステップS2では、A、B、Cという3人のユーザ30のグループXを作成している。グループ作成の方法としては、例えば、Aが自分を含むグループを作成し、BとCを招待することが考えられる。この場合、グループXの作成者はAとなる。招待の方法としては、BとCに対してメッセージを送り、グループXへの参加を承認するか、拒否するか、を選択させることが例として挙げられる。また、グループ作成の際には、個人のユーザ30を個別に招待するのみでなく、既存のグループ全体を招待してもよい。この場合、参加の承認や拒否は、既存のグループの作成者が行うこととしてもよいし、ユーザ30が個別に行うこととしてもよい。また、グループ作成の際には、グループを作成したユーザ30が、招待したユーザ30又は招待したグループに対するアクセス権を設定することとする。アクセス権の設定例としては、「1.リードオンリー(モデル利用、データ利用)」、「2.書き込み(モデル編集、モデル新規作成、モデル削除、前処理、後処理、既存モデルとの組合せ、既存前処理、既存後処理)」、「3.管理権限(ユーザの招待、グループの招待、モデルの学習依頼・中断・取り出し、モデルの登録・公開)」等が考えられる。
次に、モデル登録手段113は、グループXに所属するユーザ30からの、モデルの登録を受け付ける(ステップS3)。ここで、どのユーザ30がモデル登録を行えるかは、ユーザ30の管理権限に応じて決定する。図1では、例として1つのモデルのみを登録した例を図示しているが、複数のモデルを登録してもよい。ここで、機械学習のモデルとは、ディープニューラルネットワーク(Deep Neural Network)等の機械学習の手法、前処理、後処理、他の機械学習のモデルへの入力、他の機械学習のモデルからの出力受け取り等を組み合わせた処理フローと機械学習用のデータを含むものとする。
次に、管理手段114は、ステップS3で登録されたモデルを、分散台帳で管理する(ステップS4)。ここでの分散台帳とは、分散台帳技術を使った管理方法のことで、ブロックチェーンに限定されるものではない。
次に、共創手段115は、分散台帳で管理されたモデルに対して、グループXに所属するユーザ30から、共創を受け付ける(ステップS5)。本発明において、「共創」とは、多様な立場のユーザが、新しい価値を「共」に「創」り上げていくことである。ステップS5における機械学習モデルの共創とは、具体的には、機械学習の手法の指定、機械学習のための前処理や後処理の指定、他の機械学習モデルを利用する場合の指定、処理フローの指定、機械学習に使用する学習データの登録や削除、学習回数や学習時間の指定、等が挙げられる。機械学習の手法として、主なものには深層学習であるディープニューラルネットワーク等があるが、この手法に限らず、ユーザの課題に適した機械学習の手法を機械学習モデル共創システムが提供して、利用可能としてよい。
次に、学習手段116は、グループXに所属するユーザ30から、ステップS5で共創されたモデルに対する学習の依頼を受け付けて、学習を行う(ステップS6)。学習の依頼を受け付けた学習手段116は、機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザ30が支払う対価に応じて、複数の学習依頼を順序立ててキューイングするものとする。ここでのキューイングとは、モデルの学習を開始するコマンドを、待ち行列に入れることである。キューに入ったモデルは、順番が来ると学習が開始される。学習依頼時だけでなく学習の依頼後にも対価を支払うことで、その対価に応じて学習の順番を前倒しすることが可能であるものとする。
次に、取得手段117は、ステップS6で学習を行ったモデルを取得する(ステップS7)。取得手段117による取得のタイミングは、所定の条件を満たしていればよく、学習が完了しているかどうかは問わない。所定の条件としては、例えば、学習を行ったモデルがあらかじめ決められた性能に達した場合、モデルが指定された時間又は回数の学習を行った場合、グループXに所属するユーザ30が取得を指定した場合、等が考えられる。
最後に、公開手段118は、ステップS7で取得したモデルを、グループXに所属しないユーザ30や他のグループに対して、公開する(ステップS8)。公開する際には、当該モデルに対する編集の可否や、機械学習モデル共創システム内で利用する場合の利用料、外部のプラットフォームで使用する場合のライセンス料、等を設定可能とする。また、前記のアクセス権の設定に応じて機械学習モデルの利用が可能なユーザ30は、モデルの利用の際に、機械学習モデル共創システムが提供するAPIを介して使用することも可能であるとする。
本発明によれば、複数のユーザによって機械学習のモデルを共創し、それを公開することによって更なる共創を生みだすこととなり、個々の課題に対応してより性能がよい機械学習モデル共創システム、機械学習モデル共創方法、及びプログラムを提供することが可能となる。
[各機能の説明]
機械学習モデル共創システムの概要と、計算装置10の機能ブロック図である。機械学習モデル共創システムは、計算装置10、通信網20から構成され、ユーザ30により利用される。
計算装置10は、機械学習モデル共創システムを運用可能な計算装置であるとする。例として、コンピュータ、スマートフォン、タブレット端末、ウェアラブル端末等であってよい。数は一つに限らず複数であってよく、また、実在する装置に限らず仮想的な装置であってもよい。計算装置10は、制御部110、通信部120、記憶部130、入力部140、出力部150、から構成される。
計算装置10は、制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部110には、ユーザ登録手段111、グループ作成手段112、モデル登録手段113、管理手段114、共創手段115、学習手段116、取得手段117、公開手段118を備える。制御部110は、各手段の実現のために、必要に応じて通信部120、記憶部130、入力部140、出力部150と協働する。
計算装置10は、通信部120として、他の機器と通信可能にするためのデバイス等を備える。通信方式は、無線であっても有線であってもよい。
計算装置10は、記憶部130として、データのストレージ部を備え、ユーザ30のデータや機械学習モデルデータ等の必要なデータを記憶する。
計算装置10は、入力部140として、入力を実現するためのデバイスを備える。例として、タッチパネル、キーボード、マウス、ペンタブレット、マイク等である。
計算装置10は、出力部150として、出力を実現するためのデバイスを備える。例としては、ディスプレイ、プロジェクター、スピーカー等である。出力部150に直接出力するのではなく、通信部120を介して、ユーザ30の所有するデバイスに出力することも可能とする。
通信網20は、計算装置10とユーザ30間の通信を可能とする通信網である。一般の通信網であっても、専用の通信網であってもよい。
[機械学習モデル共創処理]
図3は、機械学習モデル共創処理のフローチャート図である。上述した各手段が実行する処理について、本フローチャートで説明する。
機械学習モデル共創システムにおいて、まず、計算装置10のユーザ登録手段111は、ユーザ30の登録を行う(ステップS301)。ユーザ登録の方法としては、ユーザ30に計算装置10の入力部140を介して入力させてもよいし、ユーザ30の所有する端末から、通信部120を介して入力させてもよいし、計算装置10の記憶部130に保存した名簿データ等を基に行ってもよい。
次に、グループ作成手段112は、登録された複数のユーザ30からなるグループを作成する(ステップS302)。例えば図1に示したように、Aが自分を含むグループXを作成し、BとCを招待することが考えられる。この場合、グループXの作成者はAとなる。招待の方法としては、BとCに対してメッセージを送り、グループXへの参加を承認するか、拒否するか、を選択させることが例として挙げられる。また、グループ作成の際には、個人のユーザ30を個別に招待するのみでなく、既存のグループ全体を招待してもよい。この場合、参加の承認や拒否は、既存のグループの作成者が行うこととしてもよいし、ユーザ30が個別に行うこととしてもよい。また、グループ作成の際には、グループを作成したユーザ30が、招待したユーザ30又は招待したグループに対するアクセス権を設定することとする。アクセス権の設定例としては、「1.リードオンリー(モデル利用、データ利用)」、「2.書き込み(モデル編集、モデル新規作成、モデル削除、前処理、後処理、既存モデルとの組合せ、既存前処理、既存後処理)」、「3.管理権限(ユーザの招待、グループの招待、モデルの学習依頼・中断・取り出し、モデルの登録・公開)」等が考えられる。
次に、モデル登録手段113は、グループXに所属するユーザ30からの、モデルの登録を受け付ける(ステップS303)。ここで、どのユーザ30がモデル登録を行えるかは、ユーザ30の管理権限に応じて決定する。モデルの登録は1つのみではなく、複数のモデルを登録してもよい。ここで、機械学習のモデルとは、ディープニューラルネットワーク等の機械学習の手法、前処理、後処理、他の機械学習のモデルへの入力、他の機械学習のモデルからの出力受け取り等を組み合わせた処理フローと機械学習用のデータを含むものとする。
次に、管理手段114は、ステップS303で登録されたモデルを、分散台帳で管理する(ステップS304)。ここでの分散台帳とは、分散台帳技術を使った管理方法のことで、ブロックチェーンに限定されるものではない。
次に、共創手段115は、分散台帳で管理されたモデルに対して、グループXに所属するユーザ30から、共創を受け付ける(ステップS305)。ステップS305における機械学習モデルの共創とは、具体的には、機械学習の手法の指定、機械学習のための前処理や後処理の指定、他の機械学習モデルを利用する場合の指定、処理フローの指定、機械学習に使用する学習データの登録や削除、学習回数や学習時間の指定、等が挙げられる。機械学習の手法として、主なものには深層学習であるディープニューラルネットワーク等があるが、この手法に限らず、ユーザの課題に適した機械学習の手法を機械学習モデル共創システムが提供して、利用可能としてよい。
次に、学習手段116は、グループXに所属するユーザ30から、ステップS305で共創されたモデルに対する学習の依頼を受け付けて、学習を行う(ステップS306)。学習の依頼を受け付けた学習手段116は、機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザ30が支払う対価に応じて、複数の学習依頼を順序立ててキューイングするものとする。ここでのキューイングとは、モデルの学習を開始するコマンドを、待ち行列に入れることである。キューに入ったモデルは、順番が来ると学習が開始される。学習依頼時だけでなく学習の依頼後にも対価を支払うことで、その対価に応じて学習の順番を前倒しすることが可能であるものとする。学習手段116は、学習経過を一定の間隔で機械学習モデル共創システムに通知し、学習依頼を実施したユーザ30と同じグループXに所属するユーザ30は、学習の進捗や性能等の状態を確認することが出来る。また、学習手段116は、ユーザ種別によって、モデルが学習に利用する資源の量(メモリ量、GPU数、CPU占有割合等)を決定する。ユーザ種別は、ユーザ30の属性やユーザ30が支払う対価に応じて、機械学習モデル共創システムが設定可能であるものとする。
次に、取得手段117は、ステップS306で学習を行ったモデルを取得する(ステップS307)。取得手段117による取得のタイミングは、所定の条件を満たしていればよく、学習が完了しているかどうかは問わない。所定の条件としては、例えば、学習を行ったモデルがあらかじめ決められた性能に達した場合、モデルが指定された時間又は回数の学習を行った場合、グループXに所属するユーザ30が取得を指定した場合、等が考えられる。また、モデルを取得した後、学習を継続するかどうかは、ユーザ30に選択させてもよい。学習を中断してモデルを取得した後、学習を終了する場合には、それまでの学習時間に応じて、ユーザ30が支払う対価を減らしてもよい。また、学習を中断してモデルを取得した後、学習を一時中断する場合には、一時中断の期間中、ユーザ30が支払う対価(利用料金)を軽減してもよい。
最後に、公開手段118は、ステップS307で取得したモデルを、グループXに所属しないユーザ30や他のグループに対して、公開する(ステップS308)。公開する場合の開示先の例として、「1.特定個人」、「2.グループ」、「3.非開示」が挙げられる、また、開示方法として、「1.内容開示」、「2.一部指定して開示」、「3.内容説明のみ開示」が挙げられる。公開する際には、当該モデルに対する編集の可否や、機械学習モデル共創システム内で利用する場合の利用料、外部のプラットフォームで使用する場合のライセンス料、等を設定可能とする。また、前記のアクセス権の設定に応じて機械学習モデルの利用が可能なユーザ30は、モデルの利用の際に、機械学習モデル共創システムが提供するAPIを介して使用することも可能であるとする。
ここでは、ステップS305からステップS308の処理が一度であるフローを記載しているが、ステップS305からステップS308までの処理は何度行ってもよく、また、処理の途中で一旦停止して、再度ステップS305から処理を行ってもよいものとする。
図3のフローチャートには図示していないが、機械学習モデル共創システムは、常にフル稼働することを前提としたシステムであってよい。ユーザ30からの学習依頼が無い場合には、機械学習モデル共創システムのリソースを無駄にしないために、運営者が設定した複数のモデルの学習を行う。この場合に学習を行うモデルは、一般物体認識や、動画内のオブジェクト認識、音声認識等の一般的に利用価値のある課題とすることで、その後ユーザ30による利用を可能とすることで、より、機械学習モデル共創システムの利用価値を高めることが可能となる。
また、機械学習モデル共創システムは、ユーザ30が共創した各モデルのランキングを行って開示してもよい。ランキングの例として、機械学習モデル共創システムの運営側による、一般物体認識、動画内のオブジェクト認識、音声認識等の精度ランキングや、学習時間ランキングや、学習データ数ランキングが挙げられる。また、機械学習モデル共創システムユーザによる、実際にモデルを利用してみた場合の評価点のランキングも考えられる。
本発明によれば、複数のユーザによって機械学習のモデルを共創し、それを公開することによって更なる共創を生みだすこととなり、個々の課題に対応してより性能がよい機械学習モデル共創システム、機械学習モデル共創方法、及びプログラムを提供することが可能となる。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
10 計算装置、20 通信網、30 ユーザ

Claims (8)

  1. 複数のユーザによって、機械学習のモデルを共に創る機械学習モデル共創システムであって、
    前記ユーザの登録を行うユーザ登録手段と、
    前記登録された複数のユーザからなるグループを作成するグループ作成手段と、
    前記グループに所属するユーザから、前記モデルの登録を受け付けるモデル登録手段と、
    前記登録されたモデルを、分散台帳で管理する管理手段と、
    前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付ける共創手段と、
    前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングする学習手段と、
    所定の条件を満たした時に、前記学習されたモデルを取得する取得手段と、
    前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開する公開手段と、
    を備える機械学習モデル共創システム。
  2. 前記グループ作成手段は、前記グループを作成したユーザが、他ユーザ又は他のグループを招待し、招待したユーザ又は招待したグループに対するアクセス権を設定する請求項1記載の機械学習モデル共創システム。
  3. 前記機械学習のモデルは、ディープニューラルネットワーク、前処理、後処理、他の機械学習のモデルへの入力、他の機械学習のモデルからの出力受け取り等を組み合わせた処理フローと機械学習用のデータからなる請求項1または請求項2に記載の機械学習モデル共創システム。
  4. 前記所定の条件は、前記モデルがあらかじめ決められた性能に達した場合、前記モデルが指定された時間学習を行った場合、前記学習を依頼したユーザが指定した場合、の何れかである請求項1から請求項3のいずれか一項に記載の機械学習モデル共創システム。
  5. 前記公開手段は、前記取得されたモデルに対する編集の可否、利用料、ライセンス料、等を設定可能とする請求項1から請求項4のいずれか一項に記載の機械学習モデル共創システム。
  6. 前記機械学習のモデルは、前記アクセス権の設定と前記公開手段による公開の設定に応じて利用が可能なユーザ又はグループは、当該機械学習モデル共創システムが提供するAPIを介して使用することが可能である請求項2に記載の機械学習モデル共創システム。
  7. コンピュータが実行する機械学習モデル共創方法であって、
    複数のユーザによる機械学習のモデルの共創を受け付けるために、前記ユーザの登録を行うステップと、
    前記登録された複数のユーザからなるグループを作成するステップと、
    前記グループに所属するユーザから、前記モデルの登録を受け付けるステップと、
    前記登録されたモデルを、分散台帳で管理するステップと、
    前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付けるステップと、
    前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングするステップと、
    所定の条件を満たした時に、前記学習されたモデルを取得するステップと、
    前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開するステップと、
    を備える機械学習モデル共創方法。
  8. 複数のユーザによる機械学習のモデルの共創を受け付けるために、前記ユーザの登録を行うステップ、
    前記登録された複数のユーザからなるグループを作成するステップ、
    前記グループに所属するユーザから、前記モデルの登録を受け付けるステップ、
    前記登録されたモデルを、分散台帳で管理するステップ、
    前記グループに所属するユーザから、前記分散台帳で管理されたモデルの共創を受け付けるステップ、
    前記グループに所属するユーザから、前記共創されたモデルに対する学習の依頼を受け付けて学習を行う際に、前記機械学習モデル共創システム全体の規模と、前記学習の依頼を行ったユーザが支払う対価に応じて、複数の学習依頼を順序立ててキューイングするステップ、
    所定の条件を満たした時に、前記学習されたモデルを取得するステップ、
    前記取得されたモデルを、前記グループに所属しない他ユーザ、又は他のグループ、に公開するステップ、
    コンピュータに実行させるためのプログラム。
JP2019534771A 2018-12-26 2018-12-26 機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム Active JP6599065B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/047968 WO2020136775A1 (ja) 2018-12-26 2018-12-26 機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6599065B1 true JP6599065B1 (ja) 2019-10-30
JPWO2020136775A1 JPWO2020136775A1 (ja) 2021-02-15

Family

ID=68383301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019534771A Active JP6599065B1 (ja) 2018-12-26 2018-12-26 機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6599065B1 (ja)
WO (1) WO2020136775A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210065565A (ko) * 2019-11-27 2021-06-04 충북대학교 산학협력단 블록체인 기반의 데이터 프라이버시를 제공하는 분산 지식 발견 시스템 및 방법
JP2022002025A (ja) * 2020-06-22 2022-01-06 株式会社Yamato 情報処理装置及び情報処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058364B1 (ja) 2021-05-13 2022-04-21 Kddi株式会社 情報処理装置、情報処理プログラム、情報処理方法及び飛行装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898219A (zh) * 2018-06-07 2018-11-27 广东工业大学 一种基于区块链的神经网络训练方法、装置及介质
JP2019003402A (ja) * 2017-06-15 2019-01-10 Kddi株式会社 管理装置、管理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019003402A (ja) * 2017-06-15 2019-01-10 Kddi株式会社 管理装置、管理方法及びプログラム
CN108898219A (zh) * 2018-06-07 2018-11-27 广东工业大学 一种基于区块链的神经网络训练方法、装置及介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ACHEAMPONG, F.A.: ""Big Data, Machine Learning and the BlockChain Technology: An Overview"", INTERNATIONAL JOURNAL OF COMPUTER APPLICATIONS, vol. 180, no. 28, JPN6019016984, March 2018 (2018-03-01), pages 1 - 4, ISSN: 0004083727 *
ARRANZ, A., "DECENTRALIZED SUPERVISED NEURAL NETWORK ON THE BLOCKCHAIN: GIVING MINING A GOOD PURPOSE", JPN6019016982, 17 April 2018 (2018-04-17), pages 1 - 10, ISSN: 0004083725 *
RAMAN, R.K., ET AL., "TRUSTED MULTI-PARTY COMPUTATION AND VERIFIABLE SIMULATIONS: A SCALABLE BLOCKCHAIN APPROACH", vol. version v1, arXiv:1809.08438v1, JPN6019016983, 22 September 2018 (2018-09-22), pages 1 - 16, ISSN: 0004083726 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210065565A (ko) * 2019-11-27 2021-06-04 충북대학교 산학협력단 블록체인 기반의 데이터 프라이버시를 제공하는 분산 지식 발견 시스템 및 방법
KR102309024B1 (ko) 2019-11-27 2021-10-07 충북대학교 산학협력단 블록체인 기반의 데이터 프라이버시를 제공하는 분산 지식 발견 시스템 및 방법
JP2022002025A (ja) * 2020-06-22 2022-01-06 株式会社Yamato 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
WO2020136775A1 (ja) 2020-07-02
JPWO2020136775A1 (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
CN108647277B (zh) 一种移动校园综合服务平台及其工作方法
JP6092981B1 (ja) 表示制御方法、情報処理装置、端末、及びプログラム
JP6599065B1 (ja) 機械学習モデル共創システム、機械学習モデル共創方法、及びプログラム
CN101867487B (zh) 用图形呼叫连接象征管理联系中心的系统和方法
CN109891827A (zh) 电信会话的综合多任务接口
WO2020151170A1 (zh) 一种岗位画像设置方法、岗位画像设置装置及终端设备
CN107005550A (zh) 相关通信模式选择
US20240095459A1 (en) Topic Identification Based on Virtual Space Machine Learning Models
CN109902182A (zh) 知识数据处理方法、装置、设备及存储介质
JP2021185501A (ja) プログラム、方法、端末
CN106302368B (zh) 事务处理方法及装置
CN107018168A (zh) 互联网资源调度方法及装置、网络红包调度方法
CN106411703A (zh) 一种信息同步方法及装置
KR20220150847A (ko) 오피스 시스템, 작업 태스크 관리 방법 및 장치
CN107506971A (zh) 组队实现使用共享物品任务的方法、装置、服务器及系统
US11681869B2 (en) Methods and systems for managing collaborative editing of content
WO2024007655A1 (zh) 一种社交处理方法及相关设备
US20230244325A1 (en) Learned computer control using pointing device and keyboard actions
CN110083351A (zh) 用于生成代码的方法和装置
US10984392B2 (en) Providing multi-session event invitation
CN108270829B (zh) 资源分发处理方法及装置
CN115186305A (zh) 一种构建数据元件模型并生产数据元件的方法
JP2022000767A (ja) 情報共有支援装置、情報共有支援方法、およびプログラム
CN111290805A (zh) 一种聚合功能快捷调用方法及系统
CN110048938A (zh) 信息交互方法、电子设备和计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190624

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6599065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250