JP2016004548A - 提供装置、提供方法及び提供プログラム - Google Patents

提供装置、提供方法及び提供プログラム Download PDF

Info

Publication number
JP2016004548A
JP2016004548A JP2014126547A JP2014126547A JP2016004548A JP 2016004548 A JP2016004548 A JP 2016004548A JP 2014126547 A JP2014126547 A JP 2014126547A JP 2014126547 A JP2014126547 A JP 2014126547A JP 2016004548 A JP2016004548 A JP 2016004548A
Authority
JP
Japan
Prior art keywords
learning device
providing
learning
feature
providing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014126547A
Other languages
English (en)
Other versions
JP5844854B2 (ja
Inventor
健一 磯
Kenichi Iso
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2014126547A priority Critical patent/JP5844854B2/ja
Priority to US14/477,433 priority patent/US10366423B2/en
Publication of JP2016004548A publication Critical patent/JP2016004548A/ja
Application granted granted Critical
Publication of JP5844854B2 publication Critical patent/JP5844854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】多段ニューラルネットワーク(DNN)を容易に利用する。【解決手段】提供装置は、入力データに対する演算結果を出力するノードが接続された学習器であって、入力データから所定の種別に対応する特徴を抽出する学習器を登録する登録部131と、特徴の種別の指定を受け付ける受付部132と、登録部によって登録された学習器に基づいて、受付部によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、選択された学習器に基づいて生成された新たな学習器を提供する提供部133と、提供部が選択した学習器を提供した売主に支払う対価を算定する算定部134とを備えた。【選択図】図2

Description

本発明は、提供装置、提供方法及び提供プログラムに関する。
近年、多段に接続されたニューロンを有するDNN(Deep Neural Network)を利用して言語認識や画像認識の学習を行うディープラーニングに関する技術が知られている。例えば、このような技術では、入力された画像データから画像に含まれる物体等を学習することでDNNを構築する。そして、新たな画像データが入力された場合に、構築したDNNに基づいてどのような物体が画像に含まれているかを識別する。
特表2009−516246号公報
しかしながら、上記の従来技術では、DNNを容易に利用することができるとは限らなかった。例えば、上記の従来技術では、所望の判定を行うDNNを構築するために、大量のデータを用いて学習を行うことになる。このため、上記の従来技術では、学習用のデータを集める手間がかかるとともに、データの学習に時間がかかる。このようなことから、上記の従来技術では、DNNを容易には構築することができないので、DNNを容易に利用することができるとは限らなかった。
本願は、上記に鑑みてなされたものであって、DNNを容易に利用することができる提供装置、提供方法及び提供プログラムを提供することを目的とする。
本願に係る提供装置は、入力データに対する演算結果を出力するノードが接続された学習器であって前記入力データから所定の種別に対応する特徴を抽出する学習器を登録する登録部と、特徴の種別の指定を受け付ける受付部と、前記登録部によって登録された学習器に基づいて、前記受付部によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、当該選択された学習器に基づいて生成された新たな学習器を提供する提供部と、前記提供部が選択した学習器を提供した売主に支払う対価を算定する算定部とを備えたことを特徴とする。
実施形態の一態様によれば、DNNを容易に利用することができるという効果を奏する。
図1は、実施形態に係る提供システムによる提供処理の一例を示す説明図である。 図2は、実施形態に係る提供装置の構成例を示す図である。 図3は、実施形態に係る学習器情報記憶部の一例を示す図である。 図4は、提供装置による登録処理手順を示すフローチャートである。 図5は、提供装置による提供処理手順を示すフローチャートである。 図6は、変形例に係る提供システムによる提供処理の一例を示す説明図である。 図7は、学習器の一例を示す図である。 図8は、学習器の一例を示す図である。 図9は、学習器の一例を示す図である。 図10は、提供装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る提供装置、提供方法及び提供プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る提供装置、提供方法及び提供プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.提供処理〕
まず、図1を用いて、実施形態に係る提供処理の一例について説明する。図1は、実施形態に係る提供システムによる提供処理の一例を示す説明図である。図1の例では、仲介業者が管理する提供装置100によって学習器(例えば、DNN)を提供する提供処理が行われる例を示す。なお、図1では、売主は、学習器を提供するものを示す。買主は、学習器の提供を受けるものを示す。
図1に示すように、提供システム1には、売主端末10A〜10Cと、買主端末50と、提供装置100とが含まれる。売主端末10A〜10C、買主端末50、提供装置100は、それぞれネットワークと無線により通信可能に接続される。なお、以下では、売主端末10A〜10Cの各装置を区別なく総称する場合には、「売主端末10」と記載する場合がある。
売主端末10および買主端末50は、例えば、PC(Personal Computer)や、タブレット型端末や、スマートフォンや、携帯電話機、PDA(Personal Digital Assistant)等の情報処理装置である。提供装置100は、入力データに対する演算結果を出力するノード(例えば、ニューロン)が接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器(例えば、ニューラルネットワークやDNN)を提供する提供処理を実行するサーバ装置である。
ここで、提供処理について、提供装置100が、売主から提供された学習器を用いて、買主に所望する学習器を提供する場合を想定して説明する。ここでは、学習器を提供装置100に提供する売主は、図1に示すように、A社と、B社と、C社であるものとする。また、仲介業者から学習器を利用する権利を購入する買主は、D社であるものとする。
図1の例では、まず、売主が、売主端末10を操作して、入力データに対する演算結果を出力するニューロンが接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器を提供装置100に提供する。例えば、A社の従業員は、売主端末10Aを操作して、「A社製の洋服」の特徴を抽出する既に学習済みのDNNである学習器Nを提供装置100に提供する。同様に、B社の従業員は、売主端末10Bを操作して、「女性」の特徴を抽出する既に学習済みのDNNである学習器Nを提供装置100に提供する。また、C社の従業員は、売主端末10Cを操作して、「男性」の特徴を抽出する既に学習済みのDNNである学習器Nを提供装置100に提供する。これにより、提供装置100は、A社〜C社から提供された学習器N〜Nを登録する(ステップS1)。例えば、提供装置100は、仲介業者が提供するパブリックエリアPbに学習器N〜Nを保管する。
その後、提供装置100は、特徴の種別の指定を受け付ける(ステップS2)。例えば、提供装置100は、入力データから抽出される特徴の種別の指定を買主から受け付ける。ここで、買主であるD社は、画像データから「D社製の洋服」を認識したいので、入力データとして入力する画像データから「洋服」の特徴を抽出するDNNを欲しているものとする。この場合、D社の従業員は、買主端末50を操作して、特徴の種別として「洋服」を指定する。これにより、提供装置100は、特徴の種別として「洋服」の指定を買主端末50から受け付ける。
続いて、提供装置100は、受け付けられた特徴の種別に基づいて、登録された学習器のうち受け付けた種別に対応する特徴を抽出する学習器を選択する(ステップS3)。かかる場合、提供装置100は、入力データから抽出される特徴の種別として「洋服」の指定を受け付けたので、各学習器N〜Nのうち、「洋服」の特徴を抽出できる学習器、もしくは、クラス「洋服」に含まれるサブクラスのデータの特徴を抽出できる学習器を選択する。すなわち、提供装置100は、クラス「洋服」に含まれるサブクラス「A社製の洋服」の特徴を抽出する学習器Nを選択する。その後、提供装置100は、買主であるD社が有する追加ノードN(新規ノードの一例に相当)を、登録部131によって登録された学習器Nに追加した学習器Nを生成し、D社製の洋服を抽出できるように学習器Nの学習を行うことで、D社製の洋服の特徴を抽出する学習器Nを生成する。
そして、提供装置100は、生成した学習器Nを利用する権利をD社に提供する(ステップS4)。例えば、提供装置100は、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアPrで学習器NをD社に提供する。ここで、プライベートエリアPrは、仲介業者が提供するプライベートエリアのうち買主であるD社のみに公開された領域であってその他の第三者には非公開の領域である。
より詳細な例を挙げると、提供装置100は、学習器Nが有する各ノード間の接続係数のうち、学習器Nに含まれるノード間の接続係数については、A社のみに公開され、追加ノードNと他のノードとの接続係数については、D社のみに公開される。さらに、提供装置100は、D社が学習器Nを利用する場合は、学習器Nに含まれるノード間の接続係数と、追加ノードNと他のノードとの接続係数とを用いて、学習器Nを構成し、D社から受け付けた入力データを学習器Nに入力し、学習器Nの出力をD社に通知する。
その後、提供装置100は、提供された学習器を提供した売主に支払う対価を算定する。そして、提供装置100を管理する仲介業者は、学習器Nを買主に提供した対価として、提供装置100によって算定された対価をA社に対して支払う(ステップS5)。例えば、仲介業者は、提供装置100が売主から提供された学習器を買主に提供した際に、提供した学習器の利用回数に応じた金銭を対価として売主に支払う。また、仲介業者は、例えば、買主に提供した学習器を利用する使用料を買主に対して請求する。
このように、実施形態に係る提供装置100は、入力データに対する演算結果を出力するノードが接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器を登録する。また、提供装置100は、特徴の種別の指定を受け付ける。また、提供装置100は、登録された学習器に基づいて、受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、選択された学習器に基づいて生成された新たな学習器を提供する。また、提供装置100は、選択した学習器を提供した売主に支払う対価を算定する。
これにより、提供装置100は、売主から提供されたDNNのうち買主が所望するDNNを買主に提供することができるので、買主がDNNを容易に利用することができる。例えば、提供装置100は、売主によって既に構築されたDNNを買主に提供することができるので、買主が所望するDNNを構築する手間を削減することができる。
また、提供装置100は、売主が登録されたDNNの内容を秘匿しつつ、買主が所望するDNNを提供することができるので、セキュリティを担保することができる。また、提供装置100は、売主がDNNを構築する際に用いたデータ内容や特徴の判定手法は提供せずに入力データに対する演算結果を出力する学習器を提供するので、売主である会社が保有する情報の機密性を保持することができる。
〔2.提供装置の構成〕
次に、図2を用いて、実施形態に係る提供装置100の構成について説明する。図2は、実施形態に係る提供装置100の構成例を示す図である。図2に示すように、提供装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、提供装置100は、提供装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC等によって実現される。かかる通信部110は、ネットワークと有線又は無線で接続され、ネットワークを介して、売主端末10や買主端末50との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、学習器情報記憶部121を有する。
(学習器情報記憶部121について)
学習器情報記憶部121は、学習器に関する情報を記憶する。具体的には、学習器情報記憶部121は、入力データに対する演算結果を出力するノードが接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器に関する情報を記憶する。例えば、学習器情報記憶部121は、売主から提供された学習器に関する情報を記憶する。ここで、図3に、実施形態に係る学習器情報記憶部121の一例を示す。図3に示すように、学習器情報記憶部121は、「学習器ID」、「提供元」、「種別」といった項目を有する。
「学習器ID」は、学習器を識別するための識別情報を示す。「提供元」は、「学習器ID」に対応する学習器を提供装置100に提供した売主を示す。「種別」は、「学習器ID」に対応する学習器が抽出可能な特徴の種別を示す。具体的には、「種別」は、対応付けられた学習器IDが示す学習器が特徴を抽出することができるデータのクラスもしくはサブクラスを示す情報である。
すなわち、図3では、学習器ID「N」に対応する学習器Nは、「A社」から提供された学習器である例を示している。また、図3では、学習器ID「N」に対応する学習器Nは、「A社製の洋服」の特徴を抽出することができる学習器である例を示している。
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、提供装置100内部の記憶装置に記憶されている各種プログラム(提供プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部130は、図2に示すように、登録部131と、受付部132と、提供部133と、算定部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する提供処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(登録部131について)
登録部131は、学習器に関する情報を登録する。具体的には、登録部131は、入力データに対する演算結果を出力するノード(例えば、ニューロン)が接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器を登録する。例えば、登録部131は、売主から提供されたニューラルネットワークやDNNといった各種の特徴を抽出する学習器を、提供元の売主と対応付けて学習器情報記憶部121に記憶する。
(受付部132について)
受付部132は、特徴の種別の指定を受け付ける。具体的には、受付部132は、入力データから抽出される特徴の種別の指定を買主から受け付ける。一例としては、受付部132は、画像データを入力データとして「洋服」の特徴を抽出する学習器の利用を買主が所望する場合には、特徴の種別として「洋服」の指定を受け付ける。例えば、受付部132は、特徴の種別を選択させる選択画面を買主端末50に提供する。そして、受付部132は、提供した選択画面を介して買主端末50から特徴の種別の指定を受け付ける。
(提供部133について)
提供部133は、学習器を買主に提供する。具体的には、提供部133は、登録部131によって登録された学習器に基づいて、132受付部によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、選択された学習器に基づいて生成された新たな学習器を提供する。
一例としては、提供部133は、まず、登録部131によって登録された学習器の中から、受付部132によって受け付けられた特徴の種別を抽出する学習器を選択する。例えば、提供部133は、受付部132によって「洋服」が特徴の種別として受け付けられた場合には、登録部131によって登録された学習器のうち「洋服」の特徴を抽出する学習器を選択する。また、例えば、提供部133は、受付部132によって受け付けられた特徴と同一の特徴を抽出する学習器が登録されていない場合は、受け付けられた特徴に基づくクラスもしくはサブクラスの学習器を選択する。具体例を挙げると、提供部133は、受付部132によって「洋服」が特徴の種別として受け付けられた際に、「A社の洋服」の特徴を抽出する学習器のみが登録されている場合には、かかる学習器を選択する。すなわち、提供部133は、受け付けたクラスに含まれるサブクラスに属するデータの特徴を抽出する学習器を選択してもよい。
そして、提供部133は、選択した学習器を買主の買主端末50に提供する。例えば、提供部133は、買主が学習器を利用する場合は、まず、売主から提供された学習器に含まれるノード間の接続係数と、追加ノードと他のノードとの接続係数とを用いて、新たな学習器を構成する。一例としては、提供部133は、バックプロパゲーション法などによって接続係数に修正する。すなわち、提供部133は、受付部132によって受け付けられた特徴を抽出可能な接続係数に調整(例えば、チューニング)する。そして、提供部133は、買主から受け付けた入力データを構成した学習器に入力し、かかる学習器の出力を買主に通知する。なお、提供部133は、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアで学習器を提供する。ここで、プライベートエリアは、仲介業者が提供するプライベートエリアのうち買主のみに公開された領域であってその他の第三者には非公開の領域である。具体的には、提供部133は、学習器が登録される所定の記憶装置が有する記憶領域のうち、特徴の種別の指定を行った買主のみが接続可能な記憶領域内に、生成された学習器を格納し、当該学習器の提供を行う。なお、学習器が有する各ノード間の接続係数のうち、売主から提供された学習器に含まれるノード間の接続係数は、かかる売主のみに公開される。一方、追加ノードと他のノードとの間の接続係数は、買主のみに公開される。これにより、買主は、例えば、買主端末50を操作して仲介業者が提供するプライベートエリアPrにアクセスすることで提供部133によって提供された学習器を利用することができるので、買主が所望する学習器を容易に利用することができる。また、売主は、データそのものや学習器そのものが買主に提供されるわけではないので、売主が保有する情報の機密性を保つことができる。
(算定部134について)
算定部134は、売主に支払う対価を算定する。具体的には、算定部134は、提供部133が選択した学習器を提供した売主に支払う対価を算定する。例えば、算定部134は、提供装置100が売主から提供された学習器を買主に提供した際に、提供した学習器の利用回数に応じた金銭を対価として算定する。また、算定部134は、買主に請求する課金額を算定する。例えば、算定部134は、買主に提供した学習器を利用する使用料を課金額として算定する。
〔3.登録処理手順〕
次に、図4を用いて、実施形態に係る提供装置100による登録処理の手順について説明する。図4は、実施形態に係る提供装置100による登録処理手順を示すフローチャートである。
図4に示すように、提供装置100は、入力データに対する演算結果を出力するノード(例えば、ニューロン)が接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器を受け付ける(ステップS101)。例えば、提供装置100は、各種の特徴を抽出するニューラルネットワークやDNNといった既に学習済みの学習器を売主が操作する売主端末10から受け付ける。そして、提供装置100は、学習器を受け付けていない場合には(ステップS101;No)、学習器を受け付けるまで待機する。
一方、提供装置100は、学習器を受け付けた場合(ステップS101;Yes)、受け付けた学習器を登録する(ステップS102)。例えば、提供装置100は、売主から提供されたニューラルネットワークやDNNといった各種の特徴を抽出する学習器を、提供元である売主と対応付けて学習器情報記憶部121に記憶する。
〔4.提供処理手順〕
次に、図5を用いて、実施形態に係る提供装置100による提供処理の手順について説明する。図5は、実施形態に係る提供装置100による提供処理手順を示すフローチャートである。
図5に示すように、提供装置100は、特徴の種別の指定を受け付ける(ステップS201)。例えば、提供装置100は、入力データから抽出される特徴の種別の指定を、買主が操作する買主端末50から受け付ける。そして、提供装置100は、特徴の種別の指定を受け付けていない場合には(ステップS201;No)、特徴の種別の指定を受け付けるまで待機する。
一方、提供装置100は、特徴の種別の指定を受け付けた場合(ステップS201;Yes)、受け付けられた特徴の種別に基づいて、登録された学習器のうち受け付けた種別に対応する特徴を抽出する学習器を選択する(ステップS202)。例えば、提供装置100は、学習器情報記憶部121に記憶されている学習器の中から、受け付けた種別に対応する特徴を抽出する学習器を選択する。
そして、提供装置100は、選択した学習器に基づいて生成された新たな学習器を買主に提供する(ステップS203)。例えば、提供装置100は、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアPrに追加ノードを設定し、選択した学習器に追加ノードを追加した新たな学習器を設定する。続いて、提供装置100は、受け付けた種別に対応する特徴を抽出するように、新たに設定した学習器の学習を行う。そして、提供装置100は、買主に対して、学習を行った新たな学習器を利用する利用権限を買主に与える。その後、提供装置100は、提供された学習器を提供した売主に支払う対価を算定する(ステップS204)。例えば、提供装置100は、提供装置100が売主から提供された学習器を買主に提供した際に、提供した学習器の利用回数に応じた金銭を対価として算定する。
〔5.変形例〕
上述した実施形態に係る提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の提供装置100の他の実施形態について説明する。
〔5−1.学習器を生成〕
上記実施形態では、提供装置100は、登録部131によって登録された学習器のうち受け付けた種別に対応する特徴を抽出する学習器を提供する例を示した。ここで、提供装置100は、複数の学習器を用いて生成した学習器を買主に提供してもよい。
具体的には、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成し、生成した学習器を提供する。
この点について、図6を用いて説明する。図6は、変形例に係る提供システムによる提供処理の一例を示す説明図である。図6に示すように、提供装置100は、図1の場合と比較して、入力データから抽出される特徴の種別の指定を受け付けた(ステップS2)後に、受け付けた種別に対応する特徴を抽出する学習器Nを生成する(ステップS3)。具体的には、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成する。
図6の例では、買主であるD社は、特徴の種別として、「A社製の洋服を着た女性」を指定したものとする。この場合、提供装置100は、「A社製の洋服」の特徴を抽出するDNNである学習器Nと「女性」の特徴を抽出するDNNである学習器Nとを用いて「A社製の洋服を着た女性」の特徴を抽出するDNNである学習器Nを生成する。ここで、提供装置100は、例えば、仲介業者が提供するプライベートエリアPrに学習器Nと学習器Nとを用いて生成された学習器Nを生成する。なお、提供装置100は、登録部131によって登録された学習器に限らず、買主から提供された学習器を用いて、受け付けた種別に対応する特徴を抽出する学習器を生成してもよい。そして、提供装置100は、生成した学習器Nを買主に提供する(ステップS4)。例えば、提供装置100は、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアPrで学習器NをD社に提供する。この場合、提供装置100は、学習器Nを提供したA社および学習器Nを提供したB社に対して支払う対価を算定する。そして、仲介業者は、提供装置100によって算定された対価をA社およびB社に対して支払う(ステップS5)。
このように、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成し、生成した学習器を提供する。
これにより、提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても買主が所望する学習器を提供することができるので、提供可能な学習器のバリエーションを増やすことができる。このため、提供装置100は、例えば、買主の利便性が向上するので、学習器を利用する利用権限の契約数を増やすことができる。
〔5−2.学習器を統合(1)〕
上記変形例では、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成する例を示した。ここで、提供装置100は、各種の方法によって複数の学習器を統合した学習器を提供してもよい。具体的には、提供装置100は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する複数の学習器を統合した学習器を提供する。
この点について、図7を用いて説明する。図7は、学習器の一例を示す図である。図7の例では、提供装置100は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する学習器Nと学習器Nとを統合する。一例としては、提供装置100は、図7に示すように、学習器Nと学習器Nとを並列に統合する。かかる際、提供装置100は、学習器Nが有するノードと学習器Nが有するノードとの間の接続係数を新たに設定してもよい。そして、提供装置100は、学習器Nと学習器Nとを統合した学習器Nにおいて、入力と出力との間の誤差が可能な限り小さくなるようにニューロン間の結合係数を修正する。これにより、提供装置100は、学習器Nと学習器Nとを統合した学習器Nを生成する。例えば、提供装置10は、学習器Nによる特徴の抽出と学習器Nによる特徴の抽出とが並行して行われ、抽出結果の論理和もしくは論理積を出力するような学習器Nを生成してもよい。そして、提供装置100は、統合した学習器Nを買主に提供する。
このように、提供装置100は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する複数の学習器を統合した学習器を提供する。
これにより、提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合することで買主が所望する学習器を提供することができる。
〔5−3.学習器を統合(2)〕
上記変形例では、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成する例を示した。ここで、提供装置100は、異なる種別に対応する特徴を抽出する複数の学習器のうち各層のノード数が同一の複数の学習器において、同じ位置関係にあるノードと他のノードとの間の結合係数を統合した学習器を提供してもよい。
この点について、図8を用いて説明する。図8は、学習器の一例を示す図である。図8の例では、提供装置100は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する学習器Nと学習器Nとを統合して学習器Nを生成する。
一例としては、提供装置100は、同じ位置にあるノード間の結合係数を合成する。例えば、図8に示すように、学習器Nと学習器Nとは、学習器に含まれるニューロン群の層の数および各層に含まれるニューロンの数が同一の学習器であるものとする。また、学習器Nに含まれるニューロンNA1とニューロンNA2との間の結合係数は、結合係数Wであるものとする。また、学習器Nに含まれるニューロンNB1とニューロンNB2との間の結合係数は、結合係数Wであるものとする。また、学習器Nに含まれるニューロンNN1とニューロンNN2との間の結合係数は、結合係数Wであるものとする。ここで、ニューロンNA1、ニューロンNB1およびニューロンNN1は、同じ層の同じ位置にあるニューロンであるものとする。また、ニューロンNA2、ニューロンNB2およびニューロンNN2は、同じ層の同じ位置にあるニューロンであるものとする。この場合、提供装置100は、結合係数Wおよび結合係数Wと結合係数Wとの間の関係が以下の式(1)になるように結合係数Wおよび結合係数Wを合成することで結合係数Wを算出する。
=αW+(1−α)W・・・(1)
なお、式(1)における「α」は、統合後の学習器において求める認識に応じて任意に値が設定される重み係数である。また、統合を2回以上行う場合には、例えば、それぞれの統合における平均値を採用する。
このように、提供装置100は、異なる種別に対応する特徴を抽出する複数の学習器のうち各層のノード数が同一の複数の学習器において、同じ位置関係にあるノードと他のノードとの間の結合係数を統合した学習器を提供する。
これにより、提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合して買主が所望する学習器を提供することができる。
〔5−4.学習器を統合(3)〕
上記変形例では、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成する例を示した。ここで、提供装置100は、異なる種別に対応する特徴を抽出する複数の学習器を直列に統合した学習器を提供してもよい。
この点について、図9を用いて説明する。図9は、学習器の一例を示す図である。図9の例では、提供装置100は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する学習器Nと学習器Nとを統合する。一例としては、提供装置100は、図9に示すように、学習器Nと学習器Nとを直列に統合する。
そして、提供装置100は、学習器Nと学習器Nとを統合した学習器Nにおいて、入力と出力との間の誤差が可能な限り小さくなるようにニューロン間の結合係数を修正する。例えば、提供装置100は、学習器Nの入力と出力との間の誤差Xが可能な限り小さくなるようにニューロン間の結合係数を修正する。また、提供装置100は、学習器Nのうち下段に相当する学習器の入力と出力との間の誤差Yが可能な限り小さくなるようにニューロン間の結合係数を修正する。これにより、提供装置100は、学習器Nと学習器Nとを統合した学習器Nを生成する。そして、提供装置100は、統合した学習器Nを買主に提供する。
このように、提供装置100は、異なる種別に対応する特徴を抽出する複数の学習器を直列に統合した学習器を提供する。これにより、提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合して買主が所望する学習器を提供することができる。
なお、提供装置100は、上述した任意の手法を適宜組み合わせることで、学習器Nの作成を行ってもよい。
〔5−5.バックプロパゲーション法により結合係数を補正〕
上記変形例では、提供装置100は、統合した学習器の結合係数を修正する例を示した。ここで、提供装置100は、統合した学習器における入力と出力との間の誤差をバックプロパゲーション法で補正した学習器を提供してもよい。
具体的には、提供装置100は、統合した学習器の入力と出力との間の誤差を最小とする結合係数に補正する。一例としては、提供装置100は、可能な限り多くの入力データに対して正しい出力結果を出力する結合係数に補正する。これにより、提供装置100は、出力層における予測誤差を減らすことができる。
例えば、提供装置100は、統合された学習器におけるニューロン間の結合係数を、学習器に含まれるニューロンのうち上位層に近いニューロン間の結合係数から順に誤差を最小とする結合係数に補正する。すなわち、提供装置100は、学習器に含まれるニューロンのうち出力層側に位置するニューロン間の結合係数から順に補正する。
このように、提供装置100は、統合した学習器における入力と出力との間の誤差をバックプロパゲーション法で補正した学習器を提供する。これにより、提供装置100は、入力と出力との間の誤差が小さく識別精度の高い学習器を提供することができる。
〔5−6.所定の特徴を抽出する学習器を提供〕
上記変形例では、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成する例を示した。ここで、提供装置100は、登録部131によって登録された学習器に追加学習器を追加することで学習器を生成してもよい。
具体的には、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器に追加学習器を追加することで所定の特徴を抽出する学習器を生成し、生成した学習器を提供する。この点について、図1を用いて説明する。図1の例では、提供装置100は、学習器Nにノードを追加して学習器Nを生成する例を示した。ここで、提供装置100は、図1の例と比較して、学習器Nにノードではなく追加学習器Nを追加して所定の特徴を抽出する学習器Nを生成する。具体的には、提供装置100は、買主であるD社が有する追加学習器Nを、登録部131によって登録された学習器Nに追加することで学習器Nを生成する。これにより、提供装置100は、所定の特徴を抽出する学習器Nを生成することができる。
例えば、買主であるD社は、特徴の種別として、「A社製の洋服」を指定したものとする。また、D社は、「D社製の洋服」の特徴を抽出するDNNであって既に学習済みのDNNである追加学習器Nを有しているものとする。この場合、提供装置100は、「A社製の洋服」の特徴を抽出するDNNである学習器NにD社が有する追加学習器Nを追加することで「A社製の洋服とD社製の洋服」の特徴を抽出するDNNである学習器Nを生成する。
一例としては、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器に追加学習器を追加した場合の出力結果と正しい出力結果との間の誤差をバックプロパゲーション法による補正で解消した学習器を生成する。
具体的には、提供装置100は、新規なデータをDNNに入力した場合の出力結果と新規なデータに対応する正しい出力結果との間の誤差を最小とする結合係数を算出する。例えば、提供装置100は、可能な限り多くの入力データに対して正しい出力結果を出力する結合係数を算出する。
一例としては、提供装置100は、追加学習器Nに含まれる新規ニューロンと学習器Nに含まれるニューロンとの間の結合係数を、学習器Nに含まれる他のニューロンのうち上位層に近いニューロンとの間の結合係数から順に誤差を最小とする結合係数を算出する。また、提供装置100は、新規ニューロンと他のニューロンのうち新規ニューロンを追加した層より出力層側に位置する上段ニューロンとの間の結合係数を算出する。
ここで、提供装置100は、新規ニューロンと他のニューロンとの間の結合係数として、新規ニューロン以外の他のニューロン間の結合係数を不変にして誤差を最小とする結合係数を算出する。これにより、提供装置100は、バックプロパゲーション法により結合係数を補正した学習器Nを生成する。
なお、提供装置100は、例えば、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアPrで学習器Nを生成する。一例としては、提供装置100は、買主によってプライベートエリアPrに保管された追加学習器Nや学習用の秘匿データを用いて、学習器Nを領域Pr上に生成する。なお、提供装置100は、学習器NをプライベートエリアPr上に限らず、仲介業者が提供するパブリックエリアPb上に生成してもよい。
また、買主が所望する学習器Nは、提供装置100に限らず、買主が操作する買主端末50によって生成されてもよい。この場合、例えば、買主は、買主端末50を操作して、提供装置100によって提供された学習器Nと買主が保有する追加学習器Nとを用いて学習器Nを生成する。そして、買主は、例えば、買主端末50を操作して、生成した学習器Nを仲介業者のプライベートエリアPrやパブリックエリアPbに保管する。
そして、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器を提供する。一例としては、提供装置100は、受け付けた所定の特徴を抽出する学習器Nを、仲介業者が提供するプライベートエリアであって買主が利用可能な買主用の領域であるプライベートエリアPrで提供する。例えば、提供装置100は、学習器NをプライベートエリアPr上で利用する利用権限を買主に与える。これにより、買主は、所望する特徴を抽出する学習器Nを買主専用の学習器領域で使用することができるので、セキュリティを確保することができる。例えば、買主は、学習器Nに入力する入力データとして自社の機密情報を用いる場合に、機密情報の漏えいを防ぐことができる。
このように、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器に追加学習器を追加することで受け付けた所定の特徴を抽出する学習器を生成し、生成した学習器を提供する。
これにより、提供装置100は、所定の特徴を抽出する学習器を生成することができるので、既に登録された学習器と買主が有する学習器とを活用して買主が所望する学習器を提供することができる。
また、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器に追加学習器を追加した場合の出力結果と正しい出力結果との間の誤差をバックプロパゲーション法による補正で解消した学習器を提供する。これにより、提供装置100は、出力結果の誤差が小さく識別精度の高い学習器を提供することができる。
また、提供装置100は、受付部132によって受け付けられた所定の特徴を抽出する学習器を買主用の領域で提供する。これにより、提供装置100は、生成された学習器を買主専用のネットワーク領域で使用することができるので、セキュリティを確保することができる。例えば、買主は、学習器に入力する入力データとして自社の機密情報を用いる場合に、機密情報の漏えいを防ぐことができる。
〔5−7.DNN〕
上記実施形態では、提供装置100は、受付部132によって受け付けられた種別に対応する特徴を抽出するDNNである学習器を提供する例を示した。ここで、提供装置100が提供するDNNは、任意の数のニューロン群を含む。例えば、提供装置100が提供するDNNは、中間層に複数のニューロン群が含まれる多段のDNNである。また、DNNに含まれるニューロン群は、任意の数のニューロンによって構成される。また、DNNに含まれる各ニューロンは、上述した例に限らず、公知となっている各種の従来技術によって各ニューロンが結合されてもよい。
〔5−8.適用対象〕
上記実施形態では、提供装置100は、画像データに描出されたものを識別する画像認識の適用例を示した。ここで、提供装置100は、画像認識に限らず、各種の認識に適用してもよい。例えば、提供装置100は、音声を対象とする音声認識に適用する。これにより、提供装置100は、音声データを入力データとして入力することで、話者を識別することができる。例えば、提供装置100は、音声データに含まれる音声を発した話者の性別や年齢などを識別することができる。
他の例では、提供装置100は、株価を対象として適用する。これにより、提供装置100は、株価の時系列データや業種を入力データとして入力することで、株価に関する情報を識別することができる。例えば、提供装置100は、株価の値動きを識別することで業種を判定することができる。
〔5−9.対価〕
上記実施形態では、提供装置100を管理する仲介業者は、提供装置100が売主から提供された学習器を買主に提供した際に、提供した学習器の質に応じた金銭を対価として売主に支払う例を示した。ここで、仲介業者は、売主から提供された学習器を買主に提供した際に限らず、例えば、売主から提供された学習器を登録した際に売主に対して対価を支払ってもよい。また、仲介業者は、売主から提供された学習器を用いて新たな学習器が提供装置100によって生成された際に、対価を売主に支払ってもよい。
これにより、提供装置100は、提供した学習器が買主に利用されるほど多くの対価を売主に支払うことができるので、売主が学習器を提供するモチベーションを高めることができる。
〔5−10.提供データ〕
上記変形例では、提供装置100は、受け付けた種別に対応する特徴を抽出する学習器を提供する例を示した。ここで、提供装置100は、各種の形態でDNNを買主に提供してもよい。
例えば、提供装置100は、学習器Nに追加学習器Nを追加することで追加された学習範囲を含む学習器Nを買主に提供する。すなわち、提供装置100は、「洋服」の特徴を抽出する学習器Nと「女性の洋服」の特徴を抽出する学習器Nとを買主に提供する。
他の例では、提供装置100は、学習器Nに追加学習器Nを追加することで追加された学習範囲のみを買主に提供する。すなわち、提供装置100は、「女性の洋服」の特徴を抽出する学習器Nを買主に提供する。
また、他の例では、提供装置100は、生成した学習器Nを使用する使用権を買主に提供する。この場合、提供装置100は、例えば、学習器Nに入力する入力データが買主から提供されると入力データに対する出力結果を買主に提供する。これにより、提供装置100は、買主に対して出力結果のみを提供するので、DNNの構成を非公開にすることができる。このため、提供装置100は、例えば、売主が学習器を構築する際に用いたデータ内容や特徴の判定手法、DNNを構成するニューロン間の結合係数の漏えいを防ぐことができる。
〔5−11.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2に示した登録部131および受付部132は統合されてもよい。
〔5−12.ハードウェア構成〕
また、上述してきた実施形態に係る提供装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、提供装置100を例に挙げて説明する。図10は、提供装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る提供装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網50を介してこれらのプログラムを取得してもよい。
〔6.効果〕
上述してきたように、実施形態に係る提供装置100は、登録部131と、受付部132と、提供部133とを有する。登録部131は、入力データに対する演算結果を出力するノードが接続された学習器であって入力データから所定の種別に対応する特徴を抽出する学習器を登録する。受付部132は、特徴の種別の指定を受け付ける。提供部133は、登録部131によって登録された学習器に基づいて、受付部132によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、選択された学習器に基づいて生成された新たな学習器を提供するする。また、算定部134は、提供部133が選択した学習器を提供した売主に支払う対価を算定する。
これにより、実施形態に係る提供装置100は、売主から提供されたDNNのうち買主が所望するDNNを買主に提供することができるので、買主がDNNを容易に利用することができる。例えば、提供装置100は、売主によって既に構築されたDNNを買主に提供することができるので、買主が所望するDNNを構築する手間を削減することができる。
また、変形例に係る提供装置100において、提供部133は、受付部132によって受け付けられた種別に対応する特徴を抽出する学習器を、登録部131によって登録された複数の学習器から生成し、生成した学習器を提供する。
これにより、変形例に係る提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても買主が所望する学習器を提供することができるので、提供可能な学習器のバリエーションを増やすことができる。このため、提供装置100は、例えば、買主の利便性が向上するので、学習器を利用する利用権限の契約数を増やすことができる。
また、変形例に係る提供装置100において、提供部133は、登録部131によって登録された学習器のうち異なる種別に対応する特徴を抽出する複数の学習器を統合した学習器を提供する。
これにより、変形例に係る提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合することで買主が所望する学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、異なる種別に対応する特徴を抽出する複数の学習器のうち各層のノード数が同一の複数の学習器において、同じ位置関係にあるノードと他のノードとの間の結合係数を統合した学習器を提供する。
これにより、変形例に係る提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合して買主が所望する学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、異なる種別に対応する特徴を抽出する複数の学習器を直列に統合した学習器を提供する。
これにより、変形例に係る提供装置100は、買主が所望する種別に対応する特徴を抽出する学習器自体が登録されていなくても、既に登録された学習器を統合して買主が所望する学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、統合した学習器における入力と出力との間の誤差をバックプロパゲーション法で補正した学習器を提供する。
これにより、変形例に係る提供装置100は、入力と出力との間の誤差が小さく識別精度の高い学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、選択された学習器に新規ノードを追加することで受け付けられた種別の特徴を抽出する学習器を生成し、生成した学習器を提供する。
これにより、変形例に係る提供装置100は、所定の特徴を抽出する学習器を生成することができるので、既に登録された学習器と買主が有する学習器とを活用して買主が所望する学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、選択された学習器に新規ノードを追加した場合の出力結果と正しい出力結果との間の誤差をバックプロパゲーション法による補正で解消した学習器を提供する。
これにより、変形例に係る提供装置100は、出力結果の誤差が小さく識別精度の高い学習器を提供することができる。
また、変形例に係る提供装置100において、提供部133は、学習器が登録される所定の記憶装置が有する記憶領域のうち、特徴の種別の指定を行った買主のみが接続可能な記憶領域内に、生成された学習器を格納し、学習器の提供を行う。
これにより、変形例に係る提供装置100は、生成された学習器を買主専用のネットワーク領域で使用することができるので、セキュリティを確保することができる。例えば、買主は、学習器に入力する入力データとして自社の機密情報を用いる場合に、機密情報の漏えいを防ぐことができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
10 売主装置
50 買主装置
100 提供装置
121 学習器情報記憶部
131 登録部
132 受付部
133 提供部
134 算定部

Claims (11)

  1. 入力データに対する演算結果を出力するノードが接続された学習器であって前記入力データから所定の種別に対応する特徴を抽出する学習器を登録する登録部と、
    特徴の種別の指定を受け付ける受付部と、
    前記登録部によって登録された学習器に基づいて、前記受付部によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、当該選択された学習器に基づいて生成された新たな学習器を提供する提供部と、
    前記提供部が選択した学習器を提供した売主に支払う対価を算定する算定部と
    を備えたことを特徴とする提供装置。
  2. 前記提供部は、
    前記受付部によって受け付けられた種別に対応する特徴を抽出する学習器を、前記登録部によって登録された複数の学習器から生成し、生成した学習器を提供する
    ことを特徴とする請求項1に記載の提供装置。
  3. 前記提供部は、
    前記登録部によって登録された学習器のうち異なる種別に対応する特徴を抽出する複数の学習器を統合した学習器を提供する
    ことを特徴とする請求項1または2に記載の提供装置。
  4. 前記提供部は、
    異なる種別に対応する特徴を抽出する複数の学習器のうち各層のノード数が同一の複数の学習器において、同じ位置関係にあるノードと他のノードとの間の結合係数を統合した学習器を提供する
    ことを特徴とする請求項3に記載の提供装置。
  5. 前記提供部は、
    異なる種別に対応する特徴を抽出する複数の学習器を直列に統合した学習器を提供する
    ことを特徴とする請求項3に記載の提供装置。
  6. 前記提供部は、
    統合した学習器における入力と出力との間の誤差をバックプロパゲーション法で補正した学習器を提供する
    ことを特徴とする請求項3〜5のいずれか1つに記載の提供装置。
  7. 前記提供部は、
    前記選択された学習器に新規ノードを追加することで前記受け付けられた種別の特徴を抽出する学習器を生成し、生成した学習器を提供する
    ことを特徴とする請求項1〜6のいずれか1つに記載の提供装置。
  8. 前記提供部は、
    前記選択された学習器に新規ノードを追加した場合の出力結果と正しい出力結果との間の誤差をバックプロパゲーション法による補正で解消した学習器を提供する
    ことを特徴とする請求項7に記載の提供装置。
  9. 前記提供部は、
    学習器が登録される所定の記憶装置が有する記憶領域のうち、前記特徴の種別の指定を行った買主のみが接続可能な記憶領域内に、前記生成された学習器を格納し、当該学習器の提供を行う
    ことを特徴とする請求項7または8に記載の提供装置。
  10. 提供装置が実行する提供方法であって、
    入力データに対する演算結果を出力するノードが接続された学習器であって前記入力データから所定の種別に対応する特徴を抽出する学習器を登録する登録工程と、
    特徴の種別の指定を受け付ける受付工程と、
    前記登録工程によって登録された学習器に基づいて、前記受付工程によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、当該選択された学習器に基づいて生成された新たな学習器を提供する提供工程と、
    前記提供工程が選択した学習器を提供した売主に支払う対価を算定する算定工程と
    を含んだことを特徴とする提供方法。
  11. 入力データに対する演算結果を出力するノードが接続された学習器であって前記入力データから所定の種別に対応する特徴を抽出する学習器を登録する登録手順と、
    特徴の種別の指定を受け付ける受付手順と、
    前記登録手順によって登録された学習器に基づいて、前記受付手順によって受け付けられた特徴の種別に対応する特徴を抽出する学習器を選択し、当該選択された学習器に基づいて生成された新たな学習器を提供する提供手順と、
    前記提供手順が選択した学習器を提供した売主に支払う対価を算定する算定手順と
    をコンピュータに実行させることを特徴とする提供プログラム。
JP2014126547A 2014-06-19 2014-06-19 提供装置、提供方法及び提供プログラム Active JP5844854B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014126547A JP5844854B2 (ja) 2014-06-19 2014-06-19 提供装置、提供方法及び提供プログラム
US14/477,433 US10366423B2 (en) 2014-06-19 2014-09-04 Providing device, providing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014126547A JP5844854B2 (ja) 2014-06-19 2014-06-19 提供装置、提供方法及び提供プログラム

Publications (2)

Publication Number Publication Date
JP2016004548A true JP2016004548A (ja) 2016-01-12
JP5844854B2 JP5844854B2 (ja) 2016-01-20

Family

ID=54869967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014126547A Active JP5844854B2 (ja) 2014-06-19 2014-06-19 提供装置、提供方法及び提供プログラム

Country Status (2)

Country Link
US (1) US10366423B2 (ja)
JP (1) JP5844854B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168922A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法
JP2018081549A (ja) * 2016-11-17 2018-05-24 清水建設株式会社 モデル作成装置、端末装置、危険箇所発見システム及びプログラム
WO2018181003A1 (ja) * 2017-03-31 2018-10-04 三菱重工業株式会社 情報提供装置、情報提供システム、情報提供方法及びプログラム
JP2019153216A (ja) * 2018-03-06 2019-09-12 Kddi株式会社 学習装置、情報処理システム、学習方法、及びプログラム
JP2019191963A (ja) * 2018-04-25 2019-10-31 株式会社Daisy 情報処理装置、情報処理方法、及び、情報処理プログラム
JP2020004059A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 貢献度算出システム、貢献度算出装置、貢献度算出方法、貢献度算出プログラム及び貢献度算出プログラムを記憶する記憶媒体
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020035042A (ja) * 2018-08-28 2020-03-05 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
JP2020144953A (ja) * 2017-03-31 2020-09-10 三菱重工業株式会社 人工知能構築装置、情報提供システム、人工知能構築方法及びプログラム
JP2020184289A (ja) * 2019-04-26 2020-11-12 長佳智能股▲分▼有限公司 監視状態下でニューラルネットワーク・トレーニングモデルを提供するクラウド取引システム及びその方法
JP2021056658A (ja) * 2019-09-27 2021-04-08 AI inside株式会社 情報処理システム、情報処理方法及び情報処理プログラム
US11544352B2 (en) 2017-05-26 2023-01-03 Hitachi Kokusai Electric Inc. Machine-learning model fraud detection system and fraud detection method
WO2023218553A1 (ja) * 2022-05-11 2023-11-16 株式会社エイゾス 結合学習器形成装置、結合学習器形成プログラム、及び、結合学習器形成プログラムを記録した非一時的な記録媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5899272B2 (ja) * 2014-06-19 2016-04-06 ヤフー株式会社 算出装置、算出方法及び算出プログラム
CN108764718B (zh) * 2018-05-28 2021-05-18 王春宁 基于深度学习算法的高考分数预估及志愿选择方法、系统
KR20210092720A (ko) * 2018-09-21 2021-07-26 포지션 이미징 인코포레이티드 기계 학습 보조된 자기 개선형 객체 식별 시스템 및 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175745A (ja) * 1999-12-21 2001-06-29 Matsushita Electric Ind Co Ltd 電子商取引システムならびに電子取引方法
US20010011235A1 (en) * 2000-01-29 2001-08-02 E-Net Co., Ltd. Apparatus for realizing personal shops in an electronic commerce business
US7363246B1 (en) * 2000-06-19 2008-04-22 Vulcan Portals, Inc. System and method for enhancing buyer and seller interaction during a group-buying sale
WO2002001468A2 (en) * 2000-06-28 2002-01-03 International Trade Management, Inc. Partner relationship management system
JP3912975B2 (ja) * 2000-11-27 2007-05-09 富士通株式会社 商品情報提供方法
US20030144922A1 (en) * 2002-01-28 2003-07-31 Schrantz John Paul Method and system for transactions between persons not sharing a common language, currency, and/or country
US7428516B2 (en) * 2005-06-23 2008-09-23 Microsoft Corporation Handwriting recognition using neural networks
EP2533176A1 (en) 2005-11-15 2012-12-12 Bernadette Garner Method for determining whether input vectors are known or unknown by a neuron
US20130339169A1 (en) * 2012-06-18 2013-12-19 Elan Binyamin PERACH Method and system for managing dynamic priced offers utilizing conditional pledging
KR101978496B1 (ko) * 2012-07-11 2019-08-23 십일번가 주식회사 오프라인 거래정보를 이용한 전자상거래 중개 시스템 및 방법

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168922A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法
JP2018081549A (ja) * 2016-11-17 2018-05-24 清水建設株式会社 モデル作成装置、端末装置、危険箇所発見システム及びプログラム
JP2020144953A (ja) * 2017-03-31 2020-09-10 三菱重工業株式会社 人工知能構築装置、情報提供システム、人工知能構築方法及びプログラム
WO2018181003A1 (ja) * 2017-03-31 2018-10-04 三菱重工業株式会社 情報提供装置、情報提供システム、情報提供方法及びプログラム
JP2018173711A (ja) * 2017-03-31 2018-11-08 三菱重工業株式会社 情報提供装置、情報提供システム、情報提供方法及びプログラム
US11544352B2 (en) 2017-05-26 2023-01-03 Hitachi Kokusai Electric Inc. Machine-learning model fraud detection system and fraud detection method
JP2019153216A (ja) * 2018-03-06 2019-09-12 Kddi株式会社 学習装置、情報処理システム、学習方法、及びプログラム
JP7111343B2 (ja) 2018-04-25 2022-08-02 株式会社Daisy 情報処理装置、情報処理方法、及び、情報処理プログラム
JP2019191963A (ja) * 2018-04-25 2019-10-31 株式会社Daisy 情報処理装置、情報処理方法、及び、情報処理プログラム
JP2020004030A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 人工知能パッケージの流通環境を提供する流通環境提供システム
JP2020004059A (ja) * 2018-06-27 2020-01-09 株式会社クロスコンパス 貢献度算出システム、貢献度算出装置、貢献度算出方法、貢献度算出プログラム及び貢献度算出プログラムを記憶する記憶媒体
JP2020035042A (ja) * 2018-08-28 2020-03-05 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
JP2020184289A (ja) * 2019-04-26 2020-11-12 長佳智能股▲分▼有限公司 監視状態下でニューラルネットワーク・トレーニングモデルを提供するクラウド取引システム及びその方法
JP2021056658A (ja) * 2019-09-27 2021-04-08 AI inside株式会社 情報処理システム、情報処理方法及び情報処理プログラム
WO2023218553A1 (ja) * 2022-05-11 2023-11-16 株式会社エイゾス 結合学習器形成装置、結合学習器形成プログラム、及び、結合学習器形成プログラムを記録した非一時的な記録媒体
JP7566268B2 (ja) 2022-05-11 2024-10-15 株式会社エイゾス 結合学習器形成装置、結合学習器形成プログラム、及び、結合学習器形成プログラムを記録した非一時的な記録媒体

Also Published As

Publication number Publication date
JP5844854B2 (ja) 2016-01-20
US20150371133A1 (en) 2015-12-24
US10366423B2 (en) 2019-07-30

Similar Documents

Publication Publication Date Title
JP5844854B2 (ja) 提供装置、提供方法及び提供プログラム
CN109863516B (zh) 用于提供受信网络平台的系统和方法
US10909980B2 (en) Machine-learning digital assistants
Abbas et al. Business data sharing through data marketplaces: A systematic literature review
McQuire One map to rule them all? Google Maps as digital technical object
US11461858B2 (en) Information processing device, information processing method, and program
JP5899272B2 (ja) 算出装置、算出方法及び算出プログラム
CN111768231B (zh) 产品信息推荐方法及装置
WO2016136056A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019080662A1 (zh) 信息推荐方法及装置、设备
US20150120425A1 (en) Flexible open origination
JP7162417B2 (ja) 推定装置、推定方法、及び推定プログラム
Sarkar et al. Adjusting the Benjamini–Hochberg method for controlling the false discovery rate in knockoff-assisted variable selection
US20130006796A1 (en) Method for finding actionable communities within social networks
JP2016004551A (ja) 特定装置、特定方法及び特定プログラム
Bruhn et al. Why firms invest abroad? A bibliometric study on OFDI determinants from developing economies
JP2019144978A (ja) 情報処理装置、情報処理方法、およびプログラム
Menou Morpho-photometric redshifts
JP7231322B2 (ja) 学習装置、学習方法、学習プログラム及びプログラム
Bahr et al. The effect of bidirectional opinion diffusion on social license to operate
US20190197589A1 (en) Method and system for facilitating operation of an entity
US20190385255A1 (en) Resources allocation tool for parties in a separation
CN111178925B (zh) 用户画像的属性预测方法、装置、服务器和计算机可读介质
Kato WE economy: Potential of mutual aid distribution based on moral responsibility and risk vulnerability
JP2016004550A (ja) 生成装置、生成方法及び生成プログラム

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20151007

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20151015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151119

R150 Certificate of patent or registration of utility model

Ref document number: 5844854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250