JP2019159693A - 情報処理装置、情報処理端末、及びプログラム - Google Patents

情報処理装置、情報処理端末、及びプログラム Download PDF

Info

Publication number
JP2019159693A
JP2019159693A JP2018044447A JP2018044447A JP2019159693A JP 2019159693 A JP2019159693 A JP 2019159693A JP 2018044447 A JP2018044447 A JP 2018044447A JP 2018044447 A JP2018044447 A JP 2018044447A JP 2019159693 A JP2019159693 A JP 2019159693A
Authority
JP
Japan
Prior art keywords
correct answer
model parameter
answer rate
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018044447A
Other languages
English (en)
Other versions
JP6901423B2 (ja
Inventor
和之 田坂
Kazuyuki Tasaka
和之 田坂
茂之 酒澤
Shigeyuki Sakasawa
茂之 酒澤
絵美 明堂
Emi Meido
絵美 明堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018044447A priority Critical patent/JP6901423B2/ja
Publication of JP2019159693A publication Critical patent/JP2019159693A/ja
Application granted granted Critical
Publication of JP6901423B2 publication Critical patent/JP6901423B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stored Programmes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】異なる正答率の学習モデルを提供する。【解決手段】情報処理装置1において、機械学習部110は、目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成する。パラメータ改変部111は、モデルパラメータの一部を改変した改変パラメータを生成する。正答率算出部112は、改変パラメータにおけるテスト用入力データの正答率を算出する。記憶部10は、パラメータ改変部111に改変させるモデルパラメータの改変パターン毎に、正答率算出部112が算出した正答率を紐づけて記憶する。【選択図】図2

Description

本発明は、情報処理装置、情報処理端末、及びプログラムに関し、特に、ニューラルネットワークの正答率を調整する技術に関する。
近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及びニューラルネットワークを用いた機械学習技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。
Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678). ACM.
大量の学習データに基づく機械学習を実行するためには大量の計算コストがかかる。また、大量の学習データを用意すること、及び用意した学習データを機械学習に用いるためにする前処理にも膨大な労力を要する。学習モデルを生成したモデル作成者がその学習モデルを第三者に利用させることで利益を得ようとする場合に、利用者に請求する対価に応じて学習モデルの性能を変えられると便利である。
本発明はこれらの点に鑑みてなされたものであり、異なる正答率の学習モデルを提供することを目的とする。
本発明の第1の態様は、情報処理装置である。この装置は、目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成する機械学習部と、前記モデルパラメータの一部を改変した改変パラメータを生成するパラメータ改変部と、前記改変パラメータにおけるテスト用入力データの正答率を算出する正答率算出部と、前記パラメータ改変部に改変させるモデルパラメータの改変パターン毎に、前記正答率算出部が算出した正答率を紐づけて記憶する記憶部と、を備える。
前記パラメータ改変部は、前記ニューラルネットワークを構成する複数の層のうち、前記モデルパラメータを改変するための層を選択する選択部と、前記選択部が選択した層のモデルパラメータを所定の値に置換する置換部と、置換後の前記正答率と、前記モデルパラメータの改変の目標とする目標正答率とを比較する比較部と、(1)前記正答率が前記目標正答率よりも高い場合、前記選択部に選択した層よりも入力層側の層を再選択させ、(2)前記正答率が前記目標正答率よりも低い場合、前記選択部に前記選択した層よりも出力層側の層を再選択させ、(3)前記正答率と前記目標正答率との差が所定の範囲に収まる場合、前記置換部が置換したモデルパラメータを改変パラメータとして出力する改変制御部と、を備えてもよい。
前記情報処理装置は、前記情報処理装置とは異なる情報処理端末から当該情報処理端末のユーザに許可されている正答率を取得する許可正答率取得部と、前記記憶部が記憶している正答率のうち、前記許可正答率取得部が取得した正答率に類似する正答率に対応する改変パターンを選択する改変パターン選択部と、選択された前記改変パターンに基づいて改変された前記モデルパラメータを、通信ネットワークを介して前記情報処理端末に送信するモデルパラメータ送信部と、をさらに備えてもよい。
前記情報処理装置は、通信ネットワークを介して前記情報処理装置とは異なる情報処理端末から前記ニューラルネットワークに入力するタスクデータを取得するタスクデータ取得部と、前記パラメータ改変部による改変がなされていない前記モデルパラメータに前記タスクデータを入力した結果を取得する検出実行部と、前記通信ネットワークを介して前記検出実行部が取得した結果を前記情報処理端末に送信する結果送信部と、をさらに備えてもよい。
本発明の第2の態様は、情報処理端末である。この端末は、目的タスクを検出するために生成されたニューラルネットワークに関するモデルパラメータであって、前記目的タスクの正答率が高い方の第1モデルパラメータと、前記第1モデルパラメータよりも前記目的タスクの正答率が低い第2モデルパラメータと、の2つのモデルパラメータを取得するモデルパラメータ取得部と、前記2つのモデルパラメータのうち、前記第1モデルパラメータの使用回数の上限値を取得する利用制限数取得部と、前記第1モデルパラメータと前記第2モデルパラメータとのいずれか一方のモデルパラメータに検出対象のタスクデータを入力した結果を取得する検出実行部と、前記検出実行部による前記第1モデルパラメータの使用回数が前記上限値を下回る場合前記第1モデルパラメータを選択し、前記使用回数が前記上限値に到達した場合前記第2モデルパラメータを選択するモデルパラメータ選択部と、を備える。ここで、前記検出実行部は、前記モデルパラメータ選択部が選択したモデルパラメータを用いて、タスクデータの出力結果を取得する。
本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに、目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成させる機能と、前記モデルパラメータの一部を改変した改変パラメータを生成させる機能と、前記改変パラメータにおけるテスト用入力データの正答率を算出させる機能と、改変するモデルパラメータの改変パターン毎に、前記算出した正答率を紐づけて記憶部に記憶させる機能と、を実現させる。
本発明の第4の態様も、プログラムである。このプログラムは、コンピュータに、目的タスクを検出するために生成されたニューラルネットワークに関するモデルパラメータであって、前記目的タスクの正答率が高い方の第1モデルパラメータと、前記第1モデルパラメータよりも前記目的タスクの正答率が低い第2モデルパラメータと、の2つのモデルパラメータを取得する機能と、前記2つのモデルパラメータのうち、前記第1モデルパラメータの使用回数の上限値を取得する機能と、前記第1モデルパラメータの使用回数の累積が前記上限値を下回る場合前記第1モデルパラメータを選択し、前記使用回数の累積が前記上限値に到達した場合前記第2モデルパラメータを選択する機能と、選択されたモデルパラメータを用いて、タスクデータの出力結果を取得する機能と、を実現させる。
本発明によれば、異なる正答率の学習モデルを提供することができる。
実施の形態に係るニューラルネットワークの構成を模式的に示す図である。 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。 実施の形態に係るパラメータ変更部の内部構成を模式的に示す図である。 実施の形態に係る改変パターンデータベースのデータ構造を模式的に示す図である。 実施の形態に係る情報処理システムの全体構成を模式的に示す図である。 実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。 変形例に係る情報処理端末の機能構成を模式的に示す図である。
<実施の形態の概要>
図1は、実施の形態に係るニューラルネットワークの構成を模式的に示す図である。以下、図1を参照して、実施の形態の概要を述べる。
実施の形態に係る情報処理装置が利用するニューラルネットワークは、全体としては、入力層、中間層、及び出力層を含む一般的な構成である。図1の上段に示すように、実施の形態に係る情報処理装置は、入力層に入力した基本学習用データが中間層を伝搬し、最終的に出力層が出力したデータ列と、基本学習用データに対応する正解ラベルとの誤差を損失関数を用いて算出する。情報処理装置は、算出した誤差に基づいて、誤差逆伝搬法を用いて中間層に設定された重みを更新する。
実施の形態に係る情報処理装置が利用するニューラルネットワークは、中間層の一部が改変されている。具体的には、図1の下段に示すように、中間層の中から選択された層である改変対象層において、一部のノードが除去されている。図1の下段において、白丸はニューラルネットワークにおける通常のノードであり、黒丸は除去されたノードである。
ニューラルネットワークは、中間層の各ノードの出力を隣接する層に伝搬していくことで最終的な識別精度を達成するように設計されている。したがって、ノードを除去することは各ノード間のつながりを断ち切ることになるため、学習モデルの正答率を下げることになる。
なお、ノードを除去することは、そのノードの出力を次のノードに入力する際に乗じられる係数、すなわち学習モデルのモデルパラメータの値を0に改変することと等価である。ノードを除去することは、モデルパラメータの複雑さを下げることになるため、しばしば学習モデルの圧縮にも用いられる。例えば、IoT(Internet Of Things)機器のように計算リソースの乏しいデバイスで学習モデルを実行する場合には、ノードを除去してサイズを小さくした学習モデルが用いられることがある。
実施の形態に係る情報処理装置は、モデルパラメータに施す改変パターンを変更しながら、その学習モデルの正答率を算出する。情報処理装置は、モデルパラメータに施す改変パターンと正答率とを紐づけて保持しておく。これにより、実施の形態に係る情報処理装置1は、異なる正答率の学習モデルを提供することができる。
<情報処理装置1の機能構成>
図2は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、記憶部10と制御部11とを備える。
記憶部10は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。
制御部11は、情報処理装置1のCPUやGPU等のプロセッサであり、記憶部10に記憶されたプログラムを実行することによって機械学習部110、パラメータ改変部111、正答率算出部112、許可正答率取得部113、改変パターン選択部114、モデルパラメータ送信部115、タスクデータ取得部116、検出実行部117、及び結果送信部118として機能する。
なお、図2は、情報処理装置1が単一の装置で構成されている場合の例を示している。しかしながら、情報処理装置1は、例えばクラウドコンピューティングシステムのように複数のプロセッサやメモリ等の計算リソースによって実現されてもよい。この場合、制御部11を構成する各部は、複数の異なるプロセッサの中の少なくともいずれかのプロセッサがプログラムを実行することによって実現される。
機械学習部110は、目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成する。機械学習部110は、生成したモデルパラメータを記憶部10に記憶させる。
パラメータ改変部111は、機械学習部110が生成したモデルパラメータの一部を改変した改変パラメータを生成する。具体的には、パラメータ改変部111は、ニューラルネットワークのモデルパラメータを構成する重み係数の一部を別の値に置換することによって得られる新たなモデルパラメータを改変パラメータとして生成する。パラメータ改変部111が重み係数を置換する値は、元のモデルパラメータと異なればどのような値でもよいが、一例としては0である。
正答率算出部112は、パラメータ改変部111が生成した改変パラメータにおけるテスト用入力データの正答率を算出する。ここで「テスト用入力データ」とは、モデルパラメータの正答率を測定するために用意された固定のデータセットである。正答率算出部112は、同一のテスト用入力データを用いて改変パラメータの正答率を算出するため、異なる改変パラメータの正答率を同じ条件下で算出することができる。
記憶部10は、パラメータ改変部111に改変させるモデルパラメータの改変パターン毎に、正答率算出部112が算出した正答率を紐づけて記憶する。これにより、実施の形態に係る情報処理装置1は、異なる正答率の学習モデルを提供することができる。
図3は、実施の形態に係るパラメータ改変部111の内部構成を模式的に示す図である。実施の形態に係るパラメータ改変部111は、選択部1110、置換部1111、比較部1112、及び改変制御部1113を含む。
選択部1110は、ニューラルネットワークを構成する複数の層のうち、モデルパラメータを改変するための層を選択する。置換部1111は、選択部1110が選択した層のモデルパラメータを所定の値に置換する。比較部1112は、置換部1111による置換後の正答率と、モデルパラメータの改変の目標とする目標正答率とを比較する。
改変制御部1113は、正答率が目標正答率よりも高い場合、選択部1110に、選択した層よりも入力層側の層を再選択させる。一般に、ニューラルネットワークにおいては、入力層に近い層のほうが、入力層から遠い層よりも、正答率に大きく影響することが知られている。改変制御部1113は、パラメータの改変対象とする改変対象層を入力層に近づけることにより、置換部1111による置換後の正答率を下げることができる。
改変制御部1113は、正答率が前記目標正答率よりも低い場合、選択部1110に、選択した層よりも出力層側の層を再選択させる。上記と同様の理由により、改変制御部1113は、改変対象層を入力層から遠ざける(すなわち、出力層側に移動する)ことにより、置換部1111による置換後の正答率を上げることができる。
さらに、改変制御部1113は、正答率と目標正答率との差が所定の範囲に収まる場合、置換部1111が置換したモデルパラメータを改変パラメータとして出力する。ここで「所定の範囲」とは、パラメータ改変部111がパラメータ改変の目標とする目標正答率との誤差の許容範囲を定める際に参照する「目標正答率誤差許容範囲」である。所定の範囲の具体的な値は正答率の調整の難易度等を勘案して実験により定めればよいが、例えば、目標正答率の前後2%の範囲である。
以上の動作を複数の目標正答率について繰り返すことにより、パラメータ改変部111は、複数種類の正答率毎に改変パターンを生成することができる。
図4は、実施の形態に係る改変パターンデータベースのデータ構造を模式的に示す図である。改変パターンデータベースは記憶部10が保持しており、パラメータ改変部111によって管理される。
図4に示すように、改変パターンデータベースは、複数の正答率毎に、パラメータの置換場所、置換前のパラメータの値、及び置換前のモデルサイズに対する置換後のモデルサイズの百分率を対応付けて記憶している。例えば、図4において、正答率が90%のモデルは、第5層の4番目のノードと、同じく第5層の8番目のノードとが少なくとも置換されている。また、置換前のモデルサイズに対する置換後のモデルサイズは70%となっており、30%圧縮されている。
図2の説明に戻る。実施の形態に係る情報処理装置1は、生成した学習モデルを第三者であるユーザに利用させることができる。このとき、情報処理装置1は、ユーザが支払う対価に応じて、そのユーザが利用できる学習モデルの正答率を変更する。
そこで、許可正答率取得部113は、通信ネットワークNを介して情報処理装置1と接続する情報処理端末2に許可されている正答率を取得する。具体的には、許可正答率取得部113は、情報処理端末2を識別するための端末識別子と情報処理端末2に許可されている正答率とを紐づけて格納する正答率データベース(不図示)を参照して、情報処理端末2に許可されている正答率を取得する。あるいは、許可正答率取得部113は、情報処理装置1に接続する情報処理端末2の内部ストレージに記憶されている正答率を情報処理端末2から受信して取得するようにしてもよい。
改変パターン選択部114は、記憶部10が記憶している正答率のうち、許可正答率取得部113が取得した正答率に類似する正答率に対応する改変パターンを選択する。ここで「許可正答率取得部113が取得した正答率に類似する正答率」とは、記憶部10が記憶している正答率のうち許可正答率取得部113が取得した正答率以上の正答率であって、許可正答率取得部113が取得した正答率と最も近い正答率のことをいう。
モデルパラメータ送信部115は、改変パターン選択部114が選択した改変パターンに基づいて改変されたモデルパラメータを、通信ネットワークNを介して情報処理端末2に送信する。これにより、情報処理端末2は、取得したモデルパラメータを用いて自身の端末上で学習モデルを実行し、目的タスクを実現することができる。言い換えると、情報処理端末2は、ひとたび情報処理装置1からモデルパラメータを取得したのちは、情報処理装置1と接続していなくても、オフラインで目的タスクを実行することができる。
上述したように、正答率が低く設定されたモデルパラメータは、正答率が高いモデルパラメータよりも、モデルパラメータのサイズが小さくなる傾向がある。このため、情報処理端末2の計算リソースが少ない場合であっても、正答率が低く設定されたモデルパラメータであれば実行できる場合がある。計算リソースが少ない機器でも実行できるという意味においても、モデルパラメータの正答率を低く設定することには意味がある。
一方、計算リソースが低い機器であっても、通信ネットワークNを介して情報処理装置1と通信できる場合には、モデルパラメータの演算の一部を情報処理装置1に肩代わりさせることにより、正答率が高いモデルパラメータ(すなわち、実行時の計算負荷が大きいモデルパラメータ)を用いて目的タスクを実現することもできる。
そこで、情報処理装置1は、通信ネットワークNを介して情報処理装置1とは異なる情報処理端末2からニューラルネットワークのモデルパラメータに入力するタスクデータを取得するタスクデータ取得部116を備える。検出実行部117は、パラメータ改変部111による改変がなされていないモデルパラメータにタスクデータ取得部116が取得したタスクデータを入力した結果を取得する。結果送信部118は、通信ネットワークNを介して検出実行部117が取得した結果を情報処理端末2に送信する。これにより、情報処理端末2は、通信ネットワークNを利用して情報処理装置1と通信できるという条件の下では、実行時の計算負荷が大きい高正答率のモデルパラメータを用いて目的タスクを実行することができる。
図5は、実施の形態に係る情報処理システムSの全体構成を模式的に示す図である。図5に示すように、実施の形態に係る情報処理システムSは、通信ネットワークNを介して互いに通信可能な態様で接続する情報処理装置1と情報処理端末2とを含む。情報処理装置1は、中間層の一部を改変して正答率を下げた学習モデルを情報処理端末2に提供している。この場合、情報処理端末2がローカルな環境で学習モデルを実行する場合には、正答率が低下した学習モデルを実行することになる。
情報処理端末2は、情報処理装置1から入力API(Application Program Interface)と出力APIとの提供を受けている。情報処理端末2は、入力APIを利用することにより、通信ネットワークNを介して処理対象とするデータを情報処理装置1に送信することができる。また、情報処理端末2は、出力APIを利用することにより、通信ネットワークNを介して情報処理装置1から学習モデルの実行結果を受信することができる。これにより、情報処理端末2は、目的タスクに求められる正答率や情報処理端末2の置かれた通信環境に応じて、オンラインによる高性能な学習モデルと、オフラインによる低負荷な学習モデルとを選択できる。
<実施の形態に係る情報処理装置1が実行する情報処理の処理フロー>
図6は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
機械学習部110は、目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成する(S2)。パラメータ改変部111は、機械学習部110が生成したモデルパラメータの一部を改変した改変パラメータを生成する(S4)。正答率算出部112は、パラメータ改変部111が改変した改変パラメータにおけるテスト用入力データの正答率を算出する(S6)。記憶部10は、パラメータ改変部111に改変させるモデルパラメータの改変パターン毎に、正答率算出部112が算出した正答率を紐づけて記憶する(S8)。
<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、異なる正答率の学習モデルを提供することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
<変形例>
上記では、情報処理端末2は、オンラインでは正答率の高い学習モデルを実行し、オフラインでは正答率が低く設定された学習モデルを実行する場合について説明した。しかしながら、例えば情報処理端末2の計算リソースが十分にあり、情報処理端末2のみで正答率が高く計算負荷の大きい学習モデルを実行できる場合には、情報処理装置1は、情報処理端末2にフルサイズの学習モデルを提供してもよい。
一方で、情報処理装置1が、情報処理端末2によるフルサイズの学習モデルの実行を無制限で許可すると、学習モデルを第三者に利用させることによって情報処理装置1の管理者が得られる利益が損なわれかねない。
そこで、情報処理装置1は、情報処理端末2によるフルサイズの学習モデルの実行に制限を課してもよい。以下、情報処理端末2に課されるフルサイズの学習モデルの実行制限についてより詳細に説明する。
図7は、変形例に係る情報処理端末2の機能構成を模式的に示す図である。変形例に係る情報処理端末2は、記憶部20と制御部21とを備える。
記憶部20は、情報処理端末2を実現するコンピュータのBIOS等を格納するROMや情報処理装置1の作業領域となるRAM、OSやアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDDやSSD等の大容量記憶装置である。
制御部21は、情報処理端末2のCPUやGPU等のプロセッサであり、記憶部20に記憶されたプログラムを実行することによってモデルパラメータ取得部210、利用制限数取得部211、検出実行部212、及びモデルパラメータ選択部213として機能する。
モデルパラメータ取得部210は、目的タスクを検出するために生成されたニューラルネットワークに関するモデルパラメータであって、目的タスクの正答率が高い方の第1モデルパラメータと、第1モデルパラメータよりも目的タスクの正答率が低い第2モデルパラメータと、の2つのモデルパラメータを取得する。モデルパラメータ取得部210は、例えば、第1モデルパラメータとして、パラメータ改変部111による改変がなされていないモデルパラメータを取得する。
利用制限数取得部211は、モデルパラメータ取得部210が取得した2つのモデルパラメータのうち、第1モデルパラメータの使用回数の上限値を情報処理装置1から取得する。第1モデルパラメータの使用回数の上限値は、例えば情報処理端末2のユーザが情報処理装置1に支払った対価に応じて設定される。
検出実行部212は、第1モデルパラメータと第2モデルパラメータとのいずれか一方のモデルパラメータに検出対象のタスクデータを入力した結果を取得する。具体的には、検出実行部212は、モデルパラメータ選択部213が選択したモデルパラメータを用いて、タスクデータの出力結果を取得する。
モデルパラメータ選択部213は、検出実行部212による第1モデルパラメータの使用回数が情報処理装置1から取得した上限値を下回る場合、第1モデルパラメータを選択する。また、モデルパラメータ選択部213は、検出実行部212による第1モデルパラメータの使用回数が上限値に到達した場合、第2モデルパラメータを選択する。これにより、情報処理端末2は、情報処理装置1によって許可された使用回数の上限値に至るまでは、正答率の高いモデルパラメータを用いて目的タスクを実行することができる。
1・・・情報処理装置
10・・・記憶部
11・・・制御部
110・・・機械学習部
111・・・パラメータ改変部
1110・・・選択部
1111・・・置換部
1112・・・比較部
1113・・・改変制御部
112・・・正答率算出部
113・・・許可正答率取得部
114・・・改変パターン選択部
115・・・モデルパラメータ送信部
116・・・タスクデータ取得部
117・・・検出実行部
118・・・結果送信部
2・・・情報処理端末
20・・・記憶部
21・・・制御部
210・・・モデルパラメータ取得部
211・・・利用制限数取得部
212・・・検出実行部
213・・・モデルパラメータ選択部
S・・・情報処理システム
N・・・通信ネットワーク

Claims (7)

  1. 目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成する機械学習部と、
    前記モデルパラメータの一部を改変した改変パラメータを生成するパラメータ改変部と、
    前記改変パラメータにおけるテスト用入力データの正答率を算出する正答率算出部と、
    前記パラメータ改変部に改変させるモデルパラメータの改変パターン毎に、前記正答率算出部が算出した正答率を紐づけて記憶する記憶部と、
    を備える情報処理装置。
  2. 前記パラメータ改変部は、
    前記ニューラルネットワークを構成する複数の層のうち、前記モデルパラメータを改変するための層を選択する選択部と、
    前記選択部が選択した層のモデルパラメータを所定の値に置換する置換部と、
    置換後の前記正答率と、前記モデルパラメータの改変の目標とする目標正答率とを比較する比較部と、
    (1)前記正答率が前記目標正答率よりも高い場合、前記選択部に選択した層よりも入力層側の層を再選択させ、(2)前記正答率が前記目標正答率よりも低い場合、前記選択部に前記選択した層よりも出力層側の層を再選択させ、(3)前記正答率と前記目標正答率との差が所定の範囲に収まる場合、前記置換部が置換したモデルパラメータを改変パラメータとして出力する改変制御部と、
    を備える請求項1に記載の情報処理装置。
  3. 前記情報処理装置とは異なる情報処理端末から当該情報処理端末のユーザに許可されている正答率を取得する許可正答率取得部と、
    前記記憶部が記憶している正答率のうち、前記許可正答率取得部が取得した正答率に類似する正答率に対応する改変パターンを選択する改変パターン選択部と、
    選択された前記改変パターンに基づいて改変された前記モデルパラメータを、通信ネットワークを介して前記情報処理端末に送信するモデルパラメータ送信部と、
    をさらに備える請求項1又は2に記載の情報処理装置。
  4. 通信ネットワークを介して前記情報処理装置とは異なる情報処理端末から前記ニューラルネットワークに入力するタスクデータを取得するタスクデータ取得部と、
    前記パラメータ改変部による改変がなされていない前記モデルパラメータに前記タスクデータを入力した結果を取得する検出実行部と、
    前記通信ネットワークを介して前記検出実行部が取得した結果を前記情報処理端末に送信する結果送信部と、
    をさらに備える請求項1から3のいずれか1項に記載の情報処理装置。
  5. 目的タスクを検出するために生成されたニューラルネットワークに関するモデルパラメータであって、前記目的タスクの正答率が高い方の第1モデルパラメータと、前記第1モデルパラメータよりも前記目的タスクの正答率が低い第2モデルパラメータと、の2つのモデルパラメータを取得するモデルパラメータ取得部と、
    前記2つのモデルパラメータのうち、前記第1モデルパラメータの使用回数の上限値を取得する利用制限数取得部と、
    前記第1モデルパラメータと前記第2モデルパラメータとのいずれか一方のモデルパラメータに検出対象のタスクデータを入力した結果を取得する検出実行部と、
    前記検出実行部による前記第1モデルパラメータの使用回数が前記上限値を下回る場合前記第1モデルパラメータを選択し、前記使用回数が前記上限値に到達した場合前記第2モデルパラメータを選択するモデルパラメータ選択部と、を備え、
    前記検出実行部は、前記モデルパラメータ選択部が選択したモデルパラメータを用いて、タスクデータの出力結果を取得する、
    情報処理端末。
  6. コンピュータに、
    目的タスクを検出するためのニューラルネットワークのモデルパラメータを生成させる機能と、
    前記モデルパラメータの一部を改変した改変パラメータを生成させる機能と、
    前記改変パラメータにおけるテスト用入力データの正答率を算出させる機能と、
    改変するモデルパラメータの改変パターン毎に、前記算出した正答率を紐づけて記憶部に記憶させる機能と、
    を実現させるプログラム。
  7. コンピュータに、
    目的タスクを検出するために生成されたニューラルネットワークに関するモデルパラメータであって、前記目的タスクの正答率が高い方の第1モデルパラメータと、前記第1モデルパラメータよりも前記目的タスクの正答率が低い第2モデルパラメータと、の2つのモデルパラメータを取得する機能と、
    前記2つのモデルパラメータのうち、前記第1モデルパラメータの使用回数の上限値を取得する機能と、
    前記第1モデルパラメータの使用回数の累積が前記上限値を下回る場合前記第1モデルパラメータを選択し、前記使用回数の累積が前記上限値に到達した場合前記第2モデルパラメータを選択する機能と、
    選択されたモデルパラメータを用いて、タスクデータの出力結果を取得する機能と、
    を実現させるプログラム。

JP2018044447A 2018-03-12 2018-03-12 情報処理装置、情報処理端末、及びプログラム Active JP6901423B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018044447A JP6901423B2 (ja) 2018-03-12 2018-03-12 情報処理装置、情報処理端末、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044447A JP6901423B2 (ja) 2018-03-12 2018-03-12 情報処理装置、情報処理端末、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019159693A true JP2019159693A (ja) 2019-09-19
JP6901423B2 JP6901423B2 (ja) 2021-07-14

Family

ID=67996987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044447A Active JP6901423B2 (ja) 2018-03-12 2018-03-12 情報処理装置、情報処理端末、及びプログラム

Country Status (1)

Country Link
JP (1) JP6901423B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158058A1 (ja) * 2019-01-31 2020-08-06 日立オートモティブシステムズ株式会社 演算装置
WO2021044902A1 (ja) 2019-09-02 2021-03-11 Kddi株式会社 通信装置及び通信システム
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018450A (ja) * 2010-07-06 2012-01-26 Keio Gijuku ニューラルネットワークシステム、ニューラルネットワークシステムの構築方法およびニューラルネットワークシステムの制御プログラム
WO2017154284A1 (ja) * 2016-03-09 2017-09-14 ソニー株式会社 情報処理方法および情報処理装置
JP2017182114A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018450A (ja) * 2010-07-06 2012-01-26 Keio Gijuku ニューラルネットワークシステム、ニューラルネットワークシステムの構築方法およびニューラルネットワークシステムの制御プログラム
WO2017154284A1 (ja) * 2016-03-09 2017-09-14 ソニー株式会社 情報処理方法および情報処理装置
JP2017182114A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158058A1 (ja) * 2019-01-31 2020-08-06 日立オートモティブシステムズ株式会社 演算装置
JP2020123269A (ja) * 2019-01-31 2020-08-13 日立オートモティブシステムズ株式会社 演算装置
JP7099968B2 (ja) 2019-01-31 2022-07-12 日立Astemo株式会社 演算装置
WO2021044902A1 (ja) 2019-09-02 2021-03-11 Kddi株式会社 通信装置及び通信システム
JP2021051640A (ja) * 2019-09-26 2021-04-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法
JP7230755B2 (ja) 2019-09-26 2023-03-01 いすゞ自動車株式会社 モデル作成装置及びモデル作成方法

Also Published As

Publication number Publication date
JP6901423B2 (ja) 2021-07-14

Similar Documents

Publication Publication Date Title
Coleman et al. Analysis of dawnbench, a time-to-accuracy machine learning performance benchmark
US20200356901A1 (en) Target variable distribution-based acceptance of machine learning test data sets
Ashari et al. Fast sparse matrix-vector multiplication on GPUs for graph applications
Oñorbe et al. How to zoom: bias, contamination and Lagrange volumes in multimass cosmological simulations
McColl et al. A performance evaluation of open source graph databases
WO2018179765A1 (ja) 情報処理装置、情報処理方法、及びコンピュータ可読記憶媒体
Liu et al. Optimal weighted pointwise ensemble of radial basis functions with different basis functions
JP2018523885A (ja) ユーザ挙動を異常として分類すること
US10496768B2 (en) Simulating a production environment using distributed computing technologies
US11720825B2 (en) Framework for multi-tenant data science experiments at-scale
WO2018157752A1 (en) Approximate random number generator by empirical cumulative distribution function
US20160171121A1 (en) Method, Controller, Program, and Data Storage System for Performing Reconciliation Processing
JP2019159694A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6901423B2 (ja) 情報処理装置、情報処理端末、及びプログラム
JP2019053541A (ja) 情報処理装置、情報処理方法、及びプログラム
Versteeg et al. Opaque service virtualisation: a practical tool for emulating endpoint systems
CN111966361A (zh) 用于确定待部署模型的方法、装置、设备及其存储介质
US10248462B2 (en) Management server which constructs a request load model for an object system, load estimation method thereof and storage medium for storing program
JP2023022831A (ja) コンピュータシステム、コンピュータ実装方法、プログラム、及びコンピュータ実装システム(学習因果関係)
US9858363B2 (en) Estimating think times using a measured response time
Anjos et al. BIGhybrid: a simulator for MapReduce applications in hybrid distributed infrastructures validated with the Grid5000 experimental platform
TWI758223B (zh) 具有動態最小批次尺寸之運算方法,以及用於執行該方法之運算系統及電腦可讀儲存媒體
Tanneru et al. Quantifying uncertainty in natural language explanations of large language models
Tsung et al. An implementation of scalable high throughput data platform for logging semiconductor testing results
Taheri et al. Genetic algorithm in finding Pareto frontier of optimizing data transfer versus job execution in grids

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6901423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150