JP6579198B2 - リスク評価方法、リスク評価プログラム及び情報処理装置 - Google Patents

リスク評価方法、リスク評価プログラム及び情報処理装置 Download PDF

Info

Publication number
JP6579198B2
JP6579198B2 JP2017552647A JP2017552647A JP6579198B2 JP 6579198 B2 JP6579198 B2 JP 6579198B2 JP 2017552647 A JP2017552647 A JP 2017552647A JP 2017552647 A JP2017552647 A JP 2017552647A JP 6579198 B2 JP6579198 B2 JP 6579198B2
Authority
JP
Japan
Prior art keywords
data
learning
weights
distance
diversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017552647A
Other languages
English (en)
Other versions
JPWO2017090194A1 (ja
Inventor
遠藤 利生
利生 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2017090194A1 publication Critical patent/JPWO2017090194A1/ja
Application granted granted Critical
Publication of JP6579198B2 publication Critical patent/JP6579198B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、リスク評価方法、リスク評価プログラム及び情報処理装置に関する。
ニューラルネットワークは、多数のニューロンとそれらを接続するシナプスとから構成される。ニューラルネットワークを用いた機械学習において、訓練データを入力したときの学習結果は、各シナプスに付与される重みとして蓄積される。
また、ニューラルネットワークを用いた機械学習において、他の訓練データによる学習結果を使用する転移学習という技術が知られている(例えば、非特許文献1参照)。転移学習では、新規に学習する場合と比べて、早期に誤差の小さい学習結果に到達できるという効果を有する。一方、学習結果として蓄積されたシナプスの重みから、訓練データをある程度復元できるリスク(以下、「復元リスク」ともいう。)がある(例えば、非特許文献2参照)。
J. Yosinski, J. Clune, Y. Bengio and H. Lipson,"How transferable are features in deep neural networks?,"In Advances in Neural Information ProcessingSystems 27, pp. 3320-3328, 2014. Le et al., "Building high-level features using large scale unsupervised learning," In Proceedings of the 29th International Conference on Machine Learning (ICML-12), pp.81-88, 2012.
特開2003−157365号公報 特開平6−168348号公報
階層構造を持つニューラルネットワークを用いた機械学習において、シナプスの重みの使用を、n層のニューラルネットワークのうちの特定の階層までに制限することで、訓練データの復元リスクを低下させることができる。しかしながら、シナプスの重みを使用する階層を制限することで、早期に誤差の小さい学習結果に到達できる、という転移学習の効果が減少する。
訓練データの復元リスクはどの程度であるか、あるいは、転移学習の際に学習結果(つまり、シナプスの重み)を使用する必要はあるか、については、訓練データを用いて評価することができる。しかしながら、転移学習を行う時点で、訓練データは既に学習を完了したデータであり、削除等されているため参照することは困難である。したがって、転移学習の際、訓練データを用いた復元リスクの適切な評価は難しい。
そこで、一側面では、本発明は、学習結果の転用の安全性と転用効果とを定量的に評価することを目的とする。
一つの案では、訓練データを入力して、ニューラルネットワークを用いた機械学習を実行し、前記機械学習により生成された複数の階層のシナプスの重みのうち、少なくとも1つの許可レベルの前記重みを使用してそれぞれ生成された復元データ、及び前記訓練データに基づき、前記許可レベルに対応したデータ距離を算出する処理をコンピュータが実行するリスク評価方法が提供される。
一側面によれば、学習結果の転用の安全性と転用効果とを定量的に評価することができる。
第1〜第3実施形態にかかるニューラルネットワークの一例を示す図。 機械学習を説明するための図。 転移学習を説明するための図。 第1〜第3実施形態にかかるリスク評価方法の概要を説明するための図。 第1〜第3実施形態にかかる復元データ、安全性及び転用効果の関係を示す図。 第1〜第3実施形態にかかる復元データ、安全性及び転用効果の関係を示す図。 第1実施形態にかかる学習機の機能構成の一例を示す図。 第1実施形態にかかる学習及びリスク評価処理の一例を示すフローチャート。 第2実施形態にかかる学習機の機能構成の一例を示す図。 第2実施形態にかかる転用元の学習時のリスク評価処理の一例を示すフローチャート。 第2実施形態にかかる転用先の学習時のリスク評価処理の一例を示すフローチャート。 第1〜第3実施形態にかかるリスク評価の一例を説明するための図。 第1〜第3実施形態にかかるリスク評価の一例を説明するための図。 第1〜第3実施形態にかかるリスク評価の一例を説明するための図。 第3実施形態にかかる学習機の機能構成の一例を示す図。 第3実施形態にかかる転用先の学習時のリスク評価処理の一例を示すフローチャート。 第1〜第3実施形態にかかる学習機のハードウェア構成の一例を示す図。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
(機械学習)
階層構造を有するニューラルネットワーク1は、図1に示すように、多数のニューロン10とそれらを結ぶシナプス20とから構成される。例えば、図1のニューラルネットワーク1は、入力層、第1層(最下層)、第2層、・・・、第n−1層、第n層(最上層)、出力層の階層構造を有する。シナプスは、これらの層に分けられる。第1層側が下層、第n層側が上層である。このように複数の階層構造を有するニューラルネットワーク1を使用した学習を、ディープラーニング(DL:Deep Learning)という。
データは、入力層から入力され、下層側から上層側に向けてニューロン10とシナプス20とを伝搬する。学習結果は、出力層から出力される。あるデータを入力したときに学習されるものはシナプス20の重みである。つまり、学習結果は、各シナプス20に付与される重みとして蓄積される。高い認識精度の学習結果を得るためには、学習時にニューラルネットワーク1に入力される訓練データが多数必要となる。
図2には、ニューラルネットワーク1を構成する学習機2による機械学習の一例を示す。学習機2は、情報処理装置の一例であり、情報処理装置は、ニューロン10の機能と、シナプス20の機能と、シナプス20の重み(シナプス20の結合強度)を変化させる機能とを有するいずれの電子機器によっても実現可能である。情報処理装置は、例えば、ネットワークを介して顧客側の機器に接続されるクラウド上のサーバ等により実現され得る。
入力されるデータには、訓練データとテストデータとの2種類がある。図2の上段に示すように、学習時に入力される訓練データ3の一例として、顧客側の機器から提供されるブドウの写真とブドウの写真から期待される文字列「ブドウ」、及びニンジンの写真とニンジンの写真から期待される文字列「ニンジン」が挙げられる。各文字列をそれぞれ出力層のニューロン10に割り当てたニューラルネットワーク1を構成する。
なお、訓練データ3は、写真などの画像データに限らず、音声データ、文字データ、数字データ等のあらゆるデータを含む。学習機2は、学習時に顧客から訓練データ3の提供を受け、学習を行い、学習結果4を出す。学習結果4は、各シナプス20の重みにより示される。
認識時に、例えば、顧客側の機器からテストデータが提供される。図2の下段に示すように、例えば、ブドウの写真だけがテストデータ6として提供されると、認識機5は、入力されたブドウの写真のテストデータ6に応じて認識処理(画像認識等)を実行し、認識結果7を顧客に提供する。認識機5は、学習機2と同一の機器であってもよいし、異なる機器であってもよい。図2では、認識機5は、ブドウの写真を入力し、「ブドウ」の文字列を出力した例を示す。「ブドウ」の文字列に対応する出力層のニューロン10の活性度が最大となったため,「ブドウ」の文字列が出力される。学習時に学習結果に基づきシナプス20の重みが適正化されたため、認識時にその重みに基づき、入力したブドウの写真からブドウの文字列を出力できたものである。なお認識機5は画像認識に限らず,音声認識,文字認識等の様々な認識処理を行うことができる。ニューラルネットワーク1を使用した学習によれば、タスクによっては人を超える高い認識精度が得られる場合がある。
ディープラーニングの認識精度を改善する技術として、下層の重みを他の学習結果から転用する「転移学習」がある。転移学習について図3を参照して説明する。図3の下層、上層は、図1の複数の階層を構成するニューラルネットワーク1を、説明の便宜上下層側と上層側の二層に分け、模式的に示したものである。図3の上段に示す学習時には、訓練データとしてデータAが提供される。この場合、上層及び下層ともランダムな重みが設定され、それらの重みに基づく学習機2による学習の結果、各シナプスの重みが更新される。
データAによる学習後、図3の下段に示す学習時には、訓練データとしてデータBが提供される。この場合、データAによる学習時に更新されたシナプスの重みを下層の重みに転用する(転移学習)。また、上層の重みにはランダムな重みが設定され、それらの重みに基づく学習機2による学習の結果、各シナプスの重みが更新される。このように、転移学習では、学習機2は、他の学習結果からシナプス20の重みを転用することで、少ない訓練データでも高い認識精度を得ることができる。
以上の転用効果がある一方で、転移学習には復元リスクがある。具体的には、例えば非特許文献2に開示された方法を用いてシナプスの重みからkunrende-tawoaruteido復元することができる。例えば、学習機2は、入力した顔画像に基づきシナプスの重みから、人の顔が映し出された復元データを生成する。これにより、人の顔画像の訓練データがある程度復元できる。また、例えば、学習機2は、猫の画像を入力すると、シナプスの重みから、猫が映し出された復元データを生成する。これにより、猫の画像の訓練データがある程度復元できる。つまり、学習機2が、転移学習により前の学習で得られたシナプスの重みを使用すると、前の学習で使用した訓練データがある程度復元され得るという復元リスクが生じる。
機械学習には以下の前提(1)〜(5)がある。
(1)学習機2による学習のサービスを受ける顧客は、学習結果(シナプスの重み)を参照できる。学習後のニューラルネットワーク1は、顧客の固有環境(例えば、顧客が製造、販売する自動車や携帯端末等)で動作させることが求められるからである。
(2)訓練データ3は学習時にのみ存在する。訓練データ3は顧客の所有物であり、学習機2による学習のサービス提供側は自由には使えない。このため、サービス提供側は、学習完了後、セキュリティ保持の観点から訓練データ3を削除する必要がある。
(3)転移学習の場合、重みの転用は学習時よりも後の、他の顧客が学習を行うタイミングで発生する。
(4)転用効果は重みの転用時でないと定まらない。転用効果は、転用元のデータ(例えば、図3のデータA、以下「転用元訓練データ」ともいう。)と転用先のデータ(例えば、図3のデータB、以下「転用先訓練データ」ともいう。)の類似性、及び転用許可範囲に依存するためである。
(5)転用の安全性は、学習や転用が進むほど高まる。転用されるものは、転移学習をする際のシナプスの重みの初期値であるため、学習が進むに従い、シナプスの重みは上書きされる。このため、シナプスの重みが転用された初期段階において復元リスクはより高くなる。
以上の前提の下に、実際に学習を行うことなく、転用効果と転用の安全性とを任意の時点で定量的に評価することが望まれる。そこで、実際に学習を行うことなく、学習結果の転用効果を高速かつ定量的に評価する技術として、転用元訓練データと転用先訓練データとの距離を計算し、計算した距離に基づき転用効果を評価する方法がある。これによれば、算出した距離が、所定の基準値よりも近い場合には転用効果が大きいと評価し、当該距離が基準値よりも遠い場合には転用効果が小さいと評価できる。しかしながら、この方法では、前提(2)に示した通り、転用元訓練データは転用時には削除されているため、距離の計算ができない。また、この方法では複数の階層のシナプスの重みに対して、シナプスの重みを転用する範囲の広狭によって、転用効果がどの程度影響されるかが考慮されていない。更に、この方法では距離の比較基準がなく、基準値を予め設定することが難しい。
また、転用の安全性を任意の時点で定量的に評価する技術として、転用元訓練データと復元データとの距離を計算し、計算した距離に基づき転用の安全性を評価する方法がある。これによれば、算出した距離が所定の基準値よりも遠い場合には安全性が高いと評価し、距離が基準値よりも近い場合には安全性が低いと評価できる。しかしながら、この方法では、転用元訓練データは転用時には削除されているため、距離の計算ができない。また、この方法では距離の比較基準がなく、基準値を予め設定することが難しい。
そこで、本実施形態は、シナプスの重みの転用の安全性と転用効果とを定量的に評価する機能を有する情報処理装置を提供する。本実施形態にかかる情報処理装置によれば、図4に示すように、シナプスの重みを転用することの安全性を示す定量値と、転用効果を示す定量値とに基づき、安全性が所定以上低い範囲と転用効果が所定以上低い範囲を除いた転用許可範囲を定めることができる。なお、本実施形態にかかる情報処理装置が実行するリスク評価方法は、ディープラーニングによる学習時に図2の学習機2により実行され、認識機5による認識時にリスク評価が行われるものではない。よって、認識機5についてはこれまでのディープラーニングをそのまま使用することができる。
(リスク評価/安全性と転用効果)
本実施形態では、学習時に復元データを生成し、訓練データとの距離を算出して保存する。復元データは、例えば非特許文献2の方法を用いて、シナプス20の重みから生成してもよい。注目しているニューロン10の活性度が高まる入力データを、例えば非特許文献2の方法から求め、その入力データを復元データとする。ただし、復元データの生成方法は、非特許文献2の方法に限らず、公知のいずれの方法も用いることができる。
学習時に生成した復元データと、転用元訓練データとの距離は、転用の安全性の指標となる。学習時に生成した復元データと転用元訓練データとの距離が遠い程、復元データと訓練データとは似ていないことを意味するので、シナプス20の重みが漏洩したときの影響が小さいと判断できる。よって、復元データと転用元訓練データとの距離が遠い場合、転用の安全性は高いといえる。例えば、データ間の距離を模式的に示す図5において、三角形の左下の頂点が、転用元訓練データの位置とする。復元データの位置がAの場合、復元データの位置がBの場合と比較して、復元データと転用元訓練データとの距離が近い。このため、復元データの位置がAの場合、復元データの位置がBの場合よりも転用の安全性は低いと判断できる。
転用の安全性の指標は、訓練データ自体の復元データとの距離という観点だけでなく、その訓練データであると特定され易いかという観点からも評価することができる。例えば、距離の比較基準として、顧客データである転用元訓練データや転用先訓練データとは別に、参照データを予め保持しておくことで、参照データを用いて転用の安全性を評価することができる。また、参照データをデータベース(以下、「参照データDB27a」ともいう。)に保存することで、参照データはいつでも参照可能である。よって、参照データを用いた転用の安全性の評価はいつでも行うことができる。参照データは、例えば百科事典等の様々なデータであって、インターネット等を介して入手可能なデータを収集することで得られる。なお,学習機2は収集した参照データに基づきディープラーニングによる学習を行い、復元データを生成してそれらを参照データの一部に含めてもよい。そして、学習機2は、復元データと参照データとの距離と、復元データと転用元訓練データとの距離とを比較する。
図5に示すように、復元データと転用元訓練データとの距離と、復元データと参照データとの距離との大小関係から、転用の安全性を評価することができる。例えば、復元データが転用元訓練データよりも参照データに近い場合、つまり、復元データの位置が、三角形内の図5の破線Dよりも参照データ側にある場合、その復元データはありふれていると判断できる。つまり、この場合、復元データは、転用元訓練データよりも参照データに似ている、つまり、ありふれたデータであることを意味するので、重み漏洩時の影響が小さく、転用の安全性は高いと判断できる。
学習時に生成した復元データと転用先訓練データとの距離は、転用効果の指標となる。学習時に生成した復元データと転用先訓練データとの距離が近いほど、転用の効果が大きいと判断できる。また、復元データと転用先訓練データとの距離と、復元データと参照データとの距離との大小関係から、転用効果を評価することができる。例えば、復元データが参照データよりも転用先訓練データに近い場合、つまり、復元データの位置が、三角形内の図5の破線Eよりも転用先訓練データ側にある場合、その復元データは、参照データよりも転用先訓練データに似ていることを意味するので、転用効果が高いと判断できる。
また、距離の他の比較基準として、リスク評価時に存在する他の訓練データを用いることができる。ただし、学習結果であるシナプスの重みが漏洩する場合、他の訓練データの安全性が危惧されるため、他の訓練データの使用に関しては、予め制限や条件を設けてもよい。
なお,学習機2は他の訓練データに基づきディープラーニングによる学習を行い、復元データを生成してそれらを他の訓練データの一部に含めてもよい。そして、学習機2は、復元データと他の訓練データとの距離と、復元データと転用元訓練データとの距離とを比較する。復元データが転用元訓練データよりも他の訓練データに近い場合、つまり、復元データの位置が、三角形内の図6の破線Dよりも他の訓練データ側にある場合、その復元データは、ありふれていることを意味する。よって、この場合、重み漏洩時の影響が小さく、転用の安全性が高いと判断される。また、復元データが他の訓練データよりも転用先訓練データに近い場合、つまり、復元データの位置が、三角形内の図6の破線Eよりも転用先訓練データ側にある場合、その復元データは、他の訓練データよりも転用先訓練データに似ていることを意味する。この場合、転用効果が高いと判断できる。例えば、復元データが斜線の領域内にある場合、転用の安全性が高く、かつ、転用効果が高いと判断できる。以下では、学習結果の転用の安全性及び転用効果の観点からリスク評価を定量的に行うことが可能な情報処理装置の一例として、第1〜第3実施形態にかかる学習機2について順に説明する。
<第1実施形態>
[機能構成]
第1実施形態にかかる学習機2の機能構成の一例について、図7を参照しながら説明する。第1実施形態にかかる学習機2は、入力部21、学習部22、復元データ生成部23、距離算出部24及び出力部25を有する。入力部21は、訓練データを入力する。学習部22は、ニューラルネットワーク1のニューロン10間を接続するシナプス20の重みをランダムに設定し、入力した訓練データによる学習を行う。学習部22は、学習の結果、シナプス20の重みを更新する。学習部22は、前の学習で得られたシナプス20の重みに基づき、次の訓練データの学習を行う。
復元データ生成部23は、学習の結果得られた重みから復元データを生成する。復元データの生成方法は、非特許文献2に開示された方法を用いてもよいし、これに限定されず、その他のいずれの公知の方法も用いることができる。
距離算出部24は、生成した復元データと訓練データとの距離を算出する。距離の算出方法は、限定されず、いずれの公知の方法も用いることができる。距離算出部24は、複数の訓練データが存在する場合、訓練データ毎に復元データと訓練データとのデータ距離(以下、単に「距離」ともいう。)を算出する。出力部25は、学習の結果得られた重みと、算出した距離とを出力する。
[学習及びリスク評価処理]
次に、第1実施形態にかかる学習及びリスク評価処理について、図8を参照しながら説明する。本実施形態にかかる学習及びリスク評価処理が開始されると、入力部21は、訓練データを入力する(ステップS10)。学習部22は、シナプス20の重みをランダムに設定し、入力した訓練データによる学習を行う(ステップS12)。復元データ生成部23は、学習の結果得られた重みから復元データを生成する(ステップS14)。距離算出部24は、生成した復元データと各訓練データとの距離を算出する(ステップS16)。出力部25は、学習の結果得られた重みと、算出した距離とを出力し(ステップS18)、本処理を終了する。
以上に説明したように、第1実施形態にかかる学習機2によれば、算出した復元データと訓練データとの距離が出力される。これにより、距離に基づき、学習の結果を示すシナプス20の重みの転用の安全性と転用効果とを定量的に評価することができる。また、算出した復元データと訓練データとの距離に基づき、転用の安全性及び転用効果の両方を考慮して学習の結果を示すシナプス20の重みの転用許可範囲を定めることができる。
<第2実施形態>
次に、シナプス20の重みの転用許可範囲を決定する処理を含んだ第2実施形態にかかる学習機2の機能構成及び学習機2が行うリスク評価処理について説明する。
[機能構成]
第2実施形態にかかる学習機2の機能構成の一例について、図9を参照しながら説明する。第2実施形態にかかる学習機2は、入力部21、学習部22、復元データ生成部23、距離算出部24、許可決定部26、出力部25及び記録部27を有する。入力部21は、転用元訓練データ又は転用先訓練データを入力する。学習部22は、ニューラルネットワーク1のシナプス20の重みをランダムに設定し、入力した訓練データによる学習を行い、学習の結果、シナプス20の重みを更新する。
復元データ生成部23は、学習の結果得られた重みから復元データを生成する。復元データの生成方法は限定されず、いずれの公知の方法も用いることができる。
距離算出部24は、生成した復元データと転用元訓練データとの距離を算出する。距離算出部24は、生成した復元データと転用先訓練データとの距離を算出する。距離算出部24は、生成した復元データと参照データとの距離を算出する。転用元訓練データ、転用先訓練データ、参照データがそれぞれ複数存在する場合、距離算出部24は、復元データと各転用元訓練データとの距離、復元データと各転用先訓練データとの距離、復元データと参照データとの距離をそれぞれ算出する。各種データ間の距離の算出方法は限定されず、いずれの公知の方法も用いることができる。
許可決定部26は、算出した復元データと各転用元訓練データとの距離、復元データと各転用先訓練データとの距離、復元データと参照データとの距離から重みの転用許可範囲を判定する。出力部25は、学習の結果得られた重みと転用許可範囲とを出力する。記録部27は、参照データを参照データDB27a(Data Base)に保存する。なお、記録部27には、学習処理等の学習機2が行う制御全般のプログラム(制御プログラム70)と、学習機2が行うリスク評価を実行するためのプログラム(リスク評価プログラム71)とが記録されていてもよい。
[学習及びリスク評価処理]
次に、第2実施形態にかかる学習及びリスク評価処理について、図10及び図11を参照しながら説明する。図10は、第2実施形態にかかる転用元訓練データによる機械学習の実行時(学習時)におけるリスク評価処理の一例を示すフローチャートである。図11は、第2実施形態にかかる転用先訓練データによる学習時におけるリスク評価処理の一例を示すフローチャートである。
図10に示す転用元訓練データによる学習時におけるリスク評価処理が開始されると、入力部21は、転用元訓練データを入力する(ステップS20)。学習部22は、入力した転用元訓練データに基づきランダムな重みで学習を行う(ステップS12)。復元データ生成部23は、学習の結果の重みから復元データを生成し(ステップS14)、距離算出部24は、生成した復元データと各転用元訓練データとの距離を算出する(ステップS16)。
次に、距離算出部24は、参照データDB27aに基づき、生成した復元データと各参照データとの距離を算出する(ステップS22)。続いて、許可決定部26は、算出した1又は複数の転用元訓練データの距離のうちの最短距離と、算出した1又は複数の参照データの距離のうちの最短距離とが等しい又は近似するニューロン10を選択する(ステップS24)。次に、許可決定部26は、選択したニューロン10より下層側のシナプスの重みを転用許可範囲と判定する(ステップS26)。出力部25は、学習の結果得られた重みと、転用許可範囲とを出力し(ステップS28)、本処理を終了する。
以上に説明したように、第2実施形態にかかる学習機2によれば、復元データ及び訓練データの最短距離と、復元データ及び参照データの最短距離とが等しいか、ほぼ等しくなるニューロンが選択され、選択されたニューロンよりも下層側のシナプスの重みが転用許可範囲であると判定される。選択されたニューロンよりも下層側の重みは、特定の階層までの重みの一例である。
ディープラーニングでは、下層のニューロン10ほど汎用的、上層のニューロン10ほどタスク特化的な要素が強くなる。従って、下層のニューロン10ほど参照データに近くなり、転用の安全性が高くなる傾向がある。例えば、ステップS24において、図1の枠Sで囲まれたニューロン10が選択された場合、本実施形態では、第1層及び第2層のシナプス20の重みが転用許可範囲であると判定してもよい。このとき、第3層〜第n層のシナプス20の重みは転用を許可しない範囲(転用不許可範囲)である。これにより、転用の安全性及び転用効果の両方を考慮して、学習結果の転用の安全性と転用効果とを定量的に評価することができる。ただし、図1の枠Sで囲まれたニューロン10が選択された場合、第2層のシナプス20の重みのみが転用許可範囲であると判定してもよい。また、図1の枠Sで囲まれたニューロン10のいくつかが選択された場合、第2層のシナプス20の重みのうち、選択されたニューロン10に接続されている重みのみが転用許可範囲であると判定してもよい。
次に、転用先訓練データによる学習時に実行されるリスク評価処理について、図11を参照しながら説明する。本実施形態にかかる転用先訓練データによる学習時におけるリスク評価処理が開始されると、入力部21は、転用先訓練データ、転用する重み、転用許可範囲を入力する(ステップS30)。次に、学習部22は、転用許可範囲が設定されているかを判定する(ステップS32)。転用許可範囲が設定されている場合(転用許可範囲が空でない場合)、学習部22は、入力した重みを用いて学習を行う(ステップS34)。転用許可範囲が設定されていない場合(転用許可範囲が空である場合)、学習部22は、ランダムな重みを用いて学習を行う(ステップS36)。
ステップS14以降の処理については、図11のS17及びS25の処理の対象データが転用先訓練データである点で、図10のS16及びS24の処理の対象データが転用元訓練データであることと異なるが、処理自体は同一であるため、ここではステップS14以降の処理の説明を省略する。
以上に説明したように、第2実施形態にかかる学習機2によれば、転用先訓練データによる学習時に、転用元訓練データによる学習時に学習した結果を用いて高速かつ精度の高い学習が可能になる。加えて、本実施形態では、学習結果の転用の安全性と転用効果とを定量的に評価した結果得られた転用許可範囲の重みを用いて、転用先の学習を行うことができる。これにより、訓練データの安全が確保される範囲で適正な転用効果を得ることができる。
なお、図10及び図11のステップS24、S25、S26では、複数の訓練データ(転用元訓練データ、転用先訓練データ)のそれぞれと復元データとの距離のうちの最短距離に基づき、転用許可範囲が判定された。しかしながら、転用許可範囲の判定方法は、これに限らず、例えば、複数の訓練データのそれぞれと復元データとの距離の平均値、中央値、最小値及び最大値のいずれかに基づき、転用許可範囲が判定されてもよい。
(変形例1)
本実施形態及び他の実施形態において、重みの転用方法に関する変形例1について、図12を参照しながら説明する。例えば、転用のために読み込んだ学習済みの重みのうち、転用する層を変えて複数回学習することで、与えられた重みに対する転用の最適化を図ることができる。
1回目の学習では、図12の最上段に示すように、第P層及びその下層の重み、つまり、第1層〜第P層の重みを転用して学習を行った場合を示す。第P層は、特定の階層の一例である。
2回目の学習では、図12の中段に示すように、第Q層及びその下層の重み、つまり、第1層〜第Q層(Q>P)の重みを転用して学習を行った場合を示す。第Q層は、特定の階層の一例である。
3回目の学習では、図12の最下段に示すように、第R層及びその下層の重み、つまり、第1層〜第R層(R>Q>P)の重みを転用して学習を行った場合を示す。第R層は、特定の階層の一例である。特定の階層よりも上層についてはランダムな重みが設定される。
1〜3回目の各学習で算出された精度をそれぞれ、精度1〜3とする。例えば、学習機2が訓練データで学習を行い、認識機5がテストデータで認識を行い、その認識結果が予め設定された正解と一致した割合を算出した精度としてもよい。学習回数は3回に限らない。
算出された精度1〜3のうちの最大値が最良の精度となる。その最大値の精度に対応する特定の階層の重みを選択し、その重みを転用した学習を行ってもよい。転用不許可範囲に重みを転用することはできず、転用不許可範囲ではランダムな重みを適用することができる。転用許可範囲は、複数の階層のシナプスの重みのうち、特定の階層までのシナプスの重みの使用を許可することにより設定される許可レベルの一例である。
精度の算出方法は、限定されず、公知のいずれの方法も使用できる。なお、精度の算出を高速化するために、学習前に復元データを生成し、転用先訓練データと復元データとの距離を算出し、その距離が小さい所定個数の重みに限定して、重みの転用を認め、転用が許可されている限定個数の重みを用いて学習を実行してもよい。
なお、ニューラルネットワーク1の説明が開示されている場合、学習の意味が一致している又は学習の意味が近いと判断されるニューラルネットワーク1に限定して、学習結果を転用する重みの選択を行うことも可能である。
(変形例2)
本実施形態及び他の実施形態において、復元データとの距離の算出に関する変形例2について、図13及び図14を参照しながら説明する。例えば、生成した復元データと訓練データとの距離を算出するとき、図13に示すように、例えば、訓練データ「A」そのものと、上下層の全ての重みを使用して生成した復元データとを比較し、復元データと訓練データとの距離を計算してもよい。
しかしながら、必ずしもこれに限らず、図14に示すように、訓練データそのものではなく、訓練データ「A」を入力して下層の重み1を使用して訓練データ「A」の特徴を抽出した訓練データ「A」の変換データと、上層の重み2を使用して生成した復元データとを比較してもよい。この場合、比較した距離が、復元データと訓練データとの距離となる。訓練データそのものではなく、訓練データの変換データを用いることにより、距離の計算の計算量を削減することができる。
また、復元データは、一部の階層のシナプスの重み(例えば、図14の重み2)に基づき生成されてもよい。復元データと訓練データとの距離は、訓練データそのものと復元データとの距離を算出してもよいし、訓練データの変換データと復元データとの距離を算出してもよい。
<第3実施形態>
次に、算出した距離を評価する処理を含んだ第3実施形態にかかる学習機2及び学習機2が行うリスク評価処理について説明する。
[機能構成]
第3実施形態にかかる学習機2の機能構成の一例について、図15を参照しながら説明する。第3実施形態にかかる学習機2は、入力部21、距離評価部28、学習部22、距離算出部24b、出力部25及び記録部27を有する。第2実施形態と異なる点は、第3実施形態にかかる学習機2は、距離評価部28を有し、第2実施形態にかかる学習機2が有する許可決定部26を有しない点である。よって、図15に示す機能のうち、第2実施形態と異なる距離評価部28について説明し、その他の機能については説明を省略する。
距離評価部28は、復元データ生成部23、距離算出部24a及び転用判定部29を有する。復元データ生成部23は、読み込んだ重みから復元データを生成する。距離算出部24aは、復元データと各転用先訓練データとの距離、及び復元データと各参照データとの距離を算出する。転用判定部29は、読み込んだ転用元訓練データの最短距離が参照データの最短距離以上で、転用先訓練データの最短距離が最も小さくなるニューロンを選択する。転用判定部29は、選択したニューロンより下層側のシナプスの重みが転用可能であると判定する。本実施形態において、選択したニューロンより下層は、複数の階層のシナプスの重みのうち、特定の階層までのシナプスの重みの使用を許可することにより設定される許可レベルの一例である。
[学習及びリスク評価処理]
次に、第3実施形態にかかる学習及びリスク評価処理について、図16を参照しながら説明する。図16は、第3実施形態にかかる転用先訓練データによる学習時におけるリスク評価処理の一例を示すフローチャートである。なお、第3実施形態にかかる転用元訓練データによる学習時におけるリスク評価処理は、図8に示す第1実施形態にかかる転用元訓練データによる学習時におけるリスク評価処理と同じであるため、ここでは説明を省略する。
本実施形態にかかる転用先訓練データによる学習時のリスク評価処理が開始されると、入力部21は、転用先訓練データ、転用する重み、転用元訓練データの距離を入力する(ステップS40)。次に、復元データ生成部23は、読み込んだ重みから復元データを生成する(ステップS42)。その際、復元データ生成部23は、注目しているニューロン10の活性度が高まる入力データを、例えば非特許文献2の方法から求め、その入力データを復元データとする。
次に、距離算出部24aは、復元データと各転用先訓練データとの距離を算出し、参照データDB27aに基づき、復元データと各参照データとの距離を算出する(ステップS44)。
次に、転用判定部29は、転用元訓練データの最短距離が、参照データの最短距離以上で、転用先訓練データの最短距離が最も小さくなるニューロンを選択する(ステップS46)。転用判定部29は、選択したニューロンより下層側のシナプスの重みが転用可能であると判定する(ステップS48)。次に、学習部22は、転用可能と判定した重みを使用して学習を行う(ステップS50)。
復元データ生成部23は、学習の結果得られた重みから復元データを生成する(ステップS14)。距離算出部24bは、生成した復元データと各転用先訓練データとの距離を算出する(ステップS17)。出力部25は、学習の結果得られた重みと、算出した距離とを出力し(ステップS18)、本処理を終了する。
以上に説明したように、第3実施形態にかかる学習機2によれば、転用先訓練データによる学習時に、距離評価部28は、読み込んだ重みから復元データを生成する。次に、学習機2は、復元データと転用元距離データとの最短距離が、復元データと参照データとの最短距離以上で、転用先訓練データの最短距離が最も小さくなるニューロンを選択し、該ニューロンよりも下層側のシナプスの重みが転用可能であると判定する。ディープラーニングでは、下層のニューロンほど汎用的、上層のニューロンほどタスク特化的になる。従って、転用の安全性を満たす下層の中で最も転用効果が期待できるニューロンを選択することで、転用の安全性及び転用効果の両方を考慮して転用許可範囲を定めることができる。これにより、転用元訓練データによる学習時に学習した結果を用いて高速かつ精度の高い学習が可能になるとともに、転用の安全性と転用効果とを両立した学習が可能になる。
(ハードウェア構成)
最後に、本実施形態にかかる学習機2のハードウェア構成について、図17を参照して説明する。図17は、本実施形態にかかる学習機2のハードウェア構成の一例を示す。学習機2は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108などを備え、それぞれがバスBで相互に接続されている。
入力装置101は、キーボードやマウスなどを含み、学習機2に各操作信号を入力するために用いられる。表示装置102は、ディスプレイなどを含み、各種の処理結果を表示する。通信I/F107は、学習機2をネットワークに接続するインターフェースである。これにより、学習機2は、通信I/F107を介して、他の機器(例えば、顧客側の機器等)とデータ通信を行うことができる。
HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、学習機2の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、参照データDB27a、制御プログラム70、リスク評価プログラム71等のプログラム等が格納されてもよい。
外部I/F103は、外部装置とのインターフェースである。外部装置には、記録媒体103aなどがある。これにより、学習機2は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。
ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、ネットワーク設定等のプログラム及びデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD108」や「ROM105」など)から、制御プログラム70、リスク評価プログラム71やデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。
かかる構成により、本実施形態にかかる学習機2では、CPU106が、ROM105やHDD108内に格納されたデータ、制御プログラム70及びリスク評価プログラム71を用いて学習及びリスク評価処理を実行する。なお、参照データDB27aに記憶された情報は、RAM104、HDD108、又はネットワークを介してクラウド上のサーバ等に格納され、学習機2に必要な情報を送信する形態であってもよい。学習部22、復元データ生成部23及び距離算出部24、24a、24bの各部は、制御プログラム70が、CPU101に実行させる処理により実現される。許可決定部26及び転用判定部29の各部は、リスク評価プログラム71が、CPU101に実行させる処理により実現される。入力部21は、例えば、入力装置101により実現される。出力部25は、例えば、表示装置102により実現される。
以上、リスク評価方法、リスク評価プログラム及び情報処理装置を上記実施形態により説明したが、本発明にかかるリスク評価方法、リスク評価プログラム及び情報処理装置は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
例えば、上記実施形態にかかるリスク評価方法、リスク評価プログラム及び情報処理装置の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
1:ニューラルネットワーク
2:学習機
5:認識機
10:ニューロン
20:シナプス
21:入力部
22:学習部
23:復元データ生成部
24,24a、24b:距離算出部
25:出力部
26:許可決定部
27:記録部
27a:参照データDB
28:距離評価部
29:転用判定部

Claims (18)

  1. 訓練データを入力して、ニューラルネットワークを用いた機械学習を実行し、
    前記機械学習により生成された複数の階層のシナプスの重みのうち、少なくとも1つの許可レベルの前記重みを使用してそれぞれ生成された復元データ、及び前記訓練データに基づき、前記許可レベルに対応したデータ距離を算出する、
    処理をコンピュータが実行するリスク評価方法。
  2. 前記許可レベルは、前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みの使用を許可することにより設定される、
    請求項1に記載のリスク評価方法。
  3. 前記復元データは、前記複数の階層のシナプスの重みのうち、一部の階層のシナプスの前記重みに基づき生成される、
    請求項1に記載のリスク評価方法。
  4. 前記データ距離は、
    前記訓練データを前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みを使用して変換したデータと、前記復元データとを用いて算出する、
    請求項1に記載のリスク評価方法。
  5. 前記機械学習の実行時に、算出した前記データ距離に基づき前記許可レベルを決定する、
    請求項1に記載のリスク評価方法。
  6. 前記許可レベルに対応したシナプスの前記重みを使用して機械学習を実行する転移学習の実行時に、算出した前記データ距離に基づき前記重みを使用した転移学習を許可するか否かを判定する、
    請求項1に記載のリスク評価方法。
  7. 訓練データを入力して、ニューラルネットワークを用いた機械学習を実行し、
    前記機械学習により生成された複数の階層のシナプスの重みのうち、少なくとも1つの許可レベルの前記重みを使用してそれぞれ生成された復元データ、及び前記訓練データに基づき、前記許可レベルに対応したデータ距離を算出する、
    処理をコンピュータに実行させるリスク評価プログラム。
  8. 前記許可レベルは、前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みの使用を許可することにより設定される、
    請求項7に記載のリスク評価プログラム。
  9. 前記復元データは、前記複数の階層のシナプスの重みのうち、一部の階層のシナプスの前記重みに基づき生成される、
    請求項7に記載のリスク評価プログラム。
  10. 前記データ距離は、
    前記訓練データを前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みを使用して変換したデータと、前記復元データとを用いて算出する、
    請求項7に記載のリスク評価プログラム。
  11. 前記機械学習の実行時に、算出した前記データ距離に基づき前記許可レベルを決定する、
    請求項7に記載のリスク評価プログラム。
  12. 前記許可レベルに対応したシナプスの前記重みを使用して機械学習を実行する転移学習の実行時に、算出した前記データ距離に基づき前記重みを使用した転移学習を許可するか否かを判定する、
    請求項7に記載のリスク評価プログラム。
  13. 訓練データを入力して、ニューラルネットワークを用いた機械学習を実行する学習部と、
    前記機械学習により生成された複数の階層のシナプスの重みのうち、少なくとも1つの許可レベルの前記重みを使用してそれぞれ生成された復元データ、及び前記訓練データに基づき、前記許可レベルに対応したデータ距離を算出する距離算出部と、
    を有する情報処理装置。
  14. 前記許可レベルを、前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みの使用を許可することにより設定する許可決定部を有する、
    請求項13に記載の情報処理装置。
  15. 前記復元データを、前記複数の階層のシナプスの重みのうち、一部の階層のシナプスの前記重みに基づき生成する復元データ生成部を有する、
    請求項13に記載の情報処理装置。
  16. 前記距離算出部は、前記データ距離を、前記訓練データを前記複数の階層のシナプスの重みのうち、特定の階層までの前記重みを使用して変換したデータと、前記復元データとを用いて算出する、
    請求項13に記載の情報処理装置。
  17. 前記許可決定部は、前記機械学習の実行時に、算出した前記データ距離に基づき前記許可レベルを決定する、
    請求項14に記載の情報処理装置。
  18. 前記許可レベルに対応したシナプスの前記重みを使用して機械学習を実行する転移学習の実行時に、算出した前記データ距離に基づき前記重みを使用した転移学習を許可するか否かを判定する転用判定部を有する、
    請求項13に記載の情報処理装置。
JP2017552647A 2015-11-27 2015-11-27 リスク評価方法、リスク評価プログラム及び情報処理装置 Expired - Fee Related JP6579198B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/083425 WO2017090194A1 (ja) 2015-11-27 2015-11-27 リスク評価方法、リスク評価プログラム及び情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2017090194A1 JPWO2017090194A1 (ja) 2018-09-20
JP6579198B2 true JP6579198B2 (ja) 2019-09-25

Family

ID=58763808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017552647A Expired - Fee Related JP6579198B2 (ja) 2015-11-27 2015-11-27 リスク評価方法、リスク評価プログラム及び情報処理装置

Country Status (4)

Country Link
US (1) US11455523B2 (ja)
EP (1) EP3382609A4 (ja)
JP (1) JP6579198B2 (ja)
WO (1) WO2017090194A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762504A (zh) * 2017-11-29 2021-12-07 华为技术有限公司 模型训练系统、方法和存储介质
US11386295B2 (en) 2018-08-03 2022-07-12 Cerebri AI Inc. Privacy and proprietary-information preserving collaborative multi-party machine learning
US11556846B2 (en) 2018-10-03 2023-01-17 Cerebri AI Inc. Collaborative multi-parties/multi-sources machine learning for affinity assessment, performance scoring, and recommendation making
KR102046748B1 (ko) 2019-04-25 2019-11-19 숭실대학교산학협력단 트리 부스팅 기반 애플리케이션의 위험도 평가 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102090423B1 (ko) 2019-04-25 2020-05-04 숭실대학교산학협력단 동적 api 추출 기반의 애플리케이션 악성코드 탐지 방법, 이를 수행하기 위한 기록 매체 및 장치
JP7290606B2 (ja) * 2020-06-09 2023-06-13 Kddi株式会社 機械学習装置、機械学習方法及び機械学習プログラム
CN112150201A (zh) * 2020-09-23 2020-12-29 创络(上海)数据科技有限公司 基于knn的时序迁移学习在销量预测中的应用
CN115269932B (zh) * 2022-09-29 2022-12-20 江西联创精密机电有限公司 模拟训练设备的训练评分方法、装置、存储介质及设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2986294B2 (ja) 1992-11-30 1999-12-06 株式会社日立製作所 成長機能を有するニューラルネットワークシステム
JP4146634B2 (ja) 2001-11-21 2008-09-10 エヌ・シー・エル・コミュニケーション株式会社 2次情報利用システム
JP2012243180A (ja) 2011-05-23 2012-12-10 Sony Corp 学習装置および方法、並びにプログラム
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
US10534994B1 (en) * 2015-11-11 2020-01-14 Cadence Design Systems, Inc. System and method for hyper-parameter analysis for multi-layer computational structures

Also Published As

Publication number Publication date
JPWO2017090194A1 (ja) 2018-09-20
EP3382609A4 (en) 2018-12-05
US11455523B2 (en) 2022-09-27
EP3382609A1 (en) 2018-10-03
WO2017090194A1 (ja) 2017-06-01
US20180268295A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6579198B2 (ja) リスク評価方法、リスク評価プログラム及び情報処理装置
US10824959B1 (en) Explainers for machine learning classifiers
JP6620439B2 (ja) 学習方法、プログラム及び学習装置
KR102170199B1 (ko) 비교 세트를 사용한 입력 예시들 분류
US20230342846A1 (en) Micro-loan system
US20240232635A1 (en) System and method for mimicking a neural network without access to the original training dataset or the target model
KR20210032140A (ko) 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치
CN112115257A (zh) 用于生成信息评估模型的方法和装置
CN110490304B (zh) 一种数据处理方法及设备
CN111950810A (zh) 一种基于自演化预训练的多变量时间序列预测方法和设备
US20230092274A1 (en) Training example generation to create new intents for chatbots
US20220012595A1 (en) Training a student neural network to mimic a mentor neural network with inputs that maximize student-to-mentor disagreement
WO2020065908A1 (ja) パターン認識装置、パターン認識方法およびパターン認識プログラム
US11645539B2 (en) Machine learning-based techniques for representing computing processes as vectors
CN110704668B (zh) 基于网格的协同注意力vqa方法和装置
CN110705622A (zh) 一种决策方法、系统以及电子设备
JP2022181204A (ja) ニューラルネットワークをトレーニングするためのコンピュータプログラムおよびコンピュータで実装される方法(混合された拡張済みデータセットを用いる音声異常検出)
CN114743187A (zh) 银行安全控件自动登录方法、系统、设备及存储介质
US11507670B2 (en) Method for testing an artificial intelligence model using a substitute model
JP2023518789A (ja) 人工知能モジュールを更新するためにデータセットを選択するための方法
US20210312272A1 (en) Neuromorphic circuit, neuromorphic array learning method, and program
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
TWI799330B (zh) 黑箱機器學習模型之新特徵
JP7405148B2 (ja) 情報処理装置、学習方法、及び、プログラム
KR102554626B1 (ko) 점진적 학습을 위한 기계 학습 방법 및 이를 수행하기 위한 컴퓨팅 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190812

R150 Certificate of patent or registration of utility model

Ref document number: 6579198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees