JP6931624B2 - 学習支援装置および学習支援方法 - Google Patents

学習支援装置および学習支援方法 Download PDF

Info

Publication number
JP6931624B2
JP6931624B2 JP2018097591A JP2018097591A JP6931624B2 JP 6931624 B2 JP6931624 B2 JP 6931624B2 JP 2018097591 A JP2018097591 A JP 2018097591A JP 2018097591 A JP2018097591 A JP 2018097591A JP 6931624 B2 JP6931624 B2 JP 6931624B2
Authority
JP
Japan
Prior art keywords
value
output value
influence
update
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018097591A
Other languages
English (en)
Other versions
JP2019204190A (ja
Inventor
佐藤 直人
直人 佐藤
啓伸 來間
啓伸 來間
雄一郎 中川
雄一郎 中川
秀人 野口
秀人 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018097591A priority Critical patent/JP6931624B2/ja
Priority to US16/412,559 priority patent/US11494638B2/en
Publication of JP2019204190A publication Critical patent/JP2019204190A/ja
Application granted granted Critical
Publication of JP6931624B2 publication Critical patent/JP6931624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)
  • Machine Translation (AREA)

Description

本発明は、学習支援装置および学習支援方法に関するものであり、具体的には、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新を可能とする技術に関する。
予測分析など、従来のIF−THEN形式のプログラムでは十分な精度が望めなかった問題に対して、近年、DNN(Deep Neural Network)等の機械学習で開発したプログラ
ム(モデルと呼ぶ)の有効性が注目されている。
こうした機械学習では、学習のために収集したデータに基づいてモデルを生成する。そのため、生成したモデルの振る舞いは、生成に利用したデータに依存する。
一方、そうしたデータは、あくまで過去の或る時期における所定の現象を捉えたものに過ぎない。換言すれば、その現象が経年変化する場合、収集時期によって当該データの分布や傾向も大きく変化してしまう可能性がある。そのため、当該データに基づくモデルにおいては、時間を経るごと、すなわちその入力データが変化すると共に、その精度は劣化する恐れが高い。
例えば、株の値動きなどは社会の影響を大きく受ける。よって、社会環境の異なる過去のデータに基づいて株取引モデルを開発しても、現在の株取引には有効性が低いと考えられる。
こうしたモデルの劣化に関連する従来技術としては、例えば、データ収集とモデル更新のための追加学習機能を備え、収集したデータを使って運用時にモデルを更新するシステム(非特許文献1参照)などが提案されている。
The Missing Piece in Complex Analytics: Low Latency、 Scalable Model Management and Serving with Velox、 UC Berkeley、2014
しかしながら、上述の追加学習に使用するデータやハイパーパラメータが不適切だった場合、更新によってモデルが改悪される場合がある。しかも、そうした追加学習は運用時に実行されるため、モデル改悪はシステムの誤り率増加に直結する。
そこで本発明の目的は、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新を可能とする技術を提供することにある。
上記課題を解決する本発明の学習支援装置は、ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置と、所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場
合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、演算装置と、を備えることを特徴とする。
また、本発明の学習支援方法は、ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置を備えた情報処理装置が、所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、ことを特徴とする。
本発明によれば、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新が可能となる。
本実施形態の学習支援装置の構成例を示す図である。 本実施形態における学習支援装置のハードウェア構成例を示す図である。 本実施形態における出力値の例1を示す図である。 本実施形態における出力値の例2を示す図である。 本実施形態における期待出力値の例を示す図である。 本実施形態の学習支援方法のフロー例1を示す図である。 本実施形態における損失関数の計算概念例を示す図である。 本実施形態における勾配ベクトルの計算概念例を示す図である。 本実施形態における逆損失関数の計算概念例1を示す図である。 本実施形態における逆損失関数の計算概念例2を示す図である。 本実施形態における逆勾配ベクトルの計算概念例を示す図である。 本実施形態の学習支援方法のフロー例2を示す図である。 本実施形態における悪影響値の計算概念例1を示す図である。 本実施形態における悪影響値の計算概念例2を示す図である。 本実施形態における悪影響値の計算概念例3を示す図である。 本実施形態における悪影響値の計算概念例4を示す図である。 本実施形態における良影響値の計算概念例を示す図である。 本実施形態における全体影響値の計算概念例を示す図である。 本実施形態における入力値ごとの影響値の例を示す図である。 本実施形態の学習支援方法のフロー例3を示す図である。
−−−学習支援装置の機能構成−−−
以下に本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施形態の学習支援装置100の構成例を示す図である。図1に示す学習支援装置100は、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新を
可能とするコンピュータ装置である。なお、本実施形態では上述のモデルを、機械学習プログラムたるDNNプログラムと称して説明するものとする。
通常、DNNの学習では、DNNプログラムの実行結果が誤答だった場合、正答(教師データ)との差分を損失関数として表し、その損失関数の値が減少するようにDNNプログラムを変更する。一方、本実施形態の学習支援装置100においては、DNNプログラムの実行結果が正答だった場合に、それと近しい誤答との差分を逆損失関数として取り扱う。そして、所定の学習によってDNNプログラムの更新値が決まった際に、その更新値が上述の逆損失関数をどの程度減少させるか、即ち正答から誤答にどの程度近づくかという、DNNプログラム改悪の度合いを影響度として計算する。学習支援装置100は、この影響度を指標に、複数通りの学習を試行することで、DNNプログラム改悪の可能性が極力少ない更新値を選択することとなる。
こうした学習支援装置100は、図1にて示すように、入力値保持部110、DNNプログラム実行部111、DNNプログラム保持部112、出力値保持部113、期待出発値保持部114、訓練入力値保持部115、訓練出力値保持部116、DNNプログラム訓練部117、逆勾配ベクトル作成部118、勾配ベクトル保持部119、逆勾配ベクトル保持部120、影響計算部121、入力値ごとの影響値保持部122、重み・バイアス更新値保持部123、DNNプログラム更新部124、および、回帰テスト実行部125、を備えている。
これらは、学習支援装置100が備えるプログラムおよびハードウェアを協働させ実装される機能部である。
このうち、入力値保持部110は、上述のDNNプログラム1121への入力値を保持している。この入力値は、特に限定はしないが、例えば、或る期待出力値に関して生成された、テスト入力値から構成されている。また、DNNプログラム1121の例として、画像認識プログラムを以降では想定する。
本実施形態で一例として想定する入力値は数字を表示している画像データであり、これを上述のDNNプログラム1121たる画像認識プログラムに与えた場合に認識される数字として、期待している数字を期待出力値(図5)。とする。
また、DNNプログラム実行部111は、DNNプログラム1121(後述するDNNプログラム保持部112から読み出す)に上述の入力値を入力として与えて実行させ、その出力値(実行出力値)を取得する。
また、DNNプログラム保持部112は、DNNプログラム1121を保持している。このDNNプログラム1121は、ニューラルネットワークにより生成されたプログラムである。本実施形態では、このDNNプログラム1121の一例として、画像認識プログラムを想定する。
また、出力値保持部113は、上述のDNNプログラム実行部111による実行で得た実行出力値たる出力値1131を保持している。この出力値1131の詳細は後述する(図3、4)。
また、期待出力値保持部114は、上述の期待出力値1141を保持している。この期待出力値1141の詳細は後述する(図5)。
上述の、入力値保持部110の保持する入力値、出力値保持部113の保持する出力値1131、および、期待出力値保持部114の保持する期待出力値1141、の組が、本発明における実行情報に相当する。
また、訓練入力値保持部115は、DNNプログラム訓練部117に対する訓練用の入力値を保持しており、訓練出力値保持部116は、DNNプログラム訓練部117における上述の訓練用の入力値に対して出力すべき、訓練用の出力値を保持している。
訓練用の入力値とは、例えば、DNNプログラム1121の作成や直近の更新から以降に得た(生成の概念含む)、いわゆる新鮮な入力値が相当する。訓練用の出力値は、この訓練用の入力値に応じた教師データたる出力値となる。
一方、DNNプログラム訓練部117は、DNNプログラム1121の学習を上述の訓練用の入力値を入力とした場合に、これに対する訓練出力値を出力するよう、DNNプログラム1121におけるパラメータを調整する。また、このDNNプログラム訓練部117は、上述の訓練を通じて得たパラメータ(例:後述する学習係数と、変化値である勾配ベクトル)を更新値1231として、重み・バイアス更新値保持部123(後述)に与える。
また、逆勾配ベクトル作成部118は、逆損失関数および損失関数を生成し、DNNプログラム1121におけるパラメータごとに、当該逆損失関数および当該損失関数のそれぞれにおける変化を表す変化値を生成し、これらのうち逆損失関数に関して求めた変化値を逆勾配ベクトル1201として逆勾配ベクトル保持部120に格納し、損失関数に関して求めた変化値を勾配ベクトル1191として勾配ベクトル保持部119に格納する。
この場合、逆勾配ベクトル作成部118は、逆損失関数の生成において、上述の入力値保持部110における所定の入力値に対する出力値1131と期待出力値1141とが一致する場合、当該期待出力値1141とは異なる出力値を所定ルールで誤答教師出力値として生成し、この誤答教師出力値と上述の出力値1131との差分に基づいて逆損失関数を生成する。
また、逆勾配ベクトル作成部118は、損失関数の生成において、上述の入力値保持部110における所定の入力値に対する出力値1131と期待出力値1141とが不一致の場合、当該期待出力値1141を正答教師出力値として生成し、この正答教師出力値と上述の出力値1131との差分に基づいて損失関数を生成する。
また、逆勾配ベクトル作成部118は、上述の変化値である逆勾配ベクトル1201および勾配ベクトル1191の生成において、手法として限定はしないが、一例をあげるとするならば、上述の逆損失関数および損失関数のそれぞれについて偏微分を行うことで、逆勾配ベクトル1201、および、勾配ベクトル1191を、上述の変化値の一形態として生成することができる。
また、影響計算部121は、重み・バイアス更新値保持部123の保持する上述の更新値1231が、上述の変化値である逆勾配ベクトル1201、勾配ベクトル1191に与える影響、を計算することで、当該更新値1231の起源となった学習(DNNプログラム訓練部117での訓練用の入力値、出力値に基づくパラメータの調整)の影響度を算定し、この影響度が所定の閾値以下である、すなわち悪影響の要素が所定基準以下であるか否かに基づいて当該更新(更新値1231でのパラメータ更新)の採否を決定する。
なお、この影響計算部121は、上述の影響度の算定に際し、上述のパラメータの更新値1231のベクトルと上述の逆勾配ベクトル1201(当該パラメータの逆損失関数の変化値のベクトル)との内積の算定値(悪影響値)から、当該パラメータの更新値1231のベクトルと上述の勾配ベクトル1191(当該パラメータの損失関数の変化値のベク
トル)との内積の算定値(良影響値)を差し引きした値を、影響度とするとできる。こうして得た影響度は、入力値ごとの影響値保持部122に格納するものとする。
また、上述の影響計算部121による影響度算定のバリエーションとして、実行情報の重要度に応じて予め定められた重み値を、対応するパラメータの更新値に関する内積に乗じ、影響度を算定する形態も想定できる。
或いは、上述の更新値のベクトルと逆勾配ベクトル1201との内積の算定値(悪影響値)、および、上述のパラメータの更新値のベクトルと勾配ベクトル1191との内積の算定値(良影響値)、をそれぞれべき乗した上で、上述の差し引きを行って影響度を算定する形態も想定できる。
さらには、上述のパラメータの更新値のベクトルと逆勾配ベクトル1201との内積の算定値に(悪影響値)、当該逆損失関数の生成対象となった実行情報の数を乗算した値から、上述のパラメータの更新値のベクトルと勾配ベクトル1191との内積の算定値(良影響値)に、当該損失関数の生成対象となった実行情報の数を乗算した値を差し引きし、影響度を算定する形態も想定できる。
なお、影響計算部121は、上述の採否の決定によって採用決定した更新値によるDNNプログラム1121の更新後(これはDNNプログラム更新部124による)、上述の採否の決定に用いる閾値を、予め定めたルールで所定程度低減するとすれば好適である。
また、DNNプロラム更新部124は、上述の影響計算部121による更新の採否判断の結果が更新可とのものであった場合に、当該更新値1231を重み・バイアス更新値保持部123から得て、これによりDNNプログラム保持部112におけるDNNプログラム1121を更新する。
また、回帰テスト実行部125は、影響計算部121により上述の更新値の採用が決定され、当該更新値によるDNNプログラム1121の更新後、当該DNNプログラム1121に関する回帰テストを実行する。
この場合の回帰テスト実行部125は、回帰テスト対象たるDNNプログラム1121の入力値として、上述の影響度が大きいもの、すなわち悪影響値が良影響値より相対的に大きいものから順に選択して回帰テストを実行する。そして、そのテスト結果が、当該入力値に対する出力値と期待出力値とが一致しない誤答であった場合の数をカウントし、当該カウントした値が所定基準を超えるものであった場合、当該更新をロールバックする。−−−ハードウェア構成−−−
また、本実施形態の学習支援装置100のハードウェア構成は以下の如くとなる。図2に、本実施形態の学習支援装置100のハードウェア構成例を示す。
本実施形態の学習支援装置100は、外部記憶装置101、メモリ103、CPU104(演算装置)、入力装置105、出力装置106、および、外部媒体入出力装置107、を備える。
このうち外部記憶装置101は、例えば、SSD(Solid State Drive)やハードディスクドライブなど適宜な不揮発性記憶素子で構成される記憶手段である。
また、メモリ103は、RAMなど揮発性記憶素子で構成される記憶手段である。
また、CPU104は、外部記憶装置101に保持されるプログラム102をメモリ1
03に読み出すなどして実行し装置自体の統括制御を行なうとともに各種判定、演算及び制御処理を行なう演算装置である。
また、入力装置105は、DNNプログラム1121の更新管理等の担当者など適宜なユーザからのキー入力や音声入力を受け付ける入力デバイスである。
また、出力装置106は、処理データの表示を行うディスプレイ等の表示デバイスである。
また、外部媒体入出力装置107は、可搬型メモリや磁気記憶媒体など、各種の記憶媒体と接続可能なインターフェイスを備え、当該記憶媒体との間でデータ授受を行う装置である。外部媒体入出力装置107が、上述の記憶媒体から読み取る情報としては、例えば、DNNプログラム1121、入力値、出力値、期待出力値、勾配ベクトル1191、逆勾配ベクトル1201、影響度1221、更新値1231、といった情報になる。
なお、外部記憶装置101内には、本実施形態の学習支援装置100として必要な機能を実装する為のプログラム102に加えて、DNNプログラム1121、入力値、出力値、期待出力値、勾配ベクトル1191、逆勾配ベクトル1201、影響度1221、更新値1231、が少なくとも記憶されている。これら情報の詳細については後述する。
−−−データ構造例−−−
続いて、本実施形態の学習支援装置100が用いる各種情報について説明する。図3および図4に、本実施形態における出力値の例をそれぞれ示す。
本実施形態における出力値1131は、所定の入力値(以下、入力ベクトル)を入力として与えられたDNNプログラム1121による実行出力値である。ここで、上述の入力ベクトルとは、例えば、或る数字(例:1)が描画された画像データである。よって、図3、4で例示した出力値113は、この画像データで描画されている数字の「1」を期待出力値とした場合の、各数字の確度をそれぞれ含んだ入力ベクトルを示している。
すなわち、図示した出力値1131は、入力ベクトルに対してDNNプログラム1121が出力した、各要素の値を含んで構成されたものとなっている。ここで言う「要素」は、入力ベクトルである上述の画像データで描画されており、画像認識結果となる数字の、“0”〜“9”、のそれぞれに該当する。よって出力値1131では、要素たる数字“0”〜“9”、のそれぞれに関して、DNNプログラム1121が判定した確度、の値から構成されている。
また、図5では、上述の期待出力値1141の一例を示し、要素たる数字“0”〜“9”、のそれぞれに関して、正答として期待される出力値たる確度の値から構成されている。上で述べたように、数字の「1」を期待出力値としている場合、数字の「1」に関する確度が「1.00」である一方、その他の数字に関する確度は全て「0.00」となっている。
−−−フロー例1−−−
以下、本実施形態における学習支援方法の実際手順について図に基づき説明する。以下で説明する学習支援方法に対応する各種動作は、学習支援装置100がメモリ等に読み出して実行するプログラム102によって実現される。そして、このプログラム102は、以下に説明される各種の動作を行うためのコードから構成されている。
図6は、本実施形態における学習支援方法のフロー例1を示す図である。なお、このフローの開始以前に、DNNプログラム訓練部117が、DNNプログラム1121の学習を訓練用の入力値(訓練入力値保持部115から取得)を入力とした場合に、これに対する訓練出力値(訓練出力値保持部116から取得)を出力するよう、DNNプログラム1
121におけるパラメータを調整し、当該訓練を通じて得たパラメータ(学習係数ηと勾配ベクトル∇P)を更新値1231とし、これを重み・バイアス更新値保持部123に格納済みであるとする。なお、学習係数ηは定数値である。
この場合、学習支援装置100の逆勾配ベクトル作成部118は、入力値保持部110と、勾配ベクトル保持部119および逆勾配ベクトル保持部120とを参照し、全ての入力値について、勾配ベクトル1191および逆勾配ベクトル1201を作成したか判定する(s100)。
上述の判定の結果、全ての入力値について勾配ベクトル1191および逆勾配ベクトル1201を作成済みであった場合(s100:y)、逆勾配ベクトル作成部118は、当該フローを終了する。
他方、上述の判定の結果、全ての入力値について勾配ベクトル1191および逆勾配ベクトル1201を作成済みの状態ではなかった場合(s100:n)、逆勾配ベクトル作成部118は、例えば、ユーザ指定か或いは任意の入力値(いずれも勾配ベクトル1191および逆勾配ベクトル1201を未作成のもの)について、その出力値および期待出力値を、出力値保持部113および期待出力値保持部114から取得する(s101)。
なお、逆勾配ベクトル作成部118は、入力値に関して本フローの処理を実行するごとに、入力値保持部110において、該当入力値に処理済みフラグを付与するものとする。よって、逆勾配ベクトル作成部118は、s100の判定およびs101での未処理の出力値1131および期待出力値1141の取得は、上述のフラグの有無に基づいて実行することとなる。
次に、逆勾配ベクトル作成部118は、s101で得た出力値1131および期待出力値1141に関して、その要素のうち最も大きな値を持つ要素が一致するか判定する(s102)。
上述の判定の結果、最も大きな値を持つ要素が一致しなかった、すなわち誤答であった場合(s102:n)、逆勾配ベクトル作成部118は、正答教師出力値を作成し(s103)、それに基づき損失関数を作成する(s104)。
図7に、或る出力値に関して作成した正答教師出力値の例と、これに基づく損失関数の例を示す。図示するように、出力値1131としては数字「7」の確度が最大となっているが、対応する期待出力値1141としては、要素のうち数字「1」の確度が最大であるべきであったとする。すなわち、出力値1131は誤答であった。その場合、逆勾配ベクトル作成部118は、正答教師出力値としては、期待出力値1141のとおり数字「1」の確度が「1.00」である正答教師出力値を作成する。また、損失関数としては、出力値「y」から正答教師出力値「t」を減算した値の二乗値を要素ごとに集計し、その半値をとった関数を損失関数としている。こうした損失関数の作成手法は、あくまでも一例であり、既存の損失関数の作成手法を適宜に採用すればよい。
続いて、逆勾配ベクトル作成部118は、s104で得た損失関数を偏微分し、勾配ベクトル1191を作成し(s105)、これを勾配ベクトル保持部119において入力値(s101における「任意の入力値」)と対応付けて格納した上で、処理をs100に戻す。こうした勾配ベクトル1191の生成手法については限定せず、他の手法を適宜に採用すればよい。
他方、上述のs102での判定の結果、最も大きな値を持つ要素が一致した、すなわち
正答であった場合(s102:y)、逆勾配ベクトル作成部118は、誤答教師出力値を作成し(s106)、これに基づき逆損失関数を作成する(s107)。
この場合、逆勾配ベクトル作成部118は、逆損失関数の生成において、当該期待出力値1141とは異なる出力値を所定ルールで誤答教師出力値として生成し、この誤答教師出力値と上述の出力値1131との差分に基づいて逆損失関数を生成する。
誤答教師出力値の生成に際しての上述のルールとしては、図9にて例示するように、例えば、出力値1131の要素のうち、その確度が2番目に大きな値について、「1.00」すなわち最大値とし、その他の要素を全て「0.00」とするルールが想定できる。
或いは図10にて例示するように、出力値1131の要素のうち最大の値と2番目に大きな値との平均値を算定し、当該平均値で当該最大の値を減算する一方、当該平均値を上述の2番目に大きな値に加算する、といったものも想定できる。なお、逆損失関数の生成手法としては損失関数の生成手法と同様である。
続いて、逆勾配ベクトル作成部118は、s107で得た逆損失関数を偏微分(図11)し、逆勾配ベクトル1201を作成し(s108)、これを逆勾配ベクトル保持部120において入力値(s101における「任意の入力値」)と対応付けて格納した上で、処理をs100に戻す。こうした逆勾配ベクトル1201の生成手法については勾配ベクトル1191の場合と同様に限定せず、他の手法を適宜に採用すればよい。
−−−フロー例2−−−
続いて、影響計算部121によるフローについて説明する。図12は、本実施形態における学習支援方法のフロー例2を示す図である。
この場合まず、影響計算部121は、重み・バイアス更新値保持部123の保持する上述の更新値1231を取得する(s200)。この更新値1231は、既に述べたように、学習係数をη、勾配ベクトルを∇Pとした場合の、−η・∇P、である。
続いて、影響計算部121は、入力値保持部110と入力値ごとの影響値保持部122とを参照し、全ての入力値について、良影響度および悪影響度を作成したか判定する(s201)。
上述の判定の結果、全ての入力値について良影響度および悪影響度を作成済みであった場合(s201:y)、影響計算部121は、処理をs208に遷移させる。
他方、上述の判定の結果、全ての入力値について良影響度および悪影響度を作成済みの状態ではなかった場合(s201:n)、影響計算部121は、例えば、ユーザ指定か或いは任意の入力値(いずれも良影響度および悪影響度を未作成のもの)を選択し(s202)、その入力値は勾配ベクトル1191および逆勾配ベクトル1201のいずれを持つか判定する(s203)。
この場合、影響計算部121は、当該入力値に関して、勾配ベクトル保持部119および逆勾配ベクトル保持部120で勾配ベクトル1191および逆勾配ベクトル1201の検索を実行する。
なお、影響計算部121は、入力値に関して本フローの処理を実行するごとに、入力値保持部110において、該当入力値に処理済みフラグを付与するものとする。よって、影響計算部121は、s201の判定およびs202での未処理の入力値の選択は、上述のフラグの有無に基づいて実行することとなる。
次に、影響計算部121は、s203の判定の結果、当該入力値に関して勾配ベクトル1191を特定できた場合(s203:勾配ベクトル)、当該勾配ベクトル1191を勾配ベクトル保持部119から取得する(s204)。
また、影響計算部121は、当該入力値に対する悪影響度を計算し(s205)、この結果を入力値ごとの影響値保持部122に格納した上、処理をs201に遷移させる。
なお、悪影響度の計算例を図13〜16にて示す。例えば、図13に示す計算例では、重み・バイアス更新値1231、すなわち−η・∇Pと、逆勾配ベクトル1201(図中では、“−∇M”)との内積を、入力値ごと(kごと)に集計するとしている。
また図14に示す計算例では、重み・バイアス更新値1231、すなわち−η・∇Pと、優先度pを乗じた逆勾配ベクトル1201(図中では、“−∇M”)との内積を、入力値ごと(kごと)に集計するとしている。この優先度pは、当該入力値の重要度に対応して予め設定してある重み値である。
また図15に示す計算例では、重み・バイアス更新値1231、すなわち−η・∇Pと、逆勾配ベクトル1201(図中では、“−∇M”)との内積を二乗したものを、入力値ごと(kごと)に集計するとしている。
また図16に示す計算例では、重み・バイアス更新値1231、すなわち−η・∇Pと、逆勾配ベクトル1201(図中では、“−∇M”)との内積を二乗したものを、入力値ごと(kごと)に集計し、これに当該逆損失関数の生成対象となった入力値の数を乗算するとしている。
他方、上述のs203の判定の結果、当該入力値に関して逆勾配ベクトル1201を特定できた場合(s203:逆勾配ベクトル)、影響計算部121は、当該逆勾配ベクトル1201を逆勾配ベクトル保持部120から取得する(s206)。
また、影響計算部121は、当該入力値に対する良影響度を計算し(s207)、この結果を入力値ごとの影響値保持部122に格納した上、処理をs201に遷移させる。
上述の良影響度の計算は、図17にて例示するように、重み・バイアス更新値1231、すなわち−η・∇Pと、勾配ベクトル1191(図中では、“−∇L”)との内積を、入力値ごと(kごと)に集計するとしている。なお、良影響値の計算についても、上述の悪影響度の計算例(図13〜16)と同様のバリエーションを適宜に採用してよい。
ここで図12のフローの説明に戻る。s201での判定の結果、全ての入力値について良影響度および悪影響度を作成済みであった場合(s201:y)、影響計算部121は、入力値ごとに計算した悪影響度と良影響値の値を、入力値ごとの影響値保持部122から読み出し、これらに基づき全体影響度を算定する(s208)。
この全体影響度の算定手法の例を図18に示す。ここで示すように、影響計算部121は、入力値ごとに求めた、悪影響度から良影響度のを差し引きして、全体影響度を算定する。
続いて、影響計算部121は、s208で得た全体影響度が所定の閾値以下である、すなわち悪影響の要素が所定基準以下であるか否かに基づいて、当該更新(更新値1231、すなわちη・∇Pでのパラメータ更新)の採否を判定する(s209)。
この判定の結果、当該更新(更新値1231、すなわちη・∇Pでのパラメータ更新)の採用可と判定したならば、影響計算部121は、その旨をDNNプロラム更新部124に通知し、処理を終了する。この場合、DNNプロラム更新部124は、上述の影響計算部121による更新可との通知を受け、当該更新値1231を重み・バイアス更新値保持部123から得て、これによりDNNプログラム保持部112におけるDNNプログラム1121を更新する。
他方、上述の判定の結果、当該更新(更新値1231、すなわちη・∇Pでのパラメータ更新)の採用不可と判定したならば、影響計算部121は、例えば、DNNプログラム訓練部117に対し、当該DNNプログラム1121の再訓練を指示し、当該フローを終了する。
なお、影響計算部121は、上述の採否の決定によって採用決定した更新値によるDNNプログラム1121の更新後(これはDNNプログラム更新部124による)、上述の採否の決定に用いる閾値を、予め定めたルールで所定程度低減するとすれば好適である。−−−フロー例3−−−
続いて、回帰テスト実行部125によるフローについて説明する。図20は、本実施形態における学習支援方法のフロー例3を示す図である。なお、本フローは、影響計算部121により上述の更新値の採用が決定され、当該更新値によるDNNプログラム1121の更新が実行された後に開始されるものとする。
この場合、回帰テスト実行部125は、入力値ごとの影響値保持部122を参照し、入力値のうち悪影響値が良影響値より相対的に大きいもので、本フローで未処理のものを、例えば1つ以上取得できたか判定する(s300)。
この判定の結果、入力値のうち種別が「悪影響」のもの(すなわち、悪影響度が良影響度より相対的に大きいもの)を、本フローで既に規定数以上取得できている、すなわち処理済みである場合(s300:y)、回帰テスト実行部125は、処理をs307に遷移させる。
なお、回帰テスト実行部125は、入力値に関して本フローの処理を実行するごとに、入力値ごとの影響値保持部122において、該当入力値に処理済みフラグを付与するものとする。よって、回帰テスト実行部125は、s300の判定に際し、上述のフラグの数が規定数か判定することとなる。
一方、上述の判定の結果。入力値のうち種別が「悪影響」のものを、本フローで既に規定数以上取得できた状態ではない場合(s300:n)、回帰テスト実行部125は、入力値ごとの影響値保持部122において、未選択すなわち上述のフラグが付与されていない入力値のうち、悪影響度が最も大きいものを選択する(s301)。
続いて、回帰テスト実行部125は、DNNプログラム実行部111を呼び出し、s301で選択した入力値を与えてDNNプログラム1121を実行させ、その出力値を得る(s302)。
また回帰テスト実行部125は、こうした回帰テストを実行した結果、そのテスト結果が、当該入力値に対する出力値と期待出力値との間で、最も大きな値を持つ要素が一致するものであるか判定する(s303)。
上述の判定の結果、上述のテスト結果が、当該入力値に対する出力値と期待出力値との間で、最も大きな値を持つ要素が一致しなかった場合(s303:n)、回帰テスト実行部125は、当該回帰テストの実行結果を「誤答」と判定し(s304)、メモリ103でカウントしている誤答数の値をインクリメントする(s306)。
他方、上述の判定の結果、上述のテスト結果が、当該入力値に対する出力値と期待出力値との間で、最も大きな値を持つ要素が一致した場合(s303:y)、回帰テスト実行部125は、当該回帰テストの実行結果を「正答」と判定し(s305)、処理をs300に遷移させる。
こうした、s300〜s306の一連の処理を繰り返した結果、s300での判定で、入力値のうち種別が「悪影響」のもの(すなわち、悪影響度が良影響度より相対的に大きいもの)を、本フローで既に規定数以上取得できている、すなわち処理済みである(s300:y)となった場合、回帰テスト実行部125は、メモリ103で保持している誤答数の値が所定基準を超えるか判定する(s307)。
上述の判定の結果、誤答数が基準を超えないものであった場合(s307:n)、回帰テスト実行部125は、処理を終了する。
他方、上述の判定の結果、誤答数が基準を超えるものであった場合(s307:y)、回帰テスト実行部125は、DNNプログラム更新部124に対し、当該更新のロールバックを指示し、当該DNNプログラム1121を上述の更新前の状態に戻し(s308)、処理を終了する。
なお、上述の学習支援装置および学習支援方法は、車両等の自動運転システムにおける画像認識技術に適用可能である。自動運転システムにおける画像認識技術は、例えば道路上の交通標識のイメージデータ(車両等が搭載したカメラで取得したもの)から、当該交通標識の種類を特定し、それが指し示す事柄を自動運転システムに通知するものとなる。
そのため、本実施形態の学習支援装置および学習支援方法を、こうした自動運転システムの画像認識に適用する場合、交通標識の特定精度が継続的に維持・改善される。
また、上述の実施形態とは別に、モデルを多重化して運用する方法も想定できる。例えば、更新したモデルをしばらく従系として実行することで改悪の有無を確認し、改悪がなかった場合のみ主系に切り替えるといった運用がそれにあたる。ただし、この方法を採用しても、本来の目的であるモデル更新が迅速に行えない問題は残る。
以上、本発明を実施するための最良の形態などについて具体的に説明したが、本発明はこれに限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。
こうした本実施形態によれば、機械学習により生成したモデルの更新に際し、当該モデルの改悪を低減し、迅速なモデル更新が可能となる。
本明細書の記載により、少なくとも次のことが明らかにされる。すなわち、本実施形態の学習支援装置において、前記演算装置は、前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して前記影響度を算定するものである、としてもよい。
これによれば、ベクトルである影響度を精度よく特定可能となる。ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記影響度の算定に際し、前記実行情報の重要度に応じて予め定められた重み値を、対応するパラメータの更新値に関する前記内積に乗じ、前記影響度を算定するものである、としてもよい。
これによれば、悪影響がおよぶことを特に回避したい実行情報に関して、悪影響の影響感度を高め、ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記損失関数の生成に際し、所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合の前記教師出力値を誤答教師出力値として生成し、前記誤答教師出力値と前記実行出力値との差分に基づいて逆損失関数を生成するとともに、所定の入力値に対する前記実行出力値と前記期待出力値とが不一致の場合、前記期待出力値を正答教師出力値として生成し、前記正答教師出力値と前記実行出力値との差分に基づいて損失関数を生成するものであり、前記変化値の生成に際し、前記逆損失関数および前記損失関数のそれぞれについて、その変化を表す変化値を生成し、前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値を差し引きした値を、前記影響度とするものである、としてもよい。
これによれば、更新の悪影響と良影響を併せて考慮することが可能となり、ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値、および、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値、をそれぞれべき乗した上で前記差し引きを行って前記影響度を算定するものである、としてもよい。
これによれば、悪影響および良影響の影響感度を高め、ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値に、当該逆損失関数の生成対象となった実行情報の数を乗算した値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値に、当該損失関数の生成対象となった実行情報の数を乗算した値を差し引きして前記影響度を算定するものである、としてもよい。
これによれば、悪影響および良影響の影響感度を的確に高め、ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記影響度が所定の閾値以下である場合に前記更新値の採用を決定し、前記採用を決定した前記更新値による前記機械学習プログラムの更新後、前記閾値を所定程度低減するものである、としてもよい。
これによれば、機械学習モデルの精度が高まるにつれ、その更新内容が軽微、すなわち
更新値による影響が小さくなり、更新値の採否も厳格に行うべき状況となる事象に対応することが可能となる。ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
また本実施形態の学習支援装置において、前記演算装置は、前記更新値の採用を決定し、当該採用を決定した前記更新値による前記機械学習プログラムの更新後、前記機械学習プログラムに関する回帰テストを実行するに際し、その入力値として、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して得た前記影響度が大きいものから順に選択して回帰テストを実行し、そのテスト結果が、当該入力値に対する実行出力値と前記期待出力値とが一致しない誤答であった場合の数をカウントし、当該カウントした値が所定基準を超えるものであった場合、前記更新をロールバックするものである、としてもよい。
これによれば、更新による機械学習プログラムの精度改善がみられず、かえって精度が悪化するような更新を行う事態が生じてもこれに対処することが可能である。ひいては、機械学習により生成したモデルの更新に際し、当該モデルの改悪をさらに低減し、迅速なモデル更新が可能となる。
100 学習支援装置
101 外部記憶装置
102 プログラム
103 メモリ
104 CPU(演算装置)
105 入力装置
106 表示装置
107 外部媒体入出力装置
110 入力値保持部
111 DNNプログラム実行部
112 DNNプログラム保持部
1121 DNNプログラム
113 出力値保持部
1131 出力値
114 期待出力値保持部
1141 期待出力値
115 訓練入力値保持部
116 訓練出力値保持部
117 DNNプログラム訓練部
118 逆勾配ベクトル作成部
119 勾配ベクトル保持部
1191 勾配ベクトル
120 逆勾配ベクトル保持部
1201 逆勾配ベクトル
121 影響計算部
122 入力値ごとの影響値保持部
1221 影響値
123 重み・バイアス更新値保持部
1231 更新値
124 DNNプログラム更新部
125 回帰テスト実行部

Claims (9)

  1. ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置と、
    所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、演算装置と、
    を備えることを特徴とする学習支援装置。
  2. 前記演算装置は、
    前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して前記影響度を算定するものである、
    ことを特徴とする請求項1に記載の学習支援装置。
  3. 前記演算装置は、
    前記影響度の算定に際し、前記実行情報の重要度に応じて予め定められた重み値を、対応するパラメータの更新値に関する前記内積に乗じ、前記影響度を算定するものである、
    ことを特徴とする請求項2に記載の学習支援装置。
  4. 前記演算装置は、
    前記損失関数の生成に際し、所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合の前記教師出力値を誤答教師出力値として生成し、前記誤答教師出力値と前記実行出力値との差分に基づいて逆損失関数を生成するとともに、所定の入力値に対する前記実行出力値と前記期待出力値とが不一致の場合、前記期待出力値を正答教師出力値として生成し、前記正答教師出力値と前記実行出力値との差分に基づいて損失関数を生成するものであり、
    前記変化値の生成に際し、前記逆損失関数および前記損失関数のそれぞれについて、その変化を表す変化値を生成し、
    前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値を差し引きした値を、前記影響度とするものである、
    ことを特徴とする請求項2に記載の学習支援装置。
  5. 前記演算装置は、
    前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値、および、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値、をそれぞれべき乗した上で前記差し引きを行って前記影響度を算定するものである、
    ことを特徴とする請求項4に記載の学習支援装置。
  6. 前記演算装置は、
    前記影響度の算定に際し、前記パラメータの更新値のベクトルと当該パラメータの前記逆損失関数の変化値のベクトルとの内積の算定値に、当該逆損失関数の生成対象となった実行情報の数を乗算した値から、前記パラメータの更新値のベクトルと当該パラメータの前記損失関数の変化値のベクトルとの内積の算定値に、当該損失関数の生成対象となった
    実行情報の数を乗算した値を差し引きして前記影響度を算定するものである、
    ことを特徴とする請求項4に記載の学習支援装置。
  7. 前記演算装置は、
    前記影響度が所定の閾値以下である場合に前記更新値の採用を決定し、前記採用を決定した前記更新値による前記機械学習プログラムの更新後、前記閾値を所定程度低減するものである、
    ことを特徴とする請求項1に記載の学習支援装置。
  8. 前記演算装置は、
    前記更新値の採用を決定し、当該採用を決定した前記更新値による前記機械学習プログラムの更新後、前記機械学習プログラムに関する回帰テストを実行するに際し、その入力値として、前記パラメータの更新値のベクトルと当該パラメータの前記変化値のベクトルとの内積を算定して得た前記影響度が大きいものから順に選択して回帰テストを実行し、そのテスト結果が、当該入力値に対する実行出力値と前記期待出力値とが一致しない誤答であった場合の数をカウントし、当該カウントした値が所定基準を超えるものであった場合、前記更新をロールバックするものである、
    ことを特徴とする請求項1に記載の学習支援装置。
  9. ニューラルネットワークのアルゴリズムに従って動作する機械学習プログラムの、入力値、その実行結果である実行出力値、および、前記入力値に関して期待される出力値である期待出力値、の組を実行情報として保持する記憶装置を備えた情報処理装置が、
    所定の入力値に対する前記実行出力値と前記期待出力値とが一致する場合に、前記期待出力値とは異なる出力値を所定ルールで教師出力値として生成し、前記教師出力値と前記実行出力値との差分に基づいて損失関数を生成し、前記ニューラルネットワークにおけるパラメータごとに前記損失関数の変化を表す変化値を生成し、所定の学習によって得られた前記パラメータの更新値が、前記変化値に与える影響を計算することで当該学習の影響度を算定し、前記影響度に基づいて前記更新値の採否を決定する、
    ことを特徴とする学習支援装置。
JP2018097591A 2018-05-22 2018-05-22 学習支援装置および学習支援方法 Active JP6931624B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018097591A JP6931624B2 (ja) 2018-05-22 2018-05-22 学習支援装置および学習支援方法
US16/412,559 US11494638B2 (en) 2018-05-22 2019-05-15 Learning support device and learning support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018097591A JP6931624B2 (ja) 2018-05-22 2018-05-22 学習支援装置および学習支援方法

Publications (2)

Publication Number Publication Date
JP2019204190A JP2019204190A (ja) 2019-11-28
JP6931624B2 true JP6931624B2 (ja) 2021-09-08

Family

ID=68614651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018097591A Active JP6931624B2 (ja) 2018-05-22 2018-05-22 学習支援装置および学習支援方法

Country Status (2)

Country Link
US (1) US11494638B2 (ja)
JP (1) JP6931624B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293988B2 (ja) * 2019-08-27 2023-06-20 富士通株式会社 学習プログラム、判定処理プログラム、学習装置、判定処理装置、学習方法および判定処理方法
CN112287476B (zh) * 2020-10-13 2021-11-23 西安电子科技大学 一种知识驱动的电子设备机箱参数化模型自动生成方法
CN112396003A (zh) * 2020-11-20 2021-02-23 平安科技(深圳)有限公司 模型训练方法、识别方法、装置、设备及存储介质
CN112965703B (zh) * 2021-03-02 2022-04-01 华南师范大学 克服多头领导的教师主导人工智能教育机器人
CN113240079A (zh) * 2021-04-29 2021-08-10 华为技术有限公司 一种模型训练方法及装置
US11693765B2 (en) * 2021-10-11 2023-07-04 Sap Se Unified regression platform for regression testing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885438B2 (en) * 2015-12-28 2021-01-05 Microsoft Technology Licensing, Llc Self-stabilized deep neural network
US20180174042A1 (en) * 2016-12-20 2018-06-21 Intel Corporation Supervised training and pattern matching techniques for neural networks
US10657259B2 (en) * 2017-11-01 2020-05-19 International Business Machines Corporation Protecting cognitive systems from gradient based attacks through the use of deceiving gradients
US11443178B2 (en) * 2017-12-15 2022-09-13 Interntional Business Machines Corporation Deep neural network hardening framework

Also Published As

Publication number Publication date
JP2019204190A (ja) 2019-11-28
US11494638B2 (en) 2022-11-08
US20190362228A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6931624B2 (ja) 学習支援装置および学習支援方法
JP6382354B2 (ja) ニューラルネットワーク及びニューラルネットワークのトレーニング方法
CN110663049B (zh) 神经网络优化器搜索
US10395646B2 (en) Two-stage training of a spoken dialogue system
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
JP2017129896A (ja) 機械学習装置、機械学習方法及び機械学習プログラム
Alhindi et al. MOEA/D with tabu search for multiobjective permutation flow shop scheduling problems
JP2014102578A (ja) 情報処理装置、制御方法、プログラム、及び記録媒体
US20110173145A1 (en) Classification of a document according to a weighted search tree created by genetic algorithms
US20180052441A1 (en) Simulation system, simulation method, and simulation program
CN110991621A (zh) 一种基于通道数搜索卷积神经网络的方法
JP2019159888A (ja) 機械学習システム
CN116401954A (zh) 一种锂电池循环寿命的预测方法、预测装置、设备及介质
Lu et al. Adaptive online data-driven closed-loop parameter control strategy for swarm intelligence algorithm
JP2014160457A (ja) 対話的変数選択装置、対話的変数選択方法および対話的変数選択プログラム
JP7111966B2 (ja) 最適化装置及び最適化装置の制御方法
JP4498666B2 (ja) 予測装置、予測プログラム、および記録媒体
WO2022244260A1 (ja) 方策推定装置、方策推定方法、およびプログラム
CN115345303A (zh) 卷积神经网络权重调优方法、装置、存储介质和电子设备
CN112416709B (zh) 芯片动态功耗估计方法、装置、处理器芯片及服务器
CN110959172A (zh) 演奏解析方法及程序
CN111027709B (zh) 信息推荐方法、装置、服务器及存储介质
Araújo et al. Towards understanding the role of learning models in the dynamics of the minority game
CN114330090A (zh) 一种缺陷检测方法、装置、计算机设备和存储介质
JP2021015420A (ja) 演算処理装置、制御プログラム、及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200828

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6931624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150