JP7047283B2 - 情報処理装置、方法、及びプログラム - Google Patents

情報処理装置、方法、及びプログラム Download PDF

Info

Publication number
JP7047283B2
JP7047283B2 JP2017161476A JP2017161476A JP7047283B2 JP 7047283 B2 JP7047283 B2 JP 7047283B2 JP 2017161476 A JP2017161476 A JP 2017161476A JP 2017161476 A JP2017161476 A JP 2017161476A JP 7047283 B2 JP7047283 B2 JP 7047283B2
Authority
JP
Japan
Prior art keywords
learning
neural network
pipeline
error
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017161476A
Other languages
English (en)
Other versions
JP2019040365A (ja
Inventor
淳樹 井上
博 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017161476A priority Critical patent/JP7047283B2/ja
Publication of JP2019040365A publication Critical patent/JP2019040365A/ja
Application granted granted Critical
Publication of JP7047283B2 publication Critical patent/JP7047283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

開示の技術は、情報処理装置、方法、及びプログラムに関する。
従来、神経回路網の抽象化モデルである多層ネットワークの学習時間を大幅に短縮する神経回路網学習装置が知られている。この神経回路網学習装置は、問題データを情報源とした前向き伝搬処理、及び出力値の誤差を情報源とした後向き伝搬処理を、幾つかの基本演算要素に分解し、更に、重みの同期修正機構と、処理の中間結果を格納するスタックを付加した構成を有する。
また、パイプライン方法と並列学習方法とを組み合わせることによって、誤差逆伝搬学習を加速化する技術が知られている。
特開平1‐248268号公報
S. Zickenheiner, M. Wendt, B. Klauer, "Pipelining and Parallel Training of Neural Networks on Distributed-Memory Multiprocessors", Neural Networks, 1994. IEEE World Congress on Computational Intelligence.
パイプライン学習によってニューラルネットワークを学習させる場合、パイプライン学習の初期における学習速度は、通常の学習処理の学習速度に比べ速い。しかし、パイプライン学習の後期においては、通常の学習処理の学習速度よりもパイプライン学習の学習速度の方が遅くなる場合がある。
一つの側面では、開示の技術は、ニューラルネットワークをパイプライン学習のみによって学習させる場合に比べ、ニューラルネットワークを高速に学習させることが目的である。
開示の技術は、一つの実施態様では、情報処理装置の学習部は、学習パターンを用いてニューラルネットワークを学習させる。学習部は、ニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返す。そして、学習部は、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える。
一つの側面として、ニューラルネットワークをパイプライン学習のみによって学習させる場合に比べ、ニューラルネットワークを高速に学習させることができる、という効果を有する。
実施形態に係る情報処理装置の概略ブロック図である。 学習パターン記憶部に格納されるテーブルの一例を示す図である。 ニューラルネットワークを説明するための説明図である。 パイプライン学習を説明するための説明図である。 パイプライン学習による学習速度と通常学習による学習速度とを説明するための図である。 本実施形態における学習処理を説明するための説明図である。 誤差記憶部に格納されるテーブルの一例を示す図である。 実施形態に係る情報処理装置として機能するコンピュータの概略構成を示すブロック図である。 第1の実施形態の情報処理ルーチンの一例を示すフローチャートである。 第2の実施形態の情報処理ルーチンの一例を示すフローチャートである。 第3の実施形態の情報処理ルーチンの一例を示すフローチャートである。 第4の実施形態の情報処理ルーチンの一例を示すフローチャートである。 第5の実施形態の情報処理ルーチンの一例を示すフローチャートである。 第6の実施形態の情報処理ルーチンの一例を示すフローチャートである。 シミュレーション結果の一例を示す図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
<第1の実施形態>
図1に示すように、第1の実施形態に係る情報処理装置10は、学習パターン記憶部12と、学習部14と、誤差記憶部16と、モデル記憶部18とを備えている。
学習パターン記憶部12には、複数の学習パターンが格納されている。複数の学習パターンは、例えば、図2に示されるように、テーブルの形式で格納される。図2に示すテーブルには、学習パターンの識別情報を表す学習パターンIDと、学習パターンと、学習パターンに対する期待値とが対応付けられて格納される。
学習部14は、学習パターン記憶部12に格納された複数の学習パターンを用いて、ニューラルネットワークを学習させる。例えば、学習部14は、図2に示されているテーブルに格納された学習パターンXXXがニューラルネットワークへ入力された場合には、ニューラルネットワークから期待値YYYが出力されるように、ニューラルネットワークの各レイヤーの結合係数を学習させる。
図3に、ニューラルネットワークを説明するための説明図を示す。図3に示されるように、ニューラルネットワークNは、複数のニューロン素子Neをフィードフォワード型に接続した構造を持つ。ニューラルネットワークNはニューロン素子Ne同士の結合係数Wを適切に設定する事により優れた推論能力を持たせることができる。
フィードフォワード型のネットワーク構造を持つニューラルネットワークの学習においては、バックプロパゲーション法を用いた学習方法が主に用いられる。バックプロパゲーション法では、図3に示されるように、学習パターンLPをニューラルネットワークNへ入力してフォワード方向に演算しながら伝搬させた後、出力側の誤差を入力側に向かってバックワード側に伝搬させる。具体的には、フォワード方向の演算を表す推論処理Eと、バックワード側の演算を表す学習処理Lとが交互に行われる。この際、1つの学習パターンに対する学習処理Lにおいて、ニューラルネットワークの結合係数が更新され、結合係数が最適値に近くなるように学習される。そして、1つの学習パターンに対する学習処理Lにおいて、ニューラルネットワークの全ての結合係数の更新が終了した後、次の学習パターンがニューラルネットワークへ入力される。ニューラルネットワークのニューロン素子の数が多く、かつ深いレイヤー構造を持つニューラルネットワークの学習においては、学習対象の結合係数の数が非常に多いため、学習処理に時間がかかる。
この方法に対して、ニューラルネットワークの各レイヤーの演算をパイプライン化することによって学習処理を高速化させるパイプライン学習が知られている。パイプライン学習では、特定の学習パターンによる結合係数の更新が終了する前に、次の学習パターンをニューラルネットワークへ入力し、ニューラルネットワークの各レイヤーを並列動作させる。そのため、パイプライン学習では、ニューラルネットワークの各ニューロン素子で行われるフォワード側の演算とバックワード側の演算とが並列に行われる。
図4に、パイプライン学習を説明するための説明図を示す。図4では、ニューラルネットワークの推論処理と学習処理との時系列の関係が示されている。
図4に示されるように、通常学習NLでは、学習パターン1についての推論処理Eと学習処理Lとが行われた後に、学習パターン2についての推論処理Eと学習処理Lとが行われる。通常の学習では、入力される1つの学習パターンで全てのレイヤーの結合係数が学習し終えてから次の学習パターンが入力される。
一方、パイプライン学習では、1つの学習パターンによる学習が終了する前に、次々と他の学習パターンが入力される。具体的には、図4に示されるように、パイプライン学習PLでは、学習パターン1についての推論処理Eが行われているときに、学習パターン1とは異なる学習パターン(図4に示される例では、学習パターン2、学習パターン3、及び学習パターン4)の推論処理が開始される。また、学習パターン1についての学習処理Lが行われているときに、学習パターン1とは異なる学習パターン(図4に示される例では、学習パターン2、学習パターン3、及び学習パターン4)の学習処理が開始される。
パイプライン学習では、ニューラルネットワークの各レイヤーが並列の動作をするため、学習の高速化が可能となる。しかし、パイプライン学習では、1つの学習パターンによる結合係数の更新が終わる前に、次の学習パターンの入力が行われるため、正しくない推論処理が行われ、フォワード側の演算において誤差を含むデータが伝搬されてしまう。なお、ニューラルネットワークの入力に近いレイヤーから、誤差を含むデータが伝搬されることが多い。ニューラルネットワークの入力に近いレイヤーでは、学習パターンがニューラルネットワークへ入力されてから結合係数の更新までに長い時間を要するためである。
このため、パイプライン学習による学習の初期の段階では、パイプライン化によって学習速度を大幅に向上させることができるが、学習の後期の段階では学習速度が低下する。そのため、パイプライン学習を用いてニューラルネットワークを学習させる場合には、通常学習と比較して学習品質が許容値に達するまでの学習速度が低下する場合がある。このため、パイプライン学習を用いてニューラルネットワークを学習させる場合、所定の時間内では、通常学習で得られる学習品質に到達しない場合がある。
図5に、パイプライン学習による学習速度と通常学習による学習速度とを説明するための図を示す。図5に示されるように、学習の初期の段階T1では、通常学習の学習曲線NLcに比べパイプライン学習の学習曲線PLcの方が誤認識率の低下速度が速く、高速に学習が行われる。しかし、学習の後期の段階T2では、パイプライン学習の学習曲線PLcと比べ通常学習の学習曲線NLcの方が誤認識率の低下速度が速くなる。そのため、図5に示されるように、誤認識率が許容値Thに達するまでには、ニューラルネットワークを通常学習によって学習させる場合には時刻t1を要するが、パイプライン学習ではより多くの学習時間を要する。このことから、パイプライン学習の後期においては、学習の収束性に関してパイプライン学習が寄与しないことがわかる。
図3に示されるように、パイプライン学習は、ニューラルネットワークのニューロン素子を並列に演算させることでレイヤー方向Lyのニューロン素子に対する動作の並列化に適している方法である。一方、パイプライン学習では、フォワード側で誤差のあるデータが出力方向Fwに伝搬されるため、1つの学習パターンによる学習に着目すると、通常学習の方が結合係数の最適値に近づけやすい。
ニューラルネットワークの学習が開始される際には、結合係数はランダムな値に設定されるため、結合係数の値は最適値に対して大きく異なっていることが多い。このため、パイプライン学習が行われるときに、フォワード側の誤差が大きい場合であっても、結合係数の更新には影響が少なく、各レイヤーのニューロン素子の演算の並列化による学習の高速化の効果が大きい。一方、パイプライン学習の後期においては、パイプライン学習によって発生するフォワード側の誤差の影響の方が顕著になり、より正確な結合係数の更新が行われる通常学習によって学習を行う方が高速になる。
このため、本実施形態では、ニューラルネットワークの学習の初期の段階ではパイプライン学習を用い、ニューラルネットワークの学習の後期の段階では通常学習を用いることにより、ニューラルネットワークの学習の高速化を図る。
図6に、本実施形態における学習処理を説明するための説明図を示す。図6に示されるように、本実施形態では、パイプライン学習PLと通常学習NLとの2つのモードを適切なタイミングCで切り替える。タイミングCでパイプライン学習PLから通常学習NLへ切り替えることにより、学習期間Taの学習の高速性が学習期間Tbへ移行される。このため、学習の初期においてはパイプライン学習の学習処理の高速性が活かされ、かつ学習の後期においては通常学習の学習処理の収束性が活かされるため、認識誤差が高速に低下する。これにより、図6に示されるように、本実施形態の学習による学習曲線はMLcとなり、学習時間が低減される。
ニューラルネットワークの学習においては、ニューラルネットワークの出力値とその期待値とが比較される。第1の実施形態では、学習パターンをニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差に応じて、パイプライン学習と通常学習とを切り替える。一般に、出力誤差が大きい場合は、結合係数の値が最適値から大きくずれていることを示しており、出力誤差が小さい場合には、結合係数の値が最適値に近づき学習が進んでいることを示す。
学習部14は、パイプライン学習によってニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標の一例である出力誤差が、予め定められた出力誤差に関する閾値より小さい場合に、パイプライン学習を通常学習に切り替える。そして、学習部14は、通常学習によってニューラルネットワークを学習させる。第1の実施形態では、1つ目の学習パターンを学習させたときの出力誤差E(1)に対して所定の係数A1を乗算した値を、予め定められた出力誤差に関する閾値として用いる。なお、所定の係数A1は、0<A1<1を満たす固定値である。
誤差記憶部16には、パイプライン学習によってニューラルネットワークを学習させる際の出力誤差Eが格納される。出力誤差Eは、例えば、図7に示されるように、テーブルの形式で格納される。図7に示すテーブルには、学習パターンの番号iと、その学習パターンに対する出力誤差Eとが対応付けられて格納される。
モデル記憶部18には、学習部14によって学習されたニューラルネットワークの結合係数Wが格納される。
情報処理装置10は、例えば、図8に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、表示装置、入出力装置等(図示省略)が接続される入出力interface(I/F)54、及び記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を情報処理装置10として機能させるための情報処理プログラム60が記憶されている。情報処理プログラム60は、学習プロセス62を有する。情報記憶領域63には、学習パターン記憶部12を構成する情報と、誤差記憶部16を構成する情報と、モデル記憶部18を構成する情報とが記憶される。
CPU51は、情報処理プログラム60を記憶部53から読み出してメモリ52に展開し、情報処理プログラム60が有するプロセスを順次実行する。CPU51は、学習プロセス62を実行することで、図1に示す学習部14として動作する。また、CPU51は、情報記憶領域63から情報を読み出して、学習パターン記憶部12をメモリ52に展開する。また、CPU51は、情報記憶領域63から情報を読み出して、誤差記憶部16をメモリ52に展開する。また、CPU51は、情報記憶領域63から情報を読み出して、モデル記憶部18をメモリ52に展開する。これにより、情報処理プログラム60を実行したコンピュータ50が、情報処理装置10として機能することになる。ソフトウェアである情報処理プログラム60を実行するCPU51はハードウェアである。
なお、情報処理プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、第1の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、ニューラルネットワークをパイプライン学習によって学習させ、出力誤差E(i)を誤差記憶部16へ逐次格納する。そして、情報処理装置10は、図9に示す情報処理ルーチンを実行する。
ステップS100において、学習部14は、誤差記憶部16に格納された、最新の番号iの学習パターンについての出力誤差E(i)と、番号1の学習パターンについての出力誤差E(1)とを取得する。
ステップS102において、学習部14は、上記ステップS100で取得した出力誤差E(i)と出力誤差E(1)とに基づき、出力誤差E(i)が出力誤差E(1)に対して所定の係数A1を乗算した値よりも小さいか否かを判定する。出力誤差E(i)が、出力誤差E(1)に対して所定の係数A1を乗算した値よりも小さい場合には、ステップS104へ進む。一方、出力誤差E(i)が、出力誤差E(1)に対して所定の係数A1を乗算した値以上の場合には、ステップS100へ戻る。
ステップS104において、学習部14は、パイプライン学習を通常学習へ切り替えるための指示信号を結果として出力する。学習部14は、パイプライン学習を通常学習へ切り替えるための指示信号に基づき、通常学習によってニューラルネットワークを学習させる。
以上説明したように、本実施形態に係る情報処理装置は、出力誤差が予め定められた出力誤差に関する閾値より小さい場合に、パイプライン学習によるニューラルネットワークの学習から通常学習によるニューラルネットワークの学習へ切り替える。これにより、ニューラルネットワークをパイプライン学習のみによって学習させる場合に比べ、ニューラルネットワークを高速に学習させることができる。
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態では、前時刻の出力誤差と現時刻の出力誤差との間の比較結果に応じて、パイプライン学習から通常学習へ切り替える点が第1の実施形態と異なる。なお、第2の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。
第2の実施形態では、番号i-1の学習パターンをニューラルネットワークへ学習させたときの前時刻の出力誤差E(i-1)と、番号iの学習パターンをニューラルネットワークへ学習させたときの現時刻の出力誤差E(i)との比較結果に応じて、パイプライン学習を通常学習へ切り替える。
具体的には、学習部14は、現時刻の出力誤差E(i)が、前時刻の出力誤差E(i-1)に対して所定の係数A2を乗算した値よりも大きい場合に、ニューラルネットワークの学習をパイプライン学習から通常学習へ切り替える。なお、所定の係数A2は、0<A2<1を満たす固定値である。
次に、第2の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、ニューラルネットワークをパイプライン学習によって学習させ、出力誤差E(i)を誤差記憶部16へ逐次格納する。そして、情報処理装置10は、図10に示す情報処理ルーチンを実行する。
ステップS200において、誤差記憶部16に格納された、現時刻の出力誤差E(i)と、前時刻の出力誤差E(i-1)とを取得する。
ステップS202において、学習部14は、現時刻の出力誤差E(i)が、前時刻の出力誤差E(i-1)に対して所定の係数A2を乗算した値よりも大きいか否かを判定する。現時刻の出力誤差E(i)が、前時刻の出力誤差E(i-1)に対して所定の係数A2を乗算した値よりも大きい場合には、ステップS104へ進む。一方、現時刻の出力誤差E(i)が、前時刻の出力誤差E(i-1)に対して所定の係数A2を乗算した値以下の場合には、ステップS200へ戻る。
以上説明したように、本実施形態に係る情報処理装置は、前時刻の出力誤差と現時刻の出力誤差との間の比較結果に応じて、パイプライン学習によるニューラルネットワークの学習から通常学習によるニューラルネットワークの学習へ切り替える。これにより、前時刻の出力誤差と現時刻の出力誤差とに基づき、前時刻の出力誤差に比べ現時刻の出力誤差が低下していない場合に、パイプライン学習から通常学習へ切り替えることができる。
<第3の実施形態>
次に、第3の実施形態について説明する。第3の実施形態では、複数の学習パターンによる学習を表すエポックを用いたパイプライン学習によってニューラルネットワークを学習させることを繰り返す。そして、エポックの複数の学習パターンの各々をニューラルネットワークへ入力したときの出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合にパイプライン学習から通常学習へ切り替える点が第1又は第2の実施形態と異なる。なお、第3の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。
ニューラルネットワークの学習処理において、一般に、学習パターンは1度だけ使われるのではなく、繰り返し何度も使われることが多い。複数の学習パターンを表す1組のデータを入力する過程は、一般にはエポックと称される。1エポックを用いた学習が終了すると、同一の学習パターンがニューラルネットワークへ入力され、学習が行われる。
第1及び第2の実施形態では、1つの学習パターンの出力誤差を基準として、パイプライン学習と通常学習とを切り替える場合を例に説明したが、学習パターン毎の出力誤差の変動は大きい場合がある。そのため、1つの学習パターンの出力誤差を判断基準にする場合には、パイプライン学習と通常学習との間の切り替えのタイミングが適切ではない場合がある。
そこで、第3の実施形態の学習部14は、学習の進捗に関する指標の一例である、エポックに含まれる複数の学習パターンの各々をニューラルネットワークへ入力したときの出力誤差の総和を表す誤差積分に応じて、パイプライン学習から通常学習へ切り替える。
具体的には、第3の実施形態の学習部14は、複数の学習パターンによる学習を表す1エポックの間の出力誤差の総和を表す誤差積分を算出する。j番目のエポックに含まれる複数の学習パターンの各々をニューラルネットワークへ入力したときの出力誤差E(i,j)の総和を表す誤差積分は、以下の式(1)によって表される。なお、iは学習パターンの番号を表す。
Figure 0007047283000001

(1)
そして、学習部14は、エポックの誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、パイプライン学習から通常学習へ切り替える。本実施形態では、1つ目のエポックによる学習の誤差積分に対して所定の係数B1を乗算した値を、予め定められた誤差積分に関する閾値として用いる。なお、所定の係数B1は、0<B1<1を満たす固定値である。具体的には、学習部14は、以下の式(2)を満たす場合に、ニューラルネットワークの学習処理をパイプライン学習から通常学習へ切り替える。
Figure 0007047283000002

(2)
エポックに含まれる学習パターンの出力誤差を積算することにより、学習パターン毎の出力誤差の変動が緩和されるため、学習の切り替えのタイミングを適切に設定することができる。
次に、第3の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、ニューラルネットワークをパイプライン学習によって学習させ、上記式(1)によって得られる誤差積分を誤差記憶部16へ逐次格納する。そして、情報処理装置10は、図11に示す情報処理ルーチンを実行する。
ステップS300において、学習部14は、誤差記憶部16に格納された、最新のエポックの番号jについての誤差積分ΣE(i,j)と、エポックの番号1についての誤差積分ΣE(i,1)とを取得する。
ステップS302において、学習部14は、上記ステップS300で取得した誤差積分ΣE(i,j)と誤差積分ΣE(i,1)とに基づき、上記式(2)が満たされるか否かを判定する。上記式(2)が満たされる場合には、ステップS104へ進む。一方、上記式(2)が満たされない場合には、ステップS300へ戻る。
以上説明したように、第3の実施形態に係る情報処理装置は、複数の学習パターンによる学習を表すエポックを用いたパイプライン学習によってニューラルネットワークを学習させることを繰り返す。そして、エポックの複数の学習パターンの各々をニューラルネットワークへ入力したときの出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、パイプライン学習から通常学習へ切り替える。これにより、学習パターン毎の出力誤差の変動が大きい場合であっても、適切なタイミングでパイプライン学習から通常学習へ切り替えることができる。
<第4の実施形態>
次に、第4の実施形態について説明する。第4の実施形態では、第3の実施形態と同様に、複数の学習パターンによる学習を表すエポックを用いたパイプライン学習によってニューラルネットワークを学習させることを繰り返す。第4の実施形態では、前時刻の誤差積分と現時刻の誤差積分との間の比較結果に応じて、パイプライン学習から通常学習へ切り替える点が第3の実施形態と異なる。なお、第4の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。
具体的には、第4の実施形態の学習部14は、第3の実施形態と同様に、上記式(1)に従って、1エポックの誤差積分を算出する。そして、学習部14は、以下の式(3)を満たす場合に、ニューラルネットワークの学習処理をパイプライン学習から通常学習へ切り替える。なお、所定の係数B2は、0<B2<1を満たす固定値である。
Figure 0007047283000003

(3)
上記式(3)が満たされる場合に学習方法を切り替えることにより、エポック間で誤差積分が変動しなくなった場合に、学習が十分進んだものとして、パイプライン学習から通常学習へ切り替えることができる。
次に、第4の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、ニューラルネットワークをパイプライン学習によって学習させ、上記式(1)によって得られる誤差積分を誤差記憶部16へ逐次格納する。そして、情報処理装置10は、図12に示す情報処理ルーチンを実行する。
ステップS400において、学習部14は、誤差記憶部16に格納された、現時刻のエポックの番号jについての誤差積分ΣE(i,j)と、前時刻のエポックの番号j-1についての誤差積分ΣE(i,j-1)とを取得する。
ステップS402において、学習部14は、上記ステップS400で取得した誤差積分ΣE(i,j)と誤差積分ΣE(i,j-1)とに基づき、上記式(3)が満たされるか否かを判定する。上記式(3)が満たされる場合には、ステップS104へ進む。一方、上記式(3)が満たされない場合には、ステップS400へ戻る。
以上説明したように、第4の実施形態に係る情報処理装置は、前時刻の誤差積分と現時刻の誤差積分との間の比較結果に応じて、パイプライン学習から通常学習へ切り替える。これにより、前時刻の誤差積分に比べ現時刻の誤差積分が低下していない場合に、パイプライン学習から通常学習へ切り替えることができる。
<第5の実施形態>
次に、第5の実施形態について説明する。第5の実施形態では、第1~第4の実施形態と同様に、パイプライン学習によってニューラルネットワークを学習させることを繰り返す。そして、学習パターンとは異なる、期待値が付与されたテスト用パターンをニューラルネットワークへ入力したときの出力誤差を表すテスト誤差が予め定められたテスト誤差に関する閾値より小さい場合に、パイプライン学習から通常学習に切り替える。なお、第5の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。
第1~第4の実施形態では、学習パターンの出力誤差を用いてパイプライン学習から通常学習へ切り替えを行うが、ニューラルネットワークの学習結果の品質は、学習に使用しないテストデータによって測定される。
そこで、第5の実施形態では、学習に使用しないテストデータの誤認識率を表すテスト誤差を用いて、パイプライン学習から通常学習へ切り替える。なお、テストデータを用いて学習結果の品質を測定することをバリデーションという。学習結果の品質の測定方法は、ニューラルネットワークの出力値と期待値との差によって測定されるため、テスト誤差は出力誤差と同等であるが、入力データが未知である点が異なる。
第5の実施形態の学習部14は、学習の進捗に関する指標の一例であるテスト誤差が予め定められたテスト誤差に関する閾値Cより小さい場合に、パイプライン学習から通常学習に切り替える。なお、閾値Cは、0<C<1を満たす固定値である。
次に、第5の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、予め設定されたエポック数分のパイプライン学習によってニューラルネットワークを学習させる。そして、情報処理装置10は、図13に示す情報処理ルーチンを実行する。
ステップS500において、学習部14は、学習パターンとは異なる、期待値が付与されたテスト用パターンをニューラルネットワークへ入力したときのテスト誤差rを算出することにより、バリデーションを実行する。
ステップS502において、学習部14は、上記ステップS500で算出されたテスト誤差rが、テスト誤差に関する閾値Cより小さいか否かを判定する。テスト誤差rが、テスト誤差に関する閾値Cより小さい場合には、ステップS104へ進む。一方、テスト誤差rが、テスト誤差に関する閾値C以上の場合には、ステップS506へ進む。
ステップS506において、学習部14は、パイプライン学習を継続するための指示信号を結果として出力する。学習部14は、パイプライン学習を継続するための指示信号に基づき、パイプライン学習によってニューラルネットワークを学習させる。
以上説明したように、第5の実施形態に係る情報処理装置は、テスト誤差が予め定められたテスト誤差に関する閾値より小さい場合に、パイプライン学習から通常学習に切り替える。これにより、ニューラルネットワークの学習結果の品質を表すバリデーションの結果に応じて、パイプライン学習から通常学習に切り替えることができる。
<第6の実施形態>
次に、第6の実施形態について説明する。第6の実施形態では、第1~第5の実施形態と同様に、パイプライン学習によってニューラルネットワークを学習させることを繰り返す。そして、第5の実施形態では、前時刻のテスト誤差と現時刻のテスト誤差との間の比較結果に応じて、パイプライン学習から通常学習に切り替える点が第5の実施形態と異なる。なお、第6の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。
具体的には、第6の実施形態の学習部14は、第5の実施形態と同様に、学習に使用しないテストデータの誤認識率を表すテスト誤差を算出する。そして、学習部14は、以下の式(4)を満たす場合に、ニューラルネットワークの学習処理をパイプライン学習から通常学習へ切り替える。
r(k)>D*r(k-1) (4)
なお、kはバリデーションを識別するための番号である。r(k)は、現時刻のバリデーションによるテスト誤差を表す。また、r(k-1)は、前時刻のバリデーションによるテスト誤差を表す。なお、所定の係数Dは、0<D<1を満たす固定値である。
次に、第6の実施形態に係る情報処理装置10の作用について説明する。情報処理装置10は、ニューラルネットワークの学習処理に関する指示信号を受け付けると、予め設定されたエポック数分のパイプライン学習によってニューラルネットワークを学習させる。そして、情報処理装置10は、図14に示す情報処理ルーチンを実行する。
ステップS601において、学習部14は、ステップS500で算出されたテスト誤差を誤差記憶部16へ格納する。ステップS601で格納されたテスト誤差は、次回の情報処理ルーチンの実行の際に用いられる。
ステップS602において、学習部14は、誤差記憶部16へ格納された前時刻k-1のテスト誤差r(k-1)を読み出す。そして、学習部14は、ステップS500で取得されたテスト誤差r(k)と読み出したテスト誤差r(k-1)とに基づき、上記式(4)が満たされるか否かを判定する。上記式(4)が満たされる場合には、ステップS104へ進む。一方、上記式(4)が満たされない場合には、ステップS506へ進む。
以上説明したように、第6の実施形態に係る情報処理装置は、前時刻のテスト誤差と現時刻のテスト誤差との間の比較結果に応じて、パイプライン学習から通常学習に切り替える。これにより、ニューラルネットワークの学習結果の品質を表すバリデーションの結果に応じて、前時刻のバリデーションの結果に比べ現時刻のバリデーションの結果が向上していない場合に、パイプライン学習から通常学習へ切り替えることができる。
なお、上記では、各プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記録媒体に記録された形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
<実施例>
図15に、パイプライン学習、通常学習、及びパイプライン学習と通常学習とを組み合わせた学習(本実施形態に係る方法)についてのシミュレーション結果を示す。
図15に示される例は、5段のCNN(Convolutional Neural Network)構造のニューラルネットワークに、手書き数字の認識処理を行わせるための学習処理のシミュレーション結果である。図15では、実線がパイプライン学習の学習曲線PLcを表し、一点差線が通常学習の学習曲線NLcを表し、点線が本実施形態の手法での学習処理の学習曲線MLcを表す。
図15に示されるように、通常学習の学習曲線NLcにおいては、誤認識率1%の許容値Xに学習時間Tx2で到達する。一方、本実施形態の手法による学習処理の学習曲線MLcにおいては、誤認識率1%の許容値Xに学習時間Tx1で到達する。図15に示されるように、本実施形態の手法による学習処理によって、学習時間は約10倍短縮されていることがわかる。また、パイプライン学習の単独の学習処理に比べて、100倍以上の学習速度の高速化が可能であることがわかる。
次に、各実施形態の変形例を説明する。
上記各実施形態では、パイプライン学習と通常学習とを単に切り替える場合を例に説明したがこれに限定されるものではない。例えば、ニューラルネットワークの各レイヤーのパイプライン化の度合いを段階的に切り替えてニューラルネットワークを学習させても良い。パイプライン化の度合いを段階的に切り替える場合には、例えば、パイプラインの学習の並列の度合いに関する複数の閾値を予め設定する。そして、学習の進捗に関する指標としての、出力誤差、誤差積分、及びテスト誤差の少なくとも1つと、パイプラインの学習の並列の度合いに関する複数の閾値とに応じて、パイプラインの学習の並列の度合いを段階的に切り替えるようにしてもよい。例えば、第1のパイプライン学習によってニューラルネットワークを学習させ、学習の進捗に関する指標に応じて、第1のパイプライン学習とは異なる第2のパイプライン学習によるニューラルネットワークの学習に切り替えるようにすることができる。この場合、第1のパイプライン学習と第2のパイプライン学習とで、ニューラルネットワークの各レイヤーの学習の並列の度合いが異なる。
また、上記各実施形態は、所定の係数であるA1,A2,B1,B2,C,Dは予め設定されている場合を例に説明したが、外部装置から適宜設定できるようにしてもよい。その場合には、例えば、A1,A2,B1,B2,C,Dは、シミュレーション実験結果から設定されるようにしてもよい。
また、上記第1及び第2の実施形態は、短時間で学習処理を収束させることができる。上記第3及び第4の実施形態は、上記第1及び第2の実施形態に比べ、出力誤差毎の変動がある場合であっても、学習処理を短時間で収束させることができる。更に、上記第3及び第4の実施形態は、実際の学習品質としてのバリデーション結果に応じて、学習処理を短時間で収束させることができる。
また、第1及び第2の実施形態では、他の実施形態と比較し、パイプライン学習から通常学習への切り替えタイミングの判定を簡易に行うことができる。一方、第5及び第6の実施形態では、テスト誤差を用いるため、他の実施形態と比較し、パイプライン学習から通常学習への切り替えタイミングの判定を精度良く行うことができる。このため、パイプライン学習から通常学習への切り替えタイミングの判定の簡易性を求める場合には、第1及び第2の実施形態の何れか一方を用いることができる。一方、パイプライン学習から通常学習への切り替えタイミングの判定の確実性を求める場合には、第5及び第6の実施形態の何れか一方を用いることができる。第3及び第4の実施形態は、パイプライン学習から通常学習への切り替えタイミングの判定の簡易性及び確実性については、第1及び第2の実施形態と第5及び第6の実施形態との間に位置する手法である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える学習部
を備える情報処理装置。
(付記2)
前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差が予め定められた出力誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記1に記載の情報処理装置。
(付記3)
前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す前時刻の出力誤差と現時刻の前記出力誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記2に記載の情報処理装置。
(付記4)
前記学習部は、複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記2に記載の情報処理装置。
(付記5)
前記学習部は、複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す現時刻の誤差積分と現時刻の前記誤差積分との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記2に記載の情報処理装置。
(付記6)
前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記学習パターンとは異なる、期待値が付与されたテスト用パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差を表すテスト誤差が予め定められたテスト誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記2に記載の情報処理装置。
(付記7)
前記学習部は、前記学習の進捗に関する指標としての、前記学習パターンとは異なる、期待値が付与されたテスト用パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差を表す前時刻のテスト誤差と現時刻の前記テスト誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記2に記載の情報処理装置。
(付記8)
学習パターンを用いてニューラルネットワークを学習させる際に、第1のパイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記第1のパイプライン学習とは前記ニューラルネットワークの各レイヤーの学習の並列の度合いが異なる第2のパイプライン学習による前記ニューラルネットワークの学習に切り替える学習部
を備える情報処理装置。
(付記9)
学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
処理をコンピュータに実行させるためのプログラム。
(付記10)
前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差が予め定められた出力誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記9に記載のプログラム。
(付記11)
前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す前時刻の出力誤差と現時刻の前記出力誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記9に記載のプログラム。
(付記12)
複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記9に記載のプログラム。
(付記13)
複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す現時刻の誤差積分と現時刻の前記誤差積分との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記9に記載のプログラム。
(付記14)
前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記学習パターンとは異なる、期待値が付与されたテスト用パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差を表すテスト誤差が予め定められたテスト誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記9に記載のプログラム。
(付記15)
学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
処理をコンピュータに実行させるための情報処理方法。
(付記16)
前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差が予め定められた出力誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記16に記載の情報処理方法。
(付記17)
前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す前時刻の出力誤差と現時刻の前記出力誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記17に記載の情報処理方法。
(付記18)
複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記17に記載の情報処理方法。
(付記19)
複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す現時刻の誤差積分と現時刻の前記誤差積分との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
付記17に記載の情報処理方法。
(付記20)
学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
処理をコンピュータに実行させるためのプログラムを記憶した記憶媒体。
10 情報処理装置
12 学習パターン記憶部
14 学習部
16 誤差記憶部
18 モデル記憶部
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記録媒体
60 情報処理プログラム

Claims (10)

  1. 学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える学習部
    を備える情報処理装置。
  2. 前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差が予め定められた出力誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  3. 前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、学習パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す前時刻の出力誤差と現時刻の前記出力誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  4. 前記学習部は、複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す誤差積分が、予め定められた誤差積分に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  5. 前記学習部は、複数の前記学習パターンによる学習を表すエポックを用いた前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記エポックの複数の前記学習パターンの各々を前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差の総和を表す時刻の誤差積分と現時刻の前記誤差積分との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  6. 前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、前記学習の進捗に関する指標としての、前記学習パターンとは異なる、期待値が付与されたテスト用パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差を表すテスト誤差が予め定められたテスト誤差に関する閾値より小さい場合に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  7. 前記学習部は、前記学習の進捗に関する指標としての、前記学習パターンとは異なる、期待値が付与されたテスト用パターンを前記ニューラルネットワークへ入力したときの出力値と期待値との間の誤差を表す出力誤差を表す前時刻のテスト誤差と現時刻の前記テスト誤差との間の比較結果に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1に記載の情報処理装置。
  8. 前記学習部は、前記パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返す際に、第1のパイプライン学習によって前記ニューラルネットワークを学習させ、学習の進捗に関する指標に応じて、前記第1のパイプライン学習とは前記ニューラルネットワークの各レイヤーの学習の並列の度合いが異なる第2のパイプライン学習による前記ニューラルネットワークの学習に切り替えた後に、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    請求項1~請求項7の何れか1項に記載の情報処理装置。
  9. 学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    処理をコンピュータに実行させるためのプログラム。
  10. 学習パターンを用いてニューラルネットワークを学習させる際に、パイプライン学習によって前記ニューラルネットワークを学習させることを繰り返し、学習の進捗に関する指標に応じて、前記パイプライン学習とは異なる通常学習による前記ニューラルネットワークの学習に切り替える、
    処理をコンピュータに実行させるための情報処理方法。
JP2017161476A 2017-08-24 2017-08-24 情報処理装置、方法、及びプログラム Active JP7047283B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017161476A JP7047283B2 (ja) 2017-08-24 2017-08-24 情報処理装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017161476A JP7047283B2 (ja) 2017-08-24 2017-08-24 情報処理装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019040365A JP2019040365A (ja) 2019-03-14
JP7047283B2 true JP7047283B2 (ja) 2022-04-05

Family

ID=65726535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161476A Active JP7047283B2 (ja) 2017-08-24 2017-08-24 情報処理装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7047283B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230040914A1 (en) * 2019-12-25 2023-02-09 Nec Corporation Learning device, learning method, and learning program
JP7485512B2 (ja) 2019-12-26 2024-05-16 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理方法、及び医用情報処理プログラム
CN113222118B (zh) * 2021-05-19 2022-09-09 北京百度网讯科技有限公司 神经网络训练方法、装置、电子设备、介质和程序产品

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138867A (ja) 2016-02-05 2017-08-10 富士通株式会社 演算処理回路、および情報処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0583217B1 (en) * 1992-08-11 2000-05-10 Hitachi Europe Limited Optimisation of feedforward neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138867A (ja) 2016-02-05 2017-08-10 富士通株式会社 演算処理回路、および情報処理装置
US20170228634A1 (en) 2016-02-05 2017-08-10 Fujitsu Limited Arithmetic processing circuit and information processing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
竹谷 史生, 外5名,"自己組織化学習アルゴリズムのFPGAシステムによる高速化",情報処理学会研究報告,日本,社団法人情報処理学会,1998年12月11日,Vol. 98, No. 113,pp.23-30

Also Published As

Publication number Publication date
JP2019040365A (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6620439B2 (ja) 学習方法、プログラム及び学習装置
JP7047283B2 (ja) 情報処理装置、方法、及びプログラム
US20190130277A1 (en) Ensembling of neural network models
JP2023139057A (ja) リソース制約付きニューラルネットワークアーキテクチャ検索
TW202111613A (zh) 評估材料機械性質的機器學習技術
WO2015118686A1 (ja) 階層型ニューラルネットワーク装置、判別器学習方法および判別方法
JP6579198B2 (ja) リスク評価方法、リスク評価プログラム及び情報処理装置
US11755904B2 (en) Method and device for controlling data input and output of fully connected network
JP7131393B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20180082167A1 (en) Recurrent neural network processing pooling operation
JP2021086371A (ja) 学習プログラム、学習方法および学習装置
JP6325762B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6528884B1 (ja) 学習プログラム、学習方法、及び情報処理装置
CN106662867A (zh) 使用条件模型来迁移故障样本以用于机器状况监视
KR102255470B1 (ko) 인공신경망 모델의 검증 방법 및 장치
CN114154615A (zh) 基于硬件性能的神经架构搜索方法和设备
JP7272121B2 (ja) 演算処理装置、制御方法、及び制御プログラム
TW202143042A (zh) 感測數據智能檢測方法與系統
JP2024003643A (ja) ニューラルネットワークの学習方法、コンピュータプログラム、及び余寿命予測システム
US8726100B2 (en) Non-transitory computer-readable recording medium in which a failure analyzing program is recorded, failure analyzing apparatus, and method for analyzing failure
CN111738407A (zh) 一种基于深度学习的钟差预测方法、装置、介质及终端
WO2009107313A1 (ja) 確率モデル選択装置、確率モデル選択方法、およびプログラム
JP2009187288A (ja) プロジェクト変調検出方法およびプロジェクト変調検出装置
JP7274441B2 (ja) 学習装置、学習方法および学習プログラム
KR102272189B1 (ko) 인공지능을 이용하여 소리를 생성하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150