JP6534987B2 - 摂動学習装置とその方法 - Google Patents

摂動学習装置とその方法 Download PDF

Info

Publication number
JP6534987B2
JP6534987B2 JP2016238304A JP2016238304A JP6534987B2 JP 6534987 B2 JP6534987 B2 JP 6534987B2 JP 2016238304 A JP2016238304 A JP 2016238304A JP 2016238304 A JP2016238304 A JP 2016238304A JP 6534987 B2 JP6534987 B2 JP 6534987B2
Authority
JP
Japan
Prior art keywords
learning
perturbation
weight
data
emphasis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016238304A
Other languages
English (en)
Other versions
JP2018097407A (ja
Inventor
晃洋 鴻野
晃洋 鴻野
志栞 小仁所
志栞 小仁所
岡 宗一
宗一 岡
枚田 明彦
明彦 枚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016238304A priority Critical patent/JP6534987B2/ja
Publication of JP2018097407A publication Critical patent/JP2018097407A/ja
Application granted granted Critical
Publication of JP6534987B2 publication Critical patent/JP6534987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mechanical Light Control Or Optical Switches (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Description

本発明は、学習演算を高速処理する摂動学習装置とその方法に関する。
近年、インターネットや様々なセンサから大量のデータを取得する環境が構築されるに伴い、そのデータを解析して高精度な知識処理や未来予測を行う研究及びビジネスが活発に行われている。この潮流の中で特に注目を集めている解析技術のひとつに、ディープラーニング(深層学習)と称されるものがある。
ディープラーニングとは、ニューラルネットワークを基本とした機械学習技術であり、ニューロンを多層に配置した人工神経回路網にデータを学習させることで、識別や判断を行う機能を有している。
一般に、ニューラルネットワークの学習とは、ニューロン同士を連結したシナプスの重みを更新することによって行われるが、昨今のディープラーニングでは学習データ数もシナプス数も大規模化しているため、学習に莫大な時間が掛かる。
このような背景の下、CPUやGPUなどのディジタル演算器に代替するアナログ演算器が注目されている。特に、光を信号の伝送媒体として用いる光コンピューティングは、ディープラーニングを高速化するアナログ演算器として有力と考えられている。
アナログ演算器用の学習アルゴリズムとしては、摂動学習法が提案されている。摂動学習法とは、シナプスの重み等の学習すべきパラメータを微少量変化させ、誤差関数に及ぼす影響をモニタすることで、パラメータの修正量を算出する方法である。
例えば非特許文献1に同時摂動最適化法が開示されている。
前田裕ほか1名、「同時摂動学習則を用いたニューラルネットワークによる2軸駆動型ロボットアームの追値制御」、電学論C、123巻、9号、2003年
しかしながら、従来の摂動学習法で計算する装置の構成は、出力値と教師値との比較を行い、誤差関数を最小化するように、重みを1つずつ逐次的に学習させる方式である。そのため、ニューラルネットワークの規模が大きい場合には、収束に膨大な時間を要するという課題がある。
本発明は、この課題に鑑みてなされたものであり、重み学習を高速に処理できる摂動学習装置とその方法を提供することを目的とする。
本実施形態の一態様に係る摂動学習装置は、複数の要素から成る学習データを前記要素ごとに分岐する分岐部と、前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、前記濾過データの要素ごとに乗じた値を加算した第1出力値を求める伝搬部と、前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求める摂動伝搬部と、前記摂動伝搬部と同じ数設けられ、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返す学習部と、前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める重み更新部とを備えることを要旨とする。
本実施形態の一態様に係る摂動学習方法は、上記の摂動学習装置が行う摂動学習方法であって、複数の要素から成る学習データを前記要素ごとに分岐し、前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値を求め、前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求め、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返し、前記強調重みのそれぞれに、前記変化量を加算して強調重みを求めることを要旨とする。
本発明によれば、重み学習を高速に処理できる摂動学習装置とその方法を提供することができる。
本発明の第1実施形態に係る摂動学習装置の機能構成例を示す図である。 本実施形態に係る摂動学習装置の動作フローを示す図である。 図1に示す摂動学習装置の伝搬部の構成を模式的に示す図である。 図1に示す摂動学習装置の学習部を構成する1個の学習部の構成例を示す図である。 本発明の第2実施形態に係る摂動学習装置の機能構成例を示す図である。
以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものに
は同じ参照符号を付し、説明は繰り返さない。
〔第1実施形態〕
図1に、第1実施形態に係る摂動学習装置1の機能構成例を示す。図2に、摂動学習装置1の動作フローを示す。
摂動学習装置1は、分岐部10、伝搬部20、摂動伝搬部30、学習部40、及び重み更新部50を備える。摂動学習装置1は、例えば階層型ニューラルネットワークの学習演算を高速に処理する。
分岐部10は、複数の要素から成る学習データXを要素ごとに分岐する(ステップS1)。学習データXは、例えばコヒーレント光源で与えられる。分岐部10は、この例では光分岐器を用いた。
学習データXは、例えば100ピクセルの特定の人の顔の画像データであると仮定する。分岐部10は、例えば100ピクセルの学習データを1×100個(n個)に分岐する。
分岐部10は、例えば石英平面光導波路(PLC)、フレキシブルポリマー光導波路などで構成する。分岐部10から出射する光信号は、各分岐出力に設けられたコリメータレンズによって平行光となって伝搬部20に入力される。なお、図1において、コリメータレンズの表記は省略している。光信号の波長は、例えば1550nmである。
伝搬部20は、学習データXのカテゴリによって要素の位置ごとの重みが異なるフィルタ係数を、要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値Oを求める(ステップS2)。濾過データは、摂動伝搬部30に出力される。学習データXのカテゴリは、学習データXが例えば画像データの場合の当該画像の種別(例えば人、猫、犬等)である。
要素の位置ごととは、分岐した学習データx,…,x,…,xの(以降n個を代表して添え字jで表記する場合がある。他の表記も同様である。)それぞれのことである。分岐部10の分岐出力のそれぞれは、学習データXの要素(ピクセル)と一対一で対応する。
フィルタ係数は、学習データXが例えば人の顔であれば、人の顔の目、鼻、口、及び耳等の位置ごとに重みが異なり、それらの特徴部分を強調する係数f,…,f,…,fである。つまり、x×fは、学習対象の特徴部分を濾過し易くした濾過データである。
伝搬部20は、濾過データの要素ごとに、当該濾過データを強調する強調重みwを乗じた値を加算した第1出力値Oを求める。伝搬部20について詳しくは後述する。
摂動伝搬部30は、強調重みwに、該強調重みwを補正する摂動係数δを加えた摂動重みw+δを生成し、濾過データ(x×f)のそれぞれに対応して設けられる。つまり、摂動伝搬部30は、n個の摂動伝搬部30〜30で構成される。以降において摂動伝搬部30の参照符号は、30と表記する。
摂動伝搬部30は、濾過データ(x×f)のそれぞれに摂動重みw+δを乗じて第2出力値Oδjを求める(ステップS3)。n個の第2出力値Oδjは、学習部40に出力される。
学習部40は、摂動伝搬部30と同じ数の学習部40〜40で構成される。学習部40は、第1出力値Oから学習目標を表す教師値Tを減じた第1コスト値E、第2出力値Oδjのそれぞれから教師値Tを減じた第2コスト値Eδj、摂動係数δ、及び学習速度の傾きを表す学習係数ηから、強調重みwを更新する変化量Δwj_newを求める(ステップS4)。この強調重みwを更新する変化量Δwj_newを求める処理は、図示しない制御部によって強調重みwが収束するまで繰り返される(ステップS5のNO)。
重み更新部50は、強調重みwのそれぞれに、変化量Δwj_newを加算して強調重みwjnewを求める(ステップS6)。ステップS6の計算は、強調重みwが収束するまで繰り返される。
以上説明した本実施形態の摂動学習装置1によれば、重み更新の計算を並列に処理するので重み学習を高速に処理できる。以降、図面を参照して各機能構成部を更に詳しく説明する。
(伝搬部)
図3に、伝搬部20のより具体的な構成例を示す。伝搬部20は、入力フィルタ21、強調フィルタ22、光結合器23、及び受光部24を備える。
入力フィルタ21は、学習データwの各々の光強度を、フィルタの透過率によってf倍に変換する。この作用は、例えば液晶を用いた光減衰フィルタを用いることで実現できる。光減衰フィルタの透過率は、1以上であることは原理的に不可能であるから、f>1の場合、変換係数a>1を用い、1>f/aと変換すれば良い。この場合、後段の例えば学習部40等でa倍に変換すれば良い。
入力フィルタ21は、光減衰器である電気光学変調器、音響光学変調器、及びMEMSミラー等で構成することができる。また、光増幅器を用いても良い。その場合は、光増幅器である半導体光増幅器(SOA)を用いることができる。
入力フィルタ21は、学習データXのカテゴリによって学習データの要素の位置ごとに重みが異なるフィルタ係数fを、学習データxに乗じた濾過データを出力する。入力フィルタ21は、学習するデータXのカテゴリに対応させて予め伝搬部20内に設けておく。又は、電気光学変調器の減衰率を、学習する度に設定するようにしても良い。
強調フィルタ22は、入力フィルタ21と同様に光減衰器である電気光学変調器等で構成することができる。強調フィルタ22の強調重みwは、重み更新部50で求めた変化量Δwj_newを、1回前の強調重みwjoldに加算した値である。
初期値の強調重みwは予め設定されている。初期値の強調重みwは、繰り返し更新され、収束値まで変化する。
光結合器23は、強調フィルタ22が出力する濾過データを強調(積演算)したデータ(x×f×w)を和演算する。この場合は、例えばLCOS(Liquid Crystal On Silicon)を用いて波面結合により積演算したデータを光結合しても良い。又は、PLCなどの光導波路を用いて結合しても良い。
光結合器23は、次式に示す第1出力値Oを出力する。
Figure 0006534987
受光器24は、第1出力値Oを電流値に変換する。
摂動伝搬部30は、伝搬部20の入力フィルタ21と光結合器23を削除して構成できる。つまり、摂動伝搬部30は、濾過データのそれぞれに摂動重みw+δを乗じて第2出力値Oδjを求めるものである。よって、摂動伝搬部30は、強調フィルタ22と受光部24の組みで構成できる。図3に対応する摂動伝搬部30の表記は省略する。
(学習部)
図4に、学習部40のより具体的な構成例を示す。学習部40は、例えばアナログ電気回路で構成することができる。
学習部40は、3個の差動増幅器41,42,43、及び計算部44を備える。学習部40は、jの参照符号から明らかなように摂動伝搬部30と同じ数だけ設けられる。
差動増幅器41は、伝搬部20が出力する第1出力値Oと、外部から入力される学習目標を表す教師値Tとの差分である第1コスト値E(O−T)を算出する。差動増幅器42は、摂動伝搬部30が出力する第2出力値Oδjと、教師値Tとの差分である第2コスト値Eδjを算出する。差動増幅器43は、第1コスト値Eと第2コスト値Eδjの差分E−Eδjを算出する。
計算部44は、外部から入力される強調重みwを補正する摂動係数δと学習速度の傾きを表す学習係数η、及び差動増幅器43が出力する差分E−Eδjを入力として、強調重みwを更新する変化量wj_newを次式で計算する。
Figure 0006534987
〔第2実施形態〕
図5に、第2実施形態に係る摂動学習装置2の機能構成例を示す。摂動学習装置2は、摂動学習装置1(図1)に対して判定部60を備える点で異なる。
判定部60は、第1コスト値Oが閾値より小さい場合に学習データXのカテゴリがフィルタ係数fのカテゴリと一致していることを表す一致信号を出力し、第1コスト値Oが閾値より大きい場合に学習データXのカテゴリがフィルタ係数fのカテゴリと不一致であることを表す不一致信号を出力する。
摂動学習装置2によれば、入力した学習データXが、学習する対象のカテゴリと一致しているか否かの判定を行うことができる。したがって、摂動学習装置2は、例えば画像識別に用いることができる。
(学習速度シミュレーション)
本実施形態の効果を確認する目的で、比較例と摂動学習装置1(図1)の学習速度の比較を行った。学習速度の比較は、ニューラルネットワークのハードウェアにおいて、1秒間に書き換え可能なパラメータの更新回数CUPS(Connections Updated Per Second)を比較することで行った。
シミュレーションの条件は、ニューラルネットワークの規模を、入力数1000ニューロン、総数10層の10000ニューロンと仮定した。また、四則演算を実行するために必要なクロック数は、和演算で2クロック、減演算で2クロック、積演算で4クロック、除演算で8クロック、指数演算で16クロックと仮定した。比較例のCPUによる重み書き換え数は、1.8MCUPSと試算された。
一方、学習部40を10個とし、入力フィルタ21の遅延時間を0.1ns、強調フィルタ22の遅延時間を0.1ns、受光部24の遅延時間を1ns、学習部40の遅延時間を0.1ns、及び繰り返し演算を制御する制御部の遅延時間を1nsと仮定した。この場合の摂動学習装置1による学習速度は、100MCUPSと試算された。
このように本実施形態の摂動学習装置1は、学習速度を約55倍に高速化することができた。
以上説明したように本実施形態の摂動学習装置1によれば、重み学習を高速に処理できる。また、本実施形態の摂動学習装置2によれば、学習データXが所定のカテゴリに一致しているか否かを判定することができる。
摂動学習装置1,2は、光部品を用いて構成した例で説明を行った。光をキャリアとして用いると、3次元空間に光配線を形成することができ、ショートの恐れや配線の取り回しといったデメリットが少ない。
なお、本発明はこの例に限定されない。光部品を用いずに本実施形態の摂動学習装置1,2を構成しても良い。光は電磁波の一種である。よって、例えば分岐部10は、電磁波分岐器で構成することが可能である。また、光結合器23も電磁波結合器で構成することが可能である。このように本発明は、上記の実施形態に限定されるものではなく、その要旨の範囲内で変形が可能である。
本実施の形態は、例えば階層型ニューラルネットワークの学習装置に適用することができ、光コンピューティングなどの分野に利用可能である。
1、2:摂動学習装置
10:分岐部
20:伝搬部
21:入力フィルタ
22:重みフィルタ
23:光結合器
24:受光部
30、30、30、30:摂動伝搬部
40、40、40、40:学習部
50:重み更新部

Claims (3)

  1. 複数の要素から成る学習データを前記要素ごとに分岐する分岐部と、
    前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、前記濾過データの要素ごとに乗じた値を加算した第1出力値を求める伝搬部と、
    前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求める摂動伝搬部と、
    前記摂動伝搬部と同じ数設けられ、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返す学習部と、
    前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める重み更新部と
    を備えることを特徴とする摂動学習装置。
  2. 前記第1コスト値の大きさを判定する判定部を備え、
    前記判定部は、前記第1コスト値が閾値より小さい場合に前記学習データのカテゴリが前記フィルタ係数のカテゴリと一致していることを表す一致信号を出力し、前記第1コスト値が前記閾値より大きい場合に前記学習データのカテゴリが前記フィルタ係数のカテゴリと不一致であることを表す不一致信号を出力することを特徴とする請求項1に記載の摂動学習装置。
  3. 摂動学習装置が行う摂動学習方法であって、
    複数の要素から成る学習データを前記要素ごとに分岐し、
    前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値を求め、
    前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求め、
    前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返し、
    前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める
    ことを特徴とする摂動学習方法。
JP2016238304A 2016-12-08 2016-12-08 摂動学習装置とその方法 Active JP6534987B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016238304A JP6534987B2 (ja) 2016-12-08 2016-12-08 摂動学習装置とその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238304A JP6534987B2 (ja) 2016-12-08 2016-12-08 摂動学習装置とその方法

Publications (2)

Publication Number Publication Date
JP2018097407A JP2018097407A (ja) 2018-06-21
JP6534987B2 true JP6534987B2 (ja) 2019-06-26

Family

ID=62632969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238304A Active JP6534987B2 (ja) 2016-12-08 2016-12-08 摂動学習装置とその方法

Country Status (1)

Country Link
JP (1) JP6534987B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6655032B2 (ja) * 2017-01-17 2020-02-26 日本電信電話株式会社 摂動学習装置とその方法
CN113491105B (zh) * 2019-02-05 2023-09-12 日本电气株式会社 学习设备、学习方法、存储有控制程序的非暂时性计算机可读介质、以及估计设备

Also Published As

Publication number Publication date
JP2018097407A (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
CN109784486B (zh) 一种光学神经网络处理器及其训练方法
JP6791800B2 (ja) 計算機システム及び再帰型ニューラルネットワークを用いた演算方法
CN111832721A (zh) 全光学神经网络
JP2021523461A (ja) 原位置逆伝搬を通した光子ニューラルネットワークの訓練
CN109784485B (zh) 一种光学神经网络处理器及其计算方法
JP2019523932A (ja) 光ニューラルネットワークのための装置および方法
KR20140128382A (ko) 스파이킹 뉴럴 연산을 위한 방법들 및 장치
Gu et al. ROQ: A noise-aware quantization scheme towards robust optical neural networks with low-bit controls
JP7354463B2 (ja) データ保護方法、装置、サーバ及び媒体
da Silva Ferreira et al. Towards an integrated evolutionary strategy and artificial neural network computational tool for designing photonic coupler devices
JP6534987B2 (ja) 摂動学習装置とその方法
Hooten et al. Inverse design of grating couplers using the policy gradient method from reinforcement learning
Pinilla et al. Hybrid diffractive optics design via hardware-in-the-loop methodology for achromatic extended-depth-of-field imaging
Pleros et al. Compute with light: Architectures, technologies and training models for neuromorphic photonic circuits
WO2023175295A1 (en) Method and apparatus for training a neural network
JP2019153058A (ja) 光信号処理装置
JP2018205864A (ja) ニューラルネットワーク光学習装置
TW202111467A (zh) 路徑數平衡式通用光子網路
Chattopadhyay et al. Sigmoid activation function generation by photonic artificial neuron (PAN)
Petković et al. RETRACTED: Adaptive neuro-fuzzy prediction of modulation transfer function of optical lens system
CN117291256A (zh) 一种光衍射神经网络装置的快速高性能在线训练方法
Amin et al. Attojoule modulators for photonic neuromorphic computing
CN110852414A (zh) 高精度低位卷积神经网络
KR102558170B1 (ko) 범함수 학습과 lcd 패널 기반 광학 심층 신경망을 이용한 학습 방법
Dhang et al. MReC: A multilayer photonic reservoir computing architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190530

R150 Certificate of patent or registration of utility model

Ref document number: 6534987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150