JP2018097407A - Perturbation learning apparatus and method thereof - Google Patents

Perturbation learning apparatus and method thereof Download PDF

Info

Publication number
JP2018097407A
JP2018097407A JP2016238304A JP2016238304A JP2018097407A JP 2018097407 A JP2018097407 A JP 2018097407A JP 2016238304 A JP2016238304 A JP 2016238304A JP 2016238304 A JP2016238304 A JP 2016238304A JP 2018097407 A JP2018097407 A JP 2018097407A
Authority
JP
Japan
Prior art keywords
learning
perturbation
weight
data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016238304A
Other languages
Japanese (ja)
Other versions
JP6534987B2 (en
Inventor
晃洋 鴻野
Akihiro Kono
晃洋 鴻野
志栞 小仁所
Shiori Konisho
志栞 小仁所
岡 宗一
Soichi Oka
宗一 岡
枚田 明彦
Akihiko Hirata
明彦 枚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016238304A priority Critical patent/JP6534987B2/en
Publication of JP2018097407A publication Critical patent/JP2018097407A/en
Application granted granted Critical
Publication of JP6534987B2 publication Critical patent/JP6534987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Mechanical Light Control Or Optical Switches (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a perturbation learning apparatus capable of processing weight learning at high speed.SOLUTION: A perturbation learning apparatus comprises: a branching part 10 which branches learning data in each element; a propagation part 20 which calculates filter data by multiplying each element by a filter factor with different weight for each position of the element due to the category of the learning data, and calculates a first output value O by adding a value obtained by multiplying an emphasis weight for each element of the filter data; a perturbation propagation part 30 which creates a perturbation weight by adding a perturbation factor correcting the emphasis weight, and is provided correspondingly to each filter data, and calculates a second output value Oby multiplying the filter data by the perturbation weight; and a learning part 40 which repeats calculation for obtaining a variation to update the emphasis weight, from a first cost value O obtained by subtracting a teacher value representative of a learning objective from the first output value, a second cost value obtained by subtracting the teacher value from each of the second output value O, the perturbation factor δ, and a learning factor η representative of the slope of learning speed.SELECTED DRAWING: Figure 1

Description

本発明は、学習演算を高速処理する摂動学習装置とその方法に関する。   The present invention relates to a perturbation learning apparatus and method for processing learning operations at high speed.

近年、インターネットや様々なセンサから大量のデータを取得する環境が構築されるに伴い、そのデータを解析して高精度な知識処理や未来予測を行う研究及びビジネスが活発に行われている。この潮流の中で特に注目を集めている解析技術のひとつに、ディープラーニング(深層学習)と称されるものがある。   In recent years, as an environment for acquiring a large amount of data from the Internet and various sensors is constructed, research and business for analyzing the data and performing highly accurate knowledge processing and future prediction are actively performed. One of the analysis techniques that has attracted particular attention in this trend is called deep learning.

ディープラーニングとは、ニューラルネットワークを基本とした機械学習技術であり、ニューロンを多層に配置した人工神経回路網にデータを学習させることで、識別や判断を行う機能を有している。   Deep learning is a machine learning technique based on a neural network, and has a function of discriminating and judging by learning data in an artificial neural network in which neurons are arranged in multiple layers.

一般に、ニューラルネットワークの学習とは、ニューロン同士を連結したシナプスの重みを更新することによって行われるが、昨今のディープラーニングでは学習データ数もシナプス数も大規模化しているため、学習に莫大な時間が掛かる。   In general, neural network learning is performed by updating the weights of the synapses that connect the neurons. However, with the recent deep learning, the number of learning data and the number of synapses is large, so it takes a lot of time for learning. It takes.

このような背景の下、CPUやGPUなどのディジタル演算器に代替するアナログ演算器が注目されている。特に、光を信号の伝送媒体として用いる光コンピューティングは、ディープラーニングを高速化するアナログ演算器として有力と考えられている。   Under such a background, an analog arithmetic unit replacing a digital arithmetic unit such as a CPU or a GPU has been attracting attention. In particular, optical computing using light as a signal transmission medium is considered to be promising as an analog computing unit that accelerates deep learning.

アナログ演算器用の学習アルゴリズムとしては、摂動学習法が提案されている。摂動学習法とは、シナプスの重み等の学習すべきパラメータを微少量変化させ、誤差関数に及ぼす影響をモニタすることで、パラメータの修正量を算出する方法である。   A perturbation learning method has been proposed as a learning algorithm for an analog computing unit. The perturbation learning method is a method of calculating a parameter correction amount by changing a parameter to be learned, such as a synaptic weight, by a small amount and monitoring an influence on an error function.

例えば非特許文献1に同時摂動最適化法が開示されている。   For example, Non-Patent Document 1 discloses a simultaneous perturbation optimization method.

前田裕ほか1名、「同時摂動学習則を用いたニューラルネットワークによる2軸駆動型ロボットアームの追値制御」、電学論C、123巻、9号、2003年Hiroshi Maeda et al., “Additional control of 2-axis robot arm by neural network using simultaneous perturbation learning rule”, Denki Theory C, Vol. 123, No. 9, 2003

しかしながら、従来の摂動学習法で計算する装置の構成は、出力値と教師値との比較を行い、誤差関数を最小化するように、重みを1つずつ逐次的に学習させる方式である。そのため、ニューラルネットワークの規模が大きい場合には、収束に膨大な時間を要するという課題がある。   However, the configuration of a device that calculates by the conventional perturbation learning method is a method in which the output value is compared with the teacher value, and the weights are sequentially learned one by one so as to minimize the error function. Therefore, when the scale of the neural network is large, there is a problem that enormous time is required for convergence.

本発明は、この課題に鑑みてなされたものであり、重み学習を高速に処理できる摂動学習装置とその方法を提供することを目的とする。   The present invention has been made in view of this problem, and an object of the present invention is to provide a perturbation learning apparatus and method that can process weight learning at high speed.

本実施形態の一態様に係る摂動学習装置は、複数の要素から成る学習データを前記要素ごとに分岐する分岐部と、前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、前記濾過データの要素ごとに乗じた値を加算した第1出力値を求める伝搬部と、前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求める摂動伝搬部と、前記摂動伝搬部と同じ数設けられ、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返す学習部と、前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める重み更新部とを備えることを要旨とする。   A perturbation learning device according to an aspect of the present embodiment includes a branching unit that branches learning data composed of a plurality of elements for each element, and a filter coefficient having a different weight for each position of the element depending on the category of the learning data. Multiplying each of the elements to obtain filtration data, a weighting unit for emphasizing the filtration data, a propagation unit for obtaining a first output value obtained by adding a value multiplied for each element of the filtration data, and the enhancement weights, A perturbation propagation unit that generates a perturbation weight by adding a perturbation coefficient for correcting the enhancement weight, is provided corresponding to each of the filtered data, and multiplies the filtered data by the perturbation weight to obtain a second output value; The same number as the perturbation propagation unit, a first cost value obtained by subtracting a teacher value representing a learning target from the first output value, a second cost value obtained by subtracting the teacher value from each of the second output values, A learning unit that repeats calculation for obtaining a change amount for updating the enhancement weight from the perturbation coefficient and a learning coefficient that represents a gradient of the learning speed, and obtaining the enhancement weight by adding the change amount to each of the enhancement weights. The gist is to include a weight updating unit.

本実施形態の一態様に係る摂動学習方法は、上記の摂動学習装置が行う摂動学習方法であって、複数の要素から成る学習データを前記要素ごとに分岐し、前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値を求め、前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求め、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返し、前記強調重みのそれぞれに、前記変化量を加算して強調重みを求めることを要旨とする。   A perturbation learning method according to an aspect of the present embodiment is a perturbation learning method performed by the perturbation learning apparatus, wherein learning data including a plurality of elements is branched for each element, and the elements are classified according to the category of the learning data. A filter coefficient having a different weight for each position is multiplied by each of the elements to obtain filtration data, and a first output value obtained by adding a value obtained by multiplying the emphasis weight for emphasizing the filtration data by the element of the filtration data is added. And generating a perturbation weight obtained by adding a perturbation coefficient for correcting the enhancement weight to the enhancement weight, provided corresponding to each of the filtration data, and multiplying the filtration data by the perturbation weight to obtain a second output value. The first cost value obtained by subtracting the teacher value representing the learning target from the first output value, the second cost value obtained by subtracting the teacher value from each of the second output values, the perturbation coefficient, and the learning speed From the learning coefficient representing the gradient, repeating the calculation for obtaining the amount of change to update the emphasis weights to each of the enhancement weight, and summarized in that for obtaining the enhancement weight by adding the amount of change.

本発明によれば、重み学習を高速に処理できる摂動学習装置とその方法を提供することができる。   According to the present invention, it is possible to provide a perturbation learning apparatus and method that can process weight learning at high speed.

本発明の第1実施形態に係る摂動学習装置の機能構成例を示す図である。It is a figure which shows the function structural example of the perturbation learning apparatus which concerns on 1st Embodiment of this invention. 本実施形態に係る摂動学習装置の動作フローを示す図である。It is a figure which shows the operation | movement flow of the perturbation learning apparatus which concerns on this embodiment. 図1に示す摂動学習装置の伝搬部の構成を模式的に示す図である。It is a figure which shows typically the structure of the propagation part of the perturbation learning apparatus shown in FIG. 図1に示す摂動学習装置の学習部を構成する1個の学習部の構成例を示す図である。It is a figure which shows the structural example of one learning part which comprises the learning part of the perturbation learning apparatus shown in FIG. 本発明の第2実施形態に係る摂動学習装置の機能構成例を示す図である。It is a figure which shows the function structural example of the perturbation learning apparatus which concerns on 2nd Embodiment of this invention.

以下、本発明の実施形態について図面を用いて説明する。複数の図面中同一のものに
は同じ参照符号を付し、説明は繰り返さない。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same components in a plurality of drawings, and the description will not be repeated.

〔第1実施形態〕
図1に、第1実施形態に係る摂動学習装置1の機能構成例を示す。図2に、摂動学習装置1の動作フローを示す。
[First Embodiment]
FIG. 1 shows a functional configuration example of the perturbation learning device 1 according to the first embodiment. FIG. 2 shows an operation flow of the perturbation learning device 1.

摂動学習装置1は、分岐部10、伝搬部20、摂動伝搬部30、学習部40、及び重み更新部50を備える。摂動学習装置1は、例えば階層型ニューラルネットワークの学習演算を高速に処理する。   The perturbation learning device 1 includes a branching unit 10, a propagation unit 20, a perturbation propagation unit 30, a learning unit 40, and a weight update unit 50. The perturbation learning apparatus 1 processes, for example, a learning operation of a hierarchical neural network at high speed.

分岐部10は、複数の要素から成る学習データXを要素ごとに分岐する(ステップS1)。学習データXは、例えばコヒーレント光源で与えられる。分岐部10は、この例では光分岐器を用いた。   The branching unit 10 branches the learning data X composed of a plurality of elements for each element (step S1). The learning data X is given by, for example, a coherent light source. The branching unit 10 is an optical branching device in this example.

学習データXは、例えば100ピクセルの特定の人の顔の画像データであると仮定する。分岐部10は、例えば100ピクセルの学習データを1×100個(n個)に分岐する。   It is assumed that the learning data X is, for example, image data of a specific person's face of 100 pixels. For example, the branching unit 10 branches 1 × 100 pieces (n pieces) of 100-pixel learning data.

分岐部10は、例えば石英平面光導波路(PLC)、フレキシブルポリマー光導波路などで構成する。分岐部10から出射する光信号は、各分岐出力に設けられたコリメータレンズによって平行光となって伝搬部20に入力される。なお、図1において、コリメータレンズの表記は省略している。光信号の波長は、例えば1550nmである。   The branch part 10 is constituted by, for example, a quartz flat optical waveguide (PLC), a flexible polymer optical waveguide, or the like. The optical signal emitted from the branch unit 10 is input to the propagation unit 20 as parallel light by a collimator lens provided at each branch output. In FIG. 1, the description of the collimator lens is omitted. The wavelength of the optical signal is, for example, 1550 nm.

伝搬部20は、学習データXのカテゴリによって要素の位置ごとの重みが異なるフィルタ係数を、要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値Oを求める(ステップS2)。濾過データは、摂動伝搬部30に出力される。学習データXのカテゴリは、学習データXが例えば画像データの場合の当該画像の種別(例えば人、猫、犬等)である。   The propagation unit 20 obtains filtered data by multiplying each of the elements by a filter coefficient having different weights for each element position depending on the category of the learning data X, and sets an emphasis weight for emphasizing the filtered data for each element of the filtered data. A first output value O obtained by adding the multiplied values is obtained (step S2). The filtered data is output to the perturbation propagation unit 30. The category of the learning data X is the type of the image (for example, a person, a cat, a dog, etc.) when the learning data X is image data, for example.

要素の位置ごととは、分岐した学習データx,…,x,…,xの(以降n個を代表して添え字jで表記する場合がある。他の表記も同様である。)それぞれのことである。分岐部10の分岐出力のそれぞれは、学習データXの要素(ピクセル)と一対一で対応する。 For each element position, the branched learning data x 1 ,..., X j ,..., X n may be represented by a subscript j on behalf of n pieces. ) Each of them. Each branch output of the branch unit 10 has a one-to-one correspondence with an element (pixel) of the learning data X.

フィルタ係数は、学習データXが例えば人の顔であれば、人の顔の目、鼻、口、及び耳等の位置ごとに重みが異なり、それらの特徴部分を強調する係数f,…,f,…,fである。つまり、x×fは、学習対象の特徴部分を濾過し易くした濾過データである。 If the learning data X is, for example, a human face, the filter coefficients have different weights for each position of the human face such as eyes, nose, mouth, ears, etc., and coefficients f 1 ,. f j ,..., f n . That is, x j × f j is filtered data that makes it easy to filter the characteristic portion to be learned.

伝搬部20は、濾過データの要素ごとに、当該濾過データを強調する強調重みwを乗じた値を加算した第1出力値Oを求める。伝搬部20について詳しくは後述する。 For each element of the filtered data, the propagation unit 20 obtains a first output value O obtained by adding a value multiplied by an emphasis weight w j that emphasizes the filtered data. Details of the propagation unit 20 will be described later.

摂動伝搬部30は、強調重みwに、該強調重みwを補正する摂動係数δを加えた摂動重みw+δを生成し、濾過データ(x×f)のそれぞれに対応して設けられる。つまり、摂動伝搬部30は、n個の摂動伝搬部30〜30で構成される。以降において摂動伝搬部30の参照符号は、30と表記する。 Perturbations propagating section 30 is stressed to the weight w j, generates a perturbation weights w j + [delta] plus perturbation coefficient for correcting [delta] a reinforced adjustment weights w j, corresponding to each of the filtration data (x j × f j) Provided. That is, the perturbation propagation unit 30 includes n perturbation propagation units 30 1 to 30 n . Hereinafter, the reference numeral of the perturbation propagation unit 30 is expressed as 30 j .

摂動伝搬部30は、濾過データ(x×f)のそれぞれに摂動重みw+δを乗じて第2出力値Oδjを求める(ステップS3)。n個の第2出力値Oδjは、学習部40に出力される。 The perturbation propagation unit 30 j multiplies each filtered data (x j × f j ) by a perturbation weight w j + δ to obtain a second output value O δj (step S3). The n second output values O δj are output to the learning unit 40.

学習部40は、摂動伝搬部30と同じ数の学習部40〜40で構成される。学習部40は、第1出力値Oから学習目標を表す教師値Tを減じた第1コスト値E、第2出力値Oδjのそれぞれから教師値Tを減じた第2コスト値Eδj、摂動係数δ、及び学習速度の傾きを表す学習係数ηから、強調重みwを更新する変化量Δwj_newを求める(ステップS4)。この強調重みwを更新する変化量Δwj_newを求める処理は、図示しない制御部によって強調重みwが収束するまで繰り返される(ステップS5のNO)。 The learning unit 40 includes the same number of learning units 40 1 to 40 n as the perturbation propagation unit 30 j . Learning unit 40 j is first cost value E obtained by subtracting the teaching value T representing the learning objectives from the first output value O, the second cost value by subtracting the teaching value T from each of the second output value O .delta.j E .delta.j, A change amount Δw j_new for updating the emphasis weight w j is obtained from the perturbation coefficient δ and the learning coefficient η representing the gradient of the learning speed (step S4). The enhancement weighting w j to obtain the change amount [Delta] w J_new updating process is repeated until emphasized weights w j is converged by a control unit (not shown) (NO in step S5).

重み更新部50は、強調重みwのそれぞれに、変化量Δwj_newを加算して強調重みwjnewを求める(ステップS6)。ステップS6の計算は、強調重みwが収束するまで繰り返される。 The weight updating unit 50 obtains the enhancement weight w jnew by adding the change amount Δw j_new to each of the enhancement weights w j (step S6). The calculation in step S6 is repeated until the emphasis weight w j converges.

以上説明した本実施形態の摂動学習装置1によれば、重み更新の計算を並列に処理するので重み学習を高速に処理できる。以降、図面を参照して各機能構成部を更に詳しく説明する。   According to the perturbation learning device 1 of the present embodiment described above, the weight update calculation is processed in parallel, so that the weight learning can be processed at high speed. Hereinafter, each functional component will be described in more detail with reference to the drawings.

(伝搬部)
図3に、伝搬部20のより具体的な構成例を示す。伝搬部20は、入力フィルタ21、強調フィルタ22、光結合器23、及び受光部24を備える。
(Propagation part)
FIG. 3 shows a more specific configuration example of the propagation unit 20. The propagation unit 20 includes an input filter 21, an enhancement filter 22, an optical coupler 23, and a light receiving unit 24.

入力フィルタ21は、学習データwの各々の光強度を、フィルタの透過率によってf倍に変換する。この作用は、例えば液晶を用いた光減衰フィルタを用いることで実現できる。光減衰フィルタの透過率は、1以上であることは原理的に不可能であるから、f>1の場合、変換係数a>1を用い、1>f/aと変換すれば良い。この場合、後段の例えば学習部40等でa倍に変換すれば良い。 The input filter 21 converts the light intensity of each of the learning data w j to f j times according to the transmittance of the filter. This effect can be realized by using, for example, an optical attenuation filter using liquid crystal. Since it is impossible in principle that the transmittance of the light attenuating filter is 1 or more, when f j > 1, the conversion coefficient a> 1 may be used and the conversion may be made as 1> f j / a. In this case, it may be converted to a times, for example, by the learning unit 40 j or the like at a later stage.

入力フィルタ21は、光減衰器である電気光学変調器、音響光学変調器、及びMEMSミラー等で構成することができる。また、光増幅器を用いても良い。その場合は、光増幅器である半導体光増幅器(SOA)を用いることができる。   The input filter 21 can be composed of an electro-optic modulator, an acousto-optic modulator, a MEMS mirror, or the like that is an optical attenuator. An optical amplifier may be used. In that case, a semiconductor optical amplifier (SOA) which is an optical amplifier can be used.

入力フィルタ21は、学習データXのカテゴリによって学習データの要素の位置ごとに重みが異なるフィルタ係数fを、学習データxに乗じた濾過データを出力する。入力フィルタ21は、学習するデータXのカテゴリに対応させて予め伝搬部20内に設けておく。又は、電気光学変調器の減衰率を、学習する度に設定するようにしても良い。 The input filter 21 outputs filtered data obtained by multiplying the learning data x j by a filter coefficient f j having a different weight for each position of the learning data element depending on the category of the learning data X. The input filter 21 is provided in the propagation unit 20 in advance corresponding to the category of the data X to be learned. Alternatively, the attenuation factor of the electro-optic modulator may be set every time learning is performed.

強調フィルタ22は、入力フィルタ21と同様に光減衰器である電気光学変調器等で構成することができる。強調フィルタ22の強調重みwは、重み更新部50で求めた変化量Δwj_newを、1回前の強調重みwjoldに加算した値である。 The enhancement filter 22 can be composed of an electro-optic modulator, which is an optical attenuator, like the input filter 21. The enhancement weight w j of the enhancement filter 22 is a value obtained by adding the change amount Δw j_new obtained by the weight update unit 50 to the previous enhancement weight w jord .

初期値の強調重みwは予め設定されている。初期値の強調重みwは、繰り返し更新され、収束値まで変化する。 The initial weight w j is set in advance. The initial weight w j is updated repeatedly and changes to the convergence value.

光結合器23は、強調フィルタ22が出力する濾過データを強調(積演算)したデータ(x×f×w)を和演算する。この場合は、例えばLCOS(Liquid Crystal On Silicon)を用いて波面結合により積演算したデータを光結合しても良い。又は、PLCなどの光導波路を用いて結合しても良い。 The optical coupler 23 performs a sum operation on data (x j × f j × w j ) obtained by emphasizing (product operation) the filtered data output from the enhancement filter 22. In this case, for example, data obtained by product operation by wavefront coupling using LCOS (Liquid Crystal On Silicon) may be optically coupled. Or you may couple | bond using optical waveguides, such as PLC.

光結合器23は、次式に示す第1出力値Oを出力する。   The optical coupler 23 outputs a first output value O expressed by the following equation.

Figure 2018097407
Figure 2018097407

受光器24は、第1出力値Oを電流値に変換する。   The light receiver 24 converts the first output value O into a current value.

摂動伝搬部30は、伝搬部20の入力フィルタ21と光結合器23を削除して構成できる。つまり、摂動伝搬部30は、濾過データのそれぞれに摂動重みw+δを乗じて第2出力値Oδjを求めるものである。よって、摂動伝搬部30は、強調フィルタ22と受光部24の組みで構成できる。図3に対応する摂動伝搬部30の表記は省略する。 The perturbation propagation unit 30 j can be configured by deleting the input filter 21 and the optical coupler 23 of the propagation unit 20. That is, the perturbation propagation unit 30 j obtains the second output value O δj by multiplying each filtered data by the perturbation weight w j + δ. Therefore, the perturbation propagation unit 30 j can be configured by a combination of the enhancement filter 22 and the light receiving unit 24. The notation of the perturbation propagation unit 30 j corresponding to FIG. 3 is omitted.

(学習部)
図4に、学習部40のより具体的な構成例を示す。学習部40は、例えばアナログ電気回路で構成することができる。
(Learning Department)
FIG. 4 shows a more specific configuration example of the learning unit 40 j . The learning unit 40 j can be configured by an analog electric circuit, for example.

学習部40は、3個の差動増幅器41,42,43、及び計算部44を備える。学習部40は、jの参照符号から明らかなように摂動伝搬部30と同じ数だけ設けられる。 The learning unit 40 j includes three differential amplifiers 41 j , 42 j , 43 j , and a calculation unit 44 j . As is clear from the reference number j , the same number of learning units 40 j as the perturbation propagation units 30 j are provided.

差動増幅器41は、伝搬部20が出力する第1出力値Oと、外部から入力される学習目標を表す教師値Tとの差分である第1コスト値E(O−T)を算出する。差動増幅器42は、摂動伝搬部30が出力する第2出力値Oδjと、教師値Tとの差分である第2コスト値Eδjを算出する。差動増幅器43は、第1コスト値Eと第2コスト値Eδjの差分E−Eδjを算出する。 The differential amplifier 41 j calculates a first cost value E (OT) that is a difference between the first output value O output from the propagation unit 20 and the teacher value T representing the learning target input from the outside. . The differential amplifier 42 j calculates a second cost value E δj that is a difference between the second output value O δj output from the perturbation propagation unit 30 j and the teacher value T. Differential amplifier 43 j calculates the first cost value E and the difference E-E .delta.j the second cost value E .delta.j.

計算部44は、外部から入力される強調重みwを補正する摂動係数δと学習速度の傾きを表す学習係数η、及び差動増幅器43が出力する差分E−Eδjを入力として、強調重みwを更新する変化量wj_newを次式で計算する。 The calculation unit 44 j receives, as inputs, a perturbation coefficient δ for correcting the emphasis weight w j input from the outside, a learning coefficient η representing the gradient of the learning speed, and a difference EE δj output by the differential amplifier 43 j . A change amount w j_new for updating the emphasis weight w j is calculated by the following equation.

Figure 2018097407
Figure 2018097407

〔第2実施形態〕
図5に、第2実施形態に係る摂動学習装置2の機能構成例を示す。摂動学習装置2は、摂動学習装置1(図1)に対して判定部60を備える点で異なる。
[Second Embodiment]
FIG. 5 shows a functional configuration example of the perturbation learning device 2 according to the second embodiment. The perturbation learning device 2 is different from the perturbation learning device 1 (FIG. 1) in that a determination unit 60 is provided.

判定部60は、第1コスト値Oが閾値より小さい場合に学習データXのカテゴリがフィルタ係数fのカテゴリと一致していることを表す一致信号を出力し、第1コスト値Oが閾値より大きい場合に学習データXのカテゴリがフィルタ係数fのカテゴリと不一致であることを表す不一致信号を出力する。 The determination unit 60 outputs a match signal indicating that the category of the learning data X matches the category of the filter coefficient f j when the first cost value O is smaller than the threshold, and the first cost value O is less than the threshold. When it is larger, a mismatch signal indicating that the category of the learning data X does not match the category of the filter coefficient f j is output.

摂動学習装置2によれば、入力した学習データXが、学習する対象のカテゴリと一致しているか否かの判定を行うことができる。したがって、摂動学習装置2は、例えば画像識別に用いることができる。   According to the perturbation learning device 2, it is possible to determine whether or not the input learning data X matches the category to be learned. Therefore, the perturbation learning device 2 can be used for image identification, for example.

(学習速度シミュレーション)
本実施形態の効果を確認する目的で、比較例と摂動学習装置1(図1)の学習速度の比較を行った。学習速度の比較は、ニューラルネットワークのハードウェアにおいて、1秒間に書き換え可能なパラメータの更新回数CUPS(Connections Updated Per Second)を比較することで行った。
(Learning speed simulation)
In order to confirm the effect of the present embodiment, the learning speeds of the comparative example and the perturbation learning device 1 (FIG. 1) were compared. The learning speed was compared by comparing the number of parameter updates CUPS (Connections Updated Per Second) that can be rewritten per second in the hardware of the neural network.

シミュレーションの条件は、ニューラルネットワークの規模を、入力数1000ニューロン、総数10層の10000ニューロンと仮定した。また、四則演算を実行するために必要なクロック数は、和演算で2クロック、減演算で2クロック、積演算で4クロック、除演算で8クロック、指数演算で16クロックと仮定した。比較例のCPUによる重み書き換え数は、1.8MCUPSと試算された。   As simulation conditions, the neural network was assumed to have a scale of 1000 neurons and 10000 neurons with a total of 10 layers. The number of clocks required to execute the four arithmetic operations is assumed to be 2 clocks for sum operation, 2 clocks for subtraction operation, 4 clocks for product operation, 8 clocks for division operation, and 16 clocks for exponent operation. The number of weight rewrites by the CPU of the comparative example was estimated to be 1.8 MCUPS.

一方、学習部40を10個とし、入力フィルタ21の遅延時間を0.1ns、強調フィルタ22の遅延時間を0.1ns、受光部24の遅延時間を1ns、学習部40の遅延時間を0.1ns、及び繰り返し演算を制御する制御部の遅延時間を1nsと仮定した。この場合の摂動学習装置1による学習速度は、100MCUPSと試算された。 On the other hand, there are 10 learning units 40 j , the delay time of the input filter 21 is 0.1 ns, the delay time of the enhancement filter 22 is 0.1 ns, the delay time of the light receiving unit 24 is 1 ns, and the delay time of the learning unit 40 j is 0.1 ns. The delay time of the control unit that controls the repetitive calculation is assumed to be 1 ns. In this case, the learning speed of the perturbation learning device 1 was calculated as 100 MCUPS.

このように本実施形態の摂動学習装置1は、学習速度を約55倍に高速化することができた。   Thus, the perturbation learning device 1 of the present embodiment was able to increase the learning speed by about 55 times.

以上説明したように本実施形態の摂動学習装置1によれば、重み学習を高速に処理できる。また、本実施形態の摂動学習装置2によれば、学習データXが所定のカテゴリに一致しているか否かを判定することができる。   As described above, according to the perturbation learning device 1 of the present embodiment, weight learning can be processed at high speed. Further, according to the perturbation learning device 2 of the present embodiment, it can be determined whether or not the learning data X matches a predetermined category.

摂動学習装置1,2は、光部品を用いて構成した例で説明を行った。光をキャリアとして用いると、3次元空間に光配線を形成することができ、ショートの恐れや配線の取り回しといったデメリットが少ない。   The perturbation learning devices 1 and 2 have been described using an example in which they are configured using optical components. When light is used as a carrier, an optical wiring can be formed in a three-dimensional space, and there are few demerits such as a short circuit and wiring.

なお、本発明はこの例に限定されない。光部品を用いずに本実施形態の摂動学習装置1,2を構成しても良い。光は電磁波の一種である。よって、例えば分岐部10は、電磁波分岐器で構成することが可能である。また、光結合器23も電磁波結合器で構成することが可能である。このように本発明は、上記の実施形態に限定されるものではなく、その要旨の範囲内で変形が可能である。   Note that the present invention is not limited to this example. You may comprise the perturbation learning apparatuses 1 and 2 of this embodiment, without using an optical component. Light is a type of electromagnetic wave. Therefore, for example, the branching unit 10 can be configured by an electromagnetic wave branching device. Moreover, the optical coupler 23 can also be comprised with an electromagnetic wave coupler. Thus, the present invention is not limited to the above-described embodiment, and can be modified within the scope of the gist thereof.

本実施の形態は、例えば階層型ニューラルネットワークの学習装置に適用することができ、光コンピューティングなどの分野に利用可能である。   The present embodiment can be applied to, for example, a learning device for a hierarchical neural network, and can be used in fields such as optical computing.

1、2:摂動学習装置
10:分岐部
20:伝搬部
21:入力フィルタ
22:重みフィルタ
23:光結合器
24:受光部
30、30、30、30:摂動伝搬部
40、40、40、40:学習部
50:重み更新部
1, 2: Perturbation learning device 10: Branching unit 20: Propagating unit 21: Input filter 22: Weight filter 23: Optical coupler 24: Light receiving unit 30, 30 1 , 30 j , 30 n : Perturbation propagation unit 40, 40 1 , 40 j , 40 n : Learning unit 50: Weight update unit

Claims (3)

複数の要素から成る学習データを前記要素ごとに分岐する分岐部と、
前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、前記濾過データの要素ごとに乗じた値を加算した第1出力値を求める伝搬部と、
前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求める摂動伝搬部と、
前記摂動伝搬部と同じ数設けられ、前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返す学習部と、
前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める重み更新部と
を備えることを特徴とする摂動学習装置。
A branching unit for branching learning data composed of a plurality of elements for each element;
Filtered data is obtained by multiplying each of the elements by a filter coefficient whose weight for each element position varies depending on the category of the learning data, and an emphasis weight for emphasizing the filtered data is multiplied for each element of the filtered data. A propagation unit for obtaining a first output value obtained by adding the values;
A perturbation weight obtained by adding a perturbation coefficient for correcting the emphasis weight to the emphasis weight is generated, provided corresponding to each of the filtered data, and a second output value is obtained by multiplying the filtered data by the perturbation weight. A perturbation propagation section;
The same number as the perturbation propagation unit, a first cost value obtained by subtracting a teacher value representing a learning target from the first output value, a second cost value obtained by subtracting the teacher value from each of the second output values, A learning unit that repeats calculation for obtaining a change amount for updating the weighting weight from a perturbation coefficient and a learning coefficient that represents a gradient of the learning speed;
A perturbation learning device comprising: a weight update unit that obtains an enhancement weight by adding the amount of change to each of the enhancement weights.
前記第1コスト値の大きさを判定する判定部を備え、
前記判定部は、前記第1コスト値が閾値より小さい場合に前記学習データのカテゴリが前記フィルタ係数のカテゴリと一致していることを表す一致信号を出力し、前記第1コスト値が前記閾値より大きい場合に前記学習データのカテゴリが前記フィルタ係数のカテゴリと不一致であることを表す不一致信号を出力することを特徴とする請求項1に記載の摂動学習装置。
A determination unit for determining the magnitude of the first cost value;
The determination unit outputs a match signal indicating that the category of the learning data matches the category of the filter coefficient when the first cost value is smaller than a threshold value, and the first cost value is less than the threshold value. The perturbation learning apparatus according to claim 1, wherein when it is large, a perturbation learning device is output that indicates that the category of the learning data does not match the category of the filter coefficient.
摂動学習装置が行う摂動学習方法であって、
複数の要素から成る学習データを前記要素ごとに分岐し、
前記学習データのカテゴリによって前記要素の位置ごとの重みが異なるフィルタ係数を、前記要素のそれぞれに乗じて濾過データを求め、該濾過データを強調する強調重みを、濾過データの要素ごとに乗じた値を加算した第1出力値を求め、
前記強調重みに、該強調重みを補正する摂動係数を加えた摂動重みを生成し、前記濾過データのそれぞれに対応して設けられ、前記濾過データに前記摂動重みを乗じて第2出力値を求め、
前記第1出力値から学習目標を表す教師値を減じた第1コスト値、前記第2出力値のそれぞれから前記教師値を減じた第2コスト値、前記摂動係数、及び学習速度の傾きを表す学習係数から、前記強調重みを更新する変化量を求める計算を繰り返し、
前記強調重みのそれぞれに、前記変化量を加算して強調重みを求める
ことを特徴とする摂動学習方法。
A perturbation learning method performed by a perturbation learning device,
Branching learning data consisting of a plurality of elements for each element,
A value obtained by multiplying each of the elements by a filter coefficient whose weight for each position of the element differs depending on the category of the learning data, obtaining filtration data, and multiplying an emphasis weight for emphasizing the filtration data for each element of the filtration data To obtain a first output value obtained by adding
A perturbation weight obtained by adding a perturbation coefficient for correcting the enhancement weight to the enhancement weight is generated, provided corresponding to each of the filtered data, and a second output value is obtained by multiplying the filtered data by the perturbed weight. ,
A first cost value obtained by subtracting a teacher value representing a learning target from the first output value, a second cost value obtained by subtracting the teacher value from each of the second output values, the perturbation coefficient, and a learning speed gradient. From the learning coefficient, the calculation for obtaining the amount of change for updating the weighting is repeated,
A perturbation learning method, wherein the enhancement weight is obtained by adding the change amount to each of the enhancement weights.
JP2016238304A 2016-12-08 2016-12-08 Perturbation learning device and its method Active JP6534987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016238304A JP6534987B2 (en) 2016-12-08 2016-12-08 Perturbation learning device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238304A JP6534987B2 (en) 2016-12-08 2016-12-08 Perturbation learning device and its method

Publications (2)

Publication Number Publication Date
JP2018097407A true JP2018097407A (en) 2018-06-21
JP6534987B2 JP6534987B2 (en) 2019-06-26

Family

ID=62632969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238304A Active JP6534987B2 (en) 2016-12-08 2016-12-08 Perturbation learning device and its method

Country Status (1)

Country Link
JP (1) JP6534987B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116420A (en) * 2017-01-17 2018-07-26 日本電信電話株式会社 Perturbation learning device and method thereof
WO2020161799A1 (en) * 2019-02-05 2020-08-13 日本電気株式会社 Learning device, learning method, non-transitory computer-readable medium having control program stored thereon, and estimation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116420A (en) * 2017-01-17 2018-07-26 日本電信電話株式会社 Perturbation learning device and method thereof
WO2020161799A1 (en) * 2019-02-05 2020-08-13 日本電気株式会社 Learning device, learning method, non-transitory computer-readable medium having control program stored thereon, and estimation device
CN113491105A (en) * 2019-02-05 2021-10-08 日本电气株式会社 Learning apparatus, learning method, non-transitory computer-readable medium storing control program, and estimation apparatus
JPWO2020161799A1 (en) * 2019-02-05 2021-11-25 日本電気株式会社 Learning device, learning method, and estimation device
JP7251558B2 (en) 2019-02-05 2023-04-04 日本電気株式会社 LEARNING DEVICE, LEARNING METHOD, AND ESTIMATION DEVICE
CN113491105B (en) * 2019-02-05 2023-09-12 日本电气株式会社 Learning device, learning method, non-transitory computer-readable medium storing control program, and estimation device
US11825185B2 (en) 2019-02-05 2023-11-21 Nec Corporation Learning device, learning method, and non transitory computer-readable medium having control program stored thereon, and estimation device

Also Published As

Publication number Publication date
JP6534987B2 (en) 2019-06-26

Similar Documents

Publication Publication Date Title
KR101700140B1 (en) Methods and apparatus for spiking neural computation
JP6791800B2 (en) Calculation method using computer system and recurrent neural network
CN109784486B (en) Optical neural network processor and training method thereof
JP2021523461A (en) Training of photon neural networks through in-situ backpropagation
JP2019523932A (en) Apparatus and method for optical neural networks
da Silva Ferreira et al. Towards an integrated evolutionary strategy and artificial neural network computational tool for designing photonic coupler devices
KR20140128384A (en) Methods and apparatus for spiking neural computation
WO2013119861A1 (en) Methods and apparatus for spiking neural computation
JP2015510193A5 (en)
JP7354463B2 (en) Data protection methods, devices, servers and media
JP2018200391A (en) Optical signal processing circuit
JP6534987B2 (en) Perturbation learning device and its method
Semenova et al. Noise-mitigation strategies in physical feedforward neural networks
CN116171445A (en) On-line training of neural networks
US20200272195A1 (en) Path-number-balanced universal photonic network
JP2018205864A (en) Optical neural network learning device
CN110852414A (en) High-precision low-order convolution neural network
Petković et al. RETRACTED: Adaptive neuro-fuzzy prediction of modulation transfer function of optical lens system
JP2019067062A (en) Learning device, learning method and learning program
JP6655032B2 (en) Perturbation learning device and method
JPH04148212A (en) Opto-neural processor
Jonuzi et al. Numerical Analysis of a Self-Calibrating Time-Spatial Interleaving Photonic Convolutional Accelerator
EP4156026A1 (en) Signal processing method in a neural network
Zhao et al. High-performance real-world optical computing trained by in situ gradient-based model-free optimization
WO2021205547A1 (en) Optical signal processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190530

R150 Certificate of patent or registration of utility model

Ref document number: 6534987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150