JP5682403B2 - Neural network design method and program - Google Patents

Neural network design method and program Download PDF

Info

Publication number
JP5682403B2
JP5682403B2 JP2011071170A JP2011071170A JP5682403B2 JP 5682403 B2 JP5682403 B2 JP 5682403B2 JP 2011071170 A JP2011071170 A JP 2011071170A JP 2011071170 A JP2011071170 A JP 2011071170A JP 5682403 B2 JP5682403 B2 JP 5682403B2
Authority
JP
Japan
Prior art keywords
rnn
bilinear
circuit
partial
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011071170A
Other languages
Japanese (ja)
Other versions
JP2012203888A (en
Inventor
利雄 伊東
利雄 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011071170A priority Critical patent/JP5682403B2/en
Publication of JP2012203888A publication Critical patent/JP2012203888A/en
Application granted granted Critical
Publication of JP5682403B2 publication Critical patent/JP5682403B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Design And Manufacture Of Integrated Circuits (AREA)

Description

本発明は、物理モデルに適用可能なニューラルネットワークを設計するニューラルネットワーク設計方法、及び、コンピュータにニューラルネットワークを設計させるプログラムに関する。本発明は、このようなプログラムを格納したコンピュータ読み取り可能な記憶媒体にも関する。   The present invention relates to a neural network design method for designing a neural network applicable to a physical model, and a program for causing a computer to design a neural network. The present invention also relates to a computer-readable storage medium storing such a program.

リカレントニューラルネットワーク(RNN:Recurrent Neural Network)は、ロボットの動作等に適用するために開発されたニューラルネットワークであるが、ロボットの動作のみならず、歩数計や音声解析装置等の様々な電子装置等の物理モデルに対して適用可能である。RNN自体は、例えば特許文献1、非特許文献1等にて提案されている。   Recurrent Neural Network (RNN) is a neural network developed for application to robot motions, but not only robot motions, but also various electronic devices such as pedometers and voice analysis devices, etc. It can be applied to the physical model. The RNN itself is proposed in, for example, Patent Document 1, Non-Patent Document 1, and the like.

RNNは、ニューロンと結線を有するネットワークであり、ニューロンと入出力の結線との関係式は図1のように与えられる。図1において、εiは遅れパラメータ、yi, yjはニューロンの状態量、Cijは重み係数、tは時間を表し、ニューロンの状態量を表すyiをニューロンと同一視する場合もある。 The RNN is a network having connections with neurons, and the relational expression between the neurons and input / output connections is given as shown in FIG. In FIG. 1, ε i is a delay parameter, y i and y j are neuron state quantities, C ij is a weighting factor, t is time, and y i representing neuron state quantities may be identified with neurons. .

図1の関係式の拡張として、図2のような関係式も考えられる。図2は、図1の構成に加え値giがニューロンyiに入力されることを示し、値giはこのRNN回路のニューロン以外で求められた値である。 As an extension of the relational expression in FIG. 1, a relational expression as shown in FIG. Figure 2 shows that the configuration was added value g i of FIG. 1 is input to the neuron y i, the value g i is a value obtained by non-neuronal the RNN circuit.

図3は、2つのニューロンと4つの結線を有するRNN回路の一例を示す図である。図3において、εi=1であり、結線に添えられた「1」、「−1」は重み係数を表す。図3の右側はこのRNN回路の微分方程式を表し、この微分方程式を解くとx1=sin(t), y1=cos(t)が求められる。 FIG. 3 is a diagram illustrating an example of an RNN circuit having two neurons and four connections. In FIG. 3, ε i = 1, and “1” and “−1” attached to the connection represent weighting factors. The right side of FIG. 3 represents a differential equation of this RNN circuit, and when this differential equation is solved, x 1 = sin (t) and y 1 = cos (t) are obtained.

図4は、双一次結合の一例を説明する図である。図4の双一次結合は、図1及び図2以外の結線の結合の一例である。図4に示すように、双一次結合は掛け算を表し、「y1」の出力と「y2」の出力を掛け合わせた結果が「y3」に入力される。εは遅れパラメータである。又、「y1」の出力と「y2」の出力を掛け合わせた結果がニューロンに入力されずに外部出力される場合は、双一次結合と区別して「双一次出力」と定義する。双一次結合は掛け算であるため、例えば加速度センサ等のセンサから出力されたベクトルの距離(又は、ベクトルの距離の2乗)や内積を求めるのに利用できる。 FIG. 4 is a diagram illustrating an example of bilinear coupling. The bilinear coupling in FIG. 4 is an example of a coupling other than those in FIGS. 1 and 2. As shown in FIG. 4, the bilinear combination represents multiplication, and the result of multiplying the output of “y 1 ” and the output of “y 2 ” is input to “y 3 ”. ε 3 is a delay parameter. Further, when the result of multiplying the output of “y 1 ” and the output of “y 2 ” is output to the outside without being input to the neuron, it is defined as “bilinear output” to distinguish it from bilinear coupling. Since the bilinear combination is multiplication, it can be used to obtain the distance (or the square of the vector distance) and inner product of vectors output from sensors such as an acceleration sensor.

図5は、内積を求める一例を説明する図である。図5の例では。図3に示すRNN回路が2つ設けられ2つのベクトル(x1, y1)= (sin(t), cos(t)), (x2, y2)= (cos(t), sin(t))を出力する。これらのベクトル出力を双一次結合して足し合わせることにより、ニューロン「i」の出力は2つのベクトルの内積i= x1・x2+ y1・y2 =2sin(t)・cos(t)を得ることができる。 FIG. 5 is a diagram illustrating an example of obtaining the inner product. In the example of FIG. Two RNN circuits shown in FIG. 3 are provided, and two vectors (x 1 , y 1 ) = (sin (t), cos (t)), (x 2 , y 2 ) = (cos (t), sin ( t)) is output. By combining these vector outputs with a bilinear combination, the output of neuron “i” is the inner product of two vectors i = x 1 · x 2 + y 1 · y 2 = 2sin (t) · cos (t) Can be obtained.

又、双一次結合を用いることにより、より多様な出力を得ることができる。図6は、例えば非特許文献1等で提案されている、2つの双一次結合を有するRNN回路の一例を示す図である。図6に示すRNN回路は、ローレンツ方程式(Lorenz's Equations)を表し、カオス(Chaos)を得ることができる。   Further, by using bilinear coupling, more various outputs can be obtained. FIG. 6 is a diagram illustrating an example of an RNN circuit having two bilinear couplings proposed in, for example, Non-Patent Document 1. The RNN circuit shown in FIG. 6 represents Lorenz's Equations and can obtain chaos.

図7は、双一次結合を有するRNN回路と双一次結合を有さないRNN回路の関係を説明する図である。双一次結合を有するRNN回路は、双一次結合を有さないRNN回路に比べてより豊富なバリエーションの出力を得ることができる。   FIG. 7 is a diagram for explaining the relationship between an RNN circuit having bilinear coupling and an RNN circuit not having bilinear coupling. An RNN circuit having a bilinear coupling can obtain a wider variety of outputs than an RNN circuit having no bilinear coupling.

しかし、図6に示すRNN回路の例のように双一次結合を有するRNN回路は、一般的には理論解析により理論解を求めることはできず、理論解はシミュレーションでしか求めることはできない。又、理論解を求めるシミュレーションには時間がかり、シミュレーションにより求められる理論解の信頼性は低い。一方、双一次結合を有さないRNN回路は、線型の連立微分方程式に変換することが可能であるため、理論解を求めることが可能であるものの、出力のバリエーションが限られている。   However, an RNN circuit having a bilinear coupling as in the example of the RNN circuit shown in FIG. 6 cannot generally obtain a theoretical solution by theoretical analysis, and a theoretical solution can be obtained only by simulation. Moreover, the simulation for obtaining the theoretical solution takes time, and the reliability of the theoretical solution obtained by the simulation is low. On the other hand, an RNN circuit that does not have a bilinear coupling can be converted into a linear simultaneous differential equation, so that a theoretical solution can be obtained, but output variations are limited.

特開平6−149771号公報Japanese Patent Laid-Open No. 6-149771 WO2007/135723号公報WO2007 / 135723 WO2004/104917号公報WO 2004/104917

永嶋史朗、「双線形時間遅れニューラルネットワークによるロボットソフトウェアシステム」、日本ロボット学会誌、Vol.24, No.6, pp.53-64, 2006Shiro Nagashima, “Robot Software System Using Bilinear Time Delay Neural Network”, Journal of the Robotics Society of Japan, Vol.24, No.6, pp.53-64, 2006

従来のニューラルネットワークの設計方法では、様々なバリエーションの出力が得られ、且つ、理論解を求めることができる双一次結合を有するRNN回路を得ることは難しいという問題があった。   The conventional neural network design method has a problem that it is difficult to obtain an RNN circuit having bilinear coupling that can obtain various variations of outputs and can obtain a theoretical solution.

そこで、本発明は、様々なバリエーションの出力が得られ、且つ、理論解を求めることができる双一次結合を有するRNN回路を得ることが可能なニューラルネットワーク設計方法及びプログラムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a neural network design method and program capable of obtaining an RNN circuit having a bilinear combination capable of obtaining various variations of output and obtaining a theoretical solution. To do.

本発明の一観点によれば、コンピュータによるニューラルネットワーク設計方法であって、ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順を前記コンピュータに実行させることを特徴とするニューラルネットワーク設計方法が提供される。   According to an aspect of the present invention, a computer-aided neural network design method for determining whether or not a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including neurons and connections is possible. Judgment procedure, division procedure for dividing RNN circuit determined to be capable of theoretical analysis into a plurality of partial RNN circuits having no bilinear coupling and storing them in the storage unit, and theoretical analysis of each partial RNN circuit To obtain a theoretical solution of the RNN circuit having the bilinear combination by combining the analysis procedure for storing the logical solution in the storage unit and the theoretical solution of each partial RNN circuit. There is provided a neural network design method characterized by causing the computer to execute an output procedure.

本発明の一観点によれば、コンピュータにニューラルネットワークを設計させるプログラムであって、ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順を前記コンピュータに実行させることを特徴とするプログラムが提供される。   According to one aspect of the present invention, a program for causing a computer to design a neural network, whether or not a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including neurons and connections is possible. A determination procedure for determining, an RNN circuit that is determined to be theoretically analyzable, a division procedure for dividing the RNN circuit into a plurality of partial RNN circuits having no bilinear coupling and storing them in the storage unit; A theoretical solution is obtained by performing a theoretical analysis, and an analysis procedure for storing the logical solution in the storage unit and the theoretical solution of each partial RNN circuit are combined to obtain a theoretical solution of the RNN circuit having the bilinear coupling. A program is provided that causes the computer to execute an output procedure to be output.

開示のニューラルネットワーク設計方法及びプログラムによれば、様々なバリエーションの出力が得られ、且つ、理論解を求めることができる双一次結合を有するRNN回路を得ることができる。   According to the disclosed neural network design method and program, it is possible to obtain an RNN circuit having bilinear coupling that can obtain various variations of outputs and can obtain a theoretical solution.

ニューロンと入出力の結線との関係式を説明する図である。It is a figure explaining the relational expression of a neuron and input-output connection. 図1の関係式の拡張を説明する図である。It is a figure explaining the expansion of the relational expression of FIG. 2つのニューロンと4つの結線を有するRNN回路の一例を示す図である。It is a figure which shows an example of the RNN circuit which has two neurons and four connections. 双一次結合の一例を説明する図である。It is a figure explaining an example of a bilinear coupling. 内積を求める一例を説明する図である。It is a figure explaining an example which calculates | requires an inner product. 2つの双一次結合を有するRNN回路の一例を示す図である。It is a figure which shows an example of the RNN circuit which has two bilinear couplings. 双一次結合を有するRNN回路と双一次結合を有さないRNN回路の関係を説明する図である。It is a figure explaining the relationship between the RNN circuit which has bilinear coupling, and the RNN circuit which does not have bilinear coupling. RNN回路を搭載した電子装置の一例を示すブロック図である。It is a block diagram which shows an example of the electronic device carrying an RNN circuit. 自分自身に戻る結合の無い双一次結合を有するRNN回路の一例を示す図である。It is a figure which shows an example of the RNN circuit which has a bilinear coupling without the coupling | bonding which returns to self. 双一次結合を有するRNN回路が理論解析が可能であるか否かを判断する処理を説明するフローチャートである。It is a flowchart explaining the process which judges whether the RNN circuit which has a bilinear coupling is theoretically analyzable. 自分自身に戻る結合の無い双一次結合を有するRNN回路の他の例を示す図である。It is a figure which shows the other example of the RNN circuit which has a bilinear coupling without the coupling | bonding which returns to self. 部分RNN回路を示す図である。It is a figure which shows a partial RNN circuit. 部分RNN回路を示す図である。It is a figure which shows a partial RNN circuit. 部分RNN回路を示す図である。It is a figure which shows a partial RNN circuit. 双一次結合を有するRNN回路を示す図である。It is a figure which shows the RNN circuit which has a bilinear coupling. 図15の全ての双一次結合を外部入力関数に変更する処理を説明する図である。It is a figure explaining the process which changes all the bilinear couplings of FIG. 15 to an external input function. 理論解析が可能なRNN回路を示す図である。It is a figure which shows the RNN circuit in which a theoretical analysis is possible. 変換された部分RNN回路を示す図である。It is a figure which shows the converted partial RNN circuit. 変換された部分RNN回路を示す図である。It is a figure which shows the converted partial RNN circuit. 変換された部分RNN回路を示す図である。It is a figure which shows the converted partial RNN circuit. 規模が比較的大きなRNN回路の一例を示す図である。It is a figure which shows an example of a comparatively large RNN circuit. 図5の理論解析が可能な双一次結合を有するRNN回路と「x3」を組み合わせたRNN回路を示す図である。FIG. 6 is a diagram showing an RNN circuit that combines an RNN circuit having a bilinear coupling capable of theoretical analysis of FIG. 5 and “x 3 ”. コンピュータシステムの一例を示すブロック図である。It is a block diagram which shows an example of a computer system.

開示のニューラルネットワーク設計方法及びプログラムは、双一次結合を有するRNN回路の理論解析が可能であるか否かを判断し、理論解析が可能であると判断されたRNN回路を双一次結合を有さない複数の部分RNN回路に分割する。双一次結合を有さない部分RNN回路は、理論解析が可能であるため、各部分RNN回路の理論解を組み合わせることで、元の双一次結合を有するRNN回路の理論解を求める。元の一次結合を有するRNN回路の理論解をシミュレーションで求める場合と比較すると、シミュレーションの場合のように理論解を求めるのに時間がかることはなく、シミュレーションの場合のように理論解の信頼性が低くなることはない。   The disclosed neural network design method and program determine whether or not a theoretical analysis of an RNN circuit having a bilinear coupling is possible, and the RNN circuit determined to be capable of the theoretical analysis has a bilinear coupling. It is divided into a plurality of partial RNN circuits that are not present. Since the partial RNN circuit having no bilinear coupling can be theoretically analyzed, the theoretical solution of the RNN circuit having the original bilinear coupling is obtained by combining the theoretical solutions of the partial RNN circuits. Compared to the case where the theoretical solution of the RNN circuit having the original linear combination is obtained by simulation, it does not take time to obtain the theoretical solution as in the case of simulation, and the reliability of the theoretical solution is as in the case of simulation. It will never go down.

以下に、開示のニューラルネットワーク設計方法及びプログラムの各実施例を図面と共に説明する。   Hereinafter, embodiments of the disclosed neural network design method and program will be described with reference to the drawings.

図8は、RNN回路を搭載した電子装置の一例を示すブロック図である。電子装置は、例えば歩数計の機能を備えた携帯電話である。以下の説明においても、図1乃至図6の説明と同様に、εiは遅れパラメータ、yi, yjはニューロンの状態量、Cijは重み係数、tは時間を表し、ニューロンの状態量を表すyiをニューロンと同一視する場合もある。又、giはニューロンyiに入力される値である。 FIG. 8 is a block diagram illustrating an example of an electronic device equipped with an RNN circuit. The electronic device is, for example, a mobile phone having a pedometer function. In the following description, as in the description of FIGS. 1 to 6, ε i is a delay parameter, y i and y j are neuron state quantities, C ij is a weighting factor, t is time, and neuron state quantities In some cases, y i representing と is identified with a neuron. G i is a value input to the neuron y i .

図8の例では、説明の便宜上、RNN回路が歩数をカウントする歩数計の機能を実現するものとする。図8の電子装置(即ち、携帯電話)10は、加速度センサ11、メモリ12、プロセッサ(又は、コンピュータ)の一例であるCPU(Central Processing Unit)13、及び表示装置14を有する。加速度センサ11は、例えば互いに直交する3軸の加速度を検出する3個のセンサを含む。加速度センサ11の出力値giがメモリ12に入力され、CPU13がRNN回路の計算を行って歩数の結果を表示装置14に出力する。メモリ12には、RNN回路を構成する各yiのニューロン(又は、状態量)の初期値と加速度センサ11の各出力値giが代入され保存されている。又、メモリ12には、RNN回路の実行プログラムが保存されている。実行プログラムには、ベクトルの内積や距離を求めるための双一次結合処理を実行するプログラムが含まれている。クロック毎に、各yiの値とgiの値が実行プログラムによりCPU13で演算される。CPU13の演算により計算された各yiの値はメモリ12に保存され、次のgiの値がメモリ12に代入される。このような処理が所定の回数実行された後、出力として欲しいニューロン(又は、状態量)の値、即ち、歩数値がCPU13によりメモリ12から読み出され、表示装置14に表示されることで歩数計の一連の処理が終了する。 In the example of FIG. 8, for convenience of explanation, it is assumed that the RNN circuit realizes the function of a pedometer for counting the number of steps. 8 includes an acceleration sensor 11, a memory 12, a CPU (Central Processing Unit) 13 which is an example of a processor (or a computer), and a display device 14. The acceleration sensor 11 includes, for example, three sensors that detect triaxial accelerations orthogonal to each other. The output value g i of the acceleration sensor 11 is input to the memory 12, and the CPU 13 calculates the RNN circuit and outputs the step count result to the display device 14. In the memory 12, the initial value of each y i neuron (or state quantity) constituting the RNN circuit and each output value g i of the acceleration sensor 11 are substituted and stored. The memory 12 stores an execution program for the RNN circuit. The execution program includes a program that executes bilinear combination processing for obtaining the inner product and distance of vectors. For each clock, the values of y i and g i are calculated by the CPU 13 by the execution program. Each y i value calculated by the calculation of the CPU 13 is stored in the memory 12, and the next g i value is substituted into the memory 12. After such processing is executed a predetermined number of times, the value of the neuron (or state quantity) desired as an output, that is, the step value is read from the memory 12 by the CPU 13 and displayed on the display device 14 to display the number of steps. A series of processing is completed.

電子装置10用に設計されたRNN回路が図6に示すRNN回路の例のように双一次結合を有するRNN回路の場合、一般的には理論解析により理論解を求めることはできない。そこで、本実施例では、このように一般的には理論解析が不可能である双一次結合を有するRNN回路に対し、理論解を求めることができる双一次結合を有するRNN回路を分類する。   When the RNN circuit designed for the electronic device 10 is an RNN circuit having a bilinear coupling as in the example of the RNN circuit shown in FIG. 6, it is generally not possible to obtain a theoretical solution by theoretical analysis. Therefore, in the present embodiment, RNN circuits having bilinear coupling that can obtain a theoretical solution are classified with respect to RNN circuits having bilinear coupling that cannot be theoretically analyzed in general.

図6のRNN回路はカオスを出力するので、理論解析が不可能である双一次結合を有するが、ニューロン「z」に入力される双一次結合が有り、これらはニューロン「x」,「y」から出力されている。ここで、ニューロン「y」に着目すると、ニューロン「z」から出力された結果がニューロン「y」に入力される。このようにニューロン「z」への双一次結合から、ニューロンと結線をさかのぼっていくと、ニューロン「z」自身に戻ってしまうような結合がある場合、一般的には理論解析は困難である。そこで、本実施例では、双一次結合から、ニューロンと結線をさかのぼっていくと自分自身に戻ってしまうような結合がある場合には、理論解析が不可能であると判断する。   Since the RNN circuit in FIG. 6 outputs chaos, it has a bilinear connection that cannot be theoretically analyzed, but has a bilinear connection that is input to the neuron “z”. These are the neurons “x” and “y”. It is output from. Here, focusing on the neuron “y”, the result output from the neuron “z” is input to the neuron “y”. In this way, when there is a connection that returns to the neuron “z” itself when going back from the bilinear connection to the neuron “z”, the theoretical analysis is generally difficult. Therefore, in the present embodiment, if there is a connection that returns from the bilinear connection to the neuron when going back to the neuron, it is determined that the theoretical analysis is impossible.

これに対し、例えば図9の双一次結合を有するRNN回路は1つの双一次結合を有するが、ニューロン「z」への双一次結合から、ニューロンと結線をさかのぼっていっても、ニューロン「z」自身に戻ってしまうような結合は無い。図9は、自分自身に戻る結合の無い双一次結合を有するRNN回路の一例を示す図である。このように、双一次結合から、ニューロンと結線をさかのぼっていっても自分自身に戻ってしまうような結合が無い場合、このRNN回路は理論解析が可能であると判断する。   On the other hand, for example, the RNN circuit having the bilinear coupling of FIG. 9 has one bilinear coupling, but the neuron “z” can be connected even if the connection with the neuron is traced back from the bilinear coupling to the neuron “z”. There is no connection that returns to itself. FIG. 9 is a diagram illustrating an example of an RNN circuit having a bilinear coupling with no coupling back to itself. As described above, when there is no connection that returns to itself even if the connection with the neuron is traced back from the bilinear connection, the RNN circuit determines that the theoretical analysis is possible.

図10は、双一次結合を有するRNN回路が理論解析が可能であるか否かを判断する処理を説明するフローチャートである。図10の処理は、与えられた双一次結合を有するRNN回路が理論解析が可能であるか否かを判断し、ニューロン全体の集合から部分ニューロンの集合を得る。この処理により得られた部分ニューロンの集合は、ニューラルネットワークの設計処理において理論解析を行うときに使用される。   FIG. 10 is a flowchart for explaining processing for determining whether or not an RNN circuit having bilinear coupling is theoretically analyzable. The processing in FIG. 10 determines whether or not an RNN circuit having a given bilinear combination is capable of theoretical analysis, and obtains a set of partial neurons from the set of whole neurons. The set of partial neurons obtained by this processing is used when theoretical analysis is performed in the design process of the neural network.

(図6のRNN回路が処理対象の場合)
具体例として図6のRNN回路に対して図10の処理を適用した場合について説明する。先ず、ステップS1は、初期設定として、Iを空集合φに設定し(I=φ)、wをw=' 'に設定し、処理対象となるRNN回路のニューロン全体の集合XIを求め、ニューロン全体の集合XIの中の双一次結合を入力に持つニューロンの集合SubIを求める。この場合、RNN回路のニューロン全体の集合Xφ={x, y, z}と、集合Xφの中の双一次結合を入力に有するニューロンの集合Subφ={z}とが得られる。ステップS2は、SubI=φであるか否かを判定し、この場合はSubφ={z}≠φであり判定結果はNOであるため、処理はステップS3へ進む。ステップS3は、集合SubIから1つのニューロンを取り出して固定(Fix)し、I=I∪{b}を求め、wに'b'を追加し、XI=bへ双一次結合からさかのぼって得られるニューロンの集合を求める。この場合、Subφ={z}は1つのニューロンしか含まない集合であるから、「z」を取り出して固定し、IをI=I∪{z}=φ∪{z}={z}に更新し、wをw=' '+'z'='z'に更新する。「z」への双一次結合からさかのぼって得られるニューロンの集合とは、ニューロン「z」への双一次結合から、ニューロンと結線をさかのぼることによって得られる全てのニューロンの集合である。この場合、双一次結合への出力となるニューロン「x」,「y」と、ニューロン「y」から結線をさかのぼることによって得られるニューロン「z」がさかのぼりの対象となり、X{z}={x, y, z}となる。
(When the RNN circuit of FIG. 6 is a processing target)
As a specific example, a case where the process of FIG. 10 is applied to the RNN circuit of FIG. 6 will be described. First, in step S1, as an initial setting, I is set to an empty set φ (I = φ), w is set to w = ′ ′, and a set X I of all neurons of the RNN circuit to be processed is obtained. The set Sub I of neurons having bilinear coupling as input in the set X I of all neurons is obtained. In this case, a set X φ = {x, y, z} of the entire neurons of the RNN circuit and a set of neurons Sub φ = {z} having bilinear connections in the set X φ as inputs are obtained. Step S2 determines whether or not Sub I = φ. In this case, since Sub φ = {z} ≠ φ and the determination result is NO, the process proceeds to step S3. Step S3 extracts and fixes one neuron from the set Sub I , finds I = I) {b}, adds 'b' to w, and goes back to X I = b from the bilinear connection. Find the resulting set of neurons. In this case, since Sub φ = {z} is a set containing only one neuron, “z” is extracted and fixed, and I is set to I = I∪ {z} = φ∪ {z} = {z} Update and update w to w = '' + 'z' = 'z'. The set of neurons obtained from the bilinear connection to “z” is the set of all neurons obtained by tracing the connection with the neuron from the bilinear connection to neuron “z”. In this case, the neurons “x” and “y” that are output to the bilinear connection and the neuron “z” obtained by tracing back the connection from the neuron “y” are the targets of retrogression, and X {z} = {x , y, z}.

ステップS4は、XIに「b」が含まれるか否かを判定する。この場合、X{z}にzが含まれるか否かが判定され、X{z}にzが含まれるので判定結果はYESになる。ステップS5は、図6のRNN回路は理論解析が不可能であると判断し、例えば理論解析が不可能である旨を示すメッセージを表示したり記憶部に格納する等の出力を行い、処理は終了する。 Step S4 decides whether or not include "b" to the X I. In this case, it is determined whether or not z is included in X {z} . Since z is included in X {z} , the determination result is YES. In step S5, the RNN circuit of FIG. 6 determines that the theoretical analysis is impossible, and outputs such as displaying a message indicating that the theoretical analysis is impossible or storing it in the storage unit. finish.

(図9のRNN回路が処理対象の場合)
次に、具体例として図9のRNN回路に対して図10の処理を適用した場合について説明する。先ず、ステップS1は、初期設定として、I=φ、w=' '、集合Xφ={x, y, z}、及び集合Subφを得る。この場合、集合Subφは集合Xφの中の双一次結合を入力に持つニューロンの集合なので、Subφ={z}である。ステップS2の判定結果は、Subφ={z}≠φであるためNOになる。Subφ={z}は1つのニューロンしか含まない集合であるから、ステップS3は、「z」を取り出して固定し、IをI=I∪{z}=φ∪{z}={z}に更新し、wをw=' '+'z'='z'に更新する。「z」への双一次結合からさかのぼって得られるニューロンの集合とは、ニューロン「z」への双一次結合から、ニューロンと結線をさかのぼることによって得られる全てのニューロンの集合である。この場合、双一次結合への出力となるニューロン「x」,「y」がさかのぼりの対象となり、X{z}={x, y}となる。ステップS4の判定結果は、X{z}は{z}を含まないのでNOになるので処理はステップS6へ進む。
(When the RNN circuit in FIG. 9 is a processing target)
Next, a case where the process of FIG. 10 is applied to the RNN circuit of FIG. 9 will be described as a specific example. First, in step S1, as initial settings, I = φ, w = ′ ′, set X φ = {x, y, z}, and set Sub φ are obtained. In this case, the set Sub φ is a set of neurons having a bilinear connection as an input in the set X φ , so Sub φ = {z}. The determination result of step S2 is NO because Sub φ = {z} ≠ φ. Since Sub φ = {z} is a set including only one neuron, step S3 extracts and fixes “z” and sets I to I = I = {z} = φ∪ {z} = {z} And w is updated to w = '' + 'z' = 'z'. The set of neurons obtained from the bilinear connection to “z” is the set of all neurons obtained by tracing the connection with the neuron from the bilinear connection to neuron “z”. In this case, the neurons “x” and “y” that are output to the bilinear connection are retroactive, and X {z} = {x, y}. Since the determination result of step S4 is NO because X {z} does not include {z}, the process proceeds to step S6.

ステップS6は、XIを保存し、SubI=XIの中の双一次結合を入力に持つニューロンの集合を求め、任意のA⊂I-{b}に対してSubA= SubA-{b}を求める。この場合、X{z}を保存し、Sub{z}はX{z}の中の双一次結合を入力に有するニューロンの集合であるものの、X{z}の中の双一次結合を入力に有するニューロンは無いのでSub{z}=φを得、I-{z}={z}-{z}=φより任意のA⊂φに対してこれを満たすのはA=φの場合だけなのでSubφをSubφ= Subφ-{z}={z}-{z}=φに更新する。ステップS6の後、処理はステップS2へ戻り、Sub{z}=φであるか否かを判定する。この場合、ステップS2の判定結果はYESになるため、処理はステップS7へ進む。 In step S6, X I is stored, a set of neurons having a bilinear connection in Sub I = X I as an input is obtained, and Sub A = Sub A- {for any A⊂I- {b}. b}. In this case, save the X {z}, although Sub {z} is a set of neurons with the input bilinear bond in X {z}, the input bilinear bond in X {z} Since there is no neuron, we get Sub {z} = φ, and I- {z} = {z}-{z} = φ, so it is only when A = φ that satisfies this for any A⊂φ Update Sub φ to Sub φ = Sub φ- {z} = {z}-{z} = φ. After step S6, the process returns to step S2 to determine whether Sub {z} = φ. In this case, since the determination result of step S2 is YES, the process proceeds to step S7.

ステップS7は、I=φであるか否かを判定する。この場合、I={z}≠φであるためステップS7の判定結果はNOとなり、処理はステップS8へ進む。ステップS8は、wの最後の文字'b'を取得して除去し、I=I-{b}を求める。この場合、w='z'から文字'z'を除去してwをw=' 'に更新し、IをI=I-{z}={z}-{z}=φに更新する。ステップS8の後、処理はステップS2へ戻り、Subφ=φであるか否かを判定する。この場合、ステップS2の判定結果はYESになるため、処理はステップS7へ進む。更に、I=φであるため、ステップS7の判定結果はYESとなり、処理は終了する。従って、この場合は、理論解析が不可能である出力が無いため、図9のRNN回路は理論解析が可能であると判断し、例えば理論解析が可能である旨を示すメッセージを表示したり記憶部に格納する等の出力を行ってから処理は終了する。 In step S7, it is determined whether I = φ. In this case, since I = {z} ≠ φ, the determination result in step S7 is NO, and the process proceeds to step S8. In step S8, the last character 'b' of w is acquired and removed, and I = I- {b} is obtained. In this case, the character 'z' is removed from w = 'z', w is updated to w = '', and I is updated to I = I- {z} = {z}-{z} = φ. After step S8, the process returns to step S2 to determine whether or not Sub φ = φ. In this case, since the determination result of step S2 is YES, the process proceeds to step S7. Furthermore, since I = φ, the determination result in step S7 is YES, and the process ends. Therefore, in this case, since there is no output that cannot be theoretically analyzed, the RNN circuit of FIG. 9 determines that theoretical analysis is possible, and displays or stores a message indicating that theoretical analysis is possible, for example. The process ends after outputting such as storing in the section.

(図11のRNN回路が処理対象の場合)
次に、具体例として図11のRNN回路に対して図10の処理を適用した場合について説明する。図11は、自分自身に戻る結合の無い双一次結合を有するRNN回路の他の例を示す図である。先ず、ステップS1は、初期設定として。I=φ、w=' '、集合Xφ={a, b, c, d, e, f, g}、及び集合Subφを得る。この場合、集合Subφは集合Xφの中の双一次結合を入力に持つニューロンの集合なので、Subφ={a, b, e}である。ステップS2の判定結果は、Subφ={a, b, e}≠φであるためNOになる。ステップS3は、Subφ={a, b, e}から1つニューロンを取り出すが、ここでは「a」を取り出して固定し、IをI=I∪{a}=φ∪{a}={a}に更新し、wをw=' '+'a'='a'に更新する。「a」への双一次結合からさかのぼって得られるニューロンの集合とは、ニューロン「a」への双一次結合から、ニューロンと結線をさかのぼることによって得られる全てのニューロンの集合である。従って、この場合はX{a}={b, c, d}となる。ステップS4の判定結果は、X{a}は{a}を含まないのでNOになるので、処理はステップS6へ進む。
(When the RNN circuit of FIG. 11 is a processing target)
Next, a case where the process of FIG. 10 is applied to the RNN circuit of FIG. 11 will be described as a specific example. FIG. 11 is a diagram illustrating another example of an RNN circuit having a bilinear coupling that does not return to itself. First, step S1 is an initial setting. I = φ, w = ′ ′, set X φ = {a, b, c, d, e, f, g}, and set Sub φ are obtained. In this case, the set Sub φ is a set of neurons having a bilinear connection as an input in the set X φ , so Sub φ = {a, b, e}. The determination result of step S2 is NO because Sub φ = {a, b, e} ≠ φ. In step S3, one neuron is extracted from Sub φ = {a, b, e}. Here, “a” is extracted and fixed, and I is set to I = I∪ {a} = φ∪ {a} = { Update to a} and update w to w = '' + 'a' = 'a'. The set of neurons obtained from the bilinear connection to “a” is the set of all neurons obtained by tracing the connection with the neuron from the bilinear connection to neuron “a”. Therefore, in this case, X {a} = {b, c, d}. Since the determination result of step S4 is NO because X {a} does not include {a}, the process proceeds to step S6.

ステップS6は、X{a}を保存し、Sub{a}はX{a}の中の双一次結合を入力に有するニューロンの集合であるためSub{a}={b}を求める。又、I-{a}={a}-{a}=φより、任意のA⊂φに対し、これを満たすのはA=φの場合だけなのでSubφをSubφ= Subφ-{a}={a, b, e}-{a}={b, e}に更新する。ステップS6の後、処理はステップS2へ戻り、Subφ=φであるか否かを判定する。この場合、ステップS2の判定結果はSub{a}={b}≠φよりNOになるため、処理はステップS3へ進む。 In step S6, X {a} is stored, and Sub {a} is determined as Sub {a} = {b} because Sub {a} is a set of neurons having a bilinear connection in X {a} as an input. Also, from I- {a} = {a}-{a} = φ, for any A⊂φ, only this is satisfied when A = φ, so Sub φ is Sub φ = Sub φ- {a } = {a, b, e}-{a} = Update to {b, e}. After step S6, the process returns to step S2 to determine whether Sub φ = φ. In this case, since the determination result in step S2 is NO because Sub {a} = {b} ≠ φ, the process proceeds to step S3.

ステップS3は、Sub{a}={b}から1つニューロンを取り出すが、Sub{a}は1つのニューロンしかない集合であるから、「b」取り出して固定し、IをI=I∪{b}={a}∪{b}={a, b}に更新し、wをw='a'+'b'='ab'に更新する。「b」への双一次結合からさかのぼって得られるニューロンの集合とは、ニューロン「b」への双一次結合から、ニューロンと結線をさかのぼることによって得られる全てのニューロンの集合である。従って、X{a, b}={c, d}となる。ステップS4の判定結果は、X{a, b}は{b}を含まないのでNOとなり、処理はステップS6へ進む。ステップS6は、X{a, b}を保存し、X{a, b}の中の双一次結合を入力に有するニューロンの集合はないのでSub{a, b}=φとなる。又、I-{b}={a, b}-{b}={a}より、任意のA⊂{a}に対しこれを満たすのはA=φ, {a}の場合である。そこで、A=φのときSubφをSubφ= Subφ-{b}={b, e}-{b}={e}に更新し、A={a}のときSub{a}をSub{a}= Sub{a}-{b}={b}-{b}=φに更新する。 Step S3 is taken out one neuron from Sub {a} = {b} , because Sub {a} is the set has only one neuron, fixed removed "b", the I I = I∪ { b} = {a} ∪ {b} = Update to {a, b} and update w to w = 'a' + 'b' = 'ab'. The set of neurons obtained from the bilinear connection to “b” is the set of all neurons obtained by tracing the connection with the neuron from the bilinear connection to neuron “b”. Therefore, X {a, b} = {c, d}. The determination result of step S4 is NO because X {a, b} does not include {b}, and the process proceeds to step S6. In step S6, X {a, b} is stored, and since there is no set of neurons having a bilinear connection in X {a, b} as an input, Sub {a, b} = φ. Also, from I- {b} = {a, b}-{b} = {a}, this is satisfied for any A⊂ {a} when A = φ, {a}. Therefore, when A = φ, Sub φ is updated to Sub φ = Sub φ- {b} = {b, e}-{b} = {e}, and when A = {a}, Sub {a} is changed to Sub. Update to {a} = Sub {a} -{b} = {b}-{b} = φ.

ステップS6の後、処理はステップS2へ戻るが、Sub{a, b}=φなのでステップS2の判定結果はYESになり、処理はステップS7へ進む。更に、I= {a, b}≠φであるため、ステップS7の判定結果はNOになり、処理はステップS8へ進む。ステップS8は、w='ab'から文字'b'を除去してw='a'に更新し、IをI=I-{b}={a, b}-{b}={a}に更新する。 After step S6, the process returns to step S2, but since Sub {a, b} = φ, the determination result in step S2 is YES, and the process proceeds to step S7. Furthermore, since I = {a, b} ≠ φ, the determination result in step S7 is NO, and the process proceeds to step S8. In step S8, the character 'b' is removed from w = 'ab' and updated to w = 'a', and I is updated to I = I- {b} = {a, b}-{b} = {a} Update to

ステップS8の後、処理はステップS2へ戻る。この場合、Sub{a}=φであるからステップS2の判定結果はYESになる。ステップS7の判定結果は、I= {a}≠φであるからNOになる。従って、ステップS8は、w='a'から文字'a'を除去してwをw=' 'に更新し、IをI=I-{a}={a}-{a}=φに更新する。 After step S8, the process returns to step S2. In this case, since Sub {a} = φ, the determination result of step S2 is YES. The determination result of step S7 is NO because I = {a} ≠ φ. Accordingly, step S8 removes the character 'a' from w = 'a', updates w to w = '', and sets I to I = I- {a} = {a}-{a} = φ. Update.

ステップS8の後、処理はステップS2へ戻るが、Subφ={e}≠φなのでステップS2の判定結果はNOになり、処理はステップS3へ進む。ステップS3は、Subφ={e}から1つニューロンを取り出すが、1つのニューロンしかない集合であるから、「e」を取り出して固定し、IをI=I∪{e}=φ∪{e}={e}に更新し、wをw=' '+'e'='e'に更新する。「e」への双一次結合からさかのぼって得られるニューロンの集合とは、ニューロン「e」への双一次結合から、ニューロンと結線をさかのぼることによって得られる全てのニューロンの集合である。従って、X{e}={f, g}となる。ステップS4の判定結果は、X{e}は{e}を含まないのでNOになり、処理はステップS6へ進む。ステップS6は、X{e}を保存し、X{e}の中の双一次結合を入力に有するニューロンの集合は無いのでSub{e}=φとなる。又、I-{e}={e}-{e}=φより、任意のA⊂{e}に対しこれを満たすのはA=φの場合である。そこで、A=φのときSubφをSubφ= Subφ-{e}={e}-{e}=φに更新する。 After step S8, the process returns to step S2, but since Sub φ = {e} ≠ φ, the determination result in step S2 is NO, and the process proceeds to step S3. In step S3, one neuron is extracted from Sub φ = {e}, but since there is only one neuron, “e” is extracted and fixed, and I is set to I = I∪ {e} = φ∪ { Update to e} = {e} and update w to w = '' + 'e' = 'e'. The set of neurons obtained from the bilinear connection to “e” is the set of all neurons obtained by tracing the connection with the neuron from the bilinear connection to neuron “e”. Therefore, X {e} = {f, g}. The determination result of step S4 is NO because X {e} does not include {e}, and the process proceeds to step S6. In step S6, X {e} is stored, and since there is no set of neurons having a bilinear connection in X {e} as an input, Sub {e} = φ. Further, from I- {e} = {e}-{e} = φ, this is satisfied for an arbitrary A⊂ {e} when A = φ. Therefore, when A = φ, Sub φ is updated to Sub φ = Sub φ − {e} = {e} − {e} = φ.

ステップS6の後、処理はステップS2へ戻るが、Sub{e}=φなのでステップS2の判定結果はYESになり、処理はステップS7へ進む。ステップS7の判定結果は、I= {e}≠φなのでNOとなり、処理はステップS8へ進む。ステップS8は、w='e'から文字'e'を除去してwをw=' 'に更新し、IをI=I-{e}={e}-{e}=φに更新する。 After step S6, the process returns to step S2, but since Sub {e} = φ, the determination result in step S2 is YES, and the process proceeds to step S7. The determination result of step S7 is NO because I = {e} ≠ φ, and the process proceeds to step S8. In step S8, the character 'e' is removed from w = 'e', w is updated to w = '', and I is updated to I = I- {e} = {e}-{e} = φ. .

ステップS8の後、処理はステップS2へ戻るが、Subφ=φなのでステップS2の判定結果はYESになり、処理はステップS7へ進む。ステップS7の判定結果は、I=φであるためYESとなり、処理は終了する。この場合、理論解析が不可能な出力が無いため、図11のRNN回路は理論解析が可能であると判断し、例えば理論解析が可能である旨を示すメッセージを表示したり記憶部に格納する等の出力を行ってから処理は終了する。 After step S8, the process returns to step S2, but since Sub φ = φ, the determination result in step S2 is YES, and the process proceeds to step S7. The determination result of step S7 is YES because I = φ, and the process ends. In this case, since there is no output that cannot be theoretically analyzed, the RNN circuit of FIG. 11 determines that theoretical analysis is possible, and displays, for example, a message indicating that theoretical analysis is possible or stores it in the storage unit. The process ends after the output such as.

(部分RNN回路)
次に、部分RNN回路について説明する。図11のRNN回路に対して図10の処理を行うことにより得られた部分ニューロンの集合は、X{a}={b, c, d},X{a, b}={c, d},X{e}={f, g}となる。部分ニューロンの集合に含まれる全てニューロンを取り出し、それらのニューロン同士が結合している結線のみを取り出して得られるRNN回路を、元のRNN回路の部分RNN回路と定義する。このとき、X{a}={b, c, d},X{a, b}={c, d},X{e}={f, g}に対応する部分RNN回路は図12、図13、及び図14のようになる。図12乃至図14は、部分RNN回路を示す図である。
(Partial RNN circuit)
Next, the partial RNN circuit will be described. The set of partial neurons obtained by performing the processing of FIG. 10 on the RNN circuit of FIG. 11 is X {a} = {b, c, d}, X {a, b} = {c, d} , X {e} = {f, g}. An RNN circuit obtained by taking out all neurons included in a set of partial neurons and taking out only a connection in which those neurons are connected is defined as a partial RNN circuit of the original RNN circuit. At this time, the partial RNN circuit corresponding to X {a} = {b, c, d}, X {a, b} = {c, d}, X {e} = {f, g} is shown in FIG. 13 and FIG. 12 to 14 are diagrams showing partial RNN circuits.

次に、元のRNN回路と全ての部分RNN回路に対して、全ての双一次結合を例えば図15の状態から図16に示す如き外部入力関数に変換(又は、変更)する。ただし、双一次出力に対しては、このような変換を行わない。   Next, with respect to the original RNN circuit and all partial RNN circuits, all bilinear combinations are converted (or changed) from the state of FIG. 15 to an external input function as shown in FIG. However, such conversion is not performed for the bilinear output.

図11の元のRNN回路と、図12乃至図14の部分RNN回路とにこの変換を施して得られる結果を、夫々図17乃至図20に示す。図17は、理論解析が可能なRNN回路を示す図であり、図18乃至図20は、変換された部分RNN回路を示す図である。この結果得られた図17乃至図20のRNN回路は、いずれも双一次結合を有さないRNN回路となるため、外部入力の関数が分かれば理論解析が可能となる。   The results obtained by performing this conversion on the original RNN circuit of FIG. 11 and the partial RNN circuits of FIGS. 12 to 14 are shown in FIGS. 17 to 20, respectively. FIG. 17 is a diagram showing an RNN circuit capable of theoretical analysis, and FIGS. 18 to 20 are diagrams showing converted partial RNN circuits. The resulting RNN circuits of FIGS. 17 to 20 are all RNN circuits that do not have a bilinear coupling, so that a theoretical analysis can be performed if a function of an external input is known.

元のRNN回路の理論解析を行うためには、全ての部分RNN回路の理論解析を行えば良い。先ず、始めに得られた部分ニューロンの集合のうち、添え字の集合に含まれるニューロン数が一番大きいものから解析を行う。この理由は、添え字の集合に含まれるニューロン数が一番大きい部分ニューロンの集合から得られるRNN回路には、外部入力への変換が無いためである。この場合、部分ニューロンの集合X{a},X{a, b},X{e}のうち、添え字の集合に含まれるニューロン数が一番大きい部分ニューロンの集合はX{a, b}なので、この部分ニューロンの集合X{a, b}に対応する図19の部分RNN回路から解析を行う。図19の部分RNN回路は、外部入力が無いRNN回路なので、c, dの理論解を求めることができる。 In order to perform a theoretical analysis of the original RNN circuit, it is only necessary to perform a theoretical analysis of all the partial RNN circuits. First, analysis is performed from the set of sub-neurons obtained first, with the largest number of neurons included in the subscript set. This is because the RNN circuit obtained from the set of partial neurons having the largest number of neurons included in the set of subscripts has no conversion to the external input. In this case, among the set of partial neurons X {a} , X {a, b} , X {e} , the set of partial neurons with the largest number of neurons in the set of subscripts is X {a, b} Therefore, the analysis is performed from the partial RNN circuit of FIG. 19 corresponding to the partial neuron set X {a, b} . Since the partial RNN circuit of FIG. 19 is an RNN circuit having no external input, a theoretical solution of c and d can be obtained.

次に、添え字の集合に含まれるニューロン数が2番目に大きい部分ニューロン集合の解析を行う。この場合、添え字の集合に含まれるニューロン数が2番目に大きい部分ニューロン集合はX{a},X{e}となる。部分ニューロンの集合X{a}に対応する部分RNN回路は図18の部分RNN回路であり、1つの外部入力F2を有する。F2はX{a, b}に対応する図19の部分RNN回路から得られ、図19の部分RNN回路は理論解析が可能であるため、F2の理論解を得ることができる。従って、図18の部分RNN回路は理論解析が可能であり、b, c, dの理論解を求めることができる。 Next, a partial neuron set having the second largest number of neurons included in the subscript set is analyzed. In this case, the partial neuron set having the second largest number of neurons included in the subscript set is X {a} and X {e} . The partial RNN circuit corresponding to the partial neuron set X {a} is the partial RNN circuit of FIG. 18 and has one external input F 2 . F 2 is obtained from the partial RNN circuit of FIG. 19 corresponding to X {a, b} . Since the partial RNN circuit of FIG. 19 can be theoretically analyzed, the theoretical solution of F 2 can be obtained. Accordingly, the partial RNN circuit of FIG. 18 can perform theoretical analysis, and can obtain theoretical solutions of b, c, and d.

又、部分ニューロンの集合X{e}に対応する部分RNN回路は図20の部分RNN回路である。図20の部分RNN回路は、外部入力が無いRNN回路なので、f, gの理論解を求めることができる。 The partial RNN circuit corresponding to the partial neuron set X {e} is the partial RNN circuit of FIG. Since the partial RNN circuit of FIG. 20 is an RNN circuit having no external input, a theoretical solution of f and g can be obtained.

このように、全ての部分RNN回路の理論解析を行うことができたため、最後に元のRNN回路の解析を行うことが可能となる。図17のRNN回路は3つの外部入力F1, F2, F3を有する。F1の理論解はX{a}に対応する図18の部分RNN回路から得られ、F2の理論解はX{a, b}に対応する図19の部分RNN回路から得られ、F3の理論解はX{e}に対応する図20の部分RNN回路から得られる。従って、図17のRNN回路は理論解析が可能であり、元の図11のRNN回路も理論解析が可能であることが確認された。 As described above, since the theoretical analysis of all the partial RNN circuits can be performed, it is possible to finally analyze the original RNN circuit. The RNN circuit of FIG. 17 has three external inputs F 1 , F 2 and F 3 . The theoretical solution of F 1 is obtained from the partial RNN circuit of FIG. 18 corresponding to X {a} , the theoretical solution of F 2 is obtained from the partial RNN circuit of FIG. 19 corresponding to X {a, b} , and F 3 Is obtained from the partial RNN circuit of FIG. 20 corresponding to X {e} . Therefore, it was confirmed that the RNN circuit of FIG. 17 can be theoretically analyzed, and the original RNN circuit of FIG. 11 can also be theoretically analyzed.

又、上記の如き処理により得られた理論解析が可能な双一次結合を有するRNN回路を複数組み合わせることによって、図21のような規模が比較的大きなRNN回路を作成することもできる。図21は、規模が比較的大きなRNN回路の一例を示す図である。図21において、P1〜P4は、いずれも双一次結合を有する理論解析が可能なRNN回路である。   Further, by combining a plurality of RNN circuits having bilinear coupling that can be theoretically obtained, obtained by the above processing, an RNN circuit having a relatively large scale as shown in FIG. 21 can be created. FIG. 21 is a diagram illustrating an example of a relatively large RNN circuit. In FIG. 21, P1 to P4 are all RNN circuits having bilinear coupling and capable of theoretical analysis.

図22は、図5の理論解析が可能な双一次結合を有するRNN回路と「x3」を組み合わせたRNN回路の一例を示す図である。図22は、x3 (t)の速度がdx3 /dt(t)=2sin(t)cos(t)となるような出力を得るRNN回路を示す。 FIG. 22 is a diagram illustrating an example of an RNN circuit in which “X 3 ” is combined with an RNN circuit having a bilinear coupling that can be theoretically analyzed in FIG. 5. FIG. 22 shows an RNN circuit that obtains an output such that the speed of x 3 (t) is dx 3 / dt (t) = 2sin (t) cos (t).

このように理論解析が可能な双一次結合を有するRNN回路を複数組み合わせることにより、様々なバリエーションの出力が得られ、且つ、理論解を求めることができる双一次結合を有するRNN回路を設計して作成することができる。又、組み合わせることによって得られるRNN回路全体を解析する際も、最初からシミュレーション等の解析を行うのではなく、上記実施例の手法により理論解析が可能な部分は極力利用することによって解析を行うことで、RNN回路の設計を効率良く行うことができる。   In this way, by combining multiple RNN circuits with bilinear coupling that can be theoretically analyzed, various variations of output can be obtained, and RNN circuits with bilinear coupling that can obtain theoretical solutions are designed. Can be created. Also, when analyzing the entire RNN circuit obtained by combining, do not perform simulation analysis from the beginning, but perform analysis by using as much as possible the part that can be theoretically analyzed by the method of the above embodiment. Thus, the RNN circuit can be designed efficiently.

図23は、コンピュータシステムの一例を示すブロック図である。図23に示すコンピュータシステム100は、CPU101、記憶部102、インタフェース(I/F)103、入力装置104、及び表示部105がバス106により接続された構成を有する。CPU101は、記憶部102に格納されたプログラムを実行することによりコンピュータシステム100全体を制御する。記憶部102は、半導体記憶装置、磁気記録媒体、光記録媒体、光磁気記録媒体等で形成可能であり、上記のプログラムや各種データを格納すると共に、CPU101が実行する演算の中間結果や演算結果等を一時的に格納する一時メモリとしても機能する。I/F103は、記憶部102に格納するプログラムやデータをネットワーク(図示せず)から受信することができる。入力装置104は、キーボード等により形成可能である。表示部105は、ディスプレイ等により形成可能である。入力装置104及び表示部105は、タッチパネルのように入力装置と表示部の両方の機能を有する入出力装置で形成しても良い。   FIG. 23 is a block diagram illustrating an example of a computer system. A computer system 100 illustrated in FIG. 23 has a configuration in which a CPU 101, a storage unit 102, an interface (I / F) 103, an input device 104, and a display unit 105 are connected by a bus 106. The CPU 101 controls the entire computer system 100 by executing a program stored in the storage unit 102. The storage unit 102 can be formed of a semiconductor storage device, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, and the like. The storage unit 102 stores the above programs and various data, and also performs intermediate results and calculation results of calculations executed by the CPU 101. It also functions as a temporary memory for temporarily storing etc. The I / F 103 can receive a program and data stored in the storage unit 102 from a network (not shown). The input device 104 can be formed by a keyboard or the like. The display unit 105 can be formed by a display or the like. The input device 104 and the display unit 105 may be formed of an input / output device having functions of both the input device and the display unit, such as a touch panel.

CPU101は、記憶部102に格納されたプログラムを実行することにより、コンピュータシステム100を、ニューラルネットワークを設計する装置として機能させる。プログラムは、CPU101に少なくともニューラルネットワークの設計処理の手順を実行させるものであっても良く、記憶部102を含む適切なコンピュータ読み取り可能な記憶媒体に格納されていても良い。又、プログラムは、CPU101に少なくとも図10の双一次結合を有するRNN回路が理論解析が可能であるか否かを判断する処理を実行させるものであっても良い。つまり、CPU101に図10の双一次結合を有するRNN回路が理論解析が可能であるか否かを判断する処理を実行させるプログラムは、CPU101にニューラルネットワークの設計処理の手順を実行させるプログラムに対してプラグイン可能な構成としても良い。   The CPU 101 executes the program stored in the storage unit 102 to cause the computer system 100 to function as a device for designing a neural network. The program may cause the CPU 101 to execute at least a neural network design processing procedure, and may be stored in an appropriate computer-readable storage medium including the storage unit 102. Further, the program may cause the CPU 101 to execute a process of determining whether or not at least an RNN circuit having the bilinear coupling shown in FIG. In other words, a program that causes the CPU 101 to execute a process for determining whether or not the RNN circuit having the bilinear coupling shown in FIG. 10 is theoretically analyzable is a program that causes the CPU 101 to execute a neural network design process. It is good also as a structure which can be plugged in.

処理対象となるRNN回路、即ち、処理対象となるRNN回路のニューロンに関する情報は、コンピュータシステム100の外部からI/F103を介して記憶部102に格納されても、入力装置104から入力されて記憶部102に格納されても、CPU101が行うニューラルネットワーク設計処理中に生成されて記憶部102に格納されても良い。又、記憶部102に格納される、CPU101が実行する演算の中間結果や演算結果には、図10と共に説明した処理の各手順において求められる演算の中間結果や演算結果が含まれる。表示部105に表示される情報には、RNN回路は理論解析が不可能である旨を示すメッセージ、RNN回路は理論解析が可能である旨を示すメッセージ等が含まれる。   Information regarding the RNN circuit to be processed, that is, the neuron of the RNN circuit to be processed, is stored in the storage unit 102 via the I / F 103 from the outside of the computer system 100, but is input from the input device 104 and stored. Even if stored in the unit 102, it may be generated during the neural network design process performed by the CPU 101 and stored in the storage unit 102. In addition, the intermediate results and calculation results of the calculations executed by the CPU 101 stored in the storage unit 102 include the intermediate results and calculation results of the calculations obtained in each procedure of the processing described with reference to FIG. Information displayed on the display unit 105 includes a message indicating that the RNN circuit cannot perform theoretical analysis, a message indicating that the RNN circuit can perform theoretical analysis, and the like.

尚、コンピュータシステム100において、CPU101と他の部分との接続は、図23に示すバス106による接続に限定されないことは言うまでもない。   In the computer system 100, needless to say, the connection between the CPU 101 and other parts is not limited to the connection via the bus 106 shown in FIG.

上記実施例では、RNN回路が歩数計に適用されているが、本発明により設計されるRNN回路は歩数計に限定されず、ロボット等の駆動回路、各種装置の制御回路や音声解析回路等を含む、双一次結合を有するRNNが適用可能な各種物理モデルに対して適用可能であることは言うまでもない。   In the above embodiment, the RNN circuit is applied to the pedometer. However, the RNN circuit designed according to the present invention is not limited to the pedometer, and includes a drive circuit for a robot, a control circuit for various devices, a voice analysis circuit, and the like. Needless to say, the present invention can be applied to various physical models to which an RNN having a bilinear coupling is applicable.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
コンピュータによるニューラルネットワーク設計方法であって、
ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、
理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、
各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、
各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順、
を前記コンピュータに実行させることを特徴とする、ニューラルネットワーク設計方法。
(付記2)
前記判断手順は、前記双一次結合を有するRNN回路の任意のニューロンの双一次結合から、前記ニューロンと前記結線をさかのぼっていくと前記任意のニューロン自身に戻ってしまう結合が無い場合に前記RNN回路を理論解析が可能であると判断することを特徴とする、付記1記載のニューラルネットワーク設計方法。
(付記3)
前記分割手順は、前記理論解析が可能であると判断されたRNN回路から、ニューロン同士が結合している結線のみを取り出して得られる回路を部分RNN回路と定義することを特徴とする、付記1又は2記載のニューラルネットワーク設計方法。
(付記4)
前記分割手順は、前記部分RNN回路に対して、全ての双一次結合を外部入力関数に変換して前記双一次結合を有さない複数の部分RNN回路を求め、双一次出力に対しては前記変換を行わないことを特徴とする、付記3記載のニューラルネットワーク設計方法。
(付記5)
前記判断手順は、前記双一次結合を有するRNN回路の任意のニューロンの双一次結合から、前記ニューロンと前記結線をさかのぼっていくと前記任意のニューロン自身に戻ってしまう結合を有すると前記RNN回路を理論解析が不可能であると判断することを特徴とする、付記1乃至4のいずれか1項記載のニューラルネットワーク設計方法。
(付記6)
コンピュータにニューラルネットワークを設計させるプログラムであって、
ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、
理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、
各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、
各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順
を前記コンピュータに実行させることを特徴とする、プログラム。
(付記7)
前記判断手順は、前記双一次結合を有するRNN回路の任意のニューロンの双一次結合から、前記ニューロンと前記結線をさかのぼっていくと前記任意のニューロン自身に戻ってしまう結合が無い場合に前記RNN回路を理論解析が可能であると判断することを特徴とする、付記6記載のプログラム。
(付記8)
前記分割手順は、前記理論解析が可能であると判断されたRNN回路から、ニューロン同士が結合している結線のみを取り出して得られる回路を部分RNN回路と定義することを特徴とする、付記6又は7記載のプログラム。
(付記9)
前記分割手順は、前記部分RNN回路に対して、全ての双一次結合を外部入力関数に変換して前記双一次結合を有さない複数の部分RNN回路を求め、双一次出力に対しては前記変換を行わないことを特徴とする、付記8記載のプログラム。
(付記10)
前記判断手順は、前記双一次結合を有するRNN回路の任意のニューロンの双一次結合から、前記ニューロンと前記結線をさかのぼっていくと前記任意のニューロン自身に戻ってしまう結合を有すると前記RNN回路を理論解析が不可能であると判断することを特徴とする、付記6乃至9のいずれか1項記載のニューラルネットワーク設計方法。
(付記11)
付記5乃至10のいずれか1項記載のプログラムを記憶したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
A neural network design method using a computer,
A determination procedure for determining whether a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including a neuron and a connection is possible;
A division procedure for dividing an RNN circuit that is determined to be theoretically analyzable into a plurality of partial RNN circuits having no bilinear coupling and storing them in a storage unit;
An analysis procedure for obtaining a theoretical solution by performing a theoretical analysis of each partial RNN circuit and storing the logical solution in the storage unit;
An output procedure for obtaining and outputting the theoretical solution of the RNN circuit having the bilinear coupling by combining the theoretical solutions of the respective partial RNN circuits;
The neural network design method is characterized in that the computer is executed.
(Appendix 2)
In the determination procedure, when there is no connection that returns from the bilinear connection of an arbitrary neuron of the RNN circuit having the bilinear connection to the arbitrary neuron itself when the connection with the neuron is traced back, the RNN circuit The neural network design method according to appendix 1, wherein it is determined that a theoretical analysis is possible.
(Appendix 3)
The division procedure defines a circuit obtained by taking out only a connection in which neurons are connected from an RNN circuit that is determined to be capable of the theoretical analysis as a partial RNN circuit. Or the neural network design method described in 2.
(Appendix 4)
In the dividing procedure, for the partial RNN circuit, all bilinear couplings are converted into external input functions to obtain a plurality of partial RNN circuits that do not have the bilinear coupling. 4. The neural network design method according to appendix 3, wherein no conversion is performed.
(Appendix 5)
If the determination procedure has a connection that returns from the bilinear connection of any neuron of the RNN circuit having the bilinear connection to the neuron itself when the connection with the neuron is traced back, the RNN circuit is The neural network design method according to any one of appendices 1 to 4, wherein it is determined that theoretical analysis is impossible.
(Appendix 6)
A program that allows a computer to design a neural network,
A determination procedure for determining whether a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including a neuron and a connection is possible;
A division procedure for dividing an RNN circuit that is determined to be theoretically analyzable into a plurality of partial RNN circuits having no bilinear coupling and storing them in a storage unit;
An analysis procedure for obtaining a theoretical solution by performing a theoretical analysis of each partial RNN circuit and storing the logical solution in the storage unit;
A program for causing the computer to execute an output procedure for combining the theoretical solutions of the partial RNN circuits to obtain and output a theoretical solution of the RNN circuit having the bilinear coupling.
(Appendix 7)
In the determination procedure, when there is no connection that returns from the bilinear connection of an arbitrary neuron of the RNN circuit having the bilinear connection to the arbitrary neuron itself when the connection with the neuron is traced back, the RNN circuit The program according to appendix 6, characterized in that it is judged that theoretical analysis is possible.
(Appendix 8)
Supplementary note 6 is characterized in that, in the dividing procedure, a circuit obtained by extracting only a connection in which neurons are connected from an RNN circuit determined to be capable of the theoretical analysis is defined as a partial RNN circuit. Or the program of 7.
(Appendix 9)
In the dividing procedure, for the partial RNN circuit, all bilinear couplings are converted into external input functions to obtain a plurality of partial RNN circuits that do not have the bilinear coupling. The program according to appendix 8, wherein conversion is not performed.
(Appendix 10)
If the determination procedure has a connection that returns from the bilinear connection of any neuron of the RNN circuit having the bilinear connection to the neuron itself when the connection with the neuron is traced back, the RNN circuit is The neural network design method according to any one of appendices 6 to 9, wherein it is determined that theoretical analysis is impossible.
(Appendix 11)
A computer-readable storage medium storing the program according to any one of appendices 5 to 10.

以上、開示のニューラルネットワーク設計方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   Although the disclosed neural network design method and program have been described with the embodiments, it is needless to say that the present invention is not limited to the above embodiments, and various modifications and improvements can be made within the scope of the present invention. Yes.

10 電子装置
11 加速度センサ
12 メモリ
13 CPU
14 表示装置
100 コンピュータシステム
101 CPU
102 記憶部
103 I/F
104 入力装置
105 表示部
10 Electronic Device 11 Acceleration Sensor 12 Memory 13 CPU
14 display device 100 computer system 101 CPU
102 storage unit 103 I / F
104 Input device 105 Display unit

Claims (5)

コンピュータにニューラルネットワークを設計させるプログラムであって、
ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、
理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、
各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、
各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順、
を前記コンピュータに実行させることを特徴とする、プログラム。
A program that allows a computer to design a neural network,
A determination procedure for determining whether a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including a neuron and a connection is possible;
A division procedure for dividing an RNN circuit that is determined to be theoretically analyzable into a plurality of partial RNN circuits having no bilinear coupling and storing them in a storage unit;
An analysis procedure for obtaining a theoretical solution by performing a theoretical analysis of each partial RNN circuit and storing the logical solution in the storage unit;
An output procedure for obtaining and outputting the theoretical solution of the RNN circuit having the bilinear coupling by combining the theoretical solutions of the respective partial RNN circuits;
Is executed by the computer.
前記判断手順は、前記双一次結合を有するRNN回路の任意のニューロンの双一次結合から、前記ニューロンと前記結線をさかのぼっていくと前記任意のニューロン自身に戻る結合が無い場合に前記RNN回路を理論解析が可能であると判断することを特徴とする、請求項1記載のプログラム。   The determination procedure is based on the assumption that the RNN circuit is connected when there is no connection that goes back from the bilinear connection of any neuron of the RNN circuit having the bilinear connection back to the neuron itself when the connection is made with the neuron. The program according to claim 1, wherein it is determined that analysis is possible. 前記分割手順は、前記理論解析が可能であると判断されたRNN回路から、ニューロン同士が結合している結線のみを取り出して得られる回路を部分RNN回路と定義することを特徴とする、請求項1又は2記載のプログラム。   The division procedure defines, as a partial RNN circuit, a circuit obtained by taking out only a connection in which neurons are connected from an RNN circuit determined to be capable of the theoretical analysis. The program according to 1 or 2. 前記分割手順は、前記部分RNN回路に対して、全ての双一次結合を外部入力関数に変換して前記双一次結合を有さない複数の部分RNN回路を求め、双一次出力に対しては前記変換を行わないことを特徴とする、請求項3記載のプログラム。   In the dividing procedure, for the partial RNN circuit, all bilinear couplings are converted into external input functions to obtain a plurality of partial RNN circuits that do not have the bilinear coupling. 4. The program according to claim 3, wherein no conversion is performed. コンピュータによるニューラルネットワーク設計方法であって、
ニューロンと結線を含んだ双一次結合を有するリカレントニューラルネットワーク(RNN)回路の理論解析が可能であるか否かを判断する判断手順と、
理論解析が可能であると判断されたRNN回路を、双一次結合を有さない複数の部分RNN回路に分割して記憶部に格納する分割手順と、
各部分RNN回路の理論解析を行うことで理論解を求めて、前記記憶部に前記論理解を格納する解析手順と、
各部分RNN回路の前記理論解を組み合わせて前記双一次結合を有するRNN回路の理論解を求めて出力する出力手順
を前記コンピュータに実行させることを特徴とする、ニューラルネットワーク設計方法。
A neural network design method using a computer,
A determination procedure for determining whether a theoretical analysis of a recurrent neural network (RNN) circuit having a bilinear connection including a neuron and a connection is possible;
A division procedure for dividing an RNN circuit that is determined to be theoretically analyzable into a plurality of partial RNN circuits having no bilinear coupling and storing them in a storage unit;
An analysis procedure for obtaining a theoretical solution by performing a theoretical analysis of each partial RNN circuit and storing the logical solution in the storage unit;
A method for designing a neural network, comprising: causing the computer to execute an output procedure for obtaining and outputting a theoretical solution of an RNN circuit having the bilinear combination by combining the theoretical solutions of each partial RNN circuit.
JP2011071170A 2011-03-28 2011-03-28 Neural network design method and program Expired - Fee Related JP5682403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011071170A JP5682403B2 (en) 2011-03-28 2011-03-28 Neural network design method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011071170A JP5682403B2 (en) 2011-03-28 2011-03-28 Neural network design method and program

Publications (2)

Publication Number Publication Date
JP2012203888A JP2012203888A (en) 2012-10-22
JP5682403B2 true JP5682403B2 (en) 2015-03-11

Family

ID=47184771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011071170A Expired - Fee Related JP5682403B2 (en) 2011-03-28 2011-03-28 Neural network design method and program

Country Status (1)

Country Link
JP (1) JP5682403B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135723A1 (en) * 2006-05-22 2007-11-29 Fujitsu Limited Neural network learning device, method, and program

Also Published As

Publication number Publication date
JP2012203888A (en) 2012-10-22

Similar Documents

Publication Publication Date Title
KR102402111B1 (en) Apparatus and method for performing forward computation in convolutional neural networks
CN115456159A (en) Data processing method and data processing equipment
US20160299998A1 (en) Logic circuit generation device and method
JP7048540B2 (en) Recognition device, recognition method and program
EP1460567A2 (en) Analytical shell-model producing apparatus
US20080183524A1 (en) Method and apparatus for determining design modification effects on a computerized engineering model
Mardiris et al. A CAD system for modeling and simulation of computer networks using cellular automata
JP2006278803A (en) Method, system, and program for analyzing warpage of board
CN113190905A (en) Building model analysis method and device and storage medium
JP5682403B2 (en) Neural network design method and program
JP2016143210A (en) Magnetic field simulator program, magnetic field simulator and magnetic field simulation method
KR102208274B1 (en) Fma-unit, in particular for use in a model calculation unit for pure hardware-based calculation of a function-model
de la Fuente An efficient procedure to obtain exact solutions in random vibration analysis of linear structures
JP5510014B2 (en) Neural network design method and program
JP5888013B2 (en) Neural network design method, program, and digital analog fitting method
JP2008129914A (en) Software verification model generation device and method
CN113674810A (en) Atomic dense arrangement surface and two-dimensional lattice calculation method and device
CN117648844B (en) Calculation method and device for dispersion characteristics of waveguide structure
JP5034041B2 (en) Data generation circuit and data generation method
Zhang et al. Applications of Hardware Implementation of P Systems
Lin et al. Fundamental Study of Descriptive Vector Statics
JP5807732B2 (en) Performance prediction apparatus, performance prediction method, and performance prediction program
Büscher et al. Data Augmentation Framework for Smart Sensor System Development Using the Sensor-in-the-Loop Prototyping Platform
JP2019016382A (en) Circuit design method and program
Nopper et al. Flexible modeling of unknowns in model checking for incomplete designs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141229

R150 Certificate of patent or registration of utility model

Ref document number: 5682403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees