JPH06348675A - Neuro-computer application equipment and machinery provided with the neuro-computer application equipment - Google Patents

Neuro-computer application equipment and machinery provided with the neuro-computer application equipment

Info

Publication number
JPH06348675A
JPH06348675A JP5163193A JP16319393A JPH06348675A JP H06348675 A JPH06348675 A JP H06348675A JP 5163193 A JP5163193 A JP 5163193A JP 16319393 A JP16319393 A JP 16319393A JP H06348675 A JPH06348675 A JP H06348675A
Authority
JP
Japan
Prior art keywords
neurons
neuron
neurocomputer
neural network
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5163193A
Other languages
Japanese (ja)
Inventor
Shunsuke Mimura
俊介 三村
Tadashi Kataoka
匡史 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ebara Corp
Original Assignee
Ebara Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ebara Corp filed Critical Ebara Corp
Priority to JP5163193A priority Critical patent/JPH06348675A/en
Publication of JPH06348675A publication Critical patent/JPH06348675A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To provide a practical neuro-computer capable of performing complicated processings such as the optimum operation of a plant or the like which was actually difficult to be made practicable before. CONSTITUTION:This equipment is composed of a generation means 11 for generating neurons and synapses, a means for connecting the generated neurons and synapses and constructing a neural network and a driving means 13 for inputting a feature amount and teacher signals to the neural network 14 and performing learning and is provided with the means 15 for exchanging the optional neurons constituting the neural network with the other neurons with different input/output characteristics or optionally connecting and disconnecting the neurons.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、機器構成の複雑なプラ
ント等の最適運転等を行うことのできる学習機能を備え
たニューロコンピュータに係り、特にノイマン型コンピ
ュータ上で動作するシミュレーションプログラムでシミ
ュレートされたニューロコンピュータの構造に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuro computer having a learning function capable of performing optimum operation of a plant having a complicated equipment configuration, and particularly, it is simulated by a simulation program operating on a Neumann type computer. The structure of the created neuro computer.

【0002】[0002]

【従来の技術】ニューロコンピュータとは、生物の神経
系の仕組みを工学的に模擬し、神経細胞に相当する多数
のニューロン中を信号が超並列で伝達されることによ
り、生物の神経系と同様な情報処理を実現しようとする
コンピュータである。そこには、直列型の処理を行うノ
イマン型コンピュータによる情報処理では実現不可能
な、種々の可能性があり、最近とみに発達してきてい
る。
2. Description of the Related Art A neurocomputer is similar to the nervous system of an organism in that it mimics the mechanism of the nervous system of an organism by engineering, and signals are transmitted in a massively parallel manner among many neurons corresponding to nerve cells. It is a computer that is trying to realize various information processing. There are various possibilities that cannot be realized by information processing by a Neumann computer that performs serial processing, and they have been recently developed.

【0003】現段階のニューロコンピュータは、神経細
胞の単位となるニューロンそのものをハードウエア化す
るのは困難といわれている。このため、一般的にニュー
ラルネットワークモデルをシミュレータ、即ちコンピュ
ータプログラムで実装し、そのプログラムを従来のノイ
マン型コンピュータそのものを使用して処理することに
より、ニューロコンピュータをシミュレートしている。
尚、従来のニューロコンピュータに関しては多数の解説
書が市販されており、例えば、甘利俊一著「ニューロコ
ンピュータ」読売新聞社発行等を参照願いたい。
It is said that it is difficult for the neurocomputer at the present stage to make the neurons themselves, which are the units of nerve cells, into hardware. Therefore, a neural computer is generally simulated by implementing a neural network model by a simulator, that is, a computer program, and processing the program using a conventional Neumann type computer itself.
Many conventional manuals are available on the market for neurocomputers, for example, see Shunichi Amari's "Neurocomputer" published by Yomiuri Shimbun.

【0004】以下に従来のシミュレーションプログラム
でノイマン型コンピュータ上にシミュレートされたニュ
ーロコンピュータの構成とその学習方法について説明す
る。
The structure of a neuro computer simulated on a Neumann type computer by a conventional simulation program and its learning method will be described below.

【0005】図9は、センサニューロンからなるS層4
個、レスポンスニューロンからなるR層3個の階層型ニ
ューラルネットワーク構成の一例である。ここで、図9
に示すようにS層のセンサニューロンをs1〜s4、R
層のレスポンスニューロンをr1〜r3とし、入力をx
1〜x4、出力をu1〜u3とする。又レスポンスニュ
ーロンの持つしきい値はθ1〜θ3とする。
FIG. 9 shows an S layer 4 composed of sensor neurons.
This is an example of a hierarchical neural network configuration of three R layers each consisting of one response neuron. Here, FIG.
, The sensor neurons of the S layer are s1 to s4, R
The response neurons of the layer are r1 to r3, and the input is x
1 to x4 and outputs u1 to u3. The thresholds of the response neurons are θ1 to θ3.

【0006】従来のニューロコンピュータは、入力と出
力の関係がすべてマトリクスで表現されている。即ち、
例えば入出力の荷重の関係は下表に示すようなマトリク
ス関係式で表わされる。
In the conventional neurocomputer, the relationship between the input and the output is all expressed by a matrix. That is,
For example, the input / output load relationship is expressed by a matrix relational expression as shown in the table below.

【表1】 入力ベクトルから出力ベクトルを求めるには、入力X、
荷重マトリックスW、しきい値θ、出力Uをそれぞれベ
クトル(マトリックス)で表わすと以下のようになる。
[Table 1] To obtain the output vector from the input vector, input X,
The weight matrix W, the threshold value θ, and the output U are respectively represented by a vector (matrix) as follows.

【数1】 出力ベクトルUは次式で表わされる。 U=f(W・X・θ) ここで、fはニューラルネットワークの入出力特性を表
わす関数である。
[Equation 1] The output vector U is expressed by the following equation. U = f (W * X * (theta)) Here, f is a function showing the input-output characteristic of a neural network.

【0007】このようなニューラルネットワークに入力
データと教師信号を与えて学習する場合に、従来のニュ
ーロコンピュータでは、パターンベクトルを認識する手
法が用いられている。この手法では認識させたいデータ
をパターンとしてそのまま正規化して入力し、認識能力
の高いニューロコンピュータのアルゴリズムを用い、ニ
ューロコンピュータの学習プロセスですべてを認識させ
る。具体的には、シナプス結合荷重マトリクスWの初期
値を、例えば乱数で与えておく。そして、入力のパター
ンベクトルを与えて出力ベクトルを計算する。出力結果
を教師信号と比較して学習アルゴリズムから荷重マトリ
クスWの差分ΔWを計算する。そして、荷重マトリクス
をW−ΔWに書き換えて修正する。このような過程をす
べての入力信号と教師信号の組に対して実施し、又、こ
の組合せを数回或いは数十回繰り返して、シナプス結合
荷重マトリクスWは、すべての入力に対して教師信号と
一致する方向で修正される(学習プロセス)。
In the case of applying input data and a teacher signal to such a neural network for learning, a conventional neurocomputer uses a method of recognizing a pattern vector. In this method, the data to be recognized is directly input as a pattern, and the algorithm of the neuro computer with high recognition ability is used to recognize all in the learning process of the neuro computer. Specifically, the initial value of the synapse coupling weight matrix W is given by, for example, a random number. Then, the input vector is given and the output vector is calculated. The difference ΔW of the weight matrix W is calculated from the learning algorithm by comparing the output result with the teacher signal. Then, the weight matrix is rewritten to W-ΔW for correction. This process is performed for all the sets of input signals and teacher signals, and this combination is repeated several times or several tens of times, and the synapse coupling weight matrix W becomes the teacher signals for all inputs. It is modified in the matching direction (learn process).

【0008】[0008]

【発明が解決しようとする課題】しかしながら、係る従
来のニューロコンピュータの学習アルゴリズムでは、入
力パターンに明確に特徴が現れており、かつ大量に学習
データがある場合を除いて、超高速大容量のコンピュー
タを用いても学習に成功する可能性が低かった。即ち、
機器構成の複雑なプラント等の運転を正確になし得るよ
うなニューロコンピュータを得ようとすると、ニューラ
ルネットワークの荷重マトリクスWを修正する学習プロ
セスを何回繰り返しても荷重マトリクスWが収束せず、
最適な荷重マトリクスWが求められない場合が多かっ
た。学習プロセスで収束しなかった場合、あるいは未学
習データを正しく認識できなかった場合は、入力データ
の正規化を変更するかネットワークの組成を変更する。
ネットワークは一般にかなり大規模になり、内部をブラ
ックボックスとして扱うため、変更は試行錯誤であり、
これによって成功する可能性は極めて低い。
However, in such a conventional learning algorithm for a neurocomputer, a computer having an ultra-high speed and a large capacity is used except when the input pattern clearly shows the characteristics and a large amount of learning data exists. It was unlikely that learning would succeed even when using. That is,
In order to obtain a neurocomputer capable of accurately operating a plant having a complicated equipment configuration, the weight matrix W does not converge no matter how many times the learning process of correcting the weight matrix W of the neural network is repeated.
In many cases, the optimum load matrix W cannot be obtained. If the learning process does not converge, or if the unlearned data cannot be correctly recognized, the normalization of the input data is changed or the composition of the network is changed.
Changes are trial-and-error, as networks generally get quite large and treat the interior as a black box.
This is extremely unlikely to succeed.

【0009】従来の学習アルゴリズムでも、自動認識、
カテゴリ分類等を行う場合には、学習プロセスに成功す
る場合もある。しかしながら、従来の学習アルゴリズム
では、機器構成の複雑なプラント等の運転を最適になし
得るニューロコンピュータを求める等の少し複雑な問題
においては、現実的には使いものにならない場合が多か
った。
Even with the conventional learning algorithm, automatic recognition,
The learning process may be successful when performing category classification or the like. However, in the conventional learning algorithm, in many cases, it is practically unusable for a slightly complicated problem such as finding a neuro computer that can optimally operate a plant having a complicated device configuration.

【0010】係る従来技術の問題点に鑑み、本発明は従
来の学習アルゴリズムの範囲内で、機器構成の複雑なプ
ラントの最適運転等の複雑な問題の解決に実用可能なニ
ューロコンピュータを提供することを目的とするもので
ある。
In view of the above-mentioned problems of the prior art, the present invention provides a neurocomputer which can be practically used for solving complicated problems such as optimum operation of a plant having a complicated equipment configuration within the range of the conventional learning algorithm. The purpose is.

【0011】[0011]

【課題を解決するための手段】本発明は、ニューロン及
びシナプスを生成する発生手段と、該生成されたニュー
ロン及びシナプスを結合してニューラルネットワークを
構築する手段と、該ニューラルネットワークに特徴量及
び教師信号を入力して学習を行うドライブ手段とからな
り、前記ニューラルネットワークを構成する任意のニュ
ーロンを入出力特性の異なる他のニューロンと交換し、
或いはニューロン間を任意に接続、切断する手段を備え
たことを特徴とする。
According to the present invention, a generating means for generating neurons and synapses, a means for connecting the generated neurons and synapses to construct a neural network, a feature quantity and a teacher for the neural network. Drive means for inputting and learning a signal, and exchanging any neuron constituting the neural network with another neuron having different input / output characteristics,
Alternatively, it is characterized in that a means for arbitrarily connecting and disconnecting the neurons is provided.

【0012】又、本発明は、前記シナプスは少なくとも
入出力のニューロンとの結合関係の情報及び荷重のデー
タを備え、前記ニューロンは、センサニューロンとレス
ポンスニューロンとからなり、少なくともそれぞれ前記
のシナプスとの結合関係の情報及びデータ及びレスポン
スニューロンには学習機能のプログラムを備え、該レス
ポンスニューロンの備える学習機能により前記シナプス
の荷重のデータを書き替えるものであることを特徴とす
る。
Further, in the present invention, the synapse includes at least information on a connection relation with input / output neurons and load data, and the neurons are composed of sensor neurons and response neurons, and at least each of the synapses is connected to the synapse. It is characterized in that the information and data of the connection relation and the response neuron are provided with a program of a learning function, and the data of the synapse weight is rewritten by the learning function of the response neuron.

【0013】[0013]

【作用】任意の特性を有するニューロン及びシナプスを
生成する発生手段と、ニューラルネットワークの構成手
段を備え、ニューラルネットワーク内のニューロンを入
出力特性の異なる他のニューロンと交換し、或いはニュ
ーロン間の切断、接続を可能とする手段を備えたことか
ら、ニューロコンピュータの内部状態、および出力との
因果関係から、ニューロン単位での入出力特性の変更、
ネットワーク構造の変更を局部的に行うことができる。
それ故、ニューロコンピュータの開発者にとってニュー
ラルネットワークの不具合箇処を学習プロセスの中途で
最適な特性を有するニューロンに交換するなどの手直し
を行うことが可能となり、短期間で学習プロセスを収束
させることができ、複雑なシステムに対して解が求めら
れる実用的なニューロコンピュータを実現できる。
The present invention is provided with a generation means for generating neurons and synapses having arbitrary characteristics and a means for constructing a neural network, and exchanges neurons in the neural network with other neurons having different input / output characteristics, or disconnects between neurons. Since the means for enabling connection is provided, the input / output characteristics of each neuron are changed from the internal state of the neurocomputer and the causal relationship with the output,
The network structure can be changed locally.
Therefore, it becomes possible for a neurocomputer developer to revise a defect part of the neural network to a neuron having an optimal characteristic in the middle of the learning process, and the learning process can be converged in a short period of time. It is possible to realize a practical neurocomputer that requires a solution for a complicated system.

【0014】[0014]

【実施例】図1は、本発明の一実施例のニューロコンピ
ュータのブロック図である。このニューロコンピュータ
は、ニューロン及びシナプスを生成する発生手段11
と、該生成されたニューロン及びシナプスを結合してニ
ューラルネットワーク14を構築する手段12と、該ニ
ューラルネットワークに特徴量及び教師信号を入力して
学習を行うドライブ手段13とから構成される。前記発
生手段11により生成されるニューロンはそれぞれ入出
力のシナプスとの結合関係、閾値等のデータ、入出力特
性、学習のプログラム等を有し、前記発生手段11によ
り生成されるシナプスはそれぞれ入出力のニューロンと
の結合関係、荷重等のデータを有する。又、前記ニュー
ラルネットワークを構成する任意のニューロンを入出力
特性の異なる他のニューロンと交換し、或いはニューロ
ン間を任意に接続、切断する手段15を備えている。
1 is a block diagram of a neurocomputer according to an embodiment of the present invention. This neurocomputer has a generating means 11 for generating neurons and synapses.
A means 12 for constructing a neural network 14 by connecting the generated neurons and synapses, and a drive means 13 for inputting a feature amount and a teacher signal to the neural network for learning. Each neuron generated by the generating means 11 has a connection relation with input / output synapses, data such as threshold values, input / output characteristics, a learning program, etc., and each synapse generated by the generating means 11 is input / output. It has data such as the connection relations with the neurons of and the weights. Further, there is provided means 15 for exchanging an arbitrary neuron constituting the neural network with another neuron having different input / output characteristics, or arbitrarily connecting and disconnecting the neurons.

【0015】本発明では、ニューロコンピュータを構成
するソフトウエアに、オブジェクト指向プログラミング
を導入している。オブジェクト指向プログラミングで
は、データ構造とそのデータの振舞い(手続き)をカプ
セル化したものをオブジェクトと定義し、それがソフト
ウェアの最小単位となる。オブジェクトのテンプレート
をクラスと呼び、関連したものどうしに継承関係を持た
せることができる。ソフトウェアの駆動はオブジェクト
間のメッセージ交換によって行われる。又オブジェクト
指向におけるモデリングは、現実の「物(オブジェク
ト)」を忠実にコンピュータ上のオブジェクトに写像す
ることによって行われる。オブジェクト指向プログラミ
ングの導入によって、データ構造(属性)とそのデータ
の振る舞い(メソッド)をカプセル化したニューロン及
びシナプスをオブジェクトと定義し、これらをニューラ
ルネットワークを構成する最小単位としている。
In the present invention, object-oriented programming is introduced into the software that constitutes the neurocomputer. In object-oriented programming, an encapsulation of a data structure and the behavior (procedure) of that data is defined as an object, which is the minimum unit of software. Object templates are called classes, and related objects can have inheritance relationships. The software is driven by exchanging messages between objects. The object-oriented modeling is performed by faithfully mapping an actual "object" to an object on a computer. With the introduction of object-oriented programming, the neurons and synapses that encapsulate the data structure (attribute) and the behavior (method) of that data are defined as objects, and these are the minimum units that make up the neural network.

【0016】本発明のニューロコンピュータでは、各オ
ブジェクトを生成するためのクラス(金型)を図2に示
すように定義する。ここでニューロコンピュータの本質
であるシナプス結合荷重(weight)は、シナプスのデー
タ(属性)として保持される。又シナプスのクラス(金
型)は、そのシナプスが結合する入出力のニューロンと
の結合関係を示すポインタ(input neuron, output neu
ron )をデータ(属性)として有する。又、振るまい
(メソッド)として、入出力の関数特性(g)を有す
る。この入出力特性(g)は、通常直線的な関数を用い
ている。一方、ニューロンのクラス(金型)はデータ
(属性)として、しきい値(θ)、そのニューロンが結
合する入出力のシナプスとの結合関係を示すポインタ
(input synapse,output synapse )、出力値(u)を
持ち、メソッドとして入出力の関数特性(f)、学習機
能(learn )プログラムを有する。従って、結合荷重
(weight)はシナプス自身が保持しており、入出力特性
(f)やしきい値(θ)及び学習機能プログラム(lear
n )はニューロン自身が個々に独立して保持している。
In the neurocomputer of the present invention, a class (mold) for generating each object is defined as shown in FIG. Here, the synapse connection weight (weight) which is the essence of the neurocomputer is held as synapse data (attribute). A synapse class (mold) is a pointer (input neuron, output neu) that indicates the connection relationship between the input and output neurons to which the synapse connects.
ron) as data (attribute). Further, it has an input / output function characteristic (g) as a behavior (method). This input / output characteristic (g) normally uses a linear function. On the other hand, the class (mold) of a neuron is data (attribute) as a threshold value (θ), a pointer (input synapse, output synapse) indicating the connection relationship between the input and output synapses connected to the neuron, and the output value ( u) and has a function characteristic (f) of input / output and a learning function (learn) program as a method. Therefore, the synapse itself holds the connection weight (weight), and the input / output characteristic (f), threshold value (θ), and learning function program (lear).
n) is held independently by the neuron itself.

【0017】図3は、本発明の一実施例のニューラルネ
ットワークの構築を示す説明図であり、(A)はクラス
(金型)の継承構造を示す。図1に示すニューラルネッ
トワーク14において、S層のセンサニューロンと、R
層のレスポンスニューロンでは、ニューロンの動作が異
なる。例えば、S層のセンサニューロンには学習機能は
不要であるが、R層のレスポンスニューロンには学習ア
ルゴリズムがそれぞれ必要である。一方、入出力特性は
センサニューロン、レスポンスニューロン共に必要で、
入力と出力の関数を規定する。従って、ニューロンは、
センサニューロンとレスポンスニューロンに大別され、
学習アルゴリズム(learn )の有無、入出力特性の違い
があり、これらは共通のクラス(金型)から、データ及
びメソッドの相違を有して継承構造として生成される。
FIG. 3 is an explanatory diagram showing the construction of a neural network according to an embodiment of the present invention. FIG. 3A shows the inheritance structure of classes (molds). In the neural network 14 shown in FIG. 1, sensor neurons of the S layer and R
In the response neurons of the layers, the behavior of the neurons is different. For example, the learning neurons are not required for the sensor neurons of the S layer, but the learning algorithms are required for the response neurons of the R layer. On the other hand, input / output characteristics are required for both sensor neurons and response neurons.
Specifies input and output functions. Therefore, the neuron
It is roughly divided into sensor neurons and response neurons,
There is a learning algorithm (learn) and a difference in input / output characteristics. These are generated as an inheritance structure from a common class (mold) with a difference in data and method.

【0018】一般にオブジェクト指向プログラミングに
おけるクラスの継承構造は、オブジェクト間の共通の属
性、メソッドを上位クラスに定義し、異なる部分のみを
下位クラスに定義する。そして下位クラスは上位クラス
の属性、メソッドを継承するので、上位クラスほど抽象
概念を表わし、下位クラスほど具体的になる。本発明の
ニューロコンピュータでは、最上位クラスにシナプスと
ニューロンを定義して、ニューロンはセンサニューロン
とレスポンスニューロンとに次の上位クラスで定義して
いる点に特徴がある。シナプスはネットワーク内で共通
のものを用いるため、下位クラスを持たない。従って、
ニューロンは図4(A)に示すような継承構造を持つ。
Generally, in the class inheritance structure in object-oriented programming, common attributes and methods between objects are defined in a superordinate class, and only different parts are defined in a subordinate class. Since the lower class inherits the attributes and methods of the upper class, the upper class represents an abstract concept, and the lower class becomes more specific. The neurocomputer of the present invention is characterized in that synapses and neurons are defined in the highest class, and the neurons are defined in the following higher classes as sensor neurons and response neurons. Synapses have no subclass because they use common ones in the network. Therefore,
The neuron has an inheritance structure as shown in FIG.

【0019】本発明のニューロコンピュータでは、各ク
ラス(金型)からシナプス、ニューロンのオブジェクト
を生成し、生成されたニューロン及びシナプスをリンク
する手段12によりニューラルネットワーク14が構築
される。又、該ニューラルネットワーク14に特徴量及
び教師信号を入力して学習を行うドライブ手段13を備
え、オブジェクト間のメッセージ送信或いはメソッドの
呼出しによりニューラルネットワークが駆動され、出力
ベクトルの算定、教師信号との比較、シナプス結合荷重
ΔWの算定、シナプス結合荷重Wの修正等の学習プロセ
スが行われる(図1参照)。
In the neurocomputer of the present invention, a neural network 14 is constructed by means 12 for generating synapse and neuron objects from each class (mold) and linking the generated neurons and synapses. Further, the neural network 14 is provided with drive means 13 for learning by inputting a feature amount and a teacher signal, and the neural network is driven by message transmission between objects or by calling a method, and output vector calculation, teacher signal Learning processes such as comparison, calculation of the synapse coupling load ΔW, correction of the synapse coupling load W, etc. are performed (see FIG. 1).

【0020】ニューラルネットワークの形成は図3
(B)、(C)に示すように2ステップのネットワーク
構築手段12による。 1)まず、図3(B)に示すように各クラス(金型)か
らオブジェクトである所定のデータ、メソッドを有する
ニューロン、シナプスを生成する。 2)次に、図3(C)に示すように予め想定したネット
ワーク構造に従ってシナプスをリンクする。初期状態で
のシナプス結合荷重W等は乱数または一定値が入力され
る。
The formation of the neural network is shown in FIG.
As shown in (B) and (C), the two-step network construction means 12 is used. 1) First, as shown in FIG. 3B, neurons and synapses having predetermined data and methods, which are objects, are generated from each class (mold). 2) Next, as shown in FIG. 3 (C), the synapses are linked according to a network structure assumed in advance. A random number or a constant value is input to the synapse coupling weight W and the like in the initial state.

【0021】ネットワークは、特徴量及び教師信号を入
力して学習を行うドライバ手段13により図4に示す手
順に従って駆動される。 ステップ1)センサニューロンs1に入力ベクトルx1
を入力する。 ステップ2)s1はメソッドである入出力特性fに従っ
た値をシナプスに出力する。 ステップ3)シナプスは入力された値と属性として持つ
結合荷重Wを用いて入出力特性(g)に従った値をr1
に出力する。 ステップ4)同様にr1にリンクされたすべてのシナプ
スがr1に出力する。 ステップ5)r1は入力された値を合計して入出力特性
(f)に従ってu1を出力する。
The network is driven according to the procedure shown in FIG. 4 by the driver means 13 for learning by inputting the feature amount and the teacher signal. Step 1) Input vector x1 to the sensor neuron s1
Enter. Step 2) s1 outputs a value according to the input / output characteristic f, which is a method, to the synapse. Step 3) The synapse uses the input value and the connection weight W as an attribute to calculate the value according to the input / output characteristic (g) as r1.
Output to. Step 4) Similarly, all synapses linked to r1 output to r1. Step 5) r1 sums the input values and outputs u1 according to the input / output characteristic (f).

【0022】学習はそれぞれのニューロンのメソッドの
学習プログラム(learn )に基づいて出力(u)と教師
信号とが演算比較される。教師信号と出力値(u)との
差分である各シナプスの結合荷重(ΔW)が計算され、
ニューロンから各シナプスに結合荷重の差分(ΔW)の
データが渡され、各シナプスでは新しい結合荷重(W−
ΔW)にデータが書き替えられる。尚、メソッドはクラ
ス毎に定義可能であるため、異なった入出力特性を持つ
クラスを予め用意し、そのクラスからニューロンのオブ
ジェクトを生成すれば、ニューロン毎に異なった演算に
基づいた学習出力が可能になる。
In learning, the output (u) and the teacher signal are arithmetically compared based on the learning program (learn) of the method of each neuron. The connection weight (ΔW) of each synapse, which is the difference between the teacher signal and the output value (u), is calculated,
The data of the difference (ΔW) of the connection weight is passed from the neuron to each synapse, and the new connection weight (W-
The data is rewritten to ΔW). Since the method can be defined for each class, if a class with different input / output characteristics is prepared in advance and a neuron object is generated from that class, learning output based on different operations for each neuron is possible. become.

【0023】ニューロンやシナプスの生成、それらのリ
ンクによるネットワークの構築は全て任意の時点で変更
することができる手段15を備えている(図1参照)。
従って、ニューロコンピュータが一組の入力と教師信号
の比較による学習を行った後であっても、或るニューロ
ンを入出力特性の異なる他のクラスのニューロンと交換
する、或いはニューロンを追加し、ネットワークの構成
を動的に変化させることが可能である。
Generation of neurons and synapses, and construction of a network by their links are all provided with means 15 that can be changed at any time (see FIG. 1).
Therefore, even after the neurocomputer has performed learning by comparing a set of inputs with a teacher signal, a neuron is exchanged with another class of neuron having different input / output characteristics, or a neuron is added to the network. It is possible to dynamically change the configuration of.

【0024】例えば、ネットワークの入力層(S層)を
形成するセンサニューロンは、入力値をそのままレスポ
ンス層(R層)のニューロンに伝達するのが役割であ
る。従って、通常はリニアな特性(f)を持つセンサニ
ューロンを使用する。ここで、ニューラルネットワーク
内部の状態を観察して解析した結果、入力データの特徴
量の一つが敏感に利き過ぎていた場合、図5に示すステ
ップによりニューロンの交換が可能である。 ステップ1)ネットワーク形成時は標準のリニアな入力
特性(f)を有するセンサニューロンである。 ステップ2)変更したいニューロンを選んで切り離す。 ステップ3)クラス(金型)のライブラリから適当な関
数の入出力特性(f)を有するセンサニューロンのオブ
ジェクトを生成する。 ステップ4)切り離したニューロンの代わりに新たに生
成したニューロンをリンクする。 この操作は入力データである特徴量の一つに、その場で
フィルタをかけたのと同じ効果を持つ。
For example, the sensor neuron forming the input layer (S layer) of the network has a role of transmitting the input value as it is to the neuron of the response layer (R layer). Therefore, normally, a sensor neuron having a linear characteristic (f) is used. Here, as a result of observing and analyzing the internal state of the neural network, if one of the feature quantities of the input data is too sensitive, the neurons can be exchanged by the steps shown in FIG. Step 1) A sensor neuron having a standard linear input characteristic (f) during network formation. Step 2) Select and disconnect the neuron you want to change. Step 3) An object of a sensor neuron having an input / output characteristic (f) of an appropriate function is generated from a class (mold) library. Step 4) Link the newly generated neuron instead of the separated neuron. This operation has the same effect as filtering one of the features that is the input data on the spot.

【0025】ニューロンと同様にシナプスも動的な生
成、消去が可能となる。例えばある入力データである特
徴量とレスポンスニューロンの間に、理論的に因果関係
が無い場合、あるいはその特徴量によって誤認識してし
まう場合は、図6に示すプロセスによる操作が可能であ
る。 ステップ1)ネットワーク形成時はセンサニューロンと
レスポンスニューロンが完全結合していたとする。この
場合、レスポンスニューロンにはすべての特徴量が入力
される。 ステップ2)不要なシナプスを選んで切り離す。 ステップ3)ネットワーク構造は不規則になるが、支障
なく動作する。 この操作は特徴量の絞り込みに相当する。また、何らか
の評価量が設定できれば、ニューラルネットワーク自身
が学習中にネットワーク構造を変化させることが可能と
なる。
Similar to neurons, synapses can be dynamically generated and deleted. For example, when there is theoretically no causal relationship between the feature amount which is a certain input data and the response neuron, or when the feature amount is erroneously recognized, the operation shown in FIG. 6 can be performed. Step 1) It is assumed that the sensor neuron and the response neuron are completely connected when the network is formed. In this case, all feature quantities are input to the response neuron. Step 2) Select unnecessary synapses and separate them. Step 3) The network structure is irregular, but works without any problems. This operation corresponds to narrowing down the feature amount. Also, if some evaluation amount can be set, the neural network itself can change the network structure during learning.

【0026】このニューラルネットワークでは、データ
はシナプスを経由してニューロン間を伝わるため、伝達
経路(即ちネットワーク構造)の変更は、単にシナプス
の追加、削除のみで可能となる。不要なシナプスの切り
離しにより、学習の過程で演算が減り、計算時間が短縮
されるとともに、計算のパラメータが減ることから、最
適解への収斂が容易となる。
In this neural network, data is transmitted between neurons via synapses, so that the transmission path (that is, the network structure) can be changed simply by adding or deleting synapses. The separation of unnecessary synapses reduces the number of calculations in the learning process, shortens the calculation time, and reduces the parameters for calculation, which facilitates the convergence to the optimum solution.

【0027】本発明では、ニューロコンピュータのデー
タの入力法として、前述のパターンベクトルを用いた手
法と異なり、特徴量ベクトルを用いる手法が用いられて
いる。この手法は、パターンから何らかの特徴量を前処
理段階で抽出し、その特徴量をベクトルとしてニューラ
ルネットワークに入力する手法である。この方法は、特
徴量を抽出するプロセスは対象とする現象への深い理解
が必要であり、かつ手間がかかるため前処理の比重が高
く、ニューロコンピュータの負荷が低いため学習に成功
する可能性が高いと考えられている。特徴量ベクトルを
用いる場合、前述のように入力する特徴量とニューロコ
ンピュータの内部状態、出力の因果関係を観察して、イ
ンタラクティブに内部を解析して、ネットワークのニュ
ーロンの交換、接続、切断を行うことにより学習の効率
を大幅に改善することができる。
In the present invention, as a method of inputting data to the neurocomputer, a method of using a feature quantity vector is used, unlike the method of using a pattern vector described above. This method is a method of extracting some feature amount from a pattern in a preprocessing stage and inputting the feature amount as a vector to a neural network. In this method, the process of extracting the feature amount requires a deep understanding of the target phenomenon, and since it takes time and labor, the weight of preprocessing is high and the load on the neurocomputer is low, so there is a possibility that learning will succeed. It is considered expensive. When using the feature vector, observe the causal relationship between the input feature and the internal state of the neurocomputer, and the output as described above, interactively analyze the inside, and exchange, connect, and disconnect neurons in the network. This can greatly improve the learning efficiency.

【0028】図7及び図8は本発明のニューロコンピュ
ータを組み込んだ応用システムの説明図である。
7 and 8 are explanatory views of an application system incorporating the neurocomputer of the present invention.

【0029】ニューロコンピュータシステム8は収集済
データ9又はデータ収集装置10から、例えば燃焼炉の
制御であればフレーム温度等のデータ1を受入れるプリ
プロセッサ2を備える。プリプロセッサ2は受入れられ
たセンサデータ等から、複数の特徴量を抽出してデータ
ベース3に入力する。又、ニューロコンピュータシステ
ム8のデータベース3に蓄えられた特徴量は、ニューラ
ルネットワークをシミュレートするニューロコンピュー
タ4に入力される。
The neurocomputer system 8 comprises a preprocessor 2 for receiving the collected data 9 or the data collecting device 10 and data 1 such as flame temperature for controlling the combustion furnace, for example. The preprocessor 2 extracts a plurality of feature quantities from the received sensor data and inputs them into the database 3. Further, the characteristic amount stored in the database 3 of the neuro computer system 8 is input to the neuro computer 4 which simulates a neural network.

【0030】ニューロコンピュータの出力信号5は、出
力器6に入力され機器又はプラント7を制御する制御信
号に変換される。制御信号が入力される、例えば燃焼炉
等の機器又はプラント7では、制御信号により運転、操
作条件が変更され、ニューロコンピュータシステム8の
制御により、例えば燃焼炉であれば燃料の注入量、空気
量等が制御され最適な運転が行われる。機器又はプラン
ト7の運転、操作条件は燃焼炉の温度等のセンサ信号に
よりモニタされ、データ収集装置10又は収集済データ
9としてニューロコンピュータシステム8にフィードバ
ックされる。
The output signal 5 of the neurocomputer is input to the output device 6 and converted into a control signal for controlling the equipment or plant 7. In a device such as a combustion furnace or a plant 7 to which a control signal is input, operation and operating conditions are changed by the control signal, and in the case of a combustion furnace, for example, in the case of a combustion furnace, the injection amount of fuel and the air amount are changed. Etc. are controlled and optimum operation is performed. The operating and operating conditions of the equipment or plant 7 are monitored by sensor signals such as the temperature of the combustion furnace, and fed back to the neuro computer system 8 as the data collection device 10 or the collected data 9.

【0031】図8に示すニューロコンピュータシステム
8は、図7に示すプリプロセッサ2とニューロコンピュ
ータ4とが一体化された構造となっている。プリプロセ
ッサ2とニューロコンピュータ4とはいずれもノイマン
型のコンピュータ上のソフトウェアで動作するものであ
り、一体化することが可能である。
The neurocomputer system 8 shown in FIG. 8 has a structure in which the preprocessor 2 and the neurocomputer 4 shown in FIG. 7 are integrated. Both the preprocessor 2 and the neurocomputer 4 operate with software on a Neumann type computer, and can be integrated.

【0032】本発明の一実施例のニューロコンピュータ
を用いた燃焼炉について簡単に説明する。この燃焼炉
は、日夜排出されるゴミを焼却処理するものであるが、
公害等の問題から、CO2、NOX等の排ガス濃度を制御
する必要がある。しかしながら、日夜排出されるゴミの
種類は、千差万別であり空気量、燃料の注入量等の炉の
運転状況を投入されるゴミの質、量及び炉内のフレーム
の温度等の燃焼状態に応じて時々刻々変更していかなけ
ればならない。
A combustion furnace using a neurocomputer according to an embodiment of the present invention will be briefly described. This combustion furnace incinerates the garbage discharged day and night,
Due to problems such as pollution, it is necessary to control the concentration of exhaust gas such as CO2 and NOx. However, the types of garbage that are discharged day and night vary widely, and the operating conditions of the furnace, such as the amount of air and the amount of fuel that is injected, indicate the quality and quantity of the garbage that is input, and the combustion state such as the temperature of the flame inside the furnace. Must be changed from moment to moment depending on the situation.

【0033】このため、ニューロコンピュータには、例
えば、炉内の燃焼の炎の明るさをセンサで読み取り、プ
リプロセッサで特徴量を抽出して入力データとする。出
力データとしては、空気量を制御する弁の開度等とし、
教師信号としては、排ガスの濃度自体を使用して最適運
転条件を学習させる。学習後は、千差万別のゴミの投入
に対して、燃焼炎の温度等のセンサデータから特徴量が
分析され、特徴量が入力されることによって、ニューロ
コンピュータは最適運転条件の空気量の制御弁の開度等
を出力する。これによって、ゴミの燃焼炉の最適運転が
達成される。
Therefore, in the neurocomputer, for example, the brightness of the combustion flame in the furnace is read by the sensor, and the feature amount is extracted by the preprocessor to be used as the input data. The output data is the opening degree of the valve that controls the air amount,
As the teacher signal, the optimum operating condition is learned by using the exhaust gas concentration itself. After learning, the feature quantity is analyzed from the sensor data such as the temperature of the combustion flame, and the feature quantity is input for the input of various kinds of dust. Outputs the control valve opening. This achieves optimum operation of the refuse combustion furnace.

【0034】[0034]

【発明の効果】本発明のニューロコンピュータによれ
ば、特徴量データをニューラルネットワークに入力し、
学習の状況を観察しながら、任意のニューロンを、入出
力特性の異なる他のニューロンと交換し、或いは任意の
ニューロン間の接続、切断を行うことができる。従っ
て、従来実際問題として難しかった、プラントの最適運
転等の複雑な処理を行うことのできるニューロコンピュ
ータに学習させることが可能となり、ニューロコンピュ
ータを含む応用機器、及びこれを含むシステムを実用化
することが可能となる。
According to the neurocomputer of the present invention, the feature amount data is input to the neural network,
While observing the state of learning, it is possible to exchange an arbitrary neuron with another neuron having different input / output characteristics, or to connect or disconnect the arbitrary neurons. Therefore, it becomes possible to train a neurocomputer capable of performing complicated processing such as optimal operation of a plant, which has been difficult as a practical problem in the past, and to put an applied device including the neurocomputer and a system including the same into practical use. Is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のニューロコンピュータのブ
ロック図。
FIG. 1 is a block diagram of a neurocomputer according to an embodiment of the present invention.

【図2】本発明の一実施例のシナプス及びニューロンの
クラス(金型)の説明図。
FIG. 2 is an explanatory diagram of synapse and neuron classes (molds) according to an embodiment of the present invention.

【図3】本発明の一実施例のニューラルネットワークの
構築を示す説明図であり、(A)はクラス(金型)の継
承構造を示し、(B)はシナプス、ニューロンの生成を
示し、(C)はシナプス、ニューロンのリンクによるネ
ットワークの構築を示す。
FIG. 3 is an explanatory diagram showing the construction of a neural network according to an embodiment of the present invention, where (A) shows the inheritance structure of a class (mold), (B) shows the generation of synapses and neurons, and C) shows the construction of a network by linking synapses and neurons.

【図4】本発明の一実施例のニューラルネットワークの
駆動を示す説明図。
FIG. 4 is an explanatory diagram showing driving of a neural network according to an embodiment of the present invention.

【図5】本発明の一実施例のニューロンの交換を示す説
明図。
FIG. 5 is an explanatory view showing exchange of neurons according to an embodiment of the present invention.

【図6】本発明の一実施例のシナプスの追加、削除を示
す説明図。
FIG. 6 is an explanatory diagram showing addition and deletion of synapses according to an embodiment of the present invention.

【図7】本発明の一実施例のニューロコンピュータを含
むシステムの説明図。
FIG. 7 is an explanatory diagram of a system including a neurocomputer according to an embodiment of the present invention.

【図8】本発明の他の実施例のニューロコンピュータを
含むシステムの説明図。
FIG. 8 is an explanatory diagram of a system including a neuro computer according to another embodiment of the present invention.

【図9】階層型ニューラルネットワーク構成の一例の説
明図。
FIG. 9 is an explanatory diagram of an example of a hierarchical neural network configuration.

【符号の説明】[Explanation of symbols]

1 データを受入れる手段 2 プリプロセッサ 3 データベース 4 シミュレータ 5 出力手段 6 出力器 7 機器又はプラント 8 ニューロコンピュータシステム 9 収集済データ 10 データ収集装置 11 ニューロン及びシナプスの発生手段 12 ネットワーク構築手段 13 ドライブ手段 14 ニューラルネットワーク 15 ニューロン交換、接続、切断手段 1 means for receiving data 2 preprocessor 3 database 4 simulator 5 output means 6 output device 7 equipment or plant 8 neurocomputer system 9 collected data 10 data collection device 11 neuron and synapse generation means 12 network construction means 13 drive means 14 neural network 15 Neuron exchange, connection, disconnection means

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ニューロン及びシナプスを生成する発生
手段と、該生成されたニューロン及びシナプスを結合し
てニューラルネットワークを構築する手段と、該ニュー
ラルネットワークに特徴量及び教師信号を入力して学習
を行うドライブ手段とからなり、 前記ニューラルネットワークを構成する任意のニューロ
ンを入出力特性の異なる他のニューロンと交換し、或い
はニューロン間を任意に接続、切断する手段を備えたこ
とを特徴とするニューロコンピュータ。
1. A learning means for generating a neuron and a synapse, a means for connecting the generated neuron and a synapse to construct a neural network, and inputting a feature amount and a teacher signal to the neural network. A neurocomputer comprising drive means, comprising means for exchanging any neuron constituting the neural network with another neuron having different input / output characteristics, or for arbitrarily connecting or disconnecting the neurons.
【請求項2】 前記シナプスは少なくとも入出力のニュ
ーロンとの結合関係及び荷重のデータを備え、前記ニュ
ーロンは、センサニューロンとレスポンスニューロンと
からなり、少なくともそれぞれ前記シナプスとの結合関
係のデータ及びレスポンスニューロンには学習機能のプ
ログラムを備え、該レスポンスニューロンの備える学習
機能により前記シナプスの荷重のデータを書き替えるも
のであることを特徴とする請求項1記載のニューロコン
ピュータ。
2. The synapse includes at least data of connection relations with input / output neurons and load data, and the neurons are composed of sensor neurons and response neurons, and at least data of connection relations with the synapses and response neurons, respectively. 2. The neurocomputer according to claim 1, further comprising: a learning function program, wherein the learning function of the response neuron rewrites the synaptic weight data.
【請求項3】 データを受け入れる手段と、該データか
ら複数の特徴量を抽出してデータベースに入力する手段
と、該データベースに蓄えられた前記複数の特徴量をニ
ューラルネットワークに入力する手段とからなるニュー
ロコンピュータ応用機器。
3. A means for receiving data, a means for extracting a plurality of feature quantities from the data and inputting the feature quantity into a database, and a means for inputting the plurality of feature quantities stored in the database into a neural network. Neurocomputer application equipment.
【請求項4】 請求項3に記載のニューロコンピュータ
応用機器と、該ニューロコンピュータ応用機器の出力信
号を変換する出力器と、該出力器の前記制御信号によ
り、運転、操作条件を変更する機器とから構成されるこ
とを特徴とする機械装置。
4. The neurocomputer-applied device according to claim 3, an output device for converting an output signal of the neurocomputer-applied device, and a device for changing driving and operating conditions by the control signal of the output device. A mechanical device comprising:
JP5163193A 1993-06-07 1993-06-07 Neuro-computer application equipment and machinery provided with the neuro-computer application equipment Pending JPH06348675A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5163193A JPH06348675A (en) 1993-06-07 1993-06-07 Neuro-computer application equipment and machinery provided with the neuro-computer application equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5163193A JPH06348675A (en) 1993-06-07 1993-06-07 Neuro-computer application equipment and machinery provided with the neuro-computer application equipment

Publications (1)

Publication Number Publication Date
JPH06348675A true JPH06348675A (en) 1994-12-22

Family

ID=15769044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5163193A Pending JPH06348675A (en) 1993-06-07 1993-06-07 Neuro-computer application equipment and machinery provided with the neuro-computer application equipment

Country Status (1)

Country Link
JP (1) JPH06348675A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536657A (en) * 2013-09-25 2016-11-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for group tag implementation for neural models
WO2018135002A1 (en) * 2017-01-23 2018-07-26 株式会社カヤック Artificial neural network system, control method for artificial neural network, and data structure for artificial neural network

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62255717A (en) * 1986-04-28 1987-11-07 Nippon Kokan Kk <Nkk> Combustion control of fractionated waste incinerator
JPH0391646A (en) * 1989-09-04 1991-04-17 Matsushita Electric Ind Co Ltd Information processing device and air conditioner using same information processing device
JPH0394364A (en) * 1989-09-07 1991-04-19 Matsushita Electric Ind Co Ltd Neural network
JPH04548A (en) * 1990-04-17 1992-01-06 Fujitsu Ltd Neural network equipment
JPH04161711A (en) * 1990-10-24 1992-06-05 Kubota Corp Device for diagnosing combustion condition
JPH04177453A (en) * 1990-11-07 1992-06-24 Matsushita Graphic Commun Syst Inc Address converting device
JPH04339233A (en) * 1991-05-16 1992-11-26 Canon Inc Fire prevention device
JPH04369699A (en) * 1991-06-19 1992-12-22 A T R Jido Honyaku Denwa Kenkyusho:Kk Unspecified spealer voice recognition system using neural network

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62255717A (en) * 1986-04-28 1987-11-07 Nippon Kokan Kk <Nkk> Combustion control of fractionated waste incinerator
JPH0391646A (en) * 1989-09-04 1991-04-17 Matsushita Electric Ind Co Ltd Information processing device and air conditioner using same information processing device
JPH0394364A (en) * 1989-09-07 1991-04-19 Matsushita Electric Ind Co Ltd Neural network
JPH04548A (en) * 1990-04-17 1992-01-06 Fujitsu Ltd Neural network equipment
JPH04161711A (en) * 1990-10-24 1992-06-05 Kubota Corp Device for diagnosing combustion condition
JPH04177453A (en) * 1990-11-07 1992-06-24 Matsushita Graphic Commun Syst Inc Address converting device
JPH04339233A (en) * 1991-05-16 1992-11-26 Canon Inc Fire prevention device
JPH04369699A (en) * 1991-06-19 1992-12-22 A T R Jido Honyaku Denwa Kenkyusho:Kk Unspecified spealer voice recognition system using neural network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536657A (en) * 2013-09-25 2016-11-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for group tag implementation for neural models
WO2018135002A1 (en) * 2017-01-23 2018-07-26 株式会社カヤック Artificial neural network system, control method for artificial neural network, and data structure for artificial neural network
JPWO2018135002A1 (en) * 2017-01-23 2019-11-14 株式会社カヤック Artificial neural network system, control method of artificial neural network, and data structure for artificial neural network

Similar Documents

Publication Publication Date Title
Zhai et al. Feature extraction using rough set theory and genetic algorithms—an application for the simplification of product quality evaluation
Werbos Neural networks for control and system identification
Waterhouse Classification and regression using mixtures of experts
CN111651931A (en) Blast furnace fault diagnosis rule derivation method based on deep neural network
Rao et al. Integrated distributed intelligent systems in manufacturing
Huang et al. Neural-expert hybrid approach for intelligent manufacturing: a survey
Rabuñal et al. A new approach to the extraction of ANN rules and to their generalization capacity through GP
EP4104107A1 (en) Method for injecting human knowledge into ai models
Menaga et al. Application of artificial intelligence in the perspective of data mining
Terziyan et al. Causality-aware convolutional neural networks for advanced image classification and generation
Hopgood The state of artificial intelligence
JPH06348675A (en) Neuro-computer application equipment and machinery provided with the neuro-computer application equipment
CN112580702B (en) Multi-sensor collaborative sensing method and device
CN111047011B (en) Scene variable automatic deep mining engine system based on machine learning model
JPH05342189A (en) Learning system for network type information processor
Hell et al. Hybrid neurofuzzy computing with nullneurons
de Silva The role of soft computing in intelligent machines
Zhang et al. Study of nonlinear system identification based on support vector machine
Jin et al. Neural network-based decision support for incomplete database systems: knowledge acquisition and performance analysis
Karthika et al. An Introduction to Knowledge Engineering and Data Analytics
Marenbach et al. Evolutionary versus inductive construction of neurofuzzy systems for bioprocess modelling
de Oliveira Smart Knowledge Engineering for Cognitive Systems
JP3396489B2 (en) Network type information processing system
Pedrycz Neural Structures of Fuzzy Decision-Making
Niloofar et al. A General Framework for Human-in-the-Loop Cognitive Digital Twins

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081026

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20081026

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081026

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091026

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees