JPH0883261A - Neuro arithmetic unit - Google Patents
Neuro arithmetic unitInfo
- Publication number
- JPH0883261A JPH0883261A JP6219179A JP21917994A JPH0883261A JP H0883261 A JPH0883261 A JP H0883261A JP 6219179 A JP6219179 A JP 6219179A JP 21917994 A JP21917994 A JP 21917994A JP H0883261 A JPH0883261 A JP H0883261A
- Authority
- JP
- Japan
- Prior art keywords
- units
- data
- unit
- neuro
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、ある対象から得られた
入力情報に対し、一定の操作を施すユニットを複数個用
いて情報の変換を行うニューロ演算装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuro arithmetic unit for converting input information obtained from a certain object by using a plurality of units for performing a fixed operation.
【0002】[0002]
【従来の技術】近年、生体の神経細胞の情報処理をモデ
ル化したユニットを多数用いた情報処理システムが、制
御やパターン認識などに応用されている。例えば、文字
認識などでは、サンプル文字とそれが表している実際の
文字とを学習データとして与え、ネットワークの結合度
を学習し、実際に入力装置から入力された文字をそのネ
ットワークを用いて判定する。2. Description of the Related Art In recent years, an information processing system using a large number of units modeling information processing of nerve cells in a living body has been applied to control and pattern recognition. For example, in character recognition, a sample character and the actual character that it represents are given as learning data, the degree of connection of the network is learned, and the character actually input from the input device is determined using the network. .
【0003】ユニットは、入力に対し、ある演算を施し
て出力する多入力1出力の素子である。すなわち、図7
に示すように、複数のデータO1 ,O2 ,…Oi ,…O
n がユニットuj に入力されるとすると、これらのデー
タにそれぞれw1 ,w2 ,wi ,…wn を乗じたものの
合計加算値からしきい値θj を減じたものを入力値iと
して扱う。そして、図8に示すような出力関数f(ij )
に基いて出力値Oj を出力する。A unit is a multi-input / single-output element that performs an operation on an input and outputs the result. That is, FIG.
, A plurality of data O 1 , O 2 , ... O i , ... O
Assuming that n is input to the unit u j , these data are multiplied by w 1 , w 2 , w i , ... W n , respectively, and the input value i is obtained by subtracting the threshold value θ j from the total addition value. Treat as. Then, the output function f (i j ) as shown in FIG.
The output value O j is output based on
【0004】各ユニットは、他のユニットと結合してネ
ットワークを構成している。この結合は、そのユニット
間の結合の強さを、正の値、ゼロ、又は負の値として表
現した結合度(重み係数)をもっている。そして、上記
のように、各ユニットが複数のデータの入力に基いて出
力を行う動作をニューロ演算と呼ぶ。Each unit is connected to other units to form a network. This bond has a bond degree (weighting coefficient) expressing the bond strength between the units as a positive value, zero, or a negative value. Then, as described above, an operation in which each unit outputs based on the input of a plurality of data is called a neuro operation.
【0005】ネットワーク構造は2種類に大別される。
1つは、各ユニットが層をなし、入力情報が入力層から
出力層に向かって次々に変換される階層型ネットワーク
である。もう1つは、各ユニットが相互に結合をもつ相
互結合型ネットワークである。階層型ネットワークに
は、出力層の出力値が入力層に戻されるフィードバック
ループをもつものや、各層内だけに相互結合をもつもの
など様々なネットワークが存在する。The network structure is roughly classified into two types.
One is a hierarchical network in which each unit forms a layer and input information is converted from the input layer to the output layer one after another. The other is an interconnected network in which each unit is interconnected. There are various networks in the hierarchical network, such as one having a feedback loop in which the output value of the output layer is returned to the input layer, and one having mutual coupling only in each layer.
【0006】図9は層内結合をもたない3層の階層型ネ
ットワークの例を示す概念図であり、図10は層内結合
を有する2層の階層型ネットワークの例を示す概念図で
ある。FIG. 9 is a conceptual diagram showing an example of a three-layer hierarchical network having no intra-layer connection, and FIG. 10 is a conceptual diagram showing an example of a two-layer hierarchical network having intra-layer connection. .
【0007】図11はこのようなネットワークを実現す
るための従来装置の構成を示すブロック図である。この
図において、ニューロ演算部1は前記のニューロ演算を
行うものであり、各ユニットに対応するニューロプロセ
ッサを有している。プログラム記憶部2は、このニュー
ロ演算の方法及び学習法則を記憶するものである。FIG. 11 is a block diagram showing the configuration of a conventional device for realizing such a network. In this figure, a neuro operation unit 1 performs the above-mentioned neuro operation, and has a neuro processor corresponding to each unit. The program storage unit 2 stores the neuro calculation method and learning rule.
【0008】ユニット状態記憶部3は、ある入力に対し
て一定の処理を施して得られたユニットの出力値とユニ
ットの状態(2値データで表わされる特定の状態)を記
憶するものである。結合データ記憶部4は、ユニット間
の結合の強さを示す結合度(結合の程度を示す0〜1の
数値)を記憶するものである。The unit state storage unit 3 stores the unit output value and unit state (a specific state represented by binary data) obtained by subjecting a certain input to certain processing. The bond data storage unit 4 stores a bond degree indicating the bond strength between units (a numerical value of 0 to 1 indicating the bond degree).
【0009】知識ベース5は結合関係テーブル6を有し
ている。この結合関係テーブル6には、複数のユニット
の相互結合関係の有無を示す2値データが記憶されてお
り、データ配置テーブル7には、この結合関係テーブル
6に記載されたユニット同士の結合度に関するデータを
格納しているアドレスが記載されている。The knowledge base 5 has a connection relation table 6. This connection relation table 6 stores binary data indicating the presence or absence of mutual connection relations between a plurality of units, and the data arrangement table 7 relates to the degree of connection between the units described in this connection relation table 6. The address storing the data is described.
【0010】次に、この結合関係テーブル6の記載内容
について説明する。まず、図9の3層の階層型ネットワ
ークの場合について説明すると、この入力層はユニット
u1,u2 ,u3 により、中間層はu4 ,u5 ,u6 に
より、出力層はu7 ,u8 ,u9 によりそれぞれ構成さ
れている。そして、各層においては層内結合は行なわれ
ていない。Next, the contents of the connection relation table 6 will be described. First, the case of the three-layer hierarchical network of FIG. 9 will be described. This input layer is composed of units u 1 , u 2 and u 3 , the intermediate layer is composed of u 4 , u 5 and u 6 , and the output layer is composed of u 7. , U 8 and u 9 respectively. Intra-layer bonding is not performed in each layer.
【0011】この図9から明らかなように、入力層のユ
ニットu1 ,u2 ,u3 のそれぞれは、中間層のユニッ
トu4 ,u5 ,u6 の全てと結合関係を有しており、ま
た、中間層のユニットu4 ,u5 ,u6 のそれぞれは、
出力層のユニットu7 ,u8,u9 の全てと結合関係を
有している。したがって、ユニット同士が結合関係を有
していることを「1」で示すことにすれば、図9の各ユ
ニット同士の結合関係は図12(a)の表11のように
表わされる。As is apparent from FIG. 9, each of the input layer units u 1 , u 2 and u 3 has a coupling relation with all of the intermediate layer units u 4 , u 5 and u 6. , And each of the units u 4 , u 5 , u 6 in the intermediate layer is
It has a coupling relation with all of the units u 7 , u 8 and u 9 of the output layer. Therefore, if it is indicated by "1" that the units have a coupling relationship, the coupling relationship between the units in FIG. 9 is expressed as in Table 11 in FIG. 12 (a).
【0012】ところで、ニューロ計算は、同じような計
算を繰り返し実行するため、並列に、且つ、逐次的に処
理することができ、また、そうすることにより、高速化
を図ることができる。ユニットu1 ,u2 ,u3 は、共
にユニットu4 ,u5 ,u6へ結合をもち、しかも、そ
れら以外へは結合をもたない。したがって、図12
(b)の表12のように、ユニットu4 ,u5 ,u6 だ
けを並列に、且つ、逐次的に処理することができる。ま
た同様に、ユニットu4 ,u5 ,u6 に関して、ユニッ
トu7 ,u8 ,u9 だけを並列に且つ逐次的に処理する
ことができる。したがって、結合テータ記憶部4に記憶
しておく結合度のデータは、実際に結合関係があるユニ
ット同士のデータのみでよいはずであり、結合関係と同
様のデータ配置テーブル7により、データを取り出すこ
とができるはずである。しかし、実際には、結合関係テ
ーブル6には、全てのユニット同士の結合関係が記載さ
れていた。By the way, since the neuro calculation repeatedly executes the same calculation, it can be processed in parallel and sequentially, and by doing so, the speed can be increased. The units u 1 , u 2 and u 3 each have a bond to the units u 4 , u 5 and u 6 , and have no bond to the other units. Therefore, FIG.
As shown in Table 12 in (b), only the units u 4 , u 5 , and u 6 can be processed in parallel and sequentially. Similarly, with respect to the units u 4 , u 5 and u 6 , only the units u 7 , u 8 and u 9 can be processed in parallel and sequentially. Therefore, the data of the coupling degree stored in the coupling data storage unit 4 should be only the data of the units actually having the coupling relation, and the data should be retrieved by the data arrangement table 7 similar to the coupling relation. Should be possible. However, in reality, the connection relation table 6 describes the connection relation between all units.
【0013】次いで、図10の2層の階層型ネットワー
クの場合について説明すると、この入力層はユニットu
1 〜u4 により構成され、中間層はユニットu5 〜u8
により構成されている。そして、各層において層内結合
が行なわれており、各ユニット同士の結合関係は図13
(a)の表13のように表わされる。Next, the case of the two-layer hierarchical network shown in FIG. 10 will be described. This input layer is a unit u.
1 to u 4 and the intermediate layers are units u 5 to u 8.
It consists of. Intra-layer bonding is performed in each layer, and the bonding relationship between the units is shown in FIG.
It is represented as in Table 13 of (a).
【0014】表13から明らかなように、ユニットu1
は自己以外の全てのユニットu2 〜u8 と結合関係を有
しているため並列的且つ逐次的な処理が可能であるが、
それ以外のユニットはユニットu1 のように全てのユニ
ットと結合しているわけではないため並列的且つ逐次的
に処理を行うことができない。As is clear from Table 13, the unit u 1
Has a connection relation with all units u 2 to u 8 other than itself, and thus can perform parallel and sequential processing.
The other units are not connected to all units like the unit u 1 and therefore cannot perform processing in parallel and sequentially.
【0015】そこで、図13(b)の表14に示すよう
に、実際には結合関係を有していないのに、恰も結合関
係を有しているかのように、結合関係のないユニットを
「0」で示すようにし、これにより並列的且つ逐次的な
処理を可能にしている。知識ベース5内の結合関係テー
ブル6には、この表4に示すような2値データ「1」,
「0」が記載されている。Therefore, as shown in Table 14 of FIG. 13 (b), a unit that does not actually have a coupling relation but has a coupling relation as if it actually has a coupling relation is " 0 ", which enables parallel and sequential processing. In the connection relation table 6 in the knowledge base 5, binary data “1”,
"0" is described.
【0016】ニューロ演算装置には、各ユニットに対応
したニューロン(ネットワーク構造上のユニットと区別
するために、ニューロ演算装置内のユニットをニューロ
ンと呼ぶことにする。)があり、各ニューロンはニュー
ロプロセッサで実現している。いま、ニューロンiをn
iと書くことにすると、図10のネットワークにおける
ユニットu1 ,u2 ,…,u8 は、ニューロンn1 ,n
2 ,…,n8 に割当られることになる。しかし、ニュー
ロ演算装置内に入れることができるニューロン数(ニュ
ーロプロセッサ数)には、装置の面積と大きさの限界が
ある。そこで、並列処理するユニット数が装置内のニュ
ーロン数に比べて多い場合は時分割処理を行うことにな
る。例えば、装置内に64個のニューロン(32個のニ
ューロプロセッサで構成される。)が搭載されているも
のとすると、並列処理すべきユニット数が65個以上に
なると時分割処理を行う。The neuro operation device has a neuron corresponding to each unit (a unit in the neuro operation device is called a neuron in order to distinguish it from a unit on the network structure), and each neuron is a neuro processor. It is realized in. Now let the neuron i be n
When the writing is i, the unit u 1, u 2 in the network of FIG. 10, ..., u 8 is neuron n 1, n
2, ..., will be assigned is to n 8. However, the number of neurons (the number of neuroprocessors) that can be included in the neuro-operation device has a limit in the area and size of the device. Therefore, when the number of units to be processed in parallel is larger than the number of neurons in the device, time division processing is performed. For example, assuming that 64 neurons (consisting of 32 neuroprocessors) are mounted in the apparatus, time division processing is performed when the number of units to be processed in parallel becomes 65 or more.
【0017】[0017]
【発明が解決しようとする課題】ある入力に対して、希
望の出力を得るために、または、各ユニットの状態を得
るために、ネットワークの学習を行わなければならな
い。その学習には種々の方法がある。いま、1000
(=1.0×103 )個のユニットで構成される相互結
合型ネットワークでは、各ユニットは全てのユニットか
らの結合をもっているとすると、総結合数は1.0×1
06 にもなる。これらすべての結合について、所望の入
出力関係を得るためには、数百組にも及ぶ入出力データ
を教師データとして与え、学習法則を適用して結合度を
学習しなければならない。この場合、ユニットの個数、
結合の数により、学習及びネットワーク動作に要する時
間は指数関数的に急激に増加する。For some input, the network must be trained in order to obtain the desired output or the state of each unit. There are various methods for the learning. Now 1000
In an interconnected network composed of (= 1.0 × 10 3 ) units, assuming that each unit has connections from all units, the total number of connections is 1.0 × 1.
It will be 0 6 . In order to obtain a desired input / output relationship for all these connections, it is necessary to give input / output data as many as hundreds of sets as teacher data and apply a learning rule to learn the degree of connection. In this case, the number of units,
Depending on the number of connections, the time required for learning and network operation increases exponentially.
【0018】一方、図9,10のように、すべてのユニ
ット同士が互いに結合しているわけではない所謂疎結合
のネットワークにおいては、ネットワークの規模が大き
くなるにしたがって、「0」のような意味のない無効デ
ータが付されたユニットに係るデータについてのアドレ
スを格納する要素数が多くなり、無駄なデータ領域が多
くなる。On the other hand, as shown in FIGS. 9 and 10, in a so-called loosely coupled network in which all units are not coupled to each other, the meaning of "0" means as the network scale increases. The number of elements that store addresses for data related to a unit to which invalid data is attached increases, resulting in a large amount of useless data area.
【0019】例えば、総結合数が、上記のように、1.
0×106 である場合に、その1%が実際には結合がな
いものであるとすると、無効データ数は1.0×104
となり、無駄なデータ領域は非常に大きなものとなる。For example, if the total number of bonds is 1.
In the case of 0 × 10 6 , if 1% of them are actually unjoined, the number of invalid data is 1.0 × 10 4.
Therefore, the useless data area becomes very large.
【0020】また、共通処理(例えば、共通処理におけ
る時分割処理)を行う場合においても、無効データのみ
を扱う共通処理が増え、無駄な処理時間の占める割合い
が非常に大きくなる。Also, when the common processing (for example, the time-division processing in the common processing) is performed, the common processing that handles only invalid data is increased, and the ratio of wasted processing time becomes very large.
【0021】すなわち、いま仮に、ニューロ演算装置の
ニューロンがn1 ,n2 ,n3 の3個であるとすると、
図10のネットワークのユニット数は8であるから、時
分割処理を行う必要がある。いま、図14の表15に示
すように、ニューロンn1 には、ユニットu1 ,u4 ,
u7 を、ニューロンn2 にはユニットu2 ,u5 ,u8
を、ニューロンn3 にはユニットu3 ,u6 をそれぞれ
割り当てることにする。すると、全体の時分割処理数2
4に対して無効時分割処理数が11となり、全体の46
%が無駄な処理ということになる。したがって、演算の
高速化を阻害する大きな要因となっていた。That is, suppose that the neuron of the neuron is three, that is, n 1 , n 2 and n 3 .
Since the number of units in the network of FIG. 10 is 8, it is necessary to perform time division processing. Now, as shown in Table 15 of FIG. 14, the neurons n 1 have units u 1 , u 4 ,
u 7 is connected to the neuron n 2 by the units u 2 , u 5 , and u 8.
, The units u 3 and u 6 are assigned to the neuron n 3 . Then, the total number of time division processing is 2
The number of invalid time-division processing is 11 for 4 and the total 46
% Means wasteful processing. Therefore, it has been a major factor that impedes the speeding up of calculations.
【0022】本発明は上記事情に鑑みてなされたもので
あり、データ領域の効率的な活用を図ると共に、ニュー
ロ演算の高速化を図ることが可能なニューロ演算装置を
提供することを目的としている。The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a neuro arithmetic unit capable of efficiently utilizing a data area and accelerating neuro arithmetic. .
【0023】[0023]
【課題を解決するための手段】上記課題を解決するため
の手段として、請求項1記載の発明は、ニューラルネッ
トワークを構成する複数のユニットの相互結合関係に関
するデータが記載されているテーブルを有する知識ベー
スと、前記知識ベースのテーブルに基いてニューロ演算
を行うニューロ演算部と、を備えたニューロ演算装置に
おいて、前記知識ベースは、前記複数のユニットが所定
数のグループに分けられており、各グループと各ユニッ
トとの間の結合関係を示す2値データが記載されたグル
ープ結合関係テーブルと、前記グループ結合関係テーブ
ルに記載された各グループと各ユニットとの組合わせの
うち結合関係を有することを意味する2値データが記載
された組合わせのみについて、その組合わせに含まれる
複数のユニット同士の結合度が格納されているアドレス
のデータが記載されたデータ配置テーブルと、から成る
ことを特徴とするものである。As a means for solving the above-mentioned problems, the invention according to claim 1 has a knowledge having a table in which data concerning mutual connection relations of a plurality of units forming a neural network is described. In a neuro operation device including a base and a neuro operation unit that performs a neuro operation based on the knowledge base table, in the knowledge base, the plurality of units are divided into a predetermined number of groups, and each group A group connection relation table in which binary data indicating a connection relation between each unit and each unit is described, and a combination relation among combinations of each group and each unit described in the group connection relation table. Only for the combination that describes the binary data that means, the same number of units included in the combination. A data arrangement table described data address coupling degree is stored in and is characterized in that it consists of.
【0024】請求項2記載の発明は、請求項1記載の発
明において、前記グループ結合関係テーブルのグループ
は、共通処理が可能なユニットの集合体であること、を
特徴とするものである。According to a second aspect of the present invention, in the first aspect of the present invention, the group of the group connection relation table is an aggregate of units that can perform common processing.
【0025】請求項3記載の発明は、請求項2記載の発
明において、前記共通処理は時間分割処理であり、前記
ニューロ演算部は、前記個別結合関係テーブルに基いて
時分割処理を行う時分割制御手段を有すること、を特徴
とするものである。According to a third aspect of the present invention, in the second aspect of the present invention, the common processing is time division processing, and the neuro-operation unit performs time division processing based on the individual connection relation table. It has a control means.
【0026】[0026]
【作用】請求項1記載の発明において、複数のユニット
は所定数に分けられ、各グループと各ユニットとの結合
関係を示す2値データがグループ結合関係テーブルに記
載されている。According to the first aspect of the invention, the plurality of units are divided into a predetermined number, and the binary data indicating the connection relation between each group and each unit is described in the group connection relation table.
【0027】そして、データ配置テーブルにおいて、結
合関係を有するグループとユニットとの組合わせのみに
ついて、この組合わせに含まれる複数のユニット同士の
結合度が格納されているアドレスのデータが記載されて
いる。Then, in the data arrangement table, only for a combination of a group and a unit having a connection relationship, the data of the address in which the degree of connection between a plurality of units included in this combination is stored is described. .
【0028】もちろん、このデータ配置テーブルにおい
て無効データは存在するけれども、結合関係を有しない
グループとユニットとの組合せに属するユニットは排除
されているので、その無効データ数は従来よりも小さな
ものとなる。Of course, although the invalid data exists in this data arrangement table, the units belonging to the combination of the group and the unit having no connection relation are excluded, so that the number of invalid data becomes smaller than the conventional one. .
【0029】そして、請求項2記載の発明のように、グ
ループ分けを、共通処理が可能なユニットの集合体毎に
行うようにすれば共通処理を効率的に行うことができ
る。As in the second aspect of the invention, if the grouping is performed for each group of units capable of performing common processing, the common processing can be efficiently performed.
【0030】さらに、請求項3記載の発明のように、こ
の共通処理として時分割処理を行うようにすれば、時分
割処理を効率的に行うことができる。Further, when the time division processing is performed as the common processing as in the third aspect of the invention, the time division processing can be efficiently performed.
【0031】[0031]
【実施例】以下、本発明の実施例を図1乃至図6に基き
説明する。但し、図11と同様の構成要素には同一符号
を付して重複した説明を省略する。Embodiments of the present invention will be described below with reference to FIGS. However, the same components as those in FIG. 11 are designated by the same reference numerals, and duplicate description will be omitted.
【0032】図1は請求項1記載の発明の実施例に係る
ブロック図である。この実施例の知識ベース5Aは、グ
ループ結合関係テーブル6A及びデータ配置テーブル7
Aを有している。FIG. 1 is a block diagram according to an embodiment of the invention described in claim 1. The knowledge base 5A of this embodiment includes a group join relation table 6A and a data arrangement table 7
Have A.
【0033】図2(b)の表2は、図10のネットワー
クにおけるグループ結合関係テーブル6Aの内容を示す
ものであり、ユニットu1 〜u4 から成る入力層グルー
プと各ユニットu1 〜u8 との結合関係、及びユニット
u5 〜u8 から成る出力層グループと各ユニットu1 〜
u8 との結合関係を示す2値データが記載されている。Table 2 in FIG. 2B shows the contents of the group connection relation table 6A in the network of FIG. 10, which is an input layer group consisting of units u 1 to u 4 and each unit u 1 to u 8. And the output layer group consisting of the units u 5 to u 8 and each unit u 1 to
Binary data showing the binding relationship with u 8 is described.
【0034】図2(c)の表3は、データ配置テーブル
7Aの内容を示すものである。これは、表2におけるグ
ループとユニットとの組合わせのうち「1」が付された
もののみを取り出し、それらに含まれるユニット同士の
結合度が格納されているアドレスのデータを記載したも
のである。この表中のa1 ,b1 ,c1 ,…,g7 等は
アドレスデータを示しており、「0」は結合度がゼロの
データのアドレスを示している。Table 3 in FIG. 2C shows the contents of the data arrangement table 7A. This is one in which only the combinations with a unit of “1” are taken out from the combinations of groups and units in Table 2, and the data of the address at which the coupling degree between the units included in them is stored is described. . In the table, a1, b1, c1, ..., G7 indicate address data, and "0" indicates an address of data having a coupling degree of zero.
【0035】図2(a)の表1は従来のデータ配置テー
ブルの内容を示すものである。表1における、全体の要
素数は、8×8=64個であり、有効データについての
アドレス数は19個であるから、有効活用率は19/6
4=0.30すなわち30%である。Table 1 of FIG. 2A shows the contents of the conventional data arrangement table. Since the total number of elements in Table 1 is 8 × 8 = 64 and the number of addresses for valid data is 19, the effective utilization rate is 19/6.
4 = 0.30 or 30%.
【0036】そして、表2における要素数は16個であ
り、表3における要素数は4×11=44個である。し
たがって、64−(44+16)=4となり、表2及び
表3のように、結合関係を階層的にしたテーブルを用い
ることにより、要素数を4個減少させることができる。The number of elements in Table 2 is 16 and the number of elements in Table 3 is 4 × 11 = 44. Therefore, 64- (44 + 16) = 4, and as shown in Tables 2 and 3, the number of elements can be reduced by 4 by using a table having hierarchical connection relationships.
【0037】表2では、縦方向に記載されたユニットu
1 〜u4 及びユニットu5 〜u8 をそれぞれ入力層グル
ープ及び出力層グループとして分けたが、他の分け方と
して、並列処理を行うユニットを同一グループとする分
け方もある。In Table 2, the units u are shown in the vertical direction.
Although 1 to u 4 and the units u 5 to u 8 are divided into the input layer group and the output layer group, respectively, there is another way to divide the units that perform parallel processing into the same group.
【0038】すなわち、図3(a)の表4では、横方向
のユニットu1 〜u4 及びユニットu5 〜u8 の2つの
グループに分け、これらのグループと各ユニットとの結
合関係を示す2値データを記載している。そして、図3
(b)の表4では、表4におけるグループとユニットと
の組合わせのうち「1」が付されたもののみを取り出
し、それらに含まれるユニット同士の結合度が格納され
ているアドレスのデータが記載されている。That is, in Table 4 of FIG. 3A, the units u 1 to u 4 and the units u 5 to u 8 in the horizontal direction are divided into two groups, and the coupling relation between these groups and each unit is shown. Binary data is shown. And FIG.
In Table 4 of (b), only the combinations with “1” among the combinations of groups and units in Table 4 are taken out, and the data of the address storing the coupling degree between the units included in them is extracted. Has been described.
【0039】表4における要素数は16個であり、表5
における要素数は4×9=36個である。したがって、
64−(36+16)=12となり、表1の場合よりも
12個だけメモリ領域を減少させることができる。The number of elements in Table 4 is 16 and Table 5
The number of elements in is 4 × 9 = 36. Therefore,
Since 64- (36 + 16) = 12, the memory area can be reduced by 12 as compared with the case of Table 1.
【0040】また、複数のユニットをグループ分けする
前にユニット間の組合わせを変えることも可能である。
例えば、図13(a)の表13において、縦方向のユニ
ットu2 ,u7 間、及びユニットu3 ,u8 間で入れ替
えを行う。図4(a)の表6は、この状態を表わしたも
のである。そして、この表6に基いてグループ分けを行
なったのが表7のグループ結合関係テーブルであり、表
7に対応するデータ配置テーブルの内容が表8である。
表7における要素数は16個であり、表8における要素
数は4×10=40個である。したがって、 64−(40+16)=8 となり、表1の場合よりも8個だけメモリ領域を減少さ
せることができる。It is also possible to change the combination between units before grouping a plurality of units.
For example, in Table 13 of FIG. 13A, the units u 2 and u 7 in the vertical direction and the units u 3 and u 8 in the vertical direction are replaced. Table 6 in FIG. 4A shows this state. Then, the grouping is performed based on the table 6 into the group connection relation table of the table 7, and the content of the data arrangement table corresponding to the table 7 is the table 8.
The number of elements in Table 7 is 16 and the number of elements in Table 8 is 4 × 10 = 40. Therefore, 64- (40 + 16) = 8, and the memory area can be reduced by 8 compared with the case of Table 1.
【0041】図5は請求項3記載の発明の実施例に係る
ブロック図である。この実施例のニューロ演算部1Aは
時分割制御手段8を有している。FIG. 5 is a block diagram according to an embodiment of the invention described in claim 3. The neuro operation unit 1A of this embodiment has a time division control means 8.
【0042】図6(a)の表9は、図10のネットワー
クにおけるグループ結合関係テーブル6Aの内容を示す
ものである。表15にも示したように、ニューロンn1
にはユニットu1 ,u4 ,u7 を、ニューロンn2 には
ユニットu2 ,u5 ,u8 を、ニューロンn3 にはユニ
ットu3 ,u6 を割当てることにすると、この場合は、
1サイクル目の時分割処理グループu1 〜u3 と、2サ
イクル目の時分割処理グループu4 〜u6 と、3サイク
ル目の時分割処理グループu7 ,u8 とにグループ分け
が行なわれる。そして、図6(b)の表10は表9に対
応するデータ配置テーブルである。Table 9 in FIG. 6 (a) shows the contents of the group connection relation table 6A in the network of FIG. As shown in Table 15, the neuron n 1
The units u 1 , u 4 and u 7 are assigned to the neuron, the units u 2 , u 5 and u 8 are assigned to the neuron n 2 , and the units u 3 and u 6 are assigned to the neuron n 3 .
Grouping is performed into time division processing groups u 1 to u 3 in the first cycle, time division processing groups u 4 to u 6 in the second cycle, and time division processing groups u 7 and u 8 in the third cycle. . Table 10 in FIG. 6B is a data arrangement table corresponding to Table 9.
【0043】表9から明らかなように、全体の時分割処
理回数は24回となっているが、「1」が付されている
組合わせのみの処理を行なえばよいので、実際の時分割
処理回数は13回となる。したがって、時分割処理回数
を大幅に低減でき、ニューロ演算の高速化を図ることが
できる。As is apparent from Table 9, the total number of time-division processing is 24, but since only the combination marked with "1" needs to be processed, the actual time-division processing is performed. The number of times is 13. Therefore, the number of times of time-division processing can be significantly reduced, and the speed of neuro calculation can be increased.
【0044】[0044]
【発明の効果】以上のように、本発明によれば、データ
領域の効率的な活用を図ると共に、ニューロ演算の高速
化を図ることが可能になる。As described above, according to the present invention, it is possible to efficiently use the data area and to speed up the neuro operation.
【図面の簡単な説明】[Brief description of drawings]
【図1】請求項1記載の発明の実施例に係るブロック
図。FIG. 1 is a block diagram according to an embodiment of the invention described in claim 1.
【図2】図1における知識ベースが有するテーブルの内
容を示す図表。FIG. 2 is a chart showing the contents of a table included in a knowledge base shown in FIG.
【図3】図1における知識ベースが有するテーブルの内
容を示す図表。FIG. 3 is a chart showing the contents of a table included in a knowledge base shown in FIG.
【図4】図1における知識ベースが有するテーブルの内
容を示す図表。FIG. 4 is a chart showing the contents of a table included in the knowledge base shown in FIG.
【図5】請求項2記載の発明の実施例に係るブロック
図。FIG. 5 is a block diagram according to an embodiment of the invention described in claim 2.
【図6】図2における知識ベースが有するテーブルの内
容を示す図表。FIG. 6 is a diagram showing the contents of a table included in the knowledge base shown in FIG.
【図7】ニューラルネットワークに用いられるユニット
の説明図。FIG. 7 is an explanatory diagram of a unit used in a neural network.
【図8】図7のユニットに係る出力の関数を示す特性
図。8 is a characteristic diagram showing a function of output according to the unit of FIG.
【図9】層内結合をもたない3層の階層型ネットワーク
の概念図。FIG. 9 is a conceptual diagram of a three-layer hierarchical network having no intra-layer connection.
【図10】層内結合を有する2層の階層型ネットワーク
の概念図。FIG. 10 is a conceptual diagram of a two-layer hierarchical network having intra-layer coupling.
【図11】従来装置に係るブロック図。FIG. 11 is a block diagram of a conventional device.
【図12】従来装置の課題を説明するための図表。FIG. 12 is a chart for explaining the problems of the conventional device.
【図13】従来装置の課題を説明するための図表。FIG. 13 is a chart for explaining the problems of the conventional device.
【図14】従来装置の課題を説明するための図表。FIG. 14 is a chart for explaining the problems of the conventional device.
1 ニューロ演算部 2 プログラム記憶部 3 ユニット状態記憶部 4 結合データ記憶部 5A 知識ベース 6A グループ結合関係テーブル 7A データ配置テーブル 8 時分割制御手段 1 Neuro Operation Unit 2 Program Storage Unit 3 Unit State Storage Unit 4 Joined Data Storage Unit 5A Knowledge Base 6A Group Joined Relationship Table 7A Data Placement Table 8 Time Division Control Means
Claims (3)
ユニットの相互結合関係に関するデータが記載されてい
るテーブルを有する知識ベースと、 前記知識ベースのテーブルに基いてニューロ演算を行う
ニューロ演算部と、 を備えたニューロ演算装置において、 前記知識ベースは、 前記複数のユニットが所定数のグループに分けられてお
り、各グループと各ユニットとの間の結合関係を示す2
値データが記載されたグループ結合関係テーブルと、 前記グループ結合関係テーブルに記載された各グループ
と各ユニットとの組合わせのうち結合関係を有すること
を意味する2値データが記載された組合わせのみについ
て、その組合わせに含まれる複数のユニット同士の結合
度が格納されているアドレスのデータが記載されたデー
タ配置テーブルと、 を有することを特徴とするニューロ演算装置。1. A knowledge base having a table in which data relating to mutual connection relations of a plurality of units forming a neural network is described, and a neuro operation unit for performing a neuro operation based on the knowledge base table. In the neuro operation device, the knowledge base is configured such that the plurality of units are divided into a predetermined number of groups, and indicates a coupling relationship between each group and each unit.
Only the group connection relation table in which the value data is described, and the combination in which the binary data that indicates that there is a connection relation among the combinations of each group and each unit described in the group connection relation table are described. And a data arrangement table in which the data of the address in which the coupling degree between the plurality of units included in the combination is stored is described.
て、 前記グループ結合関係テーブルのグループは、共通処理
が可能なユニットの集合体であること、 を特徴とするニューロ演算装置。2. The neuro arithmetic device according to claim 1, wherein the group of the group connection relation table is an aggregate of units capable of performing common processing.
て、 前記共通処理は時間分割処理であり、 前記ニューロ演算部は、前記個別結合関係テーブルに基
いて時分割処理を行う時分割制御手段を有すること、 を特徴とするニューロ演算装置。3. The neuro-calculation device according to claim 2, wherein the common processing is time-division processing, and the neuro-calculation unit has time-division control means for performing time-division processing based on the individual connection relation table. A neuro arithmetic unit characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6219179A JPH0883261A (en) | 1994-09-13 | 1994-09-13 | Neuro arithmetic unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6219179A JPH0883261A (en) | 1994-09-13 | 1994-09-13 | Neuro arithmetic unit |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0883261A true JPH0883261A (en) | 1996-03-26 |
Family
ID=16731442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6219179A Pending JPH0883261A (en) | 1994-09-13 | 1994-09-13 | Neuro arithmetic unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0883261A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352900A (en) * | 2004-06-11 | 2005-12-22 | Canon Inc | Device and method for information processing, and device and method for pattern recognition |
JP2020197922A (en) * | 2019-06-03 | 2020-12-10 | 株式会社東芝 | Neural network arithmetic device, neural network, and neural network control method |
-
1994
- 1994-09-13 JP JP6219179A patent/JPH0883261A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352900A (en) * | 2004-06-11 | 2005-12-22 | Canon Inc | Device and method for information processing, and device and method for pattern recognition |
JP2020197922A (en) * | 2019-06-03 | 2020-12-10 | 株式会社東芝 | Neural network arithmetic device, neural network, and neural network control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Espinosa et al. | Constructing fuzzy models with linguistic integrity-afreli algorithm | |
Castillo | Functional networks | |
Siegelmann et al. | Computational capabilities of recurrent NARX neural networks | |
CN112784964A (en) | Image classification method based on bridging knowledge distillation convolution neural network | |
CN107292352A (en) | Image classification method and device based on convolutional neural networks | |
Funabiki et al. | A parallel algorithm for channel routing problems (VLSI) | |
Takefuji et al. | Neural computing for optimization and combinatorics | |
CN110223553A (en) | A kind of prediction technique and system of answering information | |
Chung | A neuro-based expert system for facility layout construction | |
JPH0883261A (en) | Neuro arithmetic unit | |
CN112036554B (en) | Neural network model processing method and device, computer equipment and storage medium | |
JPH0440581A (en) | Neuroprocessor | |
Xu et al. | Synergism of neural networks and expert systems for system identification | |
JPH02189635A (en) | Fuzzy inference device | |
Jamal | Neural network and cellular manufacturing | |
Hu | Intelligent engineering-its application | |
JPH0652140A (en) | Data structure for neural network | |
Cohen | Brain-like computer architecture | |
Kufudaki et al. | 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION | |
Cordoro et al. | Dynamic business intelligence, automated decision making with Fuzzy Cognitive Maps | |
Jaramillo-Botero et al. | Parallel, high-speed PC fuzzy control | |
JPH0415773A (en) | Neural network device | |
Prat et al. | Application of a multiagent distributed architecture for time series forecasting | |
Kanerva | The application of a sparse, distributed memory to the detection, identification and manipulation of physical objects | |
JPH0443472A (en) | Neural circuit network type calculation device |