JPH02300870A - Picture processing device - Google Patents

Picture processing device

Info

Publication number
JPH02300870A
JPH02300870A JP1120251A JP12025189A JPH02300870A JP H02300870 A JPH02300870 A JP H02300870A JP 1120251 A JP1120251 A JP 1120251A JP 12025189 A JP12025189 A JP 12025189A JP H02300870 A JPH02300870 A JP H02300870A
Authority
JP
Japan
Prior art keywords
data
output
neuron
neural
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1120251A
Other languages
Japanese (ja)
Inventor
Makoto Yamamoto
誠 山本
Ryohei Kumagai
熊谷 良平
Sunao Takatori
直 高取
Koji Matsumoto
幸治 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to JP1120251A priority Critical patent/JPH02300870A/en
Priority to AT90906368T priority patent/ATE159601T1/en
Priority to DE69031621T priority patent/DE69031621T2/en
Priority to PCT/JP1990/000535 priority patent/WO1990013874A1/en
Priority to EP90906368A priority patent/EP0457909B1/en
Publication of JPH02300870A publication Critical patent/JPH02300870A/en
Priority to US08/461,538 priority patent/US5553196A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To quickly and surely recognize a graphic with a small memory capacity by extracting feature data related to recessed parts of a graphic and recognizing the graphic based on this feature data. CONSTITUTION:Recessed part feature data of a picture is extracted by a picture processing part 300, and the degree of abstract of this data is higher than that of picture element data. That is, the recessed part chord length or the like is higher-order data though picture element data is 0th-order data, and picture data is inputted to the neural layer of the first stage but data of the recessed part chord length or the like is inputted to the neural layer of the succeeding stage in a neural network. Feature data related to recessed parts of the graphic is inputted to a prescribed neural layer of a graphic recognizing means 100 to perform the graphic recognition. The graphic recognizing means 100 has a required minimum number of neurons for graphic recognition to perform the graphic recognition with a small memory capacity. Thus, desired recognition processing is efficiently and surely executed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、いわゆるニューラルネットワークによって構
成され、図形の凹部に関する特徴データを用いてその図
形を認識する画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing apparatus that is configured by a so-called neural network and that recognizes a figure using feature data regarding concave portions of the figure.

〔従来の技術] 例えば文字の認識において、凹部および穴の存在はその
文字認識の決め手となり、図形の凹凸性は図形の重要な
特徴である。図形を含む最小凸図形を凸閉包というが、
凸閉包から元の図形を除いた図形は凹部および穴が抽出
され、図形の解析にとって重要である。なお、凹部の形
状を示す特徴量として四散、凹弦長、凹弧長、四重等が
ある。
[Prior Art] For example, in character recognition, the presence of recesses and holes is a deciding factor in character recognition, and the unevenness of a figure is an important feature of the figure. The minimum convex figure that contains a figure is called a convex hull,
Concavities and holes are extracted from the shape obtained by removing the original shape from the convex hull, which is important for the analysis of the shape. It should be noted that the feature values indicating the shape of the concave portion include quadrature, concave chord length, concave arc length, and quadruple.

一方、ニューラルネットワークの概念を基礎とする画像
処理装置は、ニューラルネットワークの学習機能あるい
は連想機能のため、多様な画像認識が可能であり、また
高い認識率を得ることができると期待されている。ニュ
ーラルネットワークは、第2図に示す神経細胞モデル(
以下、ニューロンという)1を第3図に示すように並列
に設けて層状に構成される。ニューロン1において、外
部または他のニューロンから入力されるデータDI+、
DI2、DI3、・・・口1nにはそれぞれ重みW2、
W2、W3、・・・W、lが掛けられ、これらの総和と
閾値θとが比較される。この比較方法としては種々のも
のが可能であるが、例えば、この総和が閾値8以上の時
出力データDOが「1」となり、またこの総和が閾値θ
より小さい時出力データDOが「0」となるように定め
られる。
On the other hand, image processing devices based on the concept of neural networks are expected to be able to recognize a variety of images and achieve a high recognition rate due to the learning function or associative function of the neural network. The neural network is based on the neuron model shown in Figure 2 (
(hereinafter referred to as neurons) 1 are arranged in parallel and arranged in a layered manner as shown in FIG. In neuron 1, data DI+ input from the outside or from another neuron;
DI2, DI3, . . . each mouth 1n has a weight W2,
W2, W3, . . . W, l are multiplied, and the sum total thereof is compared with the threshold value θ. Various methods are possible for this comparison, but for example, when this sum is equal to or greater than the threshold 8, the output data DO becomes "1", and this sum is equal to the threshold θ.
It is determined that the output data DO becomes "0" when it is smaller.

ニューロン1からなる層すなわちニューラルレイヤは、
通常複数個設けられ、このようなニューラルレイヤを備
えた従来の画像処理装置に対する入力データは、第1層
目のニューラルレイヤに入力される。またこの入力デー
タとしては図形の画素データが一般に与えられる。
The layer consisting of neuron 1, that is, the neural layer, is
Usually, a plurality of such neural layers are provided, and input data for a conventional image processing apparatus equipped with such neural layers is input to the first neural layer. Further, pixel data of a figure is generally given as this input data.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、このような画像処理装置において、全画素デー
タから所望の認識処理を行うためには、膨大な個数のニ
ューロンが必要であり、実用的な装置を具現化すること
は困難であり、また、画素データそのものをニューラル
ネットワークに入力するということ自体、生体系の処理
とは全<遊離した考え方である。
However, in such an image processing device, in order to perform the desired recognition processing from all pixel data, a huge number of neurons are required, and it is difficult to realize a practical device. The very act of inputting pixel data into a neural network is completely separate from biological system processing.

さらに従来はニューラルネットワークの構成と処理対象
データとの関係について確立した考え方はなく、確実に
所望の認識処理を実行する画像処理装置を構成すること
は困難であった。
Furthermore, conventionally, there has been no established concept regarding the relationship between the configuration of a neural network and data to be processed, and it has been difficult to configure an image processing apparatus that reliably executes desired recognition processing.

本発明は、このよ・うな従来の問題点を解決すべく創案
されたもので、所望の認識処理を効率的かつ確実に実行
し得る画像処理装置を提供することを目的とする。
The present invention was devised to solve these conventional problems, and an object of the present invention is to provide an image processing device that can efficiently and reliably execute desired recognition processing.

(課題を解決するだめの手段〕 本発明に係る画像処理装置は、図形の凹部に関する特徴
データを抽出する図形データ出力手段と、この図形デー
タ出力手段に接続され、入力されたデータに所定の重み
を乗じたものの総和と閾値との比較結果に応じたデータ
を出力するニューロンが並列的に設けられるとともに、
上記特徴データの抽象度に応じた層構造のニューラルレ
イヤを有し、この特徴データに基づいて図形を認識する
手段とを備えたことを特徴としている。
(Means for Solving the Problems) An image processing apparatus according to the present invention includes a graphic data output means for extracting feature data regarding a concave part of a graphic, and a graphic data output means connected to the graphic data output means, which applies a predetermined weight to the input data. Neurons are provided in parallel that output data according to the comparison result between the sum of products multiplied by the threshold value and the threshold value.
The present invention is characterized in that it has a neural layer having a layered structure according to the abstraction level of the feature data, and means for recognizing a figure based on this feature data.

〔作用〕[Effect]

図形の凹部に関する特徴データは、図形認識手段の所定
のニューラルレイヤに入力され、図形認識が行われる。
Characteristic data regarding the concave portion of the figure is input to a predetermined neural layer of the figure recognition means, and figure recognition is performed.

図形認識手段は、図形認識のために必要最小限のニュー
ロンを有し、少ないメモリで高速かつ確実に図形認識を
行う。
The figure recognition means has the minimum number of neurons necessary for figure recognition, and performs figure recognition quickly and reliably with a small amount of memory.

(実施例〕 以下図示実施例に基づいて本発明を説明する。(Example〕 The present invention will be explained below based on illustrated embodiments.

第1図は画像処理装置の概略的な構成を示す。FIG. 1 shows a schematic configuration of an image processing device.

この画像処理装置は画像入力部200と、画像処理部3
00と、認識部100と、システムメモリ400を備え
、これらはシステムバスBを通じて相互に接続されると
ともに、CPU500に接続されている。画像入力部2
00にはイメージスキャナ等の入力機器とIloとを含
み、Iloには適宜、データ圧縮手段、データ保持のた
めのメモリ等が含まれる。画像処理部300は処理部3
10と、画像を保持するフレームメモリ330とを備え
、所望により内部に画像入力部340が設けられる。認
識部100は、後に詳述するように、画像処理部300
で得られた抽出データに基づいて図形認識を行うもので
あり、ニューロンからなる複数層のニューラルレイヤが
構築され、このニューラルレイヤの出力データを記憶す
るメモリを備える。
This image processing device includes an image input section 200 and an image processing section 3.
00, a recognition unit 100, and a system memory 400, which are interconnected through a system bus B and are also connected to a CPU 500. Image input section 2
00 includes an input device such as an image scanner and Ilo, and Ilo includes a data compression means, a memory for data retention, etc. as appropriate. The image processing unit 300 is the processing unit 3
10, and a frame memory 330 for holding images, and an image input section 340 is provided therein as desired. The recognition unit 100 includes an image processing unit 300 as will be described in detail later.
It performs figure recognition based on the extracted data obtained in , and has a multi-layer neural layer made up of neurons and a memory that stores the output data of this neural layer.

第4図は画像処理部300における処理部310を示す
ものであり、処理部310は、フレームメモリ330か
らマルチプレクサ311を介して選択的に取り込んだデ
ータをローカルバスLBを通じて近傍処理部312に転
送している。近傍処理部312はデータを所定近傍領域
(例えば3×3)単位でデータを保持し、これらのデー
タを並列に演算部320に入力する。演算部320は数
値演算部321および状態演算部325を有し、近傍処
理部312の出力は数値演算部321に入力される。数
値演算部321は、乗算部322、セレクタ323、統
合部324を順次接続してなり、微分その他のオペレー
タ処理や画像間演算は数値演算部321において行われ
る。数値演算は例えば各画素の濃度に乗数を乗じた後に
これを数値的に統合する処理を行うが、同一の画素には
異なる絶対値の乗数が掛けられることはないという発明
者の知見に基づき最前段に乗算部322が配置されてい
る。これによって乗算部のカーネル数は同時処理画素数
に等しい最小値とすることができ、これにともなって後
段のセ[/フタ323、統合部324のゲート数も減少
する。したがって数値演算部321は小規模回路で最大
限の機能をもつことができ、処理速度も高速化される。
FIG. 4 shows a processing unit 310 in the image processing unit 300. The processing unit 310 transfers data selectively fetched from the frame memory 330 via the multiplexer 311 to the neighboring processing unit 312 via the local bus LB. ing. The neighborhood processing unit 312 holds data in units of predetermined neighborhood areas (for example, 3×3), and inputs these data in parallel to the calculation unit 320. The calculation section 320 has a numerical calculation section 321 and a state calculation section 325 , and the output of the neighborhood processing section 312 is input to the numerical calculation section 321 . The numerical calculation unit 321 is formed by sequentially connecting a multiplication unit 322, a selector 323, and an integration unit 324, and performs differentiation and other operator processing and inter-image calculations in the numerical calculation unit 321. In numerical calculations, for example, the density of each pixel is multiplied by a multiplier and then integrated numerically, but based on the inventor's knowledge that the same pixel is never multiplied by a multiplier with a different absolute value, A multiplication section 322 is arranged at the front stage. As a result, the number of kernels in the multiplication section can be set to a minimum value equal to the number of simultaneously processed pixels, and the number of gates in the subsequent separator 323 and integration section 324 is also reduced accordingly. Therefore, the numerical calculation section 321 can have maximum functionality with a small circuit, and the processing speed can be increased.

数値演算部321内のデータは状態演算部325に導か
れ、状態演算部325は、所定近傍領域内の画素に対し
て次のよ・うな判断または演算を行う。
The data in the numerical calculation section 321 is led to the state calculation section 325, and the state calculation section 325 performs the following judgment or calculation on pixels within a predetermined neighborhood area.

i)中央画素が処理対象画素であるか否か。i) Whether or not the center pixel is the pixel to be processed.

1i)8近傍に中央画素と異なる濃度の画素が存在する
か否か。
1i) Is there a pixel with a density different from that of the central pixel in the vicinity of 8?

1ii)8近傍の各画素が中央画素と同一か否か6iv
)オイラー数算出のためのTFDHの各個数。
1ii) Whether each pixel in the 8 neighborhoods is the same as the central pixel6iv
) Each number of TFDHs for Euler number calculation.

■)所定パターンとの一致度。■) Degree of match with a predetermined pattern.

■)その他。■) Others.

このように数値演算とともに状態演算を並列的にしかも
別回路で行うことにより、各回路の効率化と高速化を図
ることができる。また状態演算部325の出力はそれ自
体が有効な特徴量であり、あるいは特徴量抽出のための
有効なデータである。
In this way, by performing the numerical calculations and the state calculations in parallel and in separate circuits, it is possible to improve the efficiency and speed of each circuit. Further, the output of the state calculation unit 325 is itself a valid feature quantity, or is valid data for extracting a feature quantity.

状態演算部325の出力は変換部313に人力され、さ
らに特徴抽出や、積算、比較などの処理により特徴量が
求められる。
The output of the state calculation section 325 is inputted to the conversion section 313, and feature quantities are further obtained through processing such as feature extraction, integration, and comparison.

変換部313はスタティックRAMなどの高速メモリの
出力の分岐にフルアダーなとの軽演算部を接続し、この
軽演算部の出力を高速メモリのデータ入力にフィードバ
ックしてなるものである。
The conversion section 313 is constructed by connecting a light arithmetic section such as a full adder to a branch of the output of a high speed memory such as a static RAM, and feeding back the output of this light arithmetic section to the data input of the high speed memory.

このような構成により、同一データに同一演算を繰返し
施したり、データの積算、データの逐次比較等の複雑な
演算を小規模の回路において高速で行うことができる。
With such a configuration, it is possible to repeatedly perform the same operation on the same data, and to perform complex operations such as data integration and data successive approximation at high speed in a small-scale circuit.

演算部320、変換部313の出力は出力側の。The outputs of the calculation section 320 and the conversion section 313 are on the output side.

ローカルバスLBを通じて前記フレームメモリ331 
(出力側に割り当てられたメモリ330)に戻されてい
る。
The frame memory 331 is connected to the frame memory 331 through the local bus LB.
(memory 330 allocated to the output side).

出力側のローカルバスLBには、さらに逐次処理部31
4が接続され、ラベリングや細線化などの逐次処理はこ
の逐次処理部で行われる。逐次処理部314は、ライン
メモリとラッチと論理部を備え、処理対象画素の1つ前
のラスタの処理後濃度を参照しつつ逐次処理を行う。
The local bus LB on the output side further includes a sequential processing unit 31.
4 is connected, and sequential processing such as labeling and thinning is performed in this sequential processing section. The sequential processing unit 314 includes a line memory, a latch, and a logic unit, and performs sequential processing while referring to the processed density of the raster immediately before the pixel to be processed.

このような処理部においては、極めて多様な特徴量を高
速でもとめることができ、認識部100に貴重な特徴量
を供給し得る。なおフレームメモU 330としてデュ
アルポートメモリを採用すれば、データの続出し、書き
込みを極めて高速で行い得る。
Such a processing section can obtain extremely diverse feature amounts at high speed, and can supply valuable feature amounts to the recognition section 100. Note that if a dual port memory is adopted as the frame memo U 330, data can be successively output and written at extremely high speed.

次に認識部100の構成を第5図に基づいて説明する。Next, the configuration of the recognition unit 100 will be explained based on FIG. 5.

認識部100は、システムバスBを介して、または認識
部100に直接接続された入力系、すなわち画像処理部
300から入力されたデータを処理し、処理結果を最終
出力データとして、データメモリ110に出力する。
The recognition unit 100 processes data input via the system bus B or from an input system directly connected to the recognition unit 100, that is, the image processing unit 300, and stores the processing results in the data memory 110 as final output data. Output.

認識部100にはニューラルネットワークが構築される
ウニューラルネットワークの各ニューロンからの出力デ
ータDOは、前述したように、入力データと重みとの積
の総和が閾値0以上の時「1」となり、またこの総和が
閾値θより小さい時「0」となるように定められる。す
なわち、DO=f((Σ(W、 XDl、 )−θ) 
 (1)であり、ここでfは正規化関数である。
A neural network is constructed in the recognition unit 100. As described above, the output data DO from each neuron of the neural network becomes "1" when the sum of the products of input data and weights is equal to or greater than the threshold value 0, and It is determined that when this sum is smaller than the threshold value θ, it becomes "0". That is, DO=f((Σ(W, XDl, )−θ)
(1), where f is a normalization function.

認識部100は、ニューラルネットワークにおける連想
の作用を為す出力データ生成部120を有し、出力デー
タ生成部120においては、各ニューロンについての線
型閾値関数(ΣW、A、−〇)の演算が行われる。出力
データ生成部120の各部はCP(J50Qによって制
御される。
The recognition unit 100 has an output data generation unit 120 that performs an association function in a neural network, and the output data generation unit 120 calculates a linear threshold function (ΣW, A, −〇) for each neuron. . Each part of the output data generation section 120 is controlled by CP (J50Q).

W、Aiの乗算は出力データ生成部120における乗算
回lPt121において実行される。1回毎のW、A、
の演算結果は順次積算回路122に入力され、ΣW、A
、の演算が行われる。積算回路122は、加算回路10
4にフリップフロップ105を帰還的に接続してなり、
加算結果を一旦フリップフロップ105に保持したのち
、次のW、A、の入力と保持された加算結果とを加算し
ていくことにより積算を行う。ΣW、A、の演算結果は
閾値処理部123に入力され、(ΣW、A、−θ)の演
算が行われる。さらに閾値処理部123においては、(
ΣW、A、−θ)の演算結果を正規化する等の処理を行
い、出力データとする。(ΣW、A、−θ)の演算結果
はバッファ106を介してデータメモリ11Oに入力さ
れる。
The multiplication of W and Ai is performed in the multiplication circuit lPt121 in the output data generation section 120. W, A, every time
The calculation results are sequentially input to the integration circuit 122, and ΣW, A
, are calculated. The integration circuit 122 is the addition circuit 10
A flip-flop 105 is connected to 4 in a feedback manner,
After the addition result is temporarily held in the flip-flop 105, integration is performed by adding the next inputs of W and A and the held addition result. The calculation result of ΣW, A is input to the threshold processing unit 123, and the calculation of (ΣW, A, -θ) is performed. Furthermore, in the threshold processing unit 123, (
The calculation results of ΣW, A, -θ) are subjected to processing such as normalization, and are used as output data. The calculation result of (ΣW, A, -θ) is input to the data memory 11O via the buffer 106.

乗算回路121には重みのデータと、入力あるいは出力
データとが並列的に入力されるため、2系統の入力ライ
ンを有するが、バッファ106はそのうちの一方の入力
ラインに接続され、この入力ラインは入出力双方向のラ
インとして使用される。バッファ106は、データメモ
リ110から乗算回路121にデータが転送される際に
はハイインピーダンスとなる。
Since weight data and input or output data are input in parallel to the multiplication circuit 121, it has two input lines, and the buffer 106 is connected to one of the input lines. Used as a bidirectional input/output line. The buffer 106 becomes high impedance when data is transferred from the data memory 110 to the multiplication circuit 121.

各ニューラルレイヤのデータは、第1層については0次
入力データおよび第1ニユーラルレイヤの重みが人力さ
れ、第2Nについては1次出力データおよび第2ニユー
ラルレイヤの重みが入力される。すなわち第nニューラ
ルレイヤの出力(0次出力データ)は第(n+1)ニュ
ーラルレイヤの入力となる。データメモリ11Oにおい
て、重みのデータはシナプス重みエリア111に格納さ
れ、入出力データは入出力データエリア112に格納さ
れる。また閾値処理部123に設定ずべき各ニューロン
の閾値ば、データメモリ110またはシステムメモリ1
01に格納され、各ニューロンについての演算を開始す
る前に閾値処理部123に転送される。
Regarding the data of each neural layer, zero-order input data and weights of the first neural layer are manually input for the first layer, and primary output data and weights of the second neural layer are input for the 2N-th layer. That is, the output of the nth neural layer (0th order output data) becomes the input of the (n+1)th neural layer. In the data memory 11O, weight data is stored in a synaptic weight area 111, and input/output data is stored in an input/output data area 112. In addition, the threshold value of each neuron that should be set in the threshold processing unit 123 is determined by the data memory 110 or the system memory 1.
01, and is transferred to the threshold processing unit 123 before starting calculation for each neuron.

次に、画像処理部300において行われる、図形の凹部
に関する特徴すなわち凹特徴の求め方について説明する
Next, a description will be given of how the image processing unit 300 calculates the features related to the concave portions of a figure, that is, the concave features.

第6図は凹部A、B、C,D、E (ハツチングを付し
て示す、)を含む図形を示し、この図形に外接する水平
長方形Rが描かれている。この水平長方形Rによって図
形の境界画素は4つの象限に分割される。第6図中、水
平長方形の左」二の頂点に対向する境界画素群を象限I
、左下の頂点に対向する境界画素群を象限■、右下の頂
点に対向する境界画素群を象限■、右上の頂点に対向す
る境界画素群を象限■としている。
FIG. 6 shows a figure including recesses A, B, C, D, and E (indicated by hatching), and a horizontal rectangle R circumscribing this figure is drawn. This horizontal rectangle R divides the boundary pixels of the figure into four quadrants. In Figure 6, the boundary pixels facing the left vertex of the horizontal rectangle are placed in quadrant I.
, the boundary pixel group facing the lower left vertex is quadrant 2, the boundary pixel group facing the lower right vertex is quadrant 2, and the boundary pixel group facing the upper right vertex is quadrant 2.

これらの象限は凹部を検出する上で有力な情報となる。These quadrants provide useful information for detecting recesses.

この象限の情報を含め、境界画素をチェーン順に並べた
第7図に示すようなテーブルを作成する。
A table as shown in FIG. 7 is created in which boundary pixels are arranged in chain order, including this quadrant information.

このテーブルには、境界画素が包絡点であるか否か(第
7図では包絡点をO印、包絡点でないものを×印で示し
ている。)の情報、X座標、X座標およびチェーンコー
ドよりなる。
This table contains information as to whether the boundary pixel is an envelope point (in Figure 7, envelope points are indicated by an O mark, and non-envelope points are indicated by an X mark), the X coordinate, the X coordinate, and the chain code. It becomes more.

第8図(a)〜(d)は各象限とチェーンコードの関係
を示すもので、第8図(a)は象限1において凹部以外
の画素がとり得るチェーンコードを示し、第8図(b)
は象限■において凹部以外の画素が取り得るチェーンコ
ードを示し、第8図(c)は象限■において凹部以外の
画素がとり得るチェーンコードを示し、第8図(d)は
象限■において凹部以外の画素がとり得るチェーンコー
ドを示す。すなわち象限■ではチェーンコードが4〜6
以外の値をとったときは直ちに凹部が存在することが明
らかとなり、象限■では6〜0以外、象限■では0〜2
以外、象限■では2〜4以外のチェーンコードにより凹
部の存在が明らかになる。
8(a) to 8(d) show the relationship between each quadrant and the chain code. FIG. )
Figure 8(c) shows the chain code that pixels other than the concave part can have in quadrant ■, and Figure 8(d) shows the chain code that pixels other than the concave part can have in quadrant ■. The chain code that can be taken by the pixel of is shown. In other words, in quadrant ■, the chain code is 4 to 6.
When a value other than
In quadrant (2), chain codes other than 2 to 4 reveal the presence of recesses.

ただし、1つのチェーンコードのみでは凹部の存在を判
定できない場合もあり、このような場合には以下の処理
を行う。
However, there are cases where it is not possible to determine the presence of a recess using only one chain code, and in such a case, the following process is performed.

第9図において、相隣接する包絡点P+ 、Pzが判明
している時P、P2を結ぶ直線lの傾き(第9図のlは
傾き5/7=0.714、傾き角度θ−35,5度)を
算出した後、一方の包絡点例えばP、からP2に向かっ
て順次境界画素を追跡する。
In Fig. 9, when the adjacent envelope points P+ and Pz are known, the slope of the straight line l connecting P and P2 (l in Fig. 9 has an inclination of 5/7 = 0.714, an inclination angle of θ-35, 5 degrees), the boundary pixels are sequentially tracked from one envelope point, for example, P, toward P2.

ここに各境界画素と直線との距離dは各画素のチェーン
コードに基づく距M変化Δdの積算値として与えられる
。第9図の場合チェーンコードと距離変化Δdとの関係
は表1の通りである。
Here, the distance d between each boundary pixel and the straight line is given as an integrated value of the distance M change Δd based on the chain code of each pixel. In the case of FIG. 9, the relationship between the chain cord and the distance change Δd is as shown in Table 1.

表1 表1においては、直線より図形内側に位置する画素の距
離を正にとり、列側に位置する画素の距離を負にとって
いる。
Table 1 In Table 1, the distances of pixels located inside the figure from the straight line are taken as positive, and the distances of pixels located on the column side are taken as negative.

第9図の包絡点P+P=間の境界画素Pb、〜Pbt4
こ、P1側から追跡した場合の距離の積算値を表1に基
づき算出すると表2の通りとなる。
Boundary pixel Pb between envelope point P+P= in FIG. 9, ~Pbt4
If the integrated value of the distance when tracking from the P1 side is calculated based on Table 1, Table 2 is obtained.

表2 表2から明らかな通り、Pb、 、Pbzは直線2より
も図形内側に位置しているが、直線との距離d、は最大
で0.466であるので一般に凹部とは判定されず境界
画素Pb、においてばじめて距離d2が1,135とr
lJを越えており、一般にここで凹部であることが判明
する。
Table 2 As is clear from Table 2, Pb, , and Pbz are located inside the figure from straight line 2, but since the distance d from the straight line is at most 0.466, they are generally not determined as concavities and are considered boundaries. For the first time in pixel Pb, the distance d2 is 1,135 and r
lJ and generally turns out to be a recess here.

この境界画素の追跡にともなってPb、〜Pb?をカウ
ントし、四部でなかったときにはカウント値を無効とし
、凹部であったときにそれまでのカウント値を無効とす
るとともに次の包絡点P、の直前の境界画素までカウン
トを行えば凹弧長が算出される。
Along with tracking this boundary pixel, Pb, ~Pb? , and if it is not a four-part part, the count value is invalidated, and if it is a concave part, the count value up to that point is invalidated, and if the count is performed up to the boundary pixel immediately before the next envelope point P, the concave arc length is calculated. is calculated.

そして包絡点P、P、間に四部が存在することが判明し
たときには、包絡点P、P、のX座標、X座標から両包
絡点間の距離を算出し、凹弦長を算出する。この凹弦長
と凹弧長、周囲長より以下の四重が算出される。
When it is found that there are four parts between the envelope points P, P, the distance between the two envelope points is calculated from the X coordinates of the envelope points P, P, and the concave chord length is calculated. The following quadruple is calculated from the concave chord length, concave arc length, and perimeter length.

四重−凹弧長/(周囲長×凹弦長) なお以上のような凹部の判定において距離d≧1を凹部
存在の条件としたが、ノイズ等を考慮してd>2など適
宜条件を設定し得る。
Quadruple − concave arc length / (perimeter length × concave chord length) In the determination of concave portions as described above, the distance d≧1 was used as a condition for the presence of a concave portion, but considering noise etc., conditions such as d > 2 may be set as appropriate. Can be set.

以上の処理に際しては第7図のテーブルを順次読み、距
離変化の積算値をとりながら第7図のテーブル順次読み
、距離変化の積算値をとりながら第8図の条件の判定を
行う。そして積算値が所定値に達するか、あるいは第8
図の条件から外れたときに四部有りと判定する。この境
界画素の追跡にともなって境界画素のカウントを行えば
凹弧長が同時Gこ求められ、凹部の存在確認後包絡点間
の距離計算を行えば凹弦長が算出される。
In the above processing, the table in FIG. 7 is read in sequence, the table in FIG. 7 is read in sequence while taking the integrated value of distance changes, and the conditions in FIG. 8 are determined while taking the integrated value of distance changes. Then, the integrated value reaches a predetermined value, or the 8th
When the conditions shown in the figure are not met, it is determined that there are four copies. If the boundary pixels are counted along with this boundary pixel tracking, the concave arc length can be determined at the same time, and the concave chord length can be calculated by calculating the distance between the envelope points after confirming the existence of the concave portion.

凹部に関する特徴量の算出方法として、一旦凸閉包を形
成し、この凸閉包から元の図形を差し引いて凹部のみの
図形を生成する方法が考えられる。
A conceivable method for calculating the feature amount regarding the concave portion is to once form a convex hull, and then subtract the original figure from this convex hull to generate a figure of only the concave portion.

しかし前記のとおり単に包絡点を直線で結ぶのみでは正
確な凸閉包が得られるという保証はない。
However, as mentioned above, there is no guarantee that an accurate convex closure will be obtained by simply connecting the envelope points with a straight line.

この厳密な凸閉包の形成について本願出願人は既に特願
昭61−266719号において特許出願を行っている
The applicant of the present application has already filed a patent application regarding the formation of this strict convex hull in Japanese Patent Application No. 61-266719.

このような回持fatは、図形の形状の際立った特徴を
示すものであり、生体の視覚系に与える印象をも代表し
得るものである。したがって回持徴星が重要視される文
字認識等の図形認識において極めて有効なデータが認識
部100に与えられることになり、効率的な認識処理が
可能である。ここに従来のニューラルネットワークのよ
うに画素データそのものを入力データとしたときには、
膨大なニューロン数を要し、学習法の適否により十分な
認識処理を行うことができない場合も多い。
Such retained fat indicates the distinctive features of the shape of the figure, and can also represent the impression given to the visual system of the living body. Therefore, extremely effective data is provided to the recognition unit 100 in figure recognition such as character recognition in which recurrent features are considered important, and efficient recognition processing is possible. When the pixel data itself is used as input data like in a conventional neural network,
It requires a huge number of neurons, and it is often impossible to perform sufficient recognition processing depending on the suitability of the learning method.

次に、図形の画素データと回持徴データに基づいて図形
認識を行うニューラルネツI・ワークについて説明する
Next, a description will be given of a neural network I-work that performs figure recognition based on figure pixel data and recurrent feature data.

ニューラルネットワークは認識部100(第1図)に構
築され、後述するように、濃度共起行列から得られた特
徴データの抽象度に応じた層構造を有する。
The neural network is constructed in the recognition unit 100 (FIG. 1), and has a layered structure corresponding to the abstraction level of the feature data obtained from the concentration co-occurrence matrix, as will be described later.

実際にニューラルネットワークによって実行される処理
内容は極めて複雑であるが、極めて単純な論理演算が実
行されると仮定して、ニューラルネッI・ワークの第1
実施例を説明するとともに、この発明の第1の基本理念
を解説する。
Although the processing content actually executed by a neural network is extremely complex, assuming that an extremely simple logical operation is executed, the first
Examples will be described and the first basic idea of the invention will be explained.

第10回(a)、(b)、(c)は学習の結果A・ (
B+C)          (2)の論理演算が実行
されるに到ったニューラルネ・ノドワークを示すもので
ある。第10図(a)、(b)は比較例を示し、第10
図(C)はニューラルネットワークの第1実施例を示す
Part 10 (a), (b), and (c) are the learning results A・(
B+C) This shows the neural node work that led to the execution of the logical operation in (2). 10(a) and (b) show comparative examples;
Figure (C) shows a first embodiment of the neural network.

第10図(a)は、初段のニューラルレイヤ20にデー
タ群10におけるA、B、、Cの3データの全ての組合
せの数23=8個のニューロン21〜2日が設けられ、
第2段のニューラルレイヤ30に初段ニューロン21〜
28の出力のOR(m理和)を演算する1個のニューロ
ン31が設けられた構成を示している。図中、ニューロ
ン21〜28の上に付した「000」なとの数値は、デ
ータA、B、Cよりなるビットパターンを示し、これら
のニューロンはこのビットパターンが入力されるときに
出力「1」を出力する。このニューラルネットワークに
おいては、ニューロン数が9、シナプス数にニューロン
に接続される入力経路の数)が32であり、ニューロン
およびシナプスの効率が極めて低く、所要メモリ容量が
大であるとともに処理時間も大である。
In FIG. 10(a), the number 23 of all combinations of three data A, B, C in the data group 10 is provided in the first stage neural layer 20, and neurons 21 to 2 are provided in the first stage, and the number 23 = 8 neurons 21 to 2 are provided.
In the second stage neural layer 30, first stage neurons 21~
28 shows a configuration in which one neuron 31 is provided to calculate the OR (m-arithmetic sum) of 28 outputs. In the figure, the numerical value "000" added above the neurons 21 to 28 indicates a bit pattern consisting of data A, B, and C, and these neurons output "1" when this bit pattern is input. " is output. In this neural network, the number of neurons is 9, the number of synapses and the number of input paths connected to neurons is 32, the efficiency of neurons and synapses is extremely low, the required memory capacity is large, and the processing time is also large. It is.

第10図(b)は(2)弐を以下のように展開し、A−
B  +  A−C(3) 演算の単純化を図った例であり、初段ニューラルレイヤ
20は、A−Bの演算を処理するためのニューロン21
.A−Cの演算を処理するためのニューロン22を備え
る。第2段のニューラルレイヤ30はニューロン21.
22の出力のORを求めるニューロン31を有する。
Figure 10(b) expands (2) 2 as follows, and A-
B + A-C (3) This is an example in which the calculation is simplified, and the first neural layer 20 includes neurons 21 for processing the calculation of A-B.
.. A neuron 22 is provided for processing the calculation of A-C. The second stage neural layer 30 includes neurons 21.
It has a neuron 31 that calculates the OR of the outputs of 22.

ニューロン21においては、データA、、B、Cに対す
る重みW、〜W3は、例えばW、−1、W2=1、W:
l =0に設定され、 A W + + B W z + CW 3≧2   
(4)のときに出力「1」を出力する。したがってこの
場合、閾値θ−2とされる。同様に、ニューロン22で
は、W4−1、W、−0、W6−1、θ−2となる。一
方ニューロン3Iでは、W7−1、W6−1、θ−1と
なる。
In the neuron 21, the weights W, ~W3 for data A, , B, and C are, for example, W, -1, W2=1, W:
l = 0, A W + + B W z + CW 3≧2
At the time of (4), an output "1" is output. Therefore, in this case, the threshold value θ-2 is set. Similarly, in the neuron 22, the values are W4-1, W, -0, W6-1, and θ-2. On the other hand, in neuron 3I, they are W7-1, W6-1, and θ-1.

第10図(b)のニューラルネットワークにおいて、ニ
ューロン数は3、シナプス数は8であり、第10図(a
)のニューラルネットワークに比較すれば、大幅にニュ
ーロン効率、シナプス効率が向上している。しかし、次
に述べるように本発明によれば、さらにこれらの効率が
向上する。
In the neural network shown in Figure 10(b), the number of neurons is 3, the number of synapses is 8, and the number of neurons in Figure 10(a) is 8.
), the neuron efficiency and synaptic efficiency are significantly improved. However, as described below, according to the present invention, these efficiencies are further improved.

第1O図(C)は本発明のニューラルネットワークの第
1実施例を示すもので、この構成は、初段ニューラルレ
イヤ20および第2段ニューラルレイヤ30を有し、初
段ニューラルレイヤ20には、データB、Cのみが入力
され、そして第2段ニューラルレイヤ30には、データ
Aが直接入力される。初段ニューラルレイヤ20には、
(B十〇)の演算を行うための1個のニューロン21が
設けられ、第2段ニューラルレイヤ30には、A(B+
C)の演算を行うための1個のニューロン31が設けら
れる。ニューロン21は、例えば重みW1=1、W2−
1、θ−1に設定され、BW、+CWZ≧1     
   (5)のとき出力「1」を出力する。一方ニュー
ロン31は、例えば、W3−1、W4=1、θ−2に設
定され、ニューロン21の出力をYlとすると、Y I
 W z +A W 4≧2       (6)のと
き、出力r1.を出力する。この実施例においては、ニ
ューロン数2、シナプス数4であり、第10図(b)の
比較例よりも大幅にニューロン効率、シナプス効率が向
上している。
FIG. 1C shows a first embodiment of the neural network of the present invention, and this configuration has an initial neural layer 20 and a second neural layer 30, and the initial neural layer 20 contains data B. , C are input, and data A is directly input to the second stage neural layer 30. In the first neural layer 20,
One neuron 21 is provided to perform the calculation of (B10), and the second stage neural layer 30 includes A(B+
One neuron 31 is provided for performing the calculation of C). For example, the neuron 21 has a weight W1=1, W2-
1, set to θ-1, BW, +CWZ≧1
When (5), an output "1" is output. On the other hand, the neuron 31 is set to, for example, W3-1, W4=1, θ-2, and if the output of the neuron 21 is Yl, then Y I
When W z +A W 4≧2 (6), the output r1. Output. In this example, the number of neurons is 2 and the number of synapses is 4, and the neuron efficiency and synapse efficiency are significantly improved compared to the comparative example shown in FIG. 10(b).

ここで本発明の第1の基本理念を解説する。Here, the first basic idea of the present invention will be explained.

再び(2)式に注目すると、データB、C1は1つの作
用素r+(OR)Jにより結合されており、データAは
、その演算結果に対して作用素「×(AND)Jで結合
されている。したがって本来データB、、CとデータA
とは同一次元で評価すべきものではなく、それを敢えて
同一次元で評価しようとすると、第10図(a)、(b
)の比較例のように効率の低下を招来する。
Paying attention to equation (2) again, data B and C1 are connected by one operator r+(OR)J, and data A is connected by the operator "×(AND)J" for the operation result. .Therefore, originally data B, , C and data A
are not things that should be evaluated in the same dimension, and if we dare to evaluate them in the same dimension, Figure 10 (a) and (b)
) results in a decrease in efficiency, as shown in the comparative example.

ここで、ニューロンの処理内容が下記(力式の評価のみ
であると仮定する。
Here, it is assumed that the processing content of the neuron is as follows (only the evaluation of force expressions).

ΣW、A、−θ          (7)(ただし、
W、:重み、A、:入力、θ:閾値)そして、各データ
についてその抽象度を定義できると仮定し、その抽象度
を「次数」と呼ぶ。
ΣW, A, -θ (7) (However,
W: Weight, A: Input, θ: Threshold) Then, it is assumed that the degree of abstraction can be defined for each data, and this degree of abstraction is called "degree."

この次数は、1個のニューロンにおける入力デ−タに対
し、出力データが1次だけ次数が増加すると定義する。
This order is defined as the order of the output data increasing by one order relative to the input data of one neuron.

また、1つの作用素により結合されたデータ相互は同一
次数であると定義する。
Further, it is defined that data connected by one operator have the same degree.

このような定義によると、(2)式の場合、データB、
Cは同一次数であり、データAはそれよりも次数が1次
だけ高い。ここでデータB、Cの次数として「0」を与
えるとすると、データへの次数は「1」である。
According to this definition, in the case of equation (2), data B,
C is of the same order, and data A is one order higher than that. Here, if "0" is given as the order of data B and C, the order of the data is "1".

このデータの次数とニューラルレイヤの階層との関係を
考えると、第10図(c)において、ニューラルレイヤ
20には0次のデータのみが入力され、ニューラルレイ
ヤ30には1次のデータのみが入力されている。したが
って、ニューラルレイヤ20.30を入力データの次数
に対応づけ得ることが明らかであり、以後ニューラルレ
イヤにも入力データと同一の次数を定義するものとする
Considering the relationship between the order of this data and the hierarchy of the neural layer, in FIG. 10(c), only 0th order data is input to the neural layer 20, and only 1st order data is input to the neural layer 30. has been done. Therefore, it is clear that the neural layers 20, 30 can be associated with the order of the input data, and hereinafter the same order as the input data will be defined for the neural layer as well.

そして、ニューラルネットワークに入力すべきデータ群
をその次数に応じて分類し、各次数のデータをそれに対
応した次数のニューラルレイヤに入力することによって
、ニューロン効率、シナプス効率が最適化する。
Then, the neuron efficiency and synaptic efficiency are optimized by classifying the data group to be input into the neural network according to its degree and inputting the data of each degree to the neural layer of the corresponding degree.

また、第10図(a)、(b)に関連して説明したよう
に、高次のデータを低次数化して処理することも可能で
あり、この場合にはニューロン効率、シナプス効率が低
下する。したがって各データの次数は、そのデータがと
り得る最も高い次数を基準とすべきである。
Furthermore, as explained in relation to FIGS. 10(a) and (b), it is also possible to process high-order data by reducing it to a lower order, and in this case, neuron efficiency and synaptic efficiency decrease. . Therefore, the degree of each data should be based on the highest possible degree of that data.

なお、(A+B)  ・Bのように1つのデータが複数
の次数にわたって使用されることもあり、この場合、1
つのデータを複数のニューラルレイヤに入力するように
してもよい。
Note that one data may be used for multiple orders, such as (A+B)・B, and in this case, 1
One piece of data may be input to multiple neural layers.

次数の本来の意味である抽象塵をより分かり易く説明す
る例として、第11図(a)〜(C)に図形の端点を判
断する構成を示す。
As an example to more clearly explain the abstraction, which is the original meaning of the degree, FIGS. 11(a) to 11(C) show a configuration for determining the end points of a figure.

図形の端点のとらえ方は種々考えられるが、ここでは、
3×3コンボリユーシヨン(第11図(a))において
、第11図(b ) (t) 〜(viii)のいずれ
かのパターンが生じたときに、中央画素(第11図(a
)の画素E)は端点であるとする。
There are various ways to consider the end points of a figure, but here,
In the 3x3 convolution (Fig. 11(a)), when any of the patterns shown in Fig. 11(b) (t) to (viii) occurs, the central pixel (Fig. 11(a)
It is assumed that pixel E) of ) is an end point.

この端点の判断は中央画素以外の画素A−D、F〜Iの
いずれか1つが図形濃度(例えば「1」)であり、かつ
中央画素Eが図形濃度であるときに「端点」、それ以外
のときに「端点てない」とする。
This end point is judged as an "end point" when any one of the pixels A-D, F-I other than the center pixel has a figure density (for example, "1") and the center pixel E has a figure density; ``There is no end point'' when .

この判断のためのニューラルネットワークは例えば第1
1図(C)のように構成され、この図はニューラルネッ
トワークの第2実施例を示す。このニューラルネットワ
ークは、8個のニューロン21〜28を有する初段ニュ
ーラルレイヤ20、および1個のニューロン31を有す
る第2段ニューラルレイヤ30を有し、画素A−D、F
〜I(7)データが初段ニューラルレイヤ20に、画素
Eのチー タが第2段ニューラルレイヤ30に人力され
ている。
For example, the neural network for this judgment is
The neural network is constructed as shown in FIG. 1(C), and this figure shows a second embodiment of the neural network. This neural network has a first stage neural layer 20 having eight neurons 21 to 28 and a second stage neural layer 30 having one neuron 31, and has pixels A-D, F
~I(7) data is manually input to the first-stage neural layer 20, and the cheetah of pixel E is manually input to the second-stage neural layer 30.

初段ニューラルレイヤのニューロン21〜28はそれぞ
れへのみ、Bのみ、Cのみ・・・が図形画素「1」であ
ることを判別し、第2段ニューラルレイヤ30のニュー
ロン31は、ニューロン21〜28のいずれかがrlJ
を出力し、かつEが図形画素「1」であるときに出力r
lJを出力する。
Neurons 21 to 28 of the first stage neural layer determine that only B, only C, and so on are figure pixels "1", and neuron 31 of the second stage neural layer 30 determines that each of neurons 21 to 28 has a figure pixel "1". Either one is rlJ
and when E is the figure pixel "1", the output r
Output lJ.

ここで各画素データA−D、F〜■を0次データと考え
ると、ニューロン31の出力は2次データとなる。した
がって、各画素のデータを0次データと考えた場合、端
点データは2次データとして取扱い得ることが分かる。
If each pixel data A to D and F to ■ is considered as zero-order data, the output of the neuron 31 becomes second-order data. Therefore, when the data of each pixel is considered as zero-order data, it can be seen that the end point data can be handled as secondary data.

画像処理部300からは、グループ数、次数、オイラー
数、テクスチャ特微量等種々のデータが出力されるが、
これらデータの次数を考慮し最適なニューラルレイヤに
直接入力すべきである。
The image processing unit 300 outputs various data such as the number of groups, order, Euler number, texture features, etc.
The order of these data should be considered and input directly to the optimal neural layer.

本実施例において、画像の凹特徴データが画像処理部3
00において抽出される。この凹特徴データは、画素デ
ータに比較して抽象塵が高い。すなわち、画素データが
0次データであるのに対して凹弦長等はより高次のデー
タであり、ニューラルネットワークにおいて画素データ
は初段の二j−−ラルレイヤに入力され、凹弦長等のデ
ータは後段のニューラルレイヤに入力されるべきである
In this embodiment, the concave feature data of the image is
Extracted at 00. This concave feature data is highly abstract compared to pixel data. In other words, while pixel data is zero-order data, concave chord length, etc. are higher-order data, and in the neural network, pixel data is input to the first stage 2J--ral layer, and data such as concave chord length is input to the neural network. should be input to the subsequent neural layer.

第12図(a)はニューラルネットワークの第3実施例
を示し、この実施例においてニューラルネットワークは
、データ群IOとニューラルレイヤ20.90とを有し
、レイヤ90は出力データを認識部100に出力する出
力レイヤとなっている。
FIG. 12(a) shows a third embodiment of the neural network. In this embodiment, the neural network has a data group IO and a neural layer 20.90, and the layer 90 outputs output data to the recognition unit 100. This is the output layer.

データ群10は、第1グループのデータ1m12.13
・・・と、第2グループのデータ14.15.16・・
・とからなる。すなわちデータ群IOのデータは、その
次数に応じて第1および第2グループの2種類に分類さ
れている。
Data group 10 is the first group of data 1m12.13
...and the second group's data 14.15.16...
・Consists of. That is, the data in the data group IO is classified into two types, a first group and a second group, according to their order.

ニューラルレイヤ20はニューロン2L22.23・・
・を有し、また出力レイヤ90はニューロン91.92
.93・・・を有する。ニューラルレイヤ20の各ニュ
ーロンは出力レイヤ90の各ニューロンに接続される。
Neural layer 20 is neuron 2L22.23...
・The output layer 90 has neurons 91.92
.. It has 93... Each neuron of neural layer 20 is connected to each neuron of output layer 90.

第1グループのデータ11.12.13・・・はニュー
ラルレイヤ20の各ニューロンにそれぞれ入力され、第
2グループのデータ14.15.16・・・は出力レイ
ヤ90の各ニューロンにそれぞれ入力される。
The first group of data 11, 12, 13... are input to each neuron of the neural layer 20, and the second group of data 14, 15, 16... is input to each neuron of the output layer 90. .

ニューラルレイヤ20の各ニューロンは、例えば上記(
1)式に示されるように、入力された各データに重みを
乗じたものの総和と閾値とを比較j〜、この比較結果に
応じて、出力データr1.またはroiを出力する。出
力レイヤ90の各ニューロンは、ニューラルレイヤ20
の各ニューロンおよび第2グループのデータ14.15
.1G・・・にそれぞれ重みを乗じたものの総和を求め
、この総和と閾値との比較結果に応じて、ニューラルレ
イヤ20のニューロンと同様に「1」または「0」のデ
ータを出力する。
Each neuron of the neural layer 20 is configured, for example, as described above (
1) As shown in the formula, the sum of each input data multiplied by a weight is compared with the threshold value j~, and according to the result of this comparison, the output data r1. Or output roi. Each neuron in the output layer 90 is connected to the neural layer 20
Data for each neuron and the second group 14.15
.. 1G... are multiplied by their respective weights, and depending on the result of comparing this sum with a threshold, data of "1" or "0" is outputted, similar to the neurons of the neural layer 20.

第1グループのデータ11.12.13・・・は、例え
ば、画素が「l」 (例えば黒)か「0」(例えば白)
かを示す0次データであり、また第2グループのデータ
14.15.16・・・は、画像の特徴を示す高次のデ
ータである。
For example, in the data 11, 12, 13, etc. of the first group, the pixel is "l" (for example, black) or "0" (for example, white)
The second group of data 14, 15, 16, . . . is high-order data indicating the characteristics of the image.

しかして第3実施例において、第1グループのデータす
なわち低次のデータは、ニューラルレイヤ20のニュー
ロンに入力され、第2グループのデータすなわち高次の
データは、出力レイヤ90のニューロンに入力される。
Thus, in the third embodiment, the first group of data, ie, low-order data, is input to the neurons of the neural layer 20, and the second group of data, ie, high-order data, is input to the neurons of the output layer 90. .

したがって、ニューラルレイヤ20のニューロンは、よ
り低次の処理すなわち例えば画素そのもののデータに対
する処理を行い、出力レイヤ90のニューロンは、より
高次の処理すなわち例えば画素の持つ様々な性質等に対
する処理を行う。
Therefore, the neurons in the neural layer 20 perform lower-order processing, for example, processing on the data of the pixel itself, and the neurons in the output layer 90 perform higher-order processing, such as processing on various properties of pixels, etc. .

このように、第3実施例においては、高次のデータが直
接出力レイヤ90に入力され、ニューラルレイヤ20に
は入力されないので、シナプス数すなわち入力要素とニ
ューロンあるいはニューロン同士の接続部の数は減少し
、またニューロン数も減少する。シナプス数が少なくな
ると、ニューロンにとって演算回数が減少するために、
演算速度が上昇し、また重みデータ数も減少するので、
メモリ容量も小さくてすむ。また、ニューロン数が少な
くなると、閾値の数も少なくてすみ、これによりメモリ
容量が小さくなるとともに、演算回数も少なくなり演算
速度が上昇する。しかして本実施例によれば、小さいメ
モリ容量でかつ高速の演算処理が可能になり、単純な回
路で効率の高い画像処理装置が得られる。
In this way, in the third embodiment, high-order data is input directly to the output layer 90 and not to the neural layer 20, so the number of synapses, that is, the number of connections between input elements and neurons or between neurons is reduced. However, the number of neurons also decreases. As the number of synapses decreases, the number of operations required for neurons decreases, so
The calculation speed increases and the number of weight data decreases, so
The memory capacity is also small. Furthermore, when the number of neurons is reduced, the number of threshold values is also reduced, which reduces the memory capacity, reduces the number of calculations, and increases the calculation speed. According to this embodiment, high-speed arithmetic processing can be performed with a small memory capacity, and a highly efficient image processing device can be obtained with a simple circuit.

第12図(b)はニューラルネットワークの第4実施例
を示し、この実施例における画像処理装置は、3つのグ
ループの入力データ群10と、ニューラルレイヤ20.
30および出力レイヤ90を有する。
FIG. 12(b) shows a fourth embodiment of the neural network, and the image processing device in this embodiment has three groups of input data 10, a neural layer 20.
30 and an output layer 90.

入力データ群IOは、第1グループのデータ11.12
.13・・・と、第2グループのデータ14.15.1
6・・・と、第3グループのデータ17.18.19・
・・とを備える。すなわち入力データ群は、第3実施例
と異なり、3種類に分類されている。第1のニューラル
レイヤ20はニューロン21.22.23・・・を有し
、また第2のニューラルレイヤ30はニューロン31.
32.33・・・を有する。出力レイヤ90は、ニュー
ロン91.92.93・・・を有する。第1のニューラ
ルレイヤ20の各ニューロンは、第2のニューラルレイ
ヤ30の各ニューロンに、また第2のニューラルレイヤ
30の各ニューロンば、出力レイヤ90の各ニューロン
にそれぞれ接続される。
The input data group IO is the first group of data 11.12
.. 13... and the second group's data 14.15.1
6...and the third group's data 17.18.19.
...and is provided. That is, unlike the third embodiment, the input data group is classified into three types. The first neural layer 20 has neurons 21,22,23... and the second neural layer 30 has neurons 31.
It has 32.33... The output layer 90 has neurons 91, 92, 93, . . . . Each neuron of the first neural layer 20 is connected to each neuron of the second neural layer 30, and each neuron of the second neural layer 30 is connected to each neuron of the output layer 90, respectively.

第1グループのデータ11.12.13・・・は第1の
ニューラルレイヤ20の各二1−ロンに、第2グループ
のデータ14.15.16・・・は第2のニューラルレ
イヤ30の各ニューロンに、第3グループのデータ17
.18.19・・・は出力レイヤ90の各ニューロンに
それぞれ接続される。
The first group of data 11, 12, 13... are applied to each of the first neural layers 20, and the second group of data 14, 15, 16... are applied to each of the second neural layers 30. Data 17 of the third group is added to the neuron.
.. 18, 19... are connected to each neuron of the output layer 90, respectively.

各二ニーロンは、第3実施例と同様に、例えば−ト記(
1)式に従い、入力された各データに応じて、出力デー
タ「1」または「0」を出力する。第1グループのデー
タ11.12.13・・・は0次データ、第2グループ
のデータ14.15.1G・・・は1次データ、第3グ
ループのデータ17.18.19・・・は2次データで
ある。すなわち第2のニューラルレイヤ30には高次の
データが入力され、出力I/イヤ90にはさらに高次の
データが入力される。
As in the third embodiment, each two-neelon is, for example, -g (
1) According to the formula, output data "1" or "0" is output according to each input data. The first group of data 11.12.13... is zero-order data, the second group of data 14.15.1G... is first-order data, and the third group of data 17.18.19... is This is secondary data. That is, high-order data is input to the second neural layer 30, and even higher-order data is input to the output I/ear 90.

この第4実施例においても、第3実施例と同様に、シナ
プス数は減少し、またニノ、−ロン数も減少する。した
がって、第3実施例と同様な効果が得られる。
In this fourth embodiment, as in the third embodiment, the number of synapses decreases, and the number of Nino and Ron also decreases. Therefore, the same effects as in the third embodiment can be obtained.

第13図(a)、(b)はニューラルネットワークの第
5実施例を比較例とともに表したものであり、この例は
入力データを論理演算 (AeB) e(CeD) に従って処理する場合を示す。なおここで、eは「排他
的論理和Jを示し、またA、B、C,Dは「1」または
r□、のデジタル値であり、この論理演算の結果も「1
」または「0」のデジタル値として出力されるとして説
明する。
FIGS. 13(a) and 13(b) show a fifth embodiment of the neural network together with a comparative example, and this example shows a case where input data is processed according to the logical operation (AeB) e(CeD). Here, e indicates "exclusive OR J, and A, B, C, and D are digital values of "1" or r□, and the result of this logical operation is also "1.
” or as a digital value of “0”.

第13図(a)は比較例を示し、この装置1よ入力デー
タを通過させるための入力データ群10と第1および第
2のニューラルレイヤ20.30と出力レイヤ90とを
有する。入力データ群10は入力データA、B、C,D
からなる。第1のニューラルレイヤ20は4個のニュー
ロン21.22.23.24を有し、第2のニューラル
レイヤ30は4個のニューロン31.32.33.34
を有する。各データA−Dは、それぞれ第1のニューラ
ルレイヤ20の各ニューロンに入力され、第1のニュー
ラルレイヤ20の各ニューロンはそれぞれ第2のニュー
ラルレイヤ30の各ニューロンに接続される。一方、出
力レイヤ90は1個のニューロン91を有し、このニュ
ーロン91には、第2のニューラルレイヤ20の各ニュ
ーロンがそれぞれ接続される。
FIG. 13(a) shows a comparative example, and this device 1 has an input data group 10 for passing input data, first and second neural layers 20, 30, and an output layer 90. The input data group 10 is input data A, B, C, D.
Consisting of The first neural layer 20 has 4 neurons 21.22.23.24 and the second neural layer 30 has 4 neurons 31.32.33.34
has. Each data A-D is input to each neuron of the first neural layer 20, and each neuron of the first neural layer 20 is connected to each neuron of the second neural layer 30, respectively. On the other hand, the output layer 90 has one neuron 91, and each neuron of the second neural layer 20 is connected to this neuron 91, respectively.

第1のニューラルレイヤ20において、各ニューロン2
1は各入力データに対して乗じられる重みと閾値とを有
し、上記(1)式に従い、各入力データと重みの積の総
和が閾値以上の時出力データ「1」を出力し、この総和
が閾値θよりも小さい時出力データ「O」を出力する。
In the first neural layer 20, each neuron 2
1 has a weight and a threshold by which each input data is multiplied, and according to equation (1) above, when the sum of the products of each input data and the weight is greater than or equal to the threshold, output data "1" is output, and this sum When is smaller than the threshold value θ, output data “O” is output.

同様にニューロン22.23.24も各入力データに応
じて、「IJまたは「0」を出力する。第2のニューラ
ルレイヤ30においても同様に、各ニューロンは、入力
データに応じて「1」または「0」を出力する。
Similarly, the neurons 22, 23, and 24 output "IJ" or "0" according to each input data. Similarly, in the second neural layer 30, each neuron outputs "1" or "0" depending on the input data.

出力レイヤ90のニューロン91も同様に、第2のニュ
ーラルレイヤ30のニューロンからの出力データに応じ
て、「1」または「0」のデータを出力する。
Similarly, the neurons 91 of the output layer 90 output data of "1" or "0" according to the output data from the neurons of the second neural layer 30.

さて論理演算(AeB) e(CeD) の演算結果は
、データA、Bが不一致で、かつC,Dが一致するとき
、またA、Bが一致し、かっC,Dが不一致のとき、「
1」となる。それ以外の場合は「0」となる。このため
、第13図(a)においては、各ニューロンは次のよう
に構成される。
Now, the result of the logical operation (AeB) e(CeD) is, when data A and B do not match and C and D match, and when A and B match and C and D do not match,
1”. In other cases, it is "0". Therefore, in FIG. 13(a), each neuron is configured as follows.

第1のニューラルレイヤ20において、ニューロン21
,22.23.24は、A、 B、、C,、Dを4ビツ
トパターンで表した場合、それぞれ「0IXXJ、’l
0XXJ、rxxol」、rXXlo」の時「1」を出
力し、それ以外の場合「O」を出力する。ここで、rX
XJはそのデータを無視することを意味する。一方、第
2のニューラルレイヤ30において、ニューロン31は
、第1のニューラルレイヤ20のニューロン2′、のみ
が「1」を出力する時「1」を出力し、それ以外の時「
0」を出力する。またニューロン32ば、第1のニュー
ラルl/イヤ20のニューロン22のみが「1」を出力
する時「1」を出力し、それ以外の時「0」を出力する
。同様にして、ニューロン33は、第1のニューラルレ
イヤ20のニューロン23のみが「1」を出力する時「
1」を出力し、またニューロン34は、第1のニューラ
ルレイヤ20のニューロン24のみが「1」を出力する
時「1」を出力する。一方、出力レイヤ9oのニューロ
ン91は、第2のニューラルレイヤ30のニューロンの
少なくともひとつが「1」を出力する時「1」を出力す
る。
In the first neural layer 20, neurons 21
, 22.23.24 are respectively "0IXXJ,'l
0XXJ, rxxol", rXXlo", outputs "1", and otherwise outputs "O". Here, rX
XJ means ignore the data. On the other hand, in the second neural layer 30, the neuron 31 outputs "1" when only the neuron 2' of the first neural layer 20 outputs "1", and otherwise outputs "1".
0" is output. Further, the neuron 32 outputs "1" when only the neuron 22 of the first neural 1/ear 20 outputs "1", and outputs "0" at other times. Similarly, when only the neuron 23 of the first neural layer 20 outputs "1", the neuron 33 outputs "1".
Further, the neuron 34 outputs "1" when only the neuron 24 of the first neural layer 20 outputs "1". On the other hand, the neuron 91 of the output layer 9o outputs "1" when at least one neuron of the second neural layer 30 outputs "1".

したがって、A、B、C,Dの入力データがビットパタ
ーンでrooolJの場合、第1のニューラルレイヤ2
0においてニューロン23のみが「1」を出力し、他の
ニューロン21.22.24が「0」を出力する。この
結果、第2のニューラルレイヤ30においてニューロン
33が「1」を出力することとなり、出力レイヤ90の
ニューロン91がrlJを出力する。同様にしてA、B
、C,Dが、roolo、、roioo、、「1000
」、rlllo」、rlloIJ、rloll」、’0
IIIJの場合、第2のニューラルレイヤ30において
、いずれかのニューロンが「1」を出力し、出力レイヤ
90のニューロン91が「1」を出力する。
Therefore, if the input data of A, B, C, D is a bit pattern of rooolJ, the first neural layer 2
0, only neuron 23 outputs "1", and the other neurons 21, 22, 24 output "0". As a result, the neuron 33 in the second neural layer 30 outputs "1", and the neuron 91 in the output layer 90 outputs rlJ. Similarly, A and B
,C,D are roolo, ,roioo, ``1000
", rlllo", rlloIJ, rloll", '0
In the case of IIIJ, one of the neurons in the second neural layer 30 outputs "1", and the neuron 91 of the output layer 90 outputs "1".

第13図(b)はニューラルネットワークの第5の実施
例を示し、この装置は入力データ群10と第1、第2お
よび第3のニューラルレイヤ20.30.40と出力レ
イヤ90とを有する。入力データ群10は、入力データ
A、B、C,Dからなる。第1のニューラルレイヤ20
は4個のニューロン21.22.23.24、第2のニ
ューラルレイヤ30は2個のニューロン31.32、第
3のニューラルレイヤ40は2個のニューロン41.4
2、出力レイヤ90は1個のニューロン91を有する。
FIG. 13(b) shows a fifth embodiment of a neural network, this device having an input data set 10, first, second and third neural layers 20, 30, 40 and an output layer 90. The input data group 10 consists of input data A, B, C, and D. first neural layer 20
has 4 neurons 21.22.23.24, the second neural layer 30 has 2 neurons 31.32, and the third neural layer 40 has 2 neurons 41.4.
2. The output layer 90 has one neuron 91.

入力データ群のデータA−Dは、それぞれ第1のニュー
ラルレイヤ20の各ニューロンに入力され、第1のニュ
ーラルレイヤ20の各ニューロンはそれぞれ第2のニュ
ーラルレイヤ30の各ニューロンに接続される。第2の
ニューラルレイヤ30の各ニューロンは第3のニューラ
ルレイヤ40の各ニューロンに接続され、第3のニュー
ラルレイヤ40の各ニューロンは出力レイヤ90のニュ
ーロンに接続される。
Data A to D of the input data group are input to each neuron of the first neural layer 20, and each neuron of the first neural layer 20 is connected to each neuron of the second neural layer 30, respectively. Each neuron of the second neural layer 30 is connected to each neuron of the third neural layer 40, and each neuron of the third neural layer 40 is connected to a neuron of the output layer 90.

各ニューラルレイヤ20.30.40および出力レイヤ
90における各ニューロンは、第13図(a)の場合と
同様に、入力されるデータに応じて「1」または「0」
を出力する。
Each neuron in each neural layer 20, 30, 40 and output layer 90 is set to "1" or "0" depending on the input data, as in the case of FIG. 13(a).
Output.

第1のニューラルレイヤ20において、ニューロン21
.22.23.24は、A、B、CSDを4ビットパタ
ーンで表した場合、それぞれ「0IXXJ、rloxx
J、rxxol」、rXXlo」の時「1」を出力し、
それ以外の場合「OJを出力する。一方、第2のニュー
ラルレイヤ30において、ニューロン31は、第1のニ
ューラルレイヤ20のニューロン21または22が「I
Jを出力する時「Eを出力し、それ以外の時「0」を出
力する。またニューロン32は、第1のニューラルレイ
ヤ20のニューロン23または24が「1」を出力する
時r1.を出力し、それ以外の時「0」を出力する。第
3のニューラルレイヤ40において、ニューロン41は
、第2のニューラルレイヤ30のニューロン32のみが
「1」を出力する時「1」を出力し、それ以外の時[0
」を出力する。またニューロン42は、第2のニューラ
ルレイヤ30のニューロン3Iのみが「l」を出力する
時「1」を出力し、それ以外の時「0」を出力する。一
方、出力レイヤ90のニューロン91は、第3のニュー
ラルレイヤ40のニューロンの少なくともひとつが「1
」を出力する時「1」を出力する。
In the first neural layer 20, neurons 21
.. 22.23.24, when A, B, and CSD are expressed as 4-bit patterns, they are respectively "0IXXJ, rloxx
J, rxxol”, rXXlo”, outputs “1”,
Otherwise, "OJ" is output. On the other hand, in the second neural layer 30, the neuron 31 outputs "I".
When outputting J, output ``E'', otherwise output ``0''. Further, when the neuron 23 or 24 of the first neural layer 20 outputs "1", the neuron 32 outputs r1. is output, and "0" is output otherwise. In the third neural layer 40, the neuron 41 outputs "1" when only the neuron 32 of the second neural layer 30 outputs "1", and otherwise [0
" is output. Further, the neuron 42 outputs "1" when only the neuron 3I of the second neural layer 30 outputs "l", and outputs "0" at other times. On the other hand, the neurons 91 of the output layer 90 indicate that at least one of the neurons of the third neural layer 40 is "1".
”, outputs “1”.

したがって、A、BlC,、、、Dの入力データがビッ
トパターンでroooiJの場合、第1のニューラルレ
イヤ20においてニューロン23のみが「1」を出力し
、他のニューロン21.22.24が「0」を出力する
。この結果、第2の二1−ラルレイヤ30においてニュ
ーロン32のみが「1」を出力し、第3のニューラルレ
イヤ40においてニューロン42が「1」を出力するこ
ととなる。したがって出力レイヤ90のニューロン91
がrlJを出力する。同様にしてA、B、C,Dが、「
0010」、roloo、、rtoooJ、rl  1
 1 0J  、  rllol  コ 、  rlo
llJ  、  「0111」の場合、第2のニューラ
ルレイヤ30においで、いずれかのニューロンが「1」
を出力し、これにより第3のニューラルレイヤ40のい
ずれか一方のニューロンが[1jを出力することとなり
、第4のニューラルレイヤ40のいずれか一方のニュー
ロンがrl、を出力する。したがって、出力レイヤ90
のニューロン91が「1」を出力する。
Therefore, if the input data of A, BlC, . " is output. As a result, only the neuron 32 in the second neural layer 30 outputs "1", and the neuron 42 in the third neural layer 40 outputs "1". Therefore, neurons 91 of output layer 90
outputs rlJ. Similarly, A, B, C, and D are
0010'',roloo,,rtoooJ,rl 1
1 0J, rllol ko, rlo
llJ, “0111”, in the second neural layer 30, any neuron is “1”
As a result, one of the neurons in the third neural layer 40 outputs [1j, and one of the neurons in the fourth neural layer 40 outputs rl. Therefore, the output layer 90
The neuron 91 outputs "1".

第13図(a)から容易に理解されるように、比較例に
おいて、シナプス数は36であり、二ニーロン数は10
である。これに対し本実施例においては、第13図(b
)から理解されるようにシナプス数は30であり、ニュ
ーロン数はIOである。シカシテ、論理演算(,113
B) e(CeD)によって入力データを処理する場合
、比較例において36個のシナプスが必要であったのに
対し、本実施例によれば30個のシナプスですむことが
理解される。
As can be easily understood from FIG. 13(a), in the comparative example, the number of synapses is 36, and the number of two-neelons is 10.
It is. On the other hand, in this embodiment, FIG.
), the number of synapses is 30 and the number of neurons is IO. Shikashite, logical operation (,113
B) It is understood that when input data is processed by e(CeD), 36 synapses were required in the comparative example, but only 30 synapses are required according to the present example.

すなわち、本実施例によればシナプス数は約2割減少し
、上記各実施例において述べたのと同様な効果が得られ
る。つまり、ニューラルレイヤの数を増加させるととも
に、出力レイヤ90側に構築されるニューラルレイヤの
ニューロン数をそれより前段のニューラルレイヤのニュ
ーロン数以下に定めることにより、シナプス数を減少さ
せることかでき、画像処理装置のメモリ容量を削減する
とともに演算速度を向上させることができる。
That is, according to this embodiment, the number of synapses is reduced by about 20%, and the same effects as described in the above embodiments can be obtained. In other words, by increasing the number of neural layers and setting the number of neurons in the neural layer constructed on the output layer 90 side to be equal to or less than the number of neurons in the preceding neural layer, the number of synapses can be reduced, and the number of synapses can be reduced. The memory capacity of the processing device can be reduced and the calculation speed can be improved.

第14図(a)、(b)はニューラルネットワークの第
6実施例を比較例とともに表したものであり、この例は
入力データを論理演算 ((AeB) e(C69D)) eE  (8)に従
って処理する場合を示す。
Figures 14 (a) and (b) show the sixth embodiment of the neural network together with a comparative example. In this example, input data is subjected to logical operations ((AeB) e(C69D)) eE (8). Indicates when to process.

第14図(a)は比較例を示し、入力データ群10は5
個のデータA−E、初段のレイヤ20は15個のニュー
ロン、出力レイヤ90は1個のニューロンをそれぞれ有
する。比較例において、上記(8)式を展開して得られ
る各項をニューラルレイヤ20の各ニューロンへ入力し
ている。したがって、全てのデータは0次データとして
処理されている。
FIG. 14(a) shows a comparative example, where the input data group 10 is 5
The first layer 20 has 15 neurons, and the output layer 90 has 1 neuron. In the comparative example, each term obtained by expanding the above equation (8) is input to each neuron of the neural layer 20. Therefore, all data is processed as zero-order data.

これに対し、第14図(b)!−ニューラルネットワー
クの第6実施例を示し、この構成は入力データ群10と
、第1、第2、第3および第4のニューラルレイヤ20
.30.40.50と、出力レイヤ90とを有する。第
1のニューラルレイヤ20と第2のニューラルレイヤ3
0は(AeB)と(CeD)に従った処理をそれぞれ行
い、第3のニエーラ/[/L/イヤ40は((AeB)
 e(ID)lに従った処理を行う。そして第4のニュ
ーラルレイヤ50および出力レイヤ90により、((A
eB)@ (CeD)) eEによる最終結果が求めら
れる。
On the other hand, Fig. 14(b)! - A sixth embodiment of a neural network is shown, and this configuration includes an input data group 10 and a first, second, third and fourth neural layer 20.
.. 30, 40, 50, and an output layer 90. First neural layer 20 and second neural layer 3
0 performs processing according to (AeB) and (CeD), respectively, and the third Niera/[/L/Year 40 performs processing according to ((AeB)
Perform processing according to e(ID)l. Then, by the fourth neural layer 50 and the output layer 90, ((A
eB) @ (CeD)) The final result by eE is determined.

第14図(a)および第14図(b)の対比から理解さ
れるように、比較例において、シナプス数は80、ニュ
ーロン数は16であり、これに対し本実施例においては
、シナプス数は32であり、ニューロン数は10である
。しかして、本実施例によればシナプス数は約4割に減
少し、またニューロン数は約6割に減少する。したがっ
て本実施例においても、上記各実施例において述べたの
と同様な効果が得られる。
As can be understood from the comparison between FIG. 14(a) and FIG. 14(b), in the comparative example, the number of synapses is 80 and the number of neurons is 16, whereas in the present example, the number of synapses is 32, and the number of neurons is 10. According to this embodiment, the number of synapses is reduced by about 40%, and the number of neurons is reduced by about 60%. Therefore, in this embodiment as well, effects similar to those described in each of the above embodiments can be obtained.

以上の説明から理解されるように、本発明において、入
力データ群、ニューラルレイヤ、および出力レイヤから
なる層構造は、その画像処理において必要とする次数、
および入力データの次数に応じて最適に構成される必要
があり、また入力データはその層構造に適合したレイヤ
に入力される。
As can be understood from the above description, in the present invention, the layered structure consisting of the input data group, neural layer, and output layer has the order required for image processing,
The input data needs to be optimally configured according to the order of the input data, and the input data is input into a layer that matches the layer structure.

なお、ここで次数とは、前述したように、データあるい
は処理内容の抽象度を意味する。
Note that the degree here means the degree of abstraction of data or processing content, as described above.

さて、ニューロンが上述のような処理を行うには、重み
が学習により適当な値に定められなければならない。こ
のため本実施例においては、後述するように、重みが時
間的に指数関数的に変化せしめられる。なお、重みの修
正方法として、特願昭63−297541号に開示され
ているように大別して3つの方法があり、これらをここ
ではそれぞれモード■、モード■、モード■と呼ぶこと
とする。
Now, in order for a neuron to perform the processing described above, the weights must be determined to appropriate values through learning. Therefore, in this embodiment, the weights are changed exponentially over time, as will be described later. There are three methods for modifying the weights, as disclosed in Japanese Patent Application No. 63-297541, and these will be referred to herein as Mode (2), Mode (2), and Mode (2), respectively.

モードIは第15図に示すように、ニューロンの重みが
そのニューロンの出力に基づいて修正されるものである
。この修正方法は、各レイヤの出力の目標値が明らかに
なっている場合に有効である。さて、ある入力に対して
そのニューロンが出力を生じた場合その出力が目標値に
一致し、あるいは目標値に十分近かった時、その時の入
出力の関係は強化されるべきである。これは、有意な入
力が与えられたシナプスの重みを高めることに相当する
。モード■においては、各ニューロンの出力の目標値が
予め分かっているので、各ニューロンの出力を目標値と
比較し、両者が一致あるいは十分近かった時、例えば2
値入力の場合「1」が入力されたシナプスの重みが増加
せしめられる。
In mode I, as shown in FIG. 15, the weight of a neuron is modified based on the output of that neuron. This correction method is effective when the target value of the output of each layer is clear. Now, when the neuron produces an output in response to a certain input, and the output matches the target value or is sufficiently close to the target value, the relationship between the input and output at that time should be strengthened. This corresponds to increasing the weight of synapses given significant input. In mode ■, the target value of the output of each neuron is known in advance, so the output of each neuron is compared with the target value, and when the two match or are sufficiently close, e.g.
In the case of value input, the weight of the synapse to which "1" is input is increased.

モード■は第16図に示すように、ニューロンの重みが
最終的な出力の評価結果に基づいて修正されるものであ
る。この修正方法は、画像処理装置の処理内容を大局的
に判断する場合に有効である。このモードにおける評価
方法としては、出力レイヤの最終出力と目標値とのハミ
ング距離、あるいはビタゴラス距離の評価、あるいは感
応的評価等が可能である。この評価の結果、出力が目標
値と一致あるいは十分近ければ、その時の入出力関係は
強化されるべきであり、その時、例えば[■」が入力さ
れた各シナプスの重みが増加せしめられる。
As shown in FIG. 16, mode (2) is one in which the weights of the neurons are modified based on the evaluation results of the final output. This correction method is effective when determining the processing content of the image processing apparatus from a global perspective. As an evaluation method in this mode, evaluation of the Hamming distance or Vitagoras distance between the final output of the output layer and the target value, or sensitive evaluation is possible. As a result of this evaluation, if the output matches or is sufficiently close to the target value, the input-output relationship at that time should be strengthened, and at that time, for example, the weight of each synapse to which [■] is input is increased.

モード■は、入力をそのまま記憶するタイプの学習の場
合の重みの修正方法であり、入力とその入力に対して最
初に生じた出力との関係を強化する。すなわち、第15
図の構成において、その入力に対して「1」を出力した
ニコ、−ロンにおける、「1」が入力されたシナプスの
重みが増加せしめられる。
Mode (2) is a weight modification method for a type of learning in which inputs are memorized as they are, and strengthens the relationship between the input and the output that originally occurred for that input. That is, the 15th
In the configuration shown in the figure, the weight of the synapse to which "1" is input is increased in Nico and -Ron, which output "1" in response to that input.

このような重みの修正において、発明者等は、まずニュ
ーロンの重みの変化を生体の神経細胞ムにおける膜電位
の変化と仮定した。つまり、重みが生体の神経細胞にお
ける膜電位と同様に設定されるならば、画像処理装置に
おける学習の効率は生体の脳細胞と同様に極めて高くな
ると、考えられる。そしてまた、重みが膜電位と同様な
変化を示すのであれば、その変化は、一般的なRL C
回路と同様に指数関数で表現されると考えられる。しか
して重みWは、第17図に示すように、W−±exp(
t)            (9)で表される。ただ
し、tは個々のニューロンにおける学習時間、すなわち
学習回数を表す。
In modifying the weights in this manner, the inventors first assumed that changes in the weights of neurons were changes in the membrane potential of neurons in the living body. In other words, if the weights are set similar to the membrane potential in biological nerve cells, it is thought that the learning efficiency in the image processing device will be extremely high, similar to that in biological brain cells. And also, if the weights show a similar change to the membrane potential, then the change is similar to the general RL C
It is thought to be expressed by an exponential function like a circuit. Therefore, the weight W is, as shown in FIG. 17, W−±exp(
t) It is expressed as (9). However, t represents the learning time in each neuron, that is, the number of learning times.

(9)弐において、シナプスが興奮型の場合には符号は
十になり、重みWは、実線■で示すようにOから始まっ
て最初は急速に大きくなり、学習開始から時間がたつほ
どその変化量は小さくなり最大値W。に近づく。これに
対し、シナプスが抑制型の場合には符号は−になり、重
みWは、実線、Jで示すようにOから始まって最初は象
、速に小さくなり、学習開始から時間がたつほどその変
化量は小さくなり最小値Wカに近づく。
(9) In 2, if the synapse is excitatory type, the sign becomes 10, and the weight W starts from O and increases rapidly at first, as shown by the solid line ■, and the weight changes as time passes from the start of learning. The amount decreases to the maximum value W. approach. On the other hand, if the synapse is of the inhibitory type, the sign becomes -, and the weight W starts from O, as shown by the solid line J, and gradually decreases as time passes from the start of learning. The amount of change becomes smaller and approaches the minimum value W.

学習の開始直後、そのシナプスについてあまりデータ相
関がないので、この時の重みWは小さく定められるが、
その後、データ相関が大きくなっていくので、重みWは
急速に大きくなり、これにより学習による収束が早めら
れる。これに対し、学習が進んで重みWが既に大きくな
っている場合、そのシナプスはそれまでの学習において
十分データ相関がある。したがって、その重みWをいた
ずらに変動させると、単に振動を起こすだけであり学習
における収束性を阻害することとなるが、重みWはほと
んど変化しないように定められているので、十分な収束
性が得られる。
Immediately after the start of learning, there is not much data correlation for that synapse, so the weight W at this time is set small;
Thereafter, as the data correlation increases, the weight W rapidly increases, which speeds up the convergence due to learning. On the other hand, if learning has progressed and the weight W has already become large, that synapse has sufficient data correlation in the learning up to that point. Therefore, if the weight W is changed unnecessarily, it will simply cause oscillation and impede the convergence in learning, but since the weight W is set so that it hardly changes, sufficient convergence can be achieved. can get.

なお、従来、ニューロンの出力特性として抑制型および
興奮型ニューロンが考えられており、これを画像処理装
置として最適配置するには処理内容を考慮した詳細な検
討が必要であり、画像処理装置において抑制型ニューロ
ンと興奮型二ニーロンの結合は複雑である。しかし本実
施例によれば、ひとつのシナプスの特性として重みWの
符号を十または−に選択するだけで、抑制型、興奮型を
任意に実現でき、したがって回路構成が単純化され、回
路の自由度が高まる。なお、抑制型ニューロンの存在に
よって、データの分離性が向」ニすることは、ローゼン
ブラット以来よく知られたところである( 1958年
F、Rosenblat、t  ’The perce
ptron:  a probabilistic  
model  for  informationst
orage and organization in
 the brain″。
Conventionally, inhibitory and excitatory neurons have been considered as the output characteristics of neurons, and in order to optimally place them in an image processing device, a detailed study that takes into account the processing content is required. The connections between type neurons and excitatory type neurons are complex. However, according to this embodiment, by simply selecting the sign of the weight W as 10 or - as a characteristic of one synapse, it is possible to arbitrarily realize an inhibitory type or an excitatory type. Therefore, the circuit configuration is simplified and the circuit is free. The degree increases. It has been well known since Rosenblatt (1958, Rosenblat, t'The perce) that the presence of inhibitory neurons improves the separability of data.
ptron: a probabilistic
model for information
organization and organization in
the brain''.

Psychological Review 65: 
386−408)。
Psychological Review 65:
386-408).

しかして本実施例によれば、画像処理装置における学習
の効率が向上し、最純出力デ・−夕を早期に収束かつ安
定化させることができる。また1、L述のように、重み
Wの正負の符号を変えるだけで抑制型および興奮型の特
性が得られるので、画像処理装置の回路の自由度が高ま
る。
According to this embodiment, the efficiency of learning in the image processing device is improved, and the purest output data can be quickly converged and stabilized. Furthermore, as described in 1.L, suppressive and excitatory characteristics can be obtained by simply changing the positive or negative sign of the weight W, increasing the degree of freedom in the circuit of the image processing device.

なお、重みWの時間的変化は、必ずしも正確に指数関数
に定める必要はなく、例えば折れ線等で近似してもよい
Note that the temporal change in the weight W does not necessarily need to be determined exactly as an exponential function, and may be approximated by, for example, a polygonal line.

次に、ニューラルネットワークの第7〜9実施例を説明
するとともに、本発明の第2の基本理念を解説する。
Next, seventh to ninth embodiments of the neural network will be described, and the second basic idea of the present invention will be explained.

第18図(a)は本発明のニューラルネットワークの第
7実施例を示し、この実施例は、学習の結果(A+B)
の論理演算を実行するに到った二工一うルネットワーク
を示すものである。
FIG. 18(a) shows a seventh embodiment of the neural network of the present invention, in which the learning result (A+B)
This figure shows the two-way network that was used to execute the logical operations.

この構成は、1層のニューラルレイヤ20を有し、この
ニューラルレイヤ20には、データ数と同数、すなわぢ
2個のニューロン21.22が設けられる。各ニューロ
ン21.22にはデータAおよびBがそれぞれ入力され
る。各ニューロン21.22は、各データの入力経路と
の接続部分すなわちシナプスにおける重みWiと、閾値
θとを有する。学習により重みW、は変化し、ニューロ
ンは、所定の処理を行うようになる。本実施例では、学
習の結果、一方のニューロン21のみが論理演算(A十
B)の処理を行い、他方のニューロン22は実質的に作
用しない。すなわちニューロン21は例えばW、−1、
w2−1、θ−1に設定され、 AW、+BW2≧1 の時、出力データ「1」を出力する。−カニJ、−ロン
22は、例えば、W3 =O,W−=Q、θ−1に設定
され、したがって常に、 A W3+ B W4 < 1 であり、閾値θを越えることはなく、出力データ「0」
を出力する。
This configuration has one neural layer 20, and this neural layer 20 is provided with the same number of neurons 21 and 22 as the number of data, that is, two neurons. Data A and B are input to each neuron 21 and 22, respectively. Each neuron 21, 22 has a weight Wi at a connection portion with the input path of each data, that is, a synapse, and a threshold value θ. The weight W changes due to learning, and the neuron comes to perform a predetermined process. In this embodiment, as a result of learning, only one neuron 21 processes the logical operation (A+B), and the other neuron 22 does not substantially act. That is, the neuron 21 has, for example, W, -1,
w2-1 and θ-1 are set, and when AW, +BW2≧1, output data “1” is output. -Kani J, -Ron 22 are set to, for example, W3 = O, W- = Q, θ-1, so that A W3 + B W4 < 1 always, never exceeding the threshold θ, and the output data "0"
Output.

しかしてニューロン21は、データA、Bの少なくとも
一方がrl、の時、出力データrl、を出力し、本実施
例のニューラルネット・ワークは、論理演算(A+B)
を実行する。
Thus, the neuron 21 outputs output data rl when at least one of data A and B is rl, and the neural network of this embodiment performs a logical operation (A+B).
Execute.

第18図(b)は第8実施例を示j7、この実施例は、
学習の結果(AeB)の論理演算を実行するに到ったニ
ューラルネットワークを示すものである。この構成は2
層のニューラルレイヤ20.30を有し、初段のニュー
ラルレイヤ20にはニューロン21.22が設けられ、
また後段の二ニーロン304こはニューロン31.32
が設けられる。初段のニューラルレイヤ20のニューロ
ン21.22には、データAおよびBが入力される。
FIG. 18(b) shows the eighth embodiment.
It shows the neural network that has come to execute the logical operation of the learning result (AeB). This configuration is 2
The first neural layer 20 is provided with neurons 21.22,
In addition, the second row of neurons 304 is neuron 31.32.
is provided. Data A and B are input to neurons 21 and 22 of the neural layer 20 at the first stage.

論理演算(、IB)は、(AB+AB) と展開され、
ニューラルレイヤ20において、ニューロン21が(A
B)の処理を行い、ニューロン22が(AE)の処理を
行う。すなわちニューロン21は、例えばW+ −1、
W2=1、θ−1に設定され、 A W 1 + B W z≧1 の時、出力データ「l」を出力する。一方、ニューロン
22は、例えばW、−1、W4−−1、θ−1に設定さ
れ、 AW、+BW、≧1 の時、出力データr1.を出力する。
The logical operation (,IB) is expanded as (AB+AB),
In the neural layer 20, neurons 21 (A
Processing B) is performed, and the neuron 22 performs processing (AE). That is, the neuron 21 is, for example, W+ -1,
When W2=1 and θ-1 are set, and A W 1 + B W z≧1, output data “l” is output. On the other hand, the neuron 22 is set to, for example, W, -1, W4--1, θ-1, and when AW, +BW, ≧1, the output data r1. Output.

ニューラルレイヤ30のニューロン31は、(XB+A
B)の処理を行い、例えばW、−1、W6−1、θ−1
に設定され、ニューロン21の出力をY9、ニューロン
22の出力をY2とするとY+ Ws +’Yz Wb
≧1 の時、出力「1」を出力する。一方ニューロン32は実
質的に作用しない。
The neurons 31 of the neural layer 30 are (XB+A
Perform the process B), for example, W, -1, W6-1, θ-1
If the output of neuron 21 is Y9 and the output of neuron 22 is Y2, then Y+ Ws +'Yz Wb
When ≧1, output “1”. On the other hand, neuron 32 does not substantially function.

しかしてニューロン31は、データA、Bの一方のみが
「1」の時出力データ「1」を出力し、両者が共に「1
」またはr□、の時出力データ「0」を出力し、本実施
例のニューラルネットワークは、論理演算(AeB)を
実行する。
Therefore, the neuron 31 outputs output data "1" when only one of the data A and B is "1", and both of them output "1".
” or r□, output data “0” is output, and the neural network of this embodiment executes a logical operation (AeB).

第18図(C)は第9実施例を示し、この実施例は、学
習の結果(A十B)Cの論理演算を実行するに到ったニ
ューラルネットワークを示すものである。この構成は2
層のニューラルレイヤ20.30を有し、初段のニュー
ラルレイヤ20にはニゴ、−ロン21.22.23が設
けられ、また後段のニューロン30にはニューロン31
.32.33が設けられる。初段のニューラルレイヤ2
0のニューロン21.22.23には、データAXBお
よびCが入力される。
FIG. 18(C) shows a ninth embodiment, and this embodiment shows a neural network that has come to execute the logical operation of (A + B) C as a result of learning. This configuration is 2
The first neural layer 20 is provided with Nigo, -ron 21, 22, and 23, and the subsequent neuron 30 is provided with a neuron 31.
.. 32.33 are provided. First stage neural layer 2
Data AXB and C are input to neurons 21, 22, and 23 of 0.

ニューラルレイヤ20において、ニューロン21は(A
+B)の処理を行い、ニューロン22は実質的に作用せ
ず、ニューロン23は入力データCをそのまま出力する
。すなわち二上−ロン21は、例えばWl−1、W2−
1、W3 =O,o−1に設定され、 A W l+ B Wz + CWz≧1の時、出力デ
ータrl」を出力する。一方、ニューロン22は、例え
ば各重みWl 、Ws 、W&がOに設定されるととも
に、閾値θが1に設定され、実質的に作用しない。また
ニューロン23は、例えば重みW7−0、Ws =O,
,W9 =i、θ−1に設定され、 A W? + B Ws + CW9≧1の時、出力デ
ータ「1」を出力し、その他の時、出力データ「0」を
出力する。
In the neural layer 20, the neurons 21 are (A
+B) is performed, the neuron 22 does not substantially act, and the neuron 23 outputs the input data C as is. That is, the Futami-Ron 21 is, for example, Wl-1, W2-
1, W3 = O, o-1, and when A W l + B Wz + CWz≧1, output data rl is output. On the other hand, in the neuron 22, the weights Wl, Ws, W& are set to O, and the threshold value θ is set to 1, so that the neuron 22 does not substantially act. Further, the neuron 23 has, for example, a weight W7-0, Ws =O,
, W9 = i, θ-1, and A W? + B Ws + When CW9≧1, output data “1” is output, and in other cases, output data “0” is output.

ニューラルレイヤ30のニューロン31は、ニューラル
レイヤ20のニア1−ロン2L23の出力データに基づ
いて(A+B)Cの処理を行い、例えばW、−1、Wl
2=O,Wl3−1、θ−2に設定され、ニューロン2
1の出力をYl、ニューロン22の出力をY2、ニュー
ロン23の出力をY3とすると、 Y+ Wll + YZ Wl2 + Y:l Wl3
≧2の時、出力データr1.を出力する。一方ニューロ
ン32.33は実質的に作用しない。
The neuron 31 of the neural layer 30 performs (A+B)C processing based on the output data of the near 1-ron 2L 23 of the neural layer 20, for example, W, -1, Wl.
2=O, Wl3-1, θ-2, neuron 2
If the output of 1 is Yl, the output of neuron 22 is Y2, and the output of neuron 23 is Y3, then Y+ Wll + YZ Wl2 + Y:l Wl3
≧2, output data r1. Output. On the other hand, neurons 32 and 33 have virtually no effect.

しかしてニューロン31は、データA、Bの少なくとも
一方が「1.でありがっデータCが[1)のとき出力デ
ータ「1」を出力し、本実施例のニューラルネットワー
クは、論理演算(A+B)Cを実行する。
Thus, the neuron 31 outputs the output data "1" when at least one of the data A and B is "1" and the data C is [1], and the neural network of this embodiment performs the logical operation (A+B ) Execute C.

ここで本発明の第2の基本理念を解説する。The second basic idea of the present invention will now be explained.

第7実施例において、データA、Bは1つの作用素r+
(OR)Jにより結合されており、この論理演算(A+
B)は、1層のニューラルレイヤ20によって実行され
る。
In the seventh embodiment, data A and B are one operator r+
(OR)J, and this logical operation (A+
B) is performed by one neural layer 20.

第8実施例においては、データA、Bは「e(EX−O
R)、により結合されており、この論理演算(AfE9
B)は(AB+AE)と展開される。
In the eighth embodiment, data A and B are "e(EX-O
R), and this logical operation (AfE9
B) is expanded as (AB+AE).

そして初段のニューラルレイヤ20においてABとAH
が実行され、すなわち作用素rx (AND)」につい
ての論理演算が実行される。次いで、2段目のニューラ
ルレイヤ30において(AB+AB)ずなわち作用素r
+ (OR)Jについての論理演算が実行される。しか
して、第8実施例の論理演算は2層のニューラルレイヤ
によって実行される。
And in the first stage neural layer 20, AB and AH
is executed, that is, a logical operation on the operator rx (AND) is executed. Next, in the second stage neural layer 30, (AB+AB), that is, the operator r
+ A logical operation on (OR)J is performed. Thus, the logical operations in the eighth embodiment are executed by two neural layers.

第9実施例において、データA、Bは1つの作用素r+
 (OR)Jにより結合されており、この論理演算は初
段のニューラルレイヤ20によって実行される。その論
理演算結果に対してデータCが作用素rx (AND)
Jにより結合されており、この論理演算(A+B)Cは
2段目のニューラルレイヤ30によって実行される。し
かして第9実施例の論理演算は2層のニューラルレイヤ
によって実行される。
In the ninth embodiment, data A and B are one operator r+
(OR)J, and this logical operation is executed by the neural layer 20 at the first stage. Data C is the operator rx (AND) for the logical operation result.
J, and this logical operation (A+B)C is executed by the second stage neural layer 30. Thus, the logical operations in the ninth embodiment are executed by two neural layers.

このように、ニューラルネットワークの処理内容を論理
演算子rANDJ、「OR」で表現した場合、論理演算
子の数、あるいは論理演算の構成に応じてニューラルレ
イヤの層数が増加している。
In this way, when the processing content of the neural network is expressed by the logical operators rANDJ and "OR," the number of neural layers increases depending on the number of logical operators or the configuration of the logical operations.

なお各データの次数は前述した通りであり、その定義に
よると、例えば、論理演算(AeB)を行う第8実施例
において、データA、Bを0次とすると、初段のニュー
ラルレイヤ20の各ニューロン21.22においてそれ
ぞれABとAHの処理が実行され、1次の出力データが
2段目のニューラルレイヤ30のニューロンに入力され
る。そして2段目のニューラルレイヤ30において、(
AB+AB)の処理が実行され、2次の出力データが出
力される。すなわち、最終出力データは2次であり、論
理演算(AeB)は、最終出力データの次数から入力デ
ータの次数を引いた数すなわち2層のニューラルレイヤ
によって処理されると考えられる。
Note that the order of each data is as described above, and according to its definition, for example, in the eighth embodiment that performs a logical operation (AeB), if data A and B are of order 0, each neuron of the first stage neural layer 20 At 21 and 22, AB and AH processing are executed, and the primary output data is input to the neurons of the second stage neural layer 30. Then, in the second stage neural layer 30, (
AB+AB) processing is executed and secondary output data is output. That is, the final output data is quadratic, and the logical operation (AeB) is considered to be processed by the number obtained by subtracting the degree of the input data from the degree of the final output data, that is, by two neural layers.

発明者らは、入力データに対して最終出力データの次数
が何次高いかを判断することにより、ニューラルレイヤ
の層数を決定することができる、つまり、ニューラル1
/イヤの層数は、最終出力データの次数から人力データ
の次数をひいた数であると推測した。これが本発明の第
2の基本的な思想である。次数は、前述のようにデータ
の抽象度であり、そのデータの有する性質によって定ま
る。
The inventors can determine the number of neural layers by determining how high the order of the final output data is with respect to the input data.
The number of layers in /ear was estimated to be the number obtained by subtracting the degree of human data from the degree of final output data. This is the second basic idea of the present invention. As mentioned above, the degree is the abstraction level of data, and is determined by the properties of the data.

例えば図形認識において、画素データは0次であり、回
持徴のデータの場合、四散、凹弧長、凹弦長、四重のデ
ータは、さらに高次であり、回持徴データを用いて図形
認識を行う場合、そのデータの次数から画素データの次
数をひいた数のニューラルレイヤを設ければよい。
For example, in figure recognition, pixel data is 0th order, and in the case of recurrent feature data, quadrature, concave arc length, concave chord length, and quadruple data are of higher order. When performing figure recognition, it is sufficient to provide as many neural layers as the order of the data minus the order of the pixel data.

また画素データから端点データを求める場合、端点デー
タの次数すなわち抽象度を考慮し、端点データの次数か
ら画素データの次数をひいた数のニューラルレイヤを設
ければよい。この場合の実施例については第20図およ
び第21図を参照して後述する。
Furthermore, when obtaining end point data from pixel data, it is sufficient to take into consideration the degree of end point data, that is, the degree of abstraction, and provide neural layers equal to the number obtained by subtracting the degree of pixel data from the degree of end point data. An embodiment in this case will be described later with reference to FIGS. 20 and 21.

第19図はニューラルネットワークの第10実施例を示
したものであり、この例は学習の結果、入力データA、
B、C,Dを論理演算 (19B)  e (CeD) に従って処理するように到った場合を示す。なおA、B
、CおよびDは「1」または「0」のデジタル値であり
、この論理演算の結果も’IJまたは「0」のデジタル
値として出力されるとして説明する。
FIG. 19 shows a tenth embodiment of the neural network, and this example shows the result of learning, input data A,
A case is shown in which B, C, and D are processed according to logical operation (19B) e (CeD). Note that A, B
, C and D are digital values of "1" or "0", and the result of this logical operation will also be explained as being output as a digital value of 'IJ' or "0".

この実施例は、4つのニューラルレイヤ20.30.4
0.90とを有し、最終段のニューラルレイヤ90は最
終出力データを出力する出力レイヤである。第1のニュ
ーラルレイヤ20は4個のニューロン21.22.23
.24を有し、同様に、第2のニューラルレイヤ30は
4個のニューロン31,32.33.34を、第3のニ
ューラルレイヤ40は4個のニューロン41.42.4
3.44を、出力レイヤ90は4個のニューロン919
2.93.94を有する。各データA〜Dは、それぞれ
第1のニューラルレイヤ20の各ニューロンに入力され
る。なお、各ニューロンは隣のニューラルレイヤの各ニ
ューロンに接続されるが、簡単のため、実質的に作用に
関係しない部分の線は、図中省略されている。
This example uses four neural layers 20.30.4
0.90, and the final stage neural layer 90 is an output layer that outputs final output data. The first neural layer 20 has 4 neurons 21.22.23
.. Similarly, the second neural layer 30 has four neurons 31, 32.33.34, and the third neural layer 40 has four neurons 41.42.4.
3.44, the output layer 90 has four neurons 919
2.93.94. Each data A to D is input to each neuron of the first neural layer 20, respectively. Note that each neuron is connected to each neuron in the adjacent neural layer, but for the sake of simplicity, lines that are not substantially related to the action are omitted from the diagram.

各ニューロンは、入力されるデータに対して乗じられる
重みW、と閾値θとを有し、上記(1)式に従い、各入
力データと重みの積の総和が閾値以上の時出力データ「
l」を出力し、この総和が閾値θよりも小さい時出力デ
ータrojを出力する。
Each neuron has a weight W by which the input data is multiplied and a threshold θ, and according to the above equation (1), when the sum of the products of each input data and the weight is greater than or equal to the threshold, the output data “
l'', and when this sum is smaller than the threshold θ, output data roj is output.

論理演算(AeB)は、(AB+AB)と展開され、ニ
ューラルレイヤ20において、ニューロン21が(AB
)の処理を行い、ニューロン22が(AJ)の処理を行
う。また論理演算(CeD)は、(CD+Cl5)と展
開され、ニューロン23が(CD)の処理を行い、ニュ
ーロン24が(CI5)の処理を行う。
The logical operation (AeB) is expanded as (AB+AB), and in the neural layer 20, the neuron 21
), and the neuron 22 processes (AJ). The logical operation (CeD) is expanded to (CD+Cl5), the neuron 23 processes (CD), and the neuron 24 processes (CI5).

すなわちニューロン21ば、例えばWz+−1、W2□
−1,Wzz=O,W24=0、θ−1に設定され、 AW2.十BW2□+CW 2 :I +D W 24
≧1のとき出力データ「1ゴを出力する。ニューロン2
2は例えばW25−1、W26=  I、 Wzt=0
、W z s−0、θ−1に設定され、 AWz5+ BWza+ CWzt+ DWzs≧1の
とき出力データ「1」を出力する。同様にしてニューロ
ン23.24の重みW8と閾値θが定められる。
That is, the neuron 21, for example, Wz+-1, W2□
-1, Wzz=O, W24=0, θ-1, AW2. 10BW2□+CW 2 :I +D W 24
When ≧1, the output data “1go” is output. Neuron 2
2 is, for example, W25-1, W26=I, Wzt=0
, W z s-0, θ-1, and output data "1" when AWz5+ BWza+ CWzt+ DWzs≧1. Similarly, the weight W8 and threshold value θ of neurons 23 and 24 are determined.

ニューラルレイヤ30のニューロン31ば、(AB+、
13)の処理を行い、例えばWt+=1、W。
The neurons 31 of the neural layer 30 are (AB+,
13) is performed, for example, Wt+=1, W.

−1、Wzy−0、Wffa=O1θ−1に設定され、
ニューロン21.22.23.24の出力をそれぞれに
、L、M、Nとすると、 KWI士L W :I Z + M W s s + 
N W :l a≧1の時、出力データ「l」を出力す
る。同様に、二!−1]733は、(CD+Cr5)の
処理を行い、ニューロン23.24の出力の少なくとも
一方が「1」の時、出力データ「1」を出力する。なお
ニューロン32.34の各重みW、ば0に定められ、こ
れらのニューロンは実質的に作用しない。
−1, Wzy−0, Wffa=O1θ−1,
Letting the outputs of neurons 21, 22, 23, and 24 be L, M, and N, respectively, KWIshiL W : I Z + M W s s +
N W: When l a≧1, output data “l” is output. Similarly, two! -1] 733 processes (CD+Cr5) and outputs output data "1" when at least one of the outputs of the neuron 23 and 24 is "1". Note that the weights W and B of the neurons 32 and 34 are set to 0, and these neurons do not substantially act.

したがってニューロン31は(AeB)の結果を出力し
、ニューロン33は(COD>の結果を出力する。
Therefore, neuron 31 outputs the result of (AeB), and neuron 33 outputs the result of (COD>).

ニューロン31.32.33.34の出力をそれぞれE
、F、G、Hとず−ると、ニューラルレイヤ40のニュ
ーロン41は(EC)の処理を行い、またニューロン4
3は(EC)の処理を行う。すなわち、ニューロン41
において、例えばWa、 ==1、W4□−0、W43
 = 1、W < 4 = O1θ−1に設定され、 E W a l+ F W a□十G W a 1+H
W 4 a≧1のとき出力データ「1」を出力する。同
様に、ニューロン43は、例えばW4s−1、W46−
0 、 W47−−1、Wa、l−0、θ−1に設定さ
れ、E W 4 S + F W 46+ G W a
 7 + HW 4 B≧1のとき出力データ「l」を
出力する。ニューロン42.44の各重みW、は0に定
められ、これらのニューロンは実質的に作用しない。
The outputs of neurons 31, 32, 33, and 34 are E
, F, G, and H, the neuron 41 of the neural layer 40 processes (EC), and the neuron 4
3 performs the processing of (EC). That is, neuron 41
For example, Wa, ==1, W4□-0, W43
= 1, W < 4 = set to O1θ-1, E W a l+ F W a□ 10G W a 1+H
When W 4 a≧1, output data “1” is output. Similarly, the neurons 43 are, for example, W4s-1, W46-
0, W47--1, Wa, l-0, θ-1, E W 4 S + FW 46 + G W a
7 + HW 4 When B≧1, output data “l” is output. Each weight W, of neurons 42, 44 is set to 0, and these neurons have virtually no effect.

出力レイヤ90のニューロン91は、(E c +EC
)の処理を行い、例えばW、、−i、W 9 z = 
01W9:l−1、Wqa=O2θ−1に設定され、ニ
ューロン41.42.43.44の出力をそれぞれP。
The neuron 91 of the output layer 90 is (E c +EC
), for example, W, , -i, W 9 z =
01W9:l-1, Wqa=O2θ-1, and the outputs of neurons 41, 42, 43, and 44 are set to P, respectively.

Q、R,Sとすると、 P W91 +QWqt +RW93+S W94≧1
の時、出力データ「1コを出力する。ニューロン92.
93.94は実質的に作用しない。このように使用目的
が限定され、出力データ数が明確であるならば実質的に
作用しないニューロンは省略可能である。
Assuming Q, R, and S, P W91 +QWqt +RW93+S W94≧1
When , the output data "Output 1. Neuron 92.
93.94 has virtually no effect. If the purpose of use is thus limited and the number of output data is clear, neurons that do not substantially function can be omitted.

したがってニューロン91は、(EeG)の結果、すな
hち(AeB) の((jBD)(D結果を出力する。
Therefore, the neuron 91 outputs the result of (EeG), that is, the ((jBD)(D) result of (AeB).

論理演算(A69B)および(([D)における出力デ
ータの次数は、」−述したように作用素[e(EX−O
R)Jが2つの作用素rANDJと「ORJによって置
き換えられるので、それぞれ2である。したがって、論
理演算(A69B) e (CeD)における出力デー
タの次数は、4であり、この論理演算は、入力データと
同数(4個)のニューロンを有する4層のニューラルレ
イヤにより確実に処理される。
The order of the output data in the logical operations (A69B) and (([D) is given by the operator [e(EX-O
R) Since J is replaced by two operators rANDJ and ORJ, each is 2. Therefore, the order of the output data in the logical operation (A69B) e (CeD) is 4, and this logical operation It is reliably processed by a four-layer neural layer with the same number of neurons (four).

第20図および第21図に、図形の端点を判断するニュ
ーラルネットワークを示す。
FIGS. 20 and 21 show a neural network for determining the end points of a figure.

図形の端点のとらえ方は、ここでは、第11図(a)に
示すような3×3コンボリユーシヨンにおいて、第11
図(b ) (i) 〜(viii)のいずれかのパタ
ーンが生じたときに、中央画素(第11図(a)の画素
E)は端点であるとする。この端点の判断は、中央画素
以外の画素A−D、F〜Iのいずれか1つが図形濃度(
例えば「l」)であり、かつ中央画素Eが図形濃度であ
るときに「端点」、それ以外のときに[端点てないJと
する。
Here, how to understand the end points of a figure is as follows:
It is assumed that when any of the patterns shown in FIG. 11(b) (i) to (viii) occurs, the central pixel (pixel E in FIG. 11(a)) is an end point. This end point determination is performed if any one of the pixels A-D, F-I other than the center pixel has a figure density (
For example, if the center pixel E is a figure density, it is an "end point"; otherwise, it is a "J" with no end point.

この判断のためのニューラルネットワークは、例えば第
20図のように構成され、この図は本発明の第11実施
例を示す。このニューラルネットワークは、9個のニュ
ーロン21〜29を有する第1のニューラルレイヤ20
と、9個のニューロン31〜39を有する第2のニュー
ラルレイヤ30と、9個のニューロン91〜99を有す
る出力レイヤ90とを備える。画素A〜Iのデータは第
1のニューラルレイヤ20に入力される。
A neural network for this determination is constructed, for example, as shown in FIG. 20, which shows an eleventh embodiment of the present invention. This neural network consists of a first neural layer 20 with nine neurons 21-29.
, a second neural layer 30 having nine neurons 31-39, and an output layer 90 having nine neurons 91-99. The data of pixels A to I are input to the first neural layer 20.

第1のニューラルレイヤ20のニューロン21は、画素
Eを除いた画素A−1のうち、画素Aのみが「1」の時
、出力データ「1」を出力する。
The neuron 21 of the first neural layer 20 outputs output data "1" when only the pixel A among the pixels A-1 excluding the pixel E is "1".

同様に、ニューロン22.23.24.25.26.2
7.28は、それぞれ画素B、C5DSF。
Similarly, neuron 22.23.24.25.26.2
7.28 are pixels B and C5DSF, respectively.

G、H,Tの1個のみがrl」の時、出力データ「1」
を出力する。したがって画素A−D、F〜Iのいずれか
1つが「1」のとき、ニコ、−ロン21〜28のいずれ
かが出力データ「1」を出力する。一方、ニューロン2
9は、画素Eのデータをそのまま出力する。
When only one of G, H, and T is rl, output data is “1”
Output. Therefore, when any one of pixels A-D and F-I is "1", one of Nico and -ron 21-28 outputs output data "1". On the other hand, neuron 2
9 outputs the data of pixel E as is.

第2のニューラルレイヤ30のニューロン31は、ニュ
ーロン21.29の出力がそれぞれ「l」の時、すなわ
ち画素AとEがそれぞれrlJの時、出力データ「1」
を出力する。同様に、ニューロン32〜3Bは、画素B
とEが「1」の時、画素CとEが「1」の時、画素りと
EがrlJの時、画素F、!:、Eが「1」の時、画素
GとEが「1」の時、画素11とEが「1」の時、画素
■とEが「1」の時、それぞれ、出力データ「1」を出
力する。なおニューロン39は、この端点の判断処理に
実質的に関与しない。
The neuron 31 of the second neural layer 30 outputs the output data "1" when the outputs of the neurons 21 and 29 are "l", that is, when the pixels A and E are rlJ, respectively.
Output. Similarly, neurons 32 to 3B are connected to pixel B
When and E are "1", when pixels C and E are "1", when pixel R and E are rlJ, pixel F,! :, When E is "1", when pixels G and E are "1", when pixels 11 and E are "1", when pixels ■ and E are "1", the output data is "1", respectively. Output. Note that the neuron 39 is not substantially involved in this end point determination process.

出力レイヤ90のニューロン91は、第2のニノ、−ラ
ルレイヤ30のニューロン31〜3日の少なくとも1つ
が出力データ「1」を出力する時、すなわち第11図(
b)の(i) 〜(viii)のいずれかのパターンが
生じた時、出力データ「1」を出力する。この時、中央
画素Eは端点であると判断される。なおニュー・ロン9
2〜99は、この端点の判断処理に実質的に関与しない
The neuron 91 of the output layer 90 outputs the output data "1" when at least one of the neurons 31 to 3 of the second layer 30 outputs the output data "1", that is, as shown in FIG.
When any of the patterns (i) to (viii) of b) occurs, output data "1" is output. At this time, the central pixel E is determined to be an end point. Furthermore, New Ron 9
2 to 99 are not substantially involved in this end point determination process.

ここで各画素データA〜Iを0次データと考えると、ニ
ューロン91の出力は3次データであり、端点の判断処
理には3段階の論理演算が施されている。つまり、ニュ
ーラルレイヤ20では、A〜D、F〜■のうちの1つの
みが「1」であるか否かを判断するための論理積(例え
ばニューロン21では、(AIINcI5FGHT))
 がとられる。ニューラルレイヤ30では、A−D、F
−1のうちの1つのみが「1」であり、かつEがrl、
であるか否かを判断するための論理積(例えばニューロ
ン31では、(AECDFGHT −E))がとられる
。ニューラルレイヤ90ではEが「1」であり、かつA
−D、F−Iのうちのいずれか1つrl、であるという
論理和が判断される。
Here, if each pixel data A to I is considered as zero-order data, the output of the neuron 91 is third-order data, and three-stage logical operations are performed in the end point determination process. In other words, in the neural layer 20, the logical product (for example, in the neuron 21, (AIINcI5FGHT)) is used to determine whether only one of A to D and F to ■ is "1".
is taken. In the neural layer 30, A-D, F
-1 is "1", and E is rl,
A logical AND (for example, in the neuron 31, (AECDFGHT - E)) is performed to determine whether or not. In the neural layer 90, E is "1" and A
A logical OR is determined that either one of -D and F-I is rl.

なお、この端点の判断処理に関し、ニューラルレイヤ3
0において、Eが「1」であり、かつA〜D、F〜■の
うちのいずれか1つが「1」であるという論理和をとる
ことができ、これにより、2層のニューラルレイヤによ
って端点の判断処理を行うこともできる。しかし、出力
データと入力データの次数の差が3の場合、高々3層の
ニューラルレイヤを設ければ、端点の判断処理を確実に
行うことができる。
Regarding this end point determination process, neural layer 3
0, E is "1" and any one of A to D, F to It is also possible to perform judgment processing. However, if the difference in order between the output data and the input data is 3, the endpoint determination process can be performed reliably by providing at most three neural layers.

第21図は本発明の第12実施例を示す。この実施例に
おけるニューラルネットワークは、9個のニューロン2
1−29を有する第1のニューラルレイヤ20と、9個
のニューロン31〜39を有する第2のニューラルレイ
ヤ30と、9個のニューロン91〜99を有する出力レ
イヤ90とを備える。画素A=1のデータは第1のニュ
ーラルレイヤ20に入力される。
FIG. 21 shows a twelfth embodiment of the invention. The neural network in this example consists of 9 neurons 2
A first neural layer 20 having neurons 1-29, a second neural layer 30 having nine neurons 31-39, and an output layer 90 having nine neurons 91-99. Data for pixel A=1 is input to the first neural layer 20.

第1のニューラルレイヤ20のニューロン21は、画素
A〜D、F〜■のうちの8個以上が「l」の時、出力デ
ータ「1」を出力する。ニューロン22は、画素A〜D
、F−1のうちの7個以」−が「1」の時、出力データ
「l」を出力する。同様に、ニューロン23.24.2
5.26.27.28は、それぞれ、画素A=D、F〜
■のうちの6個以上、5個以上、4個以上、3個以」二
、2個以上、および1個以上が「1」の時、出力データ
「1」を出力する。ニューロン29は画素Eのデータを
そのまま出力する。
The neuron 21 of the first neural layer 20 outputs output data "1" when eight or more of the pixels A to D and F to ■ are "l". The neuron 22 has pixels A to D.
, F-1"- is "1", output data "l" is output. Similarly, neuron 23.24.2
5.26.27.28 are pixels A=D, F~, respectively.
Output data "1" is output when 6 or more, 5 or more, 4 or more, 3 or more of (2), 2 or more, and 1 or more are "1". Neuron 29 outputs the data of pixel E as is.

第2のニューラルレイヤ30のニューロン31は、ニュ
ーラルレイヤ20のニューロン21〜2Bのうちニュー
ロン28のみが「1」を出力する時、出力データ「1コ
を出力する。すなわち、ニューロン31は、画素A−D
、、F〜Iのうちの1個のみが[110時、出力データ
rl、を出力する。ニューロン32は、画素Eのデータ
をそのまま出力する。なおニューロン33〜39は、こ
の端点の判断処理に実質的に関与しない。
The neuron 31 of the second neural layer 30 outputs the output data "1" when only the neuron 28 among the neurons 21 to 2B of the neural layer 20 outputs "1". That is, the neuron 31 outputs the output data "1". -D
, , only one of F to I outputs [110 o'clock, output data rl]. The neuron 32 outputs the data of the pixel E as is. Note that the neurons 33 to 39 are not substantially involved in this end point determination process.

出力レイヤ90のニューロン91は、ニューロン31.
32が共に「1」を出力するか否かを判断するために論
理積をとり、画素A−D、F−1のうちの1つのみが「
1」であり、かつEが「1」である時、出力データr1
.を出力する。なおニューロン92−99は、この端点
の判断処理に実質的に関与しない。
The neurons 91 of the output layer 90 are the neurons 31 .
A logical product is performed to determine whether both pixels 32 output "1", and only one of pixels A-D and F-1 outputs "1".
1” and E is “1”, the output data r1
.. Output. Note that the neurons 92 to 99 are not substantially involved in this end point determination process.

しかして、この実施例において、3層のニューラルレイ
ヤによって、端点データが判断されている。
Therefore, in this embodiment, end point data is determined by three neural layers.

上記第7〜第12実施例において、データの次数はその
データに施された処理内容の数であり、各処理はそれぞ
れのニューラルレイヤによって行われていた。ここで処
理内容の例としては、論理演算子のrAND、、rOR
J、rNAND、、rNORJであり、rEX−ORJ
およびrEX−NORJ等の場合にはrANDjあるい
は「OR」に変換されなければならない。これは、「E
X−OR,等はひとつのニューラルレイヤによっては処
理され得ないからである。
In the seventh to twelfth embodiments described above, the order of data is the number of processes performed on the data, and each process is performed by a respective neural layer. Here, as an example of the processing content, the logical operators rAND, , rOR
J, rNAND, , rNORJ, rEX-ORJ
and rEX-NORJ, etc., it must be converted to rANDj or "OR". This is “E
This is because X-OR, etc. cannot be processed by one neural layer.

なお、処理内容は論理演算子によって表現されるものに
限定されず、出力データの性質によって定められる。
Note that the processing content is not limited to what is expressed by logical operators, but is determined by the nature of the output data.

以北のように上記各実施例によれば、処理対象図形から
凹部に関する特徴を厳密かつ効率的に抽出し、その特徴
量を認識部に入力するので、最小限のニューロン数によ
り高精度の認識処理が可能である。また認識部自体はデ
ータの抽象度に応じた層構造、データ入力構成であるた
め、極めて効率的な構成により所望の認識処理を確実に
実行し得る。これによって、高精度な図形認識あるいは
文字認識等が可能となり、例えば印迄照合、あるいはプ
リント配線基板等の配線の欠けの検査等の品質管理を高
精度に行うことが可能となる。
As described above, according to each of the above embodiments, features related to concavities are extracted strictly and efficiently from the figure to be processed, and the feature amounts are input to the recognition unit, so high-accuracy recognition can be achieved with a minimum number of neurons. Processing is possible. Furthermore, since the recognition unit itself has a layered structure and data input configuration depending on the abstraction level of the data, it is possible to reliably execute desired recognition processing with an extremely efficient configuration. This enables highly accurate figure recognition or character recognition, and enables highly accurate quality control such as, for example, checking stamps or inspecting wiring chips on printed wiring boards or the like.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明によれば、少ないメモリ容量で高速
かつ、より確実に図形認識を行うことができる画像処理
装置を得ることが可能となる。
As described above, according to the present invention, it is possible to obtain an image processing device that can perform high-speed and more reliable graphic recognition with a small memory capacity.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例を適用した画像処理装置を示す
ブロック図、 第2図は一般的な神経細胞モデルを示す概念図、第3図
は一般的な神経細胞モデルを示すv&念図、第4図は処
理部を示すブロック図、 第5図は認識部を示すブロック図、 第6図は凹部を有する図形を示す概念図、第7図は処理
すべき図形の境界画素のデータを並べた表の図、 第8図は四部判定の条件となるチェーンコードを示す概
念図、 第9図は凹部を含む図形の境界部分を示す概念図、 第10図(a)は比較例を示す概念図、第10図(b)
は他の比較例を示す概念図、第10図(C)はニューラ
ルネットワークの第1実施例を示す概念図、 第11図(a)は図形処理における3x3コンボリユー
シヨンを示す図、 第11図(b)は各画素の図形濃度の状態を示す図、 第11図(c)はニューラルネットワークの第2実施例
を示す概念図、 第12図(a)はニューラルネットワークの第3実施例
を示す概念図、 第12図(b)はニューラルネットワークの第4実施例
を示す概念図、 第13図(a)は比較例を示す概念図、第13図(b)
はニューラルネットワークの第5実施例を示す概念図、 第14図(a)は比較例を示す概念図、第14図(b)
はニューラルネットワークの第6実施例を示す概念図、 第15図はモード■の学習を行うニューラルネットワー
クの概念図、 第16図はモードHの学習を行うニューラルネットワー
クの概念図、 第17図は重みの時間的変化を示すグラフ、第18図(
a)はニューラルネットワークの第7実施例を示す概念
図、 第18図(b)はニューラルネットワークの第8実施例
を示す概念図、 ’418 図(c )はニューラルネットワークの第9
実施例を示す概念図、 第19図はニューラルネットワークの第10実施例を示
す概念図、 第20図はニューラルネットワークの第11実施例を示
す概念図、 第21図はニューラルネットワークの第12実施例を示
す概念図である。 20.30.40.50.90 ・・・ニューラルレイヤ 21〜24.31〜34.41.42 91〜93・・・ニューロン 100・・・認識部(図形認識手段) 200・・・入力部 300・・・画像処理部(図形データ 出力手段)
Fig. 1 is a block diagram showing an image processing device to which an embodiment of the present invention is applied, Fig. 2 is a conceptual diagram showing a general neuron model, and Fig. 3 is a v &amp; vision diagram showing a general neuron model. , FIG. 4 is a block diagram showing the processing section, FIG. 5 is a block diagram showing the recognition section, FIG. 6 is a conceptual diagram showing a figure with a concave part, and FIG. 7 is a block diagram showing the boundary pixel data of the figure to be processed. A diagram of the arranged tables, Figure 8 is a conceptual diagram showing the chain code that is a condition for four-part determination, Figure 9 is a conceptual diagram showing the boundary part of a figure including a concave part, and Figure 10 (a) shows a comparative example. Conceptual diagram, Figure 10(b)
is a conceptual diagram showing another comparative example, FIG. 10(C) is a conceptual diagram showing the first embodiment of the neural network, FIG. 11(a) is a diagram showing 3x3 convolution in graphic processing, FIG. (b) is a diagram showing the state of figure density of each pixel, Figure 11 (c) is a conceptual diagram showing the second embodiment of the neural network, and Figure 12 (a) is a diagram showing the third embodiment of the neural network. Conceptual diagram, Figure 12(b) is a conceptual diagram showing the fourth embodiment of the neural network, Figure 13(a) is a conceptual diagram showing a comparative example, Figure 13(b)
14(a) is a conceptual diagram showing the fifth embodiment of the neural network, FIG. 14(a) is a conceptual diagram showing a comparative example, and FIG. 14(b) is a conceptual diagram showing the fifth embodiment of the neural network.
is a conceptual diagram showing the sixth embodiment of the neural network, Figure 15 is a conceptual diagram of a neural network that learns mode ■, Figure 16 is a conceptual diagram of a neural network that learns mode H, and Figure 17 is a weight diagram. Graph showing the temporal change in Figure 18 (
Figure 18(a) is a conceptual diagram showing the seventh embodiment of the neural network, Figure 18(b) is a conceptual diagram showing the eighth embodiment of the neural network, and Figure 18(c) is the ninth embodiment of the neural network.
Figure 19 is a conceptual diagram showing the 10th embodiment of the neural network; Figure 20 is the conceptual diagram showing the 11th embodiment of the neural network; Figure 21 is the 12th embodiment of the neural network. FIG. 20.30.40.50.90...Neural layer 21-24.31-34.41.42 91-93...Neuron 100...Recognition section (figure recognition means) 200...Input section 300 ...Image processing unit (graphic data output means)

Claims (1)

【特許請求の範囲】[Claims] (1)図形の凹部に関する特徴データを抽出する図形デ
ータ出力手段と、 この図形データ出力手段に接続され、入力されたデータ
に所定の重みを乗じたものの総和と閾値との比較結果に
応じたデータを出力するニューロンが並列的に設けられ
るとともに、上記特徴データの抽象度に応じた層構造の
ニューラルレイヤを有し、この特徴データに基づいて図
形を認識する手段とを備えた画像処理装置。
(1) A graphic data output means for extracting feature data regarding the concave part of a figure; and data connected to this graphic data output means and corresponding to a comparison result between the sum of inputted data multiplied by a predetermined weight and a threshold value. What is claimed is: 1. An image processing device comprising: neurons that output the above-mentioned feature data provided in parallel; a neural layer having a layered structure corresponding to the abstraction level of the feature data; and means for recognizing a figure based on the feature data.
JP1120251A 1989-04-05 1989-05-16 Picture processing device Pending JPH02300870A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP1120251A JPH02300870A (en) 1989-05-16 1989-05-16 Picture processing device
AT90906368T ATE159601T1 (en) 1989-05-06 1990-04-25 DATA TREATMENT SYSTEM
DE69031621T DE69031621T2 (en) 1989-05-06 1990-04-25 DATA HANDLING SYSTEM
PCT/JP1990/000535 WO1990013874A1 (en) 1989-05-06 1990-04-25 Data processing system
EP90906368A EP0457909B1 (en) 1989-05-06 1990-04-25 Data processing system
US08/461,538 US5553196A (en) 1989-04-05 1995-06-05 Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1120251A JPH02300870A (en) 1989-05-16 1989-05-16 Picture processing device

Publications (1)

Publication Number Publication Date
JPH02300870A true JPH02300870A (en) 1990-12-13

Family

ID=14781573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1120251A Pending JPH02300870A (en) 1989-04-05 1989-05-16 Picture processing device

Country Status (1)

Country Link
JP (1) JPH02300870A (en)

Similar Documents

Publication Publication Date Title
EP0631254A2 (en) Neural network and method of using same
CN110472695B (en) Abnormal working condition detection and classification method in industrial production process
US11593232B2 (en) Method and device for verifying a neuron function in a neural network
CN110619316A (en) Human body key point detection method and device and electronic equipment
DE102019103319A1 (en) STOCHASTIC ROUNDING OF NUMBER VALUES
US20220318982A1 (en) Neural network architecture for automated part inspection
US5195171A (en) Data processing system
JP2001527249A (en) Image detection device
US5259039A (en) Method of separating specific patterns from pattern space and apparatus therefor
JPH02300870A (en) Picture processing device
KR102161534B1 (en) A method and apparatus for classifying class using sub-pattern learning and refine learning through neural network with weighted fuzzy membership function
Karlik A neural network image recognition for control of manufacturing plant
JPH06266688A (en) Large-scale information recognition circuit
JPH02300868A (en) Picture processing device
Herron et al. A general-purpose high-speed logical transform image processor
JPH02301876A (en) Picture processor
JPH02307168A (en) Image processor
Ni et al. Multiscale Feature Fusion Attention Lightweight Facial Expression Recognition
JPH02300869A (en) Picture processing device
JPH02300871A (en) Picture processing device
JPH02264354A (en) Data processor
EP0391404B1 (en) Data processing system
JPH02292684A (en) Picture recognizing system
JPH02292686A (en) Picture processor
JPH02300867A (en) Picture processing device