JPH07146936A - Pattern recognizing method by hierarchical neural network - Google Patents

Pattern recognizing method by hierarchical neural network

Info

Publication number
JPH07146936A
JPH07146936A JP5293605A JP29360593A JPH07146936A JP H07146936 A JPH07146936 A JP H07146936A JP 5293605 A JP5293605 A JP 5293605A JP 29360593 A JP29360593 A JP 29360593A JP H07146936 A JPH07146936 A JP H07146936A
Authority
JP
Japan
Prior art keywords
pattern
learning
recognition
target value
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5293605A
Other languages
Japanese (ja)
Other versions
JP3347435B2 (en
Inventor
Sadanori Shintani
定則 新谷
Takayoshi Yamamoto
隆義 山本
Hiroyasu Enomoto
博康 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Power Ltd
Original Assignee
Babcock Hitachi KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Babcock Hitachi KK filed Critical Babcock Hitachi KK
Priority to JP29360593A priority Critical patent/JP3347435B2/en
Publication of JPH07146936A publication Critical patent/JPH07146936A/en
Application granted granted Critical
Publication of JP3347435B2 publication Critical patent/JP3347435B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To eliminate the need for relearning including a pattern which can not be recognized and to improve the capability of recognition by storing the pattern which can not be recognized, and accumulating and utilizing coupling weight obtained by additional learning for pattern recognition. CONSTITUTION:In an evaluation process 107, the minimum pattern error between the output of a recognition process 106 and a target value used at the time of learning pattern learning for used finding coupling weight is found and when no pair of the minimum pattern error and target value is stored, a message showing that pattern recognition can not be performed is displayed on a display 7. In an additional pattern storing process 108, the pattern which can not be recognized is stored for subsequent additional learning, and the number of patterns which can not be recognized is counted; when the counted value reaches a prescribed value, those patterns are learnt together additionally and a discrimination symbol is added as to the coupling weight between respective obtained layer units and stored in a learning pattern storage device 6, and utilized for pattern recognition.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は入力された画像、図形、
音声等のパターンを分類、識別、判断または認識する階
層型ニューラルネットワークによるパターン認識方法に
係り、特に学習したパターンと大きく異なるパターンに
ついての認識処理について、適切に対応することを可能
にし、またパターン認識処理に際して、ニューラルネッ
トワークに使用するユニット間の荷重を適切に選択する
ことにより、効果的な処理を行なうことを可能にした階
層型ニューラルネットワークによるパターン認識方法に
関する。
BACKGROUND OF THE INVENTION The present invention relates to input images, graphics,
The present invention relates to a pattern recognition method using a hierarchical neural network for classifying, identifying, judging, or recognizing patterns such as voices, and in particular, makes it possible to appropriately deal with recognition processing for patterns that are significantly different from learned patterns. The present invention relates to a pattern recognition method using a hierarchical neural network that enables effective processing by appropriately selecting a weight between units used for a neural network.

【0002】[0002]

【従来の技術】画像や図形または音声など各種のパター
ンの認識に用いられる階層型ニューラルネットワークで
は、最初に学習用パターンと階層型ニューラルネットワ
ーク出力層の各ユニットの出力の目標値(教師信号とも
呼ばれる)が組として入力され、学習が行なわれる。学
習では、学習用パターンの数と同じかまたはそれ以上の
組を順次またはランダムに入力し、各学習用パターンに
対して階層型ニューラルネットワークの出力層内の各ユ
ニットの実際の出力がそれぞれの目標値に近づくよう
に、入力層・中間層および出力層内にそれぞれ存在する
ユニット間の結合荷重を修正する。その修正の代表的な
方法は誤差逆伝搬法が有名であるが、誤差逆伝搬法は多
くの文献等に詳しく説明されており周知なのでここでは
省略する。学習においては、認識の対象となるパターン
とその目標値の組の全てに関して学習が行なわれ、学習
の完了は以下に述べるような誤差評価により判定され
る。1つの学習パターンに対して出力層の各ユニットの
実際の出力値とその目標値との差の2乗を全ての出力層
ユニットについて加算し、これをユニット数で除して正
規化した値の平方根をこのパターンのパターン誤差と呼
ぶ。すなわち、パターンpに対する出力層内のユニット
kの目標値をtk P 、ユニットkの実際の出力をy k P
として、パターン誤差ε(p)を
2. Description of the Related Art Various types of patterns such as images, figures, and sounds
A layered neural network used to recognize
First, the learning pattern and the hierarchical neural network
The target value of the output of each unit in the
(Called) is input as a set and learning is performed. Study
In practice, the number of learning patterns is equal to or more than
Enter groups in sequence or randomly and add to each learning pattern
In contrast, each unit in the output layer of the hierarchical neural network
So that the actual output of the knit approaches each target value
Exist in the input layer, middle layer, and output layer respectively.
Correct the coupling load between units. Typical of that modification
The error backpropagation method is well known, but the error backpropagation method is often used.
Since it is explained in detail in various documents and is well known, here
Omit it. In learning, the pattern to be recognized
Learning is performed for all of the
Completion is determined by error evaluation as described below.
It For each learning pattern of each unit in the output layer
The square of the difference between the actual output value and its target value is calculated for all output layers.
Add for units, divide by the number of units, and add
The square root of the normalized value is called the pattern error of this pattern.
Bu That is, the units in the output layer for the pattern p
the target value of k is tk P, The actual output of unit k is y k P
And the pattern error ε (p) is

【0003】[0003]

【数1】 [Equation 1]

【0004】と定義する。ただし、Kは出力層内のユニ
ットの個数である。全てのパターン誤差の平均値を平均
パターン誤差と呼ぶことにする。平均パターン誤差 ave
It is defined as However, K is the number of units in the output layer. The average value of all pattern errors will be called the average pattern error. Average pattern error ave
Is

【0005】[0005]

【数2】 [Equation 2]

【0006】と表わされる。ここにPは学習用パターン
の個数である。1回の学習ごとにこの平均パターン誤差
aveを算定しこれが許容値以下になれば学習を完了す
る。学習完了時の結合荷重を用いて学習用パターンに対
して認識する場合は、各パターン誤差の中で最大のパタ
ーン誤差以下の精度で認識が可能となる。学習に用いら
れなかったパターンでも、学習用パターンに類似してい
れば近似的にこの最大パターン誤差内で認識が可能であ
る。
It is represented by Here, P is the number of learning patterns. This average pattern error for each learning
If ave is calculated and it is less than the allowable value, learning is completed. In the case of recognizing the learning pattern by using the connection weight at the time of completion of learning, it is possible to recognize the pattern with a precision less than the maximum pattern error among the pattern errors. Even a pattern that has not been used for learning can be approximately recognized within this maximum pattern error if it is similar to the learning pattern.

【0007】[0007]

【発明が解決しようとする課題】階層型ニューラルネッ
トワークによるパターンの認識で従来問題となっている
のは、学習用パターンと大きく異なるパターンや学習用
として与えたパターン以外の新しいパターンを認識させ
ようとする場合である。これらのパターンに関しては学
習済みの結合荷重を用いて認識を行なわせても一般には
成功しない。この種のパターンに関しても認識を可能に
するためには、これらを新パターンとして学習用パター
ンに加え、改めてこれを学習用パターンとして再度学習
を実施することが一般に行なわれている。この場合、再
学習は学習用パターンの組が増加するので学習時間がさ
らにかかるとともに、せっかく学習して得られていた結
合荷重がリセットされ最初から学習をやり直す結果にな
るなど問題とされている。
The conventional problem of pattern recognition by a hierarchical neural network is to recognize a new pattern other than a pattern greatly different from a learning pattern or a pattern given for learning. This is the case. Recognition of these patterns using the learned connection weights is generally unsuccessful. In order to enable recognition of this kind of pattern as well, it is generally performed to add these as new patterns to the learning pattern and to perform learning again as a learning pattern. In this case, re-learning requires a longer learning time because the number of sets of learning patterns increases, and the connection weight obtained by the learning is reset and the learning is restarted from the beginning.

【0008】本発明の目的は、上記従来技術の問題点を
解決し、入力されたパターンが学習時に使用したパター
ンと大きく異なり、識別、判断ができない場合であって
も適切に処理することができる階層型ニューラルネット
ワークによるパターン認識方法を提供することにある。
The object of the present invention is to solve the above-mentioned problems of the prior art, and to appropriately process even if the input pattern is very different from the pattern used at the time of learning and cannot be identified or judged. It is to provide a pattern recognition method using a hierarchical neural network.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
本願で特許請求する発明は以下のとおりである。 (1)階層型ニューラルネットワークに画像、図形、音
声などのパターンを入力して、これらを分類、識別、判
断(以下これらを認識という)する方法において、学
習、認識の各工程を備え、学習工程では、学習すべきパ
ターンと目標値を入力して、これらについての学習によ
って得られるニューラルネットワークの各層ユニット間
の学習ずみ結合荷重に識別記号を付加して格納して蓄積
し、認識工程では上記蓄積された結合荷重を指定し、指
定された結合荷重を用いて認識すべきパターンについて
の認識処理を行ない、その結果得られた出力値と、用い
た結合荷重を得るための学習工程での目標値とに基づい
て、それぞれの結合荷重を用いて計算して得られるそれ
ぞれのパターン誤差の最小値を一時記憶しておき、指定
されたすべての結合荷重を用いて得られた上記パターン
誤差最小値の中からさらに最小なパターン誤差最小値を
求め、そのパターン誤差最小値があらかじめ予定された
許容値以下であれば、このパターン誤差最小値に関する
学習用パターン、またはその目標値を最終認識結果とし
て出力し、許容値以下でなければ認識不可としてメッセ
ージを発することを特徴とする階層型ニューラルネット
ワークによるパターンの認識方法。
In order to achieve the above object, the invention claimed in the present application is as follows. (1) A method of inputting patterns such as images, figures, and voices to a hierarchical neural network and classifying, identifying, and judging these (hereinafter referred to as recognition) includes learning and recognition steps, and a learning step Then, input the pattern to be learned and the target value, add the identification symbol to the learned connection weight between each layer unit of the neural network obtained by learning about these and store it, and store it in the recognition step. The specified connection weight is specified, the recognition process is performed on the pattern to be recognized using the specified connection weight, the output value obtained as a result, and the target value in the learning process to obtain the used connection weight Based on and, the minimum value of each pattern error calculated by using each connection weight is temporarily stored, and all the specified connection The minimum pattern error minimum value is obtained from the above pattern error minimum values obtained by using the overlap, and if the minimum pattern error value is equal to or less than the preset allowable value, it is used for learning about this pattern error minimum value. A pattern recognition method using a hierarchical neural network, which outputs a pattern or a target value thereof as a final recognition result, and outputs a message as unrecognizable unless it is less than an allowable value.

【0010】(2)階層型ニューラルネットワークに画
像、図形、音声などのパターンを入力して、これらを認
識する方法において、学習、認識、評価の各工程を備
え、学習工程での学習パターンと目標値を入力して、そ
れらについての学習によって得られたニューラルネット
ワーク各層のユニット間の学習ずみ結合荷重に識別記号
を付加して順次格納して蓄積し、認識工程では上記蓄積
された結合荷重の中から使用するものを指定し、指定さ
れた結合荷重を用いて認識すべきパターンについての認
識処理を行ない、評価工程では、上記処理の結果得られ
た出力値と、使用した結合荷重を求めるための学習パタ
ーン学習時に用いた目標値とのパターン誤差のうちの最
小のものを求め、このパターン誤差があらかじめ予定さ
れた許容値以下であれば、その学習パターンと目標値お
よび最小パターン誤差を一時記憶しておき、指定したす
べての結合荷重を用いて得られた上記記憶されたパター
ン誤差最小値の中からさらに最小なパターン誤差と目標
値との組を求め、これを最適な認識結果として出力し、
最小パターン誤差と目標値の組が一組も記憶されていな
い場合は認識不可のメッセージを発することを特徴とす
る階層型ニューラルネットワークによるパターン認識方
法。
(2) A method of inputting patterns such as images, figures, and voices into a hierarchical neural network and recognizing these patterns includes learning, recognition, and evaluation steps, and learning patterns and goals in the learning step. By inputting a value, the identification symbol is added to the learned connection weights between the units of each layer of the neural network obtained by learning about them, and they are sequentially stored and accumulated. In the recognition step, among the accumulated connection weights, From the output values obtained as a result of the above processing and the used coupling weight, the recognition processing is performed for the pattern to be recognized using the specified coupling weight. The minimum of the pattern error with the target value used at the time of learning pattern learning is found, and this pattern error is less than or equal to the preset allowable value. For example, the learning pattern, the target value, and the minimum pattern error are temporarily stored, and the minimum pattern error and the target value are selected from the stored pattern error minimum values obtained by using all the specified connection weights. , And output it as the optimal recognition result,
A pattern recognition method using a hierarchical neural network, wherein an unrecognizable message is issued when no set of minimum pattern error and target value is stored.

【0011】(3)階層型ニューラルネットワークに画
像、図形、音声などのパターンを入力して、これらを認
識する方法において、初期学習、認識、評価、追加学習
の各工程を備え、初期学習と追加学習工程では学習パタ
ーンと目標値とを入力して、学習パターンについての学
習によって得られたニューラルネットワーク各層ユニッ
ト間の学習済み結合荷重に識別記号を付加して格納して
蓄積し、認識工程では上記蓄積された結合荷重のなかか
ら使用するものを指定し、指定された結合荷重を用いて
認識すべきパターンについての認識を行ない、評価工程
では上記認識工程で得られた出力と、使用した結合荷重
を求めるための学習パターン学習時に用いた目標値との
パターン誤差のうちの最小のものを求め、このパターン
誤差があらかじめ予定された許容値以下であれば、その
学習パターンと目標値および最小パターン誤差を一時記
憶しておき、指定したすべての結合荷重を用いて得られ
た上記パターン誤差最小値の中からさらに最小なパター
ン誤差と目標値の組を求め、これを最適な認識結果とし
て出力し、最小パターン誤差と目標値の組が一組も記憶
されていない場合はパターン認識不可のメッセージを出
力するとともに、当該認識不可パターンを記憶して記憶
個数が所定個数に達すると、追加学習工程にてこれらの
パターンをまとめて追加学習を行ない、得られた各層ユ
ニット間の結合荷重について識別記号を付加して蓄積す
ることを特徴とする階層型ニューラルネットワークによ
るパターン認識方法。
(3) A method of inputting patterns such as images, figures, and voices to a hierarchical neural network and recognizing these patterns is provided with initial learning, recognition, evaluation, and additional learning steps. In the learning step, the learning pattern and the target value are input, and the learning symbols between the respective layer units of the neural network obtained by learning of the learning pattern are added with an identification symbol and stored and accumulated. From the accumulated connection weights, specify the one to be used, recognize the pattern to be recognized using the specified connection weight, and in the evaluation step the output obtained in the above recognition step and the connection weight used. The minimum of the pattern error with the target value used at the time of learning the learning pattern is found. If it is less than the specified allowable value, the learning pattern, the target value, and the minimum pattern error are temporarily stored, and the minimum value of the pattern error minimum values obtained using all the specified connection weights is used. A pair of pattern error and target value is obtained and output as an optimum recognition result.If no pair of minimum pattern error and target value is stored, a pattern recognition not possible message is output and the recognition is performed. When the impossible patterns are stored and the number of stored patterns reaches a predetermined number, these patterns are collectively subjected to additional learning in the additional learning step, and the obtained connection weight between each layer unit is added with an identification symbol and accumulated. Pattern recognition method using a hierarchical neural network.

【0012】[0012]

【実施例】図1に本発明の一実施例である階層型ニュー
ラルネットワークによるパターン認識方法に用いる装置
の全体構成機能図を示す。1は本発明の中心的な機能を
もつ階層型ニューラルネットワーク処理装置である。2
はパターン入力装置である。3は学習用パターンを格納
する装置、4は階層型ニューラルネットワークの出力の
目標値を格納する装置、5は学習済みの結合荷重を格納
する装置、6は追加学習用のパターンを格納する装置で
ある。また階層型ニューラルネットワーク処理装置1に
はディスプレイ7とキーボードおよびマウス8が接続さ
れる。階層型ニューラルネットワーク装置の動作と機能
を説明するため、ディスプレイ7に表示される図2、図
3、図4、図5の操作画面を示しながら図1を用いて、
以下詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an overall functional block diagram of an apparatus used in a pattern recognition method using a hierarchical neural network according to an embodiment of the present invention. Reference numeral 1 is a hierarchical neural network processing device having a central function of the present invention. Two
Is a pattern input device. 3 is a device for storing the learning pattern, 4 is a device for storing the target value of the output of the hierarchical neural network, 5 is a device for storing the learned connection weight, and 6 is a device for storing the additional learning pattern. is there. A display 7, a keyboard and a mouse 8 are connected to the hierarchical neural network processing device 1. To explain the operation and function of the hierarchical neural network device, referring to FIG. 1 while showing the operation screens of FIGS. 2, 3, 4 and 5 displayed on the display 7,
The details will be described below.

【0013】本装置を起動すると図1の制御および画面
表示ルーチン100によりディスプレイ7に図2に示す
ような操作画面が表示される。「初期学習」、「認識」
または「追加学習」の1つをマウスでクリックすると本
ニューラルネットワーク装置は選択されたモードにな
る。「初期学習」を選択すると図1の制御および画面表
示ルーチン100により図3に示すような初期学習モー
ドの操作指示や設定を行なうメニューが表示される。
「パラメータ設定」メニューをマウスでクリックすると
一点鎖線で囲まれたサブメニューが表れる。オペレータ
はこのサブメニューを見ながらキーボードおよびマウス
8を用いて階層型ニューラルネットワークの構成や学習
用パターンの個数または学習用パラメータなどを設定す
る。これらの設定値はパラメータ設定ルーチン101に
より取り込まれる。設定が終わったら「設定完了」をク
リックすると「パラメータ設定」メニューが完了する。
When the apparatus is activated, the control and screen display routine 100 shown in FIG. 1 causes the display 7 to display an operation screen as shown in FIG. "Initial learning", "recognition"
Alternatively, when one of the "additional learning" is clicked with the mouse, the neural network device enters the selected mode. When "initial learning" is selected, the control and screen display routine 100 of FIG. 1 displays a menu as shown in FIG. 3 for operating instructions and setting of the initial learning mode.
When you click the "Parameter Setting" menu with the mouse, a submenu surrounded by a chain line appears. The operator sets the configuration of the hierarchical neural network, the number of learning patterns, the learning parameters, and the like by using the keyboard and the mouse 8 while viewing this submenu. These set values are fetched by the parameter setting routine 101. After completing the settings, click "Complete" to complete the "Parameter Setting" menu.

【0014】つぎに図3の「学習用パターンおよび目標
値設定」を選択する。これが選択されるとサブメニュー
が表示される。「パターン指定」でパターン番号を指定
すると該当する学習用パターンが図1のパターン設定ル
ーチン102によりパターン入力装置2から入力されデ
ィスプレイ7に表示される。「目標値設定」サブメニュ
ーによりオペレータは表示されているパターンに対する
目標値を設定する。「目標値設定」サブメニューは図1
の目標値設定ルーチン103を起動し、設定された目標
値に対し表示パターンに対応する組であることを示すパ
ターン番号または記号を付加し、表示パターンは学習パ
ターン格納装置3に格納され、設定された目標値は目標
値格納装置4に格納される。この操作は「パラメータ設
定」で設定したパターン個数回繰り返えされ、「設定完
了」をクリックすることにより「学習用パターンおよび
目標値設定」が終了する。このあと「学習」を選択す
る。「学習」が選択されると制御および画面表示ルーチ
ン100は学習ルーチン105を起動する。学習ルーチ
ン105は学習用パターン格納装置3と目標値格納装置
4から組になった学習用パターンとその目標値を順次取
り込み、誤差逆伝搬法による学習を行なう。学習中は学
習回数や総合誤差の減少状態等の学習過程をディスプレ
イ7に表示する。学習が完了するとディスプレイ7に
「学習完了」が表示される。学習が成功しない場合や学
習速度を向上させたい場合には、「学習中止」を選択し
て再度「パラメータ設定」に戻ってパラメータを変更し
再学習させることも可能である。学習が完了すると、
「結合荷重識別記号設定」を選択する。これは、学習済
みの結合荷重に識別記号を付加してその後の認識に有効
に利用するためである。「識別記号一覧」サブメニュー
をクイックすると、これまで設定された識別記号の一覧
表が画面に表われるのでオペレータはこの一覧表を参照
して「識別記号設定」メニューにより当該学習済み結合
荷重に識別記号をキーボード8を用いて設定する。「設
定完了」がクリックされると当該学習済み結合荷重は設
定された識別記号を付加されて学習済み結合荷重格納装
置5に格納され画面は図2に戻る。以上が初期学習モー
ドにおける処理である。
Next, "learning pattern and target value setting" in FIG. 3 is selected. When this is selected, a submenu will be displayed. When the pattern number is designated by "pattern designation", the corresponding learning pattern is input from the pattern input device 2 by the pattern setting routine 102 of FIG. 1 and displayed on the display 7. The "target value setting" submenu allows the operator to set a target value for the displayed pattern. The “Target value setting” submenu is shown in Figure 1.
The target value setting routine 103 is started, a pattern number or a symbol indicating that it is a set corresponding to the display pattern is added to the set target value, and the display pattern is stored in the learning pattern storage device 3 and set. The desired value is stored in the desired value storage device 4. This operation is repeated for the number of patterns set in the "parameter setting", and the "setting of learning pattern and target value" is ended by clicking "setting complete". After this, select "learn". When “learning” is selected, the control / screen display routine 100 starts a learning routine 105. The learning routine 105 sequentially takes in a learning pattern and a target value thereof, which form a set from the learning pattern storage device 3 and the target value storage device 4, and performs learning by the error back propagation method. During the learning, the learning process such as the number of times of learning and the reduction state of the total error is displayed on the display 7. When learning is completed, “learning completed” is displayed on the display 7. If the learning is not successful or if the learning speed is desired to be improved, it is possible to select "stop learning" and return to "parameter setting" again to change the parameters and re-learn. When learning is completed,
Select "Coupling load identification symbol setting". This is because an identification symbol is added to the learned coupling weights and it is effectively used for subsequent recognition. If you click the "Identification symbol list" submenu, a list of identification symbols that have been set up to now will appear on the screen.The operator can refer to this list and identify the learned coupling load with the "Identification symbol setting" menu. The symbol is set using the keyboard 8. When "setting complete" is clicked, the learned connection weight is stored in the learned connection weight storage device 5 with the set identification symbol added, and the screen returns to FIG. The above is the processing in the initial learning mode.

【0015】つぎに、認識モードについて説明する。デ
ィスプレイ7に表示された図2で「認識」を選択する
と、認識モードに移行し図4に示すメニューが表示され
る。「荷重識別記号指定」は、学習済み結合荷重格納装
置5に格納されている学習済み結合荷重の識別記号を指
定することにより、認識ルーチン106で使用する学習
済み結合荷重を決めるためである。「荷重識別記号指
定」を選択すると一点鎖線で囲まれた「識別記号一
覧」、「一括指定」、「個別指定」、「範囲指定」、
「論理式指定」などのサブメニューが表われる。「識別
記号一覧」は初期学習モードの「結合荷重識別記号設
定」でこれまで設定された識別記号の一覧表を表示す
る。この一覧表を参照して認識に用いる結合荷重を以下
のように指定する。「一括指定」は登録されている全て
の識別記号を指定する場合に選択する。「個別指定」は
任意の個数で個別的に識別記号を指定する時に選ぶ。
「範囲指定」では識別記号が連続する自然数で登録され
ている時に識別記号を範囲で指定する場合に選択する。
「論理式指定」は識別記号を数字やキーワードの組合わ
せでつけている場合に論理和や論理積などを組み合わせ
た論理式によって指定する時に用いる。オペレータは上
記の適当なサブメニューをクリックして学習済み結合荷
重の識別記号を設定する。「指定完了」をクリックする
と「識別記号指定」は完了する。
Next, the recognition mode will be described. When “recognition” is selected in FIG. 2 displayed on the display 7, the mode is shifted to the recognition mode and the menu shown in FIG. 4 is displayed. The “load identification symbol designation” is for determining the learned binding weight used in the recognition routine 106 by designating the identification symbol of the learned binding weight stored in the learned binding weight storage device 5. When "Load identification symbol designation" is selected, "Identification symbol list" surrounded by the one-dot chain line, "Batch designation", "Individual designation", "Range designation",
A submenu such as "Specify logical expression" appears. The “identification symbol list” displays a list of identification symbols that have been set so far in the “coupling load identification symbol setting” in the initial learning mode. By referring to this list, the binding weights used for recognition are specified as follows. "Batch designation" is selected when designating all registered identification symbols. "Individual designation" is selected when individually designating an arbitrary number of identification symbols.
"Range designation" is selected when designating an identification symbol in a range when the identification symbol is registered as a continuous natural number.
"Logical expression designation" is used when the identification symbol is attached by a combination of numbers and keywords, and is designated by a logical expression that combines logical sums and logical products. The operator clicks on the appropriate submenu above to set the discriminant for the learned coupling weights. Click "Designation Complete" to complete "Identification Symbol Designation".

【0016】つぎに「認識」を選択する。制御および画
面表示ルーチン100は「認識」の選択により、認識処
理ルーチン106に対して、認識動作を実施する指令を
発する。すなわち、学習済み結合荷重格納装置5から指
定された識別記号をもつ学習済み結合荷重を取り込み、
つぎにパターン入力装置2から認識用パターンを入力し
認識するように指示をする。以下、認識モードで動作す
る認識ルーチン106と評価ルーチン107および追加
学習パターン処理ルーチン108は相互に関連するので
図6に示すフローチャートを用いて説明する。まず、図
6の601の結合荷重識別記号指定は図4の「識別記号
指定」に対応する。ここでは例えば「範囲指定」で識別
記号ID=1〜Mと指定するとすると、これは識別記号
ID=1〜MをもつM個の学習済み結合荷重WT(ID
=1〜M)を用いて認識対象のパターンに対して認識を
行なうことになる。602で最初の認識用パターン番号
P =1を設定する。603では601で指定された最
初の識別記号ID=1をセットする。604では学習済
み結合荷重WT(ID=1)を学習済み結合荷重格納装
置5から認識処理ルーチン106に読み込む。605で
は602でセットされた最初の認識のためのパターン
(NP =1)をパターン入力装置2から入力し認識処理
ルーチン106に読み込む。606の出力計算で最初の
パターン(NP=1)に対し学習済み荷重WT(ID=
1)を用いてニューラルネットワークの出力yk Np(N
P =1)、(k=1〜K)を計算する。以上までが図1
の認識処理ルーチン106の処理である。以下からは評
価処理ルーチン107の処理となる。607の評価では
学習済み荷重WT(ID=1)を求める時に入力した目
標値tk P ((k=1〜K)、(学習用パターンp=1
〜P))の中でこのニューラルネットワーク出力yk Np
((NP =1)、(k=1〜K))に最も近いものが存
在するかどうかを評価する。その方法としてはすでに説
明した下記のパターン誤差ε(p)を用いる。
Next, "recognition" is selected. Control and image
The surface display routine 100 selects the “recognition” to select the recognition process.
A command for executing the recognition operation is issued to the physical routine 106.
Emit. That is, the finger from the learned combined load storage device 5
Take in the trained connection weights with a defined identifier,
Next, input the recognition pattern from the pattern input device 2.
Instruct them to recognize. In the following, it operates in recognition mode.
Recognition routine 106 and evaluation routine 107 and addition
Since the learning pattern processing routine 108 is related to each other,
This will be described with reference to the flowchart shown in FIG. First, the figure
No. 6 601 of the combined load identification code designation is “identification code” in FIG.
Corresponding to "designation". Here, for example, identify with "range specification"
If you specify the symbol ID = 1 to M, this is the identification symbol.
M learned connection weights WT (ID
= 1 to M) to recognize the pattern to be recognized.
Will be done. First recognition pattern number in 602
N PSet = 1. In 603, the maximum specified in 601
The first identification code ID = 1 is set. Learned in 604
Only the combined load WT (ID = 1) has been learned.
The recognition processing routine 106 is read from the unit 5. At 605
Is the pattern for the first recognition set in 602
(NP= 1) is input from the pattern input device 2 and recognition processing is performed.
It is read into the routine 106. First in the output calculation of 606
Pattern (NP= 1) learned weight WT (ID =
The output y of the neural network using 1)k Np(N
P= 1), (k = 1 to K) are calculated. The above is Fig. 1
Is a process of the recognition processing routine 106. From the following
This is the processing of the price processing routine 107. In the evaluation of 607
Eyes input when obtaining the learned weight WT (ID = 1)
Threshold tk P((K = 1 to K), (learning pattern p = 1
~ P)) in this neural network output yk Np
((NP= 1), (k = 1 to K)) is the closest
Evaluate if it exists The method has already been explained
The following pattern error ε (p) which has been clarified is used.

【0017】[0017]

【数3】 [Equation 3]

【0018】評価処理ルーチン107では上式のyk Np
には606の出力計算で求めたyk Np((NP =1)、
(k=1〜K))を用い、学習用パターンp=1〜Pに
対するユニットk(k=1〜K)の目標値tk P ((k
=k〜K)、(学習用パターンp=1〜P))を用いて
パターン誤差ε(p)を計算する。こうして得られたP
個のパターン誤差ε(p)の中での最小ε(p)となる
パターンPmin を求める。すなわちMin{ε(p)|p
=1〜P}となるパターンPmin を求める。このパター
ンPmin の最小パターン誤差ε(Pmin )が規定値以下
であれば、パターンPmin と組となっている目標値tk
P (p=Pmin )およびその最小パターン誤差ε(Pmi
n )を認識結果として609で一時記憶する。規定値以
下の最小パターン誤差ε(Pmin )が存在しなければ、
608でつぎの結合荷重識別記号をセットし、604、
605、606、607で同様な処理をする。最初の認
識用パターン(Np =1)に対して601で設定された
全ての学習済み結合荷重を使用したかを610で判定
し、まだ未使用の学習済み結合荷重が残っていれば、6
08でつぎの学習済み結合荷重を指定し同様な処理を繰
り返す。指定した全ての学習済み結合荷重を使用した
後、611では609で認識結果として一時記憶してい
た目標値tp k (p=Pmin )と最小パターン誤差ε
(Pmin )が何組記憶されているかを調べる。目標値と
最小パターン誤差が1組だけ記憶されていれば613で
これを最終認識結果として制御および画面表示ルーチン
100を経由してディスプレイ7に出力する。これが図
4の「認識」のサブメニュー「認識結果」に対応する。
サブメニュー「認識確認」をクリックするとつぎのパタ
ーンの認識に進む。記憶された目標値と最小パターン誤
差が2組以上の場合は、612で最小パターン誤差の中
でさらに最も小さい最小パターン誤差と目標値の組を探
索しこれを最適な認識結果として613で出力する。こ
れも図4の「認識」のサブメニュー「認識結果」に対応
する。サブメニュー「認識確認」をクリックするとつぎ
のパターンの認識に進む。目標値と最小パターン誤差が
1組も記憶されていない場合は、このパターンに対して
は認識ができないことになり、図4の「認識」のサブメ
ニュー「認識不可メッセージ」、「追加学習パターン格
納」に示しているように616で「認識不可」のアラー
ムを発する。以上までが図1の評価処理ルーチン107
の処理である。
In the evaluation processing routine 107, y k Np in the above equation
Y k Np ((N P = 1), obtained by the output calculation of 606,
(K = 1 to K)), the target value t k P of the unit k (k = 1 to K) for the learning patterns p = 1 to P ((k
= K to K), (learning pattern p = 1 to P)), the pattern error ε (p) is calculated. P thus obtained
The pattern Pmin which is the minimum ε (p) among the individual pattern errors ε (p) is obtained. That is, Min {ε (p) | p
Then, a pattern Pmin for which = 1 to P} is obtained. If the minimum pattern error ε (Pmin) of the pattern Pmin is less than or equal to the specified value, the target value t k paired with the pattern Pmin.
P (p = Pmin) and its minimum pattern error ε (Pmi
n) is temporarily stored as a recognition result in 609. If there is no minimum pattern error ε (Pmin) below the specified value,
At 608, the next coupling load identification symbol is set, and 604,
Similar processing is performed at 605, 606, and 607. At 610, it is determined whether all the learned connection weights set at 601 have been used for the first recognition pattern (N p = 1), and if there are still unused connection weights, then 6
At 08, the next learned connection weight is designated and the same processing is repeated. After using all the specified learned connection weights, in 611, the target value t p k (p = Pmin) temporarily stored as the recognition result in 609 and the minimum pattern error ε.
Check how many sets (Pmin) are stored. If only one set of the target value and the minimum pattern error is stored, this is output as the final recognition result to the display 7 via the control and screen display routine 100 at 613. This corresponds to the "recognition result" submenu of "recognition" in FIG.
If you click the "Confirmation" submenu, you will proceed to the recognition of the next pattern. When the stored target value and minimum pattern error are two or more sets, the smallest combination of the minimum pattern error and the target value is searched for in 612, and this is output as the optimum recognition result in 613. . This also corresponds to the "recognition result" submenu of "recognition" in FIG. If you click the "Confirmation" submenu, you will proceed to the recognition of the next pattern. If no set of the target value and the minimum pattern error is stored, the pattern cannot be recognized, and the sub-menu “Unrecognized message” and “Additional learning pattern storage” of “recognition” in FIG. ”, An alarm“ unrecognizable ”is issued at 616. The above is the evaluation processing routine 107 of FIG.
Processing.

【0019】以下から追加パターン格納処理ルーチン1
08の処理に移る。追加パターン格納処理ルーチン10
8では、このあとの追加学習のために認識不可パターン
を記憶する。617で記憶する認識不可パターンの個数
をカウントし、618でこのカウント値が規定値N以下
であれば619で認識不可パターンを記憶し614でつ
ぎのパターンの認識に進む。618でこのカウント値が
規定値Nに達すれば、図4の「認識」のサブメニュー
「追加学習メッセージ」に示すように、620で「追加
学習メッセージ」を出力し認識モードを終了させる。以
上までが図1の追加学習パターン格納処理ルーチン10
8の処理である。このような処理を認識用パターン(N
P =1〜NP)に対して順次実施する。認識を終える場
合は図4の「認識完了」をマウスでクリックすると画面
は図2に戻る。ここで、再度「初期学習」または「認
識」を選んで実行することも可能である。620で図4
の「認識」のサブメニュー「追加学習メッセージ」が出
力されてた場合は図2の「追加学習」を選択すると、図
5のメニューが表われる。「パターン個数設定」では、
追加学習用パターン格納装置6に格納されているN個の
「認識不可」パターンの内の何個を追加学習用パターン
として使用するかを設定する。「パターン転送」をクリ
ックすると「パターン個数設定」で設定された個数の
「認識不可」パターンが追加学習パターン格納処理ルー
チン108により追加学習用パターン格納装置6から学
習用パターン格納装置3に転送される。以下「パラメー
タ設定」、「学習用パターンおよび目標値設定」、「学
習」、「結合荷重識別記号設定」の各メニューは初期学
習モードの場合と同じであるから説明は省略する。
From the following, additional pattern storage processing routine 1
The process moves to 08. Additional pattern storage processing routine 10
At 8, the unrecognizable pattern is stored for additional learning thereafter. The number of unrecognizable patterns stored in 617 is counted, and if the count value is less than the specified value N in 618, the unrecognizable pattern is stored in 619 and the next pattern is recognized in 614. When the count value reaches the specified value N in 618, the "additional learning message" is output in 620 and the recognition mode is ended, as shown in the "additional learning message" submenu of "recognition" in FIG. The above is the additional learning pattern storage processing routine 10 of FIG.
It is the process of 8. Such processing is performed by using the recognition pattern (N
P = 1 to NP) are sequentially performed. To end the recognition, click "recognition completed" in FIG. 4 with the mouse to return the screen to FIG. Here, it is also possible to select and execute "initial learning" or "recognition" again. FIG. 4 at 620
When the “additional learning message” submenu of “recognition” is output, the menu of FIG. 5 appears when “additional learning” of FIG. 2 is selected. In “Pattern number setting”,
The number of N “unrecognizable” patterns stored in the additional learning pattern storage device 6 is set as the additional learning pattern. When "Transfer pattern" is clicked, the number of "unrecognizable" patterns set in "Set number of patterns" is transferred from the additional learning pattern storage device 6 to the learning pattern storage device 3 by the additional learning pattern storage processing routine 108. . The respective menus of "parameter setting", "learning pattern and target value setting", "learning", and "coupling weight identification symbol setting" are the same as those in the initial learning mode, and therefore description thereof will be omitted.

【0020】[0020]

【発明の効果】階層型ニューラルネットワーク装置によ
って画像や図形、音声などのパターンを認識する場合
に、認識が不可の時は追加学習のためその認識不可パタ
ーンを記憶してあとで学習用パターンとして追加学習を
行ない、追加学習によって得られた結合荷重を順次蓄積
してその後のパターン認識に利用することが可能なの
で、従来行なわれているような認識不可パターンを含め
た学習を最初からやり直しすることが不要になり、また
蓄積された結合荷重を任意に、かつ適切に指定してパタ
ーン認識に活用できるので認識能力の向上を図ることが
可能となる。
When a pattern such as an image, a figure, or a voice is recognized by a hierarchical neural network device, if the recognition is impossible, the unrecognizable pattern is stored for additional learning and added later as a learning pattern. Since it is possible to perform learning and accumulate the connection weights obtained by the additional learning sequentially and use them for subsequent pattern recognition, it is possible to redo learning including unrecognizable patterns, which is conventionally performed, from the beginning. Further, it becomes unnecessary, and the accumulated coupling load can be arbitrarily and appropriately designated and utilized for pattern recognition, so that the recognition ability can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の全体図。FIG. 1 is an overall view of an embodiment of the present invention.

【図2】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。
FIG. 2 is a screen display diagram showing a menu of operations, settings, processing results, etc. of the hierarchical neural network device in the present invention.

【図3】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。
FIG. 3 is a display diagram of a screen showing a menu of operations, settings, processing results, etc. of the hierarchical neural network device in the present invention.

【図4】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。
FIG. 4 is a screen display diagram showing a menu of operations, settings, processing results, etc. of the hierarchical neural network device in the present invention.

【図5】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。
FIG. 5 is a screen display diagram showing a menu of operations, settings, processing results, etc. of the hierarchical neural network device in the present invention.

【図6】本発明の実施例における認識、評価、追加学習
の処理系統図。
FIG. 6 is a processing system diagram of recognition, evaluation, and additional learning in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…階層型ニューラルネットワーク処理装置、2…パタ
ーン入力装置、3…学習用パターン格納装置、4…目標
値格納装置、5…学習済み結合荷重格納装置、6…追加
学習用パターン格納装置、7…ディスプレイ、8…キー
ボードおよびマウス、100…制御および画面表示ルー
チン、101…パラメータ設定ルーチン、102…パタ
ーン設定ルーチン、103…目標値設定ルーチン、10
5…学習処理ルーチン、106…認識処理ルーチン、1
07…評価処理ルーチン、108…追加学習パターン格
納処理ルーチン。
1 ... Hierarchical neural network processing device, 2 ... Pattern input device, 3 ... Learning pattern storage device, 4 ... Target value storage device, 5 ... Learned connection weight storage device, 6 ... Additional learning pattern storage device, 7 ... Display, 8 ... Keyboard and mouse, 100 ... Control and screen display routine, 101 ... Parameter setting routine, 102 ... Pattern setting routine, 103 ... Target value setting routine, 10
5 ... Learning processing routine, 106 ... Recognition processing routine, 1
07 ... Evaluation processing routine, 108 ... Additional learning pattern storage processing routine.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 階層型ニューラルネットワークに画像、
図形、音声などのパターンを入力して、これらを分類、
識別、判断する認識方法において、学習、認識の各工程
を備え、学習工程では、学習すべきパターンと目標値を
入力して、これらについての学習によって得られるニュ
ーラルネットワークの各層ユニット間の学習ずみ結合荷
重に識別記号を付加して格納して蓄積し、認識工程では
上記蓄積された結合荷重を指定し、指定された結合荷重
を用いて認識すべきパターンについての認識処理を行な
い、その結果得られた出力値と、用いた結合荷重を得る
ための学習工程での目標値とに基づいて、それぞれの結
合荷重を用いて計算して得られるそれぞれのパターン誤
差の最小値を一時記憶しておき、指定されたすべての結
合荷重を用いて得られた上記パターン誤差最小値の中か
らさらに最小なパターン誤差最小値を求め、そのパター
ン誤差最小値があらかじめ予定された許容値以下であれ
ば、このパターン誤差最小値に関する学習用パターン、
またはその目標値を最終認識結果として出力し、許容値
以下でなければ認識不可としてメッセージを発すること
を特徴とする階層型ニューラルネットワークによるパタ
ーンの認識方法。
1. A hierarchical neural network for images,
Input patterns such as figures and voices to classify them.
The recognition method for identifying and determining includes learning and recognition steps. In the learning step, a pattern to be learned and a target value are input, and learning connection between each layer unit of the neural network obtained by learning about these. An identification symbol is added to the load to store and accumulate it. In the recognition step, the accumulated bond weight is specified, and the recognition process is performed for the pattern to be recognized using the specified bond weight. Based on the output value and the target value in the learning process to obtain the used connection weight, the minimum value of each pattern error obtained by calculation using each connection weight is temporarily stored, The minimum pattern error minimum value is obtained from the above minimum pattern error values obtained using all the specified connection weights, and the minimum pattern error value is If less beforehand scheduled tolerance, learning about this pattern minimum error pattern,
Alternatively, a pattern recognition method using a hierarchical neural network is characterized in that the target value is output as a final recognition result, and if the target value is not less than the allowable value, the recognition is not possible and a message is issued.
【請求項2】 階層型ニューラルネットワークに画像、
図形、音声などのパターンを入力して、これらを認識す
る方法において、学習、認識、評価の各工程を備え、学
習工程での学習パターンと目標値を入力して、それらに
ついての学習によって得られたニューラルネットワーク
各層のユニット間の学習ずみ結合荷重に識別記号を付加
して順次格納して蓄積し、認識工程では上記蓄積された
結合荷重の中から使用するものを指定し、指定された結
合荷重を用いて認識すべきパターンについての認識処理
を行ない、評価工程では、上記処理の結果得られた出力
値と、使用した結合荷重を求めるための学習パターン学
習時に用いた目標値とのパターン誤差のうちの最小のも
のを求め、このパターン誤差があらかじめ予定された許
容値以下であれば、その学習パターンと目標値および最
小パターン誤差を一時記憶しておき、指定したすべての
結合荷重を用いて得られた上記記憶されたパターン誤差
最小値の中からさらに最小なパターン誤差と目標値との
組を求め、これを最適な認識結果として出力し、最小パ
ターン誤差と目標値の組が一組も記憶されていない場合
は認識不可のメッセージを発することを特徴とする階層
型ニューラルネットワークによるパターン認識方法。
2. An image is applied to a hierarchical neural network,
The method of inputting patterns such as figures and voices and recognizing them includes learning, recognition, and evaluation steps, and inputs learning patterns and target values in the learning step to obtain them by learning. Neural network Learning codes between units of each layer are added with an identification symbol and sequentially stored and accumulated. In the recognition process, the one to be used is specified from the accumulated connection weights, and the specified connection weight is specified. The recognition process for the pattern to be recognized is performed by using, and in the evaluation step, the output value obtained as a result of the above process and the pattern error of the target value used at the time of learning pattern learning for obtaining the used coupling weight Find the smallest of these, and if this pattern error is less than or equal to the preset allowable value, set the learning pattern, target value, and minimum pattern error. The set of the minimum pattern error and the target value is obtained from among the stored minimum values of the pattern error obtained by using all the specified connection weights, and this is set as the optimum recognition result. A pattern recognition method using a hierarchical neural network, which outputs and outputs an unrecognizable message when no set of minimum pattern error and target value is stored.
【請求項3】 階層型ニューラルネットワークに画像、
図形、音声などのパターンを入力して、これらを認識す
る方法において、初期学習、認識、評価、追加学習の各
工程を備え、初期学習と追加学習工程では学習パターン
と目標値とを入力して、学習パターンについての学習に
よって得られたニューラルネットワーク各層ユニット間
の学習済み結合荷重に識別記号を付加して格納して蓄積
し、認識工程では上記蓄積された結合荷重のなかから使
用するものを指定し、指定された結合荷重を用いて認識
すべきパターンについての認識を行ない、評価工程では
上記認識工程で得られた出力と、使用した結合荷重を求
めるための学習パターン学習時に用いた目標値とのパタ
ーン誤差のうちの最小のものを求め、このパターン誤差
があらかじめ予定された許容値以下であれば、その学習
パターンと目標値および最小パターン誤差を一時記憶し
ておき、指定したすべての結合荷重を用いて得られた上
記パターン誤差最小値の中からさらに最小なパターン誤
差と目標値の組を求め、これを最適な認識結果として出
力し、最小パターン誤差と目標値の組が一組も記憶され
ていない場合はパターン認識不可のメッセージを出力す
るとともに、当該認識不可パターンを記憶して記憶個数
が所定個数に達すると、追加学習工程にてこれらのパタ
ーンをまとめて追加学習を行ない、得られた各層ユニッ
ト間の結合荷重について識別記号を付加して蓄積するこ
とを特徴とする階層型ニューラルネットワークによるパ
ターン認識方法。
3. An image is applied to the hierarchical neural network,
The method of inputting patterns such as figures and voices and recognizing them includes the steps of initial learning, recognition, evaluation, and additional learning. In the initial learning and additional learning steps, the learning pattern and the target value are input. , The neural network obtained by learning about the learning pattern is stored with the identification symbol added to the learned connection weight between each layer unit, and in the recognition step, the one to be used is specified from the accumulated connection weights. Then, the pattern to be recognized is recognized using the specified connection weight, and in the evaluation step, the output obtained in the above recognition step and the target value used during learning pattern learning for obtaining the connection weight used If the pattern error is less than or equal to the preset tolerance, the learning pattern and the target value are calculated. And the minimum pattern error are temporarily stored, and the set of the minimum pattern error and the target value is obtained from the minimum values of the above pattern errors obtained by using all the specified connection weights, and the optimum recognition result is obtained. When no set of the minimum pattern error and the target value is stored, a message indicating that the pattern cannot be recognized is output, and when the number of stored unrecognizable patterns reaches a predetermined number, the addition is made. A pattern recognition method using a hierarchical neural network, characterized in that additional learning is collectively performed on these patterns in a learning process, and an identification symbol is added to the obtained connection weights between the layer units to be accumulated.
JP29360593A 1993-11-24 1993-11-24 Pattern Recognition Method Using Hierarchical Neural Network Expired - Fee Related JP3347435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29360593A JP3347435B2 (en) 1993-11-24 1993-11-24 Pattern Recognition Method Using Hierarchical Neural Network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29360593A JP3347435B2 (en) 1993-11-24 1993-11-24 Pattern Recognition Method Using Hierarchical Neural Network

Publications (2)

Publication Number Publication Date
JPH07146936A true JPH07146936A (en) 1995-06-06
JP3347435B2 JP3347435B2 (en) 2002-11-20

Family

ID=17796881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29360593A Expired - Fee Related JP3347435B2 (en) 1993-11-24 1993-11-24 Pattern Recognition Method Using Hierarchical Neural Network

Country Status (1)

Country Link
JP (1) JP3347435B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138867A (en) * 2016-02-05 2017-08-10 富士通株式会社 Arithmetic processing circuit, and information processing unit
CN113138005A (en) * 2021-05-13 2021-07-20 华东理工大学 Vehicle random load pattern recognition system based on feature extraction and neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290013A (en) * 1992-04-06 1993-11-05 Sharp Corp Neural network arithmetic unit

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290013A (en) * 1992-04-06 1993-11-05 Sharp Corp Neural network arithmetic unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138867A (en) * 2016-02-05 2017-08-10 富士通株式会社 Arithmetic processing circuit, and information processing unit
CN113138005A (en) * 2021-05-13 2021-07-20 华东理工大学 Vehicle random load pattern recognition system based on feature extraction and neural network

Also Published As

Publication number Publication date
JP3347435B2 (en) 2002-11-20

Similar Documents

Publication Publication Date Title
US4876731A (en) Neural network model in pattern recognition using probabilistic contextual information
Nickerson Response times with a memory-dependent decision task.
CN109376615A (en) For promoting the method, apparatus and storage medium of deep learning neural network forecast performance
US5210799A (en) System and method for ranking and extracting salient contours for target recognition
US20090164489A1 (en) Information processing apparatus and information processing method
JP3265701B2 (en) Pattern recognition device using multi-determiner
CN111178446B (en) Optimization method and device of target classification model based on neural network
CN111915437A (en) RNN-based anti-money laundering model training method, device, equipment and medium
JP2003051010A (en) Method for screening group of images
JP3517285B2 (en) Decision support system
CN109492153A (en) A kind of Products Show method and apparatus
CN106910065A (en) Data processing method, the apparatus and system of the settlement of exchange amount of money are calculated based on many transactions
JPH10187228A (en) Device for supporting plant operation
CN110135428A (en) Image segmentation processing method and device
JPH07146936A (en) Pattern recognizing method by hierarchical neural network
US6233352B1 (en) Information processing method and apparatus
CN109472484A (en) A kind of production process exception record method based on flow chart
JP2962264B2 (en) Automatic user preference learning method
JPH03116332A (en) Computer system apparatus and method of executing best selection
CN113541985A (en) Internet of things fault diagnosis method, training method of model and related device
US20210373857A1 (en) Machine-learning assisted autocomplete in visual programming
CN109446325B (en) Natural language classifier system with high accuracy
CN105989516B (en) A kind of method for information display and terminal
CN114386688A (en) User intention prediction method and system based on multi-data fusion
JP2699622B2 (en) Pattern learning device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees