JP3347435B2 - Pattern Recognition Method Using Hierarchical Neural Network - Google Patents
Pattern Recognition Method Using Hierarchical Neural NetworkInfo
- Publication number
- JP3347435B2 JP3347435B2 JP29360593A JP29360593A JP3347435B2 JP 3347435 B2 JP3347435 B2 JP 3347435B2 JP 29360593 A JP29360593 A JP 29360593A JP 29360593 A JP29360593 A JP 29360593A JP 3347435 B2 JP3347435 B2 JP 3347435B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- learning
- recognition
- stored
- target value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は入力された画像、図形、
音声等のパターンを分類、識別、判断または認識する階
層型ニューラルネットワークによるパターン認識方法に
係り、特に学習したパターンと大きく異なるパターンに
ついての認識処理について、適切に対応することを可能
にし、またパターン認識処理に際して、ニューラルネッ
トワークに使用するユニット間の荷重を適切に選択する
ことにより、効果的な処理を行なうことを可能にした階
層型ニューラルネットワークによるパターン認識方法に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to input images, figures,
The present invention relates to a pattern recognition method using a hierarchical neural network for classifying, discriminating, judging, or recognizing a pattern of a voice or the like. In particular, it is possible to appropriately cope with a recognition process for a pattern that is significantly different from a learned pattern. The present invention relates to a pattern recognition method using a hierarchical neural network that enables effective processing by appropriately selecting a load between units used in a neural network during processing.
【0002】[0002]
【従来の技術】画像や図形または音声など各種のパター
ンの認識に用いられる階層型ニューラルネットワークで
は、最初に学習用パターンと階層型ニューラルネットワ
ーク出力層の各ユニットの出力の目標値(教師信号とも
呼ばれる)が組として入力され、学習が行なわれる。学
習では、学習用パターンの数と同じかまたはそれ以上の
組を順次またはランダムに入力し、各学習用パターンに
対して階層型ニューラルネットワークの出力層内の各ユ
ニットの実際の出力がそれぞれの目標値に近づくよう
に、入力層・中間層および出力層内にそれぞれ存在する
ユニット間の結合荷重を修正する。その修正の代表的な
方法は誤差逆伝搬法が有名であるが、誤差逆伝搬法は多
くの文献等に詳しく説明されており周知なのでここでは
省略する。学習においては、認識の対象となるパターン
とその目標値の組の全てに関して学習が行なわれ、学習
の完了は以下に述べるような誤差評価により判定され
る。1つの学習パターンに対して出力層の各ユニットの
実際の出力値とその目標値との差の2乗を全ての出力層
ユニットについて加算し、これをユニット数で除して正
規化した値の平方根をこのパターンのパターン誤差と呼
ぶ。すなわち、パターンpに対する出力層内のユニット
kの目標値をtk P 、ユニットkの実際の出力をy k P
として、パターン誤差ε(p)を2. Description of the Related Art Various putters such as images, figures and sounds.
Is a hierarchical neural network used for
First, the learning pattern and the hierarchical neural network
Target value of the output of each unit in the
) Are input as a set, and learning is performed. Study
In practice, the number of training patterns equals or exceeds
Enter the pairs sequentially or randomly and add them to each learning pattern.
On the other hand, each user in the output layer of the hierarchical neural network
Make sure that the actual output of the knit approaches each target value
Exist in the input layer / intermediate layer and the output layer, respectively.
Correct the coupling load between units. Representative of that modification
As the method, the back propagation method is famous, but the back propagation method is often used.
Are described in detail in many documents
Omitted. In learning, patterns to be recognized
Learning is performed for all pairs of
Completion is determined by an error assessment as described below.
You. For each unit of the output layer for one learning pattern
The square of the difference between the actual output value and its target value is calculated for all output layers.
Add for units and divide by the number of units to get a positive
The square root of the normalized value is called the pattern error of this pattern.
Huh. That is, the unit in the output layer for the pattern p
The target value of k is tk P, The actual output of unit k k P
And the pattern error ε (p)
【0003】[0003]
【数1】 (Equation 1)
【0004】と定義する。ただし、Kは出力層内のユニ
ットの個数である。全てのパターン誤差の平均値を平均
パターン誤差と呼ぶことにする。平均パターン誤差 ave
は[0004] Here, K is the number of units in the output layer. The average value of all pattern errors will be referred to as an average pattern error. Average pattern error ave
Is
【0005】[0005]
【数2】 (Equation 2)
【0006】と表わされる。ここにPは学習用パターン
の個数である。1回の学習ごとにこの平均パターン誤差
aveを算定しこれが許容値以下になれば学習を完了す
る。学習完了時の結合荷重を用いて学習用パターンに対
して認識する場合は、各パターン誤差の中で最大のパタ
ーン誤差以下の精度で認識が可能となる。学習に用いら
れなかったパターンでも、学習用パターンに類似してい
れば近似的にこの最大パターン誤差内で認識が可能であ
る。[0006] Here, P is the number of learning patterns. This average pattern error for each learning
The ave is calculated, and if this value falls below the allowable value, the learning is completed. When recognizing a learning pattern using the connection weight at the time of completion of learning, recognition can be performed with an accuracy equal to or less than the maximum pattern error among the pattern errors. Even if a pattern is not used for learning, if it is similar to the learning pattern, it can be recognized approximately within this maximum pattern error.
【0007】[0007]
【発明が解決しようとする課題】階層型ニューラルネッ
トワークによるパターンの認識で従来問題となっている
のは、学習用パターンと大きく異なるパターンや学習用
として与えたパターン以外の新しいパターンを認識させ
ようとする場合である。これらのパターンに関しては学
習済みの結合荷重を用いて認識を行なわせても一般には
成功しない。この種のパターンに関しても認識を可能に
するためには、これらを新パターンとして学習用パター
ンに加え、改めてこれを学習用パターンとして再度学習
を実施することが一般に行なわれている。この場合、再
学習は学習用パターンの組が増加するので学習時間がさ
らにかかるとともに、せっかく学習して得られていた結
合荷重がリセットされ最初から学習をやり直す結果にな
るなど問題とされている。The problems that have conventionally been encountered in the recognition of patterns by a hierarchical neural network are to make it possible to recognize patterns that are significantly different from learning patterns, or new patterns other than those provided for learning. This is the case. Regarding these patterns, recognition is generally not successful even if recognition is performed using learned connection weights. In order to enable recognition of these types of patterns, it is common practice to add them as new patterns to the learning pattern and then perform learning again using the new patterns as learning patterns. In this case, the re-learning is problematic in that the number of sets of learning patterns increases, so that the learning time is further increased, and the connection weight obtained by the learning is reset and the learning is performed again from the beginning.
【0008】本発明の目的は、上記従来技術の問題点を
解決し、入力されたパターンが学習時に使用したパター
ンと大きく異なり、識別、判断ができない場合であって
も適切に処理することができる階層型ニューラルネット
ワークによるパターン認識方法を提供することにある。An object of the present invention is to solve the above-mentioned problems of the prior art, and it is possible to appropriately process even when an input pattern is significantly different from a pattern used at the time of learning and cannot be identified and determined. An object of the present invention is to provide a pattern recognition method using a hierarchical neural network.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するため
本願で特許請求する発明は以下のとおりである。 (1)階層型ニューラルネットワークに画像、図形、音
声などのパターンを入力して、これらを分類、識別、判
断(以下これらを認識という)する方法において、学
習、認識の各工程を備え、学習工程では、学習すべきパ
ターンと目標値を入力して、これらについての学習によ
って得られるニューラルネットワークの各層ユニット間
の学習ずみ結合荷重に識別記号を付加して格納して蓄積
し、認識工程では上記蓄積された結合荷重を指定し、指
定された結合荷重を用いて認識すべきパターンについて
の認識処理を行ない、その結果得られた出力値と、用い
た結合荷重を得るための学習工程での目標値とに基づい
て、それぞれの結合荷重を用いて計算して得られるそれ
ぞれのパターン誤差の最小値を一時記憶しておき、指定
されたすべての結合荷重を用いて得られた上記パターン
誤差最小値の中からさらに最小なパターン誤差最小値を
求め、そのパターン誤差最小値があらかじめ予定された
許容値以下であれば、このパターン誤差最小値に関する
学習用パターン、またはその目標値を最終認識結果とし
て出力し、許容値以下でなければ認識不可としてメッセ
ージを発することを特徴とする階層型ニューラルネット
ワークによるパターンの認識方法。The invention claimed in this application to achieve the above object is as follows. (1) A method of inputting patterns such as images, figures, and voices into a hierarchical neural network and classifying, identifying, and judging them (hereinafter, referred to as recognition) includes learning and recognition steps. Then, a pattern to be learned and a target value are inputted, and a learning connection weight between each layer unit of the neural network obtained by learning about these is added with an identification symbol, stored and stored. The specified connection weight is specified, the recognition process is performed for the pattern to be recognized using the specified connection weight, the output value obtained as a result, and the target value in the learning process for obtaining the connection weight used. And temporarily store the minimum value of each pattern error obtained by using each of the connection weights based on The minimum value of the pattern error is obtained from the minimum values of the pattern errors obtained using the weights, and if the minimum value of the pattern error is equal to or less than a predetermined allowable value, the learning for the minimum value of the pattern error is performed. A pattern recognition method using a hierarchical neural network, characterized in that a pattern or a target value thereof is output as a final recognition result, and if the value is not smaller than an allowable value, a message is issued that the pattern cannot be recognized.
【0010】(2)階層型ニューラルネットワークに画
像、図形、音声などのパターンを入力して、これらを認
識する方法において、学習、認識、評価の各工程を備
え、学習工程での学習パターンと目標値を入力して、そ
れらについての学習によって得られたニューラルネット
ワーク各層のユニット間の学習ずみ結合荷重に識別記号
を付加して順次格納して蓄積し、認識工程では上記蓄積
された結合荷重の中から使用するものを指定し、指定さ
れた結合荷重を用いて認識すべきパターンについての認
識処理を行ない、評価工程では、上記処理の結果得られ
た出力値と、使用した結合荷重を求めるための学習パタ
ーン学習時に用いた目標値とのパターン誤差のうちの最
小のものを求め、このパターン誤差があらかじめ予定さ
れた許容値以下であれば、その学習パターンと目標値お
よび最小パターン誤差を一時記憶しておき、指定したす
べての結合荷重を用いて得られた上記記憶されたパター
ン誤差最小値の中からさらに最小なパターン誤差と目標
値との組を求め、これを最適な認識結果として出力し、
最小パターン誤差と目標値の組が一組も記憶されていな
い場合は認識不可のメッセージを発することを特徴とす
る階層型ニューラルネットワークによるパターン認識方
法。(2) A method of inputting a pattern such as an image, a figure, and a sound into a hierarchical neural network and recognizing the pattern includes learning, recognition, and evaluation steps. Input the values, add the identification symbol to the learned connection weights between the units of each layer of the neural network obtained by learning about them, store them sequentially, and accumulate them. From the specified, to perform the recognition processing for the pattern to be recognized using the specified coupling weight, in the evaluation step, the output value obtained as a result of the above processing and the coupling weight used to determine the used Find the minimum pattern error from the target value used during learning pattern learning, and determine that this pattern error is less than or equal to a predetermined allowable value. For example, the learning pattern, the target value, and the minimum pattern error are temporarily stored, and the minimum pattern error and the target value are further reduced from the stored pattern error minimum values obtained using all the specified connection weights. And output this as the optimal recognition result.
A pattern recognition method using a hierarchical neural network, characterized in that when no set of a minimum pattern error and a target value is stored, a message indicating that recognition is impossible is issued.
【0011】(3)階層型ニューラルネットワークに画
像、図形、音声などのパターンを入力して、これらを認
識する方法において、初期学習、認識、評価、追加学習
の各工程を備え、初期学習と追加学習工程では学習パタ
ーンと目標値とを入力して、学習パターンについての学
習によって得られたニューラルネットワーク各層ユニッ
ト間の学習済み結合荷重に識別記号を付加して格納して
蓄積し、認識工程では上記蓄積された結合荷重のなかか
ら使用するものを指定し、指定された結合荷重を用いて
認識すべきパターンについての認識を行ない、評価工程
では上記認識工程で得られた出力と、使用した結合荷重
を求めるための学習パターン学習時に用いた目標値との
パターン誤差のうちの最小のものを求め、このパターン
誤差があらかじめ予定された許容値以下であれば、その
学習パターンと目標値および最小パターン誤差を一時記
憶しておき、指定したすべての結合荷重を用いて得られ
た上記パターン誤差最小値の中からさらに最小なパター
ン誤差と目標値の組を求め、これを最適な認識結果とし
て出力し、最小パターン誤差と目標値の組が一組も記憶
されていない場合はパターン認識不可のメッセージを出
力するとともに、当該認識不可パターンを記憶して記憶
個数が所定個数に達すると、追加学習工程にてこれらの
パターンをまとめて追加学習を行ない、得られた各層ユ
ニット間の結合荷重について識別記号を付加して蓄積す
ることを特徴とする階層型ニューラルネットワークによ
るパターン認識方法。(3) A method of inputting a pattern such as an image, a figure, and a voice into a hierarchical neural network and recognizing the pattern includes initial learning, recognition, evaluation, and additional learning. In the learning step, a learning pattern and a target value are input, and an identification symbol is added to the learned connection weight between the layer units of the neural network obtained by learning about the learning pattern, which is stored and accumulated. From the accumulated connection weights, the one to be used is specified, and the pattern to be recognized is recognized using the specified connection weight. In the evaluation step, the output obtained in the above recognition step and the connection weight used are used. The minimum pattern error from the target value used in learning the pattern is calculated. If it is equal to or less than the specified allowable value, the learning pattern, the target value, and the minimum pattern error are temporarily stored, and the minimum value among the pattern error minimum values obtained using all the specified coupling weights is further reduced. A set of a pattern error and a target value is obtained and output as an optimum recognition result. If no set of the minimum pattern error and the target value is stored, a message indicating that the pattern cannot be recognized is output and When an unacceptable pattern is stored and the number of storages reaches a predetermined number, these patterns are collectively subjected to additional learning in an additional learning step, and an identification symbol is added to the obtained coupling load between the layer units and accumulated. A pattern recognition method using a hierarchical neural network.
【0012】[0012]
【実施例】図1に本発明の一実施例である階層型ニュー
ラルネットワークによるパターン認識方法に用いる装置
の全体構成機能図を示す。1は本発明の中心的な機能を
もつ階層型ニューラルネットワーク処理装置である。2
はパターン入力装置である。3は学習用パターンを格納
する装置、4は階層型ニューラルネットワークの出力の
目標値を格納する装置、5は学習済みの結合荷重を格納
する装置、6は追加学習用のパターンを格納する装置で
ある。また階層型ニューラルネットワーク処理装置1に
はディスプレイ7とキーボードおよびマウス8が接続さ
れる。階層型ニューラルネットワーク装置の動作と機能
を説明するため、ディスプレイ7に表示される図2、図
3、図4、図5の操作画面を示しながら図1を用いて、
以下詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a functional block diagram of an apparatus used in a pattern recognition method using a hierarchical neural network according to an embodiment of the present invention. Reference numeral 1 denotes a hierarchical neural network processing device having a central function of the present invention. 2
Is a pattern input device. 3 is a device for storing learning patterns, 4 is a device for storing target values of the output of the hierarchical neural network, 5 is a device for storing learned connection weights, and 6 is a device for storing patterns for additional learning. is there. A display 7, a keyboard and a mouse 8 are connected to the hierarchical neural network processing device 1. In order to explain the operation and function of the hierarchical neural network device, FIG. 1 is used while showing the operation screens of FIG. 2, FIG. 3, FIG. 4, and FIG.
This will be described in detail below.
【0013】本装置を起動すると図1の制御および画面
表示ルーチン100によりディスプレイ7に図2に示す
ような操作画面が表示される。「初期学習」、「認識」
または「追加学習」の1つをマウスでクリックすると本
ニューラルネットワーク装置は選択されたモードにな
る。「初期学習」を選択すると図1の制御および画面表
示ルーチン100により図3に示すような初期学習モー
ドの操作指示や設定を行なうメニューが表示される。
「パラメータ設定」メニューをマウスでクリックすると
一点鎖線で囲まれたサブメニューが表れる。オペレータ
はこのサブメニューを見ながらキーボードおよびマウス
8を用いて階層型ニューラルネットワークの構成や学習
用パターンの個数または学習用パラメータなどを設定す
る。これらの設定値はパラメータ設定ルーチン101に
より取り込まれる。設定が終わったら「設定完了」をク
リックすると「パラメータ設定」メニューが完了する。When the apparatus is started, an operation screen as shown in FIG. 2 is displayed on the display 7 by the control and screen display routine 100 shown in FIG. "Initial learning", "Recognition"
Alternatively, when one of the “additional learning” is clicked with a mouse, the neural network apparatus enters a selected mode. When "initial learning" is selected, a menu for operating instructions and setting of the initial learning mode as shown in FIG. 3 is displayed by the control and screen display routine 100 of FIG.
Clicking the "Parameter setting" menu with the mouse will display a submenu surrounded by a dashed line. The operator sets the configuration of the hierarchical neural network, the number of learning patterns, the learning parameters, and the like using the keyboard and the mouse 8 while viewing this submenu. These setting values are taken in by the parameter setting routine 101. When the setting is completed, click “Setting Complete” to complete the “Parameter Setting” menu.
【0014】つぎに図3の「学習用パターンおよび目標
値設定」を選択する。これが選択されるとサブメニュー
が表示される。「パターン指定」でパターン番号を指定
すると該当する学習用パターンが図1のパターン設定ル
ーチン102によりパターン入力装置2から入力されデ
ィスプレイ7に表示される。「目標値設定」サブメニュ
ーによりオペレータは表示されているパターンに対する
目標値を設定する。「目標値設定」サブメニューは図1
の目標値設定ルーチン103を起動し、設定された目標
値に対し表示パターンに対応する組であることを示すパ
ターン番号または記号を付加し、表示パターンは学習パ
ターン格納装置3に格納され、設定された目標値は目標
値格納装置4に格納される。この操作は「パラメータ設
定」で設定したパターン個数回繰り返えされ、「設定完
了」をクリックすることにより「学習用パターンおよび
目標値設定」が終了する。このあと「学習」を選択す
る。「学習」が選択されると制御および画面表示ルーチ
ン100は学習ルーチン105を起動する。学習ルーチ
ン105は学習用パターン格納装置3と目標値格納装置
4から組になった学習用パターンとその目標値を順次取
り込み、誤差逆伝搬法による学習を行なう。学習中は学
習回数や総合誤差の減少状態等の学習過程をディスプレ
イ7に表示する。学習が完了するとディスプレイ7に
「学習完了」が表示される。学習が成功しない場合や学
習速度を向上させたい場合には、「学習中止」を選択し
て再度「パラメータ設定」に戻ってパラメータを変更し
再学習させることも可能である。学習が完了すると、
「結合荷重識別記号設定」を選択する。これは、学習済
みの結合荷重に識別記号を付加してその後の認識に有効
に利用するためである。「識別記号一覧」サブメニュー
をクイックすると、これまで設定された識別記号の一覧
表が画面に表われるのでオペレータはこの一覧表を参照
して「識別記号設定」メニューにより当該学習済み結合
荷重に識別記号をキーボード8を用いて設定する。「設
定完了」がクリックされると当該学習済み結合荷重は設
定された識別記号を付加されて学習済み結合荷重格納装
置5に格納され画面は図2に戻る。以上が初期学習モー
ドにおける処理である。Next, "learning pattern and target value setting" in FIG. 3 is selected. When this is selected, a submenu is displayed. When a pattern number is designated by "pattern designation", the corresponding learning pattern is inputted from the pattern input device 2 by the pattern setting routine 102 of FIG. The operator sets a target value for the displayed pattern using the “target value setting” submenu. Fig. 1 shows the "Target value setting" submenu.
Is started, and a pattern number or a symbol indicating a set corresponding to the display pattern is added to the set target value, and the display pattern is stored and set in the learning pattern storage device 3. The obtained target value is stored in the target value storage device 4. This operation is repeated the number of times set in the “parameter setting”, and “setting of learning pattern and target value” is completed by clicking “setting completed”. After that, select "learning". When “learning” is selected, the control and screen display routine 100 starts a learning routine 105. The learning routine 105 sequentially takes in a set of learning patterns and their target values from the learning pattern storage device 3 and the target value storage device 4 and performs learning by the error back propagation method. During the learning, the learning process such as the number of times of learning and the state of reduction of the total error is displayed on the display 7. When the learning is completed, “learning completed” is displayed on the display 7. If learning is not successful or if it is desired to improve the learning speed, it is possible to select "stop learning", return to "parameter setting" again, change the parameters, and re-learn. When learning is complete,
Select “Coupling load identification symbol setting”. This is because an identification symbol is added to the learned connection weight and is effectively used for subsequent recognition. When you click the “Identification Symbol List” submenu, a list of identification symbols that have been set appears on the screen. The operator refers to this list and identifies the learned connection weight using the “Identification Symbol Setting” menu. The symbol is set using the keyboard 8. When "setting completed" is clicked, the learned connection weight is added with the set identification symbol and stored in the learned connection weight storage device 5, and the screen returns to FIG. The above is the processing in the initial learning mode.
【0015】つぎに、認識モードについて説明する。デ
ィスプレイ7に表示された図2で「認識」を選択する
と、認識モードに移行し図4に示すメニューが表示され
る。「荷重識別記号指定」は、学習済み結合荷重格納装
置5に格納されている学習済み結合荷重の識別記号を指
定することにより、認識ルーチン106で使用する学習
済み結合荷重を決めるためである。「荷重識別記号指
定」を選択すると一点鎖線で囲まれた「識別記号一
覧」、「一括指定」、「個別指定」、「範囲指定」、
「論理式指定」などのサブメニューが表われる。「識別
記号一覧」は初期学習モードの「結合荷重識別記号設
定」でこれまで設定された識別記号の一覧表を表示す
る。この一覧表を参照して認識に用いる結合荷重を以下
のように指定する。「一括指定」は登録されている全て
の識別記号を指定する場合に選択する。「個別指定」は
任意の個数で個別的に識別記号を指定する時に選ぶ。
「範囲指定」では識別記号が連続する自然数で登録され
ている時に識別記号を範囲で指定する場合に選択する。
「論理式指定」は識別記号を数字やキーワードの組合わ
せでつけている場合に論理和や論理積などを組み合わせ
た論理式によって指定する時に用いる。オペレータは上
記の適当なサブメニューをクリックして学習済み結合荷
重の識別記号を設定する。「指定完了」をクリックする
と「識別記号指定」は完了する。Next, the recognition mode will be described. When "recognition" is selected in FIG. 2 displayed on the display 7, the mode shifts to the recognition mode and the menu shown in FIG. 4 is displayed. The “designation of load identification symbol” is for determining the learned coupling weight used in the recognition routine 106 by specifying the identification symbol of the learned coupling weight stored in the learned coupling load storage device 5. If you select "Load identification code designation", "Identification symbol list", "Batch designation", "Individual designation", "Range designation",
A submenu such as "Logical expression designation" appears. The “list of identification symbols” displays a list of identification symbols set so far in “setting of coupling weight identification symbols” in the initial learning mode. With reference to this list, the connection weight used for recognition is specified as follows. "Batch designation" is selected when all registered identification symbols are designated. "Individual designation" is selected when an arbitrary number of individual identification symbols are designated.
“Specify range” is selected when the identification symbol is specified as a range when the identification symbol is registered as a continuous natural number.
"Designation of logical formula" is used when specifying an identification symbol by a logical formula in which a logical sum, a logical product, and the like are combined when the identification symbol is given by a combination of numbers and keywords. The operator clicks the appropriate submenu described above to set the learned connection weight identification symbol. Clicking "Specification Complete" completes "Identification Symbol Specification".
【0016】つぎに「認識」を選択する。制御および画
面表示ルーチン100は「認識」の選択により、認識処
理ルーチン106に対して、認識動作を実施する指令を
発する。すなわち、学習済み結合荷重格納装置5から指
定された識別記号をもつ学習済み結合荷重を取り込み、
つぎにパターン入力装置2から認識用パターンを入力し
認識するように指示をする。以下、認識モードで動作す
る認識ルーチン106と評価ルーチン107および追加
学習パターン処理ルーチン108は相互に関連するので
図6に示すフローチャートを用いて説明する。まず、図
6の601の結合荷重識別記号指定は図4の「識別記号
指定」に対応する。ここでは例えば「範囲指定」で識別
記号ID=1〜Mと指定するとすると、これは識別記号
ID=1〜MをもつM個の学習済み結合荷重WT(ID
=1〜M)を用いて認識対象のパターンに対して認識を
行なうことになる。602で最初の認識用パターン番号
N P =1を設定する。603では601で指定された最
初の識別記号ID=1をセットする。604では学習済
み結合荷重WT(ID=1)を学習済み結合荷重格納装
置5から認識処理ルーチン106に読み込む。605で
は602でセットされた最初の認識のためのパターン
(NP =1)をパターン入力装置2から入力し認識処理
ルーチン106に読み込む。606の出力計算で最初の
パターン(NP=1)に対し学習済み荷重WT(ID=
1)を用いてニューラルネットワークの出力yk Np(N
P =1)、(k=1〜K)を計算する。以上までが図1
の認識処理ルーチン106の処理である。以下からは評
価処理ルーチン107の処理となる。607の評価では
学習済み荷重WT(ID=1)を求める時に入力した目
標値tk P ((k=1〜K)、(学習用パターンp=1
〜P))の中でこのニューラルネットワーク出力yk Np
((NP =1)、(k=1〜K))に最も近いものが存
在するかどうかを評価する。その方法としてはすでに説
明した下記のパターン誤差ε(p)を用いる。Next, "recognition" is selected. Control and painting
The face display routine 100 selects the “recognition” to execute the recognition processing.
Command to execute the recognition operation to the
Emit. That is, the finger from the learned connection load storage device 5
Captures the learned connection weights with defined identification symbols,
Next, a recognition pattern is input from the pattern input device 2.
Give instructions to recognize. Hereinafter, it operates in the recognition mode.
Recognition routine 106 and evaluation routine 107 and additional
Since the learning pattern processing routines 108 are interrelated,
This will be described with reference to the flowchart shown in FIG. First, figure
No. 6 601 designation of the connection load identification code is shown in FIG.
Designation ”. Here, for example, "Specify range"
If the symbol ID = 1 to M is specified, this is the identification symbol
M learned connection weights WT with ID = 1 to M (ID
= 1 to M) to recognize the pattern to be recognized.
Will do it. 602 is the first pattern number for recognition
N P= 1 is set. In 603, the maximum specified in 601
First identification code ID = 1 is set. Learned in 604
Only the connection weight WT (ID = 1) has been learned.
The recognition processing routine 106 is read from the device 5. At 605
Is the pattern for the first recognition set in 602
(NP= 1) from the pattern input device 2 for recognition processing
Read into routine 106. First in 606 output calculation
Pattern (NP= 1) for the learned load WT (ID =
Output y of neural network using 1)k Np(N
P= 1) and (k = 1 to K). Fig. 1
Of the recognition processing routine 106 of FIG. The following reviews
This is the processing of the price processing routine 107. With a 607 rating
Eyes entered when finding the learned load WT (ID = 1)
Standard value tk P((K = 1 to K), (learning pattern p = 1
~ P)) this neural network output yk Np
((NP= 1), (k = 1 to K))
Evaluate whether it is present. The method is already explained
The following pattern error ε (p) is used.
【0017】[0017]
【数3】 (Equation 3)
【0018】評価処理ルーチン107では上式のyk Np
には606の出力計算で求めたyk Np((NP =1)、
(k=1〜K))を用い、学習用パターンp=1〜Pに
対するユニットk(k=1〜K)の目標値tk P ((k
=k〜K)、(学習用パターンp=1〜P))を用いて
パターン誤差ε(p)を計算する。こうして得られたP
個のパターン誤差ε(p)の中での最小ε(p)となる
パターンPmin を求める。すなわちMin{ε(p)|p
=1〜P}となるパターンPmin を求める。このパター
ンPmin の最小パターン誤差ε(Pmin )が規定値以下
であれば、パターンPmin と組となっている目標値tk
P (p=Pmin )およびその最小パターン誤差ε(Pmi
n )を認識結果として609で一時記憶する。規定値以
下の最小パターン誤差ε(Pmin )が存在しなければ、
608でつぎの結合荷重識別記号をセットし、604、
605、606、607で同様な処理をする。最初の認
識用パターン(Np =1)に対して601で設定された
全ての学習済み結合荷重を使用したかを610で判定
し、まだ未使用の学習済み結合荷重が残っていれば、6
08でつぎの学習済み結合荷重を指定し同様な処理を繰
り返す。指定した全ての学習済み結合荷重を使用した
後、611では609で認識結果として一時記憶してい
た目標値tp k (p=Pmin )と最小パターン誤差ε
(Pmin )が何組記憶されているかを調べる。目標値と
最小パターン誤差が1組だけ記憶されていれば613で
これを最終認識結果として制御および画面表示ルーチン
100を経由してディスプレイ7に出力する。これが図
4の「認識」のサブメニュー「認識結果」に対応する。
サブメニュー「認識確認」をクリックするとつぎのパタ
ーンの認識に進む。記憶された目標値と最小パターン誤
差が2組以上の場合は、612で最小パターン誤差の中
でさらに最も小さい最小パターン誤差と目標値の組を探
索しこれを最適な認識結果として613で出力する。こ
れも図4の「認識」のサブメニュー「認識結果」に対応
する。サブメニュー「認識確認」をクリックするとつぎ
のパターンの認識に進む。目標値と最小パターン誤差が
1組も記憶されていない場合は、このパターンに対して
は認識ができないことになり、図4の「認識」のサブメ
ニュー「認識不可メッセージ」、「追加学習パターン格
納」に示しているように616で「認識不可」のアラー
ムを発する。以上までが図1の評価処理ルーチン107
の処理である。In the evaluation processing routine 107, y k Np
, Y k Np ((N P = 1) obtained by the output calculation of 606,
(K = 1 to K)), and a target value t k P ((k) of the unit k (k = 1 to K) for the learning patterns p = 1 to P
= K to K) and (learning pattern p = 1 to P)) to calculate the pattern error ε (p). P thus obtained
The pattern Pmin which has the minimum ε (p) among the pattern errors ε (p) is obtained. That is, Min {ε (p) | p
= 1 to P}. If the minimum pattern error ε of the pattern Pmin (Pmin) is less than the specified value, the target value t k which is a pattern Pmin and set
P (p = Pmin) and its minimum pattern error ε (Pmi
n) is temporarily stored at 609 as a recognition result. If there is no minimum pattern error ε (Pmin) below the specified value,
At 608, the next coupling load identification symbol is set, and at 604,
Similar processing is performed in 605, 606, and 607. It is determined at 610 whether all the learned connection weights set at 601 have been used for the first recognition pattern (N p = 1), and if an unused learned connection weight still remains, 6
At 08, the next learned connection weight is designated and the same processing is repeated. After using all specified the learned connection weights, the target value has been temporarily stored as the recognition result at 611 in 609 t p k (p = Pmin ) and minimum pattern error ε
It is checked how many (Pmin) are stored. If only one set of the target value and the minimum pattern error is stored, this is output to the display 7 via the control and screen display routine 100 as a final recognition result at 613. This corresponds to the “recognition result” submenu of “recognition” in FIG.
Clicking on the submenu "Recognition confirmation" proceeds to the recognition of the next pattern. If the stored target value and minimum pattern error are two or more pairs, the smallest set of the minimum pattern error and the target value is searched for in 612, and this is output as the optimum recognition result in 613. . This also corresponds to the "recognition result" submenu of "recognition" in FIG. Clicking on the submenu "Recognition confirmation" proceeds to the recognition of the next pattern. If no set of the target value and the minimum pattern error is stored, this pattern cannot be recognized, and the sub menu “recognition unrecognizable message” of “recognition” in FIG. ", An alarm of" unrecognizable "is issued at 616. The above is the evaluation processing routine 107 of FIG.
This is the process.
【0019】以下から追加パターン格納処理ルーチン1
08の処理に移る。追加パターン格納処理ルーチン10
8では、このあとの追加学習のために認識不可パターン
を記憶する。617で記憶する認識不可パターンの個数
をカウントし、618でこのカウント値が規定値N以下
であれば619で認識不可パターンを記憶し614でつ
ぎのパターンの認識に進む。618でこのカウント値が
規定値Nに達すれば、図4の「認識」のサブメニュー
「追加学習メッセージ」に示すように、620で「追加
学習メッセージ」を出力し認識モードを終了させる。以
上までが図1の追加学習パターン格納処理ルーチン10
8の処理である。このような処理を認識用パターン(N
P =1〜NP)に対して順次実施する。認識を終える場
合は図4の「認識完了」をマウスでクリックすると画面
は図2に戻る。ここで、再度「初期学習」または「認
識」を選んで実行することも可能である。620で図4
の「認識」のサブメニュー「追加学習メッセージ」が出
力されてた場合は図2の「追加学習」を選択すると、図
5のメニューが表われる。「パターン個数設定」では、
追加学習用パターン格納装置6に格納されているN個の
「認識不可」パターンの内の何個を追加学習用パターン
として使用するかを設定する。「パターン転送」をクリ
ックすると「パターン個数設定」で設定された個数の
「認識不可」パターンが追加学習パターン格納処理ルー
チン108により追加学習用パターン格納装置6から学
習用パターン格納装置3に転送される。以下「パラメー
タ設定」、「学習用パターンおよび目標値設定」、「学
習」、「結合荷重識別記号設定」の各メニューは初期学
習モードの場合と同じであるから説明は省略する。The additional pattern storage processing routine 1 will be described below.
Move to the processing of 08. Additional pattern storage processing routine 10
In step 8, an unrecognizable pattern is stored for additional learning thereafter. At 617, the number of unrecognizable patterns to be stored is counted. At 618, if the count value is equal to or smaller than the specified value N, the unrecognizable patterns are stored at 619, and the process proceeds to recognition of the next pattern at 614. If the count value reaches the specified value N at 618, as shown in the submenu "additional learning message" of "recognition" in FIG. 4, "additional learning message" is output at 620 and the recognition mode is ended. Up to this point, the additional learning pattern storage processing routine 10 of FIG.
8 is the process. Such processing is performed using the recognition pattern (N
P = 1 to NP). To end the recognition, click "Recognition Complete" in FIG. 4 with the mouse, and the screen returns to FIG. Here, it is also possible to select and execute “initial learning” or “recognition” again. FIG. 4 at 620
If the "recognition" submenu "additional learning message" is output, selecting "additional learning" in FIG. 2 causes the menu in FIG. 5 to appear. In “Pattern number setting”,
It sets how many of the N “unrecognizable” patterns stored in the additional learning pattern storage device 6 are used as the additional learning patterns. When "pattern transfer" is clicked, the number of "unrecognizable" patterns set in "pattern number setting" is transferred from the additional learning pattern storage device 6 to the learning pattern storage device 3 by the additional learning pattern storage processing routine 108. . Hereinafter, the menus of “parameter setting”, “learning pattern and target value setting”, “learning”, and “coupling load identification symbol setting” are the same as those in the initial learning mode, and thus description thereof will be omitted.
【0020】[0020]
【発明の効果】階層型ニューラルネットワーク装置によ
って画像や図形、音声などのパターンを認識する場合
に、認識が不可の時は追加学習のためその認識不可パタ
ーンを記憶してあとで学習用パターンとして追加学習を
行ない、追加学習によって得られた結合荷重を順次蓄積
してその後のパターン認識に利用することが可能なの
で、従来行なわれているような認識不可パターンを含め
た学習を最初からやり直しすることが不要になり、また
蓄積された結合荷重を任意に、かつ適切に指定してパタ
ーン認識に活用できるので認識能力の向上を図ることが
可能となる。According to the present invention, when a pattern such as an image, a figure, and a sound is recognized by the hierarchical neural network device, if the recognition is not possible, the unrecognizable pattern is stored for additional learning and added as a learning pattern later. Learning can be performed, and the connection weights obtained by the additional learning can be sequentially accumulated and used for subsequent pattern recognition.Therefore, it is possible to restart the learning including the unrecognizable pattern, which is conventionally performed, from the beginning. It becomes unnecessary, and the accumulated coupling weight can be arbitrarily and appropriately specified and used for pattern recognition, so that the recognition ability can be improved.
【図1】本発明の実施例の全体図。FIG. 1 is an overall view of an embodiment of the present invention.
【図2】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。FIG. 2 is a display diagram of a screen showing a menu of operations, settings, processing results, and the like of the hierarchical neural network device in the present invention.
【図3】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。FIG. 3 is a display diagram of a screen showing a menu of operations, settings, processing results, and the like of the hierarchical neural network device in the present invention.
【図4】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。FIG. 4 is a display diagram of a screen showing a menu of operations, settings, processing results, and the like of the hierarchical neural network device in the present invention.
【図5】本発明において階層型ニューラルネットワーク
装置の操作、設定、処理結果などのメニューを示した画
面の表示図。FIG. 5 is a display diagram of a screen showing a menu of operations, settings, processing results, and the like of the hierarchical neural network device in the present invention.
【図6】本発明の実施例における認識、評価、追加学習
の処理系統図。FIG. 6 is a processing system diagram of recognition, evaluation, and additional learning in the embodiment of the present invention.
1…階層型ニューラルネットワーク処理装置、2…パタ
ーン入力装置、3…学習用パターン格納装置、4…目標
値格納装置、5…学習済み結合荷重格納装置、6…追加
学習用パターン格納装置、7…ディスプレイ、8…キー
ボードおよびマウス、100…制御および画面表示ルー
チン、101…パラメータ設定ルーチン、102…パタ
ーン設定ルーチン、103…目標値設定ルーチン、10
5…学習処理ルーチン、106…認識処理ルーチン、1
07…評価処理ルーチン、108…追加学習パターン格
納処理ルーチン。DESCRIPTION OF SYMBOLS 1 ... Hierarchical neural network processing apparatus, 2 ... Pattern input apparatus, 3 ... Learning pattern storage apparatus, 4 ... Target value storage apparatus, 5 ... Learned connection load storage apparatus, 6 ... Additional learning pattern storage apparatus, 7 ... Display 8 Keyboard and mouse 100 Control and screen display routine 101 Parameter setting routine 102 Pattern setting routine 103 Target value setting routine 10
5: learning processing routine, 106: recognition processing routine, 1
07 ... Evaluation processing routine, 108 ... Additional learning pattern storage processing routine.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−290013(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06N 3/00 - 3/10 ────────────────────────────────────────────────── (5) References JP-A-5-290013 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7 /00-7/60 G06N 3 / 00-3/10
Claims (3)
図形、音声などのパターンを入力して、これらを分類、
識別、判断する認識方法において、学習、認識の各工程
を備え、学習工程では、学習すべきパターンと目標値を
入力して、これらについての学習によって得られるニュ
ーラルネットワークの各層ユニット間の学習ずみ結合荷
重に識別記号を付加して格納して蓄積し、認識工程では
上記蓄積された結合荷重を指定し、指定された結合荷重
を用いて認識すべきパターンについての認識処理を行な
い、その結果得られた出力値と、用いた結合荷重を得る
ための学習工程での目標値とに基づいて、それぞれの結
合荷重を用いて計算して得られるそれぞれのパターン誤
差の最小値を一時記憶しておき、指定されたすべての結
合荷重を用いて得られた上記パターン誤差最小値の中か
らさらに最小なパターン誤差最小値を求め、そのパター
ン誤差最小値があらかじめ予定された許容値以下であれ
ば、このパターン誤差最小値に関する学習用パターン、
またはその目標値を最終認識結果として出力し、許容値
以下でなければ認識不可としてメッセージを発すること
を特徴とする階層型ニューラルネットワークによるパタ
ーンの認識方法。1. An image in a hierarchical neural network,
Enter patterns, such as shapes and sounds, classify them,
The recognition method for discriminating and judging includes learning and recognition steps. In the learning step, a pattern to be learned and a target value are input, and learned connections between the respective layer units of the neural network obtained by learning about these are provided. An identification code is added to the load, stored and stored. In the recognition step, the stored connection weight is specified, and a recognition process is performed for a pattern to be recognized using the specified connection weight. Based on the output value obtained and the target value in the learning process for obtaining the used coupling weight, the minimum value of each pattern error obtained by using the respective coupling weight is temporarily stored, From the minimum values of the pattern errors obtained by using all the specified connection weights, a further minimum value of the pattern error is obtained. If less beforehand scheduled tolerance, learning about this pattern minimum error pattern,
Alternatively, the target value is output as the final recognition result, and if the value is not less than the allowable value, a message is issued as recognizable and a message is issued.
図形、音声などのパターンを入力して、これらを認識す
る方法において、学習、認識、評価の各工程を備え、学
習工程での学習パターンと目標値を入力して、それらに
ついての学習によって得られたニューラルネットワーク
各層のユニット間の学習ずみ結合荷重に識別記号を付加
して順次格納して蓄積し、認識工程では上記蓄積された
結合荷重の中から使用するものを指定し、指定された結
合荷重を用いて認識すべきパターンについての認識処理
を行ない、評価工程では、上記処理の結果得られた出力
値と、使用した結合荷重を求めるための学習パターン学
習時に用いた目標値とのパターン誤差のうちの最小のも
のを求め、このパターン誤差があらかじめ予定された許
容値以下であれば、その学習パターンと目標値および最
小パターン誤差を一時記憶しておき、指定したすべての
結合荷重を用いて得られた上記記憶されたパターン誤差
最小値の中からさらに最小なパターン誤差と目標値との
組を求め、これを最適な認識結果として出力し、最小パ
ターン誤差と目標値の組が一組も記憶されていない場合
は認識不可のメッセージを発することを特徴とする階層
型ニューラルネットワークによるパターン認識方法。2. An image in a hierarchical neural network,
A method of inputting patterns such as figures and voices and recognizing them is provided with learning, recognition, and evaluation steps.The learning pattern and target values in the learning step are input and obtained by learning about them. An identification symbol is added to the learned connection weights between the units of each layer of the neural network, which are sequentially stored and stored. In the recognition process, one of the stored connection weights to be used is specified, and the specified connection weight is designated. In the evaluation step, a pattern error between the output value obtained as a result of the above-described processing and a target value used in learning a learning pattern for obtaining a connection weight used is performed in an evaluation step. Find the smallest one of these, and if this pattern error is less than or equal to a predetermined tolerance, the learning pattern, target value, and minimum pattern error When the time is stored, a set of the minimum pattern error and the target value is further obtained from the stored pattern error minimum values obtained using all the specified coupling weights, and this is set as the optimum recognition result. A pattern recognition method using a hierarchical neural network, comprising: outputting a non-recognizable message when no set of a minimum pattern error and a target value is stored.
図形、音声などのパターンを入力して、これらを認識す
る方法において、初期学習、認識、評価、追加学習の各
工程を備え、初期学習と追加学習工程では学習パターン
と目標値とを入力して、学習パターンについての学習に
よって得られたニューラルネットワーク各層ユニット間
の学習済み結合荷重に識別記号を付加して格納して蓄積
し、認識工程では上記蓄積された結合荷重のなかから使
用するものを指定し、指定された結合荷重を用いて認識
すべきパターンについての認識を行ない、評価工程では
上記認識工程で得られた出力と、使用した結合荷重を求
めるための学習パターン学習時に用いた目標値とのパタ
ーン誤差のうちの最小のものを求め、このパターン誤差
があらかじめ予定された許容値以下であれば、その学習
パターンと目標値および最小パターン誤差を一時記憶し
ておき、指定したすべての結合荷重を用いて得られた上
記パターン誤差最小値の中からさらに最小なパターン誤
差と目標値の組を求め、これを最適な認識結果として出
力し、最小パターン誤差と目標値の組が一組も記憶され
ていない場合はパターン認識不可のメッセージを出力す
るとともに、当該認識不可パターンを記憶して記憶個数
が所定個数に達すると、追加学習工程にてこれらのパタ
ーンをまとめて追加学習を行ない、得られた各層ユニッ
ト間の結合荷重について識別記号を付加して蓄積するこ
とを特徴とする階層型ニューラルネットワークによるパ
ターン認識方法。3. An image in a hierarchical neural network,
In the method of inputting patterns such as figures and voices and recognizing them, the method includes initial learning, recognition, evaluation, and additional learning steps. In the initial learning and additional learning steps, a learning pattern and a target value are input. In addition, an identification symbol is added to the learned connection weights between the units of the neural network obtained by learning the learning pattern and stored and stored, and in the recognition process, one of the stored connection weights to be used is specified. Then, a pattern to be recognized is recognized using the specified connection weight, and in the evaluation step, the output obtained in the above-described recognition step and the target value used during learning pattern learning for obtaining the used connection weight are used. Find the minimum of the pattern errors in the above, and if this pattern error is less than or equal to a predetermined tolerance, the learning pattern and target value And the minimum pattern error is temporarily stored, and a minimum set of the pattern error and the target value is further obtained from the minimum values of the pattern errors obtained using all the specified coupling weights, and this is determined as the optimum recognition result. If no set of the minimum pattern error and the target value is stored, a message indicating that the pattern cannot be recognized is output. A pattern recognition method using a hierarchical neural network, characterized in that additional learning is performed collectively on these patterns in a learning step, and identification codes are added to the obtained connection weights between the layer units and stored.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29360593A JP3347435B2 (en) | 1993-11-24 | 1993-11-24 | Pattern Recognition Method Using Hierarchical Neural Network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29360593A JP3347435B2 (en) | 1993-11-24 | 1993-11-24 | Pattern Recognition Method Using Hierarchical Neural Network |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07146936A JPH07146936A (en) | 1995-06-06 |
JP3347435B2 true JP3347435B2 (en) | 2002-11-20 |
Family
ID=17796881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29360593A Expired - Fee Related JP3347435B2 (en) | 1993-11-24 | 1993-11-24 | Pattern Recognition Method Using Hierarchical Neural Network |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3347435B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6658033B2 (en) * | 2016-02-05 | 2020-03-04 | 富士通株式会社 | Arithmetic processing circuit and information processing device |
CN113138005B (en) * | 2021-05-13 | 2023-07-11 | 华东理工大学 | Vehicle random load pattern recognition system based on feature extraction and neural network |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05290013A (en) * | 1992-04-06 | 1993-11-05 | Sharp Corp | Neural network arithmetic unit |
-
1993
- 1993-11-24 JP JP29360593A patent/JP3347435B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07146936A (en) | 1995-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108804319A (en) | A kind of recommendation method for improving Top-k crowdsourcing test platform tasks | |
CN110503207A (en) | Federation's study credit management method, device, equipment and readable storage medium storing program for executing | |
CN110163647A (en) | A kind of data processing method and device | |
JP2002092305A (en) | Score calculating method, and score providing method | |
CN110175990A (en) | Quality of human face image determination method, device and computer equipment | |
CN106910065A (en) | Data processing method, the apparatus and system of the settlement of exchange amount of money are calculated based on many transactions | |
CN112860756A (en) | Exercise test-based learning resource recommendation method and device and computer equipment | |
WO2021135322A1 (en) | Automatic question setting method, apparatus and system | |
CN110070431A (en) | User is counter to cheat implementation method, device, computer equipment and storage medium | |
CN109582581A (en) | A kind of result based on crowdsourcing task determines method and relevant device | |
JP3347435B2 (en) | Pattern Recognition Method Using Hierarchical Neural Network | |
CN114817222A (en) | Method, device and equipment for optimizing quantum table and storage medium | |
JP6875445B2 (en) | Information processing equipment, information processing methods and programs | |
CN111858275A (en) | Method, device, equipment and storage medium for identifying abnormal media behaviors | |
JPH06274660A (en) | Recognizing or diagnosing method | |
JP2002099319A (en) | Plant diagnosing device | |
CN110516258A (en) | Data verification method and device, storage medium, electronic device | |
CN115293275A (en) | Data identification method and device, electronic equipment and storage medium | |
JP2001155081A (en) | Policy of security measure preparing device | |
CN113032426A (en) | Intelligent verification method, device and equipment for identification result and storage medium | |
CN112396498A (en) | Commodity sales promotion method, device, equipment and storage medium | |
JP2606952B2 (en) | Equipment for determining whether steel products can be manufactured | |
JP2699622B2 (en) | Pattern learning device | |
JPH1021064A (en) | Method and device for supporting acquisition of system specification | |
CN114417136B (en) | User object recommendation method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |