JPH0836643A - Learning method by neural net in image recognition - Google Patents

Learning method by neural net in image recognition

Info

Publication number
JPH0836643A
JPH0836643A JP6174109A JP17410994A JPH0836643A JP H0836643 A JPH0836643 A JP H0836643A JP 6174109 A JP6174109 A JP 6174109A JP 17410994 A JP17410994 A JP 17410994A JP H0836643 A JPH0836643 A JP H0836643A
Authority
JP
Japan
Prior art keywords
learning
image
pattern
image recognition
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6174109A
Other languages
Japanese (ja)
Inventor
Kazutaka Ikeda
和隆 池田
Yoshimasa Fujiwara
祥雅 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP6174109A priority Critical patent/JPH0836643A/en
Publication of JPH0836643A publication Critical patent/JPH0836643A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a learning method by a neural net in image recognition in which a pattern of an image is flexibly and accurately recognized almost without additional learning by having only to register an image of a standard pattern. CONSTITUTION:An image input device 2 picks up an image of an image pickup object 1 on which a standard character is drawn and the image data are A/D- converted and stored once in a frame memory 3. Based on the image of the standard pattern to be stored, an image (1) with an expanded pattern in which character lines are thickened through expansion, an image (2) of a contracted pattern in which character lines are thinned through contraction, and an image (3) whose characters are reduced in the vertical and horizontal directions are generated and the generated images (1)-(3) are stored in a frame memory 5 for generated image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像認識におけるニュ
ーラルネットによる学習方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning method using a neural network in image recognition.

【0002】[0002]

【従来の技術】従来ニューラルネットによる学習方法用
いた画像処理装置では、正解として判断したい画像のパ
ターンデータを全て取り込み、登録して学習していた。
2. Description of the Related Art Conventionally, in an image processing apparatus using a learning method using a neural network, all pattern data of an image to be judged as a correct answer is fetched, registered and learned.

【0003】[0003]

【発明が解決しようとする課題】上記のように正解とし
て判断したい画像のパターンデータを全て取り込み、登
録して学習する方法では、正解とすべき画像を全て画像
入力装置から取り込まなければならず、サンプルとして
その画像が無ければ、登録できなかった。そのためサン
プルが揃うまでは完全な学習は完成せず、判定ミスがあ
る毎にその画像を追加登楼し、再学習させていた。しか
しこの方法では再学習中は判断処理ができず、実用上問
題であった。
In the method of taking in all the pattern data of the image to be judged as the correct answer and registering and learning as described above, all the images to be the correct answer must be taken in from the image input device, I couldn't register without that image as a sample. Therefore, complete learning was not completed until the samples were prepared, and every time there was a mistake in judgment, the image was additionally climbed and relearned. However, this method cannot be used for judgment during re-learning, which is a practical problem.

【0004】またニューラルネットでのバックプロパー
ゲションによる学習では学習にかける入力パターンから
計算して理想値との誤差を算出し、その数値より学習の
進行を判断している。つまり学習にかける全ての入力パ
ターンの誤差の平均を算出して、その平均値がある程度
小さくなったら学習完了と判断していたが、この方法で
はあるパターンのみが学習できていなくても平均化され
て平均値が小さくなり学習が終了してしまう場合が起き
る。また誤差の最悪値で完了を判断していると、良く学
習できているものが、過剰に学習してしまうという問題
もあった。
In learning by back-propagation in a neural network, an error from an ideal value is calculated by calculating from an input pattern for learning, and the progress of learning is judged from the numerical value. In other words, we calculated the average of the errors of all input patterns to be learned, and judged that the learning was completed when the average value became small to some extent, but with this method even if only a certain pattern could not be learned, it is averaged. As a result, the average value becomes small and learning may end. In addition, when the completion is judged by the worst value of the error, there is a problem that what is learned well is over-learned.

【0005】本発明は上記問題点に鑑みて為されたもの
で、請求項1乃至請求項3の発明の目的とするところ
は、標準パターンの画像を登録するだけで、殆ど追加学
習無しに、柔軟且つ正確に画像のパターンを認識するこ
とができる画像認識におけるニューラルネットの学習方
法を提供するにある。請求項4の発明の目的とするとこ
ろは、請求項1の発明の目的に加えて、きめ細かく学習
を進行させることができる画像認識におけるニューラル
ネットの学習方法を提供するにある。
The present invention has been made in view of the above problems, and an object of the inventions of claims 1 to 3 is to register an image of a standard pattern, with almost no additional learning. It is another object of the present invention to provide a learning method of a neural network in image recognition, which can flexibly and accurately recognize an image pattern. The object of the invention of claim 4 is, in addition to the object of the invention of claim 1, to provide a learning method of a neural network in image recognition, which enables detailed learning to proceed.

【0006】請求項5の発明の目的とするところは、請
求項1の発明の目的に加えて、学習を高速に進行させる
ことができる画像認識におけるニューラルネットの学習
方法を提供するにある。請求項6の発明の目的とすると
ころは、確実十分な学習を行い且つ過剰学習となる前に
学習完了を自動的に判断することが可能な画像認識にお
けるニューラルネットの学習方法を提供するにある。
The object of the invention of claim 5 is, in addition to the object of the invention of claim 1, to provide a learning method of a neural network in image recognition, which enables learning to proceed at high speed. It is an object of the invention of claim 6 to provide a learning method of a neural network in image recognition, which can surely perform sufficient learning and can automatically determine the completion of learning before over-learning. .

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明では、学習作業に入る前に、画像入力
装置により撮像した所定パータンの画像を正解パターン
の標準として登録し、その標準パターンの画像を基に画
像認識において許容範囲と想定される膨張パターン、収
縮パターン、圧縮パターン等の変形パターンの画像を生
成登録し、この生成登録した画像を学習にかけることを
特徴とする。
In order to achieve the above object, according to the invention of claim 1, before starting the learning work, an image of a predetermined pattern taken by the image input device is registered as a standard of the correct answer pattern, and It is characterized in that an image of a deformation pattern such as an expansion pattern, a contraction pattern, or a compression pattern which is assumed to be an allowable range in image recognition is generated and registered based on the image of the standard pattern, and the generated and registered image is subjected to learning.

【0008】請求項2の発明では、請求項1の発明にお
いて、上記所定パターンは文字パターンであることを特
徴とする。請求項3の発明では、請求項1の発明におい
て、上記所定パターンは文字パターン以外の図形パター
ンであることを特徴とする。請求項4の発明では、請求
項1の発明において、1パターン毎に結合係数に修正を
加える逐次修正法を用いてバックプロパーゲーションに
よる学習をかけることを特徴とする。
According to a second aspect of the invention, in the first aspect of the invention, the predetermined pattern is a character pattern. According to a third aspect of the invention, in the first aspect of the invention, the predetermined pattern is a figure pattern other than a character pattern. The invention of claim 4 is characterized in that, in the invention of claim 1, learning by backpropagation is applied using a sequential correction method for correcting the coupling coefficient for each pattern.

【0009】請求項5の発明では、全ての出力の算出後
に一括して結合係数に修正を加える一括修正法を用いて
バックプロパーゲーションによる学習をかけることを特
徴とする。請求項6の発明では、正解パターンとして登
録した画像をバックプロパーゲションによる学習をかけ
る画像認識におけるニューラルネットによる学習方法に
おいて、学習の誤差と各出力の学習の達成度に基づいて
学習完了時期を判断することを特徴とする。
The invention of claim 5 is characterized in that learning by backpropagation is applied by using a collective correction method for collectively correcting the coupling coefficient after calculating all outputs. According to the invention of claim 6, in the learning method by the neural network in the image recognition in which the image registered as the correct answer pattern is learned by the back-propagation, the learning completion time is set based on the learning error and the achievement degree of learning of each output. It is characterized by making a judgment.

【0010】[0010]

【作用】請求項1乃至請求項3の発明によれば、学習作
業に入る前に、画像入力装置により撮像した所定パータ
ンの画像を正解パターンの標準として登録し、その標準
パターンの画像を基に画像認識において許容範囲と想定
される膨張パターン、収縮パターン、圧縮パターン等の
変形パターンの画像を生成登録するので、標準パターン
の画像の登録を行うだけで、認識対象の画像の許容範囲
を設けることができて、十分な学習が可能となり、その
ため追加学習を行うことなく照明等による撮像条件の変
化や検査対象画像の変化に柔軟に対応し、且つ正確に文
字や図形のパターンを認識することができ、また追加学
習の必要性が少ないため学習によるパターン認識動作の
中断を殆ど無くすことができる。
According to the inventions of claims 1 to 3, before starting the learning work, an image of a predetermined pattern photographed by the image input device is registered as a standard of the correct pattern, and based on the image of the standard pattern. An image of a deformed pattern such as an expansion pattern, a contraction pattern, or a compression pattern, which is assumed to be an allowable range in image recognition, is generated and registered. Therefore, only by registering the image of the standard pattern, the allowable range of the image to be recognized is provided. Therefore, sufficient learning is possible, so that it is possible to flexibly respond to changes in imaging conditions due to lighting or changes in the image to be inspected without additional learning, and to accurately recognize patterns of characters and figures. Moreover, since the need for additional learning is small, the interruption of the pattern recognition operation due to learning can be almost eliminated.

【0011】請求項4の発明によれば、請求項1の発明
において、1パターン毎に結合係数に修正を加える逐次
修正法を用いてバックプロパーゲーションによる学習を
かけるので、きめ細かく学習を進行させることができ
る。請求項5の発明によれば、全ての出力の算出後に一
括して結合係数に修正を加える一括修正法を用いてバッ
クプロパーゲーションによる学習をかけるので、学習を
高速に進行させることができる。
According to the invention of claim 4, in the invention of claim 1, learning is performed by backpropagation by using a sequential correction method for correcting the coupling coefficient for each pattern, so that the learning is advanced in a fine manner. You can According to the invention of claim 5, learning is performed by backpropagation by using a batch correction method for collectively correcting the coupling coefficient after calculation of all outputs, so that the learning can be advanced at high speed.

【0012】請求項6の発明によれば、正解パターンと
して登録した画像をバックプロパーゲションによる学習
をかける画像認識におけるニューラルネットによる学習
方法において、学習の誤差と各出力の学習の達成度に基
づいて学習完了時期を判断するので、確実十分な学習を
行い且つ過剰学習となる前に自動的に学習完了を行うこ
とができる。
According to the invention of claim 6, in the learning method by the neural network in the image recognition in which the image registered as the correct answer pattern is learned by the back-propagation, based on the learning error and the achievement level of learning of each output. Since the learning completion time is determined by performing the learning, it is possible to surely perform sufficient learning and automatically complete the learning before over-learning.

【0013】[0013]

【実施例】以下、本発明の実施例を図面を参照して説明
する。 (実施例1)図2は本実施例を用いた画像処理装置の概
要を示しており、図1に示すように標準文字が描かれて
いる撮像対象1を画像入力装置2により撮像して、その
画像データをA/D変換後一旦フレームメモリ3に格納
し、この格納した標準画像のデータを基にしてMPUユ
ニット4の処理動作により、膨張して文字線が太くなっ
た膨張パータンの画像、収縮して文字線が細くなった
収縮パターンの画像、更に文字自体を上下左右に縮め
た画像を生成して生成画像用のフレームメモリ5に登
録する。尚図2中6はシステムバスを示す。
Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) FIG. 2 shows an outline of an image processing apparatus using this embodiment. As shown in FIG. 1, an image pickup target 1 on which standard characters are drawn is picked up by an image input apparatus 2, The image data is temporarily stored in the frame memory 3 after A / D conversion, and an image of an expanded pattern in which the character line is expanded and expanded by the processing operation of the MPU unit 4 based on the stored standard image data, An image of a contraction pattern in which the character line is contracted and the character line is thinned, and an image in which the character itself is contracted vertically and horizontally are generated and registered in the frame memory 5 for the generated image. In addition, 6 in FIG. 2 shows a system bus.

【0014】この場合夫々の膨張/収縮率を複数段階持
つことで図3に示すように撮像対象1から得た画像より
標準パターンの画像と文字の太さの違う画像、を
複数段階作り出すことができ、これらは明るさが変化し
たり、対象画像自体の品質の違いによって2値化画像が
変化した場合を想定したものである。また文字パターン
を切り出す場合に、図4(a)に示すように背景にノイ
ズNSが存在している場合、背景のノイズの影響を受け
た文字パターン切り出しを行うと、ノイズNSの影響を
受けた部分を含めて文字パターンとして切り出され、図
4(b)に示すように本来の文字パターン部分は縮まっ
てしまう。それに対応するために上下、左右に圧縮した
パターンの画像を作り出す。圧縮率は複数段階持つこと
で標準パターンの画像を中心に色々な圧縮状態の画像を
作り出すことができる。図3のは下に1ドット詰めた
場合、は上に1ドット詰めた場合、は左に1ドット
詰めた場合、は右1ドット詰めた場合の画像を夫々示
す。
In this case, by providing each of the expansion / contraction ratios in a plurality of stages, it is possible to create a plurality of stages of an image of a standard pattern and an image having a different character thickness from the image obtained from the object 1 as shown in FIG. These are possible assuming that the brightness changes or the binarized image changes due to the difference in quality of the target image itself. Further, in the case of cutting out a character pattern, when noise NS exists in the background as shown in FIG. 4A, when the character pattern cut out affected by the background noise is affected by the noise NS. The part including the part is cut out as a character pattern, and the original character pattern part is shortened as shown in FIG. To deal with this, an image of a pattern that is compressed vertically and horizontally is created. By having a plurality of compression rates, it is possible to create images in various compressed states centering on a standard pattern image. In FIG. 3, 1 dot is packed in the lower part, 1 mark is packed in the upper part, 1 mark is packed in the left part, and 1 mark is packed in the right part.

【0015】このようにして取り込み画像を基に二つの
要因による生成方法を組み合わせることで複数の変化に
富んだ変形パターンの文字画像を作ることができる。尚
図4(c)は背景にノイズが存在しない場合を示し、図
4(d)はその場合の文字パターンの切り出しを示す。
さてこのようにして得られた各パターンの画像データは
生成画像用のフレームメモリ5に蓄え、次の工程である
ニューラルネットによる学習作業のときに用いる。
In this way, by combining the generation methods based on the two factors on the basis of the captured image, it is possible to create a plurality of character patterns having various deformation patterns. Note that FIG. 4C shows the case where there is no noise in the background, and FIG. 4D shows the cutout of the character pattern in that case.
The image data of each pattern thus obtained is stored in the frame memory 5 for the generated image, and is used in the next step of learning work by the neural network.

【0016】ニュータルネットは図1に示すように入力
と出力の間の結合係数(重み)を基本構成とし、入力層
I、中間層II、出力層III より構成され、入力層Iに与
えられた画像データは一層目の結合係数によって強弱が
つけられ中間層IIへ伝搬し、中間層IIから2層目の結合
係数によって強弱が付けられ出力層III へ伝搬する。こ
のとき適切な結合係数が与えられていれば、所定の出力
値が得られて文字パターンを判別(認識)することがで
きる。またこのような結果を得るための適切な結合係数
を求める作業を学習と呼んでおり、本実施例ではバック
プロパゲーションによって学習を実現する。これは理想
とする出力状態とそのときの実際の出力値との差異を求
め、その誤差値が小さくなるように結合係数を調整する
手法である。尚更に説明すると、図5に示すように
「A」の画像が与えられた場合は1番の出力値が大きく
出て、それ以外の出力が小さくなれば良く、「B」の画
像が与えれられた場合は2番の出力が大きく出て、それ
以外の出力が小さくなれば、結果として文字を認識でき
るのである。画像データは2値データ(或いは濃淡デー
タ)に変換された後入力層に取り込まれる。尚図5の
(a)は出力値を、(b)は「A」画像時の理想値を、
(c)は「B」画像時の理想値を夫々示す。
As shown in FIG. 1, the nutal net has a coupling coefficient (weight) between an input and an output as a basic structure, is composed of an input layer I, an intermediate layer II, and an output layer III, and is given to the input layer I. The image data is propagated to the intermediate layer II by being strengthened and weakened by the coupling coefficient of the first layer, and is propagated to the output layer III by being strengthened and weakened by the coupling coefficient of the second layer from the intermediate layer II. At this time, if an appropriate coupling coefficient is given, a predetermined output value can be obtained and a character pattern can be discriminated (recognized). Further, the work of obtaining an appropriate coupling coefficient for obtaining such a result is called learning, and in this embodiment, learning is realized by backpropagation. This is a method of obtaining the difference between the ideal output state and the actual output value at that time, and adjusting the coupling coefficient so that the error value becomes small. To further explain, when the image of “A” is given as shown in FIG. 5, the output value of No. 1 is large, and other outputs are small, and the image of “B” is given. If the output of No. 2 is large and the other outputs are small, the character can be recognized as a result. The image data is converted into binary data (or grayscale data) and then taken into the input layer. 5A shows the output value, and FIG. 5B shows the ideal value for the "A" image.
(C) shows the respective ideal values for the "B" image.

【0017】さて上述の手法には、1パターンの誤差を
求める度に結合係数へ反映させる逐次修正法と、登録さ
れたパターン全ての誤差を算出して結合係数を一度に修
正する一括修正方法とがある。前者の逐次修正法はきめ
細かく学習が進行するが学習時間が長い傾向があり、逐
次修正法は荒いが高速に進行する傾向を有している。本
実施例ではこれらの手法を、生成する文字パターンの
数、登録する文字パターンの数等条件によって選択する
ようにMPUユニット4をプログラムしてある。
The methods described above include a sequential correction method for reflecting an error of one pattern in the coupling coefficient each time the error is obtained, and a batch correction method for calculating the errors of all registered patterns and correcting the coupling coefficient at once. There is. The former iterative correction method has a tendency to perform learning finely, but the learning time tends to be long, and the iterative correction method has a tendency to proceed rapidly but at a high speed. In the present embodiment, the MPU unit 4 is programmed so as to select one of these methods according to conditions such as the number of character patterns to be generated and the number of character patterns to be registered.

【0018】而してバックプロパゲーションによる学習
に用いる入力画像データに上記方法によって得た生成画
像データを反映させることで、生成画像について全て判
別することができることになり、画像データの登録後
は、学習に用いる画像データがフレームメモリ5に蓄え
られてあるから画像処理装置のみで学習作業が行えるこ
とになる。
By reflecting the generated image data obtained by the above method on the input image data used for learning by backpropagation, all the generated images can be discriminated. After the image data is registered, Since the image data used for learning is stored in the frame memory 5, the learning work can be performed only by the image processing device.

【0019】上記図1乃至図4による説明はアルファベ
ットのような文字パターンの登録及びその変形パターン
の生成登録についてであったが、図6乃至図7に示すよ
うに文字パターン以外の図形パターンについても同様な
方法により標準のパターンの登録及びその変形パターン
の生成登録を学習作業前に行えば良い。勿論学習方法も
同様な手法によって行えば良い。尚使用する画像処理装
置のハードウェア構成は図2と同じであるため省略し、
又図1乃至図4と同じ意味、構成、或いは機能を持つ要
素には同じ番号、記号を付している。
Although the above description with reference to FIGS. 1 to 4 is about the registration of a character pattern such as an alphabet and the generation and registration of a modified pattern thereof, as shown in FIGS. 6 to 7, it is also possible to use a graphic pattern other than the character pattern. Registration of a standard pattern and generation and registration of a modified pattern thereof may be performed before the learning work by the same method. Of course, the learning method may be the same method. The hardware configuration of the image processing apparatus used is the same as that shown in FIG.
Further, elements having the same meaning, configuration, or function as those in FIGS. 1 to 4 are given the same numbers and symbols.

【0020】尚図6乃至図8は図1乃至図4における文
字パターンが図形パターンに代わっただけであるため、
上記図1乃至図4に対応する説明を参照することにより
特にここでは説明は行い。 (実施例2)ところでニューラルネットでのバックプロ
パーゲションによる学習では学習にかける入力パターン
から計算して理想値との誤差を算出し、その数値より学
習の進行を判断している。つまり学習にかける全ての入
力パターンの誤差の平均を算出して、その平均値がある
程度小さくなったら学習完了と判断しているが、この方
法ではあるパターンのみが学習できていなくても平均化
されて平均値が小さくなり学習が終了してしまう場合が
起きる。また誤差の最悪値で完了を判断していると、既
に良く学習できているものが、更なる学習により過剰に
学習してしまう場合が起きる。その点を解消するように
したのが請求項6の発明であって本実施例はこの請求項
6の発明に対応する。
Since the character patterns in FIGS. 1 to 4 are replaced by graphic patterns in FIGS. 6 to 8,
A particular description will be given here with reference to the description corresponding to FIGS. (Embodiment 2) By the way, in learning by back-propagation in a neural network, an error from an ideal value is calculated by calculating from an input pattern for learning, and the progress of learning is judged based on the numerical value. In other words, the average of the errors of all input patterns for learning is calculated, and it is judged that learning is completed when the average value becomes small to some extent, but with this method even if only a certain pattern is not learned, it is averaged. As a result, the average value becomes small and learning may end. Further, if the completion is judged by the worst value of the error, what has already been learned well may be overlearned by further learning. It is the invention of claim 6 that solves this problem, and this embodiment corresponds to the invention of claim 6.

【0021】本実施例は図2に示す画像処理装置をハー
ドウェアとして用い、学習処理はMPUユニット4によ
って行うものとする。そして学習は図1(図6)或いは
図5で示した上述のニューラルネットでのバックプロパ
ーゲーションによる学習を行う。而してバックプロパゲ
ーションによる学習作業を行う場合に、本実施例では入
力される各パターンの画像に対する各出力の基準値(合
格値)を設け、それを上回った出力数を全出力数に対す
る割合で表現するようにしている。つまりどの出力も合
格値を越えていなれば0%で、全てが合格値を越えてい
れば100%となる。この割り合いを習熟率を称する。
図9はこの習熟率(イ)の時間との関係を示しており、
学習の進行をこの習熟率で判断すれば確実に十分な学習
をさせることができ、また合格値を越えたものには学習
しない処理を加えれば過剰学習の不具合を防ぐことがで
き、このとき他のパターンの学習の影響で誤差が大きく
なって合格値より下回った場合は再び学習の対象とすれ
ば、過剰な学習にならず、且つ確実十分な学習が行え、
その上完了を自動的に判断することが可能となり、結果
学習作業の自動化も可能となる。
In this embodiment, the image processing apparatus shown in FIG. 2 is used as hardware, and the learning process is performed by the MPU unit 4. Then, learning is performed by backpropagation in the above-described neural network shown in FIG. 1 (FIG. 6) or FIG. Thus, in the case of performing the learning work by the back propagation, in this embodiment, the reference value (pass value) of each output for the image of each input pattern is set, and the output number exceeding the reference value is the ratio to the total output number. I am trying to express it. In other words, 0% if any output does not exceed the pass value, and 100% if all exceed the pass value. This ratio is called the learning rate.
Figure 9 shows the relationship between this learning rate (a) and time,
Judging the progress of learning with this proficiency rate will surely allow sufficient learning, and by adding processing that does not learn to those exceeding the passing value, it is possible to prevent the problem of overlearning. When the error becomes large due to the influence of the learning of the pattern and falls below the pass value, if it is made to be the subject of learning again, excessive learning does not occur, and reliable and sufficient learning can be performed,
In addition, it is possible to automatically judge the completion, and it is possible to automate the result learning work.

【0022】尚図9に示す(ロ)の曲線は二乗誤差を示
し、この二乗誤差は従来、学習させる人が経験的に若し
くは学習とは別のテスト画像で正常な判断ができるかど
うかで学習の完了を判断する場合に用いていたものであ
る。
The curve (B) shown in FIG. 9 indicates a squared error, and this squared error is conventionally learned depending on whether the learner can make a normal judgment empirically or with a test image different from the learning. It was used when determining the completion of.

【0023】[0023]

【発明の効果】請求項1乃至請求項3の発明は、学習作
業に入る前に、画像入力装置により撮像した所定パータ
ンの画像を正解パターンの標準として登録し、その標準
パターンの画像を基に画像認識において許容範囲と想定
される膨張パターン、収縮パターン、圧縮パターン等の
変形パターンの画像を生成登録するので、標準パターン
の画像の登録を行うだけで、認識対象の画像の許容範囲
を設けることができて、十分な学習が可能となり、その
ため追加学習を行うことなく照明等による撮像条件の変
化や検査対象画像の変化に柔軟に対応することができ、
且つ正確に文字や図形のパターンを認識することがで
き、また追加学習の必要性が少ないため学習によるパタ
ーン認識動作の中断を殆ど無くすことができるという効
果がある。
According to the inventions of claims 1 to 3, before starting the learning work, an image of a predetermined pattern imaged by the image input device is registered as a standard of a correct pattern, and based on the image of the standard pattern. An image of a deformed pattern such as an expansion pattern, a contraction pattern, or a compression pattern, which is assumed to be an allowable range in image recognition, is generated and registered. Therefore, only by registering the image of the standard pattern, the allowable range of the image to be recognized is provided. Therefore, sufficient learning is possible, so that it is possible to flexibly respond to changes in imaging conditions such as lighting and changes in the inspection target image without performing additional learning.
In addition, it is possible to accurately recognize a pattern of characters and figures, and since there is little need for additional learning, there is an effect that interruption of the pattern recognition operation due to learning can be almost eliminated.

【0024】請求項4の発明は、請求項1の発明におい
て、1パターン毎に結合係数に修正を加える逐次修正法
を用いてバックプロパーゲーションによる学習をかける
ので、きめ細かく学習を進行させることができるという
効果がある。請求項5の発明は、全ての出力の算出後に
一括して結合係数に修正を加える一括修正法を用いてバ
ックプロパーゲーションによる学習をかけるので、学習
を高速に進行させることができるという効果がある。
According to the invention of claim 4, in the invention of claim 1, learning is performed by backpropagation by using a sequential correction method in which the coupling coefficient is corrected for each pattern, so that the learning can be advanced finely. There is an effect. According to the invention of claim 5, learning is performed by backpropagation by using the collective correction method of collectively modifying the coupling coefficient after calculation of all outputs, so that the learning can be advanced at high speed. .

【0025】請求項6の発明は、正解パターンとして登
録した画像をバックプロパーゲションによる学習をかけ
る画像認識におけるニューラルネットによる学習方法に
おいて、学習の誤差と各出力の学習の達成度に基づいて
学習完了時期を判断するので、自動的に確実十分な学習
を行い且つ過剰学習となる前に学習完了を行うことがで
き、そのため学習作業の自動化が可能となるという効果
がある。
According to a sixth aspect of the present invention, in a learning method by a neural network in image recognition in which an image registered as a correct answer pattern is learned by backpropagation, learning is performed based on a learning error and a degree of achievement of learning of each output. Since the completion time is determined, it is possible to automatically and surely perform sufficient learning and to complete the learning before over-learning, and therefore, it is possible to automate the learning work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1の文字パターンに対応する処
理の流れ図である。
FIG. 1 is a flowchart of a process corresponding to a character pattern according to a first embodiment of the present invention.

【図2】同上に用いる画像処理装置のハードウェアの構
成図である。
FIG. 2 is a hardware configuration diagram of an image processing apparatus used in the above.

【図3】同上の文字パターンにおける変形パターンの生
成説明図である。
FIG. 3 is an explanatory diagram of generation of a modified pattern in the above character pattern.

【図4】同上の文字パターンの切り出しの説明図であ
る。
FIG. 4 is an explanatory diagram of cutting out a character pattern of the above.

【図5】同上のニューラルネットのバックプロパゲーシ
ョンの説明図である。
FIG. 5 is an explanatory diagram of back propagation of the neural network of the above.

【図6】同上の図形パターンに対応する処理の流れ図で
ある。
FIG. 6 is a flowchart of a process corresponding to the graphic pattern of the above.

【図7】同上の図形パターンにおける変形パターンの生
成説明図である。
FIG. 7 is an explanatory diagram of generation of a modified pattern in the graphic pattern of the above.

【図8】同上の図形パターンの切り出しの説明図であ
る。
FIG. 8 is an explanatory diagram of cutting out the graphic pattern of the above.

【図9】本発明の実施例2に用いる習熟率と時間との関
係説明図である。
FIG. 9 is an explanatory diagram of a relationship between a learning rate and time used in Example 2 of the present invention.

【符号の説明】[Explanation of symbols]

1 撮像対象 2 画像入力装置 3,5 フレームメモリ 〜 画像 1 Image Target 2 Image Input Device 3, 5 Frame Memory ~ Image

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成6年12月26日[Submission date] December 26, 1994

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項4[Name of item to be corrected] Claim 4

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項5[Name of item to be corrected] Claim 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0004[Correction target item name] 0004

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0004】またニューラルネットでのバックプロパゲ
ションによる学習では学習にかける入力パターンから計
算して理想値との誤差を算出し、その数値より学習の進
行を判断している。つまり学習にかける全ての入力パタ
ーンの誤差の平均を算出して、その平均値がある程度小
さくなったら学習完了と判断していたが、この方法では
あるパターンのみが学習できていなくても平均化されて
平均値が小さくなり学習が終了してしまう場合が起き
る。また誤差の最悪値で完了を判断していると、良く学
習できているものが、過剰に学習してしまうという問題
もあった。
[0004] In accordance with the learning back pro Page <br/> Deployment in neural network calculates an error between the ideal value calculated from the input pattern applied to the learning, and determining the progress of learning from that number. In other words, we calculated the average of the errors of all input patterns to be learned, and judged that the learning was completed when the average value became small to some extent, but with this method even if only a certain pattern could not be learned, it is averaged. As a result, the average value becomes small and learning may end. In addition, when the completion is judged by the worst value of the error, there is a problem that what is learned well is over-learned.

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0007[Correction target item name] 0007

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明では、学習作業に入る前に、画像入力
装置により撮像した所定パターンの画像を正解パターン
の標準として登録し、その標準パターンの画像を基に画
像認識において許容範囲と想定される膨張パターン、収
縮パターン、圧縮パターン等の変形パターンの画像を生
成登録し、この生成登録した画像を学習にかけることを
特徴とする。
Means for Solving the Problems] In the invention of claim 1 in order to achieve the above object, before entering the learning task to register the image of the predetermined path terpolymers emissions captured by the image input device as a standard correct pattern Based on the image of the standard pattern, an image of a deformation pattern such as an expansion pattern, a contraction pattern, or a compression pattern which is assumed to be an allowable range in image recognition is generated and registered, and the generated and registered image is subjected to learning. To do.

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0008[Correction target item name] 0008

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0008】請求項2の発明では、請求項1の発明にお
いて、上記所定パターンは文字パターンであることを特
徴とする。請求項3の発明では、請求項1の発明におい
て、上記所定パターンは文字パターン以外の図形パター
ンであることを特徴とする。請求項4の発明では、請求
項1の発明において、1パターン毎に結合係数に修正を
加える逐次修正法を用いてバックプロパゲーションによ
る学習をかけることを特徴とする。
According to a second aspect of the invention, in the first aspect of the invention, the predetermined pattern is a character pattern. According to a third aspect of the invention, in the first aspect of the invention, the predetermined pattern is a figure pattern other than a character pattern. In the invention of claim 4, in the invention of claim 1, wherein the applying learning by back pro Page Shon using successive correction method Modifications to the coupling coefficient for each pattern.

【手続補正6】[Procedure correction 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0011[Correction target item name] 0011

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0011】請求項4の発明によれば、請求項1の発明
において、1パターン毎に結合係数に修正を加える逐次
修正法を用いてバックプロパゲーションによる学習をか
けるので、きめ細かく学習を進行させることができる。
請求項5の発明によれば、全ての出力の算出後に一括し
て結合係数に修正を加える一括修正法を用いてバックプ
パゲーションによる学習をかけるので、学習を高速に
進行させることができる。
According to the invention of claim 4, in the invention of claim 1, since multiplying learning by back pro Page Shon using successive correction method Modifications to the coupling coefficient for each pattern, thereby advancing the finely learning be able to.
According to the invention of claim 5, since applying learning by the backplane <br/> b Page Shon using bulk modify methods Modifications to the coupling coefficient collectively after calculation of all output, to advance learning speed be able to.

【手続補正7】[Procedure Amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0013[Correction target item name] 0013

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0013】[0013]

【実施例】以下、本発明の実施例を図面を参照して説明
する。 (実施例1)図2は本実施例を用いた画像処理装置の概
要を示しており、図1に示すように標準文字が描かれて
いる撮像対象1を画像入力装置2により撮像して、その
画像データをA/D変換後一旦フレームメモリ3に格納
し、この格納した標準画像のデータを基にしてMPUユ
ニット4の処理動作により、膨張して文字線が太くなっ
た膨張パターンの画像、収縮して文字線が細くなった
収縮パターンの画像、更に文字自体を上下左右に縮め
た画像を生成して生成画像用のフレームメモリ5に登
録する。尚図2中6はシステムバスを示す。
Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) FIG. 2 shows an outline of an image processing apparatus using this embodiment. As shown in FIG. 1, an image pickup target 1 on which standard characters are drawn is picked up by an image input apparatus 2, and stores the image data in the a / D conversion after temporarily frame memory 3, the processing operation of the MPU unit 4 the data in this storage the standard image based, expanded in the expansion path terpolymers down character line becomes thicker An image, an image of a contraction pattern in which a character line is contracted and the character line is thinned, and an image in which the character itself is contracted vertically and horizontally are generated and registered in the frame memory 5 for the generated image. In addition, 6 in FIG. 2 shows a system bus.

【手続補正8】[Procedure Amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0020[Correction target item name] 0020

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0020】尚図6乃至図8は図1乃至図4における文
字パターンが図形パターンに代わっただけであるため、
上記図1乃至図4に対応する説明を参照することにより
特にここでは説明は行い。 (実施例2)ところでニューラルネットでのバックプロ
パゲションによる学習では学習にかける入力パターンか
ら計算して理想値との誤差を算出し、その数値より学習
の進行を判断している。つまり学習にかける全ての入力
パターンの誤差の平均を算出して、その平均値がある程
度小さくなったら学習完了と判断しているが、この方法
ではあるパターンのみが学習できていなくても平均化さ
れて平均値が小さくなり学習が終了してしまう場合が起
きる。また誤差の最悪値で完了を判断していると、既に
良く学習できているものが、更なる学習により過剰に学
習してしまう場合が起きる。その点を解消するようにし
たのが請求項6の発明であって本実施例はこの請求項6
の発明に対応する。
Since the character patterns in FIGS. 1 to 4 are replaced by graphic patterns in FIGS. 6 to 8,
A particular description will be given here with reference to the description corresponding to FIGS. (Embodiment 2) By the way, back processing by a neural network
In accordance learning Page Deployment calculates an error between the ideal value calculated from the input pattern applied to the learning, and determining the progress of learning from that number. In other words, the average of the errors of all input patterns for learning is calculated, and it is judged that learning is completed when the average value becomes small to some extent, but with this method even if only a certain pattern is not learned, it is averaged. As a result, the average value becomes small and learning may end. Further, if the completion is judged by the worst value of the error, what has already been learned well may be overlearned by further learning. It is the invention of claim 6 that solves this problem.
Corresponding to the invention of.

【手続補正9】[Procedure Amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0021[Correction target item name] 0021

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0021】本実施例は図2に示す画像処理装置をハー
ドウェアとして用い、学習処理はMPUユニット4によ
って行うものとする。そして学習は図1(図6)或いは
図5で示した上述のニューラルネットでのバックプロ
ーションによる学習を行う。而してバックプロパゲー
ションによる学習作業を行う場合に、本実施例では入力
される各パターンの画像に対する各出力の基準値(合格
値)を設け、それを上回った出力数を全出力数に対する
割合で表現するようにしている。つまりどの出力も合格
値を越えていなれば0%で、全てが合格値を越えていれ
ば100%となる。この割り合いを習熟率を称する。図
9はこの習熟率(イ)の時間との関係を示しており、学
習の進行をこの習熟率で判断すれば確実に十分な学習を
させることができ、また合格値を越えたものには学習し
ない処理を加えれば過剰学習の不具合を防ぐことがで
き、このとき他のパターンの学習の影響で誤差が大きく
なって合格値より下回った場合は再び学習の対象とすれ
ば、過剰な学習にならず、且つ確実十分な学習が行え、
その上完了を自動的に判断することが可能となり、結果
学習作業の自動化も可能となる。
In this embodiment, the image processing apparatus shown in FIG. 2 is used as hardware, and the learning process is performed by the MPU unit 4. The learning back professional path in the above-described neural network shown in FIG. 1 (FIG. 6) or 5
Performs learning by the gate Shon. Thus, in the case of performing the learning work by the back propagation, in this embodiment, the reference value (pass value) of each output for the image of each input pattern is set, and the output number exceeding the reference value is the ratio to the total output number. I am trying to express it. In other words, 0% if any output does not exceed the pass value, and 100% if all exceed the pass value. This ratio is called the learning rate. FIG. 9 shows the relationship between this learning rate (a) and time. If the learning progress is judged by this learning rate, sufficient learning can be surely performed, and if the learning rate exceeds the passing value. If you add processing that does not learn, you can prevent the problem of excessive learning, and if the error becomes large due to the influence of the learning of other patterns and it falls below the pass value, it will be over-learned if you make it the object of learning again. And surely enough learning can be done,
In addition, it is possible to automatically judge the completion, and it is possible to automate the result learning work.

【手続補正10】[Procedure Amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0024[Name of item to be corrected] 0024

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0024】請求項4の発明は、請求項1の発明におい
て、1パターン毎に結合係数に修正を加える逐次修正法
を用いてバックプロパゲーションによる学習をかけるの
で、きめ細かく学習を進行させることができるという効
果がある。請求項5の発明は、全ての出力の算出後に一
括して結合係数に修正を加える一括修正法を用いてバッ
クプロパゲーションによる学習をかけるので、学習を高
速に進行させることができるという効果がある。
The invention of claim 4 is the invention of claim 1, since multiplying learning by back pro Page Shon using successive correction method Modifications to the coupling coefficient for each pattern, be allowed to proceed to finely learning The effect is that you can do it. The invention of claim 5, the effect of so applying learning by back pro Page Shon using bulk modify methods Modifications to the coupling coefficient collectively after calculation of all output, it can proceed learn faster is there.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】学習作業に入る前に、画像入力装置により
撮像した所定パータンの画像を正解パターンの標準とし
て登録し、その標準パターンの画像を基に画像認識にお
いて許容範囲と想定される膨張パターン、収縮パター
ン、圧縮パターン等の変形パターンの画像を生成登録
し、この生成登録した画像を学習にかけることを特徴と
する画像認識におけるニューラルネットによる学習方
法。
1. Before starting a learning operation, an image of a predetermined pattern captured by an image input device is registered as a standard of a correct pattern, and an expansion pattern assumed to be an allowable range in image recognition based on the image of the standard pattern. A learning method using a neural network in image recognition, wherein images of deformation patterns such as contraction patterns and compression patterns are generated and registered, and the generated and registered images are subjected to learning.
【請求項2】上記所定パターンは文字パターンであるこ
とを特徴とする請求項1記載の画像認識におけるニュー
ラルネットによる学習方法。
2. The learning method using a neural network in image recognition according to claim 1, wherein the predetermined pattern is a character pattern.
【請求項3】上記所定パターンは文字パターン以外の図
形パターンであることを特徴とする請求項1記載の画像
認識におけるニューラルネットによる学習方法。
3. The learning method by a neural network in image recognition according to claim 1, wherein the predetermined pattern is a graphic pattern other than a character pattern.
【請求項4】1パターン毎に結合係数に修正を加える逐
次修正法を用いてバックプロパーゲーションによる学習
をかけることを特徴とする請求項1記載の画像認識にお
けるニューラルネットによる学習方法。
4. A learning method by a neural network in image recognition according to claim 1, wherein learning by backpropagation is performed by using a sequential correction method for correcting the coupling coefficient for each pattern.
【請求項5】全ての出力の算出後に一括して結合係数に
修正を加える一括修正法を用いてバックプロパーゲーシ
ョンによる学習をかけることを特徴とする請求項1記載
の画像認識におけるニューラルネットによる学習方法。
5. The learning by a neural network in image recognition according to claim 1, wherein learning by backpropagation is performed by using a batch correction method for collectively correcting the coupling coefficient after calculating all outputs. Method.
【請求項6】正解パターンとして登録した画像をバック
プロパーゲションによる学習をかける画像認識における
ニューラルネットによる学習方法において、学習の誤差
と各出力の学習の達成度に基づいて学習完了時期を判断
することを特徴とする画像認識におけるニューラルネッ
トによる学習方法。
6. In a learning method using a neural network in image recognition in which an image registered as a correct answer pattern is learned by back-propagation, the learning completion time is determined based on the learning error and the achievement level of learning of each output. A learning method using a neural network in image recognition.
JP6174109A 1994-07-26 1994-07-26 Learning method by neural net in image recognition Pending JPH0836643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6174109A JPH0836643A (en) 1994-07-26 1994-07-26 Learning method by neural net in image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6174109A JPH0836643A (en) 1994-07-26 1994-07-26 Learning method by neural net in image recognition

Publications (1)

Publication Number Publication Date
JPH0836643A true JPH0836643A (en) 1996-02-06

Family

ID=15972810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6174109A Pending JPH0836643A (en) 1994-07-26 1994-07-26 Learning method by neural net in image recognition

Country Status (1)

Country Link
JP (1) JPH0836643A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
US7383237B2 (en) 1998-05-01 2008-06-03 Health Discovery Corporation Computer-aided image analysis
US11574189B2 (en) 2017-10-06 2023-02-07 Fujifilm Corporation Image processing apparatus and learned model

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7383237B2 (en) 1998-05-01 2008-06-03 Health Discovery Corporation Computer-aided image analysis
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
US11574189B2 (en) 2017-10-06 2023-02-07 Fujifilm Corporation Image processing apparatus and learned model

Similar Documents

Publication Publication Date Title
WO2020042741A1 (en) Battery detection method and device
CN108492291B (en) CNN segmentation-based solar photovoltaic silicon wafer defect detection system and method
CN111507958A (en) Target detection method, training method of detection model and electronic equipment
CN109918523B (en) Circuit board component detection method based on YOLO9000 algorithm
CN112257703B (en) Image recognition method, device, equipment and readable storage medium
CN114549997A (en) X-ray image defect detection method and device based on regional feature extraction
EP0499875B1 (en) Method of and apparatus for obtaining binary image
CN113077416A (en) Welding spot welding defect detection method and system based on image processing
JPH0836643A (en) Learning method by neural net in image recognition
JPH07239938A (en) Inspection method
CN112989768A (en) Method and device for correcting connection questions, electronic equipment and storage medium
CN111784667A (en) Crack identification method and device
JPH08327559A (en) Device and method for inspecting pattern
JP2000003436A (en) Device and method for recognizing isar picture
CN111127327B (en) Picture inclination detection method and device
JP3279099B2 (en) Mark recognition device and mark recognition method
JPH05274422A (en) Cell image processing method
CN113570540A (en) Image tampering blind evidence obtaining method based on detection-segmentation architecture
CN117474932B (en) Object segmentation method and device, electronic equipment and storage medium
JP2831537B2 (en) Mark inspection equipment
JPH07243984A (en) Image pattern inspecting device
JPH0332723B2 (en)
CN116823757A (en) Abnormal pattern identification learning method for OPC data acquisition process
CN115222635A (en) No-reference image quality evaluation method and device based on image feature fusion and computer readable storage medium
CN115908345A (en) Pin defect detection method based on dynamic fine-grained neural network

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041005