JPH11238135A - Method and device for image recognition - Google Patents
Method and device for image recognitionInfo
- Publication number
- JPH11238135A JPH11238135A JP10040017A JP4001798A JPH11238135A JP H11238135 A JPH11238135 A JP H11238135A JP 10040017 A JP10040017 A JP 10040017A JP 4001798 A JP4001798 A JP 4001798A JP H11238135 A JPH11238135 A JP H11238135A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- master
- similarity
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明はイメージ認識方法お
よびイメージ認識装置に関し、特に、高精度な認識が可
能なイメージ認識方法およびイメージ認識装置に関する
ものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method and an image recognition apparatus, and more particularly, to an image recognition method and an image recognition apparatus capable of performing highly accurate recognition.
【0002】[0002]
【従来の技術】従来、文字や記号のイメージを認識する
方法としては、例えば特開平8−77293に開示され
ている方法など、各種の方法が提案されている。また、
特開平3−125287には、読み取ったイメージデー
タからゴミのパターンを除去する方法が開示されてい
る。2. Description of the Related Art Conventionally, various methods have been proposed as methods for recognizing images of characters and symbols, such as the method disclosed in Japanese Patent Application Laid-Open No. 8-77293. Also,
Japanese Patent Application Laid-Open No. 3-125287 discloses a method of removing dust patterns from read image data.
【0003】[0003]
【発明が解決しようとする課題】前記したような、従来
の文字認識技術を例えば半導体モールドパッケージの表
面に印刷された製品名、記号、番号などの文字の認識に
適用しようとした場合、誤読が発生すると、該認識情報
に基づき製造した製品が不良品となり、発見や修理に多
大な労力を要するので、誤読率を出来る限り低減させる
必要がある。ところが、特徴情報を抽出するような複雑
な処理を行うと処理時間がかかり、生産ラインの速度が
低下してしまうという問題点があった。本発明の目的
は、前記のような従来技術の問題点を解決し、誤読率の
低い認識が可能なイメージ認識方法およびイメージ認識
装置を提供することにある。When the conventional character recognition technology as described above is applied to the recognition of characters such as product names, symbols, and numbers printed on the surface of a semiconductor mold package, for example, misreading occurs. If this occurs, the product manufactured based on the recognition information becomes defective and a great deal of labor is required for finding and repairing. Therefore, it is necessary to reduce the misreading rate as much as possible. However, there is a problem that if complicated processing such as extraction of characteristic information is performed, processing time is required and the speed of the production line is reduced. SUMMARY OF THE INVENTION It is an object of the present invention to provide an image recognition method and an image recognition apparatus that can solve the above-described problems of the related art and can perform recognition with a low misreading rate.
【0004】[0004]
【課題を解決するための手段】本発明は、認識すべきイ
メージがある文字などのマスターイメージと、それと類
似するマスターイメージのどちらに類似しているかを判
定する場合に、認識すべきイメージとそれぞれのマスタ
ーイメージとの差分によってそれぞれ類似度を求め、ま
たそれぞれのマスターイメージ間の差分情報に基づいて
作成した特定イメージが前記それぞれの差分イメージ中
にどの程度含まれるかによって類似度を補正する点に特
徴がある。SUMMARY OF THE INVENTION According to the present invention, when determining whether a master image such as a character having an image to be recognized is similar to a master image similar to the master image, the image to be recognized is determined. The similarity is obtained by the difference from the master image, and the similarity is corrected based on how much the specific image created based on the difference information between the respective master images is included in the respective difference images. There are features.
【0005】本発明によれば、それぞれのマスターイメ
ージ間の差分情報に基づいて作成した特定イメージがそ
れぞれの差分イメージ中にどの程度含まれるかによって
類似度を補正するようにしたので、特定イメージ部分が
判定に寄与する重み付けを大きくすることが可能とな
り、誤判定率を低減するように作用する。According to the present invention, the similarity is corrected based on the degree to which the specific image created based on the difference information between the respective master images is included in each of the differential images. Makes it possible to increase the weight that contributes to the determination, and acts to reduce the erroneous determination rate.
【0006】[0006]
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。図1は、本発明が適用され
る認識システムの構成例を示すブロック図である。ワー
ク位置決め治具11にセットされた被検査体であるIC
パッケージ10は、照明装置23により表面の文字パタ
ーンが読み取りやすい明るさで照らされる。CCDカメ
ラ12の光学レンズには文字パターンが視野に収まる倍
率がセットされ、カメラ内の撮像素子上に文字パターン
を結像させて、その映像信号が出力される。Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a recognition system to which the present invention is applied. IC as an inspection object set on the work positioning jig 11
The package 10 is illuminated by the illumination device 23 with a brightness at which the character pattern on the surface is easy to read. The magnification at which the character pattern fits into the field of view is set in the optical lens of the CCD camera 12, and the character pattern is imaged on the image sensor in the camera, and the video signal is output.
【0007】画像認識装置13は通常のコンピュータシ
ステムおよびイメージ認識プログラムによって構成され
ている。CPU14はROM15あるいはRAM16内
のプログラムを実行する処理装置である。A/D変換器
17は、CCDカメラ12から入力される映像信号をア
ナログ/デジタル変換して取り込むビデオキャプチャー
回路である。[0007] The image recognition device 13 comprises a normal computer system and an image recognition program. The CPU 14 is a processing device that executes a program in the ROM 15 or the RAM 16. The A / D converter 17 is a video capture circuit that converts a video signal input from the CCD camera 12 from analog to digital and captures it.
【0008】ハードディスク装置インターフェイス回路
HDDI19はハードディスク装置20との信号のやり
取りを行う、例えばSCSIインターフェイス回路であ
る。CRTインターフェイス回路21はCPU14が生
成した画面の映像信号をCRTモニタ22に出力すると
共に、図示しないキーボードから操作情報を入力する。
I/Oインターフェイス回路18は外部機器へ認識結果
情報を出力する、例えばRS-232Cインターフェイス回路
である。The hard disk device interface circuit HDDI 19 is, for example, a SCSI interface circuit for exchanging signals with the hard disk device 20. The CRT interface circuit 21 outputs the image signal of the screen generated by the CPU 14 to the CRT monitor 22 and inputs operation information from a keyboard (not shown).
The I / O interface circuit 18 outputs recognition result information to an external device, for example, an RS-232C interface circuit.
【0009】CCDカメラ12から取り込まれた文字の
パターンは画像処理装置16内部のRAM16に同一サ
イズで記憶される。RAM16内のメモリ配置を所定の
配列、例えばX5l2×Y512のように定義すれば文字パター
ンを構成する画素情報は該当するメモリエリアのアドレ
スに対応した明るさの情報として記憶される。図4
(b)は、カメラ12からメモリーに取り込まれた文字
のパターンを読み出してCRTモニタ22に表示させた
例を表している。The character pattern captured from the CCD camera 12 is stored in the RAM 16 in the image processing device 16 at the same size. If the memory arrangement in the RAM 16 is defined as a predetermined array, for example, X512 × Y512, pixel information forming a character pattern is stored as brightness information corresponding to the address of the corresponding memory area. FIG.
2B shows an example in which a character pattern read from the camera 12 into the memory is read out and displayed on the CRT monitor 22.
【0010】なお、取り込んだ後の画像処理において
は、画素単位での処理を行うと演算量が多くなるので、
図4(b)に示すように、イメージデータを縦横のメッ
シュに分割し、含まれる画素データの明るさの平均値が
所定値以上(0)か否(1)かをもって小区画の値(1
ビット)としてメッシュと同じ構成の2次元配列に保存
し、該データに基づいて認識処理を行う。メッシュの幅
は認識精度が十分確保できる範囲内でなるべく広くす
る。[0010] In the image processing after the capture, if the processing is performed in pixel units, the amount of calculation increases.
As shown in FIG. 4B, the image data is divided into vertical and horizontal meshes, and the value (1) of the small section is determined based on whether the average value of the brightness of the included pixel data is equal to or more than a predetermined value (0) or not (1).
Bit) is stored in a two-dimensional array having the same configuration as the mesh, and recognition processing is performed based on the data. The width of the mesh is set as wide as possible within a range in which the recognition accuracy can be sufficiently ensured.
【0011】図2は、認識処理に先だって予め生成され
るマスター文字間の差分パターン表の内容を示す説明図
である。なお、当実施例においては認識すべきイメージ
がアルファベット大文字の26種類である例について説
明する。図2の「M」行の内の1つのマス、例えばマス
31が、マスター文字「M」に対する類似マスター文字
「N」との差分データの内、マスター文字にのみ存在
し、類似マスター文字には存在しない差分イメージデー
タを表している。即ち、概ね「V」字状のイメージは
「M」にのみ存在し、「N」には存在しない。FIG. 2 is an explanatory diagram showing the contents of a difference pattern table between master characters generated before the recognition process. In this embodiment, an example in which the images to be recognized are 26 kinds of uppercase alphabets will be described. One of the squares in the “M” row in FIG. 2, for example, the square 31 is present only in the master character in the difference data between the master character “M” and the similar master character “N”. This represents difference image data that does not exist. That is, an image having a substantially “V” shape exists only in “M” and does not exist in “N”.
【0012】また、「N」行のマス30には「N」にの
み存在し、「M」には存在しない概ね「\」状のイメー
ジが登録されている。更に、「Q」行のマス32にはQ
のヒゲ部分のイメージが登録されており、「O」行のマ
ス33には、「O」にのみ存在し、「Q」には存在しな
いイメージがないので、何も登録されていない。In addition, an image having a substantially “\” shape which is present only in “N” and not present in “M” is registered in the cell 30 in the “N” row. Furthermore, the square 32 in the “Q” row has Q
The image of the beard portion is registered. Since there is no image that exists only in “O” and does not exist in “Q” in the square 33 in the “O” row, nothing is registered.
【0013】次に、図2に示したマスター文字間の差分
パターン表の生成方法について説明する。まず予め登録
されているマスター文字相互の類似度を公知の任意の方
法で判定するか、あるいは類似する文字を手動で入力す
る。次に、類似する文字の間で、一方のマスター文字に
のみ存在し、他方のマスター文字には存在しない差分イ
メージを生成する(他方の反転画像と論理積を取る)。Next, a method of generating the difference pattern table between master characters shown in FIG. 2 will be described. First, the degree of similarity between pre-registered master characters is determined by any known method, or a similar character is manually input. Next, among similar characters, a difference image that exists only in one master character but does not exist in the other master character is generated (logical AND with the other inverted image).
【0014】この差分イメージデータを図2の表に登録
してもよいが、更に、この差分イメージの中で、実際に
認識すべきイメージが他方のマスター文字であった場合
に存在する確率の比較的高い部分を除く処理を行うこと
により、より精度の高い判定が可能となる。この処理は
手動で行ってもよいし、例えば2つのマスター文字に共
通するイメージと差分イメージとの接点近傍を除くとい
うような処理を自動的に行ってもよい。The difference image data may be registered in the table shown in FIG. 2. Further, in this difference image, a comparison is made between the probability that the image to be recognized is the other master character and that the image exists. By performing the processing excluding the target part, the determination with higher accuracy becomes possible. This processing may be performed manually, or may be performed automatically, for example, to remove the vicinity of the contact point between the image common to the two master characters and the difference image.
【0015】次に、認識処理について説明する。図3
は、本発明を適用した文字認識処理の内容を示すフロー
チャートである。S1においては、画像処理装置はCC
Dカメラを使用して取り込んだ映像データから文字のサ
ンプル画像(図4(b)、(e))を切り出して取り込
む。S2においては、一つのマスター文字と比較し、類
似度を求める。この際、周知の方法によって、類似度が
最大になるように取り込んだサンプル画像の大きさ、傾
き、位置等を調節する。比較方法としては画素(小区
画)ごとの排他的論理和(XOR)を取り、一致せずに
残った画素数が少ないほど類似度が高くなるように類似
度を決める。Next, the recognition process will be described. FIG.
5 is a flowchart showing the contents of a character recognition process to which the present invention is applied. In S1, the image processing device is CC
The character sample images (FIGS. 4B and 4E) are cut out from the video data captured by using the D camera and captured. In S2, the degree of similarity is obtained by comparing with one master character. At this time, the size, inclination, position, and the like of the captured sample image are adjusted by a well-known method so as to maximize the similarity. As a comparison method, an exclusive OR (XOR) is obtained for each pixel (small block), and the similarity is determined such that the smaller the number of pixels remaining without matching, the higher the similarity.
【0016】S3においては類似度が所定値以上である
か否かが判定され、類似度が所定値以上である場合には
S7に移行するが、類似度が所定値未満である場合には
S4に移行する。S4においては全てのマスター文字と
の比較が終了したか否かが判定され、終了していない場
合にはS5に移行するが、終了している場合にはS6に
移行する。S5においてはマスター文字を次のものに交
換し、S2に戻って比較処理を繰り返す。また、S6に
おいては類似度が所定値以上のマスター文字がなかった
ことになり、サンプル文字は認識不能と判定して処理を
終了する。なお、全てのマスター文字との比較を行い、
その内の最大の類似度が所定値を超えていた場合にS7
に移行するようにしてもよい。In S3, it is determined whether or not the similarity is equal to or more than a predetermined value. If the similarity is equal to or more than the predetermined value, the process proceeds to S7. If the similarity is less than the predetermined value, S4 is performed. Move to In S4, it is determined whether the comparison with all the master characters has been completed. If not, the process proceeds to S5. If not, the process proceeds to S6. In S5, the master character is exchanged for the next one, and the process returns to S2 to repeat the comparison process. Further, in S6, it is determined that there is no master character whose similarity is equal to or more than the predetermined value, and the sample character is determined to be unrecognizable, and the process ends. In addition, compare with all master characters,
If the maximum similarity exceeds the predetermined value, S7
It may be made to shift to.
【0017】S7においては、現マスター文字に類似文
字がある(登録されている)か否かが判定され、ある場
合にはS9に移行するが、ない場合にはS8に移行す
る。S8においては、サンプル画像が現在比較中のマス
ター文字であるものと判定し、判定結果を外部機器に出
力して処理を終了する。S9においては、S2と同様に
サンプル画像と類似文字とを比較し、類似度を求める。
S10においては、図2の表の、現マスター文字に対応
する行および列のいずれかに登録されている差分イメー
ジパターンを読み出す。In S7, it is determined whether or not the current master character has a similar character (registered). If there is, the process proceeds to S9, but if not, the process proceeds to S8. In S8, it is determined that the sample image is the master character currently being compared, the determination result is output to the external device, and the process ends. In S9, similar to S2, the sample image is compared with the similar character to determine the degree of similarity.
In S10, a difference image pattern registered in any of the rows and columns corresponding to the current master character in the table of FIG. 2 is read.
【0018】S11においては、画素ごとの論理積を取
ることにより、S2およびS9において求めたサンプル
画像とマスター文字あるいは類似文字との不一致部分の
イメージに、S10において読み出した差分イメージパ
ターンの領域がどの程度(画素数あるいは面積)存在す
るかを求める。図2の表に差分イメージデータが2つ登
録されている場合には、S11において4種類の数値が
求められる。例えば、マスター文字が「M」、類似文字
が「N」である場合に、サンプル画像「X」と「M」と
の不一致データを「MxorX」、「N」との不一致デ
ータを「NxorX」、「M」のみに存在する差分デー
タを「M−N」、「N」のみに存在する差分データを
「N−M」と名前を付ける(以下鉤括弧で囲んだ文字列
は名前であって論理式ではない)とすると、4種類の数
値はそれぞれ、下記のように求められる。In step S11, the logical product of each pixel is calculated, and the difference image pattern read out in step S10 is replaced with the image of the mismatched portion between the sample image obtained in steps S2 and S9 and the master character or similar character. The degree (number of pixels or area) is determined. If two difference image data are registered in the table of FIG. 2, four types of numerical values are obtained in S11. For example, when the master character is “M” and the similar character is “N”, the mismatch data between the sample images “X” and “M” is “MxorX”, the mismatch data between “N” is “NxorX”, The difference data existing only in “M” is named “M−N”, and the difference data existing only in “N” is named “NM” (hereinafter, a character string enclosed in brackets is a logical If not, the four types of numerical values are obtained as follows.
【0019】即ち、「M」のみに存在する差分データ
「M−N」の画素が「X」と「M」との不一致データ
「MxorX」中に存在する数K1は、画素ごとに「M
−N」と「MxorX」との論理積を取り、”1”の数
を計数することによって求められる。同様に、「M」の
みに存在する差分データ「M−N」の画素が「X」と
「N」との不一致データ「NxorX」中に存在する数
K2は、画素ごとに「M−N」と「NxorX」との論
理積を取り、”1”の数を計数することによって求めら
れる。更に、「N」のみに存在する差分データ「N−
M」の画素が「X」と「M」との不一致データ「Mxo
rX」中に存在する数K3は、画素ごとに「N−M」と
「MxorX」との論理積を取り、”1”の数を計数す
ることによって求められ、「N」のみに存在する差分デ
ータ「N−M」の画素が「X」と「N」との不一致デー
タ「NxorX」中に存在する数K4は、画素ごとに
「N−M」と「NxorX」との論理積を取り、”1”
の数を計数することによって求められる。That is, the number K1 of the pixels of the difference data "MN" existing only in "M" in the mismatch data "MxorX" between "X" and "M" is calculated by
-N "and" MxorX ", and is obtained by counting the number of" 1 ". Similarly, the number K2 of the pixels of the difference data “M−N” existing only in “M” in the mismatch data “NxorX” between “X” and “N” is “M−N” for each pixel. And "NxorX", and is obtained by counting the number of "1". Further, the difference data “N−
The pixel “M” has mismatched data “Mxo” between “X” and “M”.
The number K3 existing in “rX” is obtained by taking the logical product of “N−M” and “MxorX” for each pixel and counting the number of “1”, and the difference existing only in “N”. The number K4 in which the pixel of the data “NM” exists in the non-coincidence data “NxorX” between “X” and “N” is obtained by taking the logical product of “NM” and “NxorX” for each pixel, "1"
Is determined by counting the number of
【0020】S12においては、S11において求めた
最大4種類の数値K1〜K4に基づきそれぞれ文字の補
正量を求め、類似度を補正する。例えば、K1は「M」
のみに存在する差分データ「M−N」の画素が「X」と
「M」との不一致データ「MxorX」中に存在する数
であるから、K1が大きいほど「X」には「M」の特徴
部分が存在しないことになる。従って、K1は「X」の
「M」に対する類似度を下げるように働く。同様にK3
は「X」の「M」に対する類似度を上げるように働く。
また、K2は「X」の「N」に対する類似度を上げるよ
うに働き、K4は「X」の「N」に対する類似度を下げ
るように働く。S13においては、補正後の類似度が最
大のものに対応する文字を選択し、判定結果を出力し
て、処理を終了する。In S12, the correction amount of each character is obtained based on the maximum four kinds of numerical values K1 to K4 obtained in S11, and the similarity is corrected. For example, K1 is "M"
Since the number of pixels of the difference data “M−N” existing only in the mismatch data “MxorX” between “X” and “M” is the number of pixels, the larger the K1 is, the more “M” is assigned to “X”. There will be no feature. Therefore, K1 works to reduce the similarity of “X” to “M”. Similarly, K3
Works to increase the similarity of “X” to “M”.
K2 works to increase the similarity of "X" to "N", and K4 works to reduce the similarity of "X" to "N". In S13, the character corresponding to the character having the highest similarity after correction is selected, the determination result is output, and the process ends.
【0021】図4は、認識処理の各過程におけるイメー
ジ情報例を示す説明図である。なお、図4において、
(a)、(d)はそれぞれマスター文字「O」および
[Q」であり、(b)、(e)が認識すべきサンプルイ
メージである。このイメージは例えば、「O」にインク
汚れのパターンが付いた様なケースであり、マークの印
刷エ程で良く見られるケースである。また、(g)は、
認識処理に先だって予め生成される、マスター文字
「Q」のみに存在する差分イメージであり、当実施例の
場合には(g)から更に手動で特定の小区画a〜eを抽
出して、(h)を図2のマス32に登録している。な
お、[O]のみに存在する差分イメージは登録されてい
ない。FIG. 4 is an explanatory diagram showing an example of image information in each step of the recognition processing. In FIG. 4,
(A) and (d) are master characters "O" and [Q], respectively, and (b) and (e) are sample images to be recognized. This image is, for example, a case in which an ink stain pattern is attached to “O”, and is a case that is often seen in the process of printing a mark. (G)
This is a difference image that exists only in the master character “Q” and is generated in advance prior to the recognition process. In this embodiment, specific small sections a to e are further manually extracted from (g), h) is registered in the cell 32 of FIG. Note that a difference image existing only in [O] is not registered.
【0022】図3のフローチャートのS2においては、
図4(a)のマスター文字データと(b)のサンプル画
像との排他的論理和(XOR)が取られ、(c)の不一致デ
ータが得られる。そしてこの不一致データ(c)に基づ
き、マスター文字との類似度が算出される。図3のフロ
ーチャートのS9においては、図4(d)の類似文字デ
ータと(e)のサンプル画像との排他的論理和(XOR)が
取られ、(f)の不一致データが得られる。そしてこの
不一致データ(f)に基づき、類似文字との類似度が算
出される。In S2 of the flowchart of FIG. 3,
The exclusive OR (XOR) of the master character data of FIG. 4A and the sample image of FIG. 4B is calculated, and the mismatch data of FIG. 4C is obtained. Then, based on the mismatch data (c), the similarity with the master character is calculated. In S9 of the flowchart of FIG. 3, an exclusive OR (XOR) of the similar character data of FIG. 4D and the sample image of FIG. 4E is obtained, and non-coincidence data of FIG. 4F is obtained. Then, the degree of similarity with the similar character is calculated based on the non-coincidence data (f).
【0023】図3のフローチャートのS10において
は、図4(h)の差分パターンデータが読み出され、S
11においては、「O」との不一致データである図4
(i)(((c)と同じ)と差分パターン(h)との論
理積(AND)が取られ、結果(k)の面積K3=0(5
点とも存在しない)が求められる。同様に、「Q」との
不一致データである図4(j)((f)と同じ)と差分
パターン(h)との論理積((AND)が取られ、結果
(m)の面積K4=5が求められる。In S10 of the flowchart of FIG. 3, the difference pattern data of FIG.
In FIG. 11, data that does not match “O”
(I) The logical product (AND) of (same as (c)) and the difference pattern (h) is obtained, and the area K3 = 0 (5) of the result (k) is obtained.
Point does not exist) is required. Similarly, the logical product ((AND)) of FIG. 4 (j) (same as (f)), which is the mismatch data with “Q”, and the differential pattern (h) is obtained, and the area K4 of the result (m) is obtained. 5 is required.
【0024】K3が0(5点とも存在しない)であると
いうことは、サンプル画像に「Q」の特徴点が含まれて
いないことを示しており、例えばサンプル画像の「O」
に対する類似度を”5”に対応する量だけプラスに補正
する。また、K4が5であるということは、やはりサン
プル画像に「Q」の特徴点が含まれていないことを示し
ており、例えばサンプル画像の「Q」に対する類似度
を”5”に対応する量だけマイナスに補正する。The fact that K3 is 0 (none of the five points) indicates that the sample image does not include the characteristic point of "Q".
Is positively corrected by an amount corresponding to “5”. Further, the fact that K4 is 5 also indicates that the sample image does not include the feature point of “Q”. For example, the similarity of the sample image to “Q” is an amount corresponding to “5”. Correct only to minus.
【0025】このような補正の結果、もし、図3の前半
の処理でサンプル画像が「Q」に最も類似しているとい
う判定が下されても、後半の処理によって類似度が補正
され、サンプル画像がより「O」に近い(「O」に対す
る類似度が増す)という結果が得られる。なお、類似文
字が複数個ある場合には、類似文字を1つづつ取り出し
て比較、判定し、補正の結果、もし類似文字の方が類似
度が大きくなった場合には、類似文字を新マスター文字
として再度、新マスター文字の類似文字を1つづつ取り
出して比較、判定する。As a result of such correction, even if it is determined in the first half of the process in FIG. 3 that the sample image is most similar to "Q", the similarity is corrected by the second half of the process and the sample is corrected. The result is that the image is closer to "O" (similarity to "O" is increased). When there are a plurality of similar characters, the similar characters are taken out one by one, compared and determined, and as a result of the correction, if the similarity of the similar character is larger, the similar character is replaced with the new master character. Again, similar characters of the new master character are taken out one by one and compared and determined.
【0026】以上、本発明の実施例を開示したが、本発
明には下記のような変形例も考えられる。実施例におい
ては、類似文字との差分によって、差分パターンを生成
する例を開示したが、類似文字との比較ではなく、当該
マスター文字に「あってはならない」部分を手動等によ
って入力し、この部分のパターンが存在した場合には類
似度を下げる方向に補正することによって、「有っては
ならない」パターンを確実に検出することができる。実
施例においては、ICパッケージに印刷されたアルファ
ベットの認識を行う例を開示したが、本発明は、取り込
んだあるいは入力された任意の文字、記号、図形画像の
認識に適用可能である。Although the embodiments of the present invention have been disclosed above, the present invention may have the following modifications. In the embodiment, the example in which the difference pattern is generated by the difference with the similar character is disclosed.However, instead of the comparison with the similar character, the part that should not be present in the master character is input manually or the like. If there is a partial pattern, by correcting in the direction of decreasing the degree of similarity, it is possible to reliably detect a "must not" pattern. In the embodiment, the example in which the alphabet printed on the IC package is recognized is disclosed. However, the present invention is applicable to the recognition of any captured or input character, symbol, or graphic image.
【0027】[0027]
【発明の効果】以上述べたように、本発明においては、
それぞれのマスターイメージ間の差分情報に基づいて作
成した特定イメージがそれぞれの差分イメージ中にどの
程度含まれるかによって類似度を補正するようにしたの
で、特定イメージ部分が判定に寄与する重み付けを大き
くすることが可能となり、誤判定率を低減する効果があ
る。また、比較的処理が簡単で高速に処理が可能であ
る。従って、製品検査等に使用した場合に歩留まりが向
上するという効果がある。As described above, in the present invention,
Since the degree of similarity is corrected based on how much the specific image created based on the difference information between the master images is included in each difference image, the weight of the specific image portion contributing to the determination is increased. It is possible to reduce the erroneous determination rate. Further, the processing is relatively simple and the processing can be performed at high speed. Therefore, there is an effect that the yield is improved when used for product inspection or the like.
【図1】本発明が適用される認識システムの構成例を示
すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a recognition system to which the present invention is applied.
【図2】マスター文字間の差分パターン表の内容を示す
説明図である。FIG. 2 is an explanatory diagram showing the contents of a difference pattern table between master characters.
【図3】本発明を適用した文字認識処理の内容を示すフ
ローチャートである。FIG. 3 is a flowchart showing the contents of a character recognition process to which the present invention is applied.
【図4】認識処理の各過程におけるイメージ情報例を示
す説明図である。FIG. 4 is an explanatory diagram showing an example of image information in each step of a recognition process.
10…被検査体(ICパッケージ)、11…ワーク位置
決め治具、12…CCDカメラ、13…画像認識装置、
14…CPU、15…ROM、16…RAM、17…A
/D変換器、18…I/Oインターフェイス回路、19
…HDDインターフェイス回路、20…ハードディスク
装置、21…CRTインターフェイス回路、22…CR
Tモニタ装置、23…照明装置10: inspection object (IC package), 11: work positioning jig, 12: CCD camera, 13: image recognition device,
14 CPU, 15 ROM, 16 RAM, 17 A
/ D converter, 18 ... I / O interface circuit, 19
... HDD interface circuit, 20 ... Hard disk drive, 21 ... CRT interface circuit, 22 ... CR
T monitor device, 23 ... lighting device
Claims (3)
メージと、第2のマスターイメージのどちらに類似して
いるかを判定する場合に、 認識すべきイメージとそれぞれのマスターイメージとの
差分によってそれぞれ類似度を求め、 それぞれのマスターイメージ間の差分情報に基づいて作
成した特定イメージが前記それぞれの差分イメージ中に
どの程度含まれるかによって前記それぞれの類似度を補
正し、 補正後の類似度によって判定を行うことを特徴とするイ
メージ認識方法。When determining whether an image to be recognized is similar to a first master image or a second master image, the similarity is determined by a difference between the image to be recognized and each master image. The similarity is corrected based on the degree to which the specific image created based on the difference information between the master images is included in each of the difference images, and the determination is made based on the corrected similarity. An image recognition method characterized by performing.
マスターイメージデータとの差分である第1の差分デー
タを求め、該第1の差分データから認識すべきイメージ
データと第1のマスターイメージデータとの第1の類似
度を算出する工程。 (2)認識すべきイメージデータと第2のマスターイメ
ージデータとの差分である第2のデータを求め、該第2
の差分データから認識すべきイメージデータと第2のマ
スターイメージデータとの第2の類似度を算出する工
程。 (3)第1のマスターイメージデータに存在し、第2の
マスターイメージデータには存在しない画像データの内
の少なくとも一部である第1の特定画像データが、上記
第1の差分データ内に存在する量と対応した第1の補正
量を求める工程。 (4)第1のマスターイメージデータに存在せず、第2
のマスターイメージデータには存在する画像データの内
の少なくとも一部である第2の特定画像データが、上記
第1の差分データ内に存在する量と対応した第2の補正
量を求める工程。 (5)第1のマスターイメージデータに存在し、第2の
マスターイメージデータには存在しない画像データの内
の少なくとも一部である第1の特定画像データが、上記
第2の差分データ内に存在する量と対応した第3の補正
量を求める工程。 (6)第1のマスターイメージデータに存在せず、第2
のマスターイメージデータには存在する画像データの内
の少なくとも一部である第2の特定画像データが、上記
第2の差分データ内に存在する量と対応した第4の補正
量を求める工程。 (7)前記第1の類似度について、前記第1の補正量に
基づき類似度が増加する方向に補正を行い、かつ前記第
2の補正量に基づき類似度が減少する方向に補正を行う
工程。 (8)前記第2の類似度について、前記第3の補正量に
基づき類似度が増加する方向に補正を行い、かつ前記第
4の補正量に基づき類似度が減少する方向に補正を行う
工程。 (9)補正後の第1および第2の類似度の大小により、
認識すべきイメージデータが前記第1のマスターイメー
ジデータと前記第2のマスターイメージデータのどちら
に類似しているかを判定する工程。を含むことを特徴と
するイメージ認識方法。(1) First difference data, which is a difference between the image data to be recognized and the first master image data, is obtained, and the image data to be recognized and the first master data are determined from the first difference data. Calculating a first similarity with the image data; (2) calculating second data which is a difference between the image data to be recognized and the second master image data;
Calculating a second similarity between the image data to be recognized and the second master image data from the difference data. (3) First specific image data that is at least a part of image data that exists in the first master image data but does not exist in the second master image data exists in the first difference data. Calculating a first correction amount corresponding to the amount to be corrected. (4) Not present in the first master image data,
Obtaining a second correction amount corresponding to the amount of the second specific image data, which is at least a part of the image data existing in the master image data, existing in the first difference data. (5) First specific image data that is at least a part of image data that is present in the first master image data but is not present in the second master image data exists in the second difference data. Calculating a third correction amount corresponding to the amount to be corrected. (6) Not present in the first master image data,
Obtaining a fourth correction amount corresponding to the amount of the second specific image data, which is at least a part of the image data existing in the master image data, in the second difference data. (7) A step of correcting the first similarity in a direction in which the similarity increases based on the first correction amount, and correcting the first similarity in a direction in which the similarity decreases based on the second correction amount. . (8) A step of correcting the second similarity in a direction in which the similarity increases based on the third correction amount, and correcting the second similarity in a direction in which the similarity decreases based on the fourth correction amount. . (9) According to the magnitude of the corrected first and second similarities,
Determining whether the image data to be recognized is similar to the first master image data or the second master image data. An image recognition method comprising:
ージに類似しているかを判定するイメージ認識装置にお
いて、認識すべきイメージとそれぞれのマスターイメー
ジとの差分によってそれぞれの類似度を求める類似度算
出手段と、 それぞれのマスターイメージ間の差分情報に基づいて作
成した特定イメージが前記それぞれの差分イメージ中に
どの程度含まれるかによって前記それぞれの類似度を補
正する類似度補正手段と、 補正後の類似度によって判定を行う判定手段とを含むこ
とを特徴とするイメージ認識装置。3. An image recognizing apparatus for determining which master image an image to be recognized is similar to, and a similarity calculating means for calculating respective similarities based on a difference between the image to be recognized and each master image. A similarity correction unit that corrects the respective similarities according to how many specific images created based on the difference information between the respective master images are included in the respective difference images; An image recognition device, comprising: a determination unit for performing a determination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10040017A JPH11238135A (en) | 1998-02-23 | 1998-02-23 | Method and device for image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10040017A JPH11238135A (en) | 1998-02-23 | 1998-02-23 | Method and device for image recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11238135A true JPH11238135A (en) | 1999-08-31 |
Family
ID=12569149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10040017A Pending JPH11238135A (en) | 1998-02-23 | 1998-02-23 | Method and device for image recognition |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11238135A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038716A1 (en) * | 2003-10-21 | 2005-04-28 | Nec Corporation | Image collation system and image collation method |
JP2015032088A (en) * | 2013-08-01 | 2015-02-16 | 株式会社デンソー | Character recognition device and character recognition method |
-
1998
- 1998-02-23 JP JP10040017A patent/JPH11238135A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005038716A1 (en) * | 2003-10-21 | 2005-04-28 | Nec Corporation | Image collation system and image collation method |
JPWO2005038716A1 (en) * | 2003-10-21 | 2007-01-25 | 日本電気株式会社 | Image collation system and image collation method |
US7715619B2 (en) | 2003-10-21 | 2010-05-11 | Nec Corporation | Image collation system and image collation method |
JP4556873B2 (en) * | 2003-10-21 | 2010-10-06 | 日本電気株式会社 | Image collation system and image collation method |
JP2015032088A (en) * | 2013-08-01 | 2015-02-16 | 株式会社デンソー | Character recognition device and character recognition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6778703B1 (en) | Form recognition using reference areas | |
WO2005096181A1 (en) | Learning type classification device and learning type classification method | |
US20060008148A1 (en) | Character recognition device and method | |
US6188780B1 (en) | Image collation device | |
JPH0256708B2 (en) | ||
CN114187247A (en) | Ampoule bottle printing character defect detection method based on image registration | |
JPH0256707B2 (en) | ||
JPH11238135A (en) | Method and device for image recognition | |
JP2613959B2 (en) | Fingerprint pattern classification device | |
CN109886276B (en) | Half-word judging method for dial rolling digital character | |
JP2005250786A (en) | Image recognition method | |
JP7075770B2 (en) | Character recognition system, character sharpening system, character sharpening program, character sharpening method, and character sharpening image display device | |
JP2006065581A (en) | Recognition method and inspection method of character and graphic | |
JPH11272801A (en) | Method for recognizing series of patterns in image and its detecting deformation and record medium where its program is recorded | |
CN117710985B (en) | Optical character recognition method and device and intelligent terminal | |
JP2001236467A (en) | Method and device for pattern recognition, and recording medium with pattern recognition program recorded thereon | |
JP4027689B2 (en) | Image rotation angle detection method, apparatus and recording medium | |
JP3705216B2 (en) | Character entry frame detection method, character entry frame detection device and program | |
JP2000352928A (en) | Method and device for character information editing and working, and recording medium recording character information editing and working program | |
JP3948943B2 (en) | Graphic recognition method and apparatus | |
JPH05114047A (en) | Device for segmenting character | |
JP2023012225A (en) | Support system, support method, and program | |
JP2974167B2 (en) | Large Classification Recognition Method for Characters | |
KR20220168787A (en) | Method to extract units of Manchu characters and system | |
JPH06309503A (en) | English character recognizing device |