JPS62281090A - Recognition method for pattern information - Google Patents
Recognition method for pattern informationInfo
- Publication number
- JPS62281090A JPS62281090A JP61123704A JP12370486A JPS62281090A JP S62281090 A JPS62281090 A JP S62281090A JP 61123704 A JP61123704 A JP 61123704A JP 12370486 A JP12370486 A JP 12370486A JP S62281090 A JPS62281090 A JP S62281090A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- matching
- area
- specific
- pattern information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000009826 distribution Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 101100524645 Toxoplasma gondii ROM5 gene Proteins 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【発明の詳細な説明】
3、発明の詳細な説明
[産業上の利用分野]
本発明は未知の英字、数字等の文字を自動的に読み取っ
て認識するパターン情報認識方法に関する。Detailed Description of the Invention 3. Detailed Description of the Invention [Field of Industrial Application] The present invention relates to a pattern information recognition method for automatically reading and recognizing unknown characters such as alphabets and numbers.
[従来の技術]
従来この種の文字認識装置の文字認識処理を第13図に
示す。[Prior Art] FIG. 13 shows character recognition processing of a conventional character recognition device of this type.
原稿用紙P上の文字をステップS81に示す如く1文字
毎に読込んで光電変換し、これを更にステップS82で
1°’、”oooの2値データのパターンに変換してい
る。続くステップS83で、後に説明する処理を効果的
にするための前処理、即ちステップS82で2値化され
たパターンに基づき文字が記録されている用紙P上の黒
点などのノイズ処理や文字図形境界面の平滑化などを含
む一連の処理がなされる。The characters on the manuscript paper P are read character by character and photoelectrically converted as shown in step S81, and further converted into a binary data pattern of 1°' and "ooo" in step S82. In the following step S83 , Pre-processing to make the processing described later effective, that is, noise processing such as black dots on paper P on which characters are recorded based on the binarized pattern in step S82, and smoothing of character/figure boundary surfaces. A series of processes including the following are performed.
次にステップS84で文字認識を行うのに必要ないくつ
かの特徴(交点、分岐点、ループ数、ストロークの長さ
情報など)を抽出する特徴抽出処理が行われる。この抽
出結果に応じて、多数の文字より特徴が共通するいくつ
かの文字が選択される。Next, in step S84, feature extraction processing is performed to extract several features (intersections, branch points, number of loops, stroke length information, etc.) necessary for character recognition. Depending on this extraction result, some characters with common features are selected from a large number of characters.
更に、ステップS85以下でその中から唯一の文字の選
択を行うための識別処理としての辞書照合処理、及び認
識処理がなされる。Further, from step S85 onward, dictionary collation processing and recognition processing are performed as identification processing for selecting a unique character from among the characters.
まずステップS85で抽出された特徴に従って辞書を誘
導(検索)することが可能か否かを調べる。ここで抽出
した特徴が辞書を誘導するに値しないものである場合に
はステップS88に進み、認識不能が出力される。一方
、抽出特徴点により辞書説導可能であればステップ38
8で備えつけの辞書を検索し、先に抽出した特徴と順次
照合する。ステップS87で照合の結果一致すると、ス
テップ388で当該一致した結果を認識出力として出力
する。一致がとれない場合には認識不能として出力する
。First, it is checked whether it is possible to guide (search) the dictionary according to the features extracted in step S85. If the feature extracted here is not worthy of guiding a dictionary, the process advances to step S88, and unrecognizable is output. On the other hand, if dictionary guidance is possible based on the extracted feature points, step 38
In step 8, the built-in dictionary is searched and sequentially compared with the previously extracted features. If a match is found as a result of the comparison in step S87, the matching result is outputted as a recognition output in step 388. If a match cannot be found, it is output as unrecognizable.
[発明が解決しようとする問題点]
ところが、この従来の認識方法によると、簡易な文字(
認識されやすい文字)、アルファベット、数字だけの場
合などに対しても、前記の複雑な処理を行うため、処理
時間がかかり過ぎるという欠点があった。[Problems to be solved by the invention] However, according to this conventional recognition method, simple characters (
Since the above-mentioned complicated processing is performed even for cases where only characters (which are easily recognized), alphabets, and numbers are included, there is a drawback that the processing time is too long.
又、上記処理を実現するための構成も複雑であり、コス
トアップや信頼性の点においても種々の問題点を抱えて
いた。Further, the configuration for realizing the above processing is also complicated, and there are various problems in terms of increased cost and reliability.
[問題点を解決するための手段]
本発明は前記した従来技術の問題点に鑑み成されたもの
で、上述の問題点を解決する一手段として以下の構成を
備える。[Means for Solving the Problems] The present invention has been made in view of the problems of the prior art described above, and includes the following configuration as a means for solving the above problems.
即ち、読取面上のパターン情報を光学的に読取る読取手
段と、該手段で読み取ったパターン情報を所定の領域毎
に分割する領域分割手段と、該領域分割手段で分割した
各領域毎の代表パターン値を特定する特定手段と、該特
定手段の特定パターンと予め保持する標準特定パターン
とを照合する第1の照合手段と、該手段で1に特定され
ない場合には、前記読取手段での読取パターン情報のう
ちの一部の少なくとも1つの特定領域の前記特定手段の
特定パターンのパターンマツチングを行なう第2の照合
手段より成る。That is, a reading means for optically reading pattern information on a reading surface, an area dividing means for dividing the pattern information read by the means into each predetermined area, and a representative pattern for each area divided by the area dividing means. a specifying means for specifying the value; a first matching means for comparing the specific pattern of the specifying means with a standard specific pattern held in advance; and, if the value is not specified by the means, a reading pattern by the reading means; The second matching means performs pattern matching of the specific pattern of the identifying means in at least one specific area of a part of the information.
[作用]
以上の構成において、読取手段で読み取ったパターン情
報を分割手段により所定の領域毎に分割し、該分割手段
により分割された各領域毎の代表値を求め、この代表値
と予め保持する標準パターンとのマツチングを行ない、
マツチングが取れれば当該標準パターンに対応するパタ
ーンの読み取りと認識し、マツチングが取れない場合に
は読み取りパターンの一部の特定領域についてのみ更に
パターンマツチングを取ってパターンの認識をする。[Operation] In the above configuration, the pattern information read by the reading means is divided into predetermined regions by the dividing means, a representative value for each divided region is determined by the dividing means, and this representative value is stored in advance. Performs matching with standard pattern,
If matching is achieved, it is recognized that a pattern corresponding to the standard pattern has been read, and if matching is not possible, pattern matching is further performed only on a specific area of the read pattern to recognize the pattern.
[実施例]
以下、図面を参照して本発明に係る一実施例を詳細に説
明する。[Example] Hereinafter, an example according to the present invention will be described in detail with reference to the drawings.
第1図は本発明の一実施例のブロック図であり、図中1
はOMRによるキーワードを含む文書画像情報を読み込
み電気信号に変換するリーダ、2はリーダ1で読み取っ
た画像情報を記憶する光ディスク、3は本実施例全体を
制御するホストコンピュータ、4はキーボード、5は画
像情報やオペレーション情報等を表示するCRT、6は
画像情報等を印刷出力するプリンタである。また、7は
リーダ1の原稿読み取り面に原稿を1枚毎に自動送りす
るオートフィーダである。FIG. 1 is a block diagram of one embodiment of the present invention.
2 is an optical disk that stores the image information read by the reader 1; 3 is a host computer that controls the entire embodiment; 4 is a keyboard; 5 is a A CRT displays image information, operation information, etc., and 6 is a printer that prints out the image information. Further, reference numeral 7 denotes an auto feeder that automatically feeds originals one by one to the original reading surface of the reader 1.
ホストコンピュータ3において、50はROM51に記
憶された第4図に示す制御プログラムに従って本装置全
体を制御するCPUであり、CPU50は例えばモトロ
ーラ社製のマイクロコンピュータMC68000等で構
成することが望ましい。51はROMであり、ROM5
1には標準特徴パターン記憶領域51aが含まれる。5
2はCRT5とのインタフェースを司どるCRTインタ
フェース、53はキーボード4とのインタフェースを司
どるキーボードインタフェース、54は光ディスクとの
インタフェースを司どる光デイスクインタフェースであ
る。また、55はリーダ1とのインタフェースを司どる
リーダインタフェース、56はプリンタ6とのインタフ
ェースを司どるプリンタインタフェース、57は処理経
過や、読み取りマークの認識処理経過等の記憶されるR
AM、60は各構成間を接続するバスである。In the host computer 3, 50 is a CPU that controls the entire apparatus according to the control program shown in FIG. 4 stored in the ROM 51. The CPU 50 is preferably configured with a microcomputer MC68000 manufactured by Motorola, for example. 51 is a ROM, ROM5
1 includes a standard feature pattern storage area 51a. 5
2 is a CRT interface that controls the interface with the CRT 5; 53 is a keyboard interface that controls the interface with the keyboard 4; and 54 is an optical disk interface that controls the interface with the optical disk. Further, 55 is a reader interface that controls the interface with the reader 1, 56 is a printer interface that controls the interface with the printer 6, and 57 is an R that stores the processing progress, the reading mark recognition processing progress, etc.
AM, 60 is a bus that connects each component.
RAM57の詳細記憶領域を第2図に示す。A detailed storage area of the RAM 57 is shown in FIG.
第2図において、21はパターンバッファ、22はライ
ンヒストグラムバッファ、23は領域ヒストグラムバッ
ファ、24は読取りパターンである。In FIG. 2, 21 is a pattern buffer, 22 is a line histogram buffer, 23 is an area histogram buffer, and 24 is a read pattern.
以上の構成を備える本実施例の外観図を第3図に示す。FIG. 3 shows an external view of this embodiment having the above configuration.
図中第1図と同様構成については同一番号を付した。8
はリーダ1とホストコンピュータ3とのインタフェース
ケーブル、9はプリンタ6とホストコンピュータ3との
インタフェースケーブルである。In the figure, the same components as in FIG. 1 are given the same numbers. 8
9 is an interface cable between the reader 1 and the host computer 3, and 9 is an interface cable between the printer 6 and the host computer 3.
以上の構成を備える本実施例の動作を第4図のフローチ
ャートを参照して以下に説明する。The operation of this embodiment having the above configuration will be explained below with reference to the flowchart of FIG.
第4図においても第13図と同様に、リーダ1にセット
された原稿上のパターンを読み取り、認識する処理を例
に説明する。In FIG. 4, as in FIG. 13, the process of reading and recognizing a pattern on a document set on the reader 1 will be explained as an example.
まず、ステップS1でCPU50はリーダインタフェー
ス55を介してリーダ1を起動し、読み取り原稿面を走
査して原稿面の画像データを読み込む。First, in step S1, the CPU 50 activates the reader 1 via the reader interface 55, scans the surface of the document to be read, and reads image data on the surface of the document.
原稿面は例えば第12図に示ずOMRシートの下部に囚
のマークを配置し、該マーク上に活字パターンを第11
図に示すように塗る。そして、上記OMRシートは電子
ファイルシステムのキーワードの登録、ファクシミリの
電話番号人力、複写機などの画像形成装置のコピ一枚数
、縮率などのモード設定用に使用する。For example, the manuscript surface is not shown in FIG.
Apply as shown. The OMR sheet is used for registering keywords in an electronic file system, manually setting a telephone number for a facsimile, and setting modes such as the number of copies and reduction ratio of an image forming apparatus such as a copying machine.
第11図に示すようなフォーマットを固定し、その上に
定形パターンの文字を書く方法を取ると、その後の処理
はより簡単になる。なお、第11図には’A” 〜”Z
”及び” t ” 〜” o ” (7)定型パターン
が示されている。If the format shown in FIG. 11 is fixed and a fixed pattern of characters is written on it, subsequent processing becomes easier. In addition, 'A' to 'Z' are shown in Figure 11.
” and “t” to “o” (7) A regular pattern is shown.
第11図のフォーマットの基本パターンはX方向3本、
X方向3本のストロークで構成された「田」の字と斜め
2方のストローク「X」を組み合せた形の一部となって
いる。The basic pattern of the format shown in Figure 11 is three lines in the X direction,
It is part of the shape that combines the character ``Ta'', which is made up of three strokes in the X direction, and the ``X'' strokes in two diagonal directions.
以下、原稿面のマーク位置にO“′が書込まれており、
このt、+−=を読み込んだ場合の認識処理を例に説明
する。Below, O"' is written at the mark position on the manuscript surface,
The recognition process when t, +-= are read will be explained as an example.
ステップS1でリーダ1により光電変換されて読み込ま
れた信号は、ステップs2に示す如くリーダインタフェ
ース55に送られ、リーダインタフェース55に内蔵の
アナログ−デジタルコンバータにより“1”、No”の
2値パターンのデジタル信号に変換され、変換されたデ
ジタル信号はCPU50に入力される。The signal photoelectrically converted and read by the reader 1 in step S1 is sent to the reader interface 55 as shown in step s2, and converted into a binary pattern of "1" and "No" by the analog-to-digital converter built into the reader interface 55. It is converted into a digital signal, and the converted digital signal is input to the CPU 50.
CPU50は、このようにして入力されたデジタルデー
タを順次RAM57のパターンバッファ21に格納する
。本実施例においては、文字パターンは1文字48ビツ
ト×48ビツトの領域に区切られてパターンバッファ2
1へ格納される。The CPU 50 sequentially stores the thus input digital data in the pattern buffer 21 of the RAM 57. In this embodiment, the character pattern is divided into areas of 48 bits x 48 bits per character and stored in the pattern buffer.
1.
CPU50はステップs3でこのデジタルデータな複数
の所定領域毎に分割する。読取パターンは、例えば第5
図(A)の1〜1oに示す各所定領域に分割される。そ
してステップs4でこの分割した各領域のライン毎の所
定範囲内の黒密度の連続によるストローク入力を検出し
、該入力ストローク分布のヒストグラムを求める。なお
、黒密度のある場合にはヒストグラムはパ1°°となり
、黒密度の無い時にはヒストグラムは“0゛となる。そ
してステップS5で求めたストローク分布のヒストグラ
ムをRAM57のラインヒストグラムバッファ22に格
納する。In step s3, the CPU 50 divides this digital data into a plurality of predetermined areas. The reading pattern is, for example, the fifth
It is divided into each predetermined area shown in 1 to 1o in Figure (A). Then, in step s4, a stroke input due to continuous black density within a predetermined range for each line of each divided area is detected, and a histogram of the input stroke distribution is determined. Note that when there is black density, the histogram is 1°, and when there is no black density, the histogram is 0. Then, the histogram of the stroke distribution obtained in step S5 is stored in the line histogram buffer 22 of the RAM 57. .
このヒストグラムの検出はこの例に限るものではなく、
以上の処理に変え、黒密度が所定量以上連続した場合に
ストローク人力と判別してもよい。This histogram detection is not limited to this example.
Instead of the above process, it may be determined that the stroke is made manually when the black density continues to be equal to or greater than a predetermined amount.
例えば、第5図(A)のように分割された領域1におけ
る横方向の各ライン毎のストローク分布のヒストグラム
は、第5図(B)51に示すように、1ライン目から順
に°’2,2,2,2.2”となる。For example, the histogram of the stroke distribution for each line in the horizontal direction in region 1 divided as shown in FIG. 5(A) is as shown in FIG. , 2, 2, 2.2''.
続いてステップS6で先に求めた所定領域内のライン毎
のヒストグラムの最小値を求め、これを所定領域の代表
値の1つとしてRAM 57の領域ヒストグラムバッフ
ァ23に格納する。上述の領域1においては2゛°とな
る。同様にステップS7で先に求めた所定領域内のライ
ン毎のヒストグラム分布の最大発生ストローク数を求め
、これも所定領域の代表値の1つとしてRAM57の領
域ヒストグラムバッファ23に格納する。上述の領域1
においてはヒストグラム分布の最大発生ストローク数も
°゛2”となる。Subsequently, in step S6, the minimum value of the histogram for each line within the predetermined region obtained earlier is obtained, and this is stored in the region histogram buffer 23 of the RAM 57 as one of the representative values of the predetermined region. In region 1 mentioned above, it is 2°. Similarly, in step S7, the maximum number of strokes generated in the histogram distribution for each line within the predetermined region previously obtained is obtained, and this is also stored in the region histogram buffer 23 of the RAM 57 as one of the representative values of the predetermined region. Area 1 mentioned above
In this case, the maximum number of strokes generated in the histogram distribution is also 0.2''.
そしてステップS8で領域ヒストグラムバッファ23に
格納された代表値より当該読取りパターンの照合パター
ンを求め(特徴を抽出し)、RAM57の読み取りパタ
ーン24に格納する。Then, in step S8, a matching pattern for the reading pattern is determined (extracting features) from the representative values stored in the area histogram buffer 23, and is stored in the reading pattern 24 in the RAM 57.
この照合パターン(特徴抽出)は自由に設定することが
でき、例えば各領域毎の各領域の代表値(特徴)を、あ
る領域ではヒストグラム分布の最大発生ストローク数を
代表値とし、他の領域ではヒストグラムの最小値を領域
の代表値とすることかできる。This matching pattern (feature extraction) can be set freely.For example, the representative value (feature) of each region for each region is set to the maximum number of strokes that occur in the histogram distribution, and the maximum number of strokes generated in the histogram distribution is used as the representative value for each region, and for other regions, The minimum value of the histogram can be used as the representative value of the area.
ここでは各領域の代表値をヒストグラムの最小値とした
場合を例に説明する。各領域の代表値としてヒストグラ
ムの最小値とした場合の、RAM57の読み取りパター
ン24に格納される照合パターンは、第6図(A)に示
すようになる。Here, an example will be explained in which the representative value of each area is the minimum value of the histogram. When the minimum value of the histogram is used as the representative value of each area, the matching pattern stored in the read pattern 24 of the RAM 57 is as shown in FIG. 6(A).
続くステップSIOでROM51の標準特徴パターン5
1aに記憶の標準パターンと、読取りパターン24に格
納されている抽出された特徴パターンとのマツチングを
行なう。その結果、ステップSitでパターンの一致が
得られない場合にはステップS12に進み、認識不能を
出力して処理を終了する。そして再び次のパターンの読
み込み処理等を実行する。In the following step SIO, standard characteristic pattern 5 of ROM51
The standard pattern stored in 1a is matched with the extracted feature pattern stored in the read pattern 24. As a result, if no pattern matching is obtained in step Sit, the process proceeds to step S12, where an unrecognizable message is output and the process ends. Then, the next pattern reading process is executed again.
一致が得られれば、ステップS13に進み、一致の得ら
れたパターンが1つか否かを調べる。If a match is found, the process proceeds to step S13, where it is checked whether there is only one pattern that matches.
1つの場合にはステップS14に進み、一致したパター
ンの入力として認識し、認識結果を出力する。一方、一
致が得られた標準パターンが複数ある場合にはステップ
S13よりステップS15に進む。If there is only one pattern, the process advances to step S14, where it is recognized as a matched pattern input, and the recognition result is output. On the other hand, if there are a plurality of matched standard patterns, the process advances from step S13 to step S15.
例えば第11図の人カバターンの場合には、以下の各人
力が同一パターンとみなされてしまう。For example, in the case of the human cover turn shown in FIG. 11, the following human forces are considered to be the same pattern.
■″U”とV″
■ ” 5 ” と ″ Z ” と
“ 2” と ″ S ″■ ″ L ″ と
″ T ” と ″ 1 °° と
“ 7 ″そこで、このような場合には各パターンに特
有の特定小領域におけるパターンマツチングを行なう。■``U'' and V'' ■ ``5'' and ``Z''
“2” and “S”■ “L” and “T” and “1 °° and
"7" Therefore, in such a case, pattern matching is performed in a specific small area specific to each pattern.
この各パターン毎のマツチング領域を第7図〜第9図に
示す。第7図(A)、(B)は上記■の場合を、第8図
(A)〜(D)は■の場合を、第9図(A)〜(D)は
■の場合を示している。The matching areas for each pattern are shown in FIGS. 7 to 9. Figures 7 (A) and (B) show the case of ■ above, Figures 8 (A) to (D) show the case of ■, and Figures 9 (A) to (D) show the case of ■. There is.
これらの各領域においては、黒密度が有るか無いかであ
り、領域内に少なくとも1つ以」二の黒密度が存在する
か否かのみを判別すれば足りる。In each of these areas, there is a black density or not, and it is sufficient to determine whether or not there is at least one or two black densities in the area.
このように簡単なパターンマツチング処理で、所望のパ
ターンを特定できる。A desired pattern can be specified by such a simple pattern matching process.
候補パターンが“U ”の場合には標準特徴パターン5
1aに格納されている標準特徴パターンは第6図(B)
に示すパターンであり、第6図(A)に示す読取りパタ
ーンと一致する。しかし、第10図に示すように第6図
(B)の候補文字パターンは°゛U′°のみではなく、
” v ”のパターンと同一である。そこでステップ5
15の特徴抽出処理である特定の小領域のパターンマツ
チング処理を実行することになる。この場合には、第7
図71に示す領域について黒密度を調べる。If the candidate pattern is “U”, standard feature pattern 5
The standard feature pattern stored in 1a is shown in Figure 6 (B).
This pattern corresponds to the reading pattern shown in FIG. 6(A). However, as shown in Fig. 10, the candidate character pattern in Fig. 6 (B) is not only °゛U'°;
It is the same as the "v" pattern. So step 5
A pattern matching process for a specific small area, which is the feature extraction process No. 15, is executed. In this case, the seventh
The black density of the area shown in FIG. 71 is examined.
人力が“U”であれば読取りデータは72に示すパター
ンであるため、この領域に多数の黒密度データが存在す
る。CPU50はこれにより読取りパターンを“U”と
特定できることになる。なお、この小領域の黒密度の検
出は1つ以上により判定するのではなく、所定以上の黒
密度データが検出された時に黒密度有りと判定してもよ
い。これにより更にゴミ等の影響を除去することができ
る。If the human power is "U", the read data is the pattern shown in 72, so a large amount of black density data exists in this area. This allows the CPU 50 to specify the reading pattern as "U". Note that the detection of the black density of this small area may not be determined based on one or more, but it may be determined that black density is present when black density data of a predetermined value or more is detected. This makes it possible to further eliminate the influence of dust and the like.
以上説明した様に本実施例によれば、
■ストローク分布の比較だけでは認識できない、特徴の
共通するパターンの絞り込みが簡単かつ高速で可能であ
る。即ち、特定の小領域のみの簡単なパターンマツチン
グを行なうのみで、多数候補のうちより特定の1つに特
定することができる。As explained above, according to this embodiment, (1) It is possible to easily and quickly narrow down patterns with common features that cannot be recognized by comparing stroke distributions alone. That is, by simply performing pattern matching on only a specific small area, one of the many candidates can be specified.
■さらに、照合されるデータ量が少ないため、処理時間
が大幅に削減される。■Furthermore, since the amount of data to be collated is small, processing time is significantly reduced.
このように、文字認識装置の簡易な文字の認識における
欠点を解消し、簡易な文字の認識に必要な処理時間を短
縮し、高速、かつ、高精度の文字認識が可能となる。In this way, the drawbacks of the character recognition device in recognizing simple characters can be overcome, the processing time required for simple character recognition can be shortened, and character recognition can be performed at high speed and with high accuracy.
更に、定形パターン(活字型)の数字、もしくはアルフ
ァベットの文字を、高速かつ高精度に認識することがで
きる。Furthermore, it is possible to recognize numbers in a fixed pattern (printed type) or letters of the alphabet at high speed and with high precision.
[発明の効果]
以上説明した如く、本発明によれば、非常に短時間で、
かつ正確なパターン認識処理が行なえる。[Effect of the invention] As explained above, according to the present invention, in a very short time,
Moreover, accurate pattern recognition processing can be performed.
第1図は本発明に係る一実施例のブロック図、第2図は
第1図に示すRAMの詳細構成図、第3図は本実施例の
外観図、
第4図は本実施例のパターン認識制御フローチャート、
第5図(A)、(B)は本実施例のパターンバッファへ
の読取りパターン格納例を示す図、第6図(A)、(B
)は本実施例によるマツチングパターンを示す図、
第7図(A)、(B)、第8図(A)〜(D)及び第9
図(A)〜(D)は本実施例の特徴抽出のための小領域
の設定例を示す図、
第第10図は本実施例のu ”認識処理を説明する図、
第11図は本実施例で用いる標準人カバターンを示す図
、
第12図は本実施例で用いられるOMRシートを示す図
、
第13図は従来のパターン認識処理を示すフローチャー
トである。
図中、1・・・ リーダ、2・・・光ディスク、3・・
・ホストコンピュータ、4・・・キーボード、5・・・
CRT、6・・・プリンタ、7・・・オートフィーダ、
5(1−CPU、51”・ROM、 51a−・−標準
特徴パターン記憶領域、52・・・CRTインタフェー
ス、53・・・キーボードインタフェース、54・・・
光デイスクインタフェース、55・・・リーダインタフ
ェース、56・・・プリンタインタフェース、57・・
・RAM、60・・・バスである。Fig. 1 is a block diagram of an embodiment according to the present invention, Fig. 2 is a detailed configuration diagram of the RAM shown in Fig. 1, Fig. 3 is an external view of this embodiment, and Fig. 4 is a pattern of this embodiment. Recognition control flowchart, FIGS. 5(A) and (B) are diagrams showing an example of storing read patterns in the pattern buffer of this embodiment, and FIGS. 6(A) and (B).
) are diagrams showing matching patterns according to this embodiment, FIGS. 7(A), (B), FIGS. 8(A) to (D), and
Figures (A) to (D) are diagrams showing examples of setting small regions for feature extraction in this embodiment, Figure 10 is a diagram explaining the u'' recognition process in this embodiment, and Figure 11 is a diagram illustrating the Figure 12 is a diagram showing a standard human cover turn used in this example, Figure 12 is a diagram showing an OMR sheet used in this example, and Figure 13 is a flowchart showing conventional pattern recognition processing. , 2... optical disc, 3...
・Host computer, 4...Keyboard, 5...
CRT, 6...Printer, 7...Auto feeder,
5 (1-CPU, 51''・ROM, 51a--Standard feature pattern storage area, 52...CRT interface, 53...Keyboard interface, 54...
Optical disk interface, 55...Reader interface, 56...Printer interface, 57...
-RAM, 60...is a bus.
Claims (5)
程と、該工程に続き読み取つたパターン情報を所定の領
域毎に分割する領域分割工程と、該領域分割工程で分割
された各領域毎の代表パターン値を特定する特定工程と
、該特定工程の特定パターンと予め保持する標準特定パ
ターンとを照合する第1の照合工程と、該工程で1に特
定されない場合には、前記読取工程での読取パターン情
報のうちの一部の少なくとも1つの特定領域の前記特定
工程の特定パターンのパターンマッチングを行なう第2
の照合工程とによりパターン情報の認識を行なうことを
特徴とするパターン情報認識方法。(1) A reading process that optically reads the pattern information on the reading surface, an area dividing process that divides the read pattern information into predetermined areas following this process, and each area divided in the area dividing process. a first matching step of comparing the specific pattern of the specific step with a standard specific pattern held in advance, and if the value is not specified as 1 in this step, A second step of performing pattern matching of the specific pattern of the specific step of at least one specific area of a part of the read pattern information of
A pattern information recognition method characterized in that pattern information is recognized by a matching step.
し検出したストローク分布のヒストグラムの最小値を前
記分割領域の代表値として特定することを特徴とする特
許請求の範囲第1項記載のパターン情報認識方法。(2) The pattern information recognition method according to claim 1, wherein the identifying step detects a histogram of stroke distribution and identifies the minimum value of the detected histogram of stroke distribution as the representative value of the divided area. .
し検出したストローク分布のヒストグラムの最大発生数
を前記分割領域の代表値として特定することを特徴とす
る特許請求の範囲第1項記載のパターン情報認識方法。(3) Pattern information recognition according to claim 1, characterized in that the identifying step detects a histogram of stroke distribution and identifies the maximum number of occurrences of the detected histogram of stroke distribution as a representative value of the divided area. Method.
出した黒密度の連続をストローク入力として特定するこ
とを特徴とする特許請求の範囲第2項又は第3項記載の
パターン情報認識方法。(4) Pattern information recognition according to claim 2 or 3, characterized in that the identifying step detects a continuity of black density within a certain range and identifies the detected continuity of black density as a stroke input. Method.
ーンマッチングは該特定領域に特定パターンの黒密度が
所定量以上有るか否かで判断することを特徴とする特許
請求の範囲第1項より第4項のいずれかに記載のパター
ン情報認識方法。(5) In the second matching step, pattern matching of a specific pattern in a specific area is determined based on whether the black density of the specific pattern in the specific area is greater than or equal to a predetermined amount. The pattern information recognition method according to any one of item 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61123704A JPS62281090A (en) | 1986-05-30 | 1986-05-30 | Recognition method for pattern information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61123704A JPS62281090A (en) | 1986-05-30 | 1986-05-30 | Recognition method for pattern information |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS62281090A true JPS62281090A (en) | 1987-12-05 |
Family
ID=14867280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61123704A Pending JPS62281090A (en) | 1986-05-30 | 1986-05-30 | Recognition method for pattern information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS62281090A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5745682A (en) * | 1980-08-29 | 1982-03-15 | Matsushita Graphic Commun Syst Inc | Character recognition system |
JPS60159987A (en) * | 1984-01-30 | 1985-08-21 | Omron Tateisi Electronics Co | Character recognizing device |
-
1986
- 1986-05-30 JP JP61123704A patent/JPS62281090A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5745682A (en) * | 1980-08-29 | 1982-03-15 | Matsushita Graphic Commun Syst Inc | Character recognition system |
JPS60159987A (en) * | 1984-01-30 | 1985-08-21 | Omron Tateisi Electronics Co | Character recognizing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0621542B1 (en) | Method and apparatus for automatic language determination of a script-type document | |
JP3445394B2 (en) | How to compare at least two image sections | |
Lakshmi et al. | An optical character recognition system for printed Telugu text | |
JPS62281090A (en) | Recognition method for pattern information | |
JP2020047031A (en) | Document retrieval device, document retrieval system and program | |
JPS62281091A (en) | Pattern information recognition method | |
JPS62281088A (en) | Recognition method for pattern information | |
JPS62281089A (en) | Recognition method for pattern information | |
JP2894111B2 (en) | Comprehensive judgment method of recognition result in optical type character recognition device | |
JP2578767B2 (en) | Image processing method | |
JPS62281094A (en) | Recognition method for pattern information | |
JPS62281092A (en) | Pattern information recognition method | |
JPS62281095A (en) | Recognition method for pattern information | |
JPS62281093A (en) | Recognition method for pattern information | |
JPH0757040A (en) | Filing device provided with ocr | |
JP2005208872A (en) | Image processing system | |
JP2993533B2 (en) | Information processing device and character recognition device | |
JP2578768B2 (en) | Image processing method | |
JP3160458B2 (en) | Character reading device and character reading method | |
JPS62281082A (en) | Character recognizing device | |
JPS6095689A (en) | Optical character reader | |
JPH06251187A (en) | Method and device for correcting character recognition error | |
JPH1069494A (en) | Image retrieval method and device therefor | |
JPS5914078A (en) | Reader of business form | |
JPH06187450A (en) | Pattern recognizing method and device therefor |