JPS63216185A - Composite pattern recognition system - Google Patents

Composite pattern recognition system

Info

Publication number
JPS63216185A
JPS63216185A JP5071087A JP5071087A JPS63216185A JP S63216185 A JPS63216185 A JP S63216185A JP 5071087 A JP5071087 A JP 5071087A JP 5071087 A JP5071087 A JP 5071087A JP S63216185 A JPS63216185 A JP S63216185A
Authority
JP
Japan
Prior art keywords
input image
cells
recognition
cell
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5071087A
Other languages
Japanese (ja)
Inventor
Yuko Harada
原田 優子
Mitsuo Ishii
石井 光雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5071087A priority Critical patent/JPS63216185A/en
Publication of JPS63216185A publication Critical patent/JPS63216185A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To attain high-speed recognition by obtaining correlation with an input image while using recognition dictionary data on its bases for each cell and allowing a host computer to select with the highest correlation thereby recognizing a composite pattern. CONSTITUTION:The host computer 3 is provided with a dictionary designation means 31 for designating the pattern in the recognition dictionary of plural cells 20, 21..., an input image broadcast means 32 for broadcasting the input image data to the cells 20, 21... and a decision means 33 for deciding an element pattern of an input image from the correlation data obtained by each cell. Since the cells 20, 21... take the correlation with the image data different in the recognition dictionary and the input image data, many candidates of patterns constituting the input image serving as the composite pattern exist, but it is possible to retrieve the constitution graph by the processing of the host computer. Since the parallel processing is applied by lots of cells, the recognition speed is quickened.

Description

【発明の詳細な説明】 [概 要] 入力画像と認識辞書中の指定された図形の標準画像との
相関を求める複数のセルの並列処理の結果から複合図形
を構成する要素図形を認識するように構成したもので、
従来困難であった複合図形の認識を容易且つ高速に行う
ことができる。
[Detailed Description of the Invention] [Summary] A method for recognizing elemental figures constituting a composite figure from the results of parallel processing of a plurality of cells to find a correlation between an input image and a standard image of a specified figure in a recognition dictionary. It is composed of
Complex figures, which have been difficult to recognize in the past, can be easily and quickly recognized.

[産業上の利用分野] 本発明はパターン認°識技術に係わり、特に複合図形を
認識する方式に関する。
[Industrial Application Field] The present invention relates to pattern recognition technology, and particularly to a system for recognizing complex figures.

近年、電子計算機への入力は、キーボードに代り、文字
や図形を直接入力する方法が増加しつつある。
BACKGROUND ART In recent years, the method of inputting information into electronic computers by directly inputting characters and figures has been increasing, instead of using a keyboard.

それに伴い種々なパターンに対応できる強力且つ高速な
認識技術が要求される。それらの中で、第6図に示すよ
うな複合図形の構成要素を、容易且つ高速に認識する方
式が必要とされる。
Accordingly, powerful and high-speed recognition technology that can handle various patterns is required. Among these, there is a need for a method for easily and quickly recognizing the constituent elements of a complex figure as shown in FIG.

[従来の技術] 従来のパターン認識方式を第7図に示す。[Conventional technology] A conventional pattern recognition method is shown in FIG.

図において、71はスキャナ等の画像入力装置であり、
74は画像入力装置71により入力され、計算m73の
主記憶へ格納された入力画像70の画像データである。
In the figure, 71 is an image input device such as a scanner,
74 is image data of the input image 70 inputted by the image input device 71 and stored in the main memory of the calculation m73.

76は磁気ディスク装置に格納された認識辞書であり、
75は認識辞書76から取り出した画像データである。
76 is a recognition dictionary stored in a magnetic disk device;
75 is image data extracted from the recognition dictionary 76.

入力画像データ74および認識辞書76中の画像データ
は、一般に正規化や特徴抽出などの画像処理を施したも
のである。
The input image data 74 and the image data in the recognition dictionary 76 have generally been subjected to image processing such as normalization and feature extraction.

従来のパターン認識方式では、まず入力画像に対して特
徴抽出を行い、そこで得られた特徴を用いて、認識辞書
中の多くの画像データ(一般に数千〜万×画像の種類価
)の中からよりよく合うものを探索していた。
In conventional pattern recognition methods, features are first extracted from the input image, and then the features obtained are used to extract data from a large amount of image data (generally several thousand to ten thousand times image type value) in the recognition dictionary. I was searching for something that would fit better.

[発明が解決しようとす゛る問題点] 従来のパターン認識方式においては、 (1)人力画像に対し特徴抽出を行うと、複合図形の場
合には、構成要素の図形の特徴が混じり合い、それらを
分離することが困難となり、従って認識辞書中の画像デ
ータとのマツチングをとることが難しく、複合図形の認
識が困難である。
[Problems to be solved by the invention] In the conventional pattern recognition method, (1) When feature extraction is performed on a human image, in the case of a complex figure, the features of the component figures are mixed, and it is difficult to extract them. It becomes difficult to separate them, and therefore it is difficult to match them with the image data in the recognition dictionary, making it difficult to recognize complex figures.

(2)認識辞書中には前記のように非常に多くの画像デ
ータが格納されており、それらとマツチングをとるには
時間がかかる。
(2) As mentioned above, a large amount of image data is stored in the recognition dictionary, and it takes time to match it.

といった問題点が生じていた。Such problems arose.

本発明は、このような従来の問題点を解消した複合パタ
ーン認識方式を提供しようとするものである。
The present invention aims to provide a composite pattern recognition method that solves these conventional problems.

[問題点を解決するための手段] 第1図は本発明の複合パターン認識方式の原理ブロック
図を示す。
[Means for Solving the Problems] FIG. 1 shows a block diagram of the principle of the complex pattern recognition method of the present invention.

図において、1は認識辞書であり、複合図形を構成する
要素図形の標準画像を格納する。
In the figure, reference numeral 1 denotes a recognition dictionary, which stores standard images of elemental figures constituting a complex figure.

2 o、 21.−はセルであり、認識辞書1中の指定
された図形の標準画像を読み出し、入力画像との相関を
求める相関計算手段21を備えている。
2 o, 21. - is a cell, which is equipped with a correlation calculation means 21 that reads out a standard image of a designated figure in the recognition dictionary 1 and calculates the correlation with the input image.

3はホスト計算機であり、複数のセル20、21。3 is a host computer, which includes a plurality of cells 20 and 21;

−の各々に認識辞書l中の使用すべき図形を指定する辞
書指定手段31と、各セル2 o、 2 +、−に入力
画像データを放送する入力画像放送手段32と、各セル
の求めた相関データから入力画像の要素図形を判定する
判定手段33を備えている。
Dictionary specifying means 31 for specifying the figure to be used in the recognition dictionary l for each cell 2 o, 2 +, - input image broadcasting means 32 for broadcasting input image data for each cell 2 o, 2 +, -; It is provided with a determining means 33 that determines the elemental figure of the input image from the correlation data.

[作用] 上記構成において、各セルが入力画像データと認識辞S
中のそれぞれ異なる画像データとの相関をとるため、複
合図形である入力画像を構成する図形の候補が多数でる
が、ホスト計算機の処理により構成図形を絞ることが可
能である。
[Operation] In the above configuration, each cell has input image data and recognition word S.
In order to correlate with different image data in the input image, a large number of candidate figures are generated that make up the input image, which is a complex figure, but it is possible to narrow down the constituent figures through processing by the host computer.

また、多数のセルにより並列処理を行うので、認識速度
の高速化が可能である。
Furthermore, since parallel processing is performed using a large number of cells, recognition speed can be increased.

[実施例] 以下第2図乃至第5図に示す実施例により、本発明をさ
らに具体的に説明する。
[Example] The present invention will be explained in more detail below with reference to Examples shown in FIGS. 2 to 5.

第2図は、本発明の一実施例の構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention.

図において、5は入力画像であり、4は画像入力装置で
ある。
In the figure, 5 is an input image, and 4 is an image input device.

20.21、22.・−は複数個のセルであり、各々プ
ロセッサとメモリを備えて並列計算機を構成するユニッ
トである。
20.21, 22. - is a plurality of cells, each of which is a unit that includes a processor and memory and constitutes a parallel computer.

3はホスト計算機であり、各セル20.21、22゜・
・−に入力画像を渡し、各セル20.21、22.・−
・からの出力を取り込み、入力画像と最も相関の高いも
のを決定する。
3 is a host computer, and each cell is 20.21, 22°.
- Pass the input image to each cell 20.21, 22.・−
- Take in the output from and determine the one that has the highest correlation with the input image.

■は磁気ディスク装置に格納された認識辞書であり、多
数の標準パターンの画像データからなる。
(2) is a recognition dictionary stored in the magnetic disk device, which consists of image data of a large number of standard patterns.

各セル20.21、22.−・−は、ホスト計算機3か
ら渡された入力画像データ22を共通に持ち、認識辞書
1からそれぞれホスト計算機3にらり指定された異なる
画像データ23を取り込み、認識辞書中のデータと入力
画像データとの相関をとり、その結果をホスト計算機3
に渡す。
Each cell 20.21, 22. -- and -- have in common the input image data 22 passed from the host computer 3, and each takes in different image data 23 specified by the host computer 3 from the recognition dictionary 1, and combines the data in the recognition dictionary and the input image. Correlate with the data and send the results to the host computer 3
give it to

6はホスト計算機3に接続した端末であり、操作者との
人間・機械間インタフェースを行う。
A terminal 6 is connected to the host computer 3 and provides a human-machine interface with the operator.

第3図は本発明の一実施例による複合図形の認識例を示
す図である。
FIG. 3 is a diagram showing an example of recognition of a complex figure according to an embodiment of the present invention.

図において、5は入力画像であり、3はホスト計算機で
あり、20、21.22.23はセルであり、1は認識
辞書である。
In the figure, 5 is an input image, 3 is a host computer, 20, 21, 22, and 23 are cells, and 1 is a recognition dictionary.

いま、認識辞書lには、○1ロ、△、×の4種類の辞書
画像が格納されているものとする。
It is now assumed that the recognition dictionary l stores four types of dictionary images: ○1, △, and ×.

入力画像データおよび辞書画像データは、共に二値画像
データとする。
Both input image data and dictionary image data are binary image data.

ホスト計算機3は、各セル20、 2 +、 22.2
3に辞書画像を割り当てた後、入力画像データを全セル
20、21、22.2tに放送する。
The host computer 3 has each cell 20, 2 +, 22.2
After assigning the dictionary image to cell 3, the input image data is broadcast to all cells 20, 21, and 22.2t.

各セル20.21、22.23は、割り当てられた辞書
画像データを認識辞書1中から取り出し、セル内に格納
する。
Each cell 20.21, 22.23 takes out the assigned dictionary image data from the recognition dictionary 1 and stores it within the cell.

ここでは、各セル20、21、22.23はそれぞれ一
つの辞書画像を割り当てられたとする。
Here, it is assumed that each cell 20, 21, 22.23 is assigned one dictionary image.

第1図は、各セルにおける処理の流れを示すフローチャ
ートである。
FIG. 1 is a flowchart showing the flow of processing in each cell.

図において、(a)は主フロー(MAIN)を示し、(
blは主フロー中の一つのステップの内容を示すサブフ
ロー1  (SUBI  (d、P))であり、(C)
はサブフロー1中の二つのステップの内容を示すサブフ
ロー2 (SUB2 (IMAG、d、v))であ出を
示す図である。
In the figure, (a) shows the main flow (MAIN), and (
bl is subflow 1 (SUBI (d, P)) indicating the content of one step in the main flow, and (C)
is a diagram showing the output of subflow 2 (SUB2 (IMAG, d, v)) showing the contents of two steps in subflow 1.

図に示す例は、分割数d=4の場合であり、画像を4×
4の領域に分割している。以下、第1図のフローチャー
トに従って各セルの処理の流れを説明する。
The example shown in the figure is a case where the number of divisions d=4, and the image is divided into 4×
It is divided into 4 areas. The flow of processing of each cell will be explained below according to the flowchart of FIG.

0画像の分割数dをnと定める処理である。This is a process in which the number of divisions d of the 0 image is determined as n.

■サブフロー1  (SUBI  (d、P))の処理
であって、辞書画像が入力画像に含まれる割合Pを求め
る処理であり、詳細はステップ0以下示す(第2図(b
))。
■This is the process of subflow 1 (SUBI (d, P)), which is the process of calculating the proportion P in which dictionary images are included in the input image.
)).

■人力画像をIIMAGとし、辞書画像をDIMAGと
する。
■Let the human image be IIMAG, and let the dictionary image be DIMAG.

■分割数dに対する入力画像の濃度値データvl@−1
人力画像IIMAGを2′′2分割する。第4図に示す
ように、d=4であれば、4×4−16の領域に分割す
る。
■Input image density value data vl@-1 for division number d
The human image IIMAG is divided into two 2'' parts. As shown in FIG. 4, if d=4, the area is divided into 4×4−16 areas.

o−2分割された領域番号をlとし、その領域の濃度値
をVとする。最初に1=0.v=なし、とおく。
Let l be the area number divided by o-2, and let V be the density value of that area. First 1=0. Let v=none.

■−31を1だけ増す(l=f+1)。■ Increase -31 by 1 (l=f+1).

@−41が2′′2に達したかを判定する。Yesであ
れば、サブフロー1のステップ@に戻り、N。
Determine whether @-41 has reached 2''2. If Yes, return to step @ of subflow 1, N.

であればステップ0−5へ進む。If so, proceed to steps 0-5.

@−5小領域lの濃度値Vを求める。小領域l内の黒画
素数がある値以上であればB(黒)とし、黒画素数があ
る価基FであればW(白)とし、黒画素数がその中間の
ある範囲であればG(灰色)とし、ステップ0−3へ戻
る。
@-5 Find the density value V of the small region l. If the number of black pixels in the small area l is greater than or equal to a certain value, it is designated as B (black), if the number of black pixels is F, then it is designated as W (white), and if the number of black pixels is within a certain range in between, it is designated as B (black). Set it to G (gray) and return to step 0-3.

ダ この処理を繰り返して、第4図に示すように、v=BW
WGGWG)38BBGGWWWのようなデータを得る
By repeating this process, v=BW as shown in FIG.
Get data like WGGWG) 38BBGGWWW.

0辞書画像DMAGの濃度値データvDを求める。The density value data vD of the 0 dictionary image DMAG is determined.

詳細は、■と同じく@−1以下による。Details are below @-1 as in ■.

■vlノード中にv[lの中の並びが一番多く含まれて
いる部分を捜し、それがvDO中に占める率Pを求める
。例えば、vI =BWWG ; vD=BWWWとす
ると、Pm3/4=0.75となる。
(2) Find the part that contains the most sequences in v[l in the vl node, and find the proportion P that it occupies in vDO. For example, if vI=BWWG; vD=BWWW, then Pm3/4=0.75.

この処理を終ると主フローに戻る。When this process is finished, the process returns to the main flow.

■ステップ■で求めたPの値Pkを他の全セルへ放送す
る。
■Broadcast the value Pk of P obtained in step ■ to all other cells.

■他セルからのPの値Piを受信する。■Receive the value Pi of P from another cell.

■他のセルからのPiO中で最大の値Pmを求める。(2) Find the maximum value Pm among the PiOs from other cells.

■自セルの求めたPkとPmを比較し、Pk<Pmを判
定する。Yesであれば、処理を中止(STOP)L、
Noであれば、ステップ■に進む。
(2) Compare Pk and Pm obtained by the own cell, and determine whether Pk<Pm. If Yes, stop the process (STOP) L,
If No, proceed to step ■.

■処理を中止したセルがあるかを判定し、Noであれば
、ステップ■へ飛び、Yesであればステップ■へ進む
(2) Determine whether there is a cell whose processing has been canceled. If No, proceed to step (2); if Yes, proceed to step (2).

■分割数dを一つ増しくd=d+1)、ステップ■へ戻
る。
■Increase the number of divisions d by one (d=d+1) and return to step ■.

■処理を中止したセルがなくなった時点で、ホスト計算
機へ、中止したセルがなくなった旨のメソセージを送る
■When there are no more cells whose processing has been canceled, send a message to the host computer to the effect that there are no more cells whose processing has been canceled.

以上の処理の流れにより、例えば第1回目は分割数d=
4として各セルのPを求め、中止したセルがなくなった
時点で、分割数dを1増してd−5として残ったセルに
おいてさらに詳細なPを求め、中止したセルがなくなっ
た所で、ホスト計算機は、入力画像がセルに割り当てた
辞書画像から構成されていることを認識する。
According to the above processing flow, for example, the first time, the number of divisions d=
4, calculate P for each cell, and when there are no more canceled cells, increase the number of divisions d by 1 and obtain more detailed P for the remaining cells as d-5. When there are no more canceled cells, the host The computer recognizes that the input image is composed of dictionary images assigned to cells.

第2図の例では、第1回目で、○2口、△、×のPを各
々O’、5.1.0.0.7. 1.0とすると、○と
△を受は持ったセルは中止する。
In the example of FIG. 2, in the first time, the P of ○2 mouths, △, and × are respectively O', 5.1.0.0.7. If it is set to 1.0, cells with ○ and △ marks will be discontinued.

2回目は、口と×を受は持つセル20とセル2Iが処理
を続け、セル20のP=1.0、セル2IのP=1.0
となったとき、セル20とセル2Iがホスト計算機3へ
、口と×であるとメツセージを送るので、ホスト計算機
3は入力画像が口と×から成ると認識できる。
For the second time, cell 20 and cell 2I, which have an opening and a cross, continue processing, and P = 1.0 for cell 20 and P = 1.0 for cell 2I.
When this happens, the cells 20 and 2I send a message to the host computer 3 that it is a mouth and an x, so the host computer 3 can recognize that the input image consists of a mouth and an x.

セルの数は、認識辞書中の画像の個数分あるのが望まし
いが、1セルが複数の画像を割り当てられる構成をとっ
てもよい。
Although it is desirable that the number of cells be equal to the number of images in the recognition dictionary, a configuration may be adopted in which one cell can be assigned a plurality of images.

この場合でも、従来例に比べ大幅に速度の向上を図るこ
とができる。
Even in this case, the speed can be significantly improved compared to the conventional example.

[発明の効果] 以上説明のように本発明によれば、各セルが認識辞書デ
ータを元として入力画像との相関を求め、ホスト計算機
がそれらのうち最も相関の高いものを選ぶことにより、
複合図形の認識を可能とし、さらに各セルは並列処理を
行うため高速な認識が可能となり、その実用上の効果は
大である。
[Effects of the Invention] As explained above, according to the present invention, each cell calculates the correlation with the input image based on the recognition dictionary data, and the host computer selects the one with the highest correlation among them.
It makes it possible to recognize complex figures, and since each cell is processed in parallel, high-speed recognition is possible, which has great practical effects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理ブロック図、 第2図は本発明の一実施例の構成を示すブロック図、 第3図は本発明の一実施例による処理例を示す図、 第4図は本発明の一実施例の処理の流れを示すフローチ
ャート、 第5図は本発明の一実施例による分割領域濃度を説明す
る図、 第6図は複合図形を説明する図、 第7図は従来の認識方式を示すブロック図である。 図面において、 1.76は認識辞書、 20、21、22.2t、−・
−はセル、3はホスト計算機、 4,71は画像入力装
置、5.70は入力画像、 6は端末、 21は相関計算手段、 22.74は入力画像データ、
23、75は認識辞書データ、 31は辞書指定手段、
32は入力画像放送手段、  33は判定手段、73は
計算機、 をそれぞれ示す。 入力 画像 第3図 (a) 本発明の一実施例の処理の流れを示すフローチャート第
  4  図 (その1) (c) 本発明の一実施例の処理の流れを示すフローチャート第
  4  図 (その2) 4 X 4 =16の領域に分割     B、 W、
 Gの何れかで表す濃度値データv=BWWGGWGB
BBBGGWWW本発明の一実JelJによる分割領域
濃度を説明する図第  5  図 からなる複合図形である 第6図 従来の認識方式を示すブロック図 第  7  図
Fig. 1 is a block diagram of the principle of the present invention, Fig. 2 is a block diagram showing the configuration of an embodiment of the present invention, Fig. 3 is a diagram showing an example of processing according to an embodiment of the present invention, and Fig. 4 is a block diagram of the present invention. Flowchart showing the flow of processing in an embodiment of the invention. FIG. 5 is a diagram explaining divided area density according to an embodiment of the invention. FIG. 6 is a diagram explaining a composite figure. FIG. 7 is a diagram explaining conventional recognition. FIG. 2 is a block diagram showing the method. In the drawing, 1.76 is a recognition dictionary, 20, 21, 22.2t, -.
- is a cell, 3 is a host computer, 4, 71 is an image input device, 5.70 is an input image, 6 is a terminal, 21 is a correlation calculation means, 22.74 is input image data,
23 and 75 are recognition dictionary data; 31 is a dictionary specifying means;
32 is an input image broadcasting means, 33 is a determining means, and 73 is a computer. Input image Fig. 3 (a) Flowchart showing the flow of processing in an embodiment of the present invention Fig. 4 (Part 1) (c) Flowchart showing the flow of processing in an embodiment of the present invention Fig. 4 (Part 2 ) Divide into 4 x 4 = 16 areas B, W,
Density value data expressed by any of G = BWWGGWGB
BBBGGWWW Figure 5 illustrates the density of divided regions using JelJ, which is a part of the present invention. Figure 6 is a composite figure consisting of two parts. Figure 7 is a block diagram showing the conventional recognition method.

Claims (1)

【特許請求の範囲】 複合図形を構成する要素図形の標準画像を格納する認識
辞書(1)と、 認識辞書(1)中の指定された図形の標準画像を読み出
し、入力画像との相関を求める手段を備えた複数のセル
(2_0、2_1、・・・・・)と、複数のセル(2_
0、2_1、・・・・・)の各々に、認識辞書(1)中
の使用すべき図形を指定し、入力画像を放送した後、各
セルの求めた相関データから入力画像の要素図形を判定
するホスト計算機(3)を備え、入力画像を構成する要
素図形を認識するよう構成したことを特徴とする複合パ
ターン認識方式。
[Claims] A recognition dictionary (1) that stores standard images of elemental figures constituting a composite figure; and a standard image of a specified figure in the recognition dictionary (1) is read out and a correlation with the input image is determined. A plurality of cells (2_0, 2_1, ...) equipped with means and a plurality of cells (2_
0, 2_1, ...), specify the figure to be used in the recognition dictionary (1), and after broadcasting the input image, calculate the element figure of the input image from the correlation data obtained for each cell. A composite pattern recognition method characterized by comprising a host computer (3) for determination and configured to recognize elemental figures constituting an input image.
JP5071087A 1987-03-05 1987-03-05 Composite pattern recognition system Pending JPS63216185A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5071087A JPS63216185A (en) 1987-03-05 1987-03-05 Composite pattern recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5071087A JPS63216185A (en) 1987-03-05 1987-03-05 Composite pattern recognition system

Publications (1)

Publication Number Publication Date
JPS63216185A true JPS63216185A (en) 1988-09-08

Family

ID=12866450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5071087A Pending JPS63216185A (en) 1987-03-05 1987-03-05 Composite pattern recognition system

Country Status (1)

Country Link
JP (1) JPS63216185A (en)

Similar Documents

Publication Publication Date Title
Hsu et al. Ratio-and-scale-aware YOLO for pedestrian detection
US7627176B2 (en) Apparatus, method, and computer program for analyzing document layout
US7254270B2 (en) System and method for bounding and classifying regions within a graphical image
US20060029276A1 (en) Object image detecting apparatus, face image detecting program and face image detecting method
CN109598231A (en) A kind of recognition methods of video watermark, device, equipment and storage medium
JP6188976B2 (en) Method, apparatus and computer-readable recording medium for detecting text contained in an image
CN108334805B (en) Method and device for detecting document reading sequence
US7277584B2 (en) Form recognition system, form recognition method, program and storage medium
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
CN110674802A (en) Improved text detection method for parallelogram candidate box
CN114708582B (en) AI and RPA-based electric power data intelligent inspection method and device
WO2023015610A1 (en) Artificial intelligence-based method and system for authenticating ancient and modern artwork
CN115512369A (en) Document image layout analysis method and device, computer equipment and storage medium
JP2002174603A (en) Defect classifying method
JPS63216185A (en) Composite pattern recognition system
JP4055976B2 (en) Document image processing method, document image processing apparatus, and recording medium
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP2004094644A (en) Image processor, image processing method, storage medium, and program
CN112183253A (en) Data processing method and device, electronic equipment and computer readable storage medium
JPH07200735A (en) Graphic recognition device
JP4207256B2 (en) Color image area dividing method and program storage medium
JP3074691B2 (en) Character recognition device
JP2001092924A (en) Method and device for recognizing pattern
JP4614582B2 (en) Partial template generator
JP2728117B2 (en) Character recognition device