JPH01211090A - Recognizing system for character in information picture - Google Patents

Recognizing system for character in information picture

Info

Publication number
JPH01211090A
JPH01211090A JP63034970A JP3497088A JPH01211090A JP H01211090 A JPH01211090 A JP H01211090A JP 63034970 A JP63034970 A JP 63034970A JP 3497088 A JP3497088 A JP 3497088A JP H01211090 A JPH01211090 A JP H01211090A
Authority
JP
Japan
Prior art keywords
character
pattern
similarity
degree
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63034970A
Other languages
Japanese (ja)
Other versions
JP2979089B2 (en
Inventor
Atsushi Otani
淳 大谷
Shigeru Akamatsu
茂 赤松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63034970A priority Critical patent/JP2979089B2/en
Publication of JPH01211090A publication Critical patent/JPH01211090A/en
Application granted granted Critical
Publication of JP2979089B2 publication Critical patent/JP2979089B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To eliminate the ambiguity of character recognizing processing and to consistently and uniquely extract a character pattern from a scenic picture by updating the degree of similarity by the character recognizing processing and selecting the character pattern instead of adopting the character pattern obtained from a decision by the character recognizing processing as it is. CONSTITUTION:A degree of similarity updating circuit 30 is composed of a directly related pattern calculating circuit 100, a directly related pattern storing memory 101, a degree of similarity calculating circuit 102, a memory 103 for category parameter, a memory 104 for updating degree of similarity, an indirectly related pattern calculating circuit 105, a memory 106 for storing indirectly related pattern, and a character pattern deciding circuit 107. Here, the character pattern is extracted not by using the value of the degree of similarity from the character recognizing processing as it is but by comparing basic parameters between mutually related patterns and updating the degree of similarity, and the uniquely determined processed result of the character pattern is outputted to a memory 31 for recognized result. Thus, the ambiguity of the character recognizing processing can be eliminated, and the character pattern in the scenic picture can be determined consistently and uniquely.

Description

【発明の詳細な説明】 〔産業上の利用分野] この発明は、文字認識装置(以下、OCR:0ptic
al’ Character Reader)に関する
もので、従来紙上に存在する文字だけを読取り対象とし
ていたものを、標識や看板等の実空間中に存在する文字
までを読取り対象に拡張する方法に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a character recognition device (hereinafter referred to as OCR: 0ptic
The present invention relates to a method for expanding the conventional method of reading only characters existing on paper to include characters existing in real space such as signs and signs.

特に、実空間中に存在する文字の文字サイズ、文字線の
濃度、書式、照明条件等の事前知識が与えられなくても
文字を認識することができる方式に関するものである。
In particular, it relates to a system that can recognize characters without prior knowledge of the character size, density of character lines, format, illumination conditions, etc. of characters existing in real space.

(従来の技術) こめ発明に最も近い従来の技術としては、特開昭62−
173578号公報「情景画像中の文字認識方式」があ
る。その原理を第9図に示す。なお、(1)〜 (4)
は各ステップを示す。
(Prior art) The prior art closest to the Kome invention is JP-A-62-
No. 173578 ``Character recognition method in scene images'' is available. The principle is shown in FIG. In addition, (1) to (4)
indicates each step.

同図で、ま−ず、文字が存在する空間をTVカメラ等に
より情景画像としてとらえる (1)0次に、情景画像
の領域分割処理と各領域の濃度差評価により文字線候補
領域(以下、領域という)を検出する (2)。これら
の領域εを単独に切出すだけでは不十分である。すなわ
ち、文字には複数の領域から構成される分離文字(「旧
J、ri」等)が存在する。このため、互いに近傍に存
在する領域の組合せを考え、文字パターン候補として抽
出する (3)。さらに、これらの文字パターン候補が
文字に対応するか否かは文字認識処理を用いて判定する
 (4)。文字と判定したならば最も類似度の大ぎいカ
テゴリを認識結果として出力する。
In the same figure, first, the space in which characters exist is captured as a scene image using a TV camera, etc. (1) Next, character line candidate regions (hereinafter referred to as (2). It is not sufficient to cut out these regions ε alone. That is, there are separated characters (such as "old J, ri") that are composed of multiple areas. Therefore, we consider combinations of areas that are close to each other and extract them as character pattern candidates (3). Furthermore, whether or not these character pattern candidates correspond to characters is determined using character recognition processing (4). If it is determined to be a character, the category with the highest degree of similarity is output as the recognition result.

(発明が解決しようとする課題) このように、従来は文字パターン候補から文字パターン
を抽出するために文字認識処理を使用しているので、真
の文字パターンに対応していない文字パターン候補が偶
然いずれかのカテゴリとの類似度が高くなり、文字パタ
ーンとして抽出される誤りがしばしば生じる。これは現
状の文字認識処理の開発方針が、なるべく入カバターン
のりジェツトを防ぎ、極力いずれかのカテゴリーを文字
認識結果として出力するように構成されていることにも
起因している。
(Problem to be Solved by the Invention) In this way, conventionally, character recognition processing is used to extract character patterns from character pattern candidates, so character pattern candidates that do not correspond to the true character pattern may occur by chance. The degree of similarity to one of the categories becomes high, and errors often occur where the character pattern is extracted as a character pattern. This is also due to the fact that the current development policy for character recognition processing is to prevent input pattern jets as much as possible, and to output one of the categories as a character recognition result as much as possible.

文字パターン候補は前述のように領域の組合せから求ま
る関係上、前述のような文字認識処理のあいまい性によ
る文字に対応しない文字パターン候補の誤抽出により情
景画像から抽出された文字パターンに関して本来成立す
べき以下の2つの原則に矛盾する文字パターンが抽出さ
れるという問題点があった。
Since character pattern candidates are determined from combinations of regions as described above, it is possible that character pattern candidates that do not correspond to characters are incorrectly extracted due to the ambiguity of character recognition processing as described above, and that this originally holds true for character patterns extracted from scene images. There was a problem in that a character pattern that contradicted the following two principles was extracted.

(1)  領域は1つの文字パターンに対応するか、全
く対応しないかのいずれかである。
(1) A region corresponds to either one character pattern or none at all.

(2)  ある領域がいずれかの文字パターンに対応す
る場合は、その領域の穴またはその領域を囲む領域はい
ずれの文字パターンにも対応しない。
(2) If a certain area corresponds to any character pattern, the hole in that area or the area surrounding the area does not correspond to any character pattern.

これら2つのいずれかに矛盾するパターンが存在すると
、情景画像中の文字の一意的な認識が行えないという欠
点が存在する。
If a pattern contradicting either of these two exists, there is a drawback that characters in the scene image cannot be uniquely recognized.

この発明の目的は、文字認識処理のあいまい性と文字パ
ターン候補の抽出法に起因した文字パターン間の矛盾を
除去し、情景画像から一意的に文字パターンを抽出し、
その認識結果を得る方法を提供することにある。
The purpose of this invention is to remove inconsistencies between character patterns caused by ambiguity in character recognition processing and the extraction method of character pattern candidates, and to uniquely extract character patterns from scene images.
The purpose of this invention is to provide a method for obtaining the recognition result.

〔課題を解決するための手段〕[Means to solve the problem]

この発明にかかる情景画像中の文字認識方式は、文字認
識処理により抽出された高類似度パターンの持つカテゴ
リの確からしさを比較することにより類似度の更新を行
い、互いに関連する各パターン群において最終的に最大
の類似度を有するパターンを文字パターンとして抽出し
、その類似度を与えるカテゴリを文字認識結果として出
力するものである。
The character recognition method for scene images according to the present invention updates the degree of similarity by comparing the certainty of categories of high similarity patterns extracted by character recognition processing, and updates the degree of similarity in each group of mutually related patterns. The pattern with the highest degree of similarity is extracted as a character pattern, and the category giving that degree of similarity is output as a character recognition result.

〔作用〕[Effect]

この発明は、本来相矛盾する文字パターン同士において
、それらの文字認識結果の類似度を文字パターンの相互
関係から反復的に更新して、最終的に関連するパターン
群の各々において類似度が最大となったカテゴリをもつ
文字パターンを一意的に決定された文字パターンとして
出力する。
This invention repeatedly updates the similarity of character recognition results between character patterns that are contradictory in nature based on the mutual relationship of the character patterns, and finally reaches the maximum similarity in each of the related pattern groups. The character pattern with the new category is output as a uniquely determined character pattern.

従来の技術とは、文字認識処理による判定により得られ
た文字パターンをそのまま採用するのではなく、文字認
識処理による類似度の更新を行って文字パターンを選択
するようにした点が異なる。
This method differs from the conventional technology in that the character pattern is selected by updating the degree of similarity through the character recognition process, rather than directly adopting the character pattern obtained by the determination through the character recognition process.

〔実施例〕〔Example〕

第1図はこの発明を実施するための装置の一例を示すブ
ロック図であり、21は画像入力部、22は画像用メモ
リ、23は文字線候補領域検出回路、24は領域分割結
果格納メモリ、25は文字パターン候補抽出回路、26
は文字パターン候補格納メモリ、27は文字認識処理回
路、28は文字パターン性判定回路、29は高類似度パ
ターン格納メモリ、3oは類似度更新回路、31は文字
パターンの抽出と認識結実用メモリである。
FIG. 1 is a block diagram showing an example of a device for carrying out the present invention, in which 21 is an image input section, 22 is an image memory, 23 is a character line candidate area detection circuit, 24 is an area division result storage memory, 25 is a character pattern candidate extraction circuit, 26
27 is a character pattern candidate storage memory, 27 is a character recognition processing circuit, 28 is a character pattern determination circuit, 29 is a high similarity pattern storage memory, 3o is a similarity update circuit, and 31 is a practical memory for character pattern extraction and recognition. be.

この動作は、まず、TVカメラ等の画像入力部21から
文字を含む実空間を濃淡を有する情景画像としてとらえ
、画像用メモリ22に格納する。
In this operation, first, a real space including characters is captured from an image input unit 21 such as a TV camera as a scene image having shading, and is stored in the image memory 22.

次に文字線候補領域検出回路23により画像用メモリ2
2の画像に対して文字線候補領域を検出するための領域
分割を施し、結果をメモリ24に格納する。
Next, the image memory 2 is detected by the character line candidate area detection circuit 23.
The image No. 2 is divided into regions to detect character line candidate regions, and the results are stored in the memory 24.

ここで、文字線候補領域検出回路23の処理例としては
、第2図に示すようなものがある。すなわち、第2図(
a)のように画像用メモリ22をそれぞれnxm個の画
素からなるNXM個のサブブロックに分割して、各々こ
のサブブロックで2値化のためのしきい値を第2図(b
)のように独立に求め、さらに各サブブロックの中心画
素にしきい値を割り当てて線形補間を行い、第2図(C
)のように各画素のしきい値を決定する。各画素のしき
い値と原画(画像用メモリ22の内容)の対応する画素
を比較して2値化を行い、その結果得られた第2図(d
)のような2値(白、黒)画像において8連結で連続し
た白または黒画素に対してラベリング処理を行い、画像
を領域分割する。ここで、文字線に対応する可能性が高
いと考えられる領域を検出するため、第3図に示すよう
に、各領域とそれを囲む外接矩形枠の内部の濃度差を評
価して文字線候補領域を検出する。
Here, an example of processing by the character line candidate area detection circuit 23 is as shown in FIG. In other words, Figure 2 (
The image memory 22 is divided into NXM subblocks each consisting of nxm pixels as shown in a), and the threshold value for binarization in each subblock is set as shown in FIG. 2(b).
), and then allocate a threshold value to the center pixel of each subblock and perform linear interpolation to obtain the result shown in Figure 2 (C
) determine the threshold value for each pixel. Binarization is performed by comparing the threshold value of each pixel with the corresponding pixel of the original image (contents of the image memory 22), and the result is shown in FIG.
) in a binary (white, black) image, a labeling process is performed on 8 consecutive white or black pixels, and the image is divided into regions. Here, in order to detect areas that are considered to have a high possibility of corresponding to character lines, as shown in Figure 3, the density difference inside each area and the circumscribed rectangular frame surrounding it is evaluated and character line candidates are detected. Detect areas.

第3図で、131は注目領域、132は前記注目領域1
31の外接矩形枠、133は前記注目領域131を囲む
領域のうち外接矩形枠132に含まれる範囲である。濃
度差の評価は、注目領域131と範囲133のそれぞれ
の平均濃度り、。
In FIG. 3, 131 is a region of interest, and 132 is the region of interest 1.
31 is a circumscribed rectangular frame, and 133 is a range included in the circumscribed rectangular frame 132 among the areas surrounding the attention area 131. The density difference is evaluated based on the average density of the region of interest 131 and range 133.

L2を求め、ΔL= l L、−L2 lで定義される
濃度差ΔLがΔL〉θL (θ、はしきい値)を充せば
文字線候補領域として検出し、充さなければ注目領域1
31を各む領域に統合する。この結果は領域分割結果格
納メモリ24に格納される。
L2 is calculated, and if the density difference ΔL defined by ΔL=lL, -L2l satisfies ΔL>θL (θ is a threshold value), it is detected as a character line candidate region, and if it does not, it is detected as a region of interest 1.
31 into each area. This result is stored in the area division result storage memory 24.

文字パターン候補抽出回路25では、領域分割結果格納
メモリ24の内容である領域分割結果から、文字パター
ン候補を切出す。この処理内容例を第4図に示す。
The character pattern candidate extraction circuit 25 extracts character pattern candidates from the region division results that are the contents of the region division result storage memory 24. An example of the contents of this process is shown in FIG.

第4図(a)〜(d)で、61は文字「け」、62は文
字「いJ、63.64は前記文字61を構成する領域、
65.66は前記文字62を構成する領域、67は探索
範囲、68〜71は組合せパターンである。いま、領域
65に注目しているとすると、探索範囲67の中につい
て、領域65の平均濃度L0に対し、平均濃度りがIL
−L。
In FIGS. 4(a) to (d), 61 is the character "ke", 62 is the character "iJ, 63.64 is the area constituting the character 61,
65 and 66 are areas constituting the character 62, 67 is a search range, and 68 to 71 are combination patterns. Assuming that we are currently paying attention to the region 65, in the search range 67, the average density is IL compared to the average density L0 of the region 65.
-L.

1≦θ。(θ。はしきい値)を充す領域、あるいは前述
の2値化結果における値(白または黒)をBとし、領域
65の値をBOとすると、B=BOの領域を探す。第4
図では領域64と66が見出される。領域64,65.
66の組合せから4個の組合せパターン68〜71が抽
出される。ところで、文字に対応するパターンの外接矩
形枠132の縦横比rはθl <r<θh (θ1.θ
ゎはrの下限、上限値)の範囲にあるので、この式を満
しているか否かを判定すると、第4図で組合せパターン
71は横長であるので棄却され、組合せパターン68〜
70が文字パターン候補として抽出され、文字パターン
候補格納メモリ26に各文字パターン候補を構成する領
域の識別子とともに格納される。
1≦θ. (θ is a threshold value) or the value (white or black) in the above-mentioned binarization result is B, and the value of the area 65 is BO, then an area where B=BO is searched. Fourth
In the figure regions 64 and 66 can be found. Areas 64, 65.
Four combination patterns 68 to 71 are extracted from the 66 combinations. By the way, the aspect ratio r of the circumscribed rectangular frame 132 of the pattern corresponding to the character is θl < r < θh (θ1.θ
Since ゎ is in the range of the lower limit and upper limit of r), when it is determined whether this formula is satisfied, combination pattern 71 in Fig. 4 is rejected because it is horizontally long, and combination patterns 68 to 68 are rejected.
70 is extracted as a character pattern candidate and stored in the character pattern candidate storage memory 26 together with the identifier of the area forming each character pattern candidate.

次に、文字パターン候補格納メモリ26に格納された文
字パターン候補は、文字認識処理回路27により文字認
識辞書中のカテゴリーCIとの類似度S(CI)(0≦
S (CI )≦1、値が1に近い程類似していること
を示す)を計算する。ここで類似度S(CI)は文字認
識法に応じた計算法により得られる。また、認識処理に
より各カテゴリとの距!l (c+)(ora (CI
)、値が0に近い程よく類似している)を用いるものが
あるが、s z  ((、) ==e −d L CI
 1等の変換によりソノ値域を0≦S’  (CI)≦
1に変換できるので、以後は類似度を用いて説明する。
Next, the character pattern candidates stored in the character pattern candidate storage memory 26 are processed by the character recognition processing circuit 27 to have a degree of similarity S (CI) (0≦) with the category CI in the character recognition dictionary.
S (CI)≦1, the closer the value is to 1, the more similar they are). Here, the degree of similarity S(CI) is obtained by a calculation method according to the character recognition method. Also, the distance between each category is determined through recognition processing! l (c+)(ora (CI
), the closer the value is to 0, the more similar) is used, but s z ((,) ==e −d L CI
The sono range is changed to 0≦S' (CI)≦ by transformation of 1st class.
Since it can be converted to 1, the following explanation will be made using similarity.

文字パターン性判定回路2日によりS(CI)≧T (
CI)、(i=t、2.・・・・・−、N、Nはカテゴ
リ数、’r(at)はカテゴリC1における類似度のし
きい値)を評価し、これを満足するカテゴリが1つでも
あれば、高類似度パターンとしてパターンを構成する領
域の数と識別子、候補カテゴリ。
By character pattern determination circuit 2nd day, S(CI)≧T (
CI), (i=t, 2...-, N, N is the number of categories, 'r(at) is the threshold of similarity in category C1), and the category that satisfies this is evaluated. If there is at least one, it is considered a high similarity pattern, including the number of regions, identifiers, and candidate categories that make up the pattern.

類似度を高類似度パターン格納メモリ29に格納する。The similarity is stored in the high similarity pattern storage memory 29.

ここで候補カテゴリとは、上式を満すカテゴリを指す。Here, the candidate category refers to a category that satisfies the above formula.

上式を満すカテゴリが1つもない場合は、文字に対応す
る可能性がないとして棄却する。
If there is no category that satisfies the above formula, the category is rejected as there is no possibility of it corresponding to the character.

ここで、もし高類似度パターン格納メモリ29に格納さ
れた高類似度パターンが、全て正しく真の文字に対応し
ていれば問題はないが、実際には文字認識処理のあいま
い性により真の文字に対応していないものを高類似度パ
ターンとして抽出されてしまうことがしばしば起こる。
Here, there would be no problem if all the high similarity patterns stored in the high similarity pattern storage memory 29 correctly correspond to true characters, but in reality, due to the ambiguity of character recognition processing, true characters It often happens that patterns that do not correspond to the pattern are extracted as high similarity patterns.

本来、画像の領域分割から得られた領域と文字パターン
との間には以下の原則が成り立つ。
Originally, the following principle holds between the region obtained by region segmentation of an image and a character pattern.

(1)1つの領域は1つの文字パターンに対応するか、
いずれの文字パターンにも対応しないかのいずれかであ
る。
(1) Does one area correspond to one character pattern?
Either it does not correspond to any character pattern.

(2)  もし、ある領域が文字パターンに対応するな
らばそれと隣り合う領域は文字パターンに対応しない。
(2) If a certain region corresponds to a character pattern, the adjacent region does not correspond to the character pattern.

しかし、前述のような文字認識処理のあいまい性のため
、上記 (1)と (2)に矛盾するパターン同士が高
類似度パターンとして抽出される。また、単純な高類似
度の値の比較により上記(1)と (2)を満足するよ
うに文字パターンを決定しようとするとやはり誤りを起
こす確立が高い。そこで、類似度更新回路30により高
類似度パターンの相互関係から矛盾を除去しつつ類似度
の更新を行い、前記(1)と (2)に矛盾しない形で
文字パターンの一意的決定を行う、第5図に類似度更新
回路30の詳細を示す。
However, due to the ambiguity of character recognition processing as described above, patterns that contradict the above (1) and (2) are extracted as high similarity patterns. Furthermore, if a character pattern is attempted to be determined so as to satisfy the above (1) and (2) by simply comparing high similarity values, there is a high probability that an error will occur. Therefore, the similarity update circuit 30 updates the similarity while removing contradictions from the mutual relationships of high similarity patterns, and uniquely determines the character pattern in a manner that does not contradict the above (1) and (2). FIG. 5 shows details of the similarity update circuit 30.

第5図で、100は直接関連パターン計算回路、101
は直接関連パターン格納メモリ、102は類似度計算回
路、103はカテゴリパラメータ用メモリ、104は更
新類似度用メモリ、105は間接関連パターン計算回路
、106は間接関連パターン格納用メモリ、107は文
字パターン判定回路である。
In FIG. 5, 100 is a directly related pattern calculation circuit, 101
102 is a memory for storing directly related patterns, 102 is a similarity calculation circuit, 103 is a memory for category parameters, 104 is a memory for updating similarity, 105 is a circuit for calculating indirect related patterns, 106 is a memory for storing indirect related patterns, 107 is a character pattern This is a judgment circuit.

類似度更新回路30では、まず、各高類似度パターンの
直接関連パターンを直接関連パターン計算回路100に
より求め、直接関連パターン格納メモリ101に格納す
る。直接関連パターン格納メモリ101には決定フラグ
が各パターンに対応して設けられ、初期状態ではONに
なフている。
In the similarity update circuit 30, first, directly related patterns of each high similarity pattern are calculated by the directly related pattern calculation circuit 100 and stored in the directly related pattern storage memory 101. A determination flag is provided in the directly related pattern storage memory 101 corresponding to each pattern, and is turned on in the initial state.

ここで、ある高類似度パターンiの直接関連パターンi
′とは、以下の条件を満す集合RI、 R2。
Here, a directly related pattern i of a certain high similarity pattern i
' is a set RI, R2 that satisfies the following conditions.

R3,R4のいずれかの要素である領域から構成される
パターンと定義する。
It is defined as a pattern consisting of a region that is an element of either R3 or R4.

■PCR,,■R2CP、■ft3 (H,■Q c 
R4ここで、Pはiを構成する領域の集合、HはPの要
素である領域の穴の集合、QはPの要素が全て他の領域
の穴であるときにPの要素を囲む領域の集合を示す。こ
れらの例を第6図(a)、(b)に示す。
■PCR,, ■R2CP, ■ft3 (H, ■Q c
R4 Here, P is the set of regions constituting i, H is the set of holes in regions that are elements of P, and Q is the region surrounding the elements of P when all the elements of P are holes in other regions. Indicates a set. Examples of these are shown in FIGS. 6(a) and 6(b).

第5図の類似度計算回路102では、第1図の高類似度
パターン格納メモリ29に格納された各高類似度パター
ン毎に、直接関連パターン格納メモリ101に格納され
た直接関連パターンとの相互関係から、以下のように類
似度の更新を行う(S−〇)(CJ)がパターンiの候
補カテゴリC。
The similarity calculation circuit 102 shown in FIG. 5 calculates the correlation between each high similarity pattern stored in the high similarity pattern storage memory 29 shown in FIG. 1 and the directly related pattern stored in the directly related pattern storage memory 101. From the relationship, the similarity is updated as follows: (S-〇) (CJ) is candidate category C for pattern i.

の初期類似度)。initial similarity).

(CJ) i f S r”’ (CJ)<0.5j=
1.2.−−−−−−、m:mはパターンiの候補カテ
ゴリ数 q+・(1/Nt’)Σd、lΣr 目’(C、(’)
 S、 ′k)1/       c/ (C′) C′は直接関連パターンi′のNc個の候補カテゴリの
集合 di諺1/Ne ここで、rム1’(C+ C’ )は適合係数であり、
パターンiの候補カテゴリCとパターンi′の候補カテ
ゴリC′の確からしさを比較し、前者の方が確からしい
と+1、逆だと−1に近い値をとる。カテゴリの確から
しさの評価パラメータはいろいろ考えられるが、例えば
カテゴリの領域数。
(CJ) if S r”'(CJ)<0.5j=
1.2. --------, m: m is the number of candidate categories for pattern i q+・(1/Nt') Σd, lΣr'th' (C, (')
S, 'k)1/ c/ (C') C' is the set of Nc candidate categories of directly related pattern i' di proverb 1/Ne, where rm1'(C+C') is the fitness coefficient can be,
The likelihood of candidate category C of pattern i and candidate category C' of pattern i' is compared, and if the former is more likely, the value is +1, and if the opposite is true, it takes a value close to -1. There are many possible evaluation parameters for the certainty of a category, such as the number of areas in the category.

穴の数、外接矩形枠の縦横比がある。具体的には以下の
ように計算する。
There are the number of holes and the aspect ratio of the circumscribed rectangle. Specifically, it is calculated as follows.

(1) P CR、の関係にある直接関連パターンi″
i′は複数の領域から構成されるので、もしc’  (
t’の候補カテゴリ)が単一領域文字であるならC′の
確からしさはC(iの候補カテゴリ)のそれより低いの
で、r目(C,C’ )を正にすることによりCの類似
度を増加させる。もしC′が複数流域文字ならばr目(
C,cl )はi′とC′の領域数の差に応じて負の値
をとる。
(1) Directly related pattern i'' in the relationship P CR
Since i′ consists of multiple regions, if c′ (
If C' (candidate category of t') is a single region character, the probability of C' is lower than that of C (candidate category of i). increase degree. If C′ is a multi-basin character, then the rth character (
C, cl) takes a negative value depending on the difference in the number of regions between i' and C'.

式で書くと、 −N’l’  l/NR’ )) (NR’=2) eはO<e<1の定数、NI、NR’ はそれぞれi′
とC′の領域数である。
Written as a formula, −N'l'l/NR' )) (NR'=2) e is a constant of O<e<1, NI and NR' are each i'
and the number of regions of C'.

(2)R2CPの関係にある直接関連パターンi′i′
とi、C’ とCを入れ替えて同様にI l/NR))
  (NH−4) ここで、NIとNRはiとCの領域数である。
(2) Directly related pattern i′i′ in R2CP relationship
and i, C' and C are replaced and I l/NR))
(NH-4) Here, NI and NR are the numbers of regions of i and C.

(3)R,CHの関係にある直接関連パターンi′注目
パターンiは穴を有するので、もしCに穴がなければC
の確からしさはC′よりも小さい。
(3) Directly related pattern i′ in the relationship between R and CH Since the pattern of interest i has a hole, if C does not have a hole, C
The probability of is smaller than C'.

r目(c、c’ )を負にすることによりCの類似度は
減少する。もしCに穴があればr++(C。
By making the r-th (c, c') negative, the similarity of C decreases. If C has a hole, r++(C.

C′)はiとCの穴に数に差に応じて正となる。C') becomes positive depending on the difference in the number of holes in i and C.

すなわち、 II/HR))   (NR≧1) ここで、HlとHRはiとCの穴の数である。That is, II/HR)) (NR≧1) Here, Hl and HR are the numbers of holes i and C.

(4)QER4の関係にある直接関連パターンi′iと
i、CとC′を入れ替えることによりNil/HR)) (N R’≧1) ここで、H1’ とHR’ はi′とC′の穴の数であ
る。
(4) Nil/HR by replacing directly related patterns i'i and i, C and C' in the relationship of QER4)) (N R'≧1) Here, H1' and HR' are i' and C ′ is the number of holes.

各カテゴリの外接矩形枠の縦横比の確からしらの比較に
より以下のように計算する。
The aspect ratios of the circumscribed rectangular frames of each category are calculated as follows.

r++’(C,C’)−Ce/4)(2−I QA I
 −QACl) −(e/8)(IQAI − QACI −I QA I−QAC+ ”)ここで、Q
AC,QAC’ 、QAl、QAI’ はC,C’ 、
i、i’の量子化された縦横比QA値である。QA値は
縦横比を数段階程度に量子化した値である。この式によ
り、もしiとCが同じようなQA値をとりi′ とC′
が異なったQA値をとるとr目(C,C’ )は正とな
り、Cの類似度が大きくなる。
r++'(C,C')-Ce/4)(2-I QA I
−QACl) −(e/8)(IQAI − QACI −I QA I−QAC+ ”) where, Q
AC, QAC', QAl, QAI' are C, C',
is the quantized aspect ratio QA value of i, i'. The QA value is a value obtained by quantizing the aspect ratio into several levels. According to this formula, if i and C have similar QA values, i' and C'
If they take different QA values, the r-th (C, C') becomes positive, and the similarity of C increases.

以上の処理は第7図に示すように、2段階(前半は領域
数が穴、後半は縦横比)で行われる。また、適当回数(
理想的には類似度が各々ある値に収束するまで)繰り返
し、結果を更新類似度用メモリ104に格納する。また
、カテゴリの各評価パラメータは、第8図に示すように
、テーブル形式でカテゴリパラメータ103に格納され
ているので、適宜前述の処理中c、c’のパラメータを
求めるのに利用する。
As shown in FIG. 7, the above processing is performed in two stages (the first half is based on the number of regions, and the second half is based on the aspect ratio). Also, an appropriate number of times (
ideally until each similarity converges to a certain value), and the results are stored in the update similarity memory 104. Furthermore, as shown in FIG. 8, each category evaluation parameter is stored in the category parameter 103 in a table format, so that it is appropriately used to obtain the parameters c and c' during the above-described processing.

なお、第8図中のQA値は以下のように量子化される。Note that the QA values in FIG. 8 are quantized as follows.

QA=1 i fAp≦0.5 QA−2if0.5<Ap≦0.8 QA=3if0.8<Ap≦1.25 QA=4if1.25<Ap≦2.0 QA=5ifAp>2.0 次に、文字パターンの決定を行うが、あらかじめ高類似
度パターンを間接関連パターン計算回路105により間
接関連パターングループに分けておく。あるパターン1
0を初期グループに入れる。次に、10の直接関連パタ
ーン11を、全てその初期グループの入れる。同様に、
各ik (k〉0)の直接関連パターン1 k+1を入
れる。ここで、既に入れられたものは処理しない、もし
これ以上新たに入れるパターンが無くなれば、次のまだ
いずれの初期グループにも入れられていないパターンを
新たに初期グループを設けてこれに入れ、同様の処理を
行う。これを全てのパターンがいずれかのグループに入
れられるまで繰返す。ある初期グループのパターン中に
存在する領域の集合をRp I Rpのいずれかの要素
の領域の穴の集合をRh1Rpの要素を囲む領域の集合
をR1とすると、もし異なる初期グループのいずれかの
パターン同士がR,、Rh、R,の要素から構成されて
いれば、これらの初期グループを結合し、間接関連パタ
ーングループを形成する。この例を第6図に示す。間接
関連パターン計算回路105の処理結果は間接関連パタ
ーン格納用メモリ106に格納される。前述の類似度の
更新後、文字パターン判定回路107により各パターン
i毎に最大類似度S l、max−max(S 1′に
’ (C+)、  ・・・、  31′に’ (C,)
)が得られる。次に、各間接関連パターングループ中の
最大S、、txaxを有するパターンを文字パターンと
して抽出し、その類似度を与える候補カテゴリを文字認
識結果として抽出し、これらを文字パターンの抽出と認
識結実用メモリ31に格納する全てノ間接関連パターン
グループから同様に文字パターンと認識結果を抽出する
。その後、以下のような領域を1つでも有するパターン
は対応しないとして直接関連パターン格納メモリ101
のそのパターンの決定フラグをOFFにする。すなわち
、 (a)  文字パターンとして決定されたパターンを構
成する領域 (b)  (a)の領域の穴に対応する領域(C)  
(a)の領域を囲む領域 のいずれかである。直接関連パターン格納メモリ101
の決定グラフが全てOFFならば処理を停止し、ONの
パターンが残っていればONのものについてのみ同様の
処理を行う。
QA=1 i fAp≦0.5 QA-2if0.5<Ap≦0.8 QA=3if0.8<Ap≦1.25 QA=4if1.25<Ap≦2.0 QA=5ifAp>2.0 Next Next, character patterns are determined, and the high similarity patterns are divided into indirectly related pattern groups by the indirectly related pattern calculation circuit 105 in advance. A certain pattern 1
Put 0 into the initial group. Next, all 10 directly related patterns 11 are placed in that initial group. Similarly,
Insert directly related pattern 1 k+1 for each ik (k>0). Here, the ones that have already been placed are not processed. If there are no more new patterns to add, create a new initial group and put the next pattern that has not been placed in any initial group into this, and do the same. Process. Repeat this until all patterns are placed in one of the groups. The set of regions existing in the pattern of a certain initial group is Rp I The set of holes in the region of any element of Rp is Rh1 The set of regions surrounding the elements of Rp is R1. If any pattern of a different initial group If each group is composed of elements R,,Rh,R,, these initial groups are combined to form an indirectly related pattern group. An example of this is shown in FIG. The processing results of the indirect related pattern calculation circuit 105 are stored in the indirect related pattern storage memory 106. After updating the above-mentioned similarity, the character pattern determination circuit 107 calculates the maximum similarity S l, max-max (S 1' to ' (C+), ..., 31'to' (C,) for each pattern i by the character pattern determination circuit 107.
) is obtained. Next, the pattern with the maximum S,,txax in each indirectly related pattern group is extracted as a character pattern, candidate categories that give the similarity are extracted as character recognition results, and these are used for character pattern extraction and recognition. Similarly, character patterns and recognition results are extracted from all indirectly related pattern groups stored in the memory 31. Thereafter, patterns having at least one of the following areas are deemed not to correspond and are stored in the directly related pattern storage memory 101.
The determination flag for that pattern is turned OFF. That is, (a) an area constituting a pattern determined as a character pattern (b) an area (C) corresponding to the hole in the area of (a)
This is any area surrounding the area in (a). Directly related pattern storage memory 101
If all of the decision graphs are OFF, the process is stopped, and if ON patterns remain, the same process is performed only for the ON patterns.

以上のようにして、文字パターンの抽出と認識結実用メ
モリ31には文字パターンの一意的決定処理結果が得ら
える。
As described above, the result of character pattern extraction and recognition processing is obtained in the practical memory 31.

なお、上記説明では文字線候補領域検出のため前述の方
法を用いているが、他の画像の領域分割法等を用いても
、この発明に適用可能である。
In the above description, the method described above is used to detect character line candidate regions, but other image region division methods can also be applied to the present invention.

〔発明の効果〕〔Effect of the invention〕

以上説明したようにこの発明は、文字認識処理の類似度
のそのものの値を信用するのではなく、基本的なパラメ
ータを互いに関連するパターン同士で比較し、類似度を
更新するようにしたため、文字認識処理のあいまい性を
除去でき、矛盾のない形で情景画像中の文字パターンの
一意的決定が行えるという利点がある。
As explained above, this invention does not rely on the value of the similarity itself in character recognition processing, but rather compares basic parameters between mutually related patterns and updates the similarity. This method has the advantage that ambiguity in recognition processing can be removed and character patterns in a scene image can be uniquely determined without contradiction.

したがって、この発明は車のナンバープレートの文字1
名札の文字認識によるパトロールロボット、荷物の行先
の認識による仕分は作業の自動化、ブック形成の文書に
書かれた文字認識等に広く適用できる。
Therefore, this invention is based on the letter 1 of the car license plate.
It can be widely applied to patrol robots that recognize characters on name tags, sorting by recognizing the destination of packages, automation of work, and character recognition written on documents in book formation.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明を実施する装置の一例を示すブロック
図、第2図は2値化処理の例を示す図、第3図は濃度差
の評価法を説明する図、第4図は文字パターン候補の抽
出原理の説明図、第5図は類似度の更新回路の実施例を
示すブロック図、第6図は直接関連パターンと間接関連
パターングループの例を示す図、第7図は類似度更新の
ための結合係数の求め方を示す流れ図、第8図は評価用
パラメータテーブルの一例を示す図、第9図は従来技術
の説明図である。 図中、21は画像入力部、22は画像用メモリ、23は
文字線候補領域検出回路、24は領域分割結果格納メモ
リ、25は文字パターン候補抽出回路、26は文字パタ
ーン候補格納メモリ、27は文字認識処理回路、28は
文字パターン性判定回路、2日は高類似度パターン格納
メモリ、3oは類似度更新回路、31は文字パターンの
抽出と認識結実用メモリ、61は文字「け」、62は文
字「いJ、63.64は文字61を構成する領域、65
.68は文字62を構成する領域、67は探索範囲、6
8〜71は組合せパターン、100は直接関連パターン
計算回路、101は直接関連パターン格納メモリ、10
2は類似度計算回路、103はカテゴリパラメータ用メ
モリ、104は更新類似度用メモリ、105は間接関連
パターン計算回路、106は間接関連パターン格納用メ
ーT−リ、107は文字パターン判定回路である。 第1図 第2図 (a)    (b) (C)    (d) 第3図 第4図 第5図 ユ立 第6図(a) 第6図(b)
Fig. 1 is a block diagram showing an example of a device implementing the present invention, Fig. 2 is a diagram showing an example of binarization processing, Fig. 3 is a diagram explaining a density difference evaluation method, and Fig. 4 is a text diagram. An explanatory diagram of the principle of extracting pattern candidates, FIG. 5 is a block diagram showing an example of a similarity updating circuit, FIG. 6 is a diagram showing an example of a directly related pattern and an indirectly related pattern group, and FIG. 7 is a diagram showing the similarity. FIG. 8 is a flowchart showing how to obtain a coupling coefficient for updating, FIG. 8 is a diagram showing an example of an evaluation parameter table, and FIG. 9 is an explanatory diagram of the prior art. In the figure, 21 is an image input unit, 22 is an image memory, 23 is a character line candidate area detection circuit, 24 is a region division result storage memory, 25 is a character pattern candidate extraction circuit, 26 is a character pattern candidate storage memory, and 27 is a character pattern candidate storage memory. Character recognition processing circuit, 28 character pattern determination circuit, 2nd high similarity pattern storage memory, 3o similarity update circuit, 31 character pattern extraction and recognition practical memory, 61 character "ke", 62 is the character ``J, 63.64 is the area that makes up the character 61, 65
.. 68 is an area forming the character 62, 67 is a search range, 6
8 to 71 are combination patterns, 100 is a directly related pattern calculation circuit, 101 is a directly related pattern storage memory, 10
2 is a similarity calculation circuit, 103 is a memory for category parameters, 104 is a memory for updated similarity, 105 is an indirect related pattern calculation circuit, 106 is a memory for storing indirect related patterns, and 107 is a character pattern determination circuit. . Figure 1 Figure 2 (a) (b) (C) (d) Figure 3 Figure 4 Figure 5 Standing Figure 6 (a) Figure 6 (b)

Claims (1)

【特許請求の範囲】[Claims] 2次元面または3次元空間中に存在する文字を含む情景
を濃淡画像として入力し、文字線に対応する可能性の高
い箇所を領域として検出し、互いに近傍に存在する領域
の組合せを文字パターン候補として抽出し、前記文字パ
ターン候補が文字に対応するか否かの判定を行う文字認
識処理方法において、前記文字認識処理により抽出され
た高類似度パターンの持つカテゴリの確からしさを比較
することにより類似度の更新を行い、互いに関連する各
パターン群において最終的に最大の類似度を有するパタ
ーンを文字パターンとして抽出し、その類似度を与える
カテゴリを文字認識結果として出力することを特徴とす
る情景画像中の文字認識方式。
A scene containing characters existing on a two-dimensional surface or three-dimensional space is input as a gray scale image, areas that are likely to correspond to character lines are detected as regions, and combinations of regions that exist in the vicinity of each other are used as character pattern candidates. In a character recognition processing method for determining whether or not the character pattern candidate corresponds to a character, the character pattern candidate is extracted as A scene image characterized by updating the degree of similarity, finally extracting a pattern having the maximum degree of similarity among mutually related pattern groups as a character pattern, and outputting a category giving that degree of similarity as a character recognition result. Character recognition method inside.
JP63034970A 1988-02-19 1988-02-19 Character recognition method for scene images Expired - Fee Related JP2979089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63034970A JP2979089B2 (en) 1988-02-19 1988-02-19 Character recognition method for scene images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63034970A JP2979089B2 (en) 1988-02-19 1988-02-19 Character recognition method for scene images

Publications (2)

Publication Number Publication Date
JPH01211090A true JPH01211090A (en) 1989-08-24
JP2979089B2 JP2979089B2 (en) 1999-11-15

Family

ID=12429000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63034970A Expired - Fee Related JP2979089B2 (en) 1988-02-19 1988-02-19 Character recognition method for scene images

Country Status (1)

Country Link
JP (1) JP2979089B2 (en)

Also Published As

Publication number Publication date
JP2979089B2 (en) 1999-11-15

Similar Documents

Publication Publication Date Title
CN108304835B (en) character detection method and device
JP3748172B2 (en) Image processing device
CN107093172B (en) Character detection method and system
Lee et al. Automatic recognition of a car license plate using color image processing
KR100525692B1 (en) Color image processing apparatus and pattern extracting apparatus
JP6139396B2 (en) Method and program for compressing binary image representing document
KR102190527B1 (en) Apparatus and method for automatic synthesizing images
JP2005523530A (en) System and method for identifying and extracting character string from captured image data
US20120250048A1 (en) Image processing apparatus and image processing method
CN111027475A (en) Real-time traffic signal lamp identification method based on vision
CN112052835A (en) Information processing method, information processing apparatus, electronic device, and storage medium
CN111488911B (en) Image entity extraction method based on Mask R-CNN and GAN
JP4077919B2 (en) Image processing method and apparatus and storage medium therefor
JP2010170207A (en) Vehicle monitoring system
Rahman et al. Ggcs: A greedy graph-based character segmentation system for bangladeshi license plate
CN111814917B (en) Character wheel image digital identification method with fuzzy state
CN111832497B (en) Text detection post-processing method based on geometric features
CN113095327A (en) Method and system for positioning optical character recognition area and storage medium thereof
JP2005302056A (en) Pattern extracting apparatus
CN113128509A (en) Image semantic element extraction method
CN111767909A (en) Character recognition method and device and computer readable storage medium
JP2008028716A (en) Image processing method and apparatus
CN113496115B (en) File content comparison method and device
JPH01211090A (en) Recognizing system for character in information picture
CN113569829A (en) Container coding data identification method and system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees