JP2748936B2 - Character recognition method - Google Patents

Character recognition method

Info

Publication number
JP2748936B2
JP2748936B2 JP63044140A JP4414088A JP2748936B2 JP 2748936 B2 JP2748936 B2 JP 2748936B2 JP 63044140 A JP63044140 A JP 63044140A JP 4414088 A JP4414088 A JP 4414088A JP 2748936 B2 JP2748936 B2 JP 2748936B2
Authority
JP
Japan
Prior art keywords
character
path
subtree
probability value
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63044140A
Other languages
Japanese (ja)
Other versions
JPH01219971A (en
Inventor
裕 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63044140A priority Critical patent/JP2748936B2/en
Publication of JPH01219971A publication Critical patent/JPH01219971A/en
Application granted granted Critical
Publication of JP2748936B2 publication Critical patent/JP2748936B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 文字認識方式、特に木構造の辞書により文字を認識す
る方式に関し、 書き手に応じて認識誤りを低減させる学習機能を備
え、認識率を向上させる文字認識方式を提供することを
目的とし、 複数本のパスをまとめて部分木となし最終段の部分木
のパスに認識文字が接続される木構造辞書を用いる文字
認識方式であって、最終段の部分木の各パスに、検索ル
ートとなった頻度を表す確率値を更新しながら付与し、
この確率値に応じた優先順位をもって検索を行い、また
あるしきい値以下の確率値を持つパスとその文字は木構
造辞書から削除するように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Overview] A character recognition method, particularly a method for recognizing characters using a tree-structured dictionary, comprising a learning function for reducing recognition errors according to a writer and improving a recognition rate. A character recognition method using a tree-structured dictionary in which a plurality of paths are combined into a partial tree, and a recognition character is connected to a path of a partial tree at the final stage. Is assigned to each path of while updating the probability value indicating the frequency of the search route,
A search is performed with a priority order according to this probability value, and a path having a probability value equal to or less than a certain threshold value and its character are deleted from the tree structure dictionary.

〔産業上の利用分野〕[Industrial applications]

本発明は文字認識方式、特に木構造の辞書により文字
を認識する方式に関する。
The present invention relates to a character recognition method, and more particularly to a method for recognizing characters using a tree-structured dictionary.

木構造の辞書を用いて文字を認識する方式は、ソフト
ウェアの作成が容易で且つ認識速度が速いという利点を
有し、広く採用されつつある。
The method of recognizing characters using a tree-structured dictionary has the advantages of easy software creation and high recognition speed, and is being widely adopted.

〔従来の技術〕[Conventional technology]

第5図は木構造を使った一般的な文字認識方式を説明
するための図である。この方式は根1を基点となし、検
索のルートをなすパス(枝に相当)2を複数本まとめて
部分木3,4を構成し、これら部分木の群3,4を階層的に積
み上げ、最終段の部分木4に、認識結果を示す文字が配
列される。これらが全体として木構造の辞書5をなす。
図では、機械にとって未知の文字「王」を根1に入力
し、その特徴量をパラメータとしてパス2に沿って点線
の如く下って検索し、正しい認識結果「王」を得ている
状況を示している。
FIG. 5 is a diagram for explaining a general character recognition method using a tree structure. In this method, a plurality of paths (corresponding to branches) 2 forming a search route are formed by forming a plurality of subtrees 3 and 4 using a root 1 as a base point, and the subtrees 3 and 4 are hierarchically stacked. In the subtree 4 at the last stage, characters indicating the recognition result are arranged. These form a tree-structured dictionary 5 as a whole.
In the figure, the character “king” unknown to the machine is input to the root 1 and its characteristic amount is searched as a parameter along the path 2 along a dotted line to obtain a correct recognition result “king”. ing.

第6図は文字認識のためのハードウェア構成例を示す
図である。機械にとって未知の文字、例えば「王」を含
む原稿を、OCR(optical character reader)7にて読
み取り、読み取ったパターンからその未知の文字の特徴
量を、特徴量生成部8で生成し、この特徴量から文字認
識部9にて、当該文字を第5図のパスルートを経て認識
する。
FIG. 6 is a diagram showing an example of a hardware configuration for character recognition. An original including a character unknown to the machine, for example, “king” is read by an OCR (optical character reader) 7, and a characteristic amount of the unknown character is generated by a characteristic amount generation unit 8 from the read pattern. The character is recognized from the quantity by the character recognition unit 9 via the path route shown in FIG.

第7図は公知の文字認識アルゴリズムを概略的に示す
図であり、特徴量生成部8で生成された特徴量と、予め
求めた第5図の第1段目のn個の各平均標準パターン
(これは後述するようにテーブルの形で記憶されてい
る)とのシティーブロック距離(以下、単に距離とい
う)を計算する(ステップS1)。この結果、n個の距離
が得られるが、その内、最も距離の小さい標準パターン
を選択する(ステップS2)。選択された標準パターン
は、今度は2段目の例えばm個の標準パターンの各々と
の距離を計算する(ステップS3)。そして、またこれら
m個の標準パターンの内、最も距離の小さい標準パター
ンを選択し(ステップS4)、この選択した標準パターン
と最終段の標準パターンとの距離を計算して(ステップ
S5)、認識文字を出力するものである。
FIG. 7 is a diagram schematically showing a known character recognition algorithm, in which the feature amount generated by the feature amount generation unit 8 and the n average standard patterns of the first stage shown in FIG. A city block distance (hereinafter, simply referred to as a distance) with respect to (this is stored in the form of a table as described later) is calculated (step S1). As a result, n distances are obtained, and among them, the standard pattern with the smallest distance is selected (step S2). The distance between the selected standard pattern and each of, for example, m standard patterns in the second stage is calculated (step S3). Then, the standard pattern having the shortest distance is selected from the m standard patterns (step S4), and the distance between the selected standard pattern and the final standard pattern is calculated (step S4).
S5), to output recognition characters.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

上述した一般的な文字認識方式では学習機能が存在し
ないので、書き手の「くせ」を学習することがなく、誤
り易い文字は毎回同じ認識誤りを生じさせ、認識率が低
下するという問題がある。
Since the learning function does not exist in the above-described general character recognition method, there is a problem that the writer does not learn the “habit” and the easily erroneous character causes the same recognition error every time, thereby lowering the recognition rate.

本発明は書き手に応じて認識誤りを低減させる学習機
能を備え、認識率を向上させる文字認識方式を提供する
ことを目的とするものである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a character recognition system having a learning function for reducing recognition errors according to a writer and improving a recognition rate.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明に係る方式を実施するための原理構成
を示す図である。本図の構成は第6図における文字認識
部9に相当する。本発明の文字認識システム10は、認識
処理部11と、木構造辞書12と、確率メモリ13とから構成
される。なお、木構造辞書12および確率メモリ13は共に
RAM(random access memory)で構成でき、必要なデー
タは例えばフロッピーディスクに保存し、使用の際にRA
Mへローディングする。
FIG. 1 is a diagram showing a principle configuration for implementing a method according to the present invention. This configuration corresponds to the character recognition unit 9 in FIG. The character recognition system 10 of the present invention includes a recognition processing unit 11, a tree structure dictionary 12, and a probability memory 13. Note that both the tree structure dictionary 12 and the probability memory 13
It can be composed of RAM (random access memory), and necessary data is stored on a floppy disk, for example, and RA
Load to M.

〔作 用〕(Operation)

未知文字の特徴量CHは認識処理部11に入力され、該処
理部11はラインL1を介し辞書12と共働して、第5図の検
索パスに従い、認識結果ANSをオペレータに提供する。
オペレータは認識結果ANSを見てその正誤を正誤情報G/N
Gとして処理部11に返す。処理部11は情報G/NGに基づい
て、パス毎の確率を更新する。なお、この確率が付与さ
れるパスは、少なくとも最終段の部分木(第5図の4)
の各々におけるスである。これらのパス毎の確率を記録
しておくのが、確率メモリ13であり、ラインL2を介して
書込みおよび読出しを行う。
The feature amount CH of the unknown character is input to the recognition processing unit 11, and the processing unit 11 cooperates with the dictionary 12 via the line L1 to provide the recognition result ANS to the operator according to the search path shown in FIG.
The operator looks at the recognition result ANS and determines whether the information is correct or not.
It returns to the processing unit 11 as G. The processing unit 11 updates the probability for each path based on the information G / NG. It should be noted that the path to which this probability is assigned is at least a partial tree at the last stage (4 in FIG. 5).
In each of It is the probability memory 13 that records the probabilities for each pass, and performs writing and reading via the line L2.

確率の更新に当っては、認識結果が正しいと確率は、
例えば1/6→1/5の如くアップし、逆に認識結果が誤りの
ときは確率が、例えば1/2→1/3の如くダウンし、このよ
うな操作を繰り返して書き手の「くせ」を一層明確に判
断できるようになる。なお、認識結果ANSが「なし」の
とき、すなわち該当文字が見つからなかったときは、当
該部分木内に新たにパスを新設し、且つ、そのパスに一
定の確率、例えば1/2を与えておく。
In updating the probability, if the recognition result is correct, the probability is
For example, when the recognition result is up, such as 1/6 → 1/5, and conversely, when the recognition result is incorrect, the probability is down, for example, 1/2 → 1/3. Can be determined more clearly. When the recognition result ANS is "none", that is, when the corresponding character is not found, a new path is newly established in the subtree, and a certain probability, for example, 1/2 is given to the path. .

さらにまた、確率が付与されるいずれの部分木におい
ても、全パスの確率の和が常に1となるように管理され
る。言い換えると、全体を100%とすれば、それぞれの
パスの%値の総和は100である。
Furthermore, in any subtree to which a probability is assigned, management is performed so that the sum of the probabilities of all paths is always 1. In other words, assuming that the whole is 100%, the sum of the% values of each path is 100.

〔実施例〕〔Example〕

第2図は本発明を説明するための図であり、第5図に
対応する。第2図は、本発明に基づき、最終段部分木4
の各パスに確率が付与された例を示しており、この確率
はある特定の書き手について学習が進むにつれ、それぞ
れ固有の一定値に落ち着く。図中の、1/3,1/6等が確率
であり、正しく認識する回数が増大するにつれて1に近
づく。
FIG. 2 is a diagram for explaining the present invention, and corresponds to FIG. FIG. 2 shows a final subtree 4 according to the invention.
This example shows a case where a probability is assigned to each of the paths, and the probability settles to a unique constant value as learning progresses for a specific writer. In the figure, 1/3, 1/6, etc. are probabilities, and approach 1 as the number of correct recognitions increases.

第3図は本発明で用いる木構造辞書と確率メモリの一
構成例を示す図であり、いわゆるポインタテーブルを形
成するRAMである。本図のポインタテーブルは、第2図
に合わせて、第1段、第2段および最終段(第3段)構
成となっており、図の左から右に向かって階層的な構成
となっている。各段ポインタテーブルは、インデックス
IDXで区分され、例えば第1段のn1は200、第2段のn2
1200、n3は3303である。PNTはポインタであり、次段の
ポインタを示す。例えば第1段ポインタテーブルのイン
デックス0は第2段のポインタ0を示しており、第2段
ポインタテーブルのインデックス0,1のいずれかをアク
セスする。第2段ポインタテーブルの例えばインデック
ス0にパスが張られたとすると、最終段ポインタテーブ
ルのインデックス0,1,2のいずれかをアクセスする。
FIG. 3 is a diagram showing an example of a configuration of a tree structure dictionary and a probability memory used in the present invention, which is a RAM for forming a so-called pointer table. The pointer table in this figure has a first stage, a second stage, and a last stage (third stage) configuration in accordance with FIG. 2, and has a hierarchical configuration from left to right in the diagram. I have. Each row pointer table has an index
IDX, for example, the first stage n 1 is 200, the second stage n 2 is
1200 and n 3 are 3303. PNT is a pointer, and indicates the next-stage pointer. For example, the index 0 of the first-stage pointer table indicates the pointer 0 of the second-stage, and any one of the indexes 0 and 1 of the second-stage pointer table is accessed. Assuming that a path is set at, for example, index 0 of the second-stage pointer table, one of the indexes 0, 1, and 2 of the last-stage pointer table is accessed.

いずれの段においてもどのインデックスにアクセスす
べきかは、前述の標準パターン(PAT)をパラメータに
して判断される。標準パターンベクトルはいわば代表ベ
クトルである。なお、最終段ポインタテーブルの標準パ
ターンには実際の文字(認識結果)が入る。そして本発
明の特徴をなす確率値PがP0とかP1とかP2とかの形で入
る。P0+P1+P2は、既述のとおり1である。このPの欄
は第1図の確率メモリ13が該当するその他は、第1図の
木構造辞書12に該当する。
Which index should be accessed at any stage is determined using the standard pattern (PAT) described above as a parameter. The standard pattern vector is a representative vector. Note that actual characters (recognition results) are entered in the standard pattern of the last stage pointer table. The probability value P, which is the characteristic of the present invention falls in the form of Toka P 0 Toka P 1 Toka P 2. P 0 + P 1 + P 2 is 1 as described above. The column of P corresponds to the probability memory 13 in FIG. 1 and the others correspond to the tree structure dictionary 12 in FIG.

標準パターンベクトルは、階層構造上でのある地点か
ら見た配下の全ての文字の平均ベクトルであり、それら
の文字の代表ベクトルである。最終段テーブルだけは平
均ベクトルではなく、1つの文字を表すベクトル(特徴
量)である。
The standard pattern vector is an average vector of all subordinate characters viewed from a certain point on the hierarchical structure, and is a representative vector of those characters. Only the final stage table is a vector (feature amount) representing one character, not an average vector.

第7図において示した距離計算について見ると、本発
明では最終段テーブル以外は通常のベクトル間のシティ
ブロック距離を意味し、最終段のみはベクトル間のシテ
ィブロック距離を確率で割った実行距離を指す。
Looking at the distance calculation shown in FIG. 7, in the present invention, other than the final stage table, it means the ordinary city block distance between vectors, and only the final stage is the execution distance obtained by dividing the city block distance between vectors by the probability. Point.

すなわち、未知文字ベクトルをU=(u1,u2,・・・,u
r)、標準パターンベクトルをV=(v1,v2,・・・,vr
とすると、シティブロック距離Duv この場合の実行距離Duv′は、 Duv′=Duv/pv ここで、pvは第4図のような最終段の部分木内で標準パ
ターンベクトルVがつながっているパスの確率値(0<
pv<1)である。第4図は確率値の付与された部分木を
示す図である。
That is, the unknown character vector is defined as U = (u 1 , u 2 ,..., U
r ), the standard pattern vector is V = (v 1 , v 2 ,..., v r )
Then, the city block distance D uv is In this case, the execution distance D uv ′ is D uv ′ = D uv / p v, where p v is the probability value of the path to which the standard pattern vector V is connected in the last subtree as shown in FIG. 0 <
p v <1). FIG. 4 is a diagram showing a subtree to which a probability value is assigned.

このような確率値と木構造辞書を使った認識手法は次
のとおり実行される。未知文字CHは、木構造辞書に入
り、まず第1段の標準パターンベクトルと距離計算を行
い、そのうち最も近い数個を候補としてピックアップ
し、そのポインタテーブルの内容が指すところを第2段
での対象とする。第2段では対象内の標準パターンベク
トルと未知文字との距離計算を行い、そのうち最も近い
数個を候補としてピックアップし、そのポインタテーブ
ルの内容が指すところを次段での対象とする。この様に
次々に階層構造を下りながら、候補を絞っていく。最終
段では、対象は漢字コードとそれを表すベクトル(特徴
量)となり、未知文字とこのベクトルとの確率を考慮し
た実行距離計算を行い、小さい順に並べ替え、最も小さ
いものを認識結果とする。
A recognition method using such a probability value and a tree structure dictionary is executed as follows. The unknown character CH enters the tree structure dictionary, first calculates the distance with the standard pattern vector of the first stage, picks up the nearest several candidates as candidates, and indicates the position indicated by the contents of the pointer table in the second stage. set to target. In the second stage, the distance between the standard pattern vector in the target and the unknown character is calculated, the nearest several are picked up as candidates, and the location indicated by the contents of the pointer table is set as the target in the next stage. In this way, candidates are narrowed down one after another down the hierarchical structure. In the final stage, the target is a kanji code and a vector (characteristic amount) representing the kanji code, the execution distance calculation is performed in consideration of the probability of the unknown character and this vector, and they are rearranged in ascending order.

かくして本発明の学習制御は次のように行われる。 Thus, the learning control of the present invention is performed as follows.

まず認識結果ANSが正しいときは、認識された文字へ
のパスの確率値を引き上げるとともに当該部分木内の他
のパスの確率値を引き下げる。
First, when the recognition result ANS is correct, the probability value of the path to the recognized character is increased, and the probability value of another path in the subtree is reduced.

認識結果ANSが誤りのときは、当該文字が当該部分木
内にあるかないかを判別し、 ありの場合はその文字へのパスの確率値を引き下げ
ると共に当該部分木内の他のパスの確率値を引き上げ、 なしの場合は正しい文字に至るパスを新設し(第3
図の第2段のテーブルポインタのインデックスが増え
る)、かつ一定の確率値Pを与える。
If the recognition result ANS is incorrect, determine whether the character is in the subtree or not, and if so, reduce the probability value of the path to the character and increase the probability value of other paths in the subtree. If no, a new path to the correct character is established (No. 3
The index of the table pointer in the second row in the figure increases) and a constant probability value P is given.

そして認識のためのルート検索においては、上記確率
値に応じた優先順位に従って最終段の該当文字を検索す
る。
Then, in the route search for recognition, the corresponding character at the last stage is searched according to the priority order according to the probability value.

さらに本発明によれば、木構造辞書を、確率値を用い
て改造することができる。すなわち、認識対象から外れ
る頻度が高い文字については、その文字につながるパス
の確率値が、時間を追って引き下げられる。そこで、第
3図の確率値Pの欄(確率メモリ13)を適宜監視し、あ
るしきい値を下まわる確率値が付与されているパスにつ
いては、これらを削除する。これは木構造辞書をなすRA
Mの容量を増やさずに認識率を高めることができること
を意味する。
Further, according to the present invention, the tree structure dictionary can be remodeled using the probability values. That is, for a character that frequently falls outside the recognition target, the probability value of a path leading to the character is reduced over time. Therefore, the column of the probability value P (probability memory 13) in FIG. 3 is monitored as appropriate, and the paths to which the probability value below a certain threshold is assigned are deleted. This is a tree structure dictionary RA
This means that the recognition rate can be increased without increasing the capacity of M.

実際の装置では、第1図の認識処理部11はパソコンで
構成されており、木構造辞書12は既述のとおりフロッピ
ーディスクより供給される。辞書内容の学習は学習ソフ
トウェア(フロッピーディスクで供給)または学習用フ
ァームを起動して実際に認識を行わせながら実行する
(片側にもう1つの辞書フロッピーディスクをセットし
ておく)。このときCRT(モニター)上に読込み文字と
認識結果文字を表示しそれらが一致しているかどうか検
査する。誤っているとき(一致せず)は、正しい文字コ
ードを入力すると、辞書に当該文字とこれにつながるパ
スが設定される。このとき、既述のように、パスの確率
値を与える。次回の認識ソフトウェアの起動に際して
は、新しい辞書フロッピーディスク(前回の文字認識に
おいて、片側にセットされた上述のもう1つの辞書フロ
ッピーディスク)がRAM(12)にロードされるので、特
定の書き手の文字に対しては誤認識しにくくなる。
In an actual apparatus, the recognition processing unit 11 shown in FIG. 1 is constituted by a personal computer, and the tree structure dictionary 12 is supplied from a floppy disk as described above. The learning of the dictionary contents is executed while activating a learning software (supplied by a floppy disk) or a learning firmware and actually performing recognition (another dictionary floppy disk is set on one side). At this time, the read character and the recognition result character are displayed on a CRT (monitor), and it is checked whether they match. If the character code is incorrect (does not match) and a correct character code is input, the character and a path leading to the character are set in the dictionary. At this time, as described above, a path probability value is given. At the next start of the recognition software, a new dictionary floppy disk (another dictionary floppy disk set on one side in the previous character recognition) is loaded into the RAM (12), so that a specific writer character is written. Is less likely to be misrecognized.

〔発明の効果〕〔The invention's effect〕

以上説明したように本発明によれば、確率値の併用に
より認識速度を向上させることができる。また確率値を
利用して使用頻度の低いパスを削除し、木構造辞書を小
さくすることができる。
As described above, according to the present invention, the recognition speed can be improved by using the probability values together. In addition, by using the probability value, the less frequently used paths can be deleted, and the tree structure dictionary can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明に係る方式を実施するための原理構成を
示す図、 第2図は本発明を説明するための図、 第3図は本発明で用いる木構造辞書と確率メモリの一構
成例を示す図、 第4図は確率値の付与された部分木を示す図、 第5図は木構造を使った一般的な文字認識方式を説明す
るための図、 第6図は文字認識のためのハードウェア構成例を示す
図、 第7図は公知の文字認識アルゴリズムを概略的に示す図
である。 図において、 2……パス、3,4……部分木、 8……特徴量生成部、10……文字認識システム、 11……認識処理部、12……木構造辞書、 13……確率メモリ。
FIG. 1 is a diagram showing a principle configuration for implementing a method according to the present invention. FIG. 2 is a diagram for explaining the present invention. FIG. 3 is a configuration of a tree structure dictionary and a probability memory used in the present invention. FIG. 4 is a diagram showing an example, FIG. 4 is a diagram showing a subtree to which a probability value is given, FIG. 5 is a diagram for explaining a general character recognition method using a tree structure, and FIG. FIG. 7 is a diagram schematically showing a known character recognition algorithm. In the figure, 2 ... pass, 3,4 ... subtree, 8 ... feature generation unit, 10 ... character recognition system, 11 ... recognition processing unit, 12 ... tree structure dictionary, 13 ... probability memory .

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−61876(JP,A) 特開 昭62−208182(JP,A) 特開 昭58−201184(JP,A) 特開 昭60−61875(JP,A) 特開 昭57−209575(JP,A) 特開 昭59−128682(JP,A) 特公 平7−111731(JP,B2) 特公 平6−64631(JP,B2) 特公 平7−117992(JP,B2) ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-60-61876 (JP, A) JP-A-62-208182 (JP, A) JP-A-58-201184 (JP, A) JP-A-60-1986 JP-A-57-209575 (JP, A) JP-A-59-128682 (JP, A) JP-B-7-111731 (JP, B2) JP-B-6-64631 (JP, B2) Tokiko Hei 7-11792 (JP, B2)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】未知文字の特徴量をパラメータとして検索
を行うためのルートをなすパス(2)を複数本ずつまと
めて部分木(3,4)となし、該部分木(3,4)の群を階層
的に積み上げて、最終段の部分木(4)のパス(2)に
認識結果をなす文字を接続してなる木構造辞書(12)を
用いて未知文字を認識する文字認識方式において、 前記最終段の部分木(4)の各パス(2)対応に付与さ
れる確率値(P)であって、しかも各該部分木(4)に
おける全てのパス(2)の該確率値の和が常に1となる
ような確率値(P)を、更新可能に設定する認識処理部
(11)と、 各前記パス(2)対応の前記確率値(P)を保持する確
率メモリ(13)とを備え、 前記確率値(P)に応じた優先順位に従って最終段の該
当文字を検索するようにし、ここに前記確率値(P)の
更新を行う場合、 (a)前記の認識結果が正しいときは、認識された文字
へのパスの確率値(P)を引き上げると共に当該部分木
内の他の文字へのパスの確率値(P)を引き下げ、 (b)前記の認識結果が誤りのときは、当該部分木内に
正しい文字があるかないか検査し、 (b−1)その正しい文字がありのときは、その文字へ
のパスの確率値(P)を引き上げると共に当該部分木内
の他の文字へのパスの確率値(P)を引き下げ、 (b−2)その正しい文字がないときは、その文字およ
びこれにつながるパスを当該部分木内に新たに形成する
と共に該パスに一定の確率値(P)を付与することを特
徴とする文字認識方式。
A plurality of paths (2) forming a route for performing a search using a feature amount of an unknown character as a parameter are combined into a subtree (3, 4), and a partial tree (3, 4) is obtained. In a character recognition method for recognizing unknown characters using a tree structure dictionary (12) in which groups are hierarchically stacked and a character forming a recognition result is connected to a path (2) of a subtree (4) at the last stage. A probability value (P) assigned to each path (2) of the subtree (4) at the last stage, and the probability value of all the paths (2) in each subtree (4). A recognition processing unit (11) for setting a probability value (P) whose sum is always 1 to be updatable, and a probability memory (13) for holding the probability value (P) corresponding to each path (2) And searching for the last corresponding character in accordance with the priority order according to the probability value (P). When the value (P) is updated, (a) when the recognition result is correct, the probability value (P) of the path to the recognized character is increased, and the probability of the path to another character in the subtree is increased. (B) If the recognition result is incorrect, check whether there is a correct character in the subtree. (B-1) If there is a correct character, go to that character. The probability value (P) of the path of the subtree is raised and the probability value (P) of the path to another character in the subtree is reduced. (B-2) If the correct character does not exist, the character and the path leading to it Is newly formed in the subtree, and a certain probability value (P) is given to the path.
【請求項2】前記パス(2)の確率値(P)が予め定め
たしきい値を下まわったとき、当該パス(2)および文
字を木構造辞書(12)から削除する請求項1記載の文字
認識方式。
2. When the probability value (P) of the path (2) falls below a predetermined threshold, the path (2) and the character are deleted from the tree structure dictionary (12). Character recognition method.
JP63044140A 1988-02-29 1988-02-29 Character recognition method Expired - Fee Related JP2748936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63044140A JP2748936B2 (en) 1988-02-29 1988-02-29 Character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63044140A JP2748936B2 (en) 1988-02-29 1988-02-29 Character recognition method

Publications (2)

Publication Number Publication Date
JPH01219971A JPH01219971A (en) 1989-09-01
JP2748936B2 true JP2748936B2 (en) 1998-05-13

Family

ID=12683334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63044140A Expired - Fee Related JP2748936B2 (en) 1988-02-29 1988-02-29 Character recognition method

Country Status (1)

Country Link
JP (1) JP2748936B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644329A (en) * 1992-04-23 1994-02-18 Hitachi Ltd Automatic drawing design/manufacture information processing system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57209575A (en) * 1981-06-19 1982-12-22 Fujitsu Ltd Character recognizing device
JPS58201184A (en) * 1982-05-20 1983-11-22 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション Hand-written character recognition equipment
JPS59128682A (en) * 1983-01-12 1984-07-24 Comput Basic Mach Technol Res Assoc Character reader
JPS6061876A (en) * 1983-09-14 1985-04-09 Nec Corp Character recognition system
JPS6061875A (en) * 1983-09-16 1985-04-09 Hitachi Ltd Generation system of standard pattern
US4719571A (en) * 1986-03-05 1988-01-12 International Business Machines Corporation Algorithm for constructing tree structured classifiers

Also Published As

Publication number Publication date
JPH01219971A (en) 1989-09-01

Similar Documents

Publication Publication Date Title
US5151950A (en) Method for recognizing handwritten characters using shape and context analysis
US4903206A (en) Spelling error correcting system
US5787197A (en) Post-processing error correction scheme using a dictionary for on-line handwriting recognition
EP0583559A1 (en) Finding token sequences in a database of token strings
JP2012160000A (en) Association method of table of content and headline, association device, and association program
JPH0981730A (en) Method and device for pattern recognition and computer controller
JP2019204214A (en) Learning device, learning method, program and estimation device
US20030126138A1 (en) Computer-implemented column mapping system and method
WO1995017734A1 (en) Method and apparatus for pattern recognition, and method of compiling dictionary for pattern recognition
JP2748936B2 (en) Character recognition method
US7130487B1 (en) Searching method, searching device, and recorded medium
CN111814781A (en) Method, apparatus, and storage medium for correcting image block recognition result
Weigel et al. Lexical postprocessing by heuristic search and automatic determination of the edit costs
JPH05314320A (en) Recognition result evaluating system using difference of recognition distance and candidate order
JP2003108576A (en) Database control device and database control method
CN115244539B (en) Inference method for tokenization of words or word segments
JP3128357B2 (en) Character recognition processor
JPH07117992B2 (en) Character recognition method
JPS63291186A (en) Character recognizing system
JP2942375B2 (en) Character reader
JPH0766423B2 (en) Character recognition device
JPH11219410A (en) Method for preparing multi-template dictionary for recognizing character
JPH0527912B2 (en)
JPH0258187A (en) Character recognizing device
JPH0714011A (en) Method and device for character recognition

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees