JP2002183668A - Word-recognizing device - Google Patents

Word-recognizing device

Info

Publication number
JP2002183668A
JP2002183668A JP2001296014A JP2001296014A JP2002183668A JP 2002183668 A JP2002183668 A JP 2002183668A JP 2001296014 A JP2001296014 A JP 2001296014A JP 2001296014 A JP2001296014 A JP 2001296014A JP 2002183668 A JP2002183668 A JP 2002183668A
Authority
JP
Japan
Prior art keywords
feature
word
features
dictionary
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001296014A
Other languages
Japanese (ja)
Other versions
JP4093738B2 (en
Inventor
Yoshinobu Hotta
悦伸 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001296014A priority Critical patent/JP4093738B2/en
Publication of JP2002183668A publication Critical patent/JP2002183668A/en
Application granted granted Critical
Publication of JP4093738B2 publication Critical patent/JP4093738B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a word-recognizing device sharply reducing capacity of a character feature dictionary, and capable of speeding up recognizing processing. SOLUTION: The character feature dictionary is reduced in capacity, and is stored in a feature dictionary 3. The capacity is reduced by imparting an identification number of 1 to m by representing a column or row feature by m pieces of column vectors, by executing clustering processing of a feature vector in respective column or row units on a character feature. After executing the clustering processing, the column or row feature is expressed by the addition sum of the other column or row feature and a difference feature, and the character feature is dimensionally compressed, so that the dictionary can be reduced further in capacity. A word is recognized, by checking a word feature with a feature extracted from an input word by synthesizing the checking up word feature on the basis of a word list being a recognizing object. The word feature, different in the dimensional number, may be checked with an input word feature by using nonlinear extensible-contractible matching.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】近年、文書入力機器として文
字認識装置OCRやソフトウェアOCRの需要が増加し
ている。本発明は、この文字認識装置における単語認識
に関する。単語認識とは、「東京」のような手書きの単
語を認識する際に、個々の文字に分離したうえで個別文
字認識を行なうのではなく、単語そのものを一括して認
識する方式である。この方式によれば、文字と文字が接
触している場合でも精度の高い認識を実現することが可
能であり、フリーピッチ領域の手書き文字列認識におい
て有効な方式の1つとなっている。本発明の単語認識装
置は、手書き用文字認識装置だけでなく、印刷文字認識
装置、携帯情報端末における文字認識装置等、広い意味
での文字認識装置に適用することができる。
BACKGROUND OF THE INVENTION In recent years, the demand for character recognition devices OCR and software OCR as document input devices has been increasing. The present invention relates to word recognition in the character recognition device. The word recognition is a method of recognizing a word such as "Tokyo" by recognizing the word itself instead of performing individual character recognition after separating the characters into individual characters. According to this method, it is possible to realize highly accurate recognition even when characters are in contact with each other, and this is one of the effective methods for recognizing a handwritten character string in a free pitch area. INDUSTRIAL APPLICABILITY The word recognition device of the present invention can be applied not only to a character recognition device for handwriting, but also to a character recognition device in a broad sense such as a print character recognition device and a character recognition device in a portable information terminal.

【0002】[0002]

【従来の技術】手書き単語を認識する場合に、単語を構
成する各文字の特徴同士を組み合わせて照合用の単語特
徴辞書を生成し、入力単語の特徴と照合して認識する方
式としては、これまでに、例えば特願平11−1137
33号、特願平11−330288号等が提案されてい
る。上記特願平11−113733号に開示されるもの
は、入力された単語画像を個々に文字認識せずに、個別
文字の特徴をもとに単語特徴辞書を生成した上で入力単
語画像を一括して認識するものであり、小容量の個別文
字イメージ辞書を使用して高精度に単語認識をすること
ができる。また、上記特願平11−330288号に開
示されるものは、1単語に対して複数の単語特徴を合成
して単語辞書を生成することにより、入力単語画像の字
形変動に対応できるようにしたものである。
2. Description of the Related Art When recognizing a handwritten word, a method of generating a word feature dictionary for matching by combining the features of each character constituting the word and matching the feature with the features of an input word is known as follows. By the time, for example, Japanese Patent Application No. 11-1137
No. 33 and Japanese Patent Application No. 11-330288 have been proposed. Japanese Patent Application No. 11-113733 discloses that a word feature dictionary is generated based on the characteristics of individual characters without individually recognizing the input word images, and the input word images are combined. Word recognition can be performed with high accuracy using a small-capacity individual character image dictionary. Also, the one disclosed in Japanese Patent Application No. 11-330288 makes it possible to cope with a change in the shape of an input word image by synthesizing a plurality of word features for one word to generate a word dictionary. Things.

【0003】[0003]

【発明が解決しようとする課題】単語特徴合成用の文字
特徴辞書を持つ場合、上記特願平11−330288号
に開示される従来方式では各文字ごとにその位置や幅を
変えた文字イメージから特徴を抽出し、それら全てを保
持していた。例えば、図11に示すように、横幅の1/
6、2/6、…、6/6の特徴を抽出し(これらを以下
ではn/m特徴という)、それらの特徴を全て保持して
いた。この場合、1文字あたりの特徴数は21となる。
個別文字の特徴としては、例えば、加重方向指数ヒスト
グラム特徴(鶴岡ほか「加重方向指数ヒストグラム法に
よる手書き漢字・ひらがな認識」電子情報通信学会論文
誌 D Vol.J70-D No.7,pp.1390-1397 1987年7 月参照)
用いている。加重方向指数ヒストグラム特徴は文字画像
を小領域に分割し、各少領域の方向指数ヒストグラムを
特徴ベクトルとするものであり、例えば、図12に示す
ように縦7×横7のメッシュ内で、360°を8等分し
た8方向について特徴量を抽出する。各メッシュは8方
向次元の特徴量をもち、例えば「東」という字の3/7
特徴は、上記図12に示すようになる。そして、単語特
徴を合成する場合には、個別文字特徴同士のn/m分数
の和が1になるように単語特徴を合成する。例えば2文
字単語の場合には、3/7特徴+4/7特徴とか、2/
7特徴+5/7特徴等を合成して単語特徴を合成する。
例えば「東京」という単語特徴を合成する場合には、図
13に示すように、「東」の3/7特徴と「京」の4/
7特徴とを足し合わせ、「東京」を合成するといった処
理を行なっている。しかし、約4000ある文字カテゴ
リの全てについて、その位置、幅を変えた文字特徴を持
つ必要があるため、容量的には数百Mbyteを必要と
し、実用化の点で大きな問題となっていた。本発明は、
上記事情に鑑みなされたものであって、本発明の目的
は、文字特徴辞書の容量を大幅に削減することができ、
また認識処理を高速化することができる単語認識装置を
提供することである。
When a character feature dictionary for synthesizing a word feature is provided, the conventional method disclosed in Japanese Patent Application No. 11-330288 discloses a character image in which the position and width of each character are changed. We extracted features and kept them all. For example, as shown in FIG.
6, 2/6,..., 6/6 were extracted (hereinafter referred to as n / m features), and all of them were retained. In this case, the number of features per character is 21.
The characteristics of individual characters include, for example, the weighted direction exponential histogram feature (Tsuruoka et al., “Handwritten Kanji / Hiragana Recognition by Weighted Direction Exponential Histogram Method,” IEICE Transactions D Vol.J70-D No.7, pp.1390- 1397 July 1987)
Used. The weighted direction index histogram feature divides a character image into small regions and uses the direction index histogram of each small region as a feature vector. For example, as shown in FIG. Feature values are extracted for eight directions obtained by equally dividing the angle into eight. Each mesh has an eight-dimensional feature amount. For example, 3/7 of the character “East”
The features are as shown in FIG. Then, when synthesizing word features, the word features are synthesized so that the sum of the n / m fractions of the individual character features becomes one. For example, in the case of a two-letter word, 3/7 features + 4/7 features,
Word features are synthesized by synthesizing 7 features + 5/7 characteristics and the like.
For example, when synthesizing the word feature “Tokyo”, as shown in FIG.
Processing such as combining the seven features and combining "Tokyo" is performed. However, since it is necessary to have character characteristics in which the positions and widths of all the approximately 4000 character categories are changed, several hundred Mbytes are required in terms of capacity, and this has been a major problem in practical use. The present invention
In view of the above circumstances, an object of the present invention is to significantly reduce the capacity of the character feature dictionary,
Another object of the present invention is to provide a word recognition device capable of speeding up a recognition process.

【0004】[0004]

【課題を解決するための手段】上記の課題を解決するた
めに本発明においては、単語特徴合成用の特徴辞書の小
容量化を図り、辞書容量を実用化レベルの容量とした。
また、合成した単語特徴と入力単語特徴の照合方法を改
良し、字形の変動吸収を照合部分で行うようにし、辞書
容量のさらなる小容量化を図った。図1に本発明の概要
を示す。図1において、1は文字特徴辞書であり、入力
文字画像から抽出した特徴ベクトルが格納される。2は
文字特徴辞書の小容量化手段、3は特徴辞書であり、特
徴辞書3には、学習時、小容量化手段2により小容量化
された列特徴(横書きの場合)、もしくは、行特徴(縦
書きの場合)が格納される。小容量化手段2による文字
特徴の小容量化は次のように行われる。 (1) 文字特徴辞書1に格納された文字特徴について、各
列単位でまたは各行単位で特徴ベクトルのクラスタリン
グを行い、類似した特徴同士をまとめてm個の列または
行ベクトルで代表させ、代表ベクトルのそれぞれに1〜
mの識別番号を付与する(以下、mまでの識別番号を付
与することをコード化という)。また、1列または1行
だけでなく複数列単位でクラスタリングしてコード化し
てもよい。さらに、列特徴もしくは行特徴のコード化を
列特徴または行特徴単位ではなく、メッシュ単位で行な
えば、より正確な特徴近似に基づくコード化が可能とな
る。 (2) クラスタリングされたm個の特徴ベクトルについ
て、ある列特徴を他の列特徴の加算和で表すことが可能
な組み合わせ、もしくは、行特徴を他の行特徴の加算和
で表すことが可能な組み合わせがあるかを調べ、可能な
組み合わせがあれば、列特徴もしくは行特徴の識別番号
と合成係数を辞書に格納する。また、ある列特徴を他の
列特徴と差分特徴の和で表すことが可能な組み合わせ、
もしくは、ある行特徴を他の行特徴と差分特徴の和で表
すことが可能な組み合わせがあるかを調べ、可能な組み
合わせがあれば、列特徴もしくは行特徴の識別番号と合
成係数を辞書に格納する。 (3) 予め文字特徴に特徴変換を施して次元圧縮を行い、
特徴変換した特徴に対し、クラスタリング処理を行って
コード化する。なお、上記特徴辞書3内の特徴ベクトル
に対してインデックス情報を持つことにより、高速な辞
書アクセスが可能となる。また、使用頻度の高い順に列
特徴もしくは行特徴を並べておくことにより、インデッ
クス情報に対するアクセスも高速に行なうことが可能と
なる。上記のようにして小容量化した特徴辞書3を用い
て次のようにして単語認識を行う。入力単語を正規化手
段4により正規化し、特徴抽出手段5により特徴抽出を
行う。一方、予め定められた認識対象となる単語リスト
を基に、単語特徴合成手段6により上記特徴辞書3に格
納された列または行特徴から照合用の単語特徴を合成す
る。ついで、照合手段7により、入力単語から抽出され
た特徴と、上記合成された単語特徴を照合し、単語認識
を行う。上記照合手段7における照合に際し、次元数が
異なる単語特徴と入力単語特徴を、非線形伸縮マッチン
グを用いて照合することにより、字形の変動吸収を辞書
内の特徴ベクトルではなく照合部分で行なうことがで
き、さらなる辞書容量を削減することが可能となる。す
なわち、従来の単語認識では、照合方式自体が入力文字
の字形変動に弱いため、その分、特徴辞書のほうで、一
つの文字カテゴリあたり複数の特徴(例えば前記した3
/6特徴、4/6特徴等)を持つ必要があった。これに
対し、上記非線形伸縮マッチングは、この方式自体に字
形変動の吸収を行う効果があるため、特徴辞書に持つ特
徴の数を減らすことが期待でき、辞書容量を削減するこ
とが可能となる。
In order to solve the above-mentioned problems, in the present invention, the capacity of a feature dictionary for synthesizing word features is reduced, and the dictionary capacity is set to a practical level.
In addition, the collation method of the synthesized word feature and the input word feature was improved, and the variation of the character shape was absorbed in the collation portion, thereby further reducing the dictionary capacity. FIG. 1 shows an outline of the present invention. In FIG. 1, reference numeral 1 denotes a character feature dictionary, which stores a feature vector extracted from an input character image. 2 is a character feature dictionary minimizing means, 3 is a feature dictionary, and the feature dictionary 3 has column features (in the case of horizontal writing) or row features reduced by the capacity minimizing means 2 during learning. (In the case of vertical writing) is stored. The capacity reduction of the character feature by the capacity reduction means 2 is performed as follows. (1) With respect to the character features stored in the character feature dictionary 1, clustering of feature vectors is performed on a column basis or on a row basis, and similar features are collectively represented by m columns or row vectors. 1 to each of
An identification number of m is given (hereinafter, giving an identification number up to m is referred to as coding). In addition, coding may be performed by clustering not only in one column or one row but also in a plurality of columns. Furthermore, if the coding of the column feature or the row feature is performed not in the unit of the column feature or the row feature but in the unit of the mesh, the coding based on more accurate feature approximation can be performed. (2) For m clustered feature vectors, a certain column feature can be represented by the sum of other column features, or a row feature can be represented by the sum of other row features. It checks whether there is a combination, and if there is a possible combination, stores the identification number and the combination coefficient of the column feature or the row feature in the dictionary. Also, a combination that allows a certain column feature to be represented by the sum of another column feature and a difference feature,
Or, check if there is a combination that can represent a certain row feature as the sum of another row feature and the difference feature, and if there is a possible combination, store the identification number of column feature or row feature and the combination coefficient in the dictionary I do. (3) Perform dimensional compression by performing feature conversion on character features in advance,
The feature-converted features are coded by performing a clustering process. In addition, by having index information for the feature vector in the feature dictionary 3, high-speed dictionary access is possible. In addition, by arranging column features or row features in descending order of frequency of use, access to index information can be performed at high speed. The word recognition is performed as follows using the feature dictionary 3 reduced in size as described above. The input word is normalized by the normalizing means 4, and the feature is extracted by the feature extracting means 5. On the other hand, a word feature for comparison is synthesized by the word feature synthesizing means 6 from the column or row features stored in the feature dictionary 3 based on a predetermined word list to be recognized. Next, the matching unit 7 checks the feature extracted from the input word and the synthesized word feature to perform word recognition. At the time of matching by the matching means 7, the word features having different dimensions and the input word features are matched by using non-linear expansion / contraction matching, so that variation in the character shape can be absorbed not by the feature vector in the dictionary but by the matching portion. Thus, it is possible to further reduce the dictionary capacity. That is, in the conventional word recognition, since the matching method itself is vulnerable to the change in the character shape of the input character, a plurality of features (e.g.
/ 6 features, 4/6 features, etc.). On the other hand, the above-mentioned nonlinear expansion / contraction matching has an effect of absorbing the variation of the character shape in the method itself, so that the number of features in the feature dictionary can be expected to be reduced, and the dictionary capacity can be reduced.

【0005】[0005]

【発明の実施の形態】以下、本発明の実施の形態につい
て説明する。本発明は、処理装置、主記憶装置、外部記
憶装置、キーボード、画像読み取りを行うためのスキャ
ナ等の入力装置、ディスプレイ等、プリンタ等の出力装
置、通信インタフェース等を備えた通常の計算機システ
ムで実現することができ、外部記憶装置等に本発明の処
理を行うためのプログラム、データ等が格納され、実行
時、上記プログラム等が主記憶装置に読み込まれ、本発
明による処理が実行される。
Embodiments of the present invention will be described below. The present invention is realized by a normal computer system including a processing device, a main storage device, an external storage device, a keyboard, an input device such as a scanner for reading an image, a display device, an output device such as a printer, a communication interface, and the like. A program, data, and the like for performing the processing of the present invention are stored in an external storage device or the like, and at the time of execution, the program or the like is read into the main storage device, and the processing of the present invention is executed.

【0006】本発明は縦書き/横書きに関わらず有効で
あるが、以下では横書きの単語を対象に説明する。縦書
きに適用する場合には、以下に説明する「列ベクトル」
を「行ベクトル」とすればよい。また、文字特徴はいく
つかの種類に分別されるが、本発明では特徴が列単位に
分割され得る特徴を対象とする。さらに、メッシュ単位
に分割され得る特徴の場合は、メッシュ内の特徴を縦に
並べて列特徴として扱う。具体的には、列単位の特徴と
してはn次ペリフェラル特徴、投影特徴などがあり、メ
ッシュ型の特徴としては前記した加重方向指数ヒストグ
ラム特徴、あるいは方向線素特徴、メッシュ特徴などが
対象となる。以下、前記した加重方向指数ヒストグラム
特徴を例に説明する。なお、以下の説明で用いられるメ
ッシュの分割数、方向数などは必ずしもこの数値に限定
されない。
Although the present invention is effective irrespective of vertical writing / horizontal writing, the following description is directed to horizontal writing. When applied to vertical writing, "column vector" described below
May be referred to as a “row vector”. Although character features are classified into several types, the present invention targets features that can be divided into columns. Further, in the case of a feature that can be divided into mesh units, features in the mesh are arranged vertically and treated as column features. More specifically, the feature of each column includes an nth-order peripheral feature, a projection feature, and the like, and the mesh type feature includes the above-described weighted direction index histogram feature, a direction line element feature, a mesh feature, and the like. Hereinafter, the weighted direction index histogram feature will be described as an example. Note that the number of mesh divisions, the number of directions, and the like used in the following description are not necessarily limited to these numerical values.

【0007】(1)実施例1 加重方向指数ヒストグラム特徴は、前記したように特徴
抽出処理の最終段階では文字正規化画像に対して区切ら
れた例えば縦7×横7のメッシュ内で、それぞれ8方向
分の特徴を有する。すなわち7×7×8次元の特徴とな
る。ここで8方向とは前記図12、図13に示したよう
に360°を45°単位で8等分した方向を指す。本実
施例では、文字特徴辞書を小容量化するため、列単位で
特徴ベクトルのクラスタリングを行なう。図2に本実施
例の機能構成を示す。図2において、11は文字特徴辞
書であり、学習時に、入力文字画像から抽出した特徴ベ
クトルが格納される。12は本実施例に係わるクラスタ
リング手段であり、文字特徴辞書11を小容量化するた
め、学習時、文字特徴辞書11に格納された文字特徴に
ついて、図3(a)に示すように加重方向ヒストグラム
特徴の各列単位で特徴ベクトルのクラスタリングを行
う。すなわち、縦7×横1のメッシュ内の特徴ベクトル
(7×8=56次元)を1つの単位とし、類似した特徴
同士をまとめてm個の列ベクトルで代表させる。そし
て、代表ベクトルのそれぞれに1からmまでの識別番号
を付与する。図3(b)に加重方向ヒストグラム特徴の
列ベクトル番号表記例を示す。同図に示すように、各列
単位でクラスタリングを行ってコード化したm個の識別
番号を文字特徴ベクトルの各列に付与する。この例で
は、各列に識別番号(32230,13118,…,6
451)が付与されている。
(1) Embodiment 1 As described above, in the final stage of the feature extraction process, the weighted direction exponent histogram features are divided into 8 meshes, for example, in a 7 × 7 mesh segmented from the character-normalized image. It has the characteristic of the direction component. That is, it is a 7 × 7 × 8-dimensional feature. Here, the eight directions refer to directions obtained by equally dividing 360 ° into 45 ° units as shown in FIGS. In this embodiment, in order to reduce the size of the character feature dictionary, clustering of feature vectors is performed in column units. FIG. 2 shows a functional configuration of the present embodiment. In FIG. 2, reference numeral 11 denotes a character feature dictionary, which stores a feature vector extracted from an input character image during learning. Numeral 12 denotes a clustering means according to the present embodiment. In order to reduce the size of the character feature dictionary 11, the character feature stored in the character feature dictionary 11 is weighted in the weighting direction histogram as shown in FIG. The feature vectors are clustered for each feature column. That is, a feature vector (7 × 8 = 56 dimensions) in a 7 × 1 mesh is used as one unit, and similar features are collectively represented by m column vectors. Then, an identification number from 1 to m is assigned to each of the representative vectors. FIG. 3B shows a column vector number notation example of the weighted direction histogram feature. As shown in the figure, m identification numbers coded by performing clustering for each column are assigned to each column of the character feature vector. In this example, the identification numbers (32230, 13118,.
451).

【0008】このようにすると従来法では、〔(文字カ
テゴリ数)×(1文字あたりの特徴数)×(横の列特徴
数)〕分の列特徴(例えば、文字カテゴリ数=400
0、1文字あたりの特徴数=21、横の列特徴数=7と
すると4000×21×7の列特徴)を必要としていた
が、それを上記列特徴より大幅に少ないm個の列特徴で
済ますことが可能となる。クラスタリング手法として
は、階層的クラスタリング、k−means、LVQな
どの一般的クラスタリング手法を用いることができる。
上記のようにしてクラスタリングされ、識別番号を付与
されたm個の列ベクトルは、特徴辞書13に格納され
る。
In this way, according to the conventional method, in the conventional method, ((the number of character categories) × (the number of features per character) × (the number of horizontal column features)) minutes of column features (for example, the number of character categories = 400)
0, the number of features per character = 21, and the number of horizontal row features = 7, 4000 × 21 × 7 column features) were required. Can be completed. As a clustering method, a general clustering method such as hierarchical clustering, k-means, or LVQ can be used.
The m column vectors clustered as described above and assigned identification numbers are stored in the feature dictionary 13.

【0009】図4に上記特徴辞書13の構成例を示す。
小容量化された特徴辞書13は、同図に示すように、イ
ンデックス情報として各識別番号と、辞書内の位置情報
を持ち、位置情報は各識別番号に対応したm個の特徴ベ
クトルの格納位置を示す。なお、上記識別番号を並べる
際は予め認識対象とするカテゴリ(ex.住所、氏名)
について単語特徴を生成する際に必要となる文字特徴の
出現頻度を調べておき、その頻度の高い順に並べておく
ことにより、インデックス情報に対するアクセスを高速
化することができる。上記のようにして小容量化された
特徴辞書13を用いて次のようにして単語認識を行う。
まず、入力単語を正規化手段14により正規化し、特徴
抽出手段15により特徴抽出を行う。一方、予め定めら
れた認識対象となる単語リスト(例えば都道府県名の単
語認識を行う場合には都道府県名のリスト等)を基に、
単語特徴合成手段16により上記特徴辞書13に格納さ
れた列特徴から照合用の単語特徴を合成する。ついで、
照合手段17により、入力単語から抽出された特徴と、
上記合成された単語特徴を照合し、単語認識を行う。入
力単語特徴と合成された単語特徴の照合は、ユークリッ
ド距離等を用いて行う。以上のように、本実施例におい
ては、文字特徴辞書11の特徴ベクトルについて列単位
でクラスタリングを行ない、類似した特徴同士をまとめ
てm個の列ベクトルで代表させ、コード化したので、特
徴辞書13の容量を大幅に削減することができ、辞書容
量を実用レベルの容量とすることができる。また、特徴
辞書内の特徴ベクトルに対してインデックス情報を持つ
ようにしたので、高速に辞書アクセスが可能となる。
FIG. 4 shows an example of the configuration of the feature dictionary 13.
As shown in the figure, the reduced feature dictionary 13 has each identification number as index information and position information in the dictionary, and the position information is a storage position of m feature vectors corresponding to each identification number. Is shown. When arranging the identification numbers, a category (ex. Address, name) to be recognized in advance is used.
By examining the appearance frequency of the character features required for generating the word features for, and arranging them in descending order of frequency, access to the index information can be speeded up. Word recognition is performed as follows using the feature dictionary 13 reduced in size as described above.
First, the input word is normalized by the normalizing unit 14, and the feature is extracted by the feature extracting unit 15. On the other hand, based on a predetermined word list to be recognized (for example, a list of prefecture names when performing word recognition for prefecture names),
A word feature for matching is synthesized by the word feature synthesizing means 16 from the column features stored in the feature dictionary 13. Then
A feature extracted from the input word by the matching unit 17;
The synthesized word features are collated to perform word recognition. The collation between the input word feature and the synthesized word feature is performed using the Euclidean distance or the like. As described above, in the present embodiment, the feature vectors of the character feature dictionary 11 are clustered in units of columns, and similar features are collectively represented by m column vectors and coded. Can be greatly reduced, and the dictionary capacity can be reduced to a practical level. Also, since index information is provided for the feature vector in the feature dictionary, dictionary access can be performed at high speed.

【0010】上記実施例では、図5(a)に示すように
列特徴をクラスタリングする際、横幅1の列単位で特徴
ベクトルのクラスタリングを行っているが、横幅1の列
特徴だけでなく横幅2や横幅3などの列特徴をまとめて
クラスタリングすることも可能である。すなわち、図5
(b)に示すように、横幅をnとすると縦7×横n×8
次元の特徴を1つの単位としてクラスタリングを行な
う。列特徴の単位が横1列の場合より大きいので、単語
合成を高速化することができる。
In the above embodiment, as shown in FIG. 5A, when clustering column features, clustering of feature vectors is performed in units of columns having a width of 1. However, not only column features having a width of 1 but also widths of 2 are clustered. It is also possible to collectively cluster column features such as width and width 3. That is, FIG.
As shown in (b), when the width is n, the height is 7 × n × 8.
Clustering is performed using the dimensional features as one unit. Since the unit of the column feature is larger than that in the case of one horizontal row, word synthesis can be speeded up.

【0011】また、上記実施例では、文字特徴から単語
特徴を合成したとき、合成された単語特徴の次元数と、
入力単語特徴の次元数を同一としていた。すなわち、両
者とも縦7×横7×8方向次元の特徴としたうえで、ユ
ークリッド距離などを用いて照合を行なっていたが、図
6に示すように、次元数が異なる列特徴を照合するよう
にすることもできる。すなわち、非線形伸縮マッチング
を用いた照合を行なうことにより、両者の次元数が異な
る場合でも照合可能となる。非線形伸縮マッチングの一
例として、DPマッチングを用いることができる(DP
マッチングについては、例えば共立出版社発行、舟久保
登著「パターン認識」P62-P67 を参照されたい)。これ
により図6に示すように、合成された単語の特徴が縦7
×横8×8方向次元、入力単語の特徴が縦7×横7×8
方向次元等となっていても、両者を照合することができ
る。上記のような照合を行うことにより、字形の変動吸
収を辞書内の特徴ベクトルではなく、照合部分で行なう
ことができるため辞書容量をさらに削減することが可能
となる。
Further, in the above embodiment, when a word feature is synthesized from a character feature, the number of dimensions of the synthesized word feature and
The dimensions of the input word features were the same. That is, in both cases, the collation is performed using the Euclidean distance, etc., based on the dimension of the dimension of 7 × 7 × 8 dimension, but as shown in FIG. You can also That is, by performing the matching using the non-linear expansion / contraction matching, the matching can be performed even when the two have different dimensions. As an example of nonlinear expansion / contraction matching, DP matching can be used (DP
For the matching, see, for example, “Pattern Recognition” by Noboru Funakubo, published by Kyoritsu Shuppansha, pp. 62-67. As a result, as shown in FIG.
× horizontal 8 × 8 direction dimension, the characteristics of the input word is vertical 7 × horizontal 7 × 8
Even if it is the direction dimension or the like, both can be collated. By performing the above-described collation, the fluctuation of the character shape can be absorbed not by the feature vector in the dictionary but by the collation part, so that the dictionary capacity can be further reduced.

【0012】さらに上記説明では、列ベクトルを単位と
したクラスタリングについて説明してきたが、列ベクト
ルをさらに細かくメッシュ単位に見て、メッシュ単位で
クラスタリング処理を行うこともできる。すなわち、図
7に示すように、縦1×横1のメッシュ内特徴(8次
元)単位でクラスタリング処理を行ない、1メッシュ内
特徴のコード化を行なう。すると列ベクトルは縦7×横
1のメッシュで表されるので、7つの識別番号で表現さ
れることになる。図7の例では、各メッシュに識別番号
(432,123,…,351)が付与されている(t
は転置を表す)。上記のようにメッシュ単位でクラスタ
リングを行い、コード化することにより、より正確な特
徴近似に基づく識別番号の付与が可能となる。また、上
記のようにメッシュ内特徴についてクラスタリンを行っ
て各メッシュをコード化し、コード化された各メッシュ
について列単位でクラスタリング処理を行うこともでき
る。すなわち、メッシュ内特徴についてクラスタリング
処理を行って図7に示したようにコード化し、コード化
された各列について前記したようにクラスタリング処理
を行い、各列に識別番号を付与することもできる。
Further, in the above description, clustering in units of column vectors has been described. However, clustering processing can be performed in units of meshes by looking at column vectors in more detail in units of meshes. That is, as shown in FIG. 7, clustering processing is performed in units of 1 × 1 in-mesh features (eight dimensions), and coding of features in one mesh is performed. Then, since the column vector is represented by a 7 × 1 mesh, it is represented by seven identification numbers. In the example of FIG. 7, an identification number (432, 123,..., 351) is assigned to each mesh (t).
Represents transposition). As described above, by performing clustering and coding for each mesh, it becomes possible to assign identification numbers based on more accurate feature approximation. Further, as described above, it is also possible to perform clustering on the in-mesh features to code each mesh, and perform a clustering process for each coded mesh on a column basis. That is, it is also possible to perform a clustering process on the in-mesh features and code it as shown in FIG. 7, perform the clustering process on each coded column as described above, and assign an identification number to each column.

【0013】(2)実施例2 次に、列特徴をクラスタリングしたのち、合成係数を用
いて特徴辞書の容量を削減する本発明の第2の実施例に
ついて説明する。コード化された列ベクトルの個数を
m、p番めの列ベクトルをfp 、合成係数をki とした
とき、次の(1)式と表せる合成係数kと列ベクトルの
組合せがあるかどうかを調べておき、可能な組合せがあ
れば列ベクトルの識別番号と合成係数を記録する。
(2) Second Embodiment Next, a description will be given of a second embodiment of the present invention in which the capacity of a feature dictionary is reduced by using a combination coefficient after clustering column features. Assuming that the number of coded column vectors is m, the p-th column vector is f p , and the synthesis coefficient is k i , whether there is a combination of the synthesis coefficient k and the column vector represented by the following equation (1): Are checked, and if there is a possible combination, the identification number of the column vector and the combination coefficient are recorded.

【0014】[0014]

【数1】 (Equation 1)

【0015】これにより、特徴辞書内に列ベクトルの代
わりに上記合成係数kを持てば済むので辞書容量を削減
することができる。図8に本実施例の機能構成を示す。
図8において、11は文字特徴辞書であり、前記したよ
うに学習時に、入力文字画像から抽出した特徴ベクトル
が格納される。21は本実施例に係わる小容量化手段で
あり、前記したクラスタリング手段12と、合成係数算
出手段22から構成される。クラスタリング手段12は
前記したように、加重方向ヒストグラム特徴の各列単位
で特徴ベクトルのクラスタリングを行い、代表ベクトル
のそれぞれに1からmまでの識別番号を付与する。合成
係数算出手段22は、上記式(1)で表せる合成係数k
と列ベクトルの組合せがあるかどうかを調べ、可能な組
合せがあれば列ベクトルの識別番号と合成係数を記録す
る。上記のようにして合成係数算出手段22で求めた合
成係数もしくは列ベクトルは特徴辞書13に格納され
る。
[0015] With this, it is only necessary to have the synthesis coefficient k in the feature dictionary instead of the column vector, so that the dictionary capacity can be reduced. FIG. 8 shows a functional configuration of the present embodiment.
In FIG. 8, reference numeral 11 denotes a character feature dictionary, which stores a feature vector extracted from an input character image during learning as described above. Reference numeral 21 denotes a capacity reducing unit according to the present embodiment, which comprises the clustering unit 12 described above and a combining coefficient calculating unit 22. As described above, the clustering unit 12 performs clustering of the feature vectors for each column of the weighted direction histogram features, and assigns an identification number from 1 to m to each of the representative vectors. The synthesis coefficient calculation unit 22 calculates the synthesis coefficient k expressed by the above equation (1).
It is checked whether there is a combination of column vector and column vector. If there is a possible combination, the identification number of the column vector and the combination coefficient are recorded. The composite coefficient or column vector obtained by the composite coefficient calculation unit 22 as described above is stored in the feature dictionary 13.

【0016】本実施例における単語認識処理は、前記第
1の実施例と同様に行うことができる。すなわち、入力
単語を正規化手段14により正規化し、特徴抽出手段1
5により特徴抽出を行う。一方、予め定められた認識対
象となる単語リストを基に、単語特徴合成手段16によ
り上記特徴辞書13に格納された列特徴から照合用の単
語特徴を合成する。ついで、照合手段17により、入力
単語から抽出された特徴と、上記合成された単語特徴を
照合し単語認識を行う。上記照合は、合成された単語特
徴の次元数と入力単語特徴の次元数を同一とした照合だ
けでなく、第1の実施例で説明したように次元数が異な
る列特徴を照合するようにしてもよい。また、クラスタ
リング処理は、第1の実施例で説明したように、横幅1
の列特徴だけでなく横幅2や横幅3などの列特徴をまと
めてクラスタリングしたり、メッシュ単位でクラスタリ
ングを行うようにしてもよい。
The word recognition processing in this embodiment can be performed in the same manner as in the first embodiment. That is, the input word is normalized by the normalizing means 14, and the feature extracting means 1
5 to perform feature extraction. On the other hand, based on a predetermined list of words to be recognized, the word feature synthesizing means 16 synthesizes word features for collation from the column features stored in the feature dictionary 13. Next, the matching unit 17 compares the feature extracted from the input word with the combined word feature to perform word recognition. The above-mentioned matching is performed not only by matching the number of dimensions of the synthesized word feature and the number of dimensions of the input word feature, but also by matching column features having different numbers of dimensions as described in the first embodiment. Is also good. In addition, the clustering process is performed, as described in the first embodiment, for the width 1
Column features such as width 2 and width 3 may be collectively clustered, or clustering may be performed in mesh units.

【0017】上記説明では、ある列ベクトルを他の列ベ
クトルの和で表す場合について説明したが、ある列ベク
トルを他の列ベクトルの和で表すだけではなく、他の列
ベクトルと差分ベクトルとの和で表すようにしてもよ
い。すなわち、差分ベクトルをgj 、係数をlj とした
とき、次の式(2)と表せる合成係数k、lと列ベクト
ルおよび差分ベクトルの組合せがあるかどうかを調べて
おき、可能な組み合わせがあればそれらを記録する。な
お、差分ベクトルgj は、特徴ベクトルの内の任意の特
徴ベクトルの差分である。
In the above description, the case where a certain column vector is represented by the sum of other column vectors has been described. However, not only is a certain column vector represented by the sum of other column vectors, but also the difference between the other column vector and the difference vector. It may be represented by a sum. That is, assuming that the difference vector is g j and the coefficient is l j , it is checked whether there is a combination of the combination coefficient k, l, the column vector and the difference vector that can be expressed by the following equation (2). Record them, if any. The difference vector g j is a difference between any of the feature vectors.

【0018】[0018]

【数2】 (Equation 2)

【0019】以上のようにすれば、列特徴を、他の列特
徴の加算和、あるいは、他の列特徴の加算和と差分特徴
との和で表すことができ、列特徴を他の列特徴の加算和
で表す場合より表せる頻度が増加し、特徴辞書のさらな
る小容量化を図ることができる。図9に本実施例により
生成された特徴辞書13の構成例を示す。小容量化され
た特徴辞書23は、同図に示すように、インデックス情
報として各識別番号と、辞書内の位置情報を持ち、位置
情報は、各識別番号に対応したm個の特徴ベクトルの格
納位置、もしくは、合成係数k,lの格納位置を示す。
なお、差分特徴を用いず、前記したように列特徴を他の
列特徴の加算和で表す場合には、上記合成係数lを0と
すればよい。上記特徴辞書から特徴ベクトルを読みだす
には、識別番号に対応した位置情報から特徴ベクトル、
もしくは、合成係数k,lの格納位置を求め、該格納位
置に特徴ベクトルが格納されている場合には、特徴ベク
トルをそのまま読み出し、また、該格納位置に合成係数
k,lが格納されている場合には、該合成係数k,lか
ら前記した(1)式または(2)式により特徴ベクトル
を算出する。なお、本実施例においても、第1の実施例
と同様、上記識別番号を並べる際に、予め認識対象とす
るカテゴリについて単語特徴を生成する際に必要となる
文字特徴の出現頻度を調べておき、その頻度の高い順に
並べておくことにより、インデックス情報に対するアク
セスを高速化することができる。
According to the above, the column feature can be represented by the sum of the other column features or the sum of the sum of the other column features and the difference feature. Can be expressed more frequently than in the case of expressing the sum of, and the capacity of the feature dictionary can be further reduced. FIG. 9 shows a configuration example of the feature dictionary 13 generated according to the present embodiment. As shown in the figure, the reduced feature dictionary 23 has each identification number as index information and position information in the dictionary, and the position information stores m feature vectors corresponding to each identification number. Indicates the position or the storage position of the combined coefficients k and l.
In addition, when the column feature is represented by the sum of the other column features as described above without using the difference feature, the synthesis coefficient 1 may be set to 0. To read a feature vector from the feature dictionary, a feature vector is obtained from position information corresponding to the identification number.
Alternatively, the storage position of the combined coefficient k, l is obtained, and when the feature vector is stored in the storage position, the feature vector is read as it is, and the combined coefficient k, l is stored in the storage position. In this case, a feature vector is calculated from the combined coefficients k and l according to the above-described equation (1) or (2). In the present embodiment, as in the first embodiment, when arranging the identification numbers, the appearance frequency of the character feature required for generating the word feature for the category to be recognized is checked in advance. By arranging them in descending order of frequency, access to index information can be speeded up.

【0020】(3)実施例3 加重方向指数ヒストグラム特徴では、特徴に含まれる情
報の冗長性をなくすために、抽出された7×7×8次元
の原特徴に対して、正準判別分析などの特徴変換を施
い、次元圧縮を行なっている。これにより特徴次元数
が、例えば392次元から100次元程度にまで落ちる
ことになる。このように、予め主成分分析、正準判別分
析などの特徴変換された特徴を持ち、さらにそれらの特
徴に対してクラスタリングし、コード化を行うことによ
り、辞書容量の削減を図ることができる。図10に本実
施例の機能構成を示す。図10において、11は文字特
徴辞書であり、前記したように学習時に、入力文字画像
から抽出した特徴ベクトルが格納される。31は本実施
例に係わる小容量化手段であり、上記次元圧縮を行う次
元圧縮手段32と前記したクラスタリング手段12から
構成される。次元圧縮手段32は、上記したように正準
判別分析などの特徴変換を施し、次元圧縮を行う。原特
徴の特徴変換を行う場合には、列ベクトルではなく、原
特徴そのものに対して特徴変換を行う。ここで、原特徴
をf、特徴変換された特徴をw、正準判別分析等により
求めた特徴変換行列をAとすると、特徴変換行列Aは次
の式(3)により求められる。 A*fi =wi …(3) クラスタリング手段12は上記のように特徴変換し、次
元圧縮したwi (i=0,…,M,M:原特徴数)に対
してクラスタリング処理を行い、前記したようにm個
(m≦M)の特徴ベクトルで代表させ、これらの代表ベ
クトルのそれぞれに1からmまでの識別番号を付与す
る。上記のようにして求めたコード化された各列ベクト
ルは特徴辞書13に格納される。
(3) Embodiment 3 In the weighted direction index histogram feature, in order to eliminate the redundancy of the information included in the feature, the extracted 7 × 7 × 8-dimensional original feature is subjected to canonical discrimination analysis or the like. Dimensional compression is performed. As a result, the number of feature dimensions is reduced from, for example, 392 dimensions to about 100 dimensions. In this way, by having features that have been subjected to feature conversion such as principal component analysis and canonical discriminant analysis in advance, and by clustering and coding these features, the dictionary capacity can be reduced. FIG. 10 shows a functional configuration of the present embodiment. In FIG. 10, reference numeral 11 denotes a character feature dictionary, which stores a feature vector extracted from an input character image during learning as described above. Numeral 31 denotes a capacity reducing means according to the present embodiment, which comprises a dimensional compressing means 32 for performing the dimensional compression and the clustering means 12 described above. The dimensional compression unit 32 performs feature conversion such as canonical discrimination analysis as described above, and performs dimensional compression. When performing the feature conversion of the original feature, the feature conversion is performed not on the column vector but on the original feature itself. Here, assuming that the original feature is f, the feature-transformed feature is w, and the feature conversion matrix obtained by canonical discriminant analysis or the like is A, the feature conversion matrix A is obtained by the following equation (3). A * f i = w i ... (3) clustering means 12 will feature transformation as above, w i was dimensional compression (i = 0, ..., M , M: Hara number features) performs clustering processing on As described above, m (m ≦ M) feature vectors are represented, and an identification number from 1 to m is assigned to each of these representative vectors. Each coded column vector obtained as described above is stored in the feature dictionary 13.

【0021】本実施例における単語認識処理は、次のよ
うに行われる。入力単語を正規化手段14により正規化
し、特徴抽出手段15により特徴抽出を行い、抽出され
た特徴ベクトルについて上記(3)により特徴変換(次
元圧縮)を行う。一方、予め定められた認識対象となる
単語リストを基に、単語特徴合成手段16により上記特
徴辞書13に格納された列特徴から照合用の単語特徴を
合成する。ついで、照合手段17により、入力単語から
抽出され特徴変換(次元圧縮)された特徴と、上記合成
された単語特徴を照合し単語認識を行う。本実施例にお
いては、次元圧縮した特徴量をクラスタリング処理して
いるので、さらなる辞書容量の削減を図ることができ
る。なお、上記図10に示した実施例において、クラス
タリグ処理した後に、前記第2の実施例で説明したよう
に、合成係数を求めて辞書に該合成係数を格納するよう
にしてもよい。これにより、辞書のさらなる小容量化を
実現することができる。
The word recognition process in this embodiment is performed as follows. The input word is normalized by the normalizing unit 14, the feature is extracted by the feature extracting unit 15, and the extracted feature vector is subjected to feature conversion (dimensional compression) by the above (3). On the other hand, based on a predetermined list of words to be recognized, the word feature synthesizing means 16 synthesizes word features for collation from the column features stored in the feature dictionary 13. Next, the matching unit 17 compares the feature extracted from the input word and subjected to feature conversion (dimensional compression) with the synthesized word feature to perform word recognition. In the present embodiment, since the dimensionally compressed feature amount is subjected to the clustering process, the dictionary capacity can be further reduced. In the embodiment shown in FIG. 10, after performing the cluster rig processing, as described in the second embodiment, a combination coefficient may be obtained and the combination coefficient may be stored in the dictionary. As a result, it is possible to further reduce the capacity of the dictionary.

【0022】(付記1) 単語イメージを認識する単語
認識装置であって、単語特徴合成に用いる文字特徴辞書
を小容量化する小容量化手段と、上記小容量化手段によ
り小容量化された特徴辞書の列もしくは行特徴から、認
識対象とする単語リストをもとに照合用の単語特徴を合
成する合成手段と、入力単語の特徴を抽出する特徴抽出
手段と、上記特徴抽出手段により抽出された入力単語の
特徴と、上記合成された単語特徴とを照合する照合手段
とを備えたことを特徴とする単語認識装置。 (付記2) 上記小容量化手段は、メッシュの特徴毎
に、または、メッシュに区切られた列もしくは行の特徴
毎に、特徴の類似した列特徴または行特徴をクラスタリ
ングし、クラスタリングされた列特徴もしくは行特徴に
識別のための識別番号を付与する手段と、識別番号が付
与された特徴を辞書に保持する手段とを備えたことを特
徴とする付記1の単語認識装置。 (付記3) クラスタリングする際に、1列もしくは1
行だけではなく複数列もしくは複数行まとめてクラスタ
リングすることを特徴とする付記2の単語認識装置。 (付記4) クラスタリングされた列特徴もしくは行特
徴について、ある列特徴もしくは行特徴を、他の複数の
列特徴もしくは行特徴の係数和で記述することを特徴と
する付記2の単語認識装置。 (付記5) クラスタリングされた列特徴もしくは行特
徴について、ある列特徴もしくは行特徴を、他の列特徴
もしくは行特徴と差分特徴との係数和で記述することを
特徴とする付記2の単語認識装置。 (付記6) 列もしくは行の特徴をクラスタリングする
前に、列もしくは行内の各メッシュごとの特徴をそれぞ
れコード化することを特徴とする付記2の単語認識装
置。 (付記7) 上記小容量化手段は、文字特徴辞書の小容
量化に際し、予め特徴変換して次元圧縮を行った文字特
徴を用いてクラスタリングを行なうことを特徴とする付
記2の単語認識装置。 (付記8) 小容量化された特徴辞書を構成する際、各
列特徴もしくは各行特徴の識別番号と、辞書内の位置を
インデックス情報として保持し、上記インデックス情報
の後に、各部分特徴を並べて特徴辞書を構成することを
特徴とする請求項1の単語認識装置。 (付記9)列特徴もしくは行特徴を並べる際に、予め使
用頻度の高い列特徴もしくは行特徴を調べておき、使用
頻度の高い順に列特徴もしくは行特徴を並べることを特
徴とする付記8の単語認識装置。 (付記10) 上記照合手段は、入力単語の特徴と合成
した単語特徴とを非線形伸縮マッチングにより照合する
ことを特徴とする付記1の単語認識装置。 (付記11) 単語イメージを認識する単語認識プログ
ラムを記録した記録媒体であって、上記プログラムは、
単語特徴合成に用いる文字特徴辞書を小容量化し、上記
小容量化された特徴辞書の列もしくは行特徴から、認識
対象とする単語リストをもとに照合用の単語特徴を合成
し、入力単語の特徴を抽出し、該抽出された入力単語の
特徴と、上記合成された単語特徴とを照合することによ
り単語認識を行うことを特徴とする単語認識プログラム
を記録した記録媒体。 (付記12) 単語イメージを認識する単語認識プログ
ラムであって、上記プログラムは、単語特徴合成に用い
る文字特徴辞書を小容量化する処理と、上記小容量化さ
れた特徴辞書の列もしくは行特徴から、認識対象とする
単語リストをもとに照合用の単語特徴を合成する処理
と、入力単語の特徴を抽出し、該抽出された入力単語の
特徴と、上記合成された単語特徴とを照合することによ
り単語認識を行う処理をコンピュータに実行させること
を特徴とする単語認識プログラム。
(Supplementary Note 1) A word recognition device for recognizing a word image, comprising a capacity reducing means for reducing the capacity of a character feature dictionary used for word feature synthesis, and a feature reduced in capacity by the capacity reducing means. Synthesizing means for synthesizing word features for matching based on a word list to be recognized from a column or row feature of a dictionary, feature extracting means for extracting features of an input word, and features extracted by the feature extracting means. A word recognition device comprising: a matching unit that matches a feature of an input word with the synthesized word feature. (Supplementary Note 2) The capacity reducing unit clusters column features or row features having similar features for each feature of a mesh or for each feature of a column or a row divided into meshes. Alternatively, the word recognition device according to appendix 1, further comprising: means for assigning an identification number for identification to the line feature; and means for holding the feature with the identification number in a dictionary. (Appendix 3) When performing clustering, one row or one
The word recognition device according to claim 2, wherein clustering is performed not only on the rows but also on a plurality of columns or a plurality of rows. (Supplementary Note 4) The word recognition device according to Supplementary Note 2, wherein a certain column feature or row feature is described by a coefficient sum of a plurality of other column features or row features among the clustered column features or row features. (Supplementary note 5) The word recognition device according to supplementary note 2, wherein a certain column feature or row feature is described as a sum of coefficients of another column feature or row feature and a difference feature among the clustered column features or row features. . (Supplementary note 6) The word recognition device according to Supplementary note 2, wherein the feature of each mesh in the column or the row is encoded before clustering the feature of the column or the row. (Supplementary Note 7) The word recognition device according to Supplementary Note 2, wherein the capacity reducing unit performs clustering using character features that have been subjected to feature conversion and dimension compression in advance when reducing the size of the character feature dictionary. (Supplementary Note 8) When constructing a feature dictionary with a reduced capacity, the identification number of each column feature or each row feature and the position in the dictionary are held as index information, and the partial features are arranged after the index information. 2. The word recognition device according to claim 1, wherein the word recognition device comprises a dictionary. (Supplementary Note 9) The word of Supplementary Note 8 in which, when arranging the column feature or the row feature, a column feature or a row feature that is frequently used is checked in advance, and the column feature or the row feature is arranged in descending order of the use frequency. Recognition device. (Supplementary Note 10) The word recognition device according to Supplementary Note 1, wherein the matching unit matches the feature of the input word and the synthesized word feature by non-linear expansion matching. (Supplementary Note 11) A recording medium recording a word recognition program for recognizing a word image, wherein the program includes:
The capacity of the character feature dictionary used for word feature synthesis is reduced, and a word feature for matching is synthesized from the column or row features of the reduced feature dictionary based on a word list to be recognized. A recording medium storing a word recognition program for extracting a feature and performing word recognition by comparing the feature of the extracted input word with the synthesized word feature. (Supplementary Note 12) A word recognition program for recognizing a word image, the program including a process of reducing the size of a character feature dictionary used for word feature synthesis, and a process of reducing the size of a column or a row feature of the reduced feature dictionary. Processing for synthesizing word features for matching based on a list of words to be recognized, extracting features of input words, and comparing the extracted features of the input words with the synthesized word features. A word recognition program characterized by causing a computer to execute word recognition processing.

【0023】[0023]

【発明の効果】以上説明したように本発明においては以
下の効果を得ることができる。 (1)列特徴もしくは行特徴単位で各文字特徴をクラス
タリングし、コード化しているので、文字特徴辞書の容
量を大幅に削減することが可能となり、辞書容量を実用
レベルにすることができる。また、1列だけでなく複数
列単位でクラスタリングしてコード化すれば、単語特徴
の合成を高速化することができる。さらに、列特徴もし
くは行特徴のコード化を列特徴単位ではなく、メッシュ
単位で行なえば、より正確な特徴近似に基づくコード化
が可能となる。 (2)次元数が異なる単語特徴と入力単語特徴を、非線
形伸縮マッチングを用いて照合することにより、字形の
変動吸収を辞書内の特徴ベクトルではなく照合部分で行
なうことができ、辞書に多くの特徴ベクトルを登録して
変動吸収を行なう必要がなく、さらなる辞書容量を削減
することが可能となる。 (3)列特徴もしくは行特徴単位でクラスタリングした
のち、ある列特徴を他の列特徴の加算和で表すことが可
能な組み合わせ、もしくは、行特徴を他の行特徴の加算
和で表すことが可能な組み合わせがあるかを調べ、可能
な組み合わせがあれば、列特徴もしくは行特徴の識別番
号と合成係数を辞書に格納することにより、辞書容量の
さらなる小容量化が可能となる。また、ある列特徴を他
の列特徴と差分特徴の和で表すことが可能な組み合わ
せ、もしくは、ある行特徴を他の行特徴と差分特徴の和
で表すことが可能な組み合わせがあるかを調べ、可能な
組み合わせがあれば、列特徴もしくは行特徴の識別番号
と合成係数を辞書に格納することにより、単に他の列特
徴の和で表す場合よりも表せる頻度が増加するので、さ
らなる辞書の小容量化が可能となる。 (4)予め文字特徴に特徴変換を施して次元圧縮を行
い、特徴変換した特徴に対し、クラスタリング処理を行
ってコード化すれば、単語特徴合成後に特徴変換を行な
う必要がなくなり、文字認識全体の処理の高速化が可能
となる。また、同時に辞書容量の小容量化も可能とな
る。 (5)辞書内の特徴ベクトルに対してインデックス情報
を持つことにより、高速な辞書アクセスが可能となる。
さらに、使用頻度の高い順に列特徴もしくは行特徴を並
べておくことにより、インデックス情報に対するアクセ
スも高速に行なうことが可能となる。
As described above, the following effects can be obtained in the present invention. (1) Since each character feature is clustered and coded on a column feature or row feature basis, the capacity of the character feature dictionary can be significantly reduced, and the dictionary capacity can be reduced to a practical level. If clustering and coding are performed not only for one column but also for a plurality of columns, it is possible to speed up the synthesis of word features. Furthermore, if coding of column features or row features is performed not in units of column features but in units of meshes, coding based on more accurate feature approximation becomes possible. (2) By comparing the word features having different dimensions with the input word features using nonlinear expansion / contraction matching, it is possible to absorb variation in the character shape not in the feature vector in the dictionary but in the matching portion. There is no need to register feature vectors to absorb fluctuations, and it is possible to further reduce dictionary capacity. (3) After clustering in units of column features or row features, a certain column feature can be represented by a sum of other column features, or a row feature can be represented by a sum of other row features. It is checked whether there is any combination, and if there is a possible combination, the identification number of the column feature or the row feature and the combination coefficient are stored in the dictionary, so that the dictionary capacity can be further reduced. It also checks whether there is a combination that can represent a certain column feature by the sum of another column feature and a difference feature, or a combination that can represent a certain row feature by the sum of another row feature and a difference feature. If there is a possible combination, storing the identification number of the column feature or the row feature and the combination coefficient in the dictionary increases the frequency of expression, as compared with the case of simply expressing the sum of the other column features. The capacity can be increased. (4) If a character feature is subjected to feature conversion in advance to perform dimensional compression, and the feature-converted feature is coded by performing clustering processing, it is not necessary to perform feature conversion after word feature synthesis. Processing can be speeded up. At the same time, the dictionary capacity can be reduced. (5) By having index information for a feature vector in a dictionary, high-speed dictionary access is possible.
Further, by arranging the column features or the row features in descending order of use frequency, it is possible to access the index information at high speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の概要を示す図である。FIG. 1 is a diagram showing an outline of the present invention.

【図2】本発明の第1の実施例の機能構成を示す図であ
る。
FIG. 2 is a diagram illustrating a functional configuration of a first embodiment of the present invention.

【図3】各列単位の特徴ベクトルのクラスタリングを説
明する図である。
FIG. 3 is a diagram illustrating clustering of feature vectors in units of columns.

【図4】第1の実施例の特徴辞書の構成例を示す図であ
る。
FIG. 4 is a diagram illustrating a configuration example of a feature dictionary according to the first embodiment;

【図5】複数列の列特徴のクラスタリングを説明する図
である。
FIG. 5 is a diagram illustrating clustering of a plurality of column features.

【図6】合成された単語特徴の次元数と、入力単語特徴
の次元数が異なる場合の照合を説明する図である。
FIG. 6 is a diagram illustrating matching when the number of dimensions of a synthesized word feature is different from the number of dimensions of an input word feature.

【図7】メッシュ内特徴単位でクラスタリングを行う場
合を説明する図である。
FIG. 7 is a diagram illustrating a case in which clustering is performed for each feature in a mesh.

【図8】本発明の第2の実施例の機能構成を示す図であ
る。
FIG. 8 is a diagram showing a functional configuration of a second embodiment of the present invention.

【図9】第2の実施例により生成された特徴辞書の構成
例を示す図である。
FIG. 9 is a diagram illustrating a configuration example of a feature dictionary generated according to the second embodiment;

【図10】本発明の第3に実施例を示す図である。FIG. 10 is a diagram showing a third embodiment of the present invention.

【図11】文字特徴のための縮小文字イメージ(大の
字)の例を示す図である。
FIG. 11 is a diagram illustrating an example of a reduced character image (large characters) for character characteristics.

【図12】加重方向指数ヒストグラム特徴の例を示す図
である。
FIG. 12 is a diagram illustrating an example of a weighted direction index histogram feature.

【図13】単語特徴の合成の例を示す図である。FIG. 13 is a diagram illustrating an example of combining word features.

【符号の説明】[Explanation of symbols]

1 文字特徴辞書 2 小容量化手段 3 特徴辞書 4 正規化手段 5 特徴抽出手段 6 単語特徴合成手段 7 照合手段 11 文字特徴辞書 12 クラスタリング手段 13 特徴辞書 14 正規化手段 15 特徴抽出手段 16 単語特徴合成手段 17 照合手段 22 合成係数算出手段 32 次元圧縮手段 REFERENCE SIGNS LIST 1 character feature dictionary 2 miniaturization means 3 feature dictionary 4 normalization means 5 feature extraction means 6 word feature synthesis means 7 collation means 11 character feature dictionary 12 clustering means 13 feature dictionary 14 normalization means 15 feature extraction means 16 word feature synthesis Means 17 Matching means 22 Synthesis coefficient calculating means 32 dimensional compression means

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 単語イメージを認識する単語認識装置で
あって、 単語特徴合成に用いる文字特徴辞書を小容量化する小容
量化手段と、 上記小容量化手段により小容量化された特徴辞書の列も
しくは行特徴から、認識対象とする単語リストをもとに
照合用の単語特徴を合成する合成手段と、 入力単語の特徴を抽出する特徴抽出手段と、 上記特徴抽出手段により抽出された入力単語の特徴と、
上記合成された単語特徴とを照合する照合手段とを備え
たことを特徴とする単語認識装置。
1. A word recognition apparatus for recognizing a word image, comprising: a capacity reducing means for reducing a capacity of a character feature dictionary used for word feature synthesis; and a feature dictionary of a feature dictionary reduced by the capacity reducing means. Synthesizing means for synthesizing word features for matching based on a word list to be recognized from a column or row feature, feature extracting means for extracting features of an input word, and input words extracted by the feature extracting means The features of
A word recognizing device comprising: a matching unit that matches the synthesized word feature.
【請求項2】 上記小容量化手段は、メッシュの特徴毎
に、または、メッシュに区切られた列もしくは行の特徴
毎に、特徴の類似した列特徴または行特徴をクラスタリ
ングし、クラスタリングされた列特徴もしくは行特徴に
識別のための識別番号を付与する手段と、 識別番号が付与された特徴を辞書に保持する手段とを備
えたことを特徴とする請求項1の単語認識装置。
2. The capacity reducing means clusters column features or row features having similar features for each feature of a mesh or for each feature of a column or a row divided into meshes. 2. The word recognition device according to claim 1, further comprising: means for assigning an identification number for identification to a feature or a line feature; and means for holding the feature with the identification number in a dictionary.
【請求項3】 上記小容量化手段は、文字特徴辞書の小
容量化に際し、予め特徴変換して次元圧縮を行った文字
特徴を用いてクラスタリングを行なうことを特徴とする
請求項2の単語認識装置。
3. The word recognition according to claim 2, wherein the capacity reducing means performs clustering using character features which have been subjected to feature conversion and dimension compression in advance when reducing the capacity of the character feature dictionary. apparatus.
【請求項4】 上記照合手段は、入力単語の特徴と合成
した単語特徴とを非線形伸縮マッチングにより照合する
ことを特徴とする請求項1の単語認識装置。
4. The word recognition apparatus according to claim 1, wherein the matching means matches the feature of the input word with the synthesized word feature by nonlinear expansion / contraction matching.
【請求項5】 単語イメージを認識する単語認識プログ
ラムを記録した記録媒体であって、 上記プログラムは、単語特徴合成に用いる文字特徴辞書
を小容量化し、 上記小容量化された特徴辞書の列もしくは行特徴から、
認識対象とする単語リストをもとに照合用の単語特徴を
合成し、 入力単語の特徴を抽出し、該抽出された入力単語の特徴
と、上記合成された単語特徴とを照合することにより単
語認識を行うことを特徴とする単語認識プログラムを記
録した記録媒体。
5. A recording medium on which a word recognition program for recognizing a word image is recorded, wherein the program reduces a size of a character feature dictionary used for word feature synthesis, and a sequence of the reduced feature dictionary or From the line features,
A word feature for matching is synthesized based on the word list to be recognized, a feature of the input word is extracted, and the feature of the extracted input word is compared with the synthesized word feature to obtain a word. A recording medium storing a word recognition program characterized by performing recognition.
【請求項6】 単語イメージを認識する単語認識プログ
ラムであって、 上記プログラムは、単語特徴合成に用いる文字特徴辞書
を小容量化する処理と、 上記小容量化された特徴辞書の列もしくは行特徴から、
認識対象とする単語リストをもとに照合用の単語特徴を
合成する処理と、 入力単語の特徴を抽出し、該抽出された入力単語の特徴
と、上記合成された単語特徴とを照合することにより単
語認識を行う処理をコンピュータに実行させることを特
徴とする単語認識プログラム。
6. A word recognition program for recognizing a word image, the program comprising: a process for reducing the size of a character feature dictionary used for word feature synthesis; and a column or row feature of the reduced feature dictionary. From
A process of synthesizing a word feature for matching based on a word list to be recognized; extracting a feature of an input word; and matching the extracted feature of the input word with the synthesized word feature. A word recognition program for causing a computer to execute a process of performing word recognition on a computer.
JP2001296014A 2000-10-04 2001-09-27 Word recognition device Expired - Fee Related JP4093738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001296014A JP4093738B2 (en) 2000-10-04 2001-09-27 Word recognition device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-304758 2000-10-04
JP2000304758 2000-10-04
JP2001296014A JP4093738B2 (en) 2000-10-04 2001-09-27 Word recognition device

Publications (2)

Publication Number Publication Date
JP2002183668A true JP2002183668A (en) 2002-06-28
JP4093738B2 JP4093738B2 (en) 2008-06-04

Family

ID=26601518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001296014A Expired - Fee Related JP4093738B2 (en) 2000-10-04 2001-09-27 Word recognition device

Country Status (1)

Country Link
JP (1) JP4093738B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004093671A (en) * 2002-08-29 2004-03-25 Mitsubishi Electric Corp Dictionary compression system
JP2010170352A (en) * 2009-01-23 2010-08-05 Fujitsu Ltd Pattern recognition dictionary creation device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004093671A (en) * 2002-08-29 2004-03-25 Mitsubishi Electric Corp Dictionary compression system
JP2010170352A (en) * 2009-01-23 2010-08-05 Fujitsu Ltd Pattern recognition dictionary creation device and program

Also Published As

Publication number Publication date
JP4093738B2 (en) 2008-06-04

Similar Documents

Publication Publication Date Title
US20210034849A1 (en) System and method of character recognition using fully convolutional neural networks with attention
US4653107A (en) On-line recognition method and apparatus for a handwritten pattern
Das et al. Handwritten Bangla character recognition using a soft computing paradigm embedded in two pass approach
EP2047409B1 (en) Two tiered text recognition
JP2700130B2 (en) Handwritten character recognition system and method
US5923778A (en) Hierarchical representation of reference database for an on-line Chinese character recognition system
JP3133403B2 (en) Neighborhood block prediction bit compression method
Bhattacharya et al. On recognition of handwritten Bangla characters
EP0539749A2 (en) A statistical mixture approach to automatic handwriting recognition
JPH05143707A (en) Method and device for processing coded image data
KR20130029430A (en) Character recognition device, character recognition method, character recognition system, and character recognition program
JPS60142793A (en) Character recognition
WO2018090013A1 (en) System and method of character recognition using fully convolutional neural networks with attention
JPH11120293A (en) Character recognition/correction system
JP2673871B2 (en) Method and device for pattern recognition by neural network
Nasrollahi et al. Printed persian subword recognition using wavelet packet descriptors
US5926564A (en) Character recognition method and apparatus based on 0-1 pattern representation of histogram of character image
KR100242458B1 (en) Method and apparatus for pattern recognition, and method of compiling dictionary for pattern recognition
Bilgin Tasdemir Printed Ottoman text recognition using synthetic data and data augmentation
Mozaffari et al. Feature comparison between fractal codes and wavelet transform in handwritten alphanumeric recognition using SVM classifier
CN100369051C (en) Grayscale character dictionary generation apparatus
US7024042B2 (en) Word recognition device, word recognition method, and storage medium
JP4093738B2 (en) Word recognition device
JP3569138B2 (en) Word recognition apparatus and method
JPH10289320A (en) Pattern recognition device and method for sorting by means of candidate table

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140314

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees