JPH0991385A - Character recognition dictionary adding method and terminal ocr device using same - Google Patents

Character recognition dictionary adding method and terminal ocr device using same

Info

Publication number
JPH0991385A
JPH0991385A JP7242884A JP24288495A JPH0991385A JP H0991385 A JPH0991385 A JP H0991385A JP 7242884 A JP7242884 A JP 7242884A JP 24288495 A JP24288495 A JP 24288495A JP H0991385 A JPH0991385 A JP H0991385A
Authority
JP
Japan
Prior art keywords
character
recognition
image
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7242884A
Other languages
Japanese (ja)
Inventor
Kiyonori Sekiguchi
清典 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic System Solutions Japan Co Ltd
Original Assignee
Matsushita Graphic Communication Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Graphic Communication Systems Inc filed Critical Matsushita Graphic Communication Systems Inc
Priority to JP7242884A priority Critical patent/JPH0991385A/en
Publication of JPH0991385A publication Critical patent/JPH0991385A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily add recognition data on a character which has individual features to a character recognition dictionary by adding and learning the recognition data. SOLUTION: A segmentation processing part 4 cuts a character image to be recognized out of a character image read by a document read part 1, a recognition processing part 5 recognizes a character according to recognition algorithm, and a candidate character selection part 6 selects the most likelihood candidate character and displays the character at a display part 7. When a writer decides that the character is a misrecognized character and corrects it into the correct character, a display/correction conversion processing part 9 generates a management table containing the misrecognized character, corrected character, and the address of the cut image of the character. A recognition data image storage memory 10 inputs and stores the management data and the cut image having the address shown from the segmentation processing part 4. A recognition processing part 5 adds and learns recognition algorithm according to the management table and cut image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は文字を読み取って認識す
る際用いる文字認識辞書の追加方法およびこれを用いた
端末OCR装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for adding a character recognition dictionary used when reading and recognizing characters and a terminal OCR device using the method.

【0002】[0002]

【従来の技術】従来、この種の装置は、図5に示すよう
に、原稿読み取り部1で読み取った原稿を信号処理部2
で2値化処理し、画像蓄積メモリ3に格納する。切り出
し処理部4ではこの2値化した画像データから画像切り
出しアルゴリズムに従って画像データを取り込み認識領
域を分離し、これを認識処理部5で認識処理する。認識
処理部5では認識処理のための認識処理アルゴリズムを
いくつか装備しており、認識領域を分離したデータの特
徴等の検出により最適化された認識アルゴリズムを自動
的に選択する方法、あるいは属性情報等により選択され
る方法等が公知である。また認識処理ではニューロンを
用いたもの、ベクトル間距離計算等で認識するものなど
が一般に知られている。このようにして認識された文字
は通常複数の候補からなるので、候補文字選択部6で最
適の文字を選択し、認識結果として出力する。
2. Description of the Related Art Conventionally, as shown in FIG. 5, an apparatus of this type has a signal processing section 2 for reading an original read by an original reading section 1.
And binarize it and store it in the image storage memory 3. The cut-out processing unit 4 takes in the image data from the binarized image data according to the image cut-out algorithm, separates the recognition area, and the recognition processing unit 5 performs the recognition process. The recognition processing unit 5 is equipped with several recognition processing algorithms for recognition processing, and a method for automatically selecting an optimized recognition algorithm by detecting features of data in which recognition regions are separated, or attribute information Methods and the like selected according to the above are known. In the recognition processing, generally, a method using neurons, a method for recognizing by vector distance calculation, etc. are known. Since the character recognized in this way usually consists of a plurality of candidates, the candidate character selection unit 6 selects the optimum character and outputs it as the recognition result.

【0003】認識処理技術も高度となり認識率(正解
率)等は高い精度(確率)で認識できるようになってい
る。特に印刷文字や記号等などの活字文字は99%を越
える値を示している。しかし、認識される文字は活字文
字だけではなく、手書き文字があり、この手書き文字を
高い精度で認識することが求められている。日本語では
漢字、カタカナ、ひらがながあり、欧文文字に比べ認識
処理を難しくしている。また癖字等の個人の筆質による
差異が大きいことも認識処理を難しくしている。
The recognition processing technology is also advanced, and the recognition rate (correct answer rate) and the like can be recognized with high accuracy (probability). In particular, printed characters such as printed characters and symbols show values exceeding 99%. However, the recognized characters include not only printed characters but also handwritten characters, and it is required to recognize these handwritten characters with high accuracy. In Japanese, there are kanji, katakana, and hiragana, which make recognition processing more difficult than in Western characters. In addition, the large difference due to individual writing quality such as habits also makes recognition processing difficult.

【0004】手書き文字を認識するに当たっては、適切
な画像切り出し領域を画像データから分離する切り出し
処理が行われる。切り出し方法には、原稿の端にマーク
情報を付加し、記入領域をドロップアウトカラー枠で印
刷した指定用紙を用いるタイプ、枠なしで自動的に文字
間のドットの分布をヒストグラム(X軸とY軸の両軸に
ついて)をベースに検知し、画像切り出し領域を画像デ
ータから分離する方法が知られている。近年、枠なしで
フリーフォーマットで書かれた手書き文字、または活字
文字(合字、商標)等の認識も行われている。
When recognizing a handwritten character, a cutout process for separating an appropriate image cutout area from image data is performed. For the clipping method, mark information is added to the edge of the original, the specified area is printed with a drop-out color frame in the entry area, and the distribution of dots between characters is automatically histogram-less (X-axis and Y-axis). It is known that the image cutout area is separated from the image data by detecting based on (for both axes). In recent years, recognition of handwritten characters written in a free format without a frame, printed characters (ligatures, trademarks), etc. has also been performed.

【0005】[0005]

【発明が解決しようとする課題】文字、特に手書き文字
を認識する場合、正しく認識できない原因について検討
してみると、文字の汚れ、記入文字が薄く読みにくい、
原稿が傾いていると言った各人に共通する原因と、癖字
といった個人に特有の原因、および誤字などがある。各
人に共通する原因や個人に特有な原因でもその程度が少
なければ正しい認識をする可能性は高くなる。そこで従
来認識アルゴリズムは多数の手書き文字を認識し、その
学習データを元に認識に必要となる特徴を抽出するか特
徴パラメータを多次元的に有するのが一般的である。個
人の癖字まで認識しようとすれば極めて多数の人の癖字
を学習しなければならず、これにより特定の個人の認識
精度は向上するが別人に取っては認識効果は期待できな
い。このため文字認識は多くの人に対して平均的な認識
精度を想定して行わざるを得ず、これら平均的な文字の
特徴抽出データあるいは特徴パラメータの多次元的デー
タ等の認識ソフトウェアは文字認識装置のメーカー側で
固定して(言い換えればROM化して)装置に組み込ん
で販売されているのが現状である。一方これらの装置を
購入して使用するのは特定の個人(複数でもよい)であ
る。使用者にとっては、癖字であろうがなかろうが、自
分の書いた文字を装置が正しく認識してくれなければそ
の装置の意味がない。このように従来の装置は癖字など
のある使用者にとっては使い難い装置となっていた。
When recognizing characters, especially handwritten characters, the cause of the incorrect recognition is examined. When the characters are dirty, the written characters are thin and difficult to read.
There are common causes for each person who said the manuscript is skewed, individual causes such as habits, and typographical errors. Even if the cause is common to each person or is specific to an individual, if the degree is small, the possibility of correct recognition is high. Therefore, a conventional recognition algorithm generally recognizes a large number of handwritten characters and extracts features required for recognition based on the learning data thereof or has feature parameters multidimensionally. In order to recognize even individual habits, an extremely large number of people have to learn habits, which improves the recognition accuracy of a particular individual, but cannot expect the recognition effect for another person. For this reason, character recognition must be performed assuming the average recognition accuracy for many people, and recognition software for such average character feature extraction data or multidimensional data of feature parameters does not recognize character recognition. The current situation is that the manufacturer of the device fixes it (in other words, forms a ROM) and incorporates it into the device. On the other hand, it is a specific individual (s) who purchase and use these devices. For the user, whether it is a habit or not, if the device does not correctly recognize the character that he / she wrote, the device has no meaning. As described above, the conventional device is a device that is difficult for a user who has a habit of writing.

【0006】本発明は、上述の問題点に鑑みてなされた
もので、個人的特徴を有する文字の認識を可能とする文
字認識データを文字認識辞書に容易に追加できるように
することを目的とする。また個人的特徴を有する文字認
識を可能にする個人学習用データにより追加学習を容易
にすることを目的とする。
The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to easily add character recognition data enabling recognition of characters having personal characteristics to a character recognition dictionary. To do. Another object of the present invention is to facilitate additional learning by using personal learning data that enables character recognition having personal characteristics.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、請求項1の発明では、文字を読み取り、読み取った
文字画像の文字をその特徴により認識する情報よりなる
認識辞書に基づいて文字認識を行い、この認識結果を表
示し、この表示された認識文字を訂正されたときには、
訂正された文字とその文字の文字画像とを対応づけて格
納し、この格納された文字画像の特徴を抽出して前記文
字認識辞書に追加する。
In order to achieve the above-mentioned object, in the invention of claim 1, character recognition is performed based on a recognition dictionary formed by reading characters and recognizing the characters of the read character image according to their characteristics. Then, display this recognition result, and when the displayed recognition character is corrected,
The corrected character and the character image of the character are stored in association with each other, and the characteristics of the stored character image are extracted and added to the character recognition dictionary.

【0008】請求項2の発明では、個人の手書き文字が
記入されている個人学習用紙を読み取り、読み取った文
字画像の文字をその特徴により認識する情報よりなる認
識辞書に基づいて認識を行い、この認識結果を表示し、
この表示された認識文字を訂正されたときには、訂正さ
れた文字とその文字の文字画像とを対応づけて格納し、
この格納された文字画像の特徴を抽出して前記文字認識
辞書に追加する。
According to the second aspect of the present invention, the personal learning paper on which personal handwritten characters are written is read, and the characters of the read character image are recognized based on a recognition dictionary composed of information for recognizing the characters. Display the recognition result,
When the displayed recognition character is corrected, the corrected character and the character image of the character are stored in association with each other,
The characteristics of the stored character image are extracted and added to the character recognition dictionary.

【0009】請求項3の発明では、文字を読み取る読取
手段と、読み取られた文字画像の文字をその特徴により
認識する情報よりなる文字認識辞書を格納した認識辞書
格納手段と、前記読取手段で読み取った文字画像を前記
文字認識辞書に基づいて文字を認識する認識手段と、こ
の認識文字を表示する表示手段と、この表示された認識
文字が誤っている時訂正する訂正手段と、この文字情報
と文字画像を対応して管理し格納する管理格納手段と、
この管理格納手段に格納された文字画像の特徴を抽出す
る特徴抽出手段と、この特徴抽出手段で抽出した特徴を
文字認識情報として前記文字認識辞書に追加する制御手
段とを具備する。
According to another aspect of the invention, there is provided a reading means for reading a character, a recognition dictionary storing means for storing a character recognition dictionary composed of information for recognizing a character of the read character image according to its characteristics, and the reading means for reading. A recognition means for recognizing a character image based on the character recognition dictionary, a display means for displaying the recognized character, a correction means for correcting when the displayed recognized character is erroneous, and the character information. Management storing means for managing and storing character images correspondingly,
The management apparatus includes a feature extraction unit that extracts features of the character image stored in the management storage unit, and a control unit that adds the features extracted by the feature extraction unit to the character recognition dictionary as character recognition information.

【0010】請求項4の発明では、前記管理格納手段に
は外部記憶手段が着脱可能に接続でき、この外部記憶手
段には前記訂正文字情報とその文字画像が対応して管理
され格納されている。
According to another aspect of the present invention, external storage means can be detachably connected to the management storage means, and the corrected character information and its character image are managed and stored in correspondence with each other in the external storage means. .

【0011】請求項5の発明では、前記外部記憶手段に
は個人毎の訂正文字情報とその文字画像が個人の識別番
号と共に格納され、識別番号を入力するとこの識別番号
に対応した前記訂正文字情報とその文字画像が参照され
るようになる。
According to the invention of claim 5, the corrected character information for each individual and the character image thereof are stored in the external storage means together with the identification number of the individual. When the identification number is input, the corrected character information corresponding to this identification number is stored. And the character image will be referenced.

【0012】[0012]

【作用】請求項1の発明では、文字を読み取り、文字認
識辞書に基づいて認識した文字を表示する。この表示さ
れた文字が正しく認識されず異なった文字として表示さ
れているときは、操作者によって正しい文字に訂正され
る。訂正された文字とこの文字を読み取った文字画像を
対応して格納しているので、この文字画像の特徴を抽出
処理して文字認識データを作成し、これを文字認識辞書
に追加しておく。これにより以降はこの文字を正しく認
識できるようになり、特に個人の癖字などの場合、認識
精度が向上する。
According to the invention of claim 1, the characters are read and the characters recognized based on the character recognition dictionary are displayed. When the displayed character is not correctly recognized and is displayed as a different character, the operator corrects the character. Since the corrected character and the character image obtained by reading this character are stored in association with each other, the characteristic of this character image is extracted to create character recognition data, and this is added to the character recognition dictionary. As a result, the character can be correctly recognized thereafter, and the recognition accuracy is improved especially in the case of an individual habit character.

【0013】請求項2の発明では、個人学習用紙はカタ
カナ、ひらがな、数字、使用頻度の多い漢字などを装置
の操作者に書き込ませ、この用紙を読み取り、その認識
結果を表示し、誤っているときは操作者により正しい文
字に訂正される。訂正された文字とこの文字を読み取っ
た文字画像を対応して格納しておき、この文字画像の特
徴を抽出して文字認識情報を作成し、これを認識辞書に
追加する。これにより個人データの認識辞書への追加を
短時間で行うことができる。
According to the second aspect of the present invention, the personal learning paper is written in katakana, hiragana, numbers, kanji that are frequently used, etc. by the operator of the apparatus, reads the paper, displays the recognition result, and is erroneous. In this case, the operator corrects the characters. The corrected character and the character image obtained by reading this character are stored in association with each other, the characteristics of this character image are extracted to create character recognition information, and this is added to the recognition dictionary. Thereby, the personal data can be added to the recognition dictionary in a short time.

【0014】請求項3の発明では、読み取った文字画像
を認識手段は認識辞書に基づいて認識し、表示手段で表
示する。この表示された文字が誤っていると操作者によ
り訂正手段を用いて正しい文字に訂正され管理格納手段
に誤認識した文字と、この訂正文字と、誤認識した文字
の文字画像とを対応づけて記憶する。特徴抽出手段はこ
の文字画像の特徴を抽出して文字認識データを作成し、
制御手段によってこのデータを文字認識辞書に追加す
る。これにより文字認識精度が向上してゆく。
According to the third aspect of the invention, the recognition means recognizes the read character image based on the recognition dictionary and displays it on the display means. If the displayed character is incorrect, the operator corrects the character using the correction means to correct the character, which is erroneously recognized in the management storage means, and the corrected character is associated with the character image of the erroneously recognized character. Remember. The feature extraction means extracts the features of this character image to create character recognition data,
The control means adds this data to the character recognition dictionary. This improves the character recognition accuracy.

【0015】請求項4の発明では、外部記憶手段に癖字
などにより誤認識し、訂正した文字やその文字画像など
主として個人情報を記憶しておき、使用者が端末OCR
装置を使用するとき、この外部記憶手段を装置に接続す
ることにより、使用者の癖情報等まで認識できる専用装
置とすることができる。また、この外部記憶手段のデー
タにより、接続した端末OCR装置に対して追加学習が
できるようになる。
According to the fourth aspect of the present invention, the external storage means stores personal information such as a character or a character image which has been erroneously recognized due to a habit character and is corrected, and the user can use the terminal OCR.
When the device is used, by connecting the external storage means to the device, the device can be a dedicated device that can recognize even habit information of the user. Further, the data of the external storage means enables additional learning to the connected terminal OCR device.

【0016】請求項5の発明では、外部記憶手段には複
数人の個人情報を記憶することが可能であるので、個人
情報を識別番号によって区別し、識別番号を指示された
ら、それに対応した個人情報が参照できるようになって
いる。
According to the invention of claim 5, the personal information of a plurality of persons can be stored in the external storage means. Therefore, the personal information is distinguished by the identification number. Information is available for reference.

【0017】[0017]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。図1は本願発明の端末OCR装置の実施例
を示すブロック図である。原稿読み取り部1は原稿を読
み取って文字画像データとし、信号処理部2はこの文字
画像データを2値化処理する。画像蓄積メモリ3はこの
2値化した文字画像データを格納する。切り出し処理部
4は画像蓄積メモリ3に格納されている文字画像データ
から切り出しアルゴリズムに従って画像データを切り出
し文字の認識領域を分離する。認識処理部5ではこの分
離した認識領域のデータの文字を認識するのに必要な認
識処理アルゴリズムを備え、これに従って認識処理を行
う。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a terminal OCR device of the present invention. The document reading unit 1 reads a document to form character image data, and the signal processing unit 2 binarizes the character image data. The image storage memory 3 stores the binarized character image data. The cutout processing unit 4 cuts out the image data from the character image data stored in the image storage memory 3 according to a cutout algorithm, and separates the recognition region of the character. The recognition processing unit 5 has a recognition processing algorithm necessary for recognizing the characters of the data in the separated recognition area, and performs the recognition processing according to the recognition processing algorithm.

【0018】認識処理部5では1つの認識対象に対し通
常複数の文字を認識結果として出力するので、候補文字
選択部6はこれらの認識候補文字の中から最適な文字を
選択する。表示/訂正変換処理部9は表示部7とキーボ
ード8を有し、候補文字選択部6で選択した最適の文字
を表示部7に表示し、この文字が原稿の文字と異なる場
合、操作者はキーボード8から訂正文字を打ち込み訂正
処理が行われる。認識データ・イメージ格納メモリ10
は訂正されたデータと訂正履歴、および切り出し処理部
4で認識領域を分離したデータ等を格納すると共にIC
メモリカード11を着脱可能に接続することができる。
ICメモリカード11には個人の文字認識データが格納
されており、各個人の手書き文字に表される筆質情報、
癖字情報、傾き情報、編、作り特徴等の情報が含まれ、
個人パスワード等で格納データを有効にすることができ
る。ICメモリカード11はFLASHメモリ、EEP
ROM、磁気ディスク等のいずれかにより構成されてい
る。通信ユニット12は認識処理したデータや文字画像
データ等を回線13を通して図示しないホストコンピュ
ータなどに送信する。
Since the recognition processing unit 5 normally outputs a plurality of characters as a recognition result for one recognition target, the candidate character selection unit 6 selects an optimum character from these recognition candidate characters. The display / correction conversion processing unit 9 has a display unit 7 and a keyboard 8, displays the optimum character selected by the candidate character selection unit 6 on the display unit 7, and when this character is different from the character of the manuscript, the operator A correction character is entered from the keyboard 8 and a correction process is performed. Recognition data / image storage memory 10
Stores the corrected data, the correction history, the data obtained by separating the recognition area by the cutout processing unit 4, and the like.
The memory card 11 can be detachably connected.
Personal character recognition data is stored in the IC memory card 11, and writing quality information represented by handwritten characters of each individual,
Contains information such as habit information, inclination information, edition, and characteristics of making,
The stored data can be validated with a personal password or the like. IC memory card 11 is FLASH memory, EEP
It is composed of a ROM, a magnetic disk, or the like. The communication unit 12 transmits the recognition-processed data, character image data, and the like through a line 13 to a host computer (not shown) or the like.

【0019】以上のように構成された端末OCR装置に
ついて、以下にその動作を図1を用いて説明する。原稿
読み取り部1では、原稿用紙に記入された文字(特に手
書き文字)をレンズで読み取り素子に結像しこの画像信
号を信号処理部2へ出力する。本実施例では読み取り素
子としてはCCD素子を用いたが、これに限定せず撮像
管などを使用してもよい。信号処理部2でCCD素子の
出力を2値化処理した後、この2値化されたデータを一
時、画像蓄積メモリ3に格納する。画像蓄積メモリ3の
容量は機構系の制御に制限されるが、原稿を停止できる
機構系であれば、数十ライン程度のバッファメモリでも
よい。本実施例ではA4版の原稿1頁分を格納できる容
量としている。これにより画像蓄積メモリ3には原稿読
み取り部で読み取った画像1頁分のデータが格納され
る。
The operation of the terminal OCR device configured as described above will be described below with reference to FIG. In the document reading unit 1, characters (especially handwritten characters) written on the document sheet are imaged on a reading element by a lens and the image signal is output to the signal processing unit 2. Although the CCD element is used as the reading element in this embodiment, the present invention is not limited to this, and an image pickup tube or the like may be used. After the output of the CCD element is binarized by the signal processor 2, the binarized data is temporarily stored in the image storage memory 3. Although the capacity of the image storage memory 3 is limited to the control of the mechanical system, a buffer memory of about several tens of lines may be used as long as the mechanical system can stop the document. In this embodiment, the capacity is such that one page of A4 size original can be stored. As a result, the data for one page of the image read by the document reading unit is stored in the image storage memory 3.

【0020】次に切り出し処理部4は画像蓄積メモリ3
の格納データのなかから切り出しアルゴリズムに従って
認識対象とする領域の切り出しを行う。この切り出し方
法として、一般的な方法は、記入用紙上に予め黒いマー
クを両端に印刷しておき、その黒いマーク内に認識すべ
き文字等を記入し、切り出し処理部4でそのマークの先
頭からの距離を予め取り決めて、切り出しアルゴリズム
に従って格納されているデータを必要領域切り出して認
識処理部5へ出力する。この場合、認識すべき位置は予
め定められており、自由な位置に文字等は記入できな
い。また別の方法として、上述した黒いマークの位置決
め等の情報は印刷されておらず、文字の認識領域を自動
的に検知して切り出す方法がある。この方法では記入文
字等を自由に記入できる反面、切り出し方法に関する技
術的な面で問題もある。例えば、合字や隣接文字が接触
した時など、認識が困難となる。後者の方法では一般的
に軸方向の画素分布のヒストグラム、つまりX軸方向ヒ
ストグラム、Y軸方向ヒストグラムを用いて認識領域の
切り出し、あるいは原稿の傾斜の検知、傾斜時の補正、
行間の識別等が行われる。
Next, the cut-out processing unit 4 operates the image storage memory 3
The region to be recognized is cut out from the stored data in accordance with the cutout algorithm. As this cutting method, a general method is to print a black mark on both ends in advance on a filling sheet, write a character or the like to be recognized in the black mark, and cut out from the beginning of the mark in the cutting processing unit 4. The distance is determined in advance, and the stored data is cut out according to the cutout algorithm and output to the recognition processing unit 5. In this case, the position to be recognized is predetermined, and characters and the like cannot be written in free positions. As another method, there is a method in which the information such as the above-mentioned positioning of the black mark is not printed and the character recognition area is automatically detected and cut out. With this method, the characters to be entered can be entered freely, but there is also a technical problem regarding the cutting method. For example, recognition becomes difficult when a ligature or an adjacent character comes into contact. In the latter method, generally, a histogram of a pixel distribution in the axial direction, that is, an X-axis direction histogram, a Y-axis direction histogram is used to cut out a recognition region, detect the inclination of a document, and correct the inclination.
The line spacing is identified.

【0021】切り出し処理部4で切り出されたデータは
認識処理部5に入力され認識処理が実施される。認識処
理部5では認識領域のデータを所定のアルゴリズムに基
づいて認識処理し、認識結果を候補文字として候補文字
選択部6へ出力する。認識処理部5では、例えば公知の
ニューロンやベクトル間距離計算を用いたアルゴリズム
を用いて認識処理を行う。本実施例ではニューロン系の
処理アルゴリズムを用いるが、これに限定せず他のアル
ゴリズムも使用できる。なお、認識処理の前処理として
は細線化処理、線密度イコライゼーション、正規化処理
(非線形等を含む)等の公知の処理が行われる。認識処
理は認識領域の輪郭方向密度+背景密度の特徴等を抽出
する特徴抽出で個々の認識領域を処理し、該当する通常
複数の候補文字を認識結果として出力する。この認識処
理方法は一般的なパターン一致等の処理アルゴリズムと
は相違しており、小規模で高い精度で認識できるのが特
徴である。
The data cut out by the cutout processing unit 4 is input to the recognition processing unit 5 and the recognition processing is performed. The recognition processing unit 5 performs recognition processing on the data in the recognition area based on a predetermined algorithm, and outputs the recognition result as a candidate character to the candidate character selection unit 6. The recognition processing unit 5 performs the recognition process using, for example, a known neuron or an algorithm using inter-vector distance calculation. In this embodiment, the processing algorithm of the neuron system is used, but the present invention is not limited to this and other algorithms can be used. As the preprocessing of the recognition processing, known processing such as thinning processing, line density equalization, normalization processing (including non-linearity) is performed. In the recognition processing, each recognition area is processed by feature extraction for extracting the feature of the contour direction density + background density of the recognition area, and the corresponding normal plural candidate characters are output as the recognition result. This recognition processing method is different from a general processing algorithm such as pattern matching, and is characterized in that recognition can be performed with high accuracy on a small scale.

【0022】認識処理部5では特徴として抽出した多次
元特徴(例えば、特徴は100以内)に近い多次元特徴
を持った候補文字を候補高位順に配列し、候補文字選択
部6へ出力する。本実施例で用いているニューロンによ
るアルゴリズムは神経を模倣した処理形態であり、処理
は基本的に並列に実行される。多次元特徴の生成には学
習処理を行い、学習結果に基づいて特徴が生成されるの
で、数多くの学習処理を実行すればよりよい認識精度に
達することができる。なお、請求項に記載した認識辞書
格納手段、認識手段、特徴抽出手段および制御手段は認
識処理部5の有する機能を表現したものである。
The recognition processing section 5 arranges candidate characters having multidimensional characteristics close to the multidimensional characteristics (for example, the characteristics are within 100) extracted as the characteristics in the order of candidate high rank, and outputs them to the candidate character selection section 6. The algorithm by the neuron used in this embodiment is a processing form that imitates a nerve, and the processing is basically executed in parallel. A learning process is performed to generate the multidimensional feature, and the feature is generated based on the learning result. Therefore, if a large number of learning processes are performed, a better recognition accuracy can be achieved. The recognition dictionary storage means, the recognition means, the feature extraction means, and the control means described in the claims represent the functions of the recognition processing unit 5.

【0023】候補文字選択部6では、認識処理部5の出
力候補文字の候補高位にある文字を表示/訂正変換部9
へ出力する。表示/訂正変換部9では操作者に認識結果
を可視化(表示)し、認識結果が記入内容と異なり誤認
識の場合などには、表示部7と一体になったキーボード
8を使用し、操作者が誤認識された文字を訂正すること
を可能としている。
The candidate character selection unit 6 displays / corrects / converts the characters in the candidate high order of the output candidate characters of the recognition processing unit 5.
Output to The display / correction conversion unit 9 visualizes (displays) the recognition result to the operator, and when the recognition result is different from the entered content and is erroneous recognition, the keyboard 8 integrated with the display unit 7 is used to It is possible to correct characters that were erroneously recognized.

【0024】認識データ・イメージ格納メモリ10では
訂正等が行われた訂正後のデータと訂正処理が実行され
た履歴と訂正処理を行った文字の認識処理部5に入力し
た画像をそれぞれ関連づけて格納するもので請求項の管
理格納手段に該当する。切り出し処理部4で切り出され
た画像データ(イメージ)は個々の認識領域毎に切り出
されたもので、認識処理部5に入力されて認識されると
共にラインAにより認識データ・イメージ格納メモリ1
0に入力され、誤認識の場合、上述した訂正処理履歴な
どと共に記憶される。この誤認識した画像データは、ラ
インBで認識処理部5へ送出され、認識処理部5がこの
データを基にニューロン等に新規学習を実施するための
個人的な重要な重みを持ったデータとなる。このデータ
を基にニューロン等は追加学習が可能となり、個人的な
癖字等を高い認識精度(確率)で認識できるようにな
る。
In the recognition data / image storage memory 10, the corrected data having been corrected, the history of the correction processing and the image input to the recognition processing unit 5 of the corrected character are stored in association with each other. It corresponds to the management storage means in the claims. The image data (image) cut out by the cutout processing unit 4 is cut out for each recognition area, and is input to the recognition processing unit 5 to be recognized and the recognition data / image storage memory 1 by the line A.
In case of erroneous recognition, it is stored together with the above-mentioned correction processing history and the like. The erroneously recognized image data is sent to the recognition processing unit 5 on the line B, and the recognition processing unit 5 uses the data as data having an important personal weight for performing new learning on neurons or the like. Become. Based on this data, the neurons and the like can perform additional learning, and personal habits and the like can be recognized with high recognition accuracy (probability).

【0025】このような重要な重みを持ったデータはI
Cカード等の媒体等に格納保持し、個人コードあるいは
パスワード等で有効・無効の選択を実施し、また認識学
習を実施する場合には、このデータを認識処理部5で吸
い上げて学習データとして利用できるようにする。この
ためICカード11は認識データ・イメージ格納メモリ
10に着脱可能となっている。
Data having such an important weight is I
When storing and holding in a medium such as a C card, selecting valid / invalid with a personal code or password, and performing recognition learning, this data is absorbed by the recognition processing unit 5 and used as learning data. It can be so. Therefore, the IC card 11 can be attached to and detached from the recognition data / image storage memory 10.

【0026】表示部7に表示された認識結果が正しい場
合は、その認識結果を図示しないホストコンピュータ等
へ伝送するための通信ユニット12を備え、通信ユニッ
ト12は通信回線13を使用して通信を行う。本発明に
どの通信手順を使用するかは自由である。
When the recognition result displayed on the display unit 7 is correct, a communication unit 12 for transmitting the recognition result to a host computer (not shown) is provided, and the communication unit 12 communicates using the communication line 13. To do. Which communication procedure is used in the present invention is arbitrary.

【0027】次に文字認識処理について図2を用いて詳
細に説明する。図2では図1で説明した切り出し処理部
4で切り出された切り出しデータ以後の処理について述
べる。切り出しアルゴリズムについては先に説明した方
法を用いる。切り出しデータ14は図2に示すようにあ
る領域を持って切り出されている。破線で示す四角の枠
は説明用に付けたもので実際の領域にはない。この切り
出された切り出しデータ14はX,Yの領域を持った認
識処理画像15となり、認識処理部5に入力され認識処
理が行われる。本実施例では認識アルゴリズムはニュー
ロンを使用したが、これに限定する必要はない。認識処
理が行われ、結果として認識処理画像15に最も近い候
補文字16が認識処理部5から出力される。候補文字1
6としては認識処理画像15に最も近い高順位のものか
ら低い順位へと通常複数の文字を認識処理部5は認識結
果として導き出すが、この候補文字数は認識した文字に
よって異なる。なお、文字認識については本説明では分
かり易くするため1文字に限定して説明するが、実際の
処理は複数の文字を認識処理しており、候補文字16も
その文字毎に発生する。
Next, the character recognition process will be described in detail with reference to FIG. In FIG. 2, processing after the cutout data cut out by the cutout processing unit 4 described in FIG. 1 will be described. The method described above is used for the clipping algorithm. The cutout data 14 is cut out with a certain area as shown in FIG. The square frame indicated by the broken line is added for the purpose of explanation and is not in the actual area. The cut-out data 14 thus cut out becomes a recognition-processed image 15 having X and Y regions, and is input to the recognition processing unit 5 to be subjected to recognition processing. In the present embodiment, the recognition algorithm uses neurons, but the recognition algorithm is not limited to this. The recognition processing is performed, and as a result, the candidate character 16 closest to the recognition processed image 15 is output from the recognition processing unit 5. Candidate character 1
As for 6, the recognition processing unit 5 usually derives a plurality of characters from the highest rank closest to the recognition processed image 15 to the lower rank as a recognition result, but the number of candidate characters varies depending on the recognized characters. It should be noted that the character recognition will be described by limiting it to one character for easy understanding in the present description, but in the actual processing, a plurality of characters are recognized, and the candidate character 16 also occurs for each character.

【0028】候補文字16はコード情報として表示/訂
正変換部9へ出力される。例えば文字Aは41HEX
(16進数表示)で表される。本発明は端末OCR装置
で認識結果を端末装置側で確認・訂正できる端末であ
り、端末OCR装置ではそのためディスプレー7とキー
ボード8を装備し、文字記入者は認識結果を端末で確認
し、誤認識があった場合には、その場で訂正作業を実施
し、正しいデータにすることができる。誤認識がない場
合には訂正作業は不用であり、通信ユニット12を使用
しホストコンピュータ等に認識データ・イメージ格納メ
モリ10で格納してあるデータを送信する。
The candidate character 16 is output to the display / correction conversion unit 9 as code information. For example, the letter A is 41HEX
(Hexadecimal number display). The present invention is a terminal in which the recognition result can be confirmed / corrected by the terminal OCR device. Therefore, the terminal OCR device is equipped with the display 7 and the keyboard 8 so that the character writer can confirm the recognition result on the terminal and make a mistaken recognition. If there is, correction work can be performed on the spot and correct data can be obtained. If there is no erroneous recognition, the correction work is unnecessary and the communication unit 12 is used to transmit the data stored in the recognition data / image storage memory 10 to the host computer or the like.

【0029】次に表示動作につき説明する。認識処理さ
れた結果は表示/訂正変換処理9で表示画面を所定の形
式に従って生成する。この表示フォーマットはアプリケ
ーションで異なる。また認識結果は認識データ・イメー
ジ格納メモリ10にも同時に格納している。格納エリア
はメモリのどの位置を使用してもよい。認識結果に誤り
がなければ、格納されている認識結果データを通信回線
13等を用いて転送する。
Next, the display operation will be described. The result of the recognition processing is displayed / corrected by the conversion processing 9 to generate a display screen in a predetermined format. This display format depends on the application. The recognition result is also stored in the recognition data / image storage memory 10 at the same time. The storage area may use any location in the memory. If there is no error in the recognition result, the stored recognition result data is transferred using the communication line 13 or the like.

【0030】次に認識結果に誤認識があり、文字記入者
(操作者)が訂正する場合について説明する。現状では
認識精度は100%とはなり得ず、誤認識が発生しう
る。このため記入者は誤認識された文字(ディスプレー
7に表示された認識結果の文字)をキーボード8を使用
して訂正することができる。訂正はディスプレー7に表
示されている誤認識された文字にカーソルを合わせ変更
すべき訂正文字を入力すれば、自動的に行われる。漢字
等の訂正は一度かな漢字変換を用いてから指定文字を選
択し訂正する必要があるが、数字、ひらがな等はそのま
ま指定すればよい。
Next, a case will be described in which the recognition result includes erroneous recognition and the character writer (operator) corrects it. At present, the recognition accuracy cannot reach 100%, and erroneous recognition may occur. Therefore, the writer can correct the erroneously recognized character (the character of the recognition result displayed on the display 7) using the keyboard 8. The correction is automatically performed when the cursor is placed on the erroneously recognized character displayed on the display 7 and the correction character to be changed is input. To correct Kanji characters, it is necessary to select and correct the specified characters after using Kana-Kanji conversion, but numbers, hiragana, etc. can be specified as they are.

【0031】このように訂正されたデータは認識処理部
5での追加学習に用いられる。本発明は個人に依存して
いる癖字などを認識処理部5が追加学習でき、追加学習
時の個人データベースを供給できるものである。追加学
習処理は認識処理同様に切り出しされた認識領域データ
から特徴抽出アルゴリズムにて多次元的特徴データとか
ベクトル特徴など、認識処理アルゴリズムに対応した特
徴を抽出する。追加学習において、ベクトル特徴の場合
には特徴を比較するフィルタ等の追加が容易であり、多
次元的特徴を用いるニューロンより追加学習しやすいこ
とは公知である。
The data corrected in this way is used for additional learning in the recognition processing section 5. According to the present invention, the recognition processing unit 5 can additionally learn a habit character depending on an individual and can supply a personal database at the time of additional learning. In the additional learning process, features corresponding to the recognition processing algorithm such as multidimensional feature data or vector features are extracted from the recognition region data cut out similarly to the recognition process by a feature extraction algorithm. In the additional learning, it is known that in the case of a vector feature, it is easy to add a filter or the like for comparing the features, and it is easier to perform additional learning than a neuron using a multidimensional feature.

【0032】次に追加学習について説明する。本来追加
学習をする場合には、一般的な追加学習、例えば合字、
記号、商標、外国語などのために新規に特徴となるべき
ものを学習し、特徴を追加する場合と、現状の認識精度
を向上させる目的で個人毎の特徴となるべきものを学習
し、特徴を付加する場合とがある。本発明は後者の個人
毎の特徴を学習し、特徴を付加する追加学習を対象とし
ている。このため個人の学習データを効率よく収集する
必要がある。本発明では訂正処理で訂正された情報から
誤認識文字を確定し、誤認識されたデータの切り出しデ
ータ14を切り出し処理部4から出力してもらい認識デ
ータ・イメージ格納メモリ10上に管理情報と共に格納
することにより収集する。
Next, the additional learning will be described. When additional learning is originally required, general additional learning such as ligatures,
Learn features that should be new features such as symbols, trademarks, and foreign languages, and learn features that should be features for each individual when adding features and for the purpose of improving current recognition accuracy. May be added. The present invention is directed to the latter additional learning that learns the characteristics of each individual and adds the characteristics. Therefore, it is necessary to efficiently collect individual learning data. In the present invention, the erroneously recognized character is determined from the information corrected by the correction process, and the cut-out data 14 of the erroneously recognized data is output from the cut-out processing unit 4 and stored in the recognition data / image storage memory 10 together with the management information. Collect by doing.

【0033】図3は認識データ・イメージ格納メモリ1
0の学習データ管理テーブルを示す。学習データは複数
の個人情報を格納できるので、まず個人特定コードを設
け、個人情報の識別に用いる。この個人情報は認識処理
部5で外部参照データとして使用できる。なお、これら
の情報はコードの変換テーブルであり、認識処理部5が
認識処理する際使用する多次元的特徴などとは異なる。
認識結果コードは認識処理部5で認識した結果の文字を
コードで表したものであるが、図3では分かり易くする
ためコードでなく数字あるいはカタカナで仮に記載して
ある。訂正コードは認識処理部5が認識した文字を記入
者が誤っていると判断して訂正したものであり、図3で
は数字7を数字1に記入者が表示/訂正変換処理部9に
設けられたキーボード8で訂正した情報である。訂正回
数は訂正頻度の回数を表す。訂正回数に関連して、訂正
回数と同数の画像格納アドレス値が記録されている。こ
の画像格納アドレス値は図1で切り出し処理部4で切り
出し、ラインAで認識データ・イメージ格納メモリ10
に格納されている切り出しデータのアドレスである。
FIG. 3 shows a recognition data / image storage memory 1
The learning data management table of 0 is shown. Since the learning data can store a plurality of pieces of personal information, a personal identification code is first provided and used to identify the personal information. This personal information can be used as external reference data by the recognition processing unit 5. Note that these pieces of information are code conversion tables, and are different from the multidimensional features and the like used in the recognition processing by the recognition processing unit 5.
The recognition result code is a character representing the result of recognition by the recognition processing unit 5, but in FIG. 3 it is provisionally written as a number or katakana instead of a code for easy understanding. The correction code is obtained by correcting the character recognized by the recognition processing unit 5 when the writer judges that the character is incorrect. In FIG. 3, the writer is provided in the display / correction conversion processing unit 9 with the numeral 7 as the numeral 1. The information is corrected by the keyboard 8. The number of corrections represents the number of correction frequencies. In relation to the number of corrections, the same number of image storage address values as the number of corrections are recorded. This image storage address value is cut out by the cutout processing unit 4 in FIG.
This is the address of the cutout data stored in.

【0034】認識処理部5では、この管理テーブルに基
づいて学習データを入力し追加学習を行う。例えばニュ
ーロンを用いて学習する場合、画像格納アドレス値から
認識に使用した画像データを認識処理部5が訂正コード
(正しい文字コード)と共に吸い上げ、追加学習データ
として公知の学習アルゴリズムを用いて追加学習を行
う。このように追加学習を容易に実施できるのは本発明
が端末OCR装置を用い装置の認識結果を直ちに文字記
入者が確認でき訂正が可能な端末であるためである。こ
のような端末を用いない他の方法では、例えばニューロ
ンを採用している場合、個人的な情報を収集するために
は再度ニューロンの学習を多くの文字について実施しな
ければならず、誤認識文字だけを効率よく学習する方法
はあまりない。なお、各端末にOCRを置かずセンター
に置くセンターOCR装置では端末のファクシミリから
センターパソコンに手書き文字を転送し、センターパソ
コンで認識処理を実施している装置もあるが、誤認識し
た場合、センターの操作者(この場合ファクシミリ電文
の記入者ではない)が訂正するだけで、この訂正情報を
用いて追加学習を行うような装置はない。このようなセ
ンターOCR装置の場合、誤りを訂正する操作者は記入
者ではないので、装置が誤認識した場合でも、これを誤
りと気付かない場合もある。また記入者であれば誤字を
記入した場合も確実に訂正できるが、センターの操作者
の場合、必ずしも誤字を訂正することはできない。この
ため認識精度は本発明の端末OCR装置よりも低い。
The recognition processing section 5 inputs learning data based on this management table and performs additional learning. For example, when learning is performed using neurons, the recognition processing unit 5 absorbs the image data used for recognition from the image storage address value together with the correction code (correct character code) and performs additional learning using a known learning algorithm as additional learning data. To do. The reason why the additional learning can be easily carried out in this way is that the present invention is a terminal in which the character recognition person can immediately confirm and correct the recognition result of the apparatus by using the terminal OCR apparatus. In other methods that do not use such a terminal, for example, when a neuron is adopted, learning of the neuron must be performed again for many characters in order to collect personal information, and the misrecognized character There are not many efficient ways to learn just. Note that some center OCR devices that place OCRs in each terminal, not in the center, transfer handwritten characters from the terminal's facsimile to the center personal computer and perform recognition processing on the center personal computer. There is no apparatus that can be used by the operator (in this case, not the person who entered the facsimile message) to perform additional learning using this correction information. In the case of such a center OCR device, since the operator who corrects the error is not the writer, even if the device misrecognizes it, it may not be recognized as an error. Also, if the person who entered the text is correct, it is possible to correct it correctly, but the operator of the center cannot necessarily correct the text. Therefore, the recognition accuracy is lower than that of the terminal OCR device of the present invention.

【0035】本発明では管理テーブルやこの管理テーブ
ルにアドレスを記載した切り出し画像などの個人情報を
ICカード等の可搬記録媒体等に格納する方法を用いて
いる。データを格納する素子としては容量、価格等を考
慮してFLASHメモリを使用しているが、例えばIC
カードにハードディスクを組み込んだものなどの大容量
メモリを用いることもできる。しかし、切り出し画像を
格納するため最低限1MB程度の容量があればよい。容
量を越える時には、追加学習を実行し、これを認識処理
部5に記憶させてICカードの格納データを処理後、こ
れをクリアすればよい。本発明はこのように個人情報を
追加学習することにより、個人の癖による誤認識精度を
格段に向上させることができる。
The present invention uses a method of storing a management table and personal information such as a cutout image having an address described in the management table in a portable recording medium such as an IC card. A FLASH memory is used as an element for storing data in consideration of capacity, price, etc.
It is also possible to use a large-capacity memory such as a hard disk built into a card. However, a capacity of at least about 1 MB is sufficient to store the cutout image. When the capacity is exceeded, additional learning may be executed, stored in the recognition processing unit 5 to process the data stored in the IC card, and then cleared. By additionally learning the personal information in this manner, the present invention can significantly improve the accuracy of erroneous recognition due to the habit of the individual.

【0036】上記説明では、個人情報を追加学習して以
降、その個人のデータの認識精度を向上させることにし
ている。しかし追加学習まで行わなくても管理テーブル
と管理テーブルに記載されたアドレスの切り出し画像を
用いて正しい認識をすることができる。つまり誤認識し
た切り出し画像と同じ特徴を有する切り出し画像が入力
されたら、これを図3の管理テーブルの、例えば認識結
果コードで「7」と誤認識をした後、訂正コードの
「1」を認識結果として出力すれば正しい認識結果を出
力したことになる。このように結果的に記入者の文字が
正しく認識できれば認識精度が向上したことになる。本
方法は追加学習を行う前に再び認識処理を行うようなと
き効果的である。
In the above description, after the additional learning of the personal information, the recognition accuracy of the data of the individual is improved. However, correct recognition can be performed using the management table and the cut-out image of the address described in the management table without performing additional learning. That is, when a cut-out image having the same characteristics as the cut-out image that has been erroneously recognized is input, this is erroneously recognized as "7" in the management table of FIG. 3, for example, the recognition result code, and then the correction code "1" is recognized. If it is output as a result, it means that the correct recognition result is output. As a result, if the characters of the writer are correctly recognized, the recognition accuracy is improved. This method is effective when recognition processing is performed again before additional learning is performed.

【0037】次に他の実施例について説明する。先に説
明した実施例では、個人の書いた1単位の文章(例えば
1つの注文書など)の誤認識をする毎に個人情報を収集
して管理テーブルなどに格納し、追加学習をしている。
しかし、このようにすると、その個人の癖字などを多数
収集するのにかなりの量の文章を認識処理しなければな
らない。本実施例ではこのような個人情報を集中的に収
集し、これを用いて追加学習を行うものである。
Next, another embodiment will be described. In the above-described embodiment, personal information is collected and stored in the management table or the like every time a unit of text written by an individual (for example, one order form) is erroneously recognized, and additional learning is performed. .
However, in this case, a considerable amount of sentences must be recognized and processed in order to collect a lot of habits of the individual. In the present embodiment, such personal information is collected intensively and additional learning is performed using this.

【0038】個人情報を収集するため、個人学習用用紙
を用いる。この個人学習用用紙には、0〜9の数字、ひ
らがなとカタカナの全て、および標準的な漢字など、個
人の癖字をかなりの程度まで網羅する数字、文字が記入
されるもので、この用紙に各人が指定された位置に指定
された文字(数字も含む。なお、今までに述べた文字お
よび今後文字と言うものは数字も含んだものとする)を
記入する。記入データは認識処理され、その認識結果は
ディスプレー7上に表示される。記入者は誤認識文字が
あれば直ちに訂正処理を行い、これにより管理テーブル
等の管理情報が順次作成される。この作業を数回程度実
施すると個人の手書き情報に関しては表示/訂正変換処
理部9の処理により、誤認識文字が自動的に修正され表
示される様になり、記入者は誤認識の訂正をする回数が
半減してくる。殆ど訂正文字が無くなれば、「現在の認
識処理アルゴリズム」に追加する「個人の訂正情報の収
集」ができたことになる。これは先に説明した管理テー
ブルにより正しい認識ができるようになった段階であ
る。このままでも認識精度は向上するが、最終的には追
加学習をすることにより認識処理部5から癖字などを認
識し正しい候補文字を出力させることができる。この追
加学習を行うため、認識データ・イメージ格納メモリ1
0に格納されている切り出し画像情報を図1のラインB
を用いて再度認識処理部5に戻し、誤認識された認識領
域データを基に個人情報の特徴を抽出し、これを学習す
る。このような追加学習により、これ以前に学習した多
次元特徴(ニューロンによる学習)やベクトル特徴(ベ
クトル間距離計算による学習)に今回学習した追加特徴
を合わせて以降の認識処理が行われる。
A personal learning form is used to collect personal information. This sheet for personal learning is to be filled with numbers and letters that cover a number of individual habits such as numbers 0-9, all hiragana and katakana, and standard kanji. Each person fills in the designated character (including the number. The letters mentioned so far and the letters in the future shall include the number) in the designated position. The entered data is subjected to recognition processing, and the recognition result is displayed on the display 7. If there is an erroneously recognized character, the writer immediately performs a correction process, thereby sequentially creating management information such as a management table. If this work is carried out several times, the display / correction conversion processing unit 9 automatically corrects and displays misrecognized characters for personal handwritten information, and the writer corrects the misrecognized characters. The number of times comes to half. If there are almost no correction characters, it means that "collection of personal correction information" to be added to the "current recognition processing algorithm" has been completed. This is a stage at which correct recognition can be performed by the management table described above. Although the recognition accuracy is improved if this is left as it is, finally, by performing additional learning, it is possible to recognize a habit character or the like from the recognition processing unit 5 and output a correct candidate character. To perform this additional learning, the recognition data / image storage memory 1
The cut-out image information stored in 0 is the line B in FIG.
Is used to return to the recognition processing unit 5 again, the feature of the personal information is extracted based on the recognition region data that is erroneously recognized, and this is learned. With such additional learning, the subsequent recognition processing is performed by combining the previously learned multidimensional feature (learning by neuron) and the vector feature (learning by the inter-vector distance calculation) with the additional feature learned this time.

【0039】図4は他の実施例の動作フロー図である。
個人学習用用紙に、破線で囲った内容の記入文字を所定
の位置に記入者が記入する(S1)。この記入したデー
タの認識処理を端末OCR装置にて実施し(S2)、表
示/訂正変換処理部9はその認識結果をディスプレー7
に表示する(S3)。この表示に対し誤認識があると
(S4)、記入者はキーボード8により正しい文字に訂
正する。この訂正が行われると、図3に示した訂正変換
表(管理テーブル)が作成され、この訂正内容を格納す
ると共に訂正変換表を表示する(S7)。この訂正した
文字の切り出し画像(訂正画像)を切り出し部4から入
力し格納アドレスを付与して、認識データ・イメージ格
納メモリ10に格納する(S8)。このようにして管理
テーブルの作成を完了し(S9)、認識データ・イメー
ジ格納メモリ10に格納する。なお、認識データ・イメ
ージ格納メモリ10の代わりにICカードに格納しても
よい。
FIG. 4 is an operation flow chart of another embodiment.
On the personal learning sheet, the writer writes the characters to be written enclosed by the broken line at a predetermined position (S1). The recognition processing of the entered data is executed by the terminal OCR device (S2), and the display / correction conversion processing unit 9 displays the recognition result on the display 7
(S3). If this display is erroneously recognized (S4), the writer corrects the correct character using the keyboard 8. When this correction is performed, the correction conversion table (management table) shown in FIG. 3 is created, and the correction contents are stored and the correction conversion table is displayed (S7). The cut-out image (corrected image) of the corrected character is input from the cut-out unit 4, is given a storage address, and is stored in the recognition data / image storage memory 10 (S8). In this way, the creation of the management table is completed (S9) and stored in the recognition data / image storage memory 10. It should be noted that the recognition data / image storage memory 10 may be stored in an IC card.

【0040】このように管理テーブルが作成されると、
認識処理部5では、誤認識した訂正画像により再度認識
処理を行い、管理テーブルを参照して正しい認識を行う
(S10)。ステップS4、S7〜S10の処理は1つ
1つの誤認識文字について行われ、全ての誤認識が終了
するまで行われる(S11)。なお、ステップS4で誤
認識文字がなくなったが、上述のような学習の全てが終
了しないときは、(S5)、別の個人学習用用紙に記入
して(S6)、ステップS2〜S4、S7〜S10を繰
り返す。
When the management table is created in this way,
The recognition processing unit 5 performs the recognition process again with the erroneously recognized corrected image, and performs correct recognition by referring to the management table (S10). The processing of steps S4 and S7 to S10 is performed for each erroneously recognized character, and is performed until all erroneous recognitions are completed (S11). In addition, when the misrecognized character disappears in step S4, but all of the learning as described above is not completed (S5), it is filled in on another personal learning sheet (S6), and steps S2 to S4 and S7 are performed. ~ Repeat S10.

【0041】以上の状態が管理テーブルにより個人の癖
字などを正しく認識できるようになった状態である。こ
のままでも認識精度は向上するが、追加学習により認識
処理部5から直接(管理テーブル等を用いず)正しい候
補文字を出力するようにする。管理テーブルにより正し
い認識はできるので、この追加学習は管理テーブル作成
後、直ちに行わなくても任意の時に行えばよい。なお、
追加学習自体は公知の技術である。認識処理部5は管理
テーブルや、この管理テーブルでアドレス付けした切り
出し画像などの学習結果を認識データ・イメージ格納メ
モリ10またはICカードから吸い上げる(S12)。
この吸い上げた切り出し画像より特徴の抽出を行い(S
13)、認識アルゴリズムに、この特徴を反映させ(S
14)、追加学習を終了する。
The above-mentioned state is the state in which the habit character of an individual can be correctly recognized by the management table. Although the recognition accuracy is improved if this is left as is, the correct candidate character is output directly (without using a management table or the like) from the recognition processing unit 5 by additional learning. Since correct recognition can be performed using the management table, this additional learning need not be performed immediately after the management table is created, but may be performed at any time. In addition,
The additional learning itself is a known technique. The recognition processing unit 5 sucks up the learning result such as the management table and the cut-out image addressed in the management table from the recognition data / image storage memory 10 or the IC card (S12).
Features are extracted from the extracted clipped image (S
13) reflect this feature in the recognition algorithm (S
14) and the additional learning ends.

【0042】[0042]

【発明の効果】以上の説明より明らかなように、本発明
は、読み取った文字を認識して表示すると、誤認識であ
れば、文字記入者などにより訂正されるので、誤認識し
た文字とその訂正文字およびその文字の切り出し画像を
含む訂正情報を管理格納することにより、これを用いて
追加学習しなくても認識精度を向上することができる。
この訂正情報をICカード等の外部記憶手段に格納し、
端末OCR装置と着脱可能に接続できるようにすること
により、接続した時はICカードの所有者の専門装置と
することができる。また、この訂正情報を用いて追加学
習を行うことができ、特に個人の認識精度を向上するこ
とができる。なお、ICカード等の外部記憶手段を用い
ることにより、他の端末OCR装置に対しても追加学習
を行うことができる。個人の訂正情報を個人学習用用紙
を用いることにより集中的に収集することができ、この
訂正情報を用いて追加学習を行うことができる。また、
認識プログラムがソフトウェア化されROM化等なされ
ている場合でも追加学習を容易に行える。本発明の認識
用アルゴリズムはニューロン用やベクトル距離計算用な
どのアルゴリズムに限定することなくどのような認識ア
ルゴリズムにも適用可能である。また本発明は、訂正さ
れた文字に対応する切り出した画像のみ格納しておけば
よいので、メモリ量が少なくてすむ。なお、認識した文
字をホストコンピュータに転送することができるが、誤
認識した文字の訂正情報も転送し、ホストコンピュータ
でこの訂正情報に基づき認識処理をさせることもでき
る。以上のように本発明は個人の誤認識データに基づい
て正しい認識を行えるようにしたので、個人の認識精度
は格段に向上する。
As is apparent from the above description, according to the present invention, when a read character is recognized and displayed, if the character is erroneously recognized, the character writer or the like corrects it. By managing and storing the correction information including the correction character and the cut-out image of the character, the recognition accuracy can be improved without using this and additional learning.
This correction information is stored in an external storage means such as an IC card,
By enabling detachable connection with the terminal OCR device, when the connection is established, the device can be specialized by the owner of the IC card. In addition, it is possible to perform additional learning by using this correction information, and in particular, it is possible to improve the recognition accuracy of an individual. By using an external storage means such as an IC card, additional learning can be performed for other terminal OCR devices. The correction information of an individual can be intensively collected by using a sheet for individual learning, and additional learning can be performed using this correction information. Also,
Even if the recognition program is implemented as software or ROM, additional learning can be easily performed. The recognition algorithm of the present invention can be applied to any recognition algorithm without being limited to the algorithm for neuron or the vector distance calculation. Further, according to the present invention, since only the cut-out image corresponding to the corrected character needs to be stored, the memory amount can be small. Although the recognized character can be transferred to the host computer, the correction information of the erroneously recognized character can also be transferred and the host computer can perform the recognition processing based on this correction information. As described above, according to the present invention, the correct recognition can be performed based on the erroneous recognition data of the individual, so that the recognition accuracy of the individual is significantly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an embodiment of the present invention.

【図2】文字認識の詳細処理を示すブロック図FIG. 2 is a block diagram showing detailed processing of character recognition.

【図3】認識データ・イメージ格納メモリ内に作成され
る管理テーブルを示す図
FIG. 3 is a diagram showing a management table created in a recognition data / image storage memory.

【図4】個人情報を多量に集中的に収集し、追加学習す
るフロー図
[Fig. 4] Flow chart for intensively collecting a large amount of personal information and performing additional learning.

【図5】従来の文字認識処理フロー図FIG. 5: Conventional character recognition processing flow chart

【符号の説明】[Explanation of symbols]

1 原稿読み取り部 2 信号処理部 3 画像蓄積メモリ 4 切り出し処理部 5 認識処理部 6 候補文字選択部 7 表示部、ディスプレー 8 キーボード 9 表示/訂正変換処理部 10 認識データ・イメージ格納メモリ 11 ICメモリカード 12 通信ユニット 13 回線 1 Document Reading Section 2 Signal Processing Section 3 Image Storage Memory 4 Cutout Processing Section 5 Recognition Processing Section 6 Candidate Character Selection Section 7 Display Section, Display 8 Keyboard 9 Display / Correction Conversion Processing Section 10 Recognition Data / Image Storage Memory 11 IC Memory Card 12 communication units 13 lines

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 文字を読み取り、読み取った文字画像の
文字をその特徴により認識する情報よりなる認識辞書に
基づいて文字認識を行い、この認識結果を表示し、この
表示された認識文字を訂正されたときには、訂正された
文字とその文字の文字画像とを対応づけて格納し、この
格納された文字画像の特徴を抽出して前記文字認識辞書
に追加することを特徴とする文字認識辞書追加方法。
1. A character is read based on a recognition dictionary composed of information for reading a character and a character of the read character image according to its characteristics, displaying the recognition result, and correcting the displayed recognized character. In this case, the corrected character and the character image of the character are stored in association with each other, and the characteristic of the stored character image is extracted and added to the character recognition dictionary. .
【請求項2】 個人の手書き文字が記入されている個人
学習用紙を読み取り、読み取った文字画像の文字をその
特徴により認識する情報よりなる認識辞書に基づいて認
識を行い、この認識結果を表示し、この表示された認識
文字を訂正されたときには、訂正された文字とその文字
の文字画像とを対応づけて格納し、この格納された文字
画像の特徴を抽出して前記文字認識辞書に追加すること
を特徴とする文字認識辞書追加方法。
2. A personal learning paper on which personal handwritten characters are written is read, recognition is performed based on a recognition dictionary composed of information for recognizing the characters of the read character image according to their characteristics, and the recognition result is displayed. When the displayed recognition character is corrected, the corrected character and the character image of the character are stored in association with each other, and the characteristic of the stored character image is extracted and added to the character recognition dictionary. A method for adding a character recognition dictionary characterized by the above.
【請求項3】 文字を読み取る読取手段と、読み取られ
た文字画像の文字をその特徴により認識する情報よりな
る文字認識辞書を格納した認識辞書格納手段と、前記読
取手段で読み取った文字画像を前記文字認識辞書に基づ
いて文字を認識する認識手段と、この認識文字を表示す
る表示手段と、この表示された認識文字が誤っている時
訂正する訂正手段と、この文字情報と文字画像を対応し
て管理し格納する管理格納手段と、この管理格納手段に
格納された文字画像の特徴を抽出する特徴抽出手段と、
この特徴抽出手段で抽出した特徴を文字認識情報として
前記文字認識辞書に追加する制御手段とを具備する端末
OCR装置。
3. A reading means for reading a character, a recognition dictionary storing means for storing a character recognition dictionary composed of information for recognizing a character of a read character image according to its characteristics, and a character image read by the reading means. The recognition means for recognizing a character based on the character recognition dictionary, the display means for displaying the recognized character, the correction means for correcting when the displayed recognized character is incorrect, and the character information and the character image are associated with each other. Management storing means for managing and storing by means of the above, feature extracting means for extracting features of the character image stored in this managing storing means,
A terminal OCR device comprising: a control unit that adds the features extracted by the feature extraction unit as character recognition information to the character recognition dictionary.
【請求項4】 前記管理格納手段には外部記憶手段が着
脱可能に接続でき、この外部記憶手段には前記訂正文字
情報とその文字画像が対応して管理され格納されている
ことを特徴とする請求項3記載の端末OCR装置。
4. An external storage means can be detachably connected to the management storage means, and the corrected character information and its character image are managed and stored in correspondence with each other in the external storage means. The terminal OCR device according to claim 3.
【請求項5】 前記外部記憶手段には個人毎の訂正文字
情報とその文字画像が個人の識別番号と共に格納され識
別番号を入力するとこの識別番号に対応した前記訂正文
字情報とその文字画像が参照されることを特徴とする請
求項4記載の端末OCR装置。
5. The corrected character information for each individual and the character image thereof are stored together with an identification number of the individual in the external storage means, and when the identification number is input, the corrected character information corresponding to the identification number and the character image are referred to. The terminal OCR device according to claim 4, wherein
JP7242884A 1995-09-21 1995-09-21 Character recognition dictionary adding method and terminal ocr device using same Pending JPH0991385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7242884A JPH0991385A (en) 1995-09-21 1995-09-21 Character recognition dictionary adding method and terminal ocr device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7242884A JPH0991385A (en) 1995-09-21 1995-09-21 Character recognition dictionary adding method and terminal ocr device using same

Publications (1)

Publication Number Publication Date
JPH0991385A true JPH0991385A (en) 1997-04-04

Family

ID=17095673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7242884A Pending JPH0991385A (en) 1995-09-21 1995-09-21 Character recognition dictionary adding method and terminal ocr device using same

Country Status (1)

Country Link
JP (1) JPH0991385A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545807A (en) * 2006-07-31 2009-12-24 マイクロソフト コーポレーション 2-step text recognition
JP2013238999A (en) * 2012-05-15 2013-11-28 Fuji Xerox Co Ltd Image processing device and image processing program
JP2015170037A (en) * 2014-03-05 2015-09-28 株式会社東芝 Address database construction device, address database construction system, and address database construction method
KR20190111467A (en) * 2018-03-23 2019-10-02 주식회사 페이크럭스컴퍼니 Kiosk apparatus for event process
US11200450B2 (en) 2019-04-17 2021-12-14 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium for selecting a proper version of a recognition dictionary that is not necessarily a latest version

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545807A (en) * 2006-07-31 2009-12-24 マイクロソフト コーポレーション 2-step text recognition
JP2013238999A (en) * 2012-05-15 2013-11-28 Fuji Xerox Co Ltd Image processing device and image processing program
JP2015170037A (en) * 2014-03-05 2015-09-28 株式会社東芝 Address database construction device, address database construction system, and address database construction method
KR20190111467A (en) * 2018-03-23 2019-10-02 주식회사 페이크럭스컴퍼니 Kiosk apparatus for event process
US11200450B2 (en) 2019-04-17 2021-12-14 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium for selecting a proper version of a recognition dictionary that is not necessarily a latest version

Similar Documents

Publication Publication Date Title
JP3345224B2 (en) Pattern extraction device, pattern re-recognition table creation device, and pattern recognition device
JP2713622B2 (en) Tabular document reader
JP3294995B2 (en) Form reader
JPH07200732A (en) Word-object extraction method and noise removable method in raster image
JP2000293626A (en) Method and device for recognizing character and storage medium
JPH0991385A (en) Character recognition dictionary adding method and terminal ocr device using same
US11361529B2 (en) Information processing apparatus and non-transitory computer readable medium
JPH10171920A (en) Method and device for character recognition, and its recording medium
JPH10207981A (en) Document recognition method
JPH0728935A (en) Document image processor
JP3276554B2 (en) Format recognition device and character reader
US20220012481A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP3954247B2 (en) Document input method, recording medium recording document input program, and document input device
JP4224914B2 (en) Character reading system and character reading method
JP2931485B2 (en) Character extraction device and method
JP2000331117A (en) Document reading system
JPS5972577A (en) Drawing reader
TW294804B (en) Print/hand-written Chinese/English form recognition method
JP2539026B2 (en) Character extraction device
JPS62295192A (en) Optical character image reader
JP3138665B2 (en) Handwritten character recognition method and recording medium
JP2972443B2 (en) Character recognition device
JP4304920B2 (en) Character string recognition device and its program
CN112446273A (en) Information processing apparatus and storage medium
JPS60150190A (en) Character recognizing method