JP2002279354A - Character recognition device and method, and recording medium - Google Patents

Character recognition device and method, and recording medium

Info

Publication number
JP2002279354A
JP2002279354A JP2001077281A JP2001077281A JP2002279354A JP 2002279354 A JP2002279354 A JP 2002279354A JP 2001077281 A JP2001077281 A JP 2001077281A JP 2001077281 A JP2001077281 A JP 2001077281A JP 2002279354 A JP2002279354 A JP 2002279354A
Authority
JP
Japan
Prior art keywords
character
character recognition
unit
word
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001077281A
Other languages
Japanese (ja)
Inventor
Koichi Inoue
浩一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001077281A priority Critical patent/JP2002279354A/en
Publication of JP2002279354A publication Critical patent/JP2002279354A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character recognition device which improves the efficiency of postprocessing by incorporating a special region, having a possibility of performing an erroneous correction in a language processing in an object of the language processing in a natural form. SOLUTION: A user designates a part of speech, to which the information included in a prescribed partial region belongs, by collating to the surrounding context. This character recognition device 100 obtains the correct word column in the language, based on a speech part connection relation and the information designated by the user from the multiple word columns obtained by connecting search results acquired, by searching a word lists with each word set to a starting word, using a single or multiple candidate characters for each character and corrects the character recognition result, corresponding to the result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、文字認識装置、そ
の方法および記録媒体に関し、特に、文字認識処理の後
処理に係り、光学的文字認識装置に好適に適用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition apparatus, a method thereof, and a recording medium, and more particularly to a post-processing of character recognition processing, which is suitably applied to an optical character recognition apparatus.

【0002】[0002]

【従来の技術】スキャナ等から計算機に取り込んだ文書
画像データ中の文字画像を識別し、文字コードとして出
力する光学的文字読取(OCR)ソフトウェアは、近年
非常に広範囲に用いられている。これは、文字コードと
して電子データ化した情報は紙ベースのものや画像デー
タと比較して、再利用が容易であって、保管や交換も効
率的に行えるというメリットを持つためである。しかし
ながら、文字認識においては、文字画像からの1文字単
位の認識では誤認識を完全に排除することはきわめて困
難である。このため後処理として、文字認識された結果
の文字列に対して、言語的制約を与えて候補の選択を行
ったり、単語照合や形態素解析等により自動的に修正す
ることが行われることが多い。この方法は多くの誤りを
除去できるが、適用の仕方によっては誤訂正のために新
たな誤りを作り出す場合もある。特に、文中に数式等が
存在してその前後の接続関係が崩れるような場合、この
ような誤りを起こしやすい。また、この修正によって1
00%修正されるわけではないため、他の文字切り出し
方法による認識結果と比較して、確信度の高い認識結果
を採用したり(例えば、特開平9−274645号公報
参照)、各文字に確信度を付与してユーザへ通知して、
ユーザに修正を任せたりしている。例えば、文字認識の
後処理方法として、特開平5−40853号公報の技術
は、文字認識結果の各単語に対して候補単語の作成と確
信度の算出を行い、その確信度が大きな単語との文法的
関係を用いて確信度の小さな単語の認識結果を修正する
ものである。確信度の計算としては、例えば、特開平9
−134410号公報の技術のように、確信度計算に先
立つ言語処理や単語の表記長、品詞、出現頻度、前接す
る語との接続の強度等のパラメータを合成して算出して
いる。
2. Description of the Related Art Optical character reading (OCR) software for identifying a character image in document image data taken into a computer from a scanner or the like and outputting it as a character code has been widely used in recent years. This is because information that has been converted into electronic data as a character code has the advantage that it can be easily reused and stored and exchanged more efficiently than paper-based information and image data. However, in character recognition, it is extremely difficult to completely eliminate erroneous recognition by character-by-character recognition from a character image. For this reason, as a post-processing, a character string resulting from character recognition is often subjected to linguistic constraints to select a candidate, or automatically corrected by word matching, morphological analysis, or the like. . Although this method can eliminate many errors, depending on how it is applied, it may create new errors due to erroneous correction. In particular, when a mathematical expression or the like is present in a sentence and the connection relationship before and after the expression is broken, such an error is likely to occur. In addition, this modification
Since it is not corrected by 00%, a recognition result having a higher degree of certainty as compared with a recognition result by another character segmentation method is employed (for example, see Japanese Patent Application Laid-Open No. 9-274645), Notify the user by giving a degree,
Or leave it to the user to fix it. For example, as a post-processing method of character recognition, the technology disclosed in Japanese Patent Application Laid-Open No. 5-40853 creates candidate words and calculates certainty for each word of the character recognition result, and determines whether or not the word has a large certainty. It corrects the recognition result of a word with low certainty using grammatical relations. As the calculation of the certainty factor, for example,
As in the technique of Japanese Patent Application Publication No. 134410, the calculation is performed by synthesizing parameters such as linguistic processing prior to certainty factor calculation, word notation length, part of speech, appearance frequency, and connection strength with the preceding word.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、文字認
識の後処理として単語辞書、文法知識を用いて言語処理
を行うと、多くの誤りを訂正できる代わりに、認識不能
と分かっている領域、文法的に特殊な領域までが処理の
対象となり、周囲の補正に悪影響を与えることになって
しまう。例えば、認識対象文書中に明らかに意図的に文
法的誤りがある場合や、認識対象外の文字種を含む領域
が行内に文の一部として用いられる(例えば、図3のよ
うに数式等を含む)ような場合、その前後で誤った修正
が行われてしまった。さらに、単にその領域を処理対象
から外してしまうと、その含まれる文を分断することに
なり、処理結果の改善は期待できないことになってしま
う。また、従来の技術における確信度算出では、品詞間
の連接可能性を用いているが、そのパラメータは予め多
くの学習用文書から求めるが、認識対象文書の中には明
らかに文法的に特殊であり、統計的性質が局所的に異な
るものが存在するため、それらについて通常の評価を行
うだけでは適切なパラメータの学習データは得られず、
それから求められる確信度も信憑性のないものとなって
おり、ひいては認識結果の誤訂正を招くこととなってい
る。また、確信度の算出に文法的妥当性を用いる場合、
すべての場合に同一のルールを用いると、特殊な文法的
性質を持つ対象に対しては誤って妥当でない確信度を割
り当ててしまうことがあった。本発明は、上記の問題点
を解決するために、言語処理で誤った修正が行われそう
な特殊な領域を自然な形で言語処理の対象に組み込むこ
とによって、後処理の効率を向上させる文字認識装置、
その方法および記録媒体を提供することを目的とする。
However, if linguistic processing is performed using a word dictionary and grammatical knowledge as post-processing of character recognition, many errors can be corrected, but regions that are known to be unrecognizable, grammatical In this case, even a special area is subject to processing, which adversely affects surrounding correction. For example, when there is a clear intentional grammatical error in the document to be recognized, or a region including a character type that is not recognized is used as a part of a sentence in a line (for example, a region including a mathematical expression as shown in FIG. In such cases, incorrect corrections were made before and after. Further, if the area is simply excluded from the processing target, the sentence included therein is divided, and improvement in the processing result cannot be expected. In addition, in the calculation of the certainty factor in the conventional technology, the possibility of concatenation between parts of speech is used, and its parameter is obtained in advance from many learning documents. Yes, there are local differences in statistical properties, so just performing a normal evaluation on them does not provide training data for appropriate parameters.
The degree of certainty required thereafter is also unreliable, leading to erroneous correction of the recognition result. Also, when using grammatical validity to calculate confidence,
If the same rule was used in all cases, objects with special grammatical properties could be incorrectly assigned uncertainty. The present invention solves the above problem by incorporating a special area that is likely to be erroneously corrected in language processing into a language processing target in a natural manner, thereby improving the efficiency of post-processing. Recognition device,
It is an object to provide a method and a recording medium.

【0004】[0004]

【課題を解決するための手段】上記の問題を解決するた
めに、本発明の請求項1の文字認識装置は、入力された
画像中の文字画像に対して文字認識処理を行う文字認識
装置において、前記画像中の特定の画像領域に対する品
詞情報を指定する品詞指定部と、前記画像中の文字画像
の文字認識を行う文字認識部と、前記文字認識部から得
た文字認識候補を言語辞書と前記品詞指定部で指定され
た品詞情報に基づいて言語解析して言語的に正しい単語
列を得る単語パス選択部と、前記単語パス選択部で得た
結果に応じて文字認識結果を修正する認識候補修正部と
を備えたことを特徴とする。また、本発明の請求項2の
文字認識装置は、請求項1に記載の文字認識装置におい
て、前記品詞指定部は、指定された特定の画像領域の外
側の文脈に照らして、この画像領域が取りうる品詞情報
と、この画像領域内の言語解析用の言語辞書とを指定
し、前記パス選択部は、前記品詞指定部で指定された特
定の画像領域の外部では、指定された品詞情報を用いて
言語解析を行い、この特定の画像領域の内部では指定さ
れた言語辞書を用いて言語解析することを特徴とする。
また、本発明の請求項3の文字認識装置は、請求項1に
記載の文字認識装置において、前記品詞指定部では、前
記画像中の特定の画像領域が文字認識対象外の領域とし
て指定されたとき、前記文字認識部は、この特定の画像
領域の文字認識処理をせず、前記パス選択部は、この特
定の画像領域に前記品詞指定部で指定された品詞情報の
単語があるものとして単語パスの選択を行うことを特徴
とする。また、本発明の請求項4の文字認識装置は、請
求項3に記載の文字認識装置において、前記認識候補修
正部で得た認識結果の文字列を出力するとき、前記品詞
指定部で文字認識対象外と指定された画像領域の替わり
に、この画像データへのリンク情報とする結果出力部を
備えたことを特徴とする。また、本発明の請求項5の文
字認識装置は、請求項1乃至請求項4のいずれかひとつ
に記載の文字認識装置において、前記認識候補修正部で
得た文字認識結果がユーザの所望する認識結果かどうか
を指定させ、所望の結果でない画像中の特定の画像領域
に対して、周囲の文脈に照らして言語的に正しくなるよ
うに品詞情報を指示させ、この品詞情報により前記単語
パス選択部および前記認識候補修正部を再度行う結果出
力部を設けたことを特徴とする。
According to a first aspect of the present invention, there is provided a character recognition apparatus for performing a character recognition process on a character image in an input image. A part-of-speech designation unit that designates part-of-speech information for a specific image region in the image, a character recognition unit that performs character recognition of a character image in the image, and a language dictionary that stores character recognition candidates obtained from the character recognition unit. A word path selecting unit that obtains a linguistically correct word string by performing language analysis based on the part of speech information specified by the part of speech specifying unit; and a recognition unit that corrects a character recognition result according to the result obtained by the word path selecting unit. A candidate correction unit. According to a second aspect of the present invention, there is provided the character recognition apparatus according to the first aspect, wherein the part-of-speech designation unit is configured such that the image area is determined based on a context outside the specified specific image area. The part-of-speech information that can be taken and the language dictionary for language analysis in this image area are specified, and the path selection unit outputs the specified part-of-speech information outside the specific image area specified by the part-of-speech specification unit. Language analysis using the specified language dictionary within the specific image area.
According to a third aspect of the present invention, in the character recognition apparatus according to the first aspect, in the part of speech designation unit, a specific image area in the image is designated as a non-character recognition area. When the character recognizing unit does not perform the character recognizing process on the specific image area, the path selecting unit determines that the word of the part of speech information specified by the part of speech specifying unit is present in the specific image area. It is characterized in that a path is selected. According to a fourth aspect of the present invention, in the character recognition apparatus according to the third aspect, when outputting the character string of the recognition result obtained by the recognition candidate correction unit, the part of speech designation unit performs the character recognition. It is characterized in that a result output unit is provided as link information to this image data, instead of the image area designated as non-target. According to a fifth aspect of the present invention, there is provided the character recognition apparatus according to any one of the first to fourth aspects, wherein the character recognition result obtained by the recognition candidate correction unit is a recognition desired by the user. The part-of-speech information is specified so as to be linguistically correct in a specific image area in an image that is not the desired result in light of the surrounding context. And a result output unit for performing the recognition candidate correction unit again.

【0005】また、本発明の請求項6の文字認識方法
は、入力された画像中の文字画像に対して文字認識処理
を行う文字認識方法において、前記画像中の特定の画像
領域に対する品詞情報を指定する品詞指定工程と、前記
画像中の文字画像の文字認識を行う文字認識工程と、前
記文字認識工程から得た文字認識候補を言語辞書と前記
品詞指定工程で指定された品詞情報に基づいて言語解析
して言語的に正しい単語列を得る単語パス選択工程と、
前記単語パス選択工程で得た結果に応じて文字認識結果
を修正する認識候補修正工程とを備えたことを特徴とす
る。また、本発明の請求項7の記録媒体は、コンピュー
タを、入力された画像中の文字画像に対して文字認識処
理を行う文字認識装置として機能させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体であ
って、前記画像中の特定の画像領域に対する品詞情報を
指定する品詞指定部と、前記画像中の文字画像の文字認
識を行う文字認識部と、前記文字認識部から得た文字認
識候補を言語辞書と前記品詞指定部で指定された品詞情
報に基づいて言語解析して言語的に正しい単語列を得る
単語パス選択部と、前記単語パス選択部で得た結果に応
じて文字認識結果を修正する認識候補修正部とを備えた
文字認識プログラムを記録した。また、本発明の請求項
8の文字認識装置は、入力された画像中の文字画像に対
して文字認識処理を行う文字認識装置において、前記画
像中の文字画像の文字認識を行う文字認識部と、前記文
字認識部から得た文字認識候補を言語辞書に基づいて言
語解析して言語的に正しい単語列を得る単語パス選択部
と、前記単語パス選択部で得た結果に応じて文字認識結
果を修正する認識候補修正部と、前記認識候補修正部で
修正後の各文字に対する認識結果の確からしさを計算す
る確信度算出部とを備え、前記確信度算出部は、確信度
を求める文字が含まれている前記単語パス中の単語の語
順が特定の順序のとき、その順序に応じて確信度を修正
することを特徴とする。
According to a sixth aspect of the present invention, there is provided a character recognition method for performing a character recognition process on a character image in an input image, wherein the part-of-speech information for a specific image area in the image is obtained. A part of speech designation step of designating, a character recognition step of performing character recognition of a character image in the image, and a character recognition candidate obtained from the character recognition step based on a language dictionary and the part of speech information specified in the part of speech designation step. A word path selection step of performing a linguistic analysis to obtain a linguistically correct word string;
A recognition candidate correcting step of correcting a character recognition result according to a result obtained in the word path selecting step. The recording medium according to claim 7 of the present invention is a computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs a character recognition process on a character image in an input image. A part-of-speech specifying unit that specifies part-of-speech information for a specific image region in the image, a character recognition unit that performs character recognition of a character image in the image, and a character recognition candidate obtained from the character recognition unit. A word path selecting unit that obtains a linguistically correct word string by performing language analysis based on the language dictionary and the part of speech information specified by the part of speech specifying unit; and a character recognition result according to the result obtained by the word path selecting unit. A character recognition program including a recognition candidate correction unit to be corrected was recorded. According to another aspect of the present invention, there is provided a character recognition device for performing a character recognition process on a character image in an input image, wherein the character recognition unit performs character recognition on the character image in the image. A word path selecting unit that obtains a linguistically correct word string by linguistically analyzing a character recognition candidate obtained from the character recognizing unit based on a language dictionary; and a character recognition result according to the result obtained by the word path selecting unit. A recognition candidate correction unit that corrects, and a confidence calculation unit that calculates the likelihood of a recognition result for each character corrected by the recognition candidate correction unit. When the word order of the included words in the word path is a specific order, the certainty factor is corrected according to the order.

【0006】また、本発明の請求項9の文字認識装置
は、請求項8に記載の文字認識装置において、前記確信
度算出部は、前記単語の語順が単語の品詞によって作ら
れる品詞列であって、その品詞列の接続可能性によって
確信度を修正することを特徴とする。また、本発明の請
求項10の文字認識装置は、請求項9に記載の文字認識
装置において、前記確信度算出部の前記品詞列の接続可
能性は、その品詞列に未知語が多い場合には、確信度を
求める文字の属する単語の単語長よりも認識時の候補順
位を重視して確信度を修正することを特徴とする。ま
た、本発明の請求項11の文字認識装置は、請求項9に
記載の文字認識装置において、前記確信度算出部の前記
品詞列の接続可能性は、その品詞列に同種の固有名詞が
連続している場合には、通常の名詞の連接よりも接続可
能性を重視して確信度を修正することを特徴とする。ま
た、本発明の請求項12の文字認識方法は、入力された
画像中の文字画像に対して文字認識処理を行う文字認識
方法において、前記画像中の文字画像の文字認識を行う
文字認識工程と、前記文字認識工程から得た文字認識候
補を言語辞書に基づいて言語解析して言語的に正しい単
語列を得る単語パス選択工程と、前記単語パス選択工程
で得た結果に応じて文字認識結果を修正する認識候補修
正工程と、前記認識候補修正工程で修正後の各文字に対
する認識結果の確からしさを計算する確信度算出工程と
を備え、前記確信度算出工程は、確信度を求める文字が
含まれている前記単語パス中の単語の語順が特定の順序
のとき、その順序に応じて確信度を修正することを特徴
とする。
According to a ninth aspect of the present invention, in the character recognition apparatus according to the eighth aspect, the certainty factor calculating unit determines that the word order of the word is a part-of-speech sequence formed by the word part of the word. Then, the degree of certainty is corrected based on the connection possibility of the part of speech sequence. Further, in the character recognition device according to claim 10 of the present invention, in the character recognition device according to claim 9, the connection possibility of the part-of-speech sequence of the certainty factor calculation unit is determined when there are many unknown words in the part-of-speech sequence. Is characterized in that the degree of certainty is corrected by giving more importance to the candidate rank at the time of recognition than the word length of the word to which the character for which the degree of certainty is sought belongs. Further, in the character recognition device according to claim 11 of the present invention, in the character recognition device according to claim 9, the connectability of the part-of-speech sequence of the certainty factor calculating unit is such that a proper noun of the same type is consecutive in the part-of-speech sequence. If so, the certainty is modified with an emphasis on the possibility of connection rather than the normal noun concatenation. In a character recognition method according to a twelfth aspect of the present invention, in the character recognition method for performing a character recognition process on a character image in an input image, a character recognition step for performing character recognition of a character image in the image is provided. A word path selection step of linguistically analyzing a character recognition candidate obtained from the character recognition step based on a language dictionary to obtain a linguistically correct word string; and a character recognition result according to the result obtained in the word path selection step. And a confidence calculation step of calculating the likelihood of the recognition result for each character corrected in the recognition candidate correction step. When the word order of the included words in the word path is a specific order, the certainty factor is corrected according to the order.

【0007】また、本発明の請求項13の記録媒体は、
コンピュータを、入力された画像中の文字画像に対して
文字認識処理を行う文字認識装置として機能させるため
のプログラムを記録したコンピュータ読み取り可能な記
録媒体であって、前記画像中の文字画像の文字認識を行
う文字認識部と、前記文字認識部から得た文字認識候補
を言語辞書に基づいて言語解析して言語的に正しい単語
列を得る単語パス選択部と、前記単語パス選択部で得た
結果に応じて文字認識結果を修正する認識候補修正部
と、前記認識候補修正部で修正後の各文字に対する認識
結果の確からしさを計算する確信度算出部とを備え、前
記確信度算出部は、確信度を求める文字が含まれている
前記単語パス中の単語の語順が特定の順序のとき、その
順序に応じて確信度を修正する機能の文字認識プログラ
ムを記録した。また、本発明の請求項14の文字認識装
置は、入力された画像中の文字画像に対して文字認識処
理を行う文字認識装置において、前記画像中の特定の画
像領域に対する品詞情報を指定する品詞指定部と、前記
画像中の文字画像の文字認識を行う文字認識部と、前記
文字認識部から得た文字認識候補を言語辞書と前記品詞
指定部で指定された品詞情報に基づいて言語解析して言
語的に正しい単語列を得る単語パス選択部と、前記単語
パス選択部で得た結果に応じて文字認識結果を修正する
認識候補修正部と、前記認識候補修正部で修正後の各文
字に対する認識結果の確からしさを計算する確信度算出
部とを備え、前記確信度算出部は、確信度を求める文字
が含まれている前記単語パス中の単語の語順が特定の順
序のとき、その順序に応じて確信度を修正することを特
徴とする。
A recording medium according to a thirteenth aspect of the present invention comprises:
A computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs a character recognition process on a character image in an input image, wherein the computer recognizes a character image in the image. A character recognition unit that performs the following, a word path selection unit that obtains a linguistically correct word string by performing a linguistic analysis of the character recognition candidates obtained from the character recognition unit based on a language dictionary, and a result obtained by the word path selection unit. A recognition candidate correction unit that corrects the character recognition result in accordance with, and a confidence calculation unit that calculates the likelihood of the recognition result for each character corrected by the recognition candidate correction unit.The confidence calculation unit includes: When the word order of the words in the word path including the character for which the certainty is required is a specific order, a character recognition program having a function of correcting the certainty according to the specific order is recorded. A character recognition device according to a fourteenth aspect of the present invention is a character recognition device that performs a character recognition process on a character image in an input image, wherein the part of speech specifies a part of speech information for a specific image area in the image. A designation unit, a character recognition unit that performs character recognition of a character image in the image, and a language analysis of the character recognition candidates obtained from the character recognition unit based on the language dictionary and the part of speech information specified by the part of speech designation unit. A word path selecting unit that obtains a linguistically correct word string, a recognition candidate correcting unit that corrects a character recognition result according to the result obtained by the word path selecting unit, and each character corrected by the recognition candidate correcting unit. A certainty factor calculating unit that calculates the certainty of the recognition result for the, the certainty factor calculating unit, when the word order of the word in the word path includes a character for which certainty is required, when the word order is a specific order, Convinced according to the order Characterized by modifying the.

【0008】[0008]

【発明の実施の形態】以下に、図面を用いて本発明の実
施の形態の構成および動作を詳細に述べる。 <実施例1> (1)実施例1の構成 図1は、本発明の実施例1の文字認識装置の構成を示す
ブロック図である。本発明の実施例1の文字認識装置1
00は、制御部10、画像入力部20、品詞指定部3
0、文字認識部40、単語パス選択部50、認識候補修
正部60、結果出力部80、原画像記憶部25、特殊領
域記憶部35、認識辞書45、認識結果記憶部55、言
語辞書65から構成されている。制御部10は、スキャ
ナやファイルからの画像を読取り、画像情報から文字認
識し、最終結果である認識結果を出力するまでの全体を
制御する。画像入力部20は、スキャナやファイルから
の画像を読取り、その画像データを原画像記憶部25へ
格納する。品詞指定部30は、原画像記憶部25に記憶
された一部または全部をディスプレイ等の画像表示装置
に表示させ、ユーザが特定の領域(認識対象ではあるが
文法的に特殊でそのままではおかしな言語処理をされて
しまうような領域、例えば、口語文体の文章中に文語文
が挿入されている場合)または認識対象ではない領域
(例えば、日本語活字OCRでは手書き文字、英語筆記体
または数式等が文章内に混在する場合、この部分の画像
領域)を指定し、その領域に付与する品詞情報を選択
(この領域の内容に合せた言語辞書を選択し、その辞書
内の品詞も選択する)する。例えば、図3のような数式
を含んだ日本語文の場合、数式のところを名詞として扱
うことで、領域の認識処理を省きながら、周辺を含めた
適正な言語処理ができる。これらの指定された情報は、
図2のようなデータ構造もった特殊領域記憶部35へ格
納する。このデータ構造は、各領域番号を示すラベル番
号、領域の始点と終点の座標値、この領域外の文字列を
単語分けするときに用いる品詞情報、この領域内の文字
列に対して単語分けに使われる言語辞書、およびこの領
域が認識非対象文字であるかどうかを示す情報とからな
っている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The construction and operation of an embodiment of the present invention will be described below in detail with reference to the drawings. First Embodiment (1) Configuration of First Embodiment FIG. 1 is a block diagram illustrating a configuration of a character recognition device according to a first embodiment of the present invention. Character recognition device 1 according to Embodiment 1 of the present invention
00 is the control unit 10, the image input unit 20, the part of speech designation unit 3
0, character recognition unit 40, word path selection unit 50, recognition candidate correction unit 60, result output unit 80, original image storage unit 25, special area storage unit 35, recognition dictionary 45, recognition result storage unit 55, and language dictionary 65 It is configured. The control unit 10 controls the entire process from reading an image from a scanner or a file, recognizing characters from the image information, and outputting a final recognition result. The image input unit 20 reads an image from a scanner or a file, and stores the image data in the original image storage unit 25. The part-of-speech designation unit 30 causes a part or all of the data stored in the original image storage unit 25 to be displayed on an image display device such as a display, and allows the user to specify a specific area (a recognition target but a grammatical language that is unnatural as it is). Areas that will be processed, for example, when a sentence is inserted in the spoken style text, or areas that are not recognized (for example, handwritten characters, English cursive or mathematical formulas in Japanese type OCR) If the part is mixed, the image area of this part) is designated, and the part of speech information to be given to the area is selected (a language dictionary matching the contents of this area is selected, and the part of speech in the dictionary is also selected). For example, in the case of a Japanese sentence including a mathematical expression as shown in FIG. 3, by treating the mathematical expression as a noun, appropriate language processing including surroundings can be performed while omitting region recognition processing. These specified information
The data is stored in the special area storage unit 35 having the data structure as shown in FIG. This data structure includes a label number indicating each area number, coordinate values of the start point and end point of the area, part of speech information used when word strings of characters outside this area are classified into words, and word division for character strings in this area. It is composed of a language dictionary to be used and information indicating whether or not this area is a non-recognized character.

【0009】文字認識部40は、原画像記憶部25に記
憶された画像情報から文字画像領域を判別し、その文字
領域から行を切り出し、切り出された行から文字を切り
出し、その文字部分を囲む矩形の対角座標値を抽出し、
その文字部分の大きさの正規化やノイズ(汚れ等)を除
去し、特徴量を計算し、その特徴量と標準パターンの認
識辞書45とからパターンマッチングを行い、1文字あ
たり単数または複数の認識候補文字とその順位、および
それらに対応する標準パターンとの距離値を認識結果記
憶部55へ記憶する。文字を切出す場合、特殊領域記憶
部35に記憶された特定の領域が認識非対象と指定され
ているときには、その領域は分割されず、文字認識も行
われない。認識辞書45は、文字ごとに文字コード、そ
の文字の標準パターンの特徴量等の情報を保持する。単
語パス選択部50は、各文字位置を開始点とする単語候
補を生成して言語辞書65の単語辞書を検索し、マッチ
した単語とその品詞情報を取り出し、処理対象領域の先
頭から候補単語を接続して単語パスを生成すると同時に
言語辞書65の品詞間接続コストテーブルを用いてその
単語パスのコストを計算する。この生成された単語パス
が一定数以下になるように、その単語パスのコストの高
い順に選択する。ここで、単語辞書から品詞情報を取り
出す際、特殊領域記憶部35に記憶された特定の領域で
品詞情報が指定されている場合には、指定された品詞以
外を無視してそれのみを使用する。また、特殊領域記憶
部35に記憶されている特定の領域内に対しては、品詞
情報に格納されている言語辞書に切り替えて単語分割を
行い、この領域内の単語パスを作成し、この領域外で作
成された単語パスに接続する。この領域を出たあとの領
域は、もとの言語辞書にもどして単語分割と単語パスを
作成し、特定の領域で作成された単語パスへ接続させ
る。
The character recognition section 40 determines a character image area from the image information stored in the original image storage section 25, cuts out a line from the character area, cuts out a character from the cut out line, and surrounds the character portion. Extract the diagonal coordinates of the rectangle,
Normalization of the size of the character portion and removal of noise (dirt, etc.), calculation of a feature amount, pattern matching from the feature amount and the standard pattern recognition dictionary 45, and recognition of one or more characters per character The recognition result storage unit 55 stores the candidate characters, their ranks, and the distance values between the candidate characters and the corresponding standard patterns. When a character is cut out, if a specific area stored in the special area storage unit 35 is designated as a non-recognition target, that area is not divided and character recognition is not performed. The recognition dictionary 45 holds information such as a character code for each character and a feature amount of a standard pattern of the character. The word path selection unit 50 generates word candidates starting from each character position, searches the word dictionary of the language dictionary 65, extracts matched words and their part of speech information, and extracts candidate words from the beginning of the processing target area. The cost of the word path is calculated using the part-of-speech connection cost table of the language dictionary 65 at the same time as the connection is made to generate the word path. The word paths are selected in descending order of cost so that the number of generated word paths is equal to or less than a certain number. Here, when the part-of-speech information is extracted from the word dictionary, if the part-of-speech information is specified in a specific area stored in the special area storage unit 35, only the part of speech specified is ignored, and only the part of speech is used. . Further, for a specific area stored in the special area storage unit 35, a word dictionary is switched by switching to a language dictionary stored in the part of speech information, and a word path in this area is created. Connect to an externally created word path. After leaving the area, the area is returned to the original language dictionary, word division and word paths are created, and connected to the word path created in the specific area.

【0010】言語辞書65は、単語の表記、よみ、品詞
等の情報を保持する単語辞書と、連接する単語の品詞が
接続可能かどうかを示す重みを保持する品詞間接続コス
トテーブルとからなっている。認識候補修正部60は、
もっともコストの小さい単語パスに基づいて認識候補文
字を修正し、認識結果記憶部55を更新する。結果出力
部80は、認識結果記憶部55に格納されている認識結
果をディスプレイ、プリンタまたはファイル等の出力装
置に結果を出力したり、ネットワークを介して他のコン
ピュータへ送信したりすることによってユーザへ結果を
提供する。この結果には、原画像データと対応させて認
識結果の文字を出力させたり、特殊領域記憶部35に記
憶された領域(認識非対象文字種領域)があるときに
は、この画像データとそれへのポインタをその位置に埋
め込んだハイパーテキストの組として出力する(例え
ば、HTML文書の表現では図4のようになる)。本発
明の文字認識装置を本実施例1のように構成すると、認
識対象領域中の指定した領域に対しては指定した品詞の
単語とみなして言語処理を行うため、言語処理による副
作用を軽減することができ、認識処理後の人手による訂
正コストを削減することできる。また、この指定した領
域が文字認識するには特殊な語や認識非対象文字種の領
域であることがユーザにわかっている場合に、その領域
に対応する品詞情報を入力することにより、言語処理の
効率化が行えると同時に、通常の言語処理に比べて誤訂
正が少なくなり、認識後の修正によるユーザの負担を軽
減することができる。さらに、この領域情報を用いて認
識結果を対応する画像データとハイパーテキストの組に
よって出力し、資料の管理を容易にすることができる。
The language dictionary 65 is composed of a word dictionary that holds information such as word notation, pronunciation, and part of speech, and a part-of-speech connection cost table that holds weights indicating whether or not the part of speech of connected words can be connected. I have. The recognition candidate correction unit 60
The recognition candidate character is corrected based on the word path with the smallest cost, and the recognition result storage unit 55 is updated. The result output unit 80 outputs the recognition result stored in the recognition result storage unit 55 to an output device such as a display, a printer, a file, or the like, or transmits the result to another computer via a network. To provide the results to. In this result, when the character of the recognition result is output in association with the original image data, or when there is an area (non-recognition target character type area) stored in the special area storage unit 35, this image data and a pointer to the image data are stored. Is output as a set of hypertexts embedded at that position (for example, as shown in FIG. 4 in the representation of an HTML document). When the character recognition device of the present invention is configured as in the first embodiment, language processing is performed on a specified area in a recognition target area as a word of a specified part of speech, thereby reducing side effects due to language processing. Thus, the cost of manual correction after the recognition processing can be reduced. Also, if the user knows that the specified area is a special word or a non-recognized character type area for character recognition, the part-of-speech information corresponding to that area is input to enable language processing. Efficiency can be improved, and erroneous correction is reduced as compared with normal language processing, so that the burden on the user due to correction after recognition can be reduced. Further, the recognition result is output as a set of the corresponding image data and the hypertext using the area information, thereby facilitating the management of the material.

【0011】(2)処理手順 図5は、本実施例の文字認識装置の処理手順を説明する
ためのフローチャートである。スキャナやファイルから
の画像を読取り、その画像データを原画像記憶部25へ
格納する(ステップS100)。これにより画像入力部
20を構成する。原画像記憶部25に記憶された一部ま
たは全部をディスプレイ等の画像表示装置に表示させ、
ユーザが特定の領域を指定し、その領域に付与する品詞
を選択し、その特定の領域を認識対象とするか、対象と
しないかも、併せて特殊領域記憶部35へ格納する(ス
テップS110)。これにより品詞指定部30を構成す
る。原画像記憶部25に記憶された画像情報から文字画
像領域を判別し、その文字領域から行を切り出す(ステ
ップS120)。この切り出された行から文字を切り出
し、その文字部分を囲む矩形の対角座標値を抽出し、そ
の文字部分の大きさの正規化やノイズ(汚れ等)を除去
する(ステップS130)。この文字を切出す場合、特
殊領域記憶部35に記憶された領域が認識非対象と指定
されているときには、その領域は分割されず、文字認識
も行わない。この切出された文字領域ごとに特徴量を計
算し、その特徴量と標準パターンの認識辞書45とから
パターンマッチングを行い、1文字あたり単数または複
数の認識候補文字とその順位、およびそれらに対応する
標準パターンとの距離値を認識結果記憶部55へ記憶す
る(ステップS140)。
(2) Processing Procedure FIG. 5 is a flowchart for explaining the processing procedure of the character recognition device of the present embodiment. An image from a scanner or a file is read, and the image data is stored in the original image storage unit 25 (step S100). Thus, the image input unit 20 is configured. A part or the whole stored in the original image storage unit 25 is displayed on an image display device such as a display,
The user designates a specific area, selects a part of speech to be given to the area, and stores whether or not the specific area is to be recognized or not in the special area storage unit 35 (step S110). This constitutes the part of speech designation unit 30. The character image area is determined from the image information stored in the original image storage unit 25, and a line is cut out from the character area (step S120). Characters are cut out from the cut-out lines, diagonal coordinate values of a rectangle surrounding the character portion are extracted, and the size of the character portion is normalized and noise (such as dirt) is removed (step S130). When the character is cut out, if the area stored in the special area storage unit 35 is designated as non-recognition target, the area is not divided and character recognition is not performed. A feature amount is calculated for each of the extracted character regions, pattern matching is performed from the feature amount and the standard pattern recognition dictionary 45, and one or a plurality of recognition candidate characters per character, their ranks, and corresponding characters. The distance value to the standard pattern to be performed is stored in the recognition result storage unit 55 (step S140).

【0012】ステップS120からステップS140
で、文字認識部40を構成する。各文字位置を開始点と
する単語候補を生成して言語辞書65の単語辞書を検索
し、マッチした単語とその品詞情報を取り出す(ステッ
プS150)。処理対象領域の先頭から候補単語を接続
して単語パスを生成すると同時に言語辞書65の品詞間
接続コストテーブルを用いてその単語パスのコストを計
算し、この生成された単語パスが一定数以下になるよう
に、その単語パスのコストの高い順に選択する(ステッ
プS160)。ここで、単語辞書から品詞情報を取り出
す際、特殊領域記憶部35に記憶された領域で品詞情報
が指定されている場合には、指定した品詞を取り出す。
また、特殊領域記憶部35に記憶されている特定の領域
内に対しては、品詞情報に格納されている言語辞書に切
り替えて単語分割を行い、この領域内の単語パスを作成
し、この領域外で作成された単語パスに接続する。この
領域を出たあとの領域は、もとの言語辞書にもどして単
語分割と単語パスを作成し、特定の領域で作成された単
語パスへ接続させる。ステップS150からステップS
160により単語パス選択部50を構成する。ステップ
S160で求められた複数の単語パスのうちもっともコ
ストの小さい単語パスに基づいて認識候補文字を修正
し、認識結果記憶部55を更新する(ステップS17
0)。これにより認識候補修正部60を構成する。認識
結果記憶部55に格納されている認識結果をディスプレ
イ、プリンタまたはファイル等の出力装置に結果を出力
したり、ネットワークを介して他のコンピュータへ送信
したりすることによってユーザに提供する(ステップS
180)。この結果には、原画像データと対応させて認
識結果の文字を出力させたり、特殊領域記憶部35に記
憶された領域(認識非対象文字種領域)があるときに
は、この画像データとそれへのポインタをその位置に埋
め込んだハイパーテキストの組として出力する。これに
より結果出力部80を構成する。
Steps S120 to S140
Thus, the character recognition unit 40 is configured. A word candidate starting from each character position is generated, a word dictionary of the language dictionary 65 is searched, and a matched word and its part of speech information are extracted (step S150). At the same time as connecting candidate words from the beginning of the processing target area to generate a word path, the cost of the word path is calculated using the part-of-speech connection cost table of the language dictionary 65, and the generated word path is reduced to a certain number or less. The word paths are selected in descending order of cost (step S160). Here, when the part of speech information is extracted from the word dictionary, if the part of speech information is specified in the area stored in the special area storage unit 35, the specified part of speech is extracted.
Further, for a specific area stored in the special area storage unit 35, a word dictionary is switched by switching to a language dictionary stored in the part of speech information, and a word path in this area is created. Connect to an externally created word path. After leaving the area, the area is returned to the original language dictionary, word division and word paths are created, and connected to the word path created in the specific area. Step S150 to Step S
160 constitutes the word path selection unit 50. The recognition candidate character is corrected based on the word path having the lowest cost among the plurality of word paths obtained in step S160, and the recognition result storage unit 55 is updated (step S17).
0). This constitutes the recognition candidate correction unit 60. The recognition result stored in the recognition result storage unit 55 is provided to the user by outputting the result to an output device such as a display, a printer, or a file, or transmitting the result to another computer via a network (step S).
180). In this result, when the character of the recognition result is output in association with the original image data, or when there is an area (non-recognition target character type area) stored in the special area storage unit 35, this image data and a pointer to the image data are stored. Is output as a set of hypertext embedded at that position. Thus, the result output unit 80 is configured.

【0013】<実施例1の変形例1>本変形例1は、文
字認識の結果出力時にその結果が満足のいくものである
かを問い合わせられるように、特定の領域に対する品詞
指定を行えるように構成した。このようにすると、文字
認識処理でユーザの所望通りの認識がなされない領域を
ユーザに示して、その部分に対して品詞等の情報を再度
得ることができるので、指定した領域の品詞を誤ること
による単語パスコスト計算の不備からくる誤認識(誤修
正)をなくしたり、単語の切り出しに失敗することによ
る誤認識の防止が可能となるため、ユーザによる修正が
効率化できる。本変形例1の機能構成を示すブロック図
は、実施例1の図1と同じため、同じ機能については省
略し、異なる機能部分のみ説明する。まず、認識候補修
正部60では、文字認識部40で得た文字候補(1文字
に対して複数)をもとのまま保存し、修正した結果も別
途格納するようにする。結果出力部80は、認識候補修
正部60で得た修正された認識結果とその原画像をディ
スプレイ等に表示し、ユーザが誤りを発見したとき、ま
たは特殊な言い回し等の領域を見つけて、その領域の指
定と品詞指定を行わせ、特殊領域記憶部35へそれらの
情報を格納する。その後、もう一度、単語パス選択部5
0および認識候補修正部60により、保存しておいた認
識候補と新たに指定した品詞情報を用いて認識後の処理
を再実行する。
<Modification 1 of Embodiment 1> This modification 1 enables a part-of-speech designation for a specific area so that a query can be made as to whether the result is satisfactory when the result of character recognition is output. Configured. By doing so, the user can indicate to the user an area in which the character recognition processing does not perform the desired recognition and obtain information such as the part of speech again for that part. Erroneous recognition (erroneous correction) resulting from inadequate word path cost calculation due to erroneous recognition, and erroneous recognition due to failure to extract words can be prevented, so that correction by the user can be made more efficient. Since the block diagram showing the functional configuration of the first modification is the same as that of FIG. 1 of the first embodiment, the same functions are omitted, and only different functional portions will be described. First, the recognition candidate correcting unit 60 stores the character candidates (a plurality of characters for one character) obtained by the character recognizing unit 40 as they are, and separately stores the corrected result. The result output unit 80 displays the corrected recognition result obtained by the recognition candidate correction unit 60 and its original image on a display or the like, and when the user finds an error or finds an area such as a special wording, The area designation and the part of speech designation are performed, and the information is stored in the special area storage unit 35. Then, once again, the word path selection unit 5
0 and the recognition candidate correction unit 60 re-execute the post-recognition processing using the stored recognition candidates and the newly specified part of speech information.

【0014】図6は、本変形例1の処理を説明するため
のフローチャートである。スキャナやファイルからの画
像を読取り、その画像データを原画像記憶部25へ格納
する(ステップS200)。これにより画像入力部20
を構成する。原画像記憶部25に記憶された一部または
全部をディスプレイ等の画像表示装置に表示させ、ユー
ザが特定の領域を指定し、その領域に付与する品詞を選
択し、その特定の領域を認識対象とするか、対象としな
いかも、併せて特殊領域記憶部35へ格納する(ステッ
プS210)。これにより品詞指定部30を構成する。
原画像記憶部25に記憶された画像情報から文字画像領
域を判別し、その文字領域から行を切り出す(ステップ
S220)。この切り出された行から文字を切り出し、
その文字部分を囲む矩形の対角座標値を抽出し、その文
字部分の大きさの正規化やノイズ(汚れ等)を除去する
(ステップS230)。この文字を切出す場合、特殊領
域記憶部35に記憶された領域が認識非対象と指定され
ているときには、その領域は分割されず、文字認識も行
わない。この切出された文字領域ごとに特徴量を計算
し、その特徴量と標準パターンの認識辞書45とからパ
ターンマッチングを行い、1文字あたり単数または複数
の認識候補文字とその順位、およびそれらに対応する標
準パターンとの距離値を認識結果記憶部55へ記憶する
(ステップS240)。
FIG. 6 is a flow chart for explaining the processing of the first modification. An image from a scanner or a file is read, and the image data is stored in the original image storage unit 25 (step S200). Thereby, the image input unit 20
Is configured. A part or all of the data stored in the original image storage unit 25 is displayed on an image display device such as a display, and the user specifies a specific area, selects a part of speech given to the area, and recognizes the specific area as a recognition target. Or not, the information is also stored in the special area storage unit 35 (step S210). This constitutes the part of speech designation unit 30.
The character image area is determined from the image information stored in the original image storage unit 25, and a line is cut out from the character area (step S220). Cut out characters from this cut out line,
The diagonal coordinate values of the rectangle surrounding the character portion are extracted, and the size of the character portion is normalized and noise (dirt, etc.) is removed (step S230). When the character is cut out, if the area stored in the special area storage unit 35 is designated as non-recognition target, the area is not divided and character recognition is not performed. A feature amount is calculated for each of the extracted character regions, pattern matching is performed from the feature amount and the standard pattern recognition dictionary 45, and one or more recognition candidate characters for each character and their order, and the corresponding The distance value from the standard pattern to be performed is stored in the recognition result storage unit 55 (step S240).

【0015】ステップS220からステップS240
で、文字認識部40を構成する。各文字位置を開始点と
する単語候補を生成して言語辞書65の単語辞書を検索
し、マッチした単語とその品詞情報を取り出す(ステッ
プS250)。処理対象領域の先頭から候補単語を接続
して単語パスを生成すると同時に言語辞書65の品詞間
接続コストテーブルを用いてその単語パスのコストを計
算し、この生成された単語パスが一定数以下になるよう
に、その単語パスのコストの高い順に選択する(ステッ
プS260)。ここで、単語辞書から品詞情報を取り出
す際、特殊領域記憶部35に記憶された領域で品詞情報
が指定されている場合には、指定した品詞を取り出す。
また、特殊領域記憶部35に記憶されている特定の領域
内に対しては、品詞情報に格納されている言語辞書に切
り替えて単語分割を行い、この領域内の単語パスを作成
し、この領域外で作成された単語パスに接続する。この
領域を出たあとの領域は、もとの言語辞書にもどして単
語分割と単語パスを作成し、特定の領域で作成された単
語パスへ接続させる。ステップS250からステップS
260により単語パス選択部50を構成する。ステップ
S260で求められた複数の単語パスのうち、もっとも
コストの小さい単語パスに基づいて認識候補文字を修正
した結果を認識結果記憶部55に記憶させる(ステップ
S270)。このとき、文字認識部40で得た文字候補
(1文字に対して複数)もそのまま保存するとともに、こ
の修正された結果も記憶するようにしておく。これによ
り認識候補修正部60を構成する。
Steps S220 to S240
Thus, the character recognition unit 40 is configured. A word candidate starting from each character position is generated, a word dictionary of the language dictionary 65 is searched, and a matched word and its part of speech information are extracted (step S250). At the same time as connecting candidate words from the beginning of the processing target area to generate a word path, the cost of the word path is calculated using the part-of-speech connection cost table of the language dictionary 65, and the generated word path is reduced to a certain number or less. Are selected in descending order of the cost of the word path (step S260). Here, when the part of speech information is extracted from the word dictionary, if the part of speech information is specified in the area stored in the special area storage unit 35, the specified part of speech is extracted.
Further, for a specific area stored in the special area storage unit 35, a word dictionary is switched by switching to a language dictionary stored in the part of speech information, and a word path in this area is created. Connect to an externally created word path. After leaving the area, the area is returned to the original language dictionary, word division and word paths are created, and connected to the word path created in the specific area. Step S250 to step S
260 constitutes the word path selection unit 50. Of the plurality of word paths obtained in step S260, the result of correcting the recognition candidate character based on the word path with the lowest cost is stored in the recognition result storage unit 55 (step S270). At this time, the character candidate obtained by the character recognition unit 40
(Multiple characters for one character) are stored as they are, and the corrected result is also stored. This constitutes the recognition candidate correction unit 60.

【0016】文字認識結果とその原画像をディスプレイ
等に表示して、ユーザに誤りがあるか、または特殊な言
い回し等の領域がないかを見つけさせる(ステップS2
80)。ユーザが修正をしたいと指示したとき、修正し
たい領域とその領域に付与する品詞を選択し、その情報
を特殊領域記憶部35へ格納し、もう一度、保存してお
いた認識候補と新たに指定した品詞情報を用いて、ステ
ップS250から認識後の処理を再実行する。ユーザが
修正しないと指示したときには、認識結果記憶部55に
格納されている認識結果をディスプレイ、プリンタまた
はファイル等の出力装置に最終的な結果を出力したり、
ネットワークを介して他のコンピュータへ送信したりす
ることによってユーザに提供する。(ステップS28
0)。この結果には、原画像データと対応させて認識結
果の文字を出力させたり、特殊領域記憶部35に記憶さ
れた領域(認識非対象文字種領域)があるときには、こ
の画像データとそれへのポインタをその位置に埋め込ん
だハイパーテキストの組として出力する。これにより結
果出力部80を構成する。
The character recognition result and its original image are displayed on a display or the like, and the user is made to find out whether there is an error or whether there is any special wording or the like (step S2).
80). When the user instructs to make a correction, an area to be corrected and a part of speech to be given to the area are selected, the information is stored in the special area storage unit 35, and the stored recognition candidate is newly specified again. Using the part-of-speech information, the processing after recognition is re-executed from step S250. When the user instructs not to make any correction, the recognition result stored in the recognition result storage unit 55 is output to an output device such as a display, a printer, a file, or the like,
It is provided to the user by transmitting it to another computer via a network. (Step S28
0). In this result, when the character of the recognition result is output in association with the original image data, or when there is an area (non-recognition target character type area) stored in the special area storage unit 35, this image data and a pointer to the image data are stored. Is output as a set of hypertext embedded at that position. Thus, the result output unit 80 is configured.

【0017】<実施例1の変形例2>上記した実施例1
の変形例1では、特定の領域を文字認識処理する前と後
とに置いたが、本変形例2では文字認識処理後だけに置
くように構成した。このようにすると、文字認識処理で
ユーザの所望通りの認識がなされない領域をユーザに示
して、その部分に対して品詞等の情報を得ることができ
るので、予めユーザに品詞の指定をさせることがないの
で、認識がうまくいかなかったところにだけ品詞を指定
するだけでよいので、ユーザの負担を軽減することがで
きる。
<Modification 2 of Embodiment 1> The above-described Embodiment 1
In the first modification, the specific area is placed before and after the character recognition processing. In the second modification, the specific area is placed only after the character recognition processing. By doing so, it is possible to indicate to the user an area in which character recognition processing is not performed as desired by the user, and obtain information such as part of speech for that part. Because there is no, it is only necessary to specify the part of speech where the recognition has not been successful, so that the burden on the user can be reduced.

【0018】<実施例2> (1) 実施例2の構成 図7は、本発明の実施例2の文字認識装置の構成を示す
ブロック図である。本発明の実施例2の文字認識装置1
00は、制御部10、画像入力部20、文字認識部4
0、単語パス選択部50、認識候補修正部60、確信度
算出部70、結果出力部80、原画像記憶部25、認識
辞書45、認識結果記憶部55、言語辞書65から構成
されている。これらの機能構成のうち実施例1と同じ機
能を有するものは、同じ符号をつけ、その説明を省略す
る。ここでは実施例1とは異なる機能について説明す
る。
Second Embodiment (1) Configuration of Second Embodiment FIG. 7 is a block diagram showing a configuration of a character recognition device according to a second embodiment of the present invention. Embodiment 2 A character recognition device 1 according to a second embodiment of the present invention.
00 is the control unit 10, the image input unit 20, the character recognition unit 4
0, a word path selection unit 50, a recognition candidate correction unit 60, a certainty factor calculation unit 70, a result output unit 80, an original image storage unit 25, a recognition dictionary 45, a recognition result storage unit 55, and a language dictionary 65. Among these functional configurations, those having the same functions as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Here, functions different from those in the first embodiment will be described.

【0019】確信度算出部70は、確信度を算出するた
めのパラメータに、以下のような条件に適合する数値を
各文字に割り当て、これらのパラメータの一次結合や平
均値として確信度を算出する(例えば、特開平9−13
4410号公報)。 (A)その文字が画像中の同一文字に対する認識結果の
中で高い順位にあるほど確信度は高い。 (B)その文字の文字認識における類似度が高いほど、
確信度は高い。 (C)その文字が属すると判定された単語の表記長が長
いほど確信度は大きい。 (D)その文字またはその文字のカテゴリーと前後の文
字のそれとの間の連接可能性が大きいほど、確信度は高
い。 (E)その単語と前後の単語との接続可能性が大きいほ
ど確信度は大きい。 この規則は、予め多くの文書の統計的性質やヒューリス
ティックなルールとして、例えば、ルールテーブルや品
詞間接続コストテーブル等に保持しておく。これらに加
え、その単語の属する領域内(例えば、その単語の属す
る行内)での単語列に特別な性質がみられる場合に、そ
れに応じた重みを確信度算出に用いる各数値に乗じて、
確信度を算出する。これにより、確信度がより最適なも
のになる。例えば、領域(行)内に未知語が多い場合、
文字の属する単語の長さよりも文字の候補順位を重視す
るように重みを設定する。また、領域(行)内に既知の
人名や地名など同種の固有名詞が連続して出現している
場合、通常の名詞間の接続よりも接続可能性を高くする
ように重みを設定する。このような例としては、名簿、
住所録、新聞等に出てくる人名と地名の連続、スポーツ
の試合の結果要約等のように列挙されたリストがある。
この他に出現の順序パターン(「固有名詞」、「読点」
というパターンが3回以上連続する等)によって、それ
ぞれ重みを高めに設定する。これらの重みも、予め実験
や経験等により決定し、ルールテーブルとして保持す
る。本発明の文字認識装置を実施例2のように構成する
ことによって、局所的に言語的性質が特殊な対象を確信
度の算出に反映することで、複数の文字切りだし結果か
ら得た認識結果を確信度によって比較したり、確信度に
応じてユーザに修正を求める場合に、従来に比べて全体
的によりよい判断基準を得ることができる。
The certainty calculating unit 70 assigns numerical values satisfying the following conditions to parameters for calculating certainty to each character, and calculates certainty as a linear combination or an average value of these parameters. (See, for example, JP-A-9-13
No. 4410). (A) The higher the character is in the recognition result for the same character in the image, the higher the certainty is. (B) The higher the similarity in the character recognition of the character,
Confidence is high. (C) The longer the written length of the word determined to belong to the character, the greater the certainty. (D) The greater the likelihood of connection between the character or the category of the character and that of the preceding and following characters, the higher the certainty. (E) The degree of certainty increases as the possibility of connection between the word and the preceding and succeeding words increases. This rule is stored in advance as a statistical property or a heuristic rule of many documents in, for example, a rule table or a part-of-speech connection cost table. In addition to these, when a word string in a region to which the word belongs (for example, in a line to which the word belongs) has a special property, the corresponding weight is multiplied by each numerical value used in the confidence calculation,
Calculate confidence. This makes the confidence more optimal. For example, if there are many unknown words in the area (line),
The weight is set so that the character candidate ranking is more important than the length of the word to which the character belongs. In the case where the same type of proper noun such as a known person's name or place name appears continuously in an area (line), the weight is set so that the connection possibility is higher than the connection between ordinary nouns. Examples include rosters,
There is an enumerated list such as an address book, a series of names of people and places appearing in newspapers, a summary of the results of a sports game, and the like.
In addition, the order patterns of appearance (“proper nouns”, “
, Etc. are repeated three times or more), respectively, so that the weight is set higher. These weights are also determined in advance by experiments, experiences, and the like, and are stored as a rule table. By configuring the character recognition apparatus of the present invention as in the second embodiment, the recognition result obtained from a plurality of character segmentation results is obtained by locally reflecting a special linguistic property in the calculation of the certainty factor. Is compared with the certainty factor, or when the user is requested to correct according to the certainty factor, an overall better criterion can be obtained as compared with the related art.

【0020】(2)処理手順 図8は、本実施例2の処理を説明するためのフローチャ
ートである。スキャナやファイルからの画像を読取り、
その画像データを原画像記憶部25へ格納する(ステッ
プS400)。これにより画像入力部20を構成する。
原画像記憶部25に記憶された画像情報から文字画像領
域を判別し、その文字領域から行を切り出す(ステップ
S410)。この切り出された行から文字を切り出し、
その文字部分を囲む矩形の対角座標値を抽出し、その文
字部分の大きさの正規化やノイズ(汚れ等)を除去する
(ステップS420)。この切出された文字領域ごとに
特徴量を計算し、その特徴量と標準パターンの認識辞書
45とからパターンマッチングを行い、1文字あたり単
数または複数の認識候補文字とその順位、およびそれら
に対応する標準パターンとの距離値を認識結果記憶部5
5へ記憶する(ステップS430)。
(2) Processing Procedure FIG. 8 is a flowchart for explaining the processing of the second embodiment. Reads images from scanners and files,
The image data is stored in the original image storage unit 25 (step S400). Thus, the image input unit 20 is configured.
The character image area is determined from the image information stored in the original image storage unit 25, and a line is cut out from the character area (step S410). Cut out characters from this cut out line,
The diagonal coordinate values of the rectangle surrounding the character portion are extracted, and the size of the character portion is normalized and noise (dirt, etc.) is removed (step S420). A feature amount is calculated for each of the extracted character regions, pattern matching is performed from the feature amount and the standard pattern recognition dictionary 45, and one or a plurality of recognition candidate characters per character, their ranks, and corresponding characters. Recognition result storage unit 5 stores the distance value from the standard pattern to be
5 (step S430).

【0021】ステップS410からステップS430
で、文字認識部40を構成する。各文字位置を開始点と
する単語候補を生成して言語辞書65の単語辞書を検索
し、マッチした単語とその品詞情報を取り出す。また、
マッチしないときには未知語とする(ステップS44
0)。処理対象領域の先頭から候補単語を接続して単語
パスを生成すると同時に言語辞書65の品詞間接続コス
トテーブルを用いてその単語パスのコストを計算し、こ
の生成された単語パスが一定数以下になるように、その
単語パスのコストの高い順に選択する(ステップS45
0)。ステップS440からステップS450により単
語パス選択部50を構成する。ステップS450で求め
られた複数の単語パスのうちもっともコストの小さい単
語パスに基づいて認識候補文字を修正した結果を認識結
果記憶部55に記憶させる(ステップS460)。これ
により認識候補修正部60を構成する。ステップS46
0で求められた修正された認識候補の1文字ごとに認識
結果の確信度を計算する(ステップS470)。
Steps S410 to S430
Thus, the character recognition unit 40 is configured. A word candidate starting from each character position is generated, a word dictionary of the language dictionary 65 is searched, and a matched word and its part of speech information are extracted. Also,
If they do not match, it is determined to be an unknown word (step S44)
0). At the same time as connecting candidate words from the beginning of the processing target area to generate a word path, the cost of the word path is calculated using the part-of-speech connection cost table of the language dictionary 65, and the generated word path is reduced to a certain number or less. (Step S45).
0). The word path selection unit 50 is configured by steps S440 to S450. The result of correcting the recognition candidate character based on the word path with the lowest cost among the plurality of word paths obtained in step S450 is stored in the recognition result storage unit 55 (step S460). This constitutes the recognition candidate correction unit 60. Step S46
The degree of certainty of the recognition result is calculated for each character of the corrected recognition candidate obtained at 0 (step S470).

【0022】この文字が先に求めた単語パスのいずれの
単語に属しているかによって、単語パス上の単語列に対
する品詞列を取り出し、この品詞列が次の条件に該当す
るかを調べ、その該当する条件に予め指定した方法で各
パラメータの重みを変更することによって、(公知の確
信度計算法により)確信度を算出する。 (A)この単語パス内に未知語が多い場合、文字の属す
る単語の長さよりも文字の候補順位を重視するように重
みを設定する。 (B)この単語パス内に既知の人名や地名など同種の固
有名詞が連続して出現している場合、通常の名詞間の接
続よりも接続可能性を高くするように重みを設定する。 また、単語パスの単語や品詞の並びが一定の順序パター
ンになっている場合も、通常の解析で得られる確信度よ
り高くなるように重みを乗じて計算する。これにより確
信度算出部70を構成する。認識結果記憶部55に格納
されている認識結果とこれに対応する原画像記憶部25
に記憶された画像データを対比させてディスプレイ、プ
リンタまたはファイル等の出力装置に最終的な結果を出
力したり、ネットワークを介して他のコンピュータへ送
信したりすることによってユーザに提供する。(ステッ
プS280)。この出力には、認識結果の文字に対応す
る確信度によって出力状況を変化させて(例えば、文字
の色の変化や要求による数値)出力する。これにより結
果出力部80を構成する。尚、本実施例2の構成を、実
施例1または変形例等の文字認識装置の認識候補修正部
60の動作後に本実施例2の確信度算出部70を動作さ
せるようにしても、同様な効果がある。
According to which word of the word path the character belongs to, the part-of-speech string corresponding to the word string on the word path is extracted, and it is checked whether the part-of-speech string satisfies the following condition. The degree of certainty is calculated (by a known degree of certainty calculation method) by changing the weight of each parameter by a method specified in advance for the condition to be performed. (A) When there are many unknown words in this word path, the weight is set so that the character candidate rank is more important than the length of the word to which the character belongs. (B) If the same type of proper noun such as a known person's name or place name appears continuously in this word path, the weight is set so that the connection possibility is higher than the connection between ordinary nouns. Further, even when the arrangement of words and parts of speech in a word path has a predetermined order pattern, the calculation is performed by multiplying by a weight so as to be higher than a certainty factor obtained by normal analysis. This constitutes the certainty factor calculation unit 70. The recognition result stored in the recognition result storage unit 55 and the corresponding original image storage unit 25
The final result is output to an output device such as a display, a printer, a file, or the like by comparing the image data stored in the computer, or is transmitted to another computer via a network, and is provided to the user. (Step S280). For this output, the output state is changed according to the certainty factor corresponding to the character of the recognition result (for example, a change in the color of the character or a numerical value according to a request) and output. Thus, the result output unit 80 is configured. Note that the same applies to the configuration of the second embodiment in which the certainty factor calculation unit 70 of the second embodiment is operated after the operation of the recognition candidate correction unit 60 of the character recognition device according to the first embodiment or the modified example. effective.

【0023】<コンピュータによる実施例>さらに、本
発明は上記の実施の形態のみに限定されたものではな
い。例えば、図1または図7に示した文字認識装置は、
図9のようなハードウェア構成を持つコンピュータ装置
200によっても実現が可能である。即ち、コンピュー
タ装置200は、キーボード、マウス、タッチパネル、
スキャナ等により構成され、情報の入力に使用される入
力装置1と、種々の出力情報や入力装置1からの入力さ
れた情報などを表示したり、プリンタ等へ出力させる出
力装置2と、種々のプログラムを動作させるCPU(Ce
ntral Processing Unit;中央処理ユニット)3と、プ
ログラム自身を保持し、またそのプログラムがCPU3
によって実行されるときに一時的に作成される情報等を
保持するメモリ4と、本発明の文字認識装置の原画像記
憶部25、特殊領域記憶部35、認識辞書45、認識結
果記憶部55、言語辞書65およびプログラムやプログ
ラム実行時の一時的な情報等を保持する記憶装置5と、
プログラムやデータ等を記憶した記録媒体を装着してそ
れらを読み込み、メモリ4または記憶装置5へ格納する
のに用いられる媒体駆動装置6と、ネットワーク9へ接
続するためのインタフェースであるネットワーク接続装
置7とから構成され、それらはバス8で接続されてい
る。また、ネットワーク9は、コンピュータ装置200
と他のコンピュータ装置200とを結合するための伝送
路であって、一般には、ケーブルで実現され、通信プロ
トコルにはTCP/IPが使われる。但し、伝送路とし
てはケーブルだけではなく、それらの間の通信プロトコ
ルが一致するものであれば無線、有線および放送波のい
ずれでもよく、例えば、LAN(Local Area Networ
k)、WAN(Wide Area Network)、インターネット、
アナログ電話網、デジタル電話網(ISDN:Integral
Service Digital Network)、PHS(パーソナルハン
ディホンシステム)、携帯電話網、衛星通信網などを用
いることができる。このようなコンピュータ装置200
の構成において、図1または図7に示した文字認識装置
を構成する各機能をそれぞれプログラム化し、予めCD
−ROM等の記録媒体に書き込んでおき、このCD−R
OMを各サイトのCD−ROMドライブのような媒体駆
動装置6を搭載したコンピュータ装置に装着して、これ
らのプログラムをそれぞれのコンピュータ装置のメモリ
4あるいは記憶装置5に格納し、それを実行することに
よって、上記の実施の形態と同様な機能を実現すること
ができる。
<Embodiment by Computer> Further, the present invention is not limited to the above embodiment. For example, the character recognition device shown in FIG. 1 or FIG.
The present invention can also be realized by a computer device 200 having a hardware configuration as shown in FIG. That is, the computer device 200 includes a keyboard, a mouse, a touch panel,
An input device 1 configured by a scanner or the like and used for inputting information; an output device 2 for displaying various output information or information input from the input device 1 or outputting to a printer or the like; CPU (Ce
ntral Processing Unit (central processing unit) 3 and the program itself.
A memory 4 for temporarily storing information and the like created when executed, an original image storage unit 25, a special area storage unit 35, a recognition dictionary 45, a recognition result storage unit 55 of the character recognition apparatus of the present invention, A storage device 5 for holding a language dictionary 65, a program, temporary information at the time of program execution, and the like;
A medium driving device 6 used to load a recording medium storing programs, data, and the like, read them, and store them in the memory 4 or the storage device 5, and a network connection device 7 serving as an interface for connecting to a network 9. And they are connected by a bus 8. The network 9 is connected to the computer 200
This is a transmission line for connecting the computer and another computer device 200, and is generally realized by a cable, and TCP / IP is used as a communication protocol. However, the transmission path is not limited to the cable, but may be any of wireless, wired and broadcast waves as long as the communication protocol between them is the same. For example, a LAN (Local Area Network)
k), WAN (Wide Area Network), Internet,
Analog telephone network, digital telephone network (ISDN: Integral
Service Digital Network), PHS (Personal Handy Phone System), mobile phone network, satellite communication network, and the like can be used. Such a computer device 200
In the configuration of FIG. 1, the respective functions constituting the character recognition device shown in FIG. 1 or FIG.
-Write the data on a recording medium such as a ROM
The OM is mounted on a computer device equipped with a medium drive device 6 such as a CD-ROM drive at each site, and these programs are stored in the memory 4 or the storage device 5 of each computer device and executed. Thereby, the same function as the above embodiment can be realized.

【0024】尚、記録媒体としては半導体媒体(例え
ば、ROM、ICメモリカード等)、光媒体(例えば、
DVD、MO、MD、CD−R等)、磁気媒体(例え
ば、磁気テープ、フレキシブルディスク等)のいずれで
あってもよい。また、コンピュータ装置200のメモリ
4へロードしたプログラムを実行することにより上記し
た実施の形態の機能が実現されるだけでなく、そのプロ
グラムの指示に基づき、オペレーティングシステム等が
実際の処理の一部または全部を行い、その処理によって
上記した実施の形態の機能が実現される場合も含まれ
る。また、上記した実施の形態を実現するプログラムが
ROM等のような半導体の記録媒体である場合には、媒
体駆動装置6からではなく、直接、メモリ4へロードし
て実行される。
As a recording medium, a semiconductor medium (for example, ROM, IC memory card, etc.) and an optical medium (for example, ROM,
DVD, MO, MD, CD-R, etc.) and magnetic media (for example, magnetic tape, flexible disk, etc.). In addition, not only the functions of the above-described embodiment are realized by executing the program loaded into the memory 4 of the computer device 200, but also the operating system or the like can execute a part of the actual processing or It also includes a case where all the operations are performed and the functions of the above-described embodiment are realized by the processing. Further, when a program for realizing the above-described embodiment is a semiconductor recording medium such as a ROM, the program is not loaded from the medium drive device 6 but directly loaded into the memory 4 and executed.

【0025】<本発明のネットワーク環境での運用>図
6は、本発明を有線または無線の通信ネットワークに接
続して運用する形態の構成を示している。例えば、文字
認識プログラムを保持するサーバー210と複数のユー
ザが利用する端末220とをネットワーク9で接続す
る。この場合、サーバー210およびユーザの端末22
0は、図9に示した汎用のコンピュータ装置200で構
成される。ユーザは、端末220からサーバー210に
対してログインしたり、文字認識のための画像データを
入力し、サーバー210の文字認識プログラムへ文字認
識の実行を依頼する。サーバー210の文字認識プログ
ラムは送信された画像データの文字領域に対する文字認
識結果を要求もとの端末220へ戻す。ユーザの端末2
20は、この認識結果やもとの画像データとを対比させ
ながら出力する。このようにすることで、常に最新の文
字認識プログラムを使えるという利点がある。また、図
10のようにサーバー210と端末220とを有線また
は無線の通信ネットワークで接続した場合、サーバー2
10の磁気ディスク等の記憶装置に本発明の機能を実現
する文字認識プログラムを格納しておき、端末220に
対してダウンロード等の形式で頒布することも可能であ
る。さらに、本発明の機能を実現する文字認識プログラ
ムを媒体や放送波による配布で提供するようにしてもよ
い。
<Operation in Network Environment of the Present Invention> FIG. 6 shows a configuration of an embodiment in which the present invention is connected to a wired or wireless communication network for operation. For example, a server 210 holding a character recognition program and a terminal 220 used by a plurality of users are connected via the network 9. In this case, the server 210 and the user terminal 22
0 is constituted by the general-purpose computer device 200 shown in FIG. The user logs in to the server 210 from the terminal 220 or inputs image data for character recognition, and requests the character recognition program of the server 210 to execute character recognition. The character recognition program of the server 210 returns the character recognition result for the character area of the transmitted image data to the requesting terminal 220. User terminal 2
Reference numeral 20 outputs the recognition result and the original image data while comparing them. This has the advantage that the latest character recognition program can always be used. When the server 210 and the terminal 220 are connected via a wired or wireless communication network as shown in FIG.
It is also possible to store a character recognition program for realizing the functions of the present invention in a storage device such as a magnetic disk of No. 10 and distribute it to the terminal 220 in a form such as download. Further, a character recognition program for realizing the functions of the present invention may be provided by distribution through a medium or a broadcast wave.

【0026】[0026]

【発明の効果】以上説明したように、本発明によれば、
文字認識の対象文書に用法が特殊な語や認識非対象文字
種の領域があることをユーザが確認できる場合に、後処
理に先立ってその領域とその領域に対応する品詞情報を
予め入力することにより、通常の言語処理に比べて誤訂
正が少なくなるので、認識後の修正によるユーザの負担
を軽減することができる。さらに、この領域情報を用い
て、認識結果とそれに対応する画像データとをハイパー
テキスト形式で出力ることができるので、例えば、外国
語や数式と日本語が1行内に混在する文書等において電
子化に必要な工数を削減することにより、文書の電子化
を促進し、データの管理をより効率的に行うことが可能
となる。また、認識対象の画像データ内に、局所的に言
語的性質の特殊な対象がある場合、この状況を確信度の
算出に反映することができるので、複数の文字切りだし
結果から得た認識結果を確信度によって比較したり、確
信度に応じてユーザに修正を求める場合に、従来に比べ
て全体的によりよい判断基準を得ることができる。
As described above, according to the present invention,
If the user can confirm that the target document for character recognition has an area with a special word or a non-recognized character type, by inputting the area and the part of speech information corresponding to the area in advance before post-processing Since the number of erroneous corrections is reduced as compared with normal language processing, the burden on the user due to correction after recognition can be reduced. Furthermore, since the recognition result and the corresponding image data can be output in a hypertext format using the area information, for example, in a document in which a foreign language, a mathematical expression, and Japanese are mixed in one line, the digitization is performed. By reducing the number of man-hours required for a document, digitization of a document is promoted, and data management can be performed more efficiently. In addition, if there is a special target with a linguistic property locally in the image data to be recognized, this situation can be reflected in the calculation of the certainty factor, so the recognition results obtained from multiple character segmentation results Is compared with the certainty factor, or when the user is requested to correct according to the certainty factor, an overall better criterion can be obtained as compared with the related art.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施例1の機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration according to a first embodiment.

【図2】特殊領域記憶部のデータ構造を説明するための
図である。
FIG. 2 is a diagram illustrating a data structure of a special area storage unit.

【図3】数式を含む文章の例を示す図である。FIG. 3 is a diagram illustrating an example of a sentence including a mathematical expression.

【図4】数式を含む文章を文字認識したときの出力例を
示す図である。
FIG. 4 is a diagram illustrating an output example when a sentence including a mathematical expression is subjected to character recognition.

【図5】実施例1の処理手順を説明するフローチャート
である。
FIG. 5 is a flowchart illustrating a processing procedure according to the first embodiment.

【図6】実施例1の変形例1の処理手順を説明するフロ
ーチャートである。
FIG. 6 is a flowchart illustrating a processing procedure according to a first modification of the first embodiment;

【図7】実施例2の機能構成を示すブロック図である。FIG. 7 is a block diagram illustrating a functional configuration according to a second embodiment.

【図8】実施例2の処理手順を説明するフローチャート
である。
FIG. 8 is a flowchart illustrating a processing procedure according to the second embodiment.

【図9】本発明の文字認識装置が稼動するためのコンピ
ュータ装置の図である。
FIG. 9 is a diagram of a computer device on which the character recognition device of the present invention operates.

【図10】本発明のネットワーク環境での運用例を説明
するための図である。
FIG. 10 is a diagram for explaining an operation example in a network environment according to the present invention.

【符号の説明】[Explanation of symbols]

1 入力装置 2 出力装置 3 CPU 4 メモリ 5 記憶装置 6 媒体駆動装置 7 ネットワーク接続装置 8 バス 9 ネットワーク 10 制御部 20 画像入力部 30 品詞指定部 40 文字認識部 50 単語パス選択部 60 認識候補修正部 70 確信度算出部 80 結果出力部 25 原画像記憶部 35 特殊領域記憶部 45 認識辞書 55 認識結果記憶部 65 言語辞書 100 文字認識装置 200 コンピュータ装置 210 サーバー 220 端末 Reference Signs List 1 input device 2 output device 3 CPU 4 memory 5 storage device 6 medium drive device 7 network connection device 8 bus 9 network 10 control unit 20 image input unit 30 part of speech designation unit 40 character recognition unit 50 word path selection unit 60 recognition candidate correction unit Reference Signs List 70 Confidence calculation unit 80 Result output unit 25 Original image storage unit 35 Special area storage unit 45 Recognition dictionary 55 Recognition result storage unit 65 Language dictionary 100 Character recognition device 200 Computer device 210 Server 220 Terminal

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像中の文字画像に対して文
字認識処理を行う文字認識装置において、 前記画像中の特定の画像領域に対する品詞情報を指定す
る品詞指定部と、 前記画像中の文字画像の文字認識を行う文字認識部と、 前記文字認識部から得た文字認識候補を言語辞書と前記
品詞指定部で指定された品詞情報に基づいて言語解析し
て言語的に正しい単語列を得る単語パス選択部と、 前記単語パス選択部で得た結果に応じて文字認識結果を
修正する認識候補修正部とを備えたことを特徴とする文
字認識装置。
1. A character recognition device for performing a character recognition process on a character image in an input image, comprising: a part of speech designation unit that designates part of speech information for a specific image area in the image; A character recognition unit that performs character recognition of an image; and a language analysis of a character recognition candidate obtained from the character recognition unit based on the language dictionary and the part of speech information specified by the part of speech specification unit to obtain a linguistically correct word string. A character recognition device comprising: a word path selection unit; and a recognition candidate correction unit that corrects a character recognition result according to a result obtained by the word path selection unit.
【請求項2】 請求項1に記載の文字認識装置におい
て、 前記品詞指定部は、指定された特定の画像領域の外側の
文脈に照らして、この画像領域が取りうる品詞情報と、
この画像領域内の言語解析用の言語辞書とを指定し、 前記パス選択部は、前記品詞指定部で指定された特定の
画像領域の外部では、指定された品詞情報を用いて言語
解析を行い、この特定の画像領域の内部では指定された
言語辞書を用いて言語解析することを特徴とする文字認
識装置。
2. The character recognition device according to claim 1, wherein the part-of-speech designating unit includes a part-of-speech information that can be taken by the image area in light of a context outside a specified specific image area;
A language dictionary for language analysis in this image area is specified, and the path selection unit performs a language analysis using the specified part of speech information outside the specific image area specified by the part of speech specification unit. A character recognition apparatus characterized in that language analysis is performed using a specified language dictionary inside the specific image area.
【請求項3】 請求項1に記載の文字認識装置におい
て、 前記品詞指定部では、前記画像中の特定の画像領域が文
字認識対象外の領域として指定されたとき、 前記文字認識部は、この特定の画像領域の文字認識処理
をせず、 前記パス選択部は、この特定の画像領域に前記品詞指定
部で指定された品詞情報の単語があるものとして単語パ
スの選択を行うことを特徴とする文字認識装置。
3. The character recognition device according to claim 1, wherein the part-of-speech designation unit, when a specific image region in the image is designated as a region that is not targeted for character recognition, The character selecting process of the specific image area is not performed, and the path selecting unit selects a word path assuming that the word of the part of speech information specified by the part of speech specifying unit is present in the specific image area. Character recognition device.
【請求項4】 請求項3に記載の文字認識装置におい
て、 前記認識候補修正部で得た認識結果の文字列を出力する
とき、前記品詞指定部で文字認識対象外と指定された画
像領域の替わりに、この画像データへのリンク情報とす
る結果出力部を備えたことを特徴とする文字認識装置。
4. The character recognition device according to claim 3, wherein, when outputting a character string of a recognition result obtained by the recognition candidate correction unit, a character string of an image area specified as not to be subjected to character recognition by the part of speech specification unit is output. Instead, a character recognizing device is provided with a result output unit for providing link information to the image data.
【請求項5】 請求項1乃至請求項4のいずれかひとつ
に記載の文字認識装置において、 前記認識候補修正部で得た文字認識結果がユーザの所望
する認識結果かどうかを指定させ、所望の結果でない画
像中の特定の画像領域に対して、周囲の文脈に照らして
言語的に正しくなるように品詞情報を指示させ、この品
詞情報により前記単語パス選択部および前記認識候補修
正部を再度行う結果出力部を設けたことを特徴とする文
字認識装置。
5. The character recognition device according to claim 1, wherein the character recognition result obtained by the recognition candidate correction unit is designated to be a recognition result desired by the user, and The part-of-speech information is directed to a specific image area in the non-result image so as to be linguistically correct in light of the surrounding context, and the word path selection unit and the recognition candidate correction unit are performed again using the part-of-speech information. A character recognition device comprising a result output unit.
【請求項6】 入力された画像中の文字画像に対して文
字認識処理を行う文字認識方法において、 前記画像中の特定の画像領域に対する品詞情報を指定す
る品詞指定工程と、 前記画像中の文字画像の文字認識を行う文字認識工程
と、 前記文字認識工程から得た文字認識候補を言語辞書と前
記品詞指定工程で指定された品詞情報に基づいて言語解
析して言語的に正しい単語列を得る単語パス選択工程
と、 前記単語パス選択工程で得た結果に応じて文字認識結果
を修正する認識候補修正工程とを備えたことを特徴とす
る文字認識方法。
6. A character recognition method for performing a character recognition process on a character image in an input image, comprising: a part of speech designation step of designating part of speech information for a specific image area in the image; A character recognition step of performing character recognition of an image; and a language analysis of a character recognition candidate obtained from the character recognition step based on a language dictionary and the part of speech information specified in the part of speech specification step, to obtain a linguistically correct word string. A character recognition method, comprising: a word path selecting step; and a recognition candidate correcting step of correcting a character recognition result according to a result obtained in the word path selecting step.
【請求項7】 コンピュータを、入力された画像中の文
字画像に対して文字認識処理を行う文字認識装置として
機能させるためのプログラムを記録したコンピュータ読
み取り可能な記録媒体であって、 前記画像中の特定の画像領域に対する品詞情報を指定す
る品詞指定部と、 前記画像中の文字画像の文字認識を行う文字認識部と、 前記文字認識部から得た文字認識候補を言語辞書と前記
品詞指定部で指定された品詞情報に基づいて言語解析し
て言語的に正しい単語列を得る単語パス選択部と、 前記単語パス選択部で得た結果に応じて文字認識結果を
修正する認識候補修正部とを備えた文字認識プログラム
を記録したことを特徴とするコンピュータ読み取り可能
な記録媒体。
7. A computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs a character recognition process on a character image in an input image, wherein A part-of-speech designation unit that designates part-of-speech information for a specific image area; a character recognition unit that performs character recognition of a character image in the image; a character recognition candidate obtained from the character recognition unit; a language dictionary and the part-of-speech designation unit A word path selection unit that obtains a linguistically correct word string by performing language analysis based on the specified part of speech information, and a recognition candidate correction unit that corrects a character recognition result according to the result obtained by the word path selection unit. A computer-readable recording medium on which a character recognition program provided is recorded.
【請求項8】 入力された画像中の文字画像に対して文
字認識処理を行う文字認識装置において、 前記画像中の文字画像の文字認識を行う文字認識部と、 前記文字認識部から得た文字認識候補を言語辞書に基づ
いて言語解析して言語的に正しい単語列を得る単語パス
選択部と、 前記単語パス選択部で得た結果に応じて文字認識結果を
修正する認識候補修正部と、 前記認識候補修正部で修正後の各文字に対する認識結果
の確からしさを計算する確信度算出部とを備え、 前記確信度算出部は、確信度を求める文字が含まれてい
る前記単語パス中の単語の語順が特定の順序のとき、そ
の順序に応じて確信度を修正することを特徴とする文字
認識装置。
8. A character recognition device for performing a character recognition process on a character image in an input image, a character recognition unit for performing character recognition of a character image in the image, and a character obtained from the character recognition unit. A word path selecting unit that obtains a linguistically correct word string by performing language analysis on the recognition candidate based on the language dictionary; a recognition candidate correcting unit that corrects a character recognition result according to a result obtained by the word path selecting unit; A confidence calculation unit that calculates the likelihood of the recognition result for each character after the correction in the recognition candidate correction unit, wherein the certainty calculation unit includes a character whose confidence is to be determined, in the word path. When the word order of a word is a specific order, a certainty factor is corrected according to the order.
【請求項9】 請求項8に記載の文字認識装置におい
て、 前記確信度算出部は、前記単語の語順が単語の品詞によ
って作られる品詞列であって、その品詞列の接続可能性
によって確信度を修正することを特徴とする文字認識装
置。
9. The character recognition device according to claim 8, wherein the certainty factor calculating unit determines the certainty factor based on a part-of-speech sequence in which the word order of the word is formed by the part of speech of the word. A character recognition device characterized by correcting the following.
【請求項10】 請求項9に記載の文字認識装置におい
て、 前記確信度算出部の前記品詞列の接続可能性は、その品
詞列に未知語が多い場合には、 確信度を求める文字の属する単語の単語長よりも認識時
の候補順位を重視して確信度を修正することを特徴とす
る文字認識装置。
10. The character recognition device according to claim 9, wherein the connectability of the part-of-speech sequence of the certainty factor calculating unit includes a character for which the certainty factor is to be determined when the part-of-speech sequence has many unknown words. A character recognition apparatus for correcting a certainty factor with emphasis on candidate ranking at the time of recognition rather than word length of a word.
【請求項11】 請求項9に記載の文字認識装置におい
て、 前記確信度算出部の前記品詞列の接続可能性は、その品
詞列に同種の固有名詞が連続している場合には、通常の
名詞の連接よりも接続可能性を重視して確信度を修正す
ることを特徴とする文字認識装置。
11. The character recognition device according to claim 9, wherein the connectability of the part-of-speech sequence of the certainty factor calculating unit is a normal part-of-speech sequence when the part-of-speech sequence includes a series of proper nouns. A character recognition device that corrects a certainty factor with an emphasis on connectability over noun concatenation.
【請求項12】 入力された画像中の文字画像に対して
文字認識処理を行う文字認識方法において、 前記画像中の文字画像の文字認識を行う文字認識工程
と、 前記文字認識工程から得た文字認識候補を言語辞書に基
づいて言語解析して言語的に正しい単語列を得る単語パ
ス選択工程と、 前記単語パス選択工程で得た結果に応じて文字認識結果
を修正する認識候補修正工程と、 前記認識候補修正工程で修正後の各文字に対する認識結
果の確からしさを計算する確信度算出工程とを備え、 前記確信度算出工程は、確信度を求める文字が含まれて
いる前記単語パス中の単語の語順が特定の順序のとき、
その順序に応じて確信度を修正することを特徴とする文
字認識方法。
12. A character recognition method for performing character recognition processing on a character image in an input image, comprising: a character recognition step of performing character recognition of a character image in the image; and a character obtained from the character recognition step. A word path selecting step of linguistically analyzing a recognition candidate based on a language dictionary to obtain a linguistically correct word string; a recognition candidate correcting step of correcting a character recognition result according to a result obtained in the word path selecting step; A confidence calculation step of calculating the likelihood of the recognition result for each character after the correction in the recognition candidate correction step, wherein the confidence calculation step includes: When the word order is a specific order,
A character recognition method characterized by correcting certainty according to the order.
【請求項13】 コンピュータを、入力された画像中の
文字画像に対して文字認識処理を行う文字認識装置とし
て機能させるためのプログラムを記録したコンピュータ
読み取り可能な記録媒体であって、 前記画像中の文字画像の文字認識を行う文字認識部と、 前記文字認識部から得た文字認識候補を言語辞書に基づ
いて言語解析して言語的に正しい単語列を得る単語パス
選択部と、 前記単語パス選択部で得た結果に応じて文字認識結果を
修正する認識候補修正部と、 前記認識候補修正部で修正後の各文字に対する認識結果
の確からしさを計算する確信度算出部とを備え、 前記確信度算出部は、確信度を求める文字が含まれてい
る前記単語パス中の単語の語順が特定の順序のとき、そ
の順序に応じて確信度を修正する機能の文字認識プログ
ラムを記録したコンピュータ読み取り可能な記録媒体。
13. A computer-readable recording medium storing a program for causing a computer to function as a character recognition device that performs a character recognition process on a character image in an input image, wherein A character recognition unit that performs character recognition of a character image; a word path selection unit that obtains a linguistically correct word string by performing language analysis on a character recognition candidate obtained from the character recognition unit based on a language dictionary; A recognition candidate correction unit that corrects a character recognition result according to the result obtained by the unit; and a confidence calculation unit that calculates the likelihood of the recognition result for each character corrected by the recognition candidate correction unit. When the word order of the words in the word path including the character for which the degree of certainty is required is in a specific order, a character recognition program having a function of correcting the degree of certainty according to the order. A computer-readable recording medium.
【請求項14】 入力された画像中の文字画像に対して
文字認識処理を行う文字認識装置において、 前記画像中の特定の画像領域に対する品詞情報を指定す
る品詞指定部と、 前記画像中の文字画像の文字認識を行う文字認識部と、 前記文字認識部から得た文字認識候補を言語辞書と前記
品詞指定部で指定された品詞情報に基づいて言語解析し
て言語的に正しい単語列を得る単語パス選択部と、 前記単語パス選択部で得た結果に応じて文字認識結果を
修正する認識候補修正部と、 前記認識候補修正部で修正後の各文字に対する認識結果
の確からしさを計算する確信度算出部とを備え、 前記確信度算出部は、確信度を求める文字が含まれてい
る前記単語パス中の単語の語順が特定の順序のとき、そ
の順序に応じて確信度を修正することを特徴とする文字
認識装置。
14. A character recognition device for performing a character recognition process on a character image in an input image, comprising: a part of speech designation unit that designates part of speech information for a specific image area in the image; A character recognition unit that performs character recognition of an image; and a language analysis of a character recognition candidate obtained from the character recognition unit based on the language dictionary and the part of speech information specified by the part of speech specification unit to obtain a linguistically correct word string. A word path selection unit, a recognition candidate correction unit that corrects a character recognition result according to the result obtained by the word path selection unit, and a probability of the recognition result for each character after correction by the recognition candidate correction unit is calculated. A certainty factor calculating unit, wherein the certainty factor calculating unit corrects the certainty factor in accordance with the word order of the word in the word path including the character for which the certainty factor is required when the word order is a specific order. It is characterized by Character recognition device.
JP2001077281A 2001-03-16 2001-03-16 Character recognition device and method, and recording medium Pending JP2002279354A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001077281A JP2002279354A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001077281A JP2002279354A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Publications (1)

Publication Number Publication Date
JP2002279354A true JP2002279354A (en) 2002-09-27

Family

ID=18934062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001077281A Pending JP2002279354A (en) 2001-03-16 2001-03-16 Character recognition device and method, and recording medium

Country Status (1)

Country Link
JP (1) JP2002279354A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002257A (en) * 2012-06-18 2014-01-09 Nippon Telegr & Teleph Corp <Ntt> Language model generation apparatus, method thereof and program
JP2014120059A (en) * 2012-12-18 2014-06-30 Fuji Xerox Co Ltd Information processing apparatus and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002257A (en) * 2012-06-18 2014-01-09 Nippon Telegr & Teleph Corp <Ntt> Language model generation apparatus, method thereof and program
JP2014120059A (en) * 2012-12-18 2014-06-30 Fuji Xerox Co Ltd Information processing apparatus and information processing program

Similar Documents

Publication Publication Date Title
US7142716B2 (en) Apparatus for searching document images using a result of character recognition
JP3531468B2 (en) Document processing apparatus and method
US7295964B2 (en) Apparatus and method for selecting a translation word of an original word by using a target language document database
JPH08305730A (en) Automatic method for selection of key phrase from document of machine-readable format to processor
JPH10207988A (en) Method and device for character recognition
US20040220919A1 (en) Information searching apparatus and method, information searching program, and storage medium storing the information searching program
JP2004133565A (en) Postprocessing device for character recognition using internet
JP2002279354A (en) Character recognition device and method, and recording medium
JP4718699B2 (en) Character recognition device, character recognition method, program, and computer-readable recording medium
JP3080066B2 (en) Character recognition device, method and storage medium
JP2000148754A (en) Multilingual system, multilingual processing method, and medium storing program for multilingual processing
JP2006227914A (en) Information search device, information search method, program and storage medium
US5689583A (en) Character recognition apparatus using a keyword
JPH07244491A (en) Conversion system for text sound
JP2002063197A (en) Retrieving device, recording medium and program
JP2003178261A (en) Character recognizing device and program
JP2827066B2 (en) Post-processing method for character recognition of documents with mixed digit strings
JPH07271921A (en) Character recognizing device and method thereof
JP3071745B2 (en) Post-processing method of character recognition result
JPH0652151A (en) Common starting learning device and kana@(3754/24)japanese syllabary)-kanji@(3754/24)chinese character) conversion device using it
JP2006163830A (en) Character recognizing device, character recognizing method, and character recognizing program
JPH0991386A (en) Document analyzing device and morpheme analyzing method
JPH09269945A (en) Method and device for converting media
JPH10293811A (en) Document recognition device and method, and program storage medium
JPH117448A (en) Recording medium and character input device