JPH09238247A - Optical character reader - Google Patents

Optical character reader

Info

Publication number
JPH09238247A
JPH09238247A JP8042822A JP4282296A JPH09238247A JP H09238247 A JPH09238247 A JP H09238247A JP 8042822 A JP8042822 A JP 8042822A JP 4282296 A JP4282296 A JP 4282296A JP H09238247 A JPH09238247 A JP H09238247A
Authority
JP
Japan
Prior art keywords
image data
image
unit
resolution
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8042822A
Other languages
Japanese (ja)
Inventor
Yoshihisa Fujishima
敬久 藤島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP8042822A priority Critical patent/JPH09238247A/en
Publication of JPH09238247A publication Critical patent/JPH09238247A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To conduct character recognition processing efficiently by eliminating a half tone screen pattern on a document by means of a half tone screen elimination means in the pre-processing of character recognition especially with respect to the optical character reader. SOLUTION: The reader is provided with a scanner section 11, a storage means 12 storing image information read by the scanner section 11, a resolution adjustment means 13a adjusting the resolution of an image read by the scanner section 11, a comparator means 14a comparing the image data recorded in the storage means 12 with image data read from the scanner section 11, the image data whose resolution is set lower than the resolution of the image data stored in the storage means 12 are compared with the image data stored in the storage means 12 by the comparator means 14a to extract and eliminate a half tone screen picture element formed in a read area of a document.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、光学式文字読取装
置(OCR)の文字認識の前処理における網かけ除去手
段に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a shading removing means in preprocessing of character recognition of an optical character reader (OCR).

【0002】近年、帳票上に記入された文字をスキャナ
等によって読み取り、読み取った画像を認識処理しコン
ピュータへの入力に用いるOCRが普及してきている。
近年のワードプロセッサやパーソナルコンピュータの普
及にともない、専用のOCR用帳票(例えば、後述の紙
の地色を文字色とは異なるように構成した帳票)を用い
ず、普通紙に自由な帳票フォーマットで印刷された帳票
に記載された文字を読み取らせたいという要求が生じて
いる。
In recent years, OCR has become widespread, in which characters written on a form are read by a scanner or the like, the read image is subjected to recognition processing, and used for input to a computer.
With the spread of word processors and personal computers in recent years, it is possible to print on plain paper in a free form format without using a dedicated OCR form (for example, a form in which the background color of the paper described later is different from the character color). There is a demand for reading the characters written in the prepared form.

【0003】帳票の読み取る際には、コンピュータへの
入力として用いられるべき文字のほかにも、帳票の汚
れ、罫線や文様など、認識処理の対象としては不要な画
像データも含まれている。これらの不要画像は認識処理
の時間を増大させ誤認識の原因となるため、認識処理の
前に除去する必要がある。
When reading a form, in addition to characters to be used as input to the computer, image data that is unnecessary for recognition processing, such as stains on the form, ruled lines and patterns, is also included. Since these unnecessary images increase the recognition processing time and cause erroneous recognition, they need to be removed before the recognition processing.

【0004】[0004]

【従来の技術】図10は、従来の光学式文字読取装置を
説明する図である。図10において、1 が光学式文字読
取装置を示し、2 は該光学式文字読取装置で読み取った
文字を入力する計算機である。
2. Description of the Related Art FIG. 10 is a diagram for explaining a conventional optical character reader. In FIG. 10, 1 is an optical character reading device, and 2 is a computer for inputting characters read by the optical character reading device.

【0005】従来の光学式文字読取装置 1では、前述の
ように、OCR用の帳票 10 では紙の地色を文字色とは
異なる専用のOCR用帳票を使い、あるいは帳票 10 上
の認識対象とする領域Aを、特定のファイル記憶装置 1
3 に記憶しておき、該特定のファイル記憶装置 13 に記
憶されている領域Aを示す情報を用いて、該領域A外の
罫線や文様をスキャナ 11 で読み取らないようにしてい
た。
In the conventional optical character reader 1, as described above, the OCR form 10 uses a dedicated OCR form in which the background color of the paper is different from the character color, or is used as a recognition target on the form 10. Area A to be stored in a specific file storage device 1
The ruled lines and patterns outside the area A are not read by the scanner 11 by using the information indicating the area A stored in the specific file storage device 13 in advance.

【0006】[0006]

【発明が解決しようとする課題】ところが、ワードプロ
セッサやパーソナルコンピュータで作成した帳票類に
は、記入者が記入領域を認識しやすいようにドットや細
線による網かけが行われている場合があり、網かけの上
に記載された文字をスキャナ等で読み取ると、網かけの
文様のために画像要素が増えることにより認識処理時間
が増大したり、網かけの文様と記載された文字とが重な
って文字として認識できなくなるという問題があった。
However, forms created by a word processor or a personal computer are sometimes shaded with dots or fine lines so that the person who is writing can easily recognize the writing area. When the characters written on the screen are read by a scanner etc., the recognition process time increases due to the increase of image elements due to the shaded patterns, and the characters written with the shaded patterns overlap. There was a problem that could not be recognized as.

【0007】類似の技術として、特開平5-135203号公報
「文書画像処理システムおよび文書画像処理方法」があ
る。該特開平5-135203号公報「文書画像処理システムお
よび文書画像処理方法」には、要約すると、「帳票を読
み取る前に、基準画像として、帳票上の文書イメージを
記録しておき、該帳票に文字を記入した後の文書イメー
ジと比較することにより、該網かけ等の基準となる文書
イメージを除去する」ものであり、該基準画像の登録が
ない場合には、網かけを除去することができないとか、
多種類の帳票を扱うためには、多くの基準画像を記録し
ておくための大容量の記憶装置が必要とする問題があっ
た。
As a similar technique, there is Japanese Patent Laid-Open No. 5-135203, "Document image processing system and document image processing method". In Japanese Patent Laid-Open No. 5-135203, “Document image processing system and document image processing method”, in summary, “a document image on a form is recorded as a reference image before the form is read, and the form is recorded on the form. By comparing with the document image after writing characters, the reference document image such as the shading is removed. "If the reference image is not registered, the shading can be removed. I can't do it
There is a problem that a large-capacity storage device for recording a large number of reference images is required to handle many types of forms.

【0008】本発明は上記従来の欠点に鑑み、大容量の
記憶装置を設けることなく、帳票上の網かけ文様を除去
し、効率よく文字の認識処理を行える認識前処理手段を
提供することを目的とするものである。
In view of the above-mentioned drawbacks of the prior art, the present invention provides a pre-recognition processing means capable of efficiently recognizing characters by removing halftone patterns on a form without providing a large-capacity storage device. It is intended.

【0009】[0009]

【課題を解決するための手段】図1〜図3は、本発明の
原理構成図であり、図1は、本発明の請求項1,2の原
理構成例を示し、図2は、本発明の請求項3の原理構成
例を示し、図3は、本発明の請求項4,5の原理構成例
を示している。上記の問題点は下記の如くに構成した光
学式文字読取装置によって解決される。
1 to 3 are diagrams showing the principle of the present invention, FIG. 1 shows an example of the principles of the present invention, and FIG. 2 shows the present invention. 3 shows an example of the principle configuration of claim 3, and FIG. 3 shows an example of the principle configuration of claims 4 and 5 of the present invention. The above problems can be solved by the optical character reader configured as follows.

【0010】(1) 光学式文字読取装置 1であって、画像
を読み取り光学信号を電気信号に変換するスキャナ部 1
1 と、前記スキャナ部 11 によって読み取った画像情報
を記録する記憶手段 12 と、前記スキャナ部11 が読み
取る画像の解像度を調整する第1の解像度調整手段 13a
と、前記記憶手段 12 に記録された画像データと、前記
スキャナ部 11 から読み取った画像データとを比較する
比較手段 14aを備え、前記第1の解像度調整手段 13aに
よって記憶手段 12 に記録された画像データより解像度
を低くして、前記スキャナ部 11 から読み取った画像デ
ータと、前記記憶手段 12 に記録されている画像データ
を前記比較手段 14aにより比較することによって、帳票
の読み取り領域に形成された網かけの画像要素を抽出除
去するように構成する。
(1) An optical character reader 1, which is a scanner unit 1 for reading an image and converting an optical signal into an electric signal
1, storage means 12 for recording the image information read by the scanner section 11, and first resolution adjusting means 13a for adjusting the resolution of the image read by the scanner section 11.
And an image data recorded in the memory means 12 by the first resolution adjusting means 13a, the image data recorded in the memory means 12 being compared with image data read from the scanner section 11. The resolution is lower than that of the data, and the image data read from the scanner unit 11 and the image data recorded in the storage unit 12 are compared by the comparison unit 14a to form a network formed in the reading area of the form. It is configured to extract and remove the false image elements.

【0011】(2) 光学式文字読取装置 1であって、画像
を読み取り光学信号を電気信号に変換するスキャナ部 1
1 と、前記スキャナ部 11 によって読み取った画像情報
を記録する記憶手段 12 と、前記スキャナ部11 が読み
取った画像の解像度を調整する第2の解像度調整手段 1
3bと、前記記憶手段 12 に記録された画像データと、上
記第2の解像度調整手段 13bから出力される画像データ
とを比較する比較手段 14aを備え、前記第2の解像度調
整手段 13bによって記憶手段 12 に記録された画像デー
タより解像度を低くした画像データと、前記記憶手段 1
2 に記録されている画像データを前記比較手段 14aによ
り比較することによって、帳票の読み取り領域に形成さ
れた網かけの画像要素を抽出除去する。
(2) The optical character reader 1, which is a scanner unit 1 for reading an image and converting an optical signal into an electric signal
1, storage means 12 for recording the image information read by the scanner section 11, and second resolution adjusting means 1 for adjusting the resolution of the image read by the scanner section 11.
3b and a comparison means 14a for comparing the image data recorded in the storage means 12 with the image data output from the second resolution adjustment means 13b, and the storage means by the second resolution adjustment means 13b. Image data having a resolution lower than that of the image data recorded in 12, and the storage means 1
By comparing the image data recorded in 2 with the comparison means 14a, the shaded image elements formed in the reading area of the form are extracted and removed.

【0012】(3) 光学式文字読取装置 1であって、画像
を読み取り光学信号を電気信号に変換するスキャナ部 1
1 と、前記スキャナ部 11 によって読み取った画像情報
を記録する記憶手段 12 と、前記記録されている画像デ
ータの密度変換を行う密度変換手段 15 と、前記密度変
換手段 15 によって密度変換された画像データと、前記
記憶手段 12 に記録された画像データとを比較する比較
手段 14bを備え、前記密度変換手段 15 によって密度変
換された画像データと、前記記憶手段 12 に記録された
画像データとを、前記比較手段 14bにより比較すること
により、帳票の読み取り領域に形成された網かけの画像
要素を抽出除去するように構成する。
(3) The optical character reader 1, which is a scanner unit 1 for reading an image and converting an optical signal into an electric signal
1, a storage unit 12 for recording image information read by the scanner unit 11, a density conversion unit 15 for performing density conversion of the recorded image data, and image data density-converted by the density conversion unit 15. And a comparison means 14b for comparing the image data recorded in the storage means 12 with the image data density-converted by the density conversion means 15 and the image data recorded in the storage means 12 The comparison means 14b is configured to extract and remove the shaded image elements formed in the reading area of the form.

【0013】(4) 光学式文字読取装置 1であって、画像
を読み取り光学信号を電気信号に変換するスキャナ部 1
1 と、前記スキャナ部 11 によって読み取った画像情報
を記録する記憶手段 12 と、前記記憶手段 12 に記録さ
れた画像データから、所定の孤立点を抽出する抽出手段
16 を備え、前記抽出手段 16 として、近傍の孤立点同
士の位置関係を関数化し、該関数化した孤立点同士の位
置関係を用いて、孤立点の位置を認識して、該孤立点の
画像データと、前記記憶手段 12 に記録されている画像
データとから、網かけによって生じた孤立点を抽出除去
する演算手段 14cを備えるように構成する。
(4) The optical character reader 1, which is a scanner unit 1 for reading an image and converting an optical signal into an electric signal
1, a storage unit 12 for recording the image information read by the scanner unit 11, and an extraction unit for extracting a predetermined isolated point from the image data recorded in the storage unit 12.
As the extraction means 16, the positional relationship between neighboring isolated points is made into a function, the position of the isolated point is recognized by using the functionalized positional relationship between the isolated points, and the image of the isolated point is obtained. An arithmetic means 14c for extracting and removing isolated points generated by shading from the data and the image data recorded in the storage means 12 is provided.

【0014】(5) 光学式文字読取装置 1であって、画像
を読み取り光学信号を電気信号に変換するスキャナ部 1
1 と、前記スキャナ部 11 によって読み取った画像情報
を記録する記憶手段 12 と、前記記憶手段 12 に記録さ
れた画像データから、所定の孤立点を抽出する抽出手段
16 を備え、前記抽出手段 16 として、近傍の孤立点同
士の位置関係を関数化し、該関数化した孤立点同士の位
置関係を用いて、孤立点の位置を認識して、該孤立点の
画像データを抽出と、前記記憶手段に記録されてい画像
データとから、網かけによって生じた孤立点を抽出除去
する演算手段 14cと、該演算手段 14cによって、網かけ
によって生じた孤立点を抽出除去することによって生じ
た画像データの欠落を補完する補完手段 17 を備えるよ
うに構成する。
(5) An optical character reader 1, which is a scanner unit 1 for reading an image and converting an optical signal into an electric signal
1, a storage unit 12 for recording the image information read by the scanner unit 11, and an extraction unit for extracting a predetermined isolated point from the image data recorded in the storage unit 12.
As the extraction means 16, the positional relationship between neighboring isolated points is functionalized, the position of the isolated point is recognized by using the functionalized positional relationship between the isolated points, and an image of the isolated point is provided. Calculating means 14c for extracting data and extracting and removing isolated points generated by shading from the image data recorded in the storage means, and extracting and removing isolated points generated by shading by the calculating means 14c It is configured to include a complementing means 17 for complementing the loss of image data caused by the above.

【0015】即ち、図1(a) は、本発明の請求項1の原
理構成図であり、本光学式文字読取装置では、先ず、図
1(a) のスキャナ部に帳票 10 より画像情報を入力し、
記憶手段 12 に記録する。第1の解像度調整手段 13aで
は、スキャナ部 11 の読み取り解像度を制御する。比較
手段 14aでは、上記スキャナ部 11 と記憶手段 12 から
入力される画像データを比較 (例えば、論理積による)
し結果を出力するようにしたものである。
That is, FIG. 1 (a) is a principle configuration diagram of claim 1 of the present invention. In the present optical character reading apparatus, first, image information is read from the form 10 in the scanner section of FIG. 1 (a). type in,
Record in storage means 12. The first resolution adjusting means 13a controls the reading resolution of the scanner section 11. The comparison unit 14a compares the image data input from the scanner unit 11 and the storage unit 12 (for example, by logical product).
Then, the result is output.

【0016】図1(b) は、本発明の請求項2の原理構成
図であり、スキャナ部 11 が読み取った画像の解像度を
調整する第2の解像度調整手段 13bと、前記記憶手段 1
2 に記録された画像データと、上記第2の解像度調整手
段 13bから出力される画像データとを比較する比較手段
14aを備えて、前記第2の解像度調整手段 13bによって
記憶手段 12 に記録された画像データより解像度を低く
した画像データと、前記記憶手段 12 に記録されている
画像データを前記比較手段 14aにより比較(例えば、論
理積による)し結果を出力するようにしたものである。
FIG. 1 (b) is a principle configurational diagram of claim 2 of the present invention, which is a second resolution adjusting means 13b for adjusting the resolution of an image read by the scanner section 11 and the storing means 1
Comparing means for comparing the image data recorded in 2 with the image data output from the second resolution adjusting means 13b.
The image data recorded in the storage means 12 is compared with the image data recorded in the storage means 12 by the second resolution adjusting means 13b and the image data recorded in the storage means 12 is compared by the comparison means 14a. The result is output (for example, by logical product).

【0017】図2は、本発明の請求項3の原理構成図で
あり、記憶手段 12 に記憶されている画像データと、密
度変換手段 15 によって密度変換された画像データを比
較手段 14bによって比較 (例えば、論理積による) し結
果を出力するようにしたものである。
FIG. 2 is a principle block diagram of claim 3 of the present invention, in which the image data stored in the storage means 12 and the image data density-converted by the density conversion means 15 are compared by the comparison means 14b ( For example, the result is output (by logical product).

【0018】図3は、本発明の請求項4および請求項5
の原理構成図である。抽出手段 16によって記憶手段 12
に記録された画像データ中の孤立点を抽出し、演算手
段 (例えば、排他的論理和による) 14c を通すことによ
って元の画像データから抽出された孤立点を除去し出力
するようにしたものである。又、孤立点を除去すること
によって生じた文字の画像データの欠落を補完するよう
にしたものである。
FIG. 3 shows claims 4 and 5 of the present invention.
It is a principle block diagram of. Storage means 12 by extraction means 16
The isolated points in the image data recorded in are extracted, and the isolated points extracted from the original image data are removed and output by passing through an arithmetic means (for example, by exclusive OR) 14c. is there. In addition, the lack of the image data of the character caused by removing the isolated points is complemented.

【0019】一般的に、網かけに用いられる文様を構成
する画素の数は、文字の占める画素数に比べて少なく、
また画像の大きさが均等であるという特徴を持ってい
る。従って、画像を読み取る解像度を下げていけば、網
かけの文様の大きさに準じて、ある解像度以下では網か
けの文様が読み取れなくなり、読み取り要素数が激減す
る。
Generally, the number of pixels constituting a pattern used for shading is smaller than the number of pixels occupied by characters,
It also has the feature that the size of the image is uniform. Therefore, if the resolution for reading an image is lowered, the shaded pattern cannot be read below a certain resolution according to the size of the shaded pattern, and the number of reading elements is drastically reduced.

【0020】本発明の請求項1および請求項2は、上記
の性質を利用するものであって、請求項1では、スキャ
ナ部 11 の画像解像度を変化させることによって、又、
請求項2では、スキャナ部 11 で読み取り記憶手段 12
に記録されている画像データの解像度を変化させること
によって、又、請求項3では、読み取った画像データに
密度変換 (例えば、公知のアフィン変換) を施すことに
よって網かけ文様を消去する。具体的には、比較部 14
a,bにおいて、網かけ文様消去後の画像データと元の画
像データとの論理積をとることで、網かけによって生じ
た画像要素を除去するものである。
Claims 1 and 2 of the present invention make use of the above characteristics, and in claim 1, the image resolution of the scanner unit 11 is changed, and
According to the second aspect, the scanner unit 11 reads and stores the data.
The halftone pattern is erased by changing the resolution of the image data recorded in (1) or by subjecting the read image data to density conversion (for example, known affine conversion). Specifically, the comparison unit 14
In a and b, the image element generated by shading is removed by taking the logical product of the image data after shading pattern deletion and the original image data.

【0021】また、網かけ文様は、例えば、均等な間隔
をもった平行線群、一定の角度をもって交差する平行線
群の、あるいは一定の角度をもって交差する平行線群の
交点というように、規則性を持った文様が一般的に使用
される。本発明の請求項3は上記の性質を利用したもの
で、例えば、本発明の請求項1,2あるいは請求項3を
用いて、抽出した画像データから、網かけ文様の画像要
素の位置関係の規則性を関数化して、該網かけ文様があ
るべき位置の画像要素を除去するものである。
Further, the shaded pattern is a rule such as a group of parallel lines having even intervals, a group of parallel lines intersecting at a constant angle, or an intersection of groups of parallel lines intersecting at a constant angle. Characteristic patterns are generally used. Claim 3 of the present invention utilizes the above characteristics. For example, according to claim 1, 2 or 3 of the present invention, the positional relationship of the image elements of the shaded pattern is extracted from the extracted image data. The regularity is converted into a function to remove the image element at the position where the shaded pattern should be.

【0022】更に、本発明の請求項5では、例えば、本
発明の上記請求項4を用いて検出された網かけ文様の画
像要素の一部が文字画像と重複していた場合に、網かけ
文様の画像要素を除去すると、本来の文字画像の一部が
欠落してしまうのを補完するものである。
Further, in claim 5 of the present invention, for example, when a part of the image elements of the halftone dot pattern detected by using the above claim 4 of the present invention overlaps with the character image, halftone dot When the image element of the pattern is removed, it is complemented that a part of the original character image is lost.

【0023】従って、本発明の光学式画像読取装置によ
れば、従来技術のように、専用のOCR用帳票を使用す
ることなく、又、予め、帳票のイメージデータ,帳票領
域を記憶することなく、網かけされた領域に記入された
文字の画像データであっても、文字画像データのみを抽
出することができ、文字入力処理の処理時間を大幅に短
縮することができ、誤認識の防止や認識不能文字の発生
の防止に寄与することが大きい。
Therefore, according to the optical image reading apparatus of the present invention, there is no need to use a dedicated OCR form as in the prior art and to store the image data of the form and the form area in advance. , Even if it is image data of a character written in a shaded area, only the character image data can be extracted, the processing time of the character input processing can be significantly shortened, and the recognition error can be prevented. It greatly contributes to the prevention of unrecognizable characters.

【0024】[0024]

【発明の実施の形態】以下本発明の実施例を図面によっ
て詳述する。前述の図1〜図3は、本発明の原理構成図
であり、図4〜図9が、本発明の一実施例を示した図で
あって、図4は、第2の解像度調整手段の例を示し、図
5は、解像度の調整、具体的には、解像度を低下させ
て、網かけ文様を除去する例を示し、図6は密度変換に
よって、網かけ文様を除去する例を示し、図7は、網か
け文様の位置関係を関数化して、該網かけ文様を除去す
る抽出手段の例を模式的に示し、図8,図9は、網かけ
によって生じた画像要素の除去によって生じた画像デー
タの欠落を補完する例を模式的に示している。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 to FIG. 3 described above are principle configuration diagrams of the present invention, FIG. 4 to FIG. 9 are diagrams showing an embodiment of the present invention, and FIG. 4 shows the second resolution adjusting means. 5 shows an example, FIG. 5 shows an example of removing the shaded pattern by adjusting the resolution, specifically, lowering the resolution, and FIG. 6 shows an example of removing the shaded pattern by density conversion. FIG. 7 schematically shows an example of an extracting means for removing the shaded pattern by functionalizing the positional relationship of the shaded pattern, and FIGS. 8 and 9 show the result of removing the image element caused by the shaded pattern. 9 schematically shows an example of complementing the missing image data.

【0025】本発明においては、光学式文字読取装置 1
であって、画像を読み取り光学信号を電気信号に変換す
るスキャナ部 11 と、前記スキャナ部 11 によって読み
取った画像情報を記録する記憶手段 12 と、前記スキャ
ナ部 11 が読み取る画像の解像度を調整する第1の解像
度調整手段 13aと、前記記憶手段 12 に記録された画像
データと、前記スキャナ部 11 から読み取った画像デー
タとを比較する比較手段 14aを備え、前記第1の解像度
調整手段 13aによって記憶手段 12 に記録された画像デ
ータより解像度を低くして、前記スキャナ部 11 から読
み取った画像データと、前記記憶手段 12 に記録されて
いる画像データを前記比較手段 14aにより比較すること
によって、帳票の読み取り領域に形成された網かけの画
像要素を抽出除去する手段、或いは、前記記録されてい
る画像データの密度変換を行う密度変換手段 15 と、前
記密度変換手段 15 によって密度変換された画像データ
と、前記記憶手段 12 に記録された画像データとを比較
する比較手段 14bを備え、前記密度変換手段 15 によっ
て密度変換された画像データと、前記記憶手段 12に記
録された画像データとを、前記比較手段 14bにより比較
することにより、帳票の読み取り領域に形成された網か
けの画素要素を抽出除去する手段等が、本発明を実施す
るのに必要な手段である。尚、全図を通して同じ符号は
同じ対象物を示している。
In the present invention, the optical character reader 1
A scanner unit 11 for reading an image and converting an optical signal into an electric signal; a storage unit 12 for recording image information read by the scanner unit 11; and a first unit for adjusting the resolution of an image read by the scanner unit 11. The first resolution adjusting means 13a includes a first resolution adjusting means 13a and a comparing means 14a for comparing the image data recorded in the storing means 12 with the image data read from the scanner section 11. The resolution is lower than that of the image data recorded in 12 and the image data read from the scanner unit 11 is compared with the image data recorded in the storage unit 12 by the comparison unit 14a to read the form. Means for extracting and removing shaded image elements formed in the area, or density conversion for performing density conversion of the recorded image data. The image data density-converted by the density conversion means 15 is provided with a conversion means 15 and a comparison means 14b for comparing the image data density-converted by the density conversion means 15 with the image data recorded in the storage means 12. By comparing the data and the image data recorded in the storage means 12 by the comparison means 14b, a means for extracting and removing the shaded pixel elements formed in the reading area of the form, and the like are provided. It is a necessary means to carry out. Note that the same reference numerals indicate the same object throughout the drawings.

【0026】以下、図1〜図3の原理構成図を参照しな
がら、本発明の光学式文字読取装置の構成と動作を説明
する。本発明の光学式文字読取装置 1の全体の構成例
は、図1〜図3に示されているように画像を読み取り光
学信号を電気信号に変換するスキャナ部 11 と、前記ス
キャナ部 11 によって読み取った画像情報を記録する記
憶手段 12 とを備え、図1に示されている例では、前記
スキャナ部 11 が読み取る画像の解像度を調整する第1
の解像度調整手段 13aと、前記記憶手段 12 に記録され
た画像データと、前記スキャナ部 11 から読み取った画
像データとを比較する比較手段 14aを備えるか、又は、
前記スキャナ部 11 が読み取った画像の解像度を調整す
る第2の解像度調整手段 13bと、前記記憶手段 12 に記
録された画像データと、上記第2の解像度調整手段 13b
から出力される画像データとを比較する比較手段 14aを
備えている。
The configuration and operation of the optical character reader of the present invention will be described below with reference to the principle configuration diagrams of FIGS. As shown in FIGS. 1 to 3, the optical character reader 1 according to the present invention has an overall configuration example in which a scanner section 11 for reading an image and converting an optical signal into an electric signal and a scanner section 11 for reading the image are read. Storage unit 12 for recording image information, and in the example shown in FIG. 1, a first unit for adjusting the resolution of an image read by the scanner unit 11 is provided.
Resolution adjusting means 13a, and comparing means 14a for comparing the image data recorded in the storage means 12 with the image data read from the scanner section 11, or
Second resolution adjusting means 13b for adjusting the resolution of the image read by the scanner section 11, image data recorded in the storing means 12, and the second resolution adjusting means 13b.
It is provided with a comparison means 14a for comparing the image data output from the.

【0027】図4は、上記図1に示されている第2の解
像度調整手段 13bの一実施例を示したもので、本発明の
請求項2の一実施例構成図である。本図において、110
はスキャナ部 11 に使われる例えばCCD等の光電子変
換素子である。CCD 110の出力はデジタル信号として
読み取られ、例えば黒画素が“1”、白画素が“0”と
して出力される。本実施例では、該第2の解像度調整手
段 13bは隣接するCCD 110の出力の論理積をとること
で実現しており、2入力論理積によって解像度を1/2
に、3入力論理積によって解像度を1/3にすることが
できる。イネーブル線A,Bは、例えば、上記2入力論
理積で解像度を1/2に低下させるか、3入力論理積に
よって解像度を1/3に低下させるかを選択する制御信
号線である。図中 13bは、上記論理積回路の具体的な構
成例であり、隣接するCCD 110の出力の論理積をとっ
た画素信号を、論理和回路で元の画素数に展開して出力
する構成をとることで、記憶手段 12 に記憶されている
元の画像データと比較器 14aで比較することができる。
FIG. 4 shows an embodiment of the second resolution adjusting means 13b shown in FIG. 1, and is a block diagram of an embodiment of claim 2 of the present invention. In this figure, 110
Is a photoelectric conversion element such as a CCD used in the scanner section 11. The output of the CCD 110 is read as a digital signal and, for example, a black pixel is output as "1" and a white pixel is output as "0". In the present embodiment, the second resolution adjusting means 13b is realized by taking the logical product of the outputs of the adjacent CCDs 110, and the resolution is halved by the 2-input logical product.
In addition, the resolution can be reduced to 1/3 by the 3-input logical product. The enable lines A and B are, for example, control signal lines for selecting whether to reduce the resolution to 1/2 by the 2-input logical product or to reduce the resolution to 1/3 by the 3-input logical product. In the figure, 13b is a specific configuration example of the AND circuit, which has a configuration in which a pixel signal obtained by ANDing the outputs of the adjacent CCDs 110 is expanded to the original number of pixels by the OR circuit and output. By doing so, the original image data stored in the storage means 12 can be compared with the comparator 14a.

【0028】図5(a) はCCD 110で読み取った画像デ
ータの一例で、網かけによって生じた画像要素 11aと本
来の文字画像によって生じた画像要素 11bがある。この
画像を、上記図4に示した第2の解像度調整手段 13bに
よって左右方向に隣接するCCD 110の論理積をとって
読み込めば、図5(b) の画像データが得られる。解像度
を1/2にすることによって、網かけ文様による画像要
素 11aは読み取られなくなり、文字画像による画像要素
11bだけが読み取られる。比較部 14aに、図5(a) およ
び(b) の画像データを入力し、画素同士の論理積をとる
ことによって文字画像の画像要素 11bだけを抽出するこ
とができ、排他的論理和をとることによって網かけ文様
による画像要素 11aを抽出することができる。
FIG. 5A shows an example of image data read by the CCD 110, and there are an image element 11a generated by halftone and an image element 11b generated by an original character image. When this image is read by taking the logical product of the CCDs 110 adjacent in the left-right direction by the second resolution adjusting means 13b shown in FIG. 4, the image data of FIG. 5B is obtained. By reducing the resolution to 1/2, the image element 11a in the shaded pattern cannot be read and the image element in the character image
Only 11b is read. By inputting the image data of FIGS. 5A and 5B to the comparison unit 14a and taking the logical product of the pixels, only the image element 11b of the character image can be extracted, and the exclusive OR is taken. As a result, the image element 11a in the shaded pattern can be extracted.

【0029】なお、上記実施例では解像度調整に、論理
回路を用いたが、例えばCCD 110の走査速度を変える
ことによっても解像度を調整することができる。これ
は、該CCD 110は、帳票からの光子を蓄積することに
よって、白画素、黒画素の画素データを形成する構造で
あるので、例えば、走査速度を速くすることにより、光
量の少ない小さい点等は読み取れなくなり (即ち、蓄積
電荷が少なくなり出力電流が小さくなる) 、結果として
読み取り解像度が低下することによる。図1(a)の第1
の解像度調整手段 13aは、例えば、このような原理に基
づいて、走査速度を変えることにより解像度、具体的に
は、読み取り解像度を低下させるようにした手段に対応
する。該走査線速度は、X方向(主走査)、及びY方向
(副走査)の走査速度を速くすることで、X方向(主走
査)、及びY方向(副走査)の解像度を低下させること
ができる。{請求項1,2に対応する実施例}又、本実
施例では、網かけの文様はドット状であるが、網かけに
用いられる文様が文字の大きさに比べて十分に細けれ
ば、細線による網かけであっても同様の処理を施すこと
ができる。
Although the logic circuit is used for the resolution adjustment in the above embodiment, the resolution can be adjusted by changing the scanning speed of the CCD 110, for example. This is a structure in which the CCD 110 forms pixel data of white pixels and black pixels by accumulating photons from a form, and therefore, for example, by increasing the scanning speed, the amount of light is small and small. Is not readable (that is, the accumulated charge is small and the output current is small), and as a result, the reading resolution is reduced. First in Figure 1 (a)
The resolution adjusting means 13a corresponds to means for reducing the resolution, specifically, the reading resolution by changing the scanning speed based on such a principle. The scanning linear velocity can reduce the resolution in the X direction (main scanning) and the Y direction (sub scanning) by increasing the scanning speed in the X direction (main scanning) and the Y direction (sub scanning). it can. {Examples corresponding to claims 1 and 2} Further, in the present embodiment, the shaded pattern is dot-shaped, but if the pattern used for the shade is sufficiently thin compared to the size of the character, The same processing can be performed even with shading by fine lines.

【0030】図6は、本発明の請求項3の一実施例を模
式的に示した図である。図6(a) は、図2に示した密度
変換手段 15 を公知のアフィン変換を使用して行う場合
の構成例を示しており、15a は画像メモリであり、図2
の記憶手段 12 から読み取った画像データAが格納され
ている。これをアフィン変換部 15bを用いて密度変換を
行い、結果Bを画像メモリ 15cに格納する。
FIG. 6 is a diagram schematically showing an embodiment of claim 3 of the present invention. FIG. 6A shows a configuration example in which the density conversion means 15 shown in FIG. 2 is performed using a known affine transformation, and 15a is an image memory.
The image data A read from the storage means 12 is stored. This is subjected to density conversion using the affine transformation unit 15b, and the result B is stored in the image memory 15c.

【0031】該アフィン変換は数学的な密度変換である
ので、画素密度の調整を、離散的に、連続した数値指定
{例えば、10%, 15%, 〜,100% (密度を低下させない
状態) }で行うことができる。該アフィン変換には、拡
大、縮小変換、回転、密度変換 (縮小→密度計算→拡
大) 等があり、図形を構成しているベクトルの大きさを
変えることにより、図形を変形させる手段である。
Since the affine transformation is a mathematical density transformation, the adjustment of the pixel density is discretely and continuously specified by numerical values (for example, 10%, 15%, ..., 100% (state in which the density is not reduced)). } Can be done. The affine transformation includes enlargement, reduction transformation, rotation, density transformation (reduction → density calculation → enlargement), and is a means for deforming a figure by changing the size of a vector forming the figure.

【0032】図6(c) は、上記アフィン変換によって、
画像データの密度変換を行ったときの画素密度の変換例
を示している。該アフィン変換による密度変換は、前述
のように、縮小→密度計算→拡大によって密度変換を行
うので、二重線で示した領域を、例えば、1/4 に縮小し
て、所定の密度計算を行い、黒、又は、白に認識された
時点で元の大きさの画像データに拡大することで、該図
6(c) に示したような密度変換が行われる。
FIG. 6 (c) shows the above affine transformation
9 shows an example of pixel density conversion when image data density conversion is performed. As described above, the density conversion by the affine transformation is performed by reducing → density calculation → expanding. Therefore, the area indicated by the double line is reduced to, for example, 1/4, and the predetermined density calculation is performed. When the image data is recognized as black or white, the image data of the original size is enlarged to perform the density conversion as shown in FIG. 6 (c).

【0033】一般に、網かけ文様による画素の大きさや
密度が文字画像による画素と比べて均一で、かつ細か
い。このため上記の密度変換手段 15 によって、画像密
度の割合を下げていく(密度を粗くしていく)と、図6
(b) に示すように、ある密度のところで画像要素数が急
激に減少する。このような画像要素数の変化を、所定の
閾値で検出することにより、図6(b) に示されているよ
うに、画素密度aと画素密度bとの差分が網かけによっ
て生じた画像要素と見なすことができるようになる。
In general, the size and density of pixels in a shaded pattern are more uniform and fine than those in a character image. Therefore, if the density conversion means 15 reduces the ratio of the image density (roughens the density), as shown in FIG.
As shown in (b), the number of image elements decreases sharply at a certain density. By detecting such a change in the number of image elements with a predetermined threshold value, as shown in FIG. 6 (b), the difference between the pixel density a and the pixel density b is caused by the meshing of image elements. Can be considered as.

【0034】従って、図2に示した比較手段 14bで画素
密度bのときの画像データBと元の画素密度aの画像デ
ータAとの論理積をとれば、網かけ文様を除去すること
ができる。また、逆に比較手段 14bで画素密度bのとき
の画像データBと元の画像データAとの排他的論理和を
とれば、網かけ文様のみの抽出ができる。
Therefore, if the comparison means 14b shown in FIG. 2 obtains the logical product of the image data B at the pixel density b and the image data A at the original pixel density a, the halftone pattern can be removed. . On the contrary, if the comparing means 14b takes the exclusive OR of the image data B and the original image data A when the pixel density is b, only the halftone dot pattern can be extracted.

【0035】なお、本実施例では網かけの文様はドット
状であるが、網かけに用いられる文様が文字の大きさに
比べて十分に細ければ細線による網かけであっても同様
の処理を施すことができる。
In the present embodiment, the shaded pattern is dot-shaped, but if the pattern used for shading is sufficiently smaller than the size of the character, the same processing may be performed even if it is a thin line. Can be applied.

【0036】図7は、図3の抽出手段 16 の例として、
網かけ文様の位置関係を関数化して、該網かけ文様を除
去する抽出手段の例を模式的に示しており、本発明の請
求項4の実施例に対応する。図7(a),(b) において、16
1 は、網かけ文様による画像要素であり、又、165 は文
字画像による画像要素である。上記網かけ文様を構成し
ている各画像要素 161について近隣の画像要素 161同士
を結ぶと、平行線群α(162) と平行線群β(163) と平行
線群γ(164) との交点として表される。それぞれの平行
線群を関数として表現すれば、平行線群α(162) は y=an (aは定数、n=1,2,3,…) 平行線群β(163) は y=bx+n 同様に平行線群γ(164) は y=−cx+n と表すことができる。
FIG. 7 shows an example of the extraction means 16 of FIG.
The example of the extraction means which functionalizes the positional relationship of a shaded pattern and removes this shaded pattern is shown typically, and corresponds to the Example of Claim 4 of this invention. In Figures 7 (a) and 7 (b), 16
1 is an image element based on a half-tone dot pattern, and 165 is an image element based on a character image. When the neighboring image elements 161 of each image element 161 forming the above shaded pattern are connected, the intersections of the parallel line group α (162), the parallel line group β (163) and the parallel line group γ (164). Expressed as If each parallel line group is expressed as a function, the parallel line group α (162) is y = an (a is a constant, n = 1, 2, 3, ...) The parallel line group β (163) is y = bx + n The parallel line group γ (164) can be expressed as y = −cx + n.

【0037】図7(a) おいて、例えば、本発明の上記請
求項1〜3に示す手段によって、網かけ文様を除去した
場合、結果は図7(b) のようになる。161aは本来網かけ
による画像要素であるが、文字画像に近接しているた
め、上記解像度変換、密度変換等では除去することがで
きない画像要素である。
In FIG. 7 (a), for example, when the shaded pattern is removed by the means described in claims 1 to 3 of the present invention, the result is as shown in FIG. 7 (b). Although 161a is an image element originally shaded, it is an image element that cannot be removed by the above-described resolution conversion, density conversion, etc. because it is close to the character image.

【0038】図7(b) の画像を認識しようとした場合、
本来の文字にはないはずの画像要素161a のために誤認
識したり、あるいは認識できなかったりする。そこで、
図7(a) において、画像要素 161a が前記関数で示され
る複数個の直線群の交点座標にあることから、上記画像
要素 161a を除去することができる。
When trying to recognize the image of FIG. 7 (b),
The image element 161a, which should not be in the original character, may be erroneously recognized or may not be recognized. Therefore,
In FIG. 7A, since the image element 161a is located at the intersection coordinates of the plurality of straight line groups represented by the function, the image element 161a can be removed.

【0039】具体的には、前述の図3の演算手段 14c
で、排他的論理和演算を行うことにより、上記画像要素
161a を除去することができる。なお、本実施例では網
かけの文様はドット状であるが、網かけに用いられる文
様が細線による網かけであっても同様の処理を施すこと
ができる。
Specifically, the calculating means 14c shown in FIG. 3 is used.
Then, by performing an exclusive OR operation,
161a can be removed. In this embodiment, the shaded pattern is dot-shaped, but the same process can be performed even if the pattern used for the shade is a thin line.

【0040】図8,図9は、網かけによって生じた画像
要素の除去によって生じた画像データの欠落を補完する
例を模式的に示しており、本発明の請求項5に対応する
実施例の説明図である。図8(a) において、165 は、文
字画像による画像要素であり、161 は、網かけによる画
像要素であり、両者は一部重複している。網かけによる
画像要素 161を、例えば、上記本発明の請求項4に記載
されている手段(交点座標の画像要素 161のみの画像デ
ータと、上記交点座標の画像要素 161と文字画像による
画像要素 165を含む画像データとの排他的論理和演算)
を用いて除去すると、本来文字による画像要素 165に欠
落部分 161a が生じる。{図8(b) 参照}この図8(b)
に示した文字画像を認識しようとした場合、欠落部分 1
61a のために、誤認識したり、あるいは認識できなかっ
たりする。
FIG. 8 and FIG. 9 schematically show an example of complementing the loss of image data caused by the removal of image elements caused by shading, which is an embodiment corresponding to claim 5 of the present invention. FIG. In FIG. 8A, 165 is an image element by a character image, 161 is an image element by a halftone dot, and both are partially overlapping. The image element 161 by shading is, for example, the means described in claim 4 of the present invention (image data of only the image element 161 of the intersection coordinates, the image element 161 of the intersection coordinates and the image element 165 by the character image). Exclusive OR operation with image data including
When it is removed by using, the missing portion 161a is generated in the image element 165 which is originally a character. {See Fig. 8 (b)} This Fig. 8 (b)
When trying to recognize the character image shown in, the missing part 1
Due to 61a, it may or may not be recognized.

【0041】本発明の請求項5によれば、例えば、図9
(a),(b) に示されているように、図8(a) の画像要素 1
65の輪郭 165a を抽出し、また網かけによる画像要素 1
61を除去後の画像要素{図8(b) 参照}の輪郭 165b と
排他的論理和をとる。すると図9(a) 中の部分輪郭線 1
61b と、図9(b) 中の部分輪郭線 161c が、交点 165c
および交点 165d で交わり、網かけによる画像要素 161
の輪郭線 1610 {図9(c) 参照}が抽出できる。ここで
交点 165c と交点 165d とを、例えば、直線で補完し、
欠落部 161a Aを補うことで認識処理における誤認識を
防止するものである。上記の例は、図8(a) の画像要素
の輪郭 165a を抽出し、また網かけによる画像要素 161
を除去後の画像要素{図8(b) 参照}の輪郭 165b と排
他的論理和をとる例で説明したが、該図8(a) の画像要
素の輪郭 165a を抽出し、また網かけによる画像要素 1
61を除去後の画像要素{図8(b) 参照}の輪郭 165b と
論理積をとると、上記交点 165c と交点 165d とを有す
る図9(a) の画像要素の輪郭 165b と図9(b) の画像要
素の輪郭 165a との論理積をとった図が得られるので、
上記交点 165c と交点 165d とを補完して生成した輪郭
線の内部を塗り潰すようにしても良い。
According to claim 5 of the present invention, for example, FIG.
As shown in (a) and (b), the image element 1 of FIG.
Image element by extracting 65 contours 165a and shading 1
An exclusive OR is performed with the contour 165b of the image element after removing 61 (see FIG. 8 (b)). Then, the partial contour line 1 in Fig. 9 (a) 1
61b and the partial contour line 161c in FIG. 9 (b) are intersection points 165c.
And intersect at intersection 165d, shaded image element 161
1610 {see FIG. 9 (c)} can be extracted. Here, the intersection 165c and the intersection 165d are complemented by, for example, a straight line,
Compensation for the missing portion 161a A prevents erroneous recognition in the recognition processing. In the above example, the contour 165a of the image element in FIG.
Although the explanation has been given by taking the example of taking the exclusive OR with the contour 165b of the image element after removal (see FIG. 8 (b)), the contour 165a of the image element of FIG. 8 (a) is extracted and Image element 1
The logical product of the contour 165b of the image element after removing 61 (see FIG. 8 (b)) and the contour 165b and the contour 165b of the image element of FIG. 9 (a) having the intersection 165c and the intersection 165d are obtained. ) Of the image element and contour 165a
The inside of the contour line generated by complementing the intersection 165c and the intersection 165d may be filled.

【0042】なお、本実施例では網かけの文様はドット
状であるが、網かけに用いられる文様が細線による網か
けであっても同様の処理を施すことができる。このよう
に、本発明は、スキャナ部と、スキャナ部によって読み
取った画像情報を記録する記憶手段と、スキャナ部が読
み取る画像の解像度を調整する解像度調整手段と、上記
記憶手段に記録された画像データとスキャナ部から読み
取った画像データとを比較する比較手段を備え、上記解
像度調整手段によって、上記記憶手段に記録された画像
データより解像度を低くして、スキャナ部から読み取っ
た画像データと、上記記憶手段に記録されている画像デ
ータを比較手段により比較することにより、帳票の読み
取り領域に形成された網かけの画素要素を抽出除去す
る。上記解像度調整手段の代わりに、画像データの密度
変換を行う密度変換手段、又は、上記記憶手段に記録さ
れている画像データから、近傍の孤立点同士の位置関係
を関数化して該孤立点を抽出する抽出手段を持つ。又、
網かけによって生じた画像要素の除去によって生じた画
像データの欠落を補完するようにしたところに特徴があ
る。
In this embodiment, the shaded pattern is in the form of dots, but the same processing can be performed even if the pattern used for shading is a thin line. As described above, according to the present invention, the scanner unit, the storage unit that records the image information read by the scanner unit, the resolution adjusting unit that adjusts the resolution of the image read by the scanner unit, and the image data recorded in the storage unit. And image data read from the scanner unit, the resolution adjusting unit lowers the resolution of the image data recorded in the storage unit, and the image data read from the scanner unit and the storage unit. By comparing the image data recorded in the means with the comparing means, the shaded pixel elements formed in the reading area of the form are extracted and removed. Instead of the resolution adjusting means, density conversion means for performing density conversion of image data, or from the image data recorded in the storage means, the positional relationship between neighboring isolated points is functionalized to extract the isolated points. It has an extraction means to do. or,
It is characterized in that the lack of image data caused by the removal of image elements caused by shading is complemented.

【0043】[0043]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、網かけされた領域に記入された文字の画像デー
タであっても、文字画像データのみを抽出することがで
き、認識処理の時間を大幅に短縮でき、また誤認識の防
止や認識不能文字発生の防止に寄与するところが大き
い。
As described above in detail, according to the present invention, it is possible to extract only character image data even if it is image data of a character written in a shaded area, and recognition is performed. This greatly reduces the processing time, and contributes greatly to the prevention of erroneous recognition and the occurrence of unrecognizable characters.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理構成図(その1)FIG. 1 is a diagram showing the principle configuration of the present invention (part 1).

【図2】本発明の原理構成図(その2)FIG. 2 is a block diagram showing the principle of the present invention (part 2);

【図3】本発明の原理構成図(その3)FIG. 3 is a diagram illustrating the principle of the present invention (part 3);

【図4】本発明の一実施例を示した図(その1)FIG. 4 shows an embodiment of the present invention (part 1).

【図5】本発明の一実施例を示した図(その2)FIG. 5 shows an embodiment of the present invention (part 2).

【図6】本発明の一実施例を示した図(その3)FIG. 6 shows an embodiment of the present invention (part 3).

【図7】本発明の一実施例を示した図(その4)FIG. 7 shows an embodiment of the present invention (part 4).

【図8】本発明の一実施例を示した図(その5)FIG. 8 shows an embodiment of the present invention (part 5).

【図9】本発明の一実施例を示した図(その6)FIG. 9 shows an embodiment of the present invention (part 6).

【図10】従来の光学式文字読取装置を説明する図FIG. 10 is a diagram illustrating a conventional optical character reading device.

【符号の説明】[Explanation of symbols]

1 光学式文字読取装置 10 帳票 11 スキャナ 110 CCD 等の光電子変換素子 11a 網かけによって生じた画像要素 11b 文字画像によって生じた画像要素 12 記憶手段 13a 第1の解
像度調整手段 13b 第2の解像度調整手段 14a,14b 比較器 14c 演算手段 15 密度変換手段 16 抽出手段 15a,15b 画像メモリ 161 交点、交点画像、画像要素 162 平行線群α 163 平行線群β 164 平行線群γ 165 文字画像、画像要素 161a 欠落領域、画像要素 161b,161c 部
分輪郭線 165a 文字画像の輪郭線 165b 欠落文字画像の輪郭線 165c,165c 部
分輪郭線の交点 17 補完手段 a,b 画素密度
1 Optical character reader 10 Form 11 Scanner 110 Photoelectric conversion element such as CCD 11a Image element generated by meshing 11b Image element generated by character image 12 Storage means 13a First resolution adjusting means 13b Second resolution adjusting means 14a, 14b Comparator 14c Calculation means 15 Density conversion means 16 Extraction means 15a, 15b Image memory 161 Intersection points, intersection image, image element 162 Parallel line group α 163 Parallel line group β 164 Parallel line group γ 165 Character image, image element 161a Missing area, image element 161b, 161c Partial contour line 165a Contour line of character image 165b Contour line of missing character image 165c, 165c Intersection point of partial contour line 17 Complementary means a, b Pixel density

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】光学式文字読取装置であって、画像を読み
取り光学信号を電気信号に変換するスキャナ部と、前記
スキャナ部によって読み取った画像情報を記録する記憶
手段と、前記スキャナ部が読み取る画像の解像度を調整
する第1の解像度調整手段と、前記記憶手段に記録され
た画像データとスキャナ部から読み取った画像データと
を比較する比較手段を備え、 前記第1の解像度調整手段によって記憶手段に記録され
た画像データより解像度を低くして、前記スキャナ部か
ら読み取った画像データと、前記記憶手段に記録されて
いる画像データを前記比較手段により比較することによ
って、帳票の読み取り領域に形成された網かけの画像要
素を抽出除去することを特徴とする光学式文字読取装
置。
1. An optical character reading device, comprising: a scanner unit for reading an image and converting an optical signal into an electric signal; a storage unit for recording image information read by the scanner unit; and an image read by the scanner unit. A first resolution adjusting means for adjusting the resolution of the image data and a comparing means for comparing the image data recorded in the storage means with the image data read from the scanner section. The resolution is made lower than that of the recorded image data, and the image data read from the scanner unit and the image data recorded in the storage unit are compared by the comparison unit to form in the reading area of the form. An optical character reader characterized by extracting and removing shaded image elements.
【請求項2】光学式文字読取装置であって、画像を読み
取り光学信号を電気信号に変換するスキャナ部と、前記
スキャナ部によって読み取った画像情報を記録する記憶
手段と、前記スキャナ部が読み取った画像の解像度を調
整する第2の解像度調整手段と、前記記憶手段に記録さ
れた画像データと、上記第2の解像度調整手段から出力
される画像データとを比較する比較手段を備え、 前記第2の解像度調整手段によって、前記記憶手段に記
録された画像データより解像度を低くした画像データ
と、前記記憶手段に記録されている画像データを前記比
較手段により比較することによって、帳票の読み取り領
域に形成された網かけの画像要素を抽出除去することを
特徴とする光学式文字読取装置。
2. An optical character reader, comprising a scanner section for reading an image and converting an optical signal into an electric signal, a storage section for recording image information read by the scanner section, and a scanner section for reading the image information. A second resolution adjusting means for adjusting the resolution of the image; a comparing means for comparing the image data recorded in the storage means with the image data output from the second resolution adjusting means; The image data recorded in the storage unit is compared with the image data whose resolution is lower than that of the image data recorded in the storage unit by the resolution adjusting unit, and is formed in the reading area of the form. An optical character reader characterized by extracting and removing the shaded image elements.
【請求項3】光学式文字読取装置であって、画像を読み
取り光学信号を電気信号に変換するスキャナ部と、前記
スキャナ部によって読み取った画像情報を記録する記憶
手段と、前記記録されている画像データの密度変換を行
う密度変換手段と、前記変換手段によって密度変換され
た画像データと、前記記憶手段に記録された画像データ
とを比較する比較手段を備え、 前記密度変換手段によって密度変換された画像データ
と、前記記憶手段に記録された画像データとを、前記比
較手段により比較することにより、帳票の読み取り領域
に形成された網かけの画像要素を抽出除去することを特
徴とする光学式文字読取装置。
3. An optical character reader, comprising a scanner section for reading an image and converting an optical signal into an electric signal, a storage section for recording image information read by the scanner section, and the recorded image. A density conversion unit that performs density conversion of data, a comparison unit that compares the image data density-converted by the conversion unit, and the image data recorded in the storage unit are provided, and the density conversion is performed by the density conversion unit. An optical character characterized by extracting and removing a shaded image element formed in a reading area of a form by comparing the image data with the image data recorded in the storage means by the comparison means. Reader.
【請求項4】光学式文字読取装置であって、画像を読み
取り光学信号を電気信号に変換するスキャナ部と、前記
スキャナ部によって読み取った画像情報を記録する記憶
手段と、前記記憶手段に記録された画像データから、所
定の孤立点を抽出する抽出手段を備え、 前記抽出手段により、近傍の孤立点同士の位置関係を関
数化し、該関数化した孤立点同士の位置関係を用いて、
孤立点の位置を認識して、該孤立点の画像データと、前
記記憶手段に記録されている画像データとから、網かけ
によって生じた孤立点を抽出除去する演算手段を備えた
ことを特徴とする光学式文字読取装置。
4. An optical character reader, comprising a scanner section for reading an image and converting an optical signal into an electric signal, a storage section for recording image information read by the scanner section, and a storage section for storing the image information. From the image data, an extracting unit for extracting a predetermined isolated point is provided, and by the extracting unit, a positional relationship between neighboring isolated points is functionalized, and the functionalized positional relationship between isolated points is used,
The present invention is characterized by further comprising arithmetic means for recognizing the position of the isolated point, and extracting and removing the isolated point generated by shading from the image data of the isolated point and the image data recorded in the storage means. Optical character reading device.
【請求項5】光学式文字読取装置であって、画像を読み
取り光学信号を電気信号に変換するスキャナ部と、前記
スキャナ部によって読み取った画像情報を記録する記憶
手段と、前記記憶手段に記録された画像データから、所
定の孤立点を抽出する抽出手段を備え、 前記抽出手段として、近傍の孤立点同士の位置関係を関
数化し、該関数化した孤立点同士の位置関係を用いて、
孤立点の位置を認識して、該孤立点の画像データと、前
記記憶手段に記録されている画像データとから、網かけ
によって生じた孤立点を抽出除去する演算手段と、該演
算手段により、網かけによって生じた孤立点を抽出除去
することによって生じた画像データの欠落を補完する補
完手段を備えたことを特徴とする光学式文字読取装置。
5. An optical character reading device, comprising: a scanner unit for reading an image and converting an optical signal into an electric signal; a storage unit for recording image information read by the scanner unit; and a storage unit for storing the image information. From the image data, an extracting unit for extracting a predetermined isolated point is provided, and as the extracting unit, the positional relationship between neighboring isolated points is functionalized, and the functionalized positional relationship between isolated points is used,
An arithmetic means for recognizing the position of the isolated point and extracting and removing an isolated point generated by shading from the image data of the isolated point and the image data recorded in the storage means, and the arithmetic means. An optical character reading device comprising: a complementing unit that complements a loss of image data caused by extracting and removing isolated points caused by shading.
JP8042822A 1996-02-29 1996-02-29 Optical character reader Withdrawn JPH09238247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8042822A JPH09238247A (en) 1996-02-29 1996-02-29 Optical character reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8042822A JPH09238247A (en) 1996-02-29 1996-02-29 Optical character reader

Publications (1)

Publication Number Publication Date
JPH09238247A true JPH09238247A (en) 1997-09-09

Family

ID=12646654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8042822A Withdrawn JPH09238247A (en) 1996-02-29 1996-02-29 Optical character reader

Country Status (1)

Country Link
JP (1) JPH09238247A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005007A (en) * 2006-06-20 2008-01-10 Konica Minolta Business Technologies Inc Image forming apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005007A (en) * 2006-06-20 2008-01-10 Konica Minolta Business Technologies Inc Image forming apparatus

Similar Documents

Publication Publication Date Title
US4750209A (en) System for processing an image having both letter and photographic information
US7054485B2 (en) Image processing method, apparatus and system
US7062099B2 (en) Image processing method and apparatus using self-adaptive binarization
JP4745830B2 (en) Image processing apparatus, image processing method, and computer program
EP0431958B1 (en) Identification and segmentation of finely textured and solid regions of binary images
JP4189506B2 (en) Apparatus, method and recording medium for image processing
JP5049922B2 (en) Image processing apparatus and image processing method
JPH04270485A (en) Printing character recognition device
JP3733686B2 (en) Image processing method and apparatus
JPH09238247A (en) Optical character reader
JP5517028B2 (en) Image processing device
JP3480234B2 (en) Image processing device
JP2509448B2 (en) How to reduce the amount of image information
JP2708604B2 (en) Character recognition method
JP2908495B2 (en) Character image extraction device
JP2902904B2 (en) Character recognition device
JP2902905B2 (en) Character recognition device
JP4439054B2 (en) Character recognition device and character frame line detection method
JP3199033B2 (en) Optical character reading method and optical character reading device
JP2613211B2 (en) Image input device
JP3277977B2 (en) Character recognition method
JPH04130979A (en) Character picture segmenting method
JP2899356B2 (en) Character recognition device
JP2983448B2 (en) Drawing recognition method
JPH10233930A (en) Image processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030506