JP3566738B2 - Shaded area processing method and shaded area processing apparatus - Google Patents

Shaded area processing method and shaded area processing apparatus Download PDF

Info

Publication number
JP3566738B2
JP3566738B2 JP23337193A JP23337193A JP3566738B2 JP 3566738 B2 JP3566738 B2 JP 3566738B2 JP 23337193 A JP23337193 A JP 23337193A JP 23337193 A JP23337193 A JP 23337193A JP 3566738 B2 JP3566738 B2 JP 3566738B2
Authority
JP
Japan
Prior art keywords
area
shaded
shaded area
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23337193A
Other languages
Japanese (ja)
Other versions
JPH0793480A (en
Inventor
啓嗣 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP23337193A priority Critical patent/JP3566738B2/en
Publication of JPH0793480A publication Critical patent/JPH0793480A/en
Application granted granted Critical
Publication of JP3566738B2 publication Critical patent/JP3566738B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、入力される文書画像中に網掛け領域を含む場合の網掛け領域処理方法に関し、特に文書原稿を画像データとして入力して、文字認識を行なう光学的文字読取装置(OCR)における前処理方法として好適な網掛け領域処理方法に関する。
【0002】
【従来の技術】
従来より、文字認識装置においては、網掛けによって修飾された文字領域では網掛けのドットと文字パターンが重なっているために文字の正確な切り出しが困難であった。そのために文書原稿中に網掛け領域を含む原稿を処理する場合には、文字の認識処理の前に、入力画像を表示装置上に表示して、操作者が網掛け領域を避けるように文書領域を指定したり、網掛けによって発生する誤認識を修正したりする必要があった。
【0003】
また、背景模様によって修飾された領域に含まれる文字の抽出をおこなう技術としては、電子情報通信学会春季全国大会(1989年)に酒匂らによって発表された「自己組織多重解像度フィルタによる見だし文字抽出」に記載されている方法が知られている。
【0004】
この方法では、自己組織化法によって、各テクスチャ領域内に学習領域を設け、多数の入力変数から2変数の組み合わせによって、新たに中間変数を作り、その中から、あらかじめ定めた評価基準によって、いくつかの中間変数を自己選択する。選択された中間変数の中に、出力として目的とする値に十分収束したものが存在するかどうかを判定して、十分収束した中間変数が存在しなければ、自己選択されたものを入力変数とし、組み合わせ発生の操作に戻る。収束条件を満す変数が得られるまで、以上の操作を繰り返し、高精度な変換関数を求めることによって原稿中の見だし領域の文字抽出を行なっている。
【0005】
しかしながら、上記の方法においても、前処理として、操作者が文字を含む背景模様領域を予め指定しておく必要があった。また、自己組織化法によって変換関数を求める過程において、浮動小数点演算を繰り返す必要があるために、演算処理に時間がかかり、文字認識の前処理方法としては不適切であった。
【0006】
近年のワープロやDTP等の普及によって、網掛けによる文字修飾された文書原稿が増加しており、文字認識処理等の前処理として網掛けによる文字修飾を自動的かつ高速に検出して除去する技術が必要となってきた。
【0007】
【発明が解決すべき課題】
本発明はかかる事情に鑑み、入力された文書原稿に含まれる網掛け領域を自動的にかつ高速に検出して文字情報は保存したままで網掛け情報を除去し、特に文字認識の前処理に好適な網掛け領域処理方法を提供することを目的としている。
【0008】
【課題を解決するための手段】
上述した課題を解決するために、請求項1記載の発明では、入力される文書画像データより網掛け領域を構成する小ドットを抽出し、この小ドットを統合して前記文書画像データ中の網掛け候補領域を抽出し、この網掛け候補領域の大きさに基づいて網掛け領域を判定し、この網掛け領域と判定された領域から網掛け情報を除去するように構成した。
【0009】
また、請求項2記載の発明では、請求項1記載の発明に加えて、文書画像データの所定の領域ごとに網掛け情報除去するように構成した。また、請求項3記載の発明では、請求項1記載の発明に加えて、網掛け領域の位置を出力するように構成した。さらに、請求項4記載の発明では、請求項1記載の発明に加えて、入力される文書画像データより網掛け領域を構成する小ドットを抽出し、この小ドットを統合して前記文書画像データ中の網掛け候補領域を抽出する抽出手段と、この網掛け候補領域の大きさに基づいて網掛け領域を判定する判定手段と、この網掛け領域と判定された領域から網掛け情報を除去する除去手段と、を備えるように構成した。
【0010】
【実施例】
(実施例1 基本処理)
以下、図面に基づいて本発明を詳細に説明する。図1は網掛け領域検出の基本処理フローチャートである。網掛け領域の検出処理は、矩形抽出ステップと矩形の統合ステップの2つのステップによって構成される。
【0011】
矩形抽出ステップは、入力された文書画像中の黒画素の連続性から黒ランを抽出して、黒ランの外接矩形を抽出するステップである。一般に、網掛け領域を構成するドットは、文字の外接矩形よりもはるかに微小な外接矩形として抽出される。本発明では、処理対象の文書で使用している文字サイズに応じた閾値(例えば3×3画素以内のサイズ)を設定することによって、文書画像中の網掛けドットの情報のみが、小ドット(矩形)として抽出される。設定する閾値としては、処理対象の文書中のカンマや読点等を、網掛けドットと誤検出しない程度の値を設定する。
【0012】
次に、矩形の統合ステップにおいて、抽出された小ドット間の距離に対して、水平方向、垂直方向の閾値処理により、所定の閾値以内の距離(例えば10画素以内の距離)にある小ドット(矩形)を統合する処理を進めて、網掛け候補領域の矩形として抽出する。
【0013】
この矩形の統合ステップによって生成された網掛け候補領域の座標情報から、網掛け候補領域の大きさを調べることにより、網掛け領域かどうかの判定を行なう。一般に、網掛けによる文字修飾は1文字のみを対象とする場合よりも、複数の文字を対象として施される場合が多いため、本発明における網掛け領域の判定は、例えば文書の行の高さを基準にして、行の高さの2倍の長さ以上の網掛け候補領域を網掛け領域として判定する。
【0014】
網掛け領域と判定された領域には、その網掛け領域に属する小ドットの黒画素を白画素に反転することにより、網掛け情報の除去処理を施す。どの網掛け領域にどの小ドットが所属しているのかという情報は、小ドットを統合して網掛け候補領域を抽出する過程で、統合される側の小ドットと統合する側の矩形領域の従属関係を管理することによって容易に把握することが可能である。
【0015】
図2は、本発明を文字認識装置に応用したブロック図である。文書画像原稿はスキャナ1から入力されて、画像メモリ2に文書画像データとして蓄積される。中央演算処理装置3は、網掛け処理プログラム格納ROM4より網掛け領域処理プログラムを読み出して、ワークエリアRAM5において文書画像データに対する網掛け領域の抽出処理を実行して、文書画像から網掛けを除去する。このときRAM5には網掛け領域として抽出された矩形の座標も保持される。
【0016】
網掛けを除去された文書画像データは、中央演算処理装置3によって図示しない文字認識辞書とのパターンマッチング等による文字認識処理が施されて、画像データから文字コードデータに変換され、認識結果がディスプレイ6に表示される。
【0017】
(実施例2 分割処理)
ここで、原稿画像全体を処理対象にして実施例1の処理を施すと、そのために矩形データなどのワークエリアRAMをかなり必要とする。ワークエリアRAMが十分にあるシステムでは、実施例1の方法で処理が可能であるが、パーソナルコンピュータのような実装メモリが限られているようなシステム上で稼働させるためには、省メモリ化をはからなければならない。
【0018】
実施例2では、網掛け領域の抽出処理する範囲を分割して、分割領域単位で網掛け領域の抽出処理を行なうことにより、原稿画像全体に処理を行なう。図3に分割処理の網掛け領域検出の基本処理フローチャートを示す。
【0019】
処理単位を分割する実施例2では、網掛け領域が分割領域の境界に跨って存在する場合があるために、単位領域の境界部での処理が特徴となる。実施例2の分割処理では、網掛け候補領域とオーバーラップ領域、すなわち現在処理している単位領域の境界部に存在する適当な高さをもつ領域との位置関係により、網掛け領域の判定処理が行なわれる。
【0020】
図4に示される網掛け候補領域(1)、(2)、(3)を例に説明をする。領域(1)は、網掛け領域がオーバーラップ領域、すなわち現在処理している単位領域の境界部に存在する適当な高さをもつ領域にかかっていないので、この網掛け領域(1)については、基本処理と同様に網掛け領域の判定を行ない、適当な大きさであれば網掛け領域として網掛け情報を除去する。
【0021】
領域(2)は、網掛け候補領域の一部がオーバーラップ領域にかかっている状態の例で、領域(3)は、網掛け候補領域がオーバーラップ領域に含まれている状態の例である。網掛け候補領域が(2)、(3)状態の場合は、網掛け領域が次の単位領域にも跨って存在する可能性が高いために、図5にフローチャートを示す境界処理が実行される。
【0022】
まず、網掛け候補領域に対して基本処理と同様の網掛け領域の判定を行ない、所定の大きさの領域であれば網掛け領域として除去処理を行なう。ここで、網掛け候補領域が網掛け領域と判定された場合、オーバーラップ領域の始点のY座標(Yos)と、網掛け領域の終点のY座標(Yae)の比較を行ない、YaeがYos以上の場合には、網掛け領域が次の処理領域に跨って存在する可能性が高いために、この網掛け領域を次の処理領域に持ち越して、次の処理領域でも使うようにする。
【0023】
この処理によって、図4の(2)のように、網掛け領域が次の単位領域にも跨って存在する場合においても、この網掛け領域が次の単位領域に持ち越され、統合されて成長するために、境界にある網掛け領域も問題なく抽出することができる。
【0024】
また、網掛け候補領域が適当な大きさを持たないことにより、網掛け領域と判定されなかった場合には、オーバーラップ領域の始点のY座標(Yos)と、網掛け候補領域の始点のY座標(Yae)の比較を行ない、YaeがYos以下の場合には、網掛け領域の一部が現在処理している単位領域にあると考えられるので、この網掛け候補領域のY座標の始点Yasを,次の処理領域の始点の候補にする。
【0025】
この処理によって、次の処理の単位領域は、網掛け領域と判定されなかった網掛け候補領域の始点座標Yasまで戻らせて、処理領域を一部重複させている。このオーバーラップ処理させることにより、図4の(3)のように、網掛け領域がオーバーラップ領域に含まれて存在する場合においても、次の単位領域で網掛け領域判定に対応することができる。
【0026】
さらに、本発明では、網掛け領域として検出した矩形の位置(始点・終点の座標値、または始点の座標値と幅・高さ)を、ワープロやDTPソフトなどのアプリケーション側に出力することもできる。これにより、網掛けを除去して文字認識処理を施した後に、アプリケーション側で、網掛けによる文字修飾を再現して、認識結果に網掛けを施してディスプレイに表示したり、印字装置に出力することが可能になる。
【0027】
また、本実施例では矩形抽出ステップ後の小ドットのサイズに注目して、網掛け領域の判定処理の説明を進めたが、小ドットのサイズに加えて、矩形抽出ステップの前の入力画像データ中の網掛けドットの形状情報を利用することも有効である。
【0028】
【発明の効果】
以上説明したように、本発明による網掛け領域処理方法によれば、画像上に存在する網掛け領域を自動的に検出し、除去することができ、個々の網掛け領域を操作者が指定して除去する必要がなく、システムとしての操作性が向上して全体の処理時間が短縮される。また、文字認識処理の対象原稿が広がり入力効率の向上が期待できる。
【図面の簡単な説明】
【図1】本発明の網掛け領域検出の基本処理フローチャートである。
【図2】本発明を文字認識装置に応用したブロック図である。
【図3】分割処理の網掛け領域検出の基本処理フローチャートである。
【図4】境界部に存在する網掛け候補領域を説明する図である。
【図5】本発明の境界処理を示すフローチャートである。
【符号の説明】
1 スキャナ
2 画像メモリ
3 中央演算処理装置
4 網掛け領域処理プログラムROM
5 ワークエリアRAM
6 ディスプレイ
[0001]
[Industrial applications]
The present invention relates to a method for processing a shaded area in a case where a shaded area is included in an input document image, and more particularly to a method for inputting a document original as image data and performing character recognition on an optical character reader (OCR). The present invention relates to a shaded area processing method suitable as a processing method.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a character recognition device, in a character area modified by shading, it has been difficult to accurately cut out a character because a hatched dot and a character pattern overlap. Therefore, when processing a document including a shaded area in the document original, the input image is displayed on the display device before the character recognition processing, and the document area is displayed so that the operator avoids the shaded area. It was necessary to specify the name and correct erroneous recognition caused by shading.
[0003]
As a technique for extracting characters included in an area modified by a background pattern, there is a technique for extracting a found character using a self-organizing multi-resolution filter, which was announced by Shuka et al. At the IEICE Spring National Convention (1989). Are known.
[0004]
In this method, a learning area is provided in each texture area by a self-organizing method, a new intermediate variable is created from a combination of two variables from a large number of input variables, and a number of new intermediate variables are selected based on a predetermined evaluation criterion. Self-select the intermediate variables. Judgment is made as to whether any of the selected intermediate variables has sufficiently converged to the target value as an output, and if there is no sufficiently converged intermediate variable, the self-selected one is regarded as the input variable. Then, the operation returns to the operation for generating a combination. Until a variable that satisfies the convergence condition is obtained, the above operation is repeated, and a character is extracted from the found area in the document by obtaining a highly accurate conversion function.
[0005]
However, also in the above method, it is necessary for the operator to specify a background pattern area including characters in advance as preprocessing. Further, in the process of obtaining the conversion function by the self-organizing method, it is necessary to repeat the floating-point operation, so that it takes a long time for the operation process and is unsuitable as a preprocessing method for character recognition.
[0006]
Due to the spread of word processors and DTP in recent years, the number of text-modified document manuscripts has increased, and technology for automatically and quickly detecting and removing character modification by shading as preprocessing such as character recognition processing. Is needed.
[0007]
[Problems to be solved by the invention]
In view of such circumstances, the present invention automatically and quickly detects a shaded area included in an input document document and removes the shaded information while preserving character information. It is an object of the present invention to provide a suitable shaded area processing method.
[0008]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, according to the first aspect of the present invention, small dots forming a shaded area are extracted from input document image data, and the small dots are integrated to form a halftone dot in the document image data. A shading candidate area is extracted, a shading area is determined based on the size of the shading candidate area, and shading information is removed from the area determined to be the shading area .
[0009]
According to a second aspect of the present invention, in addition to the first aspect of the present invention, shading information is removed for each predetermined area of the document image data . According to the third aspect of the present invention, in addition to the first aspect of the invention, the position of the shaded area is output . Further, according to a fourth aspect of the present invention, in addition to the first aspect, small dots forming a shaded area are extracted from input document image data, and the small dots are integrated to form the document image data. Extracting means for extracting a shaded candidate area therein; determining means for determining a shaded area based on the size of the shaded candidate area; and removing shaded information from the area determined to be the shaded area. and removal means, and configured to so that with the.
[0010]
【Example】
(Example 1 Basic processing)
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a flowchart of a basic process for detecting a shaded area. The process of detecting a shaded area is composed of two steps, a rectangle extraction step and a rectangle integration step.
[0011]
The rectangle extracting step is a step of extracting a black run from the continuity of black pixels in the input document image and extracting a circumscribed rectangle of the black run. In general, the dots that make up the shaded area are extracted as circumscribed rectangles that are much smaller than the circumscribed rectangle of the character. In the present invention, by setting a threshold (for example, a size within 3 × 3 pixels) corresponding to the character size used in the document to be processed, only the information of the halftone dots in the document image is changed to the small dots ( (Rectangle). As the threshold value to be set, a value is set that does not erroneously detect a comma, a reading point, or the like in a document to be processed as a halftone dot.
[0012]
Next, in the step of integrating rectangles, small dots (for example, a distance of 10 pixels or less) within a predetermined threshold (for example, a distance of 10 pixels or less) are subjected to horizontal and vertical threshold processing for the distance between the extracted small dots. The process of integrating the rectangles is advanced, and the rectangle is extracted as a rectangle of a shaded candidate area.
[0013]
By checking the size of the shaded candidate area from the coordinate information of the shaded candidate area generated in the step of integrating the rectangle, it is determined whether or not the area is a shaded area. In general, character modification by shading is often performed on a plurality of characters rather than on only one character. Therefore, the determination of the shaded area in the present invention is performed by, for example, the height of a line of a document. , A shaded candidate area having a length equal to or more than twice the row height is determined as a shaded area.
[0014]
The region determined to be a shaded region is subjected to a process of removing shaded information by inverting black pixels of small dots belonging to the shaded region into white pixels. Information on which small dot belongs to which shaded area depends on the subordinate of the small area to be merged and the rectangular area to be merged in the process of integrating the small dots and extracting the shaded candidate area. It can be easily grasped by managing the relationship.
[0015]
FIG. 2 is a block diagram in which the present invention is applied to a character recognition device. The document image document is input from the scanner 1 and stored in the image memory 2 as document image data. The central processing unit 3 reads the shaded area processing program from the shaded processing program storage ROM 4, executes the process of extracting the shaded area for the document image data in the work area RAM 5, and removes the shaded area from the document image. . At this time, the coordinates of the rectangle extracted as the shaded area are also stored in the RAM 5.
[0016]
The shaded document image data is subjected to character recognition processing such as pattern matching with a character recognition dictionary (not shown) by the central processing unit 3 to convert the image data into character code data. 6 is displayed.
[0017]
(Example 2 division processing)
Here, when the processing of the first embodiment is performed on the entire original image as a processing target, a considerable work area RAM such as rectangular data is required. In a system having a sufficient work area RAM, processing can be performed by the method of the first embodiment. However, in order to operate on a system such as a personal computer in which the mounting memory is limited, memory saving must be performed. Have to get started.
[0018]
In the second embodiment, the entire original image is processed by dividing the range for the extraction processing of the shaded area and performing the extraction processing of the shaded area for each divided area. FIG. 3 shows a flowchart of a basic process of detecting a shaded region in the division process.
[0019]
In the second embodiment in which the processing unit is divided, the shading area may exist over the boundary of the divided area, and therefore, processing at the boundary of the unit area is a feature. In the division processing according to the second embodiment, a shading area determination process is performed based on a positional relationship between a shaded candidate area and an overlap area, that is, an area having an appropriate height existing at the boundary of the unit area currently being processed. Is performed.
[0020]
A description will be given by taking as an example the shaded candidate areas (1), (2), and (3) shown in FIG. The area (1) does not cover the overlap area, that is, the area having an appropriate height existing at the boundary of the unit area currently being processed. In the same manner as the basic processing, the shaded area is determined, and if the size is appropriate, the shaded area is removed as the shaded area.
[0021]
The area (2) is an example of a state where a part of the shaded candidate area covers the overlap area, and the area (3) is an example of a state where the shaded candidate area is included in the overlap area. . When the shaded candidate area is in the state of (2) or (3), there is a high possibility that the shaded area exists across the next unit area, and thus the boundary processing shown in the flowchart in FIG. 5 is executed. .
[0022]
First, a shaded area is determined for a shaded candidate area in the same manner as in the basic processing, and if the area is of a predetermined size, the removal processing is performed as a shaded area. Here, when the shaded candidate area is determined to be a shaded area, the Y coordinate (Yos) of the start point of the overlap area and the Y coordinate (Yae) of the end point of the shaded area are compared, and Yae is equal to or greater than Yos. In the case of, since the shaded area is likely to exist over the next processing area, this shaded area is carried over to the next processing area and used in the next processing area.
[0023]
By this processing, even when the shaded area extends over the next unit area as in (2) of FIG. 4, the shaded area is carried over to the next unit area, and is integrated and grown. Therefore, the hatched area at the boundary can be extracted without any problem.
[0024]
If the shaded candidate area does not have an appropriate size and is not determined to be a shaded area, the Y coordinate (Yos) of the start point of the overlap area and the Y coordinate of the start point of the shaded candidate area are determined. The coordinates (Yae) are compared. If Yae is equal to or less than Yos, it is considered that a part of the shaded area is in the unit area currently being processed. Is a candidate for the starting point of the next processing area.
[0025]
By this processing, the unit area of the next processing is returned to the start point coordinates Yas of the shaded candidate area not determined as the shaded area, and the processing areas are partially overlapped. By performing the overlap processing, even when a shaded area is included in the overlapped area as shown in (3) of FIG. 4, it is possible to respond to the shaded area determination in the next unit area. .
[0026]
Further, in the present invention, the position of the rectangle (the coordinate value of the start point / end point, or the coordinate value and the width / height of the start point) detected as the shaded area can be output to an application such as a word processor or DTP software. . Thus, after performing the character recognition processing by removing the hatching, the application reproduces the character modification by the shading, applies the hatching to the recognition result, displays the result on the display, or outputs the result to the printing device. It becomes possible.
[0027]
Further, in the present embodiment, the description of the determination processing of the shaded area is advanced by paying attention to the size of the small dot after the rectangle extraction step, but in addition to the size of the small dot, the input image data before the rectangle extraction step is added. It is also effective to use the shape information of the shaded dots in the middle.
[0028]
【The invention's effect】
As described above, according to the method of processing a shaded area according to the present invention, a shaded area existing on an image can be automatically detected and removed, and each shaded area can be designated by an operator. The operability of the system is improved and the overall processing time is reduced. In addition, the document to be subjected to the character recognition processing is expanded, and improvement in input efficiency can be expected.
[Brief description of the drawings]
FIG. 1 is a flowchart of a basic process for detecting a shaded area according to the present invention.
FIG. 2 is a block diagram in which the present invention is applied to a character recognition device.
FIG. 3 is a flowchart of a basic process of detecting a shaded region in the division process.
FIG. 4 is a diagram illustrating a shaded candidate area existing at a boundary portion.
FIG. 5 is a flowchart illustrating boundary processing according to the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Scanner 2 Image memory 3 Central processing unit 4 Shading area processing program ROM
5 Work area RAM
6 Display

Claims (4)

入力される文書画像データより網掛け領域を構成する小ドットを抽出し、
この小ドットを統合して前記文書画像データ中の網掛け候補領域を抽出し、
この網掛け候補領域の大きさに基づいて網掛け領域を判定し、
この網掛け領域と判定された領域から網掛け情報を除去すること
を特徴とする網掛け領域処理方法。
Extract the small dots that make up the shaded area from the input document image data,
By integrating the small dots, a shaded candidate area in the document image data is extracted,
The shaded area is determined based on the size of the shaded candidate area,
Removing the shaded information from the area determined to be the shaded area ;
A method for processing a shaded area.
請求項1において、文書画像データの所定の領域ごとに網掛け情報除去することを特徴とする網掛け領域処理方法。2. The method according to claim 1, wherein the shading information is removed for each predetermined area of the document image data . 請求項1において、網掛け領域の位置を出力することを特徴とする網掛け領域処理方法。2. The method according to claim 1, wherein the position of the shaded area is output . 入力される文書画像データより網掛け領域を構成する小ドットを抽出し、この小ドットを統合して前記文書画像データ中の網掛け候補領域を抽出する抽出手段と、
この網掛け候補領域の大きさに基づいて網掛け領域を判定する判定手段と、
この網掛け領域と判定された領域から網掛け情報を除去する除去手段と、
を備えている特徴とする網掛け領域処理装置
Extracting means for extracting small dots forming a shaded area from the input document image data, and integrating the small dots to extract a shaded candidate area in the document image data;
Determining means for determining a shaded area based on the size of the shaded candidate area;
Removing means for removing shaded information from the area determined to be the shaded area;
A shaded area processing device comprising:
JP23337193A 1993-09-20 1993-09-20 Shaded area processing method and shaded area processing apparatus Expired - Lifetime JP3566738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23337193A JP3566738B2 (en) 1993-09-20 1993-09-20 Shaded area processing method and shaded area processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23337193A JP3566738B2 (en) 1993-09-20 1993-09-20 Shaded area processing method and shaded area processing apparatus

Publications (2)

Publication Number Publication Date
JPH0793480A JPH0793480A (en) 1995-04-07
JP3566738B2 true JP3566738B2 (en) 2004-09-15

Family

ID=16954078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23337193A Expired - Lifetime JP3566738B2 (en) 1993-09-20 1993-09-20 Shaded area processing method and shaded area processing apparatus

Country Status (1)

Country Link
JP (1) JP3566738B2 (en)

Also Published As

Publication number Publication date
JPH0793480A (en) 1995-04-07

Similar Documents

Publication Publication Date Title
US5075895A (en) Method and apparatus for recognizing table area formed in binary image of document
JP2002133426A (en) Ruled line extracting device for extracting ruled line from multiple image
JP2001358925A (en) Unit and method for image processing and recording medium
US20080018951A1 (en) Image processing apparatus and control method thereof
JP2010218420A (en) Character recognition apparatus, image reading apparatus, and program
JPH08287184A (en) Picture cutting-out device and character recognition device
US8229214B2 (en) Image processing apparatus and image processing method
JP2002109521A (en) Device and method for processing document
JP3566738B2 (en) Shaded area processing method and shaded area processing apparatus
CN113793264B (en) Archive image processing method and system based on convolution model and electronic equipment
JP4281236B2 (en) Image recognition apparatus, image recognition method, and computer-readable recording medium storing image recognition program
JP4078045B2 (en) Image processing apparatus, method, program, and storage medium
WO2001093188A9 (en) Method for processing document, recorded medium on which document processing program is recorded and document processor
JP2957729B2 (en) Line direction determination device
JP3711186B2 (en) Size identification method and apparatus
JP2023034823A (en) Image processing apparatus, and control method, and program for image processing apparatus
JP3517077B2 (en) Pattern extraction device and method for extracting pattern area
JPH0830723A (en) Half-tone dot meshing area processing method
JP4040231B2 (en) Character extraction method and apparatus, and storage medium
JP2803736B2 (en) Character recognition method
JP3635552B2 (en) Character pattern cutting device and recording medium recording character pattern cutting program
JP2827227B2 (en) Character recognition method
JP3127413B2 (en) Character recognition device
JP2670106B2 (en) Cutout mask making system
JP4571447B2 (en) Character image extraction program, character image extraction method, and character image extraction apparatus

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040611

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9