JP5517028B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5517028B2
JP5517028B2 JP2009062832A JP2009062832A JP5517028B2 JP 5517028 B2 JP5517028 B2 JP 5517028B2 JP 2009062832 A JP2009062832 A JP 2009062832A JP 2009062832 A JP2009062832 A JP 2009062832A JP 5517028 B2 JP5517028 B2 JP 5517028B2
Authority
JP
Japan
Prior art keywords
image
stroke
histogram
thin line
handwritten
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009062832A
Other languages
Japanese (ja)
Other versions
JP2010218106A (en
Inventor
幸二 小林
浩久 稲本
酉華 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009062832A priority Critical patent/JP5517028B2/en
Publication of JP2010218106A publication Critical patent/JP2010218106A/en
Application granted granted Critical
Publication of JP5517028B2 publication Critical patent/JP5517028B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

本発明は、手書き文字と活字が混在した原稿をスキャナ等により読み取ることで得られたデジタル画像データに対して、手書きの文字やパターン等の手書き領域を活字等領域と分離、識別する画像処理装置に関する。 The present invention provides an image processing apparatus for separating and identifying handwritten areas such as handwritten characters and patterns from areas such as printed characters for digital image data obtained by reading a document in which handwritten characters and printed characters are mixed with a scanner or the like. about the location.

近年、複写機系複合機(以下MFP(Multi Function Printer))のスキャナ機能等を使用し、ネットワークを介してパーソナルコンピュータ(以下PC)等の端末装置へ電子化された画像データを配信する機能が注目を集めている。画像配信機能においては、画像と文字を分離して、異なる圧縮処理を施し全体の圧縮効率を高めた高圧縮多層化技術や、スキャナにより読み取られた文書画像に対してOCR(Optical Character Reader)処理によって、文字画像をテキストデータ化して、画像の背後に非可視のテキスト情報を付加して画像を検索可能とする検索可能化技術等、種々の画像処理技術が開発、商品化されておりユーザの利便性を高めている。   In recent years, there has been a function for distributing digitized image data to a terminal device such as a personal computer (hereinafter referred to as a PC) via a network using a scanner function of a multifunction peripheral (hereinafter referred to as MFP (Multi Function Printer)). It attracts attention. The image distribution function separates images and characters and applies different compression processes to increase the overall compression efficiency, and OCR (Optical Character Reader) processing for document images read by a scanner. Various image processing technologies have been developed and commercialized, such as a search enabling technology that enables character images to be converted into text data and invisible text information added behind the images to be searched. Increases convenience.

このようなスキャナによる原稿読み取りでは、しばしば手書きの文字と活字等の印刷が混在したものが原稿として入力される場合があり、手書き部分による注釈付け、手書きによる文書の校正等のアプリケーションとして技術が公開されているものがある。   In such a document reading by a scanner, a mixture of handwritten characters and printed characters is often input as a document, and the technology is disclosed as an application such as annotating by handwritten parts and proofreading of handwritten documents. There is something that has been.

このようなアプリケーションにおいては、スキャナにて読み取った画像に含まれる手書き文字と印刷文字とを区別して抽出する手法が重要であり、種々の方法が公開されている(例えば、特許文献1〜特許文献3)。   In such an application, a technique for distinguishing and extracting handwritten characters and printed characters included in an image read by a scanner is important, and various methods are disclosed (for example, Patent Document 1 to Patent Document). 3).

特許文献1に記載された発明では、画像に含まれる文字又は図形のエッジ部分から濃度勾配の大きさを求め、濃度勾配の大きさについてヒストグラムを作成し、作成したヒストグラムに基づいて手書き画像と推定出来る濃度勾配の範囲を設定することによって手書き文字か否かの判定を行っている。   In the invention described in Patent Document 1, the magnitude of the density gradient is obtained from the edge portion of the character or figure included in the image, a histogram is created for the magnitude of the density gradient, and the handwritten image is estimated based on the created histogram. Whether or not the character is a handwritten character is determined by setting a range of density gradients that can be made.

また、特許文献2に記載された発明では、入力画像を2値化した2値化データに対し、1文字単位の切り出しを行い、それぞれの文字に対する異なる複数の特徴量を文字単位に算出し、画像全体で特徴量を集計することにより手書き文字と活字の分離係数を算出し、算出した分離係数によって手書き文字と活字の判定を行っている。   Further, in the invention described in Patent Document 2, the binarized data obtained by binarizing the input image is cut out in units of one character, and a plurality of different feature amounts for each character are calculated in units of characters. A separation factor between handwritten characters and type is calculated by aggregating feature values over the entire image, and handwritten characters and type are determined based on the calculated separation factor.

また、特許文献3に記載された発明では、ストロークの太さ、直線性、角度を抽出することにより手書き文字であるか否かの判定を行っている。   In the invention described in Patent Document 3, it is determined whether or not the character is a handwritten character by extracting the thickness, linearity, and angle of the stroke.

しかしながら、特許文献1に記載された発明では、エッジで囲まれる領域に対して処理を行うので、活字と手書きが重なった部分を分離する事は困難である。このため、例えば図32に示すような活字文字の取り消し線等を手書きで追記した場合などでは、分離して判定する事が不可能である(第1の問題)。   However, in the invention described in Patent Document 1, since processing is performed on a region surrounded by edges, it is difficult to separate a portion where type characters and handwriting overlap. For this reason, for example, when a strikethrough of a printed character as shown in FIG. 32 is added by handwriting, it is impossible to make a separate determination (first problem).

また、縮小処理や空間フィルタ処理でエッジ強調が行われた画像においては正確な判定が出来なくなったり、精度が低下したりするため、スキャナから出力される生の画像でかつ高解像度の画像を処理対象とする必要がある(第2の問題)。   In addition, since it is impossible to make an accurate determination or the accuracy is reduced in an image that has been edge-enhanced by reduction processing or spatial filter processing, a raw image output from a scanner and a high-resolution image are processed. Need to be targeted (second problem).

第2の問題について補足すると、現状のMFPによる画像配信では、画像の容量の問題でサイズはスキャナ解像度よりも小さく、通常200dpi〜300dpi程度が使用される。また、文字画像の読みやすさ等を向上する目的で、空間フィルタ処理が行われる事が通常であり、スキャナの生画像ではなく、縮小処理やエッジ強調処理が行われた画像が配信される事になる。特許文献1に記載された発明では、文字画像等のエッジの濃度勾配を特徴量とするため、これらの処理が行われた後の画像に対して高精度の判別を実施することが困難であり、スキャナの生画像に近い画像によって判定を実施する必要がある。これは、例えば、配信後の画像をPC上で処理するなどの用途に使用不可能な事を示し、技術の適用先を減らすことになる。また、現在MFPで良く使用されるスキャナは600dpiの解像度であり、縮小処理により精度が低下する場合は、大きな解像度の画像に対して処理を行う必要があり、メモリが増えるために、コストアップや、処理速度の低下などの問題も生じることとなる。   To supplement the second problem, in the current image distribution by the MFP, the size is smaller than the scanner resolution due to the problem of the capacity of the image, and usually about 200 dpi to 300 dpi is used. Also, in order to improve the readability of character images, etc., spatial filter processing is usually performed, and images that have undergone reduction processing or edge enhancement processing are delivered instead of raw images of the scanner. become. In the invention described in Patent Document 1, since the density gradient of an edge of a character image or the like is used as a feature amount, it is difficult to perform highly accurate discrimination on an image after these processes are performed. Therefore, it is necessary to perform the determination based on an image close to the raw image of the scanner. This indicates, for example, that the image after distribution cannot be used for processing such as processing on a PC, and the application destination of the technique is reduced. Also, scanners often used in MFPs currently have a resolution of 600 dpi, and if the accuracy decreases due to reduction processing, it is necessary to perform processing on images with a large resolution, which increases memory and increases costs. Problems such as a reduction in processing speed will also occur.

また、特許文献2に記載された発明では、一文字単位で特徴量を算出するため、上記第1の問題がある。また、文字枠等の無い文書画像の余白等に自由に書かれた手書き文字は、崩れたりする場合が多く、そもそも文字として認識するのが困難な場合が多い。   Further, the invention described in Patent Document 2 has the first problem because the feature amount is calculated in units of one character. In addition, handwritten characters that are freely written in the margins of a document image without a character frame or the like often collapse, and in many cases it is difficult to recognize them as characters.

また、特許文献3に記載された発明では、文字単位で識別しているので、特許文献2に記載された発明と同様な問題が存在し、また、ストローク内のランの長さやストロークの輪郭線もしくは骨格線の長さや、ストロークの交点のなす角の統計をとり判別する手法においては、文字種によって特徴が異なり、例えばひらがなやアルファベット等の曲線の多い画像では漢字と同様に判別するのは困難である(第3の問題)。   In the invention described in Patent Document 3, since identification is performed in units of characters, there is a problem similar to that of the invention described in Patent Document 2, and the run length in the stroke and the stroke outline are also present. Or, in the method of determining by taking statistics of the length of the skeletal line and the angle formed by the intersection of strokes, the characteristics differ depending on the character type, and for example, images with many curves such as hiragana and alphabet are difficult to discriminate in the same way as kanji. There is (third problem).

さらに、ストロークの太さによる判定では、ゴシック体は良いが、明朝体の文字では線や止め部などで太さにばらつきがあり、判別しにくい。また、縮小等がされた画像では識別が困難となるので前述した第2の問題が存在する。   Further, in the determination by the thickness of the stroke, the Gothic type is good, but in the Mincho type character, the thickness varies in the line and the stop part, and it is difficult to determine. Further, since it is difficult to identify a reduced image, the second problem described above exists.

本発明は、このような問題を解決するためになされたものであり、その目的は、手書き文字と活字が混在した原稿から得られたデジタル画像データに対して、高精度でかつ適用範囲の広い手書きと活字の判別を可能とすることである。
画像処理装置、
The present invention has been made to solve such a problem, and an object of the present invention is to provide high accuracy and wide application range for digital image data obtained from a manuscript in which handwritten characters and printed characters are mixed. It is possible to distinguish between handwriting and type.
Image processing device,

本発明は、手書き部分と印刷部分が混在する原稿から得られた画像データを入力画像データとして、手書き部分を認識して抽出する画像処理装置であって、前記入力画像データより細線画像を抽出する細線画像抽出手段と、前記細線画像抽出手段より抽出された細線を文字ストロークに分解するストローク抽出手段と、ストローク内部の画素値の状態に応じて手書き部か否かを判定する第1の判定手段とを備え、前記第1の判定手段は、前記ストローク内部の画素から画素値のヒストグラムを算出するヒストグラム算出手段と、算出されたヒストグラムの態様に応じて手書き部か否かを判定する第2の判定手段とを備え、前記第2の判定手段は、ヒストグラムのピーク数を検出する検出手段を備え、ピーク数が2以上である場合には、1つのピークでのみ判定する事を特徴とする画像処理装置である。 The present invention is an image processing apparatus for recognizing and extracting a handwritten portion using image data obtained from a document including a handwritten portion and a printed portion as input image data, and extracts a thin line image from the input image data. Fine line image extracting means, stroke extracting means for decomposing the thin line extracted by the thin line image extracting means into character strokes, and first determining means for determining whether or not the handwritten portion is in accordance with the state of the pixel value inside the stroke The first determination means includes a histogram calculation means for calculating a histogram of pixel values from the pixels inside the stroke, and a second determination means for determining whether the handwriting portion is in accordance with the calculated histogram form. Determining means, and the second determining means includes detecting means for detecting the number of peaks in the histogram, and when the number of peaks is 2 or more, An image processing apparatus according to claim things determines only over click.

[作用]
本発明によれば、手書き部分と印刷部分が混在する原稿から得られた画像データより細線画像を抽出し、抽出された細線を文字ストロークに分解し、ストローク内部の画素の画素値の状態に応じて手書き部か否かを判定する。この判定においては、ストローク内部の画素から画素値のヒストグラムを算出し、算出されたヒストグラムのピーク数を検出し、ピーク数が2以上である場合には、1つのピークでのみ判定する。
[Action]
According to the present invention, a fine line image is extracted from image data obtained from a document in which a handwritten part and a printed part are mixed, the extracted thin line is decomposed into character strokes, and the pixel values of the pixels inside the strokes are determined according to the state of the pixel values. To determine whether it is a handwritten part. In this determination, a histogram of pixel values is calculated from pixels within the stroke, the number of peaks in the calculated histogram is detected, and if the number of peaks is 2 or more, determination is made with only one peak.

本発明によれば、手書き文字と活字が混在した原稿から得られたデジタル画像データに対して、高精度でかつ適用範囲の広い手書きと活字の判別が可能となる。   According to the present invention, it is possible to discriminate between handwriting and type with high accuracy and wide application range for digital image data obtained from a manuscript in which handwritten characters and type are mixed.

本発明の第1の実施形態の画像処理装置であるMFPの全体ブロック図である。1 is an overall block diagram of an MFP which is an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態の画像処理装置を用いた画像配信システムを示す図である。It is a figure which shows the image delivery system using the image processing apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態の画像処理装置における手書き除去動作を示すフローチャートである。It is a flowchart which shows the handwriting removal operation | movement in the image processing apparatus of the 1st Embodiment of this invention. 図3に示す手書き除去動作で処理する入力画像を示す図である。It is a figure which shows the input image processed by the handwriting removal operation | movement shown in FIG. 図4に示す画像における手書き部分を示す図である。It is a figure which shows the handwritten part in the image shown in FIG. 図4に示す画像における活字と手書きが重なった部分で手書きと判定された画素及び混在と判定された画素を示す図である。It is a figure which shows the pixel determined to be the handwriting and the pixel determined to be mixed in the part in which the type and the handwriting overlapped in the image shown in FIG. 図4に示す画像から図5に示す手書き部分が除去された出力画像を示す図である。It is a figure which shows the output image from which the handwritten part shown in FIG. 5 was removed from the image shown in FIG. 図3における手書き領域認識処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the handwritten area | region recognition process in FIG. 図8に示すフローにおける細線検出後の画像データを示す図である。It is a figure which shows the image data after the thin line detection in the flow shown in FIG. 手書き文字ストロークの画素値のヒストグラムである。It is a histogram of the pixel value of a handwritten character stroke. 活字文字ストロークの画素値のヒストグラムである。It is a histogram of the pixel value of a type character stroke. 図8における細線化処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the thinning process in FIG. 図4に示す入力画像に対して2値化処理を施した例を示す図である。It is a figure which shows the example which performed the binarization process with respect to the input image shown in FIG. 四角形を細線として抽出した例を示す図である。It is a figure which shows the example which extracted the square as a thin line. ストローク抽出処理の動作のフローチャートである。It is a flowchart of operation | movement of a stroke extraction process. 手書き文字画像の例を示す図である。It is a figure which shows the example of a handwritten character image. 図16に示す手書き文字画像に2値化処理を施した結果を示す図である。It is a figure which shows the result of having binarized the handwritten character image shown in FIG. 図16に示す手書き文字画像に細線化処理を施した結果、及び端点と交点を検出した結果を示す図である。It is a figure which shows the result of having performed the thinning process to the handwritten character image shown in FIG. 16, and the result of having detected the end point and the intersection. 図16に示す手書き文字画像をストロークに分解した模式図である。It is the schematic diagram which decomposed | disassembled the handwritten character image shown in FIG. 16 into the stroke. 図15における文字をストローク単位に分解する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which decomposes | disassembles the character in FIG. 15 in a stroke unit. 図16に示す手書き文字画像の3画目のストローク抽出後の画像を示す図である。It is a figure which shows the image after the stroke extraction of the 3rd stroke of the handwritten character image shown in FIG. 中央を現在の注目画素として、その前の画素からの方向によって8パターンに分けた優先度を決定するパターンテーブルを示す図である。It is a figure which shows the pattern table which determines the priority divided | segmented into 8 patterns by the direction from the pixel before the center as the now attention pixel. 図22のテーブルを用いて優先度を決定する例を示す図である。It is a figure which shows the example which determines a priority using the table of FIG. 空間フィルタ処理後の活字文字の例を示す図である。It is a figure which shows the example of the type character after a spatial filter process. 図24に示す活字文字を本発明の第1の実施形態で処理した場合のヒストグラムである。It is a histogram at the time of processing the type character shown in FIG. 24 in the 1st Embodiment of this invention. 本発明の第2の実施形態におけるストローク分割画像生成処理のフローチャートである。It is a flowchart of the stroke division | segmentation image generation process in the 2nd Embodiment of this invention. 図24に示す活字文字を本発明の第2の実施形態で処理した場合のヒストグラムの例を示す図である。It is a figure which shows the example of the histogram at the time of processing the type character shown in FIG. 24 by the 2nd Embodiment of this invention. 本発明の第2の実施形態における対象ストロークの模式図である。It is a schematic diagram of the target stroke in the 2nd Embodiment of this invention. 本発明の第3の実施形態におけるヒストグラム算出処理のフローチャートである。It is a flowchart of the histogram calculation process in the 3rd Embodiment of this invention. 図25に示す活字のヒストグラムを16階調化したヒストグラムを示す図である。FIG. 26 is a diagram showing a histogram obtained by converting the type histogram shown in FIG. 25 into 16 gradations. 手書きストロークを対象とし16階調化したヒストグラムを示す図である。It is a figure which shows the histogram which made 16 gradations for the handwritten stroke. 活字文字の取り消し線を手書きで追記した画像を示す図である。It is a figure which shows the image which added the strikethrough of the printed character by handwriting.

以下、本発明を実施するための形態について、図面を参照して説明する。
[第1の実施形態]
〈MFPの全体ブロック図〉
図1は、本発明の第1の実施形態の画像処理装置であるMFPの全体ブロック図である。以下、同図における構成要素を説明する。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
[First Embodiment]
<Overall block diagram of MFP>
FIG. 1 is an overall block diagram of an MFP that is an image processing apparatus according to a first embodiment of the present invention. The components in the figure will be described below.

この画像処理装置は、原稿を読取るスキャナ部101、スキャナ部101から入力された画像データに対して、公知のγ補正処理や空間フィルタ処理等の画像処理を施すスキャナ画像処理部102、ビットマップ形式の画像データを圧縮符号化して符号データを出力するエンコーダ103、画像処理装置(MFP)全体の動作制御命令や外部装置との通信、バス111のデータの流れを制御するCPU(Central Processing Unit)105、画像データや圧縮符号化された符号データを一時的に記憶するワーク領域として使用される揮発性のメモリ106、符号データ等を保存、蓄積するためのハードディスク(以下HDD)107、操作者とのI/F(インタフェース)であり、スタートボタンやMFPの動作モード等を設定する操作部108、外部装置に対して符号化された画像データを転送する際に画像データのフォーマットを変換するフォーマット変換処理部109、外部転送路を介してPC等の外部装置に対し制御コマンドやページ記述言語形式を含む画像データを送受信する外部I/F110、接続された構成要素間にて双方向にデータ転送可能なバス111、符号データを復号処理して画像データを出力するデコーダ112、画像データを入力して公知の色補正処理、γ変換処理、擬似階調処理等を行いプリンタ114に出力するプリンタ画像処理部113、画像データを記録紙等の記録媒体へ出力するプリンタ部114、によって構成されている。   This image processing apparatus includes a scanner unit 101 that reads a document, a scanner image processing unit 102 that performs image processing such as known γ correction processing and spatial filter processing on image data input from the scanner unit 101, and a bitmap format. Encoder 103 that compresses and encodes the image data and outputs the code data, CPU (Central Processing Unit) 105 that controls the operation control command of the entire image processing apparatus (MFP), communication with external devices, and the flow of data on bus 111 A volatile memory 106 used as a work area for temporarily storing image data and compression-encoded code data, a hard disk (hereinafter referred to as HDD) 107 for storing and accumulating code data, etc. I / F (interface), an operation unit 108 for setting a start button, an operation mode of the MFP, and the like, and image data encoded for an external device Format conversion processing unit 109 that converts the format of image data when sending, external I / F 110 that transmits and receives image data including control commands and page description language format to an external device such as a PC via an external transfer path, connection A bus 111 capable of bi-directional data transfer between the configured components, a decoder 112 that decodes the code data and outputs image data, and inputs the image data to perform known color correction processing, γ conversion processing, pseudo level A printer image processing unit 113 that performs toning processing and the like and outputs it to the printer 114, and a printer unit 114 that outputs image data to a recording medium such as recording paper.

なお、外部I/F110はLAN(Local Area Network)等の外部転送路202に接続され、サーバ装置やPC等の外部装置やインターネット等の外部ネットワークに接続され、スキャナ部101で読み取られた画像や、HDD107内に蓄積された画像を配信(転送)する機能を備えている。   The external I / F 110 is connected to an external transfer path 202 such as a LAN (Local Area Network), is connected to an external device such as a server device or a PC, or an external network such as the Internet, and the image read by the scanner unit 101 , A function of distributing (transferring) images stored in the HDD 107 is provided.

〈複写動作〉
以下、本実施形態のMFPにおける基本的な原稿読み取り動作及び複写動作について説明する。
<Copying operation>
The basic document reading operation and copying operation in the MFP of this embodiment will be described below.

ユーザにより操作部108上のスタートボタン(図示無し)が押下されると、操作部108よりバス111を介して信号を受信したCPU105は、複写動作に先立ち必要なパラメータの設定等を行い、所定の複写動作を実施すべくMFP全体の制御を行う。   When the user presses a start button (not shown) on the operation unit 108, the CPU 105 that has received a signal from the operation unit 108 via the bus 111 performs setting of necessary parameters prior to the copying operation, and the like. The entire MFP is controlled to perform the copying operation.

まずスキャナ部101は、原稿をスキャンして図示しないCCD(Charge Coupled Device)によって光電変換を行い、デジタル信号であるRed(以下R),Green(以下G),Blue(以下B)のカラー画像データへと変換して出力する。スキャナ部101から出力された画像データは、スキャナ画像処理部101にて公知の画像処理を施される。この画像処理には例えば、CCDから読み込まれた反射率属性の信号を、濃度属性に変換するγ変換やlog変換、スキャナ光学系のMTF(Modulation Transfer Function)の劣化の補正や、モアレ抑制を目的としたエッジ強調や平滑化処理を行う空間フィルタ処理、原稿地肌を除去する地肌除去処理、スキャナの色空間を例えばsRGBなどの標準色空間へと変換する色変換処理等がある。   First, the scanner unit 101 scans a document, performs photoelectric conversion by a CCD (Charge Coupled Device) (not shown), and performs color image data of red (hereinafter R), green (hereinafter G), and blue (B) as digital signals. Convert to and output. The image data output from the scanner unit 101 is subjected to known image processing by the scanner image processing unit 101. The purpose of this image processing is, for example, γ conversion or log conversion for converting a reflectance attribute signal read from a CCD into a density attribute, correction of MTF (Modulation Transfer Function) deterioration of the scanner optical system, and moire suppression. There are a spatial filter process for performing edge enhancement and smoothing processing, a background removal process for removing the document background, a color conversion process for converting the color space of the scanner into a standard color space such as sRGB.

スキャナ画像処理部102から出力された画像データは、バス111を介して一時的にメモリ106に記憶される。メモリ106に記憶された画像データは、エンコーダ103に入力され圧縮符号化される。エンコーダ103からバス111に出力される符号データは、一旦メモリ106に記憶された後、メモリ106から読み出されてHDD107に保存される。メモリ106から読み出された画像データは、HDD107への保存と並行してデコーダ112にも入力され、復号処理を受ける。上記のようなバスの制御はCPU105によって行われる。   The image data output from the scanner image processing unit 102 is temporarily stored in the memory 106 via the bus 111. The image data stored in the memory 106 is input to the encoder 103 and compressed and encoded. Code data output from the encoder 103 to the bus 111 is temporarily stored in the memory 106, read from the memory 106, and stored in the HDD 107. The image data read from the memory 106 is also input to the decoder 112 in parallel with the storage in the HDD 107 and is subjected to a decoding process. The bus 105 is controlled by the CPU 105 as described above.

なお、通常このようにバスに接続されたメモリへのデータの書き込みアクセスは、バスに接続された各処理部がDMA(Direct Memory Access)方式によって数十バイトから数キロバイト単位の一定量のデータ単位で実行されるため、バスの接続部はバッファとDMAコントローラで構成されているのが一般的である。但し、本実施形態では説明の簡略化のため、DMAコントローラは省略している。また、メモリからのデータを読み出す場合にも同様にDMA方式によってアクセスするため、入力バッファメモリが必要となる。   Normally, data write access to the memory connected to the bus in this way is performed by each processing unit connected to the bus using a DMA (Direct Memory Access) method with a fixed amount of data in units of several tens to several kilobytes. In general, the bus connection section is composed of a buffer and a DMA controller. However, in this embodiment, the DMA controller is omitted for simplification of description. In addition, when reading data from the memory, an access to the input buffer memory is required because access is similarly performed by the DMA method.

また、HDD107への符号データの保存の際にメモリ106への書き込みを介在させる理由は以下のとおりである。HDDは、ディスクの中心に近い側と遠い側とで読み出し/書き込み速度が変化したり、読み出し/書き込みエラー等を生じたりする可能性があり、半導体メモリと比較すると同期信号の読み出し/書き込みには向かないデバイスである。そこで、同期信号であるエンコーダ103の出力データを直接書き込まずに、一旦メモリ106に記憶された符号データを非同期に書き込み、安定的に使用できるようにした。また、読み出し時も同様である。なお、1ページ単位でマクロ的にみればHDDも同期して動作することになる。   The reason for interposing writing to the memory 106 when the code data is stored in the HDD 107 is as follows. The HDD may change the reading / writing speed between the side closer to the center of the disk and the side farther from the disk, or may cause a reading / writing error, etc. The device is not suitable. Therefore, instead of directly writing the output data of the encoder 103 as a synchronization signal, the code data once stored in the memory 106 is asynchronously written so that it can be used stably. The same applies to reading. Note that the HDD operates in synchronism when viewed macroscopically in units of one page.

HDD107に保存された符号データは、複写動作時に紙詰まり等が発生した場合のバックアップ用途、多ページの原稿を多部数、ページ順に出力するいわゆる電子ソート機能用途など複写動作時に使用される用途の他に、外部機器への画像データ配信用途、過去に保存したデータを原稿無しで再びプリントする再プリント用途等に使用される。   Code data stored in the HDD 107 can be used for copying operations such as backup when a paper jam occurs during the copying operation, so-called electronic sort function that outputs multi-page documents in multiple copies and page order. In addition, it is used for image data distribution to an external device, reprinting for reprinting data stored in the past without a document, and the like.

一方、デコーダ112は、メモリ106から符号データが入力されると、所定の復号および合成処理を行い、画像データをプリンタ画像処理部113へ出力する。プリンタ画像処理部113での画像処理は、スキャナ画像処理部102同様、本発明において特に限定されることはない。例をあげれば、RGB信号を、プリンタの色材信号、例えばCyan(以下C),Magenta(以下M),Yellow(以下Y),Black(以下、K)へ変換しカラーマッチングを行う色補正処理、墨生成処理、画像データのγをプリンタ部114のγに合わせるγ補正処理、ディザや誤差拡散といったハーフトーンへの変換を行う擬似階調処理等が考えられる。   On the other hand, when the code data is input from the memory 106, the decoder 112 performs predetermined decoding and composition processing, and outputs the image data to the printer image processing unit 113. Similar to the scanner image processing unit 102, the image processing in the printer image processing unit 113 is not particularly limited in the present invention. For example, a color correction process for converting RGB signals into printer color material signals such as Cyan (hereinafter C), Magenta (hereinafter M), Yellow (hereinafter Y), and Black (hereinafter K) to perform color matching. In addition, black generation processing, γ correction processing for matching γ of image data with γ of the printer unit 114, pseudo gradation processing for performing conversion to halftone such as dither and error diffusion, and the like can be considered.

上記のような画像処理を受けた画像データはプリンタ部114にて図示しない記録紙などに印字されて出力され、複写動作が完了する。なお、本実施形態においては、エンコーダ103にて画像の圧縮符号化が行われ、デコーダ112により復号化が行われるように説明している。通常、MFPでは、必要メモリ量やHDDの容量の節約のためにこのような操作が行われるが、圧縮符号化を行わなくとも実現可能である。また、圧縮符号化の種類は問わない。   The image data subjected to the image processing as described above is printed on a recording sheet (not shown) by the printer unit 114 and output, and the copying operation is completed. In the present embodiment, it is described that the encoder 103 performs compression coding of an image and the decoder 112 performs decoding. Normally, in the MFP, such an operation is performed to save the required memory amount and the HDD capacity, but this can be realized without performing compression encoding. The type of compression encoding is not limited.

以上説明したのが、MFPの最も基本的な動作である複写動作である。複写動作完了後には、HDD107内に複写動作途中の画像データが圧縮符号化された状態で保存されたことになる。前述したようにHDD107内に画像データを保存しておくことによって、画像データをPC等へ電子データとして取り込んだり、必要になった時に再プリントしたりする事が可能となっている。なお、原稿をHDD107内に電子データとして保存することのみ必要な場合は、デコーダ112以降の処理は必要ない。   What has been described above is the copying operation, which is the most basic operation of the MFP. After the copying operation is completed, the image data in the middle of the copying operation is stored in the HDD 107 in a compressed and encoded state. As described above, by storing image data in the HDD 107, the image data can be taken into a PC or the like as electronic data, and can be reprinted when necessary. If it is only necessary to store the document as electronic data in the HDD 107, the processing after the decoder 112 is not necessary.

〈画像配信動作〉
前述のように、本実施形態のMFPは、外部転送路202を介して外部装置へ画像を配信する機能を備える。図2は画像配信の場合の全体システム構成を示す図である。同図に示すように、このシステムはMFP201、外部転送路202、クライアント装置であるPC203、PC203に配信した画像を表示等するモニタ204からなる。ここで、MFP201は図1に示した構成を有する。
<Image distribution operation>
As described above, the MFP according to the present embodiment has a function of distributing an image to an external device via the external transfer path 202. FIG. 2 is a diagram showing an overall system configuration in the case of image distribution. As shown in the figure, this system includes an MFP 201, an external transfer path 202, a PC 203 as a client device, and a monitor 204 that displays an image distributed to the PC 203. Here, the MFP 201 has the configuration shown in FIG.

以下画像配信動作について説明する。
ユーザによる操作部108により配信動作に必要な配信パラメータ設定が行われ、スタートボタン(図示無し)が押下されると、操作部108よりバス111を介して信号を受信したCPU105は、配信動作に先立ち必要な動作パラメータの設定等を行い、所定の配信動作を実施すべくMFP201全体の制御を行う。
The image distribution operation will be described below.
When a delivery parameter setting necessary for the delivery operation is performed by the operation unit 108 by the user and a start button (not shown) is pressed, the CPU 105 that receives a signal from the operation unit 108 via the bus 111 prior to the delivery operation. Necessary operation parameters are set, and the entire MFP 201 is controlled to execute a predetermined distribution operation.

配信パラメータ設定は、例えば、配信画像の形態(カラー、グレー、モノクロ2値)、圧縮レベル、圧縮種類、出力フォーマット、及び配信機能等である。配信機能は、例えば、画像を画像種類毎に多層化して圧縮率を高めたり、OCRにより画像に透明テキストコードを付加して検索可能とする等のものが一般的に使用されている。ここでは、例えば、手書きと活字等の印刷データが混在した原稿上から、手書き画像を消去する「手書き画像の消去」機能が選択されたものとする(なお、複数の機能が同時に選択されるような場合も考えられる)。   The delivery parameter settings are, for example, the form of delivery image (color, gray, monochrome binary), compression level, compression type, output format, delivery function, and the like. As the distribution function, for example, an image having multiple layers for each image type to increase the compression rate, or adding a transparent text code to the image by OCR to make it searchable is generally used. Here, for example, it is assumed that the “erase handwritten image” function for erasing the handwritten image is selected from a document in which print data such as handwritten characters and printed characters are mixed (a plurality of functions are selected at the same time). Is also possible).

ここで、配信対象画像が新規スキャンデータの場合は、複写動作と同様に、エンコーダ103により圧縮符号化された画像データがメモリ106上に展開される。また、配信対象画像がHDD107内に保存されている画像の場合は、対象画像をHDD107より読み出し、同様にメモリ106上に展開する。   Here, when the distribution target image is new scan data, the image data compressed and encoded by the encoder 103 is expanded on the memory 106 as in the copying operation. If the distribution target image is an image stored in the HDD 107, the target image is read from the HDD 107 and similarly developed on the memory 106.

次に、配信機能などの上記ユーザによるパラメータ設定により設定された「手書き画像消去」画像への変換処理が行われる。画像変換処理は、CPU105によってメモリ106上に画像が展開されてソフトウェア的に実施される。なお、画像変換処理は、カラー画像のモノクロ変換、2値変換なども含まれるが説明は省略する。画像変換処理の詳細動作は後述する。   Next, conversion processing to an “erased handwritten image” image set by parameter setting by the user such as a distribution function is performed. The image conversion process is performed in software by the CPU 105 developing an image on the memory 106. Note that the image conversion process includes monochrome conversion and binary conversion of a color image, but a description thereof will be omitted. Detailed operation of the image conversion process will be described later.

ここでメモリ106上に展開された画像データは圧縮符号化されているものであり、通常画像変換動作の前に復号化が必要である。復号化は、デコーダ112を介して行っても良いし、CPU105によって処理と並行して実施しても良い。なお、これ以降、説明の簡素化のため圧縮符号化、復号化の処理を省略して説明を行う。   Here, the image data expanded on the memory 106 has been compression-encoded and needs to be decoded before the normal image conversion operation. Decoding may be performed via the decoder 112 or may be performed by the CPU 105 in parallel with the processing. In the following description, the compression encoding and decoding processes are omitted for the sake of simplicity.

画像変換がなされた画像データは、再度メモリ106上に展開され、フォーマット変換処理部109にて、ユーザにより設定された所望のフォーマットへ変換される。ここでのフォーマットには圧縮種類や、一般的に使用される文書フォーマット等が含まれる。   The image data that has been subjected to the image conversion is developed again on the memory 106, and converted into a desired format set by the user by the format conversion processing unit 109. The format here includes a compression type, a commonly used document format, and the like.

フォーマット変換処理部109にてフォーマット変換された文書画像は、一旦メモリ106に蓄積された後、外部I/F110より外部転送路110を介してPC203へ転送され、PC203上で表示アプリケーション等を使用してモニタ204上に表示され閲覧される。   The document image whose format has been converted by the format conversion processing unit 109 is temporarily stored in the memory 106, and then transferred from the external I / F 110 to the PC 203 via the external transfer path 110, and a display application or the like is used on the PC 203. Displayed on the monitor 204 and viewed.

〈画像変換処理動作(手書き画像除去動作)〉
本実施形態における画像変換処理動作は手書き画像の除去動作である。図3に手書き除去動作のフローチャートを示す。
<Image conversion processing operation (handwritten image removal operation)>
The image conversion processing operation in the present embodiment is a handwritten image removal operation. FIG. 3 shows a flowchart of the handwriting removal operation.

S1:入力画像(図4参照)に対して画素単位に、手書き/活字/その他(文字以外の印刷と白地等の背景が含まれる)のいずれかに判定し、判定結果をメモリ106へ書き出す。詳細は後述する。   S1: The input image (see FIG. 4) is determined on a pixel-by-pixel basis as either handwritten / printed / other (including printing other than characters and a background such as a white background), and the determination result is written to the memory 106. Details will be described later.

S2〜S4:画素単位に判定結果を識別し(S2)、手書きかつ非活字領域である場合(S2:YES→S3:NO)に、手書き除去画像(画素)を生成する(S4)。ここでの手書き除去画像は、一例として白画素であるが、好適には、周囲画素の非細線部分を選択する(詳細については、手書き領域認識処理の説明において後述する)。生成した手書き除去画像(画素)を入力画像へメモリ106上で上書き処理する。なお、S3の判定で活字領域である場合(S3:YES)には、活字の印刷上に手書き文字が書かれた画素と判定し、入力画像をそのまま出力する。このとき、図4に示す入力画像において活字と手書きが重なった部分に対して、手書き画素(図5A)及び混在画素(図5B)が正確に判定される。なお、重なった部分を活字部分、手書き部分の双方に残すこともできる。   S2 to S4: The determination result is identified on a pixel basis (S2), and when it is a handwritten and non-printing area (S2: YES → S3: NO), a handwritten removal image (pixel) is generated (S4). The handwritten removal image here is a white pixel as an example, but preferably, a non-thin line portion of surrounding pixels is selected (details will be described later in the description of the handwritten region recognition process). The generated handwritten removal image (pixel) is overwritten on the input image on the memory 106. Note that if it is a type region in the determination of S3 (S3: YES), it is determined that the pixel has a handwritten character on the print of the type, and the input image is output as it is. At this time, the handwritten pixel (FIG. 5A) and the mixed pixel (FIG. 5B) are accurately determined for the part where the type and the handwriting overlap in the input image shown in FIG. It is also possible to leave the overlapped part in both the type part and the handwritten part.

S5:入力画像の全ての画素について実行したか否か判定し終了していない場合(S5:NO)は、S2〜S4を繰り返す。   S5: It is determined whether or not the process has been executed for all the pixels of the input image. If the process has not been completed (S5: NO), S2 to S4 are repeated.

以上により、図4に示す画像から図6に示す手書き部分が除去された出力画像(図7参照)がメモリ106上へ記憶される。   As described above, the output image (see FIG. 7) obtained by removing the handwritten portion shown in FIG. 6 from the image shown in FIG.

〈手書き領域認識処理(S1)〉
図3のステップS1の手書き領域認識処理の詳細について図8のフローチャートをもとに説明する。
<Handwritten region recognition process (S1)>
Details of the handwritten region recognition processing in step S1 of FIG. 3 will be described with reference to the flowchart of FIG.

S11:入力画像より細線部を抽出する。これ以降の処理は細線部のみ対象とする。処理終了後には細線の識別フラグの画像データ(2値の画像データ)がメモリ106上に記憶される。細線抽出処理の詳細は後述する。細線検出後の画像データは図9のようになる。(但し、実際にこのような画像は生成されない。)   S11: A thin line portion is extracted from the input image. Subsequent processes are targeted only for the thin line portion. After the processing is completed, the image data (binary image data) of the thin line identification flag is stored in the memory 106. Details of the thin line extraction processing will be described later. The image data after the fine line detection is as shown in FIG. (However, such an image is not actually generated.)

S12:S11で抽出した細線部の画像データを対象としてストロークに分解し、文字のストローク毎に処理対象とし抽出する。詳細は後述する。
S13:S12で抽出したストロークの画像毎にヒストグラムを算出する。
S12: The image data of the thin line portion extracted in S11 is decomposed into strokes, and each character stroke is extracted as a processing target. Details will be described later.
S13: A histogram is calculated for each stroke image extracted in S12.

S14:S13で算出したヒストグラムを基にストロークを手書きと活字に識別する。本実施形態においては、ヒストグラムの分散又は標準偏差を算出して、閾値処理によってばらつきが大きい(標準偏差や分散が大きい)ものは手書き文字ストローク、ばらつきが小さいものは活字文字ストロークに判別する。判別結果に応じて、画素単位を3値データ化(手書き文字/活字/その他)してフラグ画像としてメモリ106に記憶する。   S14: Strokes are identified as handwritten and typed based on the histogram calculated in S13. In the present embodiment, the variance or standard deviation of the histogram is calculated, and those having a large variation (standard deviation or large variance) by threshold processing are determined as handwritten character strokes, and those having a small variation are determined as type character strokes. In accordance with the determination result, the pixel unit is converted into ternary data (handwritten characters / types / others) and stored in the memory 106 as a flag image.

図10は手書き文字ストロークの画素値のヒストグラムであり、図11は活字文字ストロークのヒストグラムである。手書き文字の方がばらつきが大きく、分散が大きな事が分かる。   FIG. 10 is a histogram of pixel values of handwritten character strokes, and FIG. 11 is a histogram of printed character strokes. It can be seen that handwritten characters have more variation and greater variance.

〈細線抽出処理(S11)〉
S11の細線化処理の動作を図12のフローチャートをもとに説明する。
S21:まず入力画像全体を2値化する。2値化の手法は様々なものがあり、最も単純で高速な処理は、画像全体に対する固定の閾値による2値化であるが、文字を抽出するには、精度的に問題が生じる場合が多い。
<Thin line extraction process (S11)>
The operation of the thinning process in S11 will be described with reference to the flowchart of FIG.
S21: First, the entire input image is binarized. There are various methods of binarization, and the simplest and fastest processing is binarization with a fixed threshold for the entire image. However, there are many cases where a problem occurs with accuracy when extracting characters. .

好適な例としては、所定の矩形領域のブロック単位に画像信号を入力し、入力された画像信号に対し閾値決定処理にてブロック単位に一つの閾値が決定される。ここでの閾値決定処理方法としては、種々の方法が考えられ、特に限定されない。公知の方法、例えば特開2002−7763号公報に開示されているようなヒストグラムをとって平均、分散等の統計的性質を利用する方法や、簡易な方法としてはブロック内全画素の輝度(Y)値の平均値を用いたり、平均値に所定の重みを演算することによって決定する方法等を利用すればよい。   As a preferred example, an image signal is input in units of blocks of a predetermined rectangular area, and one threshold value is determined for each block in the threshold value determination process for the input image signal. Various methods can be considered as the threshold value determination processing method here, and are not particularly limited. A known method, for example, a method of taking a histogram as disclosed in Japanese Patent Application Laid-Open No. 2002-7763 and using statistical properties such as average and variance, and a simple method include luminance (Y ) The average value of the values may be used, or a method of determining by calculating a predetermined weight on the average value may be used.

閾値決定処理にて決定された閾値に応じて2値化処理を行い、メモリ106に2値画像データとして記憶する。なお、入力がカラー画像の場合は、公知の手法により輝度信号に変換するなどの前処理を要する。図13に入力画像データに対して2値化処理を行った例を示す。   A binarization process is performed according to the threshold value determined in the threshold value determination process, and is stored in the memory 106 as binary image data. If the input is a color image, preprocessing such as conversion to a luminance signal by a known method is required. FIG. 13 shows an example in which binarization processing is performed on input image data.

S22:2値画像をラスタ走査して黒エッジ部を検出する。
S23:2値画像の黒画素の水平方向及び垂直方向に対向する白エッジ(黒画素と白画素との境界)をスキャンする。
S24:いずれかの方向に白画素が検出された時点で線幅を画素数で確定する。
S25:線幅が所定の閾値以下ならば、細線として抽出し、スキャンした部分を細線画像としてメモリ106上に記憶する(非細線部分を入力画像から消去しても良い)。
S22: A black edge portion is detected by raster scanning the binary image.
S23: The white edge (the boundary between the black pixel and the white pixel) facing the horizontal direction and the vertical direction of the black pixel of the binary image is scanned.
S24: When a white pixel is detected in any direction, the line width is determined by the number of pixels.
S25: If the line width is equal to or smaller than a predetermined threshold, the line is extracted as a fine line, and the scanned portion is stored in the memory 106 as a thin line image (the non-thin line portion may be deleted from the input image).

S26〜S27:2値画像の同一黒塊内に、細線部と非細線部が混在しているか否かを判定し(S26)、混在している場合(S26:YES)は、その黒塊内の細線画像を全て非細線画像とする(S27)。   S26 to S27: It is determined whether the thin line portion and the non-thin line portion are mixed in the same black block of the binary image (S26). If mixed (S26: YES), All the thin line images are set as non-thin line images (S27).

このような方法によると、S25までの判定では、三角形などの図形は途中まで細線として取られる場合があるが、S26〜S27で誤判定部分が消去され、三角形全体が非細線として判定される。また、このようなノイズ除去の手法としては、細線抽出された領域が微小領域の場合は非細線領域と判定を変更するなどの簡単な方法でもある程度の効果がある。   According to such a method, in the determination up to S25, a figure such as a triangle may be taken as a thin line halfway, but the erroneous determination part is erased in S26 to S27, and the entire triangle is determined as a non-thin line. Further, as such a noise removal technique, a simple method such as changing the determination as a non-thin line area when the area extracted from the thin line is a small area has some effects.

前述した図9はS25までの細線抽出結果の例である。この図ではコンピュータの画像の一部が細線として抽出されているが、前述した黒画素領域の補正を行う事によって誤判定領域を消去可能となる。   FIG. 9 described above is an example of thin line extraction results up to S25. In this figure, a part of the computer image is extracted as a thin line, but the erroneous determination area can be erased by correcting the black pixel area described above.

また、図14のような四角形の場合、白い部分(4ヶ所)が細線部、黒い部分が非細線として抽出されることになる。2値化した場合、四角形全体が黒塊となるので、細線/非細線部の混在判定により全て非細線部分とすることが可能となる。   In the case of a quadrangle as shown in FIG. 14, white portions (four places) are extracted as thin line portions and black portions are extracted as non-thin lines. In the case of binarization, the entire quadrangular becomes a black lump, so that it is possible to make all non-thin line portions by the mixed determination of the thin line / non-thin line portions.

〈ストローク抽出処理(S12)〉
S12のストローク抽出処理の詳細について図15のフローチャートをもとに説明する。
S31:S21と同様に2値化処理を行う。なお、ここでは便宜上、処理を行うものとしているが、本実施形態の場合、S21にて2値化処理した画像をメモリ106から読み出すだけでよい。
<Stroke extraction process (S12)>
Details of the stroke extraction process of S12 will be described with reference to the flowchart of FIG.
S31: The binarization process is performed in the same manner as S21. Note that the processing is performed here for convenience, but in the present embodiment, it is only necessary to read out the image binarized in S21 from the memory 106.

S32:細線抽出された画像に対して、1ドットの画像へ細線化処理して文字の芯線を抽出する。細線化処理にも種々の方法があるが、特開2008−158847号公報に記載された方法が好適である。4近傍距離変換の逐次型アルゴリズムを実行し、その結果を順次メモリ106に記憶してラスタ走査の方向を変化させながら、3×3マスクのパターンマッチングを使用して細線化処理を逐次的に実行していく。最終的に1ドットの文字の細線(芯線)画像が抽出され、メモリ106に記憶される。   S32: The thinned line image is thinned into a 1-dot image to extract the character core line. There are various methods for thinning, but the method described in Japanese Patent Application Laid-Open No. 2008-158847 is preferable. Executes the sequential algorithm of 4-neighbor distance conversion, stores the result in the memory 106 sequentially, and executes the thinning process sequentially using the pattern matching of 3 × 3 mask while changing the direction of raster scanning I will do it. Finally, a fine line (core line) image of 1-dot characters is extracted and stored in the memory 106.

図16に示す手書き文字画像に対して、2値化処理を施した結果を図17に、細線化処理を施した結果を図18Aに各々示す。   FIG. 17 shows the result of the binarization process performed on the handwritten character image shown in FIG. 16, and FIG. 18A shows the result of the thinning process.

S33:次に1ドットに細線化した画像をもとに文字ストロークを検出(文字をストローク単位に分解)する。この処理により、図18Bのように端点と交点が検出され、端点(始点)又は交点から、端点(終点)又は交点までのストロークに分解される事になる。この処理の詳細は後述する。   S33: Next, character strokes are detected (characters are divided into strokes) based on the image thinned into one dot. By this processing, the end points and the intersections are detected as shown in FIG. 18B, and the strokes are broken down from the end points (start points) or the intersections to the end points (end points) or the intersections. Details of this processing will be described later.

なお、抽出した個々のストロークについては必要に応じてラベリングなどを施しメモリ106に記憶しておけばよい。
図18Bに示す図19Aにストローク分解した模式図を示す。
The extracted individual strokes may be stored in the memory 106 after labeling or the like as necessary.
FIG. 19A shown in FIG. 18B shows a schematic diagram of stroke decomposition.

S34:ストローク検出処理(S33)にて検出されたストロークを元に、2値画像を使用して芯線周囲の黒画素をストローク画像領域として識別する。交点周囲は、所定の画像領域を含めるように構成すればよい(例えば、交点周囲の5×5の矩形領域内の黒画素のみを含める等)。そして、個々のストローク画像領域に対応する入力画像をストローク画像として生成し、ヒストグラム算出(S13)の入力画像とする。   S34: Based on the stroke detected in the stroke detection process (S33), the binary image is used to identify black pixels around the core line as a stroke image area. What is necessary is just to comprise so that a predetermined | prescribed image area | region may be included around an intersection (For example, only the black pixel in the 5x5 rectangular area | region around an intersection is included). Then, an input image corresponding to each stroke image area is generated as a stroke image, and used as an input image for histogram calculation (S13).

〈文字ストローク検出処理(S33)〉
文字ストロークを検出(文字をストローク単位に分解)する処理を図20のフローチャートにより詳細に説明する。
<Character stroke detection processing (S33)>
Processing for detecting a character stroke (decomposing characters into stroke units) will be described in detail with reference to the flowchart of FIG.

この処理を単純に実行すると、図19Bに示すように、字の書き順とは異質なストロークが取れてしまう場合がある。このような事が生じると、手書きと活字が混在する部分をうまく識別出来なくなる可能性がある。図21は3画目のストローク抽出後の画像であるが、端点から始まる場合と交点から始まる場合とで場合分けが必要である。   If this process is simply executed, a stroke different from the stroke order of characters may be obtained as shown in FIG. 19B. When such a thing occurs, there is a possibility that a portion where handwriting and type are mixed cannot be identified well. FIG. 21 shows the image after the stroke extraction of the third stroke, but it is necessary to distinguish between the case of starting from the end point and the case of starting from the intersection.

S331:1ドット細線画像を例えば左上から右下方向へラスタ走査して端点(始点)を検出する。前回のS331〜S337までの処理で未処理の交点を残している場合には、検出された交点からスタートする。   S331: The end point (start point) is detected by raster scanning the 1-dot thin line image, for example, from the upper left to the lower right. If an unprocessed intersection is left in the previous processing from S331 to S337, the process starts from the detected intersection.

S332〜S333:次に分岐がある(交点)か否かを判定し(S332)、交点でない場合(S332:NO)には、周囲画素から黒画素をスキャンして1ドット進める(S338)。この状態では分岐点ではないので進める画素は一つである。   S332 to S333: It is determined whether or not there is a next branch (intersection) (S332). If it is not an intersection (S332: NO), black pixels are scanned from surrounding pixels and advanced by one dot (S338). In this state, since it is not a branch point, one pixel is advanced.

分岐がある場合(S332:YES)には、交点と認識しその交点に未処理の画素の方向が2方向以上あるか否かを判定する(S333)。以前の走査で進めるべき方向が1方向の場合にはS333の処理を実行する。   If there is a branch (S332: YES), it is recognized as an intersection and it is determined whether there are two or more unprocessed pixel directions at the intersection (S333). If the direction to be advanced in the previous scan is one direction, the process of S333 is executed.

例えば三叉路の分岐の場合を考えると、以前に一つの方向が処理されていた場合には進める可能性は一意に決定されるので、S335以下の処理は必要なくなる。   For example, considering the case of a branch of a three-way road, if one direction has been processed before, the possibility of proceeding is uniquely determined, so the processing from S335 onward is not necessary.

S334:進める方向が2方向以上ある場合には、方向の優先度を算出する。方向の優先度は、黒画素スキャンした方向から算出する。   S334: If there are two or more directions to proceed, the priority of the direction is calculated. The direction priority is calculated from the direction of black pixel scanning.

図22は、中央を現在の注目画素(スキャンの位置)つまり交点として、その前の画素からの方向によって8つのパターンA〜Hに分けた優先度を決定するパターンテーブルを示している。数字の低い方が高優先度である。なお、×の画素は黒画素が取りえない位置を表している(×の位置に黒画素が存在する場合、一つ前の画素が交点となるため)。   FIG. 22 shows a pattern table in which the priority is divided into eight patterns A to H according to the direction from the previous pixel, with the center being the current pixel of interest (scan position), that is, the intersection. The lower the number, the higher the priority. In addition, the pixel of * represents the position where a black pixel cannot be taken (because the previous pixel becomes an intersection when a black pixel exists at the position of X).

図23を例にして説明すると、交点の前の画素が交点の上側にある場合は、図22Cのパターンを参照して、交点から次の画素がどの位置に存在するかにより優先度を決定する。三叉路の場合は、2方向に進める可能性があるので、図23の場合は、優先度4と優先度5の方向がある。ここで、現在処理中のストロークの優先度の決定については優先度の高い方を選択し、優先度4となる。   Referring to FIG. 23 as an example, when the pixel before the intersection is above the intersection, the priority is determined by referring to the pattern in FIG. 22C and the position of the next pixel from the intersection. . In the case of a three-way road, there is a possibility of advancing in two directions, so in the case of FIG. 23, there are directions of priority 4 and priority 5. Here, for the determination of the priority of the stroke currently being processed, the higher priority is selected, and the priority becomes 4.

次に、処理中のストローク以外のストロークの優先度を求める。図23の場合は、交点から見て水平方向に伸びるストロークを仮定する。この場合、処理済の画素は対象に入れない。水平方向に伸びるストロークは左から右へ伸びるストロークと右から左へ伸びる2つのストロークを仮定する事が出来る。左から右へ伸びるストロークは、図22Aのパターンを用いて優先度1、右から左へ伸びるストロークも図22Eのパターンを使用して優先度1となる。この場合は優先度の高いものを一つ選んで優先度とし、結果処理中以外のストロークの優先度は1となる。   Next, the priority of strokes other than the stroke being processed is obtained. In the case of FIG. 23, a stroke extending in the horizontal direction when viewed from the intersection is assumed. In this case, processed pixels are not included. The stroke extending in the horizontal direction can be assumed to be a stroke extending from left to right and two strokes extending from right to left. Strokes extending from left to right have priority 1 using the pattern of FIG. 22A, and strokes extending from right to left also have priority 1 using the pattern of FIG. 22E. In this case, one with a high priority is selected and set as the priority, and the priority of the strokes other than the result processing is 1.

なお、その他のストロークの処理を簡易的にしたい場合は、複数の方向毎に優先度を算出せずに、左から右のストロークのみ判定するなどストロークの方向の優先度をあらかじめ設定しておいても良い。   If you want to simplify the processing of other strokes, set the priority of the stroke direction in advance, such as determining only the stroke from left to right without calculating the priority for each direction. Also good.

S335〜S336:処理中のストロークの優先度とその他のストロークの優先度を比較する(S335)。図23の例では、処理中のストロークは、その他のストロークの優先度よりも低いため(S335:NO)、この交点にてストロークは終了(エンド)となる。   S335 to S336: The priority of the stroke being processed is compared with the priority of other strokes (S335). In the example of FIG. 23, since the stroke being processed is lower than the priority of the other strokes (S335: NO), the stroke ends (ends) at this intersection.

処理中のストロークの優先度が高い場合(S335:YES)には、交点分岐の2方向のうち優先度の高い方向へ1ドットストロークを前進させる(S336)。図23で仮に処理中のストロークの優先度がその他のストロークよりも高い場合は右(優先度4)の方向へ前進する事になる。   If the priority of the stroke being processed is high (S335: YES), a one-dot stroke is advanced in the direction of higher priority among the two directions of the intersection branch (S336). If the priority of the stroke being processed in FIG. 23 is higher than the other strokes, the robot moves forward in the right direction (priority 4).

S337:終点の端点か否かを判定し、終点の端点に到達するか、交点で他のストロークよりも優先度が低くなるまで、S332〜S336の処理を繰り返す。   S337: It is determined whether or not the end point is the end point, and the processes of S332 to S336 are repeated until the end point is reached or the priority is lower than the other strokes at the intersection.

以上説明したように、本発明の第1の実施形態によれば、手書き文字と活字文字等の印刷部分が混在する原稿を対象に、手書き部分を認識する画像処理装置において、細線画像を処理対象とし、文字のストロークに分解し、ストローク内部の画素値の状態に応じて手書き文字を判定しているため、活字と手書きが重なった部分や、曲線が多い文字等、文字種によらずに、またスキャナの生画像のみを対象とすることなく精度良く判定することが可能となる。
また、手書き部分と活字部分を各々判定し、手書きでかつ活字部分を混在部分と判定しているので、手書き画像を消去した画像を作成する場合においても、混在部分で活字画像が不自然に消去されることない。
また、手書き文字ストロークの判定対象として細線画像のみを抽出する場合に、2値化画像の黒塊内で細線と非細線の混在がある場合に細線判定部分を非細線へ変更しているので、連続した画像内で細線/非細線の混在を防ぐ事が可能となり、手書き判定の精度が向上する。
As described above, according to the first embodiment of the present invention, a thin line image is processed in an image processing apparatus that recognizes a handwritten portion for a document in which printed portions such as handwritten characters and printed characters are mixed. Because the handwritten character is determined according to the state of the pixel value inside the stroke, and it is divided into character strokes, regardless of the character type, such as a portion where type and handwriting overlap, characters with many curves, etc. It is possible to determine with high accuracy without targeting only the raw image of the scanner.
In addition, since the handwritten part and the type part are respectively determined and the handwritten type part is determined to be a mixed part, even when creating an image in which the handwritten image is erased, the typed image is erased unnaturally in the mixed part. Never done.
In addition, when extracting only a thin line image as a determination target of handwritten character strokes, if there is a mixture of thin lines and non-thin lines in the black block of the binarized image, the thin line determination part is changed to non-thin lines. It is possible to prevent a mixture of fine lines / non-thin lines in a continuous image, and the accuracy of handwriting determination is improved.

なお、本実施形態においては、MFPのCPUで処理を実施する例を示したが、例えば、MFPのスキャナで読み込んだ画像をサーバやPC等の外部装置に配信した後にサーバやPCのCPUによって処理を実施しても良い。その場合は、MFPの代わりにスキャナ単体装置等を使用しても良い。   In this embodiment, an example in which processing is performed by the CPU of the MFP has been described. For example, after an image read by the scanner of the MFP is distributed to an external device such as a server or PC, the processing by the CPU of the server or PC is performed. May be implemented. In that case, a single scanner device or the like may be used instead of the MFP.

[第2の実施形態]
図24に空間フィルタ処理後の活字文字の例を示す。文字幅がやや太い文字の場合、文字画像のエッジ部と文字内部で画像の濃度に差が生じる事がある。
[Second Embodiment]
FIG. 24 shows an example of type characters after the spatial filter processing. When the character width is slightly thick, there may be a difference in image density between the edge portion of the character image and the inside of the character.

このような文字画像を第1の実施形態の処理にて判定しようとすると、濃度の高い画素と濃度の低い画素を有するストロークでは、2つの濃度の影響により、図25のようなヒストグラムとなり、ヒストグラムの分散や標準偏差の値が大きくなる傾向を示す。これは、活字文字の判定の精度低下を招く事になる。本実施形態はこのような場合への対応を可能にしたものである。   If such a character image is to be determined by the processing of the first embodiment, a stroke having a high density pixel and a low density pixel has a histogram as shown in FIG. The variance and standard deviation values tend to increase. This leads to a decrease in accuracy of determination of type characters. The present embodiment makes it possible to cope with such a case.

本実施形態の画像処理装置の構成は第1の実施形態とほぼ同様であり、異なるのはストローク分割画像生成処理(図15のS34に対応)のみであるため、その処理について説明する。   The configuration of the image processing apparatus of the present embodiment is substantially the same as that of the first embodiment, and only the stroke divided image generation process (corresponding to S34 in FIG. 15) is different.

図26は、本実施形態におけるストローク分割画像生成処理のフローチャートである。
S41:2値化画像から対象ストロークの芯線(1ドット細線)周囲の黒画素を探索する。
FIG. 26 is a flowchart of stroke divided image generation processing in the present embodiment.
S41: Search for black pixels around the core line (1-dot thin line) of the target stroke from the binarized image.

S42:黒エッジ又は黒エッジ近傍画素か否かを判定する。黒エッジ近傍画素は、黒エッジからの距離によって判定すればよい。なお、黒エッジ画素のみを対象とする方法もあるが、黒エッジと黒エッジから1〜2ドットの画素を対象外とした方が良い精度が得られる。黒エッジ又は黒エッジ近傍画素であった場合(S42:YES)には、次のS43をスキップして、その画素をストローク分割画像に含めないようにする。   S42: It is determined whether the pixel is a black edge or a pixel near the black edge. The pixel near the black edge may be determined by the distance from the black edge. Although there is a method that targets only black edge pixels, better accuracy can be obtained by excluding pixels of 1 to 2 dots from the black edge and the black edge. If the pixel is a black edge or a pixel near the black edge (S42: YES), the next step S43 is skipped so that the pixel is not included in the stroke divided image.

S43:S42の判定にて黒エッジ又は黒エッジ近傍画素で無い場合(S42:NO)には、その画素をストローク分割画像に追加する。
S44:終点まで処理が終了したか否かを判定し、終点周囲の画素まで全て処理が終了した時点で終了とする。
S43: If the pixel is not a black edge or a pixel near the black edge in the determination of S42 (S42: NO), the pixel is added to the stroke divided image.
S44: It is determined whether or not the process has been completed up to the end point, and the process ends when all the processes up to the pixels around the end point have been completed.

以上のように、本実施形態によれば、ストローク分割画像生成処理にてエッジやエッジ近傍画素をストローク分割画像から除外する事によって、文字内部の画素のみからヒストグラムの算出が可能となる。   As described above, according to the present embodiment, it is possible to calculate a histogram only from pixels within a character by excluding edges and edge neighboring pixels from the stroke divided image in the stroke divided image generation processing.

この場合の活字文字のヒストグラムの例を図27に示す。図25と比べると、ヒストグラムの複数のピークが解消され、ばらつきが少なくなった(分散、標準偏差が小さくなった)事が分かる。   An example of a type letter histogram in this case is shown in FIG. Compared to FIG. 25, it can be seen that a plurality of peaks in the histogram are eliminated and variation is reduced (dispersion and standard deviation are reduced).

なお、S41〜S44の処理によって全く画素が取得出来ない場合などは、対象ストロークが極細線画像なので、一旦除外された対象ストロークの全ての画素をストローク分割画像としても良いし、極細線画像が活字である事が予め明確であれば、(通常手書き画像は活字よりも太くなるため)ヒストグラムの算出、判定をせずに活字と判定する方法もある。
図28に対象ストロークの模式図を示す。
Note that when no pixels can be acquired by the processing of S41 to S44, the target stroke is an ultra-thin line image, so all the pixels of the target stroke that have been excluded may be used as stroke-divided images, or the ultra-thin line image is printed. If it is clear in advance, there is a method of determining a type without calculating and determining a histogram (since a normal handwritten image is thicker than a type).
FIG. 28 shows a schematic diagram of the target stroke.

以上説明したように、本発明の第2の実施形態によれば、空間フィルタによってエッジが強調された画像においても、エッジおよびエッジ近傍画素を除外して、ヒストグラムを算出して手書き文字ストロークと活字ストロークを判定しているので、精度良く手書き文字ストロークと活字文字ストロークを識別可能となる。   As described above, according to the second embodiment of the present invention, even in an image in which an edge is emphasized by a spatial filter, the edge and pixels near the edge are excluded, a histogram is calculated, and a handwritten character stroke and a type character are calculated. Since the stroke is determined, the handwritten character stroke and the printed character stroke can be distinguished with high accuracy.

[第3の実施形態]
本実施形態は第2の実施形態と同様な課題を別アプローチにより解決したものである。画像処理装置の構成は第1の実施形態とほぼ同様であるため、異なる部分であるヒストグラム算出処理(図8のS13に対応)のみ説明する。
[Third Embodiment]
This embodiment solves the same problem as that of the second embodiment by another approach. Since the configuration of the image processing apparatus is substantially the same as that of the first embodiment, only the histogram calculation process (corresponding to S13 in FIG. 8) which is a different part will be described.

図29は、本実施形態におけるヒストグラム算出処理のフローチャートである。
S51:第1の実施形態と同様に通常の階調数でヒストグラム1を算出する。
FIG. 29 is a flowchart of the histogram calculation process in the present embodiment.
S51: Similar to the first embodiment, the histogram 1 is calculated with the normal number of gradations.

S52:階調数を落としてヒストグラム2を算出する。これには、入力画像データの階調数を落として算出する手法もあるが、好適にはヒストグラム1の度数を結合すれば良い。例えば、256階調の画像を16階調としてヒストグラム2を算出すると、256階調の画素値は0〜255を取るので、画素値0〜15の度数の加算結果をヒストグラム2の画素値0の度数とすればよい。図30に図25の活字のヒストグラムを16階調化したヒストグラム2を示す。   S52: The histogram 2 is calculated by reducing the number of gradations. For this, there is a method of calculating by reducing the number of gradations of the input image data, but preferably the frequencies of the histogram 1 may be combined. For example, if the histogram 2 is calculated with an image of 256 gradations having 16 gradations, the pixel values of 256 gradations take 0 to 255, and therefore the addition result of the frequencies of the pixel values 0 to 15 is the pixel value 0 of the histogram 2 What is necessary is just frequency. FIG. 30 shows a histogram 2 obtained by converting the type histogram of FIG. 25 into 16 gradations.

S53:ヒストグラム2よりピーク数を検出する。ヒストグラム2を画素値0からスキャンし、度数が山になっている部分がいくつあるかを検出すればよい。なお、多少の増減をも検出してしまうと精度が低下するので、所定の閾値以上変化した場合のみの変化を有効とした方がより好適である。   S53: The number of peaks is detected from the histogram 2. It is only necessary to scan the histogram 2 from the pixel value 0 and detect how many portions have the peaks. It should be noted that accuracy is lowered when a slight increase / decrease is detected, so that it is more preferable to make the change effective only when the value changes by a predetermined threshold value or more.

S54、S58:ピーク数が2以上あるか否かを判定し(S54)、ピークが一つのみの場合(S54:NO)は、S58にてヒストグラム1の結果をそのまま手書き判定処理S14へ出力する。   S54, S58: It is determined whether the number of peaks is 2 or more (S54). If there is only one peak (S54: NO), the result of the histogram 1 is output to the handwriting determination process S14 as it is in S58. .

S55:S54の判定でピーク数が2以上である場合(S54:YES)には、ヒストグラム2によって谷を検出する。なお、最低画素値と最高画素値は谷として扱う。   S55: If the number of peaks is 2 or more in the determination of S54 (S54: YES), the valley is detected by the histogram 2. The lowest pixel value and the highest pixel value are treated as valleys.

S56:谷、山(ピーク)、谷に含まれる画素の度数を、一つのピーク毎に積算して、最も度数の多いピークを選択する。なお、谷にあたる画素の度数は、隣り合うピークの双方に含めることとする。   S56: The frequency of the pixels included in the valley, mountain (peak), and valley is integrated for each peak, and the peak with the highest frequency is selected. Note that the frequency of a pixel corresponding to a valley is included in both adjacent peaks.

S57:選択されたピークの谷から谷までの画素値に対応するヒストグラム1のデータを手書き判定処理S14へ出力する。なお、ヒストグラム2が16階調、ヒストグラム1が256階調であった場合、ヒストグラム2で谷にあたる画素値のデータは、ヒストグラム1では16の画素値が含まれる事になるので、例えば、半数のピーク値に近い画素のみ含めたり、谷にあたる画素値のデータを全く含めなかったりしても良い。   S57: The data of the histogram 1 corresponding to the pixel values from the valley of the selected peak to the valley is output to the handwriting determination process S14. When the histogram 2 has 16 gradations and the histogram 1 has 256 gradations, the pixel value data corresponding to the valleys in the histogram 2 includes 16 pixel values in the histogram 1, so that, for example, half the Only pixels close to the peak value may be included, or pixel value data corresponding to valleys may not be included at all.

なお、手書き判定処理S14への出力は入力画像の全画素値を対象としたヒストグラム1を使用しているが、処理の簡素化のためにヒストグラム2を使用しても問題ない場合もある。   Note that the output to the handwriting determination process S14 uses the histogram 1 for all the pixel values of the input image, but there are cases where there is no problem even if the histogram 2 is used to simplify the process.

図31は、手書きストロークを対象としたヒストグラム2の例である。この場合、多少の増減があるが、ピークは一つとして判定される。   FIG. 31 is an example of the histogram 2 for handwritten strokes. In this case, although there is some increase or decrease, the peak is determined as one.

以上説明したように、本発明の第3の実施形態によれば、空間フィルタによってエッジが強調された画像においても、ヒストグラムのピーク数を検出してピーク数が複数の場合に、単一のピークに関わる画素値のみを対象として手書き文字ストロークと活字ストロークを判定しているので、精度良く手書き文字ストロークと活字文字ストロークを識別可能となる。   As described above, according to the third embodiment of the present invention, even in an image whose edges are emphasized by a spatial filter, a single peak is detected when the number of peaks in the histogram is detected and the number of peaks is plural. Since the handwritten character stroke and the type stroke are determined only for the pixel values related to, the handwritten character stroke and the typed character stroke can be accurately identified.

101・・・スキャナ部、102・・・スキャナ画像処理部、105・・・CPU、106・・・メモリ、201・・・MFP、S1・・・手書き領域認識処理、S4・・・手書き除去画像生成処理、S11・・・細線抽出処理、S12・・・ストローク抽出処理、S13・・・ヒストグラム算出処理、S14・・・手書き判定処理、S21・・・2値化処理、S22・・・エッジ検出処理、S23・・・エッジ探索処理、S24・・・線幅検出処理、S25・・・線幅判定処理。   101 ... Scanner unit, 102 ... Scanner image processing unit, 105 ... CPU, 106 ... Memory, 201 ... MFP, S1 ... Handwriting region recognition processing, S4 ... Handwriting removed image Generation processing, S11: Fine line extraction processing, S12: Stroke extraction processing, S13: Histogram calculation processing, S14: Handwriting determination processing, S21: Binarization processing, S22: Edge detection Processing, S23... Edge search processing, S24... Line width detection processing, S25.

特開2007−087196号公報JP 2007-087196 A 特開2006−092345号公報JP 2006-092345 A 特開平10−162102号公報Japanese Patent Laid-Open No. 10-162102

Claims (3)

手書き部分と印刷部分が混在する原稿から得られた画像データを入力画像データとして、手書き部分を認識して抽出する画像処理装置であって、
前記入力画像データより細線画像を抽出する細線画像抽出手段と、前記細線画像抽出手段より抽出された細線を文字ストロークに分解するストローク抽出手段と、ストローク内部の画素値の状態に応じて手書き部か否かを判定する第1の判定手段とを備え
前記第1の判定手段は、前記ストローク内部の画素から画素値のヒストグラムを算出するヒストグラム算出手段と、算出されたヒストグラムの態様に応じて手書き部か否かを判定する第2の判定手段とを備え、
前記第2の判定手段は、ヒストグラムのピーク数を検出する検出手段を備え、ピーク数が2以上である場合には、1つのピークでのみ判定する事を特徴とする画像処理装置。
An image processing apparatus for recognizing and extracting a handwritten part as input image data using image data obtained from a document in which a handwritten part and a printed part are mixed,
A fine line image extracting means for extracting a fine line image from the input image data; a stroke extracting means for decomposing the thin line extracted by the fine line image extracting means into character strokes; and a handwriting part according to a state of a pixel value inside the stroke. First determining means for determining whether or not ,
The first determination means includes a histogram calculation means for calculating a histogram of pixel values from pixels within the stroke, and a second determination means for determining whether or not the handwritten portion is in accordance with the calculated histogram mode. Prepared,
The image processing apparatus according to claim 2, wherein the second determination unit includes a detection unit that detects the number of peaks in the histogram, and when the number of peaks is two or more, the determination is performed with only one peak .
請求項1に記載された画像処理装置において、
前記検出手段は、ピーク数の検出を階調数を低減したヒストグラム上で実施する事を特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the detection means performs peak number detection on a histogram with a reduced number of gradations .
請求項1又は2に記載された画像処理装置において、
前記細線画像抽出手段は、画像を2値化処理する2値化処理手段と、前記2値化処理された画像より線画像エッジを検出するエッジ検出手段と、前記エッジ検出手段により検出されたエッジから少なくとも2つの方向へ非細線画像エッジを探索する探索手段と、前記探索結果により線幅を検出する線幅検出手段と、前記線幅から細線か否かを判定する細線判定手段と、前記2値化処理された画像の黒塊内に細線領域と非細線領域が混在していた場合に細線領域を非細線領域と変更する変更手段を備えた事を特徴とする画像処理装置。
In the image processing apparatus according to claim 1 or 2,
The thin line image extraction means includes a binarization processing means for binarizing the image, an edge detection means for detecting a line image edge from the binarized image, and an edge detected by the edge detection means. Search means for searching for a non-thin line image edge in at least two directions, a line width detection means for detecting a line width based on the search result, a thin line determination means for determining whether the line width is a thin line, or the 2 An image processing apparatus, comprising: a changing unit that changes a thin line area to a non-thin line area when a thin line area and a non-thin line area are mixed in a black block of an image that has undergone a value process.
JP2009062832A 2009-03-16 2009-03-16 Image processing device Expired - Fee Related JP5517028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009062832A JP5517028B2 (en) 2009-03-16 2009-03-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009062832A JP5517028B2 (en) 2009-03-16 2009-03-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2010218106A JP2010218106A (en) 2010-09-30
JP5517028B2 true JP5517028B2 (en) 2014-06-11

Family

ID=42976913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009062832A Expired - Fee Related JP5517028B2 (en) 2009-03-16 2009-03-16 Image processing device

Country Status (1)

Country Link
JP (1) JP5517028B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568623B2 (en) 2019-08-22 2023-01-31 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7379063B2 (en) * 2019-10-04 2023-11-14 キヤノン株式会社 Image processing system, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181993A (en) * 1998-12-16 2000-06-30 Fujitsu Ltd Character recognition method and device
JP2006092345A (en) * 2004-09-24 2006-04-06 Fuji Xerox Co Ltd Equipment, method, and program for character recognition

Also Published As

Publication number Publication date
JP2010218106A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
US8320019B2 (en) Image processing apparatus, image processing method, and computer program thereof
US7664321B2 (en) Image processing method, system, program, program storage medium and information processing apparatus
JP5875637B2 (en) Image processing apparatus and image processing method
US7660014B2 (en) Image processing apparatus capable of extracting rule from document image with high precision
US10477063B2 (en) Character detection and binarization
US8451462B2 (en) Image forming apparatus, image forming method, and storage medium
US8384964B2 (en) Image processing apparatus and image processing method
JP5049920B2 (en) Image processing apparatus and image processing method
JP4424309B2 (en) Image processing apparatus, character determination program, and character determination method
Bhattacharjya et al. Data embedding in text for a copier system
US8774511B2 (en) Image processing apparatus and image processing method
US7133559B2 (en) Image processing device, image processing method, image processing program, and computer readable recording medium on which image processing program is recorded
JP6743092B2 (en) Image processing apparatus, image processing control method, and program
US8229214B2 (en) Image processing apparatus and image processing method
JP4582200B2 (en) Image processing apparatus, image conversion method, and computer program
US8810877B2 (en) Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image
US8577132B2 (en) Electronic document generation system, electronic document generation method, and program
JP5517028B2 (en) Image processing device
JP4396710B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP2006093880A (en) Image processing apparatus and control method thereof, computer program, and computer-readable storage medium
JP7185451B2 (en) Image processing device, image processing method, and program
JP2010068198A (en) Image forming apparatus
JP2010218128A (en) Image processing apparatus and method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140320

LAPS Cancellation because of no payment of annual fees