JP4412339B2 - Image forming apparatus and image data correction method - Google Patents
Image forming apparatus and image data correction method Download PDFInfo
- Publication number
- JP4412339B2 JP4412339B2 JP2007073385A JP2007073385A JP4412339B2 JP 4412339 B2 JP4412339 B2 JP 4412339B2 JP 2007073385 A JP2007073385 A JP 2007073385A JP 2007073385 A JP2007073385 A JP 2007073385A JP 4412339 B2 JP4412339 B2 JP 4412339B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- black pixel
- value
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Control Or Security For Electrophotography (AREA)
- Facsimiles In General (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、スキャナによる原稿のスキャンによって得られた画像データを補正する画像形成装置およびその画像データについての補正方法に関する。 The present invention relates to an image forming apparatus that corrects image data obtained by scanning a document with a scanner, and a correction method for the image data.
現在、コピー、スキャン、ファクシミリ、ネットワークプリンティング、およびドキュメントサーバなどの様々な機能を集約した画像形成装置が多く用いられている。一般に、このような画像形成装置は、複合機と呼ばれる。またはMFP(Multi Function Peripherals)などと呼ばれることもある。 Currently, many image forming apparatuses in which various functions such as copying, scanning, facsimile, network printing, and document server are integrated are used. In general, such an image forming apparatus is called a multifunction peripheral. Or it may be called MFP (Multi Function Peripherals).
近年、文書を紙ではなく電子化して保存しまたは送信することが多くなっており、スキャナによる文書の電子化および電子メールなどによるデータの送信をそれ一台で実現できる複合機の需要が高まっている。また、近年、複合機は白黒対応のものからカラー対応のものに移行している。カラー対応の複合機では、原稿をカラーのままで読み取ってカラーの画像データを生成し送信することができる。しかし、A4のサイズの原稿をフルカラーかつ300dpiの解像度で読み取り、読み取った画像データをそのまま用いて、例えば、PDFなどの形式のファイルを生成すると、そのファイルサイズは約25MB程度になり、電子メールでの送信には適さない。よって、読み取った画像データを送信する場合はそれを圧縮して送信するのが一般的である。 In recent years, documents have been stored electronically instead of paper and stored or transmitted, and there has been an increasing demand for multifunction devices that can realize document digitization by a scanner and data transmission by e-mail or the like. Yes. In recent years, multifunction peripherals have shifted from being compatible with black and white to being compatible with color. A color-compatible multifunction peripheral can read a document as it is in color and generate and transmit color image data. However, if a document of A4 size is read in full color and with a resolution of 300 dpi and the read image data is used as it is, for example, a file of a format such as PDF is generated, the file size becomes about 25 MB, Not suitable for sending. Therefore, when the read image data is transmitted, it is generally transmitted after being compressed.
画像データの圧縮に際して、画像データ全体に対して均一な処理を行うと、そのサイズを小さくすることはできるが、圧縮による画質の低下によって、そこに含まれている文字が読めなくなってしまう不都合が生じることがある。これを避けるために圧縮率を下げると、ファイルサイズを十分に小さくできない。 When compressing image data, if the entire image data is uniformly processed, the size can be reduced. However, there is a disadvantage that the characters included in the image data cannot be read due to the deterioration of the image quality due to the compression. May occur. If the compression rate is lowered to avoid this, the file size cannot be made sufficiently small.
そこで考えられたのが、所定の領域ごとに圧縮率を変えるという方法である。この方法では、例えば次のようにして圧縮を行う。 In view of this, a method of changing the compression rate for each predetermined region was considered. In this method, for example, compression is performed as follows.
読み取った画像データに対して文字または写真などのオブジェクトごとにそのオブジェクトを包含する領域を定義する。文字の領域については、高い解像度のまま2値化し、MMRなどの可逆の圧縮方法によって圧縮する。写真などの文字以外の領域については解像度を落とした状態でJPEGなどの非可逆の圧縮方法によって高い圧縮率で圧縮する。圧縮によって得られた画像データを用いて、例えば、PDF形式などの形式のファイルを生成する。 An area including the object is defined for each object such as a character or a photograph with respect to the read image data. The character area is binarized with a high resolution and is compressed by a reversible compression method such as MMR. Areas other than characters, such as photographs, are compressed at a high compression rate by an irreversible compression method such as JPEG with a reduced resolution. Using the image data obtained by the compression, a file in a format such as a PDF format is generated.
ところで、一般に、複製された原稿の画像は、その元の(オリジナル)原稿の画像と比べて、彩度が低くなるとともに、変色、ノイズ、および線や文字のエッジ部分のガタツキなどが多くなり画質が低下する。複製を重ねていくことによって、さらに画質は低下する。 By the way, in general, a copied original image has lower saturation than the original (original) original image, and discoloration, noise, and shakiness of lines and character edges are increased. Decreases. By duplicating, the image quality further deteriorates.
このようなことから、複製された原稿を用いて上述のような方法でPDFファイルを生成すると、オリジナルの原稿を用いて生成したものと比べて、画質の低下が目立っていた。そこで、複製の原稿を用いた場合の画質をオリジナルの原稿を用いた場合の画質に近づけることが望まれる。これに関連する技術として特許文献1のような画像形成装置が提案されている。 For this reason, when a PDF file is generated by the above-described method using a copied manuscript, the image quality is noticeably deteriorated as compared with that generated using the original manuscript. Therefore, it is desired that the image quality when using a duplicate original is close to the image quality when using an original original. As a technique related to this, an image forming apparatus as in Patent Document 1 has been proposed.
特許文献1の画像形成装置によると、原稿に基準パターンが印字されているか否かによってその原稿がコピー(複製)であるか否かを判別する。その判別結果に応じて彩度補正条件を決定し、決定した彩度補正条件に基づいて彩度を補正する。これによって、複製である場合には、彩度の低下を抑えるための適切な補正が行うことができる。
ところが、特許文献1の画像形成装置によると、オリジナルであるか複製であるかの判別を原稿に印字された基準パターンに基づいて行うので、基準パターンを印字できない機種によって複製が作成された場合は、それを複製と判別できなくなる。そうすると、彩度補正などの適切な補正を行うことができず、画質の低下を抑えることができない。 However, according to the image forming apparatus of Patent Document 1, since it is determined based on the reference pattern printed on the document whether it is an original or a copy, if a copy is created by a model that cannot print the reference pattern. , It can not be determined as a duplicate. Then, appropriate correction such as saturation correction cannot be performed, and deterioration in image quality cannot be suppressed.
本発明は、このような問題点に鑑み、複製の原稿を読み取って得た画像データの画質を、従来よりも確実に、オリジナルの原稿を読み取った場合の画質に近づけることを目的とする。 SUMMARY OF THE INVENTION In view of such problems, an object of the present invention is to make the image quality of image data obtained by reading a duplicate original more as close as possible to the image quality when an original original is read.
本発明の一構成に係る画像形成装置は、スキャナによる原稿のスキャンによって得られたデータに基づく画像データを取得する画像データ取得手段と、前記画像データに対応した明度画像データを生成する明度画像データ生成手段と、前記明度画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定手段と、前記画像データの画質の低下の具合を示す画質低下値として、前記領域特定手段が求めた前記黒画素包含領域の中から所定のサイズよりも小さい小領域の個数に関連する値を求める画質低下値特定手段と、前記画質低下値特定手段が求めた値が所定の閾値よりも大きい場合に前記画像データの元となった原稿が複製であると判別する判別手段と、前記判別手段による判別の結果に基づいた補正を前記画像データに対して行う補正手段と、を有する。 An image forming apparatus according to an aspect of the present invention includes an image data acquisition unit that acquires image data based on data obtained by scanning a document with a scanner, and brightness image data that generates brightness image data corresponding to the image data. An area for obtaining a black pixel inclusion area including a black pixel or a black pixel group that is a continuous black pixel, with a generation unit and a pixel on which dots are formed when the lightness image data is binarized specifying means, a deterioration in image quality value indicating the degree of deterioration of the image quality of the image data, the value associated with the small subregion number than a predetermined size from among the regions the black pixels inclusion area that certain means determined a decrease in image quality value specifying means, original value is the decrease in image quality value specifying means has determined that is the source of the image data is larger than a predetermined threshold value is a duplicate of obtaining A determining means for discriminating for, and a correcting means for performing on the image data corrected based on the result of determination by said discriminating means.
なお、前記個数に関連する値には、その個数または前記画像データの領域全体の大きさに対するその個数の割合などを含む。 The value related to the number includes the number or the ratio of the number to the size of the entire area of the image data.
好ましくは、前記領域特定手段が求めた前記黒画素包含領域が文字を表す文字領域であるか否かを判別する領域判別手段を有し、前記画質低下値特定手段は、前記画質低下値として、前記小領域の個数とともに、前記文字領域に含まれる画素の各濃度値における個数に基づいて当該文字領域内の濃度値のばらつきの具合を示す濃度ばらつき値を求め、前記判別手段は、前記小領域の個数に関連する値が所定の閾値よりも小さい場合であっても前記濃度ばらつき値が所定の閾値よりも大きい場合には、原稿が複製であると判別する。 Preferably, the image processing apparatus includes area determination means for determining whether or not the black pixel inclusion area obtained by the area specifying means is a character area representing a character, and the image quality reduction value specifying means includes the image quality reduction value as: A density variation value indicating a degree of variation in density value in the character area is obtained based on the number of the small areas and the number of density values of pixels included in the character area, and the determination unit includes the small area. Even if the value related to the number of images is smaller than a predetermined threshold, if the density variation value is larger than the predetermined threshold, it is determined that the document is a copy.
好ましくは、前記補正手段は、前記判別手段が複製であると判別した場合には、前記画像データの彩度を補正する処理を行うとともに、当該彩度を補正する処理の後の画像データに対して、ノイズを除去するための処理を所定の回数行う。 Preferably, when the determination unit determines that the determination unit is a duplicate, the correction unit performs a process of correcting the saturation of the image data, and the image data after the process of correcting the saturation is performed. Then, a process for removing noise is performed a predetermined number of times.
好ましくは、前記判別手段が複製であると判別した場合に、前記補正手段による補正が行われた後の画像データの文字を表す領域以外の領域に対してエッジ強調のための処理を行うエッジ強調処理手段を有する。 Preferably, when the determination unit determines that the copy is a copy, the edge enhancement is performed for edge enhancement on a region other than the region representing the character of the image data after the correction by the correction unit is performed. It has a processing means.
好ましくは、前記補正手段による補正が行われた後の画像データの文字を表す領域を可逆圧縮する可逆圧縮手段と、前記判別手段が複製であると判別した場合には、前記エッジ強調処理手段によるエッジ強調のための処理が行われた後の画像データの文字を表す領域以外の領域を非可逆圧縮し、前記判別手段が複製でないと判別した場合には、前記補正手段による補正が行われた後の画像データの文字を表す領域以外の領域を非可逆圧縮する非可逆圧縮手段と、を有する。 Preferably, when it is determined that the region representing the character of the image data after the correction by the correction unit is reversibly compressed, and the determination unit is a copy, the edge enhancement processing unit When the region other than the region representing the character of the image data after the processing for edge enhancement is irreversibly compressed, and the determination unit determines that the copy is not a copy, the correction by the correction unit is performed. Irreversible compression means for irreversibly compressing an area other than the area representing the character of the subsequent image data.
好ましくは、前記非可逆圧縮手段による非可逆圧縮に先立って、当該非可逆圧縮の対象を低解像度化する低解像度化手段を有する。 Preferably, prior to the irreversible compression by the irreversible compression means, there is a resolution reduction means for reducing the resolution of the object of the irreversible compression.
なお、「彩度を補正する処理の後の画像データ」、「補正手段による補正が行われた後の画像データ」、および「エッジ強調のための処理が行われた後の画像データ」には、それぞれ、その処理によって直接的に生成された画像データ、およびその生成された画像データに基づいて生成される画像データ(例えば、その生成された画像データに基づいて生成される、2値の画像データ、エッジを表す画像データ、または明度によって表される画像データなど)を含む。 Note that “image data after processing for correcting saturation”, “image data after correction by correction means”, and “image data after processing for edge enhancement” are included. , Image data directly generated by the processing, and image data generated based on the generated image data (for example, binary image generated based on the generated image data) Data, image data representing an edge, or image data represented by brightness).
本発明によると、複製の原稿を読み取って得た画像データの画質を、従来よりも確実に、オリジナルの原稿を読み取った場合の画質に近づけることができる。 According to the present invention, the image quality of image data obtained by reading a duplicate document can be made closer to the image quality when an original document is read more reliably than before.
図1は本発明に係る画像形成装置1を有するシステム構成の例を示す図、図2は画像形成装置1のハードウェア構成の例を示す図である。 FIG. 1 is a diagram showing an example of a system configuration having an image forming apparatus 1 according to the present invention, and FIG. 2 is a diagram showing an example of a hardware configuration of the image forming apparatus 1.
図1に示す画像形成装置1は、コピー、スキャナ、ファックス、ネットワークプリンティング、ドキュメントサーバ、およびファイル転送などの様々な機能を集約した画像処理装置である。複合機またはMFP(Multi Function Peripherals)などと呼ばれることもある。 An image forming apparatus 1 shown in FIG. 1 is an image processing apparatus that integrates various functions such as copying, scanning, faxing, network printing, document server, and file transfer. Sometimes called a multi-function peripheral or MFP (Multi Function Peripherals).
この画像形成装置1は、役所または企業などのオフィス、学校または図書館などの公共施設、コンビニエンスストアなどの店舗、その他種々の場所に設置され、複数のユーザによって共用することができる。また、パーソナルコンピュータまたはワークステーションなどの端末装置2およびサーバ3と通信回線4を介して接続可能である。通信回線4として、インターネット、LAN、公衆回線、または専用線などが用いられる。
The image forming apparatus 1 is installed in offices or offices such as businesses, public facilities such as schools or libraries, stores such as convenience stores, and other various places and can be shared by a plurality of users. Further, it can be connected to the
画像形成装置1は、図2に示すように、スキャナ10a、CPU10b、ハードディスク10c、RAM10d、ROM10e、印刷装置10f、モデム10g、ネットワークインタフェース10h、制御用回路10k、および操作パネル10mなどによって構成される。
As shown in FIG. 2, the image forming apparatus 1 includes a
スキャナ10aは、原稿の用紙(以下、単に「原稿」と記載する。)に描かれている写真、文字、絵、図表などの画像を光学的に読み取って電子データ化する装置である。読み取られた原稿の画像データはRAM10dに記憶され、後に説明するように、様々な処理が施されてファイル化される。本実施形態では、カラースキャナが用いられる。
The
印刷装置10fは、スキャナ10aで読み取られた画像データまたは端末装置2などから送信されてきた画像データを、イエロー、マゼンタ、シアン、およびブラックの4色のトナーを使用して用紙に印刷する装置である。
The
操作パネル10mは、操作部および表示部によって構成される。操作部としてテンキーなどが用いられ、表示部として液晶ディスプレイなどが用いられる。ユーザは、操作部を操作することによって、画像形成装置1に対して、処理の実行開始または中断などの指令を与え、データの宛先、スキャン条件、または画像ファイルのフォーマットなど、その他種々の事項を指定することができる。表示部には、ユーザに対してメッセージまたは指示を与えるための画面、ユーザが所望する処理の種類および処理条件を入力するための画面、および画像形成装置1で実行された処理の結果を示す画面などが表示される。操作パネル10mとしてタッチパネルを用いた場合は、タッチパネルが操作部および表示部の両方を兼ねる。このように、操作パネル10mは、画像形成装置1を操作するユーザのためのユーザインタフェースの役割を果たしている。
The
CPU10bは、スキャナ10aが読み取った原稿の画像データをTIFF(Tagged Image File Format)、JPEG(Joint Photographic Experts Group)、ビットマップ、およびPDF(Portable Document Format)などの形式のファイルに変換するための処理を行う。また、ユーザからの入力の検出または操作パネル10mの表示の制御など、画像形成装置1の全体的な制御を行う。
The
モデム10gは、NCU(Network Control Unit)が内蔵されており、アナログの公衆回線を介して他のファックス端末と接続し、ファクシミリプロトコルに基づくデータ制御およびファックスデータの変復調などを行う。ネットワークインタフェース10hは、NIC(Network Interface Card)であって、LANまたはインターネットなどを介して端末装置2などへの接続を行い、プロトコルの作成などを行う。
The
制御用回路10kは、ハードディスク10c、操作パネル10m、スキャナ10a、印刷装置10f、モデム10g、およびネットワークインタフェース10hなどの装置を制御するための回路である。
The
ハードディスク10cには、後に説明する図3の各部の機能を実現するためのプログラムおよびデータなどが格納されている。これらは必要に応じてRAM10dに読み出され、CPU10bによってプログラムが実行される。これらのプログラムまたはデータの一部または全部を、ROM10eに記憶させておいてもよい。または、図3の機能の一部または全部を、制御用回路10kなどのハードウェアによって実現するようにしてもよい。
The
以下、スキャナ10aで読み取った画像データからPDFファイルを生成する場合の画像形成装置1の処理について説明する。
Hereinafter, processing of the image forming apparatus 1 when generating a PDF file from image data read by the
図3は画像形成装置1の機能的な構成の例を示す図、図4は前処理部14の処理の流れを説明するためのフローチャート、図5は原画像GGの例を示す図、図6は原稿判別部15の処理の流れを説明するためのフローチャート、図7は文字ブロックAKcにおける画素の濃度値と個数との関係を表すヒストグラムの例を示す図、図8は第1補正処理部16の処理の流れを説明するためのフローチャート、図9はガンマ変換における入力値と出直値との関係を表すグラフの例を示す図、図10は写真ブロック処理部17の処理の流れを説明するためのフローチャート、図11は写真の画像を用いて生成したヒストグラムの例を示す図、図12は文字ブロック処理部18の処理の流れを説明するためのフローチャート、図13はエッジ画像の例を示す図、図14は2値化の閾値を決定する際に用いるヒストグラムの例を示す図、図15は文字列ブロックAKrの統合の処理を説明するための図である。
3 is a diagram illustrating an example of a functional configuration of the image forming apparatus 1, FIG. 4 is a flowchart for explaining a flow of processing of the
図3に示すように、画像形成装置1は、ファイル保存部11、補正条件保存部12、画像データ取得部13、前処理部14、原稿判別部15、第1補正処理部16、写真ブロック処理部17、文字ブロック処理部18、文字ブロック統合部19、可逆圧縮部20、第2補正処理部21、解像度変換部22、非可逆圧縮部23、およびファイル生成部24などによって構成される。
As shown in FIG. 3, the image forming apparatus 1 includes a
ファイル保存部11は、ファイル生成部24によって生成されるPDFファイルを保存する。補正条件保存部12は、後に説明する原稿の種別(「複製」または「オリジナル」)ごとに、第1補正処理部16および第2補正処理部21による補正の処理で用いる条件(補正条件)を保存する。これについては、後に詳しく説明する。
The
画像データ取得部13は、スキャナ10aが読み取った原稿の画像データである「原画像データGG」を取得する。この原画像データGGは、R(赤)、G(緑)、およびB(青)(以下、「RGB」と記載する。)によるフルカラーの画像データとして、TIFF、JPEG、またはビットマップなどの形式でスキャナ10aから出力される。
The image data acquisition unit 13 acquires “original image data GG” that is image data of a document read by the
以下、「画像データ」および「原画像データ」の「データ」を省略し、それぞれ、単に「画像」および「原画像」と記載することがある。後に説明するその他の画像データについても同様である。 Hereinafter, “data” of “image data” and “original image data” may be omitted and simply referred to as “image” and “original image”, respectively. The same applies to other image data described later.
前処理部14は、原稿判別部15以降の処理のための前処理を行う。ここで、この前処理について図4のフローチャートを参照しながら説明する。
The preprocessing
図4において、まず、画像データ取得部13が取得した原画像GGを用いてHSL変換を行う(#101)。これによって、RGBの原画像GGからH(色相)、S(彩度)、L(明度)によって表される画像が生成される。以下、明度によって表される、原画像GGに対応した画像を「明度画像GL」と記載する。 In FIG. 4, first, HSL conversion is performed using the original image GG acquired by the image data acquisition unit 13 (# 101). As a result, an image represented by H (hue), S (saturation), and L (lightness) is generated from the RGB original image GG. Hereinafter, an image corresponding to the original image GG represented by lightness is referred to as “lightness image GL”.
例えば、原画像GGが図5に示すような画像であった場合、HSL変換によって、同図に示すように、原画像GGに対応した明度画像GLが得られる。 For example, when the original image GG is an image as shown in FIG. 5, a brightness image GL corresponding to the original image GG is obtained by HSL conversion as shown in FIG.
「原画像GGに対応した明度画像GL」と表現した場合、この例のように、その明度画像GLが、原画像GGと同じまたは対応する広さの領域にその原画像GGに対応した内容を表す明度画像であることを意味する。他の画像についても同様である。 When the expression “lightness image GL corresponding to the original image GG” is expressed, the content corresponding to the original image GG is displayed in an area having the same or corresponding width as the original image GG, as in this example. It means that it is a brightness image to represent. The same applies to other images.
次に、生成した明度画像GLを用いて2値化を行い、その明度画像GLに対応した2値の画像である「2値画像GV」を生成する(#102)。 Next, binarization is performed using the generated brightness image GL, and a “binary image GV” that is a binary image corresponding to the brightness image GL is generated (# 102).
さらに、生成した2値画像GVを用いて以下のようにしてラベリングの処理を行う(#103)。 Further, labeling processing is performed as follows using the generated binary image GV (# 103).
まず、2値画像GVにおいてドットが打たれている画素を黒画素として、連なった黒画素である黒画素群を検出する。一つの黒画素群を包含する(囲む)矩形の領域(矩形領域)を定義する(図5のAK1およびAK2など参照)。この場合において、所定の距離範囲内にある近傍の黒画素群同士を一つの黒画素群とみなし、一つとみなしたその黒画素群に対して矩形領域(ブロック)を定義してもよい。本実施形態では、この方法を適用する。これによって、互いに比較的近い距離にある文字などに対して一つの矩形領域が定義される(図5のAK4およびAK9参照)。なお、図5において「2番目」および「3番目」などの箇所にも矩形領域は定義されるが図示は省略する。 First, a black pixel group, which is a continuous black pixel, is detected using a pixel in which dots are formed in the binary image GV as a black pixel. A rectangular region (rectangular region) including (enclosing) one black pixel group is defined (see AK1 and AK2 in FIG. 5). In this case, neighboring black pixel groups within a predetermined distance range may be regarded as one black pixel group, and a rectangular area (block) may be defined for the black pixel group regarded as one. In this embodiment, this method is applied. Thus, one rectangular area is defined for characters and the like that are relatively close to each other (see AK4 and AK9 in FIG. 5). In FIG. 5, rectangular areas are also defined at locations such as “second” and “third”, but are not shown.
さらに、定義した矩形領域を識別するための情報(以下、「ブロック番号」と記載することがある。)を各矩形領域に付与する。なお、以下において、矩形領域を定義した場合はブロック番号を適宜付与する。さらに、各矩形領域について、その矩形領域の左上端の画素の位置、右下端の画素の位置、およびブロック番号を示すブロックデータAKを生成する。本実施形態においては、「画素の位置」として、画像全体(この場合は、2値画像GV)の左上端を原点とした場合の座標を用いる。以下、同様である。 Further, information for identifying the defined rectangular area (hereinafter sometimes referred to as “block number”) is assigned to each rectangular area. In the following, when a rectangular area is defined, a block number is appropriately assigned. Further, for each rectangular area, block data AK indicating the position of the upper left pixel, the position of the lower right pixel, and the block number of the rectangular area is generated. In the present embodiment, the coordinates when the origin is the upper left corner of the entire image (in this case, the binary image GV) are used as the “pixel position”. The same applies hereinafter.
以下、ブロックデータAKを、単に、「ブロックAK」と記載することがある。また、「ブロックAK」と記載した場合は、そこに示される座標によって定義される矩形領域を意味することもある。後に説明する他のブロックデータAKについても同様である。 Hereinafter, the block data AK may be simply referred to as “block AK”. In addition, when “block AK” is described, it may mean a rectangular area defined by the coordinates shown there. The same applies to other block data AK described later.
また、ブロックAKを、「ブロックAK1」、「ブロックAK2」、…と区別して記載することがある。以下、他の符号についても同様である。 Also, the block AK may be described separately from “block AK1”, “block AK2”,. The same applies to the other symbols.
図5に示すように、このラベリングの処理によって、2値画像GVに含まれる文字、写真、図形、グラフ、表などのオブジェクトのそれぞれに対してブロックAKが定義される。 As shown in FIG. 5, by this labeling process, a block AK is defined for each object such as a character, a photograph, a figure, a graph, and a table included in the binary image GV.
ここで生成された明度画像GL、2値画像GV、およびブロックデータAKは、これ以降の処理において必要に応じて適宜用いられる。 The brightness image GL, the binary image GV, and the block data AK generated here are appropriately used as necessary in the subsequent processing.
原稿判別部15は、画像データ取得部13が取得した原画像GGの元となった原稿が複製されたものであるかまたはオリジナルであるかを判別するための処理を行う。
The
この処理においては、原画像GGに含まれるノイズの量(ノイズ量)および原画像GGのぼやけの具合(程度または状態)によって元となった原稿において画質の低下があると判断される場合に、その原稿を複製であると判別する。ここで、原稿判別部15の処理について図6のフローチャートを参照して詳しく説明する。
In this process, when it is determined that there is a deterioration in image quality in the original document due to the amount of noise (noise amount) included in the original image GG and the degree of blur (degree or state) of the original image GG, The original is determined to be a duplicate. Here, the processing of the
図6において、まず、ノイズ量に基づく判別を行う。それに際して、ブロックデータAKに示される座標から各ブロックAKのブロックサイズ(ブロックの縦および横の画素数に基づくサイズ)を求める。そのブロックサイズに基づいて、微小なブロックAKを特定する。具体的には、ブロックサイズが所定の大きさ(例えば、縦×横=100×100ピクセルなど)よりも小さなブロックAKを微小なブロック(図5では、例えば、ブロックAK11〜AK14)として特定する(#111)。以下、ここで特定された微小なブロックAKを「孤立点ブロックAKk」と記載することがある。 In FIG. 6, first, discrimination based on the amount of noise is performed. At that time, the block size of each block AK (size based on the number of vertical and horizontal pixels of the block) is obtained from the coordinates indicated in the block data AK. Based on the block size, a minute block AK is specified. Specifically, a block AK whose block size is smaller than a predetermined size (for example, vertical × horizontal = 100 × 100 pixels) is specified as a minute block (for example, blocks AK11 to AK14 in FIG. 5) ( # 111). Hereinafter, the minute block AK specified here may be referred to as an “isolated point block AKk”.
次に、特定した孤立点ブロックAKkの個数を数える(#112)。その個数が所定の閾値(例えば、20個または30個など)よりも多い場合に(#113でYes)、元となった原稿にノイズが多く含まれているものとして、その原稿を「複製」と判別する(#114)。または、原画像GGのサイズ(原稿の縦および横の画素数に基づくサイズ)に対する孤立点ブロックAKkの個数の割合を求め、その割合が所定の閾値より大きい場合に「複製」と判別するようにしてもよい。 Next, the number of identified isolated point blocks AKk is counted (# 112). If the number is larger than a predetermined threshold (for example, 20 or 30) (Yes in # 113), the original document is assumed to contain a lot of noise, and the document is “duplicated”. (# 114). Alternatively, the ratio of the number of isolated point blocks AKk to the size of the original image GG (the size based on the number of vertical and horizontal pixels of the document) is obtained, and when the ratio is larger than a predetermined threshold value, “duplicate” is determined. May be.
通常、複製された原稿には、トナーの塵などによってオリジナルの原稿よりも多くのノイズが含まれる。よって、上記のようにノイズ量を検出することにより、原稿の種別、つまり、「複製」または「オリジナル」を判別できる。 Normally, a duplicated document contains more noise than the original document due to toner dust and the like. Therefore, by detecting the amount of noise as described above, the type of document, that is, “duplicate” or “original” can be determined.
孤立点ブロックAKkの個数が所定の閾値以下である場合は(#113でNo)、次に、原画像GGのぼやけの具合に基づく判別を行う。 If the number of isolated point blocks AKk is equal to or smaller than a predetermined threshold (No in # 113), next, a determination is made based on how the original image GG is blurred.
それに際して、まず、文字に対して定義されたと判断できるブロックAK(文字ブロックAKc)を特定する(#115)。これに際しては、例えば、1文字を包含する程度のブロックAKの大きさの範囲を予め定めておき、その範囲内の大きさのブロックAKを、文字ブロックAKcと判定する。 At that time, first, a block AK (character block AKc) that can be determined to be defined for a character is specified (# 115). At this time, for example, a range of the size of the block AK that includes one character is determined in advance, and the block AK having a size within the range is determined as the character block AKc.
または、2値画像GVのブロックAKに対応する部分においてドットが打たれている画素である黒画素の個数の、そのブロックAKのサイズに対する割合(2値化画素率)によって判定してもよい。 Or you may determine by the ratio (binarization pixel rate) with respect to the size of the block AK of the number of the black pixels which are the pixels by which the dot is struck in the part corresponding to the block AK of the binary image GV.
文字に対して定義されたブロックAKの場合、文字とそのブロックAKの外接矩形との間に若干の余白が含まれる。その余白を考慮して、2値化画素率が所定の閾値以下である場合に、そのブロックAKを文字ブロックAKcと判定する。なお、ブロックAKの大きさが所定の範囲内でありかつ2値化画素率が所定の閾値以下である場合に、そのブロックAKを文字ブロックAKcと判定するようにしてもよい。 In the case of a block AK defined for a character, some margin is included between the character and the circumscribed rectangle of the block AK. In consideration of the margin, when the binarized pixel rate is equal to or less than a predetermined threshold, the block AK is determined as the character block AKc. Note that when the size of the block AK is within a predetermined range and the binarized pixel ratio is equal to or less than a predetermined threshold, the block AK may be determined as the character block AKc.
次に、特定した文字ブロックAKc内における明度の拡散(ばらつき)の度合い(拡散度)求める。この拡散度によって原画像GGのぼやけの具合を検出する。 Next, the degree (diffusion degree) of lightness diffusion (variation) within the specified character block AKc is obtained. The degree of blurring of the original image GG is detected based on the degree of diffusion.
これに際しては、まず、明度画像GLのその文字ブロックAKcに対応する部分を用いて、図7(a)に示すような、濃度値(明度画像における濃度値)と画素の個数との関係を示すヒストグラムを生成する(#116)。 In this case, first, using a portion corresponding to the character block AKc of the lightness image GL, the relationship between the density value (density value in the lightness image) and the number of pixels as shown in FIG. 7A is shown. A histogram is generated (# 116).
図7(a)において、横軸は画素の濃度値を示し、縦軸は画素の個数を示す。ヒストグラムの各柱は、その文字ブロックAKcにおける各濃度値の画素の個数を示す。 In FIG. 7A, the horizontal axis indicates the density value of the pixel, and the vertical axis indicates the number of pixels. Each column of the histogram indicates the number of pixels of each density value in the character block AKc.
生成したヒストグラムにおいて極値が所定の閾値(個数)VKより大きい山MTを検出する。そして、その山MTの所定の高さ(個数)VLにおける幅WTを求める。このような幅WTを、2値画像GVに含まれる全ての文字ブロックAKcについて求めてもよいし、予め設定した個数分の文字ブロックAKcについて求めるようにしてもよい。 A peak MT having an extreme value greater than a predetermined threshold value (number) VK is detected in the generated histogram. Then, a width WT at a predetermined height (number) VL of the mountain MT is obtained. Such a width WT may be obtained for all the character blocks AKc included in the binary image GV, or may be obtained for a predetermined number of character blocks AKc.
各文字ブロックAKcについて求めたそれぞれの幅WTの平均値を求め、それを拡散度とする(#117)。すなわち、山MTのピークPK1に対するヒストグラムの拡散の度合いを拡散度とする。なお、1個の文字ブロックAKcを選択して、その文字ブロックAKcについての幅WTを求め、それを拡散度としてもよい。 An average value of the respective widths WT obtained for each character block AKc is obtained, and is set as the diffusion degree (# 117). That is, the degree of diffusion of the histogram with respect to the peak PK1 of the mountain MT is defined as the diffusion degree. Note that one character block AKc may be selected, the width WT for that character block AKc may be obtained, and this may be used as the diffusivity.
拡散度が所定の閾値より大きい場合に(#118でYes)、元となった原稿を「複製」と判別する(#114)。拡散度が所定の閾値以下である場合には(#118でNo)、元となった原稿を「オリジナル」と判別する(#119)。 If the degree of diffusion is greater than a predetermined threshold (Yes in # 118), the original document is determined to be “duplicate” (# 114). If the degree of diffusion is equal to or less than the predetermined threshold (No in # 118), the original document is determined as “original” (# 119).
複製された原稿では、そこに含まれる画像のエッジの部分がぼやけたりがたついたりすることが多い。通常、文字は単色で表されるので、文字ブロックAKc内の濃度値のばらつき具合によって、ぼやけなどの多い画像と少ない画像とのエッジの部分を比較しやすい。 すなわち、ぼやけなどを多く含む場合に上述の方法でヒストグラムを生成すると、例えば、図7(b)に示すように、ぼやけなどのないヒストグラム(例えば、図7の(a))と比べて幅WTが比較的長くなる。このような特徴を利用することによって原稿の種別を判別できる。 In a copied manuscript, an edge portion of an image included in the manuscript is often blurred or struck. Usually, since the characters are represented by a single color, it is easy to compare the edge portion between the image with much blurring and the image with little blurring depending on the variation of the density value in the character block AKc. That is, when a histogram is generated by the above-described method when a lot of blurs are included, for example, as shown in FIG. 7B, the width WT is larger than a histogram without blurs (for example, FIG. 7A). Is relatively long. By using such features, the type of document can be determined.
第1補正処理部16は、原稿判別部15による判別の結果に基づいた補正を原画像GGに対して行う。この処理について図8のフローチャートを参照して説明する。
The first
図8において、原稿判別部15による判別の結果が「複製」である場合に(#131でYes)、複製の場合の補正条件を補正条件保存部12から取得する(#132)。
In FIG. 8, when the result of determination by the
取得した補正条件に基づいて、原画像GGに対して明度補正を行い、原画像GGを明度について明るい方向に補正する(#133)。以下、明度補正が施された原画像GGを「原画像GGb」と記載することがある。この補正の方法には、例えば、公知のガンマ変換を用いる。 Based on the acquired correction conditions, brightness correction is performed on the original image GG, and the original image GG is corrected in a brighter direction with respect to brightness (# 133). Hereinafter, the original image GG subjected to the brightness correction may be referred to as “original image GGb”. For this correction method, for example, a known gamma conversion is used.
ガンマ変換では、次の式(1)を用いて原画像GGの各画素の濃度値を補正する。具体的には、原画像GGの各画素の濃度値を入力値(x)として、式(1)に代入し、補正後の濃度値である出力値(y)を得る。 In gamma conversion, the density value of each pixel of the original image GG is corrected using the following equation (1). Specifically, the density value of each pixel of the original image GG is substituted as an input value (x) into Expression (1) to obtain an output value (y) that is a density value after correction.
図9に示すように、ガンマ値(γ)を様々な値に変更することによって、入力値に対する出力特性を変えることができる。ガンマ変換を用いる場合は、複製の原稿から得られた原画像GGを適切な明るさに補正できるガンマ値を、複製の場合の補正条件として予め補正条件保存部12に保存おく。
As shown in FIG. 9, the output characteristic with respect to the input value can be changed by changing the gamma value (γ) to various values. In the case of using gamma conversion, a gamma value that can correct the original image GG obtained from the copy original to an appropriate brightness is stored in advance in the correction
次に、生成した原画像GGbに対してステップ#132で取得した補正条件に基づくノイズ除去の処理(以下、単に「ノイズ除去」と記載する。)を行う(#134)。ノイズ除去の方法として、例えば、公知のメディアンフィルタを用いる。メディアンフィルタを用いることによって、画像のエッジ部分をぼかすことなく孤立点などのノイズを除去することができる。 Next, noise removal processing (hereinafter simply referred to as “noise removal”) based on the correction condition acquired in step # 132 is performed on the generated original image GGb (# 134). For example, a known median filter is used as a noise removal method. By using the median filter, noise such as isolated points can be removed without blurring the edge portion of the image.
ノイズ除去を施した後の画像に対してさらにノイズ除去を繰り返していくことによって、ノイズ除去の効果を高められることが多い。 In many cases, the effect of noise removal can be enhanced by repeating the noise removal on the image after the noise removal.
本実施形態では、判別結果が「複製」である場合に、このノイズ除去処理を、例えば、10回繰り返す。ノイズ除去については、この回数を補正条件として補正条件保存部12に保存しておく。
In the present embodiment, when the determination result is “replication”, this noise removal processing is repeated, for example, 10 times. For noise removal, this number of times is stored in the correction
原画像GGbに対してノイズ除去を行うのは、後で生成されるPDFファイルにおいてきれいなイメージが表されるようするためである。 The reason for removing noise from the original image GGb is to make a beautiful image appear in a PDF file generated later.
また、ステップ#134において、さらに、明度画像GLに対しても同様のノイズ除去(10回)を施す。ノイズが除去された明度画像は、後に説明する文字ブロック処理部18において文字の検出に用いられる。ノイズを除去しておくことによって、文字の検出の際に、ノイズを文字として誤検出することを減らし検出の精度を高めることができる。また、それによって、イメージをきれいにするだけでなく、PDFファイルの生成による圧縮の効果を高めることもできる。
In
原稿判別部15による判別の結果が「オリジナル」である場合は(#131でNo)、オリジナルに対するノイズ除去の補正条件を補正条件保存部12から取得する(#135)。取得した補正条件に示される回数分、原画像GGに対してノイズ除去を施す(#134)。明度画像GLに対しても同様にノイズ除去を施す。
If the result of determination by the
「オリジナル」の場合は、「複製」の場合よりも少ない回数(例えば、「1回」など)を補正条件として保存しておく。なお、「0回」であってもよい。 In the case of “original”, a smaller number of times (for example, “once” etc.) than in the case of “duplicate” is stored as a correction condition. It may be “0 times”.
通常、オリジナルの原稿は、複製の原稿よりもノイズの量が少ないので、このように、ノイズ除去の回数を複製の場合よりも少なくして処理効率の向上を優先する。 Normally, an original document has a smaller amount of noise than a duplicate document, and thus, the number of times of noise removal is made smaller than that in the case of duplication and priority is given to improving processing efficiency.
後に説明する可逆圧縮部20および非可逆圧縮部23によってMMR(Modified Modified READ)およびJPEGなどのランレングス符号化を適用した圧縮を行うので、ノイズを減らすことによってその圧縮の効果を高めることができる。 Since the reversible compression unit 20 and the irreversible compression unit 23, which will be described later, perform compression applying run length coding such as MMR (Modified Modified READ) and JPEG, the effect of the compression can be enhanced by reducing noise. .
以下、ステップ#134においてノイズ除去処理が施された原画像GGまたは原画像GGbを「原画像GGc」と記載し、ノイズ除去が施された明度画像GLを「明度画像GLb」と記載することがある。なお、原画像GG、原画像GGb、および原画像GGcを総称して「原画像GG」と記載することがある。他の符号についても同様に、符号に付した連番などを省略することによってそれらを総称して記載することある。図面においても同様である。
Hereinafter, the original image GG or the original image GGb subjected to the noise removal process in
写真ブロック処理部17は、写真の部分に対して定義されたと判断できるブロックAK(写真ブロックAKp)を特定するための処理を行う。この処理について図10のフローチャートを参照して説明する。 The photo block processing unit 17 performs processing for specifying a block AK (photo block AKp) that can be determined to be defined for a photo portion. This process will be described with reference to the flowchart of FIG.
図10において、まず、枠線に対して定義されたと判断できるブロックAK(枠線ブロックAKw)および文字ブロックAKcを特定することによってそれ以外のブロックAKを写真ブロックAKpの候補として抽出する(#141)。 In FIG. 10, first, by identifying a block AK (frame line block AKw) and a character block AKc that can be determined to be defined for the frame line, other blocks AK are extracted as candidates for the photo block AKp (# 141). ).
文字ブロックAKcは、原稿判別部15のステップ#115の処理において既に説明した方法で特定する。または、原稿判別部15のステップ#115の処理で文字ブロックAKcと判定されたブロックAKのブロック番号を取得して特定するようにしてもよい。
The character block AKc is specified by the method already described in the process of
枠線ブロックAKwについても文字ブロックAKcの場合と同様にしてブロックサイズまたは2値化画素率を用いて特定することができる。 The frame line block AKw can also be specified using the block size or the binarized pixel rate in the same manner as the character block AKc.
なお、ここでは、文字ブロックAKcおよび枠線ブロックAKwの特定に際して、原稿判別部15の場合と同様にして明度画像GLを用いてもよいし、明度画像GLbを用いてもよい。
Here, when specifying the character block AKc and the frame line block AKw, the lightness image GL may be used as in the case of the
次に、写真ブロックAKpの候補として抽出したブロックAKの中から写真ブロックAKpを特定する(#142)。 Next, the photograph block AKp is identified from the blocks AK extracted as candidates for the photograph block AKp (# 142).
通常、写真には、文字などと比べて多くの色が含まれている。よって、図7において説明したような濃度値と個数との関係を表すヒストグラムを作成すると、図11のように、広範囲の濃度値にわたるヒストグラムが生成される。この特徴を利用して、例えば、極値が所定の閾値VM以上である山MTbの、その閾値VMの高さ(個数)における幅WTbを求め、その幅WTbが所定の長さ以上である場合に写真ブロックAKpと判定する。または、極値が所定の閾値VNを越える山が存在しない場合に写真ブロックAKpと判定する。 Usually, a photo contains more colors than text. Therefore, when a histogram representing the relationship between the density value and the number as described in FIG. 7 is created, a histogram over a wide range of density values is generated as shown in FIG. Using this feature, for example, when a width WTb of a mountain MTb having an extreme value equal to or greater than a predetermined threshold VM is obtained at the height (number) of the threshold VM, and the width WTb is equal to or greater than a predetermined length Is determined as a photo block AKp. Alternatively, when there is no mountain whose extreme value exceeds the predetermined threshold value VN, it is determined as a photo block AKp.
なお、写真ブロックAKpについての判定においては、原画像GGcを用いて、RGBのそれぞれについてのヒストグラムを生成する。原画像GG、GGbを用いてもよい。また、RGBそれぞれの各ヒストグラムにおいて上記の条件を満たした場合に写真ブロックAKpと判定してもよいし、いずれかのヒストグラムにおいて満たした場合に写真ブロックAKpと判定するようにしてもよい。または、RGBそれぞれのヒストグラムを合成したヒストグラムを生成しそのヒストグラムにおいて上記の条件を満たした場合に写真ブロックAKpと判定するようにしてもよい。 In the determination for the photographic block AKp, a histogram for each of RGB is generated using the original image GGc. The original images GG and GGb may be used. Further, it may be determined as a photo block AKp when the above conditions are satisfied in each of the RGB histograms, or may be determined as a photo block AKp when any of the histograms is satisfied. Alternatively, a histogram obtained by combining the histograms of RGB may be generated, and the photo block AKp may be determined when the above conditions are satisfied in the histogram.
文字ブロック処理部18は、原画像GGに含まれる文字の部分とそれ以外の部分とを分離するための処理を行う。ここでは、写真ブロック処理部17によって特定された写真ブロックAKp以外の部分を処理の対象とする。写真に含まれる文字を検出しようとすると、実際には文字でないものが文字として誤検出されることがあるからである。 The character block processing unit 18 performs a process for separating a character portion included in the original image GG from other portions. Here, a part other than the photo block AKp specified by the photo block processing unit 17 is set as a processing target. This is because when trying to detect a character included in a photograph, a character that is not actually a character may be erroneously detected as a character.
そこで、まず、明度画像GLb(または明度画像GL)から写真ブロックAKpに対応する部分を除去する。これに際して、例えば、写真ブロックAKpに対応する部分を白または黒で塗りつぶす。または、その部分の画素がないものとして扱うようにしてもよい。以下、写真ブロックAKpに対応する部分が除去された明度画像GLb(または明度画像GL)を「明度画像GLc」と記載することがある。 Therefore, first, a portion corresponding to the photo block AKp is removed from the lightness image GLb (or lightness image GL). At this time, for example, a portion corresponding to the photo block AKp is painted in white or black. Or you may make it handle as the thing which does not have the pixel of the part. Hereinafter, the lightness image GLb (or lightness image GL) from which the part corresponding to the photo block AKp has been removed may be referred to as “lightness image GLc”.
ここで、文字ブロック処理部18の処理について、図12のフローチャートを参照して説明する。 Here, the processing of the character block processing unit 18 will be described with reference to the flowchart of FIG.
図12において、まず、明度画像GLbからエッジ部分を抽出することによって明度画像GLcに対応したエッジ画像である「エッジ画像GE」を生成する(#151)。 In FIG. 12, first, an edge portion is extracted from the brightness image GLb to generate an “edge image GE” that is an edge image corresponding to the brightness image GLc (# 151).
エッジ画像とは、例えば、図13に示すような、エッジ部分を表した画像のことである。図13(a)には、建物の写真の画像を基にして生成したエッジ画像が示される。図13(b)には、表を表す画像を基にして生成したエッジ画像が示される。 An edge image is an image representing an edge portion as shown in FIG. 13, for example. FIG. 13A shows an edge image generated based on an image of a building photograph. FIG. 13B shows an edge image generated based on an image representing a table.
図13の例では、エッジの部分がドットが打たれていない白の画素(白画素)で表され、それ以外の部分が黒画素で表されている。なお、エッジの部分を黒画素で表し、それ以外の部分を白画素で表すようにしてもよい。 In the example of FIG. 13, the edge portion is represented by white pixels (white pixels) on which dots are not applied, and the other portions are represented by black pixels. Note that the edge portion may be represented by black pixels and the other portions may be represented by white pixels.
次に、ステップ#153における罫線の検出の精度を高めるために、生成したエッジ画像GEおよび明度画像GLcに対して傾きを補正する処理(傾き補正)を行う(#152)。この傾き補正には、公知の種々の方法を用いることができる。傾き補正は、画像全体に対して行ってもよいし、ブロックAKごとに行ってもよい。 Next, in order to improve the accuracy of ruled line detection in step # 153, a process of correcting the inclination (inclination correction) is performed on the generated edge image GE and brightness image GLc (# 152). Various known methods can be used for this inclination correction. The inclination correction may be performed on the entire image or may be performed for each block AK.
以下、傾き補正が施されたエッジ画像GEを「エッジ画像GEb」と記載し、傾き補正が施された明度画像GLcを「明度画像GLd」と記載することがある。 Hereinafter, the edge image GE subjected to inclination correction may be referred to as “edge image GEb”, and the lightness image GLc subjected to inclination correction may be referred to as “lightness image GLd”.
なお、ここにおいて、2値画像を用いることも考えられるが、エッジ画像を用いた方が2値画像を用いるよりも処理を高速化できるという利点があるため、ここではエッジ画像を用いる。 Although a binary image may be used here, an edge image is used here because the use of the edge image has an advantage that the processing can be performed faster than the binary image.
次に、明度画像GLdを用いて罫線を検出する(#153)。この処理は、後のステップ#154における文字の検出の処理の対象から罫線の部分を除去するために行う。罫線の部分を除去することによって文字の検出の精度を高めることができる。 Next, a ruled line is detected using the brightness image GLd (# 153). This processing is performed to remove the ruled line portion from the character detection processing target in the subsequent step # 154. By removing the ruled line portion, the accuracy of character detection can be increased.
まず、明度画像GLdにおいて所定の閾値以上の濃度値(明度画像における濃度値)の画素が所定の長さ以上連なっている(連続している)場合にその連なった画素群を罫線として検出する。その罫線の部分を明度画像GLdから除去する。また、その画素群の座標を取得する。その座標に基づいて、エッジ画像GEbからも、その罫線の部分を除去する。以下、罫線が除去された明度画像GLdおよびエッジ画像GEbを、それぞれ、「明度画像GLe」および「エッジ画像GEc」と記載することがある。 First, when pixels having a density value equal to or greater than a predetermined threshold value (density value in the brightness image) in the lightness image GLd are continuous (continuous) for a predetermined length or longer, the continuous pixel group is detected as a ruled line. The ruled line portion is removed from the brightness image GLd. Also, the coordinates of the pixel group are acquired. Based on the coordinates, the ruled line portion is also removed from the edge image GEb. Hereinafter, the lightness image GLd and the edge image GEb from which the ruled lines have been removed may be referred to as “lightness image GLe” and “edge image GEc”, respectively.
次に、エッジ画像GEcを用いて文字の表されている部分を特定するための処理を行う(#154)。この処理は、以下のようにして行う。なお、エッジ画像GEcにおいては、図13のように、エッジの部分が白画素によって表されているものとする。 Next, a process for specifying the portion where the character is represented using the edge image GEc is performed (# 154). This process is performed as follows. In the edge image GEc, it is assumed that the edge portion is represented by white pixels as shown in FIG.
まず、エッジ画像GEcにおいて、横方向(水平方向)に所定の長さ以上連続する黒画素を検出する。文字の行間の部分は黒画素が連続することが多い。よって、そのような部分を行間と判断して処理の対象から除外し、それ以外の部分を処理の対象として抽出する。 First, in the edge image GEc, black pixels that are continuous for a predetermined length in the horizontal direction (horizontal direction) are detected. In many cases, black pixels are continuous in a portion between character lines. Therefore, such a portion is determined to be a line spacing and excluded from the processing target, and the other portion is extracted as the processing target.
抽出した部分からさらに文字の部分を特定する。エッジ画像GEcにおいて文字の部分は連なった白画素(白画素群)によって構成される。よって、まず、そのような白画素群を検出する。さらに、横方向において所定の距離範囲内にある近傍の白画素群同士を同じグループとしてまとめ、1つのグループを包含する矩形領域を定義する。定義した矩形領域の左上端の画素の位置、右下端の画素の位置、およびブロック番号を示す行ブロックデータAKbを生成する。 A character portion is further specified from the extracted portion. In the edge image GEc, the character portion is composed of continuous white pixels (white pixel group). Therefore, first, such a white pixel group is detected. Further, neighboring white pixel groups within a predetermined distance range in the horizontal direction are grouped together as the same group, and a rectangular region including one group is defined. Row block data AKb indicating the position of the upper left pixel, the position of the lower right pixel, and the block number of the defined rectangular area is generated.
行ブロックAKbが文字列に対して定義されたものである場合、横方向に伸びた形状を持つはずである。よって、定義した行ブロックAKbの縦の長さと横の長さとの比率(縦の長さ/横の長さ)を求め、その比率が所定の閾値未満であった場合に、その行ブロックAKbが文字列に対して定義されたものであると判定する。 If the line block AKb is defined for a character string, it should have a shape extending in the horizontal direction. Therefore, the ratio (vertical length / horizontal length) between the vertical length and the horizontal length of the defined row block AKb is obtained, and when the ratio is less than a predetermined threshold, the row block AKb is It is determined that it is defined for the character string.
または、行ブロックAKbのサイズに対する白画素の個数の割合(ブロック内白画素率)によって判定してもよい。すなわち、ブロック内白画素率が所定の閾値以下である場合に、その行ブロックAKbが文字列に対して定義されたものであると判定する。以下、文字列に対して定義されたと判定された行ブロックAKbを「文字列ブロックAKr」と記載することがある。なお、文字列ブロックAKrは、文字列ではなく1文字について定義されることもある。 Alternatively, the determination may be made based on the ratio of the number of white pixels to the size of the row block AKb (in-block white pixel ratio). That is, when the in-block white pixel ratio is equal to or less than a predetermined threshold, it is determined that the line block AKb is defined for the character string. Hereinafter, the row block AKb determined to be defined for the character string may be referred to as a “character string block AKr”. Note that the character string block AKr may be defined for one character instead of a character string.
次に、文字列ブロックAKrにおいて文字の部分を形成する画素を特定するための処理を行う(#155)。この処理に際しては、明度画像GLe(または明度画像GLd)の、文字列ブロックAKrに対応する部分を所定の閾値に基づいて2値化し、ドットが打たれた画素を、文字を形成する画素と特定する。そして、その画素の位置を求める。 Next, a process for specifying pixels forming a character part in the character string block AKr is performed (# 155). In this processing, the portion corresponding to the character string block AKr of the lightness image GLe (or lightness image GLd) is binarized based on a predetermined threshold value, and the pixel with dots is identified as the pixel forming the character. To do. Then, the position of the pixel is obtained.
ここにおいて、2値化のための閾値は、文字列ブロックAKrごとに決定する。その決定は、例えば、以下のようにして行う。 Here, the threshold for binarization is determined for each character string block AKr. The determination is performed as follows, for example.
まず、文字列ブロックAKr内の画素の濃度値(明度画像における濃度値)と画素の個数との関係を示すヒストグラムを生成する(図14参照)。生成したヒストグラムのピークPK2の高さHPに対する所定の割合の高さHPbを求める。さらに、高さHPbにおけるヒストグラムの濃度値VPを求めそれを2値化の閾値として用いる。このようにして文字列ブロックAKrごとに閾値を求める。2値化の際は、例えば、濃度値がその閾値よりも大きい画素に対してドットを打つようにする。ドットが打たれた画素を文字を形成する画素と判断し、その位置を求める。これによって、文字の部分と背景の部分とを分離することができる。また、2値化によって得られた文字列ブロックAKrごとの2値画像(以下、「ブロック2値画像BV」と記載することがある。)を対応する文字列ブロックデータAKrに付加しておく。ここで得られたブロック2値画像BVは、後の可逆圧縮部20による圧縮の際に用いられる。 First, a histogram showing the relationship between the density value of pixels in the character string block AKr (density value in the brightness image) and the number of pixels is generated (see FIG. 14). The height HPb of a predetermined ratio with respect to the height HP of the peak PK2 of the generated histogram is obtained. Further, the density value VP of the histogram at the height HPb is obtained and used as a threshold value for binarization. In this way, a threshold value is obtained for each character string block AKr. In binarization, for example, dots are applied to pixels whose density value is larger than the threshold value. The pixel on which the dot is placed is determined as a pixel forming a character, and its position is obtained. As a result, the character portion and the background portion can be separated. In addition, a binary image for each character string block AKr obtained by binarization (hereinafter sometimes referred to as “block binary image BV”) is added to the corresponding character string block data AKr. The block binary image BV obtained here is used in the subsequent compression by the lossless compression unit 20.
次に、求めた各位置の画素に対応する、原画像GGの各画素のRGBの各濃度値を参照し文字の色(文字色)を特定する(#156)。特定した文字色(RGBの濃度値)を示すデータをその文字列ブロックデータAKrに付加する。 Next, the color of the character (character color) is specified by referring to the RGB density values of the pixels of the original image GG corresponding to the obtained pixels at each position (# 156). Data indicating the specified character color (RGB density value) is added to the character string block data AKr.
文字色としては、各画素の濃度値の平均値を用いてもよいし、最大値または最小値を用いてもよい。なお、文字色の特定に際して、原画像GGbまたはGGcを用いてもよい。 As the character color, an average value of density values of each pixel may be used, or a maximum value or a minimum value may be used. In specifying the character color, the original image GGb or GGc may be used.
文字ブロック統合部19は、文字列ブロックAKrのうちで所定の条件を満たす関係にあるもの同士を統合して一つのブロックにするための処理を行う。本実施形態では、文字ブロック処理部18において特定した文字色が近いもの同士を統合する。すなわち、文字色の差(文字色差)が所定の範囲内のもの同士を統合する。文字色差は、例えば、以下の式(2)によって求めることができる。なお、式(2)において、「R0」、「G0」、および「B0」は、それぞれ、ある文字列ブロックAKrの文字色のRGBの各濃度値、「R1」、「R2」、および「B3」は、それぞれ、他方の文字列ブロックAKrの文字色のRGBの各濃度値を示す。 The character block integration unit 19 performs processing for integrating the character string blocks AKr that have a relationship satisfying a predetermined condition into one block. In the present embodiment, those having similar character colors specified by the character block processing unit 18 are integrated. That is, those having character color differences (character color differences) within a predetermined range are integrated. The character color difference can be obtained by, for example, the following formula (2). In Expression (2), “R0”, “G0”, and “B0” are the density values of RGB of the character color of a certain character string block AKr, “R1”, “R2”, and “B3”, respectively. "Indicates each density value of RGB of the character color of the other character string block AKr.
または、文字色が同じもの同士を統合するようにしてもよい。 Alternatively, the same character color may be integrated.
ここで、この統合の処理について図15を参照して具体的に説明する。 Here, the integration process will be specifically described with reference to FIG.
図15(a)において、原画像GGと同じ広さの領域ARに、複数の文字列ブロックAKrがそれぞれの座標に対応する位置に配置されている。ここにおいて、文字列ブロックAKr2と文字列ブロックAKr3との文字色差が所定の範囲内である場合、図15(b)に示すように、それらを統合して1つの文字列ブロックAKr9を生成する。すなわち、その矩形領域の左上端の画素PT1の位置、右下端の画素PT2の位置、およびブロック番号を示す文字列ブロックデータAKr9を生成する。 In FIG. 15A, a plurality of character string blocks AKr are arranged at positions corresponding to the respective coordinates in an area AR having the same area as the original image GG. Here, when the character color difference between the character string block AKr2 and the character string block AKr3 is within a predetermined range, as shown in FIG. 15B, they are integrated to generate one character string block AKr9. That is, the character string block data AKr9 indicating the position of the upper left pixel PT1, the position of the lower right pixel PT2 and the block number of the rectangular area is generated.
文字列ブロックAKr2の文字色と文字列ブロックAKr3の文字色との平均値をその文字列ブロックAKr9の文字色とする。 The average value of the character color of the character string block AKr2 and the character color of the character string block AKr3 is set as the character color of the character string block AKr9.
同様にして、他の文字列ブロックAKrについても条件を満たすもの同士を統合する。統合によってできた文字列ブロックAKrも統合の対象として加えて、条件を満たす組合せがなくなるまでこのような統合を繰り返す。 Similarly, the other character string blocks AKr that satisfy the conditions are integrated. The character string block AKr formed by the integration is added as an integration target, and such integration is repeated until there are no combinations that satisfy the condition.
PDFファイルでは、1つの色を1つのレイアとして扱う。よって、近い色の文字を1つの色としてまとめておくことにで、生成されるPDFファイルのサイズが低減できる。 In a PDF file, one color is handled as one layer. Therefore, the size of the generated PDF file can be reduced by collecting characters of similar colors as one color.
可逆圧縮部20は、文字ブロック統合部19の統合の処理の後に残った文字列ブロックAKrに対応するブロック2値画像BVを可逆圧縮の方式で圧縮する。圧縮によって生成されたデータにその文字列ブロックAKrの文字色を示すデータを付加して圧縮文字画像データDAcを生成する。圧縮文字画像データDAcは、文字列ブロックAKrごとに生成する。 The lossless compression unit 20 compresses the block binary image BV corresponding to the character string block AKr remaining after the integration process of the character block integration unit 19 by the lossless compression method. Data indicating the character color of the character string block AKr is added to the data generated by the compression to generate the compressed character image data DAc. The compressed character image data DAc is generated for each character string block AKr.
本実施形態では、可逆圧縮の方式としてMMRを用いる。MMRの処理によって文字の輪郭部分が鮮明になるので文字列ブロックAKrに対しては、エッジ強調は行わない。 In this embodiment, MMR is used as a lossless compression method. Since the outline of the character becomes clear by the MMR processing, edge enhancement is not performed on the character string block AKr.
第2補正処理部21は、原稿判別部15による判別の結果が「複製」である場合に、原画像GGcにおける文字列ブロックAKr以外の部分についてエッジを強調するための処理を行う。エッジ強調の処理のパラメータなどは、予め、補正条件保存部12に保存しておく。
The second
本実施形態では、ラプラシアンフィルタなどの鮮鋭化フィルタを用いた公知の方法によってエッジの強調を行う。 In the present embodiment, edge enhancement is performed by a known method using a sharpening filter such as a Laplacian filter.
解像度変換部22は、原画像GGcにおける文字列ブロックAKr以外の部分に対して低解像度化の処理を行う。
The
非可逆圧縮部23は、低解像度化された部分を非可逆圧縮の方式で圧縮する。これよって、圧縮非文字画像データDAhを生成する。なお、本実施形態では、非可逆圧縮の方式としてJPEGを用いる。 The irreversible compression unit 23 compresses the reduced resolution portion using a irreversible compression method. Thus, compressed non-character image data DAh is generated. In the present embodiment, JPEG is used as a lossy compression method.
ファイル生成部24は、生成された圧縮文字画像データDAcおよび圧縮非文字画像データDAhに対して、必要なデータを付加するなどして適宜加工し、PDFのレイアを生成する。そのレイアによってPDFファイルDFを生成し、ファイル保存部11に保存する。
The
図16はPDFファイルの生成の際の画像形成装置1の処理の流れの例を説明するためのフローチャートである。次に、原稿をスキャナ10aに読み取らせてPDFファイルとして保存する場合の画像形成装置1の処理の流れについて図16のフローチャートを参照して説明する。
FIG. 16 is a flowchart for explaining an example of a processing flow of the image forming apparatus 1 when generating a PDF file. Next, the processing flow of the image forming apparatus 1 when the original is read by the
PDFファイルの生成に際して、ユーザは、まず、操作パネル10mを用いて解像度などのスキャンの条件を設定する。さらに、画像の保存形式としてPDFを指定する。
When generating a PDF file, the user first sets scanning conditions such as resolution using the
操作パネル10mによってユーザがスキャンの実行を指示すると、画像形成装置1は、スキャナ10aによってその原稿をスキャンする(#201)。
When the user instructs execution of scanning through the
スキャンによって得た、RGBによって表されるカラーの画像(RGBの画像)をHSL変換することによって明度画像を生成する(#202)。さらに、その明度画像を2値化することによって2値画像を生成する(#203)。生成した2値画像に対してラベリングの処理を行うことによって、その2値画像に含まれる黒画素群を包含する矩形領域を定義する(#204)。 A color image (RGB image) obtained by scanning is subjected to HSL conversion to generate a brightness image (# 202). Further, a binary image is generated by binarizing the brightness image (# 203). By performing a labeling process on the generated binary image, a rectangular region including a black pixel group included in the binary image is defined (# 204).
次に、2値画像を用いてノイズ量を求める。さらに、文字を表す矩形領域を特定し、明度画像におけるその矩形領域に対応する部分の濃度値の拡散度を求める(#205)。 Next, the noise amount is obtained using the binary image. Further, a rectangular region representing the character is specified, and the diffusion degree of the density value of the portion corresponding to the rectangular region in the brightness image is obtained (# 205).
ノイズ量は、ステップ#204において定義した矩形領域のうちで微小なものをノイズと判断し、その個数をカウントすることによって求める。また、画像全体に対するその個数の割合をノイズ量としてもよい。拡散度を求めるにあたっては、まず、2値画像にける黒画素の矩形領域の大きさに対する割合などから文字に対して定義されたと判断できる矩形領域を特定する。そして、明度画像におけるその矩形領域に対応する部分を抽出する。抽出した部分について、濃度値および各濃度値における画素の個数を表すヒストグラムを生成する。そのヒストグラム内の山の幅を求め、その幅を拡散度とする。
The amount of noise is determined by determining a minute one of the rectangular areas defined in
求めたノイズ量が所定の閾値より大きいかまたは拡散度が所定の閾値より大きい場合に読み取った原稿が複製であったと判定する(#206)。この条件を満たさない場合は、原稿がオリジナルであったと判定する。 If the obtained noise amount is larger than a predetermined threshold value or the diffusivity is larger than the predetermined threshold value, it is determined that the read original is a duplicate (# 206). If this condition is not satisfied, it is determined that the document is original.
次に、判定結果に基づく補正を行う(#207)。判定結果が「複製」である場合は、読み取った画像に対して明度補正を施す。さらに、明度補正を施した画像およびステップ#202において生成した明度画像のそれぞれに対してノイズ除去の処理を「10回」行う。判定結果が「オリジナル」である場合は、読み取った画像および明度画像のそれぞれに対してノイズ除去を「1回」だけ行う。
Next, correction based on the determination result is performed (# 207). When the determination result is “duplicate”, brightness correction is performed on the read image. Further, the noise removal process is performed “10 times” for each of the image subjected to the brightness correction and the brightness image generated in
次に、補正後の画像を用いて、ステップ#204において定義した矩形領域の中で写真の部分に対して定義されたと判断できるもの(写真についての矩形領域)を特定する(#208)。写真の部分の画像には、通常、多くの色が用いられている。ここでは、その特徴を利用して矩形領域を特定する。
Next, using the corrected image, the rectangular area defined in
次に、補正後の明度画像から、写真に対して定義されたものとして特定された矩形領域の部分を除外し、残った部分から文字の部分を特定する(#209)。 Next, the portion of the rectangular area specified as defined for the photograph is excluded from the corrected brightness image, and the character portion is specified from the remaining portion (# 209).
これに際して、まず、その明度画像のエッジ部分を抽出してエッジ画像を生成する。生成したエッジ画像および明度画像に対して傾き補正の処理を施す。さらに、エッジ画像において、エッジを形成する黒画素が所定の長さ以上連続している場合に、それらの画素を罫線の部分と判断して除去する。明度画像からも対応する画素を除去する。エッジ画像において除去されずに残った部分から連なった白画素(エッジの部分を表す画素)の白画素群を検出し、その白画素群を包含する矩形領域を定義する。その矩形領域の縦と横の長さの比率などからその白画素群が文字を表すものであるか否かを判定する。この判定によって、文字の部分が特定される。 In this case, first, an edge portion of the brightness image is extracted to generate an edge image. An inclination correction process is performed on the generated edge image and brightness image. Further, in the edge image, when black pixels forming an edge are continuous for a predetermined length or longer, these pixels are determined to be ruled lines and removed. Corresponding pixels are also removed from the brightness image. A white pixel group of white pixels (pixels representing an edge portion) continued from the remaining portion in the edge image is detected, and a rectangular region including the white pixel group is defined. Whether or not the white pixel group represents a character is determined from the ratio of the vertical and horizontal lengths of the rectangular area. By this determination, the character portion is specified.
次に、文字を表すと判定された白画素群に対する各矩形領域(文字についての矩形領域)について、そこに示される文字の色を特定する。これに際しては、まず、罫線の部分が除去された明度画像において、その矩形領域に対応する部分を2値化する。そして、それによってドットが打たれた各画素を文字を形成する画素として特定する。ステップ#207の補正の処理が施された後のRGBの画像における、特定された各画素に対応する画素のRGBの濃度値を取得する。取得した濃度値の平均値をその矩形領域に表される文字の色とする。
Next, for each rectangular area (rectangular area for a character) for a white pixel group determined to represent a character, the color of the character shown there is specified. In this case, first, in the brightness image from which the ruled line portion has been removed, the portion corresponding to the rectangular region is binarized. And each pixel by which the dot was hit is specified as a pixel which forms a character. The RGB density values of the pixels corresponding to the specified pixels in the RGB image after the correction processing in
ステップ#206における判定の結果が「複製」である場合(#210でYes)、文字についての矩形領域以外の部分について、#207における補正後のRGBの画像に対してエッジ強調の処理を施す(#211)。エッジ強調した部分を低解像度化する(#212)。さらに、その部分をJPEGの方式で圧縮する(#213)。なお、ステップ#206における判定の結果が「オリジナル」である場合は、ステップ#211のエッジ強調の処理は行わずに、ステップ#212および#213の処理を行う。
If the result of determination in
また、文字についての矩形領域のうちで、近い文字色のもの同士を統合する(#214)。さらに、統合の後に残った矩形領域に対応する、文字色の特定に際して生成された2値画像をMMRの方式によって圧縮する(#215)。 Further, among the rectangular areas for the characters, those having similar character colors are integrated (# 214). Further, the binary image generated when specifying the character color corresponding to the rectangular area remaining after the integration is compressed by the MMR method (# 215).
ステップ#213およびステップ#215の圧縮によってできた圧縮データを用いてPDFファイルを生成する(#216)。
A PDF file is generated using the compressed data generated by the compression in
通常、原稿が複製である場合は、それをスキャンして得た画像の画質は、オリジナルの原稿から得た画像に比べて悪くなる。本実施形態によると、入力された画像の元となった原稿の種別(「複製」または「オリジナル」)に応じた適切な補正を行うので、元の原稿が複製である場合に、従来得られていた画質よりもオリジナルに近い画質を実現できる。 Normally, when a document is a duplicate, the image quality obtained by scanning it is worse than that of an image obtained from the original document. According to the present embodiment, appropriate correction is performed according to the type (“duplicate” or “original”) of the original document that is the source of the input image. The image quality closer to the original can be realized than the image quality that had been used.
また、本実施形態によると、入力された画像の特徴に基づいてこのような種別を自動で判別するので、容易に、従来よりも高い画質の画像を得ることができる。 In addition, according to the present embodiment, since such a type is automatically determined based on the characteristics of the input image, it is possible to easily obtain an image with higher image quality than before.
また、圧縮の前の段階でノイズ量を効果的に減らすことができるので、圧縮の効果を高めることもできる。 In addition, since the amount of noise can be effectively reduced at the stage before compression, the compression effect can be enhanced.
文字の部分を特定する際に、文字の部分が文字以外の部分と特定されてしまうと、低解像度化および非可逆圧縮などによって文字の判読性が低下してしまう。文字以外の部分が文字の部分と特定されてしまうと、圧縮率を下げてしまう。本実施形態によると、ノイズ量の削減によってその特定する精度を高めることができるので、画質の向上とともに、文字の判読性および圧縮率をも高めることができる。 When specifying a character part, if the character part is specified as a part other than the character, the readability of the character deteriorates due to low resolution and lossy compression. If a portion other than characters is specified as a character portion, the compression rate is lowered. According to the present embodiment, the accuracy to be specified can be increased by reducing the amount of noise, so that it is possible to improve the image readability and the compression rate as well as the image quality.
本実施形態では、原稿の種別を判別する際の拡散度としてヒストグラムの山の幅を用いたが、濃度値の標準偏差を求め、それを拡散度としてもよい。 In the present embodiment, the width of the peak of the histogram is used as the degree of diffusion when determining the type of document. However, the standard deviation of density values may be obtained and used as the degree of diffusion.
この場合は、明度画像GLの文字ブロックAKcに対応する部分を抽出し、そこに含まれる画素の濃度値の平均値および画素の総数を求め、以下の式(3)を用いて標準偏差を求める。 In this case, the portion corresponding to the character block AKc of the brightness image GL is extracted, the average value of the density values of the pixels included therein and the total number of pixels are obtained, and the standard deviation is obtained using the following equation (3). .
本実施形態では、画像形成装置1が自動で原稿の種別を判別するようにしたが、原稿が複製であるか否かをユーザが指定できるようにしてもよい。 In this embodiment, the image forming apparatus 1 automatically determines the type of the document. However, the user may be able to specify whether the document is a copy.
本実施形態では、原稿の種別に応じて、彩度補正を行いさらにノイズ除去を行う回数(補正の度合い)を変えた。これを、原稿の種別に応じて補正の方法を変えるようにしてもよい。 In the present embodiment, the number of times (degree of correction) for performing saturation correction and further removing noise is changed according to the type of document. Alternatively, the correction method may be changed according to the type of document.
本実施形態では、明度補正を行う場合の例を示したが、彩度を鮮やかな方向に補正する彩度補正を行ってもよい。その場合も、ガンマ変換などの同様の方法を用いることができる。 In the present embodiment, an example in which brightness correction is performed has been described. However, saturation correction for correcting the saturation in a vivid direction may be performed. In this case, a similar method such as gamma conversion can be used.
また、複製の場合にのみ明度補正を行う場合の例を示したが、オリジナルの場合にも行うようにしてもよい。その場合において、原稿の種別によってガンマ値を変更するようにしてもよい。 Further, although an example in which the brightness correction is performed only in the case of duplication has been shown, it may be performed in the case of the original. In that case, the gamma value may be changed according to the type of document.
その他、画像形成装置1の全体または各部の構成、機能、閾値、各データが示す内容、処理の内容または順序などは、本発明の趣旨に沿って適宜変更することができる。 In addition, the configuration, functions, threshold values, contents indicated by each data, contents or order of processing, and the like of the whole or each part of the image forming apparatus 1 can be appropriately changed in accordance with the spirit of the present invention.
1 画像形成装置
13 画像データ取得部(画像データ取得手段)
14 前処理部(領域特定手段)
15 原稿判別部(画質低下値特定手段、判別手段、領域判別手段)
16 第1補正処理部(補正手段)
20 可逆圧縮部(可逆圧縮手段)
21 第2補正処理部(エッジ強調手段)
22 解像度変換部(低解像度化手段)
23 非可逆圧縮部(非可逆圧縮手段)
AK ブロック(黒画素包含領域)
AKc 文字ブロック(文字領域)
DESCRIPTION OF SYMBOLS 1 Image forming apparatus 13 Image data acquisition part (image data acquisition means)
14 Pre-processing part (area specifying means)
15 Document discriminating section (image quality degradation value specifying means, discriminating means, area discriminating means)
16 1st correction process part (correction means)
20 Lossless compression unit (reversible compression means)
21 2nd correction process part (edge emphasis means)
22 Resolution converter (resolution reduction means)
23 Lossy compression section (lossy compression means)
AK block (black pixel inclusion area)
AKc character block (character area)
Claims (13)
前記画像データに対応した明度画像データを生成する明度画像データ生成手段と、
前記明度画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定手段と、
前記画像データの画質の低下の具合を示す画質低下値として、前記領域特定手段が求めた前記黒画素包含領域の中から所定のサイズよりも小さい小領域の個数に関連する値を求める画質低下値特定手段と、
前記画質低下値特定手段が求めた値が所定の閾値よりも大きい場合に前記画像データの元となった原稿が複製であると判別する判別手段と、
前記判別手段による判別の結果に基づいた補正を前記画像データに対して行う補正手段と、
を有することを特徴とする画像形成装置。 Image data acquisition means for acquiring image data based on data obtained by scanning a document with a scanner;
Brightness image data generation means for generating brightness image data corresponding to the image data;
A region specifying means for determining a black pixel inclusion region including a black pixel group that is a black pixel as a pixel in which dots are formed when the lightness image data is binarized;
An image quality reduction value for obtaining a value related to the number of small areas smaller than a predetermined size from the black pixel inclusion area obtained by the area specifying unit as an image quality reduction value indicating a degree of image quality degradation of the image data. Specific means,
A determination unit that document the value is the decrease in image quality value specifying means has determined that is the source of the image data is larger than a predetermined threshold value is determined to be a duplicate,
Correction means for performing correction on the image data based on the determination result by the determination means;
An image forming apparatus comprising:
前記画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定手段と、
前記領域特定手段が求めた前記黒画素包含領域が文字を表す文字領域であるか否かを判別する領域判別手段と、
前記画像データの画質の低下の具合を示す画質低下値として、前記領域特定手段が求めた前記黒画素包含領域の中から所定のサイズよりも小さい小領域の個数に関連する値とともに、前記文字領域に含まれる画素の各濃度値における個数に基づいて当該文字領域内の濃度値のばらつきの具合を示す濃度ばらつき値を求める画質低下値特定手段と、
前記画質低下値特定手段が求めた小領域の個数に関連する値が所定の閾値よりも大きい場合に前記画像データの元となった原稿が複製であると判別し、前記小領域の個数に関連する値が所定の閾値よりも小さい場合であっても前記濃度ばらつき値が所定の閾値よりも大きい場合には、原稿が複製であると判別する判別手段と、
前記判別手段による判別の結果に基づいた補正を前記画像データに対して行う補正手段と、
を有することを特徴とする画像形成装置。 Image data acquisition means for acquiring image data based on data obtained by scanning a document with a scanner;
A region specifying means for determining a black pixel inclusion region including a black pixel group that is a black pixel, or a black pixel group that is a continuous black pixel, with a pixel to which a dot is formed when the image data is binarized as a black pixel;
Area determining means for determining whether or not the black pixel inclusion area obtained by the area specifying means is a character area representing a character ;
The character area together with a value related to the number of small areas smaller than a predetermined size from the black pixel inclusion area obtained by the area specifying means as an image quality deterioration value indicating a degree of deterioration of the image quality of the image data a decrease in image quality value specifying means asking you to density variation value indicating a degree of variations in the density value of the character area on the basis of the number of density values of pixels included in,
When the value related to the number of small areas obtained by the image quality degradation value specifying means is greater than a predetermined threshold, it is determined that the original document from which the image data is based is a copy, and the value related to the number of small areas Discriminating means for discriminating that the document is a copy when the density variation value is larger than the predetermined threshold even when the value to be performed is smaller than the predetermined threshold ;
Correction means for performing correction on the image data based on the determination result by the determination means;
An image forming apparatus comprising:
前記画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定手段と、
前記領域特定手段が求めた前記黒画素包含領域が文字を表す文字領域であるか否かを判別する領域判別手段と、
前記画像データの画質の低下の具合を示す画質低下値として、前記文字領域に含まれる画素の各濃度値における個数に基づいて当該文字領域内の濃度値のばらつきの具合を示す濃度ばらつき値を求める画質低下値特定手段と、
前記濃度ばらつき値が所定の閾値よりも大きい場合に、前記画像データの元となった原稿が複製であると判別する判別手段と、
前記判別手段による判別の結果に基づいた補正を前記画像データに対して行う補正手段と、
を有することを特徴とする画像形成装置。 Image data acquisition means for acquiring image data based on data obtained by scanning a document with a scanner;
A region specifying means for determining a black pixel inclusion region including a black pixel group that is a black pixel, or a black pixel group that is a continuous black pixel, with a pixel to which a dot is formed when the image data is binarized as a black pixel;
Area determining means for determining whether or not the black pixel inclusion area obtained by the area specifying means is a character area representing a character ;
A density variation value indicating the degree of variation in density value in the character area is obtained based on the number of density values of pixels included in the character area as an image quality degradation value indicating the degree of degradation in image quality of the image data. Image quality degradation value specifying means,
If before Symbol density variation value is greater than a predetermined threshold, the determination means document is the source of the image data is determined to be a duplicate,
Correction means for performing correction on the image data based on the determination result by the determination means;
An image forming apparatus comprising:
請求項1ないし3のいずれかに記載の画像形成装置。 The correction unit performs a process of correcting the saturation of the image data when the determination unit determines that the copy is a copy.
The image forming apparatus according to any one of claims 1 to 3.
請求項1ないし3のいずれかに記載の画像形成装置。 The correction means, when it is determined that the determination means is a copy, performs a process for removing noise of the image data a predetermined number of times,
The image forming apparatus according to any one of claims 1 to 3.
請求項1ないし3のいずれかに記載の画像形成装置。 The correction means performs a process for correcting the saturation of the image data when the determination means determines that the copy is a duplicate, and performs noise processing on the image data after the process for correcting the saturation. Perform a predetermined number of times to remove
The image forming apparatus according to any one of claims 1 to 3.
前記補正手段による補正が行われた後の画像データの文字を表す領域以外の領域を非可逆圧縮する非可逆圧縮手段と、
を有する請求項1ないし6のいずれか記載の画像形成装置。 Reversible compression means for reversibly compressing an area representing characters of image data after correction by the correction means;
Irreversible compression means for irreversibly compressing an area other than an area representing characters of image data after correction by the correction means;
The image forming apparatus according to any one of claims 1 to 6 having a.
請求項1ないし6のいずれかに記載の画像形成装置。 Edge enhancement processing means for performing edge enhancement processing on an area other than an area representing characters of image data after correction by the correction means when the determination means determines that the copy is a copy; Have
The image forming apparatus according to any one of claims 1 to 6.
前記判別手段が複製であると判別した場合には、前記エッジ強調処理手段によるエッジ強調のための処理が行われた後の画像データの文字を表す領域以外の領域を非可逆圧縮し、前記判別手段が複製でないと判別した場合には、前記補正手段による補正が行われた後の画像データの文字を表す領域以外の領域を非可逆圧縮する非可逆圧縮手段と、
を有する請求項8記載の画像形成装置。 Reversible compression means for reversibly compressing an area representing characters of image data after correction by the correction means;
If the determination unit determines that the copy is a copy, the region other than the region representing the character of the image data after the processing for edge enhancement by the edge enhancement processing unit is irreversibly compressed, and the determination If it is determined that the means is not a copy, an irreversible compression means for irreversibly compressing an area other than the area representing the characters of the image data after the correction by the correction means;
The image forming apparatus according to claim 8 .
請求項7または9記載の画像形成装置。 Prior to the irreversible compression by the irreversible compression means, the image processing apparatus has a resolution reduction means for reducing the resolution of the object of the irreversible compression.
The image forming apparatus according to claim 7 or 9 .
前記画像データに対応した明度画像データを生成する明度画像データ生成ステップと、
前記明度画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定ステップと、
前記画像データの画質の低下の具合を示す画質低下値として、前記領域特定手段が求めた前記黒画素包含領域の中から所定のサイズよりも小さい小領域の個数に関連する値を求める画質低下値特定ステップと、
前記画質低下値特定ステップにおいて求めた値が所定の閾値よりも大きい場合に前記画像データの元となった原稿が複製であると判別する判別ステップと、
前記判別ステップにおける判別の結果に基づいた補正を前記画像データに対して行う補正ステップと、
を有することを特徴とする補正方法。 A method for correcting image data in an image forming apparatus that has acquired image data based on data obtained by scanning a document with a scanner,
A brightness image data generation step for generating brightness image data corresponding to the image data;
An area specifying step for obtaining a black pixel inclusion area including a black pixel group that is a black pixel or a black pixel group that is a continuous black pixel, assuming that a pixel on which dots are formed when the lightness image data is binarized is a black pixel;
An image quality reduction value for obtaining a value related to the number of small areas smaller than a predetermined size from the black pixel inclusion area obtained by the area specifying unit as an image quality reduction value indicating a degree of image quality degradation of the image data. Specific steps,
A determining step of original values determined in the degradation of image quality value specifying step becomes the original of the image data is larger than a predetermined threshold value is determined to be a duplicate,
A correction step for performing correction on the image data based on the determination result in the determination step;
A correction method characterized by comprising:
前記画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定ステップと、A region specifying step for obtaining a black pixel inclusion region including a black pixel group that is a black pixel or a black pixel group that is a continuous black pixel, assuming that a pixel on which dots are formed when the image data is binarized is a black pixel;
前記領域特定ステップにおいて求めた前記黒画素包含領域が文字を表す文字領域であるか否かを判別する領域判別ステップと、An area determination step of determining whether or not the black pixel inclusion area obtained in the area specifying step is a character area representing a character;
前記画像データの画質の低下の具合を示す画質低下値として、前記領域特定ステップにおいて求めた前記黒画素包含領域の中から所定のサイズよりも小さい小領域の個数に関連する値とともに、前記文字領域に含まれる画素の各濃度値における個数に基づいて当該文字領域内の濃度値のばらつきの具合を示す濃度ばらつき値を求める画質低下値特定ステップと、The character region as well as a value related to the number of small regions smaller than a predetermined size from the black pixel inclusion region obtained in the region specifying step as an image quality degradation value indicating a degree of degradation in image quality of the image data An image quality lowering value specifying step for obtaining a density variation value indicating a degree of density value variation in the character area based on the number of pixels included in each density value;
前記画質低下値特定ステップにおいて求めた小領域の個数に関連する値が所定の閾値よりも大きい場合に前記画像データの元となった原稿が複製であると判別し、前記小領域の個数に関連する値が所定の閾値よりも小さい場合であっても前記濃度ばらつき値が所定の閾値よりも大きい場合には、原稿が複製であると判別する判別ステップと、When the value related to the number of small areas obtained in the image quality reduction value specifying step is larger than a predetermined threshold, it is determined that the document from which the image data is based is a copy, and the value related to the number of small areas A determination step of determining that the document is a copy if the density variation value is greater than the predetermined threshold even if the value to be performed is smaller than the predetermined threshold;
前記判別ステップにおける判別の結果に基づいた補正を前記画像データに対して行う補正ステップと、A correction step for performing correction on the image data based on the determination result in the determination step;
を有することを特徴とする補正方法。A correction method characterized by comprising:
前記画像データを2値化した場合にドットが打たれる画素を黒画素として、当該黒画素または連続した当該黒画素である黒画素群を包含する黒画素包含領域を求める領域特定ステップと、A region specifying step for obtaining a black pixel inclusion region including a black pixel group that is a black pixel or a black pixel group that is a continuous black pixel, assuming that a pixel on which dots are formed when the image data is binarized is a black pixel;
前記領域特定ステップにおいて求めた前記黒画素包含領域が文字を表す文字領域であるか否かを判別する領域判別ステップと、An area determination step of determining whether or not the black pixel inclusion area obtained in the area specifying step is a character area representing a character;
前記画像データの画質の低下の具合を示す画質低下値として、前記文字領域に含まれる画素の各濃度値における個数に基づいて当該文字領域内の濃度値のばらつきの具合を示す濃度ばらつき値を求める画質低下値特定ステップと、A density variation value indicating a degree of variation in density value in the character area is obtained as an image quality degradation value indicating a degree of degradation in image quality of the image data based on the number of pixels in each density value in the character area. An image quality degradation value identification step;
前記濃度ばらつき値が所定の閾値よりも大きい場合に、前記画像データの元となった原稿が複製であると判別する判別ステップと、A discriminating step for discriminating that the original document of the image data is a copy when the density variation value is larger than a predetermined threshold;
前記判別ステップにおける判別の結果に基づいた補正を前記画像データに対して行う補正ステップと、A correction step for performing correction on the image data based on the determination result in the determination step;
を有することを特徴とする補正方法。A correction method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007073385A JP4412339B2 (en) | 2007-03-20 | 2007-03-20 | Image forming apparatus and image data correction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007073385A JP4412339B2 (en) | 2007-03-20 | 2007-03-20 | Image forming apparatus and image data correction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008236393A JP2008236393A (en) | 2008-10-02 |
JP4412339B2 true JP4412339B2 (en) | 2010-02-10 |
Family
ID=39908628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007073385A Expired - Fee Related JP4412339B2 (en) | 2007-03-20 | 2007-03-20 | Image forming apparatus and image data correction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4412339B2 (en) |
-
2007
- 2007-03-20 JP JP2007073385A patent/JP4412339B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008236393A (en) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4240107B2 (en) | Region determination method, region determination device, image processing device, and computer program | |
JP4333708B2 (en) | Method, apparatus, and computer program for processing input data related to generation of electronic file | |
JP5220828B2 (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, program, and recording medium | |
JP4586891B2 (en) | Color reduction method, color reduction processing apparatus, image forming apparatus, and computer program | |
KR100994644B1 (en) | Image processing apparatus and method thereof | |
JP4861967B2 (en) | Image processing apparatus, image processing method, image processing program, image forming apparatus, and storage medium | |
JP2014090393A (en) | Image processor, image forming apparatus including the same and image forming method | |
JP2006014331A (en) | Document compression method, system for compressing document, and image processing apparatus | |
JP6923037B2 (en) | Image processing equipment, image processing methods and programs | |
JP4442701B2 (en) | Area discriminating method, image compressing method, image compressing apparatus, and computer program | |
JP2015015599A (en) | Image processing apparatus, image forming apparatus, image processing method, and program and recording medium of the same | |
JP2010004383A (en) | Image processing apparatus, and color document determining method | |
JP4884305B2 (en) | Image processing apparatus, image forming apparatus, computer program, and recording medium | |
US8577132B2 (en) | Electronic document generation system, electronic document generation method, and program | |
JP2009017247A (en) | Image processing device and program | |
JP4710672B2 (en) | Character color discrimination device, character color discrimination method, and computer program | |
JP4412339B2 (en) | Image forming apparatus and image data correction method | |
JP5549836B2 (en) | Image processing apparatus and image processing method | |
US20100188670A1 (en) | Image processing apparatus, image processing method and program executing the image processing method | |
JP2009017208A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium | |
JP2008193234A (en) | Image processor, control method of image processor and control program of image processor | |
JP6025803B2 (en) | Image processing device | |
JP7413751B2 (en) | Image processing systems and programs | |
JP6045182B2 (en) | Image processing apparatus, image forming apparatus including the same, computer program, and recording medium | |
JP7077925B2 (en) | Image processing equipment, image processing methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091027 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091109 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121127 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121127 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131127 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |