JP2017017424A - Image processing apparatus, image reading apparatus, and image forming apparatus - Google Patents

Image processing apparatus, image reading apparatus, and image forming apparatus Download PDF

Info

Publication number
JP2017017424A
JP2017017424A JP2015129972A JP2015129972A JP2017017424A JP 2017017424 A JP2017017424 A JP 2017017424A JP 2015129972 A JP2015129972 A JP 2015129972A JP 2015129972 A JP2015129972 A JP 2015129972A JP 2017017424 A JP2017017424 A JP 2017017424A
Authority
JP
Japan
Prior art keywords
unit
image
character
toner
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015129972A
Other languages
Japanese (ja)
Inventor
邦玉 王
Bangyu Wang
邦玉 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Data Corp filed Critical Oki Data Corp
Priority to JP2015129972A priority Critical patent/JP2017017424A/en
Publication of JP2017017424A publication Critical patent/JP2017017424A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image reading apparatus, and an image forming apparatus which detect an image formed by an image forming mode in which a developer is reduced without regard to the type and color of an image.SOLUTION: This invention comprises: an image processing apparatus, an image reading apparatus comprising the image processing apparatus, and an image processing apparatus comprising the image reading apparatus. The image processing apparatus comprises: detection means which detects whether a document image is subjected to tonner saving; and correction means which performs correction processing on an image where toner saving is detected by the detection means.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像読取装置、及び画像形成装置に関し、例えば、トナーセーブモードで印刷(通常よりもトナー量を低減した印刷モードで印刷)された原稿を読取って補正する装置に適用し得る。   The present invention relates to an image processing apparatus, an image reading apparatus, and an image forming apparatus. For example, the present invention is applied to an apparatus that reads and corrects a document printed in a toner save mode (printed in a print mode with a toner amount reduced than usual). Can do.

従来の画像読取機能(スキャナ機能)に対応する画像処理装置では、原稿を読取る際に、通常よりもトナーの量(現像剤の量)を低減したトナーセーブモードで印刷された黒色の領域を検出して、当該領域の黒色の濃度を補正(墨量を増加させる補正)する装置がある。   An image processing device that supports the conventional image reading function (scanner function) detects a black area printed in the toner save mode in which the amount of toner (the amount of developer) is reduced than usual when reading a document. Thus, there is a device that corrects the black density of the area (correction that increases the black amount).

例えば、特許文献1の装置では、読み取った原稿うち、字の黒エッジが検出され、且つ、前記黒エッジの周囲に網点領域が検出され、且つ、前記画像の濃度が閾値未満である画像(領域)については、前記画像がトナーセーブされていると判定し、濃度(墨量)を増加させる補正処理を実施する。   For example, in the apparatus disclosed in Patent Document 1, a black edge of a character is detected in a read document, a halftone dot area is detected around the black edge, and the image density is less than a threshold ( With respect to (region), it is determined that the image is saved with toner, and correction processing for increasing the density (black amount) is performed.

特閲2014−87009号公報Special Review 2014-87009

しかしながら、画像読取機能(スキャナ機能)に対応する装置では、トナーセーブ判定は、カラープリンタで対応するトナー色のうち、黒色のみを使用して印刷した黒字に限定されていた。例えば、従来の画像処理装置では、シアン(以下、単に「C」とも表す)、マゼンタ(以下、単に「M」とも表す)、イエロー(以下、単に「Y」とも表す)、ブラック(黒色)(以下、単に、「K」とも表す)の4色のトナーを用いて印刷された原稿を読取る際に、トナーセーブ判定を行う対象が、Kのみを使用して印刷した黒字に限定されていた。そのため、従来の画像処理装置では、CMYKそれぞれの色を掛け合わせて表現された黒色(いわゆる「コンポジットブラック」)を用いて印刷された黒字や、色字(例えば、赤色の字)等についてトナーセーブ判定を行うことができなかった。また、従来の画像処理装置では、黒字以外の要素(例えば、写真、図(図形、グラフ、表等)についてもトナーセーブ判定を行うことができなかった。   However, in an apparatus corresponding to an image reading function (scanner function), toner save determination is limited to black characters printed using only black among toner colors corresponding to a color printer. For example, in a conventional image processing apparatus, cyan (hereinafter also simply referred to as “C”), magenta (hereinafter also simply referred to as “M”), yellow (hereinafter also simply referred to as “Y”), black (black) ( In the following, when reading a document printed using toner of four colors (simply referred to as “K”), the target for toner save determination is limited to black characters printed using only K. Therefore, in the conventional image processing apparatus, toner saving is performed for black characters printed using black (so-called “composite black”) expressed by multiplying the colors of CMYK, color characters (for example, red characters), and the like. Judgment could not be made. Further, in the conventional image processing apparatus, toner save determination cannot be performed for elements other than black characters (for example, photographs, figures (graphics, graphs, tables, etc.)).

そのため、画像の種類や色によらず現像剤を低減した画像形成モードで画像形成された画像を検出することができる画像処理装置、画像読取装置、及び画像形成装置が望まれている。   Therefore, an image processing apparatus, an image reading apparatus, and an image forming apparatus that can detect an image formed in an image forming mode with a reduced developer regardless of the type and color of the image are desired.

第1の本発明の画像処理装置は、(1)原稿の画像がトナーセーブされているか否かを検出する検出手段と、(2)前記検出手段によりトナーセーブが検出された画像について、補正処理を行う補正手段とを備えることを特徴とする。   The image processing apparatus according to the first aspect of the present invention includes (1) detection means for detecting whether or not an image of a document has been saved with toner, and (2) correction processing for an image for which toner save has been detected by the detection means. And correction means for performing the above.

第2の本発明は、原稿を読取り、前記原稿の画像を生成する原稿読取部と、前記原稿読取部が生成した画像を処理する画像処理部とを有する画像読取装置において、前記画像処理部として第1の本発明の画像処理装置を適用したことを特徴とする画像読取装置。   According to a second aspect of the present invention, there is provided an image reading apparatus including a document reading unit that reads a document and generates an image of the document, and an image processing unit that processes an image generated by the document reading unit. An image reading apparatus to which the image processing apparatus of the first invention is applied.

第3の本発明は、原稿を読取り、前記原稿の画像を生成する原稿読取部と、前記原稿読取部が生成した画像を処理する画像処理部と、媒体に画像形成する画像形成部とを有する画像形成装置において、前記画像処理部として第1の本発明の画像処理装置を適用したことを特徴とする画像形成装置。   A third aspect of the present invention includes a document reading unit that reads a document and generates an image of the document, an image processing unit that processes an image generated by the document reading unit, and an image forming unit that forms an image on a medium. In the image forming apparatus, the image processing apparatus according to the first aspect of the present invention is applied as the image processing unit.

本発明によれば、画像の種類や色によらず現像剤を低減した画像形成モードで画像形成された画像を検出する画像処理装置、画像読取装置、及び画像形成装置を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image reading apparatus, and an image forming apparatus that detect an image formed in an image forming mode in which a developer is reduced regardless of the type and color of the image.

実施形態に係る複合装置の機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the composite apparatus which concerns on embodiment. 実施形態に係る複合装置の概略断面図である。It is a schematic sectional drawing of the composite apparatus which concerns on embodiment. 実施形態に係るイメージセンサユニットの概略構成について示した説明図である。It is explanatory drawing shown about schematic structure of the image sensor unit which concerns on embodiment. 実施形態に係る複合装置がトナーセーブ検出オフで動作した場合のデータの流れについて示した説明図である。FIG. 10 is an explanatory diagram illustrating a data flow when the multifunction apparatus according to the embodiment operates with toner save detection off. 実施形態に係る複合装置がトナーセーブ検出オンで動作した場合のデータの流れについて示した説明図である。FIG. 6 is an explanatory diagram illustrating a data flow when the multifunction apparatus according to the embodiment operates with toner save detection on. 実施形態に係る明度値算出部の内部構成について示したブロック図であるIt is the block diagram shown about the internal structure of the lightness value calculation part which concerns on embodiment 実施形態に係る領域切出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the area | region cutting part which concerns on embodiment. 実施形態に係る領域マッチング部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the area | region matching part which concerns on embodiment. 実施形態に係る領域判定部の判定条件及び判定結果の例について示した説明図である。It is explanatory drawing shown about the determination conditions and the example of a determination result of the area | region determination part which concern on embodiment. 実施形態に係る識別部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the identification part which concerns on embodiment. 実施形態に係る判定部における、違い数及び同一数に応じた判定結果の例について示した説明図である。It is explanatory drawing shown about the example of the determination result according to the difference number and the same number in the determination part which concerns on embodiment. 実施形態に係るエッジ検出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the edge detection part which concerns on embodiment. 実施形態に係る字エッジ検出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the character edge detection part which concerns on embodiment. 実施形態に係る字マッチング部による字エッジのマッチング範囲を示す説明図である。It is explanatory drawing which shows the matching range of the character edge by the character matching part which concerns on embodiment. 実施形態に係る字マッチング部が行う字エッジのマッチングパターンの例について示した説明図である。It is explanatory drawing shown about the example of the matching pattern of the character edge which the character matching part which concerns on embodiment performs. 実施形態に係る字エッジ判定部が行う字エッジ上の白抜け(仮)を検出する処理の例を示す説明図である。It is explanatory drawing which shows the example of the process which detects the white-out (temporary) on the character edge which the character edge determination part which concerns on embodiment performs. 実施形態に係る字エッジ検出部により切り出された字のイメージの例を示す説明図である。It is explanatory drawing which shows the example of the image of the character cut out by the character edge detection part which concerns on embodiment. 実施形態に係る図表エッジ検出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the chart edge detection part which concerns on embodiment. 実施形態に係る図表マッチング部が行う字エッジのマッチングパターンの例について示した説明図である。It is explanatory drawing shown about the example of the matching pattern of the character edge which the chart matching part which concerns on embodiment performs. 実施形態に係る図表エッジ判定部が行う図表エッジ上の白抜け(仮)を検出する処理について示した説明図である。It is explanatory drawing shown about the process which detects the white-out (temporary) on the chart edge which the chart edge determination part which concerns on embodiment performs. 実施形態に係る写真エッジ検出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the photograph edge detection part which concerns on embodiment. 実施形態に係る写真エッジ判定部で用いられる写真エッジのマッチングパターンの例について示した説明図である。It is explanatory drawing shown about the example of the matching pattern of the photograph edge used by the photograph edge determination part which concerns on embodiment. 実施形態に係るトナーセーブ検出部の内部構成について示したブロック図である。3 is a block diagram illustrating an internal configuration of a toner save detection unit according to the embodiment. FIG. 実施形態に係る字トナーセーブ検出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the character toner save detection part which concerns on embodiment. 実施形態に係る字ヒストグラム部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the character histogram part which concerns on embodiment. 実施形態に係る字トナーセーブ検出部で用いられるヒストグラム及び検出条件の例について示した説明図である。It is explanatory drawing shown about the example of the histogram used by the character toner save detection part which concerns on embodiment, and a detection condition. 実施形態に係る字トナーセーブ率算出部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the character toner save rate calculation part which concerns on embodiment. 実施形態に係る図表トナーセーブ検出部の内部構成について示したブロック図である。3 is a block diagram illustrating an internal configuration of a chart toner save detection unit according to the embodiment. FIG. 実施形態に係る写真トナーセーブ検出部の内部構成について示したブロック図である。FIG. 3 is a block diagram illustrating an internal configuration of a photographic toner save detection unit according to the embodiment. 実施形態に係る写真ヒストグラムの例について示した説明図である。It is explanatory drawing shown about the example of the photograph histogram which concerns on embodiment. 実施形態に係る写真トナーセーブ検出部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the photographic toner save detection part which concerns on embodiment. 実施形態に係る判定部が行う判定の判定条件及び判定結果について示した説明図である。It is explanatory drawing shown about the determination conditions and determination result of the determination which the determination part which concerns on embodiment performs. 実施形態に係る判定部が行う判定処理の検証を行うための説明図である。It is explanatory drawing for verifying the determination process which the determination part which concerns on embodiment performs. 実施形態に係る補正部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the correction | amendment part which concerns on embodiment. 実施形態に係る字補正部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the character correction part which concerns on embodiment. 実施形態に係る字補正部(R色字補正部/G色字補正部/B色字補正部)で行う補正処理の例について示した説明図である。It is explanatory drawing shown about the example of the correction process performed in the character correction part (R color character correction part / G color character correction part / B color character correction part) which concerns on embodiment. 実施形態に係る図表補正部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the chart correction | amendment part which concerns on embodiment. 実施形態に係る図表補正部(R色図表補正部/G色図表補正部/B色図表補正部)で行う補正処理の例について示した説明図である。It is explanatory drawing shown about the example of the correction process performed in the chart correction part (R color chart correction part / G color chart correction part / B color chart correction part) which concerns on embodiment. 実施形態に係る写真補正部の内部構成について示したブロック図である。It is the block diagram shown about the internal structure of the photograph correction | amendment part which concerns on embodiment. 実施形態に係る写真補正部(R色写真補正部/G色写真補正部/B色写真補正部)で用いられる補正用トーンカーブの例について示した説明図である。It is explanatory drawing shown about the example of the tone curve for correction | amendment used in the photographic correction part (R color photographic correction part / G color photographic correction part / B color photographic correction part) concerning an embodiment. 実施形態に係る複合装置の動作の例(トナーセーブ検出オンでカラーコピーする際の動作の例)について示したフローチャートである。5 is a flowchart illustrating an example of an operation of the multifunction peripheral according to the embodiment (an example of an operation when performing color copying with toner save detection ON).

(A)主たる実施形態
以下、本発明による画像読取装置及び画像形成装置の一実施形態を、図面を参照しながら詳述する。以下では、本発明の画像処理装置、画像読取装置、及び画像形成装置を複合装置に適用する例について説明する。
(A) Main Embodiment Hereinafter, an embodiment of an image reading apparatus and an image forming apparatus according to the present invention will be described in detail with reference to the drawings. Hereinafter, an example in which the image processing apparatus, the image reading apparatus, and the image forming apparatus of the present invention are applied to a composite apparatus will be described.

(A−1)実施形態の構成
図2は、この実施形態の複合装置1の概略断面図である。
(A-1) Configuration of Embodiment FIG. 2 is a schematic cross-sectional view of the composite apparatus 1 of this embodiment.

複合装置1は、プリンタ、FAX、コピー等の複数の機能に対応した装置(いわゆるMFP(Multi Function Peripheral)である。   The multi-function apparatus 1 is an apparatus (so-called MFP (Multi Function Peripheral)) that supports a plurality of functions such as a printer, FAX, and copy.

図2に示すように複合装置1は、画像読取装置2と画像形成装置3とを有している。画像形成装置3の上部には、画像読取装置2が配置されている。   As shown in FIG. 2, the composite apparatus 1 includes an image reading apparatus 2 and an image forming apparatus 3. On the upper part of the image forming apparatus 3, the image reading apparatus 2 is arranged.

画像読取装置2は、フラットベッド部(Flatbed、以下「FB」という。)4を有している。FB4は、トップカバー83と、白基準板85と、原稿Pを載置する原稿台84と、原稿台84を形成するコンタクトガラス86と、プーリ89と、搬送ベルト90と、ステッピングモータ91と、搬送ベルト90に固定されたイメージセンサユニット87と、イメージセンサユニット87の位置を検知するホームセンサ88とを有している。   The image reading apparatus 2 has a flatbed portion (Flatbed, hereinafter referred to as “FB”) 4. The FB 4 includes a top cover 83, a white reference plate 85, a document table 84 on which the document P is placed, a contact glass 86 that forms the document table 84, a pulley 89, a conveyor belt 90, a stepping motor 91, An image sensor unit 87 fixed to the conveyance belt 90 and a home sensor 88 for detecting the position of the image sensor unit 87 are provided.

次に、にFB4の各部を詳細に説明する。   Next, each part of FB4 will be described in detail.

搬送ベルト90は、ステッピングモータ91とプーリ89によって張架され、ステッピングモータ91の回転により、イメージセンサユニット87がコンタクトガラス86に沿って移動するように構成されている。ホームセンサ88は、イメージセンサユニット87が所定の位置に移動したことを検出する。   The conveyor belt 90 is stretched by a stepping motor 91 and a pulley 89, and the image sensor unit 87 is moved along the contact glass 86 by the rotation of the stepping motor 91. The home sensor 88 detects that the image sensor unit 87 has moved to a predetermined position.

イメージセンサユニット87は、ステッピングモータ91の回転に伴って動作する搬送ベルト90により、原稿台84に沿って移動し、この原稿台84上に載置した原稿Pを走査して原稿のアナログデータを得る。イメージセンサユニット87の構成は、後述する図3で詳細に説明する。   The image sensor unit 87 is moved along the document table 84 by the conveyance belt 90 that operates in accordance with the rotation of the stepping motor 91, and scans the document P placed on the document table 84 to obtain the analog data of the document. obtain. The configuration of the image sensor unit 87 will be described in detail with reference to FIG.

白基準板85は、イメージセンサユニット87内の撮像素子が出力する電圧のばらつきを平滑化するためのシェーディング補正時に、基準となる撮像素子の白基準板85のデータを取得する際に読み取られるものである。白基準板85は、コンタクトガラス86上の原稿台84の読み取り範囲外に配置されている。   The white reference plate 85 is read when acquiring data of the white reference plate 85 of the reference image sensor at the time of shading correction for smoothing variations in the voltage output by the image sensor in the image sensor unit 87. It is. The white reference plate 85 is disposed outside the reading range of the document table 84 on the contact glass 86.

画像形成装置3は、入力された画像データに基づく画像を記録媒体としての用紙93に印刷することが可能な装置(例えば、プリンタ)である。   The image forming apparatus 3 is an apparatus (for example, a printer) that can print an image based on input image data on a sheet 93 as a recording medium.

画像形成装置3は、その下部に着脱自在に装着されている用紙収容カセット92と、用紙収容カセット92の上部に配設されたホッピングローラ94とを有している。また、画像形成装置3は、ホッピングローラ94を始点として、レジストローラ97、101、104、及び搬送ベルト113を有している。さらに、画像形成装置3は、排出ローラ120を終点とする略S字形状に形成された用紙搬送経路98と、レジストローラ97に対向して圧接するように配設されたピンチローラ96とを有している。さらにまた、画像形成装置3は、レジストローラ101に対向して圧接するように配設されたピンチローラ100と、レジストローラ101の用紙搬送経路98前に配設されたセンサ99とを有している。また、画像形成装置3は、レジストローラ104に対向して圧接するように配設されたピンチローラ103と、レジストローラ104の用紙搬送経路98前後に配設されたセンサ102、106とを有している。さらに、画像形成装置3は、搬送ベルト113を掛け渡す位置に配設された駆動ローラ112と、従動ローラ111と、用紙搬送経路98の下流側から上流側にかけて搬送ベルト113上に着脱自在に装着された4つの画像形成ユニット200(200K、200Y、200M、200C)とを有している。画像形成ユニット200K、200Y、200M、200Cは、それぞれブラック(K)、イエロー(Y)、マゼンタ(M)、シアン(C)の各トナー色に対応する画像を記録するための電子写真式LEDプリント機構である。   The image forming apparatus 3 includes a sheet storage cassette 92 that is detachably attached to a lower portion thereof, and a hopping roller 94 disposed on the upper portion of the sheet storage cassette 92. Further, the image forming apparatus 3 includes registration rollers 97, 101, 104 and a conveyance belt 113 starting from a hopping roller 94. Further, the image forming apparatus 3 includes a sheet conveyance path 98 formed in a substantially S shape with the discharge roller 120 as an end point, and a pinch roller 96 disposed so as to be in pressure contact with the registration roller 97. doing. Furthermore, the image forming apparatus 3 includes a pinch roller 100 disposed so as to be in pressure contact with the registration roller 101, and a sensor 99 disposed in front of the sheet conveyance path 98 of the registration roller 101. Yes. In addition, the image forming apparatus 3 includes a pinch roller 103 disposed so as to be in pressure contact with the registration roller 104 and sensors 102 and 106 disposed around the sheet conveyance path 98 of the registration roller 104. ing. Further, the image forming apparatus 3 is detachably mounted on the conveyance belt 113 from the downstream side to the upstream side of the paper conveyance path 98, the driving roller 112 disposed at the position where the conveyance belt 113 is stretched, the driven roller 111. Four image forming units 200 (200K, 200Y, 200M, and 200C). The image forming units 200K, 200Y, 200M, and 200C are electrophotographic LED prints for recording images corresponding to black (K), yellow (Y), magenta (M), and cyan (C) toner colors, respectively. Mechanism.

画像形成装置3は、各画像形成ユニット200K、200Y、200M、200Cの像担持体(後述する感光体ドラム109)の表面に画像信号に基づく光を照射するLED(Light Emitting Diode)ヘッド131、132、133、134を有している。また、画像形成装置3は、搬送ベルト113を介して各感光体ドラム109と圧接するように配設された転写ローラ110、122、123、124、及び用紙93にトナー像を定着させる定着処理を行う定着ユニット115を有している。   The image forming apparatus 3 includes LED (Light Emitting Diode) heads 131 and 132 that irradiate light based on an image signal onto the surface of an image carrier (photosensitive drum 109 described later) of each of the image forming units 200K, 200Y, 200M, and 200C. 133, 134. Further, the image forming apparatus 3 performs a fixing process for fixing the toner image on the transfer rollers 110, 122, 123, and 124, and the paper sheet 93 arranged so as to be in pressure contact with the respective photosensitive drums 109 via the conveyance belt 113. A fixing unit 115 is provided.

また、画像形成装置3は、ヒートローラ117の後段(用紙搬送経路98の後段)に配設されたセンサ118と、排出ローラ120に対向して圧接するように配設されたピンチローラ119と、当該画像形成装置3の筐体外面を利用して形成されたスタッカ121とを有している。   In addition, the image forming apparatus 3 includes a sensor 118 disposed at a subsequent stage of the heat roller 117 (a subsequent stage of the sheet conveyance path 98), a pinch roller 119 disposed so as to be in pressure contact with the discharge roller 120, And a stacker 121 formed using the outer surface of the casing of the image forming apparatus 3.

さらに、画像形成装置3は、搬送ベルト113の下面部で従動ローラ111を挟むように配設されたクリーニングブレード126と、クリーニングブレード126により掻き落とされた廃トナーが落下する位置に配設された廃トナータンク127と、搬送ベルト113の下面部と対向する位置に非接触で配設された濃度センサ128とを有している。   Further, the image forming apparatus 3 is disposed at a position where the cleaning toner 126 disposed so as to sandwich the driven roller 111 between the lower surface portion of the conveying belt 113 and the waste toner scraped off by the cleaning blade 126 fall. A waste toner tank 127 and a density sensor 128 disposed in a non-contact manner at a position facing the lower surface of the transport belt 113 are provided.

定着ユニット115は、熱源により加熱されたヒートローラ117、ヒートローラ117に対向して圧接するように配設された加圧ローラ116と、ヒートローラ117の表面近傍に非接触で配設されたサーミスタ125とを有している。   The fixing unit 115 includes a heat roller 117 heated by a heat source, a pressure roller 116 disposed so as to be in pressure contact with the heat roller 117, and a thermistor disposed in a non-contact manner in the vicinity of the surface of the heat roller 117. 125.

次に、画像形成装置3の各部を詳細に説明する。   Next, each part of the image forming apparatus 3 will be described in detail.

用紙収容カセット92は、その上部には図示せぬ分離手段が配設されており、用紙収容カセット92に収容されている用紙93をその最上部から1枚ずつ捌いて分離する。   The sheet storage cassette 92 is provided with a separating means (not shown) at the top thereof, and separates the sheets 93 stored in the sheet storage cassette 92 one by one from the top.

ホッピングローラ94は、ホッピングモータ95に接続され、ホッピングモータ95から供給した駆動力により回転し、図示せぬ分離手段が分離した用紙93を取り出してレジストローラ97に搬送する。   The hopping roller 94 is connected to the hopping motor 95 and is rotated by the driving force supplied from the hopping motor 95 to take out the sheet 93 separated by a separating means (not shown) and convey it to the registration roller 97.

レジストローラ97は、レジストモータ105の駆動力により回転し、レジストローラ97に対向して圧接するように配設されたピンチローラ96と共に、ホッピングローラ94により搬送してきた用紙93の斜行を矯正する。レジストローラ101は、レジストモータ105にも接続され、レジストモータ105から供給された駆動力により回転し、レジストローラ101に対向して圧接するように配設されたピンチローラ100と共に、レジストローラ97により搬送してきた用紙93の斜行を矯正する。   The registration roller 97 is rotated by the driving force of the registration motor 105 and corrects the skew of the sheet 93 conveyed by the hopping roller 94 together with the pinch roller 96 disposed so as to be in pressure contact with the registration roller 97. . The registration roller 101 is also connected to the registration motor 105, is rotated by the driving force supplied from the registration motor 105, and is moved by the registration roller 97 together with the pinch roller 100 disposed so as to be pressed against the registration roller 101. The skew of the conveyed sheet 93 is corrected.

センサ99は、レジストローラ97により搬送される用紙93の位置を検出する。   The sensor 99 detects the position of the sheet 93 conveyed by the registration roller 97.

レジストローラ104は、レジストモータ105の駆動力により回転し、レジストローラ104に対向して圧接するように配設されたピンチローラ103と共に、レジストローラ101により搬送してきた用紙93の斜行を矯正する。   The registration roller 104 is rotated by the driving force of the registration motor 105 and corrects the skew of the sheet 93 conveyed by the registration roller 101 together with the pinch roller 103 disposed so as to be pressed against the registration roller 104. .

センサ102、106は、レジストローラ101により搬送される用紙93の位置を検出する。   Sensors 102 and 106 detect the position of the sheet 93 conveyed by the registration roller 101.

搬送ベルト113は、帯電した用紙93を静電吸着して用紙搬送経路98に沿って搬送する。   The transport belt 113 electrostatically attracts the charged paper sheet 93 and transports it along the paper transport path 98.

駆動ローラ112は、ベルトモータ130に接続され、ベルトモータ130の駆動力により回転することで搬送ベルト113を図2中矢印e方向に駆動させる。   The driving roller 112 is connected to the belt motor 130 and rotates by the driving force of the belt motor 130 to drive the conveying belt 113 in the direction of arrow e in FIG.

画像形成ユニット200K、200Y、200M、200Cは、何れも同一の構成を有し、装着されるトナーカートリッジのトナーの色のみが異なる。そこで、以下では、ブラック(K)のトナーを持つ画像形成ユニット200Kを代表として画像形成ユニット200の構成を説明する。   The image forming units 200K, 200Y, 200M, and 200C all have the same configuration, and are different only in the color of the toner of the toner cartridge to be mounted. Therefore, hereinafter, the configuration of the image forming unit 200 will be described with the image forming unit 200K having black (K) toner as a representative.

画像形成ユニット200Kは、ブラック(K)のトナーを収容するトナーカートリッジ107と、ドラムカートリッジ108とを有している。   The image forming unit 200 </ b> K includes a toner cartridge 107 that stores black (K) toner and a drum cartridge 108.

トナーカートリッジ107は、ドラムカートリッジ108上に着脱自在に装着されている。   The toner cartridge 107 is detachably mounted on the drum cartridge 108.

ドラムカートリッジ108は、ドラムカートリッジ108のフレームに対して回転自在に支持された像担持体としての感光体ドラム109と、感光体ドラム109の表面に所定の圧接量を持って配設され、感光体ドラム109の表面を一様均一に帯電させる帯電ローラ135と、感光体ドラム109の表面に所定の圧接量を持って配設され、感光体ドラム109の表面に形成された静電潜像にトナーを供給する現像ローラ136と、現像ローラ136の表面に所定の圧接量を持って配設され、現像ローラ136にトナーを供給するトナー供給ローラ137と、感光体ドラム109の表面近傍に配置された感光体ドラム109の表面を除電する図示せぬ除電部とを有している。   The drum cartridge 108 is provided with a photosensitive drum 109 as an image carrier that is rotatably supported with respect to the frame of the drum cartridge 108, and a predetermined pressure contact amount on the surface of the photosensitive drum 109. A charging roller 135 for uniformly and uniformly charging the surface of the drum 109 and a surface of the photosensitive drum 109 having a predetermined pressure contact amount are disposed on the electrostatic latent image formed on the surface of the photosensitive drum 109 with toner. A developing roller 136 that supplies toner, a toner supply roller 137 that supplies toner to the developing roller 136, and a surface near the surface of the photosensitive drum 109. A neutralizing unit (not shown) that neutralizes the surface of the photosensitive drum 109 is included.

画像形成ユニット200K、200Y、200M、200Cは、図示せぬドラムリフトアップ機構と接続されている。図示せぬドラムリフトアップ機構は、図示せぬリフトアップモータと接続され、カラー印刷のときに、図示せぬリフトアップモータが、図示せぬドラムリフトアップ機構を駆動して画像形成ユニット200K、200Y、200M、200Cを搬送ベルト113に向けて下降させ、カラー印刷が可能な状態になる。モノクロ印刷のときに、図示せぬリフトアップモータが図示せぬドラムリフトアップ機構を駆動して画像形成ユニット200Kのみを搬送ベルト113に向けて下降させ、モノクロ印刷が可能な状態になる。   The image forming units 200K, 200Y, 200M, and 200C are connected to a drum lift-up mechanism (not shown). The drum lift-up mechanism (not shown) is connected to a lift-up motor (not shown). During color printing, the lift-up motor (not shown) drives the drum lift-up mechanism (not shown) to form the image forming units 200K and 200Y. , 200M and 200C are lowered toward the conveyor belt 113, and color printing is possible. During monochrome printing, a lift-up motor (not shown) drives a drum lift-up mechanism (not shown) to lower only the image forming unit 200K toward the transport belt 113, and monochrome printing is possible.

LEDヘッド131、132、133、134は、それぞれ、図示せぬLEDアレイと、当該アレイを駆動させる図示せぬドライブIC(Integrated Circuit)と、画像データを保持するレジスタ群を搭載した図示せぬ基板と、LEDアレイの光を集光する図示せぬレンズアレイ等を備える。   The LED heads 131, 132, 133, and 134 are each a board (not shown) on which an LED array (not shown), a drive IC (Integrated Circuit) (not shown) for driving the array, and a register group that holds image data are mounted. And a lens array (not shown) that collects light from the LED array.

LEDヘッド131には、カラー画像信号またはモノクロ画像信号の中でブラック(K)の画像信号が入力され、LEDヘッド132、133、134には、カラー画像信号の中でイエロー(Y)、マゼンタ(M)、シアン(C)画像信号がそれぞれ供給される。LEDヘッド131、132、133、134は入力された画像信号に基づく光をそれぞれの感光体ドラムの表面に照射して静電潜像を形成する。   A black (K) image signal in the color image signal or the monochrome image signal is input to the LED head 131, and yellow (Y) and magenta (in the color image signal are input to the LED heads 132, 133, and 134. M) and cyan (C) image signals are supplied. The LED heads 131, 132, 133, 134 irradiate the surfaces of the respective photosensitive drums with light based on the input image signals to form electrostatic latent images.

転写ローラ110、122、123、124には、高圧電源142からバイアス電圧が印加されており、各感光体ドラムの表面に形成されたトナー画像を所定のタイミングで用紙93にそれぞれ転写させる。   A bias voltage is applied to the transfer rollers 110, 122, 123, and 124 from the high-voltage power supply 142, and the toner images formed on the surfaces of the photosensitive drums are respectively transferred to the sheet 93 at a predetermined timing.

定着ユニット115は、ヒートローラ117と、加圧ローラ116と、サーミスタ125とを有している。   The fixing unit 115 includes a heat roller 117, a pressure roller 116, and a thermistor 125.

ヒートローラ117内には、ヒータ143が配設されている。   A heater 143 is disposed in the heat roller 117.

ヒートローラ117は定着モータ114に接続され、定着モータ114から供給した駆動力により回転し、加圧ローラ116はヒートローラ117の回転に連れ回りする。   The heat roller 117 is connected to the fixing motor 114 and is rotated by the driving force supplied from the fixing motor 114, and the pressure roller 116 is rotated along with the rotation of the heat roller 117.

図示せぬサーミスタ125は、ヒートローラ117の表面温度を検出する手段であり、ヒートローラ117の表面近傍に非接触で配設される。サーミスタ125によって検出されたヒートローラ117の表面温度信号は、図示せぬエンジン制御部に供給される。上述のエンジン制御部は、サーミスタ125が検知した温度信号に基づいてヒータ143のオン/オフを制御し、ヒートローラ117の表面温度を所定の温度に維持させる。   The thermistor 125 (not shown) is a means for detecting the surface temperature of the heat roller 117 and is disposed in a non-contact manner in the vicinity of the surface of the heat roller 117. The surface temperature signal of the heat roller 117 detected by the thermistor 125 is supplied to an engine control unit (not shown). The engine control unit described above controls on / off of the heater 143 based on the temperature signal detected by the thermistor 125, and maintains the surface temperature of the heat roller 117 at a predetermined temperature.

センサ118は、定着ユニット115における用紙93のジャムやヒートローラ117への用紙93の巻き付き等を監視する排出センサである。   The sensor 118 is a discharge sensor that monitors jamming of the paper 93 in the fixing unit 115 and winding of the paper 93 around the heat roller 117.

排出ローラ120は、定着モータ114に接続され、定着モータ114の駆動力により回転し、定着ユニット115から搬送される用紙93を搬送経路98に沿ってスタッカ121まで排出する。   The discharge roller 120 is connected to the fixing motor 114, is rotated by the driving force of the fixing motor 114, and discharges the sheet 93 conveyed from the fixing unit 115 to the stacker 121 along the conveyance path 98.

図3は、図2中のイメージセンサユニット87の概略構成について示した説明図(斜視図)である。   FIG. 3 is an explanatory diagram (perspective view) showing a schematic configuration of the image sensor unit 87 in FIG.

この実施形態の例では、イメージセンサユニット87は、密着イメージセンサ(Contact Image Sensor、以下「CIS」という。)ユニットであるものとする。イメージセンサユニット87は、LED光源150と、光学系を構成する導光板149と、ロッドレンズ148と、CIS147とを有している。   In the example of this embodiment, the image sensor unit 87 is a contact image sensor (hereinafter referred to as “CIS”) unit. The image sensor unit 87 includes an LED light source 150, a light guide plate 149 constituting an optical system, a rod lens 148, and a CIS 147.

イメージセンサユニット87の長手方向は主走査方向Xであり、その短手方向は副走査方向Y’であるものとする。   The longitudinal direction of the image sensor unit 87 is the main scanning direction X, and the short direction is the sub-scanning direction Y ′.

CIS147は複数の撮像素子で構成され、イメージセンサユニット87の長手方向である主走査方向Xに並べ、主走査方向Xにおける白基準板85/原稿Pの1ラインを読み取ることができるように構成されているものとする。複数の撮像素子のそれぞれは、読み取った白基準板85/原稿Pのデータの主走査方向の各画素pxに対応しているものとする。   The CIS 147 is composed of a plurality of image sensors, arranged in the main scanning direction X, which is the longitudinal direction of the image sensor unit 87, and configured to be able to read one line of the white reference plate 85 / original P in the main scanning direction X. It shall be. It is assumed that each of the plurality of imaging elements corresponds to each pixel px in the main scanning direction of the read white reference plate 85 / document P data.

LED光源150は、それぞれ異なった発光色光Lを発光する複数の発光素子である発光ダイオード(以下「LED」という。)を有している。   The LED light source 150 includes light emitting diodes (hereinafter referred to as “LEDs”) that are a plurality of light emitting elements that emit different colored light L.

この実施形態の例では、LED光源150は、赤(以下「R」という。)、緑(以下「G」という。)、青(以下「B」という。)の3個(3色)のLEDを有しているものとする。即ち、この実施形態のLED光源150は、R色を発光するRLED1と、G色を発光するGLED1と、B色を発光するBLED1とを有している。   In the example of this embodiment, the LED light source 150 includes three (three colors) LEDs of red (hereinafter referred to as “R”), green (hereinafter referred to as “G”), and blue (hereinafter referred to as “B”). It shall have. That is, the LED light source 150 of this embodiment has RLED1 which emits R color, GLED1 which emits G color, and BLED1 which emits B color.

以下では、RLED1から発光する発光色光Lを、「Lr」と呼ぶものとする。また、以下では、GLED1から発光する発光色光Lを、「Lg」と呼ぶものとする。さらに、以下では、BLED1から発光する発光色光Lを、「Lb」と呼ぶものとする。   Hereinafter, the color light L emitted from the RLED 1 is referred to as “Lr”. Hereinafter, the color light L emitted from the GLED 1 is referred to as “Lg”. Further, hereinafter, the emission color light L emitted from the BLED 1 is referred to as “Lb”.

画像読取装置2で原稿Pを読み取るときには、前記3個(3色)のLEDによりそれぞれ発光した発光色光Lr、Lg、Lbは、導光板149を介して白基準板85/原稿Pへ到達する。そして、白基準板85/原稿PからのLr、Lg、Lbそれぞれの反射光は、ロッドレンズ148を介してCIS147へ導かれ、CIS147に到達する。そして、CIS147がその反射光の光信号を受光してそれぞれの電気的なアナログ信号(アナログデータ)に変換するように構成されている。   When the image reading apparatus 2 reads the document P, the emitted color lights Lr, Lg, and Lb respectively emitted by the three (three colors) LEDs reach the white reference plate 85 / document P via the light guide plate 149. Then, the reflected lights of Lr, Lg, and Lb from the white reference plate 85 / original P are guided to the CIS 147 through the rod lens 148 and reach the CIS 147. And CIS147 is comprised so that the optical signal of the reflected light may be received and converted into each electric analog signal (analog data).

以下では、RLED1によって取得したアナログデータを、「アナログデータR」と呼ぶ。また、以下では、GLED1によって取得したアナログデータを、「アナログデータG」と呼ぶ。さらに、以下では、BLED1によって取得したアナログデータを、「アナログデータB」と呼ぶ。すなわち、1つ撮像素子(画素px)により取得したアナログデータは、アナログデータR、G、Bの3種を有している。   Hereinafter, the analog data acquired by the RLED 1 is referred to as “analog data R”. Hereinafter, the analog data acquired by the GLED 1 is referred to as “analog data G”. Further, hereinafter, the analog data acquired by the BLED 1 is referred to as “analog data B”. That is, the analog data acquired by one image sensor (pixel px) has three types of analog data R, G, and B.

図1は、複合装置1の制御系の構成について示したブロック図である。   FIG. 1 is a block diagram showing the configuration of the control system of the composite apparatus 1.

複合装置1は、画像読取装置2と、画像形成装置3とを備えている。   The composite apparatus 1 includes an image reading apparatus 2 and an image forming apparatus 3.

画像読取装置2は、画像読取装置2全体を制御するCPU(中央処理装置)5と、ROM(不揮発性であるリードオンリメモリ)15と、操作パネル16と、バス17と、読取部6と、RAM(揮発性であるメモリ)7と、シェーディング部157と、明度値算出部8と、閾値算出部9と、領域切出部10と、エッジ検出部11と、トナーセーブ検出部12と、補正部13と、画像処理部14と、I/F部(インターフェース部)146とを有している。また、画像形成装置3は、プリンタ部18を有している。   The image reading device 2 includes a CPU (central processing unit) 5 that controls the entire image reading device 2, a ROM (non-volatile read-only memory) 15, an operation panel 16, a bus 17, a reading unit 6, RAM (volatile memory) 7, shading unit 157, lightness value calculation unit 8, threshold calculation unit 9, region cutout unit 10, edge detection unit 11, toner save detection unit 12, correction Section 13, image processing section 14, and I / F section (interface section) 146. In addition, the image forming apparatus 3 includes a printer unit 18.

次に、複合装置1の制御系における各要素について説明する。   Next, each element in the control system of the composite apparatus 1 will be described.

バス17は、CPU5から出力する命令や制御信号やデータを送受信するための通信路である。CPU5は、バス17を介して各構成要素に接続(アクセス)して制御する。   The bus 17 is a communication path for transmitting / receiving commands, control signals, and data output from the CPU 5. The CPU 5 connects (accesses) and controls each component via the bus 17.

ROM15には、画像読取装置2を制御する制御プログラムや画像処理用のアルゴリズムや閾値等のデータ(例えば、ファームウェア)が事前に格納されている。CPU5は、ROM15に格納された各種の制御プログラムに基づいて、画像読取装置2全体の制御を行う。   In the ROM 15, a control program for controlling the image reading device 2, an algorithm for image processing, data such as a threshold value (for example, firmware) are stored in advance. The CPU 5 controls the entire image reading apparatus 2 based on various control programs stored in the ROM 15.

なお、明度値算出部8、閾値算出部9、領域切出部10、エッジ検出部11、トナーセーブ検出部12、補正部13、画像処理部14、及びシェーディング部157は、全てハードウェア(専用チップや電子回路等)により構成するようにしてもよいし、一部又は全部をソフトェア的に構成(例えば、ROM15上に記録されるファームウェアの一部のプログラムとして構成)するようにしてもよい。また、シェーディング部157、明度値算出部8、閾値算出部9、領域切出部10、エッジ検出部11、トナーセーブ検出部12、補正部13、及び画像処理部14は、1つの専用のASIC(Application Specific Integrated Circuit)で構築するようにしてもよい。   Note that the brightness value calculation unit 8, the threshold calculation unit 9, the region extraction unit 10, the edge detection unit 11, the toner save detection unit 12, the correction unit 13, the image processing unit 14, and the shading unit 157 are all hardware (dedicated. It may be configured by a chip, an electronic circuit, or the like, or part or all may be configured in software (for example, configured as a part of a program of firmware recorded on the ROM 15). In addition, the shading unit 157, the lightness value calculation unit 8, the threshold value calculation unit 9, the area extraction unit 10, the edge detection unit 11, the toner save detection unit 12, the correction unit 13, and the image processing unit 14 are provided with one dedicated ASIC. You may make it construct | assemble by (Application Specific Integrated Circuit).

本発明の画像処理装置は、画像読取装置2で読取った原稿Pの画像データを処理する構成要素で実現することができる。本発明の画像処理装置は、例えば、明度値算出部8、閾値算出部9、領域切出部10、エッジ検出部11、トナーセーブ検出部12、補正部13を含む構成要素で実現することができる。   The image processing apparatus of the present invention can be realized by a component that processes the image data of the document P read by the image reading apparatus 2. The image processing apparatus of the present invention can be realized by components including, for example, a lightness value calculation unit 8, a threshold calculation unit 9, an area cutout unit 10, an edge detection unit 11, a toner save detection unit 12, and a correction unit 13. it can.

また、本発明の画像読取装置は、原稿Pを読取って画像処理する構成要素で実現することができる。本発明の画像読取装置は、例えば、画像読取装置2、イメージセンサユニット87、明度値算出部8、閾値算出部9、領域切出部10、エッジ検出部11、トナーセーブ検出部12、及び補正部13を含む構成要素で実現することができる。   Further, the image reading apparatus of the present invention can be realized by a component that reads a document P and processes the image. The image reading apparatus of the present invention includes, for example, the image reading apparatus 2, the image sensor unit 87, the lightness value calculation unit 8, the threshold value calculation unit 9, the area extraction unit 10, the edge detection unit 11, the toner save detection unit 12, and the correction. It can be realized by a component including the unit 13.

さらに、この実施形態では、明度値算出部8、閾値算出部9、領域切出部10、エッジ検出部11、及びトナーセーブ検出部12により原稿Pの画像ごとにトナーセーブされているか否かを検出する検出手段が構成されている。この実施形態では、補正部13によりトナーセーブされている画像を補正する補正手段が構成されている。   Further, in this embodiment, whether or not toner is saved for each image of the document P by the lightness value calculation unit 8, the threshold calculation unit 9, the region cutout unit 10, the edge detection unit 11, and the toner save detection unit 12 is determined. Detection means for detecting is configured. In this embodiment, a correction unit that corrects an image saved with toner by the correction unit 13 is configured.

操作パネル16は、ユーザからの動作指示や複合装置1の状態の表示を行なう。操作パネル16は、例えば、CPU5の制御に応じて、トナーセーブ検出モードのオン/オフ設定の操作画面(メニュー)の表示を行うことができる。CPU5は、操作パネル16に上述の操作画面(トナーセーブ検出モードのオン/オフ設定のメニュー)を表示させ、トナーセーブ検出モードをオンの状態とするかオフの状態とするかの設定を受付けるようにしてもよい。CPU5は、トナーセーブ検出モードのオン/オフの状態を管理するためのフラグFを所定の記憶手段に記憶させて管理するものとする。図1では、トナーセーブ検出モードのオン/オフの状態を管理するためのフラグFが、RAM7上に記録されている。例えば、CPU5は、起動時に、ROM15からフラグFのデフォルト値を読込んで、RAM7にフラグF(初期値)を記録するようにしてもよい。そして、CPU5は、起動後に操作パネル16等の操作に応じて、フラグFの内容の更新を受付ける。なお、フラグFは、図示しない不揮発メモリに記憶するようにしてもよい。また、CPU5は、フラグFがオンの場合にトナーセーブ検出モードを実行し、フラグFがオフの場合にトナーセーブ検出モードを実行しない。なお、フラグFのデフォルト値は限定されないものである。   The operation panel 16 displays an operation instruction from the user and the state of the composite apparatus 1. For example, the operation panel 16 can display an operation screen (menu) for setting ON / OFF of the toner save detection mode under the control of the CPU 5. The CPU 5 displays the above operation screen (toner save detection mode on / off setting menu) on the operation panel 16 and accepts the setting of whether the toner save detection mode is on or off. It may be. It is assumed that the CPU 5 stores and manages a flag F for managing the on / off state of the toner save detection mode in a predetermined storage unit. In FIG. 1, a flag F for managing the on / off state of the toner save detection mode is recorded on the RAM 7. For example, the CPU 5 may read the default value of the flag F from the ROM 15 and record the flag F (initial value) in the RAM 7 at startup. Then, the CPU 5 accepts the update of the content of the flag F in accordance with the operation of the operation panel 16 or the like after activation. The flag F may be stored in a nonvolatile memory (not shown). Further, the CPU 5 executes the toner save detection mode when the flag F is on, and does not execute the toner save detection mode when the flag F is off. Note that the default value of the flag F is not limited.

読取部6は、イメージセンサユニット87上のCIS147と、CIS147を制御するCIS制御部151と、LED光源150と、LED光源150を制御する光源制御部152と、アナログ/デジタル変換回路(Analog Front End、以下「AFE」という。)153とを有している。   The reading unit 6 includes a CIS 147 on the image sensor unit 87, a CIS control unit 151 for controlling the CIS 147, an LED light source 150, a light source control unit 152 for controlling the LED light source 150, and an analog / digital conversion circuit (Analog Front End). , Hereinafter referred to as “AFE”) 153.

AFE153は、CIS147により入力した白基準板85/原稿Pのアナログデータからデジタルデータに変換する。   The AFE 153 converts the analog data of the white reference plate 85 / original P input from the CIS 147 into digital data.

以下では、白基準板85のアナログデータRから変換したデジタルデータを、「白板データR」とも呼ぶものとする。また、以下では、白基準板85のアナログデータGから変換したデジタルデータを、「白板データG」とも呼ぶものとする。さらに、以下では、白基準板85のアナログデータBから変換したデジタルデータを、「白板データB」とも呼ぶものとする。すなわち、1つの画素pxは、白板データR、G、Bの3種データを有している。   Hereinafter, digital data converted from the analog data R of the white reference plate 85 is also referred to as “white plate data R”. Hereinafter, digital data converted from the analog data G of the white reference plate 85 is also referred to as “white plate data G”. Further, hereinafter, digital data converted from the analog data B of the white reference plate 85 is also referred to as “white plate data B”. That is, one pixel px has three types of data, white plate data R, G, and B.

以下では、原稿Pに基づくアナログデータRから変換したデジタルデータを、「原稿データR」とも呼ぶ。また、以下では、原稿Pに基づくアナログデータGから変換したデジタルデータを、「原稿データG」とも呼ぶ。さらに、以下では、原稿Pに基づくアナログデータBから変換したデジタルデータを、「原稿データB」とも呼ぶ。すなわち、各画素pxは、原稿データR、G、Bの3種データを有している。   Hereinafter, the digital data converted from the analog data R based on the original P is also referred to as “original data R”. Hereinafter, the digital data converted from the analog data G based on the original P is also referred to as “original data G”. Further, hereinafter, the digital data converted from the analog data B based on the original P is also referred to as “original data B”. That is, each pixel px has three types of document data R, G, and B.

上述の白板データ/原稿データR、G、Bは、RAM7にそれぞれ入力され、一時格納される。白板データ/原稿データR、G、Bは、それぞれRAM7からシェーディング部157に供給される。   The above-mentioned white board data / original data R, G, B are respectively input to the RAM 7 and temporarily stored. White plate data / original data R, G, and B are supplied from the RAM 7 to the shading unit 157, respectively.

シェーディング部157は、入力された白板データR、G、Bに基づく原稿データR、G、Bに対して、原稿Pの読取ライン毎にシェーディング補正を実施する。   The shading unit 157 performs shading correction for each reading line of the document P on the document data R, G, B based on the input white plate data R, G, B.

以下では、シェーディング補正された原稿データRを、「画像データR」と呼ぶものとする。また、以下では、シェーディング補正された原稿データGを、「画像データG」と呼ぶものとする。さらに、以下では、シェーディング補正された原稿データBを、「画像データB」と呼ぶものとする。すなわち、1画素pxは、画像データR、G、Bの3種データを有している。   Hereinafter, the document data R subjected to the shading correction is referred to as “image data R”. Hereinafter, the document data G subjected to the shading correction is referred to as “image data G”. Further, hereinafter, the document data B subjected to the shading correction is referred to as “image data B”. That is, one pixel px has three types of data, image data R, G, and B.

上述の画像データR、G、Bは、RAM7にそれぞれ入力され、一時格納される。   The image data R, G, and B described above are input to the RAM 7 and temporarily stored.

RAM7に一時格納された画像データR、G、Bは、トナーセーブ検出モード(フラグF)のオンオフの設定によって入力先が異なる。トナーセーブ検出モードがオフ(フラグFがオフ)になっている場合、RAM7に一時格納された画像データR、G、Bは、画像処理部14に供給される。一方、トナーセーブ検出モードがオン(フラグFがオン)になっている場合、RAM7に一時格納された画像データR、G、Bは、明度値算出部8に供給される。トナーセーブ検出モードのオンオフ設定に応じた画像データの流れの違いについては、後述する図4、図5で詳細に説明する。   The image data R, G, B temporarily stored in the RAM 7 has different input destinations depending on the on / off setting of the toner save detection mode (flag F). When the toner save detection mode is off (flag F is off), the image data R, G, B temporarily stored in the RAM 7 is supplied to the image processing unit 14. On the other hand, when the toner save detection mode is on (flag F is on), the image data R, G, and B temporarily stored in the RAM 7 are supplied to the lightness value calculation unit 8. Differences in the flow of image data according to the on / off setting of the toner save detection mode will be described in detail with reference to FIGS.

明度値算出部8は、入力された画像データR、G、Bを用いて画素毎の明度値と、白地の明度値の平均値を算出する。明度値算出部8は、例えば、以下の(1)式、(2)式、(3)式に基づく算出処理を行う。   The lightness value calculation unit 8 uses the input image data R, G, and B to calculate the lightness value for each pixel and the average value of the lightness values of the white background. The lightness value calculation unit 8 performs a calculation process based on, for example, the following expressions (1), (2), and (3).

以下の(1)式は、画像データR、G、Bを用いて画素毎の明度値Vpxの算出を行う式である。なお、画素毎の明度値Vpxの最大値は255で、最小値は0である。すなわち、Vpxが最大値(255)となると当該画素の濃度が最小値(0)となる。また、Vpxが最小値(0)となると当該画素の濃度が最大値(255)となる。   The following expression (1) is an expression for calculating the brightness value Vpx for each pixel using the image data R, G, and B. Note that the maximum value of the brightness value Vpx for each pixel is 255, and the minimum value is 0. That is, when Vpx reaches the maximum value (255), the density of the pixel becomes the minimum value (0). Further, when Vpx becomes the minimum value (0), the density of the pixel becomes the maximum value (255).

以下の(1)式において、「Max画像データ(R、G、B)」は、当該画素の画像データR、画像データG、画像データBのうちもっとも大きい値を出力することを示しているものとする。
画素毎の明度値Vpx=Max画像データ(R、G、B) …(1)
In the following equation (1), “Max image data (R, G, B)” indicates that the largest value among the image data R, image data G, and image data B of the pixel is output. And
Lightness value for each pixel Vpx = Max image data (R, G, B) (1)

以下の(2)式は、主走査Xの読取1ラインの全画素の明度値の平均値「VLave」を算出するための式である。主走査Xの読取1ラインはm個の画素(1番目〜m番目の画素)で構成されているものとする。以下の(2)式におけるVpx1は、1番目の画素の明度値((1)式により算出された1番目の画素の明度値)であり、Vpxmはm番目画素の明度値((1)式により算出されたm番目画素の明度値)を表している。また、(2)式において、mは1ラインの画素数となる。明度値算出部8は、主走査Xの全ての読取ライン(1番目〜n番目の各ライン)について、VLaveを算出する。
主走査Xの読取1ラインの全画素の明度値の平均値
VLave=(Vpx1+・・・+Vpxm)/m …(2)
The following expression (2) is an expression for calculating the average value “VLave” of the lightness values of all the pixels in one reading line of the main scanning X. It is assumed that one reading line of the main scanning X is composed of m pixels (1st to mth pixels). In the following equation (2), Vpx1 is the lightness value of the first pixel (the lightness value of the first pixel calculated by the equation (1)), and Vpxm is the lightness value of the mth pixel (the equation (1)). (Brightness value of the mth pixel calculated by). In equation (2), m is the number of pixels in one line. The brightness value calculation unit 8 calculates VLave for all the reading lines (first to nth lines) of the main scanning X.
Average value of brightness values of all pixels in one reading line of main scanning X VLave = (Vpx1 +... + Vpxm) / m (2)

以下の(3)式は、副走査Y’の読取nラインの明度値に係る平均値Vaveを算出するための式である。以下の(3)式におけるVL1aveは、主走査Xの読取1ライン目の全画素の明度値の平均値(上記(2)式によって算出した1ライン目のVLave)である。また、以下の(3)式におけるVLnaveは、主走査Xの読取nライン目の全画素の明度値(上記(2)式によって算出したnライン目のVLave)である。
副走査Y’の読取nラインの明度値の平均値
Vave=(VL1ave+・・・+VLnave)/n …(3)
The following expression (3) is an expression for calculating the average value Vave related to the lightness value of the read n line in the sub-scanning Y ′. VL1ave in the following equation (3) is the average value of the brightness values of all the pixels in the first scanning line of the main scanning X (the VLave of the first line calculated by the above equation (2)). In addition, VLnave in the following equation (3) is a lightness value of all the pixels on the read nth line in the main scanning X (VLave on the nth line calculated by the above equation (2)).
Average value of brightness values of n lines read in sub-scanning Y ′ Vave = (VL1ave +... + VLnave) / n (3)

以上のように、明度値算出部8は、上記(1)式〜(3)式を用いて原稿Pの白地の明度値の平均値Vaveを算出することができる。   As described above, the lightness value calculation unit 8 can calculate the average value Vave of the lightness values of the white background of the document P using the equations (1) to (3).

以下では、上記式(1)によって算出した原稿Pの白地の画素の明度値を、単に「Vpx」と呼ぶものとする。また、以下では、原稿Pの白地以外の画素の明度値を、「V’px」と呼ぶものとする。   Hereinafter, the brightness value of the white pixel of the document P calculated by the above equation (1) is simply referred to as “Vpx”. Hereinafter, the brightness value of pixels other than the white background of the document P is referred to as “V′px”.

この実施形態では、明度値算出部8が、原稿Pの白地を読み取る範囲は、原稿Pの前端(原稿搬送方向の先端部)から5mm以内とする例で説明する。以下、この白地とみなした領域(前端部)を「前端白地」と呼ぶ。通常、原稿Pの前端部は印字がなく白地となっている。明度値算出部8の詳細構成については、後述する図6で詳細に説明する。明度値算出部8により算出した前端白地の明度値Vaveは、閾値算出部9に供給される。   In this embodiment, an example in which the lightness value calculation unit 8 reads a white background of the document P is within 5 mm from the front end (the front end portion in the document transport direction) of the document P will be described. Hereinafter, the area (front end) regarded as the white background is referred to as “front end white background”. Usually, the front end portion of the document P is white without printing. The detailed configuration of the lightness value calculation unit 8 will be described in detail with reference to FIG. The lightness value Vave of the front end white background calculated by the lightness value calculation unit 8 is supplied to the threshold value calculation unit 9.

閾値算出部9は、入力された明度値Vaveに基づいて、原稿PのV’pxを2値化するための閾値th0を算出する。閾値算出部9は、例えば、入力された明度値Vaveに一定値(例えば、+10%濃度)を掛けることにより、閾値th0を算出するようにしてもよい。閾値算出部9は、例えば、以下の(4)式に基づいた処理を行う。そして、閾値算出部9は、算出した閾値th0を、領域切出部10に供給する。
閾値th0=Vave×(1−10%)=0.9×Vave …(4)
The threshold calculation unit 9 calculates a threshold th0 for binarizing V′px of the document P based on the input brightness value Vave. For example, the threshold value calculation unit 9 may calculate the threshold value th0 by multiplying the input brightness value Vave by a certain value (for example, + 10% density). The threshold calculation unit 9 performs processing based on the following equation (4), for example. Then, the threshold calculation unit 9 supplies the calculated threshold th0 to the region cutout unit 10.
Threshold th0 = Vave × (1-10%) = 0.9 × Vave (4)

領域切出部10は、入力された閾値th0と画素毎の明度値V’pxを用いて原稿Pから字の画像の領域(以下、「字領域」とも呼ぶ)、図又は表の画像の領域(以下、「図表領域」とも呼ぶ)、写真画像の領域(以下、「写真領域」とも呼ぶ)をそれぞれ切り出す。領域切出部10により切り出された上記各領域は、V’pxによって得られた2値化データ(1/0)で表現されている。なお、この実施形態で、図又は表の画像とは、線により描かれた図や表(図や表の枠線や枠線内の色塗り部分等が該当し、枠線内の字の画像は含まない)を指すものとする。   The area cutout unit 10 uses the input threshold th0 and the lightness value V′px for each pixel to form an image area (hereinafter also referred to as “character area”) from the document P, or an image area of a figure or a table. (Hereinafter also referred to as “chart area”) and a photographic image area (hereinafter also referred to as “photo area”) are cut out. Each region cut out by the region cutout unit 10 is expressed by binary data (1/0) obtained by V′px. In this embodiment, an image of a figure or table is a figure or table drawn by a line (a frame line of a figure or table, a colored portion in the frame line, etc., and an image of characters in the frame line) Is not included).

以下では、字領域を表示している前記2値化データを以下「V1’z」と呼ぶものとする。また、以下では、図表領域を表示している前記2値化データを、以下「V2’z」と呼ぶものとする。さらに以下では、写真領域を表示している前記2値化データを、「V3’z」と表すものとする。   Hereinafter, the binarized data displaying the character area is hereinafter referred to as “V1′z”. Hereinafter, the binarized data displaying the chart area will be referred to as “V2′z”. Further, hereinafter, the binarized data displaying the photographic area is represented as “V3′z”.

V1’zと、V2’zとV3’zは、RAM7にそれぞれ供給される。   V1'z, V2'z, and V3'z are supplied to the RAM 7, respectively.

以下では、V1’zに対する画素毎のV’pxを「V1’px」と呼ぶものとする。また、以下では、V2’zに対する画素毎のV’pxを「V2’px」と呼ぶものとする。さらにまた、以下では、V3’zに対する画素毎のV’pxを「V3’px」と呼ぶものとする。領域切出部10の構成は、後述する図7で詳細に説明する。   Hereinafter, V′px for each pixel with respect to V1′z is referred to as “V1′px”. Hereinafter, V′px for each pixel with respect to V2′z is referred to as “V2′px”. Furthermore, in the following, V′px for each pixel with respect to V3′z is referred to as “V3′px”. The configuration of the area cutout unit 10 will be described in detail with reference to FIG.

エッジ検出部11は、入力されたV1’z、V2’z、V3’zを用いて各領域のエッジを切り出す。エッジ検出部11により検出した各領域のエッジデータはRAM7に供給される。なお、エッジ検出部11の構成は、後述する図12〜図22で詳細に説明する。   The edge detection unit 11 cuts out an edge of each region using the input V1′z, V2′z, and V3′z. Edge data of each region detected by the edge detection unit 11 is supplied to the RAM 7. The configuration of the edge detection unit 11 will be described in detail with reference to FIGS.

トナーセーブ検出部12は、画素毎に、V1’px/V2’px/V3’pxを用いて、トナーセーブされているか否かを検出する。トナーセーブ検出部12は、字領域、図表領域からトナーセーブされている画像を検出した場合には、そのトナーセーブ率も算出する。トナーセーブ検出部12により検出されたトナーセーブの情報は補正部13に供給される。なお、トナーセーブ検出部12の構成は、後述する図23〜図33で詳細に説明する。   The toner save detection unit 12 detects whether or not the toner is saved for each pixel by using V1′px / V2′px / V3′px. When the toner save detection unit 12 detects an image in which toner is saved from the character area and the chart area, the toner save ratio is also calculated. Information on the toner save detected by the toner save detection unit 12 is supplied to the correction unit 13. The configuration of the toner save detection unit 12 will be described in detail with reference to FIGS.

補正部13は、トナーセーブされている領域の画像データに対して補正を行なって補正データを取得する。   The correction unit 13 corrects the image data in the area where the toner is saved and acquires correction data.

なお、補正部13は、トナーセーブされていなかった領域に対して補正は実行しない。補正部13により補正された補正データR、G、Bは、RAM7に供給される。補正部13の構成は、後述する図34〜図40で詳細に説明する。   Note that the correction unit 13 does not perform correction on an area where toner is not saved. Correction data R, G, and B corrected by the correction unit 13 are supplied to the RAM 7. The configuration of the correction unit 13 will be described in detail with reference to FIGS.

画像処理部14は、RAM7から入力された画像データR、G、B、または、補正データR、G、Bに対して、ガンマ補正や色変換や圧縮処理等の画像処理を行なう。画像処理部14により処理された画像データ/補正データは、RAM7に再度格納される。   The image processing unit 14 performs image processing such as gamma correction, color conversion, and compression processing on the image data R, G, B input from the RAM 7 or the correction data R, G, B. The image data / correction data processed by the image processing unit 14 is stored again in the RAM 7.

I/F部146は、プリンタ部18との通信機能を担っている。   The I / F unit 146 has a communication function with the printer unit 18.

CPU5は、I/F部146を介してプリンタ部18に命令や画像データ/補正データを送信し、または、プリンタ部18から命令を受信する。   The CPU 5 transmits a command or image data / correction data to the printer unit 18 via the I / F unit 146 or receives a command from the printer unit 18.

I/F部146は、例えば、通信用のトランシーバーICとレシーバーICで構成することができる。トランシーバーICは、例えば、LVDS(Low Voltage Differential Signaling、低電圧差動信号)トランシーバー及び、その通信バスで構成することができる。レシーバーICは、例えば、USB(Universal Serial Bus)チップ及びその通信バスで構成することができる。   The I / F unit 146 can be configured by, for example, a communication transceiver IC and a receiver IC. The transceiver IC can be composed of, for example, an LVDS (Low Voltage Differential Signaling) transceiver and its communication bus. The receiver IC can be composed of, for example, a USB (Universal Serial Bus) chip and its communication bus.

プリンタ部18は、I/F部146から受信した画像データ/補正デー夕、または、外部のパーソナルコンピュータ(以下「PC」という。)19から受信した印刷データをそれぞれ印刷する機能を担っている。   The printer unit 18 has a function of printing image data / correction data received from the I / F unit 146 or print data received from an external personal computer (hereinafter referred to as “PC”) 19.

プリンタ部18は、主に、I/F部146との通信用のI/F部158と、PC19との通信用のI/F部159と、エンジン制御部144と、画像処理部160と、高圧電源142と、低圧電源161とを有している。   The printer unit 18 mainly includes an I / F unit 158 for communication with the I / F unit 146, an I / F unit 159 for communication with the PC 19, an engine control unit 144, an image processing unit 160, A high-voltage power supply 142 and a low-voltage power supply 161 are included.

I/F部159は、通信チップ及びその通信バスで構成することができる。I/F部159を構成する通信チップは、例えば、USBチップ、または、LAN(Local Area Network)チップ等を適用することができる。   The I / F unit 159 can be composed of a communication chip and its communication bus. As a communication chip constituting the I / F unit 159, for example, a USB chip or a LAN (Local Area Network) chip can be applied.

エンジン制御部144は、図2で説明したホッピングモータ95、レジストモータ105、ベルトモータ130、定着モータ114、図示せぬリフトアップモータ141、LEDヘッド131、132、133、134を制御する機能を担っている。   The engine control unit 144 has a function of controlling the hopping motor 95, the registration motor 105, the belt motor 130, the fixing motor 114, the lift-up motor 141 (not shown), and the LED heads 131, 132, 133, and 134 described in FIG. ing.

画像処理部160は、画像読取装置2またはPC19から入力した画像データ/補正データ/印刷データに対して画像処理を行なう機能を担っている。   The image processing unit 160 has a function of performing image processing on image data / correction data / print data input from the image reading apparatus 2 or the PC 19.

画像処理部160により、伸長/圧縮や色変換や2値化変換やガンマ補正等の画像処理を実施する。   The image processing unit 160 performs image processing such as expansion / compression, color conversion, binarization conversion, and gamma correction.

PC19は、インターフェースケーブル145を介してI/F部159と接続されている。   The PC 19 is connected to the I / F unit 159 via the interface cable 145.

インターフェースケーブル145は例えば、LAN/USB等の通信ケーブルを適用することができる。   As the interface cable 145, for example, a communication cable such as LAN / USB can be applied.

次に、複合装置1でトナーセーブ検出がオフ(フラグFがオフ)となっている時のデータの流れについて、図4を用いて説明する。   Next, the flow of data when toner save detection is off (flag F is off) in the multifunction apparatus 1 will be described with reference to FIG.

図4に示すように、RAM7から原稿データR、G、Bがシェーディング部157に供給される。そして、シェーディング部157から画像データR、G、BがRAM7に供給される。そして、RAM7から画像データR、G、Bが画像処理部14に供給される。そして、画像処理部14に処理された画像データR、G、BがRAM7に再入力される。   As shown in FIG. 4, document data R, G, and B are supplied from the RAM 7 to the shading unit 157. Then, the image data R, G, and B are supplied from the shading unit 157 to the RAM 7. Then, the image data R, G, and B are supplied from the RAM 7 to the image processing unit 14. Then, the image data R, G, and B processed by the image processing unit 14 are re-input to the RAM 7.

次に、複合装置1でトナーセーブ検出がオン(フラグFがオン)となっている時のデータの流れについて、図5を用いて説明する。   Next, a data flow when toner save detection is turned on (flag F is turned on) in the composite apparatus 1 will be described with reference to FIG.

図5に示すように、RAM7から原稿データR、G、Bがシェーディング部157に供給される。シェーディング部157から画像データR、G、BがRAM7に供給される。そして、RAM7から原稿Pの全ページ(前端白地を含む)の画像データR、G、Bが明度値算出部8に供給される。そして、明度値算出部8から、前端白地の明度値Vaveが閾値算出部9に供給される。   As shown in FIG. 5, document data R, G, and B are supplied from the RAM 7 to the shading unit 157. Image data R, G, and B are supplied from the shading unit 157 to the RAM 7. Then, the image data R, G, and B of all pages (including the front end white background) of the document P are supplied from the RAM 7 to the brightness value calculation unit 8. Then, the lightness value calculation unit 8 supplies the lightness value Vave of the front end white background to the threshold value calculation unit 9.

そして、原稿PのV’pxがRAM7に供給される。そして、閾値算出部9から閾値th0が領域切出部10に供給される。そして、RAM7からV’pxが領域切出部10にも供給される。そして、領域切出部10からV1’z、V2’z、V3’zがRAM7にそれぞれ供給される。そして、RAM7からV1’z、V2’z、V3’zがエッジ検出部11にそれぞれ供給される。そして、エッジ検出部11から各領域のエッジデータがRAM7にそれぞれ供給される。そして、RAM7からV1’px/V2’px/V3’pxがトナーセーブ検出部12にそれぞれ供給される。そして、トナーセーブ検出部12からトナーセーブされている画像データの有り無しの情報が補正部13に供給される。   Then, V ′ px of the document P is supplied to the RAM 7. Then, the threshold value th 0 is supplied from the threshold value calculation unit 9 to the region cutout unit 10. Then, V′px is also supplied from the RAM 7 to the area cutout unit 10. Then, V1′z, V2′z, and V3′z are supplied from the region cutout unit 10 to the RAM 7, respectively. Then, V1′z, V2′z, and V3′z are supplied from the RAM 7 to the edge detection unit 11, respectively. Then, edge data of each region is supplied from the edge detection unit 11 to the RAM 7. Then, V 1 ′ px / V 2 ′ px / V 3 ′ px is supplied from the RAM 7 to the toner save detection unit 12. Then, the presence / absence information of the image data saved with toner is supplied from the toner save detection unit 12 to the correction unit 13.

トナーセーブ検出部12からトナーセーブされている情報が補正部13に入力された場合は、RAM7から補正部13にも画像データR、G、Bが供給される。この場合、補正部13からRAM7に補正データR、G、Bが供給される。そして、RAM7から画像処理部14に、補正データR、G、Bが供給される。そして、画像処理部14により処理された画像データR、G、BがRAM7に再入力される。トナーセーブされていなかった画像の画像データR、G、Bは、上述の図4と同じように、RAM7から画像処理部14に供給される。   When the toner save information from the toner save detection unit 12 is input to the correction unit 13, the image data R, G, and B are also supplied from the RAM 7 to the correction unit 13. In this case, correction data R, G, and B are supplied from the correction unit 13 to the RAM 7. Then, the correction data R, G, and B are supplied from the RAM 7 to the image processing unit 14. Then, the image data R, G, and B processed by the image processing unit 14 are re-input to the RAM 7. The image data R, G, and B of the image that has not been toner saved is supplied from the RAM 7 to the image processing unit 14 as in FIG. 4 described above.

図6は明度値算出部8の内部構成について示したブロック図である。   FIG. 6 is a block diagram showing the internal configuration of the lightness value calculation unit 8.

明度値算出部8は、画素明度値算出部154と、ライン明度値算出部155と、複数ライン明度値算出部156とを有している。   The lightness value calculation unit 8 includes a pixel lightness value calculation unit 154, a line lightness value calculation unit 155, and a multiple line lightness value calculation unit 156.

画素明度値算出部154は、上記(1)式に基づいた処理を行うものであり、画素毎の明度値を算出することができる。画素明度値算出部154が算出した明度値Vpxは、ライン明度値算出部155に供給される。画素明度値算出部154が算出した明度値V’pxは、RAM7に入力され、原稿Pから各領域の切り出しに使用される。   The pixel brightness value calculation unit 154 performs processing based on the above equation (1), and can calculate a brightness value for each pixel. The brightness value Vpx calculated by the pixel brightness value calculation unit 154 is supplied to the line brightness value calculation unit 155. The brightness value V′px calculated by the pixel brightness value calculation unit 154 is input to the RAM 7 and is used to cut out each area from the document P.

ライン明度値算出部155は、上記(2)式に基づいた処理を行うものであり、前端白地を構成する1ライン分の全画素の明度値の平均値VLaveを算出する。   The line brightness value calculation unit 155 performs processing based on the above equation (2), and calculates the average value VLave of the brightness values of all the pixels for one line constituting the front end white background.

複数ライン明度値算出部156は、上記(3)式に基づいた処理を行うものであり、前端白地のnラインの明度値の平均値Vaveを算出する。   The multi-line lightness value calculation unit 156 performs processing based on the above equation (3), and calculates an average value Vave of lightness values of n lines on the front edge white background.

図7は、領域切出部10の内部構成を示すブロック図である。   FIG. 7 is a block diagram showing an internal configuration of the area cutout unit 10.

領域切出部10は、2値化部22と、領域マッチング部23と、識別部26とを有している。   The region cutout unit 10 includes a binarization unit 22, a region matching unit 23, and an identification unit 26.

2値化部22は、入力された閾値th0を用いて原稿PのV’pxと比較することで、下記のようにV’pxを2値化させる。   The binarization unit 22 binarizes V′px as follows by comparing it with V′px of the document P using the input threshold th0.

2値化部22は、V’px<th0の場合、当該V’pxの2値化の結果を「1」とする。2値化部22は、V’px≧th0の場合は、当該V’pxの2値化の結果を、0とする。2値化部22は、2値化された画素毎の2値化データ(1/0)を、領域マッチング部23に供給する。この実施形態では、画素ごとに2値化されたV’pxの値を単に「2値化データ」とも呼ぶ。   When V′px <th0, the binarization unit 22 sets the result of binarization of the V′px to “1”. When V′px ≧ th0, the binarization unit 22 sets the result of binarization of the V′px to 0. The binarizing unit 22 supplies binarized binarized data (1/0) for each pixel to the region matching unit 23. In this embodiment, the value of V′px binarized for each pixel is also simply referred to as “binarized data”.

領域マッチング部23は、入力された画素毎の2値化データ(1/0)に対して、m’×m’マトリクス毎でマッチングして字領域、図表領域と写真/図表領域(色塗り有り)を識別する。即ち、領域マッチング部23は、原稿Pの読み取りの順番によってm’×m’マトリクスで原稿Pの全領域をマッチングする。   The area matching unit 23 matches the input binarized data (1/0) for each pixel for each m ′ × m ′ matrix, character area, chart area, and photograph / chart area (colored) ). That is, the area matching unit 23 matches all areas of the document P in an m ′ × m ′ matrix according to the reading order of the document P.

領域マッチング部23にて写真領域と、色塗り有りの図表領域をマッチングした結果は同様のため、写真/図表領域(色塗り有り)とする。後述する識別部26にて上述の2種類の領域(写真領域と図表領域)を別に識別することになる。領域マッチング部23がマッチングした結果の情報は、それぞれRAM7内の字領域記憶部24、写真/図表領域記憶部25、図表領域記憶部28に供給される。   Since the result of matching the photographic area and the colored chart area by the area matching unit 23 is the same, the photograph / graphic area (colored) is set. The above-described two types of areas (photograph area and chart area) are separately identified by the identification unit 26 described later. Information on the result of matching by the region matching unit 23 is supplied to the character region storage unit 24, the photo / chart region storage unit 25, and the chart region storage unit 28 in the RAM 7, respectively.

m’×m’の設定値は限定されないものであるが、例えば、主走査10mm×副走査10mmに対応するようにm’の値を設定するようにしてもよい。領域マッチング部23の構成は、後述する図8で詳細に説明する。   Although the set value of m ′ × m ′ is not limited, for example, the value of m ′ may be set so as to correspond to main scanning 10 mm × sub-scanning 10 mm. The configuration of the region matching unit 23 will be described in detail with reference to FIG.

識別部26は、写真/図表領域記憶部25に記憶されている情報を用いて写真領域と図表領域(色塗り有り)を別に識別する。識別部26は、識別した写真領域と図表領域(色塗り有り)の情報を、写真領域記憶部27と図表領域記憶部28のそれぞれに供給する。識別部26については、後述する図10で詳細に説明する。   The identification unit 26 separately identifies a photographic region and a diagram region (colored) using information stored in the photograph / chart region storage unit 25. The identification unit 26 supplies information of the identified photographic area and chart area (with coloring) to the photographic area storage section 27 and the chart area storage section 28, respectively. The identification unit 26 will be described in detail later with reference to FIG.

字領域記憶部24、図表領域記憶部28及び写真領域記憶部27は、各領域情報と、画素毎のV1’z、V2’z、V3’zが格納(保持)されている。   The character area storage unit 24, the chart area storage unit 28, and the photo area storage unit 27 store (hold) each area information and V1'z, V2'z, and V3'z for each pixel.

図8は、領域マッチング部23の内部構成を示すブロック図である。   FIG. 8 is a block diagram showing an internal configuration of the region matching unit 23.

領域マッチング部23は、計数部29と、減算器30と、比較部31と、計数部32と、領域判定部33とを有している。   The region matching unit 23 includes a counting unit 29, a subtracter 30, a comparison unit 31, a counting unit 32, and a region determination unit 33.

計数部29は、入力された画素毎の情報(1/0)に対して、m’×m’マトリクス毎に1と0の数をそれぞれカウントする。計数部29によりカウン卜された1と0のカウント数(1の数を計数したカウント数と0の数を計数したカウント数)は、それぞれ減算器30に供給される。   The counter 29 counts 1 and 0 for each m ′ × m ′ matrix with respect to the input information (1/0) for each pixel. The count numbers of 1 and 0 counted by the counting unit 29 (the count number obtained by counting the number of 1 and the count number obtained by counting the number of 0) are respectively supplied to the subtractor 30.

減算器30は、m’×m’マトリクス毎に入力された1と0のそれぞれ数(カウンタ数)を用いて0の数(0のカウント数)から1の数(1のカウント数)を引く。減算器30は、以下の(5)式に基づいた処理を行う。そして、減算器30は、計算した結果X’を比較部31に供給する。
計算の結果X’=(0のカウント数)−(1のカウント数) …(5)
The subtracter 30 subtracts the number of 1 (the count number of 1) from the number of 0 (the count number of 0) by using the numbers of 1 and 0 (counter numbers) input for each m ′ × m ′ matrix. . The subtracter 30 performs processing based on the following equation (5). Then, the subtractor 30 supplies the calculated result X ′ to the comparison unit 31.
Calculation result X ′ = (count number of 0) − (count number of 1) (5)

比較部31は、入力されたX’を閾値th1、th2、th3、th4とそれぞれ比較する。閾値th1、th2、th3、th4は事前にROM15に格納されている。なお、閾値th1、th2、th3、th4は、th4>th3>th1>th2という関係となっているものとする。また、th4には、m’×m’マトリクスの全画素数が設定されるものとする。そして、比較部31により比較された結果の情報が領域判定部33及びRAM7にそれぞれ供給される。比較部31が出力する比較結果の形式については限定されないものであるが、例えば、th3<X’<th4になった場合には、当該結果を示す信号を出力する。なお、比較部31の判定結果は、「th1<X’<th3」、「th2<X’<th1」、「X’=th4」、「th3<X’<th4」のいずれかとなるものとする。   The comparison unit 31 compares the input X ′ with threshold values th1, th2, th3, and th4, respectively. The thresholds th1, th2, th3, th4 are stored in the ROM 15 in advance. Note that the thresholds th1, th2, th3, and th4 have a relationship of th4> th3> th1> th2. Also, it is assumed that the total number of pixels in the m ′ × m ′ matrix is set in th4. Information on the result of comparison by the comparison unit 31 is supplied to the area determination unit 33 and the RAM 7. The format of the comparison result output by the comparison unit 31 is not limited. For example, when th3 <X ′ <th4, a signal indicating the result is output. Note that the determination result of the comparison unit 31 is any one of “th1 <X ′ <th3”, “th2 <X ′ <th1”, “X ′ = th4”, “th3 <X ′ <th4”. .

比較部31は、th3<X’<th4になった場合に、この比較結果の情報を計数部32に供給する。そして、計数部32は、th3<X’<th4となったm’×m’マトリクス(以下、「注目マトリクス」と呼ぶ)の上下左右に連結する4つのm’×m’マトリクス(以下、「連結マトリクス」と呼ぶ)の比較結果を参照する。そして、計数部32は、注目マトリクスに連結する4つの連結マトリクスのうち、同様の比較結果(th3<X’<th4)となったものの数を計数する。例えば、計数部32は、注目マトリクスの上方向と下方向の連結マトリクスの比較結果が「th3<X’<th4」であった場合、当該注目マトリクスに係る計数結果を「2」とする。そして、計数部32によりカウントされた結果の情報が領域判定部33に供給される。なお、計数部32は、RAM7から連結マトリクスの比較結果の情報を入手する。   The comparison unit 31 supplies information of the comparison result to the counting unit 32 when th3 <X ′ <th4. Then, the counting unit 32 includes four m ′ × m ′ matrices (hereinafter, “ Refer to the comparison result of the “connected matrix”. Then, the counting unit 32 counts the number of the four connected matrices connected to the attention matrix that have the same comparison result (th3 <X ′ <th4). For example, when the comparison result between the upper and lower connected matrices of the attention matrix is “th3 <X ′ <th4”, the counting unit 32 sets the counting result related to the attention matrix to “2”. Then, the information of the result counted by the counting unit 32 is supplied to the area determination unit 33. The counting unit 32 obtains information on the comparison result of the connected matrix from the RAM 7.

領域判定部33は、比較部31と計数部32から供給された情報によって原稿Pの領域(各m’×m’マトリクスの属性)を判定する。   The area determination unit 33 determines the area of the document P (attribute of each m ′ × m ′ matrix) based on the information supplied from the comparison unit 31 and the counting unit 32.

図9は、領域判定部33の判定条件及び判定結果の例について示した説明図である。   FIG. 9 is an explanatory diagram illustrating an example of determination conditions and determination results of the region determination unit 33.

この実施形態の領域判定部33は、図9に示すように、比較部31の4種類の比較結果と計数部32のカウント結果に基づいた判定を行う。   As shown in FIG. 9, the region determination unit 33 of this embodiment performs determination based on the four types of comparison results of the comparison unit 31 and the count results of the counting unit 32.

なお、図9に示すように、比較結果が「th1<X’<th3」、「th2<X’<th1」、「X’=th4」のいずれかとなったm’×m’マトリクスについては、計数部32での計数の処理は行われない。一方、比較結果が所定の結果(「th3<X’<th4」)となったm’×m’マトリクスについては、計数部32での計数の処理が行われるため、領域判定部33では計数部32の計数結果が考慮される。   As shown in FIG. 9, for the m ′ × m ′ matrix in which the comparison result is “th1 <X ′ <th3”, “th2 <X ′ <th1”, or “X ′ = th4”, The counting process in the counting unit 32 is not performed. On the other hand, for the m ′ × m ′ matrix in which the comparison result is a predetermined result (“th3 <X ′ <th4”), the counting unit 32 performs the counting process, so that the region determination unit 33 uses the counting unit. Thirty-two counting results are considered.

図9に示すようn、領域判定部33は、比較結果が「th1<X’<th3」となったm’×m’マトリクスについては「字領域」と判定するものとする。   As illustrated in FIG. 9, the area determination unit 33 determines that the m ′ × m ′ matrix whose comparison result is “th1 <X ′ <th3” is “character area”.

また、領域判定部33は、図9に示すように、比較結果が「th2<X’<th1」となったm’×m’マトリクスについては、「写真/図表領域(色塗り有り)」と判定する。   Further, as shown in FIG. 9, the area determination unit 33 sets “photo / chart area (colored)” for the m ′ × m ′ matrix whose comparison result is “th2 <X ′ <th1”. judge.

さらに、領域判定部33は、比較結果が「X’=th4」となったm’×m’マトリクスについては、「空白領域」と判定する。   Further, the area determination unit 33 determines that the m ′ × m ′ matrix whose comparison result is “X ′ = th4” is a “blank area”.

さらにまた、領域判定部33は、比較結果が「th3<X’<th4」となったm’×m’マトリクスについては、計数部32の計数結果も考慮した判定を行う。領域判定部33は、比較結果が「th3<X’<th4」で、かつ計数部32の計数結果が「1」以上となったm’×m’マトリクスについては、「図表領域(色塗り無)」と判定する。領域判定部33は、比較結果が「th3<X’<th4」で、かつ計数部32の計数結果が「0」となったm’×m’マトリクスについては、「字領域(記号)」と判定する。この場合の記号とは、例えば、「、」「,」「;」等の記号を表す。   Furthermore, the area determination unit 33 performs determination in consideration of the counting result of the counting unit 32 for the m ′ × m ′ matrix in which the comparison result is “th3 <X ′ <th4”. For the m ′ × m ′ matrix in which the comparison result is “th3 <X ′ <th4” and the counting result of the counting unit 32 is “1” or more, the region determination unit 33 displays “the chart region (colored unpainted)”. ) ”. For the m ′ × m ′ matrix in which the comparison result is “th3 <X ′ <th4” and the counting result of the counting unit 32 is “0”, the region determination unit 33 reads “character region (symbol)”. judge. The symbol in this case represents a symbol such as “,” “,” “;”.

領域判定部33は、「空白領域」以外の判定結果となった場合、当該m’×m’マトリクスの判定結果をRAM7に一時記憶する。   When the determination result other than “blank area” is obtained, the area determination unit 33 temporarily stores the determination result of the m ′ × m ′ matrix in the RAM 7.

図10は、識別部26の内部構成を示すブロック図である。   FIG. 10 is a block diagram showing the internal configuration of the identification unit 26.

識別部26は、比較計数部34と判定部36とを有している。   The identification unit 26 includes a comparison counting unit 34 and a determination unit 36.

比較計数部34は、各m’×m’マトリクスの画素毎のV’pxを互いに比較する処理を行う。そして、比較計数部34は、各m’×m’マトリクス内におけるV’px値の「違い数」及び「同一値」の数をカウン卜する。そして、比較計数部34は、各m’×m’マトリクスにおけるV’px値の「違い数」及び「同一値」の数を判定部36に供給する。   The comparison counting unit 34 performs a process of comparing V′px for each pixel of each m ′ × m ′ matrix. Then, the comparison counting unit 34 counts the number of “differences” and “same values” of the V′px values in each m ′ × m ′ matrix. Then, the comparison counting unit 34 supplies the number of “difference numbers” and “same values” of the V′px values in each m ′ × m ′ matrix to the determination unit 36.

比較計数部34は、例えば、m’×m’マトリクス内で、最も数の多いV’pxの値の数を「同一値」の数として取得するようにしてもよい。また、比較計数部34は、例えば、同一値と判定した値と異なる値のV’pxの数を、「違い数」の数として取得するようにしてもよい。   For example, the comparison counting unit 34 may acquire the number of V′px values having the largest number in the m ′ × m ′ matrix as the number of “same values”. For example, the comparison counting unit 34 may acquire the number of V′px having a value different from the value determined to be the same value as the number of “differences”.

判定部36は、入力されたV’px値の違い数と同一値の数を、予め設定された閾値と比較する。そして、判定部36は、その比較結果に基づいて当該m’×m’マトリクスが写真領域か図表領域(色塗り有)かを判定する。   The determination unit 36 compares the number of the same values as the difference number of the input V′px values with a preset threshold value. Then, the determination unit 36 determines whether the m ′ × m ′ matrix is a photographic area or a chart area (colored) based on the comparison result.

図11は、判定部36で違い数及び同一数に応じた判定結果の例について示した説明図である。なお、図11では、m’×m’マトリクスの全画素数を「Di」と表している。   FIG. 11 is an explanatory diagram illustrating an example of determination results according to the number of differences and the same number in the determination unit 36. In FIG. 11, the total number of pixels in the m ′ × m ′ matrix is represented as “Di”.

図11に示すように、判定部36は、V’px値の違い数が1個で、かつ、同一値のV’pxの数が0.8Di以上となったm’×m’マトリクスいついては、図表領域(色塗り有)と判定する。また、図11に示すように、判定部36は、「V’px値の違い数が2個で、かつ、同一値のV’pxの数が0.4Di以上」、「V’px値の違い数が3個で、かつ、同一値のV’pxの数が0.26Di以上」、「V’px値の違い数が4個で、かつ、同一値のV’pxの数が0.2Di以上」、「V’px値の違い数が5個で、かつ、同一値のV’pxの数が0.16Di以上」、「V’px値の違い数が6個で、かつ、同一値のV’pxの数が0.13Di以上」、「V’px値の違い数が7個で、かつ、同一値のV’pxの数が0.11Di以上」のいずれかの条件を満たすm’×m’マトリクスについては図表領域(色塗り有)と判定する。さらに、判定部36は、「V’px値の違い数が10個以上で、かつ、同一値のV’pxの数が0.1Di以下」のm’×m’マトリクスについては写真領域と判定する。   As shown in FIG. 11, the determination unit 36 has an m ′ × m ′ matrix in which the number of differences in V′px values is one and the number of V′px having the same value is 0.8 Di or more. , It is determined to be a chart area (colored). Further, as shown in FIG. 11, the determination unit 36 determines that “the number of differences in the V ′ px value is two and the number of V ′ px having the same value is 0.4 Di or more”, “the V ′ px value is “The number of differences is 3 and the number of V′px having the same value is 0.26 Di or more”, “The number of differences in the V′px value is 4 and the number of V′px having the same value is 0. 2Di or more "," V'px value difference number is 5 and the same value V'px number is 0.16 Di or more "," V'px value difference number is 6 and the same The value of V′px of the value is 0.13 Di or more ”,“ the number of differences in the V′px value is 7 and the number of V′px of the same value is 0.11 Di or more ” The m ′ × m ′ matrix is determined to be a chart area (colored). Furthermore, the determination unit 36 determines that an m ′ × m ′ matrix having “the number of differences in V′px values is 10 or more and the number of V′px having the same value is 0.1 Di or less” is a photographic region. To do.

以上のように、判定部36は、V’px値の違い数が所定以下(7個以下)の場合、それぞれの違い数に対応するV’px値の同一数が閾値以上(Diとの比率で表される閾値以上)となったことを条件として、当該m’×m’マトリクスについて図表領域(色塗り有)と判定する。それぞれの違い数に対応する同一数の閾値は、例えば、予め実験等により好適な値を求めておき、ROM15等に記録しておくようにしてもよい。   As described above, when the number of differences in V′px values is equal to or less than a predetermined value (7 or less), the determination unit 36 determines that the same number of V′px values corresponding to each number of differences is equal to or greater than a threshold (ratio to Di The m ′ × m ′ matrix is determined to be a chart area (colored) on the condition that the threshold value is greater than or equal to the threshold value represented by (1). For the same number of thresholds corresponding to the number of differences, for example, a suitable value may be obtained in advance by experiments or the like and recorded in the ROM 15 or the like.

図12は、エッジ検出部11の内部構成を示すブロック図である。   FIG. 12 is a block diagram illustrating an internal configuration of the edge detection unit 11.

エッジ検出部11は、字エッジ検出部37と、図表エッジ検出部38と、写真エッジ検出部39とを有している。   The edge detection unit 11 includes a character edge detection unit 37, a chart edge detection unit 38, and a photograph edge detection unit 39.

字エッジ検出部37は、字領域記憶部24に記憶されている字領域の各画素のV1’zを用いて字の領域毎のエッジ部分(以下、「字エッジ」と呼ぶ)を切り出す(抽出する)。字エッジ検出部37が、字エッジをマッチングする範囲は、字領域及びその周辺の画素である。字エッジ検出部37の構成は、後述する図13で詳細に説明する。   The character edge detection unit 37 cuts out (extracts) an edge portion (hereinafter referred to as “character edge”) for each character region using V1′z of each pixel of the character region stored in the character region storage unit 24. To do). The range in which the character edge detection unit 37 matches the character edge is the character region and the surrounding pixels. The configuration of the character edge detector 37 will be described in detail with reference to FIG.

図表エッジ検出部38は、図表領域記憶部28に記憶されている図表領域の各画素のV2’zを用いて図形と表のエッジ部分(以下、「図表エッジ」と呼ぶ)をそれぞれ切り出す。図表エッジ検出部38が、図表エッジをマッチングする範囲は、図表領域及びその周辺である。図表エッジ検出部38の構成は、後述する図18で詳細に説明する。   The chart edge detection unit 38 uses the V2′z of each pixel in the chart area stored in the chart area storage unit 28 to cut out a graphic and a table edge portion (hereinafter referred to as “chart edge”). The range in which the chart edge detection unit 38 matches the chart edge is the chart area and its periphery. The configuration of the chart edge detector 38 will be described in detail with reference to FIG.

写真エッジ検出部39は、写真領域記憶部27に記憶されている写真領域の各画素のV3’zを用いて写真のエッジ部分(以下、「写真エッジ」と呼ぶ)を切り出す。写真エッジ検出部39が、写真エッジをマッチングする範囲は、写真領域及びその周辺である。写真エッジ検出部39の構成は、後の図21で詳細に説明する。   The photo edge detection unit 39 cuts out an edge portion of the photo (hereinafter referred to as “photo edge”) using V3′z of each pixel in the photo area stored in the photo area storage unit 27. The range in which the photograph edge detection unit 39 matches the photograph edge is the photograph area and its periphery. The configuration of the photograph edge detection unit 39 will be described in detail later with reference to FIG.

図13は、図12の字エッジ検出部37の内部構成について示した説明図である。   FIG. 13 is an explanatory diagram showing the internal configuration of the character edge detector 37 of FIG.

字エッジ検出部37は、字マッチング部40と、字エッジ判定部42とを有している。   The character edge detection unit 37 includes a character matching unit 40 and a character edge determination unit 42.

字マッチング部40は、字領域記憶部24に記憶されている画素毎のV1’z、及び、字領域の周辺の画素毎の2値化データ(1/0)を字エッジの検出用マトリクス(例えば、3×3マトリクス)にてマッチングする。検出用マトリクスのサイズは限定されないものであるが、以下では、縦3画素×横3画素のマトリクス(以下、「3×3マトリクス」とも呼ぶ)であるものとして説明する。   The character matching unit 40 uses V1′z for each pixel stored in the character region storage unit 24 and binary data (1/0) for each pixel around the character region as a character edge detection matrix ( For example, matching is performed using a 3 × 3 matrix. Although the size of the detection matrix is not limited, the following description will be made assuming that the detection matrix is a matrix of 3 vertical pixels × 3 horizontal pixels (hereinafter also referred to as “3 × 3 matrix”).

字マッチング部40は、3×3マトリクス(検査用マトリクス)でマッチングした各画素(注目画素I)の情報(1/0)を字エッジ判定部42に供給する。字マッチング部40のマッチング範囲は、後述する図14で詳細に説明する。   The character matching unit 40 supplies information (1/0) of each pixel (target pixel I) matched by a 3 × 3 matrix (inspection matrix) to the character edge determination unit 42. The matching range of the character matching unit 40 will be described in detail with reference to FIG.

字エッジ判定部42は、入力された3×3マトリクス(検査用マトリクス)内の注目画素Iの情報を用いて事前に設定された字エッジのマッチングパターンにて、注目画素Iに対して、字エッジか否か、または、字エッジ上の「白抜け(仮)」か否かを判定する。   The character edge determination unit 42 performs character alignment on the target pixel I with a character edge matching pattern set in advance using information on the target pixel I in the input 3 × 3 matrix (inspection matrix). It is determined whether or not it is an edge or “white spot (temporary)” on a character edge.

「白抜け(仮)」は、当該画素について、仮にトナーセーブを要因とする「白抜け」が発生したものと判定した結果を表すものである。なお、白抜け(仮)と判定された画素に係る字が、トナーセーブ検出部12により、最終的にトナーセーブされている字として検出された場合、当該白抜け(仮)の画素について「白抜け(真)」への判定見直し(白抜けの画素であることの確定処理)が行なわれるものとする。   “White blank (temporary)” represents the result of determining that “white blank” due to toner saving has occurred for the pixel. When a character related to a pixel determined to be blank (provisional) is finally detected as a character in which toner is saved by the toner save detection unit 12, “white” It is assumed that the review to “missing (true)” is performed (determining that the pixel is a blank pixel).

また、字エッジ判定部42は、判定した字エッジの画素によって組み立てられた1字を切り出す。字エッジ判定部42は、上述の1字を切り出す際に、当該1字の周囲(字エッジの周囲)が全て0の値で囲まれている領域を1字として検出する。なお、画像読取装置2では、大きい字や太字の画像(例えば、太さが3画素以上の線で描かれた文字)に対しては、字エッジ判定部42により切り出したエッジの内側についても当該字の画像(領域)の一部の画素として処理することができる。なお、字エッジのマッチングパターンについて、後述する図15で詳細に説明する。また、字エッジ上白抜け(仮)のマッチングパターンについては、後述する図16で詳細に説明する。   Moreover, the character edge determination part 42 cuts out one character assembled by the pixels of the determined character edge. When the character edge determination unit 42 cuts out one character described above, the character edge determination unit 42 detects, as one character, an area in which the periphery of the character (periphery of the character edge) is entirely surrounded by zero values. Note that in the image reading apparatus 2, the image inside the edge cut out by the character edge determination unit 42 is also applied to a large or bold image (for example, a character drawn with a line having a thickness of 3 pixels or more). It can be processed as a part of pixels of a character image (region). The character edge matching pattern will be described in detail later with reference to FIG. Further, the matching pattern of white spots on the character edge (temporary) will be described in detail with reference to FIG.

図14は、字マッチング部40による字エッジのマッチング範囲を示す説明図である。   FIG. 14 is an explanatory diagram showing a matching range of character edges by the character matching unit 40.

図14に示すように、字マッチング部40により字エッジをマッチングする範囲は、字の領域及びその周辺の画素(字の領域の画素に隣接する画素)となる。図14では、点線で囲われた範囲を、字マッチング部40により字エッジをマッチングする範囲として図示している。   As shown in FIG. 14, the range in which the character edge is matched by the character matching unit 40 is a character region and its surrounding pixels (pixels adjacent to the pixel in the character region). In FIG. 14, a range surrounded by a dotted line is illustrated as a range in which character edges are matched by the character matching unit 40.

図15は、字マッチング部40が行う字エッジのマッチングパターンの例について示した説明図である。   FIG. 15 is an explanatory diagram showing an example of a matching pattern for character edges performed by the character matching unit 40.

図15示す各マッチングパターンMPは、3×3マトリクス(検査用マトリクス)の形式となっている。図15では、2値化データが1となっている画素の数によって、3グループのマッチングパターンMPを図示している。   Each matching pattern MP shown in FIG. 15 has a 3 × 3 matrix (inspection matrix) format. In FIG. 15, three groups of matching patterns MP are illustrated depending on the number of pixels whose binarized data is 1.

図15では、2値化データが1となっている画素が3個含まれるマッチングパターンとして、16個のマッチングパターンMP101〜MP116が図示されている。図15では、2値化データが1となっている画素が4個含まれるマッチングパターンとして、12個のマッチングパターンMP117〜MP128が図示されている。さらに、図15では、2値化データが1となっている画素が5個含まれるマッチングパターンとして、12個のマッチングパターンMP129〜MP140が図示されている。   In FIG. 15, 16 matching patterns MP101 to MP116 are illustrated as matching patterns including three pixels whose binarized data is 1. In FIG. 15, twelve matching patterns MP117 to MP128 are illustrated as matching patterns including four pixels whose binarized data is 1. Further, in FIG. 15, twelve matching patterns MP129 to MP140 are illustrated as matching patterns including five pixels whose binarized data is 1.

なお、以下では、上述のマッチングパターンMP101〜MP140で、2値化データが1となっている注目画素Iを、「エッジ注目画素I」と呼ぶものとする。   Hereinafter, the pixel of interest I whose binarized data is 1 in the above-described matching patterns MP101 to MP140 is referred to as “edge pixel of interest I”.

字エッジ判定部42は、字マッチング部40から、上述の40個のマッチングパターンMP101〜MP140のうち、任意1つパターンと同様な3×3マトリクスが入力された場合に、その3×3マトリクス内で2値化データが1になっているエッジ注目画素Iを字エッジと判定するものとする。   When the 3 × 3 matrix similar to any one of the above 40 matching patterns MP101 to MP140 is input from the character matching unit 40, the character edge determination unit 42 includes the 3 × 3 matrix. Assume that an edge-of-edge pixel I whose binarized data is 1 is determined to be a character edge.

図16は、字エッジ上の白抜け(仮)を検出する処理の例を示す説明図である。   FIG. 16 is an explanatory diagram illustrating an example of processing for detecting white spots (temporary) on a character edge.

以下では、図16(g)に示すように、3×3マトリクスの各画素pxの識別子(番号)を割当てるものとする。図16(g)では、3×3マトリクスの上段の画素pxについて左から順に1〜3の番号を付している。また、図16(g)では、3×3マトリクスの中段の画素pxについて左から順に4〜6の番号を付している。さらに、図16(g)では、3×3マトリクスの下段の画素pxについて左から順に7〜9の番号を付している。以下では、番号が1〜9の画素pxを、それぞれpx1〜px9と呼ぶものとする。   In the following, it is assumed that an identifier (number) of each pixel px of the 3 × 3 matrix is assigned as shown in FIG. In FIG. 16G, numbers 1 to 3 are assigned in order from the left to the upper pixel px of the 3 × 3 matrix. In FIG. 16G, the pixels px in the middle stage of the 3 × 3 matrix are numbered 4 to 6 in order from the left. Further, in FIG. 16G, the numbers 7 to 9 are assigned in order from the left to the lower pixel px of the 3 × 3 matrix. Hereinafter, the pixels px having the numbers 1 to 9 are referred to as px1 to px9, respectively.

以下では、図16では、注目マトリクスにおいて白抜け(仮)と検出される画素にハッチ(斜線)を付して図示している。   In the following, in FIG. 16, pixels detected as white spots (temporary) in the matrix of interest are shown hatched (hatched).

図16(f)に示すように、図16では、図15のマッチングパターンMP101で、注目マトリクス(3×3マトリクス)から白抜け(仮)の検出を行う例について示している。マッチングパターンMP101では、画素px4、px5、px6が1となり字エッジと判定されている。   As shown in FIG. 16 (f), FIG. 16 shows an example in which white spot (temporary) is detected from the matrix of interest (3 × 3 matrix) with the matching pattern MP 101 of FIG. 15. In the matching pattern MP101, the pixels px4, px5, and px6 are 1 and are determined to be character edges.

字エッジ判定部42は、注目マトリクス(3×3マトリクス)が図16(a)〜図16(c)のような内容だった場合に、白抜け(仮)の検出を行う。   When the attention matrix (3 × 3 matrix) has the contents as shown in FIGS. 16A to 16C, the character edge determination unit 42 detects white spots (temporary).

図16(a)〜図16(c)に示す注目マトリクスは、マッチングパターンMP101と比較すると、2値化データが1となっている3つの画素のうち、1つの画素(画素px4〜px6のうちいずれか1つの画素)のみが0となっている。したがって、字エッジ判定部42は、図16(a)〜図16(c)に示すように、当該画素(マッチングパターンMP101と比較して2値化データが0となっている画素)を白抜け(仮)の画素として検出する。同様に、字エッジ判定部42は、図15のほかの39個マッチングパターンの任意1つパターンでも、図16(a)〜図16(c)のように白抜け(仮)を検出することが可能である。   The attention matrix shown in FIGS. 16A to 16C is one pixel (out of the pixels px4 to px6) out of the three pixels whose binarized data is 1 as compared with the matching pattern MP101. Only one of the pixels) is 0. Therefore, as shown in FIGS. 16A to 16C, the character edge determination unit 42 removes the pixel (the pixel whose binarized data is 0 compared to the matching pattern MP101). It is detected as a (provisional) pixel. Similarly, the character edge determination unit 42 can detect white spots (temporary) as shown in FIGS. 16A to 16C even in any one of the other 39 matching patterns of FIG. Is possible.

以上のように、字エッジ判定部42は、注目マトリクス(3×3マトリクス)と各マッチングパターンMPのエッジ注目画素Iとを比較し、1画素だけ値が異なる画素が存在する場合(1画素だけ値が0の画素が存在する場合)には、当該画素(マッチングパターンMPと比較して0となっている画素)を白抜け(仮)と判定するものとする。   As described above, the character edge determination unit 42 compares the attention matrix (3 × 3 matrix) with the edge attention pixel I of each matching pattern MP, and when there is a pixel having a different value by one pixel (only one pixel). In the case where a pixel having a value of 0 exists, the pixel (a pixel that is 0 compared to the matching pattern MP) is determined to be blank (temporary).

なお、上述の通り、図16(a)〜図16(c)のように白抜け(仮)の画素を有する字については、トナーセーブ検出部12にトナーセーブされている字として検出された場合、白抜け(仮)について白抜け(真)への判定見直し(白抜けの画素であることの確定処理)が行なわれるものとする。   As described above, as shown in FIGS. 16A to 16C, characters having white (provisional) pixels are detected by the toner save detection unit 12 as toner-saved characters. It is assumed that the white spot (temporary) is reexamined as a white spot (true) (a process for confirming that it is a white spot pixel).

また、字エッジ判定部42は、図16(d)、図16(e)に示すように、注目マトリクスに隣接するマトリクス(以下、「隣接マトリクス」と呼ぶ)のマッチング結果も考慮して、注目マトリクスの白抜け(仮)の画素を検出する。   In addition, as shown in FIGS. 16D and 16E, the character edge determination unit 42 considers the matching result of a matrix adjacent to the matrix of interest (hereinafter referred to as “adjacent matrix”). White pixels (temporary) in the matrix are detected.

図16(d)、図16(e)では、注目マトリクスM101と隣接マトリクスM102のマッチング結果(マッチングパターンMP101とのマッチング結果)を用いて、隣接マトリクスM102の白抜け(仮)を検出する例について示している。   In FIG. 16D and FIG. 16E, an example of detecting white spots (temporary) in the adjacent matrix M102 using the matching result between the attention matrix M101 and the adjacent matrix M102 (matching result with the matching pattern MP101). Show.

図16(d)、図16(e)に示すように、字エッジ判定部42は、注目マトリクスM101と、マッチングパターンMP101とを比較した結果、データが0となっているエッジ注目画素Iが2つ存在する場合(データが異なる画素が2つ以上存在する場合)、隣接マトリクスM102とマッチングパターンMP101とを比較する。そして、字エッジ判定部42は、隣接マトリクスM102とマッチングパターンMP101とを比較した結果、一致するエッジ注目画素I(データが1になっている画素)が2つ以上存在する場合、注目マトリクスM101で、データが0となっていた2つのエッジ注目画素I(データが0となっていた画素)を白抜け(仮)として検出する。   As shown in FIGS. 16D and 16E, the character edge determination unit 42 compares the attention matrix M101 with the matching pattern MP101, and as a result, the edge attention pixel I whose data is 0 is 2 When there are two pixels (when there are two or more pixels having different data), the adjacent matrix M102 is compared with the matching pattern MP101. Then, as a result of comparing the adjacent matrix M102 and the matching pattern MP101, the character edge determining unit 42 determines that there are two or more matching edge target pixels I (pixels whose data is 1) in the target matrix M101. The two edge target pixels I whose data is 0 (pixels whose data is 0) are detected as white spots (temporary).

図16(d)の例では、注目マトリクスM101と、マッチングパターンMP101とを比較すると、マッチングパターンMP101のエッジ注目画素Iのうち画素px5、px6のデータが0となっている。そして、字エッジ判定部42は、隣接マトリクスM102と、マッチングパターンMP101とを比較すると、一致するエッジ注目画素I(データが1になっている画素)が3つ(画素px4、px5、px6)存在することが認識できる。そのため、字エッジ判定部42は、注目マトリクスM101で、データが0となっていた2つのpx5、px6を、白抜け(仮)として検出する。   In the example of FIG. 16D, when the attention matrix M101 and the matching pattern MP101 are compared, the data of the pixels px5 and px6 among the edge attention pixels I of the matching pattern MP101 are 0. Then, when the character edge determination unit 42 compares the adjacent matrix M102 and the matching pattern MP101, there are three matching edge target pixels I (pixels whose data is 1) (pixels px4, px5, and px6). I can recognize that. Therefore, the character edge determination unit 42 detects two px5 and px6 whose data is 0 in the attention matrix M101 as white spots (temporary).

図16(e)の例についても同様に、注目マトリクスM101と隣接マトリクスM102のマッチング結果(マッチングパターンMP101とのマッチング結果)に基づいて、注目マトリクスM101の画素px4、px5が白抜け(仮)として検出される。同様に、字エッジ判定部42は、図15のほかの39個マッチングパターンの任意1つパターンでも、図16(d)、図16(e)のように白抜け(仮)を検出することが可能である。   Similarly, in the example of FIG. 16E, the pixels px4 and px5 of the attention matrix M101 are set as white spots (temporary) based on the matching result of the attention matrix M101 and the adjacent matrix M102 (matching result with the matching pattern MP101). Detected. Similarly, the character edge determination unit 42 can detect white spots (temporary) as shown in FIGS. 16D and 16E even in any one of the other 39 matching patterns of FIG. Is possible.

なお、上述の通り、図16(d)、図16(e)のように、白抜け(仮)の画素を有する字については、トナーセーブ検出部12にトナーセーブされている字として検出された場合、白抜け(仮)について白抜け(真)への判定見直し(白抜けの画素であることの確定処理)が行なわれるものとする。   Note that, as described above, as shown in FIGS. 16D and 16E, characters having blank (provisional) pixels are detected as toner-saved characters by the toner save detection unit 12. In this case, it is assumed that the review of white spot (provisional) to white spot (true) is reviewed (determining whether the pixel is a white spot).

図17(a)、図17(b)は、字エッジ検出部37により切り出した字「明」のイメージを示す図である。なお、図17(a)では、白抜け(仮)がない場合のイメージについて示しており、図17(b)では、白抜け(仮)があった場合のイメージについて示している。   FIG. 17A and FIG. 17B are diagrams showing an image of the character “bright” cut out by the character edge detection unit 37. FIG. 17A shows an image when there is no white spot (temporary), and FIG. 17B shows an image when there is white spot (temporary).

図17(a)では、「明」を構成する各画素はデータが1になっている画素(エッジ注目画素)によって組み立てられている。図17(a)では、「明」を構成する画像のエッジの周辺は全てデータが0の画素で固まれている。図17(b)では、「明」を構成する画像のエッジ上に、データが0になっている画素(白抜け(仮)の画素)が含まれている。   In FIG. 17A, each pixel constituting “bright” is assembled by a pixel whose data is 1 (edge attention pixel). In FIG. 17A, the periphery of the edge of the image constituting “bright” is all solidified by pixels with 0 data. In FIG. 17B, pixels whose data is 0 (empty (provisional) pixels) are included on the edge of the image forming “bright”.

図18は、図表エッジ検出部38の内部構成を示すブロック図である。   FIG. 18 is a block diagram showing the internal configuration of the chart edge detector 38.

図表エッジ検出部38は、図表マッチング部44と、図表エッジ判定部46とを有している。   The chart edge detection unit 38 includes a chart matching unit 44 and a chart edge determination unit 46.

図表マッチング部44は、図表領域記憶部28に記憶されている画素毎のV2’z、及び、図表領域の周辺の画素毎の2値化データ(1/0)を、図表エッジの検出用マトリクスにてマッチングする。なお、この実施形態において、図表エッジの検出用マトリクスは、3×3マトリクスより大きいマトリクスを使用するものとして説明する。   The chart matching unit 44 uses the V2′z for each pixel stored in the chart area storage unit 28 and the binarized data (1/0) for each pixel around the chart area as a matrix for detecting a chart edge. Match with. In this embodiment, description will be made assuming that a matrix for detecting a chart edge uses a matrix larger than a 3 × 3 matrix.

この実施形態の例では、図表マッチング部44は、図19に示すように、横6画素×縦3画素のマトリクスで構成されるマッチングパターンMP201、横3画素×縦6画素のマトリクスで構成されるマッチングパターンMP202、横6画素×縦6画素のマトリクスで構成されるマッチングパターンMP203、MP204を用いたマッチング処理を行うものとする。なお、各マッチングパターンMP201〜MP204において、データが1になっている注目画素IIを以下では、「エッジ注目画素II」と呼ぶものとする。   In the example of this embodiment, as shown in FIG. 19, the chart matching unit 44 is configured by a matching pattern MP201 configured by a matrix of horizontal 6 pixels × vertical 3 pixels and a matrix of horizontal 3 pixels × vertical 6 pixels. It is assumed that the matching process using the matching pattern MP202 and the matching patterns MP203 and MP204 configured by a matrix of 6 horizontal pixels × 6 vertical pixels is performed. In the matching patterns MP201 to MP204, the target pixel II whose data is 1 is hereinafter referred to as “edge target pixel II”.

以下では、図表マッチング部44が図表エッジの検出を行う対象となるマトリクスを、「図表マトリクス」とも呼ぶものとする。   In the following, the matrix for which the chart matching unit 44 detects the chart edge is also referred to as a “chart matrix”.

図表マッチング部44は、入力された図表マトリクスの各画素(注目画素II)と各マッチングパターンMP201〜MP204をマッチングして、その結果を図表エッジ判定部46に供給する。   The chart matching unit 44 matches each pixel (target pixel II) of the input chart matrix with each matching pattern MP201 to MP204, and supplies the result to the chart edge determination unit 46.

図表エッジ判定部46は、入力された図表マトリクス内の注目画素IIの情報(2値化データ)について、予め設定されたマッチングパターン(この実施形態では、マッチングパターンMP201〜MP204)を用いて、図表エッジか否か、または、図表エッジ上の白抜け(仮)か否かと判定する。また、図表エッジ判定部46は、判定した図表エッジの画素によって組み立てられた1つの図形/表を切り出す処理も行う。なお、図表エッジ判定部46において、マッチングに用いるマッチングパターンの数や、マッチングパターンごとのサイズは限定されないものである。   The chart edge determination unit 46 uses a preset matching pattern (in this embodiment, the matching patterns MP201 to MP204) for the information (binary data) of the target pixel II in the input chart matrix. It is determined whether or not it is an edge, or whether or not there is a white spot (temporary) on the chart edge. The chart edge determination unit 46 also performs a process of cutting out one figure / table assembled by the pixels of the determined chart edge. In the chart edge determination unit 46, the number of matching patterns used for matching and the size of each matching pattern are not limited.

なお、図表エッジ判定部46は、1つの図形/表を切り出す際に、当該図形/表の周囲(図形/表エッジの周囲)が全て0の値で囲まれている領域を1つの図形/表として検出する。また、なお、画像読取装置2では、太い線(例えば、太さが3画素以上の線)で描かれた図形/表に対しては、図表エッジ判定部46により切り出したエッジの内側(例えば、太線を構成する領域)についても当該図形/表の画像(領域)の一部の画素として処理することができる。   When the figure / edge determination unit 46 cuts out one figure / table, the figure / table is surrounded by a value of 0 around the figure / table (around the figure / table edge). Detect as. In addition, in the image reading apparatus 2, for a figure / table drawn with a thick line (for example, a line having a thickness of 3 pixels or more), the inside (for example, the edge of the edge cut out by the chart edge determination unit 46) A region constituting a thick line) can also be processed as a part of pixels of the graphic / table image (region).

図表エッジ判定部46は、図表マッチング部44から、マッチングパターンMP201〜MP204のいずれか1つと一致する情報(図表マトリクス)が入力された場合に、その図表マトリクス内で、データが1になっているエッジ注目画素IIを図表エッジと判定する。   When the information (chart matrix) that matches any one of the matching patterns MP201 to MP204 is input from the chart matching unit 44, the chart edge determination unit 46 has data 1 in the chart matrix. The edge attention pixel II is determined to be a chart edge.

図20は、図表エッジ判定部46が行う図表エッジ上の白抜け(仮)を検出する処理について示した説明図である。図20では、6×3マトリクスのマッチングパターンMP201を用いた白抜け(仮)の検出処理の例について示している。   FIG. 20 is an explanatory diagram showing processing for detecting white spots (temporary) on the chart edge performed by the chart edge determination unit 46. FIG. 20 shows an example of a white (temporary) detection process using a 6 × 3 matrix matching pattern MP201.

図20に示すように、図表エッジ判定部46は、図表マトリクスと、各マッチングパターンMPのエッジ注目画素IIとを比較し、異なる画素が3個以下の場合(エッジ注目画素IIのうちデータが0となっている画素が3個以下の場合)、当該画素(マッチングパターンMPのエッジ注目画素IIと比較してデータが0となっている画素)を白抜け(仮)と判定するものとする。   As shown in FIG. 20, the chart edge determination unit 46 compares the chart matrix with the edge target pixel II of each matching pattern MP, and when there are three or less different pixels (the data of the edge target pixel II has 0 data). When the number of pixels is 3 or less), the pixel (the pixel whose data is 0 compared to the edge target pixel II of the matching pattern MP) is determined to be blank (temporary).

図20(a)〜図20(d)の例では、図表マトリクスと、マッチングパターンMP201のエッジ注目画素IIと比較して、データが異なる画素が1〜3の範囲である。したがって、図表エッジ判定部46は、図20(a)〜図20(d)に示す図表マトリクスにおいて、マッチングパターンMP201のエッジ注目画素IIと比較して、データが異なる画素(データが0となっている画素)を白抜け(仮)として検出する。   In the example of FIGS. 20A to 20D, pixels having different data are in the range of 1 to 3 compared to the chart matrix and the edge target pixel II of the matching pattern MP201. Therefore, the chart edge determination unit 46 has different data in the chart matrix shown in FIGS. 20A to 20D compared to the edge target pixel II of the matching pattern MP201 (data becomes 0). Pixels) are detected as white spots (temporary).

図21は、写真エッジ検出部39の内部構成を示すブロック図である。   FIG. 21 is a block diagram illustrating an internal configuration of the photograph edge detection unit 39.

写真エッジ検出部39は、写真マッチング部48と、写真エッジ判定部49とを有している。   The photo edge detection unit 39 includes a photo matching unit 48 and a photo edge determination unit 49.

写真マッチング部48は、写真領域記憶部27に記憶されている画素毎のV3’z、及び、写真領域の周辺の画素毎の2値化データ(1/0)を、写真エッジの検出用マトリクスでマッチングする。   The photo matching unit 48 uses the V3′z for each pixel stored in the photo area storage unit 27 and the binarized data (1/0) for each pixel around the photo area as a matrix for detecting a photo edge. Match with.

写真マッチング部48で用いられる写真エッジの検出用マトリクスは、字エッジの検出用マトリクスと同様で、3×3マトリクス(横3画素×縦3画素のマトリクス)が用いられるものとする。以下では、写真マッチング部48で写真エッジのマッチング対象となるマトリクスを「写真マトリクス」と呼ぶものとする。また、以下では、写真エッジ検出用のマッチングパターンにおいて、データが1になっている注目画素IIIを以下では、「エッジ注目画素III」と呼ぶものとする。   The photo edge detection matrix used in the photo matching unit 48 is the same as the character edge detection matrix, and a 3 × 3 matrix (a matrix of 3 horizontal pixels × 3 vertical pixels) is used. In the following, the matrix that is subject to photo edge matching in the photo matching unit 48 is referred to as a “photo matrix”. In the following, the pixel of interest III whose data is 1 in the matching pattern for detecting a photo edge will be referred to as “edge pixel of interest III” below.

写真マッチング部48は、入力された写真マトリクスの各画素(注目画素III)と写真エッジ検出用のマッチングパターンをマッチングして、その結果を写真エッジ判定部49に供給する。   The photo matching unit 48 matches each pixel (target pixel III) of the input photo matrix with a matching pattern for detecting a photo edge, and supplies the result to the photo edge determining unit 49.

写真エッジ判定部49は、入力された写真マトリクス内の注目画素IIIの情報を用いて、事前に設定された写真エッジのマッチングパターンにて、注目画素IIIに対して、写真エッジか否か、または、写真エッジ上の白抜け(仮)か否かと判定する。また、写真エッジ判定部49は、判定した写真エッジの画素によって組み立てられた写真を切り出す。なお、画像読取装置2では、写真のエッジの周辺は全て0に固まれている場合に写真として検出される。   The photo edge determination unit 49 uses the information of the pixel of interest III in the input photo matrix to determine whether or not it is a photo edge with respect to the pixel of interest III in a preset photo edge matching pattern, or Then, it is determined whether or not there is a white spot (temporary) on the photo edge. In addition, the photograph edge determination unit 49 cuts out a photograph assembled by the pixels of the determined photograph edge. Note that in the image reading device 2, when the periphery of the edge of the photograph is all set to 0, it is detected as a photograph.

図22は、写真エッジ判定部49で用いられる写真エッジのマッチングパターンの例について示した説明図である。図22では、写真エッジのマッチングに用いられる16個のマッチングパターンMP301〜MP316が図示されている。   FIG. 22 is an explanatory diagram showing an example of a matching pattern for a photographic edge used in the photographic edge determination unit 49. In FIG. 22, 16 matching patterns MP301 to MP316 used for photo edge matching are illustrated.

写真エッジ判定部49が行う写真エッジ上の白抜け(仮)の検出を行う処理は、上述の字の白抜け(仮)の検出と同様の処理(字エッジ判定部42と同様の処理)により検出することができる。上述の通り、写真エッジ判定部49では、字エッジ判定部42と同様に全て3×3マトリクス単位で処理が行われるためである。   The process for detecting white spots (temporary) on the photo edge performed by the photo edge determining unit 49 is the same as the process for detecting the white spots (temporary) of the characters described above (the same process as the character edge determining unit 42). Can be detected. This is because, as described above, the photographic edge determination unit 49 performs processing in units of 3 × 3 matrix in the same manner as the character edge determination unit 42.

図23は、トナーセーブ検出部12の内部構成を示すブロック図である。   FIG. 23 is a block diagram showing the internal configuration of the toner save detection unit 12.

トナーセーブ検出部12は、字トナーセーブ検出部50と、図表トナーセーブ検出部51と、写真トナーセーブ検出部52とを有している。   The toner save detection unit 12 includes a character toner save detection unit 50, a chart toner save detection unit 51, and a photographic toner save detection unit 52.

字トナーセーブ検出部50は、RAM7に格納されている字領域の各画素のV1’pxを用いて、字毎にトナーセーブされているか否かを検出する。字トナーセーブ検出部50は、検出した字のトナーセーブの情報を、補正部13の字補正部69に供給する。字トナーセーブ検出部50の構成は、後述する図24で詳細に説明する。   The character toner save detection unit 50 uses the V1 ′ px of each pixel in the character area stored in the RAM 7 to detect whether or not toner is saved for each character. The character toner save detection unit 50 supplies toner save information of the detected character to the character correction unit 69 of the correction unit 13. The configuration of the character toner save detection unit 50 will be described in detail with reference to FIG.

図表トナーセーブ検出部51は、RAM7に格納されている図表領域の各画素のV2’pxを用いて、図や表毎にトナーセーブされているか否かを検出する。図表トナーセーブ検出部51は、検出した図表のトナーセーブの情報を、補正部13の図表補正部70に供給する。図表トナーセーブ検出部51の構成は、後述する図28で詳細に説明する。   The chart toner save detection unit 51 uses the V2′px of each pixel in the chart area stored in the RAM 7 to detect whether or not toner is saved for each chart or chart. The chart toner save detection unit 51 supplies the detected toner save information of the chart to the chart correction unit 70 of the correction unit 13. The configuration of the chart toner save detector 51 will be described in detail with reference to FIG.

写真トナーセーブ検出部52は、RAM7から写真領域の各画素のV3’pxを用いて写真にトナーセーブされているか否かを検出する。検出した写真のトナーセーブの情報は、補正部13の写真補正部71に供給される。写真トナーセーブ検出部52の構成は、後述する図29で詳細に説明する。   The photographic toner save detection unit 52 detects whether or not toner is saved in the photograph using the V7 'px of each pixel in the photographic area from the RAM 7. The detected toner save information of the photograph is supplied to the photograph correcting section 71 of the correcting section 13. The configuration of the photographic toner save detection unit 52 will be described in detail with reference to FIG.

図24は、字トナーセーブ検出部50の内部構成について示したブロック図である。   FIG. 24 is a block diagram showing the internal configuration of the character toner save detection unit 50.

字トナーセーブ検出部50は、字ヒストグラム部53と、字トナーセーブ検出部54と、字トナーセーブ率算出部55とを有している。   The character toner save detection unit 50 includes a character histogram unit 53, a character toner save detection unit 54, and a character toner save rate calculation unit 55.

字ヒストグラム部53は、1つ字のエッジと関連の全画素のV1’pxを用いて当該字に係るヒストグラムを作成する。字ヒストグラム部53の構成は、後述する図25で詳細に説明する。   The character histogram unit 53 uses the V1 ′ px of all pixels related to a single character edge to create a histogram related to the character. The configuration of the character histogram unit 53 will be described in detail with reference to FIG.

字トナーセーブ検出部54は、字ヒストグラム部53から供給された情報に基づいて各字の画像について、トナーセーブされているか否かを検出する。字トナーセーブ検出部54によりトナーセーブされているか否かを検出する条件は、後述する図26で示す。   The character toner save detection unit 54 detects whether or not toner is saved for each character image based on the information supplied from the character histogram unit 53. The condition for detecting whether or not the toner is saved by the character toner save detection unit 54 is shown in FIG.

字トナーセーブ率算出部55は、字トナーセーブ検出部54により字にトナーセーブされていることを検出した場合にその字のトナーセーブ率と、字のトナーセーブ率の平均値を算出する。字トナーセーブ率算出部55は、以下の(6)式、(7)式に基づいた処理を行う。   When the character toner save rate calculation unit 55 detects that the character toner save detection unit 54 detects that the character is saved in the character, the character toner save rate calculation unit 55 calculates an average value of the character toner save rate and the character toner save rate. The character toner save rate calculation unit 55 performs processing based on the following equations (6) and (7).

字トナーセーブ率算出部55は、トナーセーブされている1字のエッジの全画素において、以下の(6)式を用いて当該1字のトナーセーブ率per1を算出する。以下の(6)式において、「sum1」は、トナーセーブ率per1の算出対象となっている字の画素における最大濃度区間未満の各濃度区間の画素数の和を示している。以下の(6)式において、「係数1」は、「1/字毎のエッジの全画素の数」であるものとする。
1字のトナーセーブ率per1=sum1X係数1 …(6)
The character toner save rate calculation unit 55 calculates the toner save rate per1 of one character by using the following equation (6) in all pixels of the edge of one character where the toner is saved. In the following equation (6), “sum1” indicates the sum of the number of pixels in each density section that is less than the maximum density section in the pixel of the character that is the target of calculation of the toner save rate per1. In the following equation (6), “coefficient 1” is assumed to be “the number of all pixels of the edge for each 1 / character”.
1 character toner save rate per1 = sum1X coefficient 1 (6)

以下の(7)式において、「N字のトナーセーブ率の和」とはN字(N個の字)分のトナーセーブ率per1の和である。Nの値は限定されないものであるが、例えばN=10としてもよい。以下の(7)式における「係数2」は、1/Nであるものとする。例えば、N=10であれば「係数2=1/10=0.1」となる。
字のトナーセーブ率の平均値S1av
= (N字のトナーセーブ率の和)×(係数2) …(7)
In the following equation (7), “the sum of N-character toner save rates” is the sum of toner save rates per1 for N characters (N characters). The value of N is not limited, but may be N = 10, for example. “Coefficient 2” in the following equation (7) is assumed to be 1 / N. For example, if N = 10, “coefficient 2 = 1/10 = 0.1”.
Toner save rate average value S1av
= (Sum of N-shaped toner save rates) x (coefficient 2) (7)

字トナーセーブ率算出部55は、算出したS1avを、字補正部69に供給する。字トナーセーブ率算出部55の構成は、後述する図27で詳細に説明する。   The character toner save rate calculation unit 55 supplies the calculated S1av to the character correction unit 69. The configuration of the character toner save rate calculation unit 55 will be described in detail with reference to FIG.

図25は、字ヒストグラム部53の内部構成について示したブロック図である。   FIG. 25 is a block diagram showing the internal configuration of the character histogram unit 53.

字ヒストグラム部53は、計数部57と、閾値計算部56と、比較部58と、計数部59とを有している。   The character histogram unit 53 includes a counting unit 57, a threshold calculation unit 56, a comparison unit 58, and a counting unit 59.

計数部57は、入力された字毎のエッジの全画素のV1’pxを用いて、予め設定された各濃度区間で画素数をカウントする。計数部57は、カウントした各濃度区間内の画素数を、比較部58に供給する。   The counting unit 57 counts the number of pixels in each preset density interval using V1′px of all the pixels of the edge for each character. The counting unit 57 supplies the counted number of pixels in each density interval to the comparison unit 58.

閾値計算部56は、入力された字毎のエッジの全画素のデータ(値)に一定値(例えば、5%)を掛けることにより閾値th7を算出する。閾値計算部56は、例えば、以下の(8)式に基づいた処理を行う。閾値計算部56は、算出したth7を、比較部58にも供給する。
th7=1字のエッジの全画素の数X0.05 …(8)
The threshold value calculation unit 56 calculates the threshold value th7 by multiplying the data (value) of all the pixels of the edge for each character by a certain value (for example, 5%). For example, the threshold value calculation unit 56 performs processing based on the following equation (8). The threshold calculation unit 56 also supplies the calculated th7 to the comparison unit 58.
th7 = number of all pixels of one-character edge X0.05 (8)

比較部58は、入力された各濃度区間内の画素数をth7とそれぞれ比較する。比較部58は、比較した結果の情報を、計数部59に供給する。   The comparison unit 58 compares the number of input pixels in each density section with th7. The comparison unit 58 supplies information on the comparison result to the counting unit 59.

計数部59は、入力された比較結果の情報を用いてth7以上の画素数有りの濃度区間の数をカウントし、字トナーセーブ検出部54に供給する。   The counting unit 59 counts the number of density intervals with the number of pixels equal to or greater than th7 using the input comparison result information, and supplies it to the character toner save detection unit 54.

字トナーセーブ検出部54は、計数部59から供給された結果に基づくヒストグラムを利用して、字毎にトナーセーブされているか否かを検出する。   The character toner save detection unit 54 uses a histogram based on the result supplied from the counting unit 59 to detect whether or not toner is saved for each character.

図26は、字トナーセーブ検出部54で用いられるヒストグラム及びその分析条件の例について示した説明図である。図26(a)では、トナーセーブされている1字(例えば、黒字)のエッジに係るヒストグラムの例について示している。図26(b)は、字トナーセーブ検出部54が、字毎にトナーセーブされている否かを検出する条件を示す説明図である。   FIG. 26 is an explanatory diagram showing an example of a histogram used in the character toner save detection unit 54 and its analysis conditions. FIG. 26A shows an example of a histogram relating to an edge of one character (for example, black character) in which toner is saved. FIG. 26B is an explanatory diagram showing conditions for the character toner save detection unit 54 to detect whether or not toner is saved for each character.

そして、字トナーセーブ検出部54は、図26(a)に示すようなヒストグラムを、図26(b)のルールに従って分析することで、字ごとにトナーセーブされているか否かを検出する。   Then, the character toner save detection unit 54 analyzes the histogram as shown in FIG. 26A according to the rule of FIG. 26B to detect whether the toner is saved for each character.

図26(a)のヒストグラムでは、横軸が「V1’pxの濃度区間」、縦軸が「濃度区間に対する画素pxの数」となっている。図26(a)のヒストグラムでは、点線で、th7のレベルを示している。図26(a)に示すヒストグラムでは、th7以上の画素数有りの濃度区間の数が5個存在する。   In the histogram of FIG. 26A, the horizontal axis is “V1′px density interval”, and the vertical axis is “number of pixels px for the density interval”. In the histogram of FIG. 26A, the th7 level is indicated by a dotted line. In the histogram shown in FIG. 26A, there are five density sections with the number of pixels equal to or greater than th7.

言い換えると、この実施形態の字トナーセーブ検出部54は、図26(b)に示す条件に従って、上述のヒストグラムを分析することで、字毎にトナーセーブされている否かを検出する。   In other words, the character toner save detection unit 54 of this embodiment detects whether or not toner is saved for each character by analyzing the above-described histogram according to the condition shown in FIG.

図26(b)では、ルールが2つ記述されている。図26(b)では、1字にth7以上の画素数有りの濃度区間の数が1個あった場合に、当該字は、トナーセーブされていない字として検出するルールが記載されている。また、図26(b)では、1字に「th7以上の画素数有りの濃度区間」の数が2個あった場合にこの字は、トナーセーブされている字として検出するルールが記載されている。   In FIG. 26B, two rules are described. In FIG. 26B, a rule is described in which, when there is one density section with the number of pixels equal to or greater than th7 per character, the character is detected as a character that is not toner-saved. In FIG. 26 (b), there is a rule that when there are two “density areas with the number of pixels of th7 or more” in one character, this character is detected as a toner-save character. Yes.

すなわち、字トナーセーブ検出部54は、「th7以上の画素数有りの濃度区間の数」を用いて各字についてトナーセーブされている字であるか否かを判別する。   That is, the character toner save detection unit 54 determines whether or not each character is a character whose toner has been saved by using “the number of density intervals with the number of pixels equal to or greater than th7”.

図27は、字トナーセーブ率算出部55の内部構成を示すブロック図である。   FIG. 27 is a block diagram showing the internal configuration of the character toner save rate calculation unit 55.

字トナーセーブ率算出部55は、加算器60と、乗算器61と、加算器173と、乗算器176とを有している。   The character toner save rate calculation unit 55 includes an adder 60, a multiplier 61, an adder 173, and a multiplier 176.

加算器60は、上記(6)式の「最大濃度区間未満の各濃度区間の画素数」の和sum1を算出する加算器であり、入力された「最大濃度区間未満の各濃度区間の画素数」を用いてsum1を算出する。上述の「最大濃度区間未満の各濃度区間の画素数」は、計数部57によりカウントされた画素数を適用することができる。   The adder 60 is an adder for calculating the sum sum1 of “the number of pixels in each density section less than the maximum density section” in the above equation (6), and the input “number of pixels in each density section less than the maximum density section”. ”To calculate sum1. The number of pixels counted by the counting unit 57 can be applied to the “number of pixels in each density section less than the maximum density section” described above.

乗算器61は、加算器60から入力された「sum1」に「係数1」を掛けることにより字毎のトナーセーブ率を算出する。乗算器61は、算出した字毎のトナーセーブ率を、加算器173に供給する。   The multiplier 61 calculates a toner save rate for each character by multiplying “sum1” input from the adder 60 by “coefficient 1”. The multiplier 61 supplies the calculated toner save rate for each character to the adder 173.

加算器173は、上記(7)式の「N字のトナーセーブ率の和」を算出する加算器である。   The adder 173 is an adder that calculates the “sum of N-character toner save rates” in the equation (7).

乗算器176は、加算器173から入力された「トナーセーブ率の和」に「係数2」を掛けることによりS1avを算出する。乗算器176は、算出したS1avを、字補正部69に入力する。   The multiplier 176 calculates S1av by multiplying the “sum of toner save rates” input from the adder 173 by “coefficient 2”. The multiplier 176 inputs the calculated S1av to the character correction unit 69.

図28は、図表トナーセーブ検出部51の内部構成を示すブロック図である。   FIG. 28 is a block diagram showing an internal configuration of the chart toner save detection unit 51.

図表トナーセーブ検出部51は、図表ヒストグラム部62と、図表トナーセーブ検出部63と、図表トナーセーブ率算出部64とを有している。   The chart toner save detection unit 51 includes a chart histogram unit 62, a chart toner save detection unit 63, and a chart toner save rate calculation unit 64.

図表ヒストグラム部62は、1つ図/表のエッジと関連の全画素のV2’pxを用いてこの図/表のヒストグラムを作成する。図表ヒストグラム部62の構成(処理内容)は、上述の字ヒストグラム部53の構成と同様であるため、詳細な説明を省略する。   The chart / histogram section 62 creates a histogram of this chart / table by using V2'px of all pixels related to the edge of one chart / table. The configuration (processing contents) of the chart histogram unit 62 is the same as the configuration of the character histogram unit 53 described above, and thus detailed description thereof is omitted.

図表トナーセーブ検出部63は、図表ヒストグラム部62から入力された情報に基づいて各図/表がトナーセーブされているか否かを検出する。   The chart / toner save detection unit 63 detects whether or not each chart / table is toner-saved based on the information input from the chart histogram unit 62.

図表トナーセーブ検出部63が、各図/表についてトナーセーブされているか否かを検出する条件も、上述の図26(b)に示す2つ条件を適用することができるため、詳しい説明を省略する。   Since the two conditions shown in FIG. 26 (b) can be applied to the condition that the chart / toner save detection unit 63 detects whether or not the toner / save is saved for each figure / table, detailed description thereof is omitted. To do.

図表トナーセーブ率算出部64は、図表トナーセーブ検出部63により図/表にトナーセーブされていることが検出された図/表のトナーセーブ率を算出する。   The chart / toner save rate calculator 64 calculates the toner / save ratio of the chart / table in which the chart / save save detector 63 detects that the toner is saved in the chart / table.

図表トナーセーブ率算出部64は、以下の(9)式に基づく処理を行う。以下の(9)式において、「per2」は、1つ図/表のトナーセーブ率を示している。また、以下の(9)式において、「sum2」は、最大濃度区間未満の各濃度区間の画素数の和を示している。さらにまた、以下の(9)式において、「係数3」は、「1/図表毎のエッジの全画素の数」により求めることができる。
図/表のトナーセーブ率per2=sum2×係数3 …(9)
The chart toner save rate calculation unit 64 performs processing based on the following equation (9). In the following expression (9), “per2” indicates the toner save rate of one figure / table. In the following formula (9), “sum2” represents the sum of the number of pixels in each density section less than the maximum density section. Furthermore, in the following equation (9), “coefficient 3” can be obtained by “1 / number of all pixels of the edge for each chart”.
Toner save rate per2 = sum2 × factor 3 in the figure / table (9)

図表トナーセーブ率算出部64は、上記の(9)式に基づいて算出した「図/表のトナーセーブ率per2」を、図表補正部70に供給する。   The chart / toner save rate calculation unit 64 supplies the chart / table toner save rate per2 calculated based on the formula (9) to the chart correction unit 70.

図29は、写真トナーセーブ検出部52の内部構成を示すブロック図である。   FIG. 29 is a block diagram showing the internal configuration of the photographic toner save detection unit 52.

写真トナーセーブ検出部52は、写真ヒストグラム部65と、フィルタ部66と、写真トナーセーブ検出部68とを有している。   The photographic toner save detection unit 52 includes a photographic histogram unit 65, a filter unit 66, and a photographic toner save detection unit 68.

写真ヒストグラム部65は写真領域の全画素のV3’pxを用いて写真ヒストグラムを作成する。即ち、写真ヒストグラム部65は、V3’pxに対する画素数をカウントする処理を行う。   The photo histogram unit 65 creates a photo histogram using V3'px of all pixels in the photo area. That is, the photograph histogram unit 65 performs a process of counting the number of pixels with respect to V3′px.

フィルタ部66は、写真ヒストグラム部65により作成した写真ヒストグラムから、最も暗い分と最も明るい分にそれぞれある孤立したデータで、且つ、出現数の少ないデータ(出現数が所定以下のデータ)を除外する処理を行う。写真の画像において、上述のようなデータはノイズとなる可能性が高いためである。図30は、写真ヒストグラムの例について示した説明図である。図30では、写真ヒストグラムから除外されるデータ(最も暗い分と最も明るい分にそれぞれある孤立したデータで、且つ、出現数の少ないデータ)のイメージについて示している。図30に示すヒストグラムにおいて、写真ヒストグラムの横軸はV3’px(濃度)、縦軸は画素pxの数をそれぞれ示している。図30に示すヒストグラムにおいて、太い曲線は、写真ヒストグラム部65により作成された写真ヒストグラムを示している。図30に示すヒストグラムにおいて、点線(楕円)で囲まれている2つ部分のデータ(前記太い曲線から離れて孤立しているデータ)は、フィルタ部66で除外されるので、写真トナーセーブ検出部68に入力されない。すなわち、図30に示すように、フィルタ部66は、写真ヒストグラムから、上述のデータ(ノイズと推定されるデータ)を除外したものを、写真トナーセーブ検出部68に供給する。   The filter unit 66 excludes isolated data that is present in the darkest part and the brightest part from the photograph histogram created by the photograph histogram part 65 and data that has a small number of appearances (data whose number of appearances is not more than a predetermined value). Process. This is because the above-described data is likely to be noise in a photographic image. FIG. 30 is an explanatory diagram showing an example of a photographic histogram. FIG. 30 shows an image of data excluded from the photo histogram (isolated data in the darkest part and the brightest part, and data with a small number of appearances). In the histogram shown in FIG. 30, the horizontal axis of the photographic histogram indicates V3 'px (density), and the vertical axis indicates the number of pixels px. In the histogram shown in FIG. 30, the thick curve indicates the photographic histogram created by the photographic histogram unit 65. In the histogram shown in FIG. 30, two parts of data surrounded by a dotted line (ellipse) (data isolated from the thick curve) are excluded by the filter unit 66, so that the photographic toner save detection unit 68 is not input. That is, as shown in FIG. 30, the filter unit 66 supplies the photographic toner save detection unit 68 with the above-described data (data estimated to be noise) excluded from the photographic histogram.

写真トナーセーブ検出部68は、フィルタ部66から供給された写真ヒストグラムのデータと、予め設定された閾値th8を用いて、写真の画像ごとにトナーセーブされているか否かを検出する。写真トナーセーブ検出部68の構成は、後述の図31で詳細に説明する。   The photographic toner save detection unit 68 uses the photographic histogram data supplied from the filter unit 66 and a preset threshold th8 to detect whether or not toner is saved for each photo image. The configuration of the photographic toner save detection unit 68 will be described in detail with reference to FIG.

図31は、写真トナーセーブ検出部68の内部構成を示すブロック図である。   FIG. 31 is a block diagram showing the internal configuration of the photographic toner save detection unit 68.

写真トナーセーブ検出部68は、割り率算出部67と、検出部162と、判定部163とを有している。   The photographic toner save detection unit 68 includes a split rate calculation unit 67, a detection unit 162, and a determination unit 163.

割り率算出部67は、写真ヒストグラムに対してグレー(例えば、データが「127」の色)から明るい(例えば、データが「255」(最大値255)の色)までの濃度区間にあった画素数の和の「割り率」(「割合」;「比率」)を算出する。   The split ratio calculation unit 67 is the number of pixels in the density interval from gray (for example, the color of “127” data) to light (for example, the color of “255” (maximum value 255)) of the photo histogram. The "division rate" ("ratio"; "ratio") of the sum of

割り率算出部67は、以下の(10)式に基づく計算を行う。以下の(10)式において「sum3」は、上記濃度区間にあった画素数の和を示している。以下の(10)式において、「sum3」は、割り率算出部67内の図示せぬ加算器にて計算して得られるようにしてもよい。以下の(10)式において、「係数4」は、「1/写真ヒストグラムの全画素の数」を適用することができる。
割り率=sum3×係数4 …(10)
The split rate calculation unit 67 performs calculation based on the following equation (10). In the following formula (10), “sum3” represents the sum of the number of pixels in the density section. In the following equation (10), “sum3” may be obtained by calculation using an adder (not shown) in the split rate calculation unit 67. In the following equation (10), “1 / number of all pixels of the photo histogram” can be applied to the “coefficient 4”.
Split rate = sum3 × coefficient 4 (10)

割り率算出部67は、算出した「割り率」を、判定部163に供給する。   The split rate calculation unit 67 supplies the calculated “split rate” to the determination unit 163.

検出部162は、写真ヒストグラム上の暗い濃度区間にあった画素数の和「sum4」と「閾値th8」とを比較する処理を行う。閾値th8は、例えば、予めROM15等に設定しておくようにしてもよい。   The detection unit 162 performs a process of comparing the sum “sum4” of the number of pixels in the dark density section on the photograph histogram with the “threshold th8”. The threshold th8 may be set in advance in the ROM 15 or the like, for example.

写真ヒストグラムの暗い濃度区間は、例えば、濃度O〜20までの区間(濃度20以下の濃度区間)を適用するようにしてもよい。「sum4」は、検出部162内の加算器167により算出される。   For example, the dark density section of the photograph histogram may be a section from density O to 20 (density section of density 20 or less). “Sum4” is calculated by the adder 167 in the detection unit 162.

検出部162は、比較した結果(下記2つ結果のいずれか1つ)の情報を、判定部163に供給(出力)する。検出部162は、「sum4≧th8」の場合は「写真ヒストグラムの暗い濃度区間には画素数有り」と判断する。また、検出部162は、「sum4<th8」の場合、「写真ヒストグラムの暗い濃度区間には画素数無し」と判断する。検出部162は、例えば、「sum4≧th8」の場合検出結果として「1」を出力し、「sum4<th8」の場合検出結果として「0」を出力するようにしてもよい。   The detection unit 162 supplies (outputs) information on the result of comparison (any one of the following two results) to the determination unit 163. If “sum4 ≧ th8”, the detection unit 162 determines that “the number of pixels is in the dark density section of the photo histogram”. In addition, when “sum4 <th8”, the detection unit 162 determines that “the number of pixels is not in the dark density section of the photo histogram”. For example, the detection unit 162 may output “1” as the detection result when “sum4 ≧ th8”, and output “0” as the detection result when “sum4 <th8”.

判定部163は、割り率算出部67と検出部162から供給された情報に基づいて、各写真の画像についてトナーセーブされているか否かを判定する。   The determination unit 163 determines whether or not the toner of each image is saved based on the information supplied from the split rate calculation unit 67 and the detection unit 162.

図32は、判定部163が行う判定の判定条件及び判定結果について示した説明図である。   FIG. 32 is an explanatory diagram illustrating determination conditions and determination results of determination performed by the determination unit 163.

図32に示すように、判定部163は、割り率算出部67からのデータが「割り率60%以上」、且つ、検出部162からのデータが「sum4<th8」という条件を満たす写真については、トナーセーブされていると判定する。図32に示すように、判定部163は、上述の条件に合致しない写真の画像については、トナーセーブされていないと判定する。   As shown in FIG. 32, the determination unit 163 determines whether the data from the split rate calculation unit 67 satisfies the condition that “the split rate is 60% or more” and the data from the detection unit 162 satisfies “sum4 <th8”. It is determined that the toner is saved. As shown in FIG. 32, the determination unit 163 determines that toner saving is not performed on a photographic image that does not meet the above-described conditions.

判定部163は、判定結果(写真ごとにトナーセーブされているか否かの情報)を、写真補正部71に供給する。   The determination unit 163 supplies the determination result (information on whether toner is saved for each photo) to the photo correction unit 71.

写真補正部71は、判定部163から供給された判定結果に基づいて、各写真の写真ヒストグラムの補正を行う。   The photo correction unit 71 corrects the photo histogram of each photo based on the determination result supplied from the determination unit 163.

図33は、判定部163が行う判定処理(上述の図32に基づく判定処理)の検証を行うための説明図である。   FIG. 33 is an explanatory diagram for verifying the determination process (determination process based on FIG. 32 described above) performed by the determination unit 163.

図33(a)〜図33(d)では、それぞれ、トナーセーブされていない写真に基づく写真ヒストグラムと、当該写真をトナーセーブした場合の画像に基づく写真ヒストグラム(トナーセーブされている写真に基づく写真ヒストグラム)の例について示している。図33(a)〜図33(d)では、トナーセーブされていない写真ヒストグラムが太い実線で図示され、トナーセーブされているヒストグラムが太い点線で図示されている。   33A to 33D, respectively, a photo histogram based on a photo that has not been toner-saved, and a photo histogram based on an image when the photo is toner-saved (a photo based on a photo that has been toner-saved). An example of a histogram is shown. In FIG. 33A to FIG. 33D, a photo histogram in which toner is not saved is shown by a thick solid line, and a histogram in which toner is saved is shown by a thick dotted line.

図33(a)のトナーセーブされていない写真ヒストグラム(太い実線のヒストグラム)は、濃度のバランスが良い分布(中央(127)付近の濃度を頂点とする正規分布)となっている。   The photograph histogram (thick solid line histogram) in which toner is not saved in FIG. 33A is a distribution with a good density balance (a normal distribution having a density near the center (127) as a vertex).

図33(b)のトナーセーブされていない写真ヒストグラム(太い実線のヒストグラム)は、暗い濃度の区間の割合(中央(127)より暗い区間の割合)が大きくなっている。   In the photo histogram (thick solid line histogram) in FIG. 33 (b) where toner is not saved, the ratio of dark density sections (the ratio of dark sections from the center (127)) is large.

図33(c)のトナーセーブされていない写真ヒストグラム(太い実線のヒストグラム)は、グレーとなる区間の割合(中央(127)付近の割合)が大きくなっている。   In the photo histogram (thick solid line histogram) in FIG. 33 (c) where toner is not saved, the ratio of gray sections (ratio near the center (127)) is large.

図33(d)において、トナーセーブされていない写真ヒストグラム(太い実線のヒストグラム)は、明るい区間の割合(中央(127)より明るい区間の割合)が大きくなっている。   In FIG. 33 (d), the ratio of the bright section (the ratio of the section brighter than the center (127)) is large in the photo histogram (thick solid line histogram) where toner is not saved.

以上のように、図33(a)〜図33(d)では、それぞれ濃度のバランスが異なる写真について、トナーセーブされていない写真ヒストグラムと、トナーセーブされた写真ヒストグラムが図示されている。そして、出願人の実験の結果、図33(a)〜図33(d)の各グラフにおいて、トナーセーブされていない写真に基づく写真ヒストグラムと、トナーセーブされている写真に基づく写真ヒストグラムを比較すると、上述の図32で説明したトナーセーブされているか否かを判定する条件を全て満足することが分かった。すなわち、上述の図32で説明した条件は、検出対象となる写真の濃度のバランスに関わらず、トナーセーブされているか否かの検出に寄与することがわかった。   As described above, FIGS. 33 (a) to 33 (d) show the non-toner-saved photo histogram and the toner-save photo histogram for the photos with different density balances. As a result of the applicant's experiment, in each graph of FIG. 33A to FIG. 33D, when a photo histogram based on a photo not saved with toner is compared with a photo histogram based on a photo saved with toner. It has been found that all the conditions for determining whether or not the toner has been saved described with reference to FIG. 32 are satisfied. That is, it has been found that the condition described with reference to FIG. 32 contributes to the detection of whether or not the toner is saved regardless of the balance of the density of the photo to be detected.

図34は、補正部13の内部構成について示したブロック図である。   FIG. 34 is a block diagram showing the internal configuration of the correction unit 13.

補正部13は、字補正部69と、図表補正部70と、写真補正部71とを有している。   The correction unit 13 includes a character correction unit 69, a chart correction unit 70, and a photo correction unit 71.

字補正部69は、トナーセーブされている字の画像データを補正する。字補正部69は、字の補正データをRAM7に供給して記録させる。字補正部69の構成は、後述する図35で詳細に説明する。   The character correction unit 69 corrects the image data of the characters saved with toner. The character correction unit 69 supplies character correction data to the RAM 7 for recording. The configuration of the character correction unit 69 will be described in detail with reference to FIG.

図表補正部70は、トナーセーブされている図表の画像データを補正する。図表補正部70は、図表の補正データをRAM7に供給して記録させる。図表補正部70の構成は、後述する図37で詳細に説明する。   The chart correction unit 70 corrects the image data of the chart saved with toner. The chart correction unit 70 supplies the chart correction data to the RAM 7 for recording. The configuration of the chart correction unit 70 will be described in detail with reference to FIG.

写真補正部71は、トナーセーブされている写真の画像データを補正する。写真補正部71は、写真の補正データをRAM7に供給して記録させる。写真補正部71の構成は、後述する図39で詳細に説明する。   The photo correction unit 71 corrects image data of a photo saved with toner. The photographic correction unit 71 supplies photographic correction data to the RAM 7 for recording. The configuration of the photo correction unit 71 will be described in detail with reference to FIG.

図35は、字補正部69の内部構成を示すブロック図である。   FIG. 35 is a block diagram showing the internal configuration of the character correction unit 69.

字補正部69は、最小値算出部170と、補正率算出部168と、R色字補正部72と、G色字補正部73と、B色字補正部74とを有している。   The character correcting unit 69 includes a minimum value calculating unit 170, a correction rate calculating unit 168, an R color character correcting unit 72, a G color character correcting unit 73, and a B color character correcting unit 74.

最小値算出部170は、字のエッジ部分(以下、「字エッジ」と呼ぶ)の全画素のV1’pxでから最小値(最大濃度値)を算出する。   The minimum value calculation unit 170 calculates a minimum value (maximum density value) from V1′px of all pixels in the edge portion of the character (hereinafter referred to as “character edge”).

補正率算出部168は、字エッジの画素毎の補正率(以下、「補正率I」と呼ぶ)を算出する。補正率算出部168は、以下の(11)式に基づいて、補正率Iを算出する処理を行う。なお、以下の(11)式において「最大濃度値」は、最小値算出部170により算出された値を適用することができる。
補正率I
=(当該画素のV1’px−最大濃度値)/当該画素のV1’px …(11)
The correction rate calculation unit 168 calculates a correction rate for each pixel of the character edge (hereinafter referred to as “correction rate I”). The correction factor calculation unit 168 performs processing for calculating the correction factor I based on the following equation (11). In the following equation (11), the value calculated by the minimum value calculation unit 170 can be applied as the “maximum density value”.
Correction factor I
= (V1′px of the pixel−maximum density value) / V1′px of the pixel (11)

最小値算出部170で算出される最大濃度値と、補正率算出部168で算出される補正率Iと、字トナーセーブ率算出部55で算出されるS1avは、全てR色字補正部72/G色字補正部73/B色字補正部74に供給される。そして、R色字補正部72/G色字補正部73/B色字補正部74は、各字を構成する各画素の画像データR/G/Bに対して、補正する処理(画像補正処理)を行う。具体的には、R色字補正部72/G色字補正部73/B色字補正部74は、各字を構成する各画素の画像データR/G/Bに対して、所定の補正処理(例えば、後述する図36に定める補正処理)を実行する。   The maximum density value calculated by the minimum value calculation unit 170, the correction rate I calculated by the correction rate calculation unit 168, and S1av calculated by the character toner save rate calculation unit 55 are all R color character correction unit 72 /. It is supplied to the G color correction unit 73 / B color correction unit 74. Then, the R color correction unit 72 / G color correction unit 73 / B color correction unit 74 corrects the image data R / G / B of each pixel constituting each character (image correction processing). )I do. Specifically, the R color correction unit 72 / G color correction unit 73 / B color correction unit 74 performs predetermined correction processing on the image data R / G / B of each pixel constituting each character. (For example, correction processing defined in FIG. 36 described later) is executed.

図36は、R色字補正部72/G色字補正部73/B色字補正部74で行う補正処理の例について示した説明図である。なお、以下では、明度値算出部8及び字補正部69にて、予め「V1’px=画像データG」と設定されているものとして説明する。なお、明度値算出部8及び字補正部69において基準となる色はGに限定されず他の色としてもよい。言い換えると、字補正部69では、最大濃度値に補正する対象となる色(以下、「第1色」とも呼ぶ)がGに設定されているものとする。なお、最大濃度値に補正する対象となる色は、他の色としてもよい。   FIG. 36 is an explanatory diagram showing an example of correction processing performed by the R color correction unit 72 / G color correction unit 73 / B color correction unit 74. In the following description, it is assumed that “V1′px = image data G” is set in advance in the lightness value calculation unit 8 and the character correction unit 69. Note that the reference color in the lightness value calculation unit 8 and the character correction unit 69 is not limited to G, and may be another color. In other words, in the character correction unit 69, it is assumed that the color to be corrected to the maximum density value (hereinafter also referred to as “first color”) is set to G. Note that the color to be corrected to the maximum density value may be another color.

図36で示すように、R色字補正部72/G色字補正部73/B色字補正部74は、字エッジの1つ画素の画像データR、G、Bに対して下記のように画像補正を行なう。   As shown in FIG. 36, the R color correction unit 72 / G color correction unit 73 / B color correction unit 74 applies the following to image data R, G, B of one pixel of the character edge as follows. Perform image correction.

G色字補正部73は、字エッジの画素の画像データGが、最大濃度値未満である場合(当該画素が白抜け(真)である場合を含む)、当該画像データGのデータを最大濃度値に変更する補正を行う。以下では、補正後の画像データGを「補正データG」とも呼ぶ。   When the image data G of the pixel at the edge of the character is less than the maximum density value (including the case where the pixel is blank (true)), the G color correction unit 73 converts the data of the image data G to the maximum density. Perform correction to change to value. Hereinafter, the corrected image data G is also referred to as “correction data G”.

R色字補正部72は、字エッジの画素の画像データRのデータを、「この画素の画像データR×(1−この画素の補正率I)」に補正する処理を行う。   The R color correction unit 72 performs processing for correcting the data of the image data R of the pixel at the character edge to “image data R × (1−correction rate I of this pixel) of this pixel”.

B色字補正部74は、字エッジの画素の画像データBのデータを、「この画素の画像データB×(1−この画素の補正率I)」に補正する処理を行う。   The B color correction unit 74 performs processing for correcting the data of the image data B of the pixel of the character edge to “image data B × (1−correction rate I of this pixel)”.

図36で示すように、R色字補正部72/G色字補正部73/B色字補正部74は、字の内部の部分(以下、「字内部」と呼ぶ)の各画素の画像データR、G、Bに対して下記ように画像補正を行なう。R色字補正部72は、字内部の画素の画像データRのデータを、「この画素の画像データR×(1−S1av)」に補正する処理を行う。G色字補正部73は、字内部の画素の画像データGのデータを、「この画素の画像データG×(1−S1av)」に補正する処理を行う。B色字補正部74は、字内部の画素の画像データBのデータを、「この画素の画像データB×(1−S1av)」に補正する処理を行う。   As shown in FIG. 36, the R color correction unit 72 / G color correction unit 73 / B color correction unit 74 are image data of each pixel in an internal part of the character (hereinafter referred to as “character internal”). Image correction is performed on R, G, and B as follows. The R color correction unit 72 performs a process of correcting the image data R data of the pixels inside the character into “image data R × (1-S1av) of this pixel”. The G color correction unit 73 performs processing for correcting the image data G of the pixels inside the character to “image data G × (1-S1av) of this pixel”. The B color correction unit 74 performs processing for correcting the data of the image data B of the pixels inside the character into “image data B × (1-S1av) of this pixel”.

図37は、図表補正部70の内部構成を示すブロック図である。   FIG. 37 is a block diagram showing the internal configuration of the chart correction unit 70.

図表補正部70は、最小値算出部172と、補正率算出部171と、R色図表補正部77と、G色図表補正部78と、B色図表補正部79とを有している。   The chart corrector 70 includes a minimum value calculator 172, a correction rate calculator 171, an R color chart corrector 77, a G color chart corrector 78, and a B color chart corrector 79.

最小値算出部172は、各図/表のエッジの全画素のV2’pxで、その最小値(最大濃度値)を算出する。   The minimum value calculation unit 172 calculates the minimum value (maximum density value) by V2′px of all pixels at the edge of each figure / table.

補正率算出部171は、各図/表のエッジの画素毎の補正率(以下、「補正率II」と呼ぶ)を算出する。補正率算出部171は、以下の(12)式に基づく計算により、各図/表のエッジの画素毎の補正率IIを求めることができる。なお、以下の(12)式における「最大濃度値」は、最小値算出部172により算出された値を適用することができる。
補正率II
=(この画素のV2’px−最大濃度値)/この画素のV2’px …(12)
The correction rate calculation unit 171 calculates a correction rate for each pixel at the edge of each figure / table (hereinafter referred to as “correction rate II”). The correction factor calculation unit 171 can obtain the correction factor II for each pixel at the edge of each figure / table by calculation based on the following equation (12). Note that the value calculated by the minimum value calculation unit 172 can be applied to the “maximum density value” in the following equation (12).
Correction factor II
= (V2′px−maximum density value of this pixel) / V2′px of this pixel (12)

最小値算出部172により算出された最大濃度値と、補正率算出部171により算出された補正率IIと、図表トナーセーブ率算出部64により算出されたper2は、全てR色図表補正部77/G色図表補正部78/B色図表補正部79に供給される。R色図表補正部77/G色図表補正部78/B色図表補正部79は、各図/表の各画素の画像データR/G/Bに対して補正する処理(画像補正処理)を実行する。   The maximum density value calculated by the minimum value calculation unit 172, the correction rate II calculated by the correction rate calculation unit 171 and the per2 calculated by the chart toner save rate calculation unit 64 are all R color chart correction unit 77 /. This is supplied to the G color chart correction unit 78 / B color chart correction unit 79. The R color chart corrector 77 / G color chart corrector 78 / B color chart corrector 79 performs a process (image correction process) for correcting the image data R / G / B of each pixel in each figure / table. To do.

具体的には、R色図表補正部77/G色図表補正部78/B色図表補正部79は、各図/表を構成する各画素の画像データR/G/Bに対して、所定の補正処理(例えば、後述する図38に定める補正処理)を実行する。   Specifically, the R color chart correction unit 77 / G color chart correction unit 78 / B color chart correction unit 79 performs predetermined processing on the image data R / G / B of each pixel constituting each figure / table. Correction processing (for example, correction processing defined in FIG. 38 described later) is executed.

図38は、R色図表補正部77/G色図表補正部78/B色図表補正部79で行う補正処理の例について示した説明図である。なお、以下では、明度値算出部8及び図表補正部70にて、予め「V2’px=画像データG」と設定されているものとして説明する。言い換えると、図表補正部70では、最大濃度値に補正する対象となる色(以下、「第1色」とも呼ぶ)がGに設定されているものとする。なお、最大濃度値に補正する対象となる色は、他の色としてもよい。   FIG. 38 is an explanatory diagram showing an example of correction processing performed by the R color chart correction unit 77 / G color chart correction unit 78 / B color chart correction unit 79. In the following description, it is assumed that “V2′px = image data G” is set in advance in the lightness value calculation unit 8 and the chart correction unit 70. In other words, in the chart correction unit 70, it is assumed that the color to be corrected to the maximum density value (hereinafter also referred to as “first color”) is set to G. Note that the color to be corrected to the maximum density value may be another color.

図38で示すように、R色図表補正部77/G色図表補正部78/B色図表補正部79は、図表エッジの1つ画素の画像データR、G、Bに対して下記ように補正処理を行って、補正データR、G、Bを得る。   As shown in FIG. 38, the R color chart correction unit 77 / G color chart correction unit 78 / B color chart correction unit 79 corrects image data R, G, and B of one pixel at the chart edge as follows. Processing is performed to obtain correction data R, G, and B.

G色図表補正部78は、図表エッジの画素の画像データGが、最大濃度値未満である場合(当該画素が白抜け(真)である場合を含む)、当該画像データGのデータを最大濃度値に変更する補正を行う。   When the image data G of the pixel at the chart edge is less than the maximum density value (including the case where the pixel is blank (true)), the G color chart correction unit 78 converts the data of the image data G to the maximum density. Perform correction to change to value.

R色図表補正部77は、図表エッジの画素の画像データRのデータを、「この画素の画像データR×(1−この画素の補正率II)」に補正する処理を行う。   The R color chart correction unit 77 performs a process of correcting the image data R data of the pixel at the chart edge to “image data R × (1−correction rate II of this pixel)”.

B色図表補正部79は、図表エッジの画素の画像データBのデータを、「この画素の画像データB×(1−この画素の補正率II)」に補正する処理を行う。   The B color chart correction unit 79 performs processing for correcting the data of the image data B of the pixel at the chart edge to “image data B × (1−correction rate II of this pixel)”.

図38で示すように、R色図表補正部77/G色図表補正部78/B色図表補正部79は、図表エッジの内部(塗り色の領域(ベタ塗りされた領域)を含む)の部分(以下、「図表エッジの内部」と呼ぶ)の各画素の画像データR、G、Bに対して下記ように画像補正を行なう。R色図表補正部77は、図表エッジの内部の画素の画像データRのデータを、「この画素の画像データR×(1−per2)」に補正する処理を行う。G色図表補正部78は、図表エッジの内部の画素の画像データGのデータを、「この画素の画像データG×(1−per2)」に補正する処理を行う。B色図表補正部79は、図表エッジの内部の画素の画像データBのデータを、「この画素の画像データB×(1−per2)」に補正する処理を行う。   As shown in FIG. 38, the R color chart correction section 77 / G color chart correction section 78 / B color chart correction section 79 is a portion inside the chart edge (including the paint color area (solid-filled area)). Image correction is performed on the image data R, G, and B of each pixel (hereinafter referred to as “the inside of the chart edge”) as follows. The R color chart correction unit 77 performs processing for correcting the data of the image data R of the pixels inside the chart edge to “image data R × (1-per2) of this pixel”. The G color chart correction unit 78 performs processing for correcting the data of the image data G of the pixels inside the chart edge to “image data G × (1-per2) of this pixel”. The B color chart correction unit 79 performs a process of correcting the data of the image data B of the pixels inside the chart edge to “image data B × (1-per2) of this pixel”.

図39は、写真補正部71の内部構成を示すブロック図である。   FIG. 39 is a block diagram showing the internal configuration of the photo correction unit 71.

写真補正部71は、R色写真補正部80と、G色写真補正部81と、B色写真補正部82とを有している。   The photo correction unit 71 includes an R color photo correction unit 80, a G color photo correction unit 81, and a B color photo correction unit 82.

R色写真補正部80は、トナーセーブされている写真を構成する各画素の画像データRに対して、予め設定されたデータ(後述する「補正用トーンカーブ」)に基づく補正処理を行う。G色写真補正部81は、トナーセーブされている写真を構成する各画素の画像データGに対して、予め設定されたデータ(後述する「補正用トーンカーブ」)に基づく補正処理を行う。B色写真補正部82は、トナーセーブされている写真を構成する各画素の画像データBに対して、予め設定されたデータ(後述する「補正用トーンカーブ」)に基づく補正処理を行う。   The R-color photo correction unit 80 performs correction processing based on preset data (a “correction tone curve” to be described later) on the image data R of each pixel constituting the toner-saved photo. The G color photo correction unit 81 performs a correction process based on preset data (a “correction tone curve” to be described later) on the image data G of each pixel constituting the toner-saved photo. The B-color photo correction unit 82 performs correction processing based on preset data (a “correction tone curve” to be described later) on the image data B of each pixel constituting the toner-saved photo.

具体的には、写真補正部71では、濃度を濃くさせる補正用トーンカーブを用いて、トナーセーブされている写真の画像データR、G、Bの濃度をより向上させる補正処理を行う。   Specifically, the photo correction unit 71 performs correction processing for further improving the density of the image data R, G, and B of the photo saved with toner, using a correction tone curve for increasing the density.

図40は、R色写真補正部80/G色写真補正部81/B色写真補正部82で用いられる補正用トーンカーブの例について示した説明図である。   FIG. 40 is an explanatory diagram showing an example of a correction tone curve used in the R color photographic correction unit 80 / G color photographic correction unit 81 / B color photographic correction unit 82.

図40において、γは補正用トーンカーブの例について示している。また、図40において、γ’は、トナーセーブされているトーンカーブである。トナーセーブされている写真の画像データR、G、Bは補正用トーンカーブγにより変換された値に補正される。図40に示すように、入力値が同じ場合、γはγ’より濃度としての出力値が大きくなる。   In FIG. 40, γ represents an example of a correction tone curve. In FIG. 40, γ 'is a tone curve in which toner is saved. The image data R, G, and B of the photograph in which the toner is saved are corrected to values converted by the correction tone curve γ. As shown in FIG. 40, when the input values are the same, γ has a larger output value as a density than γ ′.

(A−2)実施形態の動作
次に、以上のような構成を有する実施形態の複合装置1の動作を説明する。
(A-2) Operation | movement of embodiment Next, operation | movement of the composite apparatus 1 of embodiment which has the above structures is demonstrated.

図41は、図2の複合装置1でカラーコピーする時にトナーセーブ検出及び補正の動作を示すフローチャートである。   FIG. 41 is a flowchart showing toner save detection and correction operations when color copying is performed by the multifunction apparatus 1 of FIG.

ユーザが原稿Pを原稿台84に載置し、操作パネル16上のトナーセーブ検出モードをオンに設置し、操作パネル16上図示せぬカラーコピーボタン177を押下すると、下記動作が開始する。   When the user places the document P on the document table 84, sets the toner save detection mode on the operation panel 16 to ON, and presses a color copy button 177 (not shown) on the operation panel 16, the following operation starts.

まず、イメージセンサユニット87が、白基準板85の下に到達する。そして、イメージセンサユニット87が、白基準板85を読み取って白板データR、G、Bが取得される。そして、イメージセンサユニット87が、原稿Pの前端白地の下に到達する。そして、イメージセンサユニット87が、原稿Pを読み取って、前端白地を含む原稿Pの原稿データR、G、Bを取得する(S1)。   First, the image sensor unit 87 reaches below the white reference plate 85. Then, the image sensor unit 87 reads the white reference plate 85 to acquire white plate data R, G, and B. Then, the image sensor unit 87 reaches under the white background of the front end of the document P. Then, the image sensor unit 87 reads the document P and acquires document data R, G, and B of the document P including the front end white background (S1).

次に、イメージセンサユニット87が、原稿Pの読み取りが終了したか否かを判定する(S2)。複合装置1は、原稿Pの読取が終了した場合、後述するステップS3から動作し、終了していない場合上述のステップS1に戻って原稿Pの読取を継続する。   Next, the image sensor unit 87 determines whether or not the reading of the original P has been completed (S2). When the reading of the document P is completed, the multifunction apparatus 1 starts from step S3 to be described later. When the reading is not completed, the multifunction apparatus 1 returns to the above-described step S1 and continues reading the document P.

原稿Pの読取が終了すると、複合装置1では、シェーディング部157により原稿データR、G、Bに対してシェーディング補正を実施され、画像データR、G、Bが取得される(S3)。   When the reading of the document P is completed, in the multifunction apparatus 1, the shading unit 157 performs shading correction on the document data R, G, and B, and acquires the image data R, G, and B (S3).

次に、閾値算出部9により閾値th0が算出される(S4)。   Next, the threshold value calculation unit 9 calculates the threshold value th0 (S4).

次に、領域切出部10により原稿Pから字領域、図表領域、写真領域がそれぞれ切り出される(S5)。   Next, a character area, a chart area, and a photograph area are cut out from the original P by the area cutout unit 10 (S5).

次に、字エッジ検出部37により、各字領域から字毎のエッジが切り出される。また、図表エッジ検出部38により、各図表領域から各図/表のエッジが切り出される。さらに、写真エッジ検出部39により、各写真領域から各写真のエッジが切り出される(S6)。   Next, the character edge detector 37 cuts out an edge for each character from each character region. Further, the chart / edge detector 38 cuts out the edge of each chart / table from each chart area. Furthermore, the edge of each photograph is cut out from each photograph area by the photograph edge detection unit 39 (S6).

次に、トナーセーブ検出部12により、各画像(字、図表、又は写真の画像)でトナーセーブされているか否かが確認される(S7)。具体的には、字トナーセーブ検出部50により各字がトナーセーブされているか否かが検出される。また、図表トナーセーブ検出部51により、各図/表がトナーセーブされているか否かが検出される。さらに、写真トナーセーブ検出部52により、各写真がトナーセーブされているか否かが検出される。   Next, the toner save detection unit 12 checks whether toner is saved in each image (character, chart, or photo image) (S7). Specifically, the character toner save detection unit 50 detects whether or not each character is toner-saved. In addition, the chart / toner save detection unit 51 detects whether each chart / table is toner-saved. Further, the photograph toner save detection unit 52 detects whether or not each photograph is saved with toner.

そして、トナーセーブ検出部12により、いずれかの画像(字、図表、又は写真の画像)でトナーセーブが検出された場合、補正部13は、トナーセーブが検出された各画像について補正する処理を行う(S8、S9)。具体的には、字補正部69は、トナーセーブが検出された字の画像データR、G、Bを補正して、字の補正データR、G、Bを取得する。また、図表補正部70は、トナーセーブが検出された図/表の画像データR、G、Bを補正して、図/表の補正データR、G、Bを取得する。さらに、写真補正部71は、トナーセーブが検出された写真の画像データR、G、Bを補正して、写真の補正データR、G、Bを取得する。   When the toner save detection unit 12 detects toner save in any of the images (characters, charts, or photographic images), the correction unit 13 performs processing for correcting each image in which the toner save is detected. Perform (S8, S9). Specifically, the character correction unit 69 corrects the character image data R, G, B for which toner save is detected, and acquires character correction data R, G, B. Further, the chart correction unit 70 corrects the image data R, G, and B of the chart / table where the toner save is detected, and acquires the chart / table correction data R, G, and B. Further, the photo correction unit 71 corrects the image data R, G, and B of the photo in which toner save is detected, and acquires the photo correction data R, G, and B.

次に、画像処理部14により、各領域の画像データR、G、B(トナーセーブされていた各領域の補正データR、G、Bを含む)が画像処理(プリンタ部18に供給可能な画像データに変換)される(S10)。   Next, the image processing unit 14 performs image processing (images that can be supplied to the printer unit 18) image data R, G, and B (including correction data R, G, and B of each region that has been toner saved) on each region. Converted into data) (S10).

次に、プリンタ部18により、画像処理部14から供給された各領域の画像データR、G、B(画像処理後の補正データR、G、Bを含む)に基づく画像が用紙93に印刷され(S11)一連のコピーの処理が終了する。具体的には、プリンタ部18は、原稿Pの画像データR、G、B(上述のステップS10で画像処理された補正データR、G、Bを含む)を印刷用データK、Y、M、Cに変換する。そして、プリンタ部18は、印刷用データK、Y、M、Cを、それぞれLEDヘッド131、132、133、134に入力し、画像形成ユニット200K、200Y、200M、200Cにトナー像を形成させる。そして、プリンタ部18は、画像形成ユニット200K、200Y、200M、200Cで形成されたトナー像を、それぞれ用紙93に転写させる。そして、プリンタ部18は、定着ユニット115を制御して、用紙93上のカラーのトナー画像を定着させた後、用紙93をスタッカ121まで搬送する。   Next, the printer unit 18 prints an image based on the image data R, G, B (including correction data R, G, B after image processing) of each region supplied from the image processing unit 14 on the sheet 93. (S11) A series of copy processing ends. Specifically, the printer unit 18 converts the image data R, G, and B of the document P (including the correction data R, G, and B image-processed in step S10 described above) to the print data K, Y, M, and Convert to C. The printer unit 18 inputs the printing data K, Y, M, and C to the LED heads 131, 132, 133, and 134, respectively, and causes the image forming units 200K, 200Y, 200M, and 200C to form toner images. Then, the printer unit 18 transfers the toner images formed by the image forming units 200K, 200Y, 200M, and 200C to the sheet 93, respectively. Then, the printer unit 18 controls the fixing unit 115 to fix the color toner image on the sheet 93 and then conveys the sheet 93 to the stacker 121.

(A−3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of Embodiment According to this embodiment, the following effects can be achieved.

この実施形態の複合装置1は、カラーの原稿Pをカラーモードで読み取るときにトナーセーブ検出モードをオン(例えば、操作パネル16の操作によりフラグFをオン)させると、領域切出部10で原稿の画像から字領域、図表領域と写真領域をそれぞれ切り出す。そして、字エッジ検出部37が、切り出した字領域から字毎のエッジデータを抽出する。そして、字トナーセーブ検出部50が、抽出した字毎のエッジデータを用いて、字毎のヒストグラムを作成し、作成した前記ヒストグラムに閾値th7以上の画素数有りの濃度区間の数を計数する。そして、字トナーセーブ検出部50は、字毎にトナーセーブされているかを検出する。そして、字補正部69が、検出したトナーセーブされている字の画像データに対して補正処理を行なう。また、この実施形態の複合装置1では、切り出した図表領域と写真領域に対しても、トナーセーブ検出及び補正処理を実行する。   In the multi-function apparatus 1 of this embodiment, when the toner save detection mode is turned on when the color original P is read in the color mode (for example, the flag F is turned on by operating the operation panel 16), the area cutting unit 10 A character area, a chart area, and a photograph area are cut out from the image. Then, the character edge detection unit 37 extracts edge data for each character from the cut character region. Then, the character toner save detection unit 50 creates a histogram for each character using the extracted edge data for each character, and counts the number of density sections having the number of pixels equal to or greater than the threshold th7 in the created histogram. Then, the character toner save detection unit 50 detects whether toner is saved for each character. Then, the character correction unit 69 performs correction processing on the detected image data of the character whose toner has been saved. Further, in the composite apparatus 1 of this embodiment, toner save detection and correction processing is executed for the cut chart area and photograph area.

以上のように、この実施形態の複合装置1では、字、図表、写真のそれぞれについて、色を問わず、トナーセーブされているか否かを検出して補正(例えば、濃度を濃くする等の補正)を行う。これにより、この実施形態の複合装置1では、トナーセーブされている原稿の画像を読取った場合であっても、トナーセーブされていない原稿を読込んだ場合に相当する品質の画像を取得することができる。   As described above, in the composite apparatus 1 according to this embodiment, correction is performed by detecting whether or not toner is saved for each character, chart, and photograph regardless of color (for example, correction such as increasing the density). )I do. As a result, in the multifunction apparatus 1 of this embodiment, even when an image of a document that has been saved with toner is read, an image having a quality equivalent to that when a document that has not been saved with toner is read is acquired. Can do.

(B)他の実施形態
本発明は、上記の実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(B) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.

(B−1)上記の実施形態では、複合装置1が備える画像読取装置2のイメージセンサユニットは、CISタイプであるものとして説明したが、具体的な読取方式は限定されないものである。例えば、複合装置1が備える画像読取装置2のイメージセンサユニットとして、CCD(ChargeCoupledDevice)タイプを適用するようにしてもよい。   (B-1) In the above embodiment, the image sensor unit of the image reading apparatus 2 included in the composite apparatus 1 has been described as being of the CIS type, but the specific reading method is not limited. For example, a CCD (Charge Coupled Device) type may be applied as the image sensor unit of the image reading apparatus 2 included in the composite apparatus 1.

(B−2)上記の実施形態の複合装置1を構成する画像読取装置2では、FBを備えるものとして説明したが、自動原稿送り部(AutomaticDocumentFeeder)をさらに備えるようにしてもよい。   (B-2) The image reading apparatus 2 constituting the composite apparatus 1 of the above embodiment has been described as including the FB. However, the image reading apparatus 2 may further include an automatic document feeder (Automatic Document Feeder).

(B−3)上記の実施形態では、本発明の画像処理装置、画像読取装置、及び画像形成装置を、画像読取装置2及び画像形成装置3を備える複合装置1に適用する例について説明したが、その他の原稿を読取った画像を処理する画像処理装置を備える装置(例えば、FAX、コピー機等の装置)に適用することができる。また、本発明の画像処理装置及び画像読取装置を、画像読取装置2のような単なる画像読取装置(例えば、スキャナ)に適用するようにしてもよい。   (B-3) In the above embodiment, the example in which the image processing apparatus, the image reading apparatus, and the image forming apparatus of the present invention are applied to the composite apparatus 1 including the image reading apparatus 2 and the image forming apparatus 3 has been described. The present invention can be applied to an apparatus (for example, an apparatus such as a FAX or a copying machine) provided with an image processing apparatus that processes an image obtained by reading another document. Further, the image processing apparatus and the image reading apparatus of the present invention may be applied to a simple image reading apparatus (for example, a scanner) such as the image reading apparatus 2.

1…複合装置、2…画像読取装置、3…画像形成装置、4…FB、5…CPU、6…読取部、7…RAM、8…明度値算出部、9…閾値算出部、10…領域切出部、11…エッジ検出部、12…トナーセーブ検出部、13…補正部、14…画像処理部、15…ROM、16…操作パネル、17…バス、18…プリンタ部、19…PC、23…領域マッチング部、24…字領域記憶部、25…図表領域記憶部、26…識別部、27…写真領域記憶部、28…図表領域記憶部、29…計数部、30…減算器、31…比較部、32…計数部、33…領域判定部、34…比較計数部、36…判定部、37…字エッジ検出部、38…図表エッジ検出部、39…写真エッジ検出部、40…字マッチング部、42…字エッジ判定部、44…図表マッチング部、46…図表エッジ判定部、48…写真マッチング部、49…写真エッジ判定部、50…字トナーセーブ検出部、51…図表トナーセーブ検出部、52…写真トナーセーブ検出部、53…字ヒストグラム部、54…字トナーセーブ検出部、55…字トナーセーブ率算出部、56…閾値計算部、57…計数部、58…比較部、59…計数部、60…加算器、61…乗算器、62…図表ヒストグラム部、63…図表トナーセーブ検出部、64…図表トナーセーブ率算出部、65…写真ヒストグラム部、66…フィルタ部、67…割り率算出部、68…写真トナーセーブ検出部、69…字補正部、70…図表補正部、71…写真補正部、72…R色字補正部、73…G色字補正部、74…B色字補正部、77…R色図表補正部、78…G色図表補正部、79…B色図表補正部、80…R色写真補正部、81…G色写真補正部、82…B色写真補正部、83…トップカバー、84…原稿台、85…白基準板、86…コンタクトガラス、87…イメージセンサユニット、88…ホームセンサ、89…プーリ、90…搬送ベルト、91…ステッピングモータ、92…用紙収容カセット、93…用紙、94…ホッピングローラ、95…ホッピングモータ、96…ピンチローラ、97…レジストローラ、98…用紙搬送経路、99…センサ、100…ピンチローラ、101…レジストローラ、102…センサ、103…ピンチローラ、104…レジストローラ、105…レジストモータ、106…センサ、107…トナーカートリッジ、108…ドラムカートリッジ、109…感光体ドラム、110…転写ローラ、111…従動ローラ、112…駆動ローラ、113…搬送ベルト、114…定着モータ、115…定着ユニット、116…加圧ローラ、117…ヒートローラ、118…センサ、119…ピンチローラ、120…排出ローラ、121…スタッカ、122…転写ローラ、123…転写ローラ、124…転写ローラ、125…サーミスタ、126…クリーニングブレード、127…廃トナータンク、128…濃度センサ、130…ベルトモータ、131、132、133、134…LEDヘッド、135…帯電ローラ、136…現像ローラ、137…トナー供給ローラ、142…高圧電源、143…ヒータ、144…エンジン制御部、145…インターフェースケーブル、146…I/F部、148…ロッドレンズ、149…導光板、150…LED光源、151…CIS制御部、152…光源制御部、154…画素明度値算出部、155…ライン明度値算出部、156…複数ライン明度値算出部、157…シェーディング部、158…I/F部、159…I/F部、160…画像処理部、161…低圧電源、162…検出部、163…判定部、167…加算器、168…補正率算出部、170…最小値算出部、171…補正率算出部、172…最小値算出部、173…加算器、176…乗算器、177…カラーコピーボタン、200、200C、200K、200M、200Y…画像形成ユニット。   DESCRIPTION OF SYMBOLS 1 ... Composite apparatus, 2 ... Image reading apparatus, 3 ... Image forming apparatus, 4 ... FB, 5 ... CPU, 6 ... Reading part, 7 ... RAM, 8 ... Lightness value calculation part, 9 ... Threshold value calculation part, 10 ... Area | region Extraction unit, 11 ... edge detection unit, 12 ... toner save detection unit, 13 ... correction unit, 14 ... image processing unit, 15 ... ROM, 16 ... operation panel, 17 ... bus, 18 ... printer unit, 19 ... PC, DESCRIPTION OF SYMBOLS 23 ... Area matching part, 24 ... Character area memory | storage part, 25 ... Chart area memory | storage part, 26 ... Identification part, 27 ... Photo area memory | storage part, 28 ... Chart area memory | storage part, 29 ... Counting part, 30 ... Subtractor, 31 ... Comparison part, 32 ... Counter part, 33 ... Area determination part, 34 ... Comparison counting part, 36 ... Determination part, 37 ... Character edge detection part, 38 ... Chart edge detection part, 39 ... Photo edge detection part, 40 ... Character Matching unit, 42 ... character edge determining unit, 44 ... chart matching unit 46 ... Chart edge determination unit, 48 ... Photo matching unit, 49 ... Photo edge determination unit, 50 ... Character toner save detection unit, 51 ... Chart toner save detection unit, 52 ... Photo toner save detection unit, 53 ... Character histogram unit, 54 ... Character toner save detection unit, 55 ... Character toner save rate calculation unit, 56 ... Threshold calculation unit, 57 ... Counter, 58 ... Comparator, 59 ... Counter, 60 ... Adder, 61 ... Multiplier, 62 ... Chart histogram section, 63 ... Chart toner save detection section, 64 ... Chart toner save ratio calculation section, 65 ... Photo histogram section, 66 ... Filter section, 67 ... Split ratio calculation section, 68 ... Photo toner save detection section, 69 ... Character Correction unit, 70 ... Chart correction unit, 71 ... Photo correction unit, 72 ... R color correction unit, 73 ... G color correction unit, 74 ... B color correction unit, 77 ... R color chart correction unit, 78 ... G Color chart correction 79 ... B color chart correction unit, 80 ... R color photo correction unit, 81 ... G color photo correction unit, 82 ... B color photo correction unit, 83 ... Top cover, 84 ... Document platen, 85 ... White reference plate, 86 Reference glass, 87 ... Image sensor unit, 88 ... Home sensor, 89 ... Pulley, 90 ... Conveyor belt, 91 ... Stepping motor, 92 ... Paper storage cassette, 93 ... Paper, 94 ... Hopping roller, 95 ... Hopping motor, 96 ... Pinch roller, 97 ... Registration roller, 98 ... Paper transport path, 99 ... Sensor, 100 ... Pinch roller, 101 ... Registration roller, 102 ... Sensor, 103 ... Pinch roller, 104 ... Registration roller, 105 ... Registration motor, 106 ... Sensor 107... Toner cartridge 108. Drum cartridge 109 109 Photosensitive drum 110. Transfer roller 111... Driven roller 112... Driving roller 113 113 transport belt 114 fixing motor 115 fixing unit 116 pressure roller 117 heat roller 118 sensor 119 pinch roller 120 Ejection roller, 121 ... Stacker, 122 ... Transfer roller, 123 ... Transfer roller, 124 ... Transfer roller, 125 ... Thermistor, 126 ... Cleaning blade, 127 ... Waste toner tank, 128 ... Concentration sensor, 130 ... Belt motor, 131, 132 133, 134 ... LED head, 135 ... charging roller, 136 ... developing roller, 137 ... toner supply roller, 142 ... high voltage power supply, 143 ... heater, 144 ... engine control unit, 145 ... interface cable, 146 ... I / F unit 148 ... Rod lens, 149 ... Light guide plate DESCRIPTION OF SYMBOLS 150 ... LED light source, 151 ... CIS control part, 152 ... Light source control part, 154 ... Pixel brightness value calculation part, 155 ... Line brightness value calculation part, 156 ... Multiple line brightness value calculation part, 157 ... Shading part, 158 ... I / F unit, 159 ... I / F unit, 160 ... image processing unit, 161 ... low voltage power supply, 162 ... detection unit, 163 ... determination unit, 167 ... adder, 168 ... correction rate calculation unit, 170 ... minimum value calculation unit 171 ... Correction rate calculation unit, 172 ... Minimum value calculation unit, 173 ... Adder, 176 ... Multiplier, 177 ... Color copy button, 200, 200C, 200K, 200M, 200Y ... Image forming unit.

Claims (11)

原稿の画像がトナーセーブされているか否かを検出する検出手段と、
前記検出手段によりトナーセーブが検出された画像について、補正処理を行う補正手段と
を備えることを特徴とする画像処理装置。
Detecting means for detecting whether the image of the document is toner-save;
An image processing apparatus comprising: correction means for performing correction processing on an image for which toner save has been detected by the detection means.
前記検出手段は、
前記原稿の画像から、字毎のエッジを切り出す字エッジ検出部と、
前記字エッジ検出部により切り出された字のエッジの各画素の濃度データを用いて、当該字のヒストグラムを作成し、作成した前記ヒストグラムに閾値以上の画素が存在する濃度区間の数を計数し、その計数結果を利用して、当該字についてトナーセーブされているか否かを検出する字トナーセーブ検出部と
を有することを特徴とする請求項1に記載の画像処理装置。
The detection means includes
A character edge detection unit that extracts an edge for each character from the image of the original;
Using the density data of each pixel of the edge of the character cut out by the character edge detection unit, create a histogram of the character, and count the number of density sections in which the pixel having a threshold value or more exists in the created histogram, The image processing apparatus according to claim 1, further comprising: a character toner save detection unit that detects whether toner is saved for the character by using the count result.
前記補正手段は、
トナーセーブされている字のエッジの画素を構成する第1の色の明度で示される第1色画像データに対して、最大濃度値未満のデータを最大濃度値に補正し、前記画素を構成する前記第1の色以外の色の明度で示される第2色画像データに対して、前記第1色画像データを用いて算出した補正率に基づいて補正する字補正部を有する
ことを特徴とする請求項2に記載の画像処理装置。
The correction means includes
With respect to the first color image data indicated by the brightness of the first color that constitutes the pixel of the edge of the character that is saved by toner, the data that is less than the maximum density value is corrected to the maximum density value, thereby configuring the pixel. A character correction unit that corrects the second color image data indicated by the brightness of a color other than the first color based on a correction rate calculated using the first color image data. The image processing apparatus according to claim 2.
前記検出手段は、前記字トナーセーブ検出部によりトナーセーブされていると判定された字のトナーセーブ率を算出する字トナーセーブ率算出部をさらに備え、
前記補正手段は、トナーセーブされている字の内部の画素を構成する色の明度で示される画像データに対して、前記字トナーセーブ率算出部により算出されたトナーセーブ率の平均値に基づいて補正する
ことを特徴とする請求項3に記載の画像処理装置。
The detection means further includes a character toner save rate calculation unit that calculates a toner save rate of the character determined to be toner saved by the character toner save detection unit,
The correction means is based on the average value of the toner save rate calculated by the character toner save rate calculation unit for the image data indicated by the lightness of the color constituting the pixels inside the toner saved character. The image processing apparatus according to claim 3, wherein correction is performed.
前記検出手段は、
前記原稿の画像から、図又は表毎のエッジを切り出す図表エッジ検出部と、
前記図表エッジ検出部により切り出された図又は表のエッジの各画素の濃度データを用いて、当該図又は表のヒストグラムを作成し、作成した前記ヒストグラムに閾値以上の画素が存在する濃度区間の数を計数し、その計数結果を利用して、当該図又は表についてトナーセーブされているか否かを検出する図表トナーセーブ検出部と
を有することを特徴とする請求項1に記載の画像処理装置。
The detection means includes
A chart edge detector that cuts out an edge for each figure or chart from the image of the document;
Using the density data of each pixel at the edge of the figure or table cut out by the chart edge detection unit, the histogram of the figure or table is created, and the number of density sections in which the pixels above the threshold exist in the created histogram The image processing apparatus according to claim 1, further comprising: a chart toner save detection unit that detects whether or not toner is saved for the chart or table using the count result.
前記補正手段は、
トナーセーブされている図又は表のエッジの画素を構成する第1の色の明度で示される第1色画像データに対して、最大濃度値未満のデータを最大濃度値に補正し、前記画素を構成する前記第1の色以外の色の明度で示される第2色画像データに対して、前記第1色画像データを用いて算出した補正率に基づいて補正する図表補正部を有する
ことを特徴とする請求項5に記載の画像処理装置。
The correction means includes
For the first color image data indicated by the brightness of the first color constituting the pixel of the edge of the chart or table where the toner is saved, data less than the maximum density value is corrected to the maximum density value, and the pixel is A chart correction unit that corrects the second color image data indicated by the lightness of the color other than the first color, based on a correction rate calculated using the first color image data. The image processing apparatus according to claim 5.
前記検出手段は、前記図表トナーセーブ検出部によりトナーセーブされていると判定された図又は表のトナーセーブ率を算出する図表トナーセーブ率算出部をさらに備え、
前記図表補正部は、トナーセーブされている図又は表の内部の画素を構成する色の明度で示される画像データに対して、前記図表トナーセーブ率算出部により算出されたトナーセーブ率の平均値に基づいて補正する
ことを特徴とする請求項6に記載の画像処理装置。
The detection means further includes a chart toner save rate calculation unit that calculates a toner save rate of the chart or table determined to be toner saved by the chart toner save detection unit,
The chart correction unit is an average value of the toner save rate calculated by the chart toner save rate calculation unit for the image data indicated by the brightness of the color that constitutes the pixel in the chart or table in which the toner is saved The image processing apparatus according to claim 6, wherein correction is performed based on the correction.
前記検出手段は、
前記原稿の画像から、写真毎のエッジを切り出す写真エッジ検出部と、
前記写真エッジ検出部により切り出されたエッジを含む写真領域の各画素の濃度データを用いて、前記写真のヒストグラムを作成し、作成したヒストグラムを用いて、当該写真領域の全画素の画素数に対する第1の濃度より明るい濃度区間にある画素数の和の割合と、前記第1の濃度と異なる第2の濃度より暗い濃度区間にある画素数の和とを用いて、当該写真領域がトナーセーブされているか否かを検出する写真トナー検出部とを備える
ことを特徴とする請求項1に記載の画像処理装置。
The detection means includes
A photo edge detection unit for cutting out an edge for each photo from the image of the original;
A histogram of the photograph is created using the density data of each pixel in the photograph area including the edge cut out by the photograph edge detection unit, and the histogram for the number of pixels of all pixels in the photograph area is created using the created histogram. Using the ratio of the sum of the number of pixels in a density section brighter than one density and the sum of the number of pixels in a density section darker than a second density different from the first density, the photographic area is toner-saved. The image processing apparatus according to claim 1, further comprising: a photographic toner detection unit configured to detect whether or not the toner image is detected.
前記補正手段は、
トナーセーブされている写真領域の濃度を上げるトーンカーブ補正処理を行う写真補正部を有する
ことを特徴とする請求項8に記載の画像処理装置。
The correction means includes
The image processing apparatus according to claim 8, further comprising: a photographic correction unit that performs a tone curve correction process for increasing a density of a photographic area where toner is saved.
原稿を読取り、前記原稿の画像を生成する原稿読取部と、前記原稿読取部が生成した画像を処理する画像処理部とを有する画像読取装置において、前記画像処理部として請求項1〜9のいずれかに記載の画像処理装置を適用したことを特徴とする画像読取装置。   10. An image reading apparatus comprising: a document reading unit that reads a document and generates an image of the document; and an image processing unit that processes an image generated by the document reading unit. An image reading apparatus to which the image processing apparatus according to claim 1 is applied. 原稿を読取り、前記原稿の画像を生成する原稿読取部と、前記原稿読取部が生成した画像を処理する画像処理部と、媒体に画像形成する画像形成部とを有する画像形成装置において、前記画像処理部として請求項1〜9のいずれかに記載の画像処理装置を適用したことを特徴とする画像形成装置。   An image forming apparatus comprising: an original reading unit that reads an original and generates an image of the original; an image processing unit that processes an image generated by the original reading unit; and an image forming unit that forms an image on a medium. An image forming apparatus to which the image processing apparatus according to claim 1 is applied as a processing unit.
JP2015129972A 2015-06-29 2015-06-29 Image processing apparatus, image reading apparatus, and image forming apparatus Pending JP2017017424A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015129972A JP2017017424A (en) 2015-06-29 2015-06-29 Image processing apparatus, image reading apparatus, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015129972A JP2017017424A (en) 2015-06-29 2015-06-29 Image processing apparatus, image reading apparatus, and image forming apparatus

Publications (1)

Publication Number Publication Date
JP2017017424A true JP2017017424A (en) 2017-01-19

Family

ID=57831155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015129972A Pending JP2017017424A (en) 2015-06-29 2015-06-29 Image processing apparatus, image reading apparatus, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP2017017424A (en)

Similar Documents

Publication Publication Date Title
JP4495201B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
US8294947B2 (en) Image processing apparatus with front and back side reading units and method for correcting a color difference for a specific color
US10326916B2 (en) Inspection apparatus, inspection method and storage medium
US20070201105A1 (en) Image copier and image copying method
US9406001B2 (en) Image processing apparatus, image forming apparatus, image forming method, and recording medium
JPH09139843A (en) Image processor
JP2015023379A (en) Image reading device and image forming apparatus
US10659621B2 (en) Image processing apparatus, image processing method, and storage medium
TWI498230B (en) Image reading apparatus, image forming apparatus and computer-readable medium
JP2022137425A (en) Image reading device and image forming apparatus
JP2003032504A (en) Image forming device
US7236266B2 (en) Image processing apparatus and image processing method
JP2010178377A (en) Image processing apparatus, image forming apparatus, method and program for image processing apparatus, and medium for recording image processing program
CN102215314B (en) Image processing apparatus and image forming method
JP7034742B2 (en) Image forming device, its method and program
JP2008028684A (en) Image reader, image processor, image forming apparatus, stripe image detecting method, image processing method, program, and recording medium
US11451685B2 (en) Color conversion table corrector that corrects the color conversion table according to data related to a first captured image excluding a specified area
JP6743612B2 (en) Image processing apparatus, image processing method and program
JP2015023429A (en) Processing apparatus, document reading device, and image forming apparatus
JP2017017424A (en) Image processing apparatus, image reading apparatus, and image forming apparatus
US20200128148A1 (en) Document reading device and image forming apparatus including same
JP2022128248A (en) Image reading device and image forming apparatus
JP2021100184A (en) Image processing device, image processing method, and program
JP2005027110A (en) Image processor, image reader provided with the same, image forming device, image processing method, image processing program and recording medium
JP2013009116A (en) Image processor, image reader, image forming apparatus, image processing method, program and recording medium