JP2017108314A - Image signal processing apparatus, image signal processing method, and program - Google Patents

Image signal processing apparatus, image signal processing method, and program Download PDF

Info

Publication number
JP2017108314A
JP2017108314A JP2015241337A JP2015241337A JP2017108314A JP 2017108314 A JP2017108314 A JP 2017108314A JP 2015241337 A JP2015241337 A JP 2015241337A JP 2015241337 A JP2015241337 A JP 2015241337A JP 2017108314 A JP2017108314 A JP 2017108314A
Authority
JP
Japan
Prior art keywords
image
pixel
edge
target pixel
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015241337A
Other languages
Japanese (ja)
Inventor
賀久 野村
Shigehisa Nomura
賀久 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015241337A priority Critical patent/JP2017108314A/en
Publication of JP2017108314A publication Critical patent/JP2017108314A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Laser Beam Printer (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable execution of image correction processing of reducing toner consumption while preventing an increase in circuit scale and buffer memory.SOLUTION: An edge flag generation part (261) generates a flag indicating, for each of pixels, whether the pixel is a pixel corresponding to an edge of an image. An image analysis part (266) specifies, from the image, a correction target pixel the density of which is to be corrected on the basis of the flags generated corresponding respectively to the pixels of the image. An image correction part (267) corrects the density of the correction target pixel on the basis of the distance from the edge to the correction target pixel.SELECTED DRAWING: Figure 2

Description

本発明は、画像信号処理装置、画像信号処理方法、及びプログラムに関する。   The present invention relates to an image signal processing device, an image signal processing method, and a program.

電子写真方式を採用した画像形成装置の分野では、従来からトナー消費量の削減が切望されている。例えば、特許文献1には、ある程度の面積を有する画像領域については露光強度を低下させることでトナーの消費量を節約する技術が開示されている。
また、電子写真方式の画像形成装置においては、潜像の後端部における現像トナー量が潜像中央部における現像トナー量に比べて多くなる現象が生じることが知られている。この現象は掃き寄せ効果と呼ばれる。この掃き寄せ効果に対しては、画像データ上で補正処理を行って露光量を調整することで掃き寄せを補正する技術が提案されている(例えば、特許文献2)。
また、掃き寄せ効果の問題に加え、感光体ドラム上に形成された露光部(静電潜像)と非露光部(帯電部)との境界に電界が集中することで、画像の縁にトナーが過剰に付着してしまう現象が知られている。この現象は、エッジ効果と呼ばれ、上述の掃き寄せ効果と重畳して起こり得るものである。そのため、掃き寄せ効果とエッジ効果が生じた画像部について、余分なトナーを削減するべく露光強度を落とす場合には、それぞれの現象に適した補正処理を施す必要がある。それぞれの現象に適した補正処理ができないと、画像濃度の低下、ドット再現性の低下、細線の細りなどが発生し、画質劣化につながることになる。
In the field of image forming apparatuses adopting an electrophotographic system, reduction of toner consumption has been eagerly desired. For example, Patent Document 1 discloses a technique for saving toner consumption by reducing the exposure intensity for an image region having a certain area.
Further, it is known that an electrophotographic image forming apparatus has a phenomenon in which the amount of developed toner at the rear end portion of a latent image is larger than the amount of developed toner at the center portion of the latent image. This phenomenon is called a sweeping effect. For this sweeping effect, a technique for correcting the sweeping by performing a correction process on the image data and adjusting the exposure amount has been proposed (for example, Patent Document 2).
In addition to the problem of the sweeping effect, the electric field concentrates on the boundary between the exposed portion (electrostatic latent image) and the non-exposed portion (charged portion) formed on the photosensitive drum, so that the toner is formed on the edge of the image. Is known to be excessively attached. This phenomenon is called an edge effect and can occur in combination with the above sweeping effect. For this reason, when the exposure intensity is reduced in order to reduce excess toner for the image portion where the sweeping effect and the edge effect have occurred, it is necessary to perform a correction process suitable for each phenomenon. If correction processing suitable for each phenomenon cannot be performed, a decrease in image density, a decrease in dot reproducibility, a thin line, and the like will occur, leading to deterioration in image quality.

特開2004−299239号公報JP 2004-299239 A 特開2007−272153号公報JP 2007-272153 A

ここで、掃き寄せ及びエッジ効果に対する補正処理は、露光量を制御するためのPWM(パルス幅変調)制御の直前で行うのが望ましい。しかしながら、一般的にPWM制御の基になる画像データは、色変換、ハーフトーン処理が施され、色情報がYMCK(イエロー、マゼンタ、シアン、ブラック(キープレート))に変換されていたり、画像濃度情報がドットパターンに置き換わっていたりする。そのため、掃き寄せ効果、エッジ効果の現象が発生し得る画像領域を検出する際には、誤検出を少なくするために、広範囲の領域を参照し、かつ複雑なパターンの解析が必要になる。このように、広範囲の領域の参照、複雑なパターン解析を行うためには、大規模な回路が必要になる。また例えば、掃き寄せ効果においては、潜像の後端部を検出するために、注目画素の周囲20×20画素範囲の参照ウィンドウにおいて、黒連続領域及び白連続領域を上下左右の方向に判別する必要がある。この場合、参照ウィンドウを形成するために、20ライン分の画素値を保持しなければならず、大容量のバッファメモリが必要になる。   Here, it is desirable that correction processing for sweeping and edge effects be performed immediately before PWM (pulse width modulation) control for controlling the exposure amount. However, generally, image data that is the basis of PWM control is subjected to color conversion and halftone processing, and color information is converted to YMCK (yellow, magenta, cyan, black (key plate)), or image density The information is replaced with a dot pattern. Therefore, when detecting an image area where the phenomenon of sweeping effect and edge effect may occur, it is necessary to refer to a wide area and analyze a complicated pattern in order to reduce false detection. As described above, a large-scale circuit is required to refer to a wide area and to perform a complicated pattern analysis. Further, for example, in the sweeping effect, in order to detect the rear end portion of the latent image, the black continuous region and the white continuous region are discriminated in the vertical and horizontal directions in the reference window in the 20 × 20 pixel range around the target pixel. There is a need. In this case, in order to form a reference window, pixel values for 20 lines must be held, and a large-capacity buffer memory is required.

本発明はこのような問題点に鑑みてなされたものであり、回路規模やバッファメモリ等の増大を防ぎつつ、トナー消費量を削減するような画像の補正処理を可能とする画像信号処理装置、画像信号処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and an image signal processing device that enables image correction processing that reduces toner consumption while preventing an increase in circuit scale, buffer memory, and the like, An object is to provide an image signal processing method and program.

本発明の画像信号処理装置は、画像信号の画素ごとに、前記画素が画像のエッジに対応した画素であるか否かを表すフラグを生成する生成手段と、前記画像の各画素に各々対応して生成された前記フラグに基づいて、前記画像の中から、濃度の補正がなされる補正対象画素を特定する解析手段と、前記補正対象画素から前記エッジまでの距離に基づいて、前記補正対象画素の濃度を補正する補正手段と、を有することを特徴とする。   The image signal processing apparatus according to the present invention includes, for each pixel of the image signal, a generation unit that generates a flag indicating whether the pixel is a pixel corresponding to an edge of the image, and a generation unit that corresponds to each pixel of the image. Based on the flag generated in this way, the analysis means for specifying the correction target pixel whose density is to be corrected from the image, and the correction target pixel based on the distance from the correction target pixel to the edge Correction means for correcting the density of the light.

本発明によれば、回路規模やバッファメモリの増大を防ぎつつ、トナー消費量を削減するような画像の補正処理が可能となる。   According to the present invention, it is possible to perform image correction processing that reduces toner consumption while preventing an increase in circuit scale and buffer memory.

電子写真方式の画像形成装置の基本構成を示す図である。1 is a diagram illustrating a basic configuration of an electrophotographic image forming apparatus. コントローラの内部構成を示す機能ブロック図である。It is a functional block diagram which shows the internal structure of a controller. 駆動信号と光量調整信号により露光装置が制御される様子の説明図である。It is explanatory drawing of a mode that an exposure apparatus is controlled by a drive signal and a light quantity adjustment signal. PWM制御により画素濃度が調整される様子の説明図である。It is explanatory drawing of a mode that pixel density is adjusted by PWM control. ジャンピング現像状態と接触現像状態の説明図である。It is explanatory drawing of a jumping development state and a contact development state. エッジ効果の説明図である。It is explanatory drawing of an edge effect. エッジ効果、掃き寄せ効果の発生した画像の説明図である。It is explanatory drawing of the image which the edge effect and the sweeping effect generate | occur | produced. エッジ効果、掃き寄せ効果が発生した際のトナー分布状態の説明図である。FIG. 6 is an explanatory diagram of a toner distribution state when an edge effect and a sweeping effect occur. 接触現像状態における掃き寄せ効果の発生メカニズムの説明図である。It is explanatory drawing of the generation | occurrence | production mechanism of the sweeping effect in a contact development state. エッジフラグから補正対象画素の検出方法のフローチャートである。It is a flowchart of the detection method of a correction object pixel from an edge flag. エッジフラグから補正対象画素の検出方法の説明図である。It is explanatory drawing of the detection method of a correction object pixel from an edge flag. エッジフラグから補正対象画素の検出方法の他の説明図である。It is another explanatory drawing of the detection method of a correction object pixel from an edge flag. 補正対象画素の検出した結果の説明図である。It is explanatory drawing of the result of having detected the correction object pixel. 補正処理量の算出方法を示すフローチャートである。It is a flowchart which shows the calculation method of correction processing amount. エッジフラグ生成方法の説明図である。It is explanatory drawing of the edge flag production | generation method. エッジからの距離に対する補正処理量の説明図である。It is explanatory drawing of the correction processing amount with respect to the distance from an edge.

以下、本発明の実施形態について図面を用いて説明する。なお、以下の実施形態において示す各構成は一例であり、図示された構成に限定されるものではない。
図1は、画像信号処理装置の適用例である電子写真方式の画像形成装置の概略構成を示す図である。画像形成装置100は、感光体ドラム110、帯電装置120、露光装置130、コントローラ140、現像装置150、転写装置160、定着装置170、環境検知装置180、原稿読み取り装置190等を有して構成されている。現像装置150における図中の斜線部は、現像剤としてのトナーを表している。また、感光体ドラム110において、図中のRは現像領域を、図中のTは転写位置をそれぞれ表している。なお、画像形成装置100において、コントローラ140と環境検知装置180と原稿読み取り装置190とを除いた、画像形成に係る動作を行う構成部分は実際に印刷を行う印刷部であり、いわゆるプリンタエンジンと呼ばれる部分である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, each structure shown in the following embodiment is an example, and is not limited to the illustrated structure.
FIG. 1 is a diagram showing a schematic configuration of an electrophotographic image forming apparatus as an application example of an image signal processing apparatus. The image forming apparatus 100 includes a photosensitive drum 110, a charging device 120, an exposure device 130, a controller 140, a developing device 150, a transfer device 160, a fixing device 170, an environment detection device 180, a document reading device 190, and the like. ing. A hatched portion in the drawing of the developing device 150 represents toner as a developer. Further, in the photosensitive drum 110, R in the figure represents a development area, and T in the figure represents a transfer position. In the image forming apparatus 100, the components that perform operations relating to image formation, excluding the controller 140, the environment detection device 180, and the document reading device 190, are printing units that actually perform printing, and are called so-called printer engines. Part.

環境検知装置180は、画像形成装置100内外の温度や湿度といった周辺環境情報を取得する。原稿読み取り装置190は、少なくともCCD(Charged Couple Device)やCIS(Contact Image sensor)を含むものである。原稿読み取り装置190は、読み取った画像データに対して、所定の画像処理を行う処理部を有するように構成されていてもよい。   The environment detection device 180 acquires ambient environment information such as temperature and humidity inside and outside the image forming apparatus 100. The document reading device 190 includes at least a CCD (Charged Couple Device) and a CIS (Contact Image sensor). The document reading apparatus 190 may be configured to include a processing unit that performs predetermined image processing on the read image data.

感光体ドラム110は、像担持体としての電子写真感光体が、ドラム表面に形成されたものである。帯電装置120は、感光体ドラム110の表面の電子写真感光体を一様に帯電させる帯電ローラ等である。露光装置130は、レーザビームスキャナや面発光素子等を有して構成されている。露光装置130は、電子写真感光体が一様に帯電した状態となされた感光体ドラム110のドラム表面に対し、ホストコンピュータ10からの印刷データや原稿読み取り装置190からの画像データ等に基づく光量の光を照射して、電子写真感光体を露光させる。なお、本実施形態では、露光装置130は、半導体レーザを備えたレーザビームスキャナにより構成され、感光体ドラム110の電子写真感光体への露光はレーザビームにより行われる例を挙げる。詳細については後述するが、露光装置130は、コントローラ140が印刷データや画像データに基づいて生成した後述する駆動信号と光量調整信号によりレーザビームを発光させる。そして、露光装置130は、そのレーザビームの光を、回転している感光体ドラム110の表面の電子写真感光体に照射する。これにより、感光体ドラム110の表面の電子写真感光体には、印刷データや画像データに応じた静電潜像が形成される。   The photosensitive drum 110 is formed by forming an electrophotographic photosensitive member as an image carrier on the drum surface. The charging device 120 is a charging roller or the like that uniformly charges the electrophotographic photosensitive member on the surface of the photosensitive drum 110. The exposure apparatus 130 includes a laser beam scanner, a surface light emitting element, and the like. The exposure device 130 applies a light amount based on print data from the host computer 10, image data from the document reading device 190, and the like to the drum surface of the photosensitive drum 110 in which the electrophotographic photosensitive member is uniformly charged. Light is irradiated to expose the electrophotographic photoreceptor. In the present embodiment, the exposure apparatus 130 is constituted by a laser beam scanner provided with a semiconductor laser, and the exposure of the photosensitive drum 110 to the electrophotographic photosensitive member is performed by a laser beam. Although details will be described later, the exposure apparatus 130 causes a laser beam to be emitted by a drive signal and a light amount adjustment signal, which will be described later, generated by the controller 140 based on print data and image data. Then, the exposure device 130 irradiates the electrophotographic photosensitive member on the surface of the rotating photosensitive drum 110 with the light of the laser beam. As a result, an electrostatic latent image corresponding to the print data or image data is formed on the electrophotographic photosensitive member on the surface of the photosensitive drum 110.

現像装置150は、トナーの貯蔵及び保管を行うトナー容器の他、現像剤担持体である現像ローラ151とトナー層厚規制部材として機能する規制ブレード152とを有している。ここではトナーとして非磁性一成分トナーを使用するが、二成分トナーが採用されてもよいし、磁性トナーが採用されてもよい。現像ローラ151に供給されたトナーの層厚は、上述の規制ブレード152により規制される。規制ブレード152は、トナーに電荷を付与するように構成されていてもよい。そして、所定の層厚に規制され、かつ、所定量の電荷を付与されたトナーは、現像ローラ151により、現像領域Rへ搬送される。現像領域Rは、現像ローラ151と感光体ドラム110とが近接又は接触する領域であり、かつ、トナーの付着が実行される領域である。感光体ドラム110の表面の電子写真感光体上に形成された静電潜像は、トナーにより現像されてトナー像に変換される。そして、感光体ドラム110の表面上に形成されたトナー像は、転写位置Tにて転写装置160により、記録用紙である記録媒体P上に転写される。記録媒体P上に転写されたトナー像は、定着装置170に搬送される。定着装置170は、トナー像と記録媒体Pに熱と圧力を加えてトナー像を記録媒体P上に定着させる。   In addition to a toner container for storing and storing toner, the developing device 150 includes a developing roller 151 that is a developer carrier and a regulating blade 152 that functions as a toner layer thickness regulating member. Here, a non-magnetic one-component toner is used as the toner, but a two-component toner or a magnetic toner may be used. The layer thickness of the toner supplied to the developing roller 151 is regulated by the regulation blade 152 described above. The regulating blade 152 may be configured to apply a charge to the toner. Then, the toner regulated to a predetermined layer thickness and given a predetermined amount of electric charge is conveyed to the developing region R by the developing roller 151. The development region R is a region where the developing roller 151 and the photosensitive drum 110 are close to or in contact with each other and toner is attached thereto. The electrostatic latent image formed on the electrophotographic photosensitive member on the surface of the photosensitive drum 110 is developed with toner and converted into a toner image. The toner image formed on the surface of the photosensitive drum 110 is transferred onto the recording medium P, which is a recording sheet, by the transfer device 160 at the transfer position T. The toner image transferred onto the recording medium P is conveyed to the fixing device 170. The fixing device 170 applies heat and pressure to the toner image and the recording medium P to fix the toner image on the recording medium P.

図2は、コントローラ140の内部構成を示す機能ブロック図である。図2の構成の詳細については後述する。コントローラ140は、例えばホストコンピュータ10等から受信する印刷データから、後述するレンダリング処理部200でラスターイメージデータを生成して、画像メモリ231に格納する。なお、以下の説明では、ラスターイメージデータを、「ラスターデータ」と略記する。また、コントローラ140は、原稿読み取り装置190が原稿を読み取った画像データを、後述のスキャナI/F280を介して受け取り、その画像データをラスターデータとして画像メモリ231に格納する。さらに、ラスターデータは、コントローラ140の後述する画像処理部260により、画像形成装置100による印刷に適したラスターデータに加工される。詳細については後述するが、本実施形態において、コントローラ140の画像処理部260は、エッジ効果や掃き寄せ効果に起因した過剰なトナーの付着を抑制するために、ラスターデータに対して、トナー消費量を削減するための補正処理を実行する。   FIG. 2 is a functional block diagram showing the internal configuration of the controller 140. Details of the configuration of FIG. 2 will be described later. The controller 140 generates raster image data from the print data received from, for example, the host computer 10 by the rendering processing unit 200 described later, and stores the raster image data in the image memory 231. In the following description, the raster image data is abbreviated as “raster data”. Further, the controller 140 receives image data read by the document reading device 190 via a scanner I / F 280 described later, and stores the image data in the image memory 231 as raster data. Further, the raster data is processed into raster data suitable for printing by the image forming apparatus 100 by an image processing unit 260 described later of the controller 140. Although details will be described later, in this embodiment, the image processing unit 260 of the controller 140 uses a toner consumption amount with respect to raster data in order to suppress excessive toner adhesion due to an edge effect or a sweeping effect. Correction processing is executed to reduce the above.

ここで、改めてエッジ効果について定義すると、エッジ効果は、感光体ドラム110の表面の電子写真感光体のうち、露光された領域(露光領域)と露光されなかった領域(非露光領域)との境界(縁)において、トナーが過剰に付着する現象である。つまり、露光領域の表面電位と非露光領域の表面電位とは異なるため、これらの境界では電界の廻り込みが発生し、過剰にトナーが付着してしまう現象が生ずる。また、掃き寄せ効果は、静電潜像の搬送方向における画像領域の後端部でトナーが過剰に付着してしまう現象である。そして、これらエッジ効果や掃き寄せ効果による余分なトナーの付着は、原稿濃度に対して、記録媒体P上に定着された画像濃度の再現性を低下させるだけでなく、トナーの過剰な消費を生じさせる。したがって、エッジ効果や掃き寄せ効果に伴う余分なトナーを取り除くことができれば、原稿濃度に対する画像濃度の再現性の低下を防ぐだけでなく、トナーの節約にも繋がることになる。   Here, when the edge effect is defined again, the edge effect is a boundary between an exposed area (exposed area) and an unexposed area (non-exposed area) in the electrophotographic photosensitive member on the surface of the photosensitive drum 110. This is a phenomenon in which toner adheres excessively at (edge). That is, since the surface potential of the exposed area is different from the surface potential of the non-exposed area, an electric field wraps around these boundaries, causing a phenomenon that toner is excessively adhered. Further, the sweeping effect is a phenomenon in which toner adheres excessively at the rear end portion of the image area in the conveyance direction of the electrostatic latent image. The excessive toner adhesion due to the edge effect and the sweeping effect not only reduces the reproducibility of the image density fixed on the recording medium P with respect to the original density but also causes excessive consumption of the toner. Let Therefore, if the excess toner associated with the edge effect and sweeping effect can be removed, not only the reproducibility of the image density with respect to the original density is prevented but also the toner is saved.

コントローラ140は、前述のようなトナー消費量を削減するための補正処理が行われたラスターデータに基づいて、露光装置130に出力する駆動信号と光量調整信号を生成する。光量調整信号は、露光装置130の半導体レーザの発光光量を、一定の目標光量となるように調整して発光させたり、目標光量を基準として画素ごとに光量を調整して発光させたりするための制御信号である。駆動信号は、光量調整信号により発光光量が目標光量に調整された半導体レーザの発光時間を、パルス幅変調により調整するための制御信号である。これら駆動信号や光量調整信号により露光装置130からの発光量が調整されることにより、感光体ドラム110の電子写真感光体の露光量が調整され、これにより、印刷される画像の階調表現が実現される。コントローラ140の詳細な構成については後述する。   The controller 140 generates a drive signal and a light amount adjustment signal to be output to the exposure device 130 based on the raster data that has been subjected to the correction processing for reducing the toner consumption as described above. The light amount adjustment signal is for adjusting the light emission amount of the semiconductor laser of the exposure apparatus 130 so as to be a constant target light amount, or for adjusting the light amount for each pixel with the target light amount as a reference and causing the light to be emitted. It is a control signal. The drive signal is a control signal for adjusting the light emission time of the semiconductor laser whose light emission amount is adjusted to the target light amount by the light amount adjustment signal by pulse width modulation. The amount of light emitted from the exposure device 130 is adjusted by the drive signal and the light amount adjustment signal, whereby the exposure amount of the electrophotographic photosensitive member of the photosensitive drum 110 is adjusted. Realized. A detailed configuration of the controller 140 will be described later.

以下、コントローラ140の動作について、図2を参照しながら、関係する周辺装置と共に説明する。
コントローラ140は、レンダリング処理部200、CPU210、ROM220、RAM230、露光量調整部240、露光制御部250、画像処理部260、ホストI/F270、スキャナI/F280を有し、各部がシステムバス290で接続されている。
Hereinafter, the operation of the controller 140 will be described together with related peripheral devices with reference to FIG.
The controller 140 includes a rendering processing unit 200, a CPU 210, a ROM 220, a RAM 230, an exposure amount adjustment unit 240, an exposure control unit 250, an image processing unit 260, a host I / F 270, and a scanner I / F 280. It is connected.

レンダリング処理部200は、ホストI/F270を介して、ホストコンピュータ10から送信されたPDLデータを解釈して、ビットマップイメージデータのラスターデータを生成して、画像メモリ231に展開する。ホストI/F270は、ホストコンピュータ10とのデータのやり取りを行なうインタフェースである。スキャナI/F280は、原稿読み取り装置190より送られてきた画像データから文字部を検出することにより、像域を判定し、その後の画像処理に利用する像域信号を生成する。さらに、スキャナI/F280は、原稿読み取り装置190が読み取った輝度データである画像データを濃度データに変換するためにテーブル変換を行う。また、スキャナI/F280は、エッジ強調などの目的に従ったデジタル空間フィルタでコンボリューション演算を行う。処理が終了した画像データは、システムバス290を介して、画像メモリ231に転送される。   The rendering processing unit 200 interprets the PDL data transmitted from the host computer 10 via the host I / F 270 to generate raster data of bitmap image data, and develops it in the image memory 231. The host I / F 270 is an interface for exchanging data with the host computer 10. The scanner I / F 280 determines the image area by detecting a character part from the image data sent from the document reading device 190, and generates an image area signal used for subsequent image processing. Further, the scanner I / F 280 performs table conversion in order to convert image data, which is luminance data read by the document reading device 190, into density data. The scanner I / F 280 performs a convolution operation with a digital spatial filter in accordance with the purpose such as edge enhancement. The processed image data is transferred to the image memory 231 via the system bus 290.

CPU210は、画像形成装置100の全体を統括的に制御する制御ユニットである。CPU210は、ROM220に格納されたプログラムに従って画像処理部260を制御し、コピー実行時には、原稿読み取り装置190が読み取った画像データに対する色変換処理、ハーフトーン変換処理を行わせる。また、CPU210は、画像処理部260を制御して、画像内の複数の画素のうち、エッジ効果又は掃き寄せ効果によってトナーが過剰となる画素を特定する処理を行わせる。さらに、CPU210は、画像処理部260を制御して、それらトナーが過剰となる画素として特定された各画素に対して、エッジ効果や掃き寄せ効果を低減させるための補正処理を行わせる。CPU210による制御の下、画像処理部260が行う、エッジ効果や掃き寄せ効果によりトナーが過剰となる画素を特定する処理、それら特定された各画素に対する補正処理の詳細は後述する。   The CPU 210 is a control unit that comprehensively controls the entire image forming apparatus 100. The CPU 210 controls the image processing unit 260 in accordance with a program stored in the ROM 220, and performs color conversion processing and halftone conversion processing on the image data read by the document reading device 190 at the time of copying. Further, the CPU 210 controls the image processing unit 260 to perform a process of specifying a pixel in which toner is excessive due to an edge effect or a sweeping effect among a plurality of pixels in the image. Further, the CPU 210 controls the image processing unit 260 to perform correction processing for reducing the edge effect and the sweeping effect on each pixel specified as a pixel in which the toner is excessive. Details of processing for specifying pixels in which toner is excessive due to the edge effect and sweeping effect performed by the image processing unit 260 under the control of the CPU 210, and correction processing for each of the specified pixels will be described later.

RAM230は、CPU210のワークメモリとして機能し、画像メモリ231を有している。画像メモリ231は、画像形成の対象となる画像データ(ラスターデータ)が展開される記憶領域(ページメモリやラインメモリなど)である。RAM230は、画像処理部260の後述する色変換部262からの出力データやハーフトーン変換部263からの出力データを一時格納してもよい。また、RAM230には、画像処理部260の後述する補正パラメータ(補正対象となされる画素幅を決める情報)や後述する補正係数(露光量の削減割合)などを格納したLUT(ルックアップテーブル)なども保持される。   The RAM 230 functions as a work memory for the CPU 210 and has an image memory 231. The image memory 231 is a storage area (page memory, line memory, etc.) in which image data (raster data) that is an object of image formation is developed. The RAM 230 may temporarily store output data from a color conversion unit 262 (described later) of the image processing unit 260 and output data from the halftone conversion unit 263. Further, the RAM 230 stores a correction parameter (information for determining a pixel width to be corrected) described later of the image processing unit 260, a correction coefficient (exposure amount reduction ratio) described later, and an LUT (look-up table). Is also retained.

露光量調整部240は、露光装置130の光源についてAPC(自動光量制御)を実行して目標光量を設定し、前述した光量調整信号を生成する。露光制御部250は、露光装置130に対するPWM制御を行うための前述した駆動信号を生成する。露光量調整部240、露光装置130の詳細な構成については後述する。   The exposure amount adjusting unit 240 executes APC (automatic light amount control) on the light source of the exposure apparatus 130 to set a target light amount, and generates the above-described light amount adjustment signal. The exposure control unit 250 generates the drive signal described above for performing PWM control on the exposure apparatus 130. Detailed configurations of the exposure adjustment unit 240 and the exposure apparatus 130 will be described later.

<ラスターイメージデータの補正処理>
画像処理部260は、エッジフラグ生成部261、色変換部262、ハーフトーン変換部263、条件判断部264、パラメータ設定部265、画像解析部266、画像補正部267を有して構成されている。これら各構成要素は、ハードウェア構成であってもよいし、本実施形態の画像信号処理プログラムによるソフトウェア構成により実現されてもよい。
<Raster image data correction processing>
The image processing unit 260 includes an edge flag generation unit 261, a color conversion unit 262, a halftone conversion unit 263, a condition determination unit 264, a parameter setting unit 265, an image analysis unit 266, and an image correction unit 267. . Each of these components may have a hardware configuration or may be realized by a software configuration by the image signal processing program of the present embodiment.

エッジフラグ生成部261は、原稿読み取り装置190が読み取ってスキャナI/F280を介して供給された画像データに対しては、二値化処理、フィルタ処理やパターンマッチングを行ってエッジ特徴を含む属性フラグを生成し、その属性フラグを出力する。属性フラグには、エッジ特徴を表すフラグであるエッジフラグの他、画素が文字の画素であることを表すフラグや、画素が写真の画素であることを表すフラグ等も含まれる。エッジ特徴を含む属性フラグの生成方法としては、ここでは詳細な説明はしないが、例えば一次微分を取得するSobelカーネル法、二次微分を取得するLaplaceカーネル法、平滑化フィルタを使ったCanny法などが知られている。ホストコンピュータ10からホストI/F270を介してPDLデータが入力される場合には、レンダリング処理部200がPDLデータからラスターデータを生成する際に、エッジ特徴を含む属性フラグを生成してもよい。また、エッジフラグ生成部261は、エッジ特徴を含む属性フラグの他に、文字、網点などの特徴を示すフラグを同時に出力してもよいものとする。   The edge flag generation unit 261 performs binarization processing, filtering processing, and pattern matching on image data read by the document reading device 190 and supplied via the scanner I / F 280, and includes an attribute flag including edge features. Is generated and the attribute flag is output. The attribute flag includes an edge flag which is a flag indicating an edge feature, a flag indicating that the pixel is a character pixel, a flag indicating that the pixel is a pixel of a photograph, and the like. Although a detailed description is not given here as a method for generating an attribute flag including an edge feature, for example, a Sobel kernel method for obtaining a first derivative, a Laplace kernel method for obtaining a second derivative, a Canny method using a smoothing filter, etc. It has been known. When PDL data is input from the host computer 10 via the host I / F 270, when the rendering processing unit 200 generates raster data from the PDL data, an attribute flag including an edge feature may be generated. In addition, the edge flag generation unit 261 may simultaneously output flags indicating features such as characters and halftone dots in addition to attribute flags including edge features.

色変換部262は、上述の属性フラグを参照しながら、画像形成装置100が有するトナー色に合わせて、例えばRGB(赤、緑、青)の色空間のラスターデータから、CMYKの色空間のラスターデータへ変換する処理を行う。ハーフトーン変換部263は、上述の属性フラグを参照しながらγ補正(ガンマ補正)やハーフトーン処理を行う。γ補正は、理想的な階調特性に合わせるために濃度補正を行う処理である。ハーフトーン変換部263の具体的な構成としては、スクリーン処理によるもの、或いは誤差拡散処理による構成を挙げることができる。スクリーン処理は、所定の複数のディザマトリクス及び入力される画像データを用いて、N値化するものである。また、誤差拡散処理は、入力画像データを所定の閾値と比較することにより、N値化を行い、その際の入力画像データと閾値との差分を、それ以降にN値化処理される周囲画素に対して拡散させる処理である。   The color conversion unit 262 refers to, for example, RGB (red, green, blue) color space raster data in accordance with the toner color of the image forming apparatus 100 with reference to the above-described attribute flags, and the CMYK color space raster. Performs conversion to data. The halftone conversion unit 263 performs γ correction (gamma correction) and halftone processing while referring to the attribute flag. The γ correction is a process for performing density correction in order to match ideal gradation characteristics. As a specific configuration of the halftone conversion unit 263, a configuration by screen processing or a configuration by error diffusion processing can be given. In the screen processing, N-values are obtained using a predetermined plurality of dither matrices and input image data. In addition, the error diffusion processing performs N-value conversion by comparing the input image data with a predetermined threshold value, and the difference between the input image data and the threshold value at that time is subjected to N-value processing thereafter. Is a process of diffusing.

また、ハーフトーン変換部263は、属性フラグを参照して、注目画素が文字を構成する画素か、写真を構成する画素か、エッジを構成する画素かなどのフラグ判定処理を行い、そのフラグ判定結果に応じて処理方法を切り替えることも可能である。処理方法の切り替え例としては、属性フラグのエッジフラグに応じて、フィルタ処理を施したり、ハーフトーン処理のなかでスムージング処理を施したりするようなことが挙げられる。また例えば、属性フラグにより、例えばγ補正の参照テーブルとして文字用のテーブルを使ったり、写真用のテーブルを使ったりするような切り替えも可能である。また、ハーフトーン処理についても、属性フラグを参照し、注目画素が文字の画素であれば誤差拡散処理、写真の画素であればスクリーン処理を行うような切り替えが可能である。また例えば、上述した処理によりエッジを滑らかにするような処理がなされた場合には、エッジに対応したフラグを消すことが必要になる。例えば写真の画像データに対してフィルタ処理やスムージング処理をすることでエッジ部分を滑らかにして暈すような処理がなされた場合には、エッジが消されるため、ハーフトーン変換部263は、属性フラグの中のエッジフラグを削除する。このようにフィルタ処理やスムージング処理等の各種の画像処理が行われることでエッジが消され、エッジフラグが削除された場合、画像補正部267は、後述するエッジ効果及び掃き寄せ効果を減少させるための補正処理については行わないようにする。   Further, the halftone conversion unit 263 refers to the attribute flag and performs flag determination processing such as whether the pixel of interest is a pixel constituting a character, a pixel constituting a photograph, or a pixel constituting an edge, and determines the flag. It is also possible to switch the processing method according to the result. Examples of processing method switching include performing filter processing or performing smoothing processing in halftone processing according to the edge flag of the attribute flag. In addition, for example, it is possible to switch such as using a character table or a photo table as a reference table for γ correction by using an attribute flag. As for halftone processing, it is possible to switch to refer to the attribute flag and perform error diffusion processing if the pixel of interest is a character pixel and screen processing if the pixel of interest is a photo pixel. Further, for example, when the processing for smoothing the edge is performed by the above-described processing, it is necessary to delete the flag corresponding to the edge. For example, when processing for smoothing and fringing the edge portion by performing filtering processing or smoothing processing on the image data of the photograph, the edge is erased, so that the halftone conversion unit 263 has the attribute flag The edge flag in is deleted. When the edge is erased and the edge flag is deleted by performing various types of image processing such as filter processing and smoothing processing in this way, the image correction unit 267 reduces the edge effect and sweeping effect described later. The correction process is not performed.

条件判断部264は、環境検知装置180にて取得される環境情報やCPU210からの画像形成装置の状態を示す装置状態情報に応じた補正条件を決定する。パラメータ設定部265は、補正条件に基づいて、エッジ効果及び掃き寄せ効果を減少させるための補正処理の前処理としての、補正パラメータ(補正対象とする画素幅を特定する情報)を設定する。これら条件判断部264による補正条件の決定処理、パラメータ設定部265による補正パラメータの設定処理の詳細については後述する。   The condition determination unit 264 determines a correction condition in accordance with environment information acquired by the environment detection device 180 and device state information indicating the state of the image forming apparatus from the CPU 210. The parameter setting unit 265 sets a correction parameter (information for specifying a pixel width to be corrected) as preprocessing of correction processing for reducing the edge effect and the sweeping effect based on the correction condition. Details of the correction condition determination processing by the condition determination unit 264 and the correction parameter setting processing by the parameter setting unit 265 will be described later.

画像解析部266は、上述の属性フラグ及び補正パラメータに基づいて、画像メモリ231上の画像データからエッジ効果及び掃き寄せ効果が発生し得る画素を特定して、その特定された画素を補正対象画素として決定する。ここで、エッジ効果や掃き寄せ効果は、画像濃度がある値より大きくなると視認され易くなる。また、エッジ効果は画像領域の縁に発生し、掃き寄せ効果は静電潜像の搬送方向における画像領域の後端部に発生する。したがって、画像解析部266では、これらのことを考慮して、エッジ効果及び掃き寄せ効果が発生し得る画素(補正対象画素)を特定する。画像解析部266における補正対象画素の特定及び決定処理の詳細については後述の図10のフローチャートで説明する。   Based on the attribute flag and the correction parameter, the image analysis unit 266 specifies a pixel that can generate an edge effect and a sweeping effect from the image data on the image memory 231, and determines the specified pixel as a correction target pixel. Determine as. Here, the edge effect and the sweeping effect are easily recognized when the image density exceeds a certain value. The edge effect occurs at the edge of the image area, and the sweeping effect occurs at the rear end of the image area in the electrostatic latent image transport direction. Therefore, the image analysis unit 266 specifies the pixels (correction target pixels) that can generate the edge effect and the sweeping effect in consideration of these points. Details of the correction target pixel specification and determination processing in the image analysis unit 266 will be described later with reference to the flowchart of FIG.

画像補正部267は、上述の画像解析部266による画像解析の結果、エッジ効果及び掃き寄せ効果に対する補正対象画素として特定された画素ごとにトナー消費量の削減を可能とする補正量を求める。具体的には、画像補正部267は、補正対象画素として特定された画素ごとにトナー削減量を求め、そのトナー削減量に応じた画素ごとの補正係数(露光量の削減割合)を補正量として求める。そして、画像補正部267は、ラスターデータの各画素の中で前述のように特定された補正対象画素に対して、補正係数に応じて画素濃度を補正するような補正処理を実行する。画像補正部267により補正対象画素に対して補正処理がなされた後のラスターデータは、露光制御部250に送られる。   The image correction unit 267 obtains a correction amount that can reduce the toner consumption for each pixel specified as a correction target pixel with respect to the edge effect and the sweeping effect as a result of the image analysis by the image analysis unit 266 described above. Specifically, the image correction unit 267 calculates a toner reduction amount for each pixel specified as the correction target pixel, and uses a correction coefficient (exposure reduction ratio) for each pixel corresponding to the toner reduction amount as a correction amount. Ask. Then, the image correction unit 267 performs a correction process for correcting the pixel density according to the correction coefficient for the correction target pixel specified as described above in each pixel of the raster data. The raster data after the correction processing is performed on the correction target pixel by the image correction unit 267 is sent to the exposure control unit 250.

露光制御部250は、画像補正部267により補正処理がなされた後のラスターデータに基づいて、画素ごとに対応させたPWM制御を行うための駆動信号を生成して、露光装置130に送る。また、このときの露光装置130には、露光量調整部240から、画素ごとの目標光量を設定するための光量調整信号が供給されている。これにより、露光装置130では、駆動信号に応じたPWM制御によって、半導体レーザの発光時間が制御される。このとき、ラスターデータの補正対象画素については、目標光量に対して、前述した露光量の削減割合(補正係数)に応じて露光量が調整された露光が行われることになる。したがって、画像形成装置100では、エッジ効果や掃き寄せ効果を低減させる露光量調整(露光量削減)が実現され、エッジ効果や掃き寄せに起因するトナー消費量の増加を効率よく削減することができることになる。   The exposure control unit 250 generates a drive signal for performing PWM control corresponding to each pixel based on the raster data after the correction processing is performed by the image correction unit 267 and sends the drive signal to the exposure apparatus 130. In addition, a light amount adjustment signal for setting a target light amount for each pixel is supplied from the exposure amount adjustment unit 240 to the exposure apparatus 130 at this time. Thereby, in the exposure apparatus 130, the emission time of the semiconductor laser is controlled by PWM control according to the drive signal. At this time, for the correction target pixel of the raster data, exposure with the exposure amount adjusted according to the exposure amount reduction ratio (correction coefficient) described above is performed with respect to the target light amount. Therefore, in the image forming apparatus 100, exposure amount adjustment (exposure amount reduction) that reduces the edge effect and sweeping effect is realized, and an increase in toner consumption due to the edge effect and sweeping can be efficiently reduced. become.

<露光装置の制御>
以下、図3を参照しながら、光量調整信号と駆動信号によるPWM制御によって露光装置130における露光量がどのように調整されるのかを説明する。
露光量調整部240は、8ビットに対応したデジタルアナログコンバータ(DAC2021)とレギュレータ(REG2022)とを内蔵した集積回路(IC241)を有しており、上述した光量調整信号を生成して露光装置130に送出する。露光装置130は、電圧(V)を電流(I)に変換するVI変換回路131と、レーザドライバIC132と、半導体レーザ133とを有している。
<Control of exposure apparatus>
Hereinafter, how the exposure amount in the exposure apparatus 130 is adjusted by PWM control using the light amount adjustment signal and the drive signal will be described with reference to FIG.
The exposure amount adjustment unit 240 has an integrated circuit (IC241) including a digital analog converter (DAC2021) and a regulator (REG2022) corresponding to 8 bits, and generates the light amount adjustment signal described above to expose the exposure apparatus 130. To send. The exposure apparatus 130 includes a VI conversion circuit 131 that converts voltage (V) into current (I), a laser driver IC 132, and a semiconductor laser 133.

露光量調整部240内のIC241は、コントローラ140内のCPU210により設定された半導体レーザ133の駆動電流を示すベース信号を基に、REG2022から出力される電圧VrefHを調整することで、電流のベース信号の電圧信号に変換する。具体的には、電圧VrefHはDAC2021の基準電圧であり、ベース信号により電圧VrefHが調整されることで、DAC2021からはベース信号に応じた光量調整信号としての光量調整アナログ電圧71が出力される。   The IC 241 in the exposure amount adjustment unit 240 adjusts the voltage VrefH output from the REG 2022 based on the base signal indicating the drive current of the semiconductor laser 133 set by the CPU 210 in the controller 140, whereby the current base signal To the voltage signal. Specifically, the voltage VrefH is a reference voltage of the DAC 2021, and by adjusting the voltage VrefH by the base signal, the DAC 2021 outputs a light amount adjustment analog voltage 71 as a light amount adjustment signal corresponding to the base signal.

露光装置130のVI変換回路131は、露光量調整部240から受け取った光量調整信号(光量調整アナログ電圧71)を電流値Idに変換してレーザドライバIC132に出力する。これにより、半導体レーザ133からは、光量調整信号に応じた光量の光が出射される。なお、ここでは、露光量調整部240に実装されたIC241が光量調整信号を出力しているが、露光装置130上にDAC2021を実装して、レーザドライバIC132の近傍で光量調整信号が生成される構成であってもよい。レーザドライバIC132は、露光制御部250から出力される駆動信号に応じて、スイッチSWを切り替える。スイッチSWは、駆動信号に応じて、電流ILを半導体レーザ133に流すか、ダミー抵抗R1に流すかを切換えることにより、半導体レーザ133の発光のON/OFF制御を行う。これにより、駆動信号に応じたPWM制御によって、半導体レーザ133の発光時間が制御されて、露光装置130における露光量の調整が行われることになる。
<画像の濃度制御>
露光装置130による画素濃度の制御について説明する。
図4(a)と図4(b)は、露光装置130におけるPWM(パルス幅変調)制御で露光量が制御されることにより、画素濃度が調整される様子を説明する図である。図4(a)の図中のSN01〜SN05は、それぞれ1画素を示している。図4(a)は、各画素SN01〜SN05がそれぞれN個(Nは2以上の自然数)の副画素に分割され、一部の副画素に対する露光を行わない(間引く)ことで形成される画像例を示している。なお、図4(a)では、図中の黒色の部分が露光された副画素を表し、白色の部分が露光されない(間引かれた)副画素を表している。図4(b)は、各画素SN01〜SN05に対応した画素濃度を示しており、画素SN01は100%、画素SN02は75%、画素SN03は50%、画素SN04は75%、画素SN05は87.5%の画素濃度となっている。なお、図4(b)では、画素濃度を、便宜上、ドットパターンにより表している。これら各画素SN01〜SN05のような画素濃度の制御は、目標光量に対して100%の光量を、露光制御部250が駆動信号によるPWM制御で間引く(一部の副画素に対する露光を行わないようにする)ことにより実現される。例えば1画素が16個の副画素に分割される例において、画素SN03で示す50%の濃度を実現する場合、例えば奇数番目の副画素のみを露光するように半導体レーザ133を駆動することで、目標光量の100%に対して50%の光量での露光が行われる。これにより、画素SN03のような50%の濃度の画像が表現可能となる。
The VI conversion circuit 131 of the exposure apparatus 130 converts the light amount adjustment signal (light amount adjustment analog voltage 71) received from the exposure amount adjustment unit 240 into a current value Id and outputs it to the laser driver IC 132. Thereby, the semiconductor laser 133 emits light having a light amount corresponding to the light amount adjustment signal. Here, the IC 241 mounted on the exposure adjustment unit 240 outputs a light amount adjustment signal. However, the DAC 2021 is mounted on the exposure device 130 and a light amount adjustment signal is generated in the vicinity of the laser driver IC 132. It may be a configuration. The laser driver IC 132 switches the switch SW in accordance with the drive signal output from the exposure control unit 250. The switch SW performs ON / OFF control of light emission of the semiconductor laser 133 by switching between flowing the current IL to the semiconductor laser 133 or the dummy resistor R1 in accordance with the drive signal. Thereby, the light emission time of the semiconductor laser 133 is controlled by the PWM control according to the drive signal, and the exposure amount in the exposure apparatus 130 is adjusted.
<Image density control>
The pixel density control by the exposure device 130 will be described.
FIGS. 4A and 4B are diagrams for explaining how the pixel density is adjusted by controlling the exposure amount by PWM (pulse width modulation) control in the exposure apparatus 130. Each of SN01 to SN05 in FIG. 4A represents one pixel. FIG. 4A shows an image formed by dividing each of the pixels SN01 to SN05 into N (N is a natural number of 2 or more) subpixels and not exposing (thinning out) some of the subpixels. An example is shown. In FIG. 4A, the black portion in the drawing represents the exposed subpixel, and the white portion represents the unexposed (thinned out) subpixel. FIG. 4B shows the pixel density corresponding to each of the pixels SN01 to SN05. The pixel SN01 is 100%, the pixel SN02 is 75%, the pixel SN03 is 50%, the pixel SN04 is 75%, and the pixel SN05 is 87. The pixel density is 5%. In FIG. 4B, the pixel density is represented by a dot pattern for convenience. In the pixel density control for each of the pixels SN01 to SN05, the exposure control unit 250 thins out the light amount of 100% with respect to the target light amount by PWM control based on the drive signal (not to expose some subpixels). To be realized. For example, in the example in which one pixel is divided into 16 subpixels, when realizing the density of 50% indicated by the pixel SN03, for example, by driving the semiconductor laser 133 so as to expose only odd-numbered subpixels, Exposure is performed with a light amount of 50% with respect to 100% of the target light amount. Thereby, an image having a density of 50% like the pixel SN03 can be expressed.

なお、本実施形態では、光量調整をパルス幅変調により行っているが、例えば図3の露光量調整部240において、画像データをベース信号に変換して光量調整アナログ電圧を変化させることにより、目標光量を基準として画素ごとに露光量を調整してもよい。   In this embodiment, the light amount adjustment is performed by pulse width modulation. For example, the exposure amount adjustment unit 240 in FIG. 3 converts the image data into a base signal and changes the light amount adjustment analog voltage, thereby changing the target. You may adjust exposure amount for every pixel on the basis of light quantity.

<2種類の現像状態>
以下、現像装置150において観察される2種類の現像状態について説明する。図5(a)と図5(b)は2種類の現像状態の説明図であり、図5(a)はジャンピング現像状態を、図5(b)は接触現像状態をそれぞれ示している。
図5(a)に示すジャンピング現像状態は、非接触に維持された現像ローラ151と感光体ドラム110との最接近部である現像領域Rで発生する、現像ローラ151と感光体ドラム110との間に印加された現像電圧により、現像がなされる状態である。ここで、現像電圧は、直流バイアスを重畳した交流バイアス電圧のことを指すものとする。ジャンピング現像状態にある現像装置150は、現像位置における現像ローラ151と感光体ドラム110との間にギャップGPを有している。このギャップGPが小さ過ぎると現像ローラ151から感光体ドラム110へリークが発生し易くなり、潜像を現像することが難しくなる。一方、ギャップGPが大き過ぎるとトナーが感光体ドラム110に飛翔し難くなる。そのため、現像ローラ151の軸に回転可能に支持された突き当てコロ(不図示)によって、ギャップGPが適切な大きさに維持されるように設計される場合もある。
<Two types of development status>
Hereinafter, two types of development states observed in the developing device 150 will be described. 5A and 5B are explanatory diagrams of two types of development states. FIG. 5A shows a jumping development state, and FIG. 5B shows a contact development state.
In the jumping development state shown in FIG. 5A, the developing roller 151 and the photosensitive drum 110 are generated in the developing region R which is the closest part between the developing roller 151 and the photosensitive drum 110 which are maintained in a non-contact state. Development is performed by the development voltage applied between them. Here, the developing voltage indicates an AC bias voltage on which a DC bias is superimposed. The developing device 150 in the jumping development state has a gap GP between the developing roller 151 and the photosensitive drum 110 at the development position. If the gap GP is too small, leakage from the developing roller 151 to the photosensitive drum 110 is likely to occur, and it becomes difficult to develop the latent image. On the other hand, if the gap GP is too large, it is difficult for the toner to fly to the photosensitive drum 110. Therefore, the gap GP may be designed to be maintained in an appropriate size by an abutment roller (not shown) rotatably supported on the shaft of the developing roller 151.

図5(b)に示す接触現像状態は、感光体ドラム110と現像ローラ151とが接触している状況下の最接近部である現像領域Rで、現像ローラ151と感光体ドラム110との間に印加された現像電圧(直流バイアス)により、現像がなされる状態である。図5(a)と図5(b)いずれの現像状態でも、感光体ドラム110と現像ローラ151は、それぞれ異なる周速で順方向に回転している。また、感光体ドラム110と現像ローラ151の間には現像電圧として直流電圧が印加されているが、現像電圧の極性は感光体ドラム110の表面の帯電電位と同極性に設定されている。そして、現像ローラ151上に薄層化されたトナーが現像領域Rに搬送されて、感光体ドラム110の表面上に形成された静電潜像が現像されることになる。   The contact development state shown in FIG. 5B is the development region R that is the closest part in a state where the photosensitive drum 110 and the developing roller 151 are in contact with each other, and between the developing roller 151 and the photosensitive drum 110. The development is performed by the development voltage (DC bias) applied to. 5A and 5B, the photosensitive drum 110 and the developing roller 151 rotate in the forward direction at different peripheral speeds. A DC voltage is applied as a developing voltage between the photosensitive drum 110 and the developing roller 151, and the polarity of the developing voltage is set to the same polarity as the charging potential of the surface of the photosensitive drum 110. Then, the toner thinned on the developing roller 151 is conveyed to the developing region R, and the electrostatic latent image formed on the surface of the photosensitive drum 110 is developed.

<エッジ効果及び掃き寄せ効果の発生原理>
以下、エッジ効果及び掃き寄せ効果の発生原理について説明する。
先ず、エッジ効果の発生原理について説明する。エッジ効果とは、前述したように、感光体ドラム110上に形成された露光部(静電潜像)と非露光部(帯電部)との境界に電界が集中することで、画像の縁にトナーが過剰に付着してしまう現象である。図6はエッジ効果の説明図である。図6に示すように、露光部の両サイドにある非露光部からの電気力線601が露光部の縁(エッジ)に回り込んでいるため、エッジにおける電界強度が露光部の中央よりも強くなる。これにより、露光部の中央よりもエッジ部に多くのトナーが付着することになる。
<Generation principle of edge effect and sweeping effect>
Hereinafter, the generation principle of the edge effect and the sweeping effect will be described.
First, the principle of edge effect generation will be described. As described above, the edge effect means that the electric field concentrates on the boundary between the exposed portion (electrostatic latent image) formed on the photosensitive drum 110 and the non-exposed portion (charged portion), thereby causing an edge of the image. This is a phenomenon in which toner adheres excessively. FIG. 6 is an explanatory diagram of the edge effect. As shown in FIG. 6, the electric field lines 601 from the non-exposed part on both sides of the exposed part wrap around the edge of the exposed part, so the electric field strength at the edge is stronger than the center of the exposed part. Become. As a result, more toner adheres to the edge portion than the center of the exposed portion.

図7(a)は、エッジ効果の発生した画像の一例を示す図である。図7(a)において下向きの矢印は、画像700が形成された記録媒体の搬送方向(感光体ドラム110の回転方向であり、いわゆる副走査方向)を示している。画像700の元となった画像データは、全体が一様の濃度の画像のデータであるとする。エッジ効果が生じた場合、画像700のエッジ部702にトナーが集中して付着する。その結果、非エッジ部701と比較してエッジ部702の濃度が濃くなってしまう。   FIG. 7A is a diagram illustrating an example of an image in which an edge effect has occurred. In FIG. 7A, the downward arrow indicates the conveyance direction of the recording medium on which the image 700 is formed (the rotation direction of the photosensitive drum 110, the so-called sub-scanning direction). It is assumed that the image data that is the basis of the image 700 is image data having a uniform density as a whole. When the edge effect occurs, the toner concentrates and adheres to the edge portion 702 of the image 700. As a result, the density of the edge portion 702 becomes higher than that of the non-edge portion 701.

図8(a)は、画像700におけるトナーの分布状態をトナー分布曲線として示す図である。図8(a)において右向きの矢印は画像700が形成された記録媒体の搬送方向(副走査方向)を示している。搬送方向下流のエッジ部802及び搬送方向上流のエッジ部803のトナー付着量は、非エッジ部801に比べて多く、その分だけ濃度も濃くなることになる。また、エッジ部802,803のトナーは過剰であり、トナー消費量が増大する一因になっている。このように、エッジ部802,803に対して電界が集中することで、それらエッジ部802,803にトナーが過剰に付着するという現象が発生する。そして、このエッジ効果は、前述のジャンピング現像状態において顕著に見られることになる。これは、接触現像状態の場合、前述したように現像ローラ151と感光体ドラム110との間のギャップGPが極端に短いため、感光体ドラム110から現像ローラ151に向かって電界が発生し、エッジ部802,803への電界集中が緩和されるためである。   FIG. 8A is a diagram illustrating a toner distribution state in the image 700 as a toner distribution curve. In FIG. 8A, a right-pointing arrow indicates the conveyance direction (sub-scanning direction) of the recording medium on which the image 700 is formed. The toner adhesion amount at the edge portion 802 downstream in the transport direction and the edge portion 803 upstream in the transport direction is larger than that of the non-edge portion 801, and the density is increased accordingly. Further, the toner in the edge portions 802 and 803 is excessive, which contributes to an increase in toner consumption. As described above, when the electric field concentrates on the edge portions 802 and 803, a phenomenon that toner adheres excessively to the edge portions 802 and 803 occurs. This edge effect is noticeable in the above-described jumping development state. In the contact development state, since the gap GP between the developing roller 151 and the photosensitive drum 110 is extremely short as described above, an electric field is generated from the photosensitive drum 110 toward the developing roller 151, and the edge is developed. This is because electric field concentration on the portions 802 and 803 is alleviated.

次に、掃き寄せ効果の発生原理について説明する。掃き寄せ効果は、前述したように、感光体ドラム110上の画像の後端部のエッジにトナーが集中する現象である。この掃き寄せ効果は、接触現像状態で顕著に見られることになる。以下、詳しく説明する。
図7(b)は、掃き寄せ効果の発生した画像の一例を示す図である。図7(b)において下向きの矢印は画像710が形成された記録媒体の搬送方向(副走査方向)を示している。前述した画像700と同様、画像710の元となった画像データは、全体が一様の濃度の画像のデータであるとする。掃き寄せ効果が生じた場合、画像710のエッジのうち後端部712にトナーが集中して付着する。その結果、非エッジ部711と比較して後端部712の濃度が濃くなってしまう。
Next, the principle of generating the sweeping effect will be described. As described above, the sweeping effect is a phenomenon in which toner concentrates on the edge of the rear end portion of the image on the photosensitive drum 110. This sweeping effect is noticeable in the contact development state. This will be described in detail below.
FIG. 7B is a diagram illustrating an example of an image having a sweeping effect. In FIG. 7B, the downward arrow indicates the conveyance direction (sub-scanning direction) of the recording medium on which the image 710 is formed. Similar to the image 700 described above, it is assumed that the image data that is the basis of the image 710 is data of an image having a uniform density as a whole. When the sweeping effect occurs, the toner concentrates and adheres to the rear end portion 712 among the edges of the image 710. As a result, the density of the rear end portion 712 is higher than that of the non-edge portion 711.

図8(b)は、画像710におけるトナーの分布状態をトナー分布曲線として示す図である。図8(b)において右向きの矢印は画像710が形成された記録媒体の搬送方向(副走査方向)を示している。搬送方向下流側のエッジ部812(図7(b)の後端部712)のトナー付着量は、非エッジ部811(図7(b)の非エッジ部711)に比べて多く、その分だけ濃度も濃くなることになる。また、搬送方向下流側のエッジ部812(図7(b)の後端部712)後端部のトナーは過剰であり、トナー消費量が増大する一因になっている。   FIG. 8B is a diagram illustrating a toner distribution state in the image 710 as a toner distribution curve. In FIG. 8B, a right-pointing arrow indicates the conveyance direction (sub-scanning direction) of the recording medium on which the image 710 is formed. The toner adhesion amount at the edge portion 812 (the rear end portion 712 in FIG. 7B) on the downstream side in the transport direction is larger than that in the non-edge portion 811 (the non-edge portion 711 in FIG. 7B), and that much. The concentration will also increase. Further, the toner at the rear end portion of the edge portion 812 (the rear end portion 712 in FIG. 7B) on the downstream side in the transport direction is excessive, which contributes to an increase in toner consumption.

図9(a)〜図9(c)は、接触現像状態における掃き寄せ効果の発生メカニズムを説明する図である。接触現像状態では、感光体ドラム110上のトナーの高さが所定の高さになるよう、現像ローラ151の周速は感光体ドラム110の周速よりも速くなっている。これにより、感光体ドラム110に安定してトナーを供給することが可能となり、画像濃度が目標となる濃度に維持される。図9(a)で示すように、現像領域Rでは、現像ローラ151によって搬送されてきたトナー901によって静電潜像900が現像される。また、感光体ドラム110に対して現像ローラ151の方が速く回転しているため、両者の表面上の位置関係は常にずれ続けている。静電潜像900の後端部が現像領域Rに侵入した時点では、現像ローラ151上のトナー901は、現像領域Rの開始位置より回転方向において静電潜像900の後端部における図中網掛けが描かれたトナー902よりも後側に位置する。その後、図9(b)で示すように、後端部におけるトナー902が現像領域Rを出るまでの間に、現像ローラ151上のトナー901は後端部におけるトナー902を追い越す。そして、図9(c)で示すように、トナー901が静電潜像900の後端部のトナー902に供給されてトナー903として付着するため、後端部における現像量が多くなる。これが、掃き寄せ効果の発生メカニズムである。   FIG. 9A to FIG. 9C are diagrams for explaining the generation mechanism of the sweeping effect in the contact development state. In the contact development state, the peripheral speed of the developing roller 151 is faster than the peripheral speed of the photosensitive drum 110 so that the height of the toner on the photosensitive drum 110 becomes a predetermined height. As a result, the toner can be stably supplied to the photosensitive drum 110, and the image density is maintained at a target density. As shown in FIG. 9A, in the development region R, the electrostatic latent image 900 is developed by the toner 901 conveyed by the developing roller 151. In addition, since the developing roller 151 rotates faster with respect to the photosensitive drum 110, the positional relationship between the two surfaces is always shifted. When the rear end portion of the electrostatic latent image 900 enters the developing region R, the toner 901 on the developing roller 151 is in the drawing at the rear end portion of the electrostatic latent image 900 in the rotation direction from the starting position of the developing region R. It is located behind the toner 902 in which shading is drawn. Thereafter, as shown in FIG. 9B, the toner 901 on the developing roller 151 overtakes the toner 902 at the rear end until the toner 902 at the rear end exits the development region R. Then, as shown in FIG. 9C, the toner 901 is supplied to the toner 902 at the rear end portion of the electrostatic latent image 900 and adheres as the toner 903, so that the development amount at the rear end portion increases. This is the generation mechanism of the sweeping effect.

<エッジ効果及び掃き寄せ効果を低減させる露光量の調整処理>
本実施形態において、静電潜像を形成するためのラスターデータを補正することで露光量を調整して、エッジ効果及び掃き寄せ効果を減少させる処理について説明する。
画像処理部260は、露光量を調整のための前処理を実行する。この前処理は、CPU210がプログラムに従って画像処理部260を制御することで実行される。以下、図2を参照しながら詳しく説明する。ここでは、ホストコンピュータ10から送られてきた画像データから、レンダリング処理部200により生成されて画像メモリ231に蓄積されたラスターデータの補正を例に挙げて説明する。
<Exposure amount adjustment processing to reduce edge effect and sweeping effect>
In the present embodiment, a process for adjusting the exposure amount by correcting raster data for forming an electrostatic latent image to reduce the edge effect and the sweeping effect will be described.
The image processing unit 260 performs preprocessing for adjusting the exposure amount. This pre-processing is executed by the CPU 210 controlling the image processing unit 260 according to a program. Hereinafter, this will be described in detail with reference to FIG. Here, correction of raster data generated by the rendering processing unit 200 and stored in the image memory 231 from image data sent from the host computer 10 will be described as an example.

画像処理部260において、条件判断部264には、画像形成装置100の装置の状態を表す装置状態情報が入力される。ここで、装置状態情報には、画像形成装置100の処理能力の情報や、プリンタエンジンのプロセス速度の情報、環境検知装置180が取得した画像形成装置100内外の温度や湿度といった周辺環境の情報が含まれる。また、装置状態情報には、コントローラ140内で別途求めた総出力枚数(印刷された総枚数、総稼動枚数)や総稼働時間(印刷が実行された累積時間)から予測される感光体ドラム110やトナーといった部材の耐久度合を示す情報も含まれる。条件判断部264は、受け取った装置状態情報に応じた補正条件を決定する。そして、決定した補正条件の情報(以下、補正条件情報と表記する。)がパラメータ設定部265に入力される。パラメータ設定部265は、受け取った補正条件情報に基づいて、エッジ効果及び掃き寄せ効果を減少させるための補正処理の対象とする所定の画素幅(エッジからの画素数、つまりエッジからの距離)を、補正パラメータとして設定する。   In the image processing unit 260, device state information indicating the state of the image forming apparatus 100 is input to the condition determining unit 264. Here, the apparatus status information includes information on the processing capability of the image forming apparatus 100, information on the process speed of the printer engine, and information on the surrounding environment such as the temperature and humidity inside and outside the image forming apparatus 100 acquired by the environment detection apparatus 180. included. In the apparatus status information, the photosensitive drum 110 predicted from the total number of output sheets (total number of printed sheets and total number of operating sheets) separately obtained in the controller 140 and the total operating time (cumulative time when printing is performed). Information indicating the durability of the member such as toner and toner is also included. The condition determination unit 264 determines a correction condition according to the received apparatus state information. Information about the determined correction condition (hereinafter referred to as correction condition information) is input to the parameter setting unit 265. Based on the received correction condition information, the parameter setting unit 265 sets a predetermined pixel width (the number of pixels from the edge, that is, the distance from the edge) to be subjected to correction processing for reducing the edge effect and the sweeping effect. And set as a correction parameter.

ここで、補正パラメータは、画像形成装置100の処理能力やプリンタエンジンにおけるプロセス速度、画像形成装置100の周辺環境温度や湿度、総出力枚数や総稼動時間などの装置状態情報に応じて、変更する必要がある。このため、条件判断部264は、例えば、印刷する用紙の種類に応じて変化するプリンタエンジンのプロセス速度、装置の処理能力、総出力枚数や総稼動時間、周辺環境温度や湿度等を補正条件として決定する。例えば、印刷する用紙の種類に応じてプリンタエンジンのプロセス速度が変化することで、印刷された画像のエッジ部分近傍におけるトナー分布曲線が変化することが考えられる。なお、画像のエッジ部分近傍におけるトナー分布曲線は、前述した図8(a),図8(b)で説明したような曲線である。例えば、プロセス速度が速ければ、エッジ部分近傍のトナー分布曲線のオーバーシュート部分の高さが低くなって幅が広がるため、エッジからの距離(補正対象となされる画素幅)は伸ばし、その伸ばした距離に対するトナー削減量は減らす必要があると考えられる。また、総稼働枚数や総稼働時間によっても、同様に、エッジ部分近傍のトナー分布曲線が鈍ることになるため、トナー削減量は減らす必要があると考えられる。一方、周辺環境温度や湿度によっては静電効果が大きくなることがあり、この場合、エッジ効果が大きくなる可能性があるため、エッジからの距離は伸ばし、その伸ばした距離に対するトナー削減量を増やす必要があると考えられる。このように、条件判断部264では補正条件を決定し、パラメータ設定部265は補正条件情報に基づいて補正パラメータ(補正対象とする画素幅を特定する情報、すなわちエッジからの距離)を設定している。   Here, the correction parameter is changed according to the apparatus status information such as the processing capability of the image forming apparatus 100, the process speed of the printer engine, the ambient temperature and humidity of the image forming apparatus 100, the total number of output sheets, and the total operating time. There is a need. For this reason, the condition determination unit 264 uses, for example, the process speed of the printer engine that changes according to the type of paper to be printed, the processing capacity of the apparatus, the total number of output sheets and the total operating time, the ambient environment temperature and humidity as correction conditions. decide. For example, it is conceivable that the toner distribution curve in the vicinity of the edge portion of the printed image changes as the process speed of the printer engine changes according to the type of paper to be printed. Note that the toner distribution curve in the vicinity of the edge portion of the image is the curve as described with reference to FIGS. 8A and 8B. For example, if the process speed is high, the height of the overshoot portion of the toner distribution curve near the edge portion is reduced and the width is widened. Therefore, the distance from the edge (the pixel width to be corrected) is increased and increased. It is considered that the toner reduction amount with respect to the distance needs to be reduced. Similarly, the toner distribution curve in the vicinity of the edge portion becomes dull depending on the total number of operating sheets and the total operating time, so it is considered that the amount of toner reduction needs to be reduced. On the other hand, the electrostatic effect may be increased depending on the ambient temperature and humidity. In this case, the edge effect may be increased. Therefore, the distance from the edge is increased, and the toner reduction amount is increased with respect to the extended distance. It is considered necessary. As described above, the condition determination unit 264 determines the correction condition, and the parameter setting unit 265 sets the correction parameter (information for specifying the pixel width to be corrected, that is, the distance from the edge) based on the correction condition information. Yes.

画像解析部266は、エッジフラグ生成部261からのエッジ特徴を含む属性フラグとパラメータ設定部265からの補正パラメータとに基づいて、画像メモリ231上のラスターデータから、エッジ効果及び掃き寄せ効果が発生し得る画素を特定する。ここで、前述したエッジ効果や掃き寄せ効果は、トナーの付着量が増加したことで、画素の光学的な濃度が、ある値より大きくなった場合に視認し易くなる。また、エッジ効果は画像領域の縁に発生し、掃き寄せ効果は画像領域の副走査方向の後端部分に発生する。したがって、画像解析部266は、これらを考慮して、画像メモリ231上のラスターデータの中の補正対象画素を特定する。そして、画像補正部267は、ラスターデータの中の補正対象画素に対して、エッジ効果及び掃き寄せ効果を減少させるための補正処理を行って、その補正処理後のラスターデータを露光制御部250に送る。これにより、露光制御部250は、補正処理後のラスターデータに基づいて露光装置130への駆動信号を生成し、露光装置130ではその駆動信号に基づくPWM制御により露光量の調整が行われる。その結果、画像形成装置100では、エッジ効果や掃き寄せ効果によるトナー消費量を効率よく削減することが可能となる。   The image analysis unit 266 generates an edge effect and a sweeping effect from raster data on the image memory 231 based on the attribute flag including the edge feature from the edge flag generation unit 261 and the correction parameter from the parameter setting unit 265. Identify possible pixels. Here, the edge effect and the sweeping effect described above are easily visible when the optical density of the pixel becomes larger than a certain value due to an increase in the toner adhesion amount. The edge effect occurs at the edge of the image area, and the sweeping effect occurs at the rear end portion of the image area in the sub-scanning direction. Therefore, the image analysis unit 266 specifies these correction target pixels in the raster data on the image memory 231 in consideration of these. Then, the image correction unit 267 performs correction processing for reducing the edge effect and the sweeping effect on the correction target pixel in the raster data, and sends the raster data after the correction processing to the exposure control unit 250. send. Thereby, the exposure control unit 250 generates a drive signal for the exposure apparatus 130 based on the raster data after the correction processing, and the exposure apparatus 130 adjusts the exposure amount by PWM control based on the drive signal. As a result, the image forming apparatus 100 can efficiently reduce the toner consumption due to the edge effect and the sweeping effect.

図10は、画像解析部266が、属性フラグと補正パラメータとに基づいて、注目画素を補正対象画素として特定する際の処理のフローチャートを示す。以下の説明では、図10の各処理のステップS101〜ステップS107を、S101〜S107と略記する。図10のフローチャートの処理は、画像解析部266により行われるが、CPU210が本実施形態の画像形成処理プログラムを実行することで実現してもよい。   FIG. 10 shows a flowchart of processing when the image analysis unit 266 specifies the target pixel as the correction target pixel based on the attribute flag and the correction parameter. In the following description, steps S101 to S107 of each process in FIG. 10 are abbreviated as S101 to S107. The processing of the flowchart of FIG. 10 is performed by the image analysis unit 266, but may be realized by the CPU 210 executing the image forming processing program of the present embodiment.

図10のフローチャートにおいて、S101では、画像解析部266は、ラスターデータの画像の中の、ある注目画素の画素濃度(画素値)が所定閾値以上であるか否かを判断することにより、その注目画素が高濃度画素であるか否かを判定する。具体的には、画像解析部266は、注目画素とその注目画素を中心とした周囲の複数画素について、予め定義しておいた所定閾値以上であるか否かを判定する。所定閾値は、一例として画素値の濃度が8ビットで表される場合には、8ビットを10進数で表記した場合の0〜255の値のうち、例えば250の値となされる。この例の場合、画像解析部266は、注目画素及びその周囲画素の画素値の濃度が250〜255の値である場合に、その注目画素は高濃度画素であると判定する。画像解析部266は、S101において、注目画素が高濃度画素であると判定した場合にはS102以降に処理を進め、一方、注目画素が高濃度画素でないと判定した場合にはS106に処理を進める。   In the flowchart of FIG. 10, in S101, the image analysis unit 266 determines whether or not the pixel density (pixel value) of a certain target pixel in the raster data image is equal to or higher than a predetermined threshold. It is determined whether or not the pixel is a high density pixel. Specifically, the image analysis unit 266 determines whether or not the target pixel and a plurality of surrounding pixels centering on the target pixel are equal to or greater than a predetermined threshold value defined in advance. For example, when the density of the pixel value is represented by 8 bits, the predetermined threshold is, for example, a value of 250 out of 0 to 255 when the 8 bits are represented by a decimal number. In the case of this example, the image analysis unit 266 determines that the target pixel is a high-density pixel when the pixel values of the target pixel and the surrounding pixels have a value of 250 to 255. If the image analysis unit 266 determines in S101 that the pixel of interest is a high-density pixel, the image analysis unit 266 proceeds to S102 and the subsequent steps. If the image analysis unit 266 determines that the pixel of interest is not a high-density pixel, the image analysis unit 266 proceeds to S106. .

ここで、ラスターデータの画像の中で、画素値が例えば急激に変化していた場合、前述したエッジフラグ生成部261ではエッジ部が検出されることになる。そして、注目画素の画素値が高濃度画素の値若しくはゼロ(0)であった場合、注目画素の周辺で検出されているエッジ部から、その注目画素までは同等の濃度の画素が連続していると考えられる。一方、注目画素の画素値が高濃度画素の値でない場合、注目画素からエッジ部までは高濃度画素が連続していないか、若しくは、白領域が連続していると考えられる。   Here, in the raster data image, for example, when the pixel value changes rapidly, the edge flag generation unit 261 detects the edge portion. When the pixel value of the target pixel is the value of the high density pixel or zero (0), pixels having the same density are continuously connected from the edge portion detected around the target pixel to the target pixel. It is thought that there is. On the other hand, when the pixel value of the target pixel is not the value of the high density pixel, it is considered that the high density pixel is not continuous from the target pixel to the edge portion, or the white area is continuous.

以下、図11(a)〜図11(f)を参照し、画像とエッジの関係、エッジフラグ生成部261により生成されるエッジ特徴を含む属性フラグ、及び、エッジが検出された場合のエッジ部から注目画素までの画素濃度について説明する。図11(a)は、エッジフラグ生成部261に入力されたラスターデータの画像のうち、エッジ部分が含まれている画像例を示している。図11(a)は16×16画素の大きさの画像1100を例に挙げており、図中の格子状の各四角はそれぞれ画素1101を表し、各画素1101に対応した各四角における斜線や白は画素値(斜線は濃度が濃く、白は濃度が薄い)を表しているとする。また、この例において、エッジフラグ生成部261は、ラスターデータに対して、例えば二次微分フィルタを適用することにより画像のエッジ部分を検出して、その検出したエッジ部分の特徴(エッジ特徴)を含む属性フラグを生成しているとする。図11(a)に示した画像1100の例の場合、エッジフラグ生成部261は、図11(b)に示すような黒い四角が連なった部分(つまりエッジ部分)について、エッジ特徴を含む属性フラグの2値データ("1"のエッジフラグ1104)を生成する。図11(b)は、図11(a)に示した画像1100の16×16個の各画素にそれぞれ対応した16×16個の属性フラグ1105からなる参照ウィンドウ1102を示している。図11(b)の格子状の各四角はそれぞれ属性フラグ1105を表し、各四角のうち黒色で表されている四角は属性フラグ1105の中のエッジフラグ1104が"1"になっていることを表している。また、図11(b)中の属性フラグ1103は、注目画素に対応した属性フラグであることを表している。この図11(b)に示したような16×16個の属性フラグ1105からなる参照ウィンドウ1102は、画像解析部266による画像解析の対象となされている。   Hereinafter, with reference to FIG. 11A to FIG. 11F, the relationship between the image and the edge, the attribute flag including the edge feature generated by the edge flag generation unit 261, and the edge portion when the edge is detected The pixel density from the target pixel to the target pixel will be described. FIG. 11A shows an image example in which an edge portion is included in an image of raster data input to the edge flag generation unit 261. FIG. 11A shows an example of an image 1100 having a size of 16 × 16 pixels, and each square in the lattice shape in the figure represents a pixel 1101, and diagonal lines and white lines in each square corresponding to each pixel 1101 are shown. Represents a pixel value (a shaded line has a high density and white has a low density). In this example, the edge flag generation unit 261 detects the edge portion of the image by applying, for example, a secondary differential filter to the raster data, and the feature (edge feature) of the detected edge portion is detected. Assume that an attribute flag is included. In the example of the image 1100 illustrated in FIG. 11A, the edge flag generation unit 261 includes an attribute flag including an edge feature for a portion where black squares are continuous as illustrated in FIG. Binary data ("1" edge flag 1104) is generated. FIG. 11B shows a reference window 1102 composed of 16 × 16 attribute flags 1105 respectively corresponding to 16 × 16 pixels of the image 1100 shown in FIG. Each square in the grid pattern of FIG. 11B represents the attribute flag 1105, and among the squares, the square represented by black indicates that the edge flag 1104 in the attribute flag 1105 is “1”. Represents. Further, an attribute flag 1103 in FIG. 11B indicates that the attribute flag corresponds to the target pixel. A reference window 1102 composed of 16 × 16 attribute flags 1105 as shown in FIG. 11B is a target of image analysis by the image analysis unit 266.

画像解析部266は、図11(b)の参照ウィンドウ1102の中から、図11(c)〜図11(f)に示すように、注目画素の属性フラグ1103を含む主走査方向と副走査方向の各属性フラグ1105の列を切り出す。図11(c)〜図11(f)の図中の各矢印は、画像解析部266が、参照ウィンドウ1102に対して画像解析の際に参照する所定方向(以下、「参照方向」と表記する。)を表している。また、本実施形態の以下の説明では、参照方向とは反対側の方向を「参照逆方向」と呼ぶことにする。なお、図11(e)の矢印方向は主走査方向に対応しており、図11(c)の矢印方向は副走査方向に対応している。画像解析部266は、図11(b)の参照ウィンドウ1102から、図11(c)〜図11(f)のように注目画素の属性フラグ1103を中心とした上下左右の四つの参照方向について各属性フラグ1105の列を切り出す。そして、画像解析部266は、図11(c)〜図11(f)の注目画素の属性フラグ1103を含むそれぞれ16個の属性フラグ1105が連なったフラグ列を用いて以下のような画像解析を行って、エッジ効果及び掃き寄せ効果が発生し得る画素を特定する。   As shown in FIGS. 11 (c) to 11 (f), the image analysis unit 266 includes a main scanning direction and a sub-scanning direction including the attribute flag 1103 of the target pixel from the reference window 1102 in FIG. 11 (b). The column of each attribute flag 1105 is cut out. Each of the arrows in FIGS. 11C to 11F represents a predetermined direction (hereinafter referred to as “reference direction”) that the image analysis unit 266 refers to the reference window 1102 when analyzing the image. .). In the following description of the present embodiment, the direction opposite to the reference direction is referred to as “reference reverse direction”. Note that the arrow direction in FIG. 11E corresponds to the main scanning direction, and the arrow direction in FIG. 11C corresponds to the sub-scanning direction. The image analysis unit 266 starts from the reference window 1102 in FIG. 11B for each of the four reference directions on the top, bottom, left, and right centered on the attribute flag 1103 of the target pixel as shown in FIGS. 11C to 11F. The column of the attribute flag 1105 is cut out. Then, the image analysis unit 266 performs the following image analysis using a flag string in which 16 attribute flags 1105 including the attribute flag 1103 of the target pixel in FIGS. 11C to 11F are connected. To identify pixels where edge effects and sweeping effects can occur.

図10のフローチャートに説明を戻す。画像解析部266は、S102の処理に進むと、注目画素の属性フラグ1103から参照逆方向にエッジがあるか否かを判断する。画像解析部266は、S102において、注目画素の属性フラグ1103から参照逆方向に、エッジがあると判断した場合にはS103に処理を進め、一方、参照逆方向にエッジがないと判断した場合にはS106に処理を進める。   Returning to the flowchart of FIG. In step S102, the image analysis unit 266 determines whether there is an edge in the reference reverse direction from the attribute flag 1103 of the target pixel. If the image analysis unit 266 determines in S102 that there is an edge in the reference reverse direction from the attribute flag 1103 of the target pixel, the image analysis unit 266 proceeds to S103, whereas if it is determined that there is no edge in the reference reverse direction. Advances the process to S106.

S102における判断処理について、図11(c)〜図11(f)を例に用いて説明する。参照方向が副走査方向である図11(c)の例の場合、S102において、画像解析部266は、注目画素の属性フラグ1103からみて参照逆方向にエッジがあるか否か判断する。ここで、S102において、注目画素の属性フラグ1103からみて参照逆方向にエッジがあるか否かは、注目画素の属性フラグ1103からみて参照逆方向の各属性フラグ1105におけるエッジフラグのSUM値(総和値)がゼロか否かにより判断する。SUM値がゼロである場合には、注目画素から参照逆方向にはエッジが存在していないことになる。図11(c)の場合、注目画素の属性フラグ1103からみて参照逆方向の各属性フラグ1105は"1"のエッジフラグの存在を表す黒色の四角ではないためSUM値はゼロであり、この場合、画像解析部266はS102からS106に処理を進める。参照方向が副走査方向の逆方向である図11(d)の例の場合、S102において、画像解析部266は、注目画素の属性フラグ1103から参照逆方向にエッジがあるか否か判断する。図11(d)の例の場合、注目画素の属性フラグ1103から参照逆方向の四つ目の属性フラグ1105が"1"のエッジフラグの存在を表す黒色の四角となっている。このためSUM値はゼロではなくなり、したがってこの場合、画像解析部266はS102からS103に処理を進める。参照方向が主走査方向である図11(e)の例の場合、S102において、画像解析部266は、注目画素の属性フラグ1103からみて参照逆方向にエッジがあるか否か判断する。図11(e)の例の場合、注目画素の属性フラグ1103からみて参照逆方向の各属性フラグ1105には"1"のエッジフラグの存在を表す黒色の四角がなくSUM値はゼロであるため、画像解析部266はS102からS106に処理を進める。参照方向が主走査方向の逆方向である図11(f)の例の場合、S102において、画像解析部266は、注目画素の属性フラグ1103からみて参照逆方向にエッジがあるか否か判断する。図11(f)の例の場合、注目画素の属性フラグ1103から参照逆方向の六つ目の属性フラグ1105が"1"のエッジフラグの存在を表す黒色の四角となっており、SUM値はゼロではなくなるため、画像解析部266はS102からS103に処理を進める。   The determination process in S102 will be described using FIGS. 11C to 11F as examples. In the example of FIG. 11C in which the reference direction is the sub-scanning direction, in S102, the image analysis unit 266 determines whether there is an edge in the reference reverse direction as seen from the attribute flag 1103 of the target pixel. Here, in S102, whether or not there is an edge in the reference reverse direction as viewed from the attribute flag 1103 of the target pixel is determined by whether or not there is an SUM value (sum total) of the edge flag in each attribute flag 1105 in the reference reverse direction from the attribute flag 1103 of the target pixel. Judgment is made based on whether or not (value) is zero. When the SUM value is zero, no edge exists in the reference reverse direction from the target pixel. In the case of FIG. 11C, each attribute flag 1105 in the reference reverse direction as viewed from the attribute flag 1103 of the target pixel is not a black square indicating the presence of the edge flag of “1”, so the SUM value is zero. The image analysis unit 266 advances the process from S102 to S106. In the case of the example of FIG. 11D in which the reference direction is the reverse direction of the sub-scanning direction, in S102, the image analysis unit 266 determines whether there is an edge in the reference reverse direction from the attribute flag 1103 of the target pixel. In the example of FIG. 11D, the fourth attribute flag 1105 in the reverse direction from the attribute flag 1103 of the target pixel is a black square indicating the presence of the edge flag “1”. For this reason, the SUM value is not zero. Therefore, in this case, the image analysis unit 266 advances the process from S102 to S103. In the case of the example of FIG. 11E in which the reference direction is the main scanning direction, in S102, the image analysis unit 266 determines whether there is an edge in the reference reverse direction as seen from the attribute flag 1103 of the target pixel. In the case of the example in FIG. 11E, each attribute flag 1105 in the reference reverse direction as viewed from the attribute flag 1103 of the target pixel does not have a black square indicating the presence of the edge flag “1”, and the SUM value is zero. The image analysis unit 266 advances the process from S102 to S106. In the example of FIG. 11F in which the reference direction is the reverse direction of the main scanning direction, in S102, the image analysis unit 266 determines whether or not there is an edge in the reference reverse direction as seen from the attribute flag 1103 of the target pixel. . In the example of FIG. 11F, the sixth attribute flag 1105 in the reference reverse direction from the attribute flag 1103 of the target pixel is a black square indicating the presence of an edge flag of “1”, and the SUM value is Since it is not zero, the image analysis unit 266 advances the process from S102 to S103.

画像解析部266は、S103の処理に進むと、注目画素の属性フラグ1103から参照方向に所定数以下のエッジがあるか否かを判断する。画像解析部266は、S103において、注目画素の属性フラグ1103から参照方向に所定数以下のエッジがあると判断した場合にはS104に処理を進める。一方、画像解析部266は、S103において、注目画素の属性フラグ1103から参照方向にエッジが無いか、又は、所定数以上のエッジがあると判断した場合にはS106に処理を進める。なお、所定数は、予め決められた1以上の数であり、本実施形態では所定数を例えば「1」としている。このような所定数を設定しておくのは、例えば画素値の急激な変化が生じている部分が繰り返すような模様の画像において、エッジ効果や掃き寄せ効果を低減するための補正処理が行われるのを防ぐためである。   In step S103, the image analysis unit 266 determines whether or not there are a predetermined number of edges or less in the reference direction from the attribute flag 1103 of the target pixel. If the image analysis unit 266 determines in S103 that there are not more than a predetermined number of edges in the reference direction from the attribute flag 1103 of the target pixel, the process proceeds to S104. On the other hand, if the image analysis unit 266 determines in S103 that there is no edge in the reference direction from the attribute flag 1103 of the target pixel or there are more than a predetermined number of edges, the process proceeds to S106. The predetermined number is a predetermined number of 1 or more. In the present embodiment, the predetermined number is, for example, “1”. Such a predetermined number is set because, for example, correction processing for reducing the edge effect and the sweeping effect is performed in an image having a pattern in which a portion in which a rapid change in pixel value occurs is repeated. This is to prevent this.

S103における判断処理について、図11(c)〜図11(f)を例に用いて説明する。参照方向が副走査方向である図11(c)の例の場合、S103において、画像解析部266は、注目画素の属性フラグ1103からみて参照方向に所定数以下のエッジがあるか否か判断する。図11(c)の例の場合、注目画素の属性フラグ1103から参照方向に四つ目の属性フラグ1105のみが"1"のエッジフラグ1104であることを表す黒色の四角となっているため、画像解析部266は、S103からS104に処理を進める。参照方向が副走査方向の逆方向である図11(d)の例の場合、S103において、画像解析部266は、注目画素の属性フラグ1103からみて参照方向に所定数以下のエッジがあるか否か判断する。図11(d)の例の場合、注目画素の属性フラグ1103から参照方向には、"1"のエッジフラグ1104の存在を表す黒色の四角がないため、画像解析部266は、S103からS106に処理を進める。参照方向が主走査方向である図11(e)の例の場合、S103において、画像解析部266は、注目画素の属性フラグ1103からみて参照方向に所定数以下のフラグがあるか否か判断する。図11(e)の例の場合、注目画素の属性フラグ1103から参照方向に六つ目のフラグが、"1"のエッジフラグ1104であることを表す黒色の四角となっているため、画像解析部266は、S103からS104に処理を進める。参照方向が主走査方向の逆方向である図11(f)の例の場合、S103において、画像解析部266は、注目画素の属性フラグ1103からみて参照方向に所定数以下のエッジがあるか否か判断する。図11(f)の例の場合、注目画素の属性フラグ1103から参照方向には、"1"のエッジフラグ1104の存在を表す黒色の四角がないため、画像解析部266は、S103からS106に処理を進める。   The determination process in S103 will be described using FIGS. 11C to 11F as examples. In the example of FIG. 11C in which the reference direction is the sub-scanning direction, in S103, the image analysis unit 266 determines whether or not there are a predetermined number of edges or less in the reference direction as seen from the attribute flag 1103 of the target pixel. . In the case of the example in FIG. 11C, only the fourth attribute flag 1105 in the reference direction from the attribute flag 1103 of the target pixel is a black square indicating that the edge flag 1104 is “1”. The image analysis unit 266 advances the process from S103 to S104. In the example of FIG. 11D in which the reference direction is the reverse direction of the sub-scanning direction, in S103, the image analysis unit 266 determines whether there are a predetermined number or less edges in the reference direction as seen from the attribute flag 1103 of the target pixel. Judge. In the example of FIG. 11D, since there is no black square representing the presence of the edge flag 1104 of “1” in the reference direction from the attribute flag 1103 of the target pixel, the image analysis unit 266 proceeds from S103 to S106. Proceed with the process. In the example of FIG. 11E in which the reference direction is the main scanning direction, in S103, the image analysis unit 266 determines whether or not there are a predetermined number or less flags in the reference direction as seen from the attribute flag 1103 of the target pixel. . In the case of the example of FIG. 11E, the sixth flag in the reference direction from the attribute flag 1103 of the target pixel is a black square indicating that the edge flag 1104 is “1”. The unit 266 advances the process from S103 to S104. In the case of the example of FIG. 11F in which the reference direction is the reverse direction of the main scanning direction, in S103, the image analysis unit 266 determines whether there are a predetermined number or less edges in the reference direction as seen from the attribute flag 1103 of the target pixel. Judge. In the example of FIG. 11F, since there is no black square indicating the presence of the edge flag 1104 of “1” in the reference direction from the attribute flag 1103 of the target pixel, the image analysis unit 266 proceeds from S103 to S106. Proceed with the process.

なお、注目画素の属性フラグ1103からみて参照方向に"1"のエッジフラグが複数連続する場合がある。このように"1"のエッジフラグが複数連続する場合、画像解析部266は、前述のS103で所定数以下のエッジがあるか否かの判断の際には、それら複数連続する"1"のエッジフラグについては一つのエッジフラグとして扱う。このため、画像解析部266は、所定数以下のエッジがあるか否かの判断の際には、注目画素の属性フラグ1103からみて参照方向に順番に属性フラグ1105を取り込み、エッジフラグが"0"から"1"に変化する個数を数えるようにする。そして、エッジフラグが"0"から"1"に変換する個数が所定数以下であるとき、画像解析部266は、所定数以下のエッジがあると判断する。例えば、図11(c)の例の場合、注目画素の属性フラグ1103から参照方向に順番に各属性フラグ1105を取り込むと、それら各属性フラグ1105のエッジフラグは"00010000"の並び順になる。したがって、図11(c)の例の場合、エッジフラグが"0"から"1"に変化した変化点の個数は1個であるため、画像解析部266は、エッジは一つであると判断する。ここで仮に、仮にエッジ抽出の際のフィルタ係数等により"1"のエッジフラグが複数連続することになり、注目画素の属性フラグ1103から参照方向に順番に取り込んだ各属性フラグ1105のエッジフラグが"000111100"の並び順であったとする。この場合も、エッジフラグが"0"から"1"に変化した変化点の個数は1個であるため、画像解析部266は、エッジは一つであると判断することができる。なお、それら複数連続する"1"のエッジフラグを一つのエッジフラグとして扱う際に各属性フラグ1105を取り込む個数については、画像形成装置100の特性や処理能力等に応じて設定することが望ましい。例えば、各属性フラグ1105の取り込み個数が多すぎると、前述した補正対象となされる画素幅が大きくなり過ぎ、また、演算処理の負荷も大きくなるため、これらを考慮した個数に設定することが望ましい。   Note that there are cases where a plurality of edge flags “1” continue in the reference direction as viewed from the attribute flag 1103 of the target pixel. When a plurality of edge flags “1” are consecutive in this way, the image analysis unit 266 determines whether there are a predetermined number or less of edges in S103 described above, and the plurality of consecutive “1” edges. The edge flag is handled as one edge flag. For this reason, when determining whether or not there are a predetermined number of edges or less, the image analysis unit 266 fetches the attribute flag 1105 in order in the reference direction from the attribute flag 1103 of the target pixel, and the edge flag is “0”. Count the number of changes from "1" to "1". When the number of edge flags converted from “0” to “1” is equal to or less than the predetermined number, the image analysis unit 266 determines that there are equal to or less than the predetermined number of edges. For example, in the case of the example of FIG. 11C, when each attribute flag 1105 is fetched in order from the attribute flag 1103 of the target pixel in the reference direction, the edge flags of the attribute flags 1105 are arranged in the order of “00010000”. Accordingly, in the case of the example of FIG. 11C, the number of change points at which the edge flag has changed from “0” to “1” is one, so the image analysis unit 266 determines that there is one edge. To do. Here, it is assumed that a plurality of edge flags “1” are consecutively provided by filter coefficients at the time of edge extraction, and the edge flags of the attribute flags 1105 taken in order in the reference direction from the attribute flag 1103 of the pixel of interest. It is assumed that the order is “000111100”. Also in this case, since the number of change points at which the edge flag has changed from “0” to “1” is one, the image analysis unit 266 can determine that there is one edge. Note that it is desirable to set the number of each attribute flag 1105 to be captured when handling a plurality of consecutive “1” edge flags as one edge flag according to the characteristics and processing capability of the image forming apparatus 100. For example, if the number of captured attribute flags 1105 is too large, the pixel width to be corrected becomes too large and the processing load increases, so it is desirable to set the number in consideration of these. .

図10のフローチャートに説明を戻す。画像解析部266は、S104の処理に進むと、注目画素の属性フラグ1103から"1"のエッジフラグ1104までの距離が、所定距離の範囲内であるか否かを判断する。ここで、所定距離の値は、画像形成装置100の特性や周辺環境等によって変化するものである。本実施形態において、画像形成装置100の特性や周辺環境等の情報は、前述した装置状態情報であり、前述した補正条件と対応している。したがって、所定距離の値は、前述した補正条件ごとに予め用意されてコントローラ140のRAM230に格納されているものとする。コントローラ140のCPU210は、印刷ジョブを実行する前に、画像解析部266に対し、補正条件に応じた所定距離の値を設定する。一例として所定距離を4画素分に相当する距離とし、図11(c)を例に挙げた場合、注目画素の属性フラグ1103から四つ目のエッジフラグ1104が"1"になっているため、画像解析部266は、S104において所定距離の範囲内であると判断する。一方、例えば図11(e)を例に挙げた場合、"1"のエッジフラグ1104は注目画素の属性フラグ1103から六つ目であるため、画像解析部266は、S104において所定距離の範囲外であると判断する。画像解析部266は、S104において、注目画素の属性フラグ1103と"1"のエッジフラグ1104との間の距離が所定距離の範囲内であると判断した場合にはS105に処理を進める。一方、画像解析部266は、S104において、注目画素の属性フラグ1103と"1"のエッジフラグ1104との間の距離が所定距離の範囲外であると判断した場合にはS106に処理を進める。   Returning to the flowchart of FIG. In step S104, the image analysis unit 266 determines whether the distance from the attribute flag 1103 of the target pixel to the edge flag 1104 of “1” is within a predetermined distance range. Here, the value of the predetermined distance varies depending on the characteristics of the image forming apparatus 100 and the surrounding environment. In the present embodiment, information such as the characteristics of the image forming apparatus 100 and the surrounding environment is the apparatus state information described above, and corresponds to the correction conditions described above. Therefore, the value of the predetermined distance is prepared in advance for each correction condition described above and stored in the RAM 230 of the controller 140. The CPU 210 of the controller 140 sets a predetermined distance value corresponding to the correction condition to the image analysis unit 266 before executing the print job. As an example, when the predetermined distance is a distance corresponding to 4 pixels and FIG. 11C is taken as an example, the fourth edge flag 1104 from the attribute flag 1103 of the target pixel is “1”. The image analysis unit 266 determines that the distance is within the predetermined distance in S104. On the other hand, for example, in FIG. 11E, the edge flag 1104 of “1” is the sixth attribute flag 1103 of the target pixel, so the image analysis unit 266 is outside the predetermined distance range in S104. It is judged that. If the image analysis unit 266 determines in S104 that the distance between the attribute flag 1103 of the target pixel and the edge flag 1104 of “1” is within a predetermined distance range, the process proceeds to S105. On the other hand, if the image analysis unit 266 determines in S104 that the distance between the attribute flag 1103 of the target pixel and the edge flag 1104 of “1” is outside the predetermined distance range, the process proceeds to S106.

S105では、画像解析部266は、属性フラグ1103に対応した注目画素はトナー削減対象となる補正対象画素であると特定する。そして、画像解析部266は、その注目画素の画素位置と、注目画素からエッジへの方向と、注目画素からエッジまでの距離の各情報を、RAM230に記憶させる。このS105の後、画像解析部266は、S107に処理を進める。
また、S106に進んだ場合、画像解析部266は、属性フラグ1103に対応した注目画素はトナー削減対象の画素でないとして決定する。このS106の後、画像解析部266は、S107に処理を進める。
In S105, the image analysis unit 266 specifies that the target pixel corresponding to the attribute flag 1103 is a correction target pixel that is a target for toner reduction. Then, the image analysis unit 266 causes the RAM 230 to store information on the pixel position of the target pixel, the direction from the target pixel to the edge, and the distance from the target pixel to the edge. After S105, the image analysis unit 266 advances the process to S107.
When the process proceeds to S106, the image analysis unit 266 determines that the target pixel corresponding to the attribute flag 1103 is not a toner reduction target pixel. After S106, the image analysis unit 266 advances the process to S107.

S107では、画像解析部266は、前述した図11(c)〜図11(f)で説明した全ての方向について処理を行ったか否かを判定し、何れか一つの方向の処理が未だ行われていないと判定した場合にはS102に処理を戻す。一方、画像解析部266は、S107において全ての方向について処理を行ったと判定した場合には、この図10のフローチャートの処理を終了する。   In S107, the image analysis unit 266 determines whether or not processing has been performed for all the directions described with reference to FIGS. 11C to 11F, and processing in any one direction is still performed. If it is determined that it is not, the process returns to S102. On the other hand, if the image analysis unit 266 determines in S107 that the process has been performed for all directions, the process of the flowchart of FIG. 10 ends.

ここでは、前述した図11(c)〜図11(f)のように上下左右の4方向を例に挙げたが、例えば2方向のみ、8方向、16方向等のように、方向を増減させてもよい。なお、2方向は、例えば前述した図11(c)と図11(d)の上下2方向である。また、8方向は、例えば図11(c)〜図11(f)の上下左右4方向に更に斜め45度ごとの4方向を加えた8方向、16方向は、8方向に更に22.5度ごとの8方向を加えた16方向である。本実施形態の画像形成装置100は、前述した主走査方向と副走査方向の何れか若しくは両方に基づいて、前述したような各方向を設定し、またそれら各方向の何れを採用するかは、装置の特性や処理能力に応じて決めることができる。   Here, four directions (up, down, left, and right) are given as an example as shown in FIGS. 11 (c) to 11 (f), but the direction is increased or decreased, for example, only two directions, eight directions, sixteen directions, and the like. May be. The two directions are, for example, the two upward and downward directions in FIG. 11C and FIG. In addition, the eight directions are, for example, eight directions obtained by adding four directions of 45 degrees obliquely to the four directions in the up, down, left, and right directions of FIGS. 16 directions including 8 directions for each. The image forming apparatus 100 according to the present embodiment sets each direction as described above based on one or both of the main scanning direction and the sub-scanning direction described above, and which of these directions is adopted. It can be determined according to the characteristics and processing capacity of the apparatus.

また、前述した図11(b)の参照ウィンドウ1102の大きさや、図11(c)〜図11(f)の切り出しサイズについても、画像形成装置100の特性や処理能力、掃き寄せ効果やエッジ効果の及ぶ範囲に合わせて決めることができる。一例として、処理能力が低い画像形成装置100の場合には参照ウィンドウ1102を小さくし、一方、処理能力が高い画像形成装置100の場合には参照ウィンドウ1102を大きくするようなことが可能である。   Further, with respect to the size of the reference window 1102 in FIG. 11B and the cutout sizes in FIGS. 11C to 11F, the characteristics and processing capability of the image forming apparatus 100, the sweeping effect, and the edge effect are also obtained. Can be determined according to the range of As an example, the reference window 1102 can be reduced in the case of the image forming apparatus 100 with low processing capability, while the reference window 1102 can be increased in the case of the image forming apparatus 100 with high processing capability.

図12(a)〜図11(f)は、図11(a)〜図11(f)に示した例とは異なる画像とエッジの例を示した図である。図12(a)は、図11(a)の例と同様に、エッジフラグ生成部261に入力されたラスターデータの画像のうち、エッジ部分が含まれている画像1200の一例を示している。図12(b)は、図11(b)の例と同様に、図12(a)に示した画像1200の各画素1201にそれぞれ対応した属性フラグ1205からなる参照ウィンドウ1202を示している。図12(a)の画像1200の例の場合は、図12(b)に示すように"1"のエッジフラグ1204が複数生成されることになる。また、図12(c)〜図12(f)は、図11(c)〜図11(f)の例と同様に、図12(b)の参照ウィンドウ1202の中から、注目画素の属性フラグ1203を含む主走査方向と副走査方向の各属性フラグ1205の列が切り出された図である。   FIGS. 12A to 11F are diagrams showing examples of images and edges that are different from the examples shown in FIGS. 11A to 11F. FIG. 12A shows an example of an image 1200 that includes an edge portion of the raster data image input to the edge flag generation unit 261, as in the example of FIG. FIG. 12B shows a reference window 1202 including attribute flags 1205 corresponding to the respective pixels 1201 of the image 1200 shown in FIG. 12A, as in the example of FIG. 11B. In the case of the image 1200 in FIG. 12A, a plurality of edge flags 1204 of “1” are generated as shown in FIG. 12 (c) to 12 (f) are similar to the examples of FIGS. 11 (c) to 11 (f), and the attribute flag of the target pixel is selected from the reference window 1202 in FIG. 12 (b). FIG. 10 is a diagram in which columns of attribute flags 1205 in the main scanning direction and sub-scanning direction including 1203 are cut out.

図13は、前述した図11(a)〜図11(f)と図12(a)〜図12(f)の例において、図10のS101〜S107の処理で解析した結果を表した図である。図13において、データAは図11(a)〜図11(f)の例を、データBは図12(a)〜図12(f)の例である。図13中の斜線で示したセルは、図10のフローチャートにおいて、注目画素がトナー削減の対象外であると判定される原因となった条件を示している。この図13に示したように、例えばデータAの場合は、参照方向が図11(c)で示した方向(下方向)の場合にのみ、注目画素がトナー削減の対象となされる補正対象画素であるとして特定される。一方、データBの場合は、図12(c)〜図12(f)の全ての例において注目画素はトナー削減対象外の画素であると判定される。画像解析部266は、上述した判定結果の情報を、画素ごとに、画像補正部267に出力する。すなわち、画像解析部266は、注目画素を補正対象画素であると判定した場合には、その補正対象画素の位置と、注目画素からエッジへの方向と、注目画素からエッジまでの距離の各情報を、RAM230を介して画像補正部267に渡す。図13の例の場合、画像解析部266は、図11(c)の例において補正対象画素における距離の情報として、エッジからの距離が4画素分であることを表す「4」の出力値を画像補正部267に渡す。一方、画像解析部266は、注目画素が対象外の画素であると判定した場合には、例えば、前述の距離の情報として「0」の値を画像補正部267に渡す。   FIG. 13 is a diagram showing the results of the analysis in S101 to S107 of FIG. 10 in the examples of FIGS. 11 (a) to 11 (f) and FIGS. 12 (a) to 12 (f) described above. is there. In FIG. 13, data A is an example of FIGS. 11 (a) to 11 (f), and data B is an example of FIGS. 12 (a) to 12 (f). The hatched cells in FIG. 13 indicate the conditions that cause the pixel of interest to be determined not to be subject to toner reduction in the flowchart of FIG. As shown in FIG. 13, for example, in the case of data A, a correction target pixel whose target pixel is targeted for toner reduction only when the reference direction is the direction (downward) shown in FIG. Identified as being. On the other hand, in the case of data B, it is determined that the pixel of interest is a pixel that is not subject to toner reduction in all examples of FIGS. 12 (c) to 12 (f). The image analysis unit 266 outputs the above-described determination result information to the image correction unit 267 for each pixel. That is, when the image analysis unit 266 determines that the target pixel is the correction target pixel, each piece of information on the position of the correction target pixel, the direction from the target pixel to the edge, and the distance from the target pixel to the edge Are transferred to the image correction unit 267 via the RAM 230. In the case of the example in FIG. 13, the image analysis unit 266 outputs an output value “4” indicating that the distance from the edge is four pixels as information on the distance in the correction target pixel in the example in FIG. The image is transferred to the image correction unit 267. On the other hand, when the image analysis unit 266 determines that the target pixel is a non-target pixel, for example, the image analysis unit 266 passes a value of “0” to the image correction unit 267 as the above-described distance information.

上述した画像解析部266による判定結果から画像補正部267がトナー削減量を算出するまでの際の処理について、図14のフローチャートを参照しながら説明する。以下の説明では、図14の各処理のステップS201〜ステップS203を、S201〜S203と略記する。図14のフローチャートの処理は、画像補正部267により行われるが、CPU210が本実施形態の画像形成処理プログラムを実行することで実現してもよい。   A process in which the image correction unit 267 calculates the toner reduction amount from the determination result by the image analysis unit 266 described above will be described with reference to the flowchart of FIG. In the following description, steps S201 to S203 of each process in FIG. 14 are abbreviated as S201 to S203. The processing of the flowchart in FIG. 14 is performed by the image correction unit 267, but may be realized by the CPU 210 executing the image forming processing program of the present embodiment.

図14のフローチャートにおいて、画像補正部267は、S201の処理として、注目画素がトナー削減対象である補正対象画素か否かを、画像解析部266の判定結果により判断する。画像補正部267は、注目画素が補正対象画素であると判断した場合にはS202に処理を進め、一方、補正対象画素でないと判断した場合には図14のフローチャートの処理を終了する。   In the flowchart of FIG. 14, the image correction unit 267 determines whether or not the target pixel is a correction target pixel that is a toner reduction target based on the determination result of the image analysis unit 266 as a process of S201. If the image correction unit 267 determines that the pixel of interest is a correction target pixel, the image correction unit 267 proceeds to S202. If the image correction unit 267 determines that the target pixel is not a correction target pixel, the image correction unit 267 ends the process of the flowchart in FIG.

S202に進むと、画像補正部267は、S201で補正対象画素であると判断された注目画素からエッジまでの正確な距離を算出する。ここでの距離算出は、具体的には、画像の実際のエッジの位置と、"1"のエッジフラグの位置とのズレを補正するような処理となされている。例えば、エッジフラグ生成部261でエッジフラグを生成する際、エッジ検出の際に用いられるフィルタの性質によって、画像の実際のエッジの位置と、"1"のエッジフラグが生成される位置とが異なることがある。例えば図15(c)のような略々中央部にエッジ1510が存在している画像1509からエッジフラグ生成部261により生成されるエッジフラグについて説明する。例えば一次微分フィルタが用いられた場合、エッジフラグ生成部261では、図15(c)の画像1509のエッジ1510の位置に対応したピークを有する、図15(a)に示すような一次微分処理信号1501が生成される。そしてこの場合、図15(d)に示すような、画像1509のエッジ1510の位置に対応した、例えば1画素幅1520において"1"のエッジフラグ1511が生成される。これに対し、例えば二次微分フィルタが用いられた場合には、図15(c)の画像1509のエッジ1510を挟んだ内側と外側の二つの位置にピークを有する、図15(b)に示すような二次微分処理信号1502が生成される。そして、二次微分処理信号1502と二つの閾値1503,1504との比較に基づき、図15(e),図15(f)のような、エッジ1510を挟んだ内側と外側とに、各々1画素幅1521,1522の"1"のエッジフラグ1512,1513が生成される。なお、エッジフラグ1512は、図15(c)のエッジ1510を含む1画素幅1520に対して、外側に1画素分離れた位置に生成されるアウターエッジフラグとなる。また、エッジフラグ1513は、図15(c)のエッジ1510を含む1画素幅1520に対して、内側に1画素分離れた位置に生成されるインナーエッジフラグとなる。このため、画像補正部267は、エッジフラグ生成部261で二次微分フィルタが用いられた場合には、注目画素からエッジまでの距離を算出する際、エッジフラグ生成部261のフィルタ特性に応じて、注目画素からエッジまでの距離に対して補正を施す。例えば、アウターエッジを示すエッジフラグ1512が、図15(c)のエッジ1510を含む1画素幅1520に対して1画素分だけ外側の位置に生成される設定の場合には、注目画素からエッジまでの距離から1画素分の距離を減算するような補正が行われる。また、インナーエッジを示すエッジフラグ1513が、図15(c)のエッジ1510を含む1画素幅1520に対して1画素分だけ内側の位置に生成される設定の場合には、注目画素からエッジフラグまでの距離から1画素分の距離を加算するような補正が行われる。これにより、その補正後の距離は、注目画素から実際のエッジまでの距離と一致することになる。S202の後、画像補正部267は、S203に処理を進める。   In step S202, the image correction unit 267 calculates an accurate distance from the target pixel determined to be the correction target pixel in step S201 to the edge. More specifically, the distance calculation here is a process of correcting a deviation between the actual edge position of the image and the position of the edge flag “1”. For example, when the edge flag generation unit 261 generates an edge flag, the actual edge position of the image differs from the position where the edge flag “1” is generated depending on the nature of the filter used for edge detection. Sometimes. For example, an edge flag generated by the edge flag generation unit 261 from an image 1509 in which an edge 1510 exists in a substantially central portion as shown in FIG. For example, when a first-order differential filter is used, the edge flag generation unit 261 has a first-order differential processing signal as shown in FIG. 15A having a peak corresponding to the position of the edge 1510 of the image 1509 in FIG. 1501 is generated. In this case, as shown in FIG. 15D, an edge flag 1511 of “1” corresponding to the position of the edge 1510 of the image 1509, for example, with a single pixel width 1520 is generated. On the other hand, for example, when a second-order differential filter is used, as shown in FIG. 15B, there are peaks at two positions inside and outside the edge 1510 of the image 1509 in FIG. Such a second derivative processing signal 1502 is generated. Then, based on the comparison between the second-order differential processing signal 1502 and the two threshold values 1503 and 1504, one pixel is provided on each of the inner side and the outer side across the edge 1510 as shown in FIGS. 15 (e) and 15 (f). Edge flags 1512 and 1513 of “1” having widths 1521 and 1522 are generated. Note that the edge flag 1512 is an outer edge flag generated at a position separated by one pixel on the outer side with respect to one pixel width 1520 including the edge 1510 of FIG. The edge flag 1513 is an inner edge flag generated at a position separated by one pixel on the inner side with respect to one pixel width 1520 including the edge 1510 of FIG. For this reason, the image correcting unit 267 calculates the distance from the target pixel to the edge according to the filter characteristics of the edge flag generating unit 261 when the secondary differential filter is used in the edge flag generating unit 261. The distance from the target pixel to the edge is corrected. For example, when the edge flag 1512 indicating the outer edge is set to be generated at a position one pixel outside the one pixel width 1520 including the edge 1510 in FIG. Correction is performed such that the distance of one pixel is subtracted from this distance. Further, when the edge flag 1513 indicating the inner edge is set to be generated at an inner position by one pixel with respect to the one pixel width 1520 including the edge 1510 in FIG. Correction is performed such that the distance of one pixel is added from the distance up to. As a result, the corrected distance matches the distance from the target pixel to the actual edge. After S202, the image correction unit 267 advances the process to S203.

S203では、画像補正部267は、S202で算出(補正)した距離に基づいて、トナー削減量を算出する。具体的には、画像補正部267は、トナー削減量として、前述した図8(a)や図8(b)に示したトナー分布曲線のオーバーシュート部分の高さに相当する過剰トナー量に対応した削減量を算出する。図16は、注目画素からエッジまでの距離と、トナー削減量との対応関係の説明に用いる図である。図16において、画像1600の例えば下端エッジから注目画素1601までの距離を画素順に「1,2,3,4,5,6,7,8,9,10,11,12」で表した場合、トナー削減量は、画素順に「1,2,3,4,5,4,3,3,2,2,1,1」となされる。この例では、トナー削減量は、画像1600の下端エッジから5画素に相当する距離でピークとなっている。またこの例では、注目画素1601は、下端エッジから4画素目に相当する距離にあるため、注目画素1601に対する下端エッジ側のトナー削減量は例えば「4」となされている。これらのトナー削減量の値は、画像形成装置100の特性や周辺環境等の前述した補正条件に応じて変化するようになされており、それら補正条件ごとにコントローラ140のRAM230に格納されているものとする。また、これらトナー削減量の値の設定は、印刷ジョブを実行する前に、CPU210が画像補正部267に対して各補正条件に応じて設定するものとする。同様に、画像1600の例えば右端エッジから注目画素1601までの距離を画素順に「1,2,3,4,5,6,7,8,9,10,11,12」で表した場合、トナー削減量は、画素順に「1,2,3,4,5,5,4,3,2,2,1」とされる。この例の場合、注目画素1601は、右端エッジからの6画素目に相当する距離にあり、注目画素1601に対する右端エッジ側のトナー削減量は例えば「5」となされている。そして、画像補正部267は、各方向のトナー削減量を合算して、注目画素1601のトナー削減量を算出し、そのトナー削減量に応じた補正係数(露光量の削減割合)により、ラスターデータに対する濃度の補正処理を行って、露光制御部250に出力する。   In S203, the image correction unit 267 calculates a toner reduction amount based on the distance calculated (corrected) in S202. Specifically, the image correction unit 267 corresponds to the excessive toner amount corresponding to the height of the overshoot portion of the toner distribution curve shown in FIGS. 8A and 8B described above as the toner reduction amount. Calculate the reduction amount. FIG. 16 is a diagram used for explaining the correspondence between the distance from the target pixel to the edge and the toner reduction amount. In FIG. 16, for example, when the distance from the lower edge to the target pixel 1601 of the image 1600 is expressed in pixel order as “1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12”, The toner reduction amount is “1, 2, 3, 4, 5, 4, 3, 3, 2, 2, 1, 1” in pixel order. In this example, the toner reduction amount peaks at a distance corresponding to 5 pixels from the lower edge of the image 1600. In this example, since the target pixel 1601 is at a distance corresponding to the fourth pixel from the lower edge, the toner reduction amount on the lower edge side with respect to the target pixel 1601 is, for example, “4”. These toner reduction amount values are changed according to the above-described correction conditions such as the characteristics of the image forming apparatus 100 and the surrounding environment, and are stored in the RAM 230 of the controller 140 for each of the correction conditions. And The toner reduction amount values are set by the CPU 210 for the image correction unit 267 according to each correction condition before executing a print job. Similarly, for example, when the distance from the right edge of the image 1600 to the target pixel 1601 is represented by “1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12” in pixel order, toner The reduction amount is “1, 2, 3, 4, 5, 5, 4, 3, 2, 2, 1” in pixel order. In this example, the target pixel 1601 is at a distance corresponding to the sixth pixel from the right end edge, and the toner reduction amount on the right end edge side with respect to the target pixel 1601 is, for example, “5”. Then, the image correction unit 267 calculates the toner reduction amount of the target pixel 1601 by adding the toner reduction amounts in the respective directions, and uses the correction coefficient (exposure amount reduction ratio) corresponding to the toner reduction amount to generate raster data. A density correction process is performed on the image and output to the exposure control unit 250.

前述した実施形態では、画像形成装置100のコントローラ140において補正処理(並びにその前処理)を行う例を説明したが、これに限定されるものではない。例えば、ホストコンピュータ10で同様の処理を実行し、画像形成装置100に補正後の画像データ(ラスターデータ)を入力するようにしてもよい。   In the above-described embodiment, the example in which the controller 140 of the image forming apparatus 100 performs the correction process (and the pre-processing thereof) has been described, but the present invention is not limited to this. For example, the host computer 10 may perform the same processing and input corrected image data (raster data) to the image forming apparatus 100.

以上説明したように、本実施形態によれば、エッジフラグ生成部261で生成されたエッジフラグを用いて画像解析部266がトナー削減対象の画素を検出している。すなわち、画像解析部266は、多値の画素値ではなく、2値のエッジフラグをラインバッファに保持して参照ウィンドウを形成して解析を行うようにしている。また、画像補正部267においても、多値の画素値ではなく、2値のエッジフラグに基づいて、トナー削減対象の注目画素からエッジまでの距離に応じたトナー削減量を算出している。このため、本実施形態の画像形成装置100は、特にコントローラ140の回路規模を小さくでき、その小さい回路規模のコントローラ140により、エッジ効果や掃き寄せ効果に起因した余分なトナーの消費を削減可能としている。   As described above, according to the present embodiment, the image analysis unit 266 detects the toner reduction target pixel using the edge flag generated by the edge flag generation unit 261. In other words, the image analysis unit 266 performs analysis by holding a binary edge flag, not a multi-value pixel value, in a line buffer to form a reference window. The image correction unit 267 also calculates the toner reduction amount according to the distance from the target pixel to be reduced to the edge based on the binary edge flag instead of the multivalued pixel value. For this reason, the image forming apparatus 100 of the present embodiment can particularly reduce the circuit scale of the controller 140, and the controller 140 having the small circuit scale can reduce the consumption of excess toner due to the edge effect and the sweeping effect. Yes.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 画像形成装置、130 露光装置、140 コントローラ、210 CPU、240 露光量調整部、250 露光制御部、260 画像処理部、261 エッジフラグ生成部、264 条件判断部、265 パラメータ設定部、266 画像解析部、267 画像補正部   DESCRIPTION OF SYMBOLS 100 Image forming apparatus, 130 Exposure apparatus, 140 Controller, 210 CPU, 240 Exposure amount adjustment part, 250 Exposure control part, 260 Image processing part, 261 Edge flag generation part, 264 Condition judgment part, 265 Parameter setting part, 266 Image analysis Part, 267 Image correction part

Claims (16)

画像信号の画素ごとに、前記画素が画像のエッジに対応した画素であるか否かを表すフラグを生成する生成手段と、
前記画像の各画素に各々対応して生成された前記フラグに基づいて、前記画像の中から、濃度の補正がなされる補正対象画素を特定する解析手段と、
前記補正対象画素から前記エッジまでの距離に基づいて、前記補正対象画素の濃度を補正する補正手段と、
を有することを特徴とする画像信号処理装置。
Generating means for generating, for each pixel of the image signal, a flag indicating whether the pixel is a pixel corresponding to an edge of the image;
Analysis means for specifying a correction target pixel whose density is to be corrected from the image based on the flag generated corresponding to each pixel of the image;
Correction means for correcting the density of the correction target pixel based on the distance from the correction target pixel to the edge;
An image signal processing apparatus comprising:
前記補正手段は、前記距離に基づいて、前記補正対象画素に対するトナー削減量を決定し、前記トナー削減量に応じて前記補正対象画素の濃度を補正することを特徴とする請求項1に記載の画像信号処理装置。   2. The correction unit according to claim 1, wherein the correction unit determines a toner reduction amount for the correction target pixel based on the distance, and corrects the density of the correction target pixel according to the toner reduction amount. Image signal processing device. 前記補正がなされた各画素の濃度に応じたトナー量による画像の印刷を印刷部に実行させる実行手段を更に有することを特徴とする請求項2に記載の画像信号処理装置。   The image signal processing apparatus according to claim 2, further comprising execution means for causing the printing unit to print an image with a toner amount corresponding to the density of each pixel subjected to the correction. 前記解析手段は、前記画像の中の注目画素の濃度が所定閾値以上である場合、前記画像の各画素に各々対応した前記フラグを参照して、前記注目画素から前記エッジまでの距離を求め、前記注目画素から前記エッジまでの距離が所定距離の範囲内である場合に、前記注目画素を前記補正対象画素として特定し、
前記補正手段は、前記解析手段にて求められた前記補正対象画素から前記エッジまでの距離に基づいて、前記補正対象画素の濃度を補正することを特徴とする請求項1乃至3の何れか1項に記載の画像信号処理装置。
When the density of the target pixel in the image is equal to or higher than a predetermined threshold, the analysis unit refers to the flag corresponding to each pixel of the image and obtains a distance from the target pixel to the edge, When the distance from the target pixel to the edge is within a predetermined distance range, the target pixel is specified as the correction target pixel,
4. The correction unit according to claim 1, wherein the correction unit corrects the density of the correction target pixel based on a distance from the correction target pixel to the edge obtained by the analysis unit. 5. The image signal processing apparatus according to the item.
前記解析手段は、前記注目画素を含む所定方向に存在する各画素に各々対応した前記フラグを参照して、前記注目画素から前記エッジまでの前記距離を求めることを特徴とする請求項4に記載の画像信号処理装置。   The said analysis means calculates | requires the said distance from the said attention pixel to the said edge with reference to the said flag respectively corresponding to each pixel which exists in the predetermined direction containing the said attention pixel. Image signal processing apparatus. 前記解析手段は、画像が印刷される際の主走査方向と副走査方向の少なくとも一方に基づいて決められた、少なくとも一つの前記所定方向について、前記所定方向に存在する各画素に各々対応した前記フラグの前記参照を行うことを特徴とする請求項5に記載の画像信号処理装置。   The analysis unit is configured to correspond to each pixel existing in the predetermined direction for at least one predetermined direction determined based on at least one of a main scanning direction and a sub-scanning direction when an image is printed. 6. The image signal processing apparatus according to claim 5, wherein the reference of the flag is performed. 前記所定方向は、前記濃度が前記所定閾値以上の前記注目画素を中心とした上下左右の4方向であることを特徴とする請求項5又は6に記載の画像信号処理装置。   7. The image signal processing apparatus according to claim 5, wherein the predetermined directions are four directions of up, down, left, and right with the target pixel having the density equal to or higher than the predetermined threshold as a center. 前記解析手段は、前記注目画素に対して、前記所定方向に対する逆方向に前記フラグの値が変化する変化点が存在せず、かつ、前記所定方向で前記フラグの値が変化する変化点の数が所定数以下である場合に、前記注目画素を補正対象画素として特定することを特徴とする請求項5乃至7の何れか1項に記載の画像信号処理装置。   The analysis means has no change point at which the flag value changes in the direction opposite to the predetermined direction with respect to the target pixel, and the number of change points at which the flag value changes in the predetermined direction. 8. The image signal processing apparatus according to claim 5, wherein the target pixel is specified as a correction target pixel when the value is equal to or less than a predetermined number. 9. 前記解析手段は、前記フラグが0から1になる点を前記変化点として検出することを特徴とする請求項8に記載の画像信号処理装置。   9. The image signal processing apparatus according to claim 8, wherein the analysis unit detects a point where the flag is changed from 0 to 1 as the change point. 前記補正手段は、前記補正対象画素ごとに、前記エッジからの距離に応じた前記濃度による前記補正を行うことを特徴とする請求項4乃至9の何れか1項に記載の画像信号処理装置。   10. The image signal processing apparatus according to claim 4, wherein the correction unit performs the correction by the density according to a distance from the edge for each correction target pixel. 11. 前記生成手段は、前記画像信号に対して所定のフィルタ処理を行った後の値に基づいて前記エッジの画素であるか否かを表す前記フラグを生成し、
前記補正手段は、前記フラグの生成の際に用いられたフィルタ処理に応じて、前記エッジからの距離を補正し、前記補正した距離に基づいて前記補正対象画素の濃度を補正することを特徴とする請求項1乃至10の何れか1項に記載の画像信号処理装置。
The generation unit generates the flag indicating whether or not the pixel is the edge based on a value after performing a predetermined filter process on the image signal,
The correction unit corrects the distance from the edge according to the filter processing used when generating the flag, and corrects the density of the correction target pixel based on the corrected distance. The image signal processing apparatus according to any one of claims 1 to 10.
前記解析手段は、自装置の状態を表す装置状態情報に基づいて、前記所定距離を設定することを特徴とする請求項4乃至11の何れか1項に記載の画像信号処理装置。   The image signal processing apparatus according to claim 4, wherein the analysis unit sets the predetermined distance based on apparatus state information representing a state of the apparatus itself. 前記装置状態情報は、自装置の処理能力の情報と、印刷が行われる際の速度の情報と、印刷された総出力枚数の情報と、自装置の総稼動時間の情報と、自装置の内外の温度の情報と、自装置の内外の湿度の情報との、少なくとも一つの情報であることを特徴とする請求項12に記載の画像信号処理装置。   The device status information includes information on the processing capability of the device, information on the speed at which printing is performed, information on the total number of printed pages, information on the total operating time of the device, and information on the inside and outside of the device. 13. The image signal processing device according to claim 12, wherein the image signal processing device is at least one piece of information on the temperature of the device and information on the humidity inside and outside the device. 前記解析手段は、前記フラグが生成された後、前記画像信号の画像領域に対して前記エッジを滑らかにする所定の画像処理が行われる場合には、前記フラグに基づく前記補正対象となされる画素の特定を行わないことを特徴とする請求項1乃至13の何れか1項に記載の画像信号処理装置。   When the predetermined image processing for smoothing the edge is performed on the image area of the image signal after the flag is generated, the analysis unit is a pixel to be corrected based on the flag The image signal processing apparatus according to claim 1, wherein the image signal processing apparatus is not specified. 生成手段が、画像信号の画素ごとに、前記画素が画像のエッジに対応した画素であるか否かを表すフラグを生成するステップと、
解析手段が、前記画像の各画素に各々対応して生成された前記フラグに基づいて、前記画像の中から、濃度の補正がなされる補正対象画素を特定するステップと、
補正手段が、前記補正対象画素から前記エッジまでの距離に基づいて、前記補正対象画素の濃度を補正するステップと、
を含むことを特徴とする画像信号処理方法。
A step of generating, for each pixel of the image signal, a flag indicating whether the pixel is a pixel corresponding to an edge of the image;
Analyzing means for identifying a correction target pixel whose density is to be corrected from the image based on the flag generated corresponding to each pixel of the image;
A correcting unit correcting the density of the correction target pixel based on a distance from the correction target pixel to the edge;
An image signal processing method comprising:
コンピュータを、請求項1乃至14の何れか1項に記載の画像信号処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image signal processing apparatus of any one of Claims 1 thru | or 14.
JP2015241337A 2015-12-10 2015-12-10 Image signal processing apparatus, image signal processing method, and program Pending JP2017108314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015241337A JP2017108314A (en) 2015-12-10 2015-12-10 Image signal processing apparatus, image signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015241337A JP2017108314A (en) 2015-12-10 2015-12-10 Image signal processing apparatus, image signal processing method, and program

Publications (1)

Publication Number Publication Date
JP2017108314A true JP2017108314A (en) 2017-06-15

Family

ID=59060240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015241337A Pending JP2017108314A (en) 2015-12-10 2015-12-10 Image signal processing apparatus, image signal processing method, and program

Country Status (1)

Country Link
JP (1) JP2017108314A (en)

Similar Documents

Publication Publication Date Title
JP5803268B2 (en) Image forming apparatus, image forming method, and program
JP5217426B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium recording the program
JP3668373B2 (en) Image forming apparatus
JP2010050639A (en) Image forming apparatus and control method thereof, and program
US9703245B2 (en) Image processing apparatus, image processing method, and storage medium performing toner amount adjustment
JP6731162B2 (en) Image forming apparatus and toner amount calculation method
JP5723111B2 (en) Image forming apparatus, control method, and program
JP2009118378A (en) Image forming device, image forming method, image forming program and computer-readable recording medium for recording the program
JP2014146211A (en) Image forming apparatus and image processing method
JP2017053985A (en) Image forming apparatus, control method of image forming apparatus, and program
JP6465617B2 (en) Image forming apparatus, image forming method, and program.
US9299016B2 (en) Misregistration correcting method and apparatus for use in image processing apparatus
JP2009058765A (en) Image forming apparatus, image processing method, and storage medium
US9373067B2 (en) Image forming apparatus and method for controlling the same
JP2019049591A (en) Image forming apparatus and toner amount calculation method
JP2018033043A (en) Image formation device, control method, and program
JP6379924B2 (en) Image forming apparatus and image processing apparatus
JP2017108314A (en) Image signal processing apparatus, image signal processing method, and program
JP6236971B2 (en) Image processing apparatus, image forming apparatus, and image processing program
JP6818779B2 (en) Image forming device, image forming method and program
JP5817269B2 (en) Image forming apparatus, toner consumption calculation method, and computer program
JP4366445B2 (en) Image forming apparatus
JP2019203918A (en) Image forming apparatus, method for controlling the same, and program
JP6209894B2 (en) Image processing apparatus, image forming apparatus, and image processing program
JP2012106456A (en) Image forming apparatus, image forming method, program, and recording medium