JP2011176556A - Image processing apparatus, program and recording medium - Google Patents

Image processing apparatus, program and recording medium Download PDF

Info

Publication number
JP2011176556A
JP2011176556A JP2010038494A JP2010038494A JP2011176556A JP 2011176556 A JP2011176556 A JP 2011176556A JP 2010038494 A JP2010038494 A JP 2010038494A JP 2010038494 A JP2010038494 A JP 2010038494A JP 2011176556 A JP2011176556 A JP 2011176556A
Authority
JP
Japan
Prior art keywords
pixel
edge
value
correction
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010038494A
Other languages
Japanese (ja)
Other versions
JP5458946B2 (en
Inventor
Kazunari Tonami
一成 戸波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010038494A priority Critical patent/JP5458946B2/en
Publication of JP2011176556A publication Critical patent/JP2011176556A/en
Application granted granted Critical
Publication of JP5458946B2 publication Critical patent/JP5458946B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To balance improvement of jaggies at an edge part of an image with suppression of widening of a character or a line drawing, in an image processing, such as, a printer or a copy machine. <P>SOLUTION: This image processing apparatus includes a halftone processing part 104 for subjecting image data INDATA to a halftone processing; an edge detection part 105 for detecting an edge part of an image from the image data INDATA; and an edge correction processing part 106 for correcting dots at an output level, according to the concentration before the halftone processing of a dot-off edge pixel, with respect to the edge pixel to be output out of the pixels (edge pixels) of image data sDATA, after the halftone processing in the detected edge part, and correcting output levels of dots to be lowered, with respect to dot-on edge pixels having concentration which is not smaller than the predetermined value before the halftone processing. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ドットにより階調を表現する電子写真方式やインクジェット方式のプリンタ、複合機などの画像処理装置に係り、特に、このような画像処理装置において中間調処理後の画像データのエッジ部分に生じるジャギーを改善する技術に関する。   The present invention relates to an image processing apparatus such as an electrophotographic or ink-jet printer or a multifunction peripheral that expresses gradation using dots, and particularly to an edge portion of image data after halftone processing in such an image processing apparatus. The present invention relates to a technique for improving generated jaggy.

電子写真方式やインクジェット方式のプリンタでは、多値画像データを所定の出力階調数に変換するための中間調処理としてディザ処理を行うことが多い。そして、ディザ処理において、例えば、テキストについては解像度を重視した300線以上の高線数のスクリーンパターンが用いられ、グラフィックやイメージについては階調性を重視した200線程度のスクリーンパターンが用いられる。   In an electrophotographic printer or an inkjet printer, dither processing is often performed as halftone processing for converting multi-value image data into a predetermined number of output gradations. In the dither processing, for example, a screen pattern having a high line number of 300 lines or more with an emphasis on resolution is used for text, and a screen pattern of about 200 lines with an emphasis on gradation is used for graphics and images.

さて、中間調の文字や線画のエッジ部では、ディザ処理のスクリーンパターンによって、ジャギー(がたつき)が発生するという問題がある(例えば特許文献1の段落[0002]〜[0004]、特許文献2の段落[0017]〜[0019]を参照)。このジャギーの大きさはスクリーン角とエッジの角度に依存し、この角度が近い場合にジャギーが顕著に現れる。   Now, there is a problem that jaggy occurs due to the screen pattern of dither processing at the edge portion of halftone characters and line drawings (for example, paragraphs [0002] to [0004] of Patent Document 1; Patent Document 1). 2 paragraphs [0017]-[0019]). The size of the jaggy depends on the screen angle and the edge angle. When this angle is close, the jaggy appears remarkably.

このようなジャギーに関する先行技術文献として、例えば特許文献1,2が知られている。特許文献1に開示されている技術では、輪郭画素の周辺にドットがない場合にドットを付加して、ジャギーを補正する。また、その出力するドットのサイズ(出力レベル)を中間調処理前の輪郭画素の画素値レベルに応じて決定することで、孤立ドットと連続ドットの出力特性の違いによる濃度変動を軽減する。また、特許文献2に開示されている技術では、エッジ部において、中間調処理前の画像データをスムージング処理してエッジ補正データを生成し、このエッジ補正データと中間調処理後の画像データとを比較し、その濃度の高い方を出力することにより、エッジ部のドット間にドットを付加してジャギーを補正する。   For example, Patent Documents 1 and 2 are known as prior art documents relating to such jaggy. In the technique disclosed in Patent Document 1, when there is no dot around the contour pixel, a dot is added to correct jaggies. Further, by determining the size (output level) of the output dot in accordance with the pixel value level of the contour pixel before halftone processing, density fluctuation due to the difference in output characteristics between isolated dots and continuous dots is reduced. Further, in the technique disclosed in Patent Literature 2, edge correction data is generated by performing smoothing processing on image data before halftone processing at an edge portion, and the edge correction data and image data after halftone processing are combined. By comparing and outputting the one having the higher density, dots are added between the dots in the edge portion to correct jaggies.

しかし、特許文献1の技術においては、中濃度以上ではエッジ部に複数のサイズのドットが混在するため(特許文献1の図10(c)参照)、ドット再現性(ドットの濃度特性)が変化した場合に、エッジ部で局所的な濃度変動が起こる可能性がある。また、ドット間にドットを付加すると共に、出力レベルが小さいドットを濃くするように補正するので、高濃度の文字や線画で線が太るという問題が発生する。特許文献2の技術においても、ドット間にドットを付加するように補正するため、高濃度の文字や線画で線が太るという同様の問題が発生する。   However, in the technique of Patent Document 1, since dots of a plurality of sizes are mixed in the edge portion at medium density or higher (see FIG. 10 (c) of Patent Document 1), dot reproducibility (dot density characteristics) changes. In such a case, local density fluctuations may occur at the edge portion. Further, since dots are added between the dots and correction is made so that the dots having a low output level are darkened, there arises a problem that the lines are thickened with high-density characters and line drawings. Also in the technique of Patent Document 2, since the correction is performed so that dots are added between the dots, the same problem that the lines are thickened in high-density characters and line drawings occurs.

本発明の目的は、ドットにより階調を表現する電子写真方式やインクジェット方式のプリンタ、複合機などの画像処理装置において、文字や線画の太りを抑制しつつ画像のエッジ部分に生じるジャギーを効果的に改善することにある。   An object of the present invention is to effectively prevent jaggies that occur at the edge of an image while suppressing the thickness of characters and line drawings in an image processing apparatus such as an electrophotographic or ink jet printer or a multi-function printer that expresses gradation using dots. There is to improve.

請求項1に記載の発明は、
第1の画像データに対して中間調処理を施す中間調処理手段と、
前記第1の画像データから画像のエッジ部分を検出するエッジ検出手段と、
前記エッジ検出手段により検出されたエッジ部分における前記中間調処理後の画像データ(第2の画像データと記す)の画素(エッジ画素と記す)のうち、ドットOFFのエッジ画素に対して当該エッジ画素の前記中間調処理前の濃度に応じた出力レベルのドットを出力するように補正をし、前記中間調処理前に所定以上の濃度を有するドットONのエッジ画素に対してドットの出力レベルを下げるように補正をするエッジ補正処理手段と、
を有することを特徴とする画像処理装置である。
The invention described in claim 1
Halftone processing means for performing halftone processing on the first image data;
Edge detecting means for detecting an edge portion of the image from the first image data;
Among the pixels (denoted as edge pixels) of the image data (denoted as second image data) after the halftone processing in the edge portion detected by the edge detection means, the edge pixels with respect to the edge pixel of dot OFF Is corrected so as to output a dot having an output level corresponding to the density before the halftone process, and the dot output level is lowered for the dot ON edge pixel having a density higher than a predetermined density before the halftone process. Edge correction processing means for correcting
An image processing apparatus comprising:

請求項2に記載の発明は、請求項1に記載の発明の画像処理装置において、
前記エッジ補正処理手段は、中間調処理前に所定以上の濃度を有するドットONのエッジ画素の全てに対しドットの出力レベルを下げるように補正をすることを特徴とするものである。
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect of the present invention,
The edge correction processing means performs correction so as to lower the dot output level for all dot ON edge pixels having a density of a predetermined level or higher before halftone processing.

請求項3に記載の発明は、請求項1に記載の発明の画像処理装置において、
前記エッジ補正処理手段は、中間調処理前に所定以上の濃度を有するドットONのエッジ画素の一部のみに対しドットの出力レベルを下げるように補正をすることを特徴とするものである。
According to a third aspect of the present invention, in the image processing apparatus of the first aspect of the present invention,
The edge correction processing means performs correction so as to lower the dot output level only for a part of the dot ON edge pixels having a predetermined density or more before halftone processing.

請求項4に記載の発明は、請求項1に記載の発明の画像処理装置において、
前記エッジ補正処理手段は、
前記第1の画像データの画素毎に、その画素値に基づいて係数を決定する手段、
前記第1の画像データの画素毎に、その画素値に基づいて第1の補正候補値を決定する手段、
前記第2の画像データの画素毎に、その画素値と当該画素に対応して決定された前記係数を乗算し、その乗算結果を量子化することによって第2の補正候補値を決定する手段、
前記第2の画像データの画素毎に、当該画素に対応して決定された前記第1の補正候補値と前記第2の補正候補値のうちの濃い方の値を当該画素に対応した補正値として選択する手段、及び
前記第2の画像データのエッジ画素の画素値を、当該エッジ画素に対応した前記補正値により置き換える手段を有し、
前記係数を決定する手段は画素値が濃いほど係数の値を減少させ、前記第1の補正候補値を決定する手段は画素値が濃いほど第1の補正候補値を増大させることを特徴とするものである。
According to a fourth aspect of the present invention, in the image processing apparatus of the first aspect of the present invention,
The edge correction processing means includes
Means for determining a coefficient based on a pixel value of each pixel of the first image data;
Means for determining a first correction candidate value based on the pixel value for each pixel of the first image data;
Means for multiplying the pixel value of each pixel of the second image data by the coefficient determined corresponding to the pixel, and determining a second correction candidate value by quantizing the multiplication result;
For each pixel of the second image data, a darker value of the first correction candidate value and the second correction candidate value determined corresponding to the pixel is a correction value corresponding to the pixel. And means for replacing the pixel value of the edge pixel of the second image data with the correction value corresponding to the edge pixel,
The means for determining the coefficient decreases the value of the coefficient as the pixel value increases, and the means for determining the first correction candidate value increases the first correction candidate value as the pixel value increases. Is.

請求項5に記載の発明は、請求項1に記載の発明の画像処理装置において、
前記エッジ補正処理手段は、
前記第1の画像データの画素毎に、その画素値に基づいて係数を決定する手段、
前記第1の画像データの画素毎に、その画素値に基づいて第1の補正候補値を決定する手段、
前記第1の画像データの画素毎に、その画素値と当該画素に対応して決定された前記係数を乗算し、その乗算結果に対し前記中間調処理手段と同じ中間調処理を施すことにより第2の補正候補値を決定する手段、
前記第2の画像データの画素毎に、当該画素に対応して決定された前記第1の補正候補値と前記第2の補正候補値のうちの濃い方の値を当該画素に対応した補正値として選択する手段、及び
前記第2の画像データのエッジ画素の画素値を、当該エッジ画素に対応した前記補正値により置き換える手段を有し、
前記係数を決定する手段は画素値が濃いほど係数の値を減少させ、前記第1の補正候補値を決定する手段は画素値が濃いほど第1の補正候補値を増大させることを特徴とするものである。
The invention according to claim 5 is the image processing apparatus according to claim 1,
The edge correction processing means includes
Means for determining a coefficient based on a pixel value of each pixel of the first image data;
Means for determining a first correction candidate value based on the pixel value for each pixel of the first image data;
For each pixel of the first image data, the pixel value is multiplied by the coefficient determined corresponding to the pixel, and the multiplication result is subjected to the same halftone processing as the halftone processing means. Means for determining two correction candidate values;
For each pixel of the second image data, a darker value of the first correction candidate value and the second correction candidate value determined corresponding to the pixel is a correction value corresponding to the pixel. And means for replacing the pixel value of the edge pixel of the second image data with the correction value corresponding to the edge pixel,
The means for determining the coefficient decreases the value of the coefficient as the pixel value increases, and the means for determining the first correction candidate value increases the first correction candidate value as the pixel value increases. Is.

請求項6に記載の発明は、請求項4又は5に記載の発明の画像処理装置において、
前記係数を決定する手段で、エッジ画素のエッジ境界からの距離に応じて当該エッジ画素に対し決定する係数の値を制御することにより、ドットの出力レベルを下げる補正の対象となるエッジ画素に対する出力レベルを下げる度合を、当該エッジ画素のエッジ境界からの距離が大きいほど弱めることを特徴とするものである。
The invention according to claim 6 is the image processing apparatus according to claim 4 or 5, wherein
Output to the edge pixel to be corrected by lowering the output level of the dot by controlling the value of the coefficient determined for the edge pixel in accordance with the distance from the edge boundary of the edge pixel by means for determining the coefficient The degree of lowering the level is weakened as the distance from the edge boundary of the edge pixel increases.

請求項7に記載の発明は、請求項4又は5に記載の発明の画像処理装置において、
前記係数を決定する手段で、所定の線幅以下の線に属する画素、所定の大きさの文字に属する画素、所定の線幅以下の白線に隣接した画素、又は、所定の大きさ以下の白文字に隣接した画素のいずれかの画素(特殊画素と記す)に該当する画素であるか否かに応じて、当該画素に対し決定する係数の値を制御するとともに、
前記第1の補正候補値を決定する手段で、前記特殊画素に該当する画素であるか否かに応じて、当該画素に対し決定する第1の補正候補値の値を制御することにより、
ドットの出力レベルを下げる補正の対象となるエッジ画素に対する出力レベルを下げる度合を、当該エッジ画素が前記特殊画素に該当する場合に前記特殊画素に該当しない場合より強めるとともに、ドットOFFのエッジ画素に出力させるドットの出力レベルを、当該エッジ画素が前記特殊画素に該当する場合に前記特殊画素に該当しない場合より低い出力レベルになりやすくすることを特徴とするものである。
The invention according to claim 7 is the image processing apparatus according to claim 4 or 5, wherein
The means for determining the coefficient includes a pixel belonging to a line having a predetermined line width or less, a pixel belonging to a character having a predetermined size, a pixel adjacent to a white line having a predetermined line width or less, or a white having a predetermined size or less. According to whether or not it is a pixel corresponding to one of the pixels adjacent to the character (denoted as a special pixel), the coefficient value determined for the pixel is controlled,
The means for determining the first correction candidate value controls the value of the first correction candidate value determined for the pixel according to whether or not the pixel corresponds to the special pixel.
When the edge pixel corresponds to the special pixel, the degree to which the output level for the edge pixel to be corrected to lower the dot output level is increased compared to the case where the edge pixel does not correspond to the special pixel. The output level of the dots to be output is more likely to be lower when the edge pixel corresponds to the special pixel than when the edge pixel does not correspond to the special pixel.

請求項8に記載の発明は、請求項4乃至7のいずれか1項に記載の発明の画像処理装置の各手段としてコンピュータを機能させるプログラムである。   The invention described in claim 8 is a program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 4 to 7.

請求項9の発明は、請求項4乃至7のいずれか1項に記載の発明の画像処理装置の各手段としてコンピュータを機能させるプログラムが記録された、コンピュータが読み取り可能な記録媒体である。   A ninth aspect of the present invention is a computer-readable recording medium in which a program for causing a computer to function as each means of the image processing apparatus according to any one of the fourth to seventh aspects is recorded.

本発明においては、中間調処理後の画像データエッジ画素のうち、ドットOFFのエッジ画素に対して当該エッジ画素の中間調処理前の濃度に応じた出力レベルのドットを出力するように補正をすることにより、エッジ部分のジャギーを改善することができ、同時に、中間調処理前に所定以上の濃度を有するドットONのエッジ画素に対してドットの出力レベルを下げるように補正をするため、ジャギー改善のためのドットの追加による文字や線画の太りを効果的に抑制することができる。また、ドットONのエッジ画素のエッジ境界からの距離が大きいほど、当該エッジ画素のドットの出力レベルを下げる度合を弱めることにより、ドットONのエッジ画素のドット出力レベルの補正による過剰な作用を抑えることができる。また、ドットの出力レベルを下げる補正の対象となるエッジ画素に対する出力レベルを下げる度合を、当該エッジ画素が特殊画素(所定の線幅以下の線に属する画素、所定の大きさの文字に属する画素、所定の線幅以下の白線に隣接した画素、又は、所定の大きさ以下の白文字に隣接した画素のいずれかの画素)に該当する場合に特殊画素に該当しない場合より強めるとともに、ドットOFFのエッジ画素に出力させるドットの出力レベルを、当該エッジ画素が特殊画素に該当する場合に特殊画素に該当しない場合より低い出力レベルになりやすくすることによって、小さい文字や細線の太りを効果的に抑制し、かつ、小さい白文字や細白線のかすれを効果的に防止しつつ、ジャギーの改善が可能である等々の効果を奏することができる。   In the present invention, among the image data edge pixels after halftone processing, correction is performed so that a dot having an output level corresponding to the density of the edge pixel before halftone processing is output to the edge pixel of dot OFF. As a result, it is possible to improve the jaggy of the edge portion, and at the same time, the dot ON edge pixel having a density higher than a predetermined density is corrected so as to lower the dot output level before halftone processing. It is possible to effectively suppress the thickening of characters and line drawings due to the addition of dots for. Further, as the distance from the edge boundary of the edge pixel of the dot ON is larger, the excessive effect due to the correction of the dot output level of the edge pixel of the dot ON is suppressed by weakening the degree of lowering the dot output level of the edge pixel. be able to. In addition, the degree to which the output level for the edge pixel to be corrected for lowering the dot output level is reduced is determined by the edge pixel being a special pixel (a pixel belonging to a line having a predetermined line width or less, a pixel belonging to a character of a predetermined size In the case of a pixel adjacent to a white line having a predetermined line width or less, or a pixel adjacent to a white character having a predetermined size or less), the pixel is strengthened and the dot OFF. By effectively making the output level of the dots to be output to the edge pixel of the edge pixel lower than when the edge pixel corresponds to the special pixel and not to the special pixel, it is possible to effectively reduce the fatness of small characters and fine lines. It is possible to achieve such effects as suppressing jaggies while effectively preventing blurring of small white characters and fine white lines.

本発明の一実施形態に係る画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. エッジ補正処理部の内部構成を説明するためのブロック図である。It is a block diagram for demonstrating the internal structure of an edge correction process part. エッジ補正処理部の内部構成を説明するためのブロック図である。It is a block diagram for demonstrating the internal structure of an edge correction process part. 中間調処理のためのディザ閾値マトリクスの例を示す図である。It is a figure which shows the example of the dither threshold value matrix for a halftone process. エッジ検出用マスクの説明図である。It is explanatory drawing of the mask for edge detection. エッジ検出用マスクの説明図である。It is explanatory drawing of the mask for edge detection. 補正係数αと入力画像データの画素値(濃度)との関係を示すグラフである。It is a graph which shows the relationship between the correction coefficient (alpha) and the pixel value (density) of input image data. 補正候補値βと入力画像データの画素値(濃度)との関係を示すグラフである。It is a graph which shows the relationship between the correction candidate value β and the pixel value (density) of input image data. 補正係数αと入力画像データの画素値(濃度)との関係を示すグラフである。It is a graph which shows the relationship between the correction coefficient (alpha) and the pixel value (density) of input image data. 補正候補値βと入力画像データの画素値(濃度)との関係を示すグラフである。It is a graph which shows the relationship between the correction candidate value β and the pixel value (density) of input image data. エッジ補正前の画像データの例を示す模式図である。It is a schematic diagram which shows the example of the image data before edge correction. エッジ補正処理後の画像データの例を示す模式図である。It is a schematic diagram which shows the example of the image data after an edge correction process. エッジ補正処理後の画像データの例を示す模式図である。It is a schematic diagram which shows the example of the image data after an edge correction process. エッジ補正処理後の画像データの例を示す模式図である。It is a schematic diagram which shows the example of the image data after an edge correction process.

以下、図面を参照し、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置の全体的構成を説明するためのブロック図である。この画像処理装置は、具体的には例えば、サイズの異なる複数種類のドットを用いて階調を表現する形式の電子写真方式やインクジェット方式のプリンタ(画像形成装置)である。この画像処理装置は、独立したプリンタとして実現される場合と、複合機(MFP)のような機器の組み込み装置として実現される場合とがある。なお、図1においては、エッジ補正処理後の画像データOUTDATAに従って、サイズの異なる複数種類のドットを用いて実際に記録媒体上に画像を形成するプリントエンジン機構は図示されていない。   FIG. 1 is a block diagram for explaining the overall configuration of an image processing apparatus according to an embodiment of the present invention. Specifically, this image processing apparatus is, for example, a printer (image forming apparatus) of an electrophotographic system or an ink jet system in which gradation is expressed using a plurality of types of dots having different sizes. This image processing apparatus may be realized as an independent printer, or may be realized as an apparatus embedded in a device such as a multifunction peripheral (MFP). Note that FIG. 1 does not show a print engine mechanism that actually forms an image on a recording medium using a plurality of types of dots having different sizes in accordance with the image data OUTDATA after the edge correction processing.

図1において、INDATAはプリントすべき画像データであり、ここでは8ビット/画素(256階調)のラスタデータとして説明する。画像データ記憶部102は、画像データINDATAを一時的に記憶する手段である。TAGは画像データINDATAの各画素についての属性情報であり、ここではテキスト/グラフィック/イメージの3種類のオブジェクト情報として説明するが、これ以外の属性情報を含めることも可能である(後記実施例4参照)。属性情報記憶部103は、画像データINDATAの各画素に対応付けて属性情報TAGを一時的に記憶する手段である。PDLデータ処理部101は、外部より入力するPDLデータを解析し、プリントすべき画像データINDATA及び属性情報TAGを生成し、それぞれを画像データ記憶部102及び属性情報記憶部103に書き込む処理を行う手段である。なお、テキスト/グラフィック/イメージのオブジェクト情報などはPDLデータの解析によって直接的に得ることができるが、それによっては取得できないような属性情報もしくは画像特徴情報(後記実施例4参照)については、PDLデータ処理101で、画像データINDATAと属性情報TAGとに基づいて抽出する処理を行う。   In FIG. 1, INDATA is image data to be printed, and is described here as raster data of 8 bits / pixel (256 gradations). The image data storage unit 102 is a means for temporarily storing the image data INDATA. TAG is attribute information for each pixel of the image data INDATA, and is described here as three types of object information of text / graphic / image, but other attribute information can be included (Example 4 described later). reference). The attribute information storage unit 103 is means for temporarily storing the attribute information TAG in association with each pixel of the image data INDATA. The PDL data processing unit 101 analyzes PDL data input from the outside, generates image data INDATA and attribute information TAG to be printed, and writes the data into the image data storage unit 102 and the attribute information storage unit 103 It is. Note that text / graphic / image object information and the like can be obtained directly by analysis of PDL data, but attribute information or image feature information (see Example 4 described later) that cannot be obtained by the analysis is PDL. In the data processing 101, extraction processing is performed based on the image data INDATA and the attribute information TAG.

中間調処理部104は、画像データINDATAに対し中間調処理としてディザ処理を施し、画像データsDATAを出力する。中間調処理部104では、属性情報TAGに応じて、処理対象画素が属しているオブジェクトの種類に最適なスクリーンパターンを選択して用いる。   The halftone processing unit 104 performs dither processing as halftone processing on the image data INDATA, and outputs image data sDATA. The halftone processing unit 104 selects and uses a screen pattern optimal for the type of object to which the processing target pixel belongs, according to the attribute information TAG.

エッジ検出部105は、画像データINDATAから画像のエッジ部分(濃度差が大きい部分の濃い側の画素)を検出し、検出情報をエッジ検出信号DEとして出力する。   The edge detection unit 105 detects an edge portion of the image (the pixel on the dark side of the portion having a large density difference) from the image data INDATA, and outputs detection information as an edge detection signal DE.

エッジ補正処理部106は、中間調処理後の画像データsDATAのエッジ部分についてジャギーが目立たないように補正する処理を行い、エッジ補正後の画像データOUTDATAを出力する。   The edge correction processing unit 106 performs processing for correcting the edge portion of the image data sDATA after the halftone processing so that jaggies are not noticeable, and outputs the image data OUTDATA after the edge correction.

画像データsDATA,OUTDATAは、プリンタエンジン機構で出力されるドットの種類(出力レベル)を表す信号である。ここでは、プリンタの出力階調数を4とし、画像データsDATA,OUTDATAの各画素は、ドットOFF、小ドット、中ドット、大ドットの4つの出力レベルをとり得るものとする。ここで、大ドットが最高の出力レベルのドットである。このような4値のデータは最小2ビットで表現可能であるが、ここでは便宜上、各画像データを8ビット(0〜255)/画素のデータであるとし、ドットOFFに0(10進表現)を割り当て、小ドットに85を割り当て、中ドットに170を割り当て、大ドットに255を割り当てるものとして説明する。   Image data sDATA and OUTDATA are signals representing the type (output level) of dots output by the printer engine mechanism. Here, it is assumed that the number of output gradations of the printer is 4, and each pixel of the image data sDATA and OUTDATA can take four output levels: dot OFF, small dot, medium dot, and large dot. Here, the large dot is the dot with the highest output level. Such quaternary data can be expressed with a minimum of 2 bits. For convenience, it is assumed here that each image data is 8 bits (0 to 255) / pixel data, and 0 (decimal expression) is set to dot OFF. , 85 is assigned to the small dot, 170 is assigned to the medium dot, and 255 is assigned to the large dot.

そして、中間調処理部104では、図4に示すディザ閾値マトリクスを用いて、
INDATA<th1ならば、sDATA=0(ドットOFF)
th1≦INDATA<th2ならば、sDATA=85(小ドット)
th2≦INDATA<th3ならば、sDATA=170(中ドット)
th3≦INDATAならば、sDATA=255(大ドット)
という変換を行うものとして説明する。
Then, the halftone processing unit 104 uses the dither threshold matrix shown in FIG.
If INDATA <th1, sDATA = 0 (dot off)
If th1 ≦ INDATA <th2, sDATA = 85 (small dot)
If th2 ≦ INDATA <th3, sDATA = 170 (medium dot)
If th3 ≦ INDATA, sDATA = 255 (large dot)
It is assumed that this conversion is performed.

図11は、上記ディザ閾値マトリクスを用いた中間調処理後の画像データsDATAの例を模式的に示した図である。矢印で示した部分がエッジの境界であり、矢印より左側が白背景、右側がグレーの画像の画像データINDATAを処理した結果を表している。画像データINDATAにおける矢印より右側の濃度は、(a)では65/255、(b)では105/255、(c)では200/255である。ここで、例えば「65/255」は、8ビット表現(0〜255)における65(10進)を意味する。他も同様である。   FIG. 11 is a diagram schematically showing an example of image data sDATA after halftone processing using the dither threshold matrix. A portion indicated by an arrow is an edge boundary, and represents a result of processing image data INDATA of a white background on the left side of the arrow and a gray image on the right side. The density on the right side of the arrow in the image data INDATA is 65/255 in (a), 105/255 in (b), and 200/255 in (c). Here, for example, “65/255” means 65 (decimal) in the 8-bit representation (0 to 255). Others are the same.

(a)〜(c)では、エッジ部分にドットOFFの画素(白画素)が存在するため、これがエッジ部のジャギーとして認識される。なお、(a)ではドットは大ドットのみであり、(b)では大ドットと小ドットが混在しており、(c)では大ドットと中ドットが混在している。   In (a) to (c), since there is a dot-off pixel (white pixel) in the edge portion, this is recognized as a jaggy in the edge portion. In (a), only large dots are used. In (b), large dots and small dots are mixed. In (c), large dots and medium dots are mixed.

文字や線画の太りを抑制しつつ、このようなジャギーを目立たなくするため、エッジ補正処理部106において、中間調処理後の画像データsDATAに対し、エッジ部分のドットOFFの画素については当該画素の中間調処理前の濃度に応じた出力レベルのドットを出力させるように補正し、かつ、エッジ部分のドットONの画素については中間調処理前の濃度が所定値以上ならばドットの出力レベルを下げるというようなエッジ補正処理を行うが、その詳細は後述する。   In order to make the jaggies inconspicuous while suppressing the thickening of characters and line drawings, the edge correction processing unit 106 applies the pixel OFF of the pixel of the edge portion to the image data sDATA after the halftone processing. Correction is made so that dots of an output level corresponding to the density before halftone processing are output, and the dot output level is reduced if the density before halftone processing is equal to or greater than a predetermined value for the dot-on pixels in the edge portion. Such edge correction processing is performed, details of which will be described later.

以下、主としてエッジ検出部105及びエッジ補正処理部106に関し、いくつかの実施例を挙げてより具体的に説明する。
[実施例1]
この実施例1においては、エッジ検出部105は、図5に示すマスクを用い、画像データINDATAから画像のエッジ部分を2画素幅で検出する。すなわち、図5に示す注目画素Aの周辺5×5画素(B0〜B7、C0〜C15)を参照し、以下の算出式でΔを算出する。
Δ=A−MIN(B,C)
ただし、
B=MIN(B0,B1,・・・,B7)
C=MIN(C0,C1,・・・,C15)
ここで、MIN()は、()内の数値の最小値を意味する。
そして、Δ>Thのときに注目画素Aをエッジ画素として検出する。これにより、エッジ部分を2画素幅で検出できる。
Hereinafter, mainly the edge detection unit 105 and the edge correction processing unit 106 will be described more specifically with some examples.
[Example 1]
In the first embodiment, the edge detection unit 105 detects an edge portion of an image with a 2-pixel width from the image data INDATA using the mask shown in FIG. That is, with reference to 5 × 5 pixels (B0 to B7, C0 to C15) around the target pixel A shown in FIG. 5, Δ is calculated by the following calculation formula.
Δ = A-MIN (B, C)
However,
B = MIN (B0, B1, ..., B7)
C = MIN (C0, C1, ..., C15)
Here, MIN () means the minimum value in ().
Then, when Δ> Th, the target pixel A is detected as an edge pixel. Thereby, the edge portion can be detected with a width of 2 pixels.

次に、エッジ補正処理部106について説明する。図2は、この実施例1に係るエッジ補正処理部106の内部構成を示すブロック図である。   Next, the edge correction processing unit 106 will be described. FIG. 2 is a block diagram illustrating an internal configuration of the edge correction processing unit 106 according to the first embodiment.

図2に示すように、エッジ補正処理部106は、エッジ補正データ生成部201とセレクタ202とからなる。エッジ補正データ生成部201は、エッジ検出部105で検出されたエッジ画素について、中間調処理後の画像データsDATAと置き換えるべきエッジ補正データeDATAを生成する部分である。このエッジ補正データeDATAは、画像データsDATA,OUTDATAと同様に出力階調数と同じ4値(0、85、170、255)をとる8ビットデータであるが、2ビットで表現することも可能である。セレクタ202は、属性情報TAGがイメージ・オブジェクトを示す画素については、エッジ検出信号DEと関係なく、中間調処理部104より出力される画像データsDATAを選択して画像データOUTDATAとして出力する。一方、属性情報TAGがテキスト・オブジェクト又はグラフィック・オブジェクトを示している場合、セレクタ202は、エッジ画素ではエッジ補正データeDATAを選択して画像データOUTDATAとして出力し、非エッジ画素では画像データsDATAを選択して画像データOUTDATAとして出力する。すなわち、イメージ・オブジェクト以外では、エッジ部分について画像データsDATAをエッジ補正データeDATAで置き換えることより、エッジ部分のジャギーが補正された画像データOUTDATAを得る。   As shown in FIG. 2, the edge correction processing unit 106 includes an edge correction data generation unit 201 and a selector 202. The edge correction data generation unit 201 is a part that generates edge correction data eDATA to be replaced with the image data sDATA after halftone processing for the edge pixels detected by the edge detection unit 105. The edge correction data eDATA is 8-bit data having the same four values (0, 85, 170, 255) as the number of output gradations as in the case of the image data sDATA, OUTDATA, but can also be expressed by 2 bits. is there. The selector 202 selects the image data sDATA output from the halftone processing unit 104 and outputs it as image data OUTDATA for the pixel whose attribute information TAG indicates an image object, regardless of the edge detection signal DE. On the other hand, when the attribute information TAG indicates a text object or graphic object, the selector 202 selects the edge correction data eDATA for the edge pixel and outputs it as image data OUTDATA, and selects the image data sDATA for the non-edge pixel. And output as image data OUTDATA. That is, except for the image object, the image data sDATA for the edge portion is replaced with the edge correction data eDATA to obtain the image data OUTDATA in which the jaggy of the edge portion is corrected.

エッジ補正データ生成部201は、α決定部211、β決定部212、α乗算・量子化部213、最大値選択部214から構成される。   The edge correction data generation unit 201 includes an α determination unit 211, a β determination unit 212, an α multiplication / quantization unit 213, and a maximum value selection unit 214.

α決定部211とβ決定部212は、画像データINDATAの画素値すなわち濃度に応じた補正係数αと補正候補値βを決定する手段である。具体的には、α決定部211で求められる補正係数αの値は、図7に示すように、所定濃度未満の低濃度(この例ではINDATA<100)では1.0であり、濃度が高くなる(INDATAが大きくなる)につれて減少し、所定濃度以上の高濃度(この例ではINDATA≧200)で0.6まで小さくなる。補正候補値βは、図8に示すように、画像データINDATAの濃度が高くなるにつれて大きくなる値であり、画像データsDATA,OUTDATAと同じ4値(0、85、170、255)をとる。   The α determination unit 211 and the β determination unit 212 are means for determining a correction coefficient α and a correction candidate value β according to the pixel value of the image data INDATA, that is, the density. Specifically, as shown in FIG. 7, the value of the correction coefficient α obtained by the α determining unit 211 is 1.0 at a low density less than a predetermined density (INDATA <100 in this example), and the density becomes high ( Decreases as INDATA increases, and decreases to 0.6 at a high concentration above a predetermined concentration (INDATA ≧ 200 in this example). As shown in FIG. 8, the correction candidate value β is a value that increases as the density of the image data INDATA increases, and takes the same four values (0, 85, 170, and 255) as the image data sDATA and OUTDATA.

α乗算・量子化部213は、α決定部211で決定された補正係数αを中間調処理後の画像データsDATAに乗算し、その乗算結果を4値に単純量子化して補正候補値を求め、これをcDATAとして出力する。すなわち、
sDATA×α<42 ならば、cDATA=0
42≦sDATA×α<128 ならば、cDATA=85
128≦sDATA×α<212 ならば、cDATA=170
212≦sDATA×α ならば、cDATA=255
により補正候補値cDATAが決定される。
The α multiplication / quantization unit 213 multiplies the halftone processed image data sDATA by the correction coefficient α determined by the α determination unit 211, and simply quantizes the multiplication result to four values to obtain a correction candidate value. This is output as cDATA. That is,
If sDATA × α <42, cDATA = 0
If 42 ≦ sDATA × α <128, cDATA = 85
If 128 ≦ sDATA × α <212, cDATA = 170
If 212 ≦ sDATA × α, cDATA = 255
Thus, the correction candidate value cDATA is determined.

最大値選択部214は、α乗算・量子化部213より出力された補正候補値cDATAと、もう一つの補正候補値βのうちの大きい方(濃い方の)値を補正値として選択し、これをエッジ補正データeDATAとして出力する。   The maximum value selection unit 214 selects a correction candidate value cDATA output from the α multiplication / quantization unit 213 and the larger (darker) value of the other correction candidate value β as a correction value. Is output as edge correction data eDATA.

この実施例1によるエッジ補正の効果を説明する。図11の場合と同じ画像データINDATAを処理した場合のエッジ補正された画像データOUTDATAを図12に模式的に示す。矢印はエッジの境界を示している。エッジ境界に隣接した右側の画素とその右隣の画素がエッジ部分の画素(エッジ画素)として検出される。   The effect of edge correction according to the first embodiment will be described. FIG. 12 schematically shows edge-corrected image data OUTDATA when the same image data INDATA as in FIG. 11 is processed. Arrows indicate edge boundaries. The right pixel adjacent to the edge boundary and the right adjacent pixel are detected as pixels (edge pixels) of the edge portion.

図12の(a)の場合、図7、図8よりα=1.0、β=85となる。cDATA=sDATAであり、cDATAとβとの大きい方の値が補正値eDATAとして出力される。よって、データsDATAにおける各ラインのエッジ部分のドットOFFの画素(縦方向2列)の値は補正値85/255に置き換えられる。すなわち、エッジ部分のドットOFFの画素は、小ドット(85/255)を出力するようにエッジ補正が施される結果、ジャギーが改善される。   In the case of FIG. 12A, α = 1.0 and β = 85 from FIGS. cDATA = sDATA, and the larger value of cDATA and β is output as the correction value eDATA. Therefore, the value of the dot OFF pixels (two columns in the vertical direction) at the edge portion of each line in the data sDATA is replaced with the correction value 85/255. That is, the edge correction is performed so that the small dot (85/255) is output to the edge-off dot-off pixel, and as a result, jaggy is improved.

図12の(b)の場合、図7、図8よりα=0.98、β=85となる。この場合も(a)の場合と同様に、画像データsDATAのエッジ部分のドットOFFの画素では小ドット(85/255)を出力するように補正され、ジャギーが改善される。   In the case of FIG. 12B, α = 0.98 and β = 85 from FIGS. In this case as well, as in the case of (a), the dot OFF pixel at the edge of the image data sDATA is corrected to output a small dot (85/255), and jaggy is improved.

図12の(c)の場合、図7、図8よりα=0.6、β=170となる。エッジ部分におけるデータsDATAの値が255の画素は、大ドットが出力されるところ、補正候補値cDATA=β=170となるので、その一方(どちらでもよい)が補正値eDATAとして選択されるため、中ドットを出力するように補正される。また、エッジ部分におけるデータsDATAの値が255未満の画素では、cDATAよりもβ(=170)が大きくなり、eDATA=170、つまり、中ドットを出力するように補正される。よって、エッジ部分の出力レベルが中ドットで均一になり、ジャギーが改善される。このようにエッジ部分のドットOFFの画素は中ドットを出力するように補正される一方、エッジ部分の大ドットが出力される画素は出力レベルを中ドットに下げるように補正されるため、エッジ補正による文字や線画の太りは発生しない。   In the case of FIG. 12C, α = 0.6 and β = 170 from FIGS. In the pixel where the value of the data sDATA in the edge portion is 255, when a large dot is output, the correction candidate value cDATA = β = 170, so one (whichever is sufficient) is selected as the correction value eDATA. It is corrected to output medium dots. Further, in a pixel whose value of the data sDATA in the edge portion is less than 255, β (= 170) is larger than cDATA, and correction is made so that eDATA = 170, that is, a medium dot is output. Therefore, the output level of the edge portion becomes uniform with medium dots, and jaggy is improved. In this way, pixels with dot OFF in the edge portion are corrected to output medium dots, while pixels that output large dots in the edge portion are corrected to lower the output level to medium dots, so edge correction The character and line drawing due to will not occur.

なお、図7に示すαの特性形状はプリンタの出力特性(ドットの大きさやトナーの散りなど)に合わせて決める。低濃度側ではドットOFFの画素にドットを出力するように補正しても、文字や線画の太りは見られない。逆に、低濃度側で中間調処理後の画像データの出力レベルを下げるように補正すると、エッジがぼやけて見える可能性がある。よって、αの値を下げ始めるポイント(図6ではINDATA=100)は、必要以上に低濃度側にはせず、文字や線画の太りが見え始める濃度あたりに設定すると良い。   The characteristic shape of α shown in FIG. 7 is determined according to the output characteristics of the printer (dot size, toner scattering, etc.). On the low-density side, even if correction is made so that dots are output to the pixels with dot OFF, no thickening of characters or line drawings is seen. On the contrary, if the correction is performed so that the output level of the image data after halftone processing is lowered on the low density side, the edges may appear blurred. Therefore, the point at which the value of α starts to be lowered (INDATA = 100 in FIG. 6) should not be set to a lower density side than necessary, but should be set around the density at which characters and line drawings start to appear thick.

[実施例2]
この実施例2では、エッジ検出部105は、図5に示すマスクを用い、画像データINDATAから画像のエッジ部分を2画素幅で検出するが、その際に、エッジ境界に隣接したエッジ画素(外エッジ画素)と、それに隣接したエッジ画素(内エッジ画素)とを識別する。すなわち、エッジ検出部105は、注目画素Aの周辺5×5画素(B0〜B7、C0〜C15)を参照し、以下の算出式でΔ1、Δ2を算出する。
Δ1=A−B
Δ2=A−C
ただし、
B=MIN(B0,B1,・・・,B7)
C=MIN(C0,C1,・・・,C15) ※MINは最小値の意味
そして、Δ1>Th1ならば注目画素Aを外エッジ画素として検出し、Δ1≦=Th1であり、かつ、Δ2>Thであるならば注目画素Aを内エッジ画素として検出する。このようにして、エッジ検出部105は、エッジ部分を2画素幅で、かつ、エッジの境界からの距離が小さい外エッジ画素とエッジの境界からの距離が大きい内エッジ画素とに識別して検出し、その検出情報をエッジ検出信号DEとして出力する。
[Example 2]
In the second embodiment, the edge detection unit 105 uses the mask shown in FIG. 5 to detect the edge portion of the image with a two-pixel width from the image data INDATA. At this time, the edge pixel (outside edge) adjacent to the edge boundary is detected. Edge pixels) and edge pixels (inner edge pixels) adjacent to the edge pixels are identified. That is, the edge detection unit 105 refers to 5 × 5 pixels (B0 to B7, C0 to C15) around the pixel of interest A, and calculates Δ1 and Δ2 with the following calculation formulas.
Δ1 = A−B
Δ2 = A−C
However,
B = MIN (B0, B1, ..., B7)
C = MIN (C0, C1,..., C15) * MIN is the meaning of the minimum value, and if Δ1> Th1, the target pixel A is detected as an outer edge pixel, Δ1 ≦ = Th1, and Δ2> If it is Th, the target pixel A is detected as an inner edge pixel. In this manner, the edge detection unit 105 identifies and detects the edge portion as a two-pixel width outer edge pixel having a small distance from the edge boundary and an inner edge pixel having a large distance from the edge boundary. The detection information is output as an edge detection signal DE.

この実施例2に係るエッジ補正処理部106は、前記実施例1と同様に図2に示すような内部構成である。ただし、図2には示されていないが、α決定部211にエッジ検出信号DEが入力される。そして、α決定部211は、エッジ検出信号DEに基づき、内エッジ画素であるか外エッジ画素であるかによって補正係数αの値を切り替える。具体的には、外エッジ画素では、補正係数αを前記実施例1と同様に図7に示すような値とするが、内エッジ画素では常にα=1.0とする。β決定部212は、前記実施例1と同様に、図8に従って補正候補値βを決定する。   The edge correction processing unit 106 according to the second embodiment has an internal configuration as shown in FIG. However, although not shown in FIG. 2, the edge detection signal DE is input to the α determination unit 211. Then, the α determining unit 211 switches the value of the correction coefficient α depending on whether the pixel is an inner edge pixel or an outer edge pixel based on the edge detection signal DE. Specifically, the correction coefficient α is set to a value as shown in FIG. 7 in the outer edge pixel as in the first embodiment, but α = 1.0 is always set in the inner edge pixel. As in the first embodiment, the β determination unit 212 determines the correction candidate value β according to FIG.

この実施例2によるエッジ補正の効果を説明する。図11の場合と同じ画像データINDATAを処理した場合のエッジ補正された画像データOUTDATAを図13に模式的に示す。矢印はエッジの境界を示している。このエッジの境界に隣接した右側画素が外エッジ画素として、その右隣の画素が内エッジ画素として、それぞれ検出される。   The effect of edge correction according to the second embodiment will be described. FIG. 13 schematically shows edge-corrected image data OUTDATA when the same image data INDATA as in FIG. 11 is processed. Arrows indicate edge boundaries. The right pixel adjacent to the edge boundary is detected as an outer edge pixel, and the right adjacent pixel is detected as an inner edge pixel.

図13と図12を比較すれば明らかなように、図13の(a),(b)の画像データOUTDATAは前記実施例1の場合と同じであり、エッジ部分のジャギーが改善される。   As apparent from a comparison between FIG. 13 and FIG. 12, the image data OUTDATA in FIGS. 13A and 13B is the same as that in the first embodiment, and the jaggy of the edge portion is improved.

図13の(c)の場合、内エッジ画素(エッジ境界から遠い方のエッジ画素)ではα=1.0なので、大ドットが中ドットに補正されることはないが、外エッジ画素(エッジ境界に近い方のエッジ画素)では前記実施例1の場合と同様に、出力レベルが大ドットから中ドットに補正される。   In the case of FIG. 13C, α = 1.0 at the inner edge pixel (the edge pixel far from the edge boundary), so that the large dot is not corrected to the middle dot, but the outer edge pixel (edge boundary) As in the case of the first embodiment, the output level is corrected from a large dot to a medium dot.

文字や線画の太りの度合はプリンタの出力特性によって異なる。前記実施例1のような補正では、その作用が過剰で文字や線画が細くなり過ぎてしまうような出力特性のプリンタの場合に、この実施例2のように、ドットONのエッジ画素のエッジ境界からの距離が大きいと、当該エッジ画素に対してのドットの出力レベルを下げる度合を弱めるような、エッジ境界からの距離を考慮したエッジ補正をすることにより、より適切に文字や線画の太りを抑えつつ、ジャギーを改善することが可能になる。   The degree of weight of characters and line drawings varies depending on the output characteristics of the printer. In the case of a printer having output characteristics in which the effect is excessive and the characters and line drawings become too thin in the correction as in the first embodiment, the edge boundary of the edge pixel of the dot ON as in the second embodiment. If the distance from the edge is large, the edge correction considering the distance from the edge boundary that weakens the degree to which the output level of the dot for the edge pixel is reduced will make the character and line drawing thicker more appropriately. It becomes possible to improve jaggy while suppressing.

[実施例3]
この実施例3においては、エッジ検出部105は、エッジ部分(濃度差が大きい部分の濃い方の画素)を3画素幅で検出する。すなわち、図6に示すマスクを用い、画像データINDATAの注目画素Aの周辺7×7画素(B0〜B7、C0〜C15、D0〜D23)を参照し、以下の算出式でΔを算出する。
Δ=A−MIN(B,C,D)
ただし、
B=MIN(B0,B1,・・・,B7)
C=MIN(C0,C1,・・・,C15)
D=MIN(D0,D1,・・・,D23) ※MINは最小値の意味
そして、Δ>Thのときに注目画素Aをエッジ画素として検出する。これにより、エッジ部分を3画素幅で検出できる。
[Example 3]
In the third embodiment, the edge detection unit 105 detects an edge portion (a darker pixel of a portion having a large density difference) with a three-pixel width. That is, by using the mask shown in FIG. 6, 7 × 7 pixels (B0 to B7, C0 to C15, D0 to D23) around the target pixel A of the image data INDATA are referred to, and Δ is calculated by the following calculation formula.
Δ = A−MIN (B, C, D)
However,
B = MIN (B0, B1, ..., B7)
C = MIN (C0, C1, ..., C15)
D = MIN (D0, D1,..., D23) * MIN is the meaning of the minimum value, and when Δ> Th, the target pixel A is detected as an edge pixel. Thereby, the edge portion can be detected with a width of 3 pixels.

なお、ここではエッジ部分を3画素幅で検出したが、エッジ部分の検出幅はプリンタの出力解像度に依存する。出力解像度が高い場合にはエッジ部分の検出幅をある程度大きくする必要がある。ただし、検出幅を大きくすると、エッジ部分の検出に要する処理時間や回路規模は大きくなるため、そのトレードオフを考慮して適切な検出幅に設定する。   Although the edge portion is detected with a width of 3 pixels here, the detection width of the edge portion depends on the output resolution of the printer. When the output resolution is high, it is necessary to increase the detection width of the edge portion to some extent. However, if the detection width is increased, the processing time and circuit scale required to detect the edge portion increase, and therefore an appropriate detection width is set in consideration of the trade-off.

図3は、この実施例3に係るエッジ補正処理部106の内部構成を説明するためのブロック図である。図3において、図2と同一要素もしくは対応要素には同一の符号が付けられている。   FIG. 3 is a block diagram for explaining the internal configuration of the edge correction processing unit 106 according to the third embodiment. 3, the same elements as those in FIG. 2 or corresponding elements are denoted by the same reference numerals.

この実施例3に係るエッジ補正処理部106は、エッジ補正データ生成部201とセレクタ202とから構成されているが、エッジ補正データ生成部201の内部構成が図2に示すものと一部異なる。すなわち、図2中のα乗算・量子化部213が、α乗算部215及び中間調処理部216とに置き換えられている。α乗算部215は、α決定部211で決定された補正係数αを画像データINDATAに乗算する手段である。中間調処理部216は、α乗算部215で補正係数αを乗算後の画像データに対し、図1中の中間調処理部104と同じ中間調処理としてのディザ処理を施して4値(0,85,170,255)に量子化された補正候補値cDATAを出力するもので、属性情報TAGに応じて、各オブジェクトに最適なスクリーンパターンを用いる。α決定部211とβ決定部212はそれぞれ、前記実施例1の場合と同様に、画像データINDATAの濃度に応じて図7と図8に示すような補正係数αと補正候補値βを決定する。補正候補値cDATAと補正候補値βのうちの大きい方(濃い方)の値が最大値選択部214で補正値として選択され、エッジ補正データeDATAとして出力される。   The edge correction processing unit 106 according to the third embodiment includes an edge correction data generation unit 201 and a selector 202, but the internal configuration of the edge correction data generation unit 201 is partially different from that shown in FIG. That is, the α multiplication / quantization unit 213 in FIG. 2 is replaced with an α multiplication unit 215 and a halftone processing unit 216. The α multiplier 215 is means for multiplying the image data INDATA by the correction coefficient α determined by the α determiner 211. The halftone processing unit 216 performs dither processing as the halftone processing same as the halftone processing unit 104 in FIG. 1 on the image data after the α multiplication unit 215 multiplies the correction coefficient α to give four values (0, 0, 85, 170, 255) is output as a quantized candidate value cDATA, and an optimal screen pattern is used for each object in accordance with the attribute information TAG. As in the case of the first embodiment, each of the α determination unit 211 and the β determination unit 212 determines the correction coefficient α and the correction candidate value β as shown in FIGS. 7 and 8 according to the density of the image data INDATA. . The larger (darker) value of the correction candidate value cDATA and the correction candidate value β is selected as a correction value by the maximum value selection unit 214 and is output as edge correction data eDATA.

この実施例3によるエッジ補正の効果を説明する。図11の場合と同じ画像データINDATAを処理した場合のエッジ補正された画像データOUTDATAを図14に模式的に示す。矢印はエッジの境界を示している。このエッジ境界の右側の3画素がエッジ部分として検出される。ここでは、図4に示すディザ閾値マトリクスが中間調処理部216と中間調処理部104で使用されるものとする。   The effect of edge correction according to the third embodiment will be described. FIG. 14 schematically shows edge-corrected image data OUTDATA when the same image data INDATA as in FIG. 11 is processed. Arrows indicate edge boundaries. Three pixels on the right side of the edge boundary are detected as edge portions. Here, it is assumed that the dither threshold matrix shown in FIG. 4 is used by the halftone processing unit 216 and the halftone processing unit 104.

図14の(a)、(b)の場合、エッジ部分が3画素幅であることを除いては、前記実施例1(図12)の場合と同様であり、エッジ部分(縦3列)におけるドットOFFの画素に小ドット(85/255)が出力されるように補正されることにより、ジャギーが改善される。   14 (a) and 14 (b) are the same as those in the first embodiment (FIG. 12) except that the edge portion has a width of 3 pixels. By correcting so that a small dot (85/255) is output to a pixel with dot OFF, jaggy is improved.

図14の(c)の場合には、図7、図8よりα=0.6、β=170となる。8ビットの画像データINDATAに補正係数αを乗算した値は200×0.6=120であり、これに中間調処理部216でディザ処理をかけた補正候補値cDATAと、補正候補値β(=170)のうちの大きい方の値が出力される。その結果、3画素幅のエッジ部分(縦3列)において、画像データsDATAのドットOFFの画素は中ドットが出力されるように補正され、また、大ドットが出力される一部の画素は中ドットが出力されるように補正されることにより、ジャギーが改善される。   In the case of FIG. 14C, α = 0.6 and β = 170 from FIGS. The value obtained by multiplying the 8-bit image data INDATA by the correction coefficient α is 200 × 0.6 = 120. The correction candidate value cDATA obtained by dithering the halftone processing unit 216 and the correction candidate value β (= The larger value of 170) is output. As a result, in the edge portion (three vertical columns) with a width of three pixels, the dot OFF pixels of the image data sDATA are corrected so that medium dots are output, and some pixels that output large dots are medium. By correcting so that dots are output, jaggy is improved.

この実施例3では、前記実施例1とは異なり、補正候補値cDATAはディザ処理されたものであるため、エッジ補正後のエッジ部分においてもデータsDATAのスクリーンパターンがある程度維持されるので、前記実施例1,2に比べエッジ補正に伴う違和感が生じにくい。   In the third embodiment, unlike the first embodiment, the correction candidate value cDATA is dithered, so that the screen pattern of the data sDATA is maintained to some extent even in the edge portion after the edge correction. Compared to Examples 1 and 2, the uncomfortable feeling associated with edge correction is less likely to occur.

なお、この実施例3において、前記実施例2と同様に、エッジ検出でエッジ画素のエッジ境界からの距離を識別し、エッジ画素に対する補正係数αをエッジ境界からの距離に応じて切り替える構成とすることも可能である。具体的には例えば、3個のエッジ画素のうちエッジ境界に最も近いエッジ画素に対しては補正係数αの値を図7に従って決定し、エッジ境界から最も遠いエッジ画素に対しては補正係数αの値を1.0とし、それら2つのエッジ画素の間にあるエッジ画素に対する補正係数αの値として、その両側のエッジ画素に対する補正係数αの値の中間的な値(例えば平均値)を用いるようにすることができる。   In the third embodiment, as in the second embodiment, the distance from the edge boundary of the edge pixel is identified by edge detection, and the correction coefficient α for the edge pixel is switched according to the distance from the edge boundary. It is also possible. Specifically, for example, the value of the correction coefficient α is determined according to FIG. 7 for the edge pixel closest to the edge boundary among the three edge pixels, and the correction coefficient α is determined for the edge pixel farthest from the edge boundary. A value of 1.0 is used, and an intermediate value (for example, an average value) of correction coefficient α values for edge pixels on both sides is used as the value of correction coefficient α for an edge pixel between the two edge pixels. Can be.

[実施例4]
この実施例4において、エッジ検出の方法は前記実施例1,2又は3の場合と同様でよく、また、エッジ補正処理部106の内部構成は前記実施例1,2又は3の場合と同様でよい。ただし、図2又は図3に示すα決定部211及びβ決定部212で属性情報TAGが参照される。
[Example 4]
In the fourth embodiment, the edge detection method may be the same as in the first, second, or third embodiment, and the internal configuration of the edge correction processing unit 106 is the same as in the first, second, or third embodiment. Good. However, the attribute information TAG is referred to by the α determination unit 211 and the β determination unit 212 shown in FIG.

さて、太い線や大きい文字ではジャギー補正によって線が太っても、その太りは認識されにくいのに対し、細い線や小さい文字では線の太りが認識されやすい。また、色背景上の小さい白文字や白細線では、背景のエッジ部分でジャギー補正がされた場合に、背景部分のエッジが濃くなる(太くなる)ことによって、白文字や白細線が細くなったり、かすれたりしやすい。   Now, for thick lines and large characters, even if the lines are thick due to jaggy correction, the thickness is difficult to recognize, whereas thin lines and small characters are likely to be recognized. Also, for small white characters and white thin lines on the color background, when jaggies are corrected at the edge of the background, the edges of the background become darker (thickened), and the white characters and white thin lines become thinner. , Easy to fade.

以上のことに鑑み、この実施例4においては、PDLデータ処理部101で、
(1)所定の線幅以下の線に属する画素
(2)所定の大きさ以下の文字に属する画素
(3)所定の線幅以下の白線に隣接した画素
(4)所定の大きさ以下の白文字に隣接した画素
に該当するか否かの属性情報を取得し、それを属性情報TAGに追加する。
In view of the above, in the fourth embodiment, the PDL data processing unit 101
(1) Pixels belonging to lines with a predetermined line width or less
(2) Pixels belonging to characters of a predetermined size or less
(3) Pixel adjacent to a white line with a predetermined line width or less
(4) Acquire attribute information indicating whether or not the pixel is adjacent to a white character having a predetermined size or less, and add it to the attribute information TAG.

なお、上記(1),(2)の画素か否かについては、一般にPDLデータの解析により直接的に判定することが可能である。また、画像データ記憶部102上に展開された画像データの各画素について、属性情報記憶部103上の属性情報を参照し白抜き文字又は白線の画素に隣接するか否かを調べることにより、上記(3),(4)の画素か否かについて判定することができる。   Whether or not the pixel is (1) or (2) can generally be determined directly by analysis of PDL data. Further, for each pixel of the image data developed on the image data storage unit 102, by referring to the attribute information on the attribute information storage unit 103 and checking whether the pixel is adjacent to the white character or white line pixel, It can be determined whether the pixel is (3) or (4).

上記の追加された属性情報がα決定部211及びβ決定部212で参照される。そして、上記(1)〜(4)のいずれかの画素に該当する画素であるか否かに応じて、補正係数αと補正候補値βの値を制御することにより、エッジ補正に伴う小さい文字や細線の太りを効果的に抑制するとともに、小さい白文字や白細線のかすれ等を発生しにくくする。   The added attribute information is referred to by the α determination unit 211 and the β determination unit 212. Then, by controlling the correction coefficient α and the correction candidate value β according to whether the pixel corresponds to any one of the above pixels (1) to (4), a small character associated with edge correction In addition, it effectively suppresses the thickening of thin lines and thin white characters and faint lines of white lines.

より具体的に説明する。α決定部211では、上記(1)〜(4)のいずれかの画素(特殊画素と記す)に該当する画素に対しては図9に従って補正係数αの値を決定し、特殊画素に該当しない画素に対しては前記実施例1,2,3と同様に図7に従って補正係数αの値を決定する。ただし、前記実施例2と同様に内エッジ画素と外エッジ画素に識別してエッジ検出を行う場合には、内エッジ画素に対して補正係数αを常に1.0とする。β決定部212では、特殊画素に該当する画素に対しては図10に従って補正候補値βを決定し、特殊画素に該当しない画素に対しては前記実施例1,2,3と同様に図8に従って補正候補値βを決定する。   This will be described more specifically. The α determination unit 211 determines the value of the correction coefficient α according to FIG. 9 for a pixel corresponding to any one of the pixels (1) to (4) described above (denoted as a special pixel), and does not correspond to a special pixel. For the pixel, the value of the correction coefficient α is determined according to FIG. 7 as in the first, second, and third embodiments. However, when the edge detection is performed by identifying the inner edge pixel and the outer edge pixel as in the second embodiment, the correction coefficient α is always set to 1.0 for the inner edge pixel. The β determination unit 212 determines the correction candidate value β according to FIG. 10 for the pixels corresponding to the special pixels, and for the pixels not corresponding to the special pixels, as in the first, second, and third embodiments, FIG. Then, the correction candidate value β is determined.

特殊画素に該当する画素に適用される図9では、それ以外の画素に適用される図7に比べ、高濃度側での補正係数αの値が小さくなるようにしている。したがって、ドットONのエッジ画素が特殊画素に該当し、補正係数αの決定に図9が適用されると、当該エッジ画素の大ドット(255/255)が小ドット(85/255)または中ドット(170/255)に補正されやすくなる(ドットの出力レベルを下げる度合が強まる)。   In FIG. 9 applied to a pixel corresponding to a special pixel, the value of the correction coefficient α on the high density side is made smaller than that in FIG. 7 applied to other pixels. Therefore, when a dot ON edge pixel corresponds to a special pixel and FIG. 9 is applied to determine the correction coefficient α, the large dot (255/255) of the edge pixel is a small dot (85/255) or a medium dot. (170/255) is easily corrected (the degree to which the dot output level is lowered increases).

また、特殊画素に該当する画素に対し補正候補値βを図10のように決定することで、ドットOFFのエッジ画素が特殊画素に該当する場合、当該エッジ画素に出力されるドットは小ドット(85/255)または中ドット(170/255)に限られる(低い出力レベルになりやすい)。   Further, by determining the correction candidate value β for the pixel corresponding to the special pixel as shown in FIG. 10, when the edge pixel of dot OFF corresponds to the special pixel, the dot output to the edge pixel is a small dot ( 85/255) or medium dots (170/255) (prone to low output levels).

よって、小さい文字や細線の太りを効果的に抑制し、かつ、小さい白文字や細白線のかすれ等を効果的に防止しつつ、ジャギーの改善が可能である。   Therefore, it is possible to improve jaggies while effectively suppressing the thickening of small characters and fine lines and effectively preventing blurring of small white characters and fine white lines.

以上、本発明の実施形態について説明したが、本発明はそのような実施形態のみに限定されるものではなく、様々な変形形態をとり得るものである。   As mentioned above, although embodiment of this invention was described, this invention is not limited only to such embodiment, It can take various deformation | transformation forms.

また、前記実施形態に係る画像処理装置における中間調処理部104、エッジ検出部105、エッジ補正処理部106等の手段を、専用のハードウェアで実現することも可能であるし、プログラムにより一般的な構成のコンピュータをそれら手段として機能させることも可能である。かかるプログラムも本発明に包含される。また、そのようなプログラムが記録された磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子等のコンピュータが読み取り可能な各種の記録(記憶)媒体も本発明に包含される。   In addition, the means such as the halftone processing unit 104, the edge detection unit 105, and the edge correction processing unit 106 in the image processing apparatus according to the above-described embodiment can be realized by dedicated hardware, and can be generally executed by a program. It is also possible to cause a computer with a simple configuration to function as these means. Such a program is also included in the present invention. Various recording (storage) media that can be read by a computer, such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element, on which such a program is recorded are also included in the present invention.

101 PDLデータ処理部
102 画像データ記憶部
103 属性情報記憶部
104 中間調処理部
105 エッジ検出部
106 エッジ補正処理部
201 エッジ補正データ生成部
202 セレクタ
211 α決定部
212 β決定部
213 α乗算・量子化部
214 最大値選択部
215 α乗算部
216 中間調処理部
101 PDL data processing unit 102 Image data storage unit 103 Attribute information storage unit 104 Halftone processing unit 105 Edge detection unit 106 Edge correction processing unit 201 Edge correction data generation unit 202 Selector 211 α determination unit 212 β determination unit 213 α multiplication / quantum Conversion unit 214 maximum value selection unit 215 α multiplication unit 216 halftone processing unit

特許第4111190号公報Japanese Patent No. 4111190 特許第4217706号公報Japanese Patent No. 4217706

Claims (9)

第1の画像データに対して中間調処理を施す中間調処理手段と、
前記第1の画像データから画像のエッジ部分を検出するエッジ検出手段と、
前記エッジ検出手段により検出されたエッジ部分における前記中間調処理後の画像データ(第2の画像データと記す)の画素(エッジ画素と記す)のうち、ドットOFFのエッジ画素に対して当該エッジ画素の前記中間調処理前の濃度に応じた出力レベルのドットを出力するように補正をし、前記中間調処理前に所定以上の濃度を有するドットONのエッジ画素に対してドットの出力レベルを下げるように補正をするエッジ補正処理手段と、
を有することを特徴とする画像処理装置。
Halftone processing means for performing halftone processing on the first image data;
Edge detecting means for detecting an edge portion of the image from the first image data;
Among the pixels (denoted as edge pixels) of the image data (denoted as second image data) after the halftone processing in the edge portion detected by the edge detection means, the edge pixels with respect to the edge pixel of dot OFF Is corrected so as to output a dot having an output level corresponding to the density before the halftone process, and the dot output level is lowered for the dot ON edge pixel having a density higher than a predetermined density before the halftone process. Edge correction processing means for correcting
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記エッジ補正処理手段は、中間調処理前に所定以上の濃度を有するドットONのエッジ画素の全てに対しドットの出力レベルを下げるように補正をすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the edge correction processing unit performs correction so as to lower a dot output level for all of the dot ON edge pixels having a density of a predetermined density or more before halftone processing.
請求項1に記載の画像処理装置において、
前記エッジ補正処理手段は、中間調処理前に所定以上の濃度を有するドットONのエッジ画素の一部のみに対しドットの出力レベルを下げるように補正をすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the edge correction processing unit performs correction so as to lower a dot output level for only a part of dot ON edge pixels having a predetermined density or more before halftone processing.
請求項1に記載の画像処理装置において、
前記エッジ補正処理手段は、
前記第1の画像データの画素毎に、その画素値に基づいて係数を決定する手段、
前記第1の画像データの画素毎に、その画素値に基づいて第1の補正候補値を決定する手段、
前記第2の画像データの画素毎に、その画素値と当該画素に対応して決定された前記係数を乗算し、その乗算結果を量子化することによって第2の補正候補値を決定する手段、
前記第2の画像データの画素毎に、当該画素に対応して決定された前記第1の補正候補値と前記第2の補正候補値のうちの濃い方の値を当該画素に対応した補正値として選択する手段、及び
前記第2の画像データのエッジ画素の画素値を、当該エッジ画素に対応した前記補正値により置き換える手段を有し、
前記係数を決定する手段は画素値が濃いほど係数の値を減少させ、前記第1の補正候補値を決定する手段は画素値が濃いほど第1の補正候補値を増大させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The edge correction processing means includes
Means for determining a coefficient based on a pixel value of each pixel of the first image data;
Means for determining a first correction candidate value based on the pixel value for each pixel of the first image data;
Means for multiplying the pixel value of each pixel of the second image data by the coefficient determined corresponding to the pixel, and determining a second correction candidate value by quantizing the multiplication result;
For each pixel of the second image data, a darker value of the first correction candidate value and the second correction candidate value determined corresponding to the pixel is a correction value corresponding to the pixel. And means for replacing the pixel value of the edge pixel of the second image data with the correction value corresponding to the edge pixel,
The means for determining the coefficient decreases the value of the coefficient as the pixel value increases, and the means for determining the first correction candidate value increases the first correction candidate value as the pixel value increases. Image processing device.
請求項1に記載の画像処理装置において、
前記エッジ補正処理手段は、
前記第1の画像データの画素毎に、その画素値に基づいて係数を決定する手段、
前記第1の画像データの画素毎に、その画素値に基づいて第1の補正候補値を決定する手段、
前記第1の画像データの画素毎に、その画素値と当該画素に対応して決定された前記係数を乗算し、その乗算結果に対し前記中間調処理手段と同じ中間調処理を施すことにより第2の補正候補値を決定する手段、
前記第2の画像データの画素毎に、当該画素に対応して決定された前記第1の補正候補値と前記第2の補正候補値のうちの濃い方の値を当該画素に対応した補正値として選択する手段、及び
前記第2の画像データのエッジ画素の画素値を、当該エッジ画素に対応した前記補正値により置き換える手段を有し、
前記係数を決定する手段は画素値が濃いほど係数の値を減少させ、前記第1の補正候補値を決定する手段は画素値が濃いほど第1の補正候補値を増大させることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The edge correction processing means includes
Means for determining a coefficient based on a pixel value of each pixel of the first image data;
Means for determining a first correction candidate value based on the pixel value for each pixel of the first image data;
For each pixel of the first image data, the pixel value is multiplied by the coefficient determined corresponding to the pixel, and the multiplication result is subjected to the same halftone processing as the halftone processing means. Means for determining two correction candidate values;
For each pixel of the second image data, a darker value of the first correction candidate value and the second correction candidate value determined corresponding to the pixel is a correction value corresponding to the pixel. And means for replacing the pixel value of the edge pixel of the second image data with the correction value corresponding to the edge pixel,
The means for determining the coefficient decreases the value of the coefficient as the pixel value increases, and the means for determining the first correction candidate value increases the first correction candidate value as the pixel value increases. Image processing device.
請求項4又は5に記載の画像処理装置において、
前記係数を決定する手段で、エッジ画素のエッジ境界からの距離に応じて当該エッジ画素に対し決定する係数の値を制御することにより、ドットの出力レベルを下げる補正の対象となるエッジ画素に対する出力レベルを下げる度合を、当該エッジ画素のエッジ境界からの距離が大きいほど弱めることを特徴とする画像処理装置。
The image processing apparatus according to claim 4 or 5,
Output to the edge pixel to be corrected by lowering the output level of the dot by controlling the value of the coefficient determined for the edge pixel in accordance with the distance from the edge boundary of the edge pixel by means for determining the coefficient An image processing apparatus, characterized in that the degree of lowering the level decreases as the distance from the edge boundary of the edge pixel increases.
請求項4又は5に記載の画像処理装置において、
前記係数を決定する手段で、所定の線幅以下の線に属する画素、所定の大きさの文字に属する画素、所定の線幅以下の白線に隣接した画素、又は、所定の大きさ以下の白文字に隣接した画素のいずれかの画素(特殊画素と記す)に該当する画素であるか否かに応じて、当該画素に対し決定する係数の値を制御するとともに、
前記第1の補正候補値を決定する手段で、前記特殊画素に該当する画素であるか否かに応じて、当該画素に対し決定する第1の補正候補値の値を制御することにより、
ドットの出力レベルを下げる補正の対象となるエッジ画素に対する出力レベルを下げる度合を、当該エッジ画素が前記特殊画素に該当する場合に前記特殊画素に該当しない場合より強めるとともに、ドットOFFのエッジ画素に出力させるドットの出力レベルを、当該エッジ画素が前記特殊画素に該当する場合に前記特殊画素に該当しない場合より低い出力レベルになりやすくすることを特徴とする画像処理装置。
The image processing apparatus according to claim 4 or 5,
The means for determining the coefficient includes a pixel belonging to a line having a predetermined line width or less, a pixel belonging to a character having a predetermined size, a pixel adjacent to a white line having a predetermined line width or less, or a white having a predetermined size or less. According to whether or not it is a pixel corresponding to one of the pixels adjacent to the character (denoted as a special pixel), the coefficient value determined for the pixel is controlled,
The means for determining the first correction candidate value controls the value of the first correction candidate value determined for the pixel according to whether or not the pixel corresponds to the special pixel.
When the edge pixel corresponds to the special pixel, the degree to which the output level for the edge pixel to be corrected to lower the dot output level is increased compared to the case where the edge pixel does not correspond to the special pixel. An image processing apparatus characterized in that an output level of a dot to be output is likely to be a lower output level when the edge pixel corresponds to the special pixel than when the edge pixel does not correspond to the special pixel.
請求項4乃至7のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 4 to 7. 請求項4乃至7のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるプログラムが記録された、コンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which a program for causing a computer to function as each unit of the image processing apparatus according to claim 4 is recorded.
JP2010038494A 2010-02-24 2010-02-24 Image processing apparatus, program, and recording medium Active JP5458946B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010038494A JP5458946B2 (en) 2010-02-24 2010-02-24 Image processing apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010038494A JP5458946B2 (en) 2010-02-24 2010-02-24 Image processing apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2011176556A true JP2011176556A (en) 2011-09-08
JP5458946B2 JP5458946B2 (en) 2014-04-02

Family

ID=44689016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010038494A Active JP5458946B2 (en) 2010-02-24 2010-02-24 Image processing apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5458946B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014177109A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Image forming apparatus
JP2018024257A (en) * 2017-11-01 2018-02-15 株式会社リコー Image formation apparatus
CN108737687A (en) * 2014-08-20 2018-11-02 佳能株式会社 Image processing apparatus, image processing method and storage medium
US10373030B2 (en) 2016-09-30 2019-08-06 Brother Kogyo Kabushiki Kaisha Image processing apparatus that executes halftone process on target image data including edge pixel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1117956A (en) * 1997-06-25 1999-01-22 Fuji Xerox Co Ltd Image processing unit and image smoothing method
JP2005341249A (en) * 2004-05-27 2005-12-08 Konica Minolta Business Technologies Inc Image processing apparatus
JP2009253645A (en) * 2008-04-04 2009-10-29 Canon Inc Image processor and processing method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1117956A (en) * 1997-06-25 1999-01-22 Fuji Xerox Co Ltd Image processing unit and image smoothing method
JP2005341249A (en) * 2004-05-27 2005-12-08 Konica Minolta Business Technologies Inc Image processing apparatus
JP2009253645A (en) * 2008-04-04 2009-10-29 Canon Inc Image processor and processing method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014177109A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Image forming apparatus
CN108737687A (en) * 2014-08-20 2018-11-02 佳能株式会社 Image processing apparatus, image processing method and storage medium
CN108737687B (en) * 2014-08-20 2021-03-09 佳能株式会社 Image processing apparatus, image processing method, and storage medium
US10373030B2 (en) 2016-09-30 2019-08-06 Brother Kogyo Kabushiki Kaisha Image processing apparatus that executes halftone process on target image data including edge pixel
JP2018024257A (en) * 2017-11-01 2018-02-15 株式会社リコー Image formation apparatus

Also Published As

Publication number Publication date
JP5458946B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
JP5260865B2 (en) Method, apparatus and computer program for halftoning a digital image
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP4243854B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
KR102067319B1 (en) Image processing apparatus, method of controlling the same, and storage medium
JP4501791B2 (en) Image processing method and image processing program
JP5458946B2 (en) Image processing apparatus, program, and recording medium
JP4111190B2 (en) Image processing device
JP4386216B2 (en) Color printing system and control method thereof
US9147140B2 (en) Image processing apparatus, method, and product for converting image data into fewer gradations based on total value of pixels in a group except for a detected pixel having a specific value
US9609171B2 (en) Applying luminance conversion processing in accordance with image attribute information to improve edge detection and image data correction for pseudo halftone processing
JP4570534B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP6566277B2 (en) Image processing device
EP2894841B1 (en) Information processing apparatus, information processing method, and storage medium
JP4324532B2 (en) Image processing apparatus and storage medium
JP2015122617A (en) Information processing device, information processing method, and program
US20100259795A1 (en) System and method of image edge growth control
JP6020042B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2017135609A (en) Image processing apparatus, image processing method, and program
JPH1056568A (en) Image processor
JP2012257065A (en) Image forming apparatus and processing program
JP2006191294A (en) Image processor, program and image-processing method
JP2001069350A (en) Image forming device
JP2006067294A (en) Image processing method and image processor
JP2000156780A (en) Image processor
KR20070038242A (en) Method and apparatus for determinating dot output of an image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121206

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130802

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131230

R151 Written notification of patent or utility model registration

Ref document number: 5458946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151